Full-text resources of CEJSH and other databases are now available in the new Library of Science.
Visit https://bibliotekanauki.pl

Results found: 5

first rewind previous Page / 1 next fast forward last

Search results

Search:
in the keywords:  DIF
help Sort By:

help Limit search:
first rewind previous Page / 1 next fast forward last
EN
Objectives. Presence of differential item functioning (DIF) in psychological measurement tools can indicate the presence of bias between groups. The present study is focused on analysing DIF between males and females in the Slovak version of NEO Five Factor Inventory (NEO-FFI). Sample and settings. The sample consists of 1016 respondents (40,6% males) from Slovakia, with mean age of 25.97 years (SD=13.42). Statistical analysis. For DIF analysis Mantel’s test in DIFAS 5.0 software, ordinal logistic regression and Poly-SIBTEST were used. Results. The final results show 18 items with medium and large uniform DIF, 6 of them identified by all the methods used. One item showing purely non-uniform DIF was identified. Deletion of identified DIF items caused notable change in scale score differences between males and females in Openness to experience scale. Possible factors causing DIF are discussed. Presence of the identified DIF items does not suggest that NEO-FFI is severely biased against males or females. Limitation. Limitation of the present study lies mainly in the general sample. Future studies should verify these findings on age specific samples.
EN
As a result of the many crises in the banking sectors, there was highlighted the need to ensure depositors disbursement of the funds. As a result, there was created the idea of deposit guarantee schemes. Currently, many countries include in its system of financial safety deposit guarantee institutions. Some of them play a significant role in maintaining the stability of the state of the banking sector through additional assistance to the affected banks. Other limited to the possible payout amounts warranty. The aim of the article is to present and evaluate different solutions for the deposit guarantee system. The research problem will be constituted to verify the assumption that the deposit insurance system in Poland works in the same way as the system in the Czech Republic – a country that has undergone a similar change of the political system.
PL
Na skutek wielu kryzysów w sektorach bankowych zwrócono uwagę na potrzebę zapewnienia deponentom wypłaty środków finansowych. Dzięki temu wykreowano ideę systemów gwarantowania depozytów. Obecnie wiele państw uwzględnia w swoim systemie bezpieczeństwa finansowego instytucje gwarancji depozytowych. Niektóre z nich pełnią znaczącą rolę w utrzymaniu stabilności państwowego sektora bankowego poprzez dodatkowe udzielanie pomocy zagrożonym bankom. Inne ograniczają się tylko do ewentualnych wypłat sum gwarancyjnych. Celem artykułu jest przedstawienie i ocena różnych rozwiązań systemowych dla gwarancji depozytowych. Problem badawczy będzie stanowiło weryfikowanie założenia, że system gwarantowania depozytów w Polsce działa w taki sam sposób jak system w Czechach – kraju, który przeszedł podobną zmianę ustrojową.
PL
Artykuł porównuje dwie metody wykorzystywane do identyfikacji zróżnicowanego funkcjonowania zadań (DIF) ocenianych dychotomicznie: nieparametryczne rozwiązanie opierające się na statystyce Mantela–Haenszela (MH) oraz podejście bazujące na teście ilorazu funkcji wiarygodności. Porównanie przeprowadzono na gruncie teoretycznym i za pomocą symulacji. Wyniki symulacji potwierdziły przypuszczenie, że podejście opierające się na statystyce MH jest bardziej czułe na jednorodne efekty DIF, jednak traci moc, gdy wielkość DIF zmienia się w zależności od poziomu zmiennej ukrytej mierzonej testem. Oprócz mocy statystycznej analizowano również specyficzne miary wielkości efektu DIF stosowane w obu metodach: miarę MH D – DIF, wykorzystywaną standardowo przez Educational Testing Service do klasyfikacji wielkości DIF, oraz różne miary P – DIF określone na metryce łatwości zadania.
EN
The article compares two methods used to detect differential item functioning (DIF) of dichotomously scored items: a nonparametric solution based on the Mantel–Haenszel procedure (MH) and a parametric IRT approach with a likelihood ratio test. A Monte Carlo experiment was performed in order to evaluate performance of both statistics in various conditions of DIF uniformity. Results confirmed the theoretical prediction that the MH test has greater statistical power in detecting uniform DIF than the likelihood ratio test and less power than the LR test in cases of non-uniform DIF. Apart of examining statistical power of the test, specific measures of DIF effect size were compared: MH D–DIF and three measures of P–DIF expressed on the item easiness scale.
4
81%
EN
The goal of this paper is the reanalysis of the Czech “Assessment of the structure of mathematical abilities” test (Traspe and Skalková, 2013), designed to assess problems related to the development of mathematical abilities in children aged approx. 5–11 years. The test contains 14 developmental scales and total scores – a total of 22 test scores with percentile norms. This study uses normative (N = 878) and clinical (N = 877) samples and focuses on three objectives: (1.) the estimation of composite scores reliability using stratified Cronbach's alpha; assessment of content validity and test fairness using (2.) a series of confirmatory factor analyses and (3.) differential item functioning analysis (DIF). Reliability estimates, which took into account the multidimensional structure of composite scores, led to a two-fold (in the case of total score, a three-fold) decrease in standard errors and narrower confidence intervals. Structural models supported the assumption of a weak factorial invariance between grades 2 to 5, except the Computing Automation subtest (the relationship of which with overall math ability strengthens with age). However, the factorial structures for first graders and younger children were different and there was no clear factor structure in the clinical sample. Results also suggested that the Mathematical Ideas subtest can serve as a screening method of the overall level of mathematical abilities. Single scales were not shown to be invariant according to the DIF analyses between grades and samples, which might mean that lower scores do not simply imply lower levels of mathematical ability, but also qualitative differences. This paper offers further recommendations for test use in common assessment situations.
CS
Cílem textu je reanalýza testu Diagnostika struktury matematických schopností (Traspe a Skalková, 2013), který slouží k zjišťování obtíží v rozvoji matematických schopností u dětí ve věkovém rozmezí od doby těsně před nástupem do základní školy až do pátého ročníku. Test obsahuje 14 vývojových škál a celkové skóry, celkem je k dispozici 22 škál s percentilovými normami. Tato studie pracuje se standardizačním (N = 878) a poradenským (N = 877) vzorkem a zaměřuje se na tři hlavní témata: (1.) ověření reliability součtových skórů prostřednictvím stratifikovaného Cronbachovo alfa, ověření obsahové validity testu a jeho férovosti pomocí (2.) série konfirmačních faktorových analýz a (3.) analýzy diferenciálního fungování položek (DIF). Odhady reliability se zohledněním vícedimenzionální struktury součtových skórů docílily až dvakrát (v případě celkového skóre až třikrát) menších standardních chyb měření a tedy i intervalů spolehlivosti. Strukturní modely podpořily předpoklad slabé faktorové invariance u dětí v 2.–5. ročníku ZŠ vyjma subtestu automatizace početních dovedností (jehož vztah s celkovými matematickými schopnostmi vzrůstá spolu s věkem dětí), faktorová struktura pro žáky prvních tříd a předškolní děti je nicméně odlišná a v poradenské populaci pak nelze identifikovat žádné stabilní faktory. Ukázalo se ale také, že subtest matematické pojmy lze samostatně použít u běžné populace pro kratší skríning celkové úrovně matematických schopností. Jednotlivé škály se pak během analýzy DIF ukázaly být ne zcela invariantní napříč ročníky i oběma vzorky: zdá se tedy, že nižší skóre v testu nemusí znamenat jen „kvantitativně nižší“ míru schopností v příslušných rysech, ale do jisté míry též kvalitativní odlišnosti od běžné populace. Článek poskytuje konkrétní doporučení pro další používání testu v běžné diagnostické praxi.
PL
Analizowano zróżnicowane funkcjonowanie zadań (DIF) ze względu na wersję arkusza testowego. Zadania wielokrotnego wyboru różniły się między arkuszami kolejnością odpowiedzi. Analizowano zadania z wersji A i B arkusza egzaminu gimnazjalnego z historii i wiedzy o społeczeństwie z 2013 r. Dane pochodziły od uczniów z województw lubelskiego, małopolskiego i podkarpackiego (n = 81 545). W celu detekcji DIF wykorzystano test Mantela–Haenshela, regresję logistyczną oraz standaryzację. Przedstawiono graficzne metody prezentacji DIF. Wyniki analiz wskazują na istotne różnice w funkcjonowaniu zadań między wersjami A i B testu w sytuacji, gdy w jednej wiązce zadań prawidłowa odpowiedź jest oznaczona zawsze tym samym symbolem, np. A, A, A. Taki wzór odpowiedzi nazwano antywzorcem, ponieważ może być uznawany przez uczniów za mało prawdopodobny i w konsekwencji prowadzić do udzielania błędnych odpowiedzi. Sformułowano rekomendacje ważne dla twórców testów.
EN
Differential item functioning (DIF) between different forms of test booklets was analysed. Both test forms shared the same items and only the sequence of options for the multiple choice items differed. Analysis was performed on 2013 data from two forms, A and B of “The history and civic studies” test administered in lower secondary schools in the Lubelskie, Malopolskie and Podkarpackie Voivodeships (n = 81 545). To detect DIF, the Mantel–Haenshel test, logistic regression and standardisation were used. Methods for DIF visualisation were demonstrated. Results indicated meaningful differences in item functioning between test forms, especially with a repeat letter pattern of answer keys on items bundled in testlet when correctly answered, e.g. A, A, A. Such a pattern is named an ‘anti-pattern’, because test takers may consider such a response pattern unlikely and in consequence answer incorrectly. Findings from this study should provide important guidelines for test development.
first rewind previous Page / 1 next fast forward last
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.