Full-text resources of CEJSH and other databases are now available in the new Library of Science.
Visit https://bibliotekanauki.pl

Results found: 4

first rewind previous Page / 1 next fast forward last

Search results

help Sort By:

help Limit search:
first rewind previous Page / 1 next fast forward last
PL
Przedmiotem artykułu jest wpływ niepoprawnego określenia rodzaju zadania na trafność wyników egzaminu. W wyniku przeglądu zadań części matematyczno-przyrodniczej egzaminu gimnazjalnego w latach 2002–11 zidentyfikowano 9 zadań uznanych przez CKE za otwarte, mimo że treściowo i psychometrycznie funkcjonowały one jak zamknięte. Dla jednego z tych zadań przeprowadzono studium przypadku z wykorzystaniem modelowania IRT. Omówiony przypadek dowodzi zgadywania poprawnej odpowiedzi w zadaniach błędnie zakwalifikowanych jako zadania otwarte.
EN
The article demonstrates the consequences on validity when test items are misclassified as constructed-response but in fact function as selected-response. From the review of items included in the scientific part of the national exam (2002–11) that concludes 3-year lower secondary school, 9 items, which were classified as constructed-response but functioning in content and psychometrically as selected-response, were identified. One such item was examined in a case study using IRT modelling. The study showed how guessing of correct responses to items might influence test validity when using an incorrectly classified format.
PL
Artykuł omawia zagadnienie trafności predykcyjnej ocen szkolnych dla wyników uzyskanych w egzaminach zewnętrznych. Opierając się na ocenach szkolnych i ich średniej, oszacowano stopień, w jakim można było przewidzieć uzyskany przez ucznia wynik na egzaminie gimnazjalnym w latach 2012 i 2013. Ze względu na hierarchiczną strukturę danych, w analizach wykorzystano dwupoziomowy model regresji. Do oszacowania stopnia selekcyjności oddziałów szkolnych w gimnazjum użyto modelowania IRT. Wyniki świadczą o wysokiej mocy predykcyjnej ocen szkolnych i ich średniej, zarówno na poziomie indywidualnym, jak i na poziomie oddziału szkolnego. Współczynniki korelacji wewnątrzklasowej świadczą o wysokim stopniu selekcyjności oddziałów szkolnych. Przedstawione wyniki mają znaczenie w kontekście procesów rekrutacyjnych do szkół ponadgimnazjalnych, zwłaszcza wyboru przez ucznia konkretnego oddziału szkolnego.
EN
The issue of predictive validity of school grades relative to large-scale standardized tests is described. The extent to which the results from standardized external exams at the end of lower secondary school from 2012–2013 can be predicted on the basis of school grading (both single and average grades) was estimated. Due to the hierarchical structure of analysed data, two-level linear regression models were used. In order to estimate the level of class selectivity, IRT modelling was used. The results indicated that single school grades and their averages are very good predictors for standardized test results, both at individual and class levels. Further, intra-class correlation coefficients demonstrated a high degree of class selectivity. The results are practically applicable to high school recruitment, particularly to student choice of class.
EN
Guessing and item omission may be regarded as risk-taking or risk-avoidance strategies – sex specific adaptations to testing situations. In this article, these phenomena were analysed by (a) percentage of omissions by sex, (b) negative binomial regression to asses sex differences in the number of omissions, (c) c-DIF analysis using IRT-LR test and (d) linear regression using item attributes, to assess whether the c-parameter is sex differentiated by the percentage of omits (controlling item difficulty). The data set analysed were from the 2012–2014 Polish lower-secondary schools final exams, comprising tests in maths, language, science and humanities. Contrary to the vast body of literature, boys omitted items slightly more frequently than girls. Possible explanations of this finding – specific to the Polish examination system – were provided. The hypothesis of a higher c-parameter for boys did not find strong support from this study. It was shown that the c-parameter should not only be interpreted as resulting from item non-omission. This supports the modern concept of the c-parameter as a consequence not only of random guessing, but also problem solving, creative guessing or cheating.
PL
Analizowano zróżnicowane funkcjonowanie zadań (DIF) ze względu na wersję arkusza testowego. Zadania wielokrotnego wyboru różniły się między arkuszami kolejnością odpowiedzi. Analizowano zadania z wersji A i B arkusza egzaminu gimnazjalnego z historii i wiedzy o społeczeństwie z 2013 r. Dane pochodziły od uczniów z województw lubelskiego, małopolskiego i podkarpackiego (n = 81 545). W celu detekcji DIF wykorzystano test Mantela–Haenshela, regresję logistyczną oraz standaryzację. Przedstawiono graficzne metody prezentacji DIF. Wyniki analiz wskazują na istotne różnice w funkcjonowaniu zadań między wersjami A i B testu w sytuacji, gdy w jednej wiązce zadań prawidłowa odpowiedź jest oznaczona zawsze tym samym symbolem, np. A, A, A. Taki wzór odpowiedzi nazwano antywzorcem, ponieważ może być uznawany przez uczniów za mało prawdopodobny i w konsekwencji prowadzić do udzielania błędnych odpowiedzi. Sformułowano rekomendacje ważne dla twórców testów.
EN
Differential item functioning (DIF) between different forms of test booklets was analysed. Both test forms shared the same items and only the sequence of options for the multiple choice items differed. Analysis was performed on 2013 data from two forms, A and B of “The history and civic studies” test administered in lower secondary schools in the Lubelskie, Malopolskie and Podkarpackie Voivodeships (n = 81 545). To detect DIF, the Mantel–Haenshel test, logistic regression and standardisation were used. Methods for DIF visualisation were demonstrated. Results indicated meaningful differences in item functioning between test forms, especially with a repeat letter pattern of answer keys on items bundled in testlet when correctly answered, e.g. A, A, A. Such a pattern is named an ‘anti-pattern’, because test takers may consider such a response pattern unlikely and in consequence answer incorrectly. Findings from this study should provide important guidelines for test development.
first rewind previous Page / 1 next fast forward last
JavaScript is turned off in your web browser. Turn it on to take full advantage of this site, then refresh the page.