Zur Messgüte von geschlossenen und offenen Antwortformaten in Lernstandserhebungen

Artikel in FachzeitschriftForschungbegutachtet

Publikationsdaten


VonJohannes Schult, Marlit Annalena Lindner
OriginalspracheDeutsch
Erschienen inPsychologie in Erziehung und Unterricht, 66(4)
Seiten260-272
Herausgeber (Verlag)Ernst Reinhardt Verlag
ISSN0342-183X
DOI/Linkhttps://doi.org/10.2378/peu2018.art31d, https://www.reinhardt-journals.de/index.php/peu/article/view/7702
PublikationsstatusVeröffentlicht – 10.2019

In schulischen Large-Scale-Assessments kommen häufig verschiedene Aufgabentypen zum Einsatz. Aufgaben mit geschlossenem Antwortformat haben gegenüber Aufgaben mit offenem Antwortformat große Vorteile hinsichtlich der Auswertungsobjektivität. Landesweite Lernstandserhebungen werden oft nicht zentral von geschultem Personal ausgewertet, sondern von Lehrkräften vor Ort. Die vorliegende Arbeit untersucht formatspezifische Validitätsunterschiede anhand eines Instruments zur Diagnose mathematischer Kompetenzen aus der Domäne „Zahlen und Operationen“. Die Analyse basiert auf Teilen der „Lernstand 5“-Pilotierungsstichprobe 2016 (n = 1205 4.-Klässlerinnen und 4.-Klässler). Aus den offenen und geschlossenen Testaufgaben wurden jeweils formatspezifische Skalen mit gleicher Aufgabenanzahl und vergleichbarer Reliabilität gebildet. Für beide Formate zeigten sich Validitätshinweise bezüglich der Mathematiknote (rgeschlossen = .57; roffen = .60). Der Validitätskoeffizient der (offenen) Kurzantwort-Skala unterschied sich dabei nicht signifikant von dem der geschlossenen Multiple-Choice-Skala (Δr = 0.03, p = .15). Die Ergebnisse deuten darauf hin, dass die Auswertung von Lernstandserhebungen durch Lehrkräfte bei offenen und geschlossenen Aufgaben gleichermaßen zu validen Messungen führen kann.