Software-basierte Evaluation freier Antwortformate
Artikel in Fachzeitschrift › Forschung › begutachtet
Publikationsdaten
Von | Hendrik Härtig |
Originalsprache | Deutsch |
Erschienen in | Zeitschrift für Didaktik der Naturwissenschaften, 20(1) |
Seiten | 115-128 |
Herausgeber (Verlag) | Springer |
ISSN | 0949-1147, 2197-988X |
DOI/Link | https://doi.org/10.1007/s40573-014-0012-6, http://link.springer.com/article/10.1007%2Fs40573-014-0012-6 |
Publikationsstatus | Veröffentlicht – 2014 |
Bislang werden in größeren Forschungsprojekten aus Gründen der Ökonomie und Auswerteobjektivität bevorzugt Paper-Pencil Instrumente mit gebundenen Aufgabenformaten verwendet. Es zeigt sich, dass zumindest eine Ergänzung um freie Antwortformate sinnvoll im Hinblick auf die Validität der Tests ist, dem steht aber der immense Aufwand hinsichtlich einer reliablen Auswertung entgegen. Inzwischen existieren jedoch Softwarepakete, die in der Lage sind, mittels semantischer Analysen längere schriftsprachliche Antworten zu verarbeiten und zu kategorisieren. Solche Verfahren könnten genutzt werden, um auch bei vielen ProbandInnen freie Antwortformate einzusetzen und diese Software-basiert zu evaluieren. Für englischsprachige Projekte im Bereich Fachwissen liegen bereits erste ermutigende Befunde für große ProbandInnenzahlen vor. Hier wird die Software-basierte Evaluation in einer sehr kleinen Stichprobe für acht Aufgaben eines deutschsprachigen Instruments zur Erfassung des fachdidaktischen Wissens in Physik erprobt. Dabei lassen sich einerseits gute bis sehr guter Übereinstimmungen zwischen der Software und menschlichen ExpertInnen erzielen. Andererseits werden aber auch Optimierungsoptionen deutlich. Vor allem die Zahl der ProbandInnen aber auch die Aufgabengestaltung bietet Verbesserungspotential.