DanLevy.net

Die bescheidene Kraft von Multiple-Choice-Fragen

Wie man das volle Potenzial von MCQs im Bildungsbereich nutzt

Ich dachte immer, Multiple-Choice-Fragen seien der billige Platz beim Unterrichten.

Gut, um zu prüfen, ob sich jemand einen Begriff gemerkt hat. Schlecht, um herauszufinden, ob er die Idee auch anwenden kann. Für standardisierte Tests in Ordnung, für die unordentliche Arbeit des Lernens weniger.

Dann begann ich, Programmier-Quizzes zu erstellen.

Die Überraschung war nicht, dass Multiple-Choice-Fragen skalieren. Das weiß jeder. Die Überraschung war, dass ein guter Antwortsatz die Lehre vermitteln kann, bevor die Erklärung erscheint.

Der nützliche Teil einer Multiple-Choice-Frage ist oft nicht die richtige Antwort. Es sind die falschen Antworten, die du bewusst wählst.

Der Distraktor ist der Lehrplan

Die meisten schlechten Multiple-Choice-Fragen haben eine richtige Antwort, eine fast richtige Antwort und zwei Optionen, die offensichtlich geschrieben wurden, während der Autor auf seinen Kaffee wartete.

Das verschwendet das Format.

In einem guten Quiz repräsentiert jede falsche Antwort ein echtes Missverständnis:

Dort passiert die Lehre. Der Lernende wählt nicht einfach nur eine Option aus. Er offenbart, welches Modell er verwendet.

Eine Frage, mehrere Tiefen

Betrachte diese PostgreSQL-Frage als Beispiel:

Was ist die (SQL Standard) Syntax für eine auto-inkrementierende IDENTITY-Spalte in PostgreSQL (v10+)?

Diese Frage erfüllt mehrere pädagogische Zwecke für verschiedene Expertise-Level:

Die Frage fragt nicht nur nach Syntax. Sie sortiert mentale Modelle.

Jemand, der SERIAL wählt, hat PostgreSQL wahrscheinlich aus älteren Beispielen gelernt. Jemand, der IDENTITY(1,1) wählt, trägt SQL Server-Muskelmemory mit sich. Jemand, der AUTO_INCREMENT wählt, kennt das Konzept, aber nicht den Dialekt. Das sind verschiedene Lehrmomente.

Wenn die Erklärung nur sagt „A ist richtig”, wirft die Frage ihre besten Daten weg.

Was mich der Quiz-Bau gelehrt hat

Das Schreiben von Quizzes zwang mich, präziser zu werden, was ich eigentlich wollte, dass Leser lernen.

Ein Artikel kann eine vage Erklärung in glattem Prosa verstecken. Ein Quiz kann das nicht. Die falschen Antworten zeigen, ob das Konzept echte Kanten hat.

Wenn ich jetzt eine Programmierfrage schreibe, frage ich:

Diese Fragen machen die Lehre schärfer. Sie machen auch den Artikel schärfer, weil das Quiz zu einem Test der Erklärung selbst wird. Wenn ich vier überzeugende Optionen nicht schreiben kann, habe ich wahrscheinlich das eigentliche Konzept noch nicht gefunden.

Die Feedback-Schleife ist der Punkt

Multiple-Choice-Fragen sind im Maßstab nützlich, ja. Die Bewertung ist automatisch. Muster werden sichtbar. Man kann sehen, welche Fragen zu leicht, zu vage sind oder zufällig Trivia abfragen.

Aber die bessere Feedback-Schleife passiert, bevor der Lernende jemals klickt.

Der Autor muss die wahrscheinlichen Fehler des Lernenden modellieren. Das bedeutet, der Autor muss den Lernenden respektieren. Eine faule falsche Antwort sagt: „Ich brauchte Füllmaterial.” Eine starke falsche Antwort sagt: „Ich weiß genau, wie diese Idee schiefgeht.”

Deshalb verwende ich MCQs weiterhin auf dieser Seite. Nicht weil sie effizient sind, obwohl sie das sind. Weil sie eine Art instruktionale Ehrlichkeit erzwingen, die Prosa allein umgehen kann.

Wenn du das nächste Mal eine schreibst, beginne nicht mit der richtigen Antwort. Beginne mit den Missverständnissen. Die richtige Antwort wird einen viel besseren Standplatz haben.