Digitale Aufgaben konstruieren
Veröffentlicht von Sabine Schermeier am
Digitale Aufgaben konstruieren
Einführung
Digitale Aufgabenformate (wie z.B. Multiple-Choice-Tests) ermöglichen meist eine (teil-)automatisierte Auswertung von Aufgabenstellungen, sodass der Korrekturaufwand reduziert werden kann. Aufgaben, die mittels einer fachspezifischen Software gelöst werden, wie zum Beispiel Programmieraufgaben, schaffen überdies die Möglichkeit zu sehr praxisnahen, kompetenzorientierten Prüfungen.
Einsatzszenario
Digitale (wie auch analoge) Aufgaben können zum einen formativ angeboten werden. Das heißt: Die Aufgaben werden online bearbeitet und geben Aufschluss über den Lernfortschritt. Überdies lässt sich eine digitale Aufgabe auch summativ einsetzen, um eine abschließende Leistungsbewertung vorzunehmen.
Ein weiterer Mehrwert digitaler Aufgaben ist die Möglichkeit, multimediale Elemente einzubinden: angefangen beim einfachen PDF-Dokument bis hin zu komplexen Videosimulationen.
Bei der Entwicklung jedes digitalen Aufgabenformates sollte geprüft werden, ob es das gewünschte Lernziel(-niveau) anspricht bzw. abfragt und ob die in der Aufgabe geforderten Kompetenzen auch zuvor eingeübt wurden.
BestandTeile einer AUFGabe
Jede Aufgabe besteht aus zwei Bestandteilen: a) einem Aufgabenstamm und b) einem Antwortformat. Der Aufgabenstamm bildet eine bestimmte Anforderungssituation ab, also eine Frage, eine Aussage, eine Geschichte, Bilder, Zeichnungen oder eine Rechenaufgabe. Maßgeblich bei der Gestaltung des Aufgabenstammes ist, dass diese das gewünschte Verhalten des Studierenden abfragt. Das Antwortformat dient dagegen zur Registrierung des Testverhaltens (vgl. Handreichung der TUM zum kompetenzorientierten Prüfen - siehe "Internetquellen und Literatur" unten).
Aufgabenformate
Geschlossene Aufgabenformate geben Antworten vor, welche ausgewählt oder in eine korrekte Reihenfolge gebracht werden sollen, wie z.B. Multiple-Choice- oder Drag-and Drop-Aufgaben. Offene Aufgabenformate erfordern eine eigenständige Leistung des Studierenden ohne die Möglichkeit, sich an vorgegebenen Antworten orientieren zu können. Die Bandbreite reicht hier von recht einfachen Aufgaben, wie z.B. Lückentextaufgaben bis hin zu Freitextaufgaben mit kreativen Antwortmöglichkeiten, wie sie für die Beschreibung von Vorgehensweisen, Begründungen oder Argumentationen benötigt werden.
Konstruktionsfehler
Aufgaben im Antwort-Wahl-Verfahren enthalten häufig Konstruktionsfehler. Das heißt: Formale, logische, grammatikalische oder inhaltliche Aspekte lassen Rückschlüsse auf die korrekte Antwort zu oder ermöglichen, falsche Optionen auszuschließen.
Die Fähigkeit, solche Hinweise („cues“) zu nutzen, wird als Testwiseness bezeichnet. Nachlässig erstellte MC-Tests sind ein guter Nährboden für die erfolgreiche Anwendung von Testwiseness-Strategien.
Die einzelnen Items eines MC-Tests sollten am besten mit Hilfe einer Checkliste geprüft werden.
Zur Überprüfung der Qualität von Multiple-Choice-Fragen lohnt es sich mit einer Checkliste zu arbeiten, wie sie beispielsweise die Leibniz-Universität Hannover bereitstellt: Gute Fragen für gute Lehre. Eine Handreichung für Lehrende zur Erstellung von Fragen im Antwortwahlverfahren.
Die TH Wildau hat eine ausführlichen und hilfreichen Leitfaden zur Erstellung von MC-Fragen bereitgestellt.
TH Wildau.Leitfaden E-Assessment zur Erstellung von Fragen und Assessments. Letzter Zugriff: 14.03.2025
Unterschiedliche Fragetypen
Innerhalb der offenen bzw. geschlossenen Aufgabenformate können verschiedene Fragetypen eingesetzt werden. In diesem Video der FH Bielefeld werden geschlossene Aufgabenformate und verschiedene, darin verwendete Fragetypen ausführlich besprochen (Loviscach, Jörn: E-Assessment mit geschlossenen Aufgaben)
Die folgende Übersicht zeigt Fragetypen in Bezug auf gesetzte Lernziele und berücksichtigt dabei sowohl geschlossene als auch offene Aufgabenformate (vgl. Vogt & Schneider: E-Klausuren an Hochschulen).
Lernziele
- Begriffe wiedererkennen,
- Konzepte verstehen,
- Zusammenhänge erkennen,
- Einstellungen werten (sehr flexibel)
Lernziele
- Visuelle Strukturen wiedererkennen
Lernziele
- Begriffe in Beziehung setzen,
- Konzepte einander zuordnen,
- Hierarchien erkennen
Lernziele
- Prozesse analysieren,
- Historische Entwicklungen reproduzieren
Lernziele
- Begriffe reproduzieren,
- Mathematische Ergebnisse numerisch angeben
- Zahlen reproduzieren
Lernziele
- Satzbau verstehen,
- Begriffe reproduzieren
Lernziele
- Problemlösung beschreiben,
- Standpunkt argumentieren
Lernziele
- Begriffe oder Namen reproduzieren
Tipps zur Umsetzung
An Lernzielen orientieren
Ob ein Lernziel erreicht wurde, lässt sich nur feststellen, wenn die Lernziele im Vorfeld klar definiert wurden. Diese Lernziele können sich auf unterschiedlichen Niveaus befinden – vom Abfragen von Faktenwissen über Anwendungen bis hin zur (Neu-)konstruktion von Wissen. Weitere Infos zu Lernzielen und deren Entwicklung lesen Sie gern in unserem Beitrag Lernziele.
Eindeutige Aufgabenstellungen entwickeln
Entwickeln Sie eindeutige Aufgabenstellungen. Dies gelingt u.a. dadurch, dass
- jede Aufgabe nur eine Anforderungsdimension abbildet (wie z.B. eine bestimmte Fähigkeit). Geht es beispielsweise darum, die Rechenfähigkeit von Studierenden zu ermitteln, darf für die Lösung der Aufgabe auch nur diese Fähigkeit abgefragt werden.
- die Aufgaben das gewählte Lernzielniveau berücksichtigen: Soll etwa ein tieferes Verständnis von Studierenden – etwa über eine Formel – geprüft werden, reicht es ggf. nicht aus, eine reine Anwendungsaufgabe zu stellen.
Bandbreite der Lernzielniveaus avisieren
Bieten Sie für verschiedene Lernziele auch verschiedene Aufgaben an. Während die Abfrage theoretischen Wissens mittels Antwort-Wahl-Aufgabe ggf. noch relativ leicht fällt, sind höhere Lernzielniveaus schwieriger umzusetzen. Hier einige Tipps:
- Positionieren Sie nach der Abfrage von Wissen in einer Antwort-Wahl-Aufgabe (Frage 1) eine Frage zur Begründung der zuvor gegebenen Antwort (Frage 2) – sog. Two-tier question (Timmermann& Kautz, 2015.)
- Betten Sie Ihre Frage in ein fachtypisches Szenario ein, durch das bestimmte Bedingungen vorgegeben sind. Fragen können sich dann immer wieder auf dieses Szenario beziehen.
- Geben Sie als Antwortmöglichkeiten verschiedene Lösungswege anderer (fiktiver) Studierender vor und lassen Sie die richtige auswählen.
Weitere Tipps und Tricks hierzu finden Sie auf den E-Assessment-Seiten der Universität Bremen
Bewertungskriterien festlegen
Definieren Sie parallel zur Aufgabenentwicklung Bewertungskriterien, um eine objektive und valide Prüfung der Ergebnisse zu prüfen. Weitere Hinweise zu Bewertungskriterien (rubrics) erhalten Sie hier.
Möglichkeiten der eigenen Testumgebung prüfen
Bevor Sie mit der Entwicklung von Aufgaben beginnen, informieren Sie sich darüber, welche Aufgabentypen Ihnen durch die an Ihrer Hochschule angebotenen Tools zur Verfügung stehen! Viele Testsysteme (z.B. Moodle) verfügen zudem auch über Plugins zur Erweiterung vorhandener Aufgabentypen.
Hilfreiche Links
Das Verbundprojekt der Hamburger Hochschulen Mintfit Hamburg bietet verschiedene Online-Tests an, die zur Veranschaulichung von Aufgabentypen dienen können.
Die Uni-Bern stellt ein Assessment-Tool zur Verfügung, welches Lehrende nutzen können, um passende Aufgabentypen zu finden. Durch die Abfrage von Anforderungen erhalten Lehrende ein Ranking der geeignetsten Assessments samt Erläuterung.
Tools an der HCU
Formatives Assessment: Für die Erstellung von Tests kann u.a. die Lernplattform moodle genutzt werden. Weitere Infos und eine Übersicht über moodle Fragetypen haben wir in unserem Beitrag Lernplattform moodle aufbereitet.
Summatives Assessment: Hierfür steht EvaExam zur Verfügung. Mit EvaExam können Scan- oder Online-Klausuren für Prüfungen im Antwort-Wahl-Verfahren durchgeführt werden. Weitere Informationen finden Sie hier.
YAPS (Your Open Examination System for Activating and emPowering Students), ein elektronisches Prüfungssystem, das aktuell an der TUHH (weiter)entwickelt wird, bietet nützliche Funktionen für die Prüfungssituation, wie einen abgesicherten Browser oder die Administration über eine Handy-App. Aufgaben werden aktuell über browserbasierte Eigenentwicklungen eingebunden. Geplant ist, dass sich das System mit anderer webbasierter Software kombinieren lässt. Es sind vergleichsweise nur geringe Programmierkenntnisse notwendig, um als Lehrende*r eine elektronische Prüfung anzulegen. Ansprechpartner hierzu ist die Arbeitsstelle MINTFIT Hamburg.
Literatur
Tipps zur Erstellung von MC-Fragen stellt die Universität Bremen zur Verfügung: Universität Bremen. E-Assessment. URL: http://www.eassessment.uni-bremen.de/mc_leitfaden.php
Erläuterungen und Beispiele zu geschlossenen Aufgabenformaten: FH Bielefeld, E-Assessments E-Klausuren. E-Prüfungen an Hochschulen. E-Assessment mit geschlossenen Aufgaben
Ausführliche Erläuterungen zu einzelnen Aufgabentypen stellt ELAN e.V. im E-Assessment Wiki zur Verfügung: ELAN e.V., E-Assessments und Klausuren. E-Prüfungen an Hochschulen. URL: https://ep.elan-ev.de/wiki/Aufgabentypen#Geschlossene_Aufgaben
Strategien und Beispiele zur Erstellung geschlossener Aufgaben: Jona Florian Stieler, Stieler Florian (2011). Validität summativer Prüfungen – Überlegungen zur Gestaltung von Klausuren, Janus Presse, Bielefeld, 2011, Download als PDF
Gallaun, K. Kruse, C. Seifert Adaptive (2019): Übungs- und Prüfungsaufgaben in Mathematik mit hochwertiger Bewertung. In Schott, D. (Hrsg.): Proceedings 15. Workshop Mathematik in ingenieurwissenschaftlichen Studiengängen, Rostock-Warnemünde, Wismarer Frege-Reihe, Heft 02/2019, 18-24, 2019
Timmermann, D. & Kautz, C. (2015). Multiple choice questions that test conceptual understanding: A proposal for qualitative two-tier exam questions. ASEE Annual Conference and Exposition (2015-06). Download als PDF
Vogt, Michael & Schneider, Stefan (2009): E-Klausuren an Hochschulen. Gießen. URL: http://geb.uni-giessen.de/geb/volltexte/2009/6890/
Hilfreiches Assessment-Tool der Universität Bern, das Lehrende bei der Entwicklung von Aufgaben unterstützt. URL: https://assessment.unibe.ch/
Zur Veranschaulichung verschiedener Aufgabentypen interessant: Orientierungstests von Mintfit Hamburg. URL: https://www.mintfit.hamburg/
ELAN e.V.: E-Assessments & E-Klausuren: E-Prüfungen an Hochschulen.
ZMML (Zentrum für Multimedia in der Lehre): Tipps zur Erstellung von MC-Fragen. E-Assessment. Universität Bremen
Lindner, M. A., Strobel, B., Köller, O. (2015). Multiple-Choice-Prüfungen an Hochschulen? Ein Literaturüberblick und Plädoyer für mehr praxisorientierte Forschung. In: Zeitschrift für Pädagogische Psychologie, 133-149. https://doi.org/10.1024/1010-0652/a000156
Photo by Clay Banks on Unsplash