piwik no script img

Archiv-Artikel

Es gibt auch dumme Fragen

E-ASSESSMENT Die Prüfung von Studierenden an Computern stellt Universitäten und Dozenten vor neue Herausforderungen: Wie erstelle ich wasserdichte Prüfungsaufgaben?

E-Assessment: dreimal beispielhaft

■  Das Zentrum für Multimedia in der Lehre der Universität Bremen hat für sein Testcenter den medida prix 2009 erhalten. Das Testcenter ist eine speziell auf die technischen und organisatorischen Erfordernisse bei computergestützten Prüfungen ausgerichtete Serviceeinrichtung der Universität. www.eassessment.uni-bremen.de

■  Die Universität Mainz investierte in den letzten vier Jahren 1,35 Millionen Euro in E-Learning. In ihrer Lernplattform ILIAS, die Organisation von Lehrveranstaltungen, Lehre und E-Klausuren unterstützt, sind derzeit schon mehr als 38.000 aktive Nutzer registriert. www.e-learning.uni-mainz.de

■  Mit dem Projekt „FU E-Examinations – digitaler Lehr- und Prüfungssaal“ hat die Freie Universität Berlin begonnen, das Thema computergestützter Prüfungen universitätsweit zu institutionalisieren. Im Rahmen des Projekts wurden vier Räume auf dem zentralen Campus zu digitalen Lehr- und Prüfungsräumen umgerüstet. Sie verfügen über 220 Plätze. Dort können Studierende mit ihren eigenen Laptops an computergestützten Prüfungen teilnehmen. www.e-examinations.fu-berlin.de

VON LARS KLAASSEN

„Assessment-Center“ sind vor allem durch Unternehmen bekannt geworden: Darin werden im Zuge verschiedener Aufgaben Job-Bewerber mit dem besten Potenzial herausgefiltert. Das sogenannte E-Assessment hält nun auch an den Hochschulen zunehmend Einzug.

Dabei geht es aber nicht um die Identifizierung guter Studienbewerber, sondern um Klausur- und Prüfungstools im Rahmen der BA- und MA-Ausbildungen. Personalmangel und steigende Studierendenzahlen verlangen nach neuen Methoden: etwa in Form zentralisierter Prüfungen in einem großen PC-Raum.

Meist werden dabei Aufgaben gestellt, die im Multiple-Choice-Verfahren beantwortet werden können. Der Trend zu solchen Prüfungsverfahren hat nicht nur Befürworter. Die Aufgaben seien zu standardisiert, würden komplexen Inhalten nicht gerecht und seien oft zu durchschaubar, lauten zentrale Kritikpunkte.

Das Problem liegt jedoch nicht allein im E-Assessment an sich, sondern in der Qualität der konkreten Aufgaben: „Vielen Dozenten fehlen bislang noch die guten Beispiele und die Übung, um wirklich gute Multiple-Choice-Fragen zu erstellen“, sagt Jens Bücking, Service- und Projektmanager am Zentrum für Multimedia in der Lehre (ZMML) der Universität Bremen. Didaktische Fallen drohen also weniger durch das Medium Computer, als durch fehlendes Hintergrundwissen beim Prüfungsklassiker Multiple-Choice.

Einige Fehler, die von Dozenten immer wieder gemacht werden, sind offenkundig. So sollten zwei Antwortalternativen niemals die gleiche Bedeutung haben. Denn auch Studierende ohne Fachwissen erkennen: Da nur eine Antwort richtig ist, müssen diese beiden falsch sein. Andere Verhaltensweisen der Prüflinge sind unterbewusster Natur: Bei einer Reihe von Zahlenwerten etwa neigen Menschen meist dazu, die mittlere als richtig einzuschätzen, bei Textantworten wird die längste präferiert. Die allgemeingültigste Antwort wiederum wird ebenfalls meist als die richtige angesehen.

Das ZMML widmet sich seit einigen Jahren der komplexen Aufgabenstellung des E-Assessments und gehört zu den Pionieren auf diesem Gebiet. Im Jahr 2009 hat es für sein 2007 eröffnetes Testcenter den medida prix erhalten. Dort schreiben Studierende an 120 hochmodernen Computerarbeitsplätzen „E-Klausuren“, führen elektronische Übungen durch oder testen Softwareanwendungen.

Vielen Dozenten fehlt die Übung, um gute Multiple-Choice- Fragen zu erstellen

Dabei profitieren sie von anschaulicheren, praxisnahen Aufgaben und einem verbesserten Ergebnisfeedback. Die Lehrenden erweitern durch die Einbindung von Audio- und Videoelementen oder Computersimulationen ihre prüfungsdidaktischen Möglichkeiten und sparen zudem Zeit, denn die Prüfungen und Tests können vollautomatisch ausgewertet werden. Ein solches Verfahren einzuführen und umzusetzen übersteigt noch die Möglichkeiten der meisten Hochschulen.

Multiple-Choice ist nicht der einzige Weg, der bei E-Assessment beschritten werden kann: „Gute, geschlossene Fragen sind sehr aufwendig zu erstellen, können aber automatisch ausgewertet werden“, sagt Karsten D. Wolf, Leiter des Arbeitsbereichs Medienpädagogik an der Universität Bremen. „Offene Fragen hingegen sind schnell formuliert, aber es braucht Zeit, sie auszuwerten.“ Je höher die Kompetenzstufe, desto schwieriger wird es, geschlossen zu fragen.

„Das Schöne am Thema E-Assessment ist: Es gibt uns an den Hochschulen mal wieder einen Anlass, auf die Qualität aller Prüfungen zu schauen“, so Wolf. „Denn mitnichten sind herkömmliche Prüfungen automatisch besser als durchdachte E-Assessments. Vielmehr sind Prüfungen an deutschen Hochschulen häufig nicht in das Lehrkonzept eingebunden und wenig kompetenzorientiert.“

■ Eine Sammlung von Leitfäden für die Konzeption von Multiple-Choice-Fragen findet man unter anderem bei der ETH Zürich: http://protos.ethz.ch/let/exam_eval/onlinetests/guidance. Weitere Infos zum Thema: www.e-teaching.org. Bücking hat ein Extrakt aus einigen Leitfäden zusammengestellt und im Internet zugänglich gemacht: http://www.eassessment.uni-bremen.de/mc_leitfaden.php