Content uploaded by Simon Roderus
Author content
All content in this area was uploaded by Simon Roderus on Sep 10, 2015
Content may be subject to copyright.
45
Verbesserung der Bestehensquoten durch
HLQ3HHU$VVHVVPHQW3ÀLFKWSUDNWLNXP
B. Sc. Simon Roderus, Prof. Dr. Uwe Wienkop
Technische Hochschule Nürnberg, Georg Simon Ohm
Fakultät Informatik
Hohfederstraße 40, 90489 Nürnberg
{simon.roderus, uwe.wienkop}@th-nuernberg.de
Abstract: Peer Assessment ist eine Methode, bei der die Teilnehmer eine ge-
stellte Aufgabe nicht nur bearbeiten und einreichen, sondern – in einer zwei-
ten Phase – diese auch gegenseitig überprüfen, kommentieren und bewerten.
Durch diese Methode wird, auch in sehr großen Veranstaltungen, das Üben
mit individuellen Bewertungen und individuellem Feedback möglich.
Im Wintersemester 2013/14 wurde dieser Ansatz in der Erstsemester-
veranstaltung Programmieren an der Technischen Hochschule Nürnberg
PLW 6WXGLHUHQGHQ DOV VHPHVWHUEHJOHLWHQGHV 2QOLQH3ÀLFKWSUDNWLNXP
erprobt. Bei gleichen Leistungsanforderungen wurde bei Studierenden, die
erfolgreich am Praktikum teilnahmen, eine Reduzierung der Durchfallquote
um durchschnittlich 60 % und eine Verbesserung der Durchschnittsnote um
±1RWHQVWXIHQHU]LHOW=XGHPOHUQWHQGLHWHLOQHKPHQGHQ6WXGLHUHQGHQ
kontinuierlicher, bereiteten Lerninhalte besser nach und gelangten zu einer
überwiegend positiven Einschätzung des Praktikums und der Methode. Im
E-Learning System Moodle kann Peer Assessment, mit moderatem Umset-
zungs- und Betreuungsaufwand, mit der Workshop-Aktivität realisiert wer-
den. Im Beitrag wird auf die Schlüsselelemente des erfolgreichen Einsatzes
von Peer Assessment eingegangen.
46
1 Einführung
Unter Pee r Ass essm ent ver ste ht ma n, d as s St udie rend e von and ere n Studieren-
den (Peers) beur teilt werden und Feedback über die Qualität der eingereichten
Arbeit erhalten [Sp12]. Peer Assessment als Forschungsgegenstand erfuhr in
GHQOHW]WHQ -DKUHQ ]XQHKPHQGPHKU$XIPHUNVDPNHLW 'LH=DKO GHU9HU|I-
IHQWOLFKXQJHQ]XGLHVHP7KHPDKDWVLFKEHUGHQ=HLWUDXPYRQ±
mehr als verdoppelt [GDO11]. Es wurden unterschiedlichste Fragestellungen
untersucht, allerdings nicht immer mit den gleichen Ergebnissen (vgl. [Gi07],
S. 202). Die abweichenden Ergebnisse werden auf Unterschiede in der prak-
tischen Durchführung zurückgeführt. Die meisten empirischen Studien zu
Assessment nutzen eine vergleichsweise kleine Stichprobe von meist deutlich
unter hundert Teilnehmern, zudem wird der Erfolg oft mittels Selbsteinschät-
zung durch die Teilnehmer ermittelt [Ev13]. Hier kann die vorliegende Arbeit
einen Beitrag leisten, denn es wurden mehrere hundert Teilnehmer untersucht
und, neben einer Befragung, die Klausurleistung als objektive Messung des
Erfolges verwendet.
,QGHU /LWHUDWXU ZLUGLPPHUKlX¿JHUGLH1XW]XQJYRQ3HHU $VVHVVPHQW
als Lernwerkzeug, statt zur Leistungsmessung, diskutiert (vgl. [Gi07]). Die
erste und offensichtlichste Funktion ist der Lernerfolg, der durch das Bear-
beiten von Aufgaben und somit durch die aktive Auseinandersetzung mit
dem Lerninhalt entsteht. Durch das im Rahmen des Peer Assessment verge-
bene (formative) Feedback kann verhindert werden, dass Ineffektivität durch
„Trial & Error“-Lernen entsteht [Sa89]. Nicht zuletzt kann Peer Assessment
Auswirkungen auf die Herangehensweise haben, mit der Aufgaben bearbeitet
werden: Es soll Studierende in Richtung der erwünschten Lernziele führen
und anregen, auf eine tiefe und gründliche Art zu lernen (vgl. [Gi07], S. 21).
2 Motivation für den Einsatz von Peer Assessment
Die Probleme bei der Vermittlung von Lehrinhalten in den ersten Semestern
eines Studiums unterscheiden sich nach unseren langjährigen Beobachtungen
von denen der höheren Semester. Während die älteren Studierenden meist ge-
lernt haben, dass kurzfristiges Lernen vor einer Klausur nur selten zum Erfolg
IKUWEOHLEHQGLH6WXGLHUHQGHQGHUHUVWHQ6HPHVWHUKlX¿JSDVVLYhEXQJVDXI-
JDEHQRKQH3ÀLFKWDEJDEHZHUGHQPHLVWQLFKWRGHUQXUXQYROOVWlQGLJEHDUEHL-
tet. In der Folge können Studierende dem Unterrichtsstoff nur schwer folgen,
da das erworbene Wissen nicht durch Übung gefestigt wird. Gerade in sehr
47
praktischen Fächern, wie z. B. der Programmierausbildung, bleibt – selbst bei
%HVWHKHQGHU.ODXVXU±RKQHDXVUHLFKHQGH3UD[LVHUIDKUXQJGLH)lKLJNHLW]XU
eigenständigen Lösung von Problemen mittels einer Programmiersprache oft
unterentwickelt, was sich dann in Form von Schwierigkeiten in weiterführen-
GHQ 9HUDQVWDOWXQJHQ]HLJW =XGHPLVW GLH6WXGLHQDEEUXFKTXRWH LP%HUHLFK
der Informatik mit 27 % im Vergleich zur durchschnittlichen Abbruchquote,
ähnlich wie Ingenieur-Studiengänge, um 8 % höher (Stand: 2010) [He12].
Auch ohne die zuvor genannten Probleme gibt es einige Bereiche in der
Lehre, die in typischen Großveranstaltungen meist nicht adressiert werden
können:
Studierende bekommen tendenziell wenig Feedback zu ihren Arbeiten.
Aus großen Gruppengrößen resultiert, dass der einzelne Studierende nur
selten individuelles Feedback zu seiner Lösung bekommt. Gerade für An-
fänger wären eine Anerkennung oder auch weiterführende Kommentare zu
den Arbeiten hilfreich.
Studierende haben wenig Übung im Verstehen fremder Lösungen.
Das Verstehen von fremden Lösungsansätzen bedeutet, sich in andere
Lösungswege hineindenken und diese nachvollziehen zu können. Diese
.RPSHWHQ] LVWIU GLHVSlWHUH 3URJUDPPLHUSUD[LV HVVHQ]LHOO ZLUG DEHU
in der schulischen Ausbildung nur in geringem Maße geübt und kann in
größeren Veranstaltungen ebenfalls kaum vermittelt oder trainiert werden.
Studierende haben wenig Erfahrung im Bewerten von Leistungen.
Das Schulsystem ist davon geprägt, dass Leistungseinschätzungen in al-
ler Regel nur von Lehrern gegeben werden. Gerade aber das Bewerten,
idealerweise in Kombination mit der Analyse fremder Lösungen, führt zu
einem tieferen und gesicherteren Verständnis einer Problemlösung.
Stilistische Aspekte können kaum geübt werden.
Wohl jeder ausgebildete Informatiker weiß um die Bedeutung vom sauber
dokumentierten Programmcode. In Lehrveranstaltungen kann jedoch auf
diese Wichtigkeit nur hingewiesen und entsprechende Beispiele angege-
ben werden. Auch bieten Übungen selten ein geeignetes Umfeld, um sti-
listische Elemente in einer authentischen Situation einzuüben.
48
Aus diesen Gründen begannen wir bereits vor etwa 6 Jahren damit, uns mit
Peer Assessment zu beschäftigen. Hierzu konzipierte Prof. Wienkop ein ei-
genes Peer-Assessment-System. Als sich dieses als konzeptionell ähnlich zu
dem Workshop-Modul, welches zeitgleich in dem Lernmanagementsystem
Moodle entwickelt worden war, herausstellte, wurde statt der eigenen Lösung
mit der Moodle-Entwicklung weitergearbeitet.
Peer Assessment stellt einen Lösungsansatz für die obigen Problemstel-
lungen durch die folgenden Elemente dar:
'XUFKGDV3ULQ]LSGHVJHJHQVHLWLJHQ.RUULJLHUHQVHUKlOWMHGHU6WXGLHUHQGH
von einem oder mehreren anderen Studierenden Rückmeldung zum eige-
nen Lösungsansatz.
8QWHU$QOHLWXQJGXUFKGLH'R]HQWHQKLQVLFKWOLFKGHU%HZHUWXQJVNULWHULHQ
kamen erstaunlich gute und hilfreiche Rückmeldungen zustande. Dies
deckt sich mit Studien (vgl. [BJ09]), nach denen die Korrektur durch Peers
einer Korrektur durch einen Dozenten in der Qualität nicht nachstehen muss.
6WXGLHUHQGHDUEHLWHQVLFKWHQGHQ]LHOOQXUXQJHUQLQIUHPGH3URJUDPPHHLQ
da sie hierfür erst einmal den Lösungsansatz einer anderen Person nach-
vollziehen müssen. Jedoch wird, wie wohl jeder Dozent bestätigen kann,
gerade durch die Korrektur von Aufgaben das Auge in Bezug auf mög-
liche Fehlersituationen geschult. Im vorliegenden Praktikum haben sich
zwei studentische Korrekturen pro Einreichung als brauchbar erwiesen. Ent-
VSUHFKHQGZXUGH0RRGOHVRNRQ¿JXULHUWGDVVMHGHU6WXGLHUHQGHYRQ]ZHL
Peers je eine Rückmeldung erhält und entsprechend zwei Rückmeldungen
selbst abgeben soll.
6WXGLHUHQGHHUZHLVHQVLFKKlX¿JDOVlXHUVWVWUHQJH.RUUHNWRUHQGLHDXFK
die stilistischen Elemente gut unter die Lupe nehmen, wodurch die Code-
Qualität im Mittel sehr viel besser war als in allen Vorjahren.
3 Vorerfahrungen mit dem Einsatz von Peer Assessment
Es wurden über mehrere Jahre Anläufe zum Einsatz von Peer Assessment
unternommen. In den ersten Durchführungen konnte mit der Methode kein
bzw. kaum Erfolg erreicht werden, und die Ergebnisse waren größtenteils
frustrierend. Deshalb sollen im Folgenden die wesentlichen Problemaspekte
benannt werden. Dabei wird auch dargestellt, wie sich aus diesen Aspekten
Schlüsselfaktoren für den Erfolg der Methode ableiten lassen.
49
Schneller Rückgang der Teilnahmequote am Peer Assessment.
In allen Durchläufen, in denen Studierende sich frei für die Teilnahme am
Peer Assessment entscheiden konnten, nahm die Teilnahmequote rapide ab:
Von 80 Studierenden einer Veranstaltung nahmen an der ersten Peer Assess-
ment Aufgabe etwa 60 Studierende teil. Davon erhielten aber nur 2/3 wenigs-
tens eine Rückmeldung. Beim nächsten Durchgang nahmen dann nur noch
40 teil. Durch diesen Verlauf reduzierte sich die Teilnehmerzahl mit jeder
Aufgabe, so dass meist bereits nach drei Wochen der Punkt erreicht war, an
dem zu wenige teilnahmen und das Verfahren keinen Sinn mehr machte.
Hieraus lassen sich zwei Rückschlüsse ziehen:
1) Studierende wünschen sich stärker eine Rückmeldung, als sie selbst dazu
bereit sind, eine zu geben.
(VEUDXFKWHLQHQVWDUNHQlXHUHQ$QUHL]]%3ÀLFKWWHLOQDKPHXPGLH
Studierenden zu einer längerfristigen Teilnahme zu bewegen.
8QVSH]L¿VFKHV)HHGEDFNIUXVWULHUWGLH7HLOQHKPHU
In den ersten Durchläufen sollten die Studierenden anhand nur weniger Krite-
rien Rückmeldung geben, dabei handelte es sich meist um die korrekte Funk-
WLRQDOLWlWHLQHV3URJUDPPVXQGHLQHQJXWHQ3URJUDPPLHUVWLO+lX¿JZXUGHQ
nur Punkte auf einer Skala von 1-5 vergeben und auf Kommentare weitestge-
hend verzichtet, so dass die Rückmeldung mangels Nachvollziehbarkeit für
den Beurteilten meist nicht hilfreich oder sogar frustrierend war.
Hieraus lassen sich weitere Rückschlüsse ableiten:
3) Die Teilnehmer sind schnell fr ustriert, wenn sie Beurteilungen nicht nach-
YROO]LHKHQN|QQHQ=XGHP LVWGHU/HUQHIIHNWJHULQJ ZHQQ NHLQH)HKOHU
benannt oder Verbesserungsvorschläge aufgezeigt werden. Deshalb sollten
Beurteilungen durch Kommentare begründet werden.
4) Feedback im Sinne einer gut/schlecht-Checkliste ist nicht ausreichend.
Stattdessen ist ein Beurteilungskatalog mit mehreren Abstufungen not-
wendig, so dass Beurteilungen, selbst wenn diese nicht durch Kommentare
begründet werden, immer noch hilfreich sind.
Faires und konsistentes Beurteilen bereitet Probleme.
Studierende wünschen sich detaillierte, strukturierte und vollständige Be-
urteilungsanweisungen, wie viele Punkte für welche Leistung zu vergeben
50
VLQG$OOHUGLQJVLVWHV LQGHU 3UD[LV ZHGHUP|JOLFKQRFK VLQQYROOMHGH QXU
mögliche Antwort zu antizipieren. Es zeigte sich zudem die Tendenz, dass
wider Erwarten die meisten Studierenden nicht zu milden, sondern zu beson-
ders strengen Urteilen tendieren. So wurden, trotz der Aufforderung milde
und konstruktiv zu beurteilen, für simple Programmierfehler, wie das Fehlen
einer schließenden Klammer, auch bei ansonsten vollständig richtigem Pro-
gramm, regelmäßig 0 Punkte vergeben.
5) Es sollten begünstigende Formulierungen verwendet werden, damit für
ÄIDVWULFKWLJH³/|VXQJHQQRFKYLHOH3XQNWHYHUJHEHQZHUGHQ=XGHPVROOWH
die Abstufung bei der Beurteilung der Kriterien durch Rubriken vorgegeben
werden, um differenzierte Urteile zu bekommen.
6) Durch die inkonsistente Beurteilung passierte es, dass die Bewertung einer
einzelnen Leistung hinter den anderen Ergebnissen eines Teilnehmers zu-
UFN¿HOE]ZXQYHUKlOWQLVPlLJVFKOHFKWDEVFKQLWW(QWVSUHFKHQGVROOWH
Teilnehmern die Möglichkeit gegeben werden, Beurteilungen nachprüfen
XQGXQIDLUH%HXUWHLOXQJHQNRUULJLHUHQ]XODVVHQ=XGHP]HLJWHVLFKGDVV
das Mitverfolgen der eigenen Leistungen über ein ganzes Semester hinweg
einen stark anspornenden Charakter hatte.
Nach dem Erkennen dieser Erfolgsfaktoren wurden diese im Sommerse-
mester 2013 in einer kleineren Veranstaltung mit 20 Teilnehmern erprobt.
Aufgrund des erstmalig guten Verlaufes erfolgte dann die Entscheidung, die
Methode in einer Großveranstaltung einzusetzen.
4 Einsatz von Peer Assessment bei der Lehrveranstaltung
Programmieren 1 im Wintersemester 13/14
Im Wintersemester 2013/14 wurde an der Technischen Hochschule Nürnberg
die Methode Peer Assessment in der Großveranstaltung Programmieren mit
340 Teilnehmern in drei parallelen Veranstaltungen erneut angewendet. Diese
Teilnehmer verteilten sich auf vier Studiengänge, von denen bei dreien die
7HLOQDKPHDOV3ÀLFKWIHVWJHOHJWZRUGHQZDU,QIRUPDWLN 0HGLHQLQIRUPDWLN
XQG:LUWVFKDIWVLQIRUPDWLNZlKUHQGEHLGHPYLHUWHQ6WXGLHQJDQJHLQHU([-
portleistung für den Studiengang Mathematik, die Studienordnung noch nicht
geändert worden war. Somit befand sich unter den 340 Teilnehmern eine etwa
115 Personen große Teilgruppe, deren Mitglieder wählen konnten, ob sie am
51
Praktikum teilnehmen wollten oder nicht. Alle Studierenden nahmen an der
gleichen Klausur teil. Für das Peer Assessment-Praktikum wurde folgendes
Setting verwendet:
'DV3UDNWLNXPZXUGH]XU3ÀLFKWHUNOlUW'LHVHV9RUJHKHQHUIROJWHLQ$E
sprache mit den studentischen Vertretern im Fakultätsrat. Es wurde dabei
vereinbart, dass durch das Praktikum keine Steigerung des Leistungs-
niveaus erzwungen werden würde, sondern dass sich die Aufgaben am
Schwierigkeitsgrad der früheren freiwilligen Übungsaufgaben orientieren
sollten.
(VJDELP.HUQ]HLWUDXPGHV6HPHVWHUVEHUQHXQ:RFKHQKLQZHJZ|
chentlich eine zu bearbeitende Übungsaufgabe, die auch Unteraufgaben ent-
halten konnte.
,QMHGHU:RFKHZDUHQ3XQNWHHU]LHOEDU,QVJHVDPWZDUHQVRPLW
Punkte erreichbar. Für das Bestehen des Praktikums waren 700 Punkte
notwendig.
'LH3XQNWHHLQHU$XIJDEHYHUWHLOHQVLFKDXI3XQNWHIUGLH$EJDEH
der eigenen Aufgabenlösung und 30 Punkte für die Beurteilung von zwei
fremden Einreichungen (je 15 Punkte pro Beurteilung). Diese Aufteilung
war so gewählt worden, damit das Praktikum nicht mit dem alleinigen
Bearbeiten der Aufgaben bestanden werden konnte, sondern die Studie-
UHQGHQGD]XDXFKDQGHUHEHXUWHLOHQPXVVWHQ=XGHPZDUHQGLH%HXUWHL-
lungspunkte relativ leicht „zu verdienen“.
'LHRELJHQ3XQNWHPLW$EVWXIXQJHQYRQMH3XQNWHQZXUGHQXQWHUWHLOW
LQYLHU7HLONULWHULHQ=XMHGHP .ULWHULXPNRQQWHQ.RPPHQWDUH DEJHJH-
ben werden:
a) Bis zu 40 Punkte für die korrekte Funktionalität
b) 10 Punkte für eine gute Programmstruktur
c) 10 Punkte für sinnvolle und angemessene Variablennamen
d) 10 Punkte für angemessenes Kommentieren
=X%HJLQQGHV3UDNWLNXPVWUDWHQEHLHLQLJHQ6WXGLHUHQGHQNOHLQHUH$Q
laufschwierigkeiten auf, die meist durch Bedienfehler wie die Abgabe fal-
scher oder leerer Dateien bedingt waren. Um diese auszugleichen, wurde
zunächst diskutiert, die Bestehensgrenze abzusenken. Dann jedoch ent-
schlossen wir uns stattdessen dazu, zwei zusätzliche „Bonusaufgaben“
mit je 100 Punkten anzubieten.
52
5 Untersuchungsmethoden
=XU 8QWHUVXFKXQJ GHV 3UDNWLNXPV NDPHQ XQWHUVFKLHGOLFKH 0HWKRGHQ]XP
Einsatz. Es wurden die Verbesserung sowohl der Bestehensquote als auch
des Notendurchschnitts untersucht. Für jeden Teilnehmer wurden Jahrgang,
Studiengang, Praktikumspunkte, Klausurpunkte und ob das Praktikum ver-
SÀLFKWHQGZDUHUIDVVW$QKDQGGLHVHU'DWHQNRQQWHQ0LWWHOZHUWHXQG.RUUH-
lationen verglichen werden. Da es sich bei den Praktikumspunkten und Klau-
surpunkten um verhältnisskalierte Daten handelt, wurden diese anhand des
.RUUHODWLRQVNRHI¿]LHQWHQQDFK%UDYDLV3HDUVRQEHUHFKQHWYJO>%R@'LH
6LJQL¿NDQ]ZXUGHSHUHLQVHLWLJHP7HVWDXIGDV1LYHDXJHSUIW
=XVlW]OLFK ZXUGH GDV $EJDEHYHUKDOWHQ EHU 0RRGOH GRNXPHQWLHUW XQG
das Praktikum mittels einer schriftlichen Onlinebefragung mit offenen und
geschlossenen Fragen evaluiert. An dieser haben 119 Studierende, also 35 %
der Teilnehmer, teilgenommen.
6 Ergebnisse
6.1 Teilnahme und Bestehensquote des Praktikums
Die Bestehensquote ist in Abb. 1 dargestellt. Von den insgesamt 340 Stu-
GLHUHQGHQZDUIUGLH7HLOQDKPHDQGHP3UDNWLNXPYHUSÀLFKWHQG9RQ
dieser Gruppe haben 90 % (n = 203) mindestens 700 Punkte erreicht und das
3UDNWLNXP VRPLWEHVWDQGHQ Q GHU 3ÀLFKWWHLOQHKPHU KDEHQGLH
erforderliche Punktzahl nicht erreicht.
Die Auswertung der im Praktikum erzielten Punkte ergab ein deutliches
%LOGYJO$EE'LH3ÀLFKWWHLOQHKPHUEHUWUDIHQGLHJHIRUGHUWH3XQNW]DKO
meist deutlich. Bei den erfolgreichen Teilnehmern (n = 207) lag der Mittel-
wert bei 918 Punkten. Die größte Teilgruppe befand sich hier im Bereich der
PD[LPDOP|JOLFKHQ3XQNW]DKOHQ
53
Abbildung 1: Bestehensquoten des Praktikums
Abbildung 2: Erreichte Punkte im Praktikum in Bezug
DXIGLH*UXSSHQ3ÀLFKWXQG1LFKWSÀLFKW
*DQ] DQGHUV VDKGDV%LOGEHL GHQ7HLOQHKPHUQRKQH7HLOQDKPHSÀLFKWDXV
Diese erreichten meist gar keine oder nur sehr wenige Punkte. Leider waren
bei einigen Studierenden selbst schlechte Prüfungsleistungen im Erstversuch
keine ausreichende Motivation, sich am Praktikum zu beteiligen. Mehrere
Studierende aus dieser Gruppe erkundigten sich, ob sie wirklich „unbedingt“
am Praktikum teilnehmen müssten.
54
6.2 Ein typischer Wochenverlauf
Die Aufgaben wurden jeweils am Montag um 8.00 Uhr freigeschaltet und
mussten bis zum nächsten Montag, 8.00 Uhr, bearbeitet werden. Für die Be-
XUWHLOXQJ ZDUGDQQELV'RQQHUVWDJXP 8KU =HLW'LH$XVZHUWXQJ GHU
Einreichzeiten (vgl. Abb. 3) zeigt, dass bei den meisten Studierenden das Ein-
reichen erst ziemlich spät (meist: Sonntag) stattfand, die Korrektur erfolgte
hingegen typischerweise gleich nach dem Freischalten am Montag der dar-
auffolgenden Woche.
Abbildung 3: Einreichungsverlauf einer typischen Woche (hier: 18. – 24. November)
6.3 Steigerung des wöchentlichen Arbeitseinsatzes
durch das Praktikum
Vor dem WS 2013/14 war bei den Evaluationen von den Studierenden eine
wöchentliche Nachbereitungszeit von etwa 1,5 Std./Woche zurückgemeldet
worden, was bei einer 6-stündigen Veranstaltung (4 SWS Vorlesung + 2 SWS
hEXQJDOVGHXWOLFK]XJHULQJHLQ]XVWXIHQLVW0LWGHP3ÀLFKWSUDNWLNXPVWLHJ
der per Onlinebefragung ermittelte durchschnittliche Nachbereitungsauf-
wand auf 5,2 Std./Woche (vgl. Abb. 4) und liegt damit genau an der Stelle,
die auch die Dozenten im Modulhandbuch als angemessen angegeben hatten.
Abbildung 4: Wöchentlicher Arbeitsaufwand für das Praktikum in Stunden im WS 13/14
55
6.4 Klausurergebnisse
=XU$XVZHUWXQJZXUGHQGLH.ODXVXUHUJHEQLVVHGHU-DKUH±GDYRQ
GLHHUVWHQGUHL-DKUHRKQH3ÀLFKWSUDNWLNXPXQGPLW3ÀLFKWSUDNWLNXPLQ
den Studiengängen Wirtschaftsinformatik, Informatik und Medieninforma-
WLNYHUJOLFKHQ=XGHPZXUGHQGLH:HUWHGHQHQGHV6WXGLHQJDQJV0DWKHPDWLN
gegenübergestellt. Da dort das Praktikum freiwillig war und kaum genutzt
wurde, konnte dieser Studiengang als Vergleichsgruppe genutzt werden. Ins-
gesamt ging die Auswertung von 873 Klausuren in die Statistik ein. Bereits
EHL IUKHUHQ -DKUJlQJHQ ¿HO DXI GDVV VLFK GLH 'XUFKVFKQLWWVQRWHQ LQ GHQ
einzelnen Studiengängen, trotz identischer Klausur und wechselnder Dozen-
ten, regelmäßig unterschieden. Deshalb wurde auch die Auswertung getrennt
nach den Studiengängen durchgeführt. Es zeigte sich, dass die Verbesserun-
gen in allen Studiengängen eindeutig bestätigt werden konnte (siehe Tab. 1).
Tabelle 1: Prüfungsteilnehmerzahlen (NPrfg.TN) sowie Durchschnittsnoten (DNote) und
Durchfallquoten (DFQ) der erfolgreichen Praktikumsteilnehmer nach Studiengang
Mathematik (M), Informatik (IN), Medieninformatik (MIN) und Wirtschaftsinfor-
PDWLN:,1VRZLHGHUHQ9HUlQGHUXQJǻ6WXGLHQJlQJHPLW3ÀLFKWSUDNWLNXPVLQG
IDUELJKLQWHUOHJW%HLGHU9HUlQGHUXQJGHU1RWHǻ'Note) entsprechen negative Werte
einer Verbesserung der Note.
*) Den Mathematik-Studiengang gibt es erst seit dem Jahr 2012. Der Vergleich
erstreckt sich hier also nur über die Jahre 2012 – 2013.
'LH6SDOWHǻ')4P(HQWKlOWGLHGXUFKVFKQLWWOLFKH9HUEHVVHUXQJGHU3U
fungsteilnehmer, die das Praktikum erfolgreich absolviert haben.
=XP9HUJOHLFKGLH'DWHQGHUJHVDPWHQ3UIXQJVWHLOQHKPHU
2010-2012 2013
Stg. DFQ DNote NPrfg.TN DFQ DNote ǻ'Note
ǻ')4
(m.E.)**
ǻ')4
(alle)***
M* 22 % 3,3 36 14 %
(33%***)
2,3
(3,3***)
IN 22 % 2,9 75 9 % 2,3 -0,6 -61 %-58 %
MIN 26 % 3,2 30 11 % 2,6 -0,6 -58 %-37 %
WIN 45 % 3,9 98 18 % 2,9 -0,9 -60 %-53 %
Durchschnittliche Veränderung bei IN, MIN, WIN: -60 %-51 %
56
'LH GXUFK 3HHU $VVHVVPHQW HUUHLFKWH 9HUEHVVHUXQJ GHU 'XUFKIDOOTXRWH ¿HO
für die erfolgreichen Praktikumsteilnehmer der Studiengänge Informatik,
Medieninformatik und Wirtschafsinformatik mit durchschnittlich 60 % über-
raschend groß aus. Entsprechend zeigte sich eine deutliche Verbesserung der
Durchschnittsnote um 0,6 – 0,9 Notenstufen. Über die Gesamtheit aller Stu-
dierenden dieser drei Studiengänge (inklusive der Nichtpraktikumsteilneh-
mer) ergab sich eine Verbesserung der Durchfallquote von 51 %.
Die Klausur hatte einen ähnlichen Aufbau hinsichtlich der Themengebie-
te und Aufgaben wie die Klausuren der Vorjahre. Anhand der Studierenden
des Mathematikstudiengangs, die am Praktikum kaum teilnahmen, konnte
zudem geprüft werden, ob die Prüfung im Vergleich zum Vorjahr einen ähn-
lichen Schwierigkeitsgrad hatte. Dies wurde bestätigt. Die Durchschnittsnote
lag in diesem Studiengang über alle Teilnehmer im Jahr 2012, ebenso wie im
Jahr 2013, mit durchschnittlich 3,3 ganz nah bei der fast gleichen Vorjahres-
durchschnittsnote. Auffallend war zudem, dass die Mathematikstudierenden,
die freiwillig am Praktikum teilnahmen, deutlich besser abschnitten (vgl.
Tab. 1). Die Verbesserung lag hier, im Vergleich zum Vorjahr, bei einer gan-
zen Notenstufe. Da es sich aber nur um 9 % (n = 10) der Mathematikstudie-
renden handelte und es nicht ausschließbar ist, dass diese Teilgruppe sich in
anderen relevanten Faktoren wie Fleiß, Leistungsbereitschaft und Fähigkeit
zur Selbstorganisation von den restlichen 91 % unterscheidet, wurde dieser
Notenunterschied nicht weiter interpretiert.
'LH $XWRUHQ JHKHQ GDYRQ DXV GDVV GDV YHUSÀLFKWHQGH %HDUEHLWHQGHU
$XIJDEHQHLQHQJURHQ(LQÀXVVDXIGDV(UJHEQLVKDWWH,QWHUHVVDQWZlUH]X
erfahren, welcher Anteil dieser Ergebnisse durch das Peer Assessment erzielt
ZXUGHXQG REDQGHUH/HUQPHWKRGHQ EHLYHUSÀLFKWHQGHU7HLOQDKPH lKQOLFK
gute Ergebnisse liefern.
6.5 Statistische Analyse
Für alle Teilnehmer der Klausur im WS13/14 (N = 239) wurde untersucht,
ZHOFKH$XVZLUNXQJHQGDV3UDNWLNXPE]ZGLH3ÀLFKWWHLOQDKPHDQGLHVHP
hat. Die Korrelation zwischen den im Praktikum erzielten Punkten und den
Klausurpunkten ergab das in Tab. 2 dargestellte Bild:
57
Tabelle 2: Korrelationen nach Bravais-Pearson. N = 239
(Teilnehmer der Klausur im WS13/14).
'LH.RUUHODWLRQLVWDXIGHP1LYHDXYRQVHLWLJVLJQL¿NDQW
Die Korrelation zwischen den Punkten im Praktikum und in der Klausur
(r=,369**) zeigt, dass die Leistung im Praktikum als mittelstarker Prädik-
tor für das spätere Klausurergebnis dienen kann. Andere Studien berichten
ähnliche Größen der Korrelation zwischen den im Peer Assessment und den
in der Klausur erreichten Punktzahlen (vgl. [VSV10]). Die starke Korrelati-
RQYRQ7HLOQDKPHSÀLFKWXQG3UDNWLNXPVSXQNWHQ]HLJW GHQEHUHLWVHUZlKQ-
WHQ =XVDPPHQKDQJ GDVV QXU EHL YHUSÀLFKWHQGHU 7HLOQDKPH YLHOH 3XQNWH
LP3UDNWLNXPHUUHLFKWZHUGHQ%HLGH.RUUHODWLRQHQVLQGKRFKVLJQL¿NDQWDXI
dem 0,01- Niveau und übertreffen somit das geforderte 0,05-Niveau.
6.6 Ergebnisse der schriftlichen Teilnehmerbefragung
Tabelle 3: Ergebnisse der schriftlichen Evaluation. Abstufungen der Skala Likert1:
1 = „stimme nicht zu“ bis 5 = „stimme zu“. Abstufungen der Skala Likert2:
1 = „sehr gering“ bis 5 = „sehr groß“.
Wie oben beschrieben, wurde das Praktikum durch eine umfangreiche Befra-
gung gegen Ende des Praktikums evaluiert. Neben den üblichen geschlosse-
nen Fragen, wurden die Studierenden zu Verbesserungsvorschlägen ebenso
ZLH]XSRVLWLYHQ$VSHNWHQEHIUDJW([HPSODULVFKH(UJHEQLVVHVLQGLQ7DE
dargestellt. Die Teilnehmer empfanden, dass ihnen das Praktikum half „am
Frage M SD Skalentyp
Das Praktikum hilft am Lernen
dranzubleiben. 4,2 1 Likert1
Schulnote Praktikum 2,3 0,9 Schulnote
Einschätzung des Lernerfolgs 3,7 1 Likert2
Praktikumspunkte 3ÀLFKW Klausurpunkte
Praktikumspunkte 1
7HLO Q DK PH SÀLFKW ,732** 1
Klausurpunkte ,369** ,326** 1
58
Lernen dranzubleiben“, auch der Lernerfolg wurde tendenziell als „eher gut“
eingeschätzt. Die Teilnehmer gaben dem Praktikum im Schnitt eine Schulno-
te von 2,3 – es gibt also auch noch Verbesserungspotential.
'LH9HUEHVVHUXQJVYRUVFKOlJHKDWWHQKlX¿J]XP,QKDOWGLH.RPPXQLND-
tion unter den Dozenten der drei parallelen Veranstaltungen weiter zu verbes-
sern. Es wurde klar, dass an Praktikumsaufgaben, hinsichtlich der vollstän-
digen und zweifelsfreien Formulierung, ähnlich hohe Anforderungen wie für
die Formulierung von Klausuraufgaben zu stellen sind.
Aus den zahlreichen positiven Rückmeldungen zur Fragestellung „Wa s
KDW,KQHQDP3UDNWLNXPJHIDOOHQ"³VROOHQLP)ROJHQGHQHLQLJHH[HPSODULVFK
herausgegriffen werden:
0LUVHOEVWKDWGDV3UDNWLNXPVHKUYLHOJHEUDFKW=XPHLQHQGDV7UDLQLHUHQ
des Programmierens, zum anderen wurden alle Studenten/innen dazu ge-
nötigt, eine Plattform zum gemeinsamen Lösen von Problemen – kurz: zum
gemeinsamen Austausch zu nutzen.
'DV)HHGEDFNYRQGHQ0LWVWXGHQWHQZDU]XPLQGHVWEHLPLUVHKUNRQVW
ruktiv und hilfreich.
'DVVMHPDQGDXIGLH,GHHNDPGLHVHV3UDNWLNXPEHUKDXSWHUVWHLQ]XIKUHQ
'DV3UDNWLNXPJHQHUHOOLVWHLQHJDQ]WROOH,GHHXP6WXGHQWHQ]XPNRQ
tinuierlichen Mitlernen zu motivieren. Der Umfang war genau richtig.
Das Ziel, eine Mindestpunktzahl zu erreichen, war motivierend, aber nicht
überfordernd, da diese auch dann noch erreicht werden konnte, wenn bei
der ein oder anderen Aufgabe mal Fehler gemacht wurden.
'DV3UDNWLNXPVROOWHDXIMHGHQ)DOOZHLWHUKLQGXUFKJHIKUWZHUGHQ,FK
würde es sogar für alle Fächer empfehlen, da die wöchentliche Frist sehr
gut zum strukturierten und kontinuierlichen Mitlernen anregt.
6.7 Aufwand für die Durchführung des Praktikums
Den drei Dozenten stand für die wöchentliche Korrektur, der studentischen
Übungseinreichungen, kein weiteres Personal zur Verfügung. Durch das ge-
genseitige Korrigieren studentischer Arbeiten war es dennoch möglich, dass
wöchentlich alle Aufgaben beurteilt wurden. Neben dem Formulieren der
Aufgabenstellungen und dem Beantworten von Nachfragen wurde durch fol-
gende Faktoren weiterer Aufwand verursacht:
Es hat sich auch im vorliegenden Praktikum die zuvor genannte Situation,
dass Studierende gerne Feedback erhalten wollen, aber umgekehrt in eher ge-
59
ringerem Maß andere Studierende bewerten, erneut bestätigt. Trotz der zwei
Beurteilungen pro Einreichung kam es immer wieder vor, dass einige Studie-
rende überhaupt kein Feedback erhielten.
Aus prüfungsrechtlichen Gründen musste zudem sichergestellt werden,
dass die Teilnahme an der Prüfung nicht alleine durch studentische Beurtei-
lungen versagt wurde. Entsprechend mussten alle Beurteilungen, aufgrund
deren Teilnehmer weniger als die erforderlichen 700 Punkte erreichten, durch
die Dozenten erneut geprüft und bestätigt bzw. korrigiert werden.
Das gleiche galt für alle Einreichungen, die sehr schlechte Bewertun-
gen, oder zwei inkonsistente Beurteilungen erhalten haben. Alle diese Fälle
mussten durch die Dozenten nachgeprüft werden, zudem gab es wöchentlich
Beschwerden von Studierenden zu überprüfen, die die erhaltene Beurteilung
DOVXQJHUHFKWHPSIDQGHQ'HU$XIZDQGKLHUIUODJEHLFD=HLWVWXQGHQSUR
Woche. Im vorliegenden Praktikum verteilten wir diese Nachkorrektur wö-
chentlich wechselnd auf die drei Dozenten.
7 Zusammenfassung und Ausblick
,PYRUOLHJHQGHQ%HLWUDJZXUGHJH]HLJWZLHPLWGHUYHUSÀLFKWHQGHQ7HLOQDK-
me an einem mittels Peer Assessment durchgeführten Praktikum die Durch-
IDOOTXRWHIUHUIROJUHLFKH7HLOQHKPHUVLJQL¿NDQWXP JHVHQNWXQGGHU
Notendurchschnitt um 0,6 – 0,9 Notenstufen gesteigert werden konnte. Es
wurden wesentliche Faktoren für die erfolgreiche Umsetzung des Peer As-
VHVVPHQW3UDNWLNXPV ZLH YHUSÀLFKWHQGH 7HLOQDKPH VWUXNWXULHUWH%HZHU-
WXQJVOLVWHQXQGHLQH*HVDPWSXQNWHWDEHOOHLGHQWL¿]LHUW
Das hier vorgestellte Konzept wird mittlerweile in weiteren Lehrveran-
VWDOWXQJHQHUSUREW=XGHPHUIRUVFKHQZLULPQXQODXIHQGHQ6HPHVWHUREGHU
(LQVDW]YRQ*DPL¿FDWLRQ(OHPHQWHQ$QVSRUQ]XUIUHLZLOOLJHQ7HLOQDKPHJH-
EHQNDQQXQGH[SHULPHQWLHUHQPLW$XIJDEHQIRUPDWHQGLHYRQ6WXGLHUHQGHQ
für Studierende erstellt werden.
60
Literaturverzeichnis
>%R@ %RXULHU*%HVFKUHLEHQGH6WDWLVWLN6SULQJHU )DFKPHGLHQ$XÀDJH
Wiesbaden, 2013; S. 208.
[BJ09] Bouzidi, L.; Jaillet, A.: Can Online Peer Assessment Be Trusted? In: Edu-
cational Technology & Society, Vol. 12, No. 4, 2009; S. 257–268.
[Ev13] Evans, C.: Making Sense of Assessment Feedback in Higher Education. In:
Review of educational research, Vol. 83, No. 1, 2013; S. 77.
[GDO11] Gielen, S.; Dochy, F.; Onghena, P.: An inventory of peer assessment diversity.
In: Assessment and Evaluation in Higher Education, Vol. 36, No. 2, 2011;
S. 137–155.
[Gi07] Gielen, S.: Peer assessment as a tool for learning, 2007.
[He12] Heublein, U.; Richter, J.; Schmelzer, R.; Sommer, D.: Die Entwicklung
der Schwund- und Studienabbruchquoten an den deutschen Hochschulen:
statistische Berechnungen auf der Basis des Absolventenjahrgangs 2010.
In: HIS: Forum Hochschule, Vol. 3/2012, Hannover, 2012; S. 22.
[Sa89] Sadler, D.: Formative assessment and the design of instructional systems.
In: Instructional Science, Vol. 18, No. 2, 1989; S. 120.
[Sp12] Spiller, D.: Assessment Matters: Self-Assessment and Peer Assessment,
2012; S. 10 – URL: http://www.waikato.ac.nz/tdu/pdf/booklets/9_SelfPeer-
Assessment.pdf, (04/2014).
>969@ YDQ=XQGHUW06OXLMVPDQV'YDQ0HUULsQERHU-(IIHFWLYHSHHUDVVHVVPHQW
SURFHVVHV5HVHDUFK¿QGLQJVDQGIXWXUHGLUHFWLRQV,Q/HDUQLQJDQG,QVWUXF-
tion, Vol. 20, Issue 4, 2010; S. 270 – 279. Förder ungshinweis: Dieses Vorha-
ben wird aus Mitteln des Bundesministeriums für Bildung und Forschung
unter dem Förderkennzeichen 01PL11024 (Projekt QuL) gefördert.
Förderungshinweis: Dieses Vorhaben wird aus Mitteln des Bundesministeriums für
Bildung und Forschung unter dem Förderkennzeichen 01PL11024 (Projekt
QuL) gefördert.