ChapterPDF Available

Bedeutet mehr Feedback auch mehr lernen? Die Wirkung von erweitertem und korrigierendem Feedback in einem digitalen Quizspiel auf die Lernleistung

Authors:

Abstract

Dieser Beitrag untersucht, inwiefern ein digitales Quizspiel in (hoch)schulischen Unterrichtskontexten eine lernförderliche Wirkung entfalten kann und welche Rolle dabei verschiedene Arten des Feedbacks spielen. In einer experimentellen Studie zeigte sich ein Lerneffekt unabhängig von der Feedbackart. Die Ergebnisse legen nahe, dass digitale Quizspiele bereits mit einfachem Feedback ein hilfreiches Werkzeug in der (hoch-)schulischen Lehre sein können.
Marco Rüth1, Johannes Breuer2, Thomas Morten3 & Kai Kaspar1
Bedeutet mehr Feedback auch mehr lernen?
Die Wirkung von erweitertem und korrigierendem Feedback
in einem digitalen Quizspiel auf die Lernleistung
Zusammenfassung
Dieser Beitrag untersucht, inwiefern ein digitales Quizspiel in (hoch)schulischen Un-
terrichtskontexten eine lernförderliche Wirkung entfalten kann und welche Rolle dabei
verschiedene Arten des Feedbacks spielen. In einer experimentellen Studie zeigte sich
ein Lerneekt unabhängig von der Feedbackart. Die Ergebnisse legen nahe, dass digi-
tale Quizspiele bereits mit einfachem Feedback ein hilfreiches Werkzeug in der (hoch-)
schulischen Lehre sein können.
Schlagworte: Digitales Quizspiel, spielerisches Lernen, Feedback, Testeekt
1. Einleitung
Insbesondere durch aktuelle technische Möglichkeiten – unter anderem eine hohe
Verfügbarkeit von mobilen Endgeräten, mobilem Internet und digitalem Lernmateri-
al – ist die Analyse von Potentialen innovativer, mediengestützter Lehr-Lernformate
fächerübergreifend in den Forschungsfokus gerückt. Spielerisches Lernen mit digita-
len Medien stellt dabei für (Hoch-)Schulen einen vielversprechenden Ansatz dar, um
Lern ergebnisse zu verbessern und Lernmotivation zu erhöhen. Eine Vielzahl an empi-
rischen Forschungsarbeiten deutet darauf hin, dass Lernende durch spielerisches Ler-
nen ihr Wissen und weitere kognitive Fähigkeiten in größerem Maße erweitern als in
nicht-spielerischen Kontexten (Clark et al., 2016). Auch der Einsatz von spielerischen
Elementen in nicht-spielerischen Lernkontexten kann die Beteiligung, Motivation und
Leistung der Lernenden fördern (Subhash & Cudney, 2018). Digitale Quizspiele sind
dabei ein beliebtes Format, das online zeit- wie ortsunabhängig genutzt sowie in diver-
se analoge und digitale Lehr-Lernkontexte eingebunden werden kann. Durch die Nut-
zung von digitalen Quizspielen ist es auch möglich, dass Lernende vom Testeekt pro-
tieren, wonach wiederholtes Testen die Prüfungsergebnisse (Roediger et al., 2011) und
die langfristige Behaltensleistung erhöht (Carpenter et al., 2008). Digitale Quizspiele
können somit ein einfaches, lernwirksames und motivierendes Werkzeug für die zu-
künige digitale Bildung in (Hoch-)Schulen darstellen.
Eine zentrale Funktion digitaler Quizspiele besteht darin, Lernenden ein Feedback
zu ihren Antworten zu geben und sie damit beim selbstgesteuerten Lernen zu unter-
stützen. Lernende können durch Feedback die geforderte Leistung besser einschätzen
und ihr Lernverhalten so anpassen, dass sie die Lernziele erreichen (Nicol & Macfar-
lane‐Dick, 2006). Lehrende hingegen können durch digitale Quizspiele automatisierte
Rückmeldungen geben, sodass beliebig viele Lernende ohne Mehraufwand beliebig o
1 Department Psychologie, Universität zu Köln, Deutschland
2 GESIS – Leibniz-Institut für Sozialwissenschaen, Deutschland
3 Statistisches Bundesamt, Deutschland
Marco Rüth, Johannes Breuer, Thomas Morten & Kai Kaspar
26
Feedback erhalten. Dabei ist neben der Anzahl an Wiederholungen die Art des Feed-
backs zu den gegebenen Antworten ein entscheidender Faktor für den Lernerfolg (Hat-
tie & Timperley, 2007).
In den meisten Quizspielen wird eine gegebene Antwort als korrekt oder inkorrekt
markiert und bei einer falschen Antwort die korrekte Antwort angezeigt. Während ein
solches korrigierendes Feedback die Erinnerungsleistung erhöhen kann, scheint sich die-
se durch erweitertes Feedback (korrigierendes Feedback mit Zusatzinformationen) noch
stärker zu verbessern (van der Kleij et al., 2015). Zusatzinformationen könnten Lernen-
den ermöglichen, eine tiefere Verarbeitungsstufe zu erreichen (Craik & Lockhart, 1972)
oder Informationen kontextbezogen zu erinnern (Barsalou, 1982). Entscheiden sich
Lehrende für den Einsatz dieser Feedbackart, ergibt sich jedoch durch die Formulie-
rung der Zusatzinformationen zu den Antworten ein erheblicher Mehraufwand. In der
vorliegenden Studie prüen wir daher die Hypothese, dass Lernende in einer Testphase
eine höhere Punktzahl als in der vorausgehenden Lernphase erreichen, dieser Lernzu-
wachs jedoch größer ausfällt, wenn sie in der Lernphase ein digitales Quizspiel mit er-
weitertem Feedback statt mit korrigierendem Feedback spielten (H1).
Feedback kann nicht nur die Lernleistung, sondern auch die übergeordnete (meta-
kognitive) Verstehensleistung beeinussen (Butler et al., 2008). Außerdem ist zu beden-
ken, dass Lernende auch durch bloßes Raten in einem Single-Choice-Quiz substanzielle
Punktzahlen erreichen können. Daher untersuchten wir zusätzlich die Antwortsicher-
heit als Indikator für das Verständnis des Lerninhalts (Kulhavy & Stock, 1989). Die
Antwortsicherheit hängt positiv mit Lernerfolg zusammen und basiert auf dem seman-
tischen wie ereignisbezogenen Wissensstand der Lernenden (Mory, 2004). Zumindest
bei kurzen oenen Fragen scheint sich die Antwortsicherheit durch Feedback mit Zu-
satzinformationen zu erhöhen (Kealy & Ritzhaupt, 2010). Hier prüen wir die Hypo-
these, dass Lernende in einer Testphase eine höhere Antwortsicherheit als in der vor-
ausgehenden Lernphase zeigen, dieser Zuwachs jedoch größer ausfällt, wenn sie in der
Lernphase ein digitales Quizspiel mit erweitertem Feedback statt mit korrigierendem
Feedback spielten (H2).
Ausgehend von früheren Befunden erwarteten wir außerdem einen negati-
ven Zusammenhang zwischen der Antwortsicherheit und der Betrachtungsdauer des
Feedbacks (Kulhavy & Stock, 1989; Mory, 2004) bei erweitertem (H3a) und bei kor-
rigierendem Feedback (H3b) in der Lernphase. Schließlich untersuchten wir die For-
schungsfragen (FF), ob Lernende die Nutzungserfahrung (FF1) und das Spielerleben
(FF2) bei Quizspielen mit erweitertem und korrigierendem Feedback unterschiedlich
bewerten.
2. Methode
An der experimentellen Studie nahmen 61 Studierende teil (MAlter = 24.51, SDAlter =
6.27), die eine Vorlesung zu medienpsychologischen und medienpädagogischen e-
men besuchten. Alle Teilnehmenden gaben vorab ihre informierte Einwilligung und er-
hielten nach der Teilnahme wahlweise 5 Euro oder eine Versuchspersonenstunde.
Die Quizinhalte wurden schrittweise und in Zusammenarbeit mit der Lehrperson
entwickelt und repräsentierten einen thematischen Querschnitt der Vorlesung. Zuerst
spielten die Studierenden ein digitales Single-Choice-Quizspiel bestehend aus 40 Fra-
Bedeutet mehr Feedback auch mehr lernen? 27
gen und wählten jeweils eine von vier Antwortmöglichkeiten aus (Lernphase). Zudem
schätzten sie ihre Antwortsicherheit auf einer fünfstugen Likert-Skala ein (1= unsi-
cher, 5=sicher; Mory, 2004) und erhielten erweitertes Feedback (n=31) oder korrigie-
rendes Feedback (n= 30). Das korrigierende Feedback beinhaltete bei einer richtigen
Antwort ein grünes Häkchen und daneben den Begri „Korrekt.“ sowie die richtige
Antwort. Bei einer falschen Antwort wurde ein rotes Kreuz und „Falsch. Richtige Ant-
wort:“ sowie die richtige Antwort angezeigt. Bei erweitertem Feedback folgte noch ein
Satz, der die richtige Antwort inhaltlich erläuterte. Nach dem Quizspiel bewerteten alle
Studierenden ihre Nutzungserfahrung und ihr Spielerleben und gaben Informationen
zu ihrem Alter, Geschlecht und bisher wahrgenommenen Lerngelegenheiten an (An-
zahl an Hochschulsemestern, besuchte Vorlesungssitzungen sowie die durchschnittliche
wöchentliche Lernzeit). Die Bearbeitung dieser Fragen diente zugleich als Füllaufga-
be zwischen Lern- und Testphase. In der anschließenden Testphase beantworteten die
Studierenden dieselben Fragen wie im Quizspiel, diesmal aber – analog zur tatsächli-
chen Prüfung – im Papier-Bleisti-Format. Die Reihenfolgen der Fragen und Antwor-
ten wurden pseudorandomisiert.
Um die erwarteten unterschiedlichen Eekte der beiden Feedbackarten zu prü-
fen, erfassten wir die Punktzahl (H1) und die Antwortsicherheit (H2) in der Lern- so-
wie Testphase. Im digitalen Quizspiel wurde zudem die Antwortdauer gemessen (H3a,
H3b). Wir erfassten die Nutzungserfahrung (FF1) mittels der deutschen Version des
User Experience Questionnaire (Laugwitz et al., 2008). Dieser deckt Facetten der prag-
matischen Qualität (Attraktivität, Durchschaubarkeit, Ezienz und Steuerbarkeit; alle
Cronbachs α≥0.54) und hedonischen Qualität ab (Stimulation und Originalität; beide
α≥0.76). Um das Spielerleben zu messen (FF2), adaptierten wir drei Items zur wahr-
genommenen Kompetenz (α = 0.87), zwei Items zur Spielfreude (α = 0.74) und drei
Items zur Spielvorliebe (α=0.67) des Player Experience of Need Satisfaction Question-
naire (Ryan et al., 2006).
3. Ergebnisse
Eine 2 × 2-Varianzanalyse mit Messwiederholung auf dem Faktor Quizphase (Lern-
vs. Testphase) und dem Zwischensubjektfaktor Feedbackart (erweitert vs. korrigie-
rend) zeigte einen großen Zuwachs der Punktzahl von Lern- zu Testphase (H1) in bei-
den Feedback-Bedingungen von durchschnittlich 18.39%, F(1, 59)= 123.53, p< .001,
ηp
2 = 0.68, jedoch keinen Haupteekt der Feedbackart und keine Interaktion, beide
Fs≤0.15, ps≥.700, ηp
2≤0.01. Auch die Antwortsicherheit (H2) erhöhte sich von der
Lern- zur Testphase um durchschnittlich 22.75%, F(1, 59)=214.67, p<.001, ηp
2=0.78,
ohne Haupteekt der Feedbackart und ohne Interaktion, beide Fs ≤ 1.16, ps ≥ .286,
ηp
2≤0.02. Zusätzliche Analysen mit allen wahrgenommenen Lerngelegenheiten als Ko-
variaten bestätigten diese Ergebnisse.
Mittels Spearman Rangkorrelationen zeigte sich in der Lernphase ein negativer Zu-
sammenhang zwischen Antwortsicherheit und Antwortzeit bei korrigierendem Feed-
back (H3b), rs(28)= −.40, p =.030, sowie etwas abgeschwächt bei erweitertem Feed-
back (H3a), rs(29) = −.35, p = .053. Mit allen wahrgenommenen Lerngelegenheiten
als Kovariaten waren beide Zusammenhänge marginal signikant (beide rs ≤ −.33,
ps≤.083). t-Tests für unabhängige Stichproben zeigten eine ähnlich positive Nutzungs-
Marco Rüth, Johannes Breuer, Thomas Morten & Kai Kaspar
28
erfahrung der Quizspiele (FF1), alle ts ≤1.39, ps≥ .169, ds ≤ 0.36, und eine margi-
nal signikant größere Spielvorliebe für das Quizspiel mit erweitertem Feedback (FF2),
t(59) = 1.78, p =.080, d= 0.46, ohne Unterschiede in wahrgenommener Kompetenz
und Spielfreude, ts≤1.08, ps≥.286, ds≤0.28.
Das erweiterte Feedback (M = 3.60 Sekunden, SD = 1.80) wurde länger betrach-
tet als das korrigierende Feedback (M= 1.94 Sekunden, SD =0.89), t(44.21)= 4.59,
p<.001, d=1.17. Die Punktzahl und Antwortsicherheit hingen unabhängig von Quiz-
phase und Feedbackart positiv zusammen (alle rs≥0.48, ps≤.007). Keines der berich-
teten Ergebnisse änderte sich nach Ausschluss von sechs Studierenden mit ungewöhn-
lich langen oder kurzen Antwortzeiten.
4. Diskussion
Wir fanden mit dieser Studie heraus, dass die einmalige Nutzung eines digitalen Quiz-
spiels einen großen Testeekt bewirken kann. Dieser Lernzuwachs zeigte sich anhand
der erhöhten Punktzahl (kognitiv) und Antwortsicherheit (metakognitiv) und war un-
abhängig von der Feedbackart. Somit scheint bereits einfaches korrigierendes Feedback
für den Erwerb deklarativen Wissens eine eektive Feedbackart zu sein, die mittels di-
gitaler Quizspiele für Lernende immer und überall verfügbar gemacht werden könnte.
Die Nutzung solcher Spiele mit korrigierendem Feedback wäre ohne großen Aufwand
und für verschiedene Fächer denkbar. Zum Beispiel könnten Lernende ihre Prüfungs-
ergebnisse in naturwissenschalichen Fächern verbessern, indem zuvor Denitionen
abgefragt oder Begrie erfragt werden (McDaniel et al., 2013). Eine ähnlich positive
Wirkung können digitale Quizspiele mit korrigierendem Feedback u. a. im sozialwis-
senschalichen (McDaniel et al., 2011) oder im Fremdsprachenunterricht entfalten (Li,
2010). Insgesamt können Lehrende die Lernenden mit digitalen Quizspielen eektiv
unterstützen, da deren Nutzung lernwirksamer als erneutes Betrachten von Lernma-
terial (McDaniel et al., 2013; Roediger et al., 2011) und als weitere Lernaktivitäten zu
sein scheint (Adesope et al., 2017).
Die Ergebnisse dieser Studie sind auch mit methodologischen Entscheidungen
und Grenzen verbunden: So konnten wir die Quizergebnisse aus datenschutzrechtli-
chen Gründen nicht mit den abschließenden Prüfungsergebnissen vergleichen. Jedoch
wurde ein positiver Zusammenhang mit Prüfungsergebnissen bereits mehrfach gezeigt
(Roediger et al., 2011). Das Quiz war zudem vergleichbar mit Prüfungen im Single-
Choice-Format, sodass transfergerecht gelernt wurde (Morris et al., 1977). Während
wir in dieser Studie Wissenserwerb als Lernziel fokussierten, eignen sich digitale Quiz-
spiele prinzipiell auch zur Vertiefung von Lerninhalten sowie dazu, die Anwendung
von Wissen zu fördern (Abdul Jabbar & Felicia, 2015). Es bleibt daher oen, ob erwei-
tertes Feedback in Bezug auf höhere Lernzielstufen eektiver als korrigierendes Feed-
back sein könnte, wie eine frühere Meta-Analyse nahelegt (van der Kleij et al., 2015).
Auch bleibt zu zeigen, wie die Eekte ausfallen, wenn Lern- und Testphase zeitlich wei-
ter auseinanderliegen.
Auf Basis der vorliegenden Befunde kann für die (hoch)schulische Lehre nicht
empfohlen werden, stets den Mehraufwand für Feedback mit Zusatzinformationen für
den Wissenserwerb zu betreiben. Vielmehr könnte eine Digitalisierung von vorhande-
nen Fragenkatalogen und Antwortoptionen mit korrigierendem Feedback einen einfa-
Bedeutet mehr Feedback auch mehr lernen? 29
chen und breiten Einsatz von digitalen Quizspielen in der Lehre ermöglichen. Selbst
wenn Lehrende dabei nur auf Wissenserwerb abzielen, kann Lernenden neu erworbe-
nes Wissen beim Lösen anderer Probleme hilfreich sein (McDaniel et al., 2013). Leh-
rende könnten Feedbackarten auch zur Dierenzierung im Unterricht nutzen, um mit
Unterschieden in Vorwissen, Lernmotivation oder anderen Eigenschaen der Lernen-
den umzugehen. Digitale Quizspiele könnten somit als eektive und eziente spieleri-
sche Lernform neben anderen lernwirksamen formativen Prüfungsformaten fungieren
(Stull et al., 2011). Dafür sind jedoch weitere Erkenntnisse zur Eektivität und Ezienz
von digitalen Quizspielen in Lehr- und Lernkontexten nötig, wobei Lehrende eine zen-
trale Rolle einnehmen können (Rüth, 2017).
Förderhinweis
Diese Studie wurde teilweise gefördert durch das Ministerium für Kultur und Wis-
senscha (NRW) in Kooperation mit der Universität zu Köln via Grant Inno-2015-
6-16a, Projekt „Quizard“, und teilweise gefördert durch das Bundesministerium für
Bildung und Forschung (BMBF) im Rahmen der gemeinsamen „Qualitätsoensive Leh-
rerbildung“ von Bund und Ländern via Grant 01JA1815, Projekt „Zukunsstrategie
Lehrer*innenbildung (ZuS)“. Die Verantwortung für den Inhalt dieser Veröentlichung
liegt bei den Autoren.
Literatur
Abdul Jabbar, A. I. & Felicia, P. (2015). Gameplay engagement and learning in game-based learn-
ing: A systematic review. Review of Educational Research, 85(4), 740–779.
https://doi.org/10.3102/0034654315577210
Adesope, O. O., Trevisan, D. A. & Sundararajan, N. (2017). Rethinking the use of tests: A meta-
analysis of practice testing. Review of Educational Research, 87(3), 659–701.
https://doi.org/10.3102/0034654316689306
Barsalou, L. W. (1982). Context-independent and context-dependent information in concepts.
Memory & Cognition, 10, 82–93. https://doi.org/10.3758/BF03197629
Butler, A. C., Karpicke, J. D. & Roediger III, H. L. (2008). Correcting a metacognitive error:
Feedback increases retention of low-condence correct responses. Journal of Experimental
Psychology: Learning, Memory, and Cognition, 34(4), 918–928.
https://doi.org/10.1037/0278-7393.34.4.918
Carpenter, S. K., Pashler, H., Wixted, J. T. & Vul, E. (2008). e eects of tests on learning and
forgetting. Memory & Cognition, 36, 438–448. https://doi.org/10.3758/MC.36.2.438
Clark, D. B., Tanner-Smith, E. E. & Killingsworth, S. S. (2016). Digital games, design, and learn-
ing: A systematic review and meta-analysis. Review of Educational Research, 86(1), 79–122.
https://doi.org/10.3102/0034654315582065
Craik, F. I. M. & Lockhart, R. S. (1972). Levels of processing: A framework for memory research.
Journal of Verbal Learning and Verbal Behavior, 11(6), 671–684.
https://doi.org/10.1016/S0022-5371(72)80001-X
Hattie, J. & Timperley, H. (2007). e power of feedback. Review of Educational Research, 77(1),
81–112. https://doi.org/10.3102/003465430298487
Kealy, W. A. & Ritzhaupt, A. D. (2010). Assessment certitude as a feedback strategy for learners
constructed responses. Journal of Educational Computing Research, 43(1), 25–45.
https://doi.org/10.2190/EC.43.1.c
Kulhavy, R. W. & Stock, W. A. (1989). Feedback in written instruction: e place of response cer-
titude. Educational Psychology Review, 1, 279–308. https://doi.org/10.1007/BF01320096
Marco Rüth, Johannes Breuer, Thomas Morten & Kai Kaspar
30
Laugwitz, B., Held, T. & Schrepp, M. (2008). Construction and evaluation of a user experience
questionnaire. In A. Holzinger (Hrsg.), HCI and usability for education and work. USAB
2008. Lecture Notes in Computer Science (Band 5298, S. 63–76). Berlin, Heidelberg: Sprin-
ger. https://doi.org/10.1007/978-3-540-89350-9_6
Li, S. (2010). e eectiveness of corrective feedback in SLA: A meta‐analysis. Language Learn-
ing, 60(2), 309–365. https://doi.org/10.1111/j.1467-9922.2010.00561.x
McDaniel, M. A., Agarwal, P. K., Huelser, B. J., McDermott, K. B. & Roediger III, H. L. (2011).
Test-enhanced learning in a middle school science classroom: e eects of quiz frequency
and placement. Journal of Educational Psychology, 103(2), 399–414.
https://doi.org/10.1037/a0021782
McDaniel, M. A., omas, R. C., Agarwal, P. K., McDermott, K. B. & Roediger III, H. L. (2013).
Quizzing in middle‐school science: Successful transfer performance on classroom exams.
Applied Cognitive Psychology, 27(3), 360–372. https://doi.org/10.1002/acp.2914
Morris, C. D., Bransford, J. D. & Franks, J. J. (1977). Levels of processing versus transfer appro-
priate processing. Journal of Verbal Learning and Verbal Behavior, 16(5), 519–533.
https://doi.org/10.1016/S0022-5371(77)80016-9
Mory, E. H. (2004). Feedback research revisited. In D. Jonassen & M. Driscoll (Hrsg.), Handbook
of Research on Educational Communications and Technology (Band 2, S. 745–783). New
York: Routledge.
Nicol, D. J. & Macfarlane‐Dick, D. (2006). Formative assessment and self‐regulated learning: A
model and seven principles of good feedback practice. Studies in Higher Education, 31(2),
199–218. https://doi.org/10.1080/03075070600572090
Roediger III, H. L., Agarwal, P. K., McDaniel, M. A. & McDermott, K. B. (2011). Test-enhanced
learning in the classroom: Long-term improvements from quizzing. Journal of Experimen-
tal Psychology: Applied, 17(4), 382–395. https://doi.org/10.1037/a0026252
Rüth, M. (2017). Spielerisches Lernen besser bewerten: Eektivität und Ezienz von Computer-
spielen. In W. Zielinski, S. Aßmann, K. Kaspar & P. Moormann (Hrsg.), Spielend lernen!
Computerspiele(n) in Schule und Unterricht – Schrienreihe zur digitalen Gesellscha NRW
(Band 5, S. 39–53). München: kopaed.
Ryan, R. M., Rigby, C. S. & Przybylski, A. (2006). e motivational pull of video games: A
self-determination theory approach. Motivation and Emotion, 30, 344–360.
https://doi.org/10.1007/s11031-006-9051-8
Stull, J., Varnum, S. J., Ducette, J., Schiller, J. & Bernacki, M. (2011). e many faces of forma-
tive assessment. International Journal of Teaching and Learning in Higher Education, 23(1),
30–39.
Subhash, S. & Cudney, E. A. (2018). Gamied learning in higher education: A systematic review
of the literature. Computers in Human Behavior, 87, 192–206.
https://doi.org/10.1016/j.chb.2018.05.028
van der Kleij, F. M., Feskens, R. C. W. & Eggen, T. J. H. M. (2015). Eects of feedback in a com-
puter-based learning environment on students’ learning outcomes: A meta-analysis. Review
of Educational Research, 85(4), 475–511. https://doi.org/10.3102/0034654314564881
Bildung, Schule, Digitalisierung
Kai Kaspar, Michael Becker-Mrotzek, Sandra Houes,
Johannes König, Daniela Schmeinck (Hrsg.)
Waxmann 2020
Münster New York
Print-ISBN 978-3-8309-4246-7
E-Book-ISBN 978-3-8309-9246-2
doi: https://doi.org/10.31244/9783830992462
© Waxmann Verlag GmbH, Münster 2020
www.waxmann.com
info@waxmann.com
Umschlaggestaltung: Anne Breitenbach, Münster
Umschlagabbildung: © VLADGRIN – shutterstock.com, modifiziert durch Judith Hofmann
Satz: Roger Stoddart, Münster
Bibliograsche Informationen der Deutschen Nationalbibliothek
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der
Deutschen Nationalbibliograe; detaillierte bibliograsche Daten sind
im Internet über http://dnb.dnb.de abruar.
Dieses Buch ist verfügbar unter folgender Lizenz: CC-BY-NC-ND 4.0
Namensnennung-Nicht kommerziell-Keine Bearbeitungen 4.0 International
... As shown in Figure 2, this phase simultaneously served as a filler task between the learning phase (quiz session 1) and the test phase (quiz session 2), resulting in a retention interval of approximately 5 min. Similar intervals were used in previous studies on feedback effects on semantic knowledge in online settings (Carpenter et al., 2008) and lab settings (Rüth et al., 2020). In the test phase, all participants responded to the same questions without receiving feedback. ...
... However, in our studies, feedback in terms of KCRF or AIF was provided immediately after responding to a question and the quiz content focused on semantic knowledge. Relatedly, providing more complex feedback did not facilitate performance in a test about text comprehension (Kulhavy et al., 1985) and providing KCRF and AIF was found to yield similar shortterm retention of learning material relevant to students' regular university course (Rüth et al., 2020). Such findings might partly be due to cue overload (e.g., Karpicke et al., 2014) so that the amount of information to be encoded and stored exceeds learners' memory-related capacities. ...
Article
Full-text available
Testing is an effective learning method, and it is the basis of mobile quiz apps. Quiz apps have the potential to facilitate remote and self-regulated learning. In this context, automatized feedback plays a crucial role. In two experimental studies, we examined the effects of two feedback types of quiz apps on performance, namely, the standard corrective feedback of quiz apps and a feedback that incorporates additional information related to the correct response option. We realized a controlled lab setting (n = 68, Study 1) and an unsupervised mobile setting (n = 150, Study 2). In the learning phase, participants used the quiz app and received feedback. They also completed a subsequent test as well as a follow-up test 1 week later by using the same quiz app. Irrespective of feedback type and setting, cognitive outcomes (quiz scores) and metacognitive outcomes (response certainty) increased similarly in the short term and long term. Feedback effects were not moderated by participants' overall response certainty during learning, their prior knowledge, and the difficulty of quiz items. Moreover, we found that participants perceived the quiz app to be similarly attractive, interesting, and enjoyable in both feedback conditions and that they spent slightly more time to process quiz items in the lab setting. We discuss these results in detail, including the role of moderating and mediating factors and prospects for further research and practice. Overall, our results underline that quiz apps are useful and effective tools that can support the acquisition and retention of semantic knowledge in different learning settings.
Article
Full-text available
The testing effect is a well-known concept referring to gains in learning and retention that can occur when students take a practice test on studied material before taking a final test on the same material. Research demonstrates that students who take practice tests often outperform students in nontesting learning conditions such as restudying, practice, filler activities, or no presentation of the material. However, evidence-based meta-analysis is needed to develop a comprehensive understanding of the conditions under which practice tests enhance or inhibit learning. This meta-analysis fills this gap by examining the effects of practice tests versus nontesting learning conditions. Results reveal that practice tests are more beneficial for learning than restudying and all other comparison conditions. Mean effect sizes were moderated by the features of practice tests, participant and study characteristics, outcome constructs, and methodological features of the studies. Findings may guide the use of practice tests to advance student learning, and inform students, teachers, researchers, and policymakers. This article concludes with the theoretical and practical implications of the meta-analysis.
Article
Full-text available
In this meta-analysis, we systematically reviewed research on digital games and learning for K-16 students. We synthesized comparisons of game versus nongame conditions (i.e., media comparisons) and comparisons of augmented games versus standard game designs (i.e., value-added comparisons). We used random-effects meta-regression models with robust variance estimates to summarize overall effects and explore potential moderator effects. Results from media comparisons indicated that digital games significantly enhanced student learning relative to nongame conditions ( = 0.33, 95% confidence interval [0.19, 0.48], k = 57, n = 209). Results from value-added comparisons indicated significant learning benefits associated with augmented game designs ( = 0.34, 95% confidence interval [0.17, 0.51], k = 20, n = 40). Moderator analyses demonstrated that effects varied across various game mechanics characteristics, visual and narrative characteristics, and research quality characteristics. Taken together, the results highlight the affordances of games for learning as well as the key role of design beyond medium.
Article
Full-text available
In this meta-analysis, we investigated the effects of methods for providing item-based feedback in a computer-based environment on students’ learning outcomes. From 40 studies, 70 effect sizes were computed, which ranged from −0.78 to 2.29. A mixed model was used for the data analysis. The results show that elaborated feedback (EF; e.g., providing an explanation) produced larger effect sizes (0.49) than feedback regarding the correctness of the answer (KR; 0.05) or providing the correct answer (KCR; 0.32). EF was particularly more effective than KR and KCR for higher order learning outcomes. Effect sizes were positively affected by EF feedback, and larger effect sizes were found for mathematics compared with social sciences, science, and languages. Effect sizes were negatively affected by delayed feedback timing and by primary and high school. Although the results suggested that immediate feedback was more effective for lower order learning than delayed feedback and vice versa, no significant interaction was found.
Article
Full-text available
We examined whether learning from quizzing arises from memorization of answers or fosters more complete understanding of the quizzed content. In middle-school science classes, we spaced three multiple-choice quizzes on content in a unit. In Experiment 1, the class exams included questions given on quizzes, transfer questions targeting the same content, and content that had not been quizzed (control content). The quizzing procedure was associated with significant learning benefits with large effect sizes and similar effect sizes for both transfer items and identical items. In Experiment 2, quiz questions focused on definitional information or application of the principle. Application questions increased exam performance for definitional-type questions and for different application questions. Definition questions did not confer benefits for application questions. Test-enhanced learning, in addition to other factors in the present quizzing protocol (repeated, spaced presentation of the content), may create deeper understanding that leads to certain types of transfer. Copyright (c) 2013 John Wiley & Sons, Ltd.
Article
Full-text available
Educational researchers have rarely addressed the problem of how to provide feedback on constructed responses. All participants (N = 76) read a story and completed short-answer questions based on the text, with some receiving feedback consisting of the exact material on which the questions were based. During feedback, two groups receiving feedback also rated the certainty of their response correctness-an activity we have termed assessment certitude. Additionally, participants in one of these groups viewed their initial responses along with the feedback. All three feedback conditions showed significant gains in recall performance compared to a fourth group that received no feedback. Low ratings of assessment certitude significantly correlated with improved recall for two groups receiving feedback that did not include their original responses. Among these participants, mental reiteration of the feedback received was the most frequently used mental strategy while participants in a third group, who saw their original responses during feedback, reported using other approaches such as visualization.
Article
Full-text available
Typically, teachers use tests to evaluate students' knowledge acquisition. In a novel experimental study, we examined whether low-stakes testing (quizzing) can be used to foster students' learning of course content in 8th grade science classes. Students received multiple-choice quizzes (with feedback); in the quizzes, some target content that would be included on the class summative assessments was tested, and some of the target content was not tested. In Experiment 1, three quizzes on the content were spaced across the coverage of a unit. Quizzing produced significant learning benefits, with between 13% and 25% gains in performance on summative unit examinations. In Experiments 2a and 2b, we manipulated the placement of the quizzing, with students being quizzed on some content prior to the lecture, quizzed on some immediately after the lecture, and quizzed on some as a review prior to the unit exam. Review quizzing produced the greatest increases in exam performance, and these increases were only slightly augmented when the items had appeared on previous quizzes. The benefits of quizzing (relative to not quizzing) persisted on cumulative semester and end-of-year exams. We suggest that the present effects reflect benefits accruing to retrieval practice, benefits that are well established in the basic literature.
Article
The ubiquitous presence of technology in classrooms has inspired a shift from traditional classroom lectures to integrated digital learning environments. These interactive learning environments present the opportunity to evolve the teaching process through the incorporation of game elements that have been shown to capture user attention, motivate towards goals, and promote competition, effective teamwork, and communication. Gamification and game-based learning systems aim to bring these benefits into the learning and teaching process. This paper presents a systematic literature review of game-based learning systems, frameworks that integrate game design elements, and various implementations of gamification in higher education. A systematic search of databases was conducted to select articles related to gamification in education for this review. The objective is to identify how gamified learning systems have been used and categorize its use in higher education. The findings of this literature review allow higher education institutions to employ and explore efficient gamified learning and teaching systems to improve student engagement, motivation, and performance.
Article
In this review, we investigated game design features that promote engagement and learning in game-based learning (GBL) settings. The aim was to address the lack of empirical evidence on the impact of game design on learning outcomes, identify how the design of game-based activities may affect learning and engagement, and develop a set of general recommendations for GBL instructional design. The findings illustrate the impact of key gaming features in GBL at both cognitive and emotional levels. We also identified gaming trends and several key drivers of engagement created by the gaming features embedded within GBL, as well as external factors that may have influences on engagement and learning.
Article
Feedback is one of the most powerful influences on learning and achievement, but this impact can be either positive or negative. Its power is frequently mentioned in articles about learning and teaching, but surprisingly few recent studies have systematically investigated its meaning. This article provides a conceptual analysis of feedback and reviews the evidence related to its impact on learning and achievement. This evidence shows that although feedback is among the major influences, the type of feedback and the way it is given can be differentially effective. A model of feedback is then proposed that identifies the particular properties and circumstances that make it effective, and some typically thorny issues are discussed, including the timing of feedback and the effects of positive and negative feedback. Finally, this analysis is used to suggest ways in which feedback can be used to enhance its effectiveness in classrooms.