Available via license: CC BY 4.0
Content may be subject to copyright.
Dieser Beitrag wurde unter der Creative-Commons-Lizenz 4.0 Attribution (BY) veröffentlicht.
https://doi.org/10.21240/zfhe/19-01/10
Daniel Heßler1 & Stephanie Lotzow2 (Gießen)
„Dagmar’s Digital Day – A Self-Assessment
Game“. Ein Werkstattbericht
Zusammenfassung
Neben dem reinen Unterhaltungsfaktor besteht das Potenzial von Serious Games
darin, spielerisch zu lehren, zu lernen und zu forschen. Dieses Potenzial soll am Bei-
spiel von „Dagmar’s Digital Day – A Self-Assessment Game“ (LevelUp, 2023) auf-
gezeigt werden. Das Spiel ist auf Datenerhebung, Datenexport und Datenmodifika-
tion ausgelegt und leistet damit einen innovativen Beitrag zur Forschung sowie ein
Angebot zur Weiterbildung im Bereich digitaler Kompetenz. In diesem Werkstatt-
bericht geben die Entwickler:innen des Spiels einen Einblick in den Produktionspro-
zess und zeigen neben den zentralen Funktionen auch die Herausforderungen auf,
die im Spannungsfeld von Forschung und Gamification entstehen.
Schlüsselwörter
Serious Games, Gamification, Self-Assessment, Digitale Kompetenzen, Open
Source
1 Justus-Liebig-Universität Gießen; daniel.hessler@admin.uni-giessen.de
2 Justus-Liebig-Universität Gießen; stephanie.lotzow@germanistik.uni-giessen.de
Daniel Heßler & Stephanie Lotzow
190
“Dagmar’s Digital Day – A Self-Assessment Game”: A
development report
Abstract
Apart from the mere entertainment factor, the potential of serious games lies in a
playful way of teaching, learning and researching. This paper demonstrates this po-
tential using the example of “Dagmar’s Digital Day – A Self-Assessment Game”
(LevelUp, 2023). Since the game is designed to collect, export and modify data, it
makes an innovative contributiobn for both scientific research and individual learn-
ing in the field of digital competence. In this development report, the developers of
the game provide an insight into the production process and show its central func-
tions, as well as the challenges that arise in the area of conflict between research and
gamification.
Keywords
serious games, gamification, self-assessment, digital competence, open source
ZFHE Jg. 19 / Nr. 1 (März 2024) S. 189–208
191
1 Serious Games und digitale Kompetenzen
Die fortlaufende Digitalisierung der Hochschulen führte gerade in den letzten Jahren
zu einem rasanten Anstieg an digitalen Lehr- und Lernangeboten. Zugleich, und das
ist nicht unproblematisch, setzt diese digitale Transformation in Forschung und
Lehre stillschweigend voraus, dass Studierende wie Lehrende gleichermaßen über
ein generelles Skillset an digitalen Kompetenzen verfügen. Nach dem in der aktuali-
sierten Fassung des Rahmenmodells „DigComp 2.2. Digital Competence Frame-
work for Citizens“ (Vuorkari et al., 2022) dargelegten Verständnis von ‚digitalen
Kompetenzen‘ umfasst der Begriff Kenntnisse in den fünf Dimensionen Datenver-
arbeitung und -bewertung, Kommunikation und Kollaboration, Erstellen von Inhal-
ten, Sicherheit sowie Problemlösung. Zusätzlich inkludiert das Begriffsverständnis
die Fähigkeit, diese Kenntnisse auch praktisch anzuwenden. Unberücksichtigt bleibt
dabei, dass die individuellen Kompetenzen mitunter stark voneinander abweichen
können. So deuten bereits erste empirische Studien zur Erfassung und Evaluation
digitaler Kompetenzen darauf hin, dass diesbezüglich allein unter Studierenden eine
fachspezifische Divergenz herrscht (Janschitz et al., 2021; Krempkow, 2019;
Krempkow & Petri, 2022; Krempkow, 2021; Petri, 2022; Senkbeil et al., 2019).
Gleichwohl erleben im Zuge der Digitalisierung von Hochschulen auch neue For-
mate der Wissensvermittlung einen Aufschwung, wozu etwa auch Serious Games
zählen. Serious Games sind (digitale) Spiele, die neben dem reinen Unterhaltungs-
faktor darauf abzielen, bestimmte Fähigkeiten oder (Fach-)Wissen zu vermitteln.
Damit besteht ihr Potenzial insbesondere darin, spielerisch zu lehren, zu lernen und
zu forschen, weshalb sie häufig im Gesundheitswesen oder im Bildungssektor ein-
gesetzt werden. Ausgehend von diesem Potenzial ist das Serious Game „Dagmar’s
Digital Day – A Self-Assessment Game“ (LevelUp, 2023)3 in Zusammenarbeit von
3 Nachfolgend verweisen wir mit dem Kürzel DDD auf „Dagmar’s Digital Day“.
Daniel Heßler & Stephanie Lotzow
192
dem Projekt LevelUp: Data Literacy and Serious Games4 und der Psychologischen
Diagnostik (Prof. Dr. Pascale Petri und Prof. Dr. Martin Kersting) der Justus-Liebig-
Universität Gießen entwickelt worden.5
Vor dem Hintergrund, dass digitale Kompetenzen, insbesondere in der Hochschul-
landschaft, bislang nur unzureichend erforscht sind, leistet DDD als innovatives For-
schungs-Tool, genauer: als gamifiziertes Self-Assessment, einen Beitrag zu der
Frage, wie Studierende ihre digitalen Kompetenzen einschätzen. Damit ist DDD we-
niger für die curriculare Lehre, sondern vielmehr für die Forschung ausgerichtet.
Darüber hinaus erfüllt DDD drei Anforderungen, die sowohl in digitalen Lehrmate-
rialien als auch in Tools zur Datenerhebung in dieser Kombination bislang als Desi-
derat gelten: DDD dient erstens als praktische Ergänzung zu gängigen Erhebungs-
methoden, es adressiert zweitens digitale Kompetenzen als ludonarrativen6 Gegen-
stand, und drittens kann es dank umfangreichen Begleitmaterials in Form seines of-
fenen Quellcodes, einer frei nutzbaren Asset-Datenbank und einer umfangreichen
Dokumentation (Cookbook) als Angebot zur digitalen Weiterbildung genutzt wer-
den. Als Entwickler:innen von DDD geben wir neben den zentralen Funktionen des
4 LevelUp ist ein vom Hessischen Ministerium für Wissenschaft und Kunst gefördertes
Verbundprojekt der Justus-Liebig-Universität Gießen und der Philipps-Universität Mar-
burg. LevelUp entwickelt Serious Games, die in Forschung und Lehre an deutschen
Hochschulen eingesetzt werden (https://www.uni-giessen.de/de/fbz/zentren/hd/pro-
jekte/levelup).
5 DDD wurde im Mai 2023 von LevelUp Gießen veröffentlicht und ist seitdem unter
https://levelup.uni-giessen.de/ddd/ spielbar. Die Veröffentlichung des Quellcodes, eines
Cookbooks und eines Frameworks zum Datenexport von DDD folgte im Juni 2023 und
kann unter https://gitlab.hessenhub.de/levelup/ddd eingesehen und heruntergeladen wer-
den. Eine hochschulübergreifende Asset-Datenbank mit frei nutzbaren Medieninhalten
existiert seit Juli 2023 unter https://asset-db.online.uni-marburg.de.
6 Der Begriff ‚ludonarrativ‘ meint das wirkästhetische Zusammenspiel von mechanischen
(ludischen) und erzählerischen (narrativen) Spielerlebnissen; vgl. z. B. Koubek (2013)
und Roth et al. (2018).
ZFHE Jg. 19 / Nr. 1 (März 2024) S. 189–208
193
Spiels einen Einblick in den Produktionsprozess und zeigen die Herausforderungen
auf, die im Spannungsfeld von Forschung und Gamification entstehen können.
2 Gamification: Zur ludischen Modellierung
des Self-Assessments
Ausgangspunkt unseres Projekts war das Vorhaben, digitale Kompetenzen von Stu-
dierenden in einem Serious Game zu adressieren und darüber Forschungsdaten zu
erheben. Mit der Entwicklung eines gamifizierten Self-Assessments war die Vermu-
tung verbunden, die Motivation zur Teilnahme an einem Self-Assessment zu stei-
gern und gleichzeitig die Abbruchquote zu verringern.7 Unsere Leitprinzipien waren
Datensicherheit, Open Source und didaktische Nachhaltigkeit. Bisherige Program-
miererfahrungen mit der Ren‘Py-Game Engine sollten genutzt und ausgebaut wer-
den. Das Spiel sollte jederzeit über eine URL abrufbar und im Browser spielbar sein,
sowohl auf Desktop-Geräten als auch auf Smart Devices, und eine maximale Spiel-
dauer von 45 Minuten nicht überschreiten.
Bezüglich der methodischen Frage, wie digitale Kompetenzen adressiert und erho-
ben werden sollten, musste zunächst eine Entscheidung aus einer Auswahl von drei
Verfahrensklassen getroffen werden: Selbstberichtsfragebögen, Wissenstests oder
Simulationsaufgaben. Hieraus leitete sich die Frage nach der ludischen Modellie-
rung, also nach den zentralen Design-Entscheidungen zur Spielmechanik, ab: „In
welcher Beziehung sollen Datenerhebung und Spielmechanik zueinander stehen?“
7 Hinweise, die diese Vermutung stützen könnten, liefert eine Usability-Studie, deren Ziel
es ist, „DDD hinsichtlich der Usability und User Experience (UX) an einer Stichprobe
von Studierenden zu evaluieren“ (Sauer, 2023, S. 2). Die Arbeit deutet darauf hin, dass
die Story-Anteile des Spiels die Eintönigkeit der Selbsteinschätzungs-Sequenzen über-
wogen haben könnte. Sie zu überprüfen, erscheint uns perspektivisch lohnenswert.
Daniel Heßler & Stephanie Lotzow
194
Nach einer längeren Prototyping-Phase in enger Abstimmung mit der Psychologi-
schen Diagnostik fiel die Wahl auf Selbstberichtsfragebögen.8 Als Grundlage für die
Self-Assessments dienten die Einschätzungsfragen der Selbstberichtsfragebögen
nach Krempkow (2019) und Schauffel et al. (2021). Auf Basis dieser Entscheidung
geht DDD der Frage nach, wie Studierende ihre digitalen Kompetenzen einschätzen.
Am Ende des Spiels erhalten sie ein ausführliches Feedback zu ihrer Selbsteinschät-
zung in Relation zu einer Vergleichsgruppe, Erläuterungen zu den verwendeten Er-
hebungsmethoden und Links zu Quellen, die sie bei der Verbesserung ihrer digitalen
Kompetenzen unterstützen können.
Mit dem Verzicht auf Wissenstests und Simulationsaufgaben leitete sich implizit
folgende Setzung ab: DDD ist ein Self-Assessment Game, keine Trainingssoftware.
Diese Feststellung war eine der wichtigsten im Produktionsprozess des Spiels. Sie
führte uns dazu, den Begriff ‚Serious Game‘ in einer Weise auszulegen, der Spiel-
ziele im traditionellen Sinne suspendiert. Das meint die Exklusion von Gameplay-
Challenges, die mithilfe von Interaktionen überwunden werden können, und die wie-
derum anhand einer spezifischen ludischen Modellierung evaluiert und im Graphi-
cal User Interface (GUI) repräsentiert werden. Die Implikationen dieser Auslegung
diskutieren wir nachfolgend.
Interaktionsmuster: Eine möglichst umfangreiche Menge an Daten mit einem Seri-
ous Game zu erheben, das setzt voraus, dass der Schwierigkeitsgrad des Spiels nied-
rig gehalten werden muss. Die erfolgreiche Teilnahme an einem Self-Assessment-
Game sollte daher unter keinen Umständen am spielerischen Können der Nutzer:in-
nen scheitern. Um eine Kollision von digitaler Kompetenz mit ludischer Kompetenz
8 Die Self-Assessments in DDD sehen wir als beispielhafte Methodik für unterschiedlich-
ste Studiendesigns mit ludonarrativer Orientierung. Selbstverständlich wären für kon-
krete Studiendesigns konkretere Methodendiskussionen nötig, diese sollten sich jedoch
spezifisch auf diese Designs beziehen. Wir beschränken uns an dieser Stelle auf das Spiel
und seine Peripherie sowie unsere Erfahrungen im Produktionsprozess – nicht auf die mit
DDD erhobenen Daten. Perspektivisch sollen diese stattdessen in künftigen Untersuchun-
gen der Psychologischen Diagnostik (JLU Gießen) diskutiert und evaluiert werden.
ZFHE Jg. 19 / Nr. 1 (März 2024) S. 189–208
195
zu vermeiden, sollten also keine komplizierten Interaktionen von den Nutzer:innen
verlangt werden, die spielerische Erfahrung voraussetzen.
Durch die Genre-Konventionen der Visual Novel – damit sind überwiegend textba-
sierte Computerspiele (sozusagen interaktive Comics) gemeint – minimiert die
Ren‘Py-Engine diese Hürde von vornherein9: In DDD wird der Spielfortschritt ein-
zig über einen Mausklick (oder das Betätigen der Leertaste) ermöglicht, sodass auch
unerfahrene oder weniger spielaffine Nutzer:innen die Möglichkeit haben, am Self-
Assessment teilzunehmen. Portierungen auf Smart Devices, die anderen Interakti-
onsmustern folgen, verlaufen damit vergleichsweise unkompliziert.
Spieler:innen können die Lesegeschwindigkeit der Figurendialoge selbst bestimmen
oder die ‚Vorspulen-Option‘ nutzen, die über das Options-Menü aktiviert werden
kann. Somit werden die Spieler:innen zwar eingeladen, die Geschichte von DDD zu
spielen, allerdings werden sie nicht dazu verpflichtet. Die Self-Assessment-Sequen-
zen können jedoch nicht übersprungen werden. DDD kommt damit auf eine maxi-
male Spielzeit von 45 Minuten, die aber für eilige Spieler:innen auf knapp 15 Minu-
ten verkürzt werden kann.
Ludische Modellierung: In der Prototyping-Phase wurden Möglichkeiten des Gami-
fication Design digitaler Kompetenzen anhand von typischen Fragen diskutiert, die
das Self-Assessment um Gameplay-Challenges mit Bewertungssystem hätten ergän-
zen können, etwa: „Ist es besser, den Befehl Copy-Paste über die Tastatur, über ein
Kontextmenü oder über eine Befehlsleiste einzugeben?“ Allein die Formulierung der
Frage mit einer Komparativkonstruktion, die den drei Lösungswegen eine bestimmte
Qualität zuschreibt, erweist sich bereits als problematisch. Gerade bei verschiedenen
Lösungswegen, mit denen dasselbe Ergebnis erzielt werden kann, müsste sehr genau
definiert werden, was mit „besser“ gemeint ist: „schneller“ oder „effizienter“, weil
etwa weniger Handlungen ausgeführt werden müssen, oder auch „zuverlässiger“,
„weniger fehleranfällig“ etc. – das Bedeutungsspektrum von „besser“ ist in diesem
9 Die Engine ist spezifisch für Visual Novels ausgelegt. Download und Dokumentation un-
ter https://www.renpy.org/.
Daniel Heßler & Stephanie Lotzow
196
Kontext vielseitig. Ein Bepunktungssystem würde an dieser Stelle den Bereich der
Deskription verlassen („Alle drei Lösungswege führen zum selben Ergebnis“) und
stattdessen Präskription fordern („Eine Lösung ist die beste“; „Eine Lösung ist bes-
ser als die andere“ etc.), die schnell zu einer Hierarchie führt, deren Bewertungskri-
terien nur schwer zu definieren sind und stellenweise arbiträr sein dürften.
Wer das Erlernen dieses Befehls in Erfolgspunkten oder anderen Ingame-Ressour-
cen ausdrücken will, muss diese Frage beantworten; denn egal, für welche der drei
Optionen es die meisten Punkte geben soll, und ob sie überhaupt unterschiedlich zu
bewerten sind: Für ein ansprechendes Spielerlebnis und zur Orientierung im ludi-
schen System benötigen Spieler:innen Feedback über ihre Erfolge, die allerdings
nicht identisch mit ihren Leistungen sein müssen. Derartiges Feedback ist insofern
konventionell für Computerspiele, als es bestimmte Performanz-Aspekte der Inter-
aktionen von Spieler:innen zum Spiel zwar misst, allerdings in einer nicht notwendig
wissenschaftlichen, sondern vielmehr ästhetisierten Modellierung.10
Ein Ressourcensystem, das mit Leistungspunkten, Rankings und Achievements
Spielerfolge definiert und evaluiert hätte, wäre beim Spielerlebnis in Spannung zu
den Ergebnissen der Datenerhebung getreten und hätte die Selbsteinschätzung der
Spieler:innen sozusagen unterwandern können. In anderen Worten: Ludische Vali-
dität hätte mit wissenschaftlicher Validität konkurriert. Wenn auch die Fragebogen-
Items des Self-Assessments dazu dienen, den Oberbegriff digitale Kompetenzen zu
spezifizieren, so wären diese Spezifikationen in der konkreten Umsetzung als Game-
play-Challenges trotzdem abstrakt geblieben. Eine Selbstaussage wie „Ich kann die
Sicherheitseinstellungen meiner digitalen Geräte konfigurieren oder ändern“ fasst
unzählige Mikro-Erfahrungen in einer oft sehr komplexen Wechselwirkung von
Hard- und Software zusammen. Jede einzelne Aussage müsste durch spezifische
Rätsel-Elemente im Spiel geprüft werden. Ein Fragebogen mit insgesamt 46 Items
10 Es scheint die zentrale Herausforderung spielbasierten Lernens zu sein, in dieser Weise
unterschiedliche Modellierungen in Übereinstimmung zu bringen, um daraus abgeleitet
überzeugende Herausforderungen – tasks – an die Spieler:innen zu stellen. Ausführlicher
diskutieren dies Cutting und Deterding (2022).
ZFHE Jg. 19 / Nr. 1 (März 2024) S. 189–208
197
(wie es in DDD der Fall ist) käme somit auf ein Vielfaches dieser Zahl an Mechani-
ken und Einzel-Rätseln, oder er müsste eine kleinere Zahl an Rätseln anbieten, die
pars pro toto evaluiert würden. Derartige Simulationsaufgaben stellen darüber hin-
aus nicht nur die Aussagekraft der verlangten performativen Handlungen in Frage,
sondern gelangen auch an die Grenzen der technischen Umsetzbarkeit.
Didaktik: Digitale Kompetenzen in einer virtuellen Simulation abzubilden und zu
testen, hätte demnach zu einem werkästhetischen Kuriosum geführt, das mitunter
Fähigkeiten getestet hätte, die zum Bedienen der Simulation vorderhand nötig ge-
wesen wären. Dies hätte sich beim Versuch fortgesetzt, Simulationen von Interakti-
onssequenzen wie „Markieren, STRG+C, Fokus umschalten, Cursor setzen,
STRG+V“ mit Swipe-Interaktionen auf Smart Devices umzusetzen.
Dies berührt unsere Beobachtung, dass digitale Kompetenzen direkt mit dem Be-
herrschen spezifischer Interfaces bzw. Interface-Konventionen zusammenhängen.
Die Selbstwahrnehmung „Ich kann digital“ mag daher oft nur das Beherrschen ganz
spezifischer User Interfaces und ihrer prozeduralen Gegebenheiten ausmachen, ge-
nauer: das Beherrschen spezifischer Produkte spezifischer Firmen. Unter digital fällt
in diesem Zusammenhang eine Vielzahl von Betriebssystemen, Browsern, Textver-
arbeitungsprogrammen, Content Management-Systemen, Mail Clients und derglei-
chen mehr. Ihre GUIs dürften oft das einzige Merkmal sein, an dem Nutzer:innen
die Programme unterscheiden können und an dem sie ihre Präferenz für das eine
oder andere Produkt festmachen dürften – möglicherweise handelt es sich dabei oft
um den wahrgenommenen Markenkern einer Software.
Ein beredtes Beispiel liefert eine Frage aus dem Self-Assessment: „Ich beherrsche
fortgeschrittene Formatierungsfunktionen von unterschiedlichen Tools (z. B. Seri-
enbriefe, Zusammenfügen von Dokumenten aus unterschiedlichen Formaten, Benut-
zung von fortgeschrittenen Formeln, Makros, usw.).“ Eine Trainingssoftware für di-
gitale Kompetenzen zu entwickeln, müsste solche Abstraktionen konkretisieren, sie
simulieren, hierzu die Interfaces und Interaktionssequenzen einer Vielzahl kommer-
zieller Produkte abstrahieren und schließlich die Performanz der Spieler:innen eva-
Daniel Heßler & Stephanie Lotzow
198
luieren – nicht zuletzt auch eine (oder mehrere) richtige Lösung(en) wie auch (deut-
lich zahlreichere) Fehlversuche. Der didaktische Nutzen dieser Software läge aber
vermutlich vor allem im gestalterischen Umgang mit ebendiesen Fehlversuchen: in
konstruktivem und insbesondere adaptivem Feedback des Spiels an die Spieler:innen
– nach Giannakas et al. (2018) wohl eines der wichtigsten Mankos von mobilen Se-
rious Games.
Abgesehen von der Feedback-Sequenz zur eigenen Selbsteinschätzung in Relation
zu einer Vergleichsgruppe enthält DDD deshalb kein Mechanik-bezogenes Feed-
back, wie es für digitale Spiele typisch wäre – etwa Highscores oder sonstige Gami-
fication- bzw. Pointification-Features11, die den Erfolg ludischer Handlungen oder
Kenntnisse über digitale Kompetenzen messen und bewerten würden. Der didakti-
sche Nutzen liegt nicht primär in den Mechaniken von DDD, sondern vor allem in
den Möglichkeiten und Materialien zu seiner Modifikation (vgl. Kapitel 3.3).
Narration: Ein Vorteil von gamifizierten Self-Assessments ist die Möglichkeit, das
Thema des jeweiligen Forschungsvorhabens selbst zum inhaltlichen bzw. ludonar-
rativen Gegenstand des Spiels zu machen. In DDD haben wir daher das Thema di-
gitale Kompetenzen in der Story aufgegriffen. Dadurch werden nicht nur die Spie-
ler:innen mit dem Thema digitale Kompetenzen konfrontiert, sondern auch die Spiel-
figuren.
Die Spieler:innen agieren aus der Perspektive der Studentin Dagmar, die gemeinsam
mit Alice und Aaron, einem befreundeten Paar, ein Event zum Semesterabschluss
plant. Dabei müssen die drei in ihrem studentischen Alltag nicht nur persönliche
Partnerschaftskrisen meistern, sondern auch ihre digitale Kompetenz unter Beweis
11 Der Begriff ‚Pointification‘ wird mitunter für eine spezifische Praxis von ‚Gamification‘
verwendet, die sich im Einsetzen von points, badges and leaderboards erschöpft, um auf
die Gefahr reduktionistischer Interpretationen von Spielerfolgen als objektivierbare Lei-
stungen hinzuweisen. Der Begriff verweist auch auf die problematische Vorstellung,
durch Integration von Spielelementen in Lern- und Arbeitsprozesse intrinsische Motiva-
tion „herstellen“ zu können (vgl. Nacke & Deterding, 2017).
ZFHE Jg. 19 / Nr. 1 (März 2024) S. 189–208
199
stellen: Von Themen wie Urheberrecht und Lizenzen musikalischer Werke, über On-
line-Trolling auf Social Media-Plattformen und Kommunikation über Smartphones,
vom Umgang mit Filehosting-Diensten und Datenverlust bis hin zu Cyber Security
und Hackerangriffen – DDD illustriert potenzielle Konfliktfelder aus den fünf Di-
mensionen digitaler Kompetenzen, die zugleich tief in die Narration eingewoben
sind.
Abb. 1: Die Figuren Alice, Aaron und Dagmar aus DDD (eigener Screenshot)
Durch die Konfrontation mit risikobehafteten Ereignissen, die in der Geschichte oft
durch einen Mangel an digitalen Kompetenzen entstehen, ist Dagmar als Kopf der
Planungsgruppe aufgerufen, mitunter folgenschwere Entscheidungen zu treffen:
Dagmar kann Situationen entweder durch sinnvolle Vorschläge und digitale Kom-
petenz retten, das kleinere von zwei Übeln wählen oder die Eskalation absichtlich
weiter befeuern.
Daniel Heßler & Stephanie Lotzow
200
Als Figur ist Dagmar in ihrer Persönlichkeit bewusst unaufgeregt gestaltet. Sie ist
eine bisweilen eigensinnige Studentin und eine mehr oder weniger freiwillige Nut-
zerin digitaler Medien, umgeben von anderen Figuren, die alltägliche Herausforde-
rungen im Umgang mit digitalen Medien mehr oder weniger erfolgreich meistern.
Getroffene Entscheidungen führen auf narrativer Ebene dazu, dass im Spiel verschie-
dene Enden erzielt werden können, die das Resultat der jeweiligen Entscheidungen
abbilden.12 Wie sich Dagmar in den jeweiligen Situationen verhält, das bestimmen
die Spieler:innen.
Diese Gelassenheit wird kontrastiert durch eine deutlich grellere Figur, Dagmars
Großmutter. In kurzen Begegnungen und Smartphone-Dialogen verwendet DDD
kommunikative Manierismen stereotyper Silver Surfer, um Stationen einer extrem
steilen Lernkurve im Umgang mit digitalen Medien bei dieser Figur zu erzählen
(vom Bedienen eines Smartphones bis hin zur Programmierung eines Bots). Derar-
tige Überzeichnungen ermöglichen einerseits Praxen komischen Erzählens, machen
das Spiel also unterhaltsamer. Andererseits zielen die Verfremdungen darauf ab,
empfundene Selbstverständlichkeiten im Umgang mit digitalen Medien zu proble-
matisieren (etwa: „Ein Passwort ändern, ist doch gar nicht so schwer“).
12 Bei erneutem Spielen von DDD können die Spieler:innen in einem separaten Story-Mo-
dus verschiedene Entscheidungen ausprobieren, um die unterschiedlichen Enden kennen-
zulernen.
ZFHE Jg. 19 / Nr. 1 (März 2024) S. 189–208
201
Abb. 2: Großmutters Lernfortschritt in DDD (eigener Screenshot)
Das Spiel fokussiert zwar narrative Inhalte, grenzt sie jedoch deutlich von den Self-
Assessment-Sequenzen ab. Ermöglicht wird dies durch die Trennung in spielmecha-
nischer Dimension zwischen („äußerer“) Fragebogen-Ebene und („innerer“) Spiel-
welt-Ebene. Sie werden verbunden durch eine Zwischenebene, in der sich eine Figur
namens Higgel einschaltet. Er steht den Spieler:innen von Beginn an erklärend zur
Seite und kommentiert im weiteren Spielverlauf das Handeln der Figuren immer
dann, wenn eine neue Self-Assessment-Sequenz beginnt. Auf diese Weise leitet er
thematisch von einer Story-Sequenz zu einer Self-Assessment-Sequenz mit benach-
barter Thematik über. Auf die ludische Trennung von Narration und Self-As-
sessment weist Higgel die Spieler:innen bereits zu Spielbeginn hin: Angaben im
Self-Assessment haben keine Auswirkungen auf das Geschehen in der Spielwelt.
Daniel Heßler & Stephanie Lotzow
202
3 Datenverarbeitung: Zur Funktionalität von
DDD
3.1 Datenerhebung
Als Erweiterung gängiger Datenerhebungsmethoden sollte DDD drei zentrale Funk-
tionen erfüllen: Datenerhebung, Datenexport und Datenmodifikation. Dabei haben
wir uns auf Prinzipien von Datenschutz und Open Source verpflichtet. Die Datener-
hebung erfolgt nicht nur anonymisiert, sondern tatsächlich anonym. Es werden keine
IP-Adressen oder Browser-Informationen ausgelesen oder gesammelt. Lediglich ein
lokal gespeicherter Cookie hält fest, ob von einem Gerät bereits gespielt wurde oder
nicht. Er kann mit dem Browser-Verlauf problemlos gelöscht werden.
Abb. 3: Self-Assessment-Sequenz aus DDD (eigener Screenshot)
ZFHE Jg. 19 / Nr. 1 (März 2024) S. 189–208
203
Die Datenerhebung des Self-Assessments umfasst insgesamt 46 Items. Die Self-As-
sessment-Sequenzen und ihre Items sind thematisch an den fünf Dimensionen digi-
taler Kompetenzen ausgerichtet. Die einzelnen Einschätzungsfragen werden in jeder
Sequenz nacheinander eingeblendet. DDD hält fest, wie die Einschätzungsfragen be-
antwortet wurden, und erfasst sekundengenau, zu welcher Uhrzeit welche Entschei-
dung im Spiel getroffen wurde.
Auf einer Skala von „trifft überhaupt nicht zu“ bis „trifft voll und ganz zu“ werden
die Spieler:innen aufgefordert, eine der vorgegebenen Antwortmöglichkeiten auszu-
wählen (Single-Choice-Verfahren).13 Um den Spieler:innen ein audiovisuelles Feed-
back über die ausgewählte Antwort zu geben, erklingt bei der Auswahl ein Aktivie-
rungs-Sound und das Antwortfeld wird mit einem blauen Rand markiert. Anschlie-
ßend erscheint ein Pfeil-Button, der angeklickt werden muss, um die Auswahl zu
bestätigen. Mit diesem Zwischenschritt sollen mögliche Falscheingaben vermieden
werden, die durch versehentliches oder verfrühtes Anklicken entstehen können.14
Die Revision einer Antwort oder das Überspringen der Einschätzungsfragen ist aus-
geschlossen.
Darüber hinaus können die Spieler:innen am Ende des Spiels über einen demografi-
schen Fragebogen die Forschung mit der Angabe von personenbezogenen Daten un-
terstützen. Hierzu sind sie jedoch nicht verpflichtet. Ausgerichtet auf die Zielgruppe
Studierender umfasst der Fragebogen Angaben zu Geschlecht, Alter, Immatrikulati-
onsstatus an einer Hochschule, Fachsemester und Fach(-bereich):
13 Je nachdem, ob es sich bei den zugrundeliegenden Selbsteinschätzungsfragebögen um
denjenigen von Krempkow (2019) oder Schauffel et al. (2021) handelt, umfasst die Skala
entweder 1–5 oder 1–6 Antwortmöglichkeiten.
14 Diese Design-Entscheidung steht beispielhaft für die Notwendigkeit, auch das GUI von
Fragebögen ausführlich zu testen. Gerade bei Touchscreens gaben Tester:innen bei ein-
fachem Klick ohne audiovisuelle Bestätigung häufig unwillentlich Selbsteinschätzungen
ab. Dankenswerterweise konnte diese Beobachtung im Rahmen der Usability-Studie von
Sauer (2023) gemacht werden, die maßgeblich zur Verbesserung der User Experience
beigetragen hat.
Daniel Heßler & Stephanie Lotzow
204
Abb. 4: Demografischer Fragebogen aus DDD (eigener Screenshot)
3.2 Datenexport
Erhobene Daten werden auf einem Universitätsserver abgelegt und mit der quellof-
fenen Software Pocketbase verwaltet. Die zufällig generierte ID in der Datenbank
gibt keinen Aufschluss über ihre Herkunft. Die Daten können als CSV-Datei expor-
tiert werden, autorisierte Forscher:innen können vorhandene Daten löschen, ergän-
zen oder verändern.
Zusätzlich ermöglicht das Spiel eine Zusammenführung mit Umfragen auf SoSci
Survey. DDD generiert für jedes Profil eine einzigartige ID, die Zugang zu einem
Umfrageprofil von soscisurvey.de ermöglicht. Die ID kann händisch kopiert und
dort eingegeben oder auch per Klick auf einen Link direkt zu diesem Umfrage-Tool
verwendet werden. Hierdurch können Datensätze aus DDD und SoSci Survey zu-
sammengeführt werden, um Anschlussstudien zu ermöglichen.
ZFHE Jg. 19 / Nr. 1 (März 2024) S. 189–208
205
3.3 Datenmodifikation
Als Angebot zur digitalen Weiterbildung ist DDD explizit darauf ausgelegt, in an-
deren hochschulbezogenen Projekten verwendet zu werden. Lehrende wie Studie-
rende sind eingeladen, den Quellcode des Spiels herunterzuladen und an eigene For-
schungs-, Lehr- oder Lernvorhaben anzupassen. Vor allem steht mit dem Framework
für Umfragen und Datentracking ein äußerst versatiles und robustes Werkzeug für
Anschlussstudien zur Verfügung.
Der Selbstverpflichtung zu Open Source entsprechend hat das Team eine öffentliche
Datenbank angelegt, in der alle medialen Inhalte (Assets) von DDD – darunter Gra-
fiken, Sounds, Code etc. – für die Allgemeinheit zur Verfügung stehen, um sie in
eigene digitale Forschungs-, Lehr- oder Lernprojekte einzubauen. Die Datenbank
steht auch für Assets aus anderen Open Educational Ressource-Projekten zur Verfü-
gung, um auf diese Weise einen öffentlichen Austausch anzuregen.
Neben dem Quellcode und der Asset-Datenbank ist ein digitales Cookbook die di-
daktisch vielleicht wichtigste Ergänzung von DDD. Durch diesen digitalen Leitfaden
werden auch Laien in die Lage versetzt, DDD ohne besondere Programmierkennt-
nisse anzupassen und in kurzer Zeit eigenständig sichtbare Ergebnisse hervorzubrin-
gen. Im Cookbook werden anhand von Best-Practice-Beispielen aus DDD die Kern-
funktionen von Ren‘Py erläutert, darunter auch umfangreiche Code-Beispiele und
weitere Features wie ein simuliertes Smartphone, Funktionalitäten für Drag &
Drop-Challenges und Multiple-Choice-Aufgaben.
Zusammenfassend erweitert diese Umgebung also das Konzept von ‚Serious Games‘
um die Möglichkeit, digitale Kompetenzen nicht nur ludonarrativ im Spiel zu the-
matisieren, sondern auch im Spielverlauf und gerade in der Rolle von Dagmar zu
reflektieren, anschließend selbst einzuschätzen und diese Kompetenzen schließlich
konkret an eben diesem Material anzuwenden.
Daniel Heßler & Stephanie Lotzow
206
4 Ausblick
Dieser Werkstattbericht diskutierte sowohl das Potenzial von DDD als auch die He-
rausforderungen, die im Spannungsfeld von ludischer und psychologischer Model-
lierung auftreten können. Der bislang nur unzureichend vorhandenen Forschung im
Bereich digitaler Kompetenzen in der Hochschullandschaft begegnet DDD als inno-
vatives Open Source Forschungs-Tool mit einem gamifizierten Self-Assessment.
Dieses erweitert gängige Methoden der Datenerhebung auf spielerische Weise, es
macht das Thema digitale Kompetenzen selbst zum ludonarrativen Gegenstand und
kann darüber hinaus als Angebot zur digitalen Weiterbildung genutzt werden. Zu-
sammen mit drei forschungsorientierten Funktionen – Datenerhebung, Datenexport
und Datenmodifikation – entsteht der Mehrwert von DDD durch seine Nachhaltig-
keit (sustainability), Wiederverwendbarkeit (reusability) und Erweiterbarkeit (ex-
tensibility) für zukünftige Forschungsvorhaben.
Diesbezüglich macht Sauer (2023) das Spiel selbst zum Untersuchungsgegenstand
und weist dabei auf mögliche Anschlussstudien hin. Diese könnten sich durch Nut-
zung der in den Self-Assessments erhobenen Daten der Frage widmen, ob die Ab-
bruchquote von gamifizierten Self-Assessments tatsächlich geringer ist als die von
herkömmlichen Online-Fragebögen. Darüber hinaus entsteht derzeit eine weitere
Studie an der JLU Gießen, die DDD durch die Integration eines Wissenstests zum
Thema digitale Kompetenzen konkret zum didaktischen Tool weiterentwickelt und
sich damit den diskutierten Herausforderungen um die ludische Modellierung wid-
met.
Weitere Forschungsdesiderata sind vor allem in der Rezeption von gamifizierten
Self-Assessments zu finden. Wünschenswert wären etwa Studien, die untersuchen,
ob durch die ludonarrative Verarbeitung des Themas digitale Kompetenzen im Spiel
ein möglicher Priming-Effekt entsteht, der Auswirkungen auf die Selbsteinschät-
zung der Spieler:innen haben könnte. Vor diesem Hintergrund versteht sich dieser
Werkstattbericht daher auch als Anregung für die Verwendung und den Ausbau von
ZFHE Jg. 19 / Nr. 1 (März 2024) S. 189–208
207
„Dagmar’s Digital Day“ als Forschungs-Tool sowie als Plädoyer für zukünftige Stu-
dien, die das Spiel selbst zum Untersuchungsgegenstand machen, um die vorgenann-
ten Desiderata zu erfüllen.
5 Literaturverzeichnis
Cutting, J., & Deterding, S. (2022). The task-attention theory of game learning: a theory
and research agenda. Human–Computer Interaction, 1–31.
Giannakas, F., Kambourakis, G., Papasalouros, A., & Gritzalis, S. (2018). A critical review
of 13 years of mobile game-based learning. Educational Technology Research and Deve-
lopment, 66, 341–384.
Janschitz, G., Monitzer, S., Archan, D., Dreisiebner, G., Ebner, M., Hye, F., Kopp, M.,
Mossböck, C., Nagler, W., Orthaber, M., Rechberger, M., Rehatschek, H., Slepcevic-
Zach, P., Michaela, S., Swoboda, B. & Teufel, M. (2021). Alle(s) digital im Studium?!:
Projektbericht der Steirischen Hochschulkonferenz zur Analyse digitaler Kompetenzen von
Studienanfänger*inne*n. Graz University Library Publishing. https://doi.org/10.25364/978-
3-903374-00-3
Koubek, J. (2013). Zur Medialität des Computerspiels. In J. Koubek, M. Mosel & S. Wern-
ing (Hrsg.), Spielkulturen. Computerspiele in der Gegenwartskultur und im Alltagsdiskurs
(S. 17–32). WVH.
Krempkow, R. (2019). Fächerübergreifende und digitale Kompetenzen für die Qualitätsent-
wicklung der Lehre erfassen – ein Projekt der HU Berlin. Qualität in der Wissenschaft,
13(2), 64–65.
Krempkow, R. (2021). Wie digital kompetent sind Studierende? Ein Konzept und Erhe-
bungsinstrument zur Erfassung digitaler und fächerübergreifender Kompetenzen. Qualität
in der Wissenschaft, 15(1), 22–29.
Krempkow, R., & Petri, P. S. (2022). Digital Competences of Students: How they are as-
sessed and what they can contribute to study success. In B. Broucker, T. Kallenberg & R.
M. O. Pritchard (Hrsg.), Higher Education: Linking Research, Policy and Practice (S. 29–
53). Brill.
Nacke, L. E., & Deterding, S. (2017). The maturing of gamification research. Computers in
Human Behavior, 71, 450–454.
Daniel Heßler & Stephanie Lotzow
208
Petri, P. S. (2022). Digitaler Studieneinstieg – Was wissen wir über die Vorhersage von
Studienerfolg und welche Rolle könnten digitale Kompetenzen spielen? Qualität in der
Wissenschaft, 16(2), 34–40.
Roth, C., Van Nuenen, T., & Koenitz, H. (2018). Ludonarrative hermeneutics: a way out
and the narrative paradox. In Interactive Storytelling: 11th International Conference on In-
teractive Digital Storytelling, ICIDS 2018, Dublin, Ireland, December 5–8, 2018, Procee-
dings 11 (S. 93–106). Springer International Publishing.
Sauer, S. (2023). „Dagmar’s Digital Day“: Usability und User Experience eines gamifi-
zierten Online Self-Assessments zur Einschätzung digitaler Kompetenzen. Masterthesis, ein-
gereicht an der Justus-Liebig-Universität Gießen, Fachbereich 06: Psychologie und Sport-
wissenschaften, Institut für Psychologie, Abteilung für Psychologische Diagnostik (Prof.
Dr. Martin Kersting).
Schauffel, N., Schmidt, I., Peiffer, H., & Ellwart, T. (2021). Ict Self-Concept Scale (ICT-
SC25). https://doi.org/10.6102/zis308_exz
Senkbeil, M., Ihme, J. M., & Schöber, C. (2019). Wie gut sind angehende und fortgeschrit-
tene Studierende auf das Leben und Arbeiten in der digitalen Welt vorbereitet? Ergebnisse
eines Standard Setting-Verfahrens zur Beschreibung von ICT-bezogenen Kompetenzni-
veaus. Zeitschrift für Erziehungswissenschaft, 22(6), 1359–1384.
https://doi.org/10.1007/s11618-019-00914-z
Vuorkari, R., Kluzer, S., & Punie, Y. (2022). DigComp 2.2: The Digital Competence
Framework for Citizens: With new examples of knowledge, skills and attitudes. Comissió
Europea.