Content uploaded by Tobias Rohloff
Author content
All content in this area was uploaded by Tobias Rohloff on Nov 16, 2017
Content may be subject to copyright.
Qualitätssicherung in MOOCs durch
Learning Analytics
Jan Renz, Tobias Rohloff, Christoph Meinel
Hasso-Plattner-Institut, Universität Potsdam
Jan Renz, Tobias Rohloff, Christoph Meinel
Internet Technologies and Systems / Learning and Knowledge Engineering Group
E-Mail: jan.renz@hpi.de, tobias.rohloff@hpi.de, christoph.meinel@hpi.de
Tel.: +49331 5509 283
Web: https://www.hpi.de, https://open.hpi.de
Prof.-Dr.-Helmert-Str. 2-3 14482 Potsdam
Motivation und Konzept
Idee: Kann mit Learning Analytics Daten eine
automatisierte Qualitätssicherung in MOOCs
durchgeführt werden?
§349 erzeugte Warnungen auf open.hpi.de seit
Sommer 2016. Davon wurden 83 später
automatisiert geschlossen, da Regel nicht
mehr verletzt wurde.
§Durchschnittliche Lebenszeit einer Warnung
39,5 Tage èWarnungen müssen
prominenter und aktiver kommuniziert
werden.
§Manche Regeln wurden nie verletzt è
Grenzwerte vermutlich zu hoch, regelmäßige
manuelle Evaluierung notwendig.
§Grenzwerte unterscheiden sich
plattformspezifisch.
Erste Erkenntnisse
Konzept: Best Practises und Erfahrungswerte
werden in maschinenausführbare Regeln übersetzt
und periodisch geprüft. Sie erzeugen bei
Verletzung eine Warnung, welche mit
Handlungsempfehlungen verknüpft werden kann.
Beispielregeln: Anomalien in Videonutzung,
Schwierige Frage, Schwieriges Quiz, Geringe
Aktivität in den Foren, Hohe No-Show-Rate, ...
Herausforderung: Wie können sinnvolle
Grenzwerte festgelegt werden, wann soll eine
Warnung mit welcher Priorität erzeugt werden?
Unser Ansatz: Experteninterviews und visuell-
explorative Analyse.
Abbildung 1: Das reine Anzeigen von Learning Analytics Daten (hier Video
Event Daten) in der MOOC Plattform führt zu keiner Interaktion durch die
Teaching Teams
Abbildung 2: Foren-Aktivität in der ersten Kurswoche für openHPI-Kurse mit
vermerkten Grenzwerten