Technical ReportPDF Available

Learning Analytics: Einsatz an österreichischen Hochschulen

Authors:
  • Private University for Health Sciences and Health Informatics

Abstract

Learning Analytics ist sowohl international als auch national ein immer mehr an Bedeutung gewinnendes Themenfeld, welches dabei helfen kann, Lehr- und Lernprozesse besser zu verstehen und gezielt zu optimieren. Dieses Whitepaper soll eine erste Orientierung zu diesem Thema geben und dabei speziell die österreichische Hochschullandschaft adressieren. Ausgehend von der Definition: “Learning Analytics umfasst die Analyse, Darstellung und Interpretation von Daten aus Lehr- und Lernsettings mit dem Zweck, dass Lernende ihr Lernen unmittelbar verändern können” werden Herausforderungen benannt und der Status Quo in Österreich präsentiert. Daraus werden sechs Argumente für Learning Analytics abgeleitet und vier konkrete Handlungsempfehlungen ausgesprochen.
Learning Analycs:
Einsatz an österreichischen Hochschulen
Arbeitsgruppe Learning Analycs
des Forum Neue Medien
in der Lehre Austria
2019
AUTORINNEN UND AUTOREN
Philipp Leitner
philipp.leitner@tugraz.at
Technische Universität Graz
Marn Ebner
marn.ebner@tugraz.at
Technische Universität Graz
hps://orcid.org/0000-0001-5789-5296
Elske Ammenwerth
elske.ammenwerth@umit.at
UMIT – Private Universität für Gesundheits-
wissenschaen, Medizinische Informak und
Technik
hps://orcid.org/0000-0002-3244-6918
Monika Andergassen
monika.andergassen@wu.ac.at
Wirtschasuniversität Wien
Goried Csanyi
goried.csanyi@tuwien.ac.at
Technische Universität Wien
hps://orcid.org/0000-0002-4667-2051
Ortrun Gröblinger
ortrun.groeblinger@uibk.ac.at
Universität Innsbruck
hps://orcid.org/0000-0003-2982-3206
Michael Kopp
michael.kopp@uni-graz.at
Universität Graz
hps://orcid.org/0000-0002-6907-7300
Franz Reichl
franz.reichl@tuwien.ac.at
Technische Universität Wien
hps://orcid.org/0000-0002-0407-1637
Markus Schmid
markus.schmid@uibk.ac.at
Universität Innsbruck
hps://orcid.org/0000-0002-3952-7948
Hans-Peter Steinbacher
hanspeter.steinbacher@-kufstein.ac.at
Fachhochschule Kufstein Tirol
Daniel Handle-Pfeier
daniel.pfeier@univie.ac.at
Universität Wien
Andreas Zitek
andreas.zitek@boku.ac.at
Universität für Bodenkultur Wien
Eva Zöserl
eva.zoeserl@jku.at
Universität Linz
Charloe Zwiauer
charloe.zwiauer@univie.ac.at
Universität Wien
Leitner, P. et al. (2019). Learning Analycs: Einsatz an österreichischen Hochschulen.
Graz: Forum Neue Medien in der Lehre Austria.
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 2
INHALT
Kurzzusammenfassung 4
Ausgangslage und Ziel 5
Einführung in Learning Analycs 5
Denion von Learning Analycs 7
Herausforderungen 8
Status Quo in Österreich: Learning Analycs
an österreichischen Hochschulen 15
Argumente für Learning Analycs 18
Empfehlungen zu Learning Analycs an österreichischen Hochschulen 20
Literaturverzeichnis 22
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 3
KURZZUSAMMENFASSUNG
Learning Analycs ist sowohl internaonal als auch naonal ein immer mehr an
Bedeutung gewinnendes Themenfeld, welches dabei helfen kann, Lehr- und Lern-
prozesse besser zu verstehen und gezielt zu opmieren. Dieses Whitepaper soll
eine erste Orienerung zu diesem Thema geben und dabei speziell die österrei-
chische Hochschullandscha adressieren.
Ausgehend von der Denion „Learning Analycs umfasst die Analyse, Darstel-
lung und Interpretaon von Daten aus Lehr- und Lernsengs mit dem Zweck,
dass Lernende ihr Lernen unmielbar verändern können“ werden Herausforde-
rungen benannt und der Status quo in Österreich präsenert. Daraus werden sechs
Argumente für Learning Analycs abgeleitet:
[1] Verbesserung der Lehr- und Lernqualität
[2] Besseres Verständnis für Lehr- und Lernprozesse
[3] Erhöhung des Studienerfolgs, Verminderung der Drop-out-Rate und gezielte
Unterstützung von Inklusion
[4] Verbesserung der Transparenz und der Prüfungsakvität
[5] Wissenschaliche Nutzung und Sensibilisierung
[6] Opmierung von Prozessen der außercurricularen Studienberatung und
Studienbegleitung
Die Arbeitsgruppe spricht in weiterer Folge vier konkrete Empfehlungen aus:
Gezielte Erstellung und Verbreitung von Informaonen zum Thema Learning
Analycs zwecks Informaon, Mobilisierung und Sensibilisierung aller Stake-
holder
Förderung konkreter Umsetzungsprojekte unterschiedlicher Granularität in
österreichischen Bildungseinrichtungen
Auau einer naonalen Austausch-Plaorm zur Förderung des fachlichen
Austausches zu ethischen und rechtlichen Rahmenbedingungen, zur Ausar-
beitung eines gemeinsamen Verhaltenskodex oder zur Entwicklung gemein-
samer technischer Standards zwischen Bildungseinrichtungen
Akve Einbindung sämtlicher Stakeholder, insbesondere der Studierenden
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 4
Die Arbeitsgruppe zum Thema „Learning Analycs“ des Vereins Forum Neue Medi-
en in der Lehre Austria (fnma) – bestehend aus Vertreterinnen und Vertretern von
österreichischen Hochschulen sowie aus dem Bundesministerium für Bildung, Wis-
senscha und Forschung (BMBWF) – ortet Unsicherheiten hinsichtlich des neuen
Themas Learning Analycs. Zwar bestehen derzeit schon erste Forschungsprojekte
und vereinzelte Iniaven; dem gegenüber steht jedoch die bildungspolische
Forderung, dass sich Hochschulen vermehrt – und möglichst rasch – dem Thema
widmen und konkrete Umsetzungen tägen sollen. Das vorliegende Whitepaper
hat daher das Ziel, in einem ersten Schri eine einheitliche Begrisdenion zu
entwickeln, um ein gemeinsames Verständnis zu schaen. Auf dieser Basis sollen
in einem nächsten Schri die entsprechenden Herausforderungen, Argumente
und Empfehlungen für die österreichischen Hochschulen erarbeitet werden, um
dieses wichge Zukunsthema mielfrisg an den Hochschulen besser verankern
zu können.
AUSGANGSLAGE UND ZIEL
EINFÜHRUNG IN LEARNING ANALYTICS
Wie auch viele andere Bereiche unterliegt das Hochschulwesen einem Wandel, der
durch die Digitalisierung hervorgerufen wird. Digitale Technologien haben Einzug
in unseren Alltag gehalten, und mit jedem neuen Informaonssystem steigt auch
die Anzahl an (neuen) Daten. Unter dem Schlagwort „Big Data“ bilden diese Daten
den Ausgangspunkt für neue Erkenntnisse, um z. B. Services zielgerichteter und
individuell zugeschnien anbieten zu können, und sie begründen somit auch das
neue Feld der Data Analycs sowie die neue Berufsgruppe der Data Sciensts.
Es liegt nahe, dass man nun Daten auch dazu nutzt, um für das Hochschulwesen
allgemein oder für das Lehren und Lernen im Speziellen gewinnbringende Erkennt-
nisse zu erhalten. Schließlich fallen große Datenmengen an, wenn Studierende
online lernen, ein intelligentes Tutoring-System verwenden, Lernspiele spielen
oder auch einfach ein Lernmanagementsystem nutzen.
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 5
In den letzten Jahren haben daher immer mehr Hochschulen unter dem Schlagwort
„Learning Analycs“ begonnen, über mögliche Methoden der Datenerhebung und
Dateninterpretaon nachzudenken. Sie verfolgen dabei zunehmend die Idee, aus
den Datenmengen Erkenntnisse über den Lernfortschri der Studierenden zu er-
halten, Einsichten zum Lernen und zur Interakon mit Lehr- und Lernmaterial zu
bekommen, Hypothesen zum Lehren und Lernen der Studierenden zu überprüfen,
Entscheidungen für die iterave Verbesserung des Lehr- und Lernmaterials oder
des Lehr-/Lerndesigns herbeizuführen, Vorhersagen über zuküniges Studieren-
denverhalten zu treen sowie potenelle Probleme wie z. B. mangelnde Studie-
rendenperformanz frühzeig zu erkennen.
Learning Analycs bietet generell die Möglichkeit, neue Einsichten in Lernprozesse,
-akvitäten und -ergebnisse zu erhalten und daraus weitere Vorgehensweisen abzu-
leiten. Aktuell sind mehrere Denionen internaonal geläug und in Diskussion.
Zu den bekanntesten zählt die Denion von Long & Siemens (2011), die Learning
Analycs als „die Messung, Sammlung, Analyse und Auswertung von Daten über
Lernende und ihre Analyse und Auswertung zum Zwecke des Verständnisses und
der Opmierung des Lernens und der Umgebung, in der es staindet“, beschreibt.
Eine weitere, o zierte Denion von Eric Duval (2012) besagt: „Learning Ana-
lycs bedeutet, Spuren zu sammeln, die Lernende hinterlassen, und diese dann
zu nutzen, um das Lernen zu verbessern.
Diese Denionen gehen zwar in eine ähnliche Richtung, beinhalten jedoch bei
genauerer Betrachtung unterschiedliche Schwerpunkte. Insbesondere scheint eine
Abgrenzung zu weiteren analyschen Vorgehensweisen im Hochschulwesen not-
wendig, da sich der Übergang zwischen administraven und organisatorischen
Belangen und dem eigentlichen Lehr- und Lernkontext durchaus ießend darstellt.
Ein plakaves Beispiel ist z. B. die Analyse von Prüfungsergebnissen: Diese geben
wichge Hinweise zur Wirksamkeit des Lernens; Prüfungserfolg („Prüfungsakvi-
tät“) dient aber auch als Kennzahl nach außen. Die Fachwelt bzw. die Literatur lie-
fern zu dieser Abgrenzung nur wenige Anhaltspunkte, denn es ist keine einheitliche
Vorgehensweise in der Datenerhebung, Analyse oder auch Auswertung erkennbar
(Leitner & Ebner, 2017).
Im ersten Schri ist es daher notwendig, zu denieren, was unter Learning Ana-
lycs im Kontext des vorliegenden Papiers genau verstanden wird.
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 6
DEFINITION VON LEARNING ANALYTICS
Einen ersten grundlegenden Ansatz zur Entwicklung einer Denion von Learning
Analycs liefert Ferguson (2014), indem sie verschiedene Analysen im Lehr- und
Lernbereich gegenübergestellt, um damit die vorhandenen Strömungen zu be-
schreiben. Sie unterteilt jene in folgende vier Bereiche:
High Level Analycs: Diese Ebene umfasst Analysen, die generell für die
Hochschulentwicklung notwendig sind und die primär administraver und
organisatorischer Natur sind. Darunter fallen z. B. Daten für das Hochschul-
ranking, Wissensbilanzen usw.
Academic Analycs: Unter Academic Analycs versteht man die Unterstüt-
zung des administraven und organisatorischen Ablaufes der Universität
inklusive der Opmierung von Prozessen, die nicht unmielbar mit Lehren
und Lernen verbunden sind. Dies beinhaltet somit z. B. auch die Darstellung
von Prüfungsakvität oder Prüfungserfolg innerhalb einer Studierendenko-
horte.
Educaonal Data Mining: Dieses Fachgebiet beschäigt sich primär mit der
Erkennung von Mustern und Kenngrößen innerhalb von Datenlagen, um da-
mit möglichst vollständig automasiert Lernprozesse zu steuern. Hier spielt
die Lehrperson an sich nur eine untergeordnete Rolle (Romero & Ventura,
2010).
Learning Analycs hat das Ziel, durch entsprechende Datenanalysen den
eigentlichen Lehr- und Lernprozess zu unterstützen. Ein zentraler Bestandteil
ist dabei die Lehrperson, die das Lehr- und Lernarrangement umsetzt und
dabei gezielte Unterstützung erhält (Schön & Ebner, 2013).
Learning Analycs kann den Lehr- und Lernprozess auch zu unterschiedlichen
Zeitpunkten mit verschiedenen Zielsetzungen unterstützen. Cooper (2012) glie-
dert Learning Analycs demnach nach Analysen, deren Aussagekra sich auf die
Vergangenheit, die Gegenwart oder die Zukun beziehen. Zudem unterscheidet
Cooper zwischen Datenanalysen, die Informaonen bereitstellen, und solchen, die
Erkenntnisgewinne mit sich bringen. Die Bereitstellung von Informaonen kann
dabei als weniger invasiv verstanden werden, da hier eher deskripve Analysen
(vor allem die Vergangenheit und Gegenwart betreend) im Vordergrund stehen.
Auf der Ebene der Erkenntnisgewinne hingegen liegt der Fokus auf der Dateninter-
pretaon und damit auf dem verstärkten Einsatz von Algorithmen und Künstlicher
Intelligenz.
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 7
Da der Übergang zwischen den einzelnen Bereichen ießend ist, verständigte sich
die Arbeitsgruppe auf folgende Denion:
Learning Analycs umfasst die Analyse, Darstellung und Interpretaon von Daten
aus Lehr- und Lernsengs mit dem Zweck, dass Lernende ihr Lernen unmielbar
verändern können.
Diese Denion liegt nun dem Whitepaper zugrunde, und andere Analysen wie z. B.
die Darstellung von Prüfungsakvität, Kennzahlen, die die Universität beschreiben,
etc. werden bewusst nicht mehr berücksichgt.
Abb. 1: Analysetypen nach Cooper (2012), bearbeitet und übersetzt durch die Autorinnen und Autoren
HERAUSFORDERUNGEN
Die Aufgeschlossenheit für Learning Analycs sowie die damit verbundenen Er-
wartungen sind an den Hochschulen derzeit grundsätzlich als hoch einzuschätzen.
Zusätzlich bendet sich Learning Analycs nun an dem Punkt, an dem Forschung,
Praxis, Hochschulpolik, Entscheidungsträgerinnen und Entscheidungsträger Inte-
resse zeigen (Gašević, Dawson & Siemens, 2015).
Um jedoch erfolgreich Learning Analycs zu ermöglichen, müssen spezische He-
rausforderungen gemeistert werden. Leitner et al. (2019) haben diese in sieben
Kategorien (siehe Abbildung 2) gegliedert, die zur ersten Orienerung bei der
Implemenerung von Learning-Analycs-Iniaven herangezogen werden können.
Diese sind als erste Orienerung gedacht und erlauben es, die Dimension und
Komplexität besser zu verstehen.
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 8
1. Zweck und Nutzen (purpose and gain)
Zu Beginn stehen Zweck und Nutzen einer Learning-Analycs-Iniave; allerdings
hängen diese von den Stakeholdergruppen ab. So sollte man in Hinblick auf Ziele
und Perspekven zwischen Lernenden, Lehrenden, Forscherinnen und Forschern
sowie Leitungsebenen unterscheiden:
Lernende erhoen sich primär eine Verbesserung ihrer Leistungen. Learning
Analycs unterstützt dies z. B. durch adapves Feedback, Empfehlungen und
individuelle Antworten auf Lernergebnisse.
Lehrende sind vorrangig daran interessiert, die Lernprozesse der Lernenden
sowie soziale, kognive und verhaltensbezogene Aspekte zu verstehen. Da-
rüber hinaus haben sie Interesse daran, ihre Lehrmethoden und -leistungen
zu reekeren sowie ihre Anweisungen zu opmieren, um ein besseres Lern-
ergebnis bei den Lernenden zu erzielen (Leitner & Ebner, 2017). Lehrende
wollen in der Lage sein, die Akvitäten der Lernenden eekver zu bewer-
ten und Schlussfolgerungen für geeignete Maßnahmen zur Verbesserung der
Lernleistung zu ziehen.
Abb. 2: Sieben Herausforderungen für Learning-Analycs-Iniaven
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 9
Forscherinnen und Forscher nutzen die Daten, um theoresche Modelle für
neue und verbesserte Lehr- und Lernmethoden zu entwickeln. Dazu gehört
auch, zukünige Lernwege vorherzusagen oder die Bedürfnisse der Lernen-
den besser zu unterstützen. Auch das Überprüfen bestehender didakscher
Modelle und das Entwickeln neuer didakscher Modelle durch Feldstudien
im Hörsaal stehen im Fokus. Damit können Learning-Analycs-Techniken auf
der Grundlage der gesammelten Daten konnuierlich angepasst werden.
Leitungsebenen sind daran interessiert, ihre Agenden möglichst ezient
umzusetzen. Ihr Ziel ist es, den Lernenden ein förderliches und ezientes
Lernumfeld zu bieten. Weitere Ziele sind die Verringerung der Abbruchraten,
die Erhöhung der Prüfungsakvität, die Steigerung der Leistung in Bezug auf
das gesamte Studium und die Opmierung und Verbesserung der Studienan-
gebote.
Leirage für die Herausforderung Zweck und Nutzen:
Mit welchem Ziel soll die Learning-Analycs-Iniave gestartet werden, und was
können sich die unterschiedlichen Zielgruppen davon erwarten bzw. was wird
dabei von den Zielgruppen erwartet?
2. Darstellung und Maßnahmen (representaon and acons)
Aus den Daten abgeleitete Erkenntnisse in Bezug auf das Lernverhalten können als
Grundlage für die Entwicklung eines Maßnahmenporolios zur Unterstützung der
Lernenden dienen. Darauf auauend werden Empfehlungen für Lernende erstellt,
die sie ermugen sollen, über ihr Lernverhalten nachzudenken und dieses ggf. zu
ändern. Die Informaonen werden in einer geeigneten Umgebung bereitgestellt
und anschaulich als Teil des personalisierten Lernprozesses der Studierenden vi-
sualisiert. Die Personalisierung des Lehr- und Lernumfeldes und die damit verbun-
denen Vorteile stehen im Vordergrund. Das erhaltene digitale Feedback soll zur
Reexion anregen sowie zu einer Zielverschiebung und damit verbunden zu
einer Verbesserung des Lernerfolgs führen.
Die Wahl der richgen Umgebung für das digitale Feedback an Lernende und
die richge Visualisierungstechnik können eine große Herausforderung darstellen.
Aufgrund der Menge der gesammelten Daten und des Fokus auf quantaven
Metriken halten Lehrende Learning Analycs manchmal für anthesch zu ihrem
pädagogischen Lehrverständnis, zumal Dashboards mit Performance-Kennzahlen
immer beliebter werden (Clow, 2013). Die Interpretaon dieser Daten kann für
Lernende äußerst schwierig sein, wenn die Daten nicht adäquat auereitet und
Lernende zudem bei der Interpretaon der Daten nicht persönlich unterstützt
werden. Daher kann es besser sein, den Lernenden nicht alle verfügbaren Infor-
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 10
maonen zu präseneren und insbesondere sensible Informaonen nur gemein-
sam mit geschultem Personal zu besprechen und zu erörtern, um unerwünschte
Wirkungen (Demovaon) zu vermeiden. Um die Daten richg zu interpreeren
und adäquate Rückschlüsse ziehen zu können, sind eine spezielle Ausbildung für
beratende Personen (Lehrende, Tutorinnen, Tutoren, Mentorinnen und Mentoren)
sowie pädagogische und psychologische Fähigkeiten von erheblicher Relevanz.
Leirage für die Herausforderung Maßnahmen und Darstellung:
Welche Formen der Informaonsvermilung an die Lernenden und welche Visu-
alisierungsmethoden sind für welchen Zweck geeignet?
3. Daten und Datenmodelle (data)
Die eigentlichen Daten stellen das Kernstück einer Learning-Analycs-Iniave
dar. Daher gilt es zunächst festzustellen, in welcher Form sie vorliegen (einfach/
komplex) und in welchen Systemen sie überhaupt anfallen.
In der Regel sind mehrere Informaonssysteme für die Erfüllung unterschiedlicher
Aufgaben und damit für die Speicherung der Daten verantwortlich – in verschiede-
nen Formaten, in verschiedenen Datenbanken auf verschiedenen Servern und mit
unterschiedlichen Datenbesitzerinnen und -besitzern. Der Aufwand, der erforder-
lich ist, um alle relevanten Daten zu erhalten und zu verwalten, kann (technisch)
sehr hoch sein. Darüber hinaus kann die Konvererung von Rohdaten in ein nütz-
liches Format eine weitere große Herausforderung darstellen.
Außerdem stellt sich die Frage der Datenqualität – also ob die Daten komple und
korrekt sind oder Lücken aufweisen. Dies kann Auswirkungen auf die zu wählenden
Analyseverfahren haben.
Leirage zur Herausforderung Daten:
Welche Daten sollen analysiert werden, und in welcher Form, Komplexität und
Vollständigkeit liegen diese wo vor?
4. IT-Infrastruktur (IT infrastructure)
Die IT-Infrastruktur bezieht sich auf eine Reihe von Komponenten der Informa-
onstechnologie (IT) wie Hardware, Soware, Netzwerkressourcen und Dienste, die
die Grundlage für den Betrieb und das Management einer unternehmensweiten
IT-Umgebung bilden (Laan, 2011). Diese Infrastruktur ermöglicht es Hochschulen,
IT-Dienstleistungen für ihre Lernenden, Lehrenden und Verwaltungsmitarbeiterin-
nen und -mitarbeiter bereitzustellen. Es ist zudem zwischen eigenen und externen
IT-Infrastrukturen zu unterscheiden:
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 11
Eigene IT-Infrastruktur: Die Daten werden in einem universitären Datenzent-
rum gespeichert und verarbeitet. Dabei liegen die Verantwortlichkeiten und
Haungen bei den Hochschulen selbst. Dieses Szenario hat den Vorteil, dass
die Daten und damit das Dateneigentum an der Hochschule liegen, was die
Arbeit mit den Daten erleichtert. Sie weist aber auch Nachteile auf – wie
z. B. die Tatsache, dass Iniaven mit besonderen technologischen Anfor-
derungen die standardisierten Regeln des internen Dienstleisters einhalten
müssen. Außerdem sollte das Kosten-Nutzen-Verhältnis im Auge behalten
werden, da Hosng- und Support-Dienste intern möglicherweise teurer sind
als Outsourcing.
Externe IT-Infrastruktur: Das zweite Szenario betrit die Zusammenarbeit
mit externen Dienstleistern. In diesem Szenario können individuelle Lösun-
gen eingesetzt werden, da viele Anbieter zur Verfügung stehen, die den
spezischen Anforderungen gerecht werden. Im Gegensatz zum internen
Servicezentrum einer Hochschule können sich externe Dienstleister auf ihr
kleineres und hochspezialisiertes digitales Produkt konzentrieren. Darüber
hinaus können die anfallenden Kosten leichter abgeschätzt werden. Die
negaven Aspekte der Zusammenarbeit mit einem externen Dienstleister
beziehen sich auf Fragen des Zugangs und der Datenverarbeitung sowie auf
die Einhaltung der notwendigen Sicherheitsstandards bei der Arbeit mit
sensiblen Daten wie z. B. Leistungsdaten von Studierenden.
Leirage für das Thema IT-Infrastruktur:
Welche IT-Infrastruktur wird genutzt?
5. Entwicklung und Betrieb (development and operaon)
Diese Herausforderung beschreibt den Prozess der Entwicklung und des Betriebs
von Learning Analycs und umfasst eine Vielzahl verschiedener Entwicklungen
vom Design eines einfachen Fragebogens bis hin zur Entwicklung einer Sowarelö-
sung. Darüber hinaus beinhaltet dieses Themenfeld Forschung und Entwicklung,
Prototyping, Modikaon, Wiederverwendung, Re-Engineering, Überwachung
und Wartung von Learning Analycs. Hier ist zu betonen, dass Learning Analycs
ein interdisziplinäres Anwendungsfeld darstellt und bei Konzepon, Entwicklung,
Implemenerung und Wirksamkeitsüberprüfung Expersen aus Lernforschung
und Data Science, aber auch aus Ethik und Recht zum Tragen kommen sollten.
Entsprechend können auch die methodischen Herangehensweisen unterschiedlich
ausfallen. Laufende Evaluaon und konnuierliche Weiterentwicklung sind wich-
ge Anforderungen bei der Implemenerung von Learning Analycs, auch um die
Akzeptanz sicherzustellen. Bei der Evaluaon steht das Verhältnis von Risiko (Ethik,
Datenschutz), Aufwand (Kosten) und Wirksamkeit (Lernerfolg) auf dem Prüfstand.
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 12
Beim krischen Übergang von der Prototypenphase zur Serienphase ist zu beach-
ten, dass beispielsweise die Skalierbarkeit der Implemenerung berücksichgt
werden muss. Die Anzahl der Lernenden kann so z. B. beliebig variieren oder rasant
ansteigen, was zu einem völlig neuen technischen Konzept für die bestehende IT-
Infrastruktur führen kann. Darüber hinaus müssen Prozesse, die vielleicht zunächst
manuell angelegt wurden, neu deniert und ausprogrammiert werden, so dass sie
vollautomasch oder zumindest halbautomasch ablaufen können.
Leirage für das Thema Entwicklung und Betrieb:
Wie sieht die Entwicklungs- und Betriebsphase für einen langfrisgen Einsatz von
Learning Analycs aus?
6. Privatsphäre und Datenschutz (privacy)
Der Begri Privatsphäre ist deniert als ein wesentlicher Bestandteil der Identät
und Integrität einer Person und stellt eines der grundlegenden Menschenrechte
dar, da er ein fester Bestandteil der Rechtssysteme sein sollte (Drachsler & Greller,
2016). Alle Learning-Analycs-Iniaven müssen die Privatsphäre der beteiligten
Parteien gewährleisten. Die Lernenden müssen den Systemen vertrauen können,
und deshalb ist es von größter Bedeutung, sensible und personenbezogene Daten
zu schützen. Darüber hinaus kommen – je nach naonalem Hochschulraum – ne-
ben der in Europa geltenden Allgemeinen Datenschutzverordnung (GDPR; Daten-
schutzgrundverordnung/DSGVO) unterschiedliche Regelungen zur Anwendung.
Hochschulen müssen sich mit diesen Anforderungen auseinandersetzen und einen
geeigneten rechtlichen Rahmen nden, der mit der Datenschutzgrundverordnung
konform geht. Sie könnten aber auch einen anderen Weg gehen und beginnen, die
gesammelten Daten zu reduzieren und Maßnahmen zu ergreifen, um personen-
bezogene Daten zu anonymisieren.
Schließlich ist die allgemeine Lebensdauer personenbezogener Daten ein Thema,
denn die Daten können zu einem Zeitpunkt interessant sein, zu dem die Lern-
akvitäten und Lernergebnisse selbst relevant sind, aber irrelevant in durchaus
naher Zukun. Ein Argument für die Datenhaltung ist die Möglichkeit, bestehende
Datensätze zu trainieren („maschinelles Lernen“). Verbesserungen in Hinblick auf
stassche Aussagekra könnten auch durch die Bereitstellung einer größeren
Datenmenge erreicht werden. Diese Schrie sollten jedoch nur nach der Anony-
misierung der Daten durchgeführt werden. Khalil & Ebner (2016) haben in ihrer
Publikaon gezeigt, wie dies geschehen kann und auch soll.
Leirage für Privatsphäre und Datenschutz:
Gelingt es, Datenschutz und Schutz der Privatsphäre bei der Umsetzung von Lear-
ning Analycs ausreichend zu gewährleisten?
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 13
7. Ethik (ethics)
Ethik kann deniert werden als ein moralischer Kodex von Normen und Konven-
onen, der die Systemasierung, Verteidigung und Empfehlung von Konzepten
des richgen und falschen Verhaltens beinhaltet. Im Zusammenhang mit Learning
Analycs ergeben sich verschiedene ethische und praksche Bedenken, da hier das
Potenzial besteht, personalisierte Daten zu sammeln und auf individueller Ebene
Rückmeldung zu geben (Prinsloo & Slade, 2015). Daher stellt der Schutz dieser
Daten eine große Herausforderung für die Umsetzung von Learning-Analycs-
Iniaven dar. Die Diskussion zu ethischen Standards bezieht sich u. a. auf folgende
Aspekte: Oenlegung der Auraggeberscha und der Ziele für Learning Analycs,
Studierende als Kooperaonspartnerinnen und -partner (und nicht nur als Empfän-
gerinnen und Empfänger) von Learning Analycs, Learning Analycs als „Schnapp-
schuss“ auf die veränderliche Lernperformance der Studierenden, Studienerfolg
als muldimensionales Phänomen, Transparenz und Recht auf Einsichtnahme der
Studierenden (Prinsloo & Slade, 2015). Bedenken der Studierenden bzgl. Learning
Analycs können sich etwa auf das Gefühl der Überwachung beziehen (Tsai et al.,
2018). Umso wichger ist die bewusste Einbindung der Studierenden von Beginn
an – im Rahmen von menschenzentrierten und transparenten Entwicklungs- und
Umsetzungsprozessen.
Darüber hinaus stellt die Arbeit mit sensiblen Daten selbst eine besondere Heraus-
forderung dar. Zu den sensiblen Daten gehören Informaonen über medizinische
Bedingungen, nanzielle Informaonen, religiöse Überzeugungen oder sexuelle
Orienerungen, aber auch über die Leistung der Studierenden.
Auf der Learning Analycs and Knowledge Conference 2018 in Sydney wurde ein
Entwurf eines Verhaltenskodex v1.0 vorgestellt (Lang et al., 2018). Dieses Doku-
ment kann als Grundlage für ethische Fragen bei der Umsetzung von Learning-
Analycs-Iniaven betrachtet werden. Darüber hinaus könnte ein Rechtsbeistand
beigezogen werden, wenn die Interpretaon spezischer Daten rechtlich unklar
erscheint. Das Projekt „European Learning Analycs Exchange“ (LACE) bietet Work-
shops zu Ethik und Datenschutz im Bereich Learning Analycs (EP4LA) an und spielt
auch eine Schlüsselrolle bei der Erörterung der Fragen zu den ethischen Dilemmata
bei dessen Einsatz. Auch die Befassung der instuonellen Ethikkommissionen mit
Learning Analycs (vgl. Ethical Boards an anglo-amerikanischen Universitäten für
die Forschung mit/an Menschen) ist empfehlenswert.
Leirage für das Thema Ethik:
Nach welchem Verhaltenskodex wird den ethischen Gesichtspunkten von Learning
Analycs stagegeben, und inwiefern wird eine studierendenzentrierte Herange-
hensweise sichergestellt?
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 14
In Österreich wurden und werden Projekte im Rahmen von Learning Analycs
durchgeführt. Nachfolgend soll ein kurzer Überblick über die den Autorinnen und
Autoren bekannten Projekte gegeben werden:
Learning-Analycs-basierende Lernsysteme: Im Rahmen von mehreren
Projekten wurden Learning-Analycs-Applikaonen für den Schulbereich
entwickelt, um einerseits Erfahrungen mit der Datenanalyse zu sammeln
und um andererseits die Potenziale von Learning Analycs zu erproben. So
stehen heute Online-Applikaonen für alle Grundrechnungsarten zur Verfü-
gung und auch ein Texteditor mit der Möglichkeit, kurze Essays in deutscher
Sprache zu verfassen und auszuwerten. Die Applikaonen können direkt
bei Schülerinnen und Schülern zur Anwendung kommen, die ihre Leistung
unmielbar visualisiert bekommen. Lehrende oder auch Studierende (insbe-
sondere im Bereich der PädagogInnen-Bildung) sind in der Lage, sich jeder-
zeit einen Überblick über den Lernstand zu verschaen.
Audience-/Student-Response-Systeme: Dieses Beispiel beschäigte sich mit
Audience-/Student-Response-Systemen sowie der Analyse von inhaltlichen
Unklarheiten während der Präsenzeinheit. Einerseits können Studierende
oene Fragen stellen, andererseits werden Balkendiagramme für geschlos-
sene Fragen verwendet. Damit kann abgeleitet werden, wie das jeweilige
Verständnis zu einem Inhalt ausfällt. Mit diesen Erkenntnissen kann die/der
Lehrende ihr/sein Handeln unmielbar in der Lehrveranstaltung anpassen.
Das Beispiel fällt unter Learning Analycs, weil die Analyse von Daten unmit-
telbar in der Präsenzphase an Studierende rückgemeldet wird. Die Studie-
renden können somit ihr Lernen an die Ergebnisse anpassen.
Testanalyse: Nach Zwischentests werden Testanalysen zur Verfügung gestellt,
die visuell darstellen, wie Studierende bei den Tests abgeschnien haben.
Zum Beispiel wird eine Punkteverteilung wiedergegeben. Dadurch werden
auf Studierendenseite eine mögliche weiterfolgende Adapon des eigenen
Lernaufwands (z. B. Lernstrategie) und eine Einschätzung des Lernerfolgs
ermöglicht. Außerdem sieht die/der Studierende einen Vergleich mit der
jeweiligen Kohorte. Lehrendenseig werden dieselben Analysen verwendet,
STATUS QUO IN ÖSTERREICH: LEARNING ANALYTICS
AN ÖSTERREICHISCHEN HOCHSCHULEN
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 15
um den Kurs – insbesondere die Tesragen – für die nächste Iteraon zu
verbessern.
Der Einsatz von Learning Analycs wird in diesem Beispiel deutlich, weil
Studierende nach einer Prüfung eine Rückmeldung erhalten, wie sie im Ver-
gleich mit der Kohorte abgeschnien haben. Somit kann das eigene Lernen
verändert werden.
Dashboards: Im europäischen Erasmus+ Projekt STELA wurde das Ziel ver-
folgt, den (erfolgreichen) Übergang von der Sekundarstufe zur Hochschule
durch den Einsatz von Learning Analycs zu unterstützen und zu verbessern.
Im Rahmen des Projekts wurden verschiedene Dashboards für Studierende
entwickelt sowie mehrere Fallstudien durchgeführt. Weitere Informaon
dazu können unter hps://stela-project.org gefunden werden.
Auswertungen: Langjährige Erfahrung gibt es im Bereich der Auswertung
von Übungsfragen zur Vorbereitung auf Prüfungen in Lernmanagementsys-
temen (LMS). In diesem Projekt wurde der persönliche Bearbeitungssta-
tus bzw. die Erfolgsquote von gelösten Übungsfragen im Vergleich zu den
aggregierten Stasken der Mitstudierenden im gleichen Semester im LMS
angezeigt. Die Auswertung war bei Studierenden beliebt und movierte zum
Lösen von noch mehr Übungsaufgaben.
Leistungsmonitoring: Studierende werden durch eine laufend ergänzte Dar-
stellung von Teilergebnissen dazu moviert, über den Gesamtverlauf einer
Lehrveranstaltung in Selbstlernakvitäten zu inveseren ansta im „Buli-
miemodus“ nur kurzfrisg für die Prüfung zu lernen. Ab der Erreichung einer
besmmten Gesamtsumme an Punkten enällt die Notwendigkeit einer
schrilichen Gesamtprüfung. Learning Analycs umfasst in diesem Zusam-
menhang die laufende Erfassung des Lernerfolges und die darauf beruhende
Informaon, die an die Studierenden individuell zurückgegeben wird, ob
ein Antreten zur schrilichen Gesamtprüfung notwendig ist. Die Informa-
on führt also zu einer Veränderung des Lernverhaltens basierend auf dem
gegebenen Feedback.
Wissensbasis: Im Rahmen von Lehrveranstaltungen im Blended-Learning-
und Inverted-Classroom-Format wird eine Wissensbasis für E-Tutorinnen
und E-Tutoren, welche die Studierenden in der Online-Phase begleiten,
erstellt. In der Wissensbasis werden anonymisierte Verhaltensweisen ein-
zelner Lernakvitäten und Lernpfade von Studierenden abgelegt. Ziel ist es,
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 16
eine Verbesserung für Studierende in der Online-Phase zu erreichen, indem
E-Tutorinnen und E-Tutoren Studierenden unter Zuhilfenahme der Wissens-
basis frühzeig eine bessere Vorbereitung auf die nächste Präsenzphase
aufzeigen können.
Learning Analycs ist in diesem Zusammenhang die teilweise automasche
Befüllung der Wissensbasis, die E-Tutorinnen und E-Tutoren nutzen, um den
Lernprozess von Studierenden basierend auf aus den erhobenen Verhaltens-
mustern abgeleiteten Empfehlungen anzupassen.
Durchgehende Begleitung: Im Rahmen einer mobilen Applikaon ist für die
Studierenden ersichtlich, wie viel Prozent der Kolleginnen und Kollegen die
erforderlichen Übungen bereits über das Lernmanagementsystem abgege-
ben haben. Die Visualisierung des Anteils der getägten Abgaben könnte
im Sinne von Learning Analycs für Studierende, die ihre Übung noch nicht
abgegeben oder auch noch nicht begonnen haben, movierend wirken und
so zu einer unmielbaren Änderung des Lernens führen. Dass beispielsweise
bereits zu einem frühen Zeitpunkt ein Großteil der Kolleginnen und Kollegen
mit der Übung ferg ist, könnte zu einer frühzeigen Bearbeitung der Übung
movieren.
Automasiertes direktes Feedback: Lernmodule, welche eine detaillierte
Erfassung von individuellen Lernendendaten erlauben (gängige Standards
hier sind SCORM und xAPI) und welche auch in Lernplaormen wie Mood-
le eingebeet werden können, ermöglichen direktes, unterstützendes und
hilfreiches automasiertes Feedback. Learning Analycs stellt in diesem
Zusammenhang die Erfassung des Wissens-/Kompetenzstandes bei den
Lernenden dar sowie das darauf beruhende Feedback, welches die Richtung
weiterführender notwendiger Lernschrie aufzeigt. Die Lernenden können
ihr Lernverhalten darauf basierend gezielt ändern.
Videoanalyse: Um die Qualität von Lernvideos zu erhöhen, wurde ein Tool
entwickelt, das aufgrund einer Logle-Analyse Abschnie innerhalb von
Lernvideos idenziert, die die/der Lehrende näher betrachten und gegebe-
nenfalls verbessern sollte. Dabei wird dargestellt, an welchen Stellen das Vi-
deo häug abgebrochen oder besonders o besucht wird. Die entsprechen-
den Abschnie könnten durch die Lehrenden überarbeitet und danach den
Studierenden erneut zur Verfügung gestellt werden. Gleichzeig könnten die
Studierenden befragt werden, ob es Verständnisprobleme an den jeweiligen
Stellen gab. Die Studierenden proeren durch die Überarbeitung, indem
sie durch eine verbesserte Darstellung der Lerninhalte weniger Zeit inves-
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 17
eren oder auch weniger externe Ressourcen verwenden müssen, um den
Inhalt zu verstehen. Eine unmielbare Veränderung des Lernens ist gegeben,
weil die/der Lehrende die Abschnie im gleichen Semester noch adapert.
Ausgehend von der Denion und den beschriebenen Herausforderungen sowie
den ersten prototypischen Anwendungen in Österreich ergeben sich nun entspre-
chende Argumente für Learning Analycs an österreichischen Hochschulen, die
nachfolgend gelistet werden.
ARGUMENTE FÜR LEARNING ANALYTICS
Abb. 3: Sechs Argumente für Learning Analycs an Hochschulen
Zu Beginn steht die Weiterentwicklung des Lernverhaltens der Studierenden im
Fokus. Learning Analycs führt dazu, das eigene Lernen besser zu verstehen, um
dieses damit mielfrisg posiv zu verändern. Wie Abbildung 3 zeigt, bildet Lear-
ning Analycs zur systemaschen evidenzbasierten Verbesserung der Lehr- und
Lernqualität die Basis oder das Fundament für die weiteren fünf, darauf auau-
enden Argumente:
Lehr- und Lernprozess besser verstehen:
Für Studierende und Lehrende ist es wichg, den Lehr- und Lernprozess
besser zu verstehen, um ihre Ressourcen maßvoll zu planen und eekv ein-
zusetzen. Durch Analyseverfahren können etwa Störfaktoren ebenso wie die
Wirkungsweise von Intervenonen besser sichtbar gemacht werden. Damit
soll letztendlich die eigentliche Studierbarkeit opmiert werden, wodurch
Studierende ihr Studium zielgerichteter bewälgen können.
Darüber hinaus wird dies sowohl auf organisatorischer, didakscher oder
sogar auf gestalterischer Ebene Auswirkungen auf die Lehre haben, wodurch
Lehr- und Lernmaterialien lernförderlicher umgesetzt werden können.
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 18
Erhöhung des Studienerfolgs, Verminderung der Drop-Out-Rate und gezielte
Unterstützung von Inklusion:
Diese drei Faktoren sind grundsätzlich ein Folgeprozess der beiden ersten Ar-
gumente. Studierende erkennen frühzeig individuelle Abweichungen vom
erwarteten Leistungsumfang und können so den Wahrscheinlichkeitsgrad
des eigenen Bestehens besser beurteilen. Im opmalen Fall kann damit auch
die Inklusion beeinträchgter Studierender unterstützt werden. Dies ermög-
licht es, ein Ausscheiden aus der Lehrveranstaltung rechtzeig zu verhindern,
womit letztendlich der Studienerfolg gefördert wird.
Verbesserung der Transparenz und der Prüfungsakvität:
In weiterer Folge ist zu erwarten, dass durch die hohe Granularität der
dargestellten Akvitäten – also durch viele kleine Visualisierungen – eine
Selbstkontrolle des Lernfortschries einfacher wird, was auch die Notenge-
bung nachvollziehbarer bzw. transparenter macht. Aufgrund der besseren
Einschätzung des eigenen Leistungsvermögens ist auch eine Steigerung der
Prüfungsakvität möglich.
Wissenschaliche Nutzung und Sensibilisierung:
Ein weiterer Eekt ist auf der Metaebene zu erwarten. So können Lehr- und
Lernforscherinnen und -forscher zukünig noch besser das Lehr- und Lern-
verhalten verstehen lernen, denn evidenzbasierte Daten werden helfen,
weitere Lehr- und Lernphänomene sichtbar zu machen. Umgekehrt ist auch
auf Seite der Studierenden zu erwarten, dass sie selbst kompetenter in der
Dateninterpretaon werden. Hier kann eine Sensibilisierung in Bezug auf
die Generierung, Analyse und Interpretaon von Daten erfolgen. Auch ist
zu erwarten, dass damit verbundene ethische und rechtliche Aspekte mehr
Beachtung nden.
Opmierung von Prozessen der außercurricularen Studienberatung und Stu-
dienbegleitung (auch als Basis für Academic Analycs):
Abschließend hat Learning Analycs auch Auswirkung auf zukünige Studi-
enberatungsleistungen seitens der Hochschulen und auch auf die Opmie-
rung von Studienprogrammen und weiteren Bildungsangeboten. Künige
Learning-Analycs-Iniaven an Hochschulen können das Monitoring des
eigenen Lernverhaltens und der eigenen Lehrleistung umfassen, darüber
hinaus aber auch das kennzahlenbasierte Monitoring von Studienentwick-
lungen und -verläufen. So ist absehbar, dass die beiden Felder Learning
Analycs und Academic Analycs einander insofern überlappen, als sie sich
teilweise aus der gleichen Datenlage speisen. Die Art der Visualisierung und
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 19
der Zugang zu Daten werden sich dann je nach Ziel und Zielgruppe unter-
schiedlich gestalten.
Kurzum kann festgehalten werden, dass Learning Analycs als Weiterentwicklung
von Lehren und Lernen in einer digitalisierten Welt zu verstehen ist und einen
weiteren Schri in Richtung einer lernendenzentrierten Lernumgebung darstellt.
EMPFEHLUNGEN ZU LEARNING ANALYTICS
AN ÖSTERREICHISCHEN HOCHSCHULEN
Die sechs Argumente für Learning Analycs bilden die Basis für nächste, weiterfüh-
rende Schrie. Dabei stellt sich zunächst die Frage, wie man Learning Analycs an
österreichischen Hochschulen mielfrisg möglichst zielgerichtet etablieren kann.
Dazu sollen nachfolgende Empfehlungen dienen, die nicht als sequenzielle Liste zu
verstehen sind, sondern vielmehr als ein paralleler, in sich übergreifender Prozess.
Empfehlungen für die Implemenerung von LA an österreichischen Hochschulen:
Die Arbeitsgruppe empehlt, dass die öentliche Hand – insbesondere das
Bundesministerium für Bildung, Wissenscha und Forschung – die Einfüh-
rung von Learning Analycs an österreichischen Hochschulen fördert und
dazu beiträgt, ein gemeinsames Verständnis aller Stakeholder zu schaen.
Durch gezielte Informaonsveranstaltungen mit Stakeholdern und interes-
sierten Akteurinnen und Akteuren sollen Hochschulen für das Thema sen-
sibilisiert werden und sich eigene Posionen erarbeiten können. Dabei soll
eine proakve, experimenerfreudige und zugleich studierendenzentrierte
Herangehensweise vermielt werden, die sich auf gute (inter-)naonale
Praxis stützt.
Weiters wird empfohlen, Umsetzungsprojekte mit unterschiedlicher Gra-
nularität zu starten. Dies umfasst österreichweite Iniaven von mehreren
Hochschulen ebenso wie hochschulinterne Projekte. Dabei gilt es, Erfah-
rungen mit den oben beschriebenen Herausforderungen zu sammeln und
Lösungsansätze weiterzuentwickeln bzw. diese wieder in naonale Aus-
tauschgruppen einzubringen. Hierbei ist eine krische Reexion der österrei-
chischen Hochschulen zum Thema Learning Analycs essenell.
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 20
Parallel zu den Umsetzungsprojekten scheint es wesentlich, dass ein nao-
naler Austausch staindet. So sollten besmmte Themen wie gemeinsame
ethische und rechtliche Rahmenbedingungen, ein gemeinsamer Verhal-
tenskodex oder gemeinsame technische Standards erarbeitet werden –
koordiniert von hochschulübergreifenden Arbeitsgruppen. Damit wird es
eher möglich, dass alle Hochschulen langfrisg Learning Analycs an ihren
Einrichtungen etablieren können und auch ein österreichweiter Standard
geschaen wird.
Abschließend ist dringend zu empfehlen, dass sämtliche am Prozess betei-
ligte Stakeholder akv mit eingebunden werden. Insbesondere sind aber
Studierende als unmielbar Betroene in die Diskussion miteinzubeziehen,
indem bei Veranstaltungen wie z. B. Konferenzen, Boot Camps oder Know-
ledge Cafés mit Studierenden, Lehrenden, IT-Expernnen und Experten,
Forscherinnen und Forschern, Administratorinnen und Administratoren usw.
Erwartungen gesammelt und Erfahrungen ausgetauscht werden. Auch die
Art der Entwicklungsprozesse (user-centred design oder co-design) sollte
explizit themasiert werden, um Studierende von Beginn an bewusst als
Mitgestalterinnen und Mitgestalter miteinzubeziehen.
Liste mit laufenden oder bereits abgeschlossenen EU Projekten
(Zitaonsanalyse; letzter Abruf September 2019)
ABLE hp://www.ableproject.eu
AFEL hp://afel-project.eu
JISC hps://www.jisc.ac.uk/learning-analycs
LACE hp://www.laceproject.eu
LALA hps://www.lalaproject.org
ODEdu hp://odedu-project.eu
SHEILA hps://sheilaproject.eu
STELA hps://stela-project.org
VITAL hp://www.project-vital.eu/en/
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 21
LITERATURVERZEICHNIS
Clow, D. (2013). An overview of learning analycs. Teaching in Higher Educaon,
18(6), 683–695.
Cooper, A. (2012). A Framework of Characteriscs for Analycs. Analycs Series,
1(7), 1–17.
Drachsler, H. & Greller, W. (2016). Privacy and analycs – it’s a DELICATE issue: A
checklist to establish trusted learning analycs. Proceedings of the 6th Inter-
naonal Conference on Learning Analycs and Knowledge, 89-96.
hp://dx.doi.org/10.1145/2883851.2883893
Duval, E. (2012). Learning Analycs and Educaonal Data Mining. Erik Duval’s
Weblog, 30. Januar 2012. hps://erikduval.wordpress.com/2012/01/30/
learning-analycs-and-educaonal-data-mining/ [16. März 2018]
Ferguson, R. (2014). Learning analycs FAQs [Präsentaon]. hps://de.slideshare.
net/R3beccaF/learning-analycs-fa-qs [28. August 2019]
Gašević, D., Dawson, S. & Siemens, G. (2015). Let’s not forget: Learning analycs
are about learning. TechTrends, 59(1), 64–71.
Khalil, M. & Ebner, M. (2016). De-Idencaon in Learning Analycs. Journal of
Learning Analycs, 3(1), 129–138.
Laan, S. (2011). IT Infrastructure Architecture: Infrastructure Building Blocks and
Concepts. Lulu Press.
Lang, C., Macfadyen, L. P., Slade, S., Prinsloo, P. & Sclater, N. (2018). The comple-
xies of developing a personal code of ethics for learning analycs prac-
oners: implicaons for instuons and the eld. In Proceedings of the 8th
Internaonal Conference on Learning Analycs and Knowledge (S. 436–440).
ACM.
Leitner, P. & Ebner, M. (2017). Learning Analycs in Hochschulen. In J. Erpenbeck
& W. Sauter (Hrsg.), Handbuch Kompetenzentwicklung im Netz (S. 371–384).
Stugart: Schäer-Poeschel Verlag.
Leitner, P., Ebner, M. & Ebner, M. (2019). Learning Analycs Challenges to Over-
come in Higher Educaon Instuons. In Ulizing Learning Analycs to Sup-
port Study Success (S. 91–104). Springer, Cham.
Long, P. & Siemens, G. (2011). Penetrang the fog: Analycs in learning and educa-
on. EDUCAUSE review, 46(5), 30. hps://er.educause.edu/arcles/2011/9/
penetrang-the-fog-analycs-in-learning-and-educaon [16 März 2018]
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 22
Prinsloo, P. & Slade, S. (2013). Ethics and learning analycs: Charng the (un)
charted. In C. Lang, G. Siemens, A. Wise & D. Gesaevic (Hrsg.), Handbook
of learning analycs (S. 49–57). Society for Learning Aanalycs Research.
Prinsloo, P. & Slade, S. (2015). Student privacy self-management: implicaons
for learning analycs. In Proceedings of the 5th internaonal conference on
learning analycs and knowledge (S. 83–92). ACM.
Romero, C. & Ventura, S. (2010). Educaonal data mining: a review of the state of
the art. IEEE Transacons on Systems, Man, and Cybernecs, Part C: Appli-
caons and Reviews, 40(6), 601–618.
Schön, M. & Ebner, M. (2013). Das Gesammelte interpreeren. Educaonal Data
Mining und Learning Analycs. In M. Ebner & S. Schön (Hrsg.), Lehrbuch für
Lernen und Lehren mit Technologien (L3T). hps://l3t.tugraz.at/index.php/
LehrbuchEbner10/arcle/view/119 [14 October 2019]
Sclater, N. (2014). Code of pracce for learning analycs. A literature review of the
ethical and legal issues. Jisc, November 2014.
Tsai, Y., Gasevic, D., Whitelock-Wainwright, A., Munoz-Merino, P., Moreno-Marcos,
P., Fernandez, A., Kloos, C., Scheel, M., Jivet, I., Drachsler, H., Tammets, K.,
Calleja, A. & Kollom, A. (2018). SHEILA Supporng Higher Educaon to inte-
grate Learning Analycs. Research Report, November 2018.
LEARNING ANALYTICS: EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN 23
Learning Analycs ist sowohl internaonal als auch naonal ein immer mehr an Bedeutung gewin-
nendes Themenfeld, welches dabei helfen kann, Lehr- und Lernprozesse besser zu verstehen und
gezielt zu opmieren. Dieses Whitepaper soll eine erste Orienerung zu diesem Thema geben und
dabei speziell die österreichische Hochschullandscha adressieren.
Ausgehend von der Denion „Learning Analycs umfasst die Analyse, Darstellung und Interpre-
taon von Daten aus Lehr- und Lernsengs mit dem Zweck, dass Lernende ihr Lernen unmielbar
verändern können“ werden Herausforderungen benannt und der Status quo in Österreich präsenert.
Daraus werden sechs Argumente für Learning Analycs abgeleitet.
LEARNING ANALYTICS:
EINSATZ AN ÖSTERREICHISCHEN HOCHSCHULEN
IMPRESSUM
Verein Forum <neue Medien in der Lehre Austria <fnma>
Liebiggasse 9/II
A-8010 Graz
Tel. +43 660 5948 774
Fax +43 316 380 9109
Mail: oce@fnma.at
Web: www.fnma.at
Lizenz
Dieses Whitepaper ist unter Creave Commons
Namensnennung 4.0 Internaonal (CC BY 4.0) lizenziert.
Article
Full-text available
Zusammenfassung Virtuelle Lehr- und Lernsettings haben in der Hochschullehre bisher eher ein Schattendasein geführt. Die Corona-Pandemie-Situation hat nun Lehrpersonen und Studierende gezwungen, sich vollständig auf virtuelle Lehrformen einzulassen. Etablierte Lehr- und Lernroutinen mussten dabei hinterfragt und neue Ansätze der virtuellen Lehre erprobt, adaptiert oder verworfen werden. Sowohl institutionell als auch individuell konnten so an allen Hochschulen Erfahrungen gesammelt werden, welche erwarten lassen, dass virtuelle Lehre die Hochschullehre in Zukunft positiv beeinflussen kann. In diesem Beitrag leiten wir auf Basis der Forschung zu virtuellen Lehr- und Lernsetting zunächst zwei zentrale Erfolgsfaktoren für virtuelle Hochschullehre ab, nämlich studentische Aktivierung und studentische Interaktivität. Anhand der Universität UMIT TIROL beschreiben wir dann exemplarisch, wie diese Erfolgsfaktoren in der synchronen sowie der asynchronen virtuellen Hochschullehre umgesetzt werden können und welche Erfahrungen wir damit gemacht machen. Abschließend diskutieren wir, wie die gemachten Erfahrungen auch langfristig die Hochschullehre (egal ob in Präsenz oder virtuell) positiv beeinflussen können und welche Rahmenbedingungen an Hochschulen hierfür zu schaffen sind.
Article
Full-text available
Wenn digitale Informationssysteme im schulischen Kontext genutzt werden, entstehen auch Sammlungen von Daten zum Lernverhalten. Einige Anwendungen sammeln und analysieren diese Daten gezielt, um damit Lernende zu unterstützen. Das Forschungsfeld dazu heißt “Learning Analytics” und ist erst rund 10 Jahre alt (Leitner et al., 2019). In diesem Beitrag möchten wir zwei Anwendungen aus dem Schulkontext vorstellen, die Datenanalysen einsetzen um Lernfortschritte von Schüler/innen zu beobachten und Rückmeldung in Echtzeit zu geben (s. Ebner, Leitner, Ebner 2020). Wir nennen zudem Chancen und Herausforderungen von Learning Analytics im Schulkontext.
Chapter
Full-text available
Dieser Beitrag ermöglicht eine kurze Einführung in das Themenfeld Learning Analytics mit einem besonderen Blick auf den Schulunterricht. Heute erscheint es noch weit entfernt, bis derartige Anwendungen im deutschsprachigen Raum flächendeckend Fuß fassen können. Durch die voranschreitende Technologie werden jedoch solche Anwendungen und die Auseinandersetzung mit der Frage, inwieweit künstliche Intelligenz Aspekte der eigentlichen Lehre ergänzen und erset-zen kann, zunehmend zum Diskussionsgegenstand. Die vorliegende Publikation zielt darauf ab, Learning Analytics selbst und die damit verbundenen Herausforderungen zu definieren. Anschlie-ßend werden einige allgemeine Beispiele genannt, ehe auf zwei webbasierte Informationssysteme im Detail eingegangen wird-dem Einmaleins-Trainer und dem Programm zum Aufbau von Schreibkompetenz IDeRblog. Auf Basis der dort gewonnen Erkenntnisse und Erfahrungen werden drei wesentliche Anforderungen für Lehrerinnen und Lehrer abgleitet: statistische und digitale Kom-petenz sowie grundsätzliches Wissen im Bereich Datenschutz. Der Beitrag schließt mit der Frage, inwieweit diese zukünftig in die Lehrerbildung integriert werden können und müssen.
Chapter
Full-text available
While a large number of scientific publications explain the development of prototypes or the implementation of case studies in detail, descriptions of the challenges and proper solutions when implementing learning analytics initiatives are rare. In this chapter, we provide a practical tool that can be used to identify risks and challenges that arise when implementing learning analytics (LA) initiatives and discuss how to approach these to find acceptable solutions. In this way, implementers are given the opportunity to handle challenges early on and avoid being surprised at a critical moment in the project, which will save time, resources, and effort. We are aware that all aspects needed to successfully carry out learning analytics initiatives are co-dependent. Nonetheless, we identified and categorized the criteria necessary for implementing successful learning analytics initiatives. We conclude this chapter with an overview of the challenges faced and possible approaches that can be taken to facilitate the successful implementation of learning analytics.
Chapter
Full-text available
Unter dem Schlagwort “Big Data” hat sich in den letzten Jahren ein neues Forschungsfeld etabliert. Es handelt sich dabei um Datenmengen, die wegen ihrer Größe, hohen Komplexität, schnellen Vergänglichkeit oder schwachen Strukturierung mit klassischen Methoden der Datenverarbeitung nicht ausgewertet werden können. Das Ziel von Learning Analytics besteht darin solche Datenmengen im Kontext von Lehren und Lernen zu sammeln, zu analysieren und zu interpretieren um neue Erkenntnisse zu gewinnen. Ein wesentlicher Punkt dabei ist die Rückführung des gewonnen Wissens an die Lehrenden und Lernenden, um das Lehr- und Lernverhalten individueller und optimierter zu gestalten und die Entwicklung von Kompetenzen in dem Bereich zu fördern. In diesem Kapitel werden die Möglichkeiten von Learning Analytics genauer erläutert, um dann den Schwerpunkt Learning Analytics in Hochschulen näher zu beleuchten. Eine Auswahl von Tools, Frameworks und Systeme gibt Aufschluss über den momentanen Stand der Technik. Im letzten Kapitel werden zukünftige Trends und Innovationen von Learning Analytics an Hochschulen aufgezeigt und wie daraus Kompetenzen gewonnen werden können.
Article
Full-text available
Learning analytics has reserved its position as an important field in the educational sector. However, the large-scale collection, processing, and analyzing of data has steered the wheel beyond the borders to face an abundance of ethical breaches and constraints. Revealing learners’ personal information and attitudes, as well as their activities, are major aspects that lead to identifying individuals personally. Yet, de-identification can keep the process of learning analytics in progress while reducing the risk of inadvertent disclosure of learners’ identities. In this paper, the authors discuss de-identification methods in the context of the learning environment and propose a first prototype conceptual approach that describes the combination of anonymization strategies and learning analytics techniques.
Conference Paper
Full-text available
The widespread adoption of Learning Analytics (LA) and Educational Data Mining (EDM) has somewhat stagnated recently, and in some prominent cases even been reversed following concerns by governments, stakeholders and civil rights groups about privacy and ethics applied to the handling of personal data. In this ongoing discussion, fears and realities are often indistinguishably mixed up, leading to an atmosphere of uncertainty among potential beneficiaries of Learning Analytics, as well as hesitations among institutional managers who aim to innovate their institution's learning support by implementing data and analytics with a view on improving student success. In this paper, we try to get to the heart of the matter, by analysing the most common views and the propositions made by the LA community to solve them. We conclude the paper with an eight-point checklist named DELICATE that can be applied by researchers, policy makers and institutional managers to facilitate a trusted implementation of Learning Analytics.
Conference Paper
Full-text available
Optimizing the harvesting and analysis of student data promises to clear the fog surrounding the key drivers of student success and retention, and provide potential for improved student success. At the same time, concerns are increasingly voiced around the extent to which individuals are routinely and progressively tracked as they engage online. The Internet, the very thing that promised to open up possibilities and to break down communication barriers, now threatens to narrow it again through the panopticon of mass surveillance. Within higher education, our assumptions and understanding of issues surrounding student attitudes to privacy are influenced both by the apparent ease with which the public appear to share the detail of their lives and our paternalistic institutional cultures. As such, it can be easy to allow our enthusiasm for the possibilities offered by learning analytics to outweigh consideration of issues of privacy. This paper explores issues around consent and the seemingly simple choice to allow students to opt-in or opt-out of having their data tracked. We consider how 3 providers of massive open online courses (MOOCs) inform users of how their data is used,and discuss how higher education institutions can work toward an approach which engages and more fully informs students of the implications of learning analytics on their personal data.
Article
Full-text available
The analysis of data collected from the interaction of users with educational and information technology has attracted much attention as a promising approach for advancing our understanding of the learning process. This promise motivated the emergence of the new research field, learning analytics, and its closely related discipline, educational data mining. This paper first introduces the field of learning analytics and outlines the lessons learned from well-known case studies in the research literature. The paper then identifies the critical topics that require immediate research attention for learning analytics to make a sustainable impact on the research and practice of learning and teaching. The paper concludes by discussing a growing set of issues that if unaddressed, could impede the future maturation of the field. The paper stresses that learning analytics are about learning. As such, the computational aspects of learning analytics must be well integrated within the existing educational research.
Article
Full-text available
Nell’era di Internet, delle tecnologie mobili e dell’istruzione aperta, la necessità di interventi per migliorare l’efficienza e la qualità dell’istruzione superiore è diventata pressante. I big data e il Learning Analytics possono contribuire a condurre questi interventi, e a ridisegnare il futuro dell’istruzione superiore. Basare le decisioni su dati e sulle evidenze empiriche sembra incredibilmente ovvio. Tuttavia, l’istruzione superiore, un campo che raccoglie una quantità enorme di dati sui propri “clienti”, è stata tradizionalmente inefficiente nell’utilizzo dei dati, spesso operando con notevole ritardo nell’analizzarli, pur essendo questi immediatamente disponibili. In questo articolo, viene evidenziato il valore delle tecniche di analisi dei dati per l’istruzione superiore, e presentato un modello di sviluppo per i dati legati all’apprendimento. Ovviamente, l’apprendimento è un fenomeno complesso, e la sua descrizione attraverso strumenti di analisi non è semplice; pertanto, l’articolo presenta anche le principali problematiche etiche e pedagogiche connesse all’utilizzo delle tecniche di analisi dei dati in ambito educativo. Cionondimeno, il Learning Analytics può penetrare la nebbia di incertezza che avvolge il futuro dell’istruzione superiore, e rendere più evidente come allocare le risorse, come sviluppare vantaggi competitivi e, soprattutto, come migliorare la qualità e il valore dell’esperienza di apprendimento.
Conference Paper
In this paper we explore the potential role, value and utility of a personal code of ethics (COE) for learning analytics practitioners, and in particular we consider whether such a COE might usefully mediate individual actions and choices in relation to a more abstract institutional COE. While several institutional COEs now exist, little attention has been paid to detailing the ethical responsibilities of individual practitioners. To investigate the problems associated with developing and implementing a personal COE, we drafted an LA Practitioner COE based on other professional codes, and invited feedback from a range of learning analytics stakeholders and practitioners: ethicists, students, researchers and technology executives. Three main themes emerged from their reflections: 1. A need to balance real world demands with abstract principles, 2. The limits to individual accountability within the learning analytics space, and 3. The continuing value of debate around an aspirational code of ethics within the field of learning analytics.
Article
Learning analytics, the analysis and representation of data about learners in order to improve learning, is a new lens through which teachers can understand education. It is rooted in the dramatic increase in the quantity of data about learners and linked to management approaches that focus on quantitative metrics, which are sometimes antithetical to an educational sense of teaching. However, learning analytics offers new routes for teachers to understand their students and, hence, to make effective use of their limited resources. This paper explores these issues and describes a series of examples of learning analytics to illustrate the potential. It argues that teachers can and should engage with learning analytics as a way of influencing the metrics agenda towards richer conceptions of learning and to improve their teaching.