PreprintPDF Available

Empirische Studie zu hochschulischen Chatbot-Einsatzmöglichkeiten

Authors:
  • Trainings-Online Ges. für E-Portale mbH
  • Trainings-Online Ges. für E-Portale
Preprints and early-stage research may not have been peer reviewed yet.

Abstract and Figures

Zusammenfassung: Der Einsatz von Chatbots im hochschulischen Bereich kann Vorteile im Studien-Alltag bringen, z.B. für Studierende, wenn organisatorische oder lernspezifische Fragen von Chatbots beantwortet werden. Untersucht wurde durch Beobachtung, Befragung und Experiment, wie Studierende im Studien-Alltag auf Chatbots reagieren und welche typischen Einsatzfelder gewünscht sind. Aufgrund der hohen Anzahl von rechtsproblematischen Fragen wurde die Rechts-Sicherheit der Antworten von Chatbots im Studienverlauf genauer fokussiert. Im Ergebnis der nicht repräsentativen Studie wird deutlich, dass die Akzeptanz der Studierenden (noch) eher gering ist und die Rechts-Unsicherheit der Antworten eher hoch. Aktuelle Chatbot-Lösungen müssen entweder dialogstärker werden oder einen eingrenzbaren Antwort-Datenbestand haben. Die Studie wurde im Rahmen des Projektes Erasmus+ "HYBOT-Enhancing hybrid teaching in higher education through chatbots" der europäischen Union von der Trainings-Online GmbH geplant, finanziert und realisiert. Die Trainings-Online GmbH hat das Campus-Management-System TraiNex (www.Campus-Management-System.de) entwickelt und ist als assoziierter Partner im HYBOT-Projekt aktiv. Summary: The use of chatbots in academic settings can bring benefits to students in their everyday studies, when organizational or learning-specific questions are answered by chatbots. The study observed, surveyed, and experimented on how students react to chatbots in their daily studies and what typical fields of use are desired. Due to the high number of legal problematic questions, the legal security of chatbot answers in the course of study was focused on more closely. The result of the non-representative study clearly shows that student acceptance is (still) rather low and the legal uncertainty of answers is rather high. Current chatbot solutions must either become more dialogue-rich or have a confined answer data set. The study was carried out as part of the European Union Erasmus+ project "HYBOT-Enhancing hybrid teaching in higher education through chatbots". It was realized and financed by Trainings-Online GmbH Bielefeld/Germany, which is an associated partner in the project and develops and operates the campus management system TraiNex (http://www.campus-management-system.de).
Content may be subject to copyright.
I
Empirische Studie zu hochschulischen
Chatbot- Einsatzmöglichkeiten
Prof. Dr. Stefan Bieletzke, Philipp Kronsbein
Berlin, Dezember 2022
Zusammenfassung: Der Einsatz von Chatbots im hochschulischen Bereich kann
Vorteile im Studien-Alltag bringen, z.B. für Studierende, wenn organisatorische
oder lernspezifische Fragen von Chatbots beantwortet werden. Untersucht wurde
durch Beobachtung, Befragung und Experiment, wie Studierende im Studien-
alltag auf Chatbots reagieren und welche typischen Einsatzfelder gewünscht sind.
Aufgrund der hohen Anzahl von rechtsproblematischen Fragen wurde die Rechts-
sicherheit der Antworten von Chatbots im Studienverlauf genauer fokussiert. Im
Ergebnis der nicht repräsentativen Studie wird deutlich, dass die Akzeptanz der
Studierenden (noch) eher gering ist und die Rechts-Unsicherheit der Antworten
eher hoch. Aktuelle Chatbot-Lösungen müssen entweder dialogstärker werden
oder einen eingrenzbaren Antwort-Datenbestand haben.
Die Studie wurde im Rahmen des Projektes Erasmus+ „HYBOT - Enhancing
hybrid teaching in higher education through chatbots“ der europäischen Union
von der Trainings-Online GmbH geplant, finanziert und realisiert. Die Trainings-
Online GmbH hat das Campus-Management-System TraiNex (www.Campus-
Management-System.de) entwickelt und ist als assoziierter Partner im HYBOT-
Projekt aktiv.
Summary: The use of chatbots in academic settings can bring benefits to
students in their everyday studies, when organizational or learning-specific
questions are answered by chatbots. The study observed, surveyed, and
experimented on how students react to chatbots in their daily studies and what
typical fields of use are desired. Due to the high number of legal problematic
questions, the legal security of chatbot answers in the course of study was
focused on more closely. The result of the non-representative study clearly
shows that student acceptance is (still) rather low and the legal uncertainty of
answers is rather high. Current chatbot solutions must either become more
dialogue-rich or have a confined answer data set.
The study was carried out as part of the European Union Erasmus+ project
"HYBOT - Enhancing hybrid teaching in higher education through chatbots". It
was realized and financed by Trainings-Online GmbH Bielefeld/Germany, which is
an associated partner in the project and develops and operates the campus
management system TraiNex (http://www.campus-management-system.de).
II
Inhalt
1 Studiendesign ...................................................................................... 1
2 Abgrenzung des Chatbot-Begriffs ............................................................ 1
3 Verwendete Chatbot-Software ................................................................ 3
4 Befragung durch einen Chatbot (Studienteil 1) ......................................... 4
4.1 Befragungszeitraum und Befragte ..................................................... 6
4.2 Detailantworten der durchgeführten Chatbot-Befragungen ................... 8
5 Klassische Umfrage im Campus-Management-System (Studienteil 2) .......... 9
5.1 Befragungszeitraum und Befragte ................................................... 10
5.2 Kurzergebnis der TraiNex-Umfrage .................................................. 10
5.3 Detailergebnis der Umfrage ............................................................ 11
6 Ermittlung offener Fragen mittels eines Chatbots (Studienteil 3) ............... 15
6.1 Zeitraum und Probanden im Experiment .......................................... 17
6.2 Klassifizierung der Art von Fragen ................................................... 17
6.3 Klassifizierung der rechtlichen Unbedenklichkeit von Fragen ............... 18
7 Fazit.................................................................................................. 20
Quellen ................................................................................................... 22
Anhang 1: Freie Fragen an den Bot (Studienteil 1) ....................................... 23
Anhang 2: Auswahl freier Fragen im Chatbot-Experiment (Studienteil 3) ......... 24
Anhang 3: Interview mit Chat-GPT zu Risiken .............................................. 30
III
Abbildungsverzeichnis
Abbildung 1: Bild-KI befragt zu „Chatbot interagiert mit Studierenden“ ............. 2
Abbildung 2: Konversations-Skript-Pfad in der Entwickler-Oberfläche ................ 4
Abbildung 3: Screenshot des beginnenden Dialogs ......................................... 5
Abbildung 4: Detailfragen der drei Options-Zweige für offenen Antworten ......... 6
Abbildung 5: Aufteilung der Einsatzmöglichkeiten von Chatbots ....................... 7
Abbildung 6: Kategorisierung der Rückmeldungen im geskripteten Chatbot ....... 9
Abbildung 7: Auszug aus der Online-Umfrage .............................................. 10
Abbildung 8: Erste allgemeine Frage der TraiNex-Umfrage ............................ 11
Abbildung 9: Zweite allgemeine Frage der TraiNex-Umfrage .......................... 12
Abbildung 10: Erste Assistenzbot-Frage ...................................................... 12
Abbildung 11: Zweite Assistenzbot-Frage .................................................... 12
Abbildung 12: Erste Fragenbot-Frage .......................................................... 13
Abbildung 13: Zweite Fragenbot-Frage ....................................................... 13
Abbildung 14: Dritte Fragenbot-Frage ........................................................ 14
Abbildung 15: Erste Interaktionsbot-Frage .................................................. 14
Abbildung 16: Zweite Interaktionsbot-Frage ................................................ 15
Abbildung 17: Dritte Interaktionsbot-Frage .................................................. 15
Abbildung 18: Chatbot-Experiment: Aufforderung und Frage ......................... 16
Abbildung 19: Kategorisierung der Rückmeldungen im offenen Chatbot .......... 17
Abbildung 20: Einstufung rechtlicher Bedenklichkeit nach Fragenkategorien .... 18
Abbildung 21: Systematisierung von Chatbots bzgl. Rechtssicherheit .............. 20
1
1 Studiendesign
Der Einsatz von Chatbots in Lehre und Verwaltung von Hochschulen kann aus
Sicht der hochschulischen Anspruchsgruppen, also z.B. Verwaltungsmit-
arbeitenden, Lehrkräften oder den Studierenden, vorteilhaft sein. Positiv für
Verwaltungsmitarbeitende kann eine Entlastung von Routineaufgaben sein. Für
Studierende kann es von Vorteil sein, dass der Chatbot dauerhaft verfügbar ist
und sofort antwortet, sofort konkretisierende Rückfragen gestellt werden können
und der Fragesteller auch anonym bleiben kann. Gleichwohl wurde in einer vor-
gelagerten Kurzbefragung festgestellt, dass aus Studierendensicht der Einsatz
von Chatbots eher kritisch gesehen wird.
Mit der Studie sollten folgende Punkte geprüft werden:
Bereitschaft von Studierenden mit Chatbots zu kommunizieren
Analyse der typischen Einsatzmöglichkeiten aus studentischer Sicht
Sammlung typischer Fragen an den Chatbot aus dem Studienalltag
Die Studie fand im 4. Quartal 2022 an einer privaten Fachhochschule statt, die
10 Standorte in Deutschland mit 5500 Studierenden hat. Es wurden jeweils
gestaffelt alle Studierenden eines zufällig ausgewählten Standortes mit einer
Befragung, Beobachtung bzw. einem Experiment analysiert. Die drei Studienteile
waren dabei
die Chatbot-Befragung (Studienteil 1) zu Einsatzmöglichkeiten von
Chatbots. Dies ist dem Bereich der geführten Befragung, hier mittels
Chatbot, sowie der Beobachtung zuzuordnen.
die klassische Online-Befragung (Studienteil 2) zu
Einsatzmöglichkeiten von Chatbots, was eine reine Befragung mittels
Fragebogen war.
das Chatbot-Experiment (Studienteil 3), bei dem ein (scheinbar
leistungsfähiger) Chatbot im Studienalltag seine Hilfe anbietet, was
vorwiegend einen experimentellen Charakter hat.
2 Abgrenzung des Chatbot-Begriffs
Unter Chatbots werden in dieser Studie computergestützte virtuelle Assistenten
verstanden, die schriftlich in menschlicher Sprache mit Personen kommunizieren.
Soziale Konversations-Chatbots sind dabei eher unterhaltend oder motivierend,
lindern allgemein Prüfungsangst oder, wie ein Chatbot an der TU Köln, befördern
allgemein das lösungsorientierte Denken. Solche soziale Konversations-Chatbots
werden in dieser Studie nicht betrachtet. Die Studie fokussiert vielmehr auf
informationsliefernde Assistenz-Chatbots.
Hochschulen sehen in solchen Assistenz-Chatbots eine Chance, dass Studierende
im konkreten Lernprozess und bei organisatorischen Belangen unterstützt
werden und der Chatbot sowohl Lehrkräfte als auch Verwaltungsmitarbeitende
bei Standardanfragen entlastet. Solche Assistenz-Chatbots können als einfache
FAQ-Assistenten mittels einfacher Frage-Antwort-Geber oder als kontextfähige
2
Assistenten im Rahmen von längeren Dialogen z.B. eine Suche in komplexen
Hochschul- bzw. Lernmanagement-Systeme erleichtern.
Seit vielen Jahrzehnten geht die Entwicklung im Bereich von Chatbots nur lang-
sam voran. Gegenwärtig haben die Algorithmen jedoch einen Stand erreicht, der
Chatbots erneut in den Fokus von Diskussionen zum Einsatz an der Hochschule
rücken lässt.
Assistenz-Chatbots, die in kontextfähigen Dialogen mit dem Studierenden
natürlich-sprachlich interagieren und diesen mit z.B. studienspezifischen
Informationen versorgen, könnten alsbald denkbar sein und wären eine Art
kleine Singularität, also zumindest ein Zeitpunkt, an dem sich die Hochschulwelt
so verändert, dass man von einer Welt „vor Chatbots“ und „seit Chatbots“
sprechen wird.
Wenn man eine künstliche Intelligenz wie Midjourney auffordert, ein Bild zu
„Chatbot interagiert mit Studierenden“ zu erstellen, dann wird der Chatbot als
überwiegend gleichberechtigter Gesprächspartner mit roboterhafter Physis dar-
gestellt, obwohl Chatbots eher als reine Software-Lösung im Einsatz sind und
z.B. in vorhandenen Campus-Management-Systemen als Chat-Eingabe-Zeile
integriert werden können.
Abbildung 1: Bild-KI befragt zu „Chatbot interagiert mit Studierenden“
Befragt man die künstliche Chat-Intelligenz ChatGPT mit „Welche Arten von
Chatbots kann man unterscheiden?“, dann erhält man als Antwort z.B.:
Es gibt verschiedene Arten von Chatbots, die sich hauptsächlich in ihrer
Funktionsweise unterscheiden:
Regelbasierte Chatbots: Diese Chatbots nutzen eine festgelegte
Regelmenge, um auf Anfragen des Nutzers zu reagieren. Sie sind in der
3
Lage, einfache Anfragen zu verarbeiten, aber nicht in der Lage, auf
unerwartete Anfragen zu reagieren.
KI-basierte Chatbots: Diese Chatbots nutzen künstliche Intelligenz, um auf
Anfragen des Nutzers zu reagieren. Sie sind in der Lage, sowohl einfache
als auch komplexe Anfragen zu verarbeiten und auf unerwartete Anfragen
zu reagieren.
Hybrid Chatbots: Diese Chatbots nutzen sowohl Regeln als auch künstliche
Intelligenz, um auf Anfragen des Nutzers zu reagieren. Sie sind eine
Kombination aus regelbasierten und KI-basierten Chatbots und bieten eine
höhere Flexibilität und Präzision im Vergleich zu regelbasierten Chatbots.
(Quelle: ChatGPT-Befragung am 18.12.2022)
In der Studie wurde kein Chatbot aus dem Bereich der künstlichen Intelligenz
verwendet. Vielmehr wurde ein regelbasierter Chatbot genutzt, der mit einer fest
definierten Regelmenge an Fragen und Antworten versucht hat, mit Studierenden
ins Gespräch zu kommen, um daraus Erkenntnisse über Einsatzmöglichkeiten
von Chatbots an Hochschulen zu generieren. Der Chatbot wurde dazu in das
Campus-Management-System TraiNex auf die Startseite der Studierenden
integriert.
3 Verwendete Chatbot-Software
Die Erstellung der Untersuchungen mittels Chatbot erfolgte mit dem regel-
basierten Tool ChatCompose. Dieses Tool ermöglicht, wie vergleichbare Tools,
die Erstellung von Chatbots anhand von Konversationsskripten. In solchen
Skripten sind die Fragen des Chatbots und die Antwortmöglichkeiten der
Nutzenden vorgegeben. Die Verzweigungen innerhalb einer Konversation sind
also abhängig davon, wie weit der Verzweigungsbaum der Konversation im Skript
vorbereitet wurde. Ebenfalls möglich, jedoch für diese Studie nicht systematisch
genutzt, kann der Chatbot auch Schlüsselworte in Fragen erkennen und darauf
eine vorgefertigte Antwort geben bzw. ein Konversationsskript starten. Die
Antwortmöglichkeiten sind demnach immer endlich und abhängig von
hinterlegten oder angebundenen Frage-Antwort-Datenbeständen. Ob die
Limitierung des zugreifbaren Datenbestands als Vor- oder Nachteil im hoch-
schulischen Kontext anzusehen ist, wird im Laufe der Studie zu klären sein.
4
Abbildung 2: Konversations-Skript-Pfad in der Entwickler-Oberfläche
4 Befragung durch einen Chatbot
(Studienteil 1)
Bei der ersten Untersuchung, der Chatbot-Befragung, wurden mittels eines
geskripteten Dialogs eine Reihe von Fragen platziert. Da Studierende täglich das
Campus-Management-System TraiNex betreten, wurde als Ort für den Chatbot
die Startseite des Campus-Management-Systems gewählt. Studierende wurden
unmittelbar nach dem Login ins TraiNex mit einer Sprechblase und dem
ermunternden Satz „Hallo, Zeit für einen Plausch?“ angesprochen. Nach Klick auf
die animierte Sprechblase startete die Dialog-Möglichkeit. Nähere Informationen
zu den Ergebnissen dieser Untersuchung finden sich in diesem Kapitel.
5
Abbildung 3: Screenshot des beginnenden Dialogs
Dieser Chatbot fragt zunächst, ob die Teilnehmenden schon Erfahrung mit Chat-
bots hatten. Falls nicht, wurde ihnen eine kurze Erklärung des Begriffs gegeben.
Anschließend wurde gefragt, ob sie eine Möglichkeit sehen würden, Chatbots im
Studienalltag zu nutzen. Falls die Antwort "nein" lautete, wurden sie nach dem
Grund gefragt und verabschiedet. Falls die Antwort "ja" lautete, wurden sie
gebeten, die beste Einsatzmöglichkeit aus drei Optionen auszuwählen und
wurden dann dementsprechend in den passenden Zweig des Skripts geleitet.
Die Antwort-Optionen und sich ergebende Konversationszweige waren:
Der Einsatz von Bots zur Beantwortung von Fragen
Der Einsatz von Bots als digitaler Lernassistent
Der Einsatz von Bots, um auf Lernveranstaltungen einzuwirken
Die konkrete Formulierung der Verzweigungsfrage sowie die resultierenden
Folgefragen sind in Abbildung 4 dargestellt.
6
Abbildung 4: Detailfragen der drei Options-Zweige für offenen Antworten
4.1 Befragungszeitraum und Befragte
Befragt wurde nach Standort und teilweise auch Geschlecht getrennt wie folgt:
KW30: weibliche Studierende Bielefeld (980 Personen)
KW31: männliche Studierende Bielefeld (805 Personen)
KW33: männliche Studierende Köln (224 Personen)
KW34: weibliche Studierende Köln (322 Personen)
KW36: weibliche und männliche Studierende im Fernstudium
(1219 Studierende)
Demnach ca. 3.550 individuellen Studierenden wurde der Befragungsbot auf der
Startseite des Campus-Management-Systems hervorgehoben angezeigt. Da
Studierende sich durchschnittlich 2mal wöchentlich einloggen, fanden insgesamt
ca. 7.100 Ansprachen mit „Hallo, Zeit für eine Plausch?“ statt. Das Kurzergebnis
der Chatbot-Befragungen zeigt:
Die Teilnahmequote bei dieser Befragung mittels Chatbot war sehr gering
mit ca. 1 % (36 Studierende).
Nach Geschlecht war die Teilnahmequote in der Befragung nahezu
identisch (17 männlich zu 19 weiblich)
Gefragt nach alternativen Einsatzmöglichkeiten, also EINER priorisierten
Einsatzmöglichkeit, gab es deutliche Unterschiede.
o Keine Einsatzmöglichkeit: leicht männlich dominiert (9 von 15)
7
o Reaktiver Fragenbot (Bot beantwortet z.B. organisatorische
Fragen): weiblich dominiert (8 von 11)
o Proaktiver Assistenzbot (Bot unterstützt aktiv im Studium, stellt
auch aktiv „Frage des Tages“): leicht männlich dominiert (5 von 9)
o Interaktionsbot (Einwirken auf lineare Lernveranstaltungen): von
einer weiblichen Person gewählt (1 von 1)
Abbildung 5: Aufteilung der Einsatzmöglichkeiten von Chatbots
Das heißt, Männer sehen dem Befragungsergebnis zufolge tendenziell eher keine
Einsatzmöglichkeiten für Chatbots an Hochschulen, wobei sie dies mit den
Limitationen der Technologie begründen und nicht mit fehlenden Einsatz-
szenarien.
Wenngleich Frauen sich am häufigsten für den Anwendungsfall des Fragenbots
aussprachen, zeichnet sich hier keine so deutliche Präferenz ab wie bei Männern.
Die gestellten Fragen verdeutlichen, dass Chatbots gerne als eine Art System-
Interface genutzt würden. Eingaben in natürlicher Sprache sollen demnach
8
Klickwege verkürzen oder das Durchsuchen von Seiten nach Informationen
ermöglichen.
Die möglichen Anwendungsszenarien und damit verbundenen Potenziale sind bei
etwaigen Zielgruppen allem Anschein nach noch nicht so etabliert, wie es
erforderlich bzw. wünschenswert wäre.
Nichts desto weniger bedeutet das Ergebnis keineswegs, dass solche Szenarien
undenkbar sind, sondern nur, dass die Prioritäten anders gelagert sind.
4.2 Detailantworten der durchgeführten Chatbot-
Befragungen
Die Antworten auf die Chatbot-Frage „Was für eine typische Frage sollte ich Dir
beantworten können?“ finden sich ohne Korrektur der Rechtschreibung hier:
Wann ist die nächste Vorlesung? / Wann findet meine nächste Vorlesung
statt? (2)
Wann ist die nächste Prüfung?
Wo etwas im Trainex steht? / Wo ich was finde / Fragen zu den Portalen
Trainex und Moodle der Hochschule, wie und wo man bestimmte Infos
herbekommt. (3)
Wo kann ich mein Thema und den Betreuer für die anstehende SIP Arbeit
eintragen?
Unter welcher Nummer ist das Prüfungsamt erreichbar / Kontakte (2)
Fragen zum Studium
Lerninhalte von Klausuren
Wie ist die Definition von Ethik?
Wie gehe ich mit Prüfungsangst um?
Wie können Menschen friedlich zusammenleben?
Antworten auf die Frage
„Kannst du kurz begründen, warum du denkst, dass Chatbots sich nicht dafür
einsetzen lassen?“
Weil ich vielleicht schreiben wollte, und nur ja oder nein wählen konnte.
Beim Lernen würde ich keinen Hochschulchatbot nutzen, wenn das
irgendwann kommt dann nehme ich einen persönlichen Chatbot. Für
Informationen und Nachfragen an der FH schon eher
Antworten nicht auf konkreten Fragen und Anliegen
Die Chatbots geben nur standardisierte Antworten
Ich denke fachspezifische Fragen von einem Roboter beantworten zu
lassen, ist (zurzeit) noch nicht zufriedenstellend machbar.
Antworten auf die Frage
„Gibt es noch einen Einsatz von Chatbot in der Lehre, den du dir vorstellen
könntest? Wenn ja welchen?“
Lerntipps
Ordnet man die freien Fragen in die Kategorien „Hochschulorganisatorisches“,
„Studieninhalte“, „Fachfragen“, „Technik“ und “Sonstiges“, so ergibt sich die
folgende Einordnung.
9
Abbildung 6: Kategorisierung der Rückmeldungen im geskripteten Chatbot
5 Klassische Umfrage im Campus-
Management-System (Studienteil 2)
Zum Vergleich mit Studienteil 1 wurde mit einer anderen Gruppe von vergleich-
barer Studierender eine klassische Online-Umfrage mit dem Titel „Chatbots an
der Hochschule!“ durchgeführt. Die Umfrage wurde mittels des Umfrage-Moduls
des Campus-Management-Systems TraiNex entwickelt und dort auf der Start-
seite platziert. Studierende, die das TraiNex betreten, werden automatisch auf
die Umfrage aufmerksam gemacht mit „Nehmen Sie teil an der Umfrage? Ja //
Nein, später.“ Eingeleitet wurde die Umfrage zur Verdeutlichung mit dem Bild
eines typischen Chatbot-Dialogs und dem folgenden Text:
Chatbots simulieren Unterhaltungen. Damit soll es Menschen
leichter fallen, an die Informationen zu kommen, die für sie
wichtig und interessant sind.
Mit dieser Umfrage soll die Akzeptanz von Chatbots an
Hochschulen erforscht werden.
10
Abbildung 7: Auszug aus der Online-Umfrage
Während im Chatbot jeweils nur maximal eins von drei Fragensets ausgespielt
wurde, beinhaltete die Umfrage alle drei Fragensets, sodass sich die
Teilnehmenden zu allen drei der oben genannten Optionen äußern konnten. Auch
wurden die Fragen nicht interaktiv aufbauend gestellt, sondern der
Umfrageteilnehmer konnte im statischen Fragebogen alle Fragen lesen und dann
einmalig beantworten. Geschlecht, Alter und Studiengruppe wurden dabei
automatisch erfasst und nicht erfragt. Nähere Informationen zu dieser
Untersuchung finden sich in diesem Kapitel.
5.1 Befragungszeitraum und Befragte
Die Umfrage wurde im Zeitraum vom 30.08.2022 bis 06.09.2022 insgesamt 631
Studierenden am Hochschul-Standort Hannover angezeigt, wobei nur 11
Studierende an der Befragung teilnahmen. Dies entspricht einer Rücklaufquote
von 1,8 %.
5.2 Kurzergebnis der TraiNex-Umfrage
Die Teilnahmequote in der Umfrage lag mit 1,8 % merklich höher als in
der Chatbot-Befragung, war aber dennoch verhältnismäßig gering
11
In der Umfrage war der Anteil der teilnehmenden Frauen merklich höher
als der Anteil männlicher Studierender (7 Frauen zu 4 Männern / keine
diversen Personen)
5.3 Detailergebnis der Umfrage
Die Detailergebnisse der Umfrage sind inkl. Geschlecht, Alter sowie Studienzu-
gehörigkeit für weiterführende Interpretationszwecke hier komplett aufgeführt.
Die Interpretation der Autoren sind wie folgt: Das Ergebnis der ersten Frage
zeigt, analog zur Befragung durch den Chatbot, dass es mehr Studierende gibt,
die keine Verwendung für Chatbots in der Lehre sehen als solche, die eine Ver-
wendung sehen (vgl. Abbildung 8). Zu bemerken ist jedoch auch, dass ein Anteil
der Befragten ohne Meinung zu dem Thema so hoch ist, wie der Anteil jener mit
einer ablehnenden Haltung. Fraglich bleibt, ob die Nutzer die vorteilhaften
Einsatz-Szenarien von Chatbots zum Zeitpunkt der Teilnahme realistisch
abzuschätzen wussten.
Zur Begründung, warum keine Verwendung gesehen wird, kam folgende
Rückmeldung:
„Chatbots sorgen bei mir innerhalb von wenigen Sekunden für schlechte
Laune“
„Wenn ich eine konkrete Frage habe, zu der ich auf der Homepage oder im
TraiNex keine Antwort finde, möchte ich direkt mit einem zuständigen
Menschen Kontakt aufnehmen“
„zu distanziert und unpersönlich man möchte lieber anrufen und fragen,
ansonsten kann man auch selbst nachgucken“
Abbildung 8: Erste allgemeine Frage der TraiNex-Umfrage
Analog zu der Befragung durch den Chatbot, war der Bot zur Beantwortung von
Fragen die favorisierte Einsatzmöglichkeit, wobei der Unterschied in dieser
Umfrage deutlich größer ausfällt (vgl. Abbildung 9). Das mag daran liegen, dass
Personen, welche keine Verwendung für Chatbots in der Lehre sehen, nicht
ausgeleitet wurden.
12
Abbildung 9: Zweite allgemeine Frage der TraiNex-Umfrage
Bei den Fragen, die sich mit Chatbots als persönlichem Assistenten befassen,
wird deutlich, dass die Anforderungen eher individuell sind (vgl. Abbildung 10),
wobei nicht zwingend eine Assistenz in Form von Lernkontrollen bzw. Abfragen
gefragt ist (vgl. Abbildung 11).
Abbildung 10: Erste Assistenzbot-Frage
Abbildung 11: Zweite Assistenzbot-Frage
Bei der Erhebung typischer Fragen, die ein Chatbot beantworten können sollte
wurden nur zwei Beispiele, nämlich „Weiterleitung an den richtigen
13
Ansprechpartner, ggf. Termine und dessen Verlegung managen“ und „Wie
bekomme ich meinen neuen Studienausweis?“ genannt. In diesem Zusammen-
hang lieferten die beiden anderen Befragungen deutlich mehr Input.
Abbildung 12: Erste Fragenbot-Frage
Während in der Chatbot-gestützten Befragung 92 % der Befragten einen
Quellenhinweis für die Beantwortung als ausreichend empfanden, war in dieser
Befragung die Gruppe jener, welche sich eine konkrete Antwort wünschten, mit
52 % in dieser Umfrage das größte Segment. Insbesondere im Anbetracht der
Ergebnisse in Kapitel 6.3 ist dies spannend, weil ein Verweis auf offizielle Quellen
in rechtlicher Hinsicht deutlich weniger bedenklich ist als direkt eine Antwort zu
liefern.
Abbildung 13: Zweite Fragenbot-Frage
14
Abbildung 14: Dritte Fragenbot-Frage
Der Wunsch, mittels Chatbots auf Veranstaltungen einzuwirken, ist laut dieser
Befragung seitens der Studierenden gering (vgl. Abbildung 15). Als Begründung
hierfür wurde von einem Studierenden angeführt: „Die Vorlesungen sind nach
meiner Erfahrung durch die Dozenten gut geplant“. Die eine Teilnehmende,
welche sich für eine Einwirkung in Veranstaltungen aussprach, gab an, sie wolle
„Themeninhalte, Möglichkeiten der Vermittlung von Inhalten“ einbringen bzw.
erfragen.
Gleichwohl finden Studierende Elemente wie „Interaktive Umfragen in Lehr-
veranstaltungen positiv (vgl. Abbildung 16).
Eine Moderation von Gruppenchats durch einen Chatbot empfänden die Teil-
nehmenden gemäß der Beantwortung der dritten Frage im Themenkomplex
Interaktionsbots als eher störend (vgl. Abbildung 17).
Abbildung 15: Erste Interaktionsbot-Frage
15
Abbildung 16: Zweite Interaktionsbot-Frage
Abbildung 17: Dritte Interaktionsbot-Frage
Auf die Frage „Welche andere Hilfestellung kannst du dir denn vorstellen
beziehungsweise würdest du dir wünschen?“ kamen in dieser Befragung keinerlei
Rückmeldungen. Ein Studierender kommentierte schlicht mit „keine Chatbots“
6 Ermittlung offener Fragen mittels eines
Chatbots (Studienteil 3)
In Studienteil 3 wurde ein weiterer Skript-Chatbot eingesetzt, der ebenfalls auf
der Startseite des TraiNex eingebunden wurde und Studierende aktiv mit „hallo,
hallo, wie ist Dein Vorname?“ angesprochen hat und angeboten hat, im Studien-
alltag zu helfen. Erst nach der Stellung einer offenen Frage seitens des
Probanden wurde durch den Chatbot auf Restriktionen in der Beantwortung
hingewiesen und der Dialog dann freundlich beendet.
16
Abbildung 18: Chatbot-Experiment: Aufforderung und Frage
Die offenen Fragen und Reaktionen wurden systematisch gesammelt.
17
6.1 Zeitraum und Probanden im Experiment
Das Experiment wurde über drei Wochen im September vom 8.9.2022 bis
24.9.22 durchgeführt. Angezeigt wurde der Chatbot ca. 5000 Studierenden.
1,4% haben in der 1. Woche mit dem Chatbot kommuniziert, 0,7% in der
zweiten Woche und 0,3% in der dritten Woche. Am Ende hatten insgesamt 2,4%
der Studierenden aktiv mit dem Chatbot kommuniziert, also 118 Studierende.
97,6% hatten kein Interesse, mit dem Chatbot zu interagieren oder haben diesen
ggf. nicht wahrgenommen, obwohl er auffällig mit einer sich animiert-öffnenden
Sprechblase auf der Startseite gut sichtbar platziert war.
6.2 Klassifizierung der Art von Fragen
Auf den Chatbot zur Sammlung offener Fragen gingen 118 Rückmeldungen ein.
Diese Rückmeldungen wurden in eine von fünf Fragenkategorien eingeordnet be-
ziehungsweise mit einem Vermerk versehen, wenn keine Frage gestellt wurde.
Die Abbildung 19 zeigt die prozentuale Verteilung der Rückmeldungen, wobei es
keine Fragen in der Kategorie Fachfragen gab. 34 % aller Fragen bezogen sich
auf „Studieninhalte etc.“, beispielsweise „Was soll ich lernen“ oder „Lohnt sich
der Master?“. In 18 % der Fragen ging es um technische Fragestellungen, wie
„Wie funktioniert die eLibrary“. Weitere 17 % der Teilnehmenden stellten Fragen,
die sich der Kategorie Hochschulorganisatorisches zuordnen lassen. Ein Beispiel
für eine gestellte hochschulorganisatorische Frage wäre: „Hast du die E-Mail-
Adresse vom Prüfungsamt?“ Darüber hinaus gab es auch Fragen, welche sich
nicht einwandfrei einer der oben genannten Kategorien zuordnen ließen, wie z.B.
„Gibt es Zuschüsse für Forschungskosten?“, da dies sowohl auf die Hochschule
bezogen sein kann, als auch auf eine Beratung bezüglich öffentlicher Förder-
mittel. Weitere 28 % aller Befragten haben aktiv geäußert, keine Frage zu
haben.
Abbildung 19: Kategorisierung der Rückmeldungen
im offenen Chatbot
18
6.3 Klassifizierung der rechtlichen Unbedenklichkeit von
Fragen
Weiterhin wurde klassifiziert, ob eine Beantwortung der Fragen potenziell recht-
lich bedenklich wäre für die Hochschule, insbesondere aufgrund einer Falsch-
auskunft des Bots. Beispielsweise kann die Antwort auf die Frage „Wie lang soll
meine Studienarbeit sein?“ als rechtlich bedenklich eingestuft werden, wenn der
Chatbot mit „20 Seiten reichen aus“ antworten würde und dies der Prüfungs-
ordnung des konkreten Studierenden widerspricht. Auch bei Fragen nach kon-
kreten Lerninhalten kann eine rechtliche Problematik vorliegen, wenn nämlich
der Chatbot auf z.B. die Frage „Was ist Ethik?“ eine Definition liefert, die von der
zuständigen Lehrkraft aber als veraltet in dessen Skript abgelehnt wird. Auch im
Interview mit ChatGPT werden diese und weitere rechtliche Gefahren genannt
gem. Anhang 3.
Bei einer konservativen Klassifizierung, bei der eine Antwort eher als rechts-
problematisch angesehen wird, wären insgesamt 43 % aller Antworten rechts-
problematisch und nur 22 % als nicht rechtsproblematisch anzusehen, wie in
Abbildung 20 aufgezeigt. Wenn man die unbeantwortbaren Fragen heraus-
rechnet, dann sind immerhin 33 % aller möglichen Antworten nicht rechts-
problematisch.
Abbildung 20: Einstufung rechtlicher Bedenklichkeit
nach Fragenkategorien
Aufgrund des hohen Anteils an Fragen, deren Beantwortung als rechtlich be-
denklich eingestuft werden kann, soll die anfängliche Kategorisierung von Chat-
19
bots in regelbasierte und solche mit künstlicher Dialog-Intelligenz um die
Dimension der Rechtssicherheit des Dialogs erweitert werden. Hierbei wird unter-
stellt, dass die Rechtssicherheit mit dem durch den Chatbot zugreifbaren Daten-
bestand zusammenhängt und eine Limitierung (sic!) des zugreifbaren Daten-
bestands die Rechtssicherheit erhöht.
Um die Rechtssicherheit der Antworten zu erhöhen, müssten die Antworten des
Chatbots ggf. eher aus einem geschlossenen Datenbestand kommen, wie
folgende Beispiele illustrieren.
Beispiel: In einem Szenario gem. Position 2 der Abbildung 21 könnte der
Studierende z.B. fragen „Wie lang dauert eine mündliche Prüfung?“, worauf der
Chatbot aufgrund erkannter Schlagworte in ein Skript verzweigt und per Menü
nachfragt, ob ein Bachelorkolloquium oder ein Praxisvortrag gemeint sind, und
nach menübasierter Auswahl einer Antwortmöglichkeit durch den Studierenden
letztlich dann der Chatbot die relevante Passage aus der internen Prüfungs-
ordnung zitiert oder auf diese Quelle verweist. Rechtsproblematisch wäre hin-
gegen, wenn in dieser Chat-Situation der Chatbot, wie in Pos. 8 einordbar,
allgemein recherchiert und eine allgemeine Antwort gegeben hätte, die dem
Studierenden als unverbindliche Aussage wenig nützt und sogar bei Ver-
wechslung mit einer verbindlichen Aussage für die spezifische Hochschule zu
einer Rechtsproblematik führen kann.
Auch für reine Lern-Chats, bei denen der Chatbot ein Lern-Partner ist, kann es zu
rechtsproblematischen Szenarien kommen, wenn der Chatbot statt aus z.B. den
hochschulischen Studienbriefen das Wissen aus allgemeinen Quellen bezieht, die
von der Lehrkraft aber eigentlich als irrelevant ausgeschlossen wurden und vom
Studierenden dann in der Prüfung aber ggf. verwendet werden.
Der große Vorteil der bequemen freien Interaktion und Dialog-Interpretation mit
z.B. ChatGPT steht also das Risiko der Verwendung eines offenen Datenbestands
dieser Chatbots entgegen. Während regelbasierte Chatbots als interaktions-
schwach gelten und aber wegen geschlossener Datenbestände rechtssicherer
sein können, sind andererseits AI-Chatbots sehr interaktionsstark und führen
aber zu Rechts-Unsicherheiten, wenn die Datenbestände offen sind. Für den
Einsatz an Hochschulen müssen die regelbasierten Chatbots entweder inter-
aktionsstärker werden (Entwicklungspfad A) oder die AI-basierten Chatbots auf
einen geschlossenen Datenbestand trainiert werden können (Entwicklungspfad
B). Gem. Anhang 3 und dortige Frage 9 ist der Entwicklungspfad B technisch
aufwändig und aber derzeit bereits möglich.
20
Abbildung 21: Systematisierung von Chatbots bzgl. Rechtssicherheit
7 Fazit
Zusammenfassend kann festgehalten werden:
Die Bereitschaft von Studierenden mit Chatbots zu kommunizieren ist
an der analysierten Hochschule deutlich geringer, als von den Autoren
erwartet.
Chatbots werden bei freien Fragen/Dialogen von den Studierenden
noch als wenig leistungsfähig und nicht als Problemlöser angesehen.
Diese Ansicht besteht unabhängig von Alter, Geschlecht,
Studienrichtung oder Standort der Studierenden.
Typische Einsatzmöglichkeiten sehen Studierende am ehesten im
Bereich von Fragen zum Studienablauf und Organisatorischem und
weniger im Bereich von Lernfragen an den Chatbot. Typische Frage
eines Studierenden an solch einen reaktiven Bot wäre „Wie viele
Seiten hat die Praxisarbeit?“ oder „Wann ist meine nächste Marketing-
Vorlesung?“
Beim Experiment mit der Simulation eines leistungsfähigen Chatbots
wurde deutlich, dass ein Großteil der gestellten Fragen eine für die
Hochschule rechtsproblematische Antwort nach sich hätte ziehen
können.
Aus der Studie, die aufgrund der geringen Teilnahmequote nicht repräsentativ
ist, können trotzdem Ansätze für Empfehlungen herausgearbeitet werden.
o Für die Akzeptanz bedeutsam ist, dass der Chatbot dialogorientiert
leistungsfähig ist, z.B. auf Schlagworte hin ein längerer geskripteter
Dialog ausgelöst werden kann oder sogar eine künstliche Dialog-
Intelligenz genutzt wird.
o Vorteilhaft wäre, wenn der Chatbot bereits vor dem Dialog mit
einem Studierenden dessen Namen und Studienhintergrund wie
Studienfach und bisherige Noten sowie dessen Alter und Geschlecht
kennt, um das Gespräch vorbereiten zu können. Zu prüfen wäre
hier immer die Datenschutz-Kompatibilität (DGSVO).
21
o Für die Rechtssicherheit der Chatbot-Antwort ist bedeutsam, dass
der Chatbot seine Antworten kontrolliert aus einem von der
Hochschule abgrenzbaren Datenbereich erhält, prüfungsrechtliche
Dialoge standardisiert und dokumentiert ablaufen bzw. Antworten
aus nicht kontrollierten Bereichen als z.B. „unverbindlich“ gekenn-
zeichnet werden. Vom Einsatz von Chatbots, die auf einen für die
Hochschule unkontrollierten Datenbestand zugreifen, wird aufgrund
der beschriebenen Rechts-Unsicherheiten derzeit für zumindest
prüfungsrechtliche Angelegenheiten abgeraten.
o Ermöglicht werden sollte, dass der Chatbot immer weiter dazulernt.
Einerseits durch eine laufende Analyse nicht beantworteter Fragen
durch die Hochschule und der Einstellung einer möglichen Antwort
durch die Hochschule und andererseits aber auch durch z.B. aktive
Befüllung durch Organisation, Lehrkräfte oder sogar Studierende mit
auch Wissensfragen
o Es wird empfohlen, zunächst in einer Startphase zu erheben, welche
Fragen ein Studierender typischerweise stellt, um den Chatbot mit
Antworten darauf von der Organisation befüllen zu lassen.
o Neben dem reaktiven Bot sollte an die Möglichkeit eines aktiven
Bots gedacht werden, der nicht auf Fragen wartet sondern der von
sich aus den Studierenden anspricht, motiviert, auf bedeutsame
Termine hinweist und wo der Bot z.B. dem Studierenden ab und zu
Fachfragen stellt, möglichst in Abhängigkeit von dessen Studien-
richtung oder sogar Wissensstand.
Erst wenn dialogstarke AI-basierte Chatbots wie ChatGPT sich auf limitierte und
durch die Hochschule kontrollierte und erweiterbare Datenbestände trainieren
bzw. leichter trainieren lassen, wird der Einsatz von Chatbots an Hochschulen
sich durchsetzen können.
22
Quellen
Bieletzke, S. (2020): Singularität: Point-of-no-Return zur Utopie oder Dystopie?,
http://www.neuegegenwart.de/ausgabe61/singularitaet.html
Kuhail, M. A., Alturki, N., Alramlawi, S., & Alhejori, K. (2022). Interacting with
educational chatbots: A systematic review. Education and Information
Technologies: The Official Journal of the IFIP Technical Committee on Education,
S. 146
Mai, V., Bauer, A., Deggelmann, C., Neef, C., & Richert, A. (2022). AI-Based
Coaching: Impact of a Chatbot’s Disclosure Behavior on the Working Alliance and
Acceptance (Vol. 13518/Springer Nature Switzerland)
Nichol, A. (2018): The next generation of AI assistants in enterprise“, O’Reilly
Radar, https://www.oreilly.com/radar/the-next-generation-of-ai-assistants-in-
enterprise/ (Abruf am 5.12.22)
o.V. (2022): Open AI-Api-
Dokumentation, https://platform.openai.com/docs/guides/fine-tuning (Abruf am
28.12.22)
Weidauer, Alex (2018): Your Guide to Five Levels of AI Assistants in Enterprise“,
Rasa, https://rasa.com/blog/conversational-ai-your-guide-to-five-levels-of-ai-
assistants-in-enterprise/ (Abruf am 10.12.22)
23
Anhang 1:
Freie Fragen an den Bot (Studienteil 1)
(Ausdrucks- oder Rechtschreibfehler sind nicht korrigiert.)
Was für eine typische Frage sollte ich Dir
beantworten können?
Fragentyp
Fragen zu den Portalen Trainex und
Moodle der FH, wie und wo man
bestimmte Infos herbekommt.
Technik
Fragen zum Studium
Studieninhalt, -ablauf und
Selbstorganisation
Lerninhalte von Klausuren
Studieninhalt, -ablauf und
Selbstorganisation
Wan findet meine nächste Vorlesung
statt?
Studieninhalt, -ablauf und
Selbstorganisation
Wann ist die nächste Prüfung?
Studieninhalt, -ablauf und
Selbstorganisation
Wann ist die nächste Vorlesung
Studieninhalt, -ablauf und
Selbstorganisation
Wie gehe ich mit Prüfungsangst um?
Studieninhalt, -ablauf und
Selbstorganisation
wie ist die definition von ethik?
Fachfrage
Wie können Menschen friedlich
zusammen leben?
Sonstiges
Wo etwas im Trainex zu finden ist
Technik
Wo ich was finde
Technik
Wo kann ich mein Thema und den
Betreuer für die anstehende SIP Arbeit
eintragen?
Hochschul-Organisatorisches
Unter welcher Nummer ist das
Prüfungsamt erreichbar
Hochschul-Organisatorisches
Kontakte
Hochschul-Organisatorisches
24
Anhang 2:
Auswahl freier Fragen im Chatbot-Experiment
(Studienteil 3)
(Ausdrucks- oder Rechtschreibfehler sind nicht korrigiert.)
Wie ist Deine Frage aus dem
Bereich Deines Studiums oder
der Hochschule?
PK-Typ
Antwort
rechtlich
problematisch
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
Hochschul-
Organisatorisches
ja
keine Frage
keine Antwort
möglich
Hochschul-
Organisatorisches
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
keine Frage
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
keine Antwort
möglich
Hochschul-
Organisatorisches
ja
keine Frage
keine Antwort
möglich
nein
Studieninhalt, -ablauf und
Selbstorganisation
ja
keine Frage
keine Antwort
möglich
25
Hochschul-
Organisatorisches
ja
Hochschul-
Organisatorisches
keine Antwort
möglich
Technik
nein
keine Frage
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
keine Antwort
möglich
keine Frage
keine Antwort
möglich
Technik
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
keine Frage
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
nein
Technik
ja
Sonstiges
nein
Technik
nein
Technik
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
keine Antwort
möglich
Technik
nein
keine Frage
keine Antwort
möglich
26
keine Frage
keine Antwort
möglich
Technik
nein
Hochschul-
Organisatorisches
ja
keine Frage
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
keine Frage
keine Antwort
möglich
Hochschul-
Organisatorisches
ja
Technik
nein
Hochschul-
Organisatorisches
ja
Hochschul-
Organisatorisches
nein
Studieninhalt, -ablauf und
Selbstorganisation
ja
keine Frage
keine Antwort
möglich
Sonstiges
nein
Technik
ja
Technik
ja
Technik
nein
Studieninhalt, -ablauf und
Selbstorganisation
ja
Technik
ja
Hochschul-
Organisatorisches
ja
27
keine Frage
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
ja
Hochschul-
Organisatorisches
nein
Technik
nein
Studieninhalt, -ablauf und
Selbstorganisation
nein
Technik
nein
Technik
nein
keine Frage
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
ja
Technik
ja
Sonstiges
ja
Technik
nein
Technik
nein
keine Frage
keine Antwort
möglich
keine Frage
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
Hochschul-
Organisatorisches
ja
Technik
nein
Studieninhalt, -ablauf und
Selbstorganisation
nein
Hochschul-
Organisatorisches
nein
28
keine Frage
keine Antwort
möglich
keine Frage
keine Antwort
möglich
keine Frage
keine Antwort
möglich
keine Frage
keine Antwort
möglich
keine Frage
keine Antwort
möglich
Hochschul-
Organisatorisches
keine Antwort
möglich
Hochschul-
Organisatorisches
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
Hochschul-
Organisatorisches
ja
keine Frage
keine Antwort
möglich
Technik
nein
Hochschul-
Organisatorisches
keine Antwort
möglich
keine Frage
keine Antwort
möglich
Technik
nein
Hochschul-
Organisatorisches
keine Antwort
möglich
Keine Frage
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
keine Antwort
möglich
Hochschul-
Organisatorisches
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
29
Studieninhalt, -ablauf und
Selbstorganisation
nein
Hochschul-
Organisatorisches
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
nein
keine Frage
keine Antwort
möglich
keine Frage
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
nein
Studieninhalt, -ablauf und
Selbstorganisation
ja
keine Frage
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
ja
keine Frage
keine Antwort
möglich
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
Studieninhalt, -ablauf und
Selbstorganisation
ja
30
Anhang 3: Interview mit Chat-GPT zu Risiken
(unbearbeitet, vom 18.12.2022 bzw. ab Frage 6 am 20.12.22)
1.Frage: Welche Einsatzmöglichkeiten von Chatbots gibt es im Bereich von
Hochschulen?
Antwort von ChatGPT: Chatbots haben in Hochschulen verschiedene
Einsatzmöglichkeiten, einige davon sind:
Studienberatung: Chatbots können Studierenden dabei helfen, sich über
Studiengänge, Anforderungen und Karrieremöglichkeiten zu informieren.
Informationsverteilung: Chatbots können verwendet werden, um Studierenden
und Lehrenden schnell und einfach aktuelle Informationen, wie beispielsweise
Änderungen im Stundenplan, zur Verfügung zu stellen.
Kursverwaltung: Chatbots können Studierenden dabei helfen, ihre Kurse zu
organisieren und ihren Fortschritt zu verfolgen.
Bibliotheksdienste: Chatbots können verwendet werden, um Studierenden und
Lehrenden schnellen Zugriff auf Bibliotheksressourcen zu geben, wie
beispielsweise die Suche nach Büchern und Artikeln.
Finanz- und Administrationsdienste: Chatbots können verwendet werden, um
Studierenden und Lehrenden schnellen Zugriff auf Finanz- und
Administrationsdienste wie die Beantragung von Finanzhilfen oder das Beantragen
von Urlaub zu geben.
Studentenbetreuung: Chatbots können verwendet werden, um Studierenden bei
persönlichen oder emotionalen Problemen Unterstützung zu bieten.
Campus Navigation: Chatbots können verwendet werden, um Studierenden und
Lehrenden dabei zu helfen, sich auf dem Campus zurechtzufinden und zu
navigieren.
2.Frage: Welche rechtlichen Problematiken können sich daraus ergeben?
Antwort von ChatGPT: Im Einsatz von Chatbots in Hochschulen können sich einige
rechtliche Problematiken ergeben, einige davon sind:
Datenschutz: Chatbots sammeln und verarbeiten oft persönliche Daten von
Studierenden und Lehrenden. Daher müssen Hochschulen sicherstellen, dass sie
den geltenden Datenschutzgesetzen entsprechen und die Privatsphäre der Nutzer
gewahrt wird.
Informationssicherheit: Chatbots sind oft mit sensiblen Daten wie persönlichen
Informationen oder Finanzdaten verbunden. Daher müssen Hochschulen
sicherstellen, dass sie angemessene Sicherheitsmaßnahmen ergreifen, um
Datenverlust oder -diebstahl zu verhindern.
Haftung: Chatbots sind oft automatisierte Entscheidungen treffend und können
daher Fehler machen. Hochschulen müssen daher sicherstellen, dass sie für
Schäden, die durch Fehler des Chatbots verursacht werden, haftbar gemacht
werden können.
31
Compliance: Chatbots müssen sicherstellen, dass sie den geltenden Gesetzen und
Vorschriften entsprechen, wie z.B. der EU-DSGVO.
Zugang zu Informationen: Chatbots können auf Informationen zugreifen, die nicht
für die Öffentlichkeit zugänglich sein sollten. Hochschulen müssen daher
sicherstellen, dass Chatbots nur Zugriff auf die erforderlichen Informationen
haben und dass diese Informationen geschützt werden.
Es ist wichtig, dass Hochschulen sicherstellen, dass sie diese rechtlichen Problematiken
bei der Implementierung von Chatbots berücksichtigen und angemessene Maßnahmen
ergreifen, um diese Probleme zu lösen.
3.Frage: Gib mir Beispiele, wie es dazu kommen kann, dass eine Hochschule für die
Antwort eines Chatbots in Haftung genommen wird?
Antwort von ChatGPT: Einige Beispiele, wie es dazu kommen kann, dass eine
Hochschule für die Antwort eines Chatbots in Haftung genommen wird, sind:
Fehlerhafte oder ungenaue Informationen: Wenn ein Chatbot fehlerhafte oder
ungenaue Informationen bereitstellt, die zu finanziellen oder anderen Schäden
führen, kann die Hochschule für diese Schäden in Haftung genommen werden.
Datenschutzverletzung: Wenn ein Chatbot persönliche Daten von Studierenden
oder Lehrenden sammelt oder verarbeitet, ohne die erforderlichen
Datenschutzbestimmungen einzuhalten, kann die Hochschule für diese
Verletzungen in Haftung genommen werden.
Automatisierte Entscheidungen: Wenn ein Chatbot automatisierte Entscheidungen
trifft, die zu Schäden führen, kann die Hochschule für diese Schäden in Haftung
genommen werden.
Mangelhafte Sicherheit: Wenn ein Chatbot aufgrund mangelhafter
Sicherheitsmaßnahmen gehackt wird und dadurch persönliche Daten gestohlen
werden, kann die Hochschule für diesen Datenverlust in Haftung genommen
werden.
Inkonsistenzen im Chatbot-Design: Wenn ein Chatbot nicht entsprechend
gestaltet wurde und dadurch eine Verletzung von Rechten von Benutzern wie
Diskriminierung oder Beleidigung verursacht, kann die Hochschule für diese
Verletzungen in Haftung genommen werden.
Es ist wichtig zu betonen, dass jeder Fall und jede Haftungsfrage individuell geprüft
werden muss und es keine allgemeingültige Antwort darauf gibt. Es ist daher wichtig,
dass Hochschulen ihre Chatbots sorgfältig entwickeln und implementieren und
sicherstellen, dass sie den geltenden Gesetzen und Vorschriften entsprechen.
4.Frage: Was sind die Konsequenzen, wenn ein Chatbot auf die Frage "Wann ist meine
nächste Prüfung?" dem Studierenden eine falsche Antwort gibt und dieser deshalb die
Prüfung verpasst und in Folge exmatrikuliert wird?
Antwort von ChatGPT: Wenn ein Chatbot auf die Frage "Wann ist meine nächste
Prüfung?" dem Studierenden eine falsche Antwort gibt und dieser deshalb die Prüfung
verpasst und in Folge exmatrikuliert wird, können sich folgende Konsequenzen
ergeben:
32
Schadensersatz: Der Studierende kann Schadensersatzansprüche gegen die
Hochschule geltend machen, da er aufgrund der falschen Antwort des Chatbots
Schäden erlitten hat.
Haftung: Die Hochschule kann für die Fehler des Chatbots in Haftung genommen
werden, da sie für die Sicherheit und Korrektheit der bereitgestellten
Informationen verantwortlich ist.
Reputationsschaden: Der Vorfall kann zu einem Reputationsschaden für die
Hochschule führen, da sie in der Öffentlichkeit als unzuverlässig oder inkompetent
angesehen werden kann.
Rechtliche Schritte: Der Studierende oder die Hochschule können rechtliche
Schritte einleiten, um die Angelegenheit aufzuklären und geeignete Maßnahmen
zu ergreifen.
Änderungen im Chatbot-System: Die Hochschule kann beschließen, Änderungen
im Chatbot-System vorzunehmen, um zukünftige Fehler zu vermeiden und die
Zuverlässigkeit und Genauigkeit der bereitgestellten Informationen zu
gewährleisten.
Es ist wichtig zu betonen, dass jeder Fall und jede Konsequenz individuell geprüft werden
muss und es keine allgemeingültige Antwort darauf gibt. Es ist daher wichtig, dass
Hochschulen ihre Chatbots sorgfältig entwickeln und implementieren und sicherstellen,
dass sie den geltenden Gesetzen und Vorschriften entsprechen, um solche Probleme zu
vermeiden.
5.Frage: Wie kann ein Chatbot dem Studierenden bei emotionalen Problemen helfen?
Hast Du ein Beispiel? Bitte antworte auf englisch und umgangssprachlich.
Antwort von ChatGPT: A chatbot can help students with emotional problems in a few
ways. One way is by providing them with resources and support. For example, a chatbot
can provide students with information on counseling services, support groups, and other
resources that can help them cope with emotional problems.
Another way a chatbot can help is by providing students with a safe space to talk about
their emotions. The chatbot can be programmed to listen and respond in a non-
judgmental and empathetic way, which can make students feel more comfortable
opening up about their problems.
A chatbot can also help students with emotional problems by providing them with self-
care tips and exercises. For example, a chatbot can provide students with meditation
exercises, journal prompts, and other tools that can help them manage their emotions.
Here's an example:
A chatbot can be designed to offer emotional support for students that are dealing with
stress, anxiety or depression. By asking questions, providing resources and providing
guided meditations and self-care tips, the chatbot can help students feel less alone and
more equipped to handle their emotions. If the chatbot identifies that the student is in
crisis or potentially in danger, it can provide the student with contact information for
emergency services or direct them to speak with a counselor or therapist.
33
6.Frage: Kann ChatGPT seine Antworten auch limitieren auf einen bestimmten Datenbestand?
Könnte z.B. eine Hochschule sich wünschen, dass nur das eigene Wiki der Hochschule für
Antworten genutzt wird?
Antwort von ChatGPT: Ja, das ist möglich. Eine Hochschule oder eine Organisation kann durch
Anpassung des Trainingsdatensatzes oder Einschränkungen bei der Anfragebehandlung
sicherstellen, dass ChatGPT nur auf bestimmte Quellen zurückgreift, wenn es um Antworten geht.
Eine solche Anpassung erfordert jedoch eine gewisse technische Expertise und kann nicht direkt
über die Benutzeroberfläche von OpenAI erfolgen. Es kann auch schwierig sein, einen
Datenbestand so zu begrenzen, dass nur die gewünschten Informationen verfügbar sind, ohne die
allgemeine Leistungsfähigkeit des Modells zu beeinträchtigen.
7.Frage: Könnte dann ein Studierender eine konkrete Frage zur Studienordnung seines Studiums
oder in prüfungsrechtlicher Sicht stellen und eine rechtssichere Antwort erwarten können, die sich
nur aus den zugelassenen Quellen der konkreten Hochschule speist?
Antwort von ChatGPT: Es ist unwahrscheinlich, dass ein Studierender eine rechtssichere
Antwort auf eine Frage zur Studienordnung oder zu prüfungsrechtlichen Themen von einem
Chatbot erwartet. Chatbots, einschließlich ChatGPT, sind als Informationsquelle gedacht und
können nicht die rechtliche Meinung oder Beratung eines qualifizierten Fachmanns ersetzen. In
solchen Fällen wäre es besser, sich an die zuständigen Stellen an der Hochschule oder an einen
Anwalt zu wenden.
8.Frage: Aber auch die Frage nach der Anzahl der geforderten Seiten einer Abschlussarbeit wäre
doch bereits rechtsproblematisch, wenn ChatGPT die falsche Antwort gibt.
Antwort von ChatGPT: Ja, das ist richtig. Eine falsche Antwort auf eine Frage zu formalen
Anforderungen wie der Anzahl der Seiten einer Abschlussarbeit kann tatsächlich rechtliche
Auswirkungen haben. Es ist wichtig zu beachten, dass Chatbots, einschließlich ChatGPT, Fehler
machen können und dass ihre Antworten nicht immer korrekt oder aktuell sind. In solchen Fällen
sollte immer die offizielle Dokumentation oder Information der Hochschule oder eine andere
vertrauenswürdige Quelle konsultiert werden.
9.Frage: Könnte man denn ChatGPT in solchen rechtsproblematischen Fällen anweisen, wirklich
nur die Daten der Hochschule zu verwenden, also z.B. die aktuelle Prüfungsordnung?
Antwort von ChatGPT: Ja, das ist möglich. Es ist technisch möglich, dass eine Organisation oder
eine Hochschule eine eigene Version von ChatGPT trainiert, bei der der Datensatz auf die
offiziellen Dokumente und Informationen der Hochschule beschränkt ist. Auf diese Weise kann
sichergestellt werden, dass die Antworten auf rechtliche Fragen auf aktuellen und korrekten
Informationen basieren. Es ist jedoch zu beachten, dass das Training eines solchen Modells einen
erheblichen Zeit- und Ressourcenaufwand erfordert und regelmäßig aktualisiert werden muss, um
sicherzustellen, dass die Antworten immer korrekt und aktuell sind.
10.Frage: Vielen Dank für das Gespräch.
Antwort von ChatGPT: Gern geschehen! Wenn Sie weitere Fragen haben, stehe ich Ihnen
gerne zur Verfügung.
ResearchGate has not been able to resolve any citations for this publication.
Article
Full-text available
Künstliche Intelligenz (KI) der Gegenwart ist ein fachlich-beschränkter Hilfs-Assistent, der oft kaum intelligenter daherkommt als ein Mensch mit natürlicher Dummheit. Durch maschinelles Lernen und exponentiellbeschleunigten Fortschritt werden die schwachen Assistenten aber alsbald zu Fach-Genies. Die Idee der Singularität ist, dass es einen Zeitpunkt gibt, an dem die Maschinen sich forciert selber verbessern, so dass nach den Fach-Genies ein maschinelles Universal-Genie folgen kann. Der Punkt, an dem die Menschen dieser Universal-KI eine starke Intelligenz zuerkennen, die exponentiell wächst und die Intelligenz der Menschen schnell um ein Vielfaches überschreiten wird. Es ist der Scheidepunkt, an dem es kein Zurück mehr gibt in eine Welt ohne diese KI. Wenn der Universal-KI eine Entscheidungs- und Handlungskompetenz zuerkannt wird, wird die Gesellschaft eine andere sein, eine positiv-utopische oder eine negativdystopische Gesellschaft, je nachdem, welchen Moralstandpunkt die KI vertreten wird.
Interacting with educational chatbots: A systematic review. Education and Information Technologies: The Official Journal of the IFIP Technical Committee on Education
  • M A Kuhail
  • N Alturki
  • S Alramlawi
  • K Alhejori
Kuhail, M. A., Alturki, N., Alramlawi, S., & Alhejori, K. (2022). Interacting with educational chatbots: A systematic review. Education and Information Technologies: The Official Journal of the IFIP Technical Committee on Education, S. 1-46
The next generation of AI assistants in enterprise
  • A Nichol
  • O'reilly Radar
Nichol, A. (2018): The next generation of AI assistants in enterprise", O'Reilly Radar, https://www.oreilly.com/radar/the-next-generation-of-ai-assistants-inenterprise/ (Abruf am 5.12.22)
Your Guide to Five Levels of AI Assistants in Enterprise
  • Alex Weidauer
Weidauer, Alex (2018): Your Guide to Five Levels of AI Assistants in Enterprise", Rasa, https://rasa.com/blog/conversational-ai-your-guide-to-five-levels-of-aiassistants-in-enterprise/ (Abruf am 10.12.22)
Kann ChatGPT seine Antworten auch limitieren auf einen bestimmten Datenbestand? Könnte z.B. eine Hochschule sich wünschen, dass nur das eigene Wiki der Hochschule für Antworten genutzt wird?
  • Frage
Frage: Kann ChatGPT seine Antworten auch limitieren auf einen bestimmten Datenbestand? Könnte z.B. eine Hochschule sich wünschen, dass nur das eigene Wiki der Hochschule für Antworten genutzt wird?