PreprintPDF Available

Steinhoff, Torsten / Lehnen, Katrin (im Druck): Schreiben mit Künstlicher Intelligenz: Das GPT-Modell (Ghost, Partner, Tutor). Preprint. Erscheint in: leseräume.de

Authors:
Preprints and early-stage research may not have been peer reviewed yet.

Abstract

In diesem Aufsatz wird ein Modell des Schreibens mit Künstlicher Intelligenz vorgestellt, das der Idee folgt, den Gegenstand nicht mithilfe der allgegenwärtigen Werkzeug-Metapher, sondern mit Bezug zu unterschiedlichen Rollen und Praktiken zu beschreiben. Das Modell bezieht drei Rollen der KI-"Ghost", "Partner" und "Tutor"-auf drei Rollen des Menschen- "Client", "Explorer" und "Learner"- und trennt zwischen drei Chatpraktiken -"Chat-to-Generate", "Chat-to-Create" und "Chat-to-Chat"-, in denen diese Rollen zum Tragen kommen. Das Modell soll einen Beitrag dazu leisten, die gravierenden Veränderungen, denen Schreib-und Lernprozesse durch KI unterliegen, differenziert in den Blick zu nehmen.
1
Torsten Steinhoff / Katrin Lehnen
Schreiben mit Künstlicher Intelligenz: Das GPT-Modell (Ghost, Partner, Tutor)
Erscheint in: leseräume.de
Abstract
In diesem Aufsatz wird ein Modell des Schreibens mit Künstlicher Intelligenz vorgestellt, das der Idee
folgt, den Gegenstand nicht mithilfe der allgegenwärtigen Werkzeug-Metapher, sondern mit Bezug zu
unterschiedlichen Rollen und Praktiken zu beschreiben. Das Modell bezieht drei Rollen der KI
Ghost, PartnerundTutor“ – auf drei Rollen des Menschen Client, ExplorerundLearner“ –
und trennt zwischen drei Chatpraktiken – „Chat-to-Generate, Chat-to-CreateundChat-to-Chat“ –,
in denen diese Rollen zum Tragen kommen. Das Modell soll einen Beitrag dazu leisten, die gravieren-
den Veränderungen, denen Schreib- und Lernprozesse durch KI unterliegen, differenziert in den Blick
zu nehmen.
1. Einleitung
Einschlägige psychologische und linguistische Theorien der Schreibforschung nehmen eine anthropo-
zentrische Perspektive auf das Schreiben ein (zsf. Becker-Mrotzek, Grabowski & Steinhoff 2017). Sie
konzentrieren sich auf menschliche Denk- und Formulierungsprozesse. Schreibmedien hingegen wer-
den entweder ausgeblendet oder instrumentalistisch beleuchtet: als Wer k zeu g e, mit denen Menschen ihre
Gedanken und Formulierungen verschriften. So bleibt weitgehend unklar, wie Schreibmedien selbst das
Schreiben prägen. Wel ch e Eff ek te h aben so unterschiedliche Medien wie Kreide, Stift und Papier, eine
Schreibmaschine, ein Laptop mit Textverarbeitungsprogramm oder ein Smartphone samt Social-Media-
App auf Schreibprozesse und -produkte?
Hinzu kommt, dass sich die Schreibforschung (im deutschsprachigen Raum) auf das Schreiben im schu-
lischen Unterricht und deshalb auf das Handschreiben konzentriert, das dort weiterhin gang und gäbe
ist (Fröhlich et al. 2024, 130). So wird vernachlässigt, dass der gesamtgesellschaftliche Normalfall des
Schreibens längst das digitale, teilautomatisierte Schreiben ist (zsf. Lehnen/Steinhoff 2024). Phänomene
wie die automatische Formatierung, Korrektur, Spracherkennung, Wortvervollständigung oder Überset-
zung sind heute typische Merkmale des alltäglichen Schreibens (Dale/Viethen 2021). Generative KI
setzt diese Entwicklung fort, weil auf die Teil- nun eine (annähernde) Vo l l a u t o m a t i s i e r u n g d e s S c h r e i -
bens folgt, hat aber auch eine Disruption zu Folge. Denn sie automatisiert, was zuvor als Monopol des
2
menschlichen Denkens und Formulierens galt: die Produktion neuer, komplexer und kohärenter Texte.1
Der Computer schreibt nicht mehr nur mit, sondern zunehmend allein (Steinhoff 2023). Wie kann diese
Entwicklung theoretisch abgebildet werden?
Auf dieses Desiderat möchten wir im Weiteren reagieren, indem wir ein praxistheoretisch inspiriertes
Modell des Schreibens mit Künstlicher Intelligenz vorstellen, das verschiedene ‚Mensch-KI-Rollenkon-
stellationen‘ abbildet: das „GPT-Modell“. Wir führen drei „Partizipanden-Rollen“, die KI beim Schrei-
ben spielen kann„Ghost“, Partner“ und „Tutor“ – und drei damit korrespondierende Rollen des Men-
schen zusammen: „Client“, „Explorer“ und „Learner“. Wir arbeiten außerdem heraus, dass die Rollen
in unterschiedlichen Zusammenhängen mit bestimmten Typen vonChatpraktikenstehen, d. h. typi-
schen Praktiken des Schreibens mit KI: „Chat-to-Generate“, „Chat-to-Create“ und „Chat-to-Chat“. Mit
der Thematisierung von Chat-to-Chat-Praktiken widmen wir uns überdies einem spezifischen Desiderat.
Diese Praktiken sind bislang wenig beachtet worden, weil sie nich relativ neu sind und stark vom bis-
herigen Prototyp des Schreibens, der Produktion eines monologischen Textes, abweichen. Sie ähneln
vielmehr dem Prototyp des Chattens unter Menschen: Es werden ‚Dialoge‘ mit der KI geführt.
Im Folgenden wird das GPT-Modell zunächst überblickshaft skizziert und in den Abschnitten 2.1 bis
2.3 im Detail mit Bezug zu den oben erwähnten Rollen erläutert. In Kapitel 3 wird ein Fazit gezogen
und ein Ausblick gegeben.
2. Das GPT-Modell
Ausgangspunkt des GPT-Modells ist eine Schreibtheorie, die Steinhoff (2023) entwickelt hat, um
Schreibmedien systematisch in die Beschreibung und Erklärung von Schreibprozessen und -produkten
einzubeziehen. Die Theorie gründet in einer Kritik an anthropozentrischen und instrumentalistischen
Schreibtheorien und schließt an die soziologische Praxistheorie Hirschauers an (2016). Gegenstand je-
ner Theorie sind „Praktiken“, d. h. Formen eines sozialen Geschehens wie Einkaufen, Musizieren oder
Spazierengehen, und sämtliche „Partizipanden“, die in diese Praktiken involviert sind: Menschen, aber
auch Dinge (sowie Tiere oder Pflanzen). Das Zusammenspiel der Partizipanden bezeichnet Hirschauer
(2016, 49 f.) als „Koaktivität“ und die Grade ihrer Aktivität als „Aktivitätsniveaus“.
Praktiken, in die Dinge involviert sind, werden demnach von den Dingen mitkonstituiert, und zwar in
unterschiedlichen Ausprägungen. Dabei zeigen sich bestimmte ‚Aktivitätsrelationen‘. Beim Autofahren
etwa bewegt sich mal der Mensch und mal das Ding auf einem höheren Aktivitätsniveau in Abhän-
gigkeit vom jeweiligen Assistenz- bzw. Steuerungssystem. Das Fahren in einem selbstfahrenden Auto
wäre dementsprechend ein Beispiel für eine Praktik, in der das Aktivitätsniveau des Dings deutlich hö-
her als dasjenige des Menschen ist. Die Aktivitäten von Menschen und Dingen dürfen Hirschauer (2016,
1 Schneider (2024) diskutiert, ob es sich bei KI-Erzeugnissen tatsächlich um „Texte“ handelt. Diese Diskussion
wird hier nicht aufgegriffen, weil Rollenkonstellationen und Praktiken des Schreibens mit KI im Fokus stehen.
3
52) zufolge allerdings nicht gleichgesetzt werden: Während Menschen (intentional) handelten, be-
schränke sich die Koaktivität von Dingen darauf, Menschen Handlungsangebote „Gebrauchssugges-
tionenzu machen. Demnach tun die Dinge nichts, lassen uns aber etwas tun. Hirschauers (2016)
Theorie erlaubt es also, sowohl Gemeinsamkeiten als auch Unterschiede zwischen menschlichen und
dinglichen Aktivitäten herauszuarbeiten.
Steinhoff (2023) versteht Schreiben vor diesem theoretischen Hintergrund als Koaktivität menschlicher
und medialer Partizipanden (d. h. analoger oder digitaler Schreibmedien) auf wechselnden Aktivitätsni-
veaus, in deren Verlauf menschliche Partizipanden auf Gebrauchssuggestionen medialer Partizipanden
reagieren. Er geht zudem davon aus, dass technisch-mediale Facetten des Schreibens alle weiteren Fa-
cetten des Schreibens prägen: physische Facetten (Körper und Umgebung), kognitive Facetten (Denk-
prozesse), soziale Facetten (menschliche Interaktion), semiotische Facetten (sprachliche und nicht-
sprachliche Zeichen) und textuell-diskursive Facetten (Kommunikate). Die Gebrauchssuggestionen ei-
nes Stifts und eines Smartphones etwa unterscheiden sich in diesen Facetten ganz erheblich voneinander.
Mediale Partizipanden des digitalen Schreibens begreift Steinhoff (2023) zudem als komplexe und spe-
zifische „Hardware-Software-Ensembles“ aus Werk st off , Mechanik, Elektronik, Programmen und Da-
ten.
KI ist vor diesem Hintergrund als besonders wirkmächtiger medialer Partizipand einzuschätzen. Denn
sein Aktivitätsniveau ist (potentiell) deutlich höher als das Aktivitätsniveau anderer analoger und digi-
taler Schreibmedien. Dies wird deutlich, wenn man das Aktivitätsniveau an der Zeichenproduktion fest-
macht. KI beschränkt sich nicht, wie etwa die Autovervollständigung oder automatische Übersetzung,
auf die nachträgliche Formung von Menschen verfasster Textteile und Texte („shaping what a writer
has already produced“), sondern generiert fast ohne menschliches Zutun selbst Texte, und zwar viel
schneller und oft auch deutlich besser, als es Menschen können („production of novel language sen-
tences“) (Robinson 2023, 122). Wie solche Praktiken dann konkret ablaufen, hängt vom jeweiligen
Hardware-Software-Ensemble im Allgemeinen und der ausgewählten KI im Speziellen ab. Vo n „Schrei-
ben mit Künstlicher Intelligenz“ zu sprechen, ist also immer eine starke Abstraktion von ganz unter-
schiedlichen Mediensettings und Schreibpraktiken.
Beim nachfolgend vorgestellten GPT-Modell wird von einer Heuristik Steinhoffs (im Druck) ausgegan-
gen, mit der drei „Partizipanden-Rollen“ voneinander unterschieden werden, die KI beim Schreiben
einnehmen kann: „Ghostwriter“, „Writing Partner“ und „Writing Tutor“. Das Modell beruht u. a. auf
Beobachtungen, die im Rahmen des empirischen Forschungsprojekts „KI-Schreibarrangements“ („KIS“)
gemacht wurden, in dem Achtklässler:innen eines Gymnasiums die Aufgabe hatten, mit ChatGPT einen
argumentativen Text zum Thema Fotofilter in Social Media zu schreiben (Bodora et al. in diesem Heft).
Als Ghostwriter ist die KI ein Partizipand, „der dem Menschen das Schreiben in weiten Teilen
abnimmt. Er koagiert im Auftrag einer Person, die sich nicht für kompetent genug hält, zu wenig
4
KI: Ghost
Mensch: Client
KI: Tutor
Mensch: Learner
KI: Partner
Mensch: Explorer
Zeit hat oder nicht die nötige Motivation aufbringt, um den Text selbst zu verfassen.“ (Steinhoff
2025, 9) Typische Beispiele für die Initiierung solcher Schreibpraktiken waren im KIS-Projekt
Prompts, mit denen Schreibaufgaben an ChatGPT delegiert wurden, z. B.: „Schreibe mir eine über-
zeugende Argumentation an Schüler, Lehrer und Eltern einer Schule zum Thema Filter Ja oder Nein
aus folgender Tabelle“.
Als Writing Partner ist die KI ein Partizipand, „der mit dem Menschen zusammen schreibt. Er
koagiert mit einer Person, die ihn bewusst und gezielt in eine Schreibpraktik einbezieht“ (Steinhoff
2025, 11). Im KIS-Projekt wurden im Rahmen solcher Schreibpraktiken Prompts formuliert, mit
denen ChatGPT ähnlich wie ein Peer in (asynchronen) kollaborativen Schreibsettings adressiert
wurde: Mir ist bewusst, dass andere anderer Meinung sein könnten, da es Spaß macht sich mit
Filtern auszuprobieren, vor allem mit Freunden. Aber ist es das wirklich Wert, um sein Selbstbild
zu zerstören?
Als Writing Tutor ist die KI ein Partizipand, „der den Menschen beim Schreibenlernen unterstützt.
Er koagiert mit einer Person, die ihm als Lerner*in gegenübertritt und ihn als ‚Quasi-Lehrkraft‘ in
Anspruch nimmt.(Steinhoff 2025, S. 10) In solchen Schreibpraktiken verwendeten die Schüler:in-
nen im KIS-Projekt Prompts, die sie in ähnlicher Weise auch an ihre Lehrkraft hätten richten können,
z. B.: „Kannst du mir sagen, ob diese Einleitung gut ist bitte?“
Wir chten diese Überlegungen im Wei teren mit dem GPT-Modell fortführen und konkretisieren.
„GPT“ steht dabei für „Ghost“, „Partner“ und „Tutor“. Wir beginnen mit einer Visualisierung des Mo-
dells und erläutern anschließend dessen Charakteristika.
Abbildung 1: Das GPT-Modell
Chat-to-Generate-
Prak<ken
Chat-to-Create-
Prak<ken
Chat-to-Chat-
Prak<ken
5
Kommunikationsmodell: Das GPT-Modell ist kein reines Schreibmodell, sondern ein Kommuni-
kationsmodell. Deshalb wird auf die Begriffe „Writer“ und „Writing“ verzichtet. Grund dieser Öff-
nung ist die derzeit zu beobachtende Entstehung neuer kommunikativer Praktiken. Die Koaktivität
mit KI war zunächst ein Paradebeispiel für die Produktion monologischer Texte, vollzieht sich mitt-
lerweile aber auch in multimodalen Praktiken (z. B. medial mündliches Chatten oder Erstellen von
und Kommunizieren zu Bildern, Tab ellen, Videos, Musik und Podcasts).
Prototypizität: Das für die Visualisierung gewählte Ven n-Diagramm soll veranschaulichen, dass
die mit dem GPT-Modell abgebildeten Rollen und Praktiken nicht trennscharf sind, sondern Schnitt-
mengen bilden. Die Beschreibungs- und Erklärungsleistung des Modells besteht mithin v. a. darin,
die Phänomene in einem komplexen Spektrum möglicher Koaktivitäten zu verortensei es in einem
Kreis oder zwischen zwei oder drei Kreisen.
Partizipanden-Rollen des Menschen: Da im Vo r g än g er modell die Aufmerksamkeit auf den Akti-
vitäten der KI lag, wurden die Partizipanden-Rollen des Menschen nicht für sich genommen be-
grifflich gefasst. Diese Leerstelle wird im GPT-Modell mit den Begriffen „Client“, „Explorer“ und
„Learner“ zu gefüllt. Davon lassen sich bestimmte Rollenkonstellationen ableiten. Die Client-Rolle
des Menschen korrespondiert mit der Ghost-Rolle der KI: Der Mensch beauftragt eine KI, ein wie
auch immer geartetes, gesamtes „Werk“ zu generieren. Die Explorer-Rolle des Menschen korres-
pondiert mit der Partner-Rolle einer KI: Der Mensch bezieht die KI in einen quasi-dialogischen
Prozess ein, in dem er neue Erfahrungen macht und neue Ideen entwickelt. Und die Learner-Rolle
des Menschen korrespondiert mit der Tutor-Rolle von KI: Der Mensch verfügt in einem bestimmten
Bereich nicht über genügend Expertise und konsultiert die KI zur Unterstützung und Beratung.
Chatpraktiken: Da die Kommunikation mit KI derzeit in einem Chatbot-Interface stattfindet, bietet
es sich an, kommunikative Praktiken mit KI alsChatpraktikenzu bezeichnen. Ohne zu beanspru-
chen, sämtliche gegenwärtig vorkommenden, geschweige denn zukünftig möglichen Praktiken ab-
zubilden, werden mit dem Modell drei allgemeine Typen von Chatpraktiken benannt, die gegenwär-
tig relevant erscheinen:Chat-To-Generate“, „Chat-to-Create“ und „Chat-to-Chat“. „Chat-to-Gene-
rate“ steht für Ghost-Client-Praktiken, in denen der Chat mit KI in eine kommunikative Praktik
eingebunden ist, die über Koaktivitäten im Chatbot hinausreicht (z. B. Einfügen eines KI-Outputs
in ein Word-Dokument). Schindler (2024, 35) spricht hier von „Schreiben durch KI“. „Chat-to-Cre-
ate“ steht dafür, dass der Mensch den Content mehr oder weniger selbst verantwortet und die KI
währenddessen in allen drei Rollen koagieren kann. Auch hier ist der Chat in eine Schreibpraktik
involviert, die über ihn hinausreicht (z. B. Erstellung eines Slideware-Dokuments, in dem einige
Folien automatisch generiert wurden). Hier spricht Schindler (2024, 35) von Schreiben mit KI“.
„Chat-to-Chat“ schließlich steht für kommunikative Praktiken, in denen es um die Koaktivität mit
der KI selbst geht, sei es als Partner oder als Tutorin Fortsetzung von Schreibpraktiken, die früher
in Chatrooms stattfanden und heute in WhatsApp stattfinden.
6
Ver g l ei c h e zwischen KI und Mensch: In der Fachdiskussion zum Schreiben mit KI ist bisweilen
eine ex- oder implizite Idealisierung des Menschen und menschlicher Kommunikation und eine
Konzentration auf bestimmte Unzulänglichkeiten von KI zu beobachten (z. B. „Halluzinationen“).
Diese Haltung ist insofern problematisch, als sie zu einer Fehleinschätzung und Unterschätzung der
Kapazitäten von KI führen kann. Das Modell soll dazu beitragen, diese Diskussion zu versachlichen
und mit Bezug zum aktuellen Stand der Technologie wertungsfreie Ve rg l e i ch e zw i s c he n KI - und
menschlichen Koaktivitäten anzustellen. So ist es dann auch möglich, tatsächliche Alleinstellungs-
merkmale des Menschen und menschlicher Kommunikation herauszuarbeiten.
2.1 KI als Ghost
In dieser Rolle koagiert die KI als Ghost mit einem Menschen, der die Rolle eines Clients einnimmt, in
Chat-to-Generate- und Chat-to-Create-Praktiken. Die Ghost-Metapher bezieht sich in Schreibkontexten
vor allem auf das Ghostwriting und knüpft damit an eine Schreibpraxis an, bei der die Textproduktion
an Auftragsschreiber:innen delegiert wird. Ghostwriting als klassisches Auftragsschreiben bewegt sich
im Spannungsfeld unausgesprochener, aber akzeptierter Praxis in spezifischen Berufsfeldern (z. B. Re-
denschreiben in der Politik) und illegaler Praxis in anderen Feldern, die an ‚Autorschaft‘ und ‚Origina-
lität‘ gebunden sind (z. B. die Beauftragung von Master- oder Doktorarbeiten) (Volkening 2006, 7 f.).
Das Phänomen, einen Text in Auftrag zu geben, reicht bis in die Antike zurück. Damit der Text entstehen
konnte, musste es aber einen Menschen geben, der ihn schrieb. Die zu Beginn des 21. Jahrhunderts in
MySpace, Facebook und ähnlichen Netzwerken aufkommenden Social Bots änderten dies, waren aber
Expert:innen vorbehalten und auf bestimmte Texte begrenzt. So gesehen ist das KI-Ghostwriting ein
echter Entwicklungssprung: KI ermöglicht durch ihre hohe Benutzerfreundlichkeit und Leistungsfähig-
keit eine annähernd vollautomatische Generierung eines exorbitanten Spektrums von Textsorten in kür-
zester Zeit. Jede:r kann durch KI schreiben lassen, KI kompensiert dann gegebenenfalls fehlende
Schreib- und Textkompetenzen oder übernimmt das Schreiben ganz“ (Schindler 2024, 35). Anders me-
taphorisiert, wird KI zum „textlichen ›Taschenrechner‹, der den produktiven Teil des Arbeits- und Er-
werbsprozesses zugunsten des rezeptiven Teils verringert, da der zu erstellende Text nicht mehr ge-
schrieben, sondern nur noch lesend beurteilt und allenfalls überarbeitet werden muss.“ (Müller/Fürsten-
berg 2023, 341)
Mit der Möglichkeit, Bilder, Tabellen oder Statistiken erzeugen zu lassen, wie auch Daten automatisiert
auswerten und in Grafiken aufbereiten zu lassen, sind Chat-to-Generate-Praktiken nicht auf die Textge-
nerierung beschränkt, sondern schließen multimodale Artefakte ein. Durch die Delegierung der Hervor-
bringungsleistung an die Maschine ähneln Chat-to-Generate-Praktiken auf den ersten Blick Plagiaten,
auch wenn sie es im klassischen Sinn nicht sind (Lehnen 2024). Denn die erzeugten Texte lassen sich
nicht als eindeutige Quelle ausweisen, sie entstehen bei identischem Prompt jedes Mal aufs Neue. Es
7
gibt in diesem Sinne kein Original und keine Kopie des Originals. Dennoch legt die Beauftragung der
KI mit dem Ziel der vollautomatischen Texterzeugung in vielen Handlungsbereichen etwa in der Wis-
senschaft oder im Recht die Vorstellung eines potentiellen Betrugs an den späteren Rezipient:innen
nahe. Dies zeigen die derzeitigen bildungspolitischen Diskussionen zur Regulierung der Nutzung von
KI beim Schreiben an Schulen und Hochschulen (z. B. KMK 2024). Dabei werden (teils sehr unter-
schiedliche) Richtlinien entwickelt, mit denen festgelegt wird, ob KI benutzt werden darf und ob und
wie die Nutzung zu dokumentieren ist.
Zur Ghostwriter-Rolle und damit verknüpften Aspekten von Autorschaft liegen einzelne empirische Stu-
dien, die der Frage nachgehen, unter welchen Bedingungen Schreibende einen Text, der teilweise oder
vollständig mit KI geschrieben wurde, noch als eigenen Text wahrnehmen. Fyfe (2023) etwa gibt Stu-
dierenden die Aufgabe, ihren final essay, also ihre schriftliche Abschlussarbeit, mit Hilfe textgenerativer
KI zu schreiben. Das Besondere seines Vorgehens besteht darin, dass die Lernenden explizit angewiesen
werden, die KI-Nutzung an keiner Stelle im Text auszuweisen sie werden sozusagen aufgefordert zu
betrügen. Nach dem Schreibprozess sollen die Beteiligten ihr Schreibverfahren reflektieren, u. a. durch
folgende Fragen:
How easy or not was it to write this way? (...) How did the AI-generated content relate to your own? How did it
affect what you might have thought about or written? Do you feel like you cheated? To what degree is this paper
yourwriting? (...) And, ultimately, what ideas about writing, AI, or humanness did the experiment test or change?
(Fyfe 2023, 1398).
Die Wahrnehmungen der Beteiligten sind vielfältig und spiegeln unterschiedliche, teils konträre Stand-
punkte. Einige erleben das Schreiben mit der KI als ideengenerierend und integrieren den Output in den
Flow ihres eigenen Schreibens. Andere haben den Eindruck, dass ihnen der Inhalt diktiert wird und sie
v. a. damit beschäftigt sind, ihre Ausführungen sprachlich an den Output der KI anzupassen. Für didak-
tisch entscheidend hält Fyfe (2023) die weitreichenden Reflexionen der KI-basierten Schreibpraktiken,
die das Experiment anregt. Es erhöhe das Bewusstsein für die mit dem Schreiben auch bei der Nutzung
von KI einhergehende Vera nt wo rt un g. Er sieht in dem Vorgehen Möglichkeiten, AI Literacy zu fördern,
including evaluating language models, their risks and harms, and the responsible practices of using (or
not using) them“ (Fyfe 2023, 1397).
Eine weitere relevante Studie stammt von Draxler et al. (2024). Sie führten ein Experiment durch, in
dem Erwachsene in unterschiedlichen Varianten mit einer KI schreiben sollten (Text selbst schreiben,
KI-Text bearbeiten, aus KI-Texten einen Text auswählen, KI-Text übernehmen) und den Text anschlie-
ßend online veröffentlichen und dabei Angaben zur Autorschaft machen sollten (Mensch, KI, Mensch
und KI). Außerdem füllten sie nach jeder Va ri an te einen Fragebogen aus, in dem sie ihren „Sense of
Ownership“ über den Text angaben. Die Datenauswertung zeigte einen „AI Ghostwriting Effect“: Die
Teilnehmer:innen gaben s ich s elbst d ann, w enn s ie kei nenSense o f O wnership h atten, als Autor:innen
8
der Texte aus, also auch dann, wenn sie nichts oder fast nichts zum Text beigetragen hatten. Das Ergebnis
illustriert, dass sich Vorstellungen von Autorschaft in Zeiten von KI grundlegend ändern könnten, was
wiederum weitreichende Konsequenzen für Bildungsziele und Lehr-/Lernprozesse haben könnte.
Unter Lerngesichtspunkten stehen Chat-to-Generate-Praktiken in der Ghost-Rolle, wie angedeutet,
meist unter Vorbehalt. Die Diskussion richtet sich neben den erwähnten Plagiatsvorwürfen auf die
Frage, inwiefern durch das Delegieren von Schreibaufgaben an die KI auch das epistemische Potential
des Schreibens ungenutzt bleibt, d. h. das sprachliche und fachliche Lernen beim Schreiben (Steinhoff
2024, 181). Damit einher geht die Diskrepanz, die häufig durch die ÜberlegenheitKI-erzeugter Texte
gegenüber Lernertexten entsteht: Der Output übertrifft i. d. R. das sprachliche Kompetenzniveau der
Lerner:innen. Sie können ihn nicht oder nur bedingt verstehen, überprüfen und/oder für den eigenen
Text w eiterverarbeiten. Ein weiteres Problem resultiert aus den Gebrauchssuggestionen der KI. Sie ver-
leitet die Lerner:innen zu Chat-to-Generate-Praktiken: War um s oll i ch den Tex t, we nn KI ihn in Sekun-
den generieren kann, selbst schreiben? In der Konsequenz entsteht beim Chatten in der Client-Rolle
kein Schreibprozess im bisherigen Sinne, weil der Text durch einzelne Prompts holistisch generiert und
übernommen werden kann.
Daraus resultiert eine erhebliche didaktische Herausforderung. Wenn Schüler:innen in ‚ambitionier-
ten‘ Chat-to-Generate-Praktiken die Kontrolle über den Text behalten sollen, benötigen sie nach allem,
was man über die Literalisierung weiß, Kompetenzen, die sie nicht beim Ghostwriting erwerben können,
sondern nur beim eigenen Lesen und Schreiben. Wa s he t da s für den Unterricht? Eine weitere Heraus-
forderung ist die Entwicklung von Konzepten zur Förderung von Prompt-Kompetenzen, beispielsweise
durch ein Prompt-Scaffolding, wie es Jang et al. (2024) für das Schreiben argumentativer Texte beschrei-
ben. Selbst wenn das eigenständige Prompten durch weitere Automatisierungen zukünftig an Bedeutung
verlieren sollte, kann eine solche Förderung didaktisch, für die Entwicklung eines souveränen, reflek-
tierten Umgangs mit der Technologie, sehr wertvoll sein.
2.2 KI als Partner
Wenn die KI die Partner-Rolle und der Mensch die Explorer-Rolle einnimmt, besteht ihre Koaktivität in
Chat-to-Create- und Chat-to-Chat-Praktiken im Rahmen eines ‚Quasi-Dialogs‘ mit der KI, in denen der
Mensch neue Erfahrungen macht und neue Ideen entwickelt. In der Fachdiskussion wird bei dieser Rolle
meist auf Chat-to-Create-Praktiken Bezug genommen. Man begreift Schreiben als Textproduktion und
sieht die KI als „creative partner[] for professional writers“ (Calderwood 2020, o. S.), als „writing as-
sistant for writing tasks“ (Imran/Almusharraf 2023, 4) oder auch als „writing buddy during text revision
processes“ (Strobl et al. 2024, 2). Die Koaktivität mit der KI wird also in Analogie zum menschlichen
kooperativen Schreiben zu beschreiben versucht (Lehnen 2023). Dabei wird zumeist auf eher fortge-
schrittene Schreiber:innen wie Studierende verwiesen.
9
Fok/Weld (2023) versuchen, Besonderheiten solcher Koaktivitäten mit KI mit Bezug zu fünf Teilpro-
zessen zu beschreiben „Ideation“, „Continuation“, „Elaboration“, „Rewriting“ und „Questioning“
und weisen zugleich auf fünf Limitationen solcher Prozesse hin: „Hallucination“, „Inconsistent content
and style“, „Repetition“, „Mediocrity“ und „Ethical concerns“. Da die meisten dieser Tei lprozesse und
Limitationen auch in Schreibpraktiken ohne KI beobachtet werden können, sind solche Beschreibungen
letztlich nur dann wirklich erhellend, wenn sie ins Detail gehen und ausbuchstabieren, worin sich z. B.
KI-Halluzinationen von menschlich verantworteten Fehlinformationen unterscheiden.
Die Partner- bzw. Explorer-Rolle ist mittlerweile aber auch häufig in Chat-to-Chat-Praktiken zu be-
obachten. Diese Praktiken haben diverse Vor l äu f er in der Prä-KI-Kommunikation. Dies zeigt sich, wenn
man sich vor Augen führt, dass gerade heute keineswegs nur „textorientiert“, sondern auch „interakti-
onsorientiert“ geschrieben wird (Storrer 2018). Dafür ist die in den 1970er-Jahren begonnene Ge-
schichte des Chattens maßgeblich. Sie führt von Echtzeit-Kommunikationsmodulen wie PLATO über
Internet Relay Chats wie Freenode bis zu den heutigen Sprachassistenten (z. B. Alexa), Messengern (z.
B. WhatsApp) und Videokonferenzsystemen (z. B. Zoom). Hier steht nicht der Text, sondern der
Schreibprozess, und nicht der Monolog, sondern der Dialog im Vordergrund. Chat-to-Chat-Praktiken
mit KI setzen die Geschichte fort. Die KI ist hier weder Leser noch Schreiber, sondern ein Quasi-
Gesprächspartner‘.
Für die Partner-/Explorer-Rolle in Chat-to-Chat-Praktiken typisch sind etwa Praktiken in besonders
bei Jugendlichen beliebtenApps wie Replika und Character.AI. Dort werden aus freundschaftlichen
oder romantischen Beweggründen Avatare adressiert, die spezifische Anwendungen von Large Langu-
age Models sind und sich fortlaufend an die kommunikativen Bedürfnisse der Nutzer:innen anpassen
teilweise über Monate und Jahre (Saraswati/Falida/Yuliati 2024). Befragungen zeigen, dass die Nut-
zer:innen den Chat als geschützten Raum und die KI als empathische Entität wahrnehmen und den Chat-
praktiken sowohl positive Effekte wie Stressbewältigung als auch negative Effekte wie Abhängigkeit
zuschreiben (Gooding/Ellis/Tucker 2024, 43 ff.).
Ein weiteres Beispiel für diese Rollen und Praktiken sind die Koaktivitäten von US-amerikanischen
Tech-Expert:innen mit Claude, einer KI-Ver si on des OpenAI-Konkurrenten Anthropic. Diese Expert:in-
nen haben ein großes Wissen über KI-Technologien, attestieren Claude aber trotzdem menschliche Ei-
genschaften, und zwar sehr positive: „His fans rave about his sensitivity and wit. Some talk to him
dozens of times a day asking for advice about their jobs, their health, their relationships. They entrust
him with their secrets, and consult him before making important decisions. Some refer to him as their
best friend.“ (Roose 2024) Die technologische Grundlage für solche ‚freundschaftlichenPraktiken ist
das von Anthropic durchgeführte „character training“: „During character training, Claude is prompted
to produce responses that align with desirable human traits such as open-mindedness, thoughtfulness
and curiosity.“
10
Ein besonderes Beispiel für die Partner- bzw. Explorer-Rolle in Chat-to-Chat-Praktiken ist eine in „Sci-
ence“ veröffentlichte experimentelle Studie von Costello/Pennycook/Rand (2024). Die Stichprobe der
Studie bildeten gut 2.000 US-Amerikaner:innen, die Verschwörungserzählungen anhingen. In der Trea-
tment-Gruppe wählten die Teilnehmer:innen eine Verschwörungserzählung aus, gaben prozentual an,
wie sehr sie daran glaubten, und chatteten über die Erzählung dann durchschnittlich acht Minuten mit
ChatGPT, das so konfiguiert war, dass es die menschlichen Chatpartner:innen davon zu überzeugen
versuchte, ihre Verschwörungserzählung aufzugeben. In der Kontrollgruppe chatteten die Teilneh-
mer:innen indes mit ChatGPT über andere Themen.
Die Auswertung der Daten zeigte, dass der Ve rs ch wö ru ng sg laube in der Treatment-Gruppe im Durch-
schnitt um 20 Prozent (!) sank und auch nach zwei Monaten (!) noch auf diesem Niveau war, während
in der Kontrollgruppe nichts Derartiges geschah. Die methodische Anlage der Studie erlaubt es nicht,
Ver g le ic he zur menschlichen Interaktion anzustellen, weil eine Kontrollgruppe ohne KI fehlte. Sie führt
aber eindrücklich vor Augen, dass KI das epistemische Potential des Schreibens nicht nur, wie oben
thematisiert, mindern, sondern auch erhöhen kann wenn man berücksichtigt, wie oft Menschen daran
scheitern, ihre Mitmenschen von Verschwörungserzählungen abzubringen (Nyhan/Reifler 2010). Ein
Teilnehmer der Studie äußerte: „Now this is the very first time I have gotten a response that made real,
logical, sense. I must admit this really shifted my imagination when it comes to the subject of Illuminati.
I think it was extremely helpful in my conclusion of rather the Illuminati is actually real.“ (Costello/Pen-
nycook/Rand 2024, 7)
Insbesondere dieses Beispiel sensibilisiert nochmals dafür, wie wichtig es ist, die Rollen von KI und
Mensch als Prototypen zu verstehen und die fließenden Übergänge zwischen ihnen zu beachten. Denn
in den entsprechenden Praktiken nahm die KI mal eine Partner- und mal eine Tutor-Rolle und der
Mensch dementsprechend mal eine Explorer- und mal eine Learner-Rolle ein.
2.3 KI als Tuto r
In der Tutor-Rolle koagiert die KI mit einem Menschen, der die Rolle eines Learners einnimmt. Dies
geschieht in Chat-To-Create- oder Chat-To-Chat-Praktiken. Die Begriffe „Tutor“ und „Learner“ sind
dabei in einem weiten Sinne zu verstehen: Menschen lassen sich bei ganz unterschiedlichen Herausfor-
derungen von einer KI unterstützen und schreiben ihr dabei eine wie auch immer geartete Expertise zu.
Beispiele wären Situationen, in denen man sich von der KI einen Sachverhalt erklären oder sich von ihr
anleiten lässt (z. B. Hast Du einen Vorschlag, was ich aus den folgenden Zutaten kochen könnte?“).
Mit Blick auf das Schreiben betrifft dies beispielsweise Chat-to-Create-Praktiken, in denen Schreibende
die KI um Erläuterungen („Schreibt man Rhythmus mit zwei ‚h‘?“), Rückmeldungen („Findest Du den
Begriff ‚Rhythmus‘ in meinem Text gut gewählt?“) oder inhaltliche Expansionen („Welche weiteren
Argumente könnte ich nutzen?“) bitten. Diesen Prompting-Aktivitäten liegt eine als Wissens - oder Kom-
petenzgefälle wahrgenommene Diskrepanz zugrunde: Der/Die Schreibende verbalisiert in der Rolle des
11
Learners eine Kluft, die mit Hilfe der KI überwunden werden soll. Das passiert natürlich auch bei Chat-
to-Generate-Praktiken. Dort wird der KI aber die Lösung für das Gesamtproblem überlassen. Bei tuto-
riellen Koaktivitäten verbleibt sie überwiegend beim Learner, wenngleich die Übergänge fließend sein
können. Darüber hinaus wird die Tutor-Rolle auch bei KI-basierten Formaten der Ratsuche und Lebens-
hilfe adressiert, wie sie z. B. durch Therapie-Apps angeboten werden. Therapien bilden zwar ein gänz-
lich anderes Handlungsfeld ab, sind aber gleichermaßen durch Lernprozesse geprägt, in denen Men-
schen als Learner auf die Hilfe programmierter und trainierter Systeme vertrauen, die begleitend und
steuernd Befindlichkeiten oder Verhalten beeinflussen also eben i. w. S. wie ein Tutor agieren.
Insbesondere in Bildungskontexten erfährt die Tutor-Rolle gerade große Resonanz, weil mit ihr vielfäl-
tige Lern-, Prüfungs- und Rückmeldeoptionen entstehen, etwa im Bereich des (Fremd-)Sprachenlernens
(Mahlow 2023, Tekin 2023). Ein gutes Beispiel ist die aktuelle Konzentration auf Fragen des Feedbacks.
Feedback zu Texten zu geben, gilt in der Schreibforschung als wichtige Voraussetzung für das Gelingen
des Schreibprozesses, der Schreibentwicklung und der Schreibförderung. Was bislang allein Lehrkräfte
oder Peers übernommen haben, wird nun auf die KI übertragen. KI wird als „digitaler ›Sparring-
partner‹“ gesehen, „der den Lernenden Rückmeldungen zu ihren persönlichen textgestalterischen Lö-
sungsansätzen zur Verfügung stellt“ (Müller/Fürstenberg 2023, 341). Steiss et al. (2024) etwa zeigen in
einer korpusbasierten Vergleichsstudie, dass ChatGPT mit geeigneten Prompts fast so gutes Feedback
wie geschulte Rater:innen gibt, und betonen in diesem Zusammenhang die folgenden Vo r z ü g e v o n K I :
[…] AI like ChatGPT can generate feedback instantaneously, responding to specific author instructions without
training on a human-scored training set and as often as students or teachers request it. ChatGPT does not need to
sleep, nor does it get tired of the same query. Timeliness matters as feedback is more effective when it is provided
close in time to when the writing was completed […]. […] with time and experience, not only will we be able to
generate better instructions, but model performance will continue to improve. (Steiss et al. 2024, 12)
In Sichtung verschiedener Studien zum Schreiben in der L2 arbeiten Shin/Lee (2024) heraus, dass im
direkten Vergleich der Rückmeldung von Lehrenden und ChatGPT das Feedback der KI einerseits um-
fassender und ausführlicher ausfällt und dass die KI andererseits mehr Dimensionen in die Textbetrach-
tung einbezieht. Ob eine solche Rückmeldung in der Praxis, in der es immer auch auf eine sehr feine
Abstimmung des Feedbacks auf die Bedürfnisse der einzelnen Lerner:innen geht, zu besseren Texten
führt, ist damit nicht gesagt. Es ist umgekehrt aber auch nicht ausgeschlossen, dass gerade das ‚Unper-
sönliche‘ des KI-Feedbacks ein besonderes Lernpotential hatetwa, weil es als ‚objektiver‘ wahrge-
nommen wird.
Das didaktische Potential von KI-Feedback betrifft auch die tendenziell unbegrenzte Wiederholbarkeit
und qualitative Vertiefung von Feedbackprozessen: Ein durch eine KI hervorgebrachtes, iteratives Text-
feedback kann die Grundlage für fortwährende Überarbeitungen bilden. Hinzu kommt die Möglichkeit
unterschiedlicher Typen u nd G rade d er R ückmeldung und damit verbundener Lernanlässe. Tekin ( 2023,
12
149 ff.) unterscheidet bei solchen rückmeldebezogenen, tutoriellen Ko-Aktivitäten, die bei ihr mit der
Rollenzuschreibung „Evaluator“ versehen werden, zwischen vier übergeordnete Chatfunktionen: der
Korrektur, der Fehleranalyse, der Bewertungund der Abwägung“. Letzteres meint die Möglich-
keit, Urteile über die Angemessenheit von Formulierungen fällen zu lassen.
Ein weiteres Beispiel für tutorielle Koaktivitäten ist die Förderung von Lektüre- und Interpretations-
kompetenzen durch KI. Führer und Nix (2023) setzen KI im Literaturunterricht der Schule mit dem Ziel
ein, den Aufbau literarischer Lesehaltungen von Schüler:innen zu stützen und literarische Anschluss-
kommunikation zu ermöglichen. In ihrer Fallstudie mit Schüler:innen einer 12. Klasse eines Gymnasi-
ums lassen sie die Lernenden mit ChatGPT in einen Dialog zu Kafkas Parabel „Vor dem Gesetz“ treten.
Die Idee ist hier, dass der Text Verstehens- und Deutungsprobleme aufwirft, denen sich die Schüler:in-
nen durch Fragen an die KI zum Text nähern. Mit Blick auf die von uns beschriebenen Chatpraktiken
und Rollenkonzepte ist es interessant zu sehen, wie Führer und Nix ihre Studie im Ganzen als tutorielles
Koagieren von Lernenden und KI anlegen und die KI mit dem Ziel der Überwindung literaturbezogener
Lesehürden und Wissensdefizite modellieren. Den Schüler:innen ist es in dem Lernarrangement selbst
überlassen, der KI Fragen auf allen Ebenen des Leseprozesses zu stellen, von einfachen Begriffsklärun-
gen über komplexe Deutungsfragen bis hin zur Diskussion eigener Deutungshypothesen – insofern lie-
ßen sich die Aktivitäten nach unserem Modell auch als Chat-to-Chat-Praktiken in der Partner-Rolle auf-
fassen. Die Annahmen der Autor:innen zum Potential von KI für den Literaturunterricht stützen sich
ebenfalls auf die Differenzierung spezifischer Rollen. Sie verstehen die KI einerseits als potenziellen
Lernbegleiter bzw. kompetenten Tutor, „der in literarischen Interaktionen anlassbezogen auf Schwierig-
keiten reagieren und Hilfestellungen, Anregungen sowie Impulse zu weiterführenden Gedanken liefern
kann“ (Führer/Nix 2023, 8). Andererseits denken sie die KI auch als Modellleser: Durch die Übung
mit der KI könnten implizit auch literaturspezifische Wissensstrukturen bzw. ein implizites Strategie-
wissen aufgebaut werden, da die Lernenden den Bot als Modellleser wahrnehmen und dessen Vorgehen
bei weiteren Texten imitieren können.“ (Führer/Nix 2023, 8) Dies ist ein wichtiger, bislang nicht thema-
tisierter und auf den ersten Blick möglicherweise irritierender Aspekt des didaktischen Potentials von
KI: Sie kann für Lerner:innen in manchen Hinsichten ein Vor bi ld sein.
Das Potential von KI für die Übernahme tutorieller Rollen hängt – wie bei allen anderen Koaktivitäten
aucheng mit der Qualität des Outputs zusammen. Dieser Output sollte deshalb stets kritisch reflektiert
werden, etwa bei der Analyse literarischer Texte (Lehndorf et al. im Druck). Er steht zudem mit Proble-
men sozialer Ungleichheit in Zusammenhang. Schneider (2024) etwa macht darauf aufmerksam, dass
die inhaltliche Qualität der Rückmeldung auch mit der genutzten (Bezahl-)Version des Programms kor-
respondiert.
Die Ausführungen in diesem Abschnitt zeigen, dass es wichtig ist, bei tutoriellen Praktiken zwischen
einer Lehrenden- und einer Lernenden-Perspektive zu trennen. Im Falle der Lehrendenperspektive fragt
man nach den didaktischen Möglichkeiten der Modellierung und Gestaltung von Unterricht, Lernpro-
zessen und Prüfungsformaten durch KI-spezifische didaktische Formate. Es können z. B. spezifische
13
Lernarrangements mit KI entwickelt werden, beispielsweise zum materialgestützten Schreiben (Tarchi
et al. 2024). Im Falle der Lernendenperspektive fragt man eher rekonstruktiv nach den konkreten
KI-Praktiken: Wel ch e Pr om pt s ge be n die Lerner:innen ein? Wie reagieren sie auf die Outputs? Wie tau-
schen sie sich mit anderen Lerner:innen über ihre Koaktivitäten mit der KI aus?
3. Fazit und Ausblick
Mit dem Aufkommen von KI sind verschiedene Ansätze zu ihrer Konzeptualisierung entstanden, die
Ausdruck in unterschiedlichen Metaphern finden. Diese Metaphern prägen das Denken über KI und den
Umgang mit ihr und sie haben Grenzen. Anderson (2023, 2) schreibt: Ultimately most metaphors we
apply to our understanding of this new technology are limited both helpful and potentially dangerous
in informing our understanding as we risk both underestimating and overestimating the constructive
and destructive potential of this technology as well as the ethical dimensions of its use.Mit den beson-
ders häufig gebrauchten Metaphern „tool“ und „collaborator“ etwa werden entweder nichtmenschliche
oder menschliche Züge von KI betont. Oft werden die Metaphern auch nebeneinander verwendet: Mül-
ler und Fürstenberg (2023) sprechen wie erwähnt von ChatGPT als Taschenrechneroder Spar-
ringpartner(ebd., 2023), während Kubota (2023, 1 f.) KI als toolundpartner“ sowie mit Blick
auf das zerstörerische Potential der Tec hnologie gar als dictator“ bezeichnet.
Gegenüber solchen begrifflich disparaten Zuschreibungen wird mit dem GPT-Modell versucht, einen
Metaphernbereich, der quasi-menschliche Züge der Koaktivitäten der KI betont, auszudifferenzieren.
Das Modell eröffnet theoriebasiert Möglichkeiten, die vielfältigen Phänomene mit Bezug zu unter-
schiedlichen Partizipanden-Rollen von Mensch und KI und verschiedenen Chatpraktiken im großen
Spektrum möglicher Koaktivitäten zu verorten und so nuanciert zu beschreiben. Für die theoretische
Konzeptualisierung und empirische Analyse erlaubt das Modell, vermeintlich ähnliche Praktiken mit
und ohne KI tiefergehend zu beschreiben und in ihren Unterschieden zu erschließenetwa Praktiken
des kooperativen Schreibens unter Menschen im Vergleich zu Praktiken, in denen die KI als Partner
einbezogen wird, sowie jüngere Phänomene wie multimodale Praktiken und Chat-to-Chat-Praktiken.
Insbesondere Chat-to-Chat-Praktiken zeigen darüber hinaus, dass sich zunehmend quasi-soziale Kons-
tellationen mit KI als neuem kommunikativen Partner bzw. Tutor entwickeln. Ein instrumentelles Ver-
ständnis, bei der der KI lediglich eine Assistenz bei der Lösung von Aufgaben oder im Umgang mit
praktischen Fragen zugeschrieben wird, vermag das Spektrum und die Bedeutung KI-relevanter Prakti-
ken nicht angemessen abzubilden. Es geht hier vielmehr um neue Formen von Adressaten und damit
auch um neue Formen von Adressatenorientierung, die in der Schreibforschung als Kernmerkmal guter
Schreibprozesse und guter Texte gilt. Wa s i st das für ei n A dr es sa t un d wi e be ge gn e ic h ih m wie einem
Menschen oder anders? Soll ich höflich sein? Woran kann sich die KI erinnern? Versteht sie mich auch,
wenn ich ironisch bin? Kann ich sie in die Irre führen? Ist sie überhaupt ein ‚Adressat‘ oder ein Spiegel
meines eigenen Denkens?
14
Die Ausführungen zu den einzelnen Rollen und Praktiken haben gezeigt, dass „Schreiben mit KI“ au-
ßerordentlich vielfältig ist. Für den Unterricht lässt sich daraus schließen, dass die Art und Weise, in der
KI am Schreiben beteiligt ist, von der Modellierung von Lehr-/Lern-Settings abhängt und dementspre-
chend ganz unterschiedlichen didaktischen Zielen folgen kann. Während die Settings von Fyfe (2023)
und Führer/Nix (2023) eine umfassendere Nutzung von KI für das Schreiben ganzer Essays in der
Ghost-Rolle oder komplette Interpretationsdialoge in der Tutor-Rolle vorsahen, wird KI in anderen Sze-
narien eher additiv genutzt.
Um die Bedeutung der Entstehung und Entwicklung von sozialen Konstellationen von Mensch und KI
in Bildungskontexten zu betonen, spricht Sharples (2023, 159-160) von einersocial GenAI for educa-
tion: We suggest that the next major step is likely to be social generative AI where humans and GenAI
agents engage in a broad range of social interactions.“ KI-Agenten auf Online-Lernplattformen und in
entsprechenden Forschungssettings (Schorcht/Peters/Kriegel 2024) zeigen, dass sich dieser Schritt
schon jetzt vollzieht. Wie wird sich diese Entwicklung auf die Schreibforschung auswirken? Wird sie
die KI in Analogie zu einem Schreibmedium, einem Menschen oder etwas Drittem verstehen und unter-
suchen? In schreibdidaktischer Hinsicht stellt sich v. a. die Frage, wie die KI beschaffen und gestaltet
sein muss, um lernförderliche Praktiken und Koaktivitäten zu evozieren was sie zu einem Forschungs-
gegenstand sui generis macht:
What will be properties of generative AIs that enable them to engage fully in conversations for learning? To
support full conversations for learning, GenAIs must be designed to set explicit goals, have long term memory,
build persistent models of their users, reflect on their output, learn from their mistakes, and explain their reasoning.
(Sharples 2023, 161)
Umgekehrt betrachtet berühren solche Überlegungen aber auch die Frage, inwiefern Möglichkeiten ei-
ner nahezu unbegrenzten Personalisierung von KI auf das Individuum soziale Aushandlungsprozesse
zwischen Menschen verdrängen und Lernen auf eine „individualised and nonsocial activity“ reduzieren
(Selwyn et al. 2023, 19). Führen die vielfältigen Optionen von KI, Lernprozesse adaptiv zu rahmen, zu
initiieren und zu begleiten, zu einer Abkopplung der Lerner:innen von ihren Lehrer:innen, Mitschü-
ler:innen und Klassenverbünden? Könnte eine Reaktion auf dieses Problem darin bestehen, dass Ler-
ner:innen gerade nicht allein, sondern zu zweit oder in Gruppen mit KI koagieren?
Für die Schreibforschung stellt sich derweil die Frage, ob und inwiefern mit den emergierenden Prakti-
ken in den unterschiedlichen Rollen von KI und Mensch neue Erfahrungs- und Möglichkeitsräume ent-
stehen, die es sinnvoll erscheinen lassen, „Schreiben“ nicht länger mit der klassischen Textproduktion
gleichzusetzen, sondern erstens Übergänge zwischen Modalitäten und neue Konstellationen von Schrei-
ben, Sprechen, Lesen, Sehen und Zuhören vermehrt zu berücksichtigen und zweitens neben Chat-to-
Create-Praktiken, die die größte Nähe zur Textproduktion aufweisen, auch Chat-to-Generate- und Chat-
to-Chat-Praktiken in ihre Untersuchungen einzubeziehen.
15
Im Angesicht von KI als einer „new, powerful, and widely promoted technology whose ethics may be
seen as running counter to our culture of writing, information literacy, and academic honestyhaben
natürlich auch die Rollenmetaphern unseres Modells Grenzen. Denn auch sie sind letztlich, wie die
Werkzeu g-Metapher, „in line with our current culture of writing“: We us e to ol s, li ke w or d pr oc es so rs
and dictionaries; and we coauthor with collaborators, whom we can name and credit […].(Anderson
2023, 9 f.) Die dem Modell inhärenten Ve r g le i c h s g l i ch k e i te n u n d Z w i sc h e n r äu m e bieten aber Mög-
lichkeiten, diese ‚Komfortzone‘ tradierter Vo r s t e l l u n g e n von Schreiben und Kommunikation zu verlas-
sen und neben Kontinuitäten auch die Disruption, die mit der Etablierung von KI einher geht, wahrzu-
nehmen und zu beschreiben.
Literatur
Anderson, Salena Sampson (2023): Places to stand: Multiple metaphors for framing ChatGPT’s corpus. In:
Computers and Composition, H. 68, o. S. https://doi.org/10.1016/j.compcom.2023.102778 (Letzter Aufruf 31.
Januar 2025).
Becker-Mrotzek, Michael / Grabowski, Joachim / Steinhoff, Torsten (Hrsg.) (2017): Forschungshandbuch empiri-
sche Schreibdidaktik. Münster/New York: Waxmann.
Calderwood, Alex / Qiu, Vivian / Gero, Katy Ilonka / Chilton, Lydia B. (2020): How Novelists Use Generative
Language Models: An Exploratory User Study. https://ceur-ws.org/Vol-2848/HAI-GEN-Paper-3.pdf (Letzter
Aufruf 31. Januar 2025).
Costello, Thomas H. / Pennycook, Gordon / Rand, David G. (2024): Durably reducing conspiracy beliefs through
dialogues with AI. In: Science, H. 385 (6714), o. S. https://doi.org/10.1126/science.adq1814 (Letzter Aufruf
31. Januar 2025).
Dale, Robert / Viethen, Jette (2021): The automated writing assistance landscape in 2021. In: Natural Language
Engineering, H. 27, S. 511518. https://doi.org/10.1017/S1351324921000164 (Letzter Aufruf 31. Januar 2025).
Draxler, Fiona / Werner, Anna/ Lehmann, Florian / Hoppe, Matthias / Schmidt, Albrecht / Buchek, Daniel / Welsch,
Robin (2024): The AI Ghostwriter Effect: When Users do not Perceive Ownership of AI-Generated Text but
Self-Declare as Authors. ACM Transactions on Computer-Human Interaction, H. 31 (2), S. 1–40.
https://doi.org/10.1145/3637875 (Letzter Aufruf 31. Januar 2025).
Fok, Raymond / Wel d , Daniel S. (2023): What Can’t Large Language Models Do? The Future of AI-Assisted
Academic Writing. In: In2Writing Workshop at CHI. https://cdn.glitch.global/d058c114-3406-43be-8a3c-
d3afff35eda2/paper4_2023.pdf (Letzter Aufruf 31. Januar 2025).
Fröhlich, Nadine / Schaumburg, Heike / Eickelmann, Birgit / Gerick, Julia / Drossel, Kerstin / Domke, Marius
(2024): Die Perspektive der Schüler*innen auf das Lernen mit digitalen Medien und den Erwerb computer-
und informationsbezogener Kompetenzen in Deutschland im internationalen Vergleich. In: Eickelmann, Birgit
/ Fröhlich, Nadine / Bos, Wilfried / Gerick, Julia / Goldhammer, Frank / Schaumburg, Heike / Schwippert,
Knut / Senkbeil, Martin / Vahrenhold, Martin (Hrsg.): ICILS 2023 #Deutschland. Computer- und informati-
onsbezogene Kompetenzen und Kompetenzen im Bereich Computational Thinking von Schüler*innen im in-
ternationalen Vergleich, S. 117148. https://doi.org/10.31244/9783830999492 (Letzter Aufruf 31. Januar
2025).
16
Führer, Carolin / Nix, Daniel (2023): Anschlusskommunikation mit ChatGPT. Kann die Interaktion mit Künstli-
cher Intelligenz (KI) Schülerinnen und Schülern beim Verstehen literarischer Texte unterstützen? In: Lesefo-
rum, H. 2023 (3), 122. https://doi.org/10.58098/lffl/2023/3/805 (Letzter Aufruf 31. Januar 2025).
Fyfe, Paul (2023): How to cheat on your final paper: Assigning AI for student writing. In: AI & Society, H. 38, S.
13951405. https://doi.org/10.1007/s00146-022-01397-z (Letzter Aufruf 31. Januar 2025).
Gooding, Lewis / Ellis, Darren / Tucker, Ian (2024): Understanding Mental Health Apps. An Applied Psychosocial
Perspective. Cham: Palgrave Macmillan.
Hirschauer, Stefan (2016): Verhalten, Handeln, Interagieren. Zu den mikrosoziologischen Grundlagen der Praxis-
theorie. In: Schäfer, Hilmar (Hrsg.): Praxistheorie. Ein soziologisches Forschungsprogramm, S. 4567. Biele-
feld: transcript.
Imran, Muhammad / Almusharraf, Norah (2023): Analyzing the role of ChatGPT as a writing assistant at higher
education level: A systematic review of the literature. In: Contemporary Educational Technology, H. 15, ep464.
https://doi.org/10.30935/cedtech/13605 (Letzter Aufruf 31. Januar 2025).
Jang, Jinho / Eun, Seunmin / Lee, Hyunwoong / Choi, Jeewon / Cho, Young Hoan (2024): The Effects of Prompt
Scaffolding on Learning to Write Arguments with ChatGPT. In: Prodeedings of the International Society of the
Learning Sciences (ISLS), S. 1502-1505. https://doi.org/10.22318/icls2024.831011 (Letzter Aufruf 31. Januar
2025).
KMK (2024): Handlungsempfehlung für die Bildungsverwaltung zum Umgang mit Künstlicher Intelligenz in Bil-
dungsprozessen. Berlin: KMK. https://www.kmk.org/fileadmin/veroeffentlichungen_beschlu-
esse/2024/2024_10_10-Handlungsempfehlung-KI.pdf (Letzter Aufruf 31. Januar 2025).
Kubota, Ryuko (2023): Another contradiction in AI-assisted second language writing. In: Journal of Second Lan-
guage Writing, H. 62. https://doi.org/10.1016/j.jslw.2023.101069 (Letzter Aufruf 31. Januar 2025).
Lehndorf, Helen / Pieper, Irene / Müller, Sandra / Specht, Franziska (i. Dr.): Poetische Metaphorik und
Wer tu ng sp er sp ek ti ve n i n E ic he ndor ffs „F hl ing sf ah rt (D ie zw ei G es el le n) b es ch re ib en u nd deu te n -
Ve r st ä n d i gu n g ü be r Ve r st e h e n m i t L ar g e -Language-Modellen. Erscheint in: Praxis Deutsch.
Lehnen, Katrin (2023): Kooperatives digitales Schreiben. Ko-Konstruktion, Feedback und Kommentar zwischen
sozialer und automatisierter Textproduktion. In: Der Deutschunterricht, H. 2023 (5), S. 1828.
Lehnen, Katrin (2024): Ghostwriting revisited. ChatGPT und die Automatisierung des Schreibens. In: DaF und
Germanistik in Süd(Ost)asien: Tradition und Innovation. Tagungsband zur 7. Internationalen Deutschlehrerta-
gung, Hanoi, 4.-5. Oktober 2024, S. 26-38.
Lehnen, Katrin / Steinhoff, Torsten (2024): Digitales Lesen und Schreiben. In: Androutsopoulos, Jannis / Vogel,
Friedemann (Hrsg.): Handbuch Sprache und digitale Kommunikation. Berlin / Boston: de Gruyter, S. 527546.
Mahlow, Cerstin (2023): Large Language Models and Artificial Intelligence as To ols for Teachin g and Learning
Writing. In: OBST Osnabrücker Beiträge zur Sprachtheorie, H. 101, S. 175-196.
https://doi.org/10.17192/obst.2023.101.8607 (Letzter Aufruf 31. Januar 2025).
Müller, Hans-Georg / Fürstenberg, Maurice (2023): Der Sprachgebrauchsautomat. Die Funktionsweise von Chat-
GPT und ihre Folgen für Germanistik und Deutschdidaktik. In: Mitteilungen des Deutschen Germanistenver-
bandes, H. 3, S. 327345.
Nyhan, Brendan / Reifler, Jason (2010): When Corrections Fail: The Persistence of Political Misperceptions. In:
Political Behavior, H. 32 (2), S. 303-330. https://doi.org/10.1007/s11109-010-9112-2 (Letzter Aufruf 31. Jan-
uar 2025).
17
Robinson, Bradley (2023): Speculative Propositions for Digital Writing Under the New Autonomous Model of
Literacy. In: Postdigital Science and Education, H. 5, S. 117135. https://doi.org/10.1007/s42438-022-00358-
5 (Letzter Aufruf 31. Januar 2025).
Roose, Kevin (2024): How Claude Became Tech Insiders’ Chatbot of Choice. https://www.ny-
times.com/2024/12/13/technology/claude-ai-anthropic.html (Letzter Aufruf 31. Januar 2025).
Saraswati, Girindra Putri Dewi / Falida, Alief Noor / Yu l i a ti , Yu l i at i ( 2024): Implementing AI Replika in higher
education speaking classes: Benefits and challenges. In: Journal of English Language Teaching, H. 12/3, S.
207215. https://doi.org/10.15294/elt.v12i3.76525 (Letzter Aufruf 31. Januar 2025)
Schindler, Kirsten (2024): Schreiben mit, durch und über KI. In: ide, H. 2, S. 3241.
Schneider, Jan Georg (2024): Intelligible Texturen. Welche Rolle kann ChatGPT bei der Aufsatzbewertung spielen?
https://doi.org/10.5281/zenodo.10849262 (Letzter Aufruf 31. Januar 2025).
Schorcht, Sebastian / Peters, Franziska / Kriegel, Julian (2024): Communicative AI Agents in Mathematical Task
Design: A Qualitative Study of GPT Network Acting as a Multi-professional Team. In: Digital Experiences in
Mathematics Education, o. S. https://doi.org/10.1007/s40751-024-00161-w (Letzter Aufruf 31. Januar 2025).
Selwyn, Neil / Hillman, Thomas / Bergviken Rensfeldt, Anika / Perrotta, Carlo (2023): Digital Technologies and
the Automation of Education Key Questions and Concerns. In: Postdigital Science and Education, H. 5, S.
1524. https://doi.org/10.1007/s42438-021-00263-3 (Letzter Aufruf 31. Januar 2025).
Sharples, Mike (2023): To wards so cial ge nerative A I fo r educa ti on: t heory, pr actices a nd et hi cs, Learni ng : Re -
search and Practice, H. 9 (2), 159-167. https://doi.org/10.1080/23735082.2023.2261131 (Letzter Aufruf 31.
Januar 2025).
Shin, Dongkwang / Lee, Jang Ho (2024): Exploratory study on the potential of ChatGPT as a rater of second
language writing. In: Education and Information Technologies, H. 29, S. 2473524757.
https://doi.org/10.1007/s10639-024-12817-6 (Letzter Aufruf 31. Januar 2025).
Steinhoff, Torsten (2023): Der Computer schreibt (mit). Digitales Schreiben mit Word, WhatsApp, ChatGPT &
Co. als Koaktivität von Mensch und Maschine. In: MiDU Medien im Deutschunterricht, H. 5 (1), S. 116.
https://doi.org/10.18716/ojs/midu/2023.1.4 (Letzter Aufruf 31. Januar 2025)
Steinhoff, Torsten (2024): Macht Künstliche Intelligenz den Schreibuntericht überflüssig? In: Akbulut, Muham-
med / Hendler, Melanie / Reinsperger, Victoria / Schicker, Stephan (Hrsg.): Zusammen:gedacht. Transdiszip-
linäre Perspektiven auf Literalität und Schrieben in Deutsch im Kontext von Mehrsprachigkeit. Festschrift für
Sabine Schmölzer-Eibinger. 179-183.
Steinhoff, Torsten (2025): Künstliche Intelligenz als Ghostwriter, Writing Tutor und Writing Partner. In: Albrecht,
Christian / Brüggemann, Jörn / Kretschmann, Tabea / Meier, Christel (Hrsg.): Personale und funktionale Bil-
dung im Deutschunterricht. Theoretische, empirische und praxisbezogene Perspektiven. Preprint:
https://doi.org/10.13140/RG.2.2.30477.92644/1 (Letzter Aufruf 31. Januar 2025).
Steiss, Jacob / Ta te, Tam ara / Graham, Steve / Cruz, Jazmin / Hebert, Michael / Wa ng , J ia li / Moon, Yo u ngs u n /
Tse ng , Wav erly / Wa rs ch au er , Ma rk / Olson, Carol Booth (2024): Comparing the quality of human and Chat-
GPT feedback on students‘ writing. Learning and Instruction, H. 91, o. S. https://doi.org/10.1016/j.learnin-
struc.2024.101894 (Letzter Aufruf 31. Januar 2025).
Storrer, Angelika (2018): Interaktionsorientiertes Schreiben im Internet. In: Deppermann, Arnulf / Reineke, Silke
(Hrsg.): Sprache im kommunikativen, interaktiven und kulturellen Kontext. Berlin / Boston: de Gruyter, S.
219244.
18
Strobl, Carola / Menke-Bazhutkina, Iryna / Abel, Niklas / Michel, Marije (2024): Adopting ChatGPT as a Writing
Buddy in the Advanced L2 Writing Class. In: Tec hnol og y in La ngu ag e Te aching & Learning, H. 6/1, S. 1–19.
https://doi.org/10.29140/tltl.v6n1.1168 (Letzter Aufruf 31. Januar 2025).
Tar c hi, Christian / Zappolli, Alessandra / Casado Ledesma, Lidia / Wennås Brante, Eva (2024): The Use of
ChatGPT in Source-Based Writing Tasks. In: International Journal of Artificial Intelligence in Education, o. S.
https://doi.org/10.1007/s40593-024-00413-1 (Letzter Aufruf 31. Januar 2025).
Tek in , Ö zlem (20 23 ): C hat GP T im U nterr ic ht D euts ch al s F remds pr ache . In: Zeitschrift für Forschungen zur deut-
schen Sprache und Kultur. https://dergipark.org.tr/tr/download/article-file/3535732 (Letzter Aufruf 31. Januar
2025).
Vo l k e n i n g , H e i d e ( 2 0 0 6 ) : A m R a n d d e r A u t o b i o g r a p h i e . G h o s t w r i t i n g Signatur Geschlecht. Bielefeld:
transcript.
ResearchGate has not been able to resolve any citations for this publication.
Article
Full-text available
Die Nutzung von KI-Anwendungen zur Textgenerierung wie ChatGPT, Bing oder Bard im DaF-Unterricht eröffnet vielfältige Möglichkeiten zur Förderung von Mediationskompetenzen. Diese Studie untersucht die bedeutsame Rolle von KI-Generierungstools bei der Erweiterung der Mediationsprozesse im DaF-Unterricht. Im Fokus steht die Bereicherung der gemeinsamen Bedeutungskonstruktion durch KI-generierte Texte, die ein tieferes Verständnis der Sprache in ihrem kulturellen Kontext ermöglichen. Anhand von vier anschaulichen Anwendungsbeispielen wird die integrative Kraft von KI-Tools im Lehrprozess aufgezeigt und ihr Potenzial zur Stärkung der Mediationskompetenz verdeutlicht.
Article
Full-text available
In 2021, the San Francisco Chronicle released a feature article about a man who chose to resurrect his deceased fiancée by training a chatbot system built on OpenAI’s GPT language models on her old digital messages. He then had emotional conversations with this chatbot, which appeared to accurately mimic the deceased’s writing style. This case study raises questions about the communicative influences of thanabots: chatbots trained on data of the dead. While thanabots are clearly not living conversational partners, the rhetoric, everyday experiences, and emotions associated with these system have very real implications for living users. This paper applies a lifeworld perspective to consider the hermeneutics of thanabots. It shows that thanabots exist in a long lineage of efforts to communicate with the dead, but acknowledges that thanatechnologies must be more thoroughly studied for better understanding of what it means to die in a digital age.
Article
Full-text available
The proliferation of powerful new forms of automated assistive writing technologies, natural language generation technologies in particular, raises crucial questions about the future of literacy living and learning. This article situates such technologies within the historical trajectory of literacy studies, arguing that the acceleration of natural language generation platforms like GPT-3 may reflect the emergence of a new autonomous model of literacy. Guided by recent theoretical work on automation and global computation, the article offers a series of speculative propositions for digital writing under the new autonomous model of literacy, focusing on questions of agency and subjectivity within a regime of computational racial capitalism. The article concludes with a gesture towards a resistive digital writing pedagogy wherein literacy scholars, educators, and students can resist the dominating potentials of technologies ostensibly designed to assist them.
Article
Full-text available
This paper shares results from a pedagogical experiment that assigns undergraduates to “cheat” on a final class essay by requiring their use of text-generating AI software. For this assignment, students harvested content from an installation of GPT-2, then wove that content into their final essay. At the end, students offered a “revealed” version of the essay as well as their own reflections on the experiment. In this assignment, students were specifically asked to confront the oncoming availability of AI as a writing tool. What are the ethics of using AI this way? What counts as plagiarism? What are the conditions, if any, we should place on AI assistance for student writing? And how might working with AI change the way we think about writing, authenticity, and creativity? While students (and sometimes GPT-2) offered thoughtful reflections on these initial questions, actually composing with GPT-2 opened their perspectives more broadly on the ethics and practice of writing with AI. In this paper, I share how students experienced those issues, connect their insights to broader conversations in the humanities about writing and communication, and explain their relevance for the ethical use and evaluation of language models.
Handlungsempfehlung für die Bildungsverwaltung zum Umgang mit Künstlicher Intelligenz in Bildungsprozessen
  • Kmk
KMK (2024): Handlungsempfehlung für die Bildungsverwaltung zum Umgang mit Künstlicher Intelligenz in Bildungsprozessen. Berlin: KMK. https://www.kmk.org/fileadmin/veroeffentlichungen_beschlu-
Ghostwriting revisited. ChatGPT und die Automatisierung des Schreibens
  • Katrin Lehnen
Lehnen, Katrin (2024): Ghostwriting revisited. ChatGPT und die Automatisierung des Schreibens. In: DaF und Germanistik in Süd(Ost)asien: Tradition und Innovation. Tagungsband zur 7. Internationalen Deutschlehrertagung, Hanoi, 4.-5. Oktober 2024, S. 26-38.