Conference PaperPDF Available

Digital Humanities im deutschsprachigen Raum 2020

Authors:
Digital Humanities im deutschsprachigen Raum 2020
Peroni, S. / Tomasi, F. / Vitali, F., (2013): Re-
flecting on the Europeana Data Model. https://doi.or-
g/10.1007/978-3-642-35834-0_23
Intertextualität in
literarischen Texten und
darüber hinaus
Einleitung
Die Analyse der Formen und Funktionen von Intertextuali-
tät ist ein Forschungsbereich, dessen heuristischer Anspruch
seit dem erstmaligen Auftreten des Terminus ‚Intertextualität‘
in Julia Kristevas Aufsatz Bachtin, das Wort, der Dialog und der
Roman (1972 [1967]) von einer Spannung zwischen modell-
hafter Strenge und interpretativen Spielräumen geprägt ist. So
betonte Roland Barthes im Anschluss an Kristeva die interpre-
tative Freiheit der Rezipierenden bei der Herstellung intertex-
tueller Relationen (vgl. z. B. Barthes 1974: 53f.). Im Kontrast
dazu entwarfen Gérard Genette, Manfred Pfister, Susanne Hol-
thuis und andere umfassende Modelle intertextueller Bezie-
hungen, die das hier meist chronologisch gedachte Verhältnis
von Prä- und Posttext systematisieren sollten (Genette 1993,
Pfister 1985, Holthuis 1993).
Diese divergierenden Tendenzen innerhalb der Intertextua-
litätsforschung können nicht zuletzt auf die Tatsache zurück-
geführt werden, dass sich literarische Intertextualität selbst
wie bereits das Wort ‚Anspielung‘ nahelegt – durch einen
gewissen Spielcharakter auszeichnet. Dabei beziehen sich in-
tertextuelle Relationen aber stets auf bestimmte Texteigen-
schaften zweier oder mehrerer Texte, die in einer Relation
von Übereinstimmung und Abweichung zueinander stehen:
sprachliche Merkmale, Charaktere, Plotstrukturen etc. Dies
verweist auf ein systematisches Funktionieren intertextueller
Beziehungen. Intertextualität basiert damit konzeptuell auf
der Doppelgesichtigkeit des Konzepts ‚Spielraum‘: „Öffnung
und Schließung, Freiheit und Vorschrift können nicht getrennt
voneinander betrachtet werden, sondern bedingen sich ge-
genseitig“ (Dettke/Heyne 2016: 11f.).
Gerade dieses Changieren zwischen Regelhaftigkeit und Dy-
namik bereitete bisherigen Untersuchungen literarischer In-
tertextualität mit den Mitteln analoger Textarbeit stets große
Probleme: Klassische Textanalysen und abstrakte Modelle er-
weisen sich gleichermaßen als defizitär, indem für eine nach-
vollziehbare Erfassung der bestehenden Vielfalt intertextuel-
ler Relationen gerade das Ineinandergreifen von Modellierung
und Interpretation entscheidend ist (vgl. Nantke/Schlupko-
then 2018, 2019). Die formale Modellierung bietet hier ge-
steigerte Möglichkeiten der systematischen Erfassung und der
induktiven Kategorienbildung sowie der unmittelbaren Visua-
lisierung. Auf diese Weise können Modelle entstehen, welche
flexibel genug sind, um unterschiedlichste Formen von Inter-
textualität adäquat zu erfassen, und dabei gleichzeitig eine for-
male Strenge aufweisen, die einer maschinellen Abfrage sowie
der Kombination mit (teil-)automatisiert erzeugten Analyse-
ergebnissen offensteht. Bislang finden sich Beispiele für den
Einsatz computergestützter Verfahren zur Intertextualitäts-
detektion vor allem im Bereich der digital classic studies1.
Das Panel zielt auf eine kritische Reflexion und Erweiterung
der bestehenden text reuse-Studien in der digital arbeitenden
Altphilologie und demonstriert anhand von Anwendungsbei-
spielen aus Literaturwissenschaft, Philosophie und Wissen-
schaftsgeschichte das Potenzial einer computergestützten In-
tertextualitätsforschung in weiteren Teilbereichen der Digital
Humanities.
Konkret soll im Panel anhand verschiedener Beispiele aufge-
zeigt und diskutiert werden, wie und wo sich digitale Ansätze
zur Erfassung und Modellierung intertextueller Beziehungen
zwischen den Polen ‚Formalisierung‘ und ‚interpretative Frei-
heit‘ verorten lassen. Dabei verstehen wir eine intertextu-
elle Referenz als eine von einer Leserin/einem Leser wahrge-
nommene “Wiederholung” aus einem anderen Text, wobei die
Wiederholung im Regelfall nicht (nur) die Textoberfläche be-
trifft, sondern Ideen, Gedanken, Formulierungen, Syntax- oder
Plotstrukturen. Im Rahmen des Panels werden Verbindungs-
möglichkeiten von quantitativen und qualitativen Verfahren
zur Erschließung von Intertextualität evaluiert. Ebenfalls wird
dabei erörtert, wie im Zuge der Modellierung interpretative
Spielräume immer wieder zur Herausforderung für die For-
malisierungsbestrebungen werden und wie derartige Situa-
tionen positiv gewendet spezifische Funktionsweisen von In-
tertextualität sichtbar machen können.
Panelvorträge
Mehrstufige Annotation literarischer Inter-
textualität jenseits der Textoberfläche
Julia Nantke (Universität Hamburg) & Ben Sulzbacher (Bergi-
sche Universität Wuppertal)
Für die systematisierende Erfassung intertextueller Relatio-
nen wurde im Projekt FormIt eine Linkbase entworfen, welche
durch ihre mehrstufige Anlage verschiedene Möglichkeiten
zur Verknüpfung und Annotation von intertextuellen Phäno-
menen eröffnet sowie eine unmittelbare Visualisierung der
Ergebnisse leistet.
Mithilfe der Linkbase können in mehreren Texten paral-
lel intertextuelle Bezüge als stabile Links annotiert werden.
Das resultierende Modell bezieht sich neben sprachlichen
Übereinstimmungen ebenso auf literaturwissenschaftlich re-
levante Kategorien wie Figurengestaltung, Perspektive, Erzäh-
lerstimme etc. Die Beziehung der annotierten Textstellen wird
dabei hinsichtlich der beteiligten literaturwissenschaftlichen
Kategorien sowie der Art der Relation (Hinzufügung/Auslas-
sung, semantische Verschiebung, Kanalisierung, Relativierung
etc.) bestimmt.
Abbildung 1: Ausschnitt Linkbase mit mehrstufiger Annotation einer inter-
textuellen Beziehung zweier Texte
Daraus abgeleitet erfolgt eine Modellierung der relevanten
Kategorien in drei ‚Bäumen‘, welche die Phänomene nach den
Ebenen Textoberfläche (Verortung im Text), Discours (Ausge-
65
Digital Humanities im deutschsprachigen Raum 2020
staltung der Darstellung) und Histoire (Elemente des Dar-
gestellten) gliedern. Eine kollaborative und rekursive Kate-
gorienbildung verhindert zusammen mit der Anbindung an
konkrete Texte und Textstellen das „blackboxing“ (vgl. Latour
2000: 373) der verschiedenen Modellierungsschritte. Der Vor-
trag soll zeigen, wie verschiedene Möglichkeiten, Annotatio-
nen an Texte anzuknüpfen und Textstellen und Annotationen
jeweils untereinander zu clustern, literarischen Strukturen
angemessene Repräsentationen intertextueller Beziehungen
ermöglichen.
Abbildung 2: Ausschnitt des Kategorienbaums auf der Histoire-Ebene zur
oben gezeigten Annotation (Übereinstimmung)
Die Struktur der Linkbase bildet eine Brücke zwischen der
formalen Strenge, die für eine abstrahierende Modellierung li-
terarischer Formen notwendig ist, und interpretativen Spiel-
räumen, die bei der Repräsentation von Intertextualität häufig
einbezogen werden müssen. Durch die unmittelbare Zusam-
menschau und interaktive Exploration der Linkbase-Ebenen
können neue Erkenntnisse über die Funktionsweise inter-
textueller Beziehungen und literarischer Strukturen im All-
gemeinen entstehen. Die verschiedenen Modellierungsstufen
sorgen dafür, dass Anknüpfungspunkte für die Integration
quantitativer Verfahren generiert werden. So gilt es bspw. zu
evaluieren, wie Übereinstimmungen auf der Basis impliziter
Informationen mit Methoden des Machine Learning (teil-)er-
fasst werden könnten.
Computergestützte Ansätze zur Detektion
von Shakespeare-Referenzen in postmoderner
Fiktion
Manuel Burghardt (Universität Leipzig) & Johannes Molz
(Ludwig-Maximilians-Universität München)
Als der einflussreichste Autor der westlichen Kulturhemi-
sphäre wird Shakespeare bis heute in vielen literarischen Gen-
res referenziert (vgl. etwa Taylor, 1989; Maxwell & Rumbold,
2018) und eignet sich damit wie kein anderer zu Untersu-
chungen des literaturwissenschaftlichen Phänomens der In-
tertextualität. Um die vielfältigen intertextuellen Bezüge auf
Shakespeares Werk systematisch zu identifizieren verwenden
wir computergestützte Methoden zur Erkennung von Text-
ähnlichkeit (text similarity) und Textwiederverwendung (text
reuse).
Wir präsentieren erste Ergebnisse aus einer Pilotstudie zur
Identifikation von Shakespeare-Referenzen in Romanen aus
den Bereichen Fantasy, Magischer Realismus und postmo-
derne Fiktion, da erste Voruntersuchungen zeigten, dass diese
Genres in besonderem Maße dazu neigen, Shakespeare zu zi-
tieren. Im Rahmen dieser Pilotstudie wurden unterschiedliche
computergestützte Ansätze, wie bspw. local alignments (Burg-
hardt et al., 2019) sowie Verfahren aus dem Bereich des ma-
schinellen Lernens (bspw. sentence embeddings) erprobt, die
jeweils ganz eigene Herausforderungen in Hinblick auf die eng
miteinander verzahnte Modellierung von Hyper- und Hypo-
texten (vgl. Genette, 1993) und die Interpretation automatisch
generierter Ergebnislisten mit sich bringen.
Annotation und Erkennung semi-literarischer
Interferenz am Beispiel Nietzsche
Nils Reiter (Universität Stuttgart/Universität zu Köln) & Axel
Pichler (Universität Stuttgart)
Intertextuelle Referenzen spielen neben der Literatur auch
in der Philosophie eine große Rolle. So werden etwa in der
Zeitschrift Nietzsche-Studien seit 1972 Nachweise intertextu-
eller Verweise durch Nietzsche gesammelt. Abbildung 3 zeigt
ein Beispiel, demzufolge Nietzsche die Vorstellung, dass den-
ken heiser machen kann, von Höffding übernommen hat. Diese
Daten können als Referenzdaten dienen, wobei sie natürlich
nicht exhaustiv sind, obwohl Nietzsche zu denjenigen Autoren
zählt, dessen Quellen am umfangreichsten erforscht sind.2 Im
dritten Panel-Beitrag werden zwei Ansätze und erste Arbeiten
diskutiert, die sich an den Nietzsche-Nachweisen orientieren.
Abbildung 3: Nietzsche-Nachweis aus Höffding, Harald: Psychologie in
Umrissen, dokumentiert von Brobjer, Thomas (erschienen 2001 in Nietz-
sche-Studien (30))
Zunächst stellen wir ein Kategoriensystem vor, dass in ei-
nem Bottom-Up-Verfahren etabliert wurde. Dazu wurden die
Nietzsche-Nachweise als existierende Annotationen aufge-
fasst und eine „Meta-Annotation“ zugefügt, die die Art der
Referenz charakterisiert (z.B. „semantisch äquivalente Para-
phrase“ oder „syntaktische Ähnlichkeit“). Mit den üblichen
Methoden aus der reflektierenden Annotationspraxis (Über-
einstimmung) können Definitionen für diese Charakterisie-
rungen geschärft werden, so dass ein robuster Überblick über
verschiedene Arten der Referenzen vorliegt. Im Gegensatz zu
Ansätzen, die vollständig „from scratch“ annotieren, bewahrt
der Rückgriff auf existierende Referenzen davor, eine subjek-
tiv motivierte Teilmenge an Referenzen in Betracht zu ziehen.
Anknüpfungspunkte und Gemeinsamkeiten mit den im ersten
Beitrag vorgestellten Kategorien zu eruieren ist eines der Ziele
des Panels.
Daneben diskutieren wir Möglichkeiten, Referenzen auto-
matisch zu erkennen. Klar ist, dass exhaustive Referenzdaten
auf absehbare Zeit nicht zur Verfügung stehen werden, da die
Menge an Referenzzielen tendenziell steigt und zu großen Tei-
len auch unbekannt ist. Auch Negativbeispiele lassen sich nur
unter stark einschränkenden Annahmen sicher feststellen. Da-
mit können überwachte maschinelle Lernverfahren nur noch
bedingt eingesetzt werden. Unser Ansatz orientiert sich daher
an den zuvor etablierten Annotationskategorien, und besteht
66
Digital Humanities im deutschsprachigen Raum 2020
aus einer Sammlung von Erkennern, die die Kategorien opera-
tionalisieren. Ziel ist, potentiellen Benutzer_innen Vorschläge
in verschiedenen Kategorien machen zu können, die dann in-
dividuell gewichtet und ausgewählt werden können.
WordWeb/IDEM: Datenbasierte Erfassung
von Intertextualität durch eine Graphdaten-
bank zum frühneuzeitlichen englischen Thea-
ter
Regula Hohl-Trillini (Universität Basel)
Anstelle eines neuen Modells implementiert Word-
Web/IDEM3 ein 50jähriges, ikonoklastisches Nicht-Modell.
Wie Ende Sechzigerjahre postuliert, realisiert die Datenbank4
ein Netzwerk ohne Mitte, ein Universum von Texten ohne Be-
zug auf ein zentrales Werk. Die verbalen, motivischen und ono-
mastischen Beziehungen zwischen Dramen der Shakespeare-
zeit werden durch tausende Textausschnitte abgebildet, die
dieselben Phrasen oder Namen enthalten. Diese verbinden-
den "Lexias" (Barthes 1973) repräsentieren "wahrgenom-
mene Wiederholung aus einem anderen Text": Zitierende sind
Leser, die schreiben und so den zitierten Text mitbestimmen.
Die Weiterentwicklung der Hypertextdatenbank HyperHam-
let5 vollzieht dies nach: in WordWeb wird statt der Fixierung
auf einen Autor ein radikales Konzept von Intertextualität um-
gesetzt, die "Intersubjektivität" ablöst (Kristeva 1967).
Das englische Drama um 1600 ist der ideale Testfall für
WordWeb, weil poststrukturalistische Konzepte der Reali-
tät des frühneuzeitlichen Theaters vollkommen entsprechen.
Im Londoner “Hollywood” arbeiteten Dramatiker zusammen,
hörten und lernten die Werke der Kollegen (als Schauspie-
ler), schrieben um, verfassten sequels, improvisierten und zi-
tierten, meistens ohne "korrekte" Signalisierung. Wie Dreh-
buchschreiber amüsieren sie durchs Recycling von «memes»,
wie eine Bühnenfigur klarmacht: "My horse, my horse my
kingdom for a horse - look, I speak play scraps!" (Marston
1601). Diese wettbewerbsorientierte, kommerzielle Theater-
szene war tatsächlich ein " ‘tissue of quotations drawn from
innumerable centres of culture" (Barthes 1968), eine Echo-
kammer (Barthes 1975), die "likes" in der Form von Zitaten
enthält.
Abbildung 4: Graphenvisualisierung der Lexia “A horse, a horse, my kingdom
for a horse”.
So kann WordWeb auch Shakespeares Beitrag zum "web of
words" seiner Zeit klären, da es seine scheinbare Dominanz
im Kontext der verbalen Landschaft zwischen 1550 und 1688
neu liest.
Struktur
Es ist geplant, dass das Panel der folgenden Struktur folgt:
• Kurze Einführung in die Thematik / größerer themati-
scher Rahmen
• Impulse durch vier Einzelvorträge
• Moderierte Abschlussdiskussion mit dem Publikum
Frau Prof. Dr. Evelyn Gius, TU Darmstadt, hat zugesagt, die
Moderation des Panels zu übernehmen.
Fußnoten
1. für eine umfassende Bibliographie zu diesem Bereich vgl.
https://wiki.digitalclassicist.org/Text_Reuse#References.
2. https://gepris.dfg.de/gepris/projekt/281581212
3. vgl. http://p3.snf.ch/project-183259
4. www.wordweb.unibas.ch
5. www.hyperhamlet.unibas.ch
Bibliographie
Barthes, Roland (1973). “Textual Analysis of Poe’s ‘Valde-
mar’” in Lodge, David (ed.): Modern Criticism and Theory. Lon-
don: Longman, 1993, 172–195.
Barthes, Roland (1974): Die Lust am Text. Frankfurt a.M.:
Suhrkamp.
Barthes, Roland (1968): “The Death of the Author” in:
Lodge, David (eds.): Modern Criticism and Theory. London:
Longman, 167–172.
Barthes, Roland (1 994): Roland Barthes by Roland Barthes.
Berkeley: University of California Press.
Burghardt, Manuel / Meyer, Selina / Schmidtbauer, Ste-
phanie / Molz, Johannes (2019): “The Bard meets the Doc-
tor” – Computergestützte Identifikation intertextueller Shake-
spearebezüge in der Science Fiction-Serie Dr. Who”, in: Book of
Abstracts, DHd 2019 222-225.
Dettke, Julia / Heyne, Elisabeth (2016): “Zugänge zum
Spielraum der Literatur” in: Dettke, Julia / Heyne, Elisabeth
(eds.): Spielräume und Raumspiele in der Literatur. Würzburg:
Könighausen & Neumann, 11–45.
Genette, Gerard (19 93 ): Palimpseste. Die Literatur auf zwei-
ter Stufe. Frankfurt am Main: Suhrkamp. Translation of the re-
vised second edition. [Genette, Gerard (1982): Palimpsestes.
La littérature au second degré. Paris: Éditions de Seuil. Revised
2nd edition 1983.]
Hohl-Trillini, Regula / Sixta Quassdorf (2010): A 'Key
to all Quotations'? A corpus-based parameter model of in-
tertextuality.” Literary and Linguistic Computing 10.1093/llc/
fqq003.
Holthuis, Susanne (1993): Intertextualität. Aspekte einer
rezeptionsorientierten Konzeption. Tübingen: Stauffenburg.
Kristeva, Julia (1972): “Bachtin, das Wort, der Dialog und
der Roman” in: Jens Ihwe (ed.): Literaturwissenschaft und Lin-
guistik. Ergebnisse und Perspektiven. Band 3: Zur linguistischen
67
Digital Humanities im deutschsprachigen Raum 2020
Basis der Literaturwissenschaft II. Frankfurt a.M.: Athenäum,
345–375.
Kristeva, Julia (1986): “Word, Dialogue and the Novel” in:
Moi, Toril (ed.): The Kristeva Reader. New York: Columbia Uni-
versity Press 35–59.
Latour, Bruno (2000): Die Hoffnung der Pandora. Unter-
suchungen zur Wirklichkeit der Wissenschaft. Frankfurt a.M.:
Suhrkamp.
Nantke, Julia / Schlupkothen, Frederik (2018): “Zwi-
schen Polysemie und Formalisierung: Mehrstufige Modellie-
rung komplexer intertextueller Relationen als Annäherung an
ein ‚literarisches‘ Semantic Web”, in: Book of Abstracts, DHd
2018 345–349.
Nantke, Julia / Schlupkothen, Frederik (2019): “FormIt:
Eine multimodale Arbeitsumgebung zur systematischen Er-
fassung literarischer Intertextualität”, in: Book of Abstracts,
DHd 2019 289–291.
Marston, John (1601): “What You Will” in Woord, Harvey
(ed.): The Plays of John Marston. Edinburgh and London: Oliver
and Boyd, 1934-1939. 2:227-295.
Maxwell, Julie / Rumbold, Kate (eds.) (2018): Sha-
kespeare and Quotation. Cambridge: Cambridge University
Press.
Pfister, Manfred (1985): „Konzepte der Intertextualität“ in:
Broich, Ulrich / Pfister, Manfred (eds.): Intertextualität. For-
men, Funktionen, anglistische Fallstudien. Tübingen: Niemeyer
1-30.
Taylor, Gary (1989): Reinventing Shakespeare: A Cultural
History from the Restoration to the Present. Oxford: Oxford Uni-
versity Press.
Maschinelles
Lernen in den
Geisteswissenschaften.
Systemische und
epistemologische
Konsequenzen einer
neuen Technologie
Seit einigen Jahren machen maschinelles Lernen und Über-
legungen zu den Konsequenzen der dadurch entstehenden Ar-
tificial Intelligence Schlagzeilen. Von Spracherkennung über
selbstfahrende Autos bis hin zu komplexen Spielen, maschi-
nelles Lernen macht Computer in einzelnen Handlungsfeldern
leistungsfähiger als Menschen.
In der Theorie werden drei Formen (supervised, unsupervi-
sed und reinforcing) des maschinellen Lernens unterschieden.
Während die erste Form (supervised) auf Training basiert, also
dem Versuch vorgegebene Resultate zu imitieren, ist das Ziel
des zweiten (unsupervised) in einer Gesamtmasse Muster zu
erkennen und zu clustern. Die dritte Form schliesslich (rein-
forcing) ist eine Mischung der beiden ersten Ansätze, der Lö-
sungswege aufgrund von positiven oder negativen Rückmel-
dungen in eine gewünschte Richtung lenkt. Unabhängig von
der Form des maschinellen Lernens stellen die Algorithmen
im Handumdrehen komplexe Programme in den Schatten, die
Spezialisten über Jahrzehnte hinweg entwickelt haben.
Ein Ansatz, das sogenannte deep learning basiert auf neu-
ronalen Netzen, die dem menschlichen Gehirn nachempfun-
den sind. Sogenannte Neuronen (eigentlich Speicherbereiche)
werden über mehrere Schichten vernetzt, mit Eingangs- sowie
den gewünschten Ausgangsdaten konfrontiert und auf dieser
Grundlage trainiert. Der Algorithmus „lernt“ oder „imitiert“
erwartetes Verhalten (Leifert et al., 2016).
Ebenso werden andere unüberwachte und überwachte Ver-
fahren des maschinellen Lernens eingesetzt, um Strukturen in
großen Datenmengen zu finden und die Zusammenhänge zwi-
schen den Daten und ihnen zugeordneten Kategorien zu er-
kennen (z.B. Verfahren zur Dimensionalitätsreduktion, Cluste-
ring, Klassifikation, siehe einführend Alpaydin, 2014).
Die Technologien, die auf die 1980er Jahre zurückgehen,
wurden lange nur testweise eingesetzt, weil die Leistungsfä-
higkeit der Computersysteme nicht ausreichend war (Fausett,
1993). Inzwischen lernen Maschinen mit den Methoden er-
folgreich auf Gebieten, die schwer formalisierbar sind. Kom-
merzielle Anbieter wie Google, Amazon, Apple und Facebook
implementieren machine learning heute schon in fast all ih-
ren Produkten. Mit jeder Suchanfrage bei Google nutzen Men-
schen diese Technologie, ohne sich dessen bewusst zu sein,
mit teils problematischen Folgen (Noble, 2018).
Unterschiedliche Perspektiven auf
maschinelles Lernen
Das Panel hat zum Ziel, die Entwicklung und Anwendung
des maschinellen Lernens mit einer Reflexion zu verbinden,
die die Konsequenzen des Einsatzes aufzeigt. Dabei soll weder
der häufig mit euphorischen Erwartungen verbundene Nut-
zen, noch unberechtigte Fundamentalabwehr befeuert wer-
den. Vielmehr ist die differenzierte Beurteilung aus unter-
schiedlichen Blickwinkeln das Ziel.
Im Panel zentral gesetzt werden epistemologische Fra-
gen, die gerade aufgrund der imitierenden Natur des ma-
schinellen Lernens entscheidend sind für die Aufbereitung
von Trainingsmaterial oder die Implementierung in Ent-
scheidungsprozesse. Gleichzeitig ähneln die Prozesse, die die
Algorithmen übernehmen Vorgehensweisen geisteswissen-
schaftlicher Verstehensprozesse, die unter dem Begriff der
„Hermeneutik“ versammelt werden. Maschinelles Lernen hat
entsprechend das Potential, als Methode unsere Zugänge und
den Blick auf unser Material fundamental zu erweitern.
Im Rahmen des Panels werden vier Protagonist*innen ihre
Perspektive auf die Konsequenzen der Nutzung des maschi-
nellen Lernens werfen:
DH Segment: Generischer Ansatz für histori-
sche Dokumente
Sofia Ares Oliveira (Lausanne)
Der Einsatz des maschinellen Lernens erfordert insbeson-
dere bei der Erstellung neuer Algorithmen Fertigkeiten aus
den Computerwissenschaften. Genau dieser Aufgabe stellt
sich Sofia Ares Oliveira täglich, wenn sie als Ingenieurin selb-
ständig neuronale Netze für dhlab der Eidgessisch Techni-
schen Hochschule in Lausanne (EPFL) erstellt. Im Rahmen des
68
ResearchGate has not been able to resolve any citations for this publication.
The Bard meets the Doctor" -Computergestützte Identifikation intertextueller Shakespearebezüge in der Science Fiction-Serie Dr. Who
  • Roland Barthes
Barthes, Roland (1994): Roland Barthes by Roland Barthes. Berkeley: University of California Press. Burghardt, Manuel / Meyer, Selina / Schmidtbauer, Stephanie / Molz, Johannes (2019): "The Bard meets the Doctor" -Computergestützte Identifikation intertextueller Shakespearebezüge in der Science Fiction-Serie Dr. Who", in: Book of Abstracts, DHd 2019 222-225.
Frankfurt am Main: Suhrkamp. Translation of the revised second edition
  • Gerard Genette
Genette, Gerard (1993): Palimpseste. Die Literatur auf zweiter Stufe. Frankfurt am Main: Suhrkamp. Translation of the revised second edition. [Genette, Gerard (1982): Palimpsestes. La littérature au second degré. Paris: Éditions de Seuil. Revised 2nd edition 1983.]