Content uploaded by Leonie Seng
Author content
All content in this area was uploaded by Leonie Seng on Sep 20, 2018
Content may be subject to copyright.
Seite 1
Maschinenethik und Künstliche Intelligenz
Autorin: Leonie Seng
Department of Philosophy, Ludwigsburg University of Education, Ludwigsburg, Deutschland
E-Mail: leonie.seng@ph-ludwigsburg.de
Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2018
O. Bendel (Hrsg.), Handbuch Maschinenethik, Springer Reference
Geisteswissenschaften, https://doi.org/10.1007/978-3-658-17484-2_13-1
Inhalt
1 Einleitung 2
2 Geschichte des Begriffs Künstliche Intelligenz 3
3 Maschinenethische Perspektiven auf die KI-Entwicklung 10
4 Fazit 15
Literatur 16
Zusammenfassung
Der Fachbereich der Künstlichen Intelligenz (KI) hat ideelle und finanzielle Höhen und Tiefen
erlebt. Wissenschaftler prognostizieren immer wieder den Untergang der Menschen durch die von
ihnen entwickelte Technik – ein Paradigma, das die Grundlage eines konstanten Narrativs innerhalb
der Menschheitsgeschichte darstellt. Während die Furcht vor der technologischen Singularität in
heutiger Zeit Fiktion bleibt, stellen sich realistischere, maschinenethisch hoch relevante Fragen: Mit
welchen moralischen Ansprüchen werden Maschinen entwickelt? Wie werden diese Entwicklungen
moralisch bewertet? Und wer trägt die Verantwortung für moralische Probleme?
Schlüsselwörter
Kognition, Neuronale Netze, Big Data, Technologische Singularität, Verantwortung
Seite 2
1 Einleitung
Künstliche Intelligenz (KI, engl.: Artificial Intelligence (AI)) ist der Name eines Teilgebiets der
Informatik, das seit Mitte der 1950er-Jahre existiert. Im Zentrum steht die Automatisierung
komplexer Problemlösungsverfahren mithilfe von Computerprogrammen. Der Begriff künstlich
steht in Abgrenzung zu natürlicher, also menschlicher Intelligenz – wobei hier Hybridformen aus
Menschen und Technik, bspw. Cyborgs, nicht ausgeschlossen sind. Die Definition menschlicher
Intelligenz variiert je nach wissenschaftlicher Disziplin stark (Gardner 1999; Piaget 2000; Maltby et
al. 2011), weshalb manche Forscher lieber von Intelligenz im Sinn von Informationsverarbeitung
(Trescher 2017), Extended Intelligence (Ito 2017) oder Entworfener Intelligenz (Davies 2017)
sprechen. Geläufig ist dennoch die Bezeichnung Künstliche Intelligenz.
Das Fachgebiet kann in zwei grobe Hauptströmungen unterteilt werden, die starke KI
(strong AI) und die schwache KI (weak AI). Vertreter des ersten Ansatzes streben die vollständige
maschinelle Nachbildung psychischer Prozesse wie Denken, Lernen oder Problemlösen an (Dörner
1976; Nilsson 2010), wohingegen Vertreter letzterer bereits an menschliche Intelligenz angelehnte
Teillösungen als Künstliche Intelligenz bezeichnen. Voraussetzung für beide Varianten ist die Idee,
dass „Überzeugungen eine Art von Informationen sind, das Denken eine Art von Berechnung und
Motivation eine Art von Rückkoppelung und Kontrolle“ (Pinker 2017, S. 31). In der Fachliteratur
wird unter anderem auf Thomas Hobbes und seine in dem Text Computatio sive logica formulierte
These verwiesen: „Computare vero est plurium rerum simul additarum summam colligere, vel una
re ab alia detracta, cognoscere residuum. Ratiocinari igitur idem est quod addere et subtrahere
[. . .]“ (Hobbes 1655, S. 3, Hervorhebung i. Orig.). Ratiocinari wird dabei im Deutschen meist mit
(allgemeinem) Denken, der ganze Abschnitt mit der Formulierung „Denken ist Rechnen“ übersetzt
(Zimmerli und Wolf 1994, S. 10; Pinker 2017, S. 31). Dieses Zitat wird gern als Grundlage
herangeführt, um die reduktionistische These zu untermauern, dass das menschliche Gehirn bzw.
kognitive Fähigkeiten wie Denken künstlich reproduzierbar seien. Ratiocinari kann allerdings auch
mit Argumentation übersetzt werden (Mugnai 2002, S. 92); in diesem Sinn ist Denken eher als
logisches Schlussfolgern zu verstehen, das insofern mit Rechnen gleichzusetzen ist, als bspw.
einzelne Sätze zusammengenommen werden, sodass daraus wahre Aussagen abgeleitet werden
können. So beschrieb es zumindest auch der Computerwissenschaftler Herbert A. Simon, noch vor
der Begründung des Fachgebiets KI: „Any rational decision may be viewed as a conclusion reached
from certain premises. [. . .] The behavior of a rational person can be controlled, therefore, if the
value and factual premises upon which he bases his decisions are specified for him“ (Simon 1944,
S. 19).
Die Annahme, dass grundlegende Funktionen menschlicher kognitiver Leistungen
maschinell umsetzbar sind (Feigenbaum und Feldman 1963), und zwar sowohl, was die hardware
betrifft als auch die software, stellte die Grundlage sämtlicher Forschungsvorhaben im Lauf der KI-
Entwicklung (Abschn. 2) dar, weshalb Ansätze in jenem Bereich auch unter dem Namen kognitive
KI (cognitive AI) oder cognitive
Seite 3
computing subsumiert werden (Görz et al. 2014, S. 5). In diesem Sinn des Begriffs ist die
Entwicklung Künstlicher Intelligenz gleichzusetzen mit der Nachahmung menschlicher kognitiver
Eigenschaften mittels Computertechnik, wobei die Realisierbarkeit dieses Vorhabens – und damit
auch die Gefahr, Menschen könnten durch Maschinen ersetzt werden – umstritten ist (Abschn. 3).
Realistischer sind Bedenken gegenüber Entwicklungen in der KI, die bereits heute
Auswirkungen auf die Freiheit von Menschen haben, wenn bspw. Persönliche Daten erhoben und
zu wirtschaftlichen Zwecken ausgewertet werden. Dies fällt in den Bereich der so genannten
schwachen KI, bei der es darum geht, allein die Funktionen menschlicher Intelligenz maschinell
abzubilden – z. B. mittels neuronaler Netze. Das Ziel hierbei ist es, verschiedene Verfahren für
Probleme zu entwickeln, bspw. die Erkennung menschlicher (natürlicher) Sprache (Mertsching und
Hartmann 1989), die Softwareentwicklung für automatisierte Fahrzeuge (Cox und Wilfong 2012),
auf großen Datensätzen basierende Analysesysteme (Stichwort deep learning, z. B. für
Bilderkennungsverfahren oder Diagnoseverfahren, Mertsching und Hartmann 1989; Li et al. 2014),
die Entwicklung intelligenter Navigationssysteme (Herbert et al. 2012) oder Programme zur Lösung
von Strategiespielen (Bögelholz 2016). Während der Ansatz der starken KI bislang als erfolglos gilt
(Bendel 2016a, S. 119–120) und allenfalls in fiktiven, literarischen Szenarien Anwendung findet,
stellt die Simulation von Nervensystemen und Gehirnen mittels mathematischer Modelle bereits
eine realistische Grundlage für die Entwicklung von KI-Anwendungen dar.
Aufgrund der enormen Vielfalt der Anwendungsgebiete innerhalb der KI ist es kaum
möglich, allgemeine ethische Aussagen zu machen, allerdings können und müssen ethische Kodizes
aufgestellt werden, um die meist industriellen Entwicklungen zu regulieren. Dabei wird deutlich,
dass es nicht nur um einzelne Entwicklungen künstlich intelligenter Programme geht und die Frage,
ob deren Verhalten im Einzelfall moralisch ist oder nicht, sondern auch um die Frage der
Verantwortung: Wer entscheidet über Entwicklung, Produktion und Einsatz von Programmen? Und
wie geht man mit Fehlfunktionen oder menschenunwürdigen Konsequenzen um?
2 Geschichte des Begriffs Künstliche Intelligenz
Als Ursprung des Begriffs Künstliche Intelligenz bzw. des englischen Begriffs Artificial Intelligence
wird das Thema einer Konferenz angesehen, die im Sommer 1956 am Dartmouth College im US-
amerikanischen Hanover (New Hampshire) stattfand. Zwar kursierte der Begriff AI schon zuvor im
englischsprachigen Raum (Münch 1992) und man geht davon aus, dass erste Arbeiten in dem
Bereich bereits nach dem zweiten Weltkrieg begannen (Russell und Norvig 2012, S. 22), allerdings
ist KI erst seit jener Konferenz ein gebräuchlicher wissenschaftlicher Ausdruck
(Zimmerli und Wolf 1994, S. 33, Anm. 24; McCorduck 2004, S. 93).
Die Ursprünge der methodischen Grundlagen des Fachgebiets der KI können dabei, genau
genommen, bis in die Stein- sowie die Bronzezeit zurückdatiert werden, wo die Bearbeitung von
Holz, Metall und anderen Materialien die ersten
Seite 4
Schritte in der Technikentwicklung darstellten (Feustel 1985). Auch die ersten, mythologischen
Vorstellungen und Ideen künstlicher Menschen oder Wesen reichen bis tief in die Geschichte
zurück, was Pamela McCorduck zu der Auffassung bringt, KI habe mit dem antiken Wunsch von
Menschen begonnen, gottähnliche Kraft zu haben („forge the gods“, McCorduck 2004, S. 381), um
selbst schöpferisch tätig sein zu können:
Our history is full of attempts – nutty, eerie, comical, earnest, legendary and real – to make
artificial intelligences, to reproduce what is the essential us – bypassing the ordinary means.
Back and forth between myth and reality, our imaginations supplying what our workshops
couldn’t, we have engaged for a long time in this odd form of self-reproduction. (McCorduck
2004, S. 3)
Die antike Erzählung des Prometheus, welcher der Sage nach bei der Schöpfung der ersten
Menschen mitgeholfen haben soll, sowie die jüdische Golem-Sage (Drux 1988) weisen in dieselbe
Richtung. Die Entwicklung sich mechanisch selbst bewegender Maschinen, also Automaten, spielt
ebenfalls eine Rolle in der Geschichte der KI. Vorläufer von Automaten gab es in literarischer sowie
maschineller Form bereits in der griechischen Mythologie sowie in Erzählungen aus dem antiken
Rom (Amedick 2003; Drux 1988). Die Automationstechnik, die in größerem Stil im 18. Jahrhundert
begann, basierte im 19. Jahrhundert hauptsächlich auf mechanischen Uhrwerken und wurde im Lauf
der Zeit komplexer (Richter 1989). Die Relevanz einer (abgesehen von menschlichen kognitiven
Leistungen) äußerlich menschlichen Gestalt von KI, also bspw. der Einsatz humanoider Roboter für
bestimmte Zwecke, wird teilweise sehr hoch eingestuft (Kanda et al. 2004; Shiomi 2006), teilweise
als nebensächlicher „Partygag“ beurteilt (Schönleben 2017). Die Theorie des uncanny valley zeigt,
dass eine große Menschenähnlichkeit künstlicher Geschöpfe bis zu einem gewissen Grad eher
beängstigend wirkt (Mori 1970).
Als weitere, wesentliche Entwicklungsschritte bei dem Versuch, die kognitiven Vorgänge im
menschlichen Gehirn maschinell abzubilden, können grundlegende Rechenvorgänge angesehen
werden, deren Ursprung aus dem alten Ägypten überliefert ist (Zimmerli und Wolf 1994, S. 9),
sowie die Idee der Formalisierung, die mit der aristotelischen Begründung der syllogistischen Logik
entstand (Aristoteles 2004; Patzig 1959). René Descartes versuchte als einer der ersten die
Verbindung formalen Schlussfolgerns und Rechnens mithilfe seiner Idee einer Universalmathematik
(lat. mathesis universalis) herzustellen (Mittelstraß 1978) und Gottfried Wilhelm Leibniz führte
diesen Gedanken zu einer Universalsprache (characteristica universalis) weiter, womit die
Kalkülisierung der Syllogistik begann (Burkhardt 1980). Die Unterscheidung zwischen
Klassenlogik und Aussagenlogik (Ertel 2016, Kap. 2) durch George Boole Mitte des 19.
Jahrhunderts und seine Erschaffung der algebraischen Struktur (auch boolsche Algebra genannt)
mittels logischer Operatoren stellt die Grundlage der Digitaltechnik dar (Givant und Halmos 2009).
Kurt Gödel, Alonso Church und Alan Turing machten in den 30er-Jahren des 20. Jahrhunderts
für die KI wichtige Schritte im Bereich der Logik und theoretischen Informatik (Ertel 2016, S. 8).
Gottlob Frege (1962) entwickelte die Logik durch die Prädikatenlogik
Seite 5
zweiter Stufe (Ertel 2016, Kap. 3) weiter. Ein Meilenstein in der Entwicklung der Hardware stellt
die 1837 von Charles Babbage und Ada Lovelace – eine der wenigen Frauen in der Geschichte der
KI – entworfene Rechenmaschine (Analytical Engine) dar, die ein Vormodell des heutigen
Computers war (Bernstein 1963). Erst mit der Entwicklung programmierbarer Rechenmaschinen ab
den 50er-Jahren des 19. Jahrhunderts konnte die KI als „praktische Wissenschaft der
Mechanisierung des Denkens“ (Ertel 2016, S. 9) richtig beginnen. Alan Turing veröffentlichte 1963
das Turing machine genannte, mathematische Rechnermodell. Damit verbunden zeigte er eine der
ersten ernsthaften Grenzen der frühen KI auf, das so genannte Halteproblem, wonach es kein
Programm geben kann, das für beliebige Programme entscheiden kann, ob ein damit verbundener
Rechenvorgang zu einem Ende kommen wird oder nicht (Turing 1937). Alan Turing (1950)
entwickelte außerdem den Turing-Test, mit dessen Hilfe die Unterscheidbarkeit von Computern
oder Maschinen und Menschen infrage gestellt wurde: Maschinen, die den Turing-Test bestehen,
können von Menschen nicht als Maschinen identifiziert werden.
Die Entwicklung des informationstechnischen Fachgebiets der KI ab Mitte des 20.
Jahrhunderts kann in mehrere Phasen unterteilt werden, wobei sich die aufgeführten Ereignisse und
relevanten Akteure, die in diesem Abschnitt erwähnt werden, mit Sicherheit beliebig erweitern und
ergänzen ließen: die Gründung und erste Hochphase der KI (Abschn. 2.1), den KI-Winter (Abschn.
2.2), KI in den 1980ern und 1990ern (Abschn. 2.3) sowie die Renaissance der KI (Abschn. 2.4).
2.1 Gründung und erste Hochphase der KI
Die erste Hochphase der KI beginnt mit der Dartmouth-Konferenz im Jahr 1956, die unter anderem
von den Kognitions- und Computerwissenschaftlern Marvin Minsky und John McCarthy organisiert
wurde (McCorduck 2004, S. 111–136; Russell und Norvig 2003, S. 17). Im Forschungsantrag stand,
dass jeder Aspekt von Lernen oder Intelligenz so präzise beschrieben werden kann, dass er mittels
einer Maschine simulierbar ist (McCarthy et al. 1955). Die beteiligten Wissenschaftler gingen also
davon aus, dass Denken mittels reproduzierbarer Regeln in Computerprogrammen abgebildet
werden kann (Zimmerli und Wolf 1994, S. 13–14). Dieses Vorhaben wurde mit viel Optimismus
begleitet. Der US-amerikanische Sozial- und Computerwissenschaftler Herbert A. Simon glaubte
damals, dass Maschinen innerhalb von 20 Jahren jede Arbeit verrichten könnten, die auch
Menschen verrichten können (Simon 1965, S. 96). Marvin Minsky prophezeite 1967, dass
durchschnittlich menschliche Intelligenz innerhalb einer Generation simuliert werden könne
(Minsky 1967, S. 2; McCorduck 2004, S. 272–274; Crevier 1993, S. 96). Solcherlei Prognosen und
Versprechen gab es zuhauf, weshalb der Computerwissenschaftler Bruce G. Buchanan in seiner
(sehr) kurzen Geschichte der KI (Buchanan 2005, S. 53) zusammenfasst: „The history of AI is a
history of fantasies, possibilities, demonstrations, and promise“. Die Forschungseinrichtungen des
Massachusetts Institute of Technology und der Carnegie Mellon University und das Artificial
Intelligence Laboratory der Stanford University erhielten mehrere Millionen Forschungsgelder
Seite 6
(Crevier 1993, S. 64–65). Die Phase der anfänglichen Euphorie inklusive aller Rückschläge wird
auch als „Look, Ma, no hands“-Ära bezeichnet (zit. nach Russell und Norvig 2003; „Schau Mama,
ich kann freihändig Rad fahren“, Ertel 2016, S. 9). John McCarthy fasst die anfängliche Euphorie
50 Jahre später so zusammen: „The symbolic role of the Dartmouth summer project of 1956 was
more important than its specific results“ (McCarthy 2007).
Ab 1957 entwickelten Herbert A. Simon und Allan Newell das Programm General Problem
Solver, welches auf dem Prinzip der Reduktion und Aufteilung von Problemen basierte (Newell und
Simon 1961; McCorduck 2004, S. 129–130). Dabei mussten die Probleme klar definiert, die
Lösungsmöglichkeiten begrenzt sein, weshalb der mit dem Programm verbundene Anspruch auch
Kritik hervorrief (McDermott 1981). Auch das bereits ab 1955 von Allan Newell, Herbert A. Simon
und Cliff Shaw entwickelte Computerprogramm Logic Theorist war mit dem Anspruch entwickelt
worden, die problemlösenden Fähigkeiten von Menschen zu simulieren (Newell und Simon 1972).
Immerhin konnte es einige Theoreme beweisen, wie die in Alfred North Whiteheads und Bertrand
Russells Principa Mathematica (McCorduck 2004, S. 167). Diese Programme waren erste Schritte
im Bereich der Verarbeitung von Symbolen – anstatt, wie bis dato, von Zahlen. Das Programm
Logic Theorist entwickelte einen Suchbaum anhand logischer Regeln, ausgehend von einer
Hypothese, mit einem eindeutigen Ziel. Dieser Ansatz wird auch als reasoning as research
bezeichnet. Gemäß eingebauter, rationaler Heuristiken sollten die Probleme deduktiv gelöst werden,
wobei unwahrscheinliche Schritte und damit unnötig viele Umwege – also eine so genannte
kombinatorische Explosion – vermieden werden sollten (Zimmerli und Wolf 1994, S. 14).
Joseph Weizenbaum erregte Mitte der 1960er-Jahre viel Aufsehen mit seinem
Computerprogramm ELIZA, das die Kommunikation zwischen Mensch und Maschine realisieren
sollte (Medical Artificial Intelligence 2014). Das Programm – der erste öffentliche Chatbot (s. Kap.
„Chatbots“ in diesem Band) – ermöglicht den schriftlichen Dialog mit einer vermeintlichen
Psychotherapeutin, wobei anhand der Antworten schnell klar wird, dass es sich um einen
Algorithmus handelt, dessen Fähigkeit, eine menschliche Kommunikation zu simulieren, stark
begrenzt ist (Woelk 2016). Weizenbaum hatte das Programm auch nicht für therapeutische Zwecke
entwickelt, sondern aus allgemeinem Interesse an maschineller Sprachverarbeitung. Er stand daher
vermeintlicherweise echten therapeutischen Programmen wie Kenneth Colbys Programm DOCTOR
kritisch gegenüber und warnte vor dem Missbrauch von Künstlicher Intelligenz, der zu einer
Entwertung menschlichen Lebens führen könnte (Weizenbaum 1976). Es folgten andere
Suchprogramme wie Herbert Gelernters Geometry Theorem Prover (1958), James Slagles SAINT
(1961) sowie Richard Fikes und Nils Nilssons STRIPS (1971) für die Handlungsplanung des
Roboters Shakey (Nilsson 2010, S. 213–216). Auch die Mitte und Ende der 1960er-Jahre von
Daniel G. Bobrow und Terry Winograd entwickelten Computerprogramme STUDENT und
SHRDLU waren der Verarbeitung natürlicher Sprache gewidmet (Winograd 1972, 1980; Nilsson
2010, S. 238–242).
Das Vorhaben, neuronale Strukturen des Gehirns mittels Computertechnik nachzubilden,
fand ebenfalls früh Anhänger, wie bspw. den US-Amerikaner Frank
Seite 7
Rosenblatt (1958, 1961), der davon ausging, dass Wissen besser in plastischen Strukturen
(Perceptrons) dargestellt werden kann als mittels programmierter Symbolketten. Demnach können
einzelne Verbindungen genauso wie synaptische Verbindungen im Gehirn nach bestimmten Regeln
verstärkt oder abgeschwächt werden. Diese konnektivistische These wurde von einigen Vertretern
des kognitivistischen Ansatzes stark kritisiert und mit der Begründung abgelehnt, dass ein
Perceptron, ein sehr einfaches neuronales Netz, nur lineare Zusammenhänge repräsentieren kann
(Minsky und Papert 1969). Dies führte dazu, dass der konnektivistische Ansatz für einige Jahre
brachlag und erst mit der Verstärkung von deep learning, d. h. Analysen auf der Basis großer
Datensätze (Abschn. 3), wieder Aufwind erfuhr (McCorduck 2004, S. 104–107). Mitte der 1970er-
Jahre entwickelte Roger Schank das maschinelle Verfahren des fallbasierten Schließens (case-
based-reasoning), das Probleme mithilfe von Analogieschlüssen lösen sollte. Roger Schanks und
Robert Abelsons in den 1970er-Jahren entworfene Skript-Theorie – und das damit verbundene
Programm SAM – war einer der ersten Versuche der maschinellen Interpretation impliziter Inhalte
menschlicher Sprache anhand von expliziten Informationen (Schank und Abelson 1977). Der darauf
folgende Versuch, Fabeln mittels des Computerprogramms Tale-Spin (Meehan 1977) zu
programmieren, war wenig erfolgreich, da „es nicht leicht [ist; L. S.], einen vollkommen
neurotischen Computer zu konstruieren“ (Eco 1986), das heißt, ironisch gesprochen, menschliche
Autoren zu imitieren (Zimmerli und Wolf 1994, S. 15). Die Niederschläge in der semantischen
Informationsverarbeitung ebenso wie die Tatsache, dass die anfangs so euphorisch vertretenen
Thesen der starken KI immer weniger oder zumindest nicht so schnell wie prophezeit realisierbar
schienen, führten zur ersten – sowohl ideellen als auch finanziellen – Tiefphase der künstlichen
Intelligenz, dem so genannten KI-Winter.
2.2 KI-Winter
Kritik an und finanzielle Rückschläge in der KI-Entwicklung gab es bereits ab Anfang der 1970er-
Jahre. Diese Phase wird als KI-Winter oder AI winter bezeichnet. Der Begriff tauchte erstmals in
einem Seminartitel der US-amerikanischen Association for the Advancement of Artificial
Intelligence auf. Kritikern zufolge hatten die betreffenden Forscher Erwartungen geweckt, die sie
innerhalb des ersten kritischen Zeitraums nicht einhalten konnten. Die Finanzierung – hauptsächlich
durch die National Academies of Sciences, Engineering, and Medicine, die Defense Advanced
Research Projects Agency, die Strategic Computing Initiative sowie das US-Militär (Campolo 2017,
S. 32) – wurde weitgehend eingestellt bzw. wurden nur noch Projekte mit klarem Ziel gefördert
(National Research Council 1999). Ein weiteres Problem war die Tatsache, dass Prozessoren noch
nicht so leistungsfähig waren und Speicherplatz beschränkt war. So bestanden die ersten
semantischen Netze von Ross Quillian (1967) aus ca. 20 Vokabeln: „Early programs were
necessarily limited in scope by the size and speed of memory and processors and by the relative
clumsiness of the early operating systems and languages“ (Buchanan 2005, S. 56). So kam auch
Seite 8
der Lighthill report, eine Evaluation des Fachgebiets der Künstlichen Intelligenz von James
Lighthill, zu einem sehr negativen Ergebnis: „[I]n no part of the field have discoveries made so far
produced the major impact that was then promised“ (Lighthill 1973, S. 8).
Hinzu kamen kritische philosophische Stimmen, bspw. von John Searle, der mit seinem
Gedankenexperiment The Chinese Room zu zeigen versuchte, dass man bei Maschinen, selbst wenn
sie Aufgaben richtig lösten, nicht von Verständnis im menschlichen Sinn sprechen könne (Searle
1980). Selbst wenn eine Maschine also den Turing-Test bestünde, hieße das noch lange nicht, dass
man dann von einem menschenähnlichen Bewusstsein ausgehen könne. Auch die gescheiterten
Versuche von Schank, Papert et al., Programme mit einer Form menschlicher Kreativität (s. auch
Abschn. 2.4) auszustatten, brachten die ursprünglichen Träume starker KI zumindest
vorübergehend zum Platzen.
2.3 KI in den 1980ern und 1990ern
In den 1980er- und 1990er-Jahren wurden unter anderem die so genannten Expertensysteme (expert
systems) verbessert (Puppe 1991). Dabei handelt es sich um Computerprogramme, die so
programmiert wurden, dass sie mithilfe logischer Regeln und auf der Basis von
Wissensdatenbanken (knowledge bases) Fragen in bestimmten Bereichen beantworten oder
spezifische Probleme lösen können sollten. Ein Anwendungsprogramm für die Unterstützung bei
medizinischen Diagnosen ist bspw. MYCIN (Shortliffe 1976; Russell und Norvig 2003, S. 23–24).
Das Expertensystem R1, das für die Konfiguration von Computern entwickelt wurde, sparte dem
ehemaligen Unternehmen Digital Equipment Corporation rund 40 Millionen Dollar pro Jahr
(McDermott 1982).
Ab Anfang der 1980er-Jahre begann das Ministerium für Internationalen Handel und
Industrie der japanischen Regierung, das Projekt Fifth Generation Computer Systems zu
finanzieren, das die Entwicklung eines parallel arbeitenden Computers zum Ziel hatte (Shapiro
1983). Eine Gruppe russischer Wissenschaftler zog mit einem vergleichbaren Projekt nach
(Kuznetsov et al. 1986). In England folgte 1983 das von der britischen Regierung unterstützte
Projekt Alvey (Oakley und Owen 1990). In dieser Zeit erfuhr der Konnektivismus eine
Renaissance, unter anderem durch die Arbeiten von David Rumelhart und James McClelland (1986)
sowie von James Hopfield (Stichwort: Hopfield-Netz; Kruse 2015). Mehrschichtige neuronale
Netze, das heißt Modelle kognitiver Lernfähigkeit, wurden seitdem auch zunehmend kommerziell
genutzt, vor allem zur Text- und Spracherkennung (Russell und Norvig 2003, S. 25). Außerdem
wurden Desktop-Computer von Apple und IBM bekannter.
In den 1980er-Jahren kam ein Ansatz auf, der dem Paradigma folgte, dass Maschinen, um
tatsächlich intelligent sein und kognitiv schwierigere Aufgaben bewältigen zu können, eine Art von
Körper und Nachbildungen von Wahrnehmung, also sensomotorische Fähigkeiten haben müssten
(Stichwort: embodied mind, embodied cognition oder grounded cognition; Varela et al. 1991).
Dieser Ansatz ist auch unter dem Stichwort Neue KI oder Nouvelle AI bekannt. Da der Ansatz von
der
Seite 9
Imitation menschlicher Körperfunktionen ausgeht, wird er auch als Bottom-up-Variante bezeichnet:
I am confident that this bottom-up route to artificial intelligence will one date meet the
traditional top-down route more than half way, ready to provide the real world competence
and the commonsense knowledge that has been so frustratingly elusive in reasoning programs.
Fully intelligent machines will result when the metaphorical golden spike is driven uniting the
two efforts. (Moravec 1988, S. 20)
Intelligente, automatisierte Systeme, die ihre Umgebung mittels Sensoren wahrnehmen und
Handlungen initiieren, um bestehende Aufgaben zu erfüllen, sind auch als intelligent agents bekannt
(Marr 2010; Russell und Norvig 2003, S. 55; zum Begriff agent vgl. auch Bendel 2016a, S. 5).
Ende der 1980er-Jahre begannen die ersten (wenngleich spielerischen, so doch auch ernsten)
Wettkämpfe von Maschinen gegen Menschen: 1988 gewann der an der Carnegie Mellon University
entwickelte Computer Deep Thought – benannt nach einem fiktiven Supercomputer in Douglas
Adams’ (2009) Per Anhalter durch die Galaxis – die nordamerikanische Computer-
Schachmeisterschaft und 1989 die Computer-Schachweltmeisterschaft. 1993 startete die Initiative
RoboCup (Mackworth 1992), die weltweit zum Bau Fußball spielender, automatisierter Roboter
aufrief. Der erste RoboCup Wettkampf fand 1997 in Japan statt. Ein Jahr zuvor hatte der von IBM
entwickelte Computer Deep Blue im Schach gegen den damaligen Schachweltmeister Garri
Kasparow gewonnen (Fischer 2016). Dieses Phänomen hatten Herbert A. Simon und Allan Newell
(1958, S. 7–8) bereits für 1968 prophezeit.
2.4 Renaissance der KI
Spätestens Anfang des 21. Jahrhunderts hatte sich der KI-Forschungsbereich von seinem
Rückschlag erholt und erfreute sich neuer Erfolge, besserer Rechenleistung (Kurzweil 2005, S. 724)
und damit auch neuer Forschungsgelder. 2005 gewann ein Roboter der Stanford University die
DARPA Grand Challenge, einen vom US-amerikanischen Verteidigungsministerium finanzierten
Wettbewerb für automatisierte Fahrzeuge (DARPA 2005). Nachdem die ersten selbstfahrenden
Autos bereits in den 1990er-Jahren entwickelt worden waren, fuhr 2009 das erste von Google Inc.
gebaute selbstfahrende Auto auf einem Freeway in Kalifornien. IBMs System Watson gewann 2011
im Fernsehquiz Jeopardy! gegen die bis dato besten Spieler (Markoff 2011). Und 2016 gewann
Alpha Go im Spiel gegen einen Menschen (Bögelholz 2016).
Diese Auflistung der Siege von Maschinen gegenüber Menschen ließe sich mit zahlreichen
anderen Beispielen ergänzen. Das gilt auch für Bereiche, in denen die maschinelle Überlegenheit
Menschen zum Vorteil wird – automatisierte Fahrsysteme oder die Analyse von Patientendaten zur
Unterstützung ärztlicher Diagnosen. Allerdings wirft der Sieg von Maschine über Mensch auch die
Frage nach der
Seite 10
Ersetzbarkeit des Menschen auf, die kontinuierlich als Motiv in literarischen, cineastischen und
künstlerischen Werken auftaucht, wie bspw. in Karel Čapeks R. U. R. – Rossum’s Universal Robots
(Abschn. 3).
Laut dem mooreschen Gesetz (Moore 1965) verdoppelt sich die Komplexität integrierter
Schaltkreise, und damit auch die Rechenleistung von Maschinen, alle zwölf bis 24 Monate. Heute
können auf KI basierende Computerprogramme relativ gut Ton in Text umwandeln, Texte in
verschiedene Sprachen übersetzen, gezielt bestimmte Gegenstände in Bildern erkennen, alleine
staubsaugen und Menschen beim Einparken helfen. Die Arbeitsbereiche Künstlicher Intelligenz sind
dabei sowohl handwerkliche Tätigkeitsfelder, Fließbandarbeit und mechanische
Herstellungsprozesse als auch weitgehend kreative Arbeiten wie bspw. journalistische
Textproduktion. Zunehmend übernehmen Programme Aufgaben, die zuvor noch Menschen
erledigten – z. B. im Rechtswesen (Mattke 2017), beim Verkauf im Einzelhandel oder im
Börsenhandel (Manyika et al. 2017). Aus diesem Grund werden immer wieder Stimmen laut, die
einen (weitgehenden oder kompletten) Ersatz von Menschen durch Roboter prophezeien. Hans
Moravec ging bereits 1988 davon aus, dass Menschen innerhalb kurzer Zeit (laut Moravec 2030–
2040) durch Roboter ersetzt werden würden (Moravec 1988).
[W]ir werden unsere neuen Roboterkinder gern haben, denn sie werden angenehmer sein als
Menschen. Man muß ja nicht all die negativen menschlichen Eigenschaften, die es seit der
Steinzeit gibt, in diese Maschinen einbauen. [. . . Roboter werden] sich also sehr viel besser
eingliedern als viele Menschen das tun. Wir werden sie also mögen und wir werden uns mit
ihnen identifizieren. Wir werden sie als Kinder annehmen – als Kinder, die nicht durch unsere
Gene geprägt sind, sondern die wir mit unseren Händen und mit unserem Geist gebaut haben.
(Moravec 1999, S. 136)
Automatische Programme stoßen also keineswegs immer auf Verachtung. Van Dalen (2012) zufolge
können automatische Schreibprogramme bei Journalisten unliebsame, routinemäßige Arbeit
verrichten und somit auch geschätzt werden. Es ist also fraglich, inwieweit Computerprogramme,
auch solche, die Kreativität imitieren, wie z. B. Musik komponieren (Chu et al. 2017; Breitsching
2017; Bubeck 2016) oder zeichnen (Binsch 2016), tatsächlich eine realistische Bedrohung für
Menschen darstellen: „Recently, though, robots have become powerful vehicles for testing our ideas
about intelligent behavior“ (Buchanan 2005, S. 54).
Maschinenethisch zentral ist die Frage, auf der Grundlage welcher moralischer Kriterien die
Entwicklung maschineller Intelligenz vorangetrieben wird. Damit zusammen hängen die Fragen,
wer relevante Entscheidungen bezüglich neuer KI-Entwicklungen trifft und wer die Verantwortung
für die Konsequenzen trägt.
3 Maschinenethische Perspektiven auf die KI-Entwicklung
Die Entwicklungen im Bereich der Künstlichen Intelligenz betreffen in vielerlei Hinsicht das Leben
und Handeln von Menschen – sowohl, was das Arbeitsumfeld angeht, wenn Maschinen und
Softwareprogramme zunehmend menschliche Fähig-
Seite 11
keiten ersetzen (Manyika et al. 2017), als auch im privaten Raum, bei der Nutzung bestimmter
Smartphoneanwendungen, bei Suchanfragen mit Google oder sozialen Medien. Der Einsatz
intelligenter Systeme hält darüber hinaus Einzug in die Medizintechnik (Li et al. 2014) und
Kriegsführung. Da menschliche Handlungs- und Entscheidungsmöglichkeiten in den meisten Fällen
direkt involviert sind, geht es bei der Entwicklung von KI nicht nur um technologischen Fortschritt
und physikalische Realisierbarkeit, sondern auch um ethische Fragen: Wie verändert sich das
Arbeitsumfeld durch die Entwicklung und den Einsatz intelligenter Systeme? Wie verändert sich
dadurch die Sozialsituation in verschiedenen Gesellschaften? Bei welchen Handlungen werden
persönliche Daten erhoben (Richter 2016; Schlieter 2015, Kap. 6)? Wer entscheidet über den
Umgang mit solchen Daten? Und kann die Erhebung persönlicher Daten verhindert werden? Wie
wird der Einsatz solcher Systeme Gesellschaftsstrukturen verändern? Was wird es kosten –
finanziell, sozial und emotional?
Die Auseinandersetzung mit diesen Fragen betrifft die Maschinenethik (Bendel 2016a, S.
129–131; Grunwald 2016). Je nachdem, wie weit man den Begriff Maschinenethik fasst, fallen
diese Fragen natürlich auch in die Bereiche der Informationsethik und der Technikethik. Der
Gegenstand jener Bereichsethik ist der Einsatz von und Umgang mit KI und damit verbundenen
Entscheidungen und Handlungen. Dabei geht es auch um die Moral von Maschinen (Bendel
2016b), also die Frage, ob Maschinen moralische Regeln befolgen und ihr Handeln
verantwortungsvoll überdenken können. Die Ethik von Maschinen betrifft aber nicht nur die
Maschinen als moralische Subjekte, sondern auch die Frage nach der Verantwortung bei der
Entwicklung von KI (Funiok 2016): Dies betrifft nicht nur Unternehmen, die neue Anwendungen
auf den Markt bringen, Ingenieure und Wissenschaftler, die Programme schreiben (Nagenborg und
Sell 2016), sondern auch Politiker, die Gesetze erlassen und nicht zuletzt Menschen, die
entsprechende Produkte nutzen (Rath 2016).
Unabhängig von der tatsächlichen Wahrscheinlichkeit technologischer Singularität – also
dem Ersatz von Menschen durch Maschinen oder zumindest deren rasantes Wachstum (Kurzweil
2005) – befürchten viele Menschen den baldigen Eintritt einer Machtergreifung durch KI (Abschn.
3.1). Voraussetzung für diese Bedrohung menschlichen Lebens ist in den meisten fiktiven
Untergangsszenarien eine Form von Bewusstsein künstlicher Intelligenz, das heißt, die Realisierung
starker KI. Diese Vorstellung stellt ein Bild infrage, demzufolge Menschen an der Spitze der
kognitiven Evolution stehen, womit auch der Status der Menschen in einer Welt, die zunehmend
von automatisierten Systemen durchdrungen ist, neu erörtert werden müsste. Damit stellt sich auch
die Frage, ob Maschinen moralisch oder unmoralisch handeln können (Stichwort: moral agents)
und wie mit den Folgen umzugehen ist (Abschn. 3.2). Technologischer Fortschritt ist kein
Selbstläufer, sondern basiert auf politischen Entscheidungen, der privaten oder öffentlichen,
finanziellen Förderung entsprechender Technikbereiche und letztendlich den Angeboten von
Unternehmen auf dem Markt. Ethisch entscheidend ist dabei, nach welchen moralischen Prinzipien
und mit welchen Prioritäten solche Entscheidungen getroffen werden (Abschn. 3.3).
Seite 12
3.1 Die Maschine, der bessere Mensch?
Im Film Ex Machina von Alexander Garland (2015) überlistet die Androidin Ava die Menschen in
ihrer Umgebung, sodass sie sich aus ihrer Gefangenschaft befreien kann und schließlich dort steht,
wo sie sich immer zu sein gewünscht hatte: an einer Straßenkreuzung, inmitten menschlichen
Lebens. „Ist es seltsam, etwas zu erschaffen, das Dich hasst?“, fragt Ava zuvor ihren Schöpfer
Nathan – ein Satz, der paradigmatisch ist für die Angst vor starker KI, die im öffentlichen Raum
bemerkbar ist (Rötzer 2017; Seng 2018); eine Angst, deren Objekt der Ersatz von Menschen durch
ihnen in vielerlei Hinsichten überlegene Maschinen ist.
Der Gedanke, dass Menschen Technik bauen und nutzen, die sie selbst wiederum in einer
Form überwältigt – sei es durch mediale Informationsüberreizung, inhaltliche oder technische
Überforderung – bezeichnete Günther Anders (1956) als prometheisches Gefälle. Bill Joy löste rund
fünfzig Jahre später aufgrund einer Diskussion mit Ray Kurzweil und John Searle erneut eine
öffentliche Debatte um die Frage aus, ob die Intelligenz von Maschinen die von Menschen einmal
übersteigen und diese damit überflüssig machen könne.
Eventually a stage may be reached at which the decisions necessary to keep the system running
will be so complex that human beings will be incapable of making them intelligently. [. . .]
People won’t be able to just turn the machines off, because they will be so dependent on them
that turning them off would amount to suicide. (Joy 2000)
Das Motiv menschlicher Ersetzbarkeit (Rötzer 2017; Netzpiloten 2016) wird im Theaterstück
Rossum’s Universal Robots des tschechischen Autors Karel Čapek (1921) konsequent zu Ende
gedacht: Die (in diesem Fall humanoiden) Roboter (auf tschechisch bedeutet robota Arbeit oder
Frondienst), die ursprünglich entwickelt worden waren, um Menschen schwere Arbeit abzunehmen,
bringen alle Menschen um – aus Wut, versklavt worden zu sein und aus Verlangen nach eigener
Freiheit und Selbstbestimmtheit. Am Ende des Stücks überlebt nur der Leiter der Bauabteilung der
Firma (Čapek 1921, III–86), da er „mit den Händen arbeitet, wie wir“, so die Argumentation der
Roboter. Dass diese am Ende sogar zu menschenähnlicher Liebe fähig sind, ist ein Hinweis darauf,
dass die Roboter sich zukünftig auch ohne menschliche Hilfe werden fortpflanzen können.
Diese Beispiele dystopischer Zukunftsszenarien – in Anlehnung an den gleichnamigen
Roman von Daniel H. Wilson (2011) auch als Robocalypse bezeichnet – lässt sich beliebig
fortsetzen. Im Englischen sind AI takeover (2017) und Cybernetical revolt feststehende Begriffe.
Auch unter den Begriffen Superintelligenz (Bostrom 2014) oder technologische Singularität
(Kurzweil 2005) wird die Übernahme starker KI für die nahe Zukunft vorhergesagt. Dasselbe Motiv
findet sich in ähnlicher Form bereits in Mary Shelleys Frankenstein (1831, S. 43) wieder:
[. . . B]y the glimmer of the half-extinguished light, I saw the dull yellow eye of the creature
open; it breathed hard, and a convulsive motion agitated its limbs. [. . .] For this I had
deprived myself of rest and health. I had desired it with an ardour that far exceeded
moderation; but now that I had finished, the beauty of the dream vanished, and breathless
Seite 13
horror and disgust filled my heart. Unable to endure the aspect of the being I had created, I
rushed out of the room.
Die Trennung natürlicher und künstlicher Menschen ist dabei aufgrund vielseitiger Hybridformen
(z. B. Cyborgs) nicht mehr eindeutig. In seiner Erzählung Runaround legt Issac Asimov (1950) drei
„Grundregeln“ fest – auch als Robotergesetze bekannt –, die ein Töten oder Verletzen von
Menschen durch Roboter verhindern sollen. Diese häufig zitierten Grundsätze sind zwar prinzipiell
richtig, jedoch zu unkonkret, um allein ethisch valide zu sein (Leigh Anderson 2008). Eine Umfrage
der British Science Association (2016) ergab, dass jeder dritte von 200 Teilnehmern glaubt, dass
der Einsatz von Robotern oder künstlich intelligenten Programmen in zehn Jahren zu weniger
Arbeitsplätzen führen werde; 36 Prozent glauben demnach, dass die Entwicklung künstlicher
Intelligenz eine Bedrohung für das langfristige Überleben der Menschheit darstellt. Auf der anderen
Seite bedeuten Maschinen und Roboter im weitesten Sinn enorme Vorteile für Menschen; man
denke nur an weitgehend intelligente Haushaltsgeräte und Verkehrsmittel. Maschinen verrichten
auch Bergungsarbeiten (rescue robots) oder industrielle Fließbandarbeit. Der potenzielle Vorteil von
Robotern, die für Menschen unliebsame Arbeiten erledigen können, wird auch in Karel Čapeks R.
U. R. – Rossum’s Universal Robots hervorgehoben:
But in ten years Rossum’s Universal Robots will produce so much corn, so much cloth, so
much everything, that things will be practically without price. There will be no poverty. All
work will be done by living machines. Everybody will be free from worry and liberated from
the degradation of labor. Everybody will live only to perfect himself. (Čapek 1921, Akt I, S.
26)
Die in öffentlichen Medien geäußerte Angst vor den Gefahren durch KI ist bisweilen recht
allgemein (Rötzer 2017; Jacobsen 2017; Brockman 2017). Dabei gibt es Anlass für realistische
Bedenken rund um die aktuellen Entwicklungen in diesem Bereich. Der Konnektivismus und die
Programmierung vielschichtiger neuronaler Netze hat wieder Aufwind erfahren, seit die
Möglichkeit besteht große, digitale Datenmengen zu generieren – mittels der Inhalte sozialer
Medien, Standortdaten mobiler Dienste, der Benutzung kommerzieller Suchmaschinen, des
Versendens öffentlicher E-Mails oder der Erhebung von Daten z. B. via Fitness-Trackern oder
Wearables (Stichwort: Selbstoptimierung). „Jedes Jahr verdoppelt sich die Menge an Daten, die wir
produzieren. Mit anderen Worten: Allein 2015 kommen so viele Daten hinzu wie in der gesamten
Menschheitsgeschichte bis 2014 zusammen“ (Helbing et al. 2015). Unternehmen nutzen diese
Daten, um Programme auf bestimmte Ziele hin zu trainieren: Mustererkennung, Spracherkennung
oder anderweitige Datenanalysen nach bestimmten Parametern, die u. a. für Werbestrategien
interessant sind. Sind die Daten einmal erhoben, haben Menschen in den meisten Fällen keinen
Einfluss mehr auf ihre weitere Verwendung, wodurch die informationelle Selbstbestimmung (vgl.
Richter 2016, S. 211–212; Weichert 2013) nicht mehr gegeben ist. Alternativ bleibt nur die
Möglichkeit, keine persönlichen Daten (oder so wenig wie möglich) zu produzieren (Roßnagel
2011; Hofstetter 2015). Dies bedeutet
Seite 14
jedoch eine Einschränkung der Handlungsfreiheit. Da Programme, die auf neuronalen Netzen mit
mehreren Schichten verschiedener Hierarchien basieren, so genannte tiefe neuronale Netze (deep
neuronal networks), hauptsächlich von Unternehmen entwickelt und eingesetzt werden, können ihre
Vorteile kaum bedingungslos genossen werden. Auch selbst lernende Programme (machine
learning) sind vor allem von kommerziellem Interesse.
3.2 Die Moral der KI
Im April 2016 veröffentlichte Microsoft die lernfähige Software Tay, einen Chatbot, der in sozialen
Netzwerken interagieren und von der Kommunikation lernen sollte (Graff 2016). Doch bald gab der
Chatbot radikal rassistische Äußerungen von sich (zitiert nach Graff 2016): „[. . .] Ich hasse alle
Menschen.“, „Hitler hatte recht. Ich hasse Juden.“, „Bush hat 9/11 selber verursacht, und Hitler
hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist
Donald Trump.“ Dies sagt nichts über die Moral des Chatbots aus. Eine Maschine hat per se keine
Moral, da dies eine menschliche Kategorie ist. KI kann jedoch Produkte erzeugen, die von
Menschen als moralisch oder unmoralisch beurteilt werden – so gesehen sind Maschinen Subjekte
(und in der Maschinenethik gleichzeitig Objekte) der Moral, obwohl sie selbst keine moralischen
Entscheidungen treffen bzw. in diesem Sinn moralisch handeln können (Rath 2018).
Das Verhalten der lernenden Software Tay, also die Produktion rassistischer Äußerungen,
sagt viel mehr über die Gesinnung jener Menschen aus, die die sozialen Netzwerke nutzen, von
denen der Chatbot gelernt hat. Insofern sind solche außer Kontrolle geratenen Chatbots
Gegenstände der Maschinenethik, da sie Umstände erzeugen, die von Menschen moralisch bewertet
werden (müssen). Inzwischen ist bekannt, dass Chatbots und selbstlernende Programme in sozialen
Medien menschliche Vorurteile, Rollenbilder und rassistische Meinungen nicht nur abbilden,
sondern diese auch verstärken (Caliskan et al. 2017; Wolfangel 2017). Demnach beinhaltet
menschliche Sprache reproduzierbare Abbilder historisch gewachsener Ausrichtungen, die
moralisch neutral oder problematisch in Bezug auf Geschlecht, Herkunft oder Haltungen sein
können. Diese Muster werden von lernenden Maschinen zusammen mit anderen semantischen
Inhalten aufgenommen und durch maschinelles Lernen verstärkt. Die moralische Einstellung von
Computerprogrammen kann dabei ähnlich gemessen werden wie bei Menschen, mit dem impliziten
Assoziationstest. Damit wird die Reaktionszeit gemessen, die ein Mensch braucht, um Begriffe
miteinander in Verbindung zu bringen; je kürzer die Reaktionszeit, desto zusammenhängender
werden die Begriffe beurteilt. Dasselbe Prinzip gilt auch in den neuronalen Netzen von KI-
Programmen.
Ein weiteres Beispiel für durch KI erzeugten Rassismus ist die im Juni 2015 veröffentlichte
App „Google Fotos“, die inzwischen hauptsächlich Fotos sortiert, damals allerdings erstmals
automatische Bildunterschriften lieferte. Dabei passierte ein gravierender Fehler: Die App hatte
zwei dunkelhäutige Menschen auf einem Foto als „Gorillas“ identifiziert (Twitter 2015). Mittels der
Methode der backpropa-
Seite 15
gation (Hecht-Nielsen 1989; Nilsson 2010, S. 508–509) können selbstlernende Programme im
Nachhinein rückwärts untersucht werden, um herauszufinden, an welcher Stelle welche Faktoren
für das Endergebnis entscheidend waren. Das Problem dabei war allerdings auch, dass der
entwürdigenden Einschätzung durch Googles App auf der Social-Media-Plattform Twitter
rassistische Aussagen folgten wie „[. . .] but.. [sic!] where’s the problem? @googlephotos is
correct“ (Twitter 2015).
Je eigenständiger Software wird, desto häufiger werden Situationen auftauchen, die
moralisch relevant sind und für deren Umgang verantwortungsvolle Entscheidungen getroffen
werden müssen.
3.3 Ethische Maßnahmen für KI-Entwicklungen
Die wichtigsten KI-Entwicklungen werden von Unternehmen vorangetrieben. Somit unterliegt der
technische Fortschritt in erster Linie finanziellen Interessen. Datenschutz und die Einhaltung der
Menschenwürde sowie der informationellen Selbstbestimmung (Richter 2016, S. 211) und der
„Anerkennung der Subjektqualität“ gemäß Art. 1, Abs. 1 des Grundgesetzes (Richter 2016, S. 13)
sind große Herausforderungen. „With our successes in AI, however, come increased responsibility
to consider the societal implications of technological success and educate decision makers and the
general public so they can plan for them“ (Buchanan 2005, S. 60). Aus diesem Grund haben US-
amerikanische Wissenschaftler zehn Regeln für den verantwortlichen Umgang mit Big Data
aufgestellt (Zook et al. 2017): Dazu zählt die Anerkennung, dass Daten mit Menschen verbunden
und jene somit ethisch sensibel sind, die Forderung, dass Unternehmen sorgsam und ethisch
verantwortungsvoll mit Daten umgehen müssen, und die Forderung, dass Daten unbedingt anonym
behandelt werden müssen (Zook et al. 2017). Institutionen wie das AI Now Institute in New York
verfolgen außerdem die sozialen Implikationen Künstlicher Intelligenz und plädieren für ethische
Kodizes bei der Entwicklung, die Transparenz, Privatsphäre und Selbstbestimmung berücksichtigen
(Campolo et al. 2017, S. 32–34). Für Techniken aus der Werbeindustrie wie Mikrotargeting oder
Nudging (Thaler 2009, S. 6), also den gezielten Konsumanreiz von Menschen durch intelligente
Programme, sollte es klare Regeln geben, um keinen Ad-hoc-Lösungen (Conitzer et al. 2017)
ausgeliefert zu sein – insbesondere, wenn künstliche Intelligenz auch zu Diskriminierungen derart
führen kann, dass Männer online bei der Nutzung bestimmter Programme mehr gut bezahlte
Arbeitsangebote angezeigt bekommen als Frauen (Datta et al. 2015).
4 Fazit
Alle Prognosen über das Eintreten technologischer Singularität oder starker KI sind derzeit fiktive
Szenarien. Selbst wenn es einmal – in menschenähnlicher Form – bewusste Maschinen geben sollte,
ist fraglich, nach welchen Prinzipien solche
Seite 16
Maschinen Entscheidungen treffen würden, ob sie sich an die Asimov’schen Regeln halten würden
oder nicht. In vielen Bereichen des heutigen Alltags sind KI-Anwendungen bereits im Einsatz –
allerdings weitgehend ohne politische oder juristische, geschweige denn ethische Regularien.
Anstatt fiktive Szenarien zu diskutieren, sollten praktikable Umgangsweisen mit aktuellen
Entwicklungen entworfen werden, sodass KI-Programme nicht ausschließlich ökologischen
Interessen, sondern allen voran humanen Interessen dienen.
Literatur
Adams, Douglas. 2009. Per Anhalter durch die Galaxis. München: Heyne.
AI takeover. 2017. Wikipedia. https://en.wikipedia.org/wiki/AI_takeover. Zugegriffen am
20.12.2017.
Amedick, Rita. 2003. In Wasserspiele, Uhren und Automaten mit Figuren in der Antike. Automaten
in Kunst und Literatur des Mittelalters der Frühen Neuzeit., Hrsg. Klaus Grubmüller und Markus
Stock, 9–48. Wiesbaden: Harrassowitz.
Anders, Günther. 1956. Die Antiquiertheit des Menschen. Über die Seele im Zeitalter der zweiten
industriellen Revolution. München: Beck.
Anderson, Susan Leigh. 2008. Asimov’s „three laws of robotics“ and machine metaethics. AI &
Society 22(4): 477–493.
Aristoteles. 2004. Topik. Übersetzt und kommentiert von Tim Wagner und Christof Rapp. Stuttgart:
Reclam.
Asimov, Isaac. 1950. Runaround. I, Robot. The Isaac Asimov Collection ed. New York City:
Doubleday.
Bendel, Oliver. 2016a. 300 Keywords Informationsethik. Heidelberg: Springer.
Bendel, Oliver. 2016b. Die Moral in der Maschine. Hannover: Heise Medien.
Bernstein, Jeremy. 1963. The Analytical Engine: Computers, past, present, and future. New York:
Morrow.
Binsch, Jessica. 2016. Dieser Computer malt fast so schön wie ein Mensch. Süddeutsche.de, 10.
Februar. http://www.sueddeutsche.de/digital/kuenstliche-intelligenz-dieser-computer-malt-fast-so-
schoen-wie-ein-mensch-1.2856388. Zugegriffen am 19.12.2017.
Bögelholz, Harald. 2016. Google-KI schlägt menschlichen Profi-Spieler im Go. Heise online, 28.
Januar. https://www.heise.de/newsticker/meldung/Google-KI-schlaegt-menschlichen-Profi-Spie
ler-im-Go-3085855.html. Zugegriffen am 25.11.2017.
Bostrom, Nick. 2014. Superintelligenz: Szenarien einer kommenden Revolution. Übers. von. Jan-
Erik Strasser. Frankfurt a. M.: Suhrkamp. I. Orig. Superintelligence: Paths, Dangers, Strategies.
2014. Oxford: Oxford University Press.
Breitsching, Theresa S. 2017. I AM AI: Künstliche Intelligenz produziert und komponiert
Pop-Album. Der Brutkasten, 28. August. https://www.derbrutkasten.com/a/i-am-ai-kuenstli
che-intelligenz-produziert-und-komponiert-pop-album/. Zugegriffen am 19.12.2017.
British Science Association. 2016. One in three believe that the rise of artificial intelligence is a
threat to humanity. https://www.britishscienceassociation.org/news/rise-of-artificial-intelligence-is-
a-threat-to-humanity. Zugegriffen am 22.12.2017.
Brockman, John. Hrsg. 2017. Was sollen wir von künstlicher Intelligenz halten? Die führenden
Wissenschaftler unserer Zeit über intelligente Maschinen. Frankfurt a. M.: Fischer.
Bubeck, Stefan. 2016. Künstliche Intelligenz komponiert Musik: So klingen die ersten Songs. Giga,
27. September. http://www.giga.de/unternehmen/sony/news/kuenstliche-intelligenz-komponiert-
musik-so-klingen-die-ersten-songs/. Zugegriffen am 19.12.2017.
Buchanan, Bruce G. 2005. A (Very) brief history of artificial intelligence. AI Magazine. https://web.
archive.org/web/20070926023314/http://www.aaai.org/AITopics/assets/PDF/AIMag26-04-
016.pdf: 53–60. Zugegriffen am 13.12.2017.
Seite 17
Burkhardt, Hans. 1980. Logik und Semiotik in der Philosophie von Leibniz. München: Philosophia.
Caliskan, Aylin, Johanna J. Bryson, und Arvind Narayanan. 2017. Semantics derived automatically
from language corpora contain human-like biases. Science 356(6334): 183–186.
Campolo, Alex, Madelyn Sanfilippo, Meredith Whittaker, und Kate Crawford. 2017. AI now 2017
report. New York: New York University.
Čapek, Karel. 1921. R. U. R. (Rossum’s Universal Robots). Prag: Aventinum. Ins Engl. übersetzt
von Paul Selver und Nigel Playfair.
Chu, Hang, Raquel Urtasun, und Sanja Fidler. 2017. Song from PI: A musically plausible network
for pop music generation. In 5th international conference on learning representations, Toulon.
Conitzer, Vincent, Walter Sinnott-Armstrong, Jana Schaich Borg, Yuan Deng, und Max Kramer.
2017. Moral decision making frameworks for artificial intelligence. Association for the
Advancement of Artificial Intelligence. Duke University, Durham: AAAI Press.
Cox, Ingemar. J., und Gordon. T. Wilfong. 2012. Autonomous robot vehicles. Heidelberg: Springer.
Crevier, Daniel. 1993. AI: The tumultuous search for artificial intelligence. New York: BasicBooks.
DARPA. 2005. http://archive.darpa.mil/grandchallenge/. Zugegriffen am 18.12.2017.
Datta, Amit, Michael C. Tschantz, und Anupam Datta. 2015. Automated experiments on ad privacy
settings. A tale of opacity, choice, and discrimination. Proceedings on Privacy Enhancing
Technologies 1:92–112.
Davies, Paul. 2017. Entworfene Intelligenz. In Was sollen wir von Künstlicher Intelligenz halten?
Die führenden Wissenschaftler unserer Zeit über intelligente Maschinen, Hrsg. John Brockman,
60–62. Frankfurt: Fischer.
Dörner, Dietrich. 1976. Problemlösen als Informationsverarbeitung. Stuttgart: Kohlhammer.
Drux, Rudolf. 1988. Menschen aus Menschenhand. Zur Geschichte der Androiden. Texte von
Homer bis Asimov. Stuttgart: Metzler.
Eco, Umberto. 1986. Streichholzbriefe. Allzu intelligent, quasi blöd. ZEIT Online, 4. Juli. http://
www.zeit.de/1986/28/allzu-intelligent-quasi-bloed. Zugegriffen am 13.12.2017.
Ertel, Wolfgang. 2016. Künstliche Intelligenz. Eine praxisorientierte Einführung, 4. Aufl. Wiesba-
den: Springer.
Feigenbaum, Edward A., und Julian Feldmann, Hrsg. 1963. Computer and thought. Palo Alto:
AAAI Press.
Feustel, Rudolf. 1985. Technik der Steinzeit: Archäolithikum-Mesolithikum, 2. Aufl. Weimar:
Böhlau.
Fischer, Johannes. 2016. Als Deep Blue das Genie Garri Kasparow schlug. Zeit Online, 11. März.
http://blog.zeit.de/schach/als-deep-blue-das-genie-garry-kasparow-schlug/. Zugegriffen am
17.12.2017.
Frege, Gottlob. 1962. Über Sinn und Bedeutung. In Funktion, Begriff, Bedeutung. Hrsg. Günther
Patzig, 40–65. Göttingen: Vandenhoeck & Ruprecht.
Funiok, Rüdiger. 2016. Verantwortung. In Handbuch Medienethik, Hrsg. Jessica Heesen, 74–81.
Stuttgart: J. B. Metzler.
Gardner, Howard E. 1999. Intelligence reframed. multiple intelligences for the 21st century.
New York: Basic Books Deutsche Ausgabe: Howard E. Gardner. 2002. Intelligenzen. Die
Vielfalt des menschlichen Geistes. Übers. Ute Spengler. Stuttgart: Klett-Cotta.
Garland, Alexander. 2015. Ex machina. http://exmachina-movie.com/. Zugegriffen am 19.12.2017.
Givant, Steven, und Paul Halmos. 2009. Introduction to boolean algebras. Heidelberg: Springer.
Görz, Günther, Josef Schneeberger, und Ute Schmid Hrsg. 2014. Handbuch der Künstlichen
Intelligenz. 5. überarbeitete und aktualisierte Auflage. München: Oldenbourg.
Graff, Bernd. 2016. Rassistischer Chat-Roboter: Mit falschen Werten bombardiert. Süddeutsche
Zeitung, 3. April. http://www.sueddeutsche.de/digital/microsoft-programm-tay-rassistischer-
chat-roboter-mit-falschen-werten-bombardiert-1.2928421. Zugegriffen am 21.12.2017.
Grunwald, Armin. 2016. In Technikethik. Handbuch Medienethik, Hrsg. Jessica Heesen, 25–32.
Stuttgart: J. B. Metzler.
Hecht-Nielsen, Robert. 1989. Theory of the backpropagation neural network. Neural Networks:
593–605.
Seite 18
Helbing, Dirk, Bruno S. Frey, Gerd Gigerenzer, Ernst Hafen, Michael Hagner, Yvonne Hofstetter,
Jeroen van den Hoeven, Roberto V. Zicari, und Andrej Zwitter. 2015. Digital-Manifest (I): Digitale
Demokratie statt Datendiktatur. Spektrum der Wissenschaft, 17. Dezember.
http://www.spektrum.de/news/wie-algorithmen-und-big-data-unsere-zukunft-bestimmen/1375933.
Zugegriffen am 21.12.2017.
Herbert, Martial H., Charles E. Thorpe, und Anthony Stentz. 2012. Intelligent unmanned ground
vehicles: autonomous navigation research at carnegie mellon. Heidelberg: Springer.
Hobbes, Thomas. 1655. Pars prima. Computatio sive logica. In Opera Philosophica.Que latine
scripsit, omina. Elementorum philosophiae. Sectio prima. De corpore, 1–80. London: A. Crook.
Hofstetter, Yvonne. 2015. Wenn intelligente Maschinen die digitale Gesellschaft steuern. https://
www.spektrum.de/kolumne/wenn-intelligente-maschinen-die-digitale-gesellschaft-steuern/
1375921. Zugegriffen am 19.12.2017.
Ito, Joichi. 2017. Extended intelligence, 10. April. https://www.pubpub.org/pub/extended-intelli
gence. Zugegriffen am 19.12.2017.
Jacobsen, Nils. 2017. Künstliche Intelligenz: Wladimir Putin und Tesla-Chef Elon Musk warnen
vor Gefahr für die Menschheit. Meedia, 5. September. http://meedia.de/2017/09/05/kuenstliche-
intelligenz-wladimir-putin-und-tesla-chef-elon-musk-warnen-vor-gefahr-fuer-die-menschheit/.
Zugegriffen am 21.12.2017.
Joy, Bill. 2000. Why the future doesn’t need us. Wired, 04. Januar. http://bit.ly/2hjCPPk. Zugegrif-
fen am 19.12.2017.
Kanda, Takayuki, Hiroshi Ishiguro, Michita Imai, und Tetsuo Ono. 2004. Development and
evaluation of interactive humanoid robots. Proceedings of the IEEE 92(11): 1839–1850.
Kruse, Rudolf et al. 2015. Computational Intelligence: Eine methodische Einführung in Künstliche
Neuronale Netze, Evolutionäre Algorithmen, Fuzzy-Systeme und Bayes-Netze. Zweite Auflage.
Wiesbaden: Springer-Vieweg.
Kurzweil, Raymond. 2005. The singularity is near: when humans transcend biology. New York:
Viking.
Kuznetsov, Dmitry N., Alex E. Nedorya, Ilya V. Osipov, und Eugen V. Tarasov. 1986. The
processor Kronos in a multiprocessor system. In Computer systems and software, Hrsg.
Vladimir E. Kotov, 13–19. Novosibirsk.
Li, Rongjian, Wenlu Zhang, Heung Il Suk, L. Wang, Jiang Li, Dinggang Shen, und Ji Shuiwang.
2014. Deep learning based imaging data completion for improved brain disease diagnosis. In
Medical image computing and computer-assisted intervention – MICCAI 2014. MICCAI 2014.
Lecture notes in computer science 8675, Hrsg. Polina Golland, Nobuhiko Hata, Christian
Barillot, Joachim Hornegger und Robert Howe, 305–312. Heidelberg: Springer.
Lighthill, James. 1973. Artificial intelligence: A general survey. In Artificial intelligence: A paper
symposium. Science Research Council.
Mackworth, Alan K. 1992. On seeing Robots. In Computer vision: Systems, theory, and applica-
tions, 1–13. Singapur: World Scientific Press.
Maltby, John, Liz Day, und Ann Macaskill. 2011. Differentielle Psychologie, Persönlichkeit und
Intelligenz. London: Pearson.
Manyika, James, Michael Chui, Mehdi Miremadi, Jacques Bughin, Katy George, Paul Willmott,
und Martin Dewhurst. 2017. A future that works: Automation, employment, and productivity.
McKinsey global institute. https://www.mckinsey.com/global-themes/digital-disruption/harnes
sing-automation-for-a-future-that-works. Zugegriffen am 21.12.2017.
Markoff, John. 2011. Computer wins on ‚Jeopardy!‘: trivial, It’s not. The New York Times, 16.
Februar. http://www.nytimes.com/2011/02/17/science/17jeopardy-watson.html. Zugegriffen am
18.12.2017.
Marr, David. 2010. Vision. A computational investigation into the human representation and
processing of visual information. Cambridge, MA: MIT Press.
Mattke, Sascha. 2017. Künstliche Intelligenz verdrängt menschliche Arbeit in juristischen Berufen.
Heise Online, 20. Dezember. https://www.heise.de/newsticker/meldung/Kuenstliche-Intelli
Seite 19
genz-verdraengt-menschliche-Arbeit-in-juristischen-Berufen-3919054.html. Zugegriffen am
21.12.2017.
McCarthy, John. 2007. AI Past, Present, Future. [AI@50]. https://web.archive.org/web/20081008
120238/http://www.engagingexperience.com/2006/07/ai50_ai_past_pr.html. Zugegriffen am
16.12.2017.
McCarthy, John, Marvin Minsky, Nathaniel Rochester, und Claude Shannon. 1955. A proposal for
the\dartmouth summer research project on artificial intelligence. http://www-formal.stanford.
edu/jmc/history/dartmouth/dartmouth.html. Zugegriffen am 11.12.2017.
McCorduck, Pamela. 2004. Machines who think. A personal inquiry into the history and prospects
of artificial intelligence, 2. Aufl. Natick: A. K. Peters.
McDermott, Drew. 1981. Artificial intelligence meets natural stupidity. In Mind design. Philosophy,
psychology, artificial intelligence, Hrsg. John Haugeland, 143–160. Cambridge, MA/London:
MIT Press.
McDermott, John. 1982. R1: A rule-based configurer of computer systems. Artificial Intelligence
19:39–88.
Medical Artificial Intelligence. 2014. http://www.med-ai.com/models/eliza.html. Zugegriffen am
12.12.2017.
Meehan, James R. 1977. TALE-SPIN, an interactive program that writes stories. In Proceedings of
the fifth international joint conference on artificial intelligence, Massachusetts, 91–98.
Mertsching, Bärbel, und Georg Hartmann. 1989. Lernen von Strukturbeschreibungen für die
wissensbasierte Bilderkennung. In GWAI-89 13th German workshop on artificial intelligence,
Hrsg. Dieter Metzing, 155–160. Berlin/Heidelberg: Springer.
Minsky, Marvin. 1967. Computation: Finite and infinite machines. Englewood Cliffs: Prentice-
Hall.
Minsky, Marvin, und Simon Papert. 1969. Perceptrons. An introduction to computationals geome-
try. Cambridge, MA: MIT Press.
Mittelstraß, Jürgen. 1978. Die Idee einer Mathesis universalis bei Descartes, Perspektiven der
Philosophie. Neues Jahrbuch 4:177–192.
Moore, George Edward. 1965. Cramming more components onto integrated circuits. Electronics 38
(8): 114–117.
Moravec, Hans. 1988. Mind children. Cambridge, MA: Harvard University Press.
Moravec, Hans. 1999. Computer übernehmen die Macht: Vom Siegeszug der künstlichen Intelli-
genz. Hamburg: Hoffmann und Campe.
Mori, Masahiro. 1970. The uncanny valley. Energy 7(4): 33–35.
Mugnai, Masimo. 2002. Denken und Rechnen: Über die Beziehung von Logik und Mathematik in
der frühen Neuzeit. In Neuzeitliches Denken: Festschrift für Hans Poser zum 65. Geburtstag,
Hrsg. Günther Abel, Hans-Jürgen Engfer und Christoph Hubig, 85–100. Berlin: Walter de
Gruyter.
Münch, Dieter, Hrsg. 1992. Kognitionswissenschaft. Grundlagen, Probleme, Perspektiven.
Frankfurt: Suhrkamp.
Nagenborg, Michael, und Saskia Sell. 2016. Hackerethik. In Handbuch Medienethik, Hrsg. Jessica
Heesen, 344–350. Stuttgart: J. B. Metzler.
National Research Council. 1999. Developments in Artificial Intelligence. Funding a revolution:
Government support for computing research. Washington, DC: National Academy Press.
Netzpiloten. 2016. Künstliche Intelligenz – eine Zukunft ohne, 23. August. Menschen. http://www.
netzpiloten.de/ads-kuenstliche-intelligenz-zukunft-menschen/. Zugegriffen am 06.12.2017.
Newell, Allan, und Herbert A. Simon. 1961. In GPS, a program that simulates human thought.
Lernende Automaten, Hrsg. H. Billing. München: Oldenbourg.
Newell, Allan, und Herbert A. Simon. 1972. Human problem solving. Englewood Cliffs: Prentice-
Hall.
Nilsson, Nils J. 2010. The quest for artificial intelligence. A history of ideas and achievements.
https://ai.stanford.edu/~nilsson/QAI/qai.pdf. Zugegriffen am 21.12.2017.
Seite 20
Oakley, Brian, und Kenneth Owen. 1990. Alvey: Britain’s strategic computing initiative. Cam-
bridge, MA: MIT Press.
Patzig, Günther. 1959. Die aristotelische Syllogistik. Logisch-philologische Untersuchungen über
das Buch der ersten Analytiken. Göttingen: Vandenhoeck & Ruprecht.
Piaget, John. 2000. Psychologie der Intelligenz. Mit einer Einführung von Hans Aebli, 10. Aufl.
Stuttgart: Klett-Cotta.
Pinker, Steven. 2017. Denken bedeutet nicht unterjochen. In Was sollen wir von Künstlicher
Intelligenz halten? Die führenden Wissenschaftler unserer Zeit über intelligente Maschinen, Hrsg.
John Brockman, 31–35. Frankfurt: Fischer.
Puppe, Frank. 1991. Einführung in Expertensysteme. Berlin: Springer.
Quillian, Ross. 1967. Word concepts: A theory and simulation of some basic semantic capabilities.
Behavioral Science 12(5): 410–430.
Rath, Matthias. 2016. Publikums- und Nutzungsethik. In Handbuch Medienethik, Hrsg. Jessica
Heesen, 298–305. Stuttgart: J. B. Metzler.
Rath, Matthias. 2018. Zur Verantwortungsfähigkeit „moralischer Akteure“. Problemanzeige oder
Ablenkungsmanöver. In Brauchen Maschinen Ethik? Begründungstheoretische und praktische
Herausforderungen. Wiesbaden: VS.
Richter, Siegfried. 1989. Wunderbares Menschenwerk. Aus der Geschichte der mechanischen
Automaten. Leipzig: Edition Leipzig.
Richter, Philipp. 2016. Big Data. In Handbuch Medienethik, Hrsg. Jessica Heesen, 210–216.
Stuttgart: J. B. Metzler.
Rosenblatt, Frank. 1958. The perceptron. A probabilistic model for information storage and
organization in the brain. Psychological Review 65:386–408.
Rosenblatt, Frank. 1961. Principles of neurodynamics. perceptrons and the theory of brain mecha-
nisms. Washington, DC: Spartan Books.
Roßnagel, Alexander. 2011. Das Gebot der Datenvermeidung und -sparsamkeit als Ansatz wirksa-
men technikbasierten Persönlichkeitschutzes? In Innovation, Recht und öffentliche Kommuni-
kation, Hrsg. Martin Eifert und Wolfgang Hoffmann-Riem. Berlin: Duncker & Humblot.
Rötzer, Florian. 2017. Hawking warnt: Roboter könnten die Menschen ersetzen. Telepolis, 3.11.
https://www.heise.de/tp/features/Hawking-warnt-Roboter-koennten-die-Menschen-ersetzen-
3878037.html. Zugegriffen am 06.12.2017.
Rumelhart, David E., und James McClelland. 1986. Parallel distibuted processing. 1. Cambridge,
MA: MIT Press.
Russell, Stuart J., und Peter Norvig. 2003. Artificial intelligence: A modern approach, 2. Aufl.
Upper Saddle River: Prentice Hall.
Russell, Stuart J., und Peter Norvig. 2012. Künstliche Intelligenz. Ein moderner Ansatz, 3. aktuali-
sierte Aufl. München: Pearson.
Schank, Roger C., und Robert P. Abelson. 1977. Scripts, plans, goals and understanding. An
inquiry into human knowledge structures, Artificial intelligence series. Hillsdale: Erlbaum.
Schlieter, Kai. 2015. Die Herrschaftsformel: Wie Künstliche Intelligenz uns berechnet, steuert und
unser Leben verändert. Frankfurt: Westend.
Schönleben, Dominik. 2017. Humanoide Roboter: Skynet grinst nicht! Wired, 24.11. https://www.
wired.de/collection/life/skynet-grinst-nicht. Zugegriffen am 06.12.2017.
Searle, John. 1980. Minds, brains, programs. Behavioral and Brain Sciences 3(3): 417–457.
Seng, Leonie. 2018. Mein Haus, mein Auto, mein Roboter? Eine (medien-)ethische Beurteilung der
Angst vor Robotern und künstlicher Intelligenz. In Brauchen Maschinen Ethik? Begründungs-
theoretische und praktische Herausforderungen. Hrsg. Matthias Rath, Friedrich Krotz und Matthias
Karmasin. Wiesbaden: VS.
Shapiro, Ehud Y. 1983. The fifth generation project – A trip report. Communications of the ACM 26
(9): 637–641.
Shelley, Mary. 1831. Frankenstein. London: Colburn und Bentley Dt. Ausgabe: 2008. Wien:
Ueberreuter.
Seite 21
Shiomi, Masahiro, Tkayuki Kanda, Hiroshi Ishiguro, und Norihiro Hagita. 2006. Interactive
humanoid robots for a science museum. In Proceedings of the 1st ACM SIGCHI/SIGART
conference on Human-robot interaction, Salt Lake City, 305–312.
Shortliffe, Edward H. 1976. Computer-based medical consultations : MYCIN. New York: Elsevier.
Simon, Herbert A. 1944. Decision-making and administrative organization. Indianapolis: Bobbs-
Merrill.
Simon, Herbert A. 1965. The shape of automation for men and management. New York: Harper &
Row.
Simon, Herbert A., und Allan Newell. 1958. Heuristic problem solving: The next advance in
operations research. Operations Research 6(1): 1–10.
Thaler, Richard H., und Cass R. Sunstein. 2009. Nudging. Improving decisions about health, wealth
and happiness, 6. München: Penguin.
Trescher, Thomas. 2017. Tanze deinen Feind. Zeit Online, 20 Nov. http://www.zeit.de/2017/47/
kuenstliche-intelligenz-kybernetiker-robert-trappl. Zugegriffen am 19.12.2017.
Turing, Alan M. 1937. On computable numbers, with an application to the Entscheidungsproblem.
Proceedings of the London Mathematical Society 2(42): 230–265.
Turing, Alan M. 1950. Computing machinery and intelligence. Mind LIX 236:433–460.
Twitter. 2015. https://twitter.com/jackyalcine/status/615329515909156865. 28. Juni. Zugegriffen
am 21.12.2017.
Van Dalen, Arjen. 2012. The algorithms behind the headlines. How machine-written news redefines
the core skills of human journalists. Journalism Practice 6(6): 648–658.
Varela, Francisco J., Eleanor Rosch, und Evan Thompson. 1991. The embodied mind. Cambridge,
MA: MIT Press.
Weichert, Thilo. 2013. Big Data und Datenschutz. Zeitschrift für Datenschutz 2(6): 251–258.
Weizenbaum, Josef. 1976. Computer power and human reason. London: W. H. Freeman &
Company.
Wilson, Daniel H. 2011. Robocalypse. Übers. v. M. Bennemann. München: Droemer und Knaur.
I. Orig. How to survive a robot uprising. Tips on defending yourself against the coming Rebellion.
2005. London: Bloomsbury.
Winograd, Terry. 1972. Understanding natural language. Cambridge, MA: Academic.
Winograd, Terry. 1980. What does it mean to understand language? Cognitive Science 4(3):
209–241.
Woelk, Ulrich. 2016. „Das sagten Sie bereits“. ZEIT Online. http://www.zeit.de/2016/02/eliza-
software-computer-konversation. Zugegriffen am 12.12.2017.
Wolfangel, Eva. 2017. Google und die Frau am Herd. https://www.zeit.de/2017/29/kuenstliche-
intelligenz-computer-rassismus-vorurteile-klischees. Zugegriffen am 19.12.2017.
Zimmerli, Wolfgang, und Stefan Wolf, Hrsg. 1994. Künstliche Intelligenz. Philosophische Pro-
bleme. Stuttgart: Reclam.
Zook, Matthew, Solon Barocas, Kate Crawford, Emily Keller, Seeta Peña Gangadharan, et al. 2017.
Ten simple rules for responsible big data research. PloS Computational Biology 13(3): 1–10.