Content uploaded by Martin Donner
Author content
All content in this area was uploaded by Martin Donner on Feb 01, 2021
Content may be subject to copyright.
– 1 –
Martin Donner (2010)
Denkmaschinen denken:
Konzepte zur Entwicklung von künstlicher Intelligenz und
maschinellem Lernen in der frühen Kybernetik.
Abstract
Der Text beschreibt die frühkybernetischen Versuche und theoretischen Erwägungen zur Erzeugung
einer starken KI. Vorgestellt werden insbesondere der konnektionistische Ansatz von McCulloch/Pitts,
Turings Idee einer Maschinenerziehung, von Neumanns kritische Reflexion der Analogie von mensch-
lichem Gehirn und Computer, die er lange selbst propagiert hatte, sowie Ashbys Homöostat.
Keywords
Künstliche Intelligenz, Kybernetik, maschinelles Lernen, Neuronales Netz, Konnektionismus,
Berechenbarkeit, Neurowissenschaften, Autopoiesis
In Folge der Entwicklung des Digitalcomputers und der Etablierung der Kybernetik als neuer
Universalwissenschaft wurde nach dem zweiten Weltkrieg ein Diskurs in die Öffentlichkeit
getragen und popularisiert, der in der Frage gerann: Können Maschinen denken? Zwar lassen
sich Vorläufer dieses Diskurses kultur- und wissenschaftshistorisch viel weiter zurückverfol-
gen, doch noch nie zuvor erschienen einer breiten Öffentlichkeit die in Aussicht gestellten
technischen Möglichkeiten mit all ihren potentiellen Folgen für die weiteren gesellschaft-
lichen Entwicklung plausibler als in den 1950er Jahren. Allen Orts war die Rede von
„Elektronengehirnen“ und prominente Wissenschaftler und Journalisten legten in den
Feuilletons und populärwissenschaftlichen Veröffentlichungen diverse Analogien zwischen
der Funktionsweise des menschlichen Gehirns, den neuen elektronischen Großrechenanlagen
und anderen technischen Versuchsaufbauten nahe. Zwar hat die seinerzeit noch äußerst
provokante Frage ihre Polarisierungskraft längst verloren, doch noch immer ist das Thema
vielen Fragestellungen implizit, wenngleich unter stark veränderten medientechnologischen
Bedingungen. So ist es in unserer hochmediatisierten Gesellschaft längst zur Normalität
geworden, bestimmte kognitive Fähigkeiten an Maschinen zu delegieren, wie sich im
Siegeszug von Such- und Mustererkennungsalgorithmen, Neuronalen Netzen usw. zeigt.
Renommierte Neurophysiologen stellen gar in Aussicht, das menschliche Bewusstsein bald
auf Festplatten herunterladen zu können, um beispielsweise in der digitalen Kopie negative
Erinnerungen lokalisieren und löschen zu können bevor das derart editierte Bewusstsein
wieder ins Hirn upgeloaded wird.1 In Anbetracht derartiger Entwicklungsmöglichkeiten
scheint schließlich sogar der große Menschheitstraum der Unsterblichkeit in greifbare Nähe
zu rücken. Menschliches und maschinelles Bewusstsein erscheinen austauschbar und redu-
zieren sich Dank neuer neurophysiologischer und technischer Methoden scheinbar nurmehr
auf Fragen von Datenformaten, Schnittstellen und Rechen- bzw. Speicherkapazitäten. Muss
man also die dereinst noch sehr kontrovers diskutierte Frage nach der Denkfähigkeit von
Maschinen heute längst positiv beantworten? Oder existieren noch immer mehr als nur sub-
jektiv gefühlte Differenzen zwischen dem was wir als ‚Denken‘ bezeichnen und der
Funktionsweise moderner, vernetzter Hochleistungsrechner?
In Bezug auf die Klärung dieser Frage muss zuallererst darauf hingewiesen werden, dass es
sich sowohl bei dem Wort ‚Maschine‘ als auch bei den Worten ‚Denken‘ oder ‚Intelligenz‘
1 Vgl. Jörg Blech: „Die Sprache des Gehirns.“ In: Spiegel 14/2008, S. 145.
– 2 –
um Konzepte aus natürlichen Sprachen handelt, die demnach einer andauernden Bedeutungs-
verschiebung unterliegen.2 In diesem Sinn ist die Frage also nicht endgültig beantwortbar,
oder wie ein Mathematiker bzw. Informatiker sich ausdrücken würde: sie ist letztlich unent-
scheidbar. Die Frage nach dem Status von Intelligenz unterliegt dabei im Besonderen einem
logischen Zirkel, da die jeweils angelegte Intelligenzdefinition ihrerseits selbst wieder auf
eine historisch verfasste und damit letztlich kontingente ‚Intelligenz‘ zurückverweist. Ent-
sprechend handelt es sich bei jeder derartigen Definition zwangsläufig immer um eine petitio
principii, die in der Regel nach Maßgabe menschlich-kulturellen Empfindens beantwortet
wird, und so bleibt man letztlich auf Borings Feststellung zurückgeworfen, dass Intelligenz
das ist, was ein Intelligenztest misst, wobei natürlich ganz unterschiedliche Tests und Bewer-
tungskriterien denkbar sind. Auch eine extrem reduzierte Definition, die beispielsweise die
Selbsterhaltung und selbständige Navigation eines wie auch immer gearteten Systems in einer
kontingenten Umwelt zur Basis nimmt, ist bei genauerer Betrachtung nicht unhintergehbar, da
man selbst einem orientierungslosen Selbstmörder wohl kaum jegliche Intelligenz absprechen
würde. Objektive Aussagen über die Verfasstheit von Intelligenz sind in letzter Konsequenz
also überhaupt nicht möglich. Dennoch gab (und gibt) es unzählige Techniker und Theore-
tiker mit der Auffassung, eine so genannte ‚starke‘ künstliche Intelligenz sei mittels der ver-
fügbaren technischen Möglichkeiten und mathematischen Verfahrensweisen bald realisierbar.
Daher soll es im Folgenden nicht weiter um die sprachphilosophischen Dimensionen dieses
Problems gehen.3 Der vorliegende Text will vielmehr einen Überblick über die Ansätze und
Argumentationslinien der frühen Vorreiter einer starken KI-These geben und sich der Frage
zuwenden, inwiefern deren funktionale Analogie zwischen technologisch-kybernetischen
Systemen und der Funktionsweise des menschlichen Gehirns aufgingen. In diesem Zusam-
menhang gilt es auch im Blick zu behalten, welche Rolle (wissenschafts-)politische Fragen
bei den jeweiligen Modellbildungen gespielt haben.
Der frühkybernetische Diskurs über denkende Maschinen lässt sich grob gesagt in zwei
Hauptstränge und mehrere Phasen unterteilen, die jedoch auch Schnittmengen bilden und sich
immer wieder kreuzen bzw. aufeinander verweisen.4 Einerseits lässt sich ein formallogisch
basierter, technomathematischer Ansatz identifizieren, der in Bezug auf seine Prominenz den
öffentlichen Diskurs in den 1950er Jahren weitgehend bestimmte. Er wurde vor allem von den
Gründervätern der Kybernetik in den USA propagiert und in der Öffentlichkeit vertreten. Ihm
lassen sich die Rede vom „Elektronengehirn“, die Entwicklung des Digitalcomputers bzw.
der von-Neumann-Architektur und viele Paradigmen der Informatik zuordnen. Auf der
anderen Seite entwickelte sich ausgehend von England ein alternativer Ansatz, der weniger
formallogisch orientiert war, sondern sich vielmehr in der Übertragung biologischer Konzepte
2 Man denke hier beispielsweise an die Verwendung des Maschinenbegriffs bei Deleuze und Guattari in ihrem
Konzept der „Mechanosphäre“. Vgl. dies.: „Konkrete Regeln und abstrakte Maschinen.“ In: Tausend
Plateaus, S. 696-712. Vgl. auch die Debatte um den Turing-Test.
3 Der Begriff der künstlichen Intelligenz (KI) geht auf John McCarthy zurück, der 1955 einen Förderantrag zur
Durchführung einer Konferenz zu diesem Thema an die Rockefeller Foundation stellte („artificial intelli-
gence“). Mit der Ausdifferenzierung des Themengebiets und den auftretenden fundamentalen Problemen
differenzierten sich die Begriffe der ‚starken‘ und der ‚schwachen‘ KI aus, wobei es in den heutigen Frage-
stellungen hauptsächlich um die Konzeption von schwachen KIs geht, die nicht versuchen menschliches
Denken als solches zu imitieren und sich Bedeutungszusammenhänge selbständig zu erschließen, sondern die
vielmehr darauf ausgelegt sind, ein konkretes Anwendungsproblem zu meistern (z.B. Suchmaschinen,
Algorithmen zur Mustererkennung usw.).
4 Katherine Hayles macht in ihrem Buch How we became posthuman: virtual bodies in cybernetics, literature,
and informatics (1999) den Vorschlag, die Kybernetik in drei Phasen zu unterteilen. Vgl. ebd. S. 6f. Der
vorliegende Text, der sich im wesentlichen auf die frühe Kybernetik beschränkt, wählt einen anderen Weg.
Er geht von zwei bestimmenden Diskurssträngen aus. In Zusammenhang mit den Entwicklungen um den
Digitalcomputer und die KI-Forschung etablierte sich prominent ein repräsentational-symbolistisches
Paradigma, das sehr diskursmächtig wurde und für lange Zeit in den Technikwissenschaften vorherrschte.
– 3 –
auf Experimentalanordnungen aller Art versuchte. Hier sind als prominente Vertreter Ross
Ashby, Stafford Beer und Gordon Pask zu nennen.5 Dieser Ansatz, der weniger von einem
logischen Atomismus ausging, sondern eine experimentelle Herangehensweise präferierte und
Beobachtungen zum Verhältnis von System und Umwelt in den Mittelpunkt stellte, spielte im
öffentlichen Diskurs anfangs allerdings eine untergeordnete Rolle, auch wenn er bis heute in
der Systemtheorie sehr einflussreich ist und seit einiger Zeit auch in technischen Frage-
stellungen wie beispielsweise der evolutionären Robotik wieder zunehmend eine Rolle spielt.6
Wenden wir uns jedoch vorerst dem formallogischen Strang zu.
1. McCulloch und Pitts: Das Gehirn als formallogisches System und die „all-or-none“ These
Ein bedeutender Grundlagentext der frühen Kybernetik ist der Aufsatz A Logical Calculus of
the Ideas Immanent in Nervous Activity, den der Neurophysiologe Warren S. McCulloch
zusammen mit dem Logiker Walter Pitts 1943 veröffentlichte. Darin heißt es:
„The ‚all-or-none‘ law of nervous activity is sufficient to insure that the activity of any neuron may
be represented as a proposition. Physiological relations existing among nervous activities corres-
pond, of course, to relations among the propositions; and the utility of the representation depends
upon the identity of these relations with those of the logic of propositions.“7
Nach dieser Betrachtungsweise lässt sich das neue Forschungsfeld mit den bereits bekannten
Systemen der formalen Logik quasi im Handstreich erschließen, und das mit allen Annehm-
lichkeiten, die diese Systeme bieten, denn aus obigen Annahmen folgt weiterhin: „Since we
are concerned with properties of nets which are invariant under equivalence, we may make
the physical assumptions which are most convenient for the calculus.“8 Zwar wird am Rande
darauf hingewiesen, dass funktional äquivalente Netze mit unterschiedlicher Struktur ihr
Ergebnis womöglich nicht in derselben Zeit errechnen, doch dies spielt im weiteren Verlauf
des Grundlagentextes keine Rolle mehr. McCulloch und Pitts setzen in Folge noch einige
weitere „Theoreme“, die notwendig sind, um die Anwendung formallogischer Systeme in
Bezug auf Neuronenverbünde zu gestatten. Sie werden jedoch weder hinterfragt oder einer
genaueren Untersuchung unterzogen, noch werden Gründe für ihre Gültigkeit angegeben.
Darunter sind unter anderem die bis in die 1990er Jahre weit verbreiteten Annahmen „the
only significant delay within the nervous system is synaptic delay“ und „the structure of the
net does not change with time.“9 Die heute so prominente Neuroplastizität wurde also noch
nicht in Betracht gezogen, sie hätte schließlich auch den ganzen Ansatz unterminiert. Auf
Basis der so gesetzten Annahmen entwickeln McCulloch und Pitts nun eine komplizierte
mathematische Theorie, die unter anderem zu dem Schluss kommt:
5 S. hierzu z.B. Andrew Pickering: „Cybernetics and the Mangle: Ashby, Beer and Pask.“ In: Social Studies of
Science, Vol. 32, No. 3, Jun 2002, S. 413-437.
6 Zum Ansatz der evolutionären Robotik vgl. z.B. Frank Pasemann: „Unsere Frage ist nicht, wie man das
programmiert, sondern wie die Biologie das macht, denn die macht es nicht wie ein Computer, die rechnet
nicht Flugbahnen aus und so etwas.“ In Kai Kupferschmidt: Roboter „Myon“. Eine Maschine, die lernt wie
ein Kleinkind. Internet: http://www.tagesspiegel.de/wissen/eine-maschine-die-lernt-wie-ein-
kleinkind/1884324.html [1.11.2010].
7 Warren S. McCulloch und Walter Pitts: „A Logical Calculus of the Ideas Immanent in Nervous Activity.“ In:
Bulletin of Mathematical Biophysics, Vol 5/1, März 1943, University of Chicago Press, S. 117. Das „Alles-
oder-Nichts“ Gesetz bezieht sich darauf, das ein Neuron entweder ‚feuert‘, also elektrische Impulsfolgen
emittiert, oder aber keine augenscheinliche Aktivität zeigt.
8 Ebd. S. 116.
9 Ebd. S. 118.
– 4 –
„It is ealily shown: first, that every net, if furnished with a tape, scanners connected to afferents,
and suitable efferents to perform the necessary motor-operations, can compute only such numbers
as can a Turing machine; second, that each of the latter numbers can be computed by such a net;
and that nets with circles can be computed by such a net;“10
Mit anderen Worten: Das menschliche Gehirn ist identisch mit Turings mathematischem
Maschinenmodell, das als theoretischer Prototyp des Digitalcomputers gilt und zum Grund-
lagenwissen eines jeden Informatikers gehört – quod erat demonstrandum.11
Auf diesen Text bezogen sich in Folge viele führende Vertreter einer starken KI-These,
die sich erhofften, eine starke KI mit Hilfe der neuen digitalen Großrechner realisieren zu
können. Besonders Norbert Wiener, Namensgeber und einer der maßgeblichen Popularisierer
der Kybernetik, wurde nicht müde, die Ergebnisse von McCulloch und Pitts in vielen seiner
Schriften und Vorträge geradezu mantraartig zu wiederholen.12 Interessant dabei ist, dass sich
scheinbar keiner der Protagonisten die Mühe gemacht hat, die Grundannahmen oder zumin-
dest die Richtigkeit der mathematischen Beweisführung von McCullochs und Pitts Aufsatz zu
prüfen.13 Zumindest im populärwissenschaftlichen Diskurs wurden die Ergebnisse seitens der
KI-Vertreter kaum je in Frage gestellt. Dabei galten die Grundannahmen zum einen schon
zum Veröffentlichungszeitpunkt in Bezug auf den damaligen Wissensstand der Neurophysio-
logie als veraltet und zum anderen beweist das komplizierte Formelwerk von McCulloch und
Pitts mitnichten, dass die angenommenen formallogischen Neuronenverbünde und die Turing-
maschine im mathematischen Sinn gleichmächtig sind.14
Dies lässt nur zwei Schlüsse zu: entweder waren die renommierten Spitzenwissen-
schaftler einfach zu bequem, um sich durch das Formelwerk zu quälen, was in Anbetracht der
Wirkmacht der aufgestellten Behauptungen und der in Folge akquirierten Forschungsgelder
als fatales Versäumnis zu gelten hätte, oder aber die Fehler wurden wissentlich und geflissent-
lich übergangen, um eben diese Gelder zu akquirieren und die Laienöffentlichkeit für die
eigenen Forschungsprojekte zu begeistern. – Mathematisch-kryptische Formelsprache als
rhetorische Plausibilisierungsstrategie: für diese These spricht einiges, denn das Vorgehen bei
der Präsentation von neuen Forschungsergebnissen ähnelte sich häufig, zumindest in der
Anfangsphase. Am Beginn steht häufig eine augenscheinliche Analogie (hier die von logi-
schen Propositionen bzw. binären Entscheidungen und feuernden/nichtfeuernden Neuronen).
Dies wird im weiteren Verlauf keiner genaueren wissenschaftlichen Überprüfung oder
10 Ebd. S. 129.
11 Zur Turingmaschine s. Alan Turing: „On Computable Numbers, with an Application to the Entscheidungs-
problem.“ In: Proceedings of the London Mathematical Society. Ser. 2, Vol. 43. London 1937, S. 230-265.
12 Noch 1968 heißt es in der deutschen Ausgabe des von Wiener ursprünglich 1947 geschriebenen Buches
Cybernetics: „Der Alles-oder-nichts-Charakter der Neuronenentladung ist völlig analog der Auswahl einer
binären Ziffer; […] Die Synapse ist nichts als ein Mechanismus, der bestimmt, ob eine gewisse Kombination
von Ausgängen von anderen Elementen ein ausreichender Anreiz für das Entladen des nächsten Elements ist
oder nicht, und muß ein genaues Analogon in der Rechenmaschine haben.“ Vgl. Norbert Wiener: Kybernetik.
Hamburg 1968, S. 35.
13 Dies ist in Bezug auf Wiener vor allem deshalb erstaunlich, da auf ihn die Formulierung der maßgeblichen
mathematischen Grundlagen der Kybernetik zurückgeht. Sein anfangs noch als Kriegsgeheimnis eingestuftes
Werk Die Gelbe Gefahr, das 1949 schließlich unter dem Titel Extrapolation, Interpolation and Smoothing of
Stationary Time Series veröffentlicht wurde, gilt als gleichermaßen schwierige und genialisch ausgeklügelte
mathematische Basis der neuen Universalwissenschaft.
14 Vgl. Yehuda Rav: „Perspectives on the History of the Cybernetics Movement: The Path to Current Research
Through the Contributions of Norbert Wiener, Warren McCulloch and John von Neumann.“ In: Cybernetics
and Systems: An International Journal. Vol. 33. London 2002, S. 789f. Rav schreibt hier unter anderem:
„Some erroneous proofs apart, it was repeatedly claimed by McCulloch that their formal net is computatio-
nally equivalent to a Turing machine. This is false. The McCulloch-Pitts net is a finite automaton, which is
more limited than a Turing machine.“
– 5 –
kritischen Hinterfragung mehr unterzogen. Stattdessen werden bei McCulloch und Pitts alle
möglichen Zweifel mit Wendungen wie „of course“ und ähnlichem bereits im Vorfeld bei-
seite gewischt. In Folge wird dann ein Formelwerk präsentiert, das selbst für ambitionierte
Hobbymathematiker kaum nachzuvollziehen ist und der Argumentation sowie ihren Protago-
nisten aufgrund der dargebotenen Komplexität den Duktus strenger Wissenschaftlichkeit
verleiht. Dabei ist durchaus anzunehmen, dass die Protagonisten in den meisten Fällen auch
selbst an ihr Konstrukt glaubten. Es handelt sich auch schlicht um ein Problem, das vielen
wissenschaftlichen Pionierarbeiten, die sich nur empirisch und über einen langen Zeitraum
tatsächlich bestätigen oder widerlegen lassen, inhärent ist: wann immer ein neues Feld
erschlossen wird, kann man sich vorerst tatsächlich nur auf Vermutungen stützen, da noch
keine Vergleichsforschungen vorliegen. Bedenklich wird dies nur, wenn die Argumentation
vermeidbare Inkonsistenzen und Verfahrensfehler aufweist, und dies womöglich wissentlich.
Dies war bei McCulloch und Pitts eindeutig der Fall. In diese Richtung deutet zum Beispiel
eine Äußerung von McCulloch aus dem Jahr 1948, als er auf dem Hixon Symposium klar
bekennt:
„It was not until I saw Turing’s paper that I began to get going the right way around, and with Pitt’s
help formulated the required logical calculus. What we thought we were doing (and I think we
succeeded fairly well) was treating the brain as a Turing machine; […] This was needed in order to
construct theory enough to be able to state how a nervous system could do anything . The delightful
thing is that the very simplest set of appropriate assumptions is sufficient to show that a nervous
system can compute any computable number. It is that kind of a device, if you like – a Turing
machine .“15
McCulloch nahm also wie er selbst eingesteht nach einer Reihe von vergeblichen Theorie-
bildungsversuchen schließlich das Modell der Turingmaschine zum Vorbild, um auf dieser
Grundlage eine Theorie der Funktionsweise des menschlichen Gehirns zu entwickeln, mit
deren Hilfe er dann leidlich ‚bewies‘, dass das menschliche Gehirn wie eine Turingmaschine
funktioniert, – ein klassischer Zirkelschluss. Doch mehr noch: auf Basis dieser mathematisch
und methodisch fragwürdigen Beweisführung bauten namhafte frühkybernetische KI-
Forscher voller Euphorie eine diskursive Strategie auf, mittels derer sie in den nächsten
Jahrzehnten eine Unmenge an Forschungsgeldern für eine formallogisch basierte technische
Rekonstruktion menschlicher Intelligenz akquirierten, und dies, obwohl Stephen Kleene
bereits 1951 in einem Memorandum an die Air Force auf die Probleme in der Argumentation
von McCulloch und Pitts und die Unterlegenheit ihrer Netze gegenüber der Turingmaschine
hinwies.16 Hätten McCulloch und Pitts mit ihrer Behauptung also richtig gelegen, so hätte der
15 Ebd. S. 789. Dazu ist anzumerken, dass im Hintergrund auch ein schon lange andauernder wissenschaftlicher
Streit um die Deutungshoheit über psychische Prozesse zwischen der ‚klassischen‘ Psychologie und den
Behavioristen schwelte. Hier verorten sich McCulloch und Pitts mit ihrer ebenfalls in besagtem Aufsatz ent-
wickelten Theorie der „Psychons“ klar auf Seiten der Behavioristen, wenn sie auf S. 131 schreiben: „A
psychon can be no less than the activity of a single neuron. Since that activity is inherently propositional, all
psychic events have an intentional, or ‚semiotic‘, character. The ‚all-or-none‘ law of these activities, and the
conformity of their relations to those of the logic of propositions, insure that the relations of psychons are
those of the two-valued logic of propositions. Thus in psychology, introspective, behavioristic or physio-
logical, the fundamental relations are those of two-valued logic.“
16 Stephen C. Kleene: Representation of Events in Nerve Nets and Finite Automata. U.S. Air Force Project
Rand Research Memorandum RM-704. Kalifornien, 15. Dezember 1951. Der theoretische Mathematiker und
Mitbegründer der Informatik schreibt dort unter anderem: „[The McCulloch/Pitts] assumptions are an ab-
straction from the data which neurophysiology provides. The abstraction gives a model […] The question is
left open how closely the model describes the activity of actual nerve nets; […] Neurophysiology does not
currently say which of these models is most nearly correct – it is not plausible that any one of them fits
– 6 –
Digitalcomputer als physikalische Implementierung von Turings Maschinenmodell der
menschlichen Kognition von der ersten Sekunde an überlegen sein müssen. Die Argumen-
tation erscheint auch insofern unplausibel, da Turing seinem Modell explizit einen mit Stift
und Papier bewaffneten Mathematiker zugrunde gelegt und in seinem berühmten Aufsatz von
1937 ein Verfahren zur Konstruktion einer unendlichen Anzahl von reellen Zahlen angegeben
hatte, die von seiner Maschine nicht berechnet, aber von einem Mathematiker gleichwohl
konstruiert werden können.17 Für Turing war 1937 noch zweifelsfrei klar gewesen, dass das
menschliche Gehirn ‚leistungsfähiger‘ ist als sein Maschinenmodell, dies war sozusagen ein
integraler Bestandteil seiner Beweisführung. Ihm ging es zu diesem Zeitpunkt auch überhaupt
nicht um den Beweis einer allgemeinen funktionalen Äquivalenz von Mensch und Maschine,
sondern um eine mathematisch scharfe Definition des Begriffs von „effektiver Berechen-
barkeit“. Sein großer Verdienst in diesem Zusammenhang war die Entdeckung, dass ein
Mathematiker, der einem Formalismus folgt, nichts anderes tut, als einen rein mechanischen
Ablauf an Zeichenmanipulationen auszuführen, der folglich auch von einer Maschine
übernommen werden kann.18 Und diese Maschine beschrieb er in Folge in verschiedenen
Ausführungen. Für das Aufdecken neuer Zusammenhänge in formallogischen Systemen wie
beispielsweise der Mathematik, also für (Meta-)Aussagen über deren Struktur, sei hingegen
eine ganz andere Fähigkeit Ausschlag gebend, nämlich die menschliche Intuition.19
exactly. […] we found the part of their paper which treats of arbitrary nets obscure; so we have proceeded
independently here.“ (S. 2ff).
17 Vgl. Turing 1937. Dort heißt es auf S. 231: „We may compare a man in the process of computing a real
number to a machine which is only capable of a finite number of conditions […because the human memory
is necessarily limited.] The machine is supplied with a ‚tape‘ (the analogue of paper) running through it, and
divided into sections (called ‚squares‘) each capable of bearing a ‚symbol‘. […] The scanned symbol is the
only one of which the machine is, so to speak, ‚directly aware‘.“ In seiner Abhandlung „Intelligente Ma-
schinen“ (1950) bringt er seine Argumentation auf den Punkt, wenn er schreibt: „Ein Mensch, ausgestattet
mit Papier, Bleistift und Radiergummi sowie strikter Disziplin unterworfen, ist in der Tat eine Universal-
maschine.“ Vgl. Turing 1987, S. 91. Dazu muss allerdings gesagt werden, dass er als Mathematiker bei
seiner Modellbildung von physikalisch unrealistischen, idealisierenden Annahmen ausging wie beispiels-
weise einem potentiell endlos langen Papierband.
18 Die Notwendigkeit eines scharfen Berechenbarkeitsbegriffs hatte sich im Rahmen der so genannten Grund-
lagenkrise der Mathematik ergeben, deren Problemstellungen der Hintergrund von Turings Aufsatz waren,
was auch in seinem Titel anklingt („with an Application to the Entscheidungsproblem“). So lautet eine der
zentralen Aussagen seiner Abhandlung auch: „conclusions are reached which are superficially similar to
those of Gödel. […] it is shown that the Hilbertian Entscheidungsproblem can have no solution.“ Vgl. Turing
1937, S. 230f. Die hier angesprochenen Gödelschen Unvollständigkeitssätze beziehen sich darauf, dass jedes
hinreichend mächtige formallogische System weder vollständig noch widerspruchsfrei sein kann bzw. seine
eigene Konsistenz nicht beweisen kann. Dies war jedoch das Ziel des so genannten Hilbertprogramms in
Bezug auf die gesamte Mathematik gewesen. Turings Verdienst bestand nun darin, dass er mit seinem ‚auto-
matisierten Mathematiker‘ eine recht anschauliche Definition jenes Zahlenbereiches lieferte, der trotz aller
Unberechenbarkeiten eindeutig, soll heißen mit endlichen Mitteln maschinell berechenbar ist. Es ist äußerst
unwahrscheinlich, dass diese Zusammenhänge einem Formallogiker wie Walter Pitts in seinem Rückgriff auf
Turings Maschinenmodell unbekannt waren. Ein guter Überblick über den Verlauf und die Positionen in der
Grundlagenkrise der Mathematik findet sich in Bettina Heintz: Die Herrschaft der Regel. F/M 1993.
19 Vgl. seine Folgeschrift „Systems of Logic Based on Ordinals.“ In: Proceedings of the London Mathematical
Society. Ser. 2, Vol. 45. London 1939, S. 214f. Dort schreibt er: „Mathematical reasoning may be regarded
rather schematically as combination of two faculties, which we may call intuition and ingenuity. The activity
of the intuition consists of making spontaneous judgements which are not the result of conscious trains of
reasoning. These judgements are often but by no means invariably correct (leaving aside the question what is
meant by ‚correct‘).“
– 7 –
2. Turing: Maschinen erziehen – Raffinesse und Intuition
Alan Turing wird gemeinhin nicht der Kybernetik zugerechnet, doch zum einen bezogen sich
viele Kybernetiker direkt und indirekt auf seine Schriften und zum anderen trugen seine
populärwissenschaftlichen Artikel ab den 1950er Jahren maßgeblich dazu bei, dass die Dis-
kussion um maschinelle künstliche Intelligenz auch außerhalb der Ingenieurswissenschaften
auf breites Interesse stieß. Bei der Frage nach intelligenten Maschinen kommt man um ihn
nicht herum. Dabei ist es in Anbetracht seiner oben umrissenen Argumentation mehr als
erstaunlich, dass auch er später so massiv für eine starke KI-These mittels formallogischer
Modellierungen eintrat. Dieser Sinneswandel hatte möglicherweise zweierlei Gründe. Erstens
hatte Turing in seiner Dissertation und der in Folge vorgelegten Abhandlung Systems of Logic
Based on Ordinals einen Ansatz entwickelt, der zumindest potentiell mächtiger erschien als
sein erstes Modell der Turingmaschine.20 Dazu muss erwähnt werden, dass ein grundlegendes
Problem maschineller Intelligenz das Lernen ist, und zwar ein Lernen, das sich nicht nur
innerhalb eines vorgegebenen, endlichen und logisch-atomistisch formulierbaren Regelwerks
bewegt und dieses gewissermaßen auslotet, sondern das im Falle einer starken KI in der Lage
sein muss, aus einem wie auch immer gearteten ‚Erfahrungsschatz‘ neue und im eigenen
Sinne sinnvolle Regelsysteme zu kreieren. Dies war Turing bewusst und viele seiner späteren
Schriften kreisen um dieses Thema.21 In seinem Aufsatz von 1939 beschäftigte er sich nun
mit formalen Systemen, die im Falle des Auftretens eines ‚mechanisch‘ nicht lösbaren
logischen Zirkels Zugriff auf ein so genanntes „Orakel“ haben, das gleichsam die Aufgabe der
menschlichen Intuition übernimmt und das so genannte Entscheidungs- oder Halteproblem
löst, so dass in Folge ein mächtigeres formales System gebildet werden kann, bestehend aus
dem ursprünglichen System und dem nunmehr integrierten, orakelhaft und quasiintuitiv
gelösten Entscheidungsproblem.22 Dieses Vorgehen lässt sich potentiell bis in alle Ewigkeit
fortsetzen, „[so that] there is still a possibility that some ordinal logics may be complete in
some sense.“ Das Orakel wird hierbei nicht weiter spezifiziert, es wird lediglich darauf
hingewiesen „that it cannot be a machine.“23 Turing schließt:
„In consequence of the impossibility of finding a formal logic which wholly eliminates the necessi-
ty of using intuition, we naturally turn to ‚non-constructive‘ systems of logic with which not all the
20 Alan Turing: „Systems of Logic Based on Ordinals.“ In: Proceedings of the London Mathematical Society.
Ser. 2, Vol. 45. London 1939, S. 161-228.
21 Man könnte hier von einem ‚evolutionären Lernprozess‘ sprechen, der sich von den heute existierenden
formallogisch nachgebildeten maschinellen Lernprozessen schwacher KIs insofern unterscheidet, als diesen
immer ein festes Regelset zugrunde liegt, das für die lernende Maschine unhintergehbar ist. Die ‚Richtung‘
des Lernprozesses ist in diesem Fall immer vom jeweiligen Entwickler vorgegeben und in der Regel darauf
ausgerichtet, was dieser in Bezug auf ein bestimmtes Problem für eine plausible Optimierungsstrategie hält.
Ein Kind, das ein bestimmtes Wertesystem vermittelt bekommt, ist hingegen im weiteren Verlauf seines
Lebens durchaus in der Lage, ein völlig anderes, mitunter sogar konträres Wertesystem zu entwickeln.
22 Das Entscheidungsproblem stellt die Frage nach einem mechanischen Verfahren (Algorithmus), das bei
vorliegender Beschreibung einer formalen Sprache für jede beliebige Aussage in dieser Sprache entweder ein
‚wahr‘ oder ein ‚falsch‘ ausgibt. Es wurde 1928 von David Hilbert gestellt und 1936 von Alonzo Church und
Turing negativ beantwortet. Es existiert folglich keine formale Sprache ohne Zirkel bzw. Tautologie. Turing
formulierte das Problem zum so genannten ‚Halteproblem‘ um, das die Frage stellt, ob eine Maschine, ge-
füttert mit einem Algorithmus, in endlicher Zeit zu einer Lösung kommt oder ob sie bis in alle Ewigkeit in
einem logischen Zirkel ‚hängenbleibt‘. Er bewies in Folge, dass es keine Maschine geben kann, die bezüglich
einer anderen Maschine entscheiden kann, ob diese in endlicher Zeit zu einer Lösung kommt.
23 Vgl. Turing 1939, S. 198, 173. Turing weist auch darauf hin, dass sein Verfahren nur für zahlentheoretische
Systeme gilt, denn „although it would be possible to introduce formulae analogous to ordinal logics which
would prove more general theorems than number-theoretic ones, and having a corresponding definition of
completeness, yet, if our theorems are too general, we shall find that our (modified) ordinal logics are never
complete.“ Vgl. ebd. S. 200.
– 8 –
steps in a proof are mechanical, some being intuitive. […] We want it to show quite clearly when a
step makes use of intuition, and when it is purely formal. The strain put on the intuition should be a
minimum.“24
Das hier beschriebene Vorgehen stellt die Grundlage für Turings spätere Theorie selbstmodi-
fizierender intelligenter Maschinen dar. Denn wäre eine Maschine ‚in Welt‘ (was für Turing
bedeutet: mit entsprechenden Sensoren, einem Speicher für ihre ‚Erfahrungen‘ usw. ausge-
stattet) und zudem der Selbstmodifikation fähig, dann könnte Welt, beispielsweise in Form
eines Erziehers, die Rolle des Orakels übernehmen und die Maschine könnte trotzdem auf
rein formallogischer Basis operieren, ohne den Schranken eines festgefügten, endlichen
Regelsets unterworfen zu sein. Wichtig ist nur, dass sie in Bezug auf auftauchende Zirkel-
schlüsse mit (Realwelt-)Kontingenzen gefüttert wird, die sie nicht selbst erzeugen kann.
Dann, so Turings Annahme, ist es letztlich nur eine Frage der Zeit, bis Entscheidungs-
probleme über diese eingespeisten orakelhaften Kontingenzen einer Lösung zugeführt
werden. Ansonsten hat die Maschine nur strikt ihrer internen Logik zu folgen, was Turing
zusammenfassend kommentiert: „[human] ingenuity is replaced by patience.“25 Die Frage
nach einer starken KI wird auf diese Weise also letztlich zu einem Geduldsspiel. Dieser
Ansatz ist der Theorie nach zweifellos wesentlich mächtiger als der von McCulloch und Pitts.
Auch sie erwähnen das Problem des Lernens, gehen jedoch davon aus, dass sich die Struktur
der Neuronen (bzw. Propositionen) nicht verändern müsse, sondern Lernen vielmehr darin
besteht, dass in den Neuronen bestimmte Gewichtungen in Bezug auf ihre Leitfähigkeit zu
den jeweils angrenzenden Neuronen vorgenommen werden.26 Die Struktur des Neuronen-
netzes selbst verändert sich entsprechend ihrer Grundannahmen nicht. Derartige Systeme
werden in der informatischen KI-Forschung heute mit so genannten neuronalen Netzen reali-
siert. Insofern war auch ihr Ansatz durchaus konstruktiv, jedoch bis dato nicht im Sinne der
Realisierung einer starken KI, wie dies lange Zeit in Aussicht gestellt worden war.27
24 Ebd. S. 216.
25 Ebd. S. 215. Vgl. dazu auch Turings Aussagen zu Geduldsspielen in „Lösbare und unlösbare Probleme“
(1954). In (ders.): Intelligence Service. Schriften. (Herausgegeben von Bernhard Dotzler und Friedrich
Kittler) Berlin 1987. Mit Geduldsspielen hatte Turing zweifellos Erfahrung, galt er als Dechiffrierer
deutscher Kodierungsverfahren doch als eine der schärfsten Waffen der Alliierten im zweiten Weltkrieg.
26 Vgl. McCulloch/Pitts 1943, S. 124. Norbert Wiener macht es sich an dieser Stelle noch einfacher, indem er
annimmt, der Mensch sei ebenso wie die Maschine keineswegs in der Lage, seine innere Logik zu modifi-
zieren. Er habe nur situationsabhängig mehrere verschiedene, jedoch jeweils unveränderliche Logiken, die
man nur noch nicht genau kenne. Damit umschifft er die Probleme, die in der Grundlagenkrise der
Mathematik aufgeworfen worden waren und an denen Turing sich abarbeitet. Vgl. Wiener: „Zeit,
Kommunikation und das Nervensystem.“ In: Bernhard Dotzler (Hrsg): Norbert Wiener. Futurum Exactum.
Ausgewählte Schriften zur Kybernetik und Kommunikationstheorie. Wien 2002, S. 175f. Einen ähnlichen
Ansatz verfolgt auch Marvin Minsky in seinem Buch The Emotion Machine.
27 Eine Stärke der neuronalen Netze und des dazugehörigen konnektionistischen Paradigmas ist, dass sie im
Gegensatz zum konstruktivistischen Paradigma, dem Turing zugerechnet werden kann, an der neurophysio-
logischen Struktur des Gehirns orientiert sind (‚low level modeling‘) und nicht so sehr davon ausgehen,
Intelligenz wäre auf rein syntaktische Symbolmanipulationen reduzierbar. Im Gegensatz zum formallogisch
basierten Konstruktivismus versteht der Konnektionismus ein System als Wechselwirkungen vieler vernetz-
ter einfacher Einheiten. Hier gab es in den letzten Jahren wesentliche Fortschritte, z.B. bei der Muster-
erkennung. Neuronale Netze müssen allerdings in der Regel lange trainiert werden, bis sie einsatzfähig sind
(‚supervised learning‘). Von den heutigen Entwicklungen waren McCulloch/Pitts jedoch meilenweit entfernt
und das konnektionistische Paradigma geht auch nicht etwa auf sie zurück, sondern wurde in Bezug auf das
menschliche Gehirn erstmals 1869 von John Hughlins Jackson formuliert. Turings Ansatz erscheint jeden-
falls in seiner Zeit wesentlich radikaler und findet sich heute in Ideen wie selbstmodifizierendem Programm-
code und Fragestellungen der Komplexitätstheorie wieder. Auch ‚transzendiert‘ er den orthodoxen Konstruk-
tivismus mit seinem Rückgriff auf ein Orakel in gewisser Weise.
– 9 –
Abgesehen davon, dass Turings Ansatz zur Entwicklung einer starken KI bisher ebenfalls
Theorie geblieben ist, bestehen jedoch auch hier einige fundamentale Probleme. Denn zwar
erkannte Turing, dass der „Solipsismus“ formallogischer Maschinen überwunden werden
muss, doch das ‚In-Welt-Sein‘, wie es natürlicher Intelligenz inhärent ist, bedarf natürlich
mehr als nur einiger Sensoren und eines Speichers. Es setzt eine wie auch immer gearteten
Instanziierung von Sinn respektive Sinnlichkeit voraus.28 Diesbezüglich schlug Turing nun
ganz in behavioristischem Sinne vor, einen Lust/Unlust-Mechanismus zu entwickeln, der
einer „unorganisierten Maschine“ einzubauen sei, „deren Konstruktion […] zum größten Teil
zufallsbestimmt ist“ und somit der Großhirnrinde eines Säuglings entspreche. Dieser Mecha-
nismus, der auf Belohnung und Bestrafung zu reagieren habe, würde letztlich eine Erziehung
der Maschine ermöglichen, denn dann ließen sich „genau definierte Erziehungsrichtlinien“
festlegen, die ebenfalls wieder einer Maschine einprogrammiert werden können und man
könnte sich in Folge darauf beschränken von Zeit zu Zeit „wie eine Art ‚Schulinspektor‘
ein[zu]brechen und [zu] sehen, welcher Fortschritt gemacht wurde.“29 Da sich Turing jedoch
in Anbetracht seiner eigenen Schulkarriere durchaus bewusst war, dass derartige Erziehungs-
methoden nicht jeden beeindrucken und allein nicht ausreichen, um Intelligenz zu erzeugen,
schloß er, dass „intelligentes Verhalten vermutlich in einem Abweichen vom völlig diszipli-
nierten Verhalten“ besteht, es also „wahrscheinlich klug [wäre,] in eine lernende Maschine
ein Zufallselement einzubeziehen.“30 Dies ist nach seiner Argumentation von 1939 schlüssig,
denn im Falle einer maschinellen Erziehung müssten die nötigen Kontingenzen entweder der
‚Schüler-‘ oder der ‚Lehrermaschine‘ wiederum außerschulisch eingespeist werden, voraus-
gesetzt der Schulinspektor will nicht höchstpersönlich als Orakel tätig werden. Bleibt folglich
nur noch ein letztes Problem, nämlich dass „Disziplin für sich allein nicht aus[reicht], um
Intelligenz zu erzeugen“, denn „was noch hinzukommen muß, nennen wir Selbsttätigkeit.“
Und „das Wesen dieses Residuums, wie es beim Menschen erscheint, zu erforschen und es in
Maschinen auszutesten und zu kopieren“ muss folglich die Aufgabe einer jeden KI-Forschung
sein.31 Vor diesem Hintergrund ist es auch nicht weiter verwunderlich, dass Turing sich am
Ende seines Lebens vor allem mit biologischen (sprich autopoietischen) Phänomenen und
Systemen beschäftigte wie beispielsweise dem Wachstum von Nervenzellen.32 Im Rahmen
seiner zuvor entwickelten Theorie intelligenter Maschinen verwies er diesbezüglich jedoch
auch auf die Bedeutung von sozialen „Interferenzen“, da „der isolierte Mensch keinerlei
intellektuelle Fähigkeiten“ entwickle und „die Suche nach neuen Techniken als Unternehmen
der ganzen menschlichen Gemeinschaft, nicht so sehr einzelner Individuen betrachtet werden“
muss.33 In einem berühmt gewordenen Zitat schließt er daraus:
28 Philosophen, die sich mit künstlicher Intelligenz auseinandersetzen, verweisen in diesem Zusammenhang auf
das klassische Qualia-Problem. Weitere Probleme, die in diesem Zusammenhang häufig genannt werden sind
Leiblichkeit und Sterblichkeit, also das Bewusstsein um die eigene Endlichkeit.
29 Turing 1987: „Intelligente Maschinen“ (1969), S. 92, 102ff, 109. In seinem 1950 im Mind Journal veröffent-
lichten Aufsatz „Rechenmaschinen und Intelligenz“, der unter Intellektuellen großes Aufsehen erregte, ver-
weist er implizit auf Aristoteles, wenn er annimmt: "Vermutlich ist das kindliche Gehirn mit einem Notiz-
buch vergleichbar, das man beim Schreibwarenhändler kauft. Wenig Mechanismus und viele leere Blätter."
Daher ist sein Vorschlag, vorerst bei der Konstruktion eines kindlichen Verstandes zu beginnen, und dem
einen Erziehungsprozess nachzuordnen, denn dann ist das "Problem zweigeteilt: in das Kind-Programm und
den Erziehungsprozeß." Vgl. ebd. S. 177.
30 Turing 1987: „Rechenmaschinen und Intelligenz“, S. 181f. Hierzu ist anzumerken, dass formallogische
operierende Maschinen keinen ‚echten‘ Zufall sondern nur Pseudozufallszahlen erzeugen können.
31 Ebd.: „Intelligente Maschinen“, S. 110.
32 Auch in diesem Bereich waren seine Forschungen wegweisend und seiner Zeit weit voraus. Vgl. Andrew
Hodges: Turing. New York 1999, S.53.
33 Turing 1987: „Intelligente Maschinen“, S. 112.
– 10 –
„Damit die Maschine die Möglichkeit hätte, Dinge selbständig herauszufinden, müßte es ihr er-
laubt sein, das Land zu durchstreifen, und die Gefahr für den Normalbürger wäre ernst. Darüber
hinaus hätte die Kreatur, selbst wenn sie mit den erwähnten Einrichtungen ausgestattet wäre,
immer noch keine Beziehung zu Essen, Sex, Sport und vielen anderen für das menschliche Wesen
interessanten Dingen.“34
Da man der Maschine einem viele Jahre lang erzogenen Akademiker gegenüber jedoch eine
faire Chance geben muss, und menschliches ‚Genie‘ auch nicht vom Himmel fällt, schlug
Turing in einem Anflug von Pragmatismus und Empathie zu guter Letzt vor, dass man sich
bei ihrer Erziehung vorerst darauf beschränken solle, ihr kombinatorische Spiele wie Schach,
Poker, Kryptographie usw. beizubringen. In einer normalen Schule würde sie schließlich aller
Voraussicht nach aufgrund ihrer Andersartigkeit übel gehänselt.35 Sein wohl bekanntestes
Argument in Bezug auf die Intelligenz von Maschinen wird jedoch der so genannte Turingtest
sein, in dem er ganz im Sinne der zu Beginn angesprochenen sprachphilosophischen Über-
legungen konstatiert, dass eine Maschine, die von einem Menschen für intelligent gehalten
werde, letztlich auch als intelligent zu bezeichnen sei und sich der Sprachgebrauch bis zur
Jahrtausendwende sicherlich in diese Richtung entwickeln werde, – womit er nicht ganz
Unrecht hatte. Denn „das Ausmaß, in dem wir etwas als intelligentes Verhalten ansehen,
hängt ebenso vom Zustand unseres eigenen Verstandes und unser eigenen Geschultheit ab wie
von den Eigenschaften des Objekts auf dem Prüfstand.“36
Interessant an all diesen Ausführungen ist nicht nur die Frage nach ihrer Machbarkeit,
sondern auch das Welt- und Menschenbild, das ihnen zugrunde liegt und das jene Zeit geprägt
hat. Hierin liegt der zweite Grund, der Turing zu seinem Sinneswandel bewegt und ihn zu
einem Verfechter einer starken KI-These gemacht haben mag. Folgt man seinem Biographen
Andrew Hodges, so beeindruckten ihn die wissenschaftlichen und kryptographischen Erfolge,
die mit Hilfe implementierter Turingmaschinen errungen wurden derart, dass er schließlich an
die Möglichkeit einer rein formallogischen Modellierung von Intelligenz glaubte. Der Digital-
computer trat seinen Siegeszug an, die Euphorie hinsichtlich technischer Machbarkeiten aller
Art war nahezu unermesslich und das mechanistische Weltbild erlebte vor dem Hintergrund
der Erfahrung des technisierten Krieges und unter dem Deckmantel der frühen Kybernetik ein
Revival.37 Die frühe Kybernetik, deren Wurzeln in geheimen Kriegsforschungsprogrammen
gelegen haben, entwickelte sich gewissermaßen in einem Zeitgeist, der an strikt formale
34 Ebd. S. 97. Turing selbst war enthusiastischer Marathonläufer und homosexuell, weswegen er in der dies-
bezüglich sehr restriktiven Nachkriegsära nach dem Bekanntwerden seiner sexuellen Präferenzen zu einer
Hormontherapie gezwungen wurde. Ironischerweise hatte dieser ‚behavioristische Eingriff‘ verheerende
Folgen für seine Persönlichkeit und endete schließlich im Selbstmord, über den allerdings auch Spekula-
tionen kursieren. Angeblich brachte er sich mit einem vergifteten Apfel um. Vgl. Hodges 1999, S. 53ff.
Betrachtet man heutige Bemühungen wie die um eine Ethiksoftware für die Kampfdrohnen der US Armee,
so hatte er jedenfalls nicht ganz Unrecht mit seinem Hinweis auf die Gefahr, die von umherstreifenden
‚intelligenten Maschinen‘ ausgehen kann. S. dazu z.B. Holger Dambeck: „Pentagon plant rücksichtsvolle
Kampfroboter.“ Spiegel Online, 2.12.2008.
35 Vgl. Turing 1987: „Rechenmaschinen und Intelligenz“, S. 178, 207; ebd. „Intelligente Maschinen“, S. 97ff.
Möglicherweise spielt in diesem Anflug von Empathie auch Autobiographisches eine Rolle.
36 Ebd. S. 112. In „Rechenmaschinen und Intelligenz“, schreibt er auf S. 160: „Die ursprüngliche Frage
‚Können Maschinen denken?‘ halte ich für zu bedeutungslos, als daß sie ernsthaft diskutiert werden sollte.
Nichtsdestoweniger glaube ich, daß am Ende unseres Jahrhunderts der Sprachgebrauch und die allgemeine
gebildete Meinung sich so stark gewandelt haben werden, daß man widerspruchslos von denkenden
Maschinen reden kann, ohne mit Widerspruch rechnen zu müssen.“
37 Auch McCulloch/Pitts schreiben voller Elan einem neomechanistischen Paradigma das Wort, so in (dies.)
1943 auf S. 128: „It is of some interest to consider the extent to which we can by knowledge of the present
determine the whole past of various special nets.“
– 11 –
Hierarchien gewöhnt war und diese im Krieg zuvor massenhaft und fleißig eingeübt hatte.38
Nicht nur Programmiersprachen sind Befehlssprachen und Kontroll- und Feedbackmechanis-
men dürften breiten Bevölkerungsschichten vermittels militärischer Zeremonien wie dem
Rapport und ähnlichem qua jahrelanger Kriegspraxis in Fleisch und Blut übergegangen sein.
Auch die „all-or-none“ These mit ihren „feuernden Neuronen“ von McCulloch und Pitts weist
letztlich auf eine Genealogie des Krieges hin.
Es wäre falsch zu behaupten, dass all diese Entwicklungen sich allein auf den zweiten
Weltkrieg zurückführen lassen, doch der technisierte Krieg und die existentiellen Kriegs-
erfahrungen der Bevölkerung in vielen Teilen der Erde begünstigten die Tatsache, dass aus
wissenschaftlichen Spezialdisziplinen und theoretischen (Nischen-)Konzepten der Vorkriegs-
zeit gefühlte Realitäten und gesellschaftliche Großprogramme der Nachkriegszeit werden
konnten. Man hatte notgedrungen gelernt pragmatisch und zielorientiert zu denken. Auch
Norbert Wiener bekennt in Hinblick auf Universalität des kybernetischen Ansatzes unum-
wunden: „Der entscheidende Faktor für diesen neuen Schritt war der Krieg.“ Aus einer
pragmatischen Perspektive sind feuernde Flaks und feuernde Neuronen schließlich nur ein
gradueller Unterschied.39 Etwas verkürzt und zugespitzt könnte man auch sagen: der universa-
lisierte, technisierte Krieg brachte die Kybernetik hervor und einige ihrer grundlegenden
Annahmen verallgemeinerten in Folge den Ausnahmezustand des Krieges auch in Friedens-
zeiten. Dies gilt für den top-down Ansatz von formallogisch modellierten Steuerungs- und
Kontrollhierarchien ebenso wie für das Verständnis des Menschen als behavioristisch
formbarer Masse, aber auch für einige weitere, bis heute tief verwurzelte Überzeugungen wie
die Annahme, Leben sei ein Optimierungsprozess, Überleben ein reines Optimierungs-
problem usw.40 Es erscheint fast so, als sei der Krieg nie wirklich zu Ende gegangen, sondern
habe sich in den wissenschaftlichen Paradigmen, die sich in ihm etabliert hatten, verdeckt
fortgeschrieben, auch wenn diese nach dem heutigen Stand der Wissenschaft keineswegs alle
als universale Naturgesetze gelten können. Im Gegenteil: sie lassen sich ebenso gut lesen als
die Festschreibung eines Ausnahmezustandes, entsprungen dem Kampf gegen einen intelli-
giblen Feind.41
Aus der neomechanistischen Perspektive der frühen Kybernetik erscheint Intelligenz
gleichsam als ein Fehler in einem genial ausgeklügelten formalen System namens Universum.
Für einen Dechiffrierer feindlicher Codes stellt sie gewissermaßen ein Ärgernis dar, da sich
im Extremfall kein formallogisches Verfahren finden lässt, das einen Code eineindeutig
38 Auf die Ursprünge der Kybernetik als Kriegswissenschaft wird vielfach hingewiesen. Vgl. z.B. Peter
Galison: „The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision.“ In: Critical Inquiry. Vol.
21, No. 1. University of Chicago Press 1994, S. 228-266. Auch Turing deutet ungewollt gewisse Parallelen
an, so z.B. in (ders.) 1987: „Rechenmaschinen und Intelligenz“, S. 179, wo er schreibt: „Gewisse Sätze
lassen sich als ‚Befehle‘ schreiben.“
39 Wiener 1968, S. 22. Zur Rolle der Flak als epistemischer Grundlage von Kybernetik und Informationstheorie
s. Peter Galison 1994 oder auch Axel Roch und Bernhard Siegert: „Maschinen, die Maschinen verfolgen.
Über Claude E. Shannons und Norbert Wieners Flugabwehrsysteme.“ In Sigrid Schade (Hrsg.):
Konfigurationen zwischen Kunst und Medien. München 1999, S. 219-230.
40 Das ‚Diffundieren‘ kybernetischer und informationstheoretischer Paradigmen in traditionell eher nicht-
technische Wissenschaften wurde schon zwecks des universalistischen Anspruchs der frühen Kybernetiker
aktiv vorangetrieben. Eine zentrale Rolle spielten hierbei die Macy-Konferenzen, zu der auch Gesellschafts-
wissenschaftler, Psychologen, Erziehungswissenschaftler usw. eingeladen und erfolgreich von den kyber-
netischen Konzepten überzeugt wurden.
41 Vgl. dazu das „manichäische Böse“ in Norbert Wiener: The Human Use of Human Beings. New York 1967,
S. 50f. Vom heutigen Stand des Wissens aus betrachtet wäre allerdings vielmehr zu konstatieren: das Leben
optimiert nicht, es wuchert. Und es akkumuliert auch in der Regel nicht, sondern es baut aus der Perspektive
des einzelnen lebenden Individuums sogar häufig auf seine eigene Verschwendung auf zugunsten des Erhalts
von Ökosystemen. Meist zieht es produktive Symbiosen der ‚all-or-none Kampfsituation‘ vor, die insofern
als Ausnahmezustand gelten kann. Vgl. hierzu auch Fußnote 6: die Biologie rechnet nicht.
– 12 –
übersetzt. Doch folgt man Turing, so ist sie gleichwohl ein notwendiges Ärgernis, denn er
gesteht ein: „Ich glaube, daß diese Gefahr, Fehler zu machen, eine unvermeidliche Begleit-
erscheinung des Vermögens des Mathematikers ist, manchmal auf eine vollkommen neue
Methode zu stoßen“:42 Innovation als Fehler im System. Doch woher rührt dieser Fehler, wie
kommt er ins Spiel? Diese Frage führt auf ein fundamentales Problem, das allen mecha-
nistischen und behavioristischen Konzepten inhärent ist, denn eben dieser Fehler stellt im
Verbund mit der oben genannten „Selbsttätigkeit“ autopoietischer Systeme scheinbar jenes
unberechenbare Agens dar, das in der Regel in ein nicht weiter definiertes Außen verschoben
wird, über welches letztlich keine Aussagen gemacht werden (können). Die Zweiteilung der
Welt in ein Innen und ein Außen der formalen Logik, die bei Turing in der Unterscheidung
von mechanisch ersetzbarer „ingenuity“ und mechanisch nicht modellierbarer „intuition“
aufscheint, ist letztlich nichts anderes als eine avancierte Fortschreibung der cartesischen
Dichotomie von res extensa und res cogitans. In der Scholastik nannte man dieses Außen den
‚unbewegten Beweger‘, heute heißt es in der Physik und der Informationstheorie beispiels-
weise ‚thermodynamisches Rauschen‘, das seinerseits wiederum direkt auf die szientistische
Schöpfungsszene, den Urknall, zurückverweist. Auch bei dessen Berechnung kollabieren bis
dato bekanntlich alle Formalismen. Doch immerhin: man hat Methoden entwickelt, sich
diesem Rauschen zumindest statistisch anzunähern. Würfelt ‚der Alte‘ also doch?43
Bei der mechanistischen Betrachtungsweise von Gehirn und Intelligenz tauchen jedoch
noch eine Vielzahl weiterer Probleme auf. Darunter auch eines, das bereits im Leibnizschen
Monadenkonzept anklingt, denn jedes komplizierte Räderwerk braucht bekanntlich eine
Taktung, um seine Operationen zu synchronisieren. Mit anderen Worten: es braucht ein
Zentrum, das eine einheitliche, diskretisierte Systemzeit generiert, nach der sich alle Kompo-
nenten zu richten haben und nach der Information schrittweise prozessiert wird. McCulloch
und Pitts setzten die Existenz einer solchen Masterclock wie sie jeder Digitalcomputer besitzt
in ihrem Modell stillschweigend voraus. Im Gehirn konnte sie jedoch bis heute nicht
gefunden werden.44 Turing, der mit seiner These funktionaler Äquivalenz gar keine
naturgetreue Nachbildung des Gehirns anstrebte, war diesbezüglich etwas vorsichtiger und
wies darauf hin: „In Wirklichkeit verläuft alles stetig. Es gibt jedoch viele Maschinenarten,
die zweckmäßigerweise als diskrete Maschine gedacht werden können.“45 Demnach reicht es
aus, wenn sich die einzelnen Maschinenzustände hinreichend unterscheiden und für jeden
Konstrukteur besteht natürlich die Möglichkeit, diese diskreten Zustände in ausreichender
Genauigkeit herzustellen. Nicht so jedoch im Gehirn, in dem auch noch Komplexitäten ganz
anderer Art auftauchen, wie sich herausstellen sollte. Nichtsdestotrotz wurde bis zur Ver-
öffentlichung von Minskys und Paperts Buch Perceptrons im Jahr 1969 unbeirrt an den
Versuchen einer formallogischen Rekonstruktion von menschlicher Intelligenz festgehalten.46
42 Turing 1987: „Intelligente Maschinen“, S. 9. In seinem Vortrag „The State of the Art“ (1947) betont er mit
ähnlichem Fokus: „Wenn von einer Maschine Unfehlbarkeit erwartet wird, kann sie nicht zugleich intelligent
sein.“ Vgl. ebd. S. 207.
43 Im Streit um die Plausibilität der Quantentheorie soll Einstein lapidar gesagt haben: „Der Alte [Gott] würfelt
nicht.“
44 Zur Annahme einer Masterclock s. auch McCulloch und John Pfeiffer: „Of Digital Computers called Brains.“
In: The Scientific Monthly, Vol. 69, Nr. 6, Dez 1949, S. 371. Es gibt zwar diesbezüglich zwar Vermutungen
über die Rolle der Alphawellen im Gehirn, von einer zentralisierten Zeit oder einer strengen Taktung kann in
diesem Zusammenhang allerdings nicht gesprochen werden.
45 Turing 1987: „Rechenmaschinen und Intelligenz“, S. 156.
46 Marvin Minsky und Seymour Papert: Perceptrons: An Introduction to Computational Geometry. MIT Press,
Cambridge 1969. Minsky und Papert wiesen hier auf einige fundamentale Probleme des Perceptron-Modells
von Frank Rosenblatt hin, das dieser 1958 vorgestellt hatte und das in der Tradition des Neuronenmodells
von McCulloch und Pitts steht. In Folge kamen die Forschungen auf diesem Gebiet bis in die 1980er Jahre
weitgehend zum Erliegen.
– 13 –
3. Von Neumann: biologische Neuronennetze und die Mathematik
Die erste kritische Analyse, die diesbezüglich hätte ernst genommen werden müssen, ist von
einem Kybernetiker der ersten Stunde. John von Neumann wies bereits 1954 in einer ver-
nichtenden Kritik am Neuronenmodell von McCulloch und Pitts mit aller Vehemenz darauf
hin, dass man bis dato eigentlich keine Ahnung von der tatsächlichen Funktionsweise des
Gehirns habe. Und er musste es wissen, denn er war nicht nur ein genialer Mathematiker und
eine zentrale Figur bei der Realisierung des Digitalcomputers, sondern er hatte sich nach ein-
gehendem Studium der Neurophysiologie auch höchst persönlich an einer technischen
Realisierung des frühkybernetischen Neuronen-Gehirn-Modells versucht. Zwar kam er nicht
mehr dazu, eine geplante Vorlesungsreihe zu diesem Thema zu halten, da ihn nach seinem
extensiven Engagement in Los Alamos bei der Entwicklung der Wasserstoffbombe und in der
Atomenergiebehörde der Knochenmarkkrebs dahinraffte, doch sein Fragment gebliebenes
Manuskript wurde 1958 unter dem Titel The Computer and the Brain veröffentlicht.47 Darin
beschreibt er erst den Aufbau und die Funktionsweise des Digitalcomputers, um diese dann
mit dem menschlichen Gehirn zu vergleichen. Zwar spricht er auch weiterhin von den
„Organen“ des Computers, aber nur um in Folge deren fundamentale Unterschiede zum
menschlichen Gehirn herauszuarbeiten. Ähnlich wie Turing konstatiert er zu Beginn: „the
nerve impulse is a continuous change“, der zwar in der Situation des Emittierens digital bzw.
binär gedeutet werden könne, bei dessen Zustandekommen neben elektrischen jedoch auch
chemische sowie auf intrazellulärer und molekularer Ebene mechanische und im Neuronen-
verbund topologische Faktoren von Bedeutung sein können. Und er bemerkt weiterhin: „on
the near-molecule level of the nerve membrane, all these aspects tend to merge.“48 In Folge
dekonstruiert er nun all die in der „dogmatic description in terms of stimulus-response“
angenommenen „idealizations and simplifications“ des Neuronenmodells von McCulloch und
Pitts, um schließlich zu dem Schluss zu gelangen: „Once these are taken into account, the
digital character no longer stands out quite so clearly and unequivocally“, denn „a nerve cell
is more than a single basic active organ.“49 In Bezug auf das Problem der Gehirntaktung ver-
47 John von Neumann: The Computer and the Brain. Yale University Press 1958. Wolfgang Hagen vertritt die
These, dass die Analogie von Computer und Gehirn sowie überhaupt die ganze Kybernetik nur eine Tarnung
auf maßgebliches Betreiben von Neumanns gewesen wäre, um Gelder für die Entwicklung der Rechen-
kapazitäten zu akquirieren, mit denen sich der Zündmechanismus der H-Bombe berechnen ließ. Die Inter-
disziplinarität der Kybernetik und die Computer-Gehirn-Analogie firmieren demnach nur als Friedens-
legitimation für ein eigentlich rein militärischen Projekt. Vgl. Wolfgang Hagen: „Die Camouflage der
Kybernetik.“ In Claus Pias (Hrsg.): The Macy-Conferences 1946-1953. Vol II. Zürich/Berlin 2004, S. 191-
208. Dies ist in Anbetracht der Tatsache, dass von Neumann wirklich versucht hatte ein Elektronengehirn
namens „Joniac“ zu bauen nicht ganz plausibel. Auch stimmt es nicht, dass von Neumann Turings Arbeiten
vor 1945 noch gar nicht kannte und sich nicht um deren mathematiktheoretischen Hintergründe scherte (vgl.
ebd. S. 201). Er traf Turing bereits 1935 persönlich und setzte sich in Folge bei Alonzo Church dafür ein,
dass Turing seine Dissertation bei Church schreiben konnte, da er große Stücke auf ihn hielt. Das Hilbert-
programm und Gödels Theoreme waren ihm als anfänglichem Fürsprecher Hilberts ebenfalls bekannt. Er
ermutigte Gödel nach dessen Theoremen sogar zu weiteren Forschungen, da er bereits zuvor zu ähnlichen
Ergebnissen gekommen war, diese jedoch wegen ungenügender Beweisführung nicht veröffentlicht hatte.
Vgl. Rav 2002, S. 794. Von Neumann glaubte anfangs tatsächlich „neuron functions can be imitated […] by
vacuum tubes“ wie er 1945 in seinem First Draft of a Report on the EDVAC auf S. 5 schrieb. Ein Hinweis
auf die Ernsthaftigkeit, mit der er dieses Thema verfolgte ist auch, dass er mit Bekanntwerden seiner
Krebsdiagnose alle anderen Tätigkeiten ruhen ließ, jedoch bis zuletzt am Manuskript der nicht mehr
gehaltenen Silliman Lectures weiter arbeitete und es sogar noch zu seinem letzten Gang ins Krankenhaus
mitnahm. Vgl. Vorwort zu The Computer and the Brain von Neumanns Frau Klara.
48 Vgl. Neumann 1958, S. 40ff. Auch Turing hatte 1950 in „Rechenmaschinen und Intelligenz“ auf die
Bedeutung chemischer Prozesse im Gehirn hingewiesen.
49 Ebd. S. 43f, 56, 59. Einen ganz anderen Ansatz vertritt McCulloch, wenn er schreibt, man solle schon aus
pragmatischen Gründen von binären ‚all-or-none‘ Impulsen ausgehen, da dies die Komplexität des Problems
um die Hälfte verringere. Vgl. McCulloch/Pfeiffer 1949, S. 369.
– 14 –
weist er beispielsweise auf eine individuelle neuronale „summation time“, eine Art Zeit-
fenster, mit dem jedes einzelne Neuronen operiert, wobei es wiederum abhängig von Reiz-
stärken und -häufigkeiten auch individuelle Ermüdungserscheinungen zeigt und sich also
mitnichten nach einem vorgegebenen Takt richtet. Selbst diese „summation time“ sei dabei
möglicherweise „kein scharfes Konzept“, von einer diskreten universalen Zeittaktung kann
also gar keine Rede sein. Auch das Konzept des Thresholds, einer Reizschwelle, ab der ein
eingehender Impuls vom Neuron wahrgenommen und weitergeleitet wird, verwirft er als
unterkomplex. In diesem Zusammenhang verweist er darauf, dass sowohl Organismusinterne
als auch -externe Faktoren, die schon für sich genommen meist keine ‚all-or-none‘ Struktur
aufweisen, als Stimuli eine Rolle spielen und die Annahme, es handle sich um das Abarbeiten
einer propositionalen Logik insofern gar nicht stimmen kann.50 In Bezug auf den Speicher des
Gehirns bemerkt er schließlich im Rahmen der mathematischen Darlegung seines voraus-
sichtlichen Fassungsvermögens nach den Paradigmen der Informationstheorie lapidar: „We
are as ignorant of its nature and position as were the Greeks, who suspected the location of the
mind in the diaphragm.“51
Bei all dem ging es von Neumann nicht darum, lediglich ein Modell zu dekonstruieren
und es dabei zu belassen. Er verfolgte bis zuletzt einen konstruktiven Ansatz, immer noch mit
dem Ziel das Gehirn nachzubilden, und er betonte, dass man genau deshalb die Augen vor
den Differenzen zwischen Computer und Gehirn nicht verschließen dürfe.52 Leider kam er
jedoch nicht mehr dazu, seinen Ansatz im Detail auszuarbeiten. Die Andeutungen und
Spekulationen am Anfang und Ende des Buches geben jedoch Anlass zur Nachdenklichkeit,
weisen sie doch auf fundamentale methodische Probleme hin. Bereits zu Beginn bemerkt von
Neumann: „I suspect that a deeper mathematical study of the nervous system […] will affect
our understanding of the aspects of mathematics itself that are involved. In fact, it may alter
the way in which we look on mathematics and logics proper.“53 Nachdem er in Folge darlegt,
dass es sich beim Gehirn höchstwahrscheinlich um ein „mixed system“ handelt, in dem
sowohl analoge als auch digitale Elemente eine Rolle spielen und in einer Signalkette sogar
mehrfache Übergänge denkbar sind, stellt er die Frage nach der möglichen Präzision bzw.
Rechentiefe des Gehirns. Diese richtet sich natürlich immer nach der ‚schwächsten‘ Kompo-
nente im System und ist dementsprechend maximal so hoch wie in den diesbezüglich deutlich
unterlegenen Analogsystemen.54 Hier tritt jedoch ein Problem auf, denn um auch nur an-
nähernd so komplexe Aufgaben zu lösen, wie das sie Gehirn zu lösen vermag, bräuchte ein
Computer zehn bis zwölf Dezimalstellen, wie von Neumann überschlägt. Dies aber kann im
Gehirn als teilanalogem System unmöglich erreicht werden. Doch damit nicht genug, denn in
einem formallogischen System addieren sich selbst kleinste Unschärfen bei komplexeren
Problemen und entsprechend langen Lösungswegen zu immensen Fehlern auf, die jeden
lebenden Organismus letztlich völlig instabil werden ließen. Wie aber kann es dann sein, dass
das zentrale Nervensysteme in punkto Zuverlässigkeit und Stabilität bis dato jedem Computer
bei weitem überlegen ist?55 Dies lässt sich nicht allein mit der massiven Parallelität der
50 Ebd. S. 53ff.
51 Ebd. S. 61.
52 Vgl. ebd. S. 39.
53 Ebd. S. 2.
54 Der Begriff der ‚Rechentiefe‘ bezieht sich genauer gefasst auf die logische und die arithmetische Tiefe. Von
Neumann nennt das Gehirn aufgrund der unterschiedlichen Pulsemissionsdichten der Neuronen ein „pulse
density system“. In Bezug auf dessen Genauigkeit schreibt er: „The pulse density system is comparable to the
analog system; in fact it is worse: the precision is intrinsically low.“ Vgl. ebd. S. 25.
55 Von Neumann beharrt vehement auf diesem Punkt. Er schreibt: „The nervous system is a computing machine
which manages to do its exceedingly complicated work on a rather low level of precision: […] only precision
levels of 2 to 3 decimals are possible. This fact must be emphasized again and again because no known
computing machine can operate reliably and significantly on such a low precision level. […] Indeed, clearly,
– 15 –
Neuronenverbünde im Gehirn erklären, zu der von Neumann gleichwohl bemerkt, dass sie
sich schon aufgrund der bereits angesprochenen Neuronenermüdung nicht gänzlich in eine
serielle Verarbeitung, wie sie dem Digitalcomputer zueigen ist, überführen lässt.56
All das lässt für von Neumann nur einen Schluss zu, nämlich dass es sich um ein Problem
mit der Herangehensweise handelt, oder mit anderen Worten: um die Mathematik in ihrer
heutigen Form. Bereits zuvor hatte er nämlich die Frage aufgeworfen, warum überhaupt
derartige Rechentiefen vonnöten seien, wo diese doch in analogen Systemen aufgrund ihrer
Unschärfen gar nicht vorkommen können.57 Seine Ausführungen legen nun nahe, dass der
Einsatz der Mathematik in ihrer heutigen Form in den Naturwissenschaften an sich ein
gewisser logischer Zirkel zugrunde liegt, da sie als ein Symbolsystem, das auf einem strikt
atomistischen Paradigma aufbaut, voraussetzt, was in Folge erst zu beweisen ist, nämlich dass
Welt, bzw. in diesem Fall das Gehirn, aus kleinsten diskreten Teilchen und Operationen
aufgebaut ist.58 Dies wiederum bedeutet im Umkehrschluss für ihn auch, dass die notwendig
gewordenen wahrscheinlichkeitstheoretischen Ansätze der neueren Physik und anderer
Wissenschaften nicht unbedingt auf einen ‚würfelnden Alten‘ hinweisen müssen, sondern
ebenso gut von einem grundlegenden, methodisch bedingten (Miss-)Verständnis zeugen
könnten, das letztlich dem Übertrag einer finiten, diskreten Symbolsprache namens Mathe-
matik auf eine wie auch immer geartete Welt anzulasten ist. Doch lassen wir von Neumann
selbst zu Wort kommen, denn an dieser Stelle seines Buches folgen einige Sätze, wie man sie
von einem theoretisch genialen Mathematiker nur selten zu lesen bekommt. Von Neumann
schließt, da auch die natürlichen Sprachen gewissermaßen ein „Unfall“ und „keine logische
Notwendigkeit“ sind:
if in a digital system of notations a single pulse is missing, absolute perversion of meaning, i.e. nonsense,
may result.“ Vgl. ebd. S. 77f.
56 Von Neumann wendet sich hier explizit gegen einen parallelistischen Erklärungsversuch wie bspw. in
McCulloch/Pfeiffer 1949, S. 375. Auf diesen Unterschied zwischen Gehirn und Computer wird vielfach
hingewiesen und mit ihm wird auch heute noch gerne die Überlegenheit des Gehirns bei unglaublich viel
langsamerer Arbeitsgeschwindigkeit erklärt. Beim Bau des Computers hatte man sich hauptsächlich aus
praktischen Gründen für eine serielle Verarbeitung entschieden, wobei von Neumanns First Draft of a Report
on the EDVAC hierbei eine zentrale Rolle spielte. In ihm wird die in Folge nur noch leicht modifizierte von-
Neumann-Architektur beschrieben und auch das ‚SISD‘ Prinzip (single instruction, single data) geht
wesentlich auf diesen Report zurück.
57 Er schreibt: „Why are such extreme precisions (like the digital 1:1012) at all necessary? Why are the typical
analog precisions (say 1:104), or even those of the pulse density system (say 1:102), not adequate? […] The
reasons for this surprising phenomenon are interesting and significant. They are connected with the inherent
structure of our present mathematical and numerical procedures. The characteristic fact regarding these
procedures is that when they are broken down into their constituent elements, they turn out to be very long.
[…] The underlying reason is that our present computational methods call for analyzing all mathematical
functions into combinations of basic operations.“ Vgl. ebd. S. 26. McCulloch und Pfeiffer stellen in diesem
Zusammenhang dagegen pragmatisch und ohne weitere Hinterfragung fest: „the information that analogical
signals can convey is inadequate for many of the requirements of modern science.“ Vgl. McCulloch/Pfeiffer
1949, S. 368.
58 Natürlich existiert auch die Differentialmathematik, die es erlaubt Kontinuen zu approximieren, doch auch
sie operiert mit einer endlichen Anzahl von Zeichen und legt so letztlich in epistemischer Weise zumindest
die atomistische Beherrschbarkeit dieser Kontinuen nahe. Zudem explodierte mit dem Digitalcomputer in
erster Linie die Entwicklung der diskreten Mathematik. Das Problem der ‚Atomisierung‘ von Problem-
stellungen zu ihrer Lösung deckt sich hierbei notgedrungen mit der (natur-)wissenschaftlichen Vorgehens-
weise an sich. So schreiben Wiener und Rosenblueth: „As a rule ‚high‘ order, very abstract and general
questions, are not directly amenable to an experimental test. They have to be broken down into more specific
terms, terms directly translatable into experimental procedure.“ Vgl. Norbert Wiener und Arturo Rosen-
blueth: „The Role of Models in Science.“ In: Philosophy of Science, Vol. 12, No. 4. University of Chicago
Press 1945, S. 316. Unzählige Kybernetiker verweisen in diesem Zusammenhang auf eine lange erkenntnis-
theoretische Tradition die auf Demokrits Atomismus zurückgeht, darunter auch Wiener und McCulloch.
– 16 –
„it is only reasonable to assume that logics and mathematics are similarly historical, accidental
forms of expression. They may have essential variants, i.e. they may exist in other forms than the
ones to which we are accustomed. Indeed, the nature of the central nervous system and of the
message systems that it transmits indicate positively that this is so. […] Thus logics and mathe-
matics in the central nervous system, when viewed as languages, must structurally be essentially
different from those languages to which our common experience refers. […] When we talk mathe-
matics, we may be discussing a secondary language, built on the primary language truly used by
the central nervous system. Thus the outward forms of our mathematics are not absolutely relevant
from the point of view of evaluating what the mathematical or logical language truly used by the
central nervous system is. However, the above remarks about reliability and logical and arithme-
tical depth prove that whatever the system is, it cannot fail to differ considerably from what we
consciously and explicitly consider as mathematics.“59
Dies sind die letzten offiziellen Zeilen eines großen Mathematikers auf dem Sterbebett, – ein
Zeichen für die Bedeutung, die das Thema für von Neumann hatte. Doch da sein Buch weit-
gehend unbekannt geblieben ist, gilt er vielen weiterhin als fanatischer Vertreter einer rein
formalistischen Mathematik Hilbertscher Prägung, der sich allein für technische Machbar-
keiten interessierte. Dabei fordert von Neumann hier letztlich nichts anderes ein als einen
neuen Turing bzw. ein neues Berechenbarkeitsparadigma.60
Zu erwähnen bleibt noch, dass sich auch einige andere Probleme wie zum Beispiel der
immense Speicherbedarf, der bis heute in keiner Hirnregion genau lokalisiert werden konnte,
in Wohlgefallen auflösen würden, wenn man annimmt, dass das Gehirn Problemstellungen
gar nicht in Kleinstoperationen zerlegt.61 In dieser und ähnlicher Weise argumentierten nach
von Neumann auch noch einige andere Wissenschaftler, ihnen wurde jedoch vor dem Hinter-
grund der vorherrschenden Digitaldoktrin meist kein Gehör geschenkt. Die Forschungen zu
Analogcomputern wurden nicht zuletzt aus Wirtschaftlichkeitsgründen für lange Zeit weit-
59 Von Neumann 1958, S. 81f.
60 Auch Gödel spekulierte in den 1960er Jahren im Gegensatz zu Turings „effektiver Berechenbarkeit“ über
„nichteffektive Berechnungsverfahren“. Er wurde jedoch nie konkret. Fruchtbarer erscheint hier bspw. der
Ansatz von MacLennan, der zwar eingesteht, dass die Turingberechenbarkeit die angemessene Antwort auf
ein mathematiktheoretisches Problem im Rahmen der Grundlagenkrise war, sie aber schon aufgrund ihrer
Grundannahmen absolut irrelevant für die Informationsverarbeitung in lebenden Systemen ist (Wohl-
definiertheit/Diskretheit, Endlichkeit, Terminierung). Er plädiert stattdessen für ein zweites, alternatives
Konzept, das zu einer erweiterten Epistemologie beitragen könnte („natural computing“). In ihm spielt
Terminierung keine Rolle, viel wichtiger sind a) harte Echtzeitanforderungen; b) nicht über einen Symbo-
lismus vermittelte direkte Manipulation von physikalischen Quantitäten (≠Informationsbegriff); c) Robust-
heit unter Einfluss von Störung; d) zufriedenstellende statt optimale Lösungen. Er schreibt: „natural
computing is satisfying rather than optimizing.“ Vgl. Bruce MacLennan: „Transcending Turing
Computability“ (2001). In: Minds and Machines. Vol. 13, No.1, S. 11.
61 Man weiß heute zwar mittels moderner Magnetresonanztomographie, welche Hirnareale besonders gut mit
Blut und Sauerstoff versorgt werden, wenn bestimmte Erinnerungen auftauchen, aber viel mehr auch nicht.
Von Neumann stellt einige Vermutungen an, wo sich das Gedächtnis innerhalb der Neuronenverbünde
verbergen könnte, von denen einige noch heute in der Diskussion sind. Auch spekulierte er in diesem
Zusammenhang über die Rolle der Gene. Vgl. ebd. S. 64ff. In Bezug auf das Zerlegungsproblem verweist er
explizit auf Turings Aufsatz von 1937 und das daraus folgende Konzept eines notwendig ‚vollständigen‘
Codes „[to] define completely a specific behavior of the nervous system, or, in the above comparison, of the
corresponding artificial automaton involved.“ Er selbst hingegen vermutet bezüglich der Arbeitsweise des
Nervensystems eher einen „short code“, also eine Art höhere Programmiersprache, die sich zudem nicht
eineindeutig auf eine vollständig atomisierte Ebene abbilden lässt, sondern zu dieser nur eine statistische
Beziehung unterhält. Vgl. ebd. S. 70f, 79. Er stellt mit dieser Vermutung das heute geltende Paradigma
gewissermaßen auf den Kopf und führt zudem vermittels der Statistik Freiheitsgrade ein, die eine voll-
ständige Zerlegung letztlich unmöglich machen. An anderer Stelle weist er darauf hin, dass es an unseren
„habits of thought and of expressing thought“ liege, komplizierte Probleme zu lösen „without having
recourse to formulae and numbers.“ Ebd. S. 74.
– 17 –
gehend eingestellt, da sie zum einen auf die Lösung von spezifischen Einzelproblemen
spezialisiert bleiben und nicht gleichermaßen ‚universal‘ sind, und zum anderen ihr Bau
wesentlich komplizierter und aufwendiger ist. In diesem Zusammenhang erwähnenswert ist
vielleicht auch eine Art biographischer Parallele zwischen Turing und von Neumann: beide
wendeten sich in ihren fortgeschrittenen Schaffensperioden zunehmend biologischen Kon-
zepten zu. So forschte Turing zum Wachstum von Nervenzellen, um ihrer „Selbsttätigkeit“
(heute würden wir sagen: ihrer Autopoiesis) auf die Spur zu kommen, und von Neumann
versuchte mit seiner Theorie zellulärer Automaten die Evolutionsmechanismen der belebten
Natur zu kopieren.
4. Ashbys Homöostat: ultrastabile und multistabile Systeme
Ein weiterer einflussreicher Vertreter der frühen Kybernetik mit einem ganz eigenen Ansatz
zur Realisierung einer KI ist bislang unerwähnt geblieben. Der Psychologe Ross Ashby
verkörpert eine Kybernetik, die nicht von einem formallogisch-symbolistischen Paradigma
ausgeht und auf diese Weise versucht Welt oder Gehirn zu modellieren wie die bisher
besprochenen informationstheoretischen Ansätze. Ashby wandte sich von vorn herein Kon-
zepten aus der Biologie bzw. Physiologie zu. Dieser Strang war jedoch, obwohl in den kyber-
netischen Modellbildungen sehr wirkmächtig, in den Feuilletons jener Zeit lange nicht so
prominent. Mit dem Siegeszug der Universalmaschine Digitalcomputer wurde er, was die
Entwicklung von maschineller Intelligenz angeht, zwischenzeitlich sogar völlig in den Hinter-
grund gedrängt, zumindest was Ashbys strikt analog gedachten Realisierungsansatz betrifft.
Die Einschätzung von technischen Machbarkeiten erfordert schließlich Berechenbarkeit und
zwar wenn möglich bis ins letzte Detail. Außerdem stellte sich im Laufe der Zeit heraus, dass
die symbolischen Maschinen Dank Turing den analogen Maschinen in punkto Universalität
bei weitem überlegen sind, auch wenn sie gegenüber letzteren gezwungenermaßen immer
einem Simulationsparadigma verhaftet bleiben.62 Im Rahmen von neueren Entwicklungen wie
der synthetischen Biologie, Teilen der Robotik und der Verarbeitung von riesigen unstruktu-
rierten Datensätzen im Kontext von Big Data tritt er jedoch derzeit zunehmend wieder auf den
Plan.
Ashby wählte einen experimentellen oder wenn man so will einen ‚bottom-up‘ Ansatz,
indem er sich den Zugang zum Thema der künstlichen Intelligenz weniger über ein theore-
tisches Konstrukt als vielmehr über den Bau eines ‚epistemischen Dings‘ erschloss. Dieses
Ding, das zur Grundlage seiner Theorie künstlicher Intelligenz wurde, stellte er bereits 1948
in seinem Aufsatz Design for a Brain vor. Eine genauere wissenschaftliche Untersuchung und
Theoretisierung lieferte er 1952 in Form eines Buches mit gleichnamigem Titel nach.63 Auch
darin wird der Homöostat, das Kernstück seiner Theorie, beschrieben. Als Psychologe verfiel
Ashby überhaupt nicht erst dem Phantasma, das menschliche Gehirn sei ein durch und durch
rational kalkulierender Automat.64 Da es als biologisches System jedoch auch unter physika-
lischen Gesichtspunkten betrachtet und analysiert werden kann, war Ashby der Überzeugung,
dass man sich nur auf raffinierte Weise die allgemeinen Gesetze der physikalischen Erschei-
nungen zunutze machen müsse, um eine KI zu schaffen, die bestenfalls auch von ihrem
62 Der Clou von Turings 1937 Aufsatz war die Beschreibung einer ‚universellen Turingmaschine‘, die, gefüttert
mit der Beschreibung einer jeglichen speziellen, in der Lage ist, diese zu imitieren. S. Turing 1937 S. 241ff.
63 Ross W. Ashby: „Design for a Brain.“ In: Electronic Engineering. Dez. 1948, S. 379-383; ders.: Design for
a Brain. London 1952.
64 Für Norbert Wiener beispielsweise enthält nur die rational kalkulierende Gehirnhälfte die „höheren
Funktionen […,] wobei die andere für sehr viel weniger wichtige Zwecke reserviert blieb.“ Vgl. Wiener
2002, S. 178.
– 18 –
Entwickler gar nicht mehr durchschaut werden kann (und muss). In diesem Punkt grenzt er
sich explizit von den informationstheoretischen Ansätzen ab. Ebenso wie diese ging Ashby
jedoch mit seinem physikalistischen Ansatz davon aus, dass das Nervensystem im wesent-
lichen mechanistisch zu erklären sei. So verglich er zum Beispiel ganz in der Tradition de
LaMettries Tiere mit Maschinen, wobei es sich hier nicht um eine ontologische sondern um
eine methodologische Prämisse handelte. Zu Beginn seines Kapitels The Animal as Machine
schreibt er: „We shall assume at once that the living organism in its nature and processes is
not essentially different from other matter. The truth of the assumption will not be discussed.
The chapter will therefore deal only with the technique of applying this assumption to the
complexities of biological systems.“65 In ähnlicher Weise lehnt er auch jeden introspektiven
Psychologismus ab und beschränkt sich auf eine strikt behavioristische Beschreibungs-
perspektive, nicht weil er dachte, das Bewusstsein spiele keine Rolle oder existiere nur als
Illusion einer komplexen aber an sich seelenlosen Maschine, wie dies in den heutigen Neuro-
wissenschaften gelegentlich gesehen wird. Er war vielmehr genau gegenteiliger Auffassung
und outet sich gewissermaßen als Panpsychist, wenn er konstatiert, „[that] the truth is quite
otherwise, for the fact of the existence of consciousness is prior to all other facts.“ Als
Wissenschaftler vertrat er jedoch zugleich die methodologische Grundhaltung „[that] science
deals, and can deal, only with what one man can demonstrate to another“ und insofern
kündigt er auch bereits im Vorwort seines Buches an: „I made it my aim to accept nothing
that could not be stated in mathematical form.“66
Der Homöostat baut wie der Name schon sagt auf dem Konzept der Homöostase auf, das
1860 von dem Physiologen Claude Bernard beschrieben und 1929 von Walter Cannon be-
nannt worden war. Es bezeichnet die Fähigkeit eines (physiologischen) Systems, sich selbst
mittels Rückkopplung innerhalb von gewissen Grenzen in einem stabilen Zustand zu halten.67
Insofern stellt es das biologische Pendant zum Prinzip des Fliehkraftreglers dar, das James
Watt bereits 1788 in den Maschinenbau eingeführt hatte und das gemeinhin als Beginn der
modernen Regelungstechnik gilt.68 Ashby bedient sich jedoch noch eines zweiten Prinzips. Zu
Beginn seines Artikels von 1948 weist er darauf hin, dass der Einsatz der Elektronenröhre als
Steuereinheit das klassische Maschinenbild revolutioniert und Mensch und Maschine auf neue
Weise angenähert habe, da es nunmehr im Gegensatz zu vorigen Zeiten möglich sei, mit einer
kleinen Steuerkraft große Kräfte zu manipulieren.69 Kombiniert man nun dieses neue elektro-
magnetische Steuerprinzip der Röhrentechnik mit dem der Rückkopplung, so erhält man nach
Ashby ein Verfahren, das mit der Funktion von Nervenzellen vergleichbar sei. Der Unter-
65 Ashby 1952, S. 29.
66 Ebd. S. 10f, Vorwort S. VI. Als Grund hierfür gibt er auch an, dass das Bewusstsein in Bezug auf das
Hauptthema des Buches, nämlich das adaptive Lernen, nicht unbedingt von Bedeutung sei.
67 Das Konzept der Homöostase ist ein basales Element kybernetischer Modellbildungen und fand vor allem in
den Lebens- und Sozialwissenschaften Anwendung. Seine Bedeutung zieht sich in Folge durch die gesamte
Systemtheorie bis hin zu Maturanas Konzept der Autopoiesis.
68 Die Aufgabe des Fliehkraftreglers war, die Arbeitsgeschwindigkeit von Dampfmaschinen stabil zu halten
und durch automatisierten Druckausgleich ein Explodieren des Kessels bei Überhitzung zu vermeiden. Ein
ähnliches Prinzip war zuvor bereits in Mühlen verwendet worden.
69 Das kybernetische Grundprinzip der Steuerung einer starken Kraft durch eine schwache in Kombination mit
Rückkopplungsmechanismen geht auf Norbert Wieners vereinheitlichenden Ansatz in seiner Grundlagen-
schrift Die Gelbe Gefahr zurück. Vgl. dazu auch Fußnote 15. Bereits in der Einleitung der 1949 erstmals
veröffentlichten Version heißt es „[The] fundamental unity of all fields of communication engineering has
been obscured by the traditional division of engineering into what the Germans call Starkstromtechnik and
Schwachstromtechnik […] This difference in technique has often blinded the communications and the power
engineers to the essential unity of their problems.“ Vgl. Wiener 1966, S. 2f. Im Rahmen dieses Buches
beschreibt er unter anderem, wie man vermittels eines kleinen Steuerstroms am Gitter einer Elektronenröhre
(Triode) den Durchfluss des Hauptstroms manipulieren und so die Röhre als logische Schalteinheit
verwenden kann.
– 19 –
schied zwischen Gehirn und den neuen
Röhrenmaschinen bestehe folglich nur darin,
dass die Maschinen von diesem kombinierten
Steuermechanismus bisher nicht annähernd so
viel Gebrauch machen wie das Gehirn.70
In seinem Homöostat baut Ashby diese
Steuerkombination aus Röhrentechnik und
Rückkopplung nun aus, indem er vier dreh-
bare elektromagnetische Einheiten, die sich
vermittels einer raffinierten elektronischen
Röhrenschaltung über einen gemeinsamen
Stromkreis jeweils selbst und gegenseitig in
ihrer Drehbewegung beeinflussen und auf
diese Weise auch den Stromfluss im Gesamt-
system modulieren, zu einem übergeordneten
System zusammenfasst.71 Im Ausgangszu-
stand befindet sich das Gesamtsystem in
einem Gleichgewicht und die drehbaren Mag-
nete ruhen. Manipuliert man aber mit Hilfe
eines Gleichrichters und eines Potentiometers
den Eingangsstrom der vier Einheiten oder
verändert sein Vorzeichen, so beginnen die
Magnete „some definite pattern of behavior“
zu zeigen und ihre Bewegung kommt erst
dann wieder zur Ruhe, wenn ein neuer Gleich-
gewichtszustand im Gesamtsystem hergestellt
ist.72 Eine weitere Manipulationsmöglichkeit
des Stromflusses ergibt sich schließlich durch
vier Stufenschalter mit je 25 mögli-
chen Positionen, die den Eingangs-
strom der drehbaren Magnete hin-
sichtlich seiner Stärke und seines
Vorzeichens regulieren, so dass sich
eine Kombination von 254 = 390.625
Konfigurationsmöglichkeiten für das
Gesamtsystem ergibt.73 Schaukeln
sich die Bewegungen der vier Teil-
systeme und die Strommodulation
des Gesamtsystems nun innerhalb
einer Schalterkonfiguration immer
weiter auf und es findet sich kein
systeminternes Ruhegleichgewicht,
70 Vgl. Ashby 1948, S. 379.
71 Zum genauen Aufbau der Schaltung s. Ashby 1952, S. 93ff.
72 Ebd. S. 96.
73 Ashby weist in diesem Zusammenhang darauf hin, dass Endlichkeit (wie im übrigen auch Diskretheit) im
Sinne der besprochenen formallogischen Ansätze hier eigentlich keine Rolle mehr spielt. Vgl. Ashby 1952,
S. 91. In diesem Zusammenhang ist auch Ashbys ‚Law of Requiste Variety‘, eine zentrale Erkenntnis der
Kybernetik, zu erwähnen, das besagt, dass ein Steuersystem umso mehr Störeinflüsse ausgleichen kann, je
größer seine Handlungsvarietät ist.
Abb. 1-2 entnommen aus Ashby 1952, S. 94f.
– 20 –
so werden die Stufenschalter vor Erreichung eines kritischen Zustandes (also bevor das Gerät
gewissermaßen auseinanderfällt) automatisch auf eine zufällige neue Position geschaltet und
das Gesamtsystem sucht in der nächsten Konfiguration nach einem stabilen Zustand. Ziel der
Prozedur ist dabei immer das Einpendeln auf ein Ruhegleichgewicht, also das Ende von
Magnetbewegungen und Strommodulation.
Ein solches Gesamtsystem bezeichnet Ashby als „ultrastabil“, da es sich vor dem Errei-
chen eines kritischen Systemzustands selbst rekonfiguriert, bis sich irgendwann ein Ruhe-
gleichgewicht findet, das nicht unbedingt vorhersehbar ist. Dies kommt nach Ashby dem
Verhalten eines Organismus’ wesentlich näher als die automatischen Zielsuchwaffen der
frühen Kybernetik (z.B. Torpedo), da es in seinem „Verhalten“ wesentlich flexibler ist. Ashby
schreibt: „the machine starts to hunt for a combination of uniselector settings giving a stable
system, i.e., giving the propper internal feedback […] and will then demonstrate that it has
assembled that feedback system […] like a living thing.“74 Ähnlich einem Tier, das mittels
negativer Rückkopplung lernt gewisse Situationen zu meiden und mittels positiver Rück-
kopplung andere zu ‚erstreben‘, lernt auch der Homöostat auf adaptive Weise innerhalb seines
Gesamtsystems ein Gleichgewicht aus negativen und positiven Rückkopplungen herzustellen,
bis ein allgemeiner Zustand der Stabilität erreicht ist.75 Und da er durch die automatische
Umschaltung gewissermaßen eine sich selbst verkabelnde, „selbstorganisierende Maschine“
ist, bedarf es dazu auch keinerlei weiterer Programmierung. Ein logischer Zirkel oder eine
Uneindeutigkeit im Regelset, die jede formallogische Maschine bis in alle Ewigkeit in einer
Schleife hängen oder abstürzen lässt, verursacht hier lediglich ein Aufschaukeln der Kompo-
nenten bis automatisch in die nächste Konfiguration übergegangen und der Zirkel gewisser-
maßen verlassen wird. Das in der Grundlagenkrise der Mathematik aufgeworfene Entschei-
dungsproblem kommt hier also überhaupt nicht zum Tragen. Zudem lässt sich nach Ashby
mit dem Homöostat das Verhältnis von System und Umwelt untersuchen, indem zwei der
Einheiten über ihren Stufenschalter per Hand gesteuert werden (was die Umwelteinflüsse
repräsentiert) und zwei der Einheiten das Nervensystem verkörpern, das automatisch reagiert
und sich den veränderten Umweltbedingungen anpassen muss. Der einzige Nachteil ist
demnach der noch fehlende Speicher, weswegen sich der Homöostat jedes Mal aufs neue auf
die Suche nach einer adäquaten (Re-)Konfiguration machen muss. Der große Vorteil gegen-
über formallogischen Rechenmaschinen ist jedoch, dass er selbständig und gewissermaßen
auch ‚selbsttätig‘ (soll heißen auf Basis physikalischer Gesetze und ohne die Grundlage einer
Befehlssprache) nach einer Lösung sucht, die ihm kein Programmierer direkt oder indirekt
über ein Lösungsverfahren vorgibt. Nach Ashby kann eine Maschine nur unter dieser Voraus-
setzung tatsächlich eine Form von Intelligenz entwickeln, die der ihres Schöpfers sogar
potentiell überlegen ist. Er schreibt:
74 Ashby 1948, S. 381.
75 Ashby betont, dass Torpedos und Zielsuchraketen, die epistemischen „goal-seeking“ Dinge der US-ameri-
kanischen Kybernetiker, auf der Basis eines statischen Rückkopplungsprinzips beruhen, das unter keinen
Umständen sein Vorzeichen ändert. Der für in diesem Zusammenhang und für Wieners Teleologiekonzept
zentrale Begriff des ‚negativen Feedbacks‘ bezieht sich auf den Vorzeichenwechsel der Rückkopplung, was
bedeutet, dass die Steuerkraft als Kontrollkraft negativ auf die Ausbildung von Resonanzen innerhalb eines
Systems einwirkt. Bei mit Sensoren ausgestatteten automatischen Zielsuchwaffen wird dies in Bezug auf das
bewegliche Ziel zur Zielkorrektur eingesetzt. Verstärkt sich eine Resonanz bzw. ‚Zielablenkung‘ immer
mehr, so vergrößert sich auch die als Dämpfungsfaktor eingesetzte Steuerkraft derart, dass das System der
Ausbildung dieser Resonanzen oder Ablenkung entgegenwirkt und gewissermaßen auf korrektem Zielkurs
bleibt. Wiener spricht bei den kybernetischen Feedbackkreisläufen auch von einem Mechanismus „to control
the mechanical tendency toward disorganization; in other words, to produce a temporary and local revearsal
off the normal direction of entropy.“ Vgl. Wiener 1967, S. 36.
– 21 –
„There is one point on which we must be quite clear: a proper synthetic brain must develop its own
cleverness – it must not be a mere parrot. […] We must always ask how much of the performance
has been enforced in detail by the designer and how much is contributed by the machine itself.“76
Würde man eine solche Maschine komplexerer Bauart mit Statistiken und wissenschaftlichen
Fakten füttern, so wäre sie nach Ashby womöglich sogar in der Lage „to explore regions of
intellectual subtlety and complexity at present beyond the human powers.“ Und nicht nur das,
„such a machine might perhaps […] resolving the political and economical difficulties by its
understanding and use of principles and natural laws which are to us yet obscure.“ Das
einzige Problem, das sich in Folge allerdings stellen könnte, ist laut Ashby der Gefühls-
haushalt und der Egoismus einer solchen Maschine, die vom Menschen aufgrund ihrer Kom-
plexität nicht mehr durchschaut werden könne, so dass man letztlich ihrem „Temperament“
und ihren Eigeninteressen ausgeliefert wäre. Er betont: „The slave-brain [of a formal system]
will give no trouble. But what of the homeostat-type, which is to develop beyond us? […] we
might not realise that it had already decided that its human attendants were no longer
necessary.“77 Interessant daran ist, dass Ashby als Psychologe hier für seine Maschine bereits
Gefühlsregungen in Anspruch nimmt, die nach der Annahme vieler heutiger Theorien eine
zentrale Rolle bei der Ausbildung von Intelligenz spielen; – ein Thema, das mittlerweile auch
KI-Forscher der formallogischen Schule umtreibt.78 Bei Ashby, der biochemische Prozesse im
Gehirn letztlich auf physikalische reduziert, resultieren die Gefühle der Maschine möglicher-
weise aus den genannten „obskuren“ Prinzipien und Naturgesetzen, die uns bis dato noch
nicht bekannt sind. In altbewährter Ingenieursmanier schlägt er jedoch vor: „I suggest that the
simplest way to find out is to make the thing and see.“79
In der Tat scheint es Ashby mit seinem Ansatz zu gelingen, einen Großteil der Probleme,
die bei formallogischen Rechenmaschinen (aufgrund von ungeklärten Grundlagenfragen der
Mathematik) hinsichtlich der Realisierung einer starken KI auftreten, zu umgehen. Es bedarf
keiner orakelhaften ‚nicht-maschinellen‘ Intuition zur Ausbildung von Intelligenz – höchstens
76 Ebd. S. 382. In diesem Kontext kritisiert er auch unmissverständlich den formallogischen Ansatz, der nicht
nur von der vollständigen Analysierbarkeit von Situationen ausgeht sondern auch grundsätzlich auf der
Programmierung der Maschine aufbaut. Dies bezeichnet er als „slave-brain“. Er selbst hingegen geht davon
aus „that chess, like living, cannot always be analysed out completely.“ Vgl. ebd. Dazu muss gesagt werden,
dass die Schachmaschine bis zum Triumph von ‚Deep Blue‘ über Kasparov ein Steckenpferd der Formal-
logiker war. Gegenüber den Designern von Rechenmaschinen heißt es in Ashby 1952 auf S. 130: „My aim
[…] is simply to copy the livingbrain. In particular, if the living brain fails in certain characteristic ways, then
I want my artificial brain to fail too; for such failure would be valid evidence that the model was a true
copy.“ Dabei lässt sich der hier gemeinte Fehler nach Ashby nicht mit Turings Zufallsfehlern vergleichen. In
diesem Punkt schwenkt Wiener später ein, wenn er schreibt: „In the learning machine, it is well to distinguish
what the machine can learn and what it cannot“ und vorschlägt, daher zwischen Determinierung durch
„preference“ und Determinierung durch „constraints“ zu unterscheiden. Vgl. Wiener 1967, S. 241f.
77 Ebd. S. 382f. Ashby verweist in diesem Zusammenhang auch auf das Interesse der Maschine an einer
immerwährenden Aufrechterhaltung der Stromversorgung und ähnliches. Er schreibt: "If now such a machine
is used for large-scale social planning and coordination, we must not be surprised if we find after a time that
the streams of orders, plans and directives issuing from it begin to pay increased attention to securing its own
welfare.“ Auch Norbert Wiener sah die Gefahr einer den Menschen versklavenden Staatsmaschine. Vgl.
Wiener 1967, S. 65, 243ff: Ein Thema, das von diversen Science Fictions aufgenommen wurde, vom Stand-
punkt der Systemtheorie und in Anbetracht der heutigen fundamentalen gesellschaftsorganisatorischen
Abhängigkeiten von Maschinennetzen jedoch schon heute als Realität betrachtet werden könnte.
78 Vgl. z.B. Wade Roush: „Die Maschine muss fühlen lernen.“ (Interview mit Marvin Minsky). In: Heise.de,
21.7.2006. Minsky verfolgt in seinem Buch zu diesem Thema (The Emotion Machine, 2006) letztlich einen
ähnlichen Ansatz wie Norbert Wiener mit seiner statisch und endlich gedachten Typenlehre situations-
abhängiger aber unveränderlicher Logiken beim Menschen. Vgl. dazu auch Wiener 2002, S. 175f bzw.
Fußnote 26.
79 Ashby 1948, S. 383.
– 22 –
einiger noch unbekannter Naturgesetze. Die Welt bleibt also vorerst eins. Das Spiel von
Selbstreferenz und Fremdreferenz, von internen Rückkopplungen und Rückkopplungen mit
der Umwelt, bildet hier die Grundlage von Intelligenz. Mit seinem prozessualen und feld-
theoretisch basierten Ansatz umgeht Ashby die Forderungen formallogischer Maschinen nach
Diskretheit, Endlichkeit und Terminierung. Er selbst beschreibt das Operieren seiner ultra-
stabilen Systeme folgendermaßen: „the process is selective towards fields. […] an ultrastable
system acts selectively towards the fields of the main variables, rejecting those that lead the
representative point to a critical state but retaining those that do not.“ Und diese Systeme
lassen sich zumindest theoretisch beliebig ineinander verschachteln, so dass schließlich
„multistabile Systeme“ entstehen, die im Prinzip ganzen Ökosystemen gleich kommen.80 Was
bleibt ist allerdings die Frage nach den technischen Möglichkeiten zur Realisierung solcher
Systeme in annähernd ausreichender Komplexität, doch daran dürfte in modifizierter Form
mittlerweile wieder gearbeitet werden. Ein Schönheitsfehler ist auch das notwendige ‚Ziel‘
des maschinellen Verhaltens, denn Ashby lehnte das Wienersche Teleologiekonzept ab. In
seiner Konzeption handelt es sich allerdings nicht wie bei Wiener um die Terminierung eines
Prozesses (beispielsweise in Form einer Detonation wie bei den automatischen Ziel-
suchwaffen) sondern ganz im Gegensatz dazu um das ‚Überleben‘ des ultrastabilen Systems:
nicht also um seine Endlichkeit, sondern – im Rückgriff auf Darwin – möglichst um seine
‚Unendlichkeit‘. In seinem Buch schreibt er: „The biologist must view the brain, not as being
the seat of the ‚mind‘, nor as something that ‚thinks‘, but, like every other organ in the body,
as a specialised means to survival.“81 Zur Gewährleistung dieses Überlebens haben komple-
xere ultrastabile Systeme nach Ashby ein Lernverhalten entwickelt, das unter dem Begriff der
Habituierung bekannt ist, um auf diese Weise die gegenläufigen Anforderungen von Komple-
xität und Reaktionsgeschwindigkeit möglichst effektiv miteinander zu verbinden.82
Als größtes Manko von Ashbys Konzeption könnte man jedoch einen reduktionistischen
Zug seines Lernverständnisses bezeichnen. Lernen meint zwar aktives aber adaptives Ver-
halten, also Anpassung an äußere Umwelteinflüsse im Sinne der Nivellierung von
Abweichungen in Bezug auf einen optimalen Eigenzustand des Gehirns. Insofern reduziert es
sich aus der Individualperspektive auf das Setzen des richtigen Vorzeichens vor die internen
Rückkopp-lungsschleifen, wobei immer klar zu sein hat, was als erstrebenswert gilt und was
80 Ashby 1952, S. 91. Der feldtheoretische Ansatz taucht bei Ashby in mehrfacher Hinsicht auf: zum einen in
der elektromagnetischen Realisierung seines Apparates und zum anderen in seinem hier angesprochenen
Rückgriff auf mathematische Attraktoren. Zu den multistabilen Systemen schreibt Ashby: „a multistable
system consists of many ultrastable systems joined main variable to,main variable, all the main variables
being part-functions.“ Vgl. Ashby 1952, S. 171.
81 Ebd. S. 41. Und bereits im Vorwort heißt es: „ Just as in the species, the truism that the dead cannot breed
implies that there is a fundamental tendency for the successful to replace the unsuccessful, so in the nervous
system does the truism that the unstable tends to destroy itself impy that there is a fundamental tendency for
the stable to replace the unstable.“ Ebd. S. VI. Wieners und Rosenblueths These ‚teleologischer Maschinen‘,
die von zielsuchenden Waffen wie Torpedos usw. abgeleitet war, hatte einen berühmten philosophischen
Streit mit Richard Taylor in Philosophy of Science (1943/1950) ausgelöst in den sich auch Adrian Moulyn
mit der Bemerkung einmischte, dass es sich hierbei im psychologischen Sinne auch um eine Identifikation
des Schöpfers mit seiner Maschine handle und diese gleichsam eine Verdinglichung seiner selbst sei. Zwar
nimmt auch Ashby 1948 noch ganz klar Bezug auf Wieners Teleologiebegriff, doch nach dem Streit in
seinem Buch von 1952 distanziert er sich davon und schreibt: „No teleological explanation for behavior will
be used.“ Vgl. ebd. S. 9. Auch hier scheint Wiener in Anbetracht seines übermäßigen Lobs für Ashbys
nichtteleologische Lernmaschine schließlich auf diese Linie einzuschwenken. Vgl. Wiener 1967, S. 54.
Stafford Beer weist später darauf hin, dass jedwede Teleologie mit dem Konzept der Autopoiesis endgültig
obsolet geworden sei. Folgt man diesem Ansatz, dann gilt jedoch auch, dass die nicht nur in der frühen
Kybernetik häufig ontologisch aufgefassten informationstheoretischen Begriffe der Kodierung, der Botschaft
und der Information lediglich kognitive Konstrukte darstellen. Vgl. Beer 1982, S. 174, 176.
82 Ebd. S. 144. Ganz im Sinne von MacLennan geht es hier also nicht um die beste aller möglichen Lösungen
sondern situationsbedingt um eine möglichst praktikable und ausreichend erfolgreiche.
– 23 –
zu vermeiden ist.83 Zwar ist der Turingsche ‚Solipsismus‘ formallogischer Maschinen über-
wunden, doch verstellt diese Sicht ein wenig den Blick auf die Tatsache, dass es in vielen
Fällen auch durchaus von Vorteil sein kann, ‚gegen den Strom‘ zu schwimmen bzw. sich in
ähnlichen Situationen ganz unterschiedlich zu verhalten. Denn Abweichung ist schließlich
nicht nur ein überraschendes Alleinstellungsmerkmal, das auf unerwartete Weise mit der Um-
welt interagiert und demnach im Sinne der Informationstheorie einen wesentlich höheren
Informationsgehalt besitzt als normiertes Verhalten, sondern sie lässt auch erst Räume
entstehen, die vorher gar nicht existent waren.84 Nur mittels Abweichung lässt sich Evolution,
das Wuchern des Lebens, erklären und dies scheint sich mit dem materiellen Determinismus
Ashbys und seinem adaptiven Lernkonzept nicht wirklich in Einklang bringen zu lassen.
Schließlich verweist Ashby auf keinerlei Freiheitsgrade wenn er schreibt: „It will be further
assumed that the nervous system, living matter, and the matter of the environment are all
strictly determinate: that if on two occasions they are brought to the same state, the same
behaviour will follow.“85 Prinzipiell zielt das Konzept der Homöostase in Verbindung mit
ihrer maschinellen Realisation also letztlich auf absoluten Stillstand ab, denn anders als
lebende Organismen verspürt eine rein homöostatische Maschine vorerst keinerlei Antrieb
wie Hunger oder dergleichen, der sie im Sinne der Aufrechterhaltung von Lebensprozessen
beständig antreiben würde.86 Wenn erst ein systeminternes Ruhegleichgewicht erreicht ist,
bewegt sich beim Homöostat nichts mehr. Und so strebt auch er trotz aller gegenteiligen
Beteuerungen letztlich der ‚Terminierung‘ seiner Aktion entgegen, wenn er nicht beständig
externe Anstöße erhält, die sein systemisches Ruhegleichgewicht stören. Das behavio-
ristische Grundproblem – das Geheimnis der Selbsttätigkeit – scheint trotz der kybernetischen
Betonung eines aktiven Lerncharakters zumindest beim Homöostat nicht wirklich gelöst, ganz
davon abgesehen dass sich Intelligenz oder gar Leben kaum auf einen Mechanismus zur
Nivellierung von Abweichungen in Bezug auf einen Optimalzustand reduzieren lassen
dürften.87
5. Fazit und Ausblick
Im Rückblick lässt sich festhalten, dass die verschiedenen Ansätze zur Modellierung von
künstlicher Intelligenz in den 1950er Jahren viele interessante Fragen aufgeworfen haben, die
vielfach bis heute nachwirken. Die frühkybernetische, wissenschaftliche Auseinandersetzung
mit der Modellierung von Intelligenz gab vielerlei Anstöße, die zwar bisher alle nicht zur
Entwicklung einer starken KI geführt haben (diesbezüglich sind die Verlautbarungen etwas
bescheidener geworden), die aber Dank der gewollten und aktiv betriebenen Diffusion
83 Vgl. Ashby 1948, S. 380.
84 Eine ähnliche Argumentation findet sich auch bei Deleuze und Guattari in Tausend Plateaus.
85 Ashby 1952, S. 10. Den einzigen Einwand, den man gelten lassen könnte, wäre das zufällige Umschalten des
Homöostats auf eine beliebige andere Konfiguration. Dann aber wäre auch sein Modell in gleicher Weise wie
das Turingsche letztlich vom orakelhaften Zufall abhängig, ein Umstand den er an anderer Stelle bestreitet.
86 Das Konzept des ‚Appetits‘ als Antriebsmotor findet bereits im Monadenkonzept von Leibniz Erwähnung.
Auch McCulloch und Pfeiffer sprechen in Folge von „appetitive circuits“ in unserem Gehirn, die ungefähr
dem psychologischen Konzept des Begehrens entsprechen und bewirken „that we have and seek our ends in
the external world.“ Vgl. McCulloch/Pfeiffer 1949, S. 373.
87 In Maturanas Autopoiesiskonzept, einer Fortentwicklung dieses Ansatzes, scheint sich allerdings zumindest
in Bezug auf letzteres ein aussichtsreicher Kandidat gefunden zu haben. Dazu ist anzumerken, dass sich viele
von Ashbys Ansätzen und Begriffsbildungen in diesem Kontext bis heute gehalten haben, so z.B. die
Begriffe ‚ultrastabiler‘ und ‚multistabiler‘ Systeme oder auch sein ‚vorsemantischer‘ Physikalismus, der
nicht schon von vornherein von quasiontologisch aufgefassten informationstheoretischen Begrifflichkeiten
ausgeht.
– 24 –
kybernetischen Wissens in die verschiedensten Wissenschafts- und Gesellschaftsbereiche
gleichwohl einen kaum zu überschätzenden Impact hatten. Es sind also durchaus Erfolge zu
verzeichnen und die Entwicklungen sind natürlich weitergegangen. Unsere heutigen Informa-
tionstechnologien und alle Felder, in denen sie eingesetzt werden (also annähernd alle
Bereiche der Wissenschaft und der gesellschaftlichen Organisation) wären ohne die grund-
sätzlichen Fragestellungen im Rahmen der Grundlagenkrise der Mathematik und ihrer
weiteren direkten oder indirekten Bearbeitung in der KI-Forschung in ihrer heutigen Form so
nicht denkbar. Die Welt ist eine andere geworden und der Begriff der Maschine hat sich
tatsächlich derart gewandelt, wie Turing es vorausgesehen hatte. Und da sich wissenschaft-
liche (Selbst-)Beschreibungen mittelfristig in die allgemeinen Begriffsdefinitionen zurück
schreiben, unterliegt auch das Verständnis von Intelligenz einer andauernden Evolution.
Rückblickend ist auffällig, dass die vorgestellten frühen Ansätze zur Modellierung von
Intelligenz in methodologischer Hinsicht häufig zirkuläre Argumentationsstrukturen aufwei-
sen, was sich wohl auch nicht vermeiden lässt. Die Frage ob Maschinen denken können ist in
der Tat keine diskussionswürdige Frage, wenn zuvor bereits angenommen wird, dass das
Gehirn wie eine quasimechanische Maschine funktioniert. Doch wie hätte dies unter der
neomechanistischen Perspektive der frühen Kybernetik auch anders gedacht werden können?
Insofern finden sich derart zirkuläre Argumentationen nicht nur bei McCulloch und Pitts
sondern bei vielen Frühkybernetikern.88 Eine grundlegende methodologische Reflexion er-
folgte erst mit dem Entstehen der so genannten Kybernetik zweiter Ordnung, die zentral auf
Heinz von Foerster zurückgeht. Erst hier wird die Rolle des Beobachters systematisch
thematisiert und auch in den Modellbildungen in Rechnung gestellt. Dies schien den eher
pragmatisch denkenden Waffenkonstrukteuren und Nachrichtendechiffrierern nicht notwen-
dig. Sie gingen in unterschiedlicher Weise von einem recht reduktionistischen und quasi-
mechanistischen Bild des Nervensystems aus, das sich hauptsächlich an dessen vegetativen
und Reflexfunktionen orientierte und deren Arbeitsweise in Folge auf alle ‚höheren‘
kognitiven Funktionen verallgemeinerte.89 Dennoch hielt sich eine ‚Störung‘ in all den
beschriebenen Ansätzen und Sichtweisen hartnäckig, und sie zieht sich wie ein roter Faden
durch alle Modellbildungen, nämlich die eines systemisch vorausgesetzten und unabding-
baren (‚echten‘) Zufalls oder Rauschens, des Fehlers, des Irrtums oder der Kontingenz. Denn
die implizite Grundlage aller vorgestellten Modellbildungen bleibt ein zumindest mit den
Mitteln der heutigen Mathematik scheinbar unberechenbares Element, ein nur statistisch
einzugrenzendes Außen aller deduktiven Theoriebildung, dem gleichwohl die Rolle eines
alles in Bewegung haltenden und überhaupt erst in Bewegung setzenden Agens zuzukommen
scheint.
In diesem Zusammenhang gab und gibt es verschiedene Erklärungsversuche und ver-
schiedene Weisen mit dem Problem umzugehen. Ashby verschob es in seine noch unbe-
kannten, geheimnisvollen Naturprinzipien, derer sich eine Maschine als physikalisches
Konstrukt, das auf der Basis von Feldern operiert, jedoch zu bedienen wisse. Turing verschob
es in ein Orakel, das seiner formallogisch operierenden Maschine gegebenenfalls weiterhilft,
88 So schreibt auch Norbert Wiener beispielsweise in „Zeit, Kommunikation und das Nervensystem“: „Im
folgenden wird es um die Übertragung einiger Konzepte aus dem Bereich der Kommunikation auf die Erfor-
schung des Verhaltens lebender Organismen und ihrer Nervensysteme gehen. Hierfür ist es notwendig, das
Nervensystem wie einen Automaten zu behandeln.“ Vgl. Wiener 2002, S. 166.
89 Vor allem die physiologischen Untersuchungen zu Reflexen und dem Hormonsystem, die mit dem Behavio-
rismus, der physiologischen Psychologie und den Untersuchungen Pavlovs an eine breit gefächerte Vor-
kriegstradition anknüpfen konnten, bildeten die Basis der frühen Modelle. Mit welcher Zielstrebigkeit und
welchem Glauben derartig grob vereinfachende Ansätze nach dem Krieg weiter betrieben wurden zeigt sich
auch in geheimen Forschungsprogrammen wie „MKUltra“ von US-amerikanischen und englischen Geheim-
diensten, wo unter anderem unter Beteiligung von deutschen NS-Ärzten an Methoden zur Konditionierung
von Soldaten und der Bevölkerung gearbeitet wurde.
– 25 –
um sie aus logischen Zirkeln zu befreien. Und einige hier nicht besprochenen da für die
Intelligenzmodellierung noch nicht relevanten Ansätze verschieben es auf die Ebene der
Quantenphysik, nicht zuletzt um dem quasimetaphysischen Dualismus von Innen und Außen
(alias Mechanismus und Störung oder „Raffinesse“ und „Intuition“) zu entkommen und jene
fundamentale Unbestimmtheit des im Realen allgegenwärtigen Rauschens zu einem integra-
len Bestandteil aller (Neuro-)Physis zu machen.90 Bei der Suche nach der Quelle dieses
Rauschens hatte man sich nämlich in Bezug auf die Operationsweise des Gehirns und die
Beschaffenheit von Bewusstsein vereinzelt auch wieder an die Vermutungen einiger nam-
hafter Physiker aus Vorkriegstagen erinnert, die darüber spekuliert hatten, ob sich der freie
Wille und andere Bewusstseinsphänomene nicht möglicherweise mit der quantenphysika-
lischen Unbestimmtheit erklären lassen. Interessant ist in diesem Zusammenhang, dass der
erste dieser Ansätze auf John von Neumann zurückgeht, der in den 1930er Jahren eine
mathematische Grundlagenschrift zur Quantenphysik verfasst und unter anderem versucht
hatte, mit ihrer Hilfe Bewusstseinszustände zu erklären. Aus Turings letzten Tagen werden
Andeutungen ganz ähnlicher Art überliefert und selbst Norbert Wiener hatte (wenn auch nur
im Rahmen einer seiner wissenschaftshistorischen Anekdoten) 1945 darauf hingewiesen, dass
man sich bei der zunehmenden Verfeinerung der wissenschaftlichen Modelle letztlich nicht
um eine quantentheoretische Beschreibung aller physikalischen Phänomene drücken könne.91
Heute tummeln sich in diesem Feld diverse Theorieangebote, die allesamt Vorschläge zur
Lösung des ein oder anderen Problems der klassisch-neurophysiologischen Betrachtungs-
weise enthalten. Sie spielen jedoch im öffentlichen Diskurs, der offiziellen Lehrmeinung und
den aktuellen Versprechungen der Neurowissenschaften keine Rolle. Als Grund hierfür wird
oft ihr spekulativer Charakter genannt. Dieser scheint jedoch hinsichtlich der klassischen
Erklärungsversuche nicht minder gegeben, wenn man in Betracht zieht, dass auch mit ihrer
Hilfe nach über sechzigjähriger intensiver Forschung noch keine ansatzweise detaillierten
Erkenntnisse über die tatsächliche Funktionsweise des Gehirns vorliegen.
Das Problem scheint also ein ganz anderes zu sein. Zum einen ist es zwar weitgehend
unstrittig, dass es einen Phänomenbereich gibt, der in der Physik meist unter dem Begriff der
Quantenmechanik subsumiert wird und dem man sich mittels statistischer Verfahren annähern
kann. Doch ein grundlegendes Verständnis und eine einheitliche Deutung der auf dieser
Beobachtungsebene ablaufenden Prozesse existiert bis heute nicht. Es erscheint auch fraglich,
ob dies je erreichbar ist, da ein Beobachter in diesem Bereich schon durch seine Beobachtung
jede Versuchsanordnung messbar beeinflusst. Und es ist zudem bisher nicht bewiesen, dass
die zweifellos stattfindenden quantenphysikalischen Prozesse im Gehirn einen Einfluss auf
90 Prominent ist in dieser Hinsicht Roger Penrose, der ebenfalls einen quantentheoretischen Ansatz zur Erklä-
rung des Bewusstseins entwickelte, und Turings quasimetaphysischen Ansatz der Trennung von „ingenuity“
und „intuition“ explizit kritisierte. Er geht in seinem Theorieansatz mit Hameroff dagegen davon aus, dass
das Phänomen der Dekohärenz, also der Kollaps des quantenphysikalischen Superpositionszustandes, das
über ganze Neuronenverbände durch quantenphysikalische Effekte in den synaptischen Spalten bestehe, von
der Schwerkraft induziert wird, da dies die einzige bisher noch nicht in den quantenphysikalischen Theorien
berücksichtigte Größe ist. Insofern verschiebt er die Lösung des Bewusstseinsproblems in eine zukünftig zu
entwickelnde konsistente Quantentheorie, die jedoch in absehbarer Zeit nicht in Aussicht steht. Andere
quantentheoretische Ansätze gehen jedoch teilweise auch vom Status quo der Quantenphysik aus.
91 Vgl. Wiener 1945, S. 320. Dort schreibt er: „A still more mature theory will represent these forces in the
space of quantum mechanics and not in that of the Newtonian theory.“ Von Neumann spricht in seinem Buch
The Computer and the Brain unter anderem von „various superpositions of the phenomena of fatigue and
recovery“, die ein Neuron möglicherweise in abnormale Zustände versetzen können. Vgl. Neumann 1958, S.
56. Und einer der engsten Mitarbeiter Turings, der ihn bis in seine letzten Tage begleitete, spricht ebenfalls
von dunklen Äußerungen, die ihn vermuten ließen, Turing versuche die Quantenmechanik in seine Philoso-
phie und seine Modelle einzuarbeiten. Aus dieser Zeit ist auch ein hymnisches Gedicht mit Anlehnung an
seinen ehemaligen Lehrer Eddington überliefert, der in seinen berühmten Vorlesungen über Zusammenhänge
von Quantenphysik, freiem Willen und Mystizismus philosophiert hatte. S. auch Hodges 1999, S. 55.
– 26 –
dessen Arbeitsweise haben, wenngleich neuere Forschungen dies zumindest nicht ausschlie-
ßen. Des Weiteren ließe eine quantenphysikalische Deutung von Bewusstseinsprozessen auch
massive Zweifel an den Erklärungsansätzen der orthodoxen Neurophysiologie aufkommen,
nach welcher der ‚Geist‘ ein materiellen Prozessen nachgeordnetes (Emergenz-)Phänomen ist,
gleichsam ein ‚Unfall der Evolution‘, der den immer komplexer gewordenen aber dennoch
klassisch-physikalisch operierenden Neuronenverbünden entsprang und eines Tages plötzlich
sagte ‚ich bin‘. In den meisten quantenphysikalischen Ansätzen zur Erklärung von Bewusst-
seinsprozessen ergibt sich nämlich ein ganz anderes Bild: hier kann oder muss in
verschiedenen Abstufungen und bereits vor dem physikalisch Aktualen von einer Art
‚Bewusstsein‘ gesprochen werden.92 Leibniz’ petite perceptions und Ashbys Panpsychismus
mögen in eine ähnliche Richtung deuten. Dies aber hätte nicht nur zur Folge, dass die
Erkenntnisse der orthodoxen Neurophysiologie möglicherweise nur eine äußerst geringe
Relevanz bezüglich der Erklärung von Bewusstseinsphänomenen hätten (die derzeit promi-
nent diskutierten bildgebenden Verfahren würden in diesem Fall nur ein weiteres Mal die
Schatten in Platons Höhle abbilden), sondern dass wir es bei Bewusstsein ganz gleich welcher
Art auch mit einem möglicherweise mit der heutigen Mathematik nur statistisch annäherbaren
Problem zu tun haben. Und dies in Betracht zu ziehen widerstrebt in fundamentaler Weise der
„großen Liebesaffäre der westlichen Kultur mit trivialen Maschinen“, wie sich von Foerster
wohl ausdrücken würde.93
Es gibt eine nette kleine Geschichte über Ashby, mit dem von Foerster am Biological
Computer Laboratorium der Universität von Illinois zusammengearbeitet hat. Von Foerster
erzählt von einer kleinen Maschine mit vier Inputs, vier Outputs und vier inneren Zuständen,
die Ashby gebaut und den Doktoranten gegeben hat, die mit ihm zusammenarbeiten wollten.
Sie sollten über Nacht herausfinden wie diese Maschine funktioniert; – eine unmögliche
Aufgabe, wie Ashby den völlig übernächtigten und immer noch ratlosen Studenten am
nächsten Tag offenbarte. Denn schon die Kombinatorik dieser simplen Maschine beinhaltete
10126 Möglichkeiten, – also eine bei weitem größere Zahl als das Universum nach heutigem
Stand des Wissens an ‚Teilchen‘ enthält. Von Foerster fährt fort:
„Und da wagen die Vertreter der ‚Künstlichen Intelligenz‘, obwohl unser Gehirn über 1010 Neu-
ronen verfügt, zu sagen, sie würden schon herausfinden, wie das Gehirn funktioniert! Sie sagen:
‚Ich habe an einer Maschine gearbeitet, die arbeitet wie das Gehirn.‘ ‚Oh, gratuliere: Wie arbeitet
das Hirn?‘ Niemand weiß das. Dann kann man ja auch den Vergleich nicht ziehen. […] Aber
vielleicht braucht man gar nicht zu wissen, wie das Gehirn arbeitet. Vielleicht ist es so, wie das
amerikanische Sprichwort sagt: ‚We are barking up the wrong tree.‘“94
92 Die so genannten „dual-aspect“ Ansätze vermuten eine vorgängige psychophysikalisch neutrale Ebene, aus
deren Existenz sich die Ausdifferenzierung in eine mentale und eine materielle Welt erst ableitet und räumen
innerhalb dessen auch die Möglichkeit einer „downward causation“ ein, mittels derer mentale Ereignisse in
der Lage seien die neurophysiologisch beobachtbaren ‚materiellen‘ Patterns im Gehirn erst zu erzeugen bzw.
sie maßgeblich zu beeinflussen. Ein guter Überblick über die verschiedenen quantentheoretisch basierten
Bewusstseinsmodelle findet sich in Harald Atmanspacher: „Quantum Approaches to Consciousness“ (2004).
In: Stanford Encyclopedia of Philosophy.
93 Vgl. Heinz von Foerster: „Für Niklas Luhmann: Wie rekursiv ist Kommunikation?“ In: Philipp von Hilgers
und Ana Ofak (Hrsg.): Rekursionen. Von Faltungen des Wissens. München 2010, S. 32. Mit einem Augen-
zwinkern, das möglicherweise dem Behaviorismus und Turings Maschinenerziehung gilt, fährt er fort: „Das
geht so weit mit unserer Verliebtheit in triviale Maschinen, daß wir unsere Kinder, die gewöhnlich sehr
unvoraussagbare und völlig überraschende Mitmenschen sind, in Trivialisationsinstitute schicken, so daß das
Kind, wenn man es fragt ‚Wieviel ist 2 mal 3?‘ nicht ‚grün‘ oder ‚so alt bin ich‘, sondern brav ‚sechs‘ sagt.
Und so wird es ein verläßliches Mitglied unserer Gesellschaft.“ S. ebd.
94 Ebd. S. 34. Von Foerster entwickelt hier in Folge eine Theorie sozialer Kommunikation, die von einem
Eigenverhalten in rekursiven operierenden, zweifach geschlossenen Systemen ausgeht.
– 27 –
Auch von Neumann weist mit seinen Spekulationen zur Verfasstheit der heutigen Mathematik
auf einen „wrong tree“ hin. Und der Physiker Friedrich Beck, ein Vertreter der Theorie, dass
Bewusstseinsphänomene sich aus quantenphysikalischen Effekten im synaptischen Spalt her-
leiten, konstatiert hinsichtlich des unhintergehbaren Beobachterproblems gar „[that] science
cannot, by ist very nature, present any answer to […] questions related to the mind.“95 All
dies wird und soll die weiteren Forschungen auf den Gebieten der Bewusstseins- und KI-
Forschung nicht beenden. Schließlich verdanken wir ihnen viele Erkenntnisse, die zwar nicht
zur Modellierung einer starken KI geführt haben aber dennoch in vielen anderen Bereichen
von grundlegender Bedeutung sind. Gleichwohl bleibt auch weiterhin zu vermuten, dass die
‚Denkmaschine Gehirn‘ vorerst eine ‚abstrakte Maschine‘ im Sinne von Deleuze und Guattari
bleiben wird, die sich nicht als klassische Maschine denken oder gar modellieren lässt. Trotz
völlig verschiedener Betrachtungsweisen ist das Problem nach von Foerster, Penrose und
anderen grundsätzlich „transcomputational“, mit anderen Worten: „Unser Unwissen ist funda-
mental.“96 Dies bedeutet jedoch nicht, dass es auch im Sinne von Turings Bedeutungsver-
schiebung im Alltagsgebrauch des Maschinenbegriffs keine Denkmaschinen geben kann.
Denn die gibt es ja bereits.
95 Zitiert nach Atmanspacher 2004, Kap. „Beck and Eccles: Quantum Mechanics at the Synaptic Cleft.“
96 Ebd. S. 30. Zu ‚abstrakten Maschinen‘ s. Deleuze und Guattari 2005, Kap. „Konkrete Regeln und abstrakte
Maschinen.“ Der Begriff der transklassischen Maschine geht auf Gotthard Günther zurück und bezeichnet
vorerst den Computer als eine erste Annäherung. Dabei ist auch Günther der Auffassung, dass die noch zu
entwickelnden und noch komplexeren transklassischen Maschinen lediglich in der Lage sein werden,
Bewusstseinsfunktionen zu leisten, diese jedoch nicht haben werden.
– 28 –
Literatur:
Ashby, William Ross: „Design for a Brain.“ In: Electronic Engineering. Dez. 1948, S. 379-383.
Ders.: Design for a Brain. London 1952.
Atmanspacher, Harald: „Quantum Approaches to Consciousness“ (2004). In Stanford Encyclopedia of
Philosophy. Internet: http://plato.stanford.edu/entries/qt-consciousness/ [4.11.2010].
Beer, Stafford: „Autopoietische Systeme: eine Bestimmung der lebendigen Organisation. Vorwort.“ In
Humberto Maturana: Erkennen: die Organisation und Verkörperung von Wirklichkeit. Ausgewählte
Arbeiten zur biologischen Epistemologie. Braunschweig/Wiesbaden 1982, S. 170-179.
Blech, Jörg: „Die Sprache des Gehirns.“ In: Spiegel 14/2008, S. 132-146.
Dambeck, Holger: „Pentagon plant rücksichtsvolle Kampfroboter“. Spiegel Online, 2.12.2008.
Internet: http://www.spiegel.de/wissenschaft/mensch/0,1518,593967,00.html [4.11.2010].
Deleuze/Guattari: „Konkrete Regeln und abstrakte Maschinen.“ In (dies.): Tausend Plateaus (1992).
Sechste Auflage 2005, S. 696-712.
Foerster, Heinz von: „Für Niklas Luhmann: Wie rekursiv ist Kommunikation?“ Vortrag gehalten am
5.2.1993 auf dem Autorenkolloquium zu Ehren von Niklas Luhmann im Zentrum für interdisziplinäre
Forschung in Bielefeld. In Philipp von Hilgers und Ana Ofak (Hrsg.): Rekursionen. Von Faltungen des
Wissens. München 2010, S. 25-45.
Galison, Peter: „The Ontology of the Enemy: Norbert Wiener and the Cybernetic Vision.“ In: Critical
Inquiry. Vol. 21, No. 1. University of Chicago Press 1994, S. 228-266.
Hagen, Wolfgang: „Die Camouflage der Kybernetik.“ In Claus Pias (Hrsg.): The Macy-Conferences
1946-1953. Vol II. Zürich/Berlin 2004, S. 191-208.
Hayles, Katherine N.: How we became posthuman: virtual bodies in cybernetics, literature, and
informatics. University of Chicago Press 1999.
Heintz, Bettina: Die Herrschaft der Regel. F/M 1993.
Hodges, Andrew: Turing. New York 1999.
Kleene, Stephen C.: Representation of Events in Nerve Nets and Finite Automata. U.S. Air Force
Project Rand Research Memorandum RM-704. Kalifornien, 15. Dezember 1951. Internet:
http://www.rand.org/pubs/research_memoranda/2008/RM704.pdf [2.11.2010].
Kupferschmidt, Kai: „Roboter ‚Myon‘. Eine Maschine, die lernt wie ein Kleinkind.“ Internet:
http://www.tagesspiegel.de/wissen/eine-maschine-die-lernt-wie-ein-kleinkind/1884324.html
[1.11.2010].
MacLennan, Bruce: „Transcending Turing Computability“ (2001). In: Minds and Machines. Vol. 13,
No.1, S. 3-22. Internet: http://www.springerlink.com/content/v184616461805820/ [8.11.2010].
McCulloch, Warren S. und Pitts, Walter: „A Logical Calculus of the Ideas Immanent in Nervous
Activity.“ In: Bulletin of Mathematical Biophysics, Vol 5/1, März 1943, University of Chicago Press,
S. 115-133.
Ders. und Pfeiffer, John: „Of Digital Computers called Brains.“ In: The Scientific Monthly, Vol. 69,
No. 6, Dez 1949, S. 368-376.
Moulyn, Adrian C.: „Purposeful and Non-Purposeful Behavior.“ In: Philosophy of Science, Vol 18,
No. 2, Apr 1951, S. 154.
Neumann, John von: The Computer and the Brain. Yale University Press 1958.
Ders.: „First Draft of a Report on the EDVAC“ (University of Pennsylvania 1945). In: IEEE Annals of
the History of Computing, Vol. 15, No.4, 1993. Internet: http://cva.stanford.edu/classes/cs99s/papers/
vonneumann-firstdraftedvac.pdf [8.11.2010].
– 29 –
Pickering, Andrew: „Cybernetics and the Mangle: Ashby, Beer and Pask.“ In: Social Studies of
Science, Vol. 32, No. 3, Jun 2002, S. 413-437.
Rav, Yehuda: „Perspectives on the History of the Cybernetics Movement: The Path to Current
Research Through the Contributions of Norbert Wiener, Warren McCulloch and John von Neumann.“
In: Cybernetics and Systems: An International Journal. Vol. 33. London 2002, S. 779-804.
Roch, Axel und Siegert, Bernhard: „Maschinen, die Maschinen verfolgen. Über Claude E. Shannons
und Norbert Wieners Flugabwehrsysteme.“ In Sigrid Schade (Hrsg.): Konfigurationen zwischen Kunst
und Medien. München 1999, S. 219-230.
Rosenblueth, Arturo / Wiener, Norbert / Bigelow, Julian: „Behavior, Purpose and Teleology.“ In:
Philosophy of Science, Vol. 10, No. 1, Jan 1943, S. 18-24.
Rosenblueth, Arturo und Wiener, Norbert: „Purposeful and Non-Purposeful Behavior.“ In: Philosophy
of Science, Vol. 17, No. 4, Okt 1950, S. 318-326.
Dies.: „The Role of Models in Science.“ In: Philosophy of Science, Vol. 12, No. 4, Oct. 1945, S. 316-
321.
Roush, Wade: „Die Maschine muss fühlen lernen.“ (Interview mit Marvin Minsky). In: Heise.de,
21.7.2006. Internet: http://www.heise.de/tr/artikel/Die-Maschine-muss-fuehlen-lernen-278717.html
[11.11.2010].
Taylor, Richard: „Comments on a Mechanistic Conception of Purposefulness.“ In: Philosophy of
Science, Vol. 17, No. 4, Okt. 1950, S. 310-317.
Ders.: „Purposeful and Non-Purposeful Behavior: A Rejoinder.“ Ebd. S. 327-332.
Turing, Alan Mathison: „On Computable Numbers, with an Application to the Entscheidungs-
problem.“ In: Proceedings of the London Mathematical Society. Ser. 2, Vol. 42. London 1937,
S. 230-265. Internet: http://140.177.205.52/prizes/tm23/images/Turing.pdf [1.11.2010].
Ders.: „Systems of Logic Based on Ordinals.“ In: Proceedings of the London Mathematical Society.
Ser. 2, Vol. 45. London 1939, S. 161-228. Internet:
http://www.turingarchive.org/viewer/?id=469&title=1 [2.11.2010].
Ders.: Intelligence Service. Schriften. (Herausgegeben von Bernhard Dotzler und Friedrich Kittler.)
Berlin 1987.
Weber, Andreas: Biokapital: Die Versöhnung von Ökonomie, Natur und Menschlichkeit. Berlin 2008.
Wiener, Norbert: The Human Use of Human Beings (1950). Zweite Ausgabe, New York 1967.
Ders.: Interpolation, Extrapolation, and Smoothing of Stationary Time Series (1949). M.I.T. Press,
Cambridge 1966.
Ders.: Kybernetik. Hamburg 1968.
Ders.: „Zeit, Kommunikation und das Nervensystem.“ In: Bernhard Dotzler (Hrsg): Norbert Wiener.
Futurum Exactum. Ausgewählte Schriften zur Kybernetik und Kommunikationstheorie. Wien 2002.