ArticlePDF Available

Umgang mit komplexen Systemen. Fehler werden immer größer, wenn wir nicht aus ihnen lernen

Authors:
  • Independent Researcher

Abstract

Es gibt bestimmte Fehler, die uns Menschen im Umgang mit komplexen Systemen immer wieder fast zwangsläufig unterlaufen. In diesem Beitrag wird in Anlehnung an Frey und Frey sowie Dietrich Dörner versucht, einige dieser Fehler in ihrem Zusammenhang darzustellen.
Als im Jahr 1905 eine Anzahl ausgewie-
sener Fachleute beschloss, die Blue-
Mountains-Wälder im Nordosten der USA
mit wissenschaftlichen Methoden nach-
haltig zu bewirtschaften, geschah das un-
ter den besten Voraussetzungen, die man
sich vorstellen konnte. Die Experten hät-
ten sich allerdings niemals träumen las-
sen, dass man nach hundert Jahren best-
williger Eingriffe in dieses Ökosystem bei-
nahe immer das Gegenteil von dem
erreichen würde, was man beabsichtigt
hatte: Die erwünschten Kiefern wurden
nahezu überall von den nicht gewollten
Tannen verdrängt; statt der im Naturkreis-
lauf sinnvollen Kleinbrände gab es auf-
grund der menschlichen Eingriffe unbe-
herrschbare Grossfeuer; der Schädlings-
befall potenzierte sich – und das alles bei
einem stattlichen Budget von zwei Milli-
arden Dollar allein im Jahr 2000.
System zu komplex
«Jeder, der versucht hat, die Wälder zu re-
parieren, hat alles nur schlimmer ge-
macht», lautete das Resümee einer Un-
tersuchung, nachzulesen im Buch «Fall-
stricke» von Ulrich und Johannes Frey, aus
welchem dieses Beispiel entnommen ist.
Wohlgemerkt, hier waren nicht zufällige
Helfer oder einfach gestrickte Menschen
am Werk, sondern zum Teil Ökosystem-
theoretiker. Wie kann das sein, wenn
doch die besten Fachleute mit ausreichen-
den Mitteln sorgfältig überlegte Entschei-
dungen getroffen haben? Die Gebrüder
Frey sehen da eine Summe von Fehlern,
die alle auf einen Grund zurückzuführen
sind, nämlich auf die Komplexität des
Ökosystems Wald. Es war den Experten
nicht gelungen, so in das lebendige und
hochgradig vernetzte System einzugrei-
fen, dass es sich verbesserte. Sie haben
in der Tat alles schlimmer gemacht und
hätten besser die Finger davon gelassen.
Es gibt bestimmte Fehler, die uns Men-
schen im Umgang mit komplexen Syste-
men immer wieder fast zwangsläufig un-
terlaufen. Im Folgenden wird versucht, ei-
nige dieser Fehler in ihrem Zusammenhang
darzustellen; den Ausführungen liegen
das bereits erwähnte Werk von Frey und
Frey zugrunde, daneben auch das sehr le-
senswerte Buch «Die Logik des Misslin-
gens» von Dietrich Dörner, einem deut-
schen Professor Emeritus für theoretische
Psychologie.
Eigenschaften der Komplexität
Damit wir nicht aneinander vorbeireden,
ist es wichtig zu klären, was unter einem
«komplexen System» verstanden werden
soll. Die folgenden neun Aspekte tauchen
in der Literatur immer wieder auf und sind
für die Beschreibung wichtig.
1. Elemente
Im Ökosystem Wald sind das also die ein-
zelnen Baumarten, Sträucher, Untergehöl-
ze, Pilze, Farne, Moose, Insekten, Klein-
tiere, Grosstiere, Wettererscheinungen
und noch einiges mehr. Man erkennt be-
reits an dieser Aufzählung, dass schon al-
lein die Vielzahl und die Verschiedenheit
der Elemente dafür sorgen, dass man als
eingreifender Mensch etwas aus dem
Blick verlieren kann. Nun ist das lebendi-
ge Ökosystem Wald ein sehr komplexes
Miteinander. Es gibt daneben auch einfa-
chere Systeme, zum Beispiel in der Tech-
nik: Eine Radarfalle besteht aus einem be-
wegten Fahrzeug, einem Radarmessap-
parat und einer Kamera.
2. Vernetzungsgrad
Die Elemente können eher linear vernetzt
sein, so wie die Waggons an einem Zug
oder auch quer vernetzt wie die Spieler in
einem Fussballmatch. Der Vernetzungs-
grad bestimmt über die Anzahl und Rich-
tung der Wirkungen, die ein Ereignis in
diesem Netzwerk haben kann. Wenn die
Spieler immer nur einen Anspielpartner
bevorzugen und sich wenig bewegen, ist
die Mannschaft geringer vernetzt, als
wenn sie ständig mehrere Optionen nut-
zen können.
3. Verbindungsqualität
Verbindungen zwischen Elementen kön-
nen fest und locker sein, also haltbar oder
weniger haltbar. So sind die Verbindun-
gen zwischen einem Schwamm und ei-
nem Baum manchmal symbiotisch und
damit sehr haltbar, jene zwischen einem
Specht und einem Baum oft nur tempo-
Es gibt bestimmte Fehler, die
uns Menschen im Umgang mit
komplexen Systemen immer
wieder fast zwangsläufig unter-
laufen. Im Folgenden wird in
Anlehnung an Frey und Frey so-
wie Dietrich Dörner versucht,
einige dieser Fehler in ihrem
Zusammenhang darzustellen.
Roland Grüttner
Umgang mit komplexen Systemen
Fehler werden immer
grösser, wenn wir nicht aus
ihnen lernen
72 | Innovation
Innovation Management | Nr. 4 | Mai 2011
rär, nämlich zur kurzfristigen Suche nach
Insekten, oder auch dauerhafter beim
Bau einer Nisthöhle. Mit Qualität ist aber
auch die Weitergabe von Signalen ge-
meint. Diese Weiterleitung kann logisch
starr erfolgen, nach dem Wenn-Dann-
Prinzip: Wenn irgendwo im Spinnennetz
eine Fliege zappelt, dann wird das Signal
in analoger Stärke weitergeleitet. Die
Übermittlung kann aber auch dämpfend
geschehen, wie zum Beispiel im mensch-
lichen Gehirn: Wenn ein Signal am synap-
tischen Spalt ankommt, muss es einen
gewissen Schwellenwert erreichen, um
die Nervenzelle zu erregen. Ansonsten
findet das Signal hier ein Ende. Das ist
sehr sinnvoll, denn wenn das nicht ge-
schähe, wären unsere Neuronen in ei-
nem ständigen Zustand der chaotischen
Hyper-Erregung, ähnlich wie bei einem
epileptischen Anfall.
4. Intransparenz
Hoch vernetzte Systeme mit zahlreichen
Elementen und vielen Querverbindungen
sind äusserst undurchschaubar. Wenn die
Lokführer streiken, kann das auf ganz ent-
fernte Gebiete Auswirkungen haben, bei-
spielsweise auf den Stundenplan von
Schulen mit Kindern, die den öffentlichen
Nahverkehr nutzen, oder auf das Klima
von Arbeitsplätzen, weil manche KollegIn-
nen lange aufgehalten wurden und ge-
reizt den Arbeitstag beginnen. Wenn bei
lebendigen Ökosystemen wie den Wäl-
dern der Blue Mountains an irgend einer
Stelle Eingriffe vorgenommen werden,
zum Beispiel bei der Auslichtung des Un-
terholzes, weil Kiefern mehr Licht brau-
chen, dann kann das überraschende Fol-
gen haben: Entgegen der Absicht haben
sich nämlich in diese Lichtungen hinein
die schnellwüchsigen Tannen viel rascher
verbreitet als die Kiefern.
5. Dynamik
Viele komplexe Systeme sind nicht sta-
tisch, sondern haben eine ihnen eigene
Dynamik, das heisst eine Geschwindig-
keit und Stärke der Weitergabe von Be-
wegungen oder Informationen. Ausser-
dem kann es nicht nur innerhalb der Struk-
tur eine Dynamik geben, sondern die
Struktur an sich kann beweglich sein. Der
Ökokomplex Wald ist in einem steten
Wandel von Werden und Vergehen, Fres-
sen und Gefressenwerden begriffen. Das
komplexe System Autobahnverkehr unter-
liegt einer Vielzahl von Einflussgrössen,
die es andauernd in Bewegung halten:
Vorhaben und Launen einzelner Autofah-
rer, wirtschaftliches Denken von Spediti-
onen, Ferien- und Urlaubszeiten, Wetter-
erscheinungen usw. Solch eine grundle-
gende Dynamik bewirkt, dass die an
diesen Systemen handelnden Menschen
nicht ewig nachdenken können, sondern
oft zu schnellen Entscheidungen gezwun-
gen sind. Wir kommen darauf noch zu
sprechen.
6. Öffnungsgrad
Systeme können gegenüber ihrer Umwelt
oder ihrem Kontext offen oder geschlos-
sen sein. Geschlossene Systeme sind ins-
gesamt natürlich leichter zu verstehen als
offene, die durch nicht immer vorherseh-
bare äussere Einflüsse einer zusätzlichen
Dynamik unterliegen. So kann unter Um-
ständen ein Sonnen- und Planetensystem
durch einen Kometen erheblich aus dem
feinjustierten Gleichgewicht gebracht
werden.
7. Fern- und Nebenwirkungen
Tau im Netz der Kreuzspinne kann unvor-
hergesehene Wirkungen haben – zum
Beispiel, dass die Fliege es rechtzeitig
wahrnimmt und ihm ausweicht. Oder
dass ein Waldspaziergänger und Hobby-
fotograf es entdeckt und entzückt ein Bild
davon schiesst. Die Nebenwirkung von
landwirtschaftlicher Optimierung durch
Düngereintrag kann ein überhöhter Nitrat-
wert in angrenzenden Bächen oder im
Grundwasser sein, was wiederum die da-
rin lebenden oder daraus trinkenden Le-
bewesen gesundheitlich beeinträchtigt,
einschliesslich der Menschen.
8. Rückkopplung
Elemente können so miteinander ver-
netzt sein, dass es zu Rückkoppelungen
kommt. Dabei werden positive und nega-
tive Feedbacks unterschieden. Diese Be-
zeichnungen sind nicht als Wertung zu
verstehen, sondern als Wirkungsrichtung,
nämlich gleichgerichtet oder gegenge-
richtet. Negative Rückkopplung bewirkt,
dass ein System um einen Gleichge-
wichtszustand herumpendelt und somit
relativ stabil ist.
In einem vereinfachten Beispiel kann das
so aussehen: Wenn Rotfüchse eine Men-
ge von Feldmäusen vorfinden, dann ha-
ben sie reichlich Nahrung und vermehren
sich entsprechend. Viele Füchse fressen
aber viele Mäuse, so dass das Nahrungs-
angebot stark sinkt. Die vielen Füchse
können aber mit der wenigen Nahrung
nicht überleben. Durch die Abnahme des
Fressfeindes können sich die Mäuse wie-
der vermehren, und wenn Rotfüchse eine
Menge von Feldmäusen vorfinden, dann
beginnt der Kreislauf von vorne (siehe
Grafik 1). Es dürfte daneben auch klar
sein, dass die Frage nach Ursache und
Wirkung für solche Systeme sinnlos ist.
Innovation | 73
Innovation Management | Nr. 4 | Mai 2011
Der Kreislauf «Fuchs und Maus»
Grafik 1
weniger Fressfeinde
viele Feldmäuse
Nahrungsangebot
viele Rotfüchse
weniger Füchse
weniger Nahrung
weniger Mäuse
viele Feinde
+
+
+
+
Positive Rückkopplung bewirkt eine Ver-
stärkung oder ein exponentielles Wachs-
tum bis dahin, dass das System zusam-
menbricht.
Die meisten kennen das unangenehme
Pfeifen dieses Feedbacks (siehe Grafik 2):
Ein Sprecher steht mit seinem Mikrofon
zu nahe an dem Lautsprecher, der sein Si-
gnal überträgt. Dann gelangt nicht nur die
ursprüngliche Stimme des Sprechers,
sondern auch noch die via Lautsprecher
verstärkte Stimme in das Mikrofon. Das
bewirkt ein viel stärkeres Signal, das vom
Mikrofon an die Lautsprecher übertragen
wird und so weiter. Das schrille Pfeifen
tritt dann ein, wenn das System der ge-
ordneten Lautübertragung zusammen-
bricht.
Positive Rückkopplung gibt es auch in die
andere Richtung, also gewissermassen
«nach unten»: Wenn wir uns wenig be-
wegen, werden unsere Muskeln schwä-
cher. Je schwächer die Muskeln, desto
schwerer fällt uns körperliche Leistung.
Wir bewegen uns dementsprechend we-
niger, was zur Folge hat, dass unsere
Muskeln noch schwächer werden. Auch
diese positive Rückkopplung führt – wenn
sie nicht aufgehalten wird – zum Tod des
Systems. Dieses und weitere Beispiele
finden sich in dem Klassiker von Frederik
Vester, «Unsere Welt – ein vernetztes
System».
9. Wachstum
Das Wachstum des menschlichen Gehirns
mit seinen 15 Milliarden Zellen und Ver-
bindungsfasern mit einer Gesamtlänge
von etwa 500 000 Kilometern ist nach der
Säuglingszeit praktisch abgeschlossen.
Was dann auf der biologischen Ebene
noch folgt, sind Organisation und Differen-
zierung. Diese Art von Wachstum ist of-
fensichtlich gesund. Was ist dann von der
undifferenzierten Erwartung fortwähren-
den Wirtschaftswachstums zu halten?
Doch wohl dies: Dass es gefährlich wer-
den kann. Es gibt allerorten Symptome
von positiven Rückkopplungsschleifen –
ungebremster Verbrauch von natürlichen
Ressourcen, zunehmende Vermüllung der
Natur und die Beeinträchtigung der Le-
bensgrundlagen Luft und Wasser. Frede-
rik Vester spricht sich für «qualitatives
Wachstum» von Systemen aus: «Kleinräu-
migkeit statt Gigantomanie, eine Vielfalt
von Untersystemen statt Monotonie und
die Schaffung von Teilsystemen, die ihre
Probleme durch Selbststeuerung meis-
tern können.»
Häufig gemachte Fehler
Nachdem wir jetzt die einzelnen System-
elemente und -eigenschaften kennenge-
lernt haben, können wir auf dieser Grund-
lage die Fehler ins Auge fassen, die uns
Menschen im Umgang mit komplexen
dynamischen Systemen besonders häu-
fig unterlaufen, weil wir die Reaktion des
Systems nicht richtig einschätzen. Wir le-
gen dafür das Modell einer vollständigen
Handlung zugrunde, das so aussieht (sie-
he Grafik 3): Ausgehend von einer Annah-
me über die Folgen unseres Handelns an
dem System planen wir unsere Eingriffe.
Das komplexe System reagiert aufgrund
seiner ihm innewohnenden Gesetzmäs-
sigkeit. Diese Reaktion (Ist) vergleichen
wir mit unserer Hypothese (Soll), bewer-
ten das Ergebnis und korrigieren schliess-
lich unsere Hypothese entsprechend, ehe
wir weitere Handlungen planen. Fehler
können sich nun auf jeder Stufe dieser
Abfolge einschleichen; einen Überblick
dazu gibt Grafik 4.
1. Hypothesenfehler
Lineares Denken
Der erste Fehler ist schon gleich der am
leichtesten nachvollziehbare: Weil kom-
plexe Systeme aufgrund der Menge und
Vernetzung ihrer Elemente oft so intrans-
parent sind, versuchen wir dadurch eine
sichere Grundlage für unser Handeln zu
finden, dass wir die Komplexität reduzie-
74 | Innovation
Innovation Management | Nr. 4 | Mai 2011
Beispiel einer Feedbackschleife
Grafik 2
Modell einer vollständigen Handlung
Grafik 3
Stimme
Komplexes System
Korrektur
Bewertung
Planung
Handlung
Mikrofon
Übertragung
Lautsprecher
+ +
++
Feedback
Zielzustand
Vergleich / Analyse
Handlungshypothese
Reaktion
ren. Wir entwickeln also eine unvollstän-
dige und mangelhafte Vorstellung von
dem System, indem wir beispielsweise
nur lineare Zusammenhänge bedenken
anstatt quer vernetzte. Dies kommt unse-
rem mehr oder weniger angeborenen Ur-
sache-Wirkungs-Denken entgegen.
Fallbeispiel
Ein eindrucksvolles Beispiel für lineares
Denken wird von Frey und Frey präsen-
tiert: Ab 1954 wurde begonnen, einzelne
Exemplare des Nilbarsches – eines
fleischreichen Raubfisches von etwa zwei
Metern Länge und bis zu 200 Kilo Ge-
wicht – in den Viktoriasee einzuführen.
Man versprach sich davon (= Hypothese:
Ursache – Wirkung) eine Steigerung der
Fischernte. Ab etwa 1977 explodierte die
Population (= positive Rückkopplung) und
machte bald 90 Prozent der gefangenen
Biomasse aus. Der zunächst erwünschte
Innovation | 75
Innovation Management | Nr. 4 | Mai 2011
Fehler im Modell der vollständigen Handlung
Grafik 4
Probleme der Zukunft
ausblenden, um
gegenwärtige zu lösen
Hartnäckigkeit der
1. Hypothese & Behar-
ren auf Überzeugungen
Suche nach
zentralen Ursachen
mangelnde
Dekomposition
lineares Denken
Wunschdenken
mangelhaftes
Realitätsmodell
Vereinfachung
Suche nach
Bestätigung
«Jetzt haben
wir schon so
viel in diese
Lösung
investiert.»
Gruppendruck
Selbstkritik Korrektur
Loyalität
Blindheit
gegenüber
eigenen
Fehlern
Selbstüber-
schätzung
Handlungshypothese
Zeitdruck
Fehler im Um-
gang mit komple-
xen dynamischen
Systemen
Vergleich / Analyse ReaktionBewertung
Fehlendes Bemü-
hen um Falsifikation
Ignorieren
widersprechender
Belege
Schönrechnen Zielzustand
implizite oder
explizite Ziele
allgemeine oder
spezifische Ziele
Anstrebungs- oder
Vermeidungsziele
klare und unklare
Ziele
einfache oder
komplexe Ziele
mangelnde Suche
nach Alternativen
mehr desselben
nach Sinnen-
fälligkeit
falsche
Priorisierung
Fehldosierung
Komplexes System = Anzahl der
Elemente + Vernetzungsgrad + Ver-
bindungsqualität + unvollständige
Information + positive und negative
Rückkopplung + Fern- & Neben-
wirkungen
Planung
nicht das tun,
was man soll,
sondern das, was
man kann
Feedback
+
+
+
+
+
+
– –
– +
+
+
untaugliche
Methoden
immer wieder
anwenden nach eigenen
Fähigkeiten
Handlung
Effekt trat tatsächlich ein, und die Fischer
konnten ihren Fang tonnenweise nach Eu-
ropa und Amerika absetzen. Als erste Ne-
benwirkung war es nötig, die traditionel-
le Sonnentrocknung der Fische durch
Holzräucherung zu ersetzen. Dies hatte
nun eindeutig negative Effekte, nämlich
Abholzung von Wäldern und als Folge da-
von wiederum Bodenerosion. Dies hätte
man nur schwer voraussehen können, an-
dere Konsequenzen aber schon: Die Nil-
barsche rotteten alle ihre Beutefische fast
oder ganz aus, darunter auch Arten, die
ausschliesslich im Viktoriasee vorkamen.
Die Population des Nilbarsches brach
dann aber entgegen der Erwartungen
nicht ein, weil er auf seine eigene Jungen
und auf Garnelen auswich. Inzwischen
scheint sich die Situation auf einem öko-
logisch niedrigen Niveau – nach dem end-
gültigen Verlust von etwa 200 Buntbar-
scharten – eingependelt zu haben.
Fixierung auf die Gegenwart
In die Kategorie der Hypothesenfehler ge-
hört auch die menschliche Neigung, nur
die Gegenwart zu beachten und mögliche
zukünftige Entwicklungen aus den Augen
zu verlieren. So reagieren wir Mitteleuro-
päer auf unseren gegenwärtigen Energie-
bedarf dadurch, dass wir endliche Res-
sourcen aufbrauchen (Öl und Gas) und
Atomenergie ausbauen. Zukünftige Ge-
nerationen werden in vielleicht schon 50,
vielleicht «erst» in 200 Jahren konse-
quenterweise ohne fossile Energieträger
auskommen müssen und haben die
nächsten 50 000 Jahre oder länger mit
unserem radioaktiven Nachlass zu leben,
den manche unserer gegenwärtigen Ex-
perten für handhabbar halten. Möglicher-
weise ist hier insgesamt doch allzu
menschliches Wunschdenken am Werk;
die Studien des Club of Rome («Die Gren-
zen des Wachstums») haben uns 1972
vielleicht nicht nachhaltig genug wachge-
rüttelt.
Komplexitätsreduktion und Beharren
auf Überzeugungen
Dietrich Dörner gibt noch einen Hinweis
darauf, warum vereinfachte Hypothesen
so standfest und zuweilen faszinierend
sein können: «Die Tatsache, dass solche
reduktiven Hypothesen Welterklärungen
aus einem Guss bieten, erklärt vielleicht
nicht nur ihre Beliebtheit, sondern auch
ihre Stabilität. Wenn man einmal weiss,
was die Welt im Innersten zusammenhält,
so gibt man ein solches Wissen ungern
auf, um wieder in die unübersichtlichen
Gefilde eines nichthierarchisch geglieder-
ten Netzes wechselweiser Abhängigkei-
ten zu geraten.»
2. Planungsfehler
Augenfälligkeit
Wenn wir nicht in der Lage sind, ein kom-
plexes dynamisches System zu «dekom-
ponieren» (so Dörner), dann entwickeln
wir auf der Planungsebene bestimmte
Ausweichstrategien. Wir orientieren uns
dann nicht an dem, was für einen kompe-
tenten Eingriff in das System notwendig
wäre, sondern zunächst einmal an dem,
was uns gerade ins Auge fällt. Dörners
Versuchspersonen in der Simulation «Loh-
hausen» reagierten als Bürgermeister
dann auf zufällige Begegnungen und Be-
schwerden und dokterten im Grunde
nichtwissend am System herum, sie ver-
fielen dem «Aktionismus».
Methodenfixierung
Zum andern greifen wir im Falle des man-
gelnden Durchblicks gern auf das uns be-
kannte Methodenrepertoire zurück. Eine
Versuchsperson beispielsweise stiess bei
der Sichtung der Probleme in Lohhausen
darauf, dass viele Schüler in der Schule
Schwierigkeiten hatten. Da er selbst über
Erfahrungen auf diesem Gebiet verfügte,
konzentrierte – eigentlich müsste man sa-
gen: kaprizierte – sich dieser Proband auf
Schulschwierigkeiten, dann auf eine be-
stimmte Schulklasse und schliesslich so-
gar auf einen bestimmten Schüler. Alle an-
deren Probleme der Kommune verlor er
aus dem Blickfeld.
Man mag vielleicht sagen, das seien eben
die Probleme, wenn Laien mit komplexen
Systemen umgehen. Aber weit gefehlt.
Auch die Experten, welche die Blue-
Mountains-Wälder nachhaltig bewirtschaf-
ten wollten, zeigten dieses Verhalten,
nämlich Rückzug in bekannte, beherrsch-
bare Teilgebiete. So kam es zu dem allseits
bekannten «Mehr desselben!» unter Um-
ständen auch dann, wenn sich die Wir-
kungslosigkeit oder die negativen Folgen
der Massnahme bereits gezeigt hatten.
3. Fehldosierung
Wer kleine Kinder hat, kennt das Bade-
wannen-Problem: Als Mutter oder Vater
überlegt man sich vorher, wie weit man
die Badewanne für das Kind etwa füllen
möchte. Und man will eine Temperatur
von möglichst genau 37 Grad erreichen.
Wenn man das Badewasser laufend auf
seine Temperatur kontrolliert, kann es
passieren, dass man ständig am Wasser-
hahn dreht, mal heisser, mal kälter, um
möglichst am Ideal zu bleiben. Wer dies
schon getan hat, hat es sicher auch
schon geschafft, zu weit in die eine oder
andere Richtung zu drehen, so dass dann
heftig ausgeglichen werden musste und
am Ende viel mehr Wasser in der Wanne
war als beabsichtigt.
Man mag sich nun vielleicht fragen: Seit
wann ist das Füllen von Badewannen ein
komplexes System? Aber bitte: Es ver-
ändert sich erst mal die Temperatur des
Wassers auch bei gleich bleibender Stel-
lung des Wasserhahns, weil sich noch ab-
gekühltes Wasser in der Leitung befin-
det, ehe die Pumpe im Keller heisses
nachgepumpt hat. Dann kühlt die Wan-
nenwand das Wasser wieder ab, und
zwar abhängig von Material, Grösse und
Isolierung. Schliesslich spielen natürlich
die Temperatur der Raumluft und die
Durchlüftung des Badezimmers ebenso
eine Rolle wie die absolute Menge des
Wassers, das bereits in der Wanne ist.
All diese Elemente, und vermutlich noch
mehr, wechselwirken miteinander.
4. Zielfehler
Einfache Ziele
Die Fehler bei der Zielfindung korrespon-
dieren häufig mit den Hypothesenfehlern:
Mangelnde Aufschlüsselung des komple-
xen Systems führt zunächst zu linearem
Ursache-Wirkungs-Denken und dann dazu,
dass man sich zu einfache Ziele setzt.
Dazu sagt Dörner: «Man kann in komple-
xen Realitäten nicht nur eine Sache ma-
chen. Man kann daher auch nicht nur ein
Ziel anstreben. Strebt man nur ein Ziel an,
so kann es sein, dass man dadurch unver-
sehens andere Missstände erzeugt, also
neue Probleme schafft.»
76 | Innovation
Innovation Management | Nr. 4 | Mai 2011
Globale Ziele
Es gibt viele sehr allgemein formulierte
Zielsetzungen, die in spezifische Schwie-
rigkeiten hineinführen. «Der Stadtteil soll
attraktiver werden.» «Unsere Schule
muss besser werden.» «Wir müssen
kundenfreundlicher agieren.» Wenn es
nicht gelingt, diese Globalziele auf spe-
zifische Teilziele herunterzubrechen, kann
es leicht sein, dass man ins Blaue hinein
agiert.
Was aber macht denn einen Stadtteil at-
traktiv? Die Beschäftigungsmöglichkei-
ten oder die Verkehrssituation, die Infra-
struktur oder die Bevölkerungszusam-
mensetzung, die Architektur oder die
ansässigen Vereine? Es gibt hier viele
Möglichkeiten anzusetzen, und jeder An-
satzpunkt wird andere Folgen für das Ge-
samtsystem haben.
Unklare Ziele
Wenn einem die Globalität seiner Zielset-
zung nicht bewusst ist, hat man keinen
Anlass, spezifische Ziele herauszudestil-
lieren. Dann kann es sein, dass man das
Handeln beginnt, ohne auf klare Ziele zu-
zusteuern, deren Erreichung oder Verfeh-
lung anhand eindeutiger Kriterien er-
kannt werden könnte. Wer «irgendwie»
kundenfreundlicher agieren will und dies
nicht in genauen Teilzielen ausformuliert,
wird recht zufällig das tun, was ihm spon-
tan in den Sinn kommt oder was die Si-
tuation gerade hergibt.
Vermeidungsziele
Während auch Anstrebungsziele recht
global formuliert sein können, ist dies bei
Vermeidungszielen logischerweise noch
viel mehr der Fall. Man will dann nicht
mehr so viele Kunden verlieren oder
nicht mehr so viel Lagerfläche brauchen.
Das sind allerdings noch keine konkreten
Handlungsziele, denn an dieser Stelle
fängt die Denkarbeit erst an.
Ein Beispiel: Wenn man nicht mehr so
viele Unfälle auf einem bestimmten Au-
tobahnteilstück haben möchte, muss
man erst noch sehr genau hinsehen, wo
denn die Unfallursachen liegen. Erst
dann kann man spezifische Anstrebungs-
ziele daraus machen: Wir müssen die Ge-
schwindigkeit beschränken und häufiger
kontrollieren oder Warnschilder (Nässe,
Nebel usw.) aufstellen oder die Sichtlini-
en von Bewuchs befreien oder die paral-
lele Bahnlinie stärker bewerben und so
weiter und so weiter.
Implizite Ziele
Wir übersehen gern implizite Ziele; das
sind solche, die wir zwar nicht direkt an-
streben und die uns gar nicht bewusst
sind, die sich aber aus den Zusammen-
hängen des komplexen Systems zwangs-
läufig ergeben. Aus dem Bereich der Pä-
dagogik wissen wir, dass Eltern, die ih-
ren Kindern einen Nachhilfelehrer
organisieren, um schulische Mängel aus-
zugleichen, ihrem Nachwuchs signalisie-
ren: «Wir kümmern uns!» Dieses Signal
kann dazu führen, dass der Jugendliche
sich zu sehr auf die elterliche Fürsorge
verlässt und es verpasst, rechtzeitig sei-
ne Selbstständigkeit und Unabhängigkeit
vom Elternhaus zu entwickeln – etwas,
das Eltern aber jederzeit als Ziel angeben
würden, wenn man sie danach fragte.
Innovation | 77
Innovation Management | Nr. 4 | Mai 2011
«Wer nicht aus der Geschichte lernt,
ist gezwungen, sie zu wiederholen»:
Nachfolgend im Anschluss an Dietrich
Dörner ein paar Aspekte, wie dieses
Lernen aussehen könnte:
Gegen Hypothesenfehler
Vorsicht vor einfachen Ursache-Wir-
kungs-Ketten und vor «zentralen Ur-
sachen»
Besondere Vorsicht, wenn solche
zentralen Ursachen dazu dienen,
das eigene Weltbild zu zementieren.
Stattdessen intensiv nachforschen,
mehr Details in Erfahrung bringen,
Zusammenhänge zu erkennen ver-
su chen, vernetzte Strukturschema-
ta erstellen und weiterdenken.
Mögliche Fern- und Nebenwirkun-
gen antizipieren.
Gegen Planungsfehler
Nicht nach Sinnenfälligkeit handeln
und nicht von zufälligen Einstiegs-
punkten aus.
Stattdessen versuchen, aus einem
Verständnis für das Gesamtgefüge
heraus zu handeln.
Vorsicht vor zu geringer, aber auch
vor ausufernder Informationssuche.
Entscheidungen treffen, nicht ewig
aufschieben.
Merke: Gegen Fehldosierung helfen
vermutlich nur Versuch und Irrtum –
also viel Übung.
Gegen falsche Zielstellungen
Vorsicht vor globalen Zielen und am
meisten vor globalen Vermeidungs-
zielen.
Stattdessen übergreifende Zielstel-
lungen herunterbrechen und Zwi-
schenziele setzen.
Ziele müssen operationalisierbar
sein, das heisst, das Erreichen oder
Verfehlen muss anhand eindeutiger
Kriterien erkennbar sein.
Gegen Bewertungsfehler
Vorsicht, wenn man gewisse Fehler
oder Misserfolge gar nicht sehen
will.
Stattdessen möglichst schonungs-
loses Überprüfen der Reaktionen
des Systems und der eigenen Hy-
pothesen.
Zahlen nicht schönrechnen.
Gegen Korrekturfehler
Vorsicht, wenn der Druck der Grup-
pe oder ein grosses Selbstbewusst-
sein die Symptome des komplexen
Systems ausser Acht lassen oder
gering schätzen will.
Sich fragen: Welche gemeinsamen
Merkmale hatten alle bisher ver-
suchten erfolglosen Methoden?
Vorsicht, wenn das Argument auf-
taucht: «Jetzt haben wir schon so
viel (Geld, Zeit, Energie …) investiert
darum müssen wir auf diesem
Wege weitermachen!»
Gute Strategien
5. Bewertungsfehler
Schönrechnen
Dass zu Beginn eines Projekts häufig von
sehr optimistischen Bedingungen ausge-
gangen wird, daran haben wir uns ge-
wöhnt. In Deutschland wurde bei den Ver-
suchen, der Bevölkerung den Transrapid
schmackhaft zu machen, der Nutzen in ro-
sigen Farben beschrieben und die Kosten
ursprünglich viel zu niedrig angesetzt; sie
mussten nachträglich und Schritt für
Schritt höher angesetzt werden, was letzt-
lich das Aus für dieses Projekt bedeutete.
Auch die mit der Nutzung der Blue-Moun-
tains-Wälder befassten Experten gingen
erst mal von bis dato nie erreichten
Wachstumsraten aus. Als diese nicht ein-
gehalten werden konnten, rechneten die
Fachleute später sogar mit potenziellem,
nicht mehr mit realem Wachstum. Die Be-
gründung dafür war, dass man ja die be-
kannten früheren Fehler nicht wiederho-
len müsste. Erstaunlicherweise passier-
ten dann aber doch immer und immer
wieder dieselben Fehler.
Fehlendes Bemühen um Falsifikation
Wenn Menschen ihr Weltbild gefährdet
sehen, reagieren sie in der Regel nicht
freudig und offen für neue Erkenntnisse,
sondern mit Abwehr. Dann werden wi-
dersprechende Befunde zunächst einmal
ignoriert. Wenn sich dieses Vorgehen
nicht durchhalten lässt, dann werden die
Ergebnisse so lange hin- und her- oder
weginterpretiert, bis sie wieder in das ei-
gene – in der Regel lineare und mono-
kausale – Weltbild hineinpassen. Dietrich
Dörner beschreibt dieses Phänomen fol-
gendermassen: «Ein hervorragendes
Mittel, Hypothesen ad infinitum aufrecht-
zuerhalten, ist die‚ ‹hypothesengerechte
Informationsauswahl›. Informationen, die
nicht der jeweiligen Hypothese entspre-
chen, werden einfach nicht zur Kenntnis
genommen.»
Man stelle sich folgende Situation vor: Als
das System bereits auf die Katastrophe
zusteuerte, stauchte der verantwortliche
Schichtleiter von Tschernobyl, Aleksandr
Akimow, Mitarbeiter zusammen, weil sie
warnend ihre Stimmen erhoben, und liess
dann auch noch das Warnsystem abschal-
ten mit der Begründung: «Bei dem Lärm
und dem Geblinke kann ja kein Mensch
arbeiten!» Noch als tödlich verstrahlte
Mitarbeiter in den Kontrollraum kamen
und berichteten, dass der Reaktor explo-
diert sei, geriet Aleksandr Akimow «gänz-
lich ausser sich, brüllte und tobte und tat
schliesslich alles als Unsinn ab» (zitiert
nach einem Augenzeugenbericht in Frey
und Frey). Die überall vorhandenen Mess-
geräte zeigten Werte über das Maximum
der Skala hinaus an, weshalb man mein-
te, sie wären kaputt gegangen. Die tat-
sächliche Strahlendosis war aber 5000-
mal so hoch wie das – bereits tödliche –
Maximum der Skala. Es kann eben nicht
sein, was nicht sein darf.
6. Korrekturfehler
Mangelnde Selbstkritik
Dieses Problem zeigte sich ebenfalls der
Steuerzentrale des Reaktors von Tscher-
nobyl. Als die Ereignisse nach und nach
ausser Kontrolle gerieten, schalteten die
Techniker ein Sicherheitssystem nach
dem anderen ab – es störte ja bloss die
geplanten Abläufe. Die entscheidenden
Personen brachten eben das Selbstbe-
wusstsein mit, sie verstünden die Abläu-
fe und könnten den Reaktor beherrschen.
So waren sie blind gegenüber den Warn-
zeichen und bestätigten sich gegenseitig
in ihrer Selbstüberschätzung. Die Über-
mittler der schlechten Nachricht wurden
selbst dann noch niedergeschrien, als sie
verstrahlt und dem Tode geweiht berich-
teten, was sie mit eigenen Augen gese-
hen hatten.
Die normative Kraft des Faktischen
Ein fehlerhaftes Handeln wird häufig auch
deswegen nicht zugegeben, weil damit
das Eingeständnis verbunden wäre, dass
man sehr viel Geld, Energie oder Zeit in
einen falschen Plan investiert hätte.
«Jetzt haben wir seit Jahren schon viele
Millionen in die Planungskosten inves-
tiert; drum muss das Autobahnteilstück
(die Startbahn, der Bahnhof) jetzt auch
gebaut werden!» Aber diese Fehlhaltung
gibt es nicht nur bei grossen politischen
Projekten, sondern auch im privaten
Haushalt: Wer schon seit Jahren ohne
grössere Gewinne Lotto spielt, wird sich
schwertun, damit aufzuhören, weil das
Geld sonst als völlige Fehlinvestition er-
scheinen würde.
7. Zeitdruck
Wer einen Blick auf die Grafik 4 wirft, dem
fällt möglicherweise auf, dass das Ele-
ment «Zeitdruck» auf alle Phasen der voll-
ständigen Handlung wirken kann und
auch oft wirkt. Dabei kann man zwei Fäl-
le unterscheiden:
A. Durch den Kontext induzierter
Zeitdruck
Man möge einmal selbst überlegen, wie
oft es vorkommt, dass man seine Hand-
lungen planen muss, ohne das System
vollständig zu durchblicken, auf das man
einwirken will. Wer setzt uns in diesen Fäl-
len unter Zeitdruck? Häufig wohl die Kon-
kurrenz, die Kunden, Lieferfristen, Zah-
lungsziele usw. Aber manches mag auch
an uns selbst liegen – wenn man zu den
Menschen gehört, denen es nicht schnell
genug gehen kann, die noch schnell die-
ses oder jenes mitnehmen wollen, die
sich selbst und andere ständig unter
Druck setzen.
B. Zeitdruck durch das System
Dynamische Systeme sind, wie der Name
schon sagt, in Bewegung. Das heisst, sie
verändern sich auch ohne unser Zutun.
Eine Klasse von Schülern oder ein Saal
voller Zuhörer kann sehr dynamisch wer-
den, wenn unser Handeln zu lange auf
sich warten lässt. Eine Kommune ist sel-
ten im Gleichgewicht: Entweder die Be-
völkerung wächst oder sie nimmt ab, sie
ist zufrieden oder unzufrieden, sie arbei-
tet am Ort oder pendelt aus; oder genau-
er: Dies alles geschieht gleichzeitig an ver-
schiedenen Stellen. Ein Rathaus, das da-
bei nur zusieht, wird im Nichtstun und
Warten vieles falsch machen. (Auch Ihr ei-
genes geschäftliches System reagiert auf
zahlreiche äussere Einflüsse – hoffentlich
haben Sie es flexibel aufgestellt und hof-
fentlich haben Sie seine Komplexität
durchdrungen und können bewusst oder
intuitiv richtige Handlungen planen, und
zwar rasch.)
Umgang mit Zeitdruck
Wenn wir Dörners Simulationen nachvoll-
ziehen, dann erweisen sich erfolgreiche
Versuchspersonen dadurch, dass sie auch
unter Zeitdruck noch genügend Fragen
stellen. Die anderen Personen reagierten
auf Zeitdruck mit Informationsverweige-
78 | Innovation
Innovation Management | Nr. 4 | Mai 2011
rung und Aktionismus. Diese waren aber
auch dann nicht erfolgreicher, wenn sie
genügend Zeit zur Verfügung hatten. Dann
zeigten sie nämlich eine Tendenz zu ex-
zessiver Informationssammlung mit einer
daraus resultierenden verstärkten Unsi-
cherheit, die weitere Informationssamm-
lung und schliesslich Entscheidungsunver-
mögen zur Folge hatte.
Der Kreis schliesst sich
Die Qualität der eigenen Bewertung und
der Selbstkorrektur bestimmt die Qualität
der neuen Handlungshypothese, und da-
mit beginnt der Kreis von vorne mit den
entsprechenden Planungen, Handlungen
und Reaktionen des Systems. Wenn es
uns nicht gelingt, selbstkritisch auf die Fol-
gen unseres Handelns zu sehen und uns
durch die Reaktionen des Systems gewis-
sermassen einen Spiegel vor Augen hal-
ten zu lassen, wird sich uns die Wahrheit
des Ausspruches offenbaren: «Wer nicht
aus der Geschichte lernt, ist gezwungen,
sie zu wiederholen.» Das trifft nicht nur
auf grosse politische Entscheidungen zu,
sondern ebenso auf unser alltägliches
Handeln.
Fazit
Komplexe dynamische Systeme sind von
uns Menschen nur schwer zu beherr-
schen, und wir werden Fehler wohl nie
gänzlich vermeiden können. Die Fehler
werden allerdings immer grösser, wenn
wir nicht aus ihnen lernen. Und die Hän-
de in den Schoss zu legen, wäre der aller-
grösste Fehler.
Deshalb soll der griechische Philosoph
Demokrit das Schlusswort haben: «Mut
steht am Anfang des Handelns, Glück am
Ende.»
Innovation | 79
Innovation Management | Nr. 4 | Mai 2011
Roland Grüttner
Rektor
Montessorischule Dachau
Tel. +49 8131 78078
r.gruettner@arcor.de
Kontakt
präsentiert
Weitere informationen: www.daszelt.ch oder 0848 000 300 (Normaltarif)
Schweizer Tourneetheater
in 16 Schweizer
Städten
Die Bühne für ihren AnlAss
Dinner & Show in DAS ZeLT – DAS beSonDere erLebniSr Sie unD ihre GäSTe
Nationale MedienpartnerNationale Partner Vorverkauf
Anzeige
Nach einer Werkzeugmacherlehre
studierte Roland Grüttner evangeli-
sche Theologie und erhielt die Ordi-
nation zum Pfarrer. Anschlies send
Lehramtsstudium und Unterrichtstä-
tigkeit an verschiedenen Hauptschu-
len in Oberbayern. Seit 2002 ist er
Rektor der Montessorischule Dach-
au. Wissenschaftliche Tätigkeiten: Di-
verse Veröffentlichungen in pädago-
gischen Fachzeitschriften; Aufträge
als bildungspolitischer Berater und
Ghostwriter. Künstlerische Tätigkei-
ten: Singer-songwriter; Gaukler.
Porträt
ResearchGate has not been able to resolve any citations for this publication.
ResearchGate has not been able to resolve any references for this publication.