ResearchPDF Available

Fekete, A, Grinda, C & Norf, C (Eds.) (2015) Macht allein Schaden klug? Wissen, Erfahrung und Lernen im Umgang mit Risiken – Beiträge aus Wissenschaft und Praxis zum 27. Treffen des Arbeitskreises Naturgefahren/Naturrisiken. Integrative Risk and Security Research, 3/2015.

Authors:
  • TH Köln - University of Applied Sciences
Integrative Risk and Security Research
Volume 3/ 2015
Alexander Fekete, Christiane Grinda, Alex Lechleuthner,
Ompe Aimé Mudimu, Celia Norf, Ulf Schremmer
Macht allein Schaden klug?
Wissen, Erfahrung und Lernen
im Umgang mit Risiken
Beiträge aus Wissenschaft und Praxis
zum 27. Treffen des Arbeitskreises
Naturgefahren/Naturrisiken
Edited by Alexander Fekete, Christiane Grinda & Celia Norf
2
Macht allein Schaden klug?
Integrative Risk and Security Research
Volume 3/ 2015
T
his document is published within the series 'Integrative Risk and Security Research'.
All publications can be downloaded from https://www.th-koeln.de/anlagen-energie-und-
maschinensysteme/schriftenreihe-integrative-risk-and-security-research_17446.php,; or you use
http://tinyurl.com/oaj4r7a
Despite thorough revision the information provided in this document is supplied without liability.
The document does not necessarily present the opinion of the editors.
EDITION NOTICE
Editors of Series
Alexander Fekete (Prof. Dr.-Ing.)
Christiane Grinda (Dipl.-Geogr.)
Alex Lechleuthner (Prof. Dr. med. Dr. rer. nat.)
Ompe Aimé Mudimu (Prof. Dr.-Ing.)
Celia Norf (M. Sc.)
Ulf Schremmer (Prof. Dr.-Ing.)
TH Köln University of Applied Sciences
Institute of Rescue Engineering and Civil Protection
Betzdorfer Str. 2
50679 Cologne
Germany
www.irg.th-koeln.de
Editorship of Series - contact: alexander.fekete@th-koeln.de
Editors of this Volume
Alexander Fekete (Prof. Dr.-Ing.)
Christiane Grinda (Dipl.-Geogr.)
Celia Norf (M. Sc.)
Contact
Celia Norf
Email: celia.norf@th-koeln.de
Phone: + 49 (0) 221 8275 2739
Web: http://riskncrisis.wordpress.com
Recommended Citation
Surname, First Name (Year of Publication): Title. In: Fekete, A, Grinda, C
& Norf, C (Eds.) Macht allein Schaden klug? Wissen, Erfahrung und Lernen
im Umgang mit Risiken– Beiträge aus Wissenschaft und Praxis zum 27.
Treffen des Arbeitskreises Naturgefahren/Naturrisiken. Integrative Risk
and Security Research, 3/2015, Page Reference.
Cologne, December 2015
3
Integrative Risk and Security Research
Volume 3/ 2015
Zum Geleit
Nach größeren überregionalen und auch kleineren regionalen Schadenereignissen wird wiederholt
diskutiert, welche Mechanismen und Maßnahmen erforderlich sind, um die Gesellschaft widerstandsfähiger
gegen Naturgefahren (und auch andere Gefahren) zu machen. Jüngste Beispiele hierfür sind das Erdbeben in
Nepal im April/Mai 2015, aber auch aus dem Bereich anderer gesellschaftlicher Risiken die im September
einsetzende Flüchtlingsbewegung in Richtung Mitteleuropa.
Diese öffentlich, auf politischer und wissenschaftlicher Ebene geführte Auseinandersetzung führt stets zu
einem gewissen Aktionismus, zu unmittelbaren Bekundungen von monetärer Abgeltung der Schäden, und
zu Bekenntnissen im Sinne einer erforderlichen nachhaltigeren Schutzstrategie basierend auf dem
Risikoansatz. lm Laufe von Wochen und Monaten nach den Ereignissen verebbt diese Diskussion allerdings
regelmäßig, nur vereinzelt werden grundlegende Transformationsprozesse im Umgang mit Naturgefahren
angestoßen. Vor diesem Hintergrund stellte das 27. Treffen des AKs die Fragen nach dem Zusammenhang
zwischen der Rolle von Wissen, Erfahrung und Lernen im Umgang mit gegenwärtigen aber auch zukünftigen
Naturgefahren in den Mittelpunkt.
Rund 40 Teilnehmerinnen und Teilnehmer aus Deutschland, Osterreich, Rumänien, Griechenland und der
Schweiz skizzierten im Rahmen von Präsentationen einen integrativen Rahmen zum Verständnis von
Lernprozessen vor dem Hintergrund des Postulates dass gesellschaftliches Lernen und damit der
gesellschaftliche Umgang mit Naturgefahren individuelle Lernkomponenten voraussetzt: Nur wenn
zumindest Teile einer Gesellschaft bereit sind, beispielsweise von Nachbarn, lokalen Institutionen oder aus
der eigenen Erfahrung ihren Umgang mit Naturgefahren zu ändern, wird man aus Schaden klug.
Die präsentierten Beispiele umfassten den Umgang mit Überschwemmung, Hitze, Frost- und Brandschaden
in der Landwirtschaft, einem möglichen Versagen des Stromnetzes und Erdbeben. Anhand einiger Leitfragen
tauschten sich die Mitwirkenden des AKs über ihre Forschungsergebnisse aus:
Welche Wissensbestände werden in der Forschung zu Naturgefahren bzw. -risiken als legitim
angesehen und welche nicht?
Wird Erfahrung möglicherweise überbewertet?
Verhindern „hundertprozentige Schutzversprechen“ Lernprozesse?
Auf welche Risiken sollte sich eine Gesellschaft sich überhaupt vorbereiten – und wie viel Flexibilität
sollte dabei erhalten bleiben?
Welches Eigenleben entfalten einmal publizierte Schwellenwerte?
Welche Paradigmen etablieren sich und was sind die Gründe dafür?
Gastgeber des 27. AK-Treffens war das Institut für Rettungsingenieurwesen und Gefahrenabwehr der
Fachhochschule Köln. Wir möchten uns ganz herzlich im Namen aller Teilnehmerinnen und Teilnehmer des
Treffens bei Alexander Fekete, Christiane Grinda und Celia Norf für die organisatorische Vorbereitung und
Durchführung vor Ort bedanken. Insbesondere freut es uns, dass wir mit vorliegendem Band wieder einmal
interessante Beiträge aus einem AK-Treffen zusammenfassen konnten, und diese Aufnahme in die Kölner
Schriftenreihe Integrative Risk and Security Research gefunden haben.
Sven Fuchs, Wien & Christian Kuhlicke, Leipzig
4
Macht allein Schaden klug?
Danksagung
Das Institut für Rettungsingenieurwesen und Gefahrenabwehr der Technischen Hochschule Köln bedankt
sich herzlich bei allen Mitwirkenden des 27. AK-Treffens, insbesondere den Vortragenden, die mit ihren
Beiträgen dieses Treffen zu einem interessanten und vielseitigen Austausch gemacht haben.
Ein großer Dank gilt auch den Autoren des vorliegenden Sammelbandes für die Mühe und Bereitschaft,
einige Themen des AK-Treffens aber auch Beiträge, die durch dieses Treffen und sein Thema angeregt
wurden, sowohl aus wissenschaftlicher als auch z.T. aus Praxissicht für die Öffentlichkeit aufzubereiten.
Auch danken wir den externen Reviewern für die Prüfung der Beiträge dieser Ausgabe hinsichtlich ihrer
wissenschaftlichen Qualität. Wir danken ihnen vielmals für die investierte Zeit und Mühe. Nach
alphabetischer Reihenfolge geht unser Dank an: Martin Bönewitz - Helmholtz-Zentrum für Umweltforschung;
Maria Bostenaru Dan - Universität Bukarest; Sven Fuchs - Universität für Bodenkultur Wien; Thomas
Lindemann - Johanniter Auslandshilfe; Gerrit Meenen - Technisches Hilfswerk; Sabine Obermöller - Rhein-
Erft-Kreis; Roman Peperhove - AG Interdisziplinäre Sicherheitsforschung, FU Berlin; Christine Prokopf -
Westfälische Wilhelms-Universität Münster; Kerstin Rosenow-Williams - Ruhr-Universität Bochum.
Unser besonderer Dank geht an die Sprecher des Arbeitskreises Christian Kuhlicke und Sven Fuchs, die uns
die Organisation und Durchführung dieses 27. AK anvertraut haben.
Dieser Sammelband vereint multidisziplinäre Schreib- und Sichtweisen, um einen Dialog und eine Diskussion
anzuregen. Wir bedanken uns für interessierte Zuschriften und Kommentaren, die den Autoren helfen, die
Beiträge inhaltlich weiterzuentwickeln und neue Netzwerke zu knüpfen.
Alexander Fekete, Christiane Grinda & Celia Norf
Institut für Rettungsingenieurwesen und Gefahrenabwehr/ Technische Hochschule Köln
5
Integrative Risk and Security Research
Volume 3/ 2015
Inhaltsverzeichnis
Fachbeiträge (peer-reviewed)
Strukturierungsmöglichkeiten des Themas Wissen und Lernen im Katastrophenrisikomanagement
Lena Bloemertz 6
Räumliche Ordnung in Trénelle-Citron: Risiko, Sicherheit und Klientelismus
Johannes Bohle 10
Die Einwirkung von Katastrophen in der Vergangenheit: Eine digitale Darstellung für die Spuren
des 1977 Erdbebens auf das Magheru Boulevard in Bukarest und ihre Wechselwirkung mit
Darstellungen für die Stadt Köln
Maria Bostenaru Dan & Iuliana Armas 23
Wissen und Erfahrung bei der Abwehr von Spätfrostschäden im deutschen Weinbau
André Hoffmann 28
„The Big Easy“ oder Opfer von Naturgewalten? New Orleans als Fallbeispiel für den Umgang
mit dem Vulnerabilitätsbegriff im Geographieunterricht
Verena Reinke 36
Die vernachlässigten Schattenseiten der Vernetzung
Herbert Saurugg 42
Sturmfluten, Washover-Prozesse und Dünendurchbrüche auf Sylt und Amrum
Tanja Tillmann 62
Welches Potential bietet das Georadar (GPR) als Methode zur Ortung von Lawinenverschütteten
Tanja Tillmann 79
Diskussionsbeiträge
Aus Schaden Klug – Rettungsdienst Mitnahme EKG-Defibrillations-Einheit in die Notaufnahme bei
Patienten mit einer vermuteten Herzerkrankung
Alex Lechleuthner & Andreas Lotter 88
Macht Schaden klug? Überlegungen zu Wissen, Erfahrung, und Lernen im Umgang mit Risiken
Alexander Fekete, Christiane Grinda & Celia Norf 90
6
Macht allein Schaden klug?
Strukturierungsmöglichkeiten des Themas Wissen und Lernen
im Katastrophenrisikomanagement
Lena Bloemertz
Email: lena.bloemertz@unibas.ch
Abstract
Das 27. Treffen das AKs beschäftigte sich mit der Rolle von Wissen, Erfahrung und Lernen im Umgang mit
gegenwärtigen und zukünftigen Risiken unter dem Titel „Macht alleine Schaden klug?“. Dieser Artikel
möchte sich der Beantwortung dieser Frage annähern, in dem er einen Vorschlag für die Bedeutung der
Begriffe im Katastrophenrisikomanagement skizziert.
Einleitung
Eine Erwartung, welche an das Katastrophenrisikomanagement (KRM) gestellt wird, ist es, zu einer erhöhten
Sicherheit der Bevölkerung beizutragen. Dementsprechend führen die immer wieder und immer häufiger
mit großen Schäden einhergehenden Naturereignisse dazu, sich zu fragen, welche Rolle Wissen, Erfahrung
und Lernen (WEL) für den Umgang mit gegenwärtigen und zukünftigen Risiken hat. Schnell werden dabei
Aussagen getroffen, wie „hätten wir das gewusst…“. Um sich der Frage was für erfolgreiches KRM fehlt
systematisch nähern zu können, möchte dieser Beitrag erste Definitionen für WEL aufzeigen und deren
Beitrag für KRM diskutieren.
Risiko
Um in Hinblick auf gegenwärtige und zukünftige Risiken die Bedeutung von WEL zu betrachten, ist zunächst
eine Definition von Risiko notwendig. Der Begriff Risiko wird vielfältig gebraucht1. Dies wird u.a. deutlich
wenn man versucht eine Frage auf die Antwort „haben Risiken zugenommen“ zu geben. Häufig wird eine
Zunahme von Risiken gleichsetzt mit einer Zunahme von konkreten Bedrohungen, wie zum Beispiel
Extremwettereignissen. Anders sieht es aus wenn man die Unterscheidung von Luhmann (1991) benutzt.
Nach Luhmann kann man Risiko im Gegensatz zu Gefahr als bewusste Entscheidungen in Bezug auf
mögliche in der Zukunft eintreffende Ereignisse ansehen. Benutzt man diese Unterscheidung, nehmen
Risiken zu, wenn Entscheidungsmöglichkeiten zunehmen. Weichhart (2007) identifiziert noch weitere
Distinktionspaare wie Risiko/Chance und Risiko/Sicherheit, welche jeweils eine andere Sicht auf Risiko
implizieren.
Im vorliegenden Aufsatz wird Risiko wird als das Zusammentreffen eines Ereignisses (skizziert durch
Wahrscheinlichkeit und Ausmaß) mit einer bestimmten Schadensanfälligkeit (Verwundbarkeit und
Exposition) angesehen. Dies entspricht auch der aktuellen Benutzung des Risikobegriffs durch den IPCC
(2014) und wird in der bekannten Formel: Risiko = Ereignis/Gefahr (Wahrscheinlichkeit * Ausmaß) *
Exposition * Vulnerabilität (R = W*A*E*V) ausgedrückt. Eine Risikoanalyse auf Grundlage der oben genannten
Faktoren bildet eine Grundlage für das Katastrophenrisikomanagement (KRM).
Akteure und Phasen des Katastrophenrisikomanagements2
Zur Diskussion der Rolle von WEL im KRM wird hier zur Vereinfachung nur zwischen der Phase der
Vorbeugung (Vorbereitung und Prävention) und der Phase der Bewältigung direkt nach einem Ereignis
unterschieden. Vor einem Ereignis geht es darum, das Risiko zu verringern, nach einem Ereignis darum, eine
Katastrophe zu bewältigen. Vorbeugung beinhaltet damit eine sinnvolle Abschätzung von
Wahrscheinlichkeit und zu erwartendem Ausmaß, sowie die Verringerung von Exposition und
Verwundbarkeit. Die Zusammenfassung dieser unterschiedlichen Aspekte in einem „Risikowert“ kann vor
allem dabei helfen, unterschiedliche Gefahren und deren potenzielle Auswirkungen zu vergleichen.
1 Eine Übersicht verschiedener Risikodefinitionen findet sich z.B. in Renn (2008).
2 Spiekermann et al. (2015) haben eine Disaster-Knowledge Matrix (DKM) entwickelt, welche dazu dient Barrieren der Übertragung von
Daten, Informationen, Wissen und Weisheit und die jeweils betroffenen Akteure in den verschiedenen Phasen des
Katastrophenrisikomanagement (Prävention, Vorbereitung, Bewältigung und Regeneration) zu identifizieren. Jedoch wird dort
Erfahrung als Teil des Wissens angesehen und Lernen als omnipräsente Voraussetzung zur Schaffung von Daten, Informationen, Wissen
und Weisheit. Damit ist der Fokus ein anderer als im hier vorliegenden Artikel.
7
Integrative Risk and Security Research
Volume 3/ 2015
Bewältigung beinhaltet Nothilfe und Wiederaufbau. Da beim Wiederaufbau bzw. der Regeneration die
gleichen Maßstäbe gelten sollten wie bei der Vorbeugung, wird hier nur die Nothilfe betrachtet wird.
Als Akteure im KRM werden direkt Betroffene, öffentlicher Sektor (lokal, national, international),
Wissenschaftler, Versicherung und die Akteure der Nothilfe unterschieden. Manche dieser Akteure müssen
für die Gesamtgesellschaft Rahmenbedingungen setzen, andere wiederum werden zur Beratung
herangerufen, wieder andere müssen Entscheidungen treffen die ihre Verwundbarkeit direkt betreffen.
Akteure Direkt Betroffene (Bevölkerung und Industrie), öffentlicher Sektor, Wissenschaftler,
Versicherungen, Akteure der Nothilfe (inkl. NROs)
Phasen des KRM Vorbeugung (Analyse und Veränderung von Wahrscheinlichkeit, Ausmaß, Exposition,
Verwundbarkeit), Bewältigung
Tabelle 1: KRM – Akteure und Phasen
Quelle: Eigene Aufstellung
Damit Entscheidungen getroffen werden (können), ist zumeist eine genaue Kenntnis einer konkreten
Situation (Daten), als auch ein Verständnis der grundsätzlichen Zusammenhänge notwendig. Daneben muss
die notwendige Motivation, etwas zu verändern, existieren, damit bestehende Erkenntnisse umgesetzt
werden. Vor allem in der Phase der Vorbeugung spielt die Motivation eine wichtige Rolle, da hier die
Unsicherheit über die Zukunft eine entscheidende Größe ist, während es bei der Nothilfe um die Reaktion auf
eine konkret vorliegende Situation geht.
Wissen, Erfahrung und Lernen
Es gibt verschiedene Ansätze Wissen zu unterteilen. Die bekannteste davon ist die Unterscheidung in
explizites und „stillschweigendes“ oder implizites3 Wissen (für eine Einführung und Diskussion des
Zusammenhangs von implizitem, explizitem und stillschweigendem Wissen siehe z.B. Grant 2007, welcher
die viel zitierte Arbeit von Polanyi (1996) rezipiert). Wissen soll hier verstanden werden als explizites Wissen,
welches Subjekten bewusst zu Verfügung steht und welches in Sprache dargelegt werden kann. Zudem geht
es bei Wissen (im Gegensatz zu Daten) darum, ein Verständnis von Zusammenhängen zu haben. Damit geht
Wissen über die reine Ansammlung von Daten hinaus. Als sinnvoll erscheint es damit Wissen zu definieren als
strukturierte Erkenntnis, die sich in Theorien oder Regeln verpacken lässt.
Bei Erfahrung steht nicht die Zerlegung der Realität in einzelne Bestandteile und ein Verständnis der
Zusammenhänge im Vordergrund, sondern Gesamteindrücke und das Durchleben von Situation. Was
hierbei in den Vordergrund gerückt wird, ist zum einen die Tatsache, dass manches Wissen implizit ist und
kaum in Worte gefasst und nur durch Erleben erlangt werden kann. Erfahrungen sind v.a. auch wichtig, um in
Katastrophensituationen schnell (und quasi intuitiv) Entscheidungen zu treffen (siehe u.a. Klein (1998)), da
häufig nicht genügend Zeit für eine genaue Analyse bleibt. Als wichtig wird hier zudem angesehen, dass
Erfahrungen nicht nur die rationale Ebene, sondern auch die emotionale Ebene ansprechen. Zu wissen, dass
bei einem Erdbeben viele Häuser einstürzen werden und dies zu Chaos und einer hohen Anzahl von Opfern
führt, ist nicht das gleiche wie die eigene Erfahrung einer derartigen Situation.
Lernen wiederum betont, dass Wissen und Erfahrung den jeweiligen Akteuren zu einem bestimmten
Zeitpunkt zu Verfügung stehen muss. Hiermit rückt die Frage in den Mittelpunkt, wer Wissen und/oder
Erfahrung hat und dieses auch umsetzen kann.
„The known is thus appropriated by the knower so that (depending on the form of knowledge) it is
understood and applicable, either through the use of this acquired knowledge in concrete actions or as
guidance for decision-making.” (Spiekermann et a. 2015: 97).
Diese Umsetzung enthält auch das Überdenken von Präferenzen. Dabei sind Erfahrungen häufig
unabdingbar für Lernen, wie von Donahue und Tuohy skizziert:
„There [are] no teeth in lessons from someone else’s experience. We don’t really learn from others unless
we can really imagine ourselves in that other person’s circumstance.” (Donahue and Tuohy (2006:11).
3 Implizites Wissen ist im Allgemeinen nur durch Übung, eigenes Erleben zu erlangen (z.B. Fahrrad fahren, Alltagsbewältigung).
8
Macht allein Schaden klug?
Ziel dieses Artikels ist es nicht, zu untersuchen, ob und wie Wissen bisher systematisch in Bezug zu Risiken
gesetzt wurde und wie man dies verbessern kann, sondern anhand der drei oben skizzierten Begriffe klarer
zu unterscheiden, ob man gerade von der Rolle von Wissen (Kennen von Zusammenhängen), Erfahrung
(intuitives Handeln in konkreten Situation, sowie die Fähigkeit sich Not-Situationen vorzustellen) oder Lernen
(Aneignung von Wissen und Erfahrung, sowie Überdenken von Prioritäten) spricht, welche für verbessertes
KRM relevant sind.
WEL im Risikomanagement
Was das Ausmaß und die Wahrscheinlichkeit von Naturereignissen angeht, basieren Aussagen zumeist auf
der Auswertung von Zeitreihen/Daten. Für viele Naturgefahren, gibt es zwar inzwischen auch Versuche
prozesshaft zukünftige sich verändernde Wahrscheinlichkeiten vorherzusagen (z.B. Stürme und
Niederschläge im Rahmen des Klimawandels), aber Zeitreihen sind weiterhin von großer Bedeutung. Bei auf
Zeitreihen beruhenden Wahrscheinlichkeitsaussagen ist tatsächlich alleine Schaden, welcher klug macht, da
nur neue Ereignisse zur Änderung von Statistiken führen. Jedoch ist es selten eine falsch eingeschätzte oder
veränderte Wahrscheinlichkeit eines Naturereignisses welches zum Eintreten einer Katastrophe führt. Die
Statistiken sind deshalb v.a. für die Festlegung für langfristige Betrachtungen und die Festlegung von
Versicherungsprämien von Bedeutung.
Die Festlegung von Gefahrenräumen, in denen man die Exposition analysiert ist eng mit der Erfassung von
potenziellen Naturereignissen verbunden. In Bezug auf Verringerung von Exposition sind häufig
Informationen darüber, dass Naturereignisse eintreten können von größerer Relevanz als Wissen über das
genaue Ausmaß und die Möglichkeit der Vorhersage eines bestimmten Ereignisses. Generelle Informationen
darüber, welche Naturgefahren in welchem Gebiet auftreten können, sollten heutzutage überall vorhanden
sein. Jedoch sind die Informationen meist nicht allen potenziellen Akteuren bekannt. Hier ist die Hauptfrage
wohl eher, wer bereit ist für die Bereitstellung der nötigen Informationen zu sorgen und damit Lernen zu
ermöglichen. Ebenso gilt für Verwundbarkeit, dass die grundlegenden Zusammenhänge, welche dazu
führen, dass eine Schadensanfälligkeit besteht, zumeist bekannt sind. Fehlende Möglichkeit oder Einsicht
Vorsorge zu betreiben (z.B. Schutzmauern, Gesundheitsvorsorge) und der Zugang zu Informationen
(aktueller Zustand eines Gebäudes), welche es erlauben eine konkrete Situation besser einzuschätzen, sind
meist entscheidender als fehlendes Wissen.
Bei vielen dieser Aspekte kommt es darauf an, dass existierendes Wissen den jeweiligen Akteuren zur
Verfügung steht und die Bereitschaft etwas zu verändern vorhanden ist. Diskussionen um das
Risikomanagement würden davon profitieren, wenn in den öffentlichen Darstellungen auch berichtet würde,
warum im Vorfeld keine Verringerung von Risiken stattgefunden hat. Meist, liegt das darin, dass nur ein
Abwägen zwischen unterschiedlichen Optionen stattfindet und keine reinen Entscheidungen zwischen
„Risiko eingehen“ oder „kein Risiko-eingehen“ möglich sind, sondern man sich vielmehr zwischen
unterschiedlichen Risiken entscheiden muss. Grundprobleme beim Umgang mit Gefahren und deren
Konsequenzen sind die Wertung unterschiedlicher Arten der Auswirkungen (auf unterschiedliche
Bevölkerungsgruppen, oder Sektoren (z.B. Umwelt, Menschen, Wirtschaft, …)), sowie das Abwägen zwischen
Risiken einer hohen Wahrscheinlichkeit und einem geringen Schadenpotenzials und Risiken mit einer kleinen
Wahrscheinlichkeit und einem hohen Schadenpotenzial. Auch die Frage des potenziellen Nutzens des
Eingehens eines Risikos ist hier von Relevanz. Auf welcher Grundlage entschieden wird, welches potenzielle
Ereignis als problematischer als ein anderes angesehen wird4, hängt von vielen Aspekten ab, welche z.B. von
Douglas/Wildavsky (1982) für Gesellschaften und in der Forschung zur individuellen Wahrnehmungen von
Risiken z.B. von Slovic (2001) untersucht worden sind. Aufgrund all dieser Aspekte kann es keine einfache
Risiko Gegenüberstellung geben, welche einem klar dabei hilft Prioritäten zu setzen. Risikomanagement ist
deshalb vor allem ein Aushandlungsprozess.
Fazit
Das Eintreten absoluter Sicherheit bzw. die gänzliche Abwesenheit von Risiko ist unrealistisch und in den
meisten Situationen findet ein Abwägen zwischen verschiedenen Optionen mit je unterschiedlichen Risiken
4 In konstruktivistischen Ansätzen wiederum ist das Vorhandensein einer realen Gefahr kaum von Bedeutung, der Fokus liegt alleine
darauf wie innerhalb Gesellschaften bestimmte Bedrohungen/Risiken diskursiv geschaffen werden (siehe grundlegend dazu Foucault
(1982)).
9
Integrative Risk and Security Research
Volume 3/ 2015
statt. Zudem ist häufig Prozesswissen vorhanden, aber Informationen (Daten) über eine bestimmt Situation
fehlen. Der Ruf nach noch mehr Wissen, um diese Situation zu verbessern, wird hier nur bedingt erfolgreich
sein. Wie auch in der Publikation von Spiekermann et al. dargelegt wird:
„The (research) gap between knowledge of risk, its interpretation and action allows us to re-confirm that a
lack of knowledge is not the key challenge. The issue related to increasing disaster losses lies much more
with risk interpretation and understanding, mentalities across scales, power structures, personal
attitudes, values, world views and budget constraints. […] It appears that the focus on `the knowledge
gap` can legitimately be questioned.” (Spiekermann et al. 2015:107)
Die obigen Ausführungen stellen nur einen ersten Ansatz dar, die Bedeutung von Wissen, Erfahrung und
Lernen differenzierter zu betrachten. Bei Aussagen wie „hätten wir das gewusst“, muss man sich klar machen,
dass mit dem „gewusst“, so wohl Zugang zu Informationen/Daten, Wissen über Zusammenhänge, als auch
Erfahrung gemeint sein können. Zudem sollte man stets die Frage danach stellen, welchem Akteur Wissen
oder Erfahrung fehlen, bzw. wo Lernprozesse nicht stattgefunden haben.
Absolute Sicherheit ist eine Illusion. Vielleicht gilt es deshalb v.a. stets Vorsicht walten zu lassen und auch auf
unerwartete bzw. sogar unbekannte Ereignisse vorbereitet zu sein. Die im Rahmen der Resilienz-Diskussion
angebotenen allgemeinen Faktoren der Stärkung von Resilienz, wie zum Beispiel Diversifizierung und
Pufferkapazität, sind zum Beispiel nicht auf das Wissen um konkrete Gefahren und deren potenziellen
Auswirkungen angewiesen. Auch was allgemeine Faktoren der Bewältigung angeht, lassen sich viele
allgemeine Prinzipien finden, welche die Reaktion auf jegliche Art von Ereignis ermöglichen.
Literaturverzeichnis
Douglas, M & Wildavsky, A 1982, Risk and Culture: An Essay on the Selection of Technical and Environmental
Dangers, University of California Press, Berkeley, CA.
Donahue, AK. & Tuohy R, 2005, ‘Lessons we don’t Learn: A study of the Lessons of Disasters, why we repeat
them, and how we can learn them’, Homeland Security Affairs, vol. 2, no. 2, Available from:
www.hsaig.org
Foucault, M 1982, Structuralism and post-structuralism. Telos 55, pp. 95-211.
Grant, K 2007, ‘Tacit knowledge Revisited – We Can Still Learn from Polanyi’, The Electronic Journal of
Knowledge Management, vol. 5, no. 2, pp.173-180.
Horrigan PG 2007, Epistemology: An Introduction to the Philosophy of Knowledge, iUniverse, New York
IPCC 2014, Climate Change 2014: Impacts, Adaptation, and Vulnerability. Part A: Global and Sectoral Aspects.
Contribution of Working Group II to the Fifth Assessment Report of the Intergovernmental Panel on Climate
Change, Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA,
Klein G 1998, Sources of power: How people make decisions, MIT Press, Cambridge, MA.
Luhmann, N 1993, Risk: A Sociological Theory, de Gruyter, New York.
Polanyi, M 1966, The tacit dimension, Doubleday, Garden City
Renn, O 2008, ‘Concepts of Risk: An Interdisciplinary Review – Part 1: Disciplinary Risk Concepts’, GAIA, vol. 17,
no.1, pp.50–66.
Slovic, P 2001, ‘Trust, emotion, sex, politics, and science: surveying the risk-assessment battlefield’, Risk
Analysis, vol. 19, no. 4, pp. 689–701.
Spiekermann, R, Kienberger, S. Norton, J, Briones, F & Weichselgartner, J 2015 ‘The Disaster-Knowledge Matrix
– Reframing and evaluating the knowledge challenges in disaster risk reduction’, International Journal
of Disaster Risk Reduction, vol. 13, pp. 96-108.
Davies, M. 2001, ‘Knowledge (Explicit and Implicit): Philosophical Aspects’, International Encyclopedia of the
Social & Behavioral Sciences. Elsevier, pp. 8126-8132
Weichhart, P 2007, ‚Risiko-Vorschläge zum Umgang mit einem schillernden Begriff‘, Ber. z. dt. Landeskunde,
vol. 81, no. 3, pp. 201-214.
10
Macht allein Schaden klug?
Räumliche Ordnung in Trénelle-Citron:
Risiko, Sicherheit und Klientelismus
Johannes Bohle
Email: johannes.bohle@uni-bielefeld.de
Einleitung
Das Leben der Menschen im martinikanischen Marginalviertel (‚Bidonville‘) Trénelle-Citron ist mit Risiken, die
durch das Siedeln in dem Überschwemmungen und Erdrutschen ausgesetzten Gebiet entstehen, verbunden.
Regelmäßig auftretende klimatische Erscheinungen wie starke Regenfälle oder Wirbelstürme führen in
Verbindung mit der Topographie des Gebiets, der Siedlungsstruktur des Viertels und dem Zustand der
Bebauung immer wieder zu Schäden. Die Erhöhung der Sicherheit in diesem Gebiet ist ein dominanter
Diskurs in der lokalen Raumplanung. Die im Kontext dieses Sammelbandes aufgeworfene Leitfrage ‚Macht
Schaden klug?‘ gilt es für das Fallbeispiel Trénelle-Citron differenziert zu beantworten. Vor allem in
Expertendiskursen wird thematisiert, dass die Besiedlung eines Gebietes wie Trénelle-Citron mit großen
Risiken behaftet ist und die regelmäßig entstehenden Schäden zu einem Umdenken oder Lerneffekt der dort
lebenden Bevölkerung führen müssten. Im Gegensatz hierzu dominieren Praktiken, die den Status quo
festigen. In diesem Spannungsfeld treten im vorliegenden Fallbeispiel zwei Dinge deutlich zutage: Erstens,
Menschen leben trotz der Risiken in diesem Gebiet. Zweitens, hinter der Idee des ‚klug-werdens‘ steckt ein
normatives Verständnis von Lernen und Entwicklung im Sinne von linearem Fortschritt zu mehr Sicherheit.
Prägende Faktoren für den Umgang mit Risiken in Trénelle-Citron sind vor allem sozio-ökonomische
Bedingungen, soziale Kohäsion und Klientelismus. Hier stellt sich weniger die Frage, ob Schaden klug macht‚
sondern eher wie das Verhältnis von Sicherheit und Risiko bestimmt wird. Nichtsdestoweniger birgt die
Leitfrage des Sammelbandes einen fundamentalen Aspekt im Umgang mit Risiken, nämlich die Rolle von
Wissen. Folglich rückt, nach Michel Foucault, die Analyse der Machtmechanismen, die Wirkungsweisen des
Wissens aufzeigen soll, ins Zentrum der Untersuchung. Für Foucault sind nicht nur Macht und Wissen,
sondern auch Risiko und Sicherheit untrennbar verflochten (Foucault 2004a). In dem französischen
Überseedepartement Martinique wird aktuell dieses Verhältnis von Risiko und Sicherheit neu ausgehandelt.
Ausdruck hierfür sind beispielsweise die in den letzten Jahren veröffentlichten Raumordnungspläne und
gesetzliche Verordnungen. In Trénelle-Citron treffen konfligierende Diskurse um Sicherheit, Risiko, Identität
und Entwicklung aufeinander.
Das vorliegende Fallbeispiel untersucht welche Diskurse die räumlichen und gouvernementalen Ordnungen
des Viertels strukturieren. In einem ersten Schritt werden Hintergrundinformationen zur Genese und
Relevanz des Viertels gegeben. Anschließend werden relevante Texte diskursanalytisch untersucht und mit
Beobachtungen und Interviews ergänzt. Dabei wird aufgezeigt, warum es für geographische Forschung in
der Karibik wichtig ist, die Felder Sicherheit, Risiko und Entwicklung konzeptionell zusammenzudenken.
Außerdem gilt es für lokale Besonderheiten wie ausgeprägten Klientelismus sensibel zu sein. Als empirische
Basis der Analyse dienen eine Auswahl prägender Texte, sowie ergänzende Beobachtungs- und
Gesprächsnotizen. Die Analyse umfasst die gegenwärtige Gesetzesgrundlage zur Raumordnung in den
französischen Überseedepartements (Gesetz 2011-725, genannt 'Loi Letchimy'), Raumordnungsinstrumente
(wie den ‚Plan Prévention des Risques‘, den ‚Plan local d’urbanisme‘ und die ‚Analyse des risques du quartier
Trénelle‘), sowie relevante wissenschaftliche Veröffentlichungen, die sich mit der Raumordnung in den
Marginalvierteln von Fort-de-France auseinandersetzen. Da sich die Dokumenttypen stark unterscheiden
und nicht gleich gewichtet werden können und sollen, kann ein diskursanalytischer Zugang nur der
Ausgangspunkt der Analyse und nicht die zentrale Methode sein. Entsprechend entwickelt dieser Beitrag
einen gouvernementalitätsanalytischen Zugang. Die Diskussion und Analyse der Raumordnungsinstrumente
wird im Folgenden einen größeren Raum einnehmen als die Diskursanalyse der wissenschaftlichen
Veröffentlichungen, da die Raumordnungsinstrumente für den Alltag der Bevölkerung mehr Relevanz
besitzen. Die Leitfrage der Analyse lautet, welche gouvernementalen Praktiken vor Ort präsent sind und
welche Effekte diese haben.
11
Integrative Risk and Security Research
Volume 3/ 2015
Zusammenfassend lässt sich feststellen, dass Diskurse um ‚Risiko‘ und ‚(Un-)Sicherheit‘, ‚Identität‘, sowie
‚Entwicklung‘, ‚Fortschritt‘ und ‚Erbe‘ konkurrieren und das Leben im Viertel strukturieren.
Trénelle-Citron: Geschichte und Genese
Das Marginalviertel Trénelle-Citron liegt am nördlichen Stadtrand der martinikanischen Hauptstadt Fort-de-
France und ist durch die Umgehungsstraße von der Stadt getrennt. Martinique ist ein französisches
Überseedepartement auf den kleinen Antillen, Teil der Europäischen Union und der Eurozone. Nach dem
letzten Ausbruch des Vulkans ‚Montagne Pelée‘ 1902, der die damalige Hauptstadt St.Pierre vollständig
zerstörte, wurde Fort-de-France Hauptstadt und sozio-ökonomisches Zentrum von Martinique. Anfang der
1950er Jahre stieg die Bevölkerungszahl rapide an, von 60.000 1954 auf knapp 100.000 im Jahr 1969
(Martouzet 2002). Aktuell zählt die Kommune Fort-de-France 87.000, die Agglomeration Fort-de-France rund
162.000 EinwohnerInnen (INSEE 2014). Das Bevölkerungswachstum der 1950er und 1960er Jahre lässt sich in
erster Linie auf den Niedergang des Zuckerrohranbaus zurückführen, welcher zu einer massiven Landflucht
geführt hat. Die ankommende ländliche Bevölkerung siedelte in einem Ring um die Kernstadt von Fort-de-
France. Dabei handelt es sich um Gebiete, die entweder direkt an der Küste, an Flussläufen, oder an steilen
Hängen liegen. Die Kernstadt selbst liegt in einer trockengelegten Mangrove (Saffache 2000). Mit anderen
Worten, die Etablierung von Siedlungen in und um Fort-de-France ist mit vielerlei Risiken behaftet, vor allem
Überschwemmungen und Hangrutschungen, aber auch Gewalt und soziale Probleme tauchen als
dominante Gefahren in den Alltagsdiskursen auf.
Abbildung 1: Verortung (Karte wird noch erstellt)
Entwurf: Bohle, Karte: Cruse
Trénelle-Citron ist eines jener Viertel von Fort-de-France, die in der Nachkriegszeit entstanden. Es bedeckt
einen Hang zwischen dem Flussbett der ‚Rivière Madame‘ im Westen und der Spitze des ‚Morne Garnier‘ im
Osten. Das entspricht einer Fläche von knapp 37 Hektar und einem Höhenunterschied zwischen Flussbett
und Gipfel von 110 bis 130 Metern. Heute leben in Trénelle-Citron Schätzungen zufolge rund 8000 Menschen
(Mavoungo & Saffache 2005). Die Besiedlung erfolgte unstrukturiert und illegal und lässt sich grob in vier
Phasen untergliedern. In einer ersten Phase (‚la squattérisation‘) wurde ab Ende der 1940er Jahre das Land
besetzt und erste, provisorische Unterkünfte, vor allem aus Holz und Wellblech, errichtet. Die zweite Phase
war gekennzeichnet durch die Errichtung von Häusern, die der im ländlichen Raum verbreiteten ‚Case Créole‘
angelehnt waren. Das bedeutet, dass kleine einstöckige Holzhäuser mit Lehmboden errichtet wurden, die
sich meistens um einen als Hof freigelassenen Raum gruppierten. Diese wurden in einer dritten Phase im
12
Macht allein Schaden klug?
Laufe der Zeit bei Verfügbarkeit entsprechender Materialen umgebaut und verstärkt. Auf diese Weise
entsteht ein Haus aus Ziegel und Beton, welches dann in die Höhe erweitert werden kann. Charakteristisch ist
die nachbarschaftliche Unterstützung beim Bau, ‚technique du coup de main‘ genannt. Die entstandene
Struktur aus baulichen Einheiten, die einen Innenhof (‚lakou‘ im Französisch beeinflussten Kreolisch,
respektive ‚yard‘ im Englisch beeinflussten) umschließen sind typisch für den urbanen Raum der karibischen
Inseln und hat zu einer Fülle von spezifischen sozialen Praktiken geführt, welche den Zugang und das
Zusammenleben regeln (Saffache 2000). Eine Beschreibung dieser Praktiken liefert beispielsweise der
Schriftsteller Patrick Chamoiseau in seinem preisgekrönten Werk ‚Texaco‘: „All diese Hütten bildeten ein
Krebsspinnennetz, in dem wir büschelweise lebten. Noch vor der Gemeinschaft der Menschen entstand die
Gemeinschaft der Hütten, die sich gegenseitig stützten, Hand in Hand mit der abschüssigen Erde verknüpft,
[…]. Um einen Durchgangsweg zu betreten (sie führten durch die Leben, die Intimitäten, die Träume und die
Schicksale), mußte man ein Bonjou-konpangni rufen, ein Bonswa-misié-dame und um Durchlaß bitten;
manchmal mußte man stehenbleiben und sich nach diesem oder jenem erkundigen. War man auf diesen
oder jenen wütend, mußte man eben einen Umweg in Kauf nehmen“ (Chamoiseau 1995, S.334; Hervorh. und
Rechtschreibung im Original). Durch die Bebauung und die Topographie des Viertels ist die automobile
Zirkulation innerhalb des Viertels stark eingeschränkt. Viele Häuser sind nur, wie von Patrick Chamoiseau
anschaulich beschrieben, über Treppen oder über Innenhöfe zu erreichen. Deshalb wird beispielsweise die
Post auf einem Quad ins Viertel gebracht und dann zu Fuß verteilt. Auf der einzigen Buslinie die Trénelle-
Citron mit der Innenstadt verbindet werden Minibusse eingesetzt, die klein genug sind um auf der breitesten
Straße bis zur Schule in Citron verkehren zu können. Das Resultat dieser Form der Besiedlung ist ein Viertel
mit großem sozialen Zusammenhalt und erschwertem Zugang von außen.
Abbildung 2: Ansicht von Trénelle aus Südwesten
Quelle: Bohle 2009
Die Besiedlung des Gebietes wurde von Beginn an von dem Bürgermeister der Stadt, Aimé Césaire, der Fort-
de-France von 1945 bis 2001 regierte, nicht nur toleriert, sondern aktiv gefördert. Das Viertel wurde relativ
schnell an die städtische Versorgung angeschlossen. Gleichzeitig wurden die in das Viertel ziehenden
(Land)ArbeiterInnen diskursiv als Basis einer neuen selbstbewussten schwarzen martinikanischen Identität
konstruiert. Für diesen Diskurs zeichnet sich auch vor allem Aimé Césaire verantwortlich, der zudem lange
Zeit Vorsitzender der Parti Progressiste Martiniquais (PPM), einer antikolonialistische-sozialistische Partei, war
(Césaire 1956 [1939]). Deren Basis lag und liegt in den Marginalvierteln von Fort-de-France. Trénelle-Citron ist
13
Integrative Risk and Security Research
Volume 3/ 2015
eine Hochburg der Parti Progressiste Martiniquais, diese hat bis heute dort ihr Hauptquartier (Mavoungo &
Saffache 2005). Sie stellt auch seit 2001 weiterhin den Bürgermeister von Fort-de-France. Bei Fragen der
Raumplanung und Raumnutzung hat die kommunale Ebene im französischen Rechtssystem weitreichende
Kompetenzen, weshalb die BürgermeisterInnen auf Martinique über viel Gestaltungsfreiheit verfügen.
Dadurch wird eine so enge Verflechtung zwischen einem Viertel und einer politischen Person und ihrem
politischen Programm, wie im vorliegenden Fall, erst möglich. In Trénelle-Citron sind beispielsweise die
Straßen und Wege nach lokalen und internationalen Persönlichkeiten benannt, die sich gegen Sklaverei und
Kolonialismus engagiert haben. Außerdem sind Schilder mit Auszügen aus Aimé Césaires Gedichten über das
Viertel verteilt aufgestellt, welche die enge Bindung zwischen dem Viertel und der antikolonialistischen und
identitätsstiftenden Poesie und Politik Aimé Césaires unterstreichen.
Abbildung 3: Tafel mit Aimé Césaires Poesie in Trénelle-Citron
Quelle: Bohle 2015
Klientelismus und Garrison-Politics in der Karibik
Trénelle-Citron steht emblematisch für die marginalisierten Viertel von Fort-de-France, es nimmt vor allem
durch die starke Bindung zur Parti Progressiste Martiniquais eine Art Vorreiterrolle ein und ist somit ein
aufschlussreiches Beispiel für Klientelismus in dem mittels Stadtplanung eine Basis an Wählerstimmen
gewonnen wird. Hierfür lassen sich auf den Antillen viele weitere Beispiele finden. Das prominenteste
Beispiel stellt Kingston auf Jamaika dar. Die dortige extreme Ausprägung des Klientelismus wird als ‚Garrison-
Politics‘ beschrieben. Garrison-Politics sind der prägende Aspekt städtischer Entwicklung seit den 1940er
Jahren, also in einem ähnlichen zeitlichen Rahmen wie in Trénelle-Citron. Garrison-Politics bezeichnet in
Jamaika eine Form politischen Klientelismus, in dem PolitikerInnen staatliche Ressourcen nutzen, um sich
Wählerstimmen zu sichern. Dies geschieht vorrangig durch die Versorgung loyaler UnterstützerInnen mit
günstigem Wohnraum und Arbeitsplätzen. Die beiden führenden Parteien JLP (‚Jamaica Labour Party‘) und
PNP (‚People’s National Party‘) benutzten vor allem soziale Wohnbauprojekte (‚Garrisons‘) um ihre
Anhängerschaft mit Wohnraum zu versorgen und auf diese Weise räumlich zusammenzufassen. Die
überwiegend in den 1960er Jahren errichteten Garrisons spiegeln das oben beschriebene Muster von um
einen Hof gruppierten Gebäuden wieder. Neu an diesen Einheiten war, dass es sich um mehrstöckige
Vielfamilienhäuser handelt, wie in der folgenden Aufnahme der Garrison ‚Rema‘ in West Kingston zu
erkennen ist. Der Mauerdurchbruch ist einer von zwei Zugängen, der breitere Zugang auf der anderen Seite
der Garrison ist durch Barrikaden aus Schrott, Holz und Autoreifen verengt, so dass dort auch nur
FußgängerInnen passieren können und der Zugang schnell komplett geschlossen werden kann.
14
Macht allein Schaden klug?
Abbildung 4: Ansicht von Rema (Kingston, Jamaika) aus Westen
Quelle: Bohle 2014
Parallel wurde von verschiedenen Seiten eine Vielzahl an Waffen in die Garrisons gebracht und genutzt um
Raum- und Machtansprüche mit exzessivem Gewalteinsatz zu unterstreichen. Die ausgelöste Spirale der
Gewalt strukturiert bis heute das Leben in Teilen von Kingston (Charles 2002; Clarke 2009; Howard 2005). Seit
Ende der 1970er Jahren lässt sich eine weitere Entwicklung in diesem Prozess beobachten: PolitikerInnen
haben die Kontrolle über die geschaffenen Garrisons weitgehend an lokale Akteure, so genannte ‚Area Dons‘
verloren, die einerseits klassisch staatliche Aufgaben wie Versorgung, Kontrolle und Rechtsprechung in den
Vierteln übernommen und andererseits neue Einkommensquellen, wie beispielsweise Drogenhandel
erschlossen haben (Jaffe 2015).
Obwohl die Prozesse in Trénelle-Citron nicht der jamaikanischen Entwicklung folgen und Gewalt und
Waffeneinsatz ein wesentlich schwächer ausgeprägtes Problem darstellt, so gilt es dennoch eine wichtige
Erkenntnis aus der Auseinandersetzung mit Garrison-Politics und Risiko zu berücksichtigen: Unter anderem
Kevin Grove (Grove 2013) und Rivke Jaffe (Jaffe 2015) haben in ihren Studien die Rolle der ‚Area Dons‘ bei
Projekten des Disaster Risk Management herausgearbeitet und aufgezeigt, inwiefern derartige Strukturen
Handeln auf eigentlich staatlichen oder kommunalen Feldern bedingen. Aus diesen Erfahrungen in Kingston
lässt sich folglich schließen, dass Akteure und Strukturen des Klientelismus im karibischen Kontext
entscheidend sind für Erfolg oder Misserfolg im Disaster Risk Management.
Sicherheit und Risiko in Trénelle-Citron
Im November 2011 trafen sich Vertreter der europäischen ‚ultra-peripheren Regionen‘ (UPR) im Rahmen
einer Konferenz in Fort-de-France und besichtigten Trénelle-Citron, um sich ein Bild von dem durch das
Gesetz Letchimy angestoßenen Programm zur Verbesserung ‚heruntergekommener Viertel und unwürdiger
Wohnverhältnisse‘ (‚Résorption d’habitat insalubre‘) zu machen. In Trénelle-Citron sind circa 2500 der 8000
BewohnerInnen von diesem Programm betroffen. Auf der Homepage der Stadt Fort-de-France werden die
Maßnahmen in Trénelle-Citron als chirurgischen Eingriff dargestellt, der gleichzeitig den historisch
gewachsenen Geist und Charakter des Viertels erhalten und den BewohnerInnen mehr Sicherheit vor
Naturgefahren bringen soll: „Il s’agit […] d’une vaste opération de chirurgie, l’enjeu étant de préserver l’esprit
du quartier tout en mettant hors de danger les habitants“ [Es handelt sich um […] einen ausgedehnten
chirurgischen Eingriff, die Herausforderung hierbei ist es, den Geist des Viertels zu bewahren und dabei
gleichzeitig die BewohnerInnen außer Gefahr zu bringen.] (Crater 2011; Übersetzung J.B.).
15
Integrative Risk and Security Research
Volume 3/ 2015
Das Zitat zeigt das Spannungsfeld, in dem über räumliche Ordnung im Viertel verhandelt wird. Der Verweis
auf Sicherheit durch institutionelle Akteure dient in diesem Kapitel als Anlass, um die Prozesse in Trénelle-
Citron mit dem Konzept der Versicherheitlichung nach der Kopenhagener Schule zu untersuchen.
Grundsätzlich beschreibt Versicherheitlichung nach der Kopenhagener Schule Prozesse mit denen staatliche
Akteure durch Sprechakte Bedrohungen für die Bevölkerung definieren und in der Folge Praktiken
etablieren, die in Abgrenzung zum Normalzustand die Bedrohung adressieren und überwinden sollen. Diese
Praktiken haben oft einen repressiven Charakter (Buzan, Waever & de Wilde 1998). Trotz vierfältiger Kritik und
Weiterentwicklungen (beispielsweise Corry 2012; vgl. auch Korf & Oßenbrügge 2010) ist das Konzept der
Versicherheitlichung nach der Kopenhagener Schule in Untersuchungen von Naturgefahren weit verbreitet
und dominiert aktuell die Forschungslandschaft. Eine Analyse nach der Kopenhagener Schule, ob in Trénelle-
Citron Versicherheitlichung stattfindet, stellt drei Leitfragen (Oels 2013): Erstens, wird ein Problem durch
Sprechakte zu einer existenziellen Bedrohung gemacht und auf diese Weise mögliche außerordentliche
Maßnahmen begründet? Zweitens, gibt es im Feld ein relevantes Publikum, das diese konstruierte
Bedrohung akzeptiert? Drittens, werden außergewöhnliche Maßnahmen ergriffen um mit der Bedrohung
umzugehen?
Vor dem Hintergrund dieser Sprechakte wird zur Analyse ein Korpus mit relevanten Dokumenten
zusammengestellt. Hierbei handelt es sich zum einen um Raumplanungsinstrumente auf nationaler,
regionaler und kommunaler Ebene (ADUAM 2008; GEOTER & Ville de Fort-de-France 2006; Letchimy 2009;
o.A. 2011; Préfecture de la Martinique 2004) und zum anderen um wissenschaftliche Texte (Audebert &
Saffache 2002; Letchimy 1992; Mavoungo & Saffache 2005; Saffache 2000).
Der Bericht von Serge Letchimy über die ‚heruntergekommenen Viertel und unwürdigen Wohnverhältnisse
in den Überseeregionen und –departements‘ (Letchimy 2009) ist eine Bestandsaufnahme des Zustandes
marginaler Siedlungen und enthält konkrete Handlungsvorschläge. Daraus ist 2011 das nationale Gesetz 725
(o.A. 2011) entstanden. Darin sind Maßnahmen zur Verbesserung der Wohnsituation in informellen und
marginalen Siedlungen geregelt. Bei diesen Maßnahmen handelt es sich vor allem um Klärung der
Besitzverhältnisse und Regelungen für Umsiedlungsprojekte. Auf regionaler Ebene gibt es den ‚Plan
Prévention des Risques‘ (Préfecture de la Martinique 2004), ein kartographisches Instrument. In diesem
werden Naturgefahren an der Küste, sowie die Naturgefahren Überschwemmung, Erdbewegungen,
seismische und vulkanische Gefahren nach Intensität und Eintrittsmöglichkeit in vier Niveaus eingestuft.
Außerdem wird die Besiedlungsstruktur in einer dreistufigen Skala erfasst. Aus dem Produkt aus
Gefahrenniveau und Besiedlungsstruktur wird eine Zonierung erstellt. Der fünfstufige Farbcode reicht von
weiß bis violett. Ziel ist es kartographisch darzustellen, welche Naturgefahren an welchen Orten wie
wahrscheinlich sind um sichereres Siedeln zu ermöglichen. Auf kommunaler Ebene gilt in der Agglomeration
Fort-de-France der ‚Plan local d’urbanisme‘ (ADUAM 2008). Dieser regelt Raumnutzung und Bebauung, nicht
nur künftige, sondern auch bestehende Bauten sollen dem Plan konform nachgerüstet werden. Als ein
weiteres Instrument der Risikoanalyse kann das Dokument ‚Analyse des risques du quartier Trénelle‘ (GEOTER
& Ville de Fort-de-France 2006) angesehen werden. Hier wurde für jede Liegenschaft in Trénelle
Informationen über den Wert und Zustand von Gebäuden, ihrer Resilienz gegenüber bestimmten
Naturgefahren, sowie mögliche Kosten von Risikominderungsmaßnahmen (Abriss, Verstärkung gegen
Erdbeben, Wirbelstürme und Erdrutsche) ermittelt.
Die zweite Dokumentgruppe umfasst wissenschaftliche Artikel (Audebert & Saffache 2002; Mavoungo &
Saffache 2005; Saffache 2000), in denen vornehmlich die Vulnerabilität der Bevölkerung des Viertels
gegenüber Naturgefahren im Vordergrund steht. Die Dissertation von Serge Letchimy (Letchimy 1992)
rekurriert vor allem auf die gewachsene gemeinsame Identität in den Marginalvierteln. Serge Letchimy ist
neben Aimé Césaire eine entscheidende Persönlichkeit für das Viertel. Er war von 1988 bis 2000
verantwortlicher Stadtplaner von Fort-de-France und wurde 2001 Nachfolger von Aimé Césaire als
Bürgermeister. Des Weiteren ist er seit 2007 Abgeordneter der Insel und seit 2010 Präsident des
Regionalparlaments.
16
Macht allein Schaden klug?
Trénelle-Citron: Raumordnungsinstrumente
In den folgenden Ausführungen wird zuerst ein Blick auf die Raumordnungsinstrumente geworfen und dabei
von der nationalen bis zur Ebene der Liegenschaft vorgegangen. Anschließend werden die Diskurse in den
wissenschaftlichen Publikationen untersucht und mit aktuellen räumlichen Praktiken in Verbindung gesetzt.
Die französische Gesetzgebung hat bislang die lokalen Besonderheiten der Überseedepartements wenig
berücksichtigt. Vor allem in den 1980er und 1990er Jahren war die Reaktion auf die entstandenen
Marginalviertel durch freiwillige und erzwungene Umquartierung in soziale Wohnbauprojekte (HLM,
habitation à loyer modéré) geprägt. Ähnlich wie in den französischen Großstädten, oder wie oben
beschrieben in Kingston, entstanden in Fort-de-France ganze Viertel, beispielsweise die ‚Cité Dillon‘, die fast
ausschließlich aus diesen Wohnblöcken bestehen. Um den negativen Folgen dieser Praxis in den
Marginalvierteln entgegenzuwirken, fordert der Bericht Letchimys Umsiedlungen zu vermeiden und den
Verbleib der Bevölkerung in den bestehenden Strukturen, wenn möglich, zu favorisieren: „[…] les opérations
de restructuration […] doivent privilégier le maintien des habitants chaque fois que la nature des lieux le
permet“ [„[…] die Restrukturierungsmaßnahmen […] sollen den Verbleib der BewohnerInnen favorisieren,
wenn das an diesem Ort möglich ist“] (Letchimy 2009; Übersetzung J.B.). Der Bericht Letchimys dient als
Vorlage für das nach ihm benannte nationale Gesetz 725 (o.A. 2011). Das Gesetz implementiert wichtige
Änderungen in die Raumordnung: StaatsvertreterInnen, auf kommunaler oder departementaler Ebene,
können per Dekret Gebäude als heruntergekommen, unhygienisch oder unsicher deklarieren und
Maßnahmen wie Renovierung oder Abriss anordnen. Titellose BewohnerInnen haben Anspruch auf
finanzielle Entschädigung, solange sie länger als zehn Jahre in ihrem Haus leben, sollte das Gebäude wegen
Umgestaltungsmaßnahmen beispielsweise abgerissen werden. Um die Umsiedlung muss sich der Staat oder
die Kommune kümmern (o.A. 2011). Zum einen wird der Kommune mehr Handlungsspielraum in der
Raumordnung gegeben (mit der Vorgabe, Restrukturierungen Umsiedlungen vorzuziehen) und zum anderen
ist es Titellosen möglich im Falle einer Umsiedlung finanzielle Entschädigung zu erhalten. Die beiden
relevanten Instrumente für die Klassifizierung von Gebäuden und Grundstücken sind der Plan Prévention des
Risques und der Plan local d’urbanisme.
Den Plan Prévention des Risques (Préfecture de la Martinique 2004) gilt es auf drei Ebenen zu lesen: Erstens,
auf der Ebene der oben beschriebenen Kategorien von Naturgefahren, zweitens, auf der Ebene aus der
Siedlungsstruktur resultierenden Herausforderungen und drittens als Synthesedokument. Für das Gebiet von
Trénelle-Citron gilt die zweithöchste Gefahrenstufe für Überschwemmungen (entlang des Ufers der Rivière
Madame). Für die Gefahr Erdbewegungen gilt ebenso die zweithöchste und in Teilen die dritthöchste Stufe.
Als gewachsenes Marginalviertel am Rand der Stadt wird Trénelle-Citrons Besiedlungsstruktur auf der
entsprechenden Karte in der mittleren Kategorie eingestuft. Im Synthesedokument (Abb. 4) ist das Gebiet
entsprechend der gelben und der orangen Zone zugeordnet. Daraus werden folgende Vorgaben für die
Raumordnung abgeleitet: Kein Bau von öffentlichen Gebäuden, bestehende private Bebauung soll sicherer
gemacht werden und geplante Bauvorhaben sollen die bestehenden Gefahren berücksichtigen.
17
Integrative Risk and Security Research
Volume 3/ 2015
Abbildung 5: Ausschnitt aus dem PPR
Quelle: Bohle 2015
18
Macht allein Schaden klug?
Valérie November (November 2002) bezeichnet Zonierung als bevorzugte räumliche Figur zur Übersetzung
von Risiko. Dem wohnt das Versprechen von Sicherheit inne, denn wer in der weißen Zone lebt, ist sicher;
wer in der violetten Zone lebt, ist in ständiger Gefahr. Vor diesem Hintergrund ist es wenig überraschend,
dass Praktiken wie Umsiedlung ergriffen werden. Der Transfer der Bevölkerung von einer (unsicheren) Zone
in eine (sichere) Zone ist Ausdruck dieser essentialistischen räumlichen Logik. Soziale Realitäten werden
hierbei nicht berücksichtigt, wie die Erfahrungen mit den Umsiedlungsprogrammen in HLM der 1980er und
1990er Jahre zeigen.
Ergänzt wird der Plan Prévention des Risques durch den Plan local d‘urbanisme (ADUAM 2008). Während der
Plan Prévention des Risques aus den berechneten Gefahren Bedingungen für bauliche Maßnahmen eines
Gebietes regelt, definiert der Plan local d‘urbanisme mit Rückgriff auf den Plan Prévention des Risques die
konkreten Bebauungsregeln. Im Plan local d‘urbanisme wird vor allem für die private Nutzung bestimmt, was
gebaut werden darf, wie gebaut werden darf und welche Nutzung erlaubt ist.
Für die vorliegende Fallstudie sind einige Artikel des Plan local d‘urbanisme besonders interessant, da sie die
Differenz zwischen juristischen Regelungen und der lokalen Realität veranschaulichen: Artikel drei definiert,
dass aus Gründen des Brand- und Zivilschutz jedes Grundstück für Fahrzeuge erreichbar sein muss. Dies ist
durch die gewachsene Struktur und Topographie des Viertels nicht gegeben, viele Gebäude sind nur über
Treppen oder Innenhöfe zu erreichen. Die bestehenden Straßen sind teilweise zu schmal für
Einsatzfahrzeuge. Artikel vier regelt den Zugang zu kommunalen Leistungen wie Trink- und Abwasser,
Elektrizität, Telefonanschluss und Abfallentsorgung. Alle Gebäude sind zwar an das Versorgungsnetz
angeschlossen, allerdings ist die Zuordnung der Leitungen zu Gebäuden schwierig, was die Kontrolle von
Nutzung und die Abrechnung erschwert. Die Abfallentsorgung ist nur dort möglich, wo die entsprechenden
kommunalen Fahrzeuge die Straßen passieren können. Die Entsorgung von Abfällen in die Rivière Madame
wird regelmäßig thematisiert. An der Rivière Madame ist laut Artikel sechs ein Korridor von zehn Metern
freizulassen. Diese Regelung ist nur teilweise umgesetzt und ein konfliktträchtiges Feld: Am Flussufer siedeln
vor allem BewohnerInnen, die später nach Trénelle-Citron gezogen sind und mit eingesessenen
BewohnerInnen über die Frage nach der Besiedlung der Uferzone in Konflikt geraten (Audebert & Saffache
2002). Artikel acht besagt, dass auf dem gleichen Grundstück ein Mindestabstand von vier Metern zwischen
Gebäuden liegen muss. Dies läuft der Struktur des ‚lakou‘ zuwider. Hier tritt die fundamentale Rolle von
Zirkulation in der Ordnung urbaner Räume zu Tage (Legg 2011). Das Ziel des Sicherheitsdispositives in den
Raumordnungsinstrumenten ist es, Zugang zum Viertel und die Zirkulation von Einsatzfahrzeugen im Viertel
zu ermöglichen.
Auf der Ebene der einzelnen Liegenschaften in Trénelle-Citron gibt es ein weiteres Instrument, die
Risikoanalyse die von der Stadt in Auftrag gegeben wurde (GEOTER & Ville de Fort-de-France 2006). Dabei
wurden alle Gebäude in Trénelle erfasst, deren Wert geschätzt und berechnet, welche Kosten für
Baumaßnahmen zur Stärkung der Widerstandsfähigkeit entstehen würden. In Abb. 5 ist das Datenblatt eines
der erfassten Gebäude reproduziert. Die Risikoanalyse umfasst Informationen wie Fotografien, Aufriss,
Grundriss, Wohnfläche, geschätzter Wert und verbaute Materialien des Gebäudes. Außerdem wird die
Verwundbarkeit des Gebäudes klassifiziert und in entsprechende Kategorien übersetzt. Mögliche Kosten für
Abriss, Umbau und Schutzmaßnahmen werden berechnet und abschließend aus den Informationen
Empfehlungen abgeleitet. Die erhobenen Daten könnten als Berechnungsgrundlage für
Restrukturierungsmaßnahmen im Sinne des Plan local d‘urbanisme und des Plan Prévention des Risques
dienen. In anderen urbanen Kontexten ließen sich die Maßnahmen auch als Ausprägung von Inwertsetzung
untersuchen. Im vorliegenden Fallbeispiel lässt sich eine solche Tendenz nicht erkennen. Aus den geführten
Gesprächen mit verschiedenen involvierten Akteuren geht hervor, dass die getätigten staatlichen
Investitionen nicht auf ökonomischen Rückfluss abzielen, sondern auf die Sicherung des sozialen Friedens.
19
Integrative Risk and Security Research
Volume 3/ 2015
Abbildung 6: Beispiel für Risikoanalyse der Liegenschaften
Quelle: GEOTER & Ville de Fort-de-France 2006
Zusammenfassend ist festzustellen, dass in den letzten Jahren eine Reihe von Dokumenten erstellt wurden,
die auf verschiedene Art und Weise die räumliche Ordnung erfassen, klassifizieren, bewerten und regulieren.
Alle diese Dokumente kreisen um Fragen der (Un-)Sicherheit, vor allem mit Verweis auf Naturgefahren. Das
bedeutet für die Bevölkerung von Trénelle-Citron, dass die Gemeinde per Erlass jedes Gebäude mit der
Begründung auf Naturgefahren oder Sicherheit abreißen lassen kann. Alle hier vorgestellten Dokumente
würden ein entsprechendes Vorgehen stützen. Die Macht dazu liegt in den Händen der Mairie, also des
Bürgermeisteramtes, das heißt seit 1945 bei der Parti Progressiste Martiniquais.
Wissenschaftliche Diskurse und lokale Praktiken
Eine Diskursanalyse der wissenschaftlichen Dokumente (Audebert & Saffache 2002; Letchimy 1992;
Mavoungo & Saffache 2005; Saffache 2000) die zum Thema vorliegen, ergibt fünf zentrale Themenkomplexe:
Verwundbarkeit, nicht-regelkonformes Verhalten, fehlende Risikokultur, Identität, Regierung und Steuerung.
Die Verwundbarkeit der Bevölkerung von Trénelle-Citron wird vor allem mit Verweis auf Naturgefahren und
soziale Charakteristika begründet. Eng hiermit verbunden sind die Verweise auf mannigfaltiges nicht-
regelkonformes Verhalten, besonders in Hinblick auf bauliche Praktiken. Mit diesen beiden Diskursen
verbunden ist jener der fehlenden Risikokultur. Unter dem Schlagwort der fehlenden Risikokultur werden
unter anderem die passive Haltung der Bevölkerung, nicht vorhandene Sensibilität für Risiken sowie
unangepasste Praktiken und Einstellungen im Umgang mit Risiken subsummiert. Diese Punkte ließen sich
auch mit fehlender Risikowahrnehmung beschreiben, aber interessanterweise wird quasi ausschließlich auf
fehlende Risikokultur rekurriert. Dieser Umstand ließe sich als Versuch interpretieren, den positiv besetzten
Diskursen über Identität und Erbe des Viertels auf dem gleichen Feld zu begegnen und entsprechend die
Frage nach dem Geist des Viertels anders zu besetzen.
In den Feldern Identität, sowie Regierung und Steuerung lassen sich Überschneidungen feststellen. Hierbei
geht es beispielsweise darum, die Bevölkerung zu kontrollieren, sie zur Räson zu bringen, beziehungsweise
nicht aufzuschrecken. Das ist verknüpft mit Verweisen auf die Umsiedlungspraktiken in HLM, die
Verflechtungen zwischen Viertel und Lokalpolitik, sowie die soziale Kohäsion des Viertels. Ähnlich wie die
20
Macht allein Schaden klug?
Dokumente der ersten Dokumentgruppe, bewegen sich die wissenschaftlichen Dokumente im
Spannungsfeld Sicherheit und Identität, wobei vor allem die Vulnerabilität des Viertels adressiert wird.
In der Zusammenschau der beiden Dokumentgruppen lassen sich die Technologien auf der räumlichen
Ebene der Bevölkerung, beziehungsweise des Milieus, als Biopolitik auffassen. Die Prozesse um Verbesserung
der ‚unwürdigen Lebensverhältnisse‘, die Risikoanalyse, die Risikokultur, etc. sind Effekte der Ausbreitung der
Sicherheitsdispositive mit dem Ziel, Kontrolle über die räumliche Ordnung zu erlangen (Rabinow 1982).
Auf der Ebene konkreter Praktiken gibt es eine Reihe von lokalen Initiativen, die unter Stichworten wie ‚Recht
auf Stadt‘ oder ‚Écoquartier‘ auf Praktiken der gewachsenen und heute noch relevanten Aneignung des
Raumes verweisen und dabei Fragen von Identität aber auch von Entwicklung, Erbe und Fortschritt
thematisieren. Auf der anderen Seite wurde damit begonnen, die in den Dokumenten angelegte
Umgestaltung durchzuführen. In einem ersten Schritt wird die bauliche Struktur des Viertels dahingehend
geändert, dass mehr automobile Zirkulation von außen und innerhalb des Viertels möglich wird. Im
Spannungsverhältnis der präsenten Diskurse von Risiko, Sicherheit Verwundbarkeit und Identität entstehen
verschiedene Räume und räumliche Repräsentationen. Trénelle-Citron als Risiko-Raum, als verwundbarer
Raum, als Lebens-Raum, als Solidaritäts-Raum.
Grenzen von Versicherheitlichung
Aus den beschriebenen Prozessen geht hervor, dass eine auf Versicherheitlichung fokussierte Analyse der
Thematik nicht gerecht wird. Sinnvoller erscheint es eine gouvernementalitätsanalytische Perspektive
einzunehmen. Denn diese fahndet nicht nach von Sicherheitsdiskursen ausgelösten großen und kleinen
Ausnahmezuständen, sondern fragt nach Subjektivierungsweisen, Problematisierungen, sowie
Rationalitäten und Technologien des Regierens (Rosol & Schipper 2014). Diese sollen im Sinne eines
zusammenfassenden Endes schlaglichtartig beleuchtet werden. Die Subjektivität der BewohnerInnen von
Trénelle-Citron wird durch Wissensformen und Regierungstechniken, sprich Techniken der Regierung des
Selbst und der Regierung Anderer, beständig ausgehandelt. Die konfligierenden Diskurse um fehlende
Risikokultur auf der einen und vielfältiger sozialer Praktiken wie der ‚technique du coup de main‘ auf der
anderen Seite veranschaulichen dies. Die Problematisierung von Sicherheit in Trénelle-Citron ist das Resultat
konkreter Diskurse und Praktiken, die es als ein zu regierendes Problem identifizieren. Spannend am
vorliegenden Fallbeispiel ist, dass die Antworten auf das konstruierte Sicherheitsproblem sehr
unterschiedlich ausfallen und sich der Prozess wie kollektives Wissen über das zu regierende
Sicherheitsproblem gebildet wird direkt mitverfolgen lässt. Dass Trénelle-Citron zum einen ein Risikoraum ist
und zum anderen Umsiedlungsprojekte wie in den 1980er und 1990er Jahren negativ bewertet werden wird
von allen Interviewpartnern als Common Sense herausgearbeitet. Welche Antworten sich auf das
Sicherheitsproblem durchsetzen ist noch umkämpft. Betrachtet man die Dokumente zur Raumordnung und
die folgenden Interventionen ergibt sich ein kleinteiliges Puzzle, aus dem als aktuell dominierende
Handlungsrationalität die Maxime der Verbesserung der Lebensumstände geht. Die ‚heruntergekommenen
und unwürdigen Wohnverhältnisse‘ sollen durch staatliche Maßnahmen verbessert werden und so die
Sicherheit des Viertels gegenüber Naturgefahren erhöht und gleichzeitig die soziale Struktur erhalten
bleiben. Die Motivation dahinter lässt sich nicht klar trennen und herausarbeiten. Klientelismus und/oder der
Wunsch die Identität des Viertels als zentraler Bestandteil einer martinikanischen Identität zu bewahren
scheinen jedoch gewichtigere Faktoren als die erhöhte Sicherheit vor Naturgefahren darzustellen.
Ausgangsbasis für die obige Analyse waren die Technologien des Regierens, konkret die Apparate, rechtliche
Regelungen und Institutionen, die bestimmte Praktiken und Problemsichten nahe legen.
Fazit
Das Leben in Trénelle-Citron ist seit der Gründung des Viertels von Unsicherheit geprägt. Unsicherheit auf
der einen Seite durch Naturgefahren, auf der anderen durch soziale Probleme wie unter anderem nicht
geklärte Besitzverhältnisse, Generationskonflikte, prekäre Lebensverhältnisse und Gewalt. In diesem
Spannungsfeld kommt der Ordnung des Raumes und den strukturierenden Technologien und Rationalitäten
eine zentrale Rolle zu (Foucault 2004a; 2004b). Risiko und Dispositive der Sicherheit sind das Ergebnis
spezifischer Rationalitäten und Technologien, die gesellschaftliche Wirklichkeiten bedingen, quantifizierbar
und dadurch regierbar machen (Mattissek 2008). Der Text stellt klassische Elemente der Raumordnung in den
Vordergrund um aufzuzeigen, dass Raumordnung „[…] nicht nur als Technik der räumlichen Gestaltung […],
21
Integrative Risk and Security Research
Volume 3/ 2015
sondern als zutiefst normative, machtgeladene und politische Technologie des Regierens […]“ (Reuber 2010,
S. 208) verstanden werden kann.
Am Beispiel Trénelle-Citron wird deutlich, dass Risiko und (Un-)Sicherheit das Ergebnis dieser Technologien
des Regierens sind. In Trénelle-Citron sind nicht Risiko und Sicherheit, sondern die Sorge um die
Verbesserung der ‚unwürdigen Lebensverhältnisse‘ die Norm, die das Handeln anleitet. Mit anderen Worten,
die anzustrebende Norm ist nicht die Sicherheit der Bevölkerung, sondern die Verbesserung der
Lebensverhältnisse, um den Status quo beizubehalten. Diese prägt die gouvernementalen Praktiken. Mit der
gouvernementalitätsanalytischen Perspektive lassen sich die Technologien und Rationalitäten des Messens,
Klassifizierens und Quantifizierens als notwendig für die Konstruktion der Problematisierung von Risiko
verstehen. Ohne den wissenschaftlichen Diskurs und die Übersetzung in Karten und Pläne wäre ein Sprechen
über Risiko und Sicherheit nicht relevant. Die Raumordnungsinstrumente legitimieren dies erst. Karten,
Pläne, Statistiken und resultierende Schätzungen von Wahrscheinlichkeiten charakterisieren die Mechanik
der Sicherheit (Foucault 2004a; Hannah 2000).
Die Raumordnungsinstrumente spiegeln den technokratischen Charakter der Rationalitäten und festigen die
Dichotomie Experten versus Lokalbevölkerung, die in den Diskursen eingeschrieben ist. Der Geist des
Viertels, beziehungsweise die Kultur des Viertels ist das am stärksten umkämpfte diskursive Feld. Hier stehen
sich zwei gegensätzliche Positionen gegenüber. Mit dem Verweis auf die soziale Kohäsion und die Identität
des Viertels, wird dem Diskurs über die fehlende Risikokultur entgegengearbeitet. Serge Letchimy verkörpert
die Spannung zwischen diesen Polen. Auf der einen Seite ist er als Stadtplaner Experte, auf der anderen Seite
begründet er seine technokratischen Lösungsvorschläge mit Verweis auf die gewachsene Identität des
Viertels (Chamoiseau 1995; Letchimy 1992; Letchimy 2009). Um der Komplexität des Fallbeispiels gerecht zu
werden, argumentiert der vorliegende Beitrag für die Bevorzugung einer gouvernementalitätsanalytischen
Perspektive gegenüber einer Analyse von Versicherheitlichung.
Zusammenfassend ist zu konstatieren, dass Diskurse um Risiko und (Un-)Sicherheit, Identität, sowie
Entwicklung, Fortschritt und Erbe konkurrieren und das Leben im Viertel strukturieren. Mit anderen Worten:
auf der räumlichen Ebene der Bevölkerung des Viertels wird Macht über Technologien der Biopolitik
ausgeübt. Dabei spielen die Konstruktion von Risiko und Sicherheitsdispositive eine zentrale Rolle. Ähnlich
wie in anderen urbanen Räumen der Karibik ist in dem erläuterten Fallbeispiel der Klientelismus eine
treibende Kraft hinter gouvernementalen Praktiken.
Danksagung
Die Feldforschung für diesen Betrag wurde finanziell unterstützt durch das Projekt „Die Amerikas als
Verfechtungsraum“ am Center for InterAmerican Studies der Universität Bielefeld. Ein erster Entwurf wurde
im Rahmen der Tagung „Politische Geographien von Entwicklung, Risiko und Versicherheitlichung“ im
Oktober 2014 an der Universität Bonn vorgestellt, vielen Dank den TeilnehmerInnen für die Anmerkungen
und Anregungen.
Herzlichen Dank an die beiden anonymen ReviewerInnen für die hilfreichen Kommentare und an die
HerausgeberInnen dieses Sammelbandes für die Aufnahme und Betreuung des Beitrags.
Auf Martinique bin ich folgenden Personen zu besonderem Dank verpflichtet: Romain Cruse für die
Erstellung der Karte; Bruno Carrer für die interessanten Gespräche über und die Exkursionen in die
verschiedenen Viertel von Fort-de-France; Serge Letchimy und Pascal Saffache für die fruchtbaren Gespräche
über Geschichte, Gegenwart und Zukunft von Trénelle-Citron.
Literaturverzeichnis
ADUAM 2008, Plan local d‘urbanisme‘ Online, ADUAM Portal [31. Juli 2014].
Audebert, C & Saffache, P 2002, Les quartier populaires de la ville de Fort-de-France. Approche socio-
historique et intégration urbaine, La géographie. Terre des Hommes, vol. 174, no.1507, pp. 20-31.
Buzan, B, Waever, O & de Wilde, J 1998, Security. A New Framework for Analysis, Lynne Rienner Publishers,
Boulder.
Césaire, A 1956 [1939], Cahier d’un retour au pays natal, Présence africaine, Paris & Dakar.
Chamoiseau, P 1995, Texaco, Piper, München & Zürich.
Charles, C 2002, ‘Garrison Communities as Counter Societies. The Case of the 1998 Zeek's Riot in Jamaica’,
Ideaz, vol. 1, no. 1, pp. 29-43.
22
Macht allein Schaden klug?
Clarke, C 2009, From Slum to Ghetto‘ in Global Change and Caribbean Vulnerability, Hg. D McGregor, D Dodman
& B Barker, UWI Press, Kingston, pp. 261-278.
Corry, O 2012, ‘Securitisation and 'Riskification'. Second-order Security and the Politics of Climate Change‘,
Millenium Journal of International Studies, vol. 40, no. 2, pp. 235-258.
Crater, C 2011, Les présidents des Régions Ultra Périphériques sont allés à Trénelle‘ Online: Homepage Ville de
Fort-de-France [31. Juli 2014].
Foucault, M 2004a, Sicherheit, Territorium, Bevölkerung, Suhrkamp, Frankfurt am Main.
Foucault, M 2004b, Die Geburt der Biopolitik, Suhrkamp, Frankfurt am Main.
GEOTER & Ville de Fort-de-France 2006, ‚Analyse des risques du quartier Trénelle‘.
Grove, K 2013, ‘Adaptation Machines and the Parasitic Politics of Life in Jamaican Disaster Resilience’,
Antipode, vol. 46, no. 3, pp. 611-628.
Hannah, M 2000, Governmentality and the mastery of territory in nineteenth-century America, Cambridge
University Press, Cambridge & New York.
Howard, D 2005, Kingston. A cultural and literary history, Signal, Oxford.
INSEE 2014, ‘Recensement de la population. 972 Martinique’, Online: INSEE Portal [15. Juni 2015].
Jaffe, R 2015, ‘From Maroons to Dons. Sovereignty, Violence and Law in Jamaica‘, Critique of Anthropology,
vol. 35, no. 1, pp. 47-63.
Korf, B & Oßenbrügge, J 2010, ‚Geographie der (Un)Sicherheit – Einführung zum Themenheft’, Geographica
Helvetica, vol. 65, no. 3, pp. 167-171.
Legg, S 2011, ‚Security, territory, and colonial populations. Town and empire in Foucault's 1978 lecture
courses‘, in Postcolonial spaces. In The politics of place in contemporary culture, eds. A Teverson & S
Upstone, Palgrave Macmillan, Basingstoke & New York, pp. 146-163.
Letchimy, S 2009, ‚L’habitat insalubre et indigne dans les départements et régions d’outre-mer: un défi à relever‘
Online: Ministère de l’intérieur, de l’outre-mer et des collectivités territoriales Portal [15. Juni 2015].
Letchimy, S 1992, De l'habitat précaire à la ville. L’exemple martiniquais, L’Harmattan, Paris.
Martouzet, D 2002, ‚Le rapport affectif à la ville, conséquences urbaines et spatiales: Le cas de Fort-de France‘,
Annales de Géographie, vol. 111, no. 623, pp. 73-85.
Mattissek, A 2008, Die neoliberale Stadt, Transcript, Bielefeld.
Mavoungo, J & Saffache, P 2005, ‚Risque sismique et vulnérabilité humaine au quartier Trénelle à Fort-de-
France‘, Écologie et Progrès, no. 4, pp. 7-17.
November, V 2002, Les territoires du risque, Peter Lang, Bern.
o.A. 2011, ‚Loi n 2011-725 du 23 juin 2011 portant dispositions particulières relatives aux quartiers d’habitat
informel et à la lutte contre l’habitat indigne dans les départements et régions d’outre-mer‘ Online:
Legifrance Portal [13. Juni 2015].
Oels, A 2013, ‚Rendering climate change governable by risk. From probability to contingency‘, Geoforum, no.
45, pp. 17-29.
Préfecture de la Martinique 2004, ‚Plan Prévention des Risques Naturels Prévisibles de la Martinique‘.
Rabinow, P 1982, ‚Ordonnance, Discipline, Regulation. Some reflections on Urbanism‘, Humanities in Society,
vol. 5, no. 3-4, pp. 267-278.
Reuber, P 2012, Politische Geographie, Schöningh, Paderborn.
Rosol, M & Schipper, S 2014, ‚Das foucaultsche Konzept der Gouvernementalität‘ in Theorien in der Raum- und
Stadtforschung, Eds. J Oßenbrügge & A Vogelpohl, Westfälisches Dampfboot, Münster.
Saffache, P 2000, ‚Origines et évolutions de l'habitat spontané en Martinique‘, Aménagement et Nature, no.
139, pp.114-120.
23
Integrative Risk and Security Research
Volume 3/ 2015
Die Einwirkung von Katastrophen in der Vergangenheit:
Eine digitale Darstellung für die Spuren des 1977 Erdbebens auf
das Magheru Boulevard in Bukarest und ihre Wechselwirkung
mit Darstellungen für die Stadt Köln
Maria Bostenaru Dan, Iuliana Armas
Email: Maria.Bostenaru-Dan@alumni.uni-karlsruhe.de, iulia_armas@geo.unibuc.ro
Einführung
Dieser Artikel beruht auf einer postdoktoralen Forschung der ersten Verfasserin (siehe Danksagung). Das Ziel
des postdoc Projektes (2014-2015) ist es, eine alternative Kartendarstellung zu den heutigen durch GIS
entworfenen Kartenbildern zu entwickeln, die besser für eine strategische Planung des
Katastrophenmanagements geeignet sein soll. Das Bedürfnis einer strategischen Planung beruht auf die
Notwendigkeit bestimmte Aktionsgebiete detailliert zu bearbeiten und daher verschiedene Maßstäbe
gleichzeitig zur Verfügung zu haben.
Im Buch „Tickle your catastrophe“ zeigt Salewski (2011) die Geschichte neuer Kartentechniken, als Antwort an
Harley (1989), die in der Kartendarstellung hilfreich sein können, da sie einerseits der strategischen Planung
dienen, andererseits sogenannte Walkscapes darstellen. Diese sind: das Szenario (Kahn, 1962) und das
“derivé“ (Debord, 1955). Die Verbindung zwischen beiden Darstellungen beschreibt unserer Ansicht nach
die Verbindung zwischen einer systemischen Vorgehensweise und der strategischer Planung. Das
Kartenkonzept in dieser Vorgehensweise unterstützt das Konzept bezüglich der Route und das Bild der Stadt
in unserem Vorschlag.
Die Pädagogik-Komponente der Katastrophen, Thema des Treffens in Köln (aus Schaden lernen), ist auch ein
Vorsatz in unserer Arbeit. Diese Komponente stützt sich auf die Vorgehensweise des „lessons learned“, wobei
man aus den vergangenen Katastrophen lernen kann. Während die Strategie als Vorgehensweise (Kahn,
1962) einen militärischen Ursprung hatte um nach und nach in verschiedene Bereiche der Wissenschaft
übernommen zu werden (von der Planung bis in die Didaktik), stammt „lessons learned“ aus dem
Projektmanagement/Wissensmanagement. Zum Beispiel hat das Earthquake Engineering Research Institute
ein Programm, das sich dem Lernen aus dem Erdbebenerfahren widmet
(https://www.eeri.org/projects/learning-from-earthquakes-lfe/). Jedes neue Ereignis wird untersucht und
Lehren für die künftige Prävention gezogen. Auch das GFZ Potsdam hat das Konzept „lessons learned“ für
das Hochwasser an der Elbe 2002 angewandt (zahlreiche Veröffentlichungen unter: http://www.gfz-
potsdam.de/forschung/ueberblick/departments/department-5/hydrologie/projekte/abgeschlossene-
projekte/lessons-learned/). Dadurch sind spätere Hochwasserereignisse nicht mehr so schadensreich
gewesen. Das pädagogische Konzept von z.B. Thomas Brückner (1998) fördert genau dieses
Wissensmanagement. Die Struktur unseres Projekts hat ihren Ursprung im
Katastrophenprojektmanagement. Insbesondere sind wir an dem virtuellen Teil bezüglich der Simulationen
interessiert. Die Simulation ist ein Werkzeug in der strategischen Planung gemäß Habitat II (das zweite
Treffen des Programms der Vereinten Nationen für menschliche Siedlungen – UN-HABITAT - United Nations
Human Settlements Programme), aber auch ein Ergebnis eines Szenarios. Derzeit werden die Ansätze für
Habitat III auf einer verbesserten Basis entwickelt. Die Simulation bildet auch eine didaktische Strategie, die
auf einer indirekten Aktion basiert (Cerghit, 2006). Simulationsbeispiele im Katastrophenmanagement waren
das Hauptthema des C3 Teilprojektes „Modellbildung und Simulation“ (Leitung Frank Fiedrich, Fritz
Gehbauer) des SFB 461 (http://www.tmb.kit.edu/SFB461_C3/projektziele/projektziele.html). In unserem
Vorhaben geht es um Multimediaunterstützung des Lernens. Das Konzept der Stadtführung in den Orten, die
als Zeugen früherer Katastrophenereignissen dienen, wird aus der physischen Welt in die Welt der Simulation
übertragen. Zum Lernen werden in unserem Ansatz digitale Spiele zur Ortung auf der Karte eingesetzt. Für
die physische Welt wurden ebenfalls Vision und strategische Planung eingesetzt, im Rahmen des AESOP
(Association of European Schools of Planning) Workshops „Becoming local“ Bukarest, im Juni 2014 (unter der
24
Macht allein Schaden klug?
Leitung von Ceren Sezer). In Debord’s Karte (1955) hat dieser die verschiedenen Bereiche der Stadt gemäß
der Psychologie beim Durchwandern der Straßen dargestellt. Dadurch wird die psychische Welt auch im
Bereich der Karten weitergegeben. Obwohl dieses Konzept bereits die Katastrophendimension in sich trägt
(gemäß Salewski, 2011), geht Gociman (2006) einen Schritt weiter, indem sie den Wiederaufbau nach
Katastrophenereignissen mit der mentalen Karte der Einwohner in Verbindung bringt. Die mentale Karte
beruht auf einem höchst erfolgreichen Konzept von Kevin Lynch, „Das Bild der Stadt“ (1960). Lynch (1960)
unterscheidet zwischen die Flächen- oder Linienmäßigkeit von Stadtbereichen (Grenzgebiet, Merkmal, Weg
etc.) wie sie in einem gut vertrauten Durchgehen der Stadt von den Bewohnern wahrgenommen werden.
Dieses Konzept ist inzwischen Unterrichtsfach an Städtebaufakultäten.
August Sander – Kriegszerstörung in Köln
Im Jahre 2010 hat die Erstverfasserin eine Archivforschung zum Thema Katastrophenphotographie aus dem
19. Jahrhundert beim Canadian Centre for Architecture durchgeführt: Feuer, Erdbeben, Überflutung, Krieg
(Köln sowie eine Pariser Kommune), Vulkane (Photograph Giorgio Sommer). Neben Naturkatastrophen
werden auch von Menschen verursachten Katastrophen photographisch dargestellt. Unter den
Archivobjekten befindet sich die Mappe vom Photograph August Sander: „Köln nach der Zerstörung“. Die
Bombardierung von Köln ist zwar nicht die bekannteste Zerstörung im 2. Weltkrieg, aber der
photographische Ansatz von Sander (1945-46) gilt als Katastrophenlehre. August Sander versuchte mit Hilfe
der Bilder eine Nachricht zu hinterlassen und zwar:
„Wer den Untergang von Köln miterlebt und überlebt hat, kann sich noch eine Vorstellung machen von dem
Vorgang der furchtbaren Katastrophe, wird es aber niemals verstehen können, denn es handelt sich ja nicht
um eine Naturkatastrophe, wie bei ‚Pompei und Herkulanum‘, sondern um ein vorsätzlich begangenes
Verbrechen durch eine ruchlose Politik, die uns Elend und Verderben gebracht hat. Die Mappe, die eine
kleine Auswahl photographischer Dokumente enthält, müssen Zeitgenossen und Nachkommen eine harte
und unerbittliche Mahnung sein. Die prophetischen Worte aber des ‘großen Führers‘ müssen eine Warnung
sein für alle Zeiten in politischen Fragen.“ (August Sander 1945-46) Abb. 1 stellt eine Liste der Kölner Orte dar,
die nach der Zerstörung für das Buch fotografiert wurden. Eine detaillierte Beschreibung befindet sich in
Bostenaru (2011a). Wir haben auch Sander‘s Buch in der Forschung miteinbezogen, obwohl es nicht aus dem
19. Jahrhundert stammt, weil es sich um dieselbe Art von Photographie handelt: künstlerische Darstellung
von Katastrophenereignissen. Im Vergleich zu Kozák und Cernák (2010) haben wir uns auf Katastrophen
konzentriert, da andere ältere Bilddarstellungsweisen von Katastrophen schon von den erwähnten Autoren
miteinbezogen wurden. Diese Art von Photographie unterscheidet sich völlig von der heutigen, die
entweder technisch ist, oder bei der es sich um Bilder handelt, die den Medien dienen.
Im Rahmen unseres Projektes arbeiteten wir daran auch das Kartenkonzept mit den Katastrophenbildern zu
verbinden. Dafür wurde ein Datenbankkonzept entwickelt und zwar eine Ontologie der Bilder (Bostenaru,
2011b). Die ontologische Vorgehensweise ist eine Möglichkeit die Bilder einiger Klassifikationskriterien
zuzuordnen. Eine andere Vorgehensweise ist das komplexe Netzwerk. Mit der Software ORA wird ein
Netzwerk der Zusammenhänge, welche diese Klassifizierungen der Ontologie folgen (Katastrophentyp, Ort,
Photograph, Zeitpunkt etc.), erstellt und die Bilder von Köln in diesem Zusammenhang genau lokalisiert. Für
ein Beispiel solcher Anwendung siehe Sun (2015). Dieses Netzwerk ist aber kartenunabhängig. Der nächste
Schritt ist die Überlappung des Netzwerks auf die Karte. In den nächsten Schritten wird mit dem Bild selber
gearbeitet und es wird ein Zusammenhang zwischen Photographie und Karte durch die in der Einführung
erwähnten, aber auch mit Hilfe weiterer Methoden hergestellt. Popa (2014) hat das Konzept der mentalen
Karte von Lynch (1960) auf die Landschaftsanalyse übertragen. Eine Ruinenlandschaft wird in unserem
Projekt auch wie eine Landschaft analysiert. Als Beispiel dient hier Abb. 2, der Anblick aus der Luft der Kölner
Innenstadt, früher und heute. Die Ergebnisse der Landschaftsanalyse lassen sich auf Karten nach der
Methode von Lynch (1960) eintragen. Man kann Merkmalruinen verwenden (die als solche sogar erhalten
werden könnten, wie die Gedächtniskirche in Berlin), aber auch weitgehend zerstörte Gebiete oder die
Führungsrouten, die in der Erkundung verwendet wurden (der mentalen Karte folgend), sowie auch die
Grenzgegend. Eine Darstellung der Lynch Methode gibt es in Bostenaru (2013). In Abb. 1 wurden diejenigen
Photos fett gekennzeichnet, die für eine solche Analyse geeignet sind. Auf dem Luftbild dient das Uferbild
der Darstellung der Silhouette, wie in Bostenaru und Panagopoulos (2014) für Lissabon.
25
Integrative Risk and Security Research
Volume 3/ 2015
Partie am Dom
Altstadt am Dom
Detail des Doms
Die Rheinfront mit Dom
Blick vom Dom auf Deichmannhaus und Jesuitenkirche
St. Aposteln
Der Neumarkt mit St. Aposteln
Blick vom Dom auf Hbf., Deichmannhaus und Jesuitenkirche
Aus der Altstadt
Die Hohestraße
Hohenzollernbrücke
Blick vom Dom auf Hohenzollernbrücke + Messegelände
Der Neumarkt mit St. Aposteln
Hohenzollernbrücke
Blick vom Dom auf die Altstadt mit Rheingelände
Eigelstein
Zeughaus
St. Martin und Stapelhaus
St. Gereon (2)
Partie um die Elendskirche
Blick auf St. Gereon
St. Maria im Kapitol
Severinsviertel
Deutscher Platz mit Hochhaus
Jesuitenkirche
Jesuitenkirche am Hbf.
St. Pantaleon
St. Ursula
Georgskirche
„Kraft durch Freude“
Der Ausblick eines Kölners aus seinem Fenster
Dürenerstraße
Abbildung 1: Liste der Bilder im Buch von August Sander (siehe Legende weiter im Text)
Quelle: Eigene Darstellung
Abbildung 2: Luftbild der Innenstadt Köln mit Sanktaposteln, jetzt und zuvor. Photo: jetzt (links) Bostenaru, 2000, dann (rechts), August
Sander: Blick vom Dom auf die Altstadt mit Rheingelände, 1945-1946, Plate 5 from the portfolio Köln nach der Zerstörung 1945-1946,
vol.1, Gelatin silver print, 22,1 x 28,9 cm, Collection Centre Canadien d'Architecture/Canadian Centre for Architecture, Montréal,
PH1982:0018.01:005 © Photograph. Samml./SK Stiftung Kultur – A. Sander Archiv, Köln, VG Bild-Kunst, Bonn 2015.
Die einzelnen Ruinen sind auch wichtig als Merkmale auf der Karte, oder als Knotenpunkte der
Führungsroute. Diese Möglichkeit wird in einer eigens entwickelten und im Folgenden präsentierten
Multimediaanwendung dargestellt. Für diese Anwendung haben wir die fett geschriebenen und
unterstrichenen Bilder in Abb. 1 ausgewählt.
Multimedia Anwendung – Darstellung der Stadt Köln
Multimedia Anwendungen werden in diesem Jahrtausend immer häufiger zur Darstellung
geisteswissenschaftlicher Inhalte verwendet, darunter zählen auch die virtuellen Reisen (sog. „armchair
travel“ auf dem Bildschirm, vertraut um 2000 http://www.armchair-travel.com/). Im Jahr 2000 hat die
Erstautorin an einer solchen multimedialen Führung für die Stadt Köln gearbeitet und gleichzeitig die Stadt
zum Anlass des Multimediatreffs besucht. Die Führung wurde mit der Autorensoftware Macromedia (jetzt
Adobe) Director gemacht und das Multimediatreffen wurde den Anwendungen dieser Software gewidmet,
unter der Anwesenheit von Mitglieder des Entwicklungsteams aus San Francisco.
In Hughes (1999) bekommt man einen guten Überblick der Positionierung dieser Autorensoftware in der
Geschichte der Multimedia. Wie Kahn (1962) und Debord (1955) stammt das Konzept der Software auch von
der Art wie Filme gedreht werden. Grundkonzepte wie „score“ (die Bühnensteuerung in der
Computeranwendung) belegen es. Die geplante Anwendung enthält die folgenden Momente: Zeitleiste,
Führung, Quiz (Spiel). Die Führung erfolgt auf einer Karte. Die Knoten des Netzwerks, das der Fußgänger in
der Erkundung der Stadt verfolgt, blenden beim Überfahren mit der Maus ein historisches Bild ein. Wenn
26
Macht allein Schaden klug?
man auf ein Bild klickt, dann kommt seine Beschreibung auf dem Bildschirm. In der Darstellung wird außer
Bild und Text auch Ton eingesetzt.
Das Spiel lässt heutige Merkmale auf einer historischen Karte positionieren nach dem Prinzip des Puzzles,
eine Methode die viele auf Director oder der verwandten Software Flash basierende Lernspiele anwenden
(z.B. http://www.artnouveau-net.eu/Netzwerk/Aktion/Kinder/tabid/831/language/ de-DE/Default.aspx). In
Abb. 3 werden einige Details zu diesen Bereichen der Anwendung gezeigt. Die Anwendung ist somit
interaktiv (der Nutzer wählt den Zeitpunkt auf der Zeitleiste, den Ort in der Führung oder im Quizz), aber
noch in 2D. Die Übertragung des Konzeptes in 3D für Lissabon (Bostenaru und Panagopoulos, 2014) gibt
Details dazu und zeigt wie die Knotenpunkte und das Puzzle entstehen. In dieser Übertragung wird
außerdem klar, wie die zwei Karten – die heutige und die historische – in der Darstellung einer Katastrophe
interagieren können. Denn die Darstellung einer Katastrophe ist auch eine Reise, eine Reise zu den sog.
„Lieus de memoire“, Orte der Erinnerung (Nora, 1998).
Zeitleiste
57-455 Römerzeit
456-911 Frankenzeit
912-1475 Mittelalter
1476-1794 freie Reichstadt
1795-1814 französische Herrschaft
1815-1918 Preußen in Köln
1919-1932 Weimarer Republik
1933-1945 Dritter Reich
1945-2000 von der Trümmerlandschaft zu Medienmetropole
Führung: Knotenpunkte
St. Aposteln
Kölner Dom
Hohenzollernbrücke
Fischmarkt
Wallraf-Richartz Museum
Heumarkt
St. Georg
Quiz (Spiel):
Zu orten:
Römisch-germanisches Museum, südlich des Doms
Der Dom
Kölsch – Heumarkt
Hohenzollernbrücke
Karte von 1633
Abbildung 3: Details der Multimediaanwendung
Quelle: Eigene Darstellung
Übertragung des Konzeptes
Zurzeit arbeiten wir an der digitalen Darstellung der Einwirkung des Erdbebens 1977 auf ein zentrales
architektonisch und städtebaulich geschütztes Gebiet in Bukarest, das Magheru Boulevard. Aus dem
Erdbeben 1977 kann man lernen, indem man die statistischen Werte betrachtet und anhand ihrer
Eigenschaften (wie Höhe, Baustoff, Alter etc.) Rückschlüsse zieht, welche Bauten für diese Lage am meisten
gefährdet sind. Eine alternative Methode wäre es jedoch nach vereinfachten Berechnungen, wie die
Ingenieure das machen, vorzugehen. Für diesen Zweck haben wir in den Archiven der Stadt Bukarest sowie
in den Nationalen Archiven geforscht, denn für die vereinfachten Berechnungen ist es nötig auf der Ebene
des Gebäudemaßstabes zu arbeiten anhand der Gebäudepläne aus den Archiven. Somit wird der Schritt der
Detaillierung erreicht, der für die strategische Planung nötig ist, und in den GIS Layer nicht dargestellt wird.
Vereinfachte Modelle werden aus den realen Gebäuden, anhand der Häufigkeit ihres Auftretens, abgeleitet.
Das führt zu unserem Konzept der digitalen Darstellung. Statt, wie es in GIS üblich ist, verschiedene
Schichten der unterschiedlichen Datensätze darzustellen, stellen die Schichten in dem von uns
vorgeschlagenen Konzept verschiedene Maßstäbe der Karten dar. Das entspricht dem modernen Ansatz der
strategischen Planung. Im Risikomanagement für Katastrophen lässt sich die strategische Planung als
Planung für Resilienz übersetzen. Wir verstehen Planung für Resilienz als die höchste Stufe der Planung zur
Katastrophenvermeidung, nach Wiederaufbau-, Vorsorge- und Milderungsplanung. Wir bringen die
städtische Morphologie und die Risikobewertung in Verbindung um die Resilienz zu bestimmen. Dafür
werden, wie in der strategischen Planung, bestimmte Gegenden im Detail betrachtet, wie z.B. die
gefährdeten Bauten und digital auf einer anderen Detailebene dargestellt. Bevor das möglich ist wird mit
27
Integrative Risk and Security Research
Volume 3/ 2015
historischen und zeitgenössischen Karten gearbeitet. Wir entwerfen Routen welche die Einwirkung einer
Katastrophe in das heutige Stadtbild lokalisieren, nach dem Prinzip das für Köln angewandt wurde.
Danksagung
Dr. Dipl.-Ing. Maria Bostenaru Dan möchte sich für die Unterstützung durch das Projekt „Digitale Mittel für
die Darstellung und Analyse der Katastropheneinwirkung (Impact) auf bewohnte Gebiete“ strategic grant
POSDRU/159/1.5/S/133391 bedanken, während Prof. Dr. Iuliana Armas Projektleiter für das Projekt REVEAL
„Spatial and temporal patterns of urban vulnerability“ ist.
Literaturverzeichnis
Bosteanru Dan, M 2011a, ‘The use of ontology for digital conservation of architecture works after
catastrophes’, Journal of Applied Engineering Sciences; no1, vol.14, pp.11-18.
Bostenaru Dan, M. 2011b, Destruction: The Impact of Catastrophic Events on Architecture. Safeguarding the
Memory of Ruins by Photography’, e-conservation magazine, vol. 20, pp. 67-81.
Bostenaru Dan, M 2013,’ Management of innovation innovation policy in the urban development’, Urbanism.
Arhitectură. Construcţii, vol. 4, no. 2, pp. 3-18.
Bostenaru Dan, M 2015 ‘Hard Copy” Building Model versus Digital Webpage Serving the Representation of
Concepts in Architecture Design and in Scenographic Design, Review of European Studies, DOI
dx.doi.org/10.5539/res.v7n3p
Bostenaru Dan, M & Panagopoulos, T 2014, Digital representation of the impact of the 1755 Lisbon earthquake,
Editura Universitara „Ion Mincu“, Bucharest.
Bostenaru Dan, M, Craciun, C (Hrsg.) Space and time visualisation, Springer, Dordrecht, 2016.
Cerghit, I 2006, Metode de învăţământ, Polirom, Bucharest.
Harley, JB 1989, Deconstructing the map, Cartographica: The International Journal for Geographic Information
and Geovisualization, vol. 26, no. 2, 1-20, DOI 10.3138/E635-7827-1757-9T53.
Hughes, B 1999, Dust or Magic. Secrets of Successful Multimedia Design (Reprinted as Creative Work in The
Digital Age). Addison-Wesley, Harlow.
Kahn, H 1966, Thinking about the unthinkable. Horizon Press.
Kozák, J, Cernák, V. 2010, The illustrated history of natural disasters, Springer, Dordrecht.
Lynch, K 1960, The image of the city, MIT Press, Cambridge MA.
Nora, P 1998, Zwischen Geschichte und Gedächtnis, Fischer Taschenbuch, Frankfurt a. M.
Popa, A 2014, ‘Photography as Exercise of Memory in Order to Reassess, Recompose and Revive Landscapes’,
in Planning and Designing Sustainable and Resilient Landscapes, eds Craciun, C., Bostenaru Dan Maria,
Springer, Dordrecht, 2014, pp. 61-70.
Salewski, C 2011, Dr. Strangelove, I Presume – On the relation between scenarios and paranoia, in
Le Roy, F., Wynants, N., Hoens, D., Vanderbeeken, R. (Hrsg.): Tickle your catastrophe, Academia Press, Gent, P.
187-196.
Sun, Y 2015, ‚The Social Network behind an Architectural Style over Space and Time’, in Space and time
visualisation, eds Bostenaru Dan, M, Craciun, C, Springer, Dordrecht, 2016.
28
Macht allein Schaden klug?
Wissen und Erfahrung bei der Abwehr
von Spätfrostschäden im deutschen Weinbau
André Hoffmann
Email: hoffmann.geo@gmx.de
Einleitung
Frühjahrsfröste gehören zu den am schwersten kalkulierbaren Wetterrisiken, die im Weinbau Schäden
anrichten können. Die geländeklimatologischen und pflanzenphysiologischen Einflussfaktoren zum
verursachten Schadensumfang sind bei Starkfrost mannigfaltig. Darüber hinaus verursacht Frost – im
Gegensatz zu Hagel, Sturm oder Starkregen – besonders in Dauerkulturen einen Kumulschaden, der nur
schwer versicherbar ist. In früheren Zeiten ein bekanntes Risiko in der Weintraubenproduktion in
Deutschland, geriet diese Gefährdung in den vergangenen 30 Jahren aus dem Blickfeld der Weinbaubranche.
Erst durch verheerende Spätfrostschäden im Mai 2011 gelangte dieses Risiko wieder in den Fokus der Winzer,
verbunden mit einer großen Unsicherheit, wie damit umgehen werden soll.
Im folgenden Text soll zweierlei gezeigt werden: Zum einen geht es darum, die Gefährdung und die
Methoden der Schadensabwehr zu beleuchten, zum anderen geht es um den Umgang der Weinbaubranche
mit dieser Gefährdung. Zunächst wird erläutert, wie das traditionelle Wissen um diese Gefahr teilweise
verloren ging, verbunden mit einem Anstieg der Vulnerabilität durch den landwirtschaftlichen
Strukturwandel. Seit dem schweren Frostschaden 2011 mussten sich die Winzer in den gefährdeten Gebieten
deshalb erst wieder erneut für das Problem sensibilisieren und beginnen, im Rahmen ihres betrieblichen
Risikomanagements Abwehrmaßnahmen zu ergreifen.
Schadensgefahr durch Spätfrost im Weinbau
Wetterlagen im Frühjahr, die zu einem Spätfrostereignis führen, sind gekennzeichnet durch
Hochdruckgebiete, in denen durch Windstille und Wolkenlosigkeit bei Nacht kontinuierlich eine hohe
Wärmabstrahlung vom Boden und bodennaher Luft in die höhere Atmosphäre stattfindet, die erst durch die
Sonnenwärme des nächsten Morgens beendet wird. Dies führt zu einer nächtlichen Temperaturinversion, bei
der in Bodennähe die Temperaturen bis zu -5°C abfallen können, während in 20m Höhe über dem Boden
eine Temperaturdifferenz bis zu 10°C herrschen kann. Bedingt durch das Geländerelief kommt es v.a. auf
offenen Hochflächen zu einer erhöhten Bildung von Kaltluft, die dann viskos in Tallagen abfließt und dort
gefährliche Kaltluftseen bildet. Die Gefährdung ist also stark lagendifferenziert, verbunden damit, wie lange
die Kaltluft an der Pflanze verharrt (siehe Abb.1).
Abbildung 1: Frostgefährdete Weinbaulagen bei Nordheim/Franken (dunkel = hohe Gefahrenstufe)
Quelle: Showers et.al. 2004.
29
Integrative Risk and Security Research
Volume 3/ 2015
Für Nutzpflanzen wie der Weinrebe sind besonders die frühen Morgenstunden bis zum Sonnenaufgang
gefährlich, da im Frühjahr die jungen Triebe – incl. Stämmchen, Blättern und Blütenanlagen von wenigen
Zentimeter Länge – sehr kälteempfindlich sind und bei Lufttemperaturen ab -2°C irreparable Erfrierungen
möglich sind. Ab -4°C ist auf den betroffenen Flächen mit einem Totalschaden zu rechnen. Zwar verfügt die
Rebe über noch nicht ausgetriebene Reserveknospen, doch diese Knospen enthalten nur in geringem
Umfang Blütenanlagen. Das bedeutet, dass die Pflanze als Ganzes zwar überlebt, aber mit dem Verlust der
jungen Primärtriebe auch der Verlust einer Ernte einhergeht (Siehe Abb. 2). Der potenzielle
Gefahrenzeitraum erstreckt sich über mehrere Wochen zwischen dem Austrieb der Rebenknospen Mitte
April und den Jahrestagen der „Eisheiligen“ Mitte Mai, die aus der landwirtschaftlichen Erfahrung heraus das
Ende der Frostgefahr darstellen.
Früherer Umgang mit der Frostgefahr
Die Spätfrostgefahr war den Winzern zu allen Zeiten der Rebenkultivierung bekannt, die ältere Literatur zeigt
die umfangreiche Auseinandersetzung mit Gefährdungspotentialen und Abwehrmöglichkeiten (z.B. Kessler
et.al. 1940, Geiger 1961, Wittmann et.al. 1971).
Der Umgang mit der Gefahr beinhaltete auch aktive Frostabwehrmaßnahmen wie das Heizen (Abb. 3) oder
das Vernebeln mit Verbrennungsöfen oder die Frostschutzberegnung – sehr personal- und kapitalintensive
Methoden, die vor allem auch im Obstbau sehr verbreitet waren/sind. Dies betraf besonders
Weinbauregionen mit hoher Schadensgefahr wie die Mosel oder Franken. Weit wichtiger waren aber
präventive Maßnahmen wie beispielsweise eine genaue Auswahl der Weinbaulagen und Rebsorten, der
Geländegestaltung zum verbesserten Kaltluftabwehr (Abb.4) oder auch spezielle Anbaumethoden, bei
denen die jungen Triebe (dauerhaft oder zumindest während der Frostgefahr) über den Kaltluftsee
hinausragten. Eine gewisse Resilienz gegen gesamtbetrieblich hohe ökonomische Ausfälle wurde auch durch
die Struktur als Mischbetrieb (Wein & Obst als Marktfrüchte, Ackerbau & Tierhaltung für den Eigenbedarf)
und durch Neben- und Zuerwerbsstrukturen gewährleistet.
Abbildung 2: Dem erfrorenen Primärtrieb (links, braun) ist ein zweiter Trieb (rechts, grün) aus der Reserveknospe (sog. Beiauge) gefolgt
Quelle: Eigene Aufnahme in Rheinhessen, 4 Wochen nach Frostereignis 2014
30
Macht allein Schaden klug?
Abbildung 3: Heizöfen auf Dieselbasis, ca. 1930, im Einsatz im Obstbau
Quelle: Eigene Aufnahme im Januar 2014 im Yakima Valley-Museum in Yakima/Washington State/USA
Abbildung 4: Steuerung des Kaltluftabflusses durch Geländegestaltung
Quelle: Hoppmann 2010
Anstieg der Vulnerabilität im Weinanbau durch den landwirtschaftlichen Strukturwandel
Das Ausbleiben schwerer Spätfrostereignisse seit den frühen 1980er Jahren sorgte dafür, dass der Fokus und
das Wissen um die Schadensgefahr und das Risikomanagement gegen Spätfröste in den Hintergrund bzw. in
Vergessenheit geriet, zumal über diesen langen Zeitraum viele frosterfahrene Winzer aus dem Beruf
ausschieden. Parallel dazu sorgte der landwirtschaftliche Strukturwandel im Weinbau für ein unsichtbares
Ansteigen des Schadensrisikos:
31
Integrative Risk and Security Research
Volume 3/ 2015
Verlagerung des Weinbau in tiefer gelegenen Ebenen und Tallagen wegen besserer
Mechanisierbarkeit; gleichzeitig Aufgabe von frostsicheren Steillagen (bes. Mittelrhein, Franken,
Mosel),
Monokultur / Spezialisierung auf ein landwirtschaftliches Produkt (Weintraube) im Unternehmen,
Flurbereinigungsmaßnahmen (z.B. Großterrassen am Kaiserstuhl) sorgen für schlechten
Kaltluftabfluss,
Hohe Technik-Fixierung, weg von der arbeitskraftintensiven Wirtschaftsweise,
Kapitalorientiertes Wirtschaften,
Rückgang der Nebenerwerbsbetriebe.
Neben den Sachzwängen der technischen Mechanisierbarkeit des Weinbaus ist es der Wegfall der
traditionellen Streuung des Ernteausfall-Risikos auf mehrere Erwerbszweige und Fruchtarten, der einen
Spätfrostschaden im Weinbau heute zu einem hohen ökonomischen Risiko für ein Unternehmen macht. Das
dafür notwendige Risikobewusstsein und ein entsprechendes Risikomanagement, wie sie in der
Landwirtschaft bei der Hagelgefahr bestehen (Gehrke 2013), waren im Falle des Spätfrostes unter den
Winzern im Jahre 2011 jedoch kaum noch vorhanden.
Schweres Schadensereignis im Mai 2011
Am 4./5. Mai 2011 kam es in weiten Teilen Deutschlands zu einem starken Spätfrostereignis, das mit
schweren Schäden im Weinbau einherging. Allein in der Pfalz waren 5000 ha Rebfläche geschädigt, was
einen wirtschaftlichen Schaden von ca. 40 Mio. Euro bedeutete (Kotremba et.al. 2015). Besonders stark
betroffen waren die Anbaugebiete Pfalz und Rheinhessen mit ihren ebenen Flächen sowie Teile Frankens.
Der ökonomische Schaden wurde noch dadurch verstärkt, dass die Vorjahresernte 2010 deutschlandweit
bereits sehr gering gewesen war; außerdem war die Südpfalz 2010 von schwerem Hagel heimgesucht
worden.
Dieses Frostereignis war ein Schock im deutschen Weinbau, da man in der Praxis nach dem langem
Ausbleiben solcher schadhaften Spätfröste und vielen warmen Rekordsommern davon ausgegangen war,
dass die Klimaveränderung die Gefahr von Spätfrostschäden neutralisiert habe.
Inzwischen setzt sich jedoch die Erkenntnis durch, dass der globale Klimawandel eben nicht einfach eine
allgemeine Erderwärmung bedeutet, sondern – besonders in Europa – mit der Zunahme der Klimavariabilität
und damit mehr extremen Wetterereignissen einhergeht (Hupfer et.al. 2004). Bei der Spätfrostgefährdung
des Weinbaus kommt hinzu, dass höhere Frühjahrstemperaturen ein verfrühtes phänologisches
Austriebsdatum der Weinreben verursachen (Hoppmann 2009), so dass der potenzielle Gefahrenzeitraum
vom Knospenaustrieb bis zu den „Eisheiligen“ angewachsen ist. Deswegen kann trotz Klimaerwärmung im
Weinbau keine Entwarnung in Sachen Spätfrostgefährdung gegeben werden, was
Klimawandelfolgeberechnungen bestätigen (Kartschall et.al. 2015).
Neuer Lernprozess im Umgang mit der Spätfrostgefahr
Die schweren Schäden führten zu der Frage nach einem zeitgemäßen Risikomanagement gegen Frost,
eingefordert von den Anbauverbänden der Winzer gegenüber der Forschung, der Landwirtschaftsberatung
und der Politik. Da der Masse der heutigen Winzer die Erfahrung im Umgang mit der Gefahr fehlte, herrschte
zunächst eine große Unsicherheit, was zu tun ist. Dabei standen 3 Aspekte im Vordergrund:
Wie hoch ist das Frostschadens-Risiko für die jeweiligen Anbauflächen?
Wie kann sich ein Weinbaubetrieb dagegen absichern?
Ist diese Absicherung ökonomisch zu leisten?
Basierend auf diesen Aspekten wurde klar, dass alte, wieder ans Licht gebrachte Erfahrungen die Grundlage
für den Umgang mit dem Frostschadensrisiko bilden können: Besonders ältere Winzer wiesen vermehrt
darauf hin, dass ebene Tallagen frostgefährdet seien und dass man dort „früher“ aus gutem Grund keinen
Weinbau betrieben habe.
Gleichzeitig wurde aber auch deutlich, dass nicht jede Volksweisheit zutrifft, sondern diese unter Beachtung
vorhandener wissenschaftlicher Erkenntnisse reflektiert werden müssen. So ist z.B. in der traditionellen
Winzerschaft ein fester Glaube an den Einfluss des Vollmonds zu finden: Eine hohe Spätfrostgefahr bestehe
32
Macht allein Schaden klug?
bei Vollmond, und zwar besonders dann, wenn der Vollmond auf die Eisheiligen falle. Dies ist jedoch
wissenschaftlich nicht nachweißbar.
Ein Blick in andere Erdteile (Nordamerika, Neuseeland) zeigt jedoch, dass – unter den dortigen Bedingungen
– eine erfolgreiche Frostschadensabwehr – z.B. durch die Auflösung der Bodeninversion mittels
Luftverwirbelung – umsetzbar und ökonomisch vertretbar ist (Poling 2008). Das Thema beherrschte in den
betroffenen Gebieten die folgenden Weinbaufachtagungen und war der Anstoß zu verschiedenen
Forschungsmaßnahmen. Im brancheninternen Diskurs stehen vor allem moderne Techniken
(Heißluftgebläse, Gelkerzen, Luftverwirbeln durch Hubschrauber und Windmaschinen) im Vordergrund, da
sie aus Sicht der landwirtschaftlichen Praktiker den Eindruck vermitteln, die Gefahr in den Griff zu
bekommen. Die im Obstbau nach wie vor verbreitete Frostschutzberegnung spielt für den Weinbau
hingegen kaum eine Rolle, da die dazu notwendige Bewässerungsinfrastruktur nicht vorhanden und
ökonomisch nicht leistbar ist.
In brancheninternen Diskurs wurde auch die hohe Technik-Affinität der Winzer deutlich, für die der Traktor
mit angehängtem Gerät die übliche Technik ist, um den Weinberg zu bearbeiten. Besonders der
Pflanzenschutz mit Fungiziden prägt die Erfahrung und das Verständnis der Winzer in der Schadensabwehr,
mit mobiler, moderner Technik zeitnah und aktiv gegen die Gefahr vorgehen zu können. Deshalb stand
schnell die Vorstellung von einem Schutzgerät im Raum, das an den Traktor angehängt die Frostgefahr
bekämpft - eine Idealvorstellung vieler Winzer, von mobilen Luftverwirbelungs- oder Heiztechniken (Abb. 6)
bis hin zur Frage nach Spritzmitteln (sog. Pflanzenstärkungsmitteln), die die Frostschadensgefahr senken
könnten. Dieses aktive Vorgehen geht auch einher mit dem subjektiven Gefühl, auf jeden Fall etwas getan zu
haben, um die jungen Primärtriebe der Rebe proaktiv zu retten, auch wenn der reale Nutzen der Methode
u.U. zweifelhaft sein könnte.
Die Einflussfaktoren der Schadensgefahr bei Spätfrösten sind jedoch vollkommen andere als bei biotischen
Schaderregern. Erst mit dem Verständnis der Kaltluftbildung und –Ansammlung sowie ihrer räumlich
gezielten Bekämpfung ist es möglich, wirksame Abwehrstrategien in gefährdeten Arealen zu entwickeln.
Deshalb war es zunächst wichtig, den Winzern durch gezielte Schulung – z.B. auf den Weinbaufachtagungen
und durch die Offizialberatung der Landwirtschaftsverwaltung – für die Einflussfaktoren des Spätfrosts zu
sensibilisieren.
Präventive Methoden stehen derzeit weniger im Fokus des Diskurses, da dies oft mit einer Änderung der
Bewirtschaftungsweise einhergehen müsste. Nur, sofern dies in den Rahmen der eigenen betrieblichen
Bewirtschaftungsweise passt, ist eine Adaption realistisch. Ein Beispiel dafür ist die Übernahme von voll
mechanisierungsfähigen Nichtschnitt-/Minimalschnittsystemen in den frostgefährdeten Tieflagen in
Rheinhessen und der Pfalz: Durch eine veränderte Erziehungsform wird ein Vielfaches an Rebenholz und
Knospen hecken- oder buschartig bis in 2m Höhe erhalten. Dadurch stehen mehr Knospen pro Rebe zur
Verfügung als in der klassischen Bogenerziehung; somit auch mehr von ihnen einen Schaden überleben.
Außerdem ragt die Mehrheit der Knospen dabei über den gefährlichen Kaltluftsee hinaus (siehe Abb. 5). Das
Minimalschnittsystem ist jedoch nur dort willkommen, wo die Möglichkeit der vollen Mechanisierung der
Traubenproduktion erwünscht ist, und dies sind vor allem Rheinhessen und die Pfalz, da in den dortigen
ebenen Lagen viele Fassweinproduzenten ansässig sind, die dieses System aus Gründen der
Arbeitsökonomie schätzen. Anbaugebiete mit stärker traditionellem Einschlag und einem hohen Anteil von
Selbstvermarktern stehen diesem System nach wie vor kritisch gegenüber, da es die Möglichkeit der
Traubenselektion durch Handlese ausschließt.
33
Integrative Risk and Security Research
Volume 3/ 2015
Abbildung 5: Während bei der üblichen Bogenerziehung (rechts) ein Totalschaden entstand,
sind im Minimalschnittsystem (links); kaum Verluste zu erkennen
Quelle: Hochschule Geisenheim Mai 2011
Seit 2011 ist zudem zu beobachten, dass in der Zuliefererbranche des Weinbaus die Frostschadensabwehr als
neues Business entdeckt wird, was durch eine verstärkte Bewerbung von Abwehrmitteln und –Techniken zu
sehen ist: Gelkerzen und Gebläse zur Beheizung (Abb. 6), Luftverwirbelungsgeräte sowie angebliche
Frostschutz-Spritzmittel (sog. Pflanzen-Stärkungsmittel) mit unklarer Wirkung. Auch werden
Frostversicherungen angeboten, wobei diese wegen des nur schwer versicherbaren Kumulrisikos entweder
teuer sind oder nur unvollständigen Schutz bieten können.
Aus der Fragestellung nach der Wirksamkeit einzelner Frostschutzmethoden und deren Adaptierbarkeit auf
mitteleuropäische Verhältnisse sind in den Institutionen für Weinbauforschung der einzelnen Bundesländer
verschiedene angewandte Forschungsprojekte entstanden (z.B. Müller et.al. 2014, Petgen et.al. 2015). Andere
Projekte beschäftigen sich mit der Identifizierung gefährdeter Weinbaulagen mittels Geographischer
Informationssysteme (Oberhofer et.al. 2012, Kartschall et.al. 2015, Kotremba et.al. 2015). Eine Fokussierung
der agrarökonomischen Forschung auf ein spezielles betriebliches Risikomanagement im Weinbau steht
jedoch noch aus.
Abbildung 6: Stopgel®-Frostschutzkerze und mobiles Frostbuster®-Heißluftgebläse
Quelle: Schwappach 2012
Lernerfahrungen im Spätfrost des Frühjahrs 2014
Im Frühjahr 2014 gab es in den deutschen Weinanbaugebieten zwei Spätfrostereignisse mittlerer Intensität
(Tiefsttemperaturen -2° bis -3°C). Durch den Schaden 2011 sensibilisiert, wurden in vielen gefährdeten
34
Macht allein Schaden klug?
Weinbaulagen Abwehrmaßnahmen durchgeführt. Besonders in der Pfalz mit ihren reliefarmen Anbauflächen
traten großflächige Luftverwirbelungsmaßnahmen in Aktion, z.B. durch Hubschraubertiefflüge und erstmals
auch durch ein System von Windmaschinen, die ortsfest installiert wurden und bei Duttweiler eine Fläche
von 45 ha schützen (Abb. 7).
Abbildung 7: Windmaschinen im Einsatz zur Auflösung von Bodeninversionen bei Duttweiler/Pfalz
Quelle: Syring-Lingenfelder 2014
In kleineren Kaltluftarealen wurde dem Frost betrieblich individuell durch Feldfeuer und Gelkerzen
begegnet. Die angewandten Maßnahmen zeigten eine effektive Wirkung, aber auch ihre Grenzen auf: So ist
die amtliche Genehmigung von Windmaschinen z.B. abhängig von ihrer Lärmbelastung;
Hubschraubereinsätze sind gebunden an die Nachtfluglizenzen der Fluggeräte und ihrer Piloten. Offenes
Feuer wurde von Anwohnern teilweise missinterpretiert und führte zu Fehlalarmen der örtlichen Feuerwehr.
Vor allem aber wurde deutlich, dass große Flächen individuell nur schwer zu schützen sind und
entsprechende Gegenmaßnahmen deshalb als Gemeinschaftsaufgabe geplant werden müssen.
Die weitgehend besonnene Reaktion der Winzer hat gezeigt, dass eine Sensibilisierung für die
Schadensgefahr stattgefunden hat. Der weitere Lernprozess im Umgang mit der Gefährdung und den
geeigneten Abwehrmaßnahmen wird gesteuert werden durch die Erfahrung der Winzer bei realer
Frostgefahr in den kommenden Jahren.
Fazit
Nach dem schweren Frostschaden 2011 hat die deutsche Weinbaubranche die Gefährdung durch Spätfröste
erkannt. Für die Gefährdung sensibilisiert, versuchten die Winzer bei Spätfrösten im Frühjahr 2014 durch
Abwehrmaßnahmen die Schadensgefahr zu minimieren. Dabei standen vor allem aktive, technische
Maßnahmen im Vordergrund. Präventive Maßnahmen, die u.U. einen geringeren (Kosten-)Aufwand
darstellen, sind nur von Interesse, soweit sie in die jeweilige betriebliche Bewirtschaftungsweise passen.
Viele Winzer sind jedoch nach wie vor unsicher, mit welchen Methoden sie ihre gefährdeten Weinbaulagen
effektiv schützen können. Ein auf den einzelnen Betrieb angepasstes Risikomanagement benötigt vorab eine
Bewusstseinsbildung über die spezifische Frostschadensgefährdung des jeweiligen Betriebes, um ein solches
Risikomanagement aufbauen zu können. Hier ist noch weiterer Entwicklungs- und Beratungsbedarf
vorhanden.
35
Integrative Risk and Security Research
Volume 3/ 2015
Ein Blick in andere Erdteile zeigt, dass – unter der dortigen Bedingungen – eine erfolgreiche Schadensabwehr
möglich ist. Es ist jedoch die Aufgabe der Weinbauforschung, die Adaptierbarkeit verschiedener
Schutzstrategien auf die Wirksamkeit in mitteleuropäischen Verhältnissen zu überprüfen.
Literaturverzeichnis
Gehrke, T 2013, ‚Risikomanagement für Extremwetterereignisse aus Sicht der Versicherungswirtschaft‘ in
Klimawandel und Extremwetterereignisse - ein Problem für die Landwirtschaft, eds Christen, GE, Flessa, H,
Latacz-Lohmann, U, Mühling, KH, Müller, J & Waldhardt, R 1/2913: DLG-Verlag (Agrarspectrum des
DAF, Band 46), pp. 119–136.
Geiger, R 1961, Das Klima der bodennahen Luftschicht, Braunschweig.
Hoppmann, D 2009, ‚Klimawandel und Weinbau‘, in 125 Jahre Wetterstation Geisenheim 1884-2009.
Jubiläumsband mit Beiträgen aus der agrarmeteorologischen Forschung und Beratung, ed Perseke-
Ockelmann, C, Offenbach am Main: Deutscher Wetterdienst (Annalen der Meteorologie, 45), S. 106-
123.
Hoppmann, D 2010, Terroir. Wetter, Klima und Boden im Weinbau, Stuttgart (Hohenheim).
Hupfer, P & Börngen, M 2004, ‚Gibt es Klimakatastrophen?‘, in Naturwissenschaftliche Rundschau, H. 5/2004,
pp. 233-240.
Kartschall, T, Wodinski, M, Rachimov, C, Werner, P, Stock, M, Boh, W, von; Oesterle, H & Hoppmann, D 2015,
‘Changes in phenology and frost risks of Vitis vinifera (cv Riesling) between 1901 and 2100’ in
Meteorologische Monatszeitschrift. Online veröffentlicht: 11.02.2015. DOI: 10.1127/metz/2014/0534
Kessler, OW & Kaempfert, W 1940, ‚Die Frostschadensverhütung. Reichsamt für Wetterdienst‘,
wissenschaftliche Abhandlungen, vol. IV, no. 2. Berlin.
Kotremba, C, Tintrup G, & Trapp, M 2015, ‚Spätfrostgefährdung des Weinanbaugebiets Pfalz – eine
klimatologische und reliefbasierte Betrachtung‘, Deutsches Weinbau-Jahrbuch 2015, pp-19-28.
Müller, M &Schwappach, P 2014, ‚Damit sich die Reben nix abfrieren‘, Rebe & Wein, vol. 4, pp. 22-24.
Oberhofer, J & Dreßler, M. 2012, ‚Neues Simulationsmodell für Flächenpotentiale‘, Der Deutsche Weinbau, vol.
21, pp.18-20.
Petgen, M & Werkle, J 2015, ‚Den Austrieb verzögern, Frostschäden vermeiden‘, Der Deutsche Weinbau 2015,
vol.6, pp. 42-44.
Poling, EB 2008, ‘Spring Cold Injury to Winegrapes and Protection Strategies and Methods’, HortScience, vol.
43, no. 6, pp. 1652-1662.
Schwappach, P 2012, ‚Frostbekämpfung: Was können wir tun – Was können wir uns leisten?‘, Vortrag auf den
54. Veitshöchheimer Weinbautagen am 15.02.2012. Bayerische Landesanstalt für Weinbau und
Gartenbau
Showers, H, Michel, S & Peter, A 2004, ‚Klimatische Bewertung fränkischer Weinberge mit Hilfe Geografischer
Informationssysteme‘, Qualitätsmanagement im Obst- und Weinbau. KTBL-Schrift, vol. 421, pp. 225–231.
Syring-Lingenfelder, G 2014, Frostschutzrotoren im Einsatz. Temperaturen unter Gefrierpunkt. Online verfügbar
unter http://www.duttweiler.de/d140416.html, [22.05.2015].
Wittmann, O, & Weise, R 1971, ‚Boden und Klima fränkischer Weinberge‘, in Atlas des bayerischen
Staatsministeriums für Ernährung, Landwirtschaft und Forsten. München.
36
Macht allein Schaden klug?
„The Big Easy“ oder Opfer von Naturgewalten?
New Orleans als Fallbeispiel für den Umgang mit dem
Vulnerabilitätsbegriff im Geographieunterricht
Verena Reinke
Email: Verena.reinke@ku.de
Abstract
New Orleans - The Big Easy oder Opfer von Naturgewalten? Die in dieser Frage enthaltenen konträren
Beschreibungen implizieren bereits den Konflikt, in dem sich New Orleans im US-Bundesstaat Louisiana
befindet: Einerseits werden dieser Stadt oftmals Südstaatenflair, Blues, Jazz sowie kreolische Leichtlebigkeit
zugewiesen; andererseits verbinden viele Menschen seit dem verheerenden Hurrikan Katrina im August 2005
ein Katastrophenszenario mit ihr. Assoziiert werden Bilder von in den Fluten Ertrunkenen, Obdachlosen und
einer nahezu komplett überfluteten Stadt, die den Namen The Big Easy nicht mehr verdient. Naturgewalten,
Katastrophen - Ereignisse wie „Katrina“ in New Orleans sind nicht nur Themen vieler Medien; auch im
Geographieunterricht in der Schule sind sie ein Gegenstand, so werden bereits junge Menschen, die
zukünftig unsere Gesellschaft mitgestalten, mit oben beschriebenen Bildern konfrontiert.
Unweigerlich mit New Orleans in Verbindung zu bringen ist zudem der Vulnerabilitätsbegriff, der seit einigen
Jahren auch in Geographie-Schulbüchern zu lesen ist und Schülerinnen und Schüler, aber auch Lehrkräfte
vor eine Herausforderung stellt: Was bedeutet Vulnerabilität genau und in Bezug auf die jeweiligen
Fallbeispiele? Die Vielschichtigkeit des Begriffs erfordert eine vertiefte Auseinandersetzung der Themen
durch die Lehrkraft, um diesen Terminus für Schülerinnen und Schüler so aufzubereiten, dass sie ihn im
Kontext des Unterrichts erschließen und anwenden können.
Das Fallbeispiel New Orleans bietet sich dafür sehr gut an, da es das Zusammenwirken von Natur(kräften),
Mensch und Gesellschaft verdeutlicht und mit dem Hurrikan Katrina die Verwundbarkeit einer
vermeintlichen Supermacht vor Augen führt. In dem Beitrag wird die Konzeption einer Unterrichtssequenz
vorgestellt, in welcher der Vulnerabilitätsbegriff wie ein strukturgebendes Element fungiert, da das
sukzessive Erarbeiten des Begriffs den kumulativen Wissensaufbau und vernetztes Denken unterstützt.
Querverweise zu anderen Fallbeispielen und erste Ergebnisse aus dem Unterricht bieten einen kleinen
Einblick in den Umgang mit dem Terminus in der Schule, welcher gerade im Hinblick auf das Lernen für die
Zukunft von besonderer Bedeutung ist.
„Vulnerabilität“ als Fachbegriff im Jahrgang 9?
„New Orleans ist anders als die meisten klischeehaften Städte der USA. Ein Grund für die
Bevölkerungsentwicklung ist, dass die armen Gebiete von New Orleans im „Kessel“ der Stadt liegen. Diese
Gebiete, welche größtenteils afroamerikanisch besiedelt sind, sind während Katrina überschwemmt und
zerstört worden. Die meisten Weißen besiedeln besser gelegene Gebiete.“ (Robin, 15 Jahre).
Es ist ungewöhnlich, ein Schülerzitat an den Anfang eines Diskussionsbeitrages in einem solchen Band zu
stellen. Stammt es doch aus einer Hausaufgabe im Rahmen einer Kurzeinheit im Geographieunterricht einer
9. Klasse, so deutet es gleichzeitig auf die Antwort auf die im Titel formulierte Frage hin: Ja!
Verwundbarkeiten durch Naturgefahren sind Thema im Schulunterricht. Die Zeilen des Schülers zeigen, dass
Jugendliche bereits früh mit komplexen Themen wie z.B. dem Fallbeispiel Hurrikan Katrina konfrontiert
werden, wenn es etwa um „Naturgefahren“ geht. Schulatlanten in der aktuellen Ausgabe (z.B. Diercke 2015)
beinhalten nunmehr sogar thematische Karten, die mit dem Titel „Verwundbarkeit und ihre Messung“ oder
„Risikoindex“ überschrieben sind und zugehörige Graphiken mit Begriffen wie Vulnerabilität, Resilienz,
Anpassungskapazität zeigen. Durch den Lehrplan verbindlich festgelegte Themen wie Naturgewalten
bringen folglich die Beschäftigung mit dem Themenkomplex der Verwundbarkeit mit sich und bieten somit
die Möglichkeit, Termini wie Vulnerabilität in den Unterricht einzubinden. Doch wie gelingt dieses Vorhaben,
ohne dabei in eine Art „Katastrophenpädagogik“ zu verfallen und ohne die Jugendlichen zu überfordern?
Dass es Thema des Erdkundeunterrichts ist und sein sollte, zeigen nicht zuletzt die neuen Karten in den
37
Integrative Risk and Security Research
Volume 3/ 2015
Schulatlanten. Ohne eine ausführliche Beschäftigung mit dem Begriff können die Karten jedoch nur bedingt
erschlossen werden. Es bedarf einer vertieften Auseinandersetzung mit dem Begriff, was exemplarisch an
Raumbeispielen erfolgen sollte.
Für den Erdkundeunterricht bietet das Fallbeispiel New Orleans die Chance, das Zusammenwirken von
Natur(kräften), Mensch und Gesellschaft zu verdeutlichen, da durch den Hurrikan „Katrina“ der
Weltbevölkerung die Verwundbarkeit einer vermeintlichen Supermacht vor Augen geführt worden ist. New
Orleans wird als Fallbeispiel in die Themenreihe USA eingebunden, um problemorientiert ein komplexes
Thema zu erschließen und darüber den im Kontext des globalen Wandels immer wichtiger werdenden
Vulnerabilitätsbegriff in seinen Facetten darzulegen. Genannter Terminus fungiert in dieser als
strukturierendes Element, da das sukzessive Erarbeiten des Begriffs den kumulativen Wissensaufbau und das
– nicht nur – in der Geographie maßgebende vernetzte Denken ermöglicht.
Zentral in allen Stunden ist der Mensch-Umwelt-Konflikt. Schon die frühe Besiedlung des sehr empfindlichen
Naturraums macht New Orleans generell als Raum verwundbar, sodass ein Kampf gegen die Natur nicht
gelingt (vgl. Colten 2006: 24). Was durch Deiche vor Überschwemmung geschützt werden soll, ist Land, das
in New Orleans überwiegend unter dem Meeresspiegel liegt, sodass einige Viertel besonders gefährdet sind.
Nicht zufällig werden Zusammenhänge zwischen der Höhenlage, dem Ausmaß der Flut und ethnischer
Zusammensetzung eines Stadtteils bei der Kartenarbeit evident. Die Schüler können so selbst auf die
„soziale Vulnerabilität“ der Stadt schließen, die sich in der ethnischen Segregation spiegelt. So kann deutlich
werden, dass im alten Süden durchaus nicht die Rede von Gleichberechtigung ist, sondern dass es fast den
Anschein hat, „Jim Crow“ sei noch längst nicht ausgezogen.
Ein fundiertes Urteilsvermögen setzt zwangsläufig umfangreiches Wissen aus physisch-und
humangeographischen Perspektiven voraus, was durch verschiedene Methoden sowie über Arbeit mit
Karten und Daten vermittelt werden kann, um den Schülern den facettenreichen Begriff verständlich zu
machen.
„Mud, mud, mud … this is a floating city, floating below the surface of the water in a bed of mud…“
(Boneval Latrobe 1819; zit. nach Campanella 2008)
New Orleans liegt in der Küstenebene am Golf von Mexiko in einem Gebiet, das von Mai bis Oktober von
Hurrikans betroffen sein kann. Die Küstenebene von Louisiana bietet solchen Naturgefahren eine verletzliche
Angriffsfläche, was im Folgenden für die von drei Wasserkörpern umgebene Stadt New Orleans knapp
umrissen wird. Die genaue Höhenlage der Stadt zu definieren ist aufgrund der zahlreichen Transformationen
schwierig und bedarf genauer Betrachtung. Generell wird die Lage in den Medien mit ca. 80% unter dem
Meeresspiegel angegeben. Häufig unerwähnt bleibt jedoch der Prozess der Landabsenkung, der sich in den
letzten 200 Jahren intensiviert hat. Diese Veränderungen sind zum einen auf die Unterbrechung der
natürlichen Sedimentationsprozesse des Mississippi durch anthropogene Überformung zurückzuführen
(Campanella 2006). Zum anderen liegt die Absenkung an der generellen naturgeographischen
Beschaffenheit des Mississippi-Deltas und des Sumpflandes der Küstenebene (Campanella 2006.) Nicht nur
die Senkungsprozesse des Landes intensivieren jene Vulnerabilität, auch der Verlust der vorgelagerten
Feuchtgebiete durch Erosion und wirtschaftliche Aktivitäten im Golf von Mexiko nimmt der Stadt einen
wirksamen Schutz im Falle eines Hurrikans, da diese „wetlands“ die Sturmgeschwindigkeit reduzieren
können und wie ein Schutzwall fungieren, was durch frühere Aufzeichnungen belegt ist (vgl. van Heerden
2006, Campanella 2006, Colten 2006). Zahlreich vorhandenes Kartenmaterial über die
Sedimentationsprozesse und den „Coastal Land Loss“ ist seit „Katrina“ erneut gesichtet worden und
dokumentiert den Verlust der natürlichen Barriere (z.B. Studien von van Heerden 2006, Campanella 2010,
Colten 2006 und 2009). Der Mensch hat letztlich selber die physische Vulnerabilität induziert.
Die besonders gefährdeten Stadtgebiete haben bereits in der Vergangenheit die günstigsten Grundstücke
geboten, so ist schon früh eine Verteilung der Besiedlung nach Sozialstatus und Ethnie erfolgt. Die Reaktion
auf diese ungünstigen natürlichen Bedingungen zeigt sich in Schutzmaßnahmen gegen Naturgewalten:
Deiche sollen vor Hochwasser schützen, Kanäle die Stadt „entwässern“ und große Wasserschleusen (z.B. Lake
Pontchartrain) die großen Wassermassen im Falle einer Flut „managen“. Dass dies ein Trugschluss ist, die
Technik den nötigen Widerstand nicht leistet, hat „Katrina“ in New Orleans offenbart. Das Deichsystem ist
kollabiert, die Stadt hat noch Wochen, nachdem der Hurrikan am 29.08.2005 auf Land traf, unter Wasser
gestanden. „Katrina“ hat ganze Stadtteile weggespült und die labile Seite der Stadt gezeigt: Das
38
Macht allein Schaden klug?
Katastrophenmanagement versagte, Evakuierungsmaßnahmen funktionierten begrenzt oder gar nicht, die
Welle von Hilfsbereitschaft unter den Amerikanern konnte nicht koordiniert werden. Diese schlechte
Organisation hat sich auch noch Wochen nach dem Sturm durch die Katastrophe hindurch gezogen. Seit
dem Wiederaufbauprozesses spiegelt sich die soziale Vulnerabilität erneut: Einige Stadtteile (z. B. French
Quarter, Garden District) haben bereits nach wenigen Wochen kaum Spuren von Katrina erkennen lassen; im
Lower 9th Ward hingegen wird auch heute noch die Berechtigung deutlich, im Hinblick auf das
Katastrophenmanagement zu diskutieren, ob es sich um „gescheiterte Planung oder geplantes Scheitern“
(Cutter & Gall 2008: 353) handelt. Das Viertel Lower 9th Ward, das sehr tief am Industrial Canal liegt und
durch den Deichbruch dort besonders stark betroffen gewesen ist, hat zum Zeitpunkt des Sturms zu 98% aus
afroamerikanischer Besiedlung bestanden. Das Viertel war überwiegend für Wohnraumnutzung vorgesehen
(Kammerbauer 2014). Für das Bild dieses Stadtteils ist privates Eigenheim charakteristisch; in der Regel sehr
einfache kleine Häuser, die über Generationen hinweg in der Familie blieben, sodass darin auch der Grund
für die Verbundenheit der (ehemaligen) Bewohner zu sehen ist („neighbourhood communities“). Doch vier
Jahre nach dem Sturm sieht es dort aus wie in einem Geisterdorf, da die Stadt hier nicht in den Wiederaufbau
investiert und nur wenige Menschen wieder ansiedeln können. Die Afroamerikaner fühlen sich vertrieben,
unerwünscht und machtlos. Hilfe gibt es nur bedingt von Non-Profit-Organisationen. Als Beispiel sei hier das
„Make-it-Right-Projekt“ unter der Schirmherrschaft Brad Pitts zu nennen, das gezielt im Lower 9th Ward den
Wiederaufbau unterstützt und gleichzeitig mehr Investitionen der Stadt in Bildung fordert. Vorwürfe der
Vernachlässigung werden laut, gab es doch schon vor „Katrina“ zu wenig öffentliche Schulen im Lower 9th
Ward, sodass die Bewohner kaum Chancen hatten, die hohe Armutsrate zu verringern und Kriminalität zu
vermindern. Aus der Perspektive der Stadt ist es dort jedoch zu gefährlich; im Falle einer neuen Flut gäbe es
einfach keinen Schutz (vgl. Logan 2005, Felgentreff 2008). Eine erste Lehre nach Katrina? Oder geht es doch
um den hohen Anteil der afroamerikanischen Bevölkerung? Ein Konflikt, der vor dem historischen
Hintergrund des alten Südens die Segregationen und fehlende Gleichberechtigung evident werden lässt. Ein
anderes Beispiel hierfür bieten die ehemaligen „Public Housing Projects“, die Wohnraum für sozial schwache
Bürger der Stadt bereit halten – auch hier sind die Bewohner zu 99% afroamerikanischer Abstammung. St.
Bernard in der St. Bernard Area ist nach dem Sturm geschlossen worden, weil die Häuser hoch unter Wasser
gestanden haben, was aus Sicht der ehemaligen Bewohner, die in Notunterkünften und z. T. in anderen
Städten untergebracht worden sind, kein Grund für eine Schließung hätte sein müssen. Was Jakob & Schorb
als „soziale Säuberung“ (2008) bezeichnen, beschreibt die Stadtverwaltung von New Orleans als
Neugestaltung zu einem Mixed-Income-Viertel, wo sich eine Mittelschicht etablieren soll. Potenzielle
Kandidaten für einen Wohnraum können sich bei der ansässigen Hausverwaltungsbehörde bewerben. Die
Chancen der afroamerikanischen Bevölkerung können – affirmativ formuliert – in der Folge dieses
Umstrukturierungskonzeptes zusammengefasst werden, wozu der Untertitel von Jakob & Schorb passt: „Wie
New Orleans nach der Flut seine Unterschicht vertrieb.“ (Jakob & Schorb 2008). „Katrina“ hat Konflikte
offengelegt, die nach Bohle (Bohle 2007) ein Paradebeispiel für den Vulnerabilitätsbegriff in drei Ebenen
liefern: Ökologie, Technologie, Gesellschaft. Auch die Doppelstruktur von interner und externer Vulnerabilität
ist hier erkennbar. Soziale Vulnerabilität resultiert auch aus Disparitäten in einem Raum, die in der
Jahrgangsstufe 9/10 häufig Thema sind. In New Orleans trifft dies in besonderem Maße zu, da zusätzlich ein
Zusammenhang zwischen Ungleichheiten von Räumen (auf der Ebene der Viertel) und beispielsweise
ökonomischer Vitalität erfolgen kann, sodass dieses Raumbeispiel für die Definition des Begriffes
Bezugsebenen bietet (Bohle 2007). New Orleans hat bis 2005 trotz einiger Lehrstunden (z.B. Hurrikan Betsy)
nicht aus vorherigen Problemen gelernt, sondern aus Fehlern die falschen Schlüsse gezogen (vgl. Colten et
al. 2008: 31), was sich schon wie in dem zuvor von Ivor van Heerden gezeichneten Szenario angekündigt hat,
durch „Katrina“ 2005 zur Katastrophe geworden ist und zu einer anderen Wahrnehmung dieses Raumes
geführt hat. Dieser Konflikt zwischen Umwelt, Mensch und Gesellschaft und dem Risiko, mit dem gelebt
werden muss, wird in New Orleans/Süd-Louisiana sehr deutlich.
Für die Zukunft lernen
Diese Wechselwirkung zwischen naturgeographischen Gegebenheiten und dem Menschen sowie die
Beschäftigung mit den deutlich werdenden Konflikten im Rahmen dieses Unterrichtsgegenstandes sind
exemplarisch für geographische Fragestellungen, die auf das Zusammenwirken zwischen Mensch und Natur
39
Integrative Risk and Security Research
Volume 3/ 2015
zielen. Die Menschen in New Orleans haben einst durch die Besiedlung und Umgestaltung der Natur eine
vermeintliche Begrenzung derselben bewirkt, Hurrikan Katrina“ jedoch hat umgekehrt die Determiniertheit
der Bürger im Falle einer Naturgewalt gezeigt.
Im Rahmen dieser soll den Schülern einerseits das Verständnis natürlicher Systeme vermittelt werden, was
über den Zugang der Entstehung von Hurrikans erfolgt. Über die Anwendung der Kenntnisse auf das
Fallbeispiel Katrina wird Bezug genommen auf das Raumbeispiel New Orleans in Nordamerika (vgl.
Niedersächsisches Kultusministerium KC 20085), für das die Schüler naturgeographische Gegebenheiten
erarbeiten und diese auf die Bedingungen und Herausforderungen für Menschen beziehen. In der zweiten
Stunde setzen sich die Schüler auf der Basis dieser Lagebeziehung mit der Notwendigkeit, aber auch mit den
Grenzen risikominimierender Maßnahmen auseinander und erkennen, dass die Menschen in Louisiana mit
dem Risiko leben müssen, da auch Schutzmaßnahmen wie Deiche nicht vor den Naturgewalten schützen.
Somit werden Aspekte aus den Kompetenzbereichen „Fachwissen“, „Räumliche Orientierung“ und
„Beurteilung und Bewertung“ in einem neuen und komplexeren Kontext trainiert und thematisch um
mögliche Folgen wie ethnische Segregation, Disparitäten, Probleme bei der Wiederherstellung eines Raumes
erweitert (KC 2008). Daher wird andererseits und überwiegend gemäß der Anforderung an die
Jahrgangsstufen 9/10 das Verständnis für humangeographische – in erster Linie gesellschaftliche – Prozesse
geschult, da die Schüler sich auf einem hohen Niveau mit ethnischer Segregation und einem scheinbar
unlösbaren Konflikt im Wiederaufbau der Stadt auseinandersetzen, bei dem die Natur bzw. Umwelt durch die
physische Vulnerabilität der Stadt auch immer eine Rolle spielt.
Da der Schwerpunkt in der Jahrgangsstufe 9/10 auf der funktionalen Betrachtungsweise komplexer Mensch-
Umwelt-Beziehungen liegt, erscheint es sinnvoll, den eigentlich schwierigen Begriff „Vulnerabilität“ in das
Unterrichtsgeschehen zu integrieren, da er auch bei den noch folgenden Themen (Klimawandel,
Ressourcenmanagement etc.) genutzt werden kann. In den vorgestellten Unterrichtsstunden ist er zum
einen strukturgebend, zum anderen notwendig im Hinblick auf die Kompetenzschulung in dieser
Kurzeinheit, in der das Beurteilen und Bewerten im Vordergrund stehen soll und somit der funktionalen
Betrachtungsweise gerecht wird (KC 2008). Die Schüler erschließen bereits in Stunde I eine Dimension der
Verwundbarkeit von Räumen (physisch). Dass ein Raum im Prinzip jedoch erst vulnerabel wird, wenn der
Mensch betroffen ist, stellt den unabdingbaren Zusammenhang zur Mensch-Umwelt-Problematik heraus,
womit der Unterrichtsgegenstand dem Säulenprinzip der „modernen Geographie-Didaktik“ entspricht:
„Die Deiche hatten beim Hurrikan ‚Katrina‘ versagt. Die Optionen lauten nun: die Stadt in Teilen oder
ganz aufgeben oder die Deiche verstärken und den nächsten Hurrikan abwarten. Die Entscheidung fällt
nicht einfach naturwissenschaftlich/hydrologisch aus, sondern ingenieurstechnisch, politisch,
ökonomisch und sozial.
Sie fällt aber im Verhältnis zur Natur, die dazu in Teilen in das Handeln
einbezogen wird.
[Hervorhebung V.R.] Deshalb spricht man in der modernen Geographie von den
gesellschaftlichen Naturverhältnissen, die in einer „Dritten Säule“ im Fach konzeptionell untersucht und
behandelt werden.“ (Rhode-Jüchtern 2009: 12).
Einige Stellen der Unterrichtseinheit erfordern zweifelsohne werteorientiertes Denken. Die
Subjektorientierung ist auch eine wesentliche Voraussetzung zur Intensivierung des Urteilsvermögens
(Hoffmann 2012, Meyer & Felzmann 2012, Wilhelmi 2010).
In diesem Kontext sind bei der unterrichtlichen Planung auch Themenkomplexe aus der neurodidaktischen
Forschung sehr dienlich, insbesondere die Erkenntnisse zu dem sogenannten deklarativen Gedächtnis.
Dieses wird wiederum in ein semantisches, das für die Speicherung von Fakten und Daten zuständig ist, und
ein episodisches Gedächtnis unterteilt, das sich auf bildhafte Vorstellungen, Erfahrungen und Emotionen
bezieht. Letzteres spielt eine wichtige Rolle: „Für Behaltensprozesse auch und gerade im Bereich des Werte-
Lernens sind episodische Zugänge besonders wichtig.“ (Schirp 2009: 250). Basierend auf dieser Erkenntnis ist
die methodische Gestaltung der hier skizzierten Unterrichtsreihe zu der Verwundbarkeit New Orleans‘ stark
an real existierenden Personen sowie deren Schicksale orientiert.
Für die Schulung der Beurteilungs- und Bewertungskompetenz bietet sich das Thema dieser
Unterrichtseinheit sehr gut an, denn: „Dabei haben sich Themen und Fragestellungen bewährt, die
authentische und herausfordernde Probleme, multiple Kontexte mit vielfältigen und kontroversen
Perspektiven aufgreifen und keine eindeutigen Lösungen zulassen.“ (Coen & Hoffmann 2010: 10). Die Schüler
5 Im Folgenden abgekürzt als KC 2008.
40
Macht allein Schaden klug?
bearbeiten mit New Orleans ein authentisches Fallbeispiel, können aus verschiedenen Perspektiven
Erkenntnisse und gegensätzliche Positionen kennen lernen, mit zuverlässigen Daten arbeiten und auf dieser
Basis über den Konflikt in New Orleans bewertend diskutieren. Die Schüler werden keine Lösung finden
können. Dieser Dissens soll sich jedoch als produktiv erweisen, indem das Bewusstsein für
Raumverantwortung intensiviert wird. Die oft als Schwierigkeit wahrgenommenen Prinzipien Kontroverse
und Mehrdimensionalität erweisen sich im Hinblick auf das Training der Bewertung als notwendig und
gewinnbringend, so können die Schüler weiterführende Fragen zur Vulnerabilität der Stadt New Orleans
entwickeln (Coen & Wenz 2012).
Positiv wird sich das Interesse der meisten Schüler sowohl an den USA als auch an „Naturkatastrophen“
auswirken, was durch eine Interessenstudie belegt ist (Hemmer & Hemmer 2010).
Bisherige Lehren für zukünftiges Lehren
„Naja, also eine Katastrophe ist das ja eh erst, wenn es wirklich Opfer und so richtig großen Schaden gibt,
ansonsten ist so ein Sturm ja eine natürliche Sache.“ (Mattis, 14).
Ja! Eine solche Schüleräußerung führt auch im Gespräch mit 14-16jährgigen schon zu einer Diskussion über
den Katastrophenbegriff und bestätigt zudem, dass so komplexe Begriffe einer intensiven Betrachtung
bedürfen.
Die oben skizzierten didaktischen Schwerpunkte sind in ihren Grundzügen übertragbar auf andere
Fallbeispiele. Exemplarisch ist hier eine Unterrichtsreihe zum Raumbeispiel Nordostindien zu nennen, ferner
auch die Überschwemmungsproblematik in Bangladesch. Es ist deutlich geworden, dass Schüler bei der
langsamen Erschließung des Begriffs diesen in seinen Facetten erfassen können. Bei den bisherigen
Durchführungsversuchen mit unterschiedlichen Lerngruppen hat sich der direkte Bezug zu den realen
Fallbeispielen aus dem Lower 9th Ward und dem direkten Personenbezug als hilfreich erwiesen. Dieser
Zugang, der das episodische Gedächtnis anspricht, scheint hier lernförderlich für die Erfassung des Begriffes
zu sein. Bisher gibt es jedoch als Datenmaterial, anhand dessen die Vermutung geprüft werden kann,
lediglich schriftliche Bearbeitungen von Schülern aus drei Lerngruppen, in denen die Verwendung des
Begriffes „Vulnerabilität“ analysiert wird, sowie Ergebnisse aus dem Unterricht, in dem die Schülerinnen und
Schüler eine neunten Klasse an einem niedersächsischen Gymnasium eine Podiumsdiskussion durchführen
und so mündlich den Terminus in das Gespräch einbringen. Somit handelt es sich um erste Eindrücke, die
aber einer weiteren Überprüfung bedürfen. Basis ist eine eigens konzipierte Kurzeinheit zum Thema, in die
Daten- und Bildmaterial integriert wurde, das zum Teil aus einem Studienprojekt vor Ort hervorgegangen ist.
Fest steht, dass Begriffe wie Risiko, Vulnerabilität, Katastrophe, Anpassungskapazität durchaus auch Thema in
der Schule sind und nun auch in gängigen Schulatlanten auftreten. Gerade im Sinne einer Bildung, die junge
Menschen auf zukünftige Prozesse auf der Erde vorbereiten soll, ist es wichtig, sie mit genannten Begriffen
und deren Gebrauch vertraut zu machen. Dass die Definition von Vulnerabilität teilweise nicht ganz
eindeutig ist bzw. es verschiedene Auffassungen gibt, soll die Idee der Integration in den Schulunterricht
vorerst nicht tangieren - wichtig für die Vermittlung ist eine klar erkennbare Struktur, anhand derer ein
Fallbeispiel als Unterrichtsgegenstand für Jugendliche aufbereitet werden kann.
Literaturverzeichnis
Bohle, HG 2007, ‚Geographien der Verwundbarkeiten‘, Geographische Rundschau, vol. 59, no. 10, pp. 20-25.
Campanella, R 2010, Delta Urbanism., Amercian Planning Association, Chicago, Washington.
Campanella, R 2008, Bienvilles Dilemma. A historical geography of New Orleans, Center for Louisiana Studies,
Lafayette.
Campanella, R. 2006, Geographies of New Orleans, Center for Louisiana Studies, Lafayette.
Coen, A & Wenz, H 2012, ‚Hurrikan ‚Irene‘. Mit dem Kompetenzerwerbsschema Geographieunterricht
planen‘,Geographie und Schule, vol. 36, no.95, 2/2012, pp. 14-20.
Coen, A & Hoffmann, KW 2010, ‚Beurteilen und Bewerten. Schlüsselkompetenzen eines modernen
Geographieunterrichts‘, Praxis Geographie, vol. 5, pp.10-11.
Colten, C.2009, Perilous Place, Powerful Storms. Hurricane Protection in Coastal Louisiana, University Press of
Mississippi, Jackson.
Colten, C. 2006, An Unnatural Metropolis. Wresting New Orleans from Nature, University Press, Baton Rouge.
Cutter, S & Gall, M. 2008, ‚Hurrikan Katrina – gescheitertes Planen oder geplantes Scheitern?‘, in Naturrisiken
und Sozialkatastrophen, eds Felgentreff, C & Glade, T, Heidelberg: Springer, Berlin, pp. 352-366.
Diercke 2015, Weltatlas, Westermann, Braunschweig.
41
Integrative Risk and Security Research
Volume 3/ 2015
Felgentreff, C. 2008, ‚Wiederaufbau nach Katastrophen‘,, in Naturrisiken und Sozialkatastrophen, eds
Felgentreff, C & Glade, T, Heidelberg: Springer, Berlin, pp. 281-294.
Hemmer, I.& Hemmer, M 2010, Schülerinteresse an Themen, Regionen und Arbeitsweisen des
Geographieunterrichts. Ergebnisse der empirischen Forschung und deren Konsequenzen für den Unterricht,
Hochschulverband für Geographie und ihre Didaktik e.V. (Selbstverlag), Weingarten.
Hoffmann, KW. 2012, ‚Schulgeographie – quo vadis? Zur Gesellschaftsrelevanz eines standardbasierten
Geographieunterricht‘, in Geographie für eine Welt im Wandel, eds Fassmann, H & Glade, T, 57.
Deutscher Geographentag 2009 in Wien. Veröffentlicht durch Vienny University Press in Göttingen:
V&R unipress.
Jakob, C & Schorb, F 2008, Soziale Säuberung. Wie New Orleans nach der Flut seine Unterschicht vertrieb, Unrast,
Münster.
Kammerbauer, M. 2014, ‚Asymmetrischer Wiederaufbau nach Katastrophen. Das Lower Ninth Ward in New
Orleans nach Orkan Katrina‘, in Raumforschung und Raumordnung, vol. 72, no. 5, pp. 427-439.
Logan, J. 2005, The Impact of Katrina: Race and Class in Storm-Damaged Neighborhoods. Abrufbar im Internet:
http://www.s4.brown.edu/katrina/report.pdf [29.07.12].
Meyer, C & Felzmann, D 2011, ‚Was zeichnet ein gelungenes ethisches Urteil aus? Ethische Urteilskompetenz
im Geographieunterricht unter der Lupe‘, in Geographische Bildung. Kompetenzen in didaktischer
Forschung und Schulpraxis, eds Meyer, C, Henry, R & Stöber, G, Bildungshaus Westermann
Schulbuchverlage, Braunschweig, pp. 130-146.
Niedersächsisches Kultusministerium 2008, Kerncurriculum für das Gymnasium. Erdkunde. Schuljahrgänge 5-10.
Abrufbar unter: http://db2.nibis.de/1db/cuvo/datei/kc_gym_erdk_08_nib2.pdf [28.07.2012,.
Rhode-Jüchtern, T 2009, Eckpunkte einer modernen Geographiedidaktik. Hintergrundbegriffe und Denkfiguren,
Klett/Kallmeyer, Seelze-Velber.
Schirp, H 2009, ‚‘Wie lernt unser Gehirn Werte und Orientierungen? Neurodidaktische Zugänge zur
Entwicklung wertorientierter Erfahrungen und Kompetenzen‘, in Neurodidaktik. Grundlagen und
Vorschläge für gehirngerechtes Lehren und Lernen, ed Herrmann, U., 2nd edtion, Beltz, Weinheim und
Basel, pp. 246-260.
Van Heerden, I 2006, The Storm. What went wrong and why during Katrina. The Inside-Story from the Louisiana
Scientist, Penguin Group, New York.
Wilhelmi, V. 2010, ‚Wo soll das hinführen? Urteilsfindung mit der „Dilemma-Methode.“‘, in Praxis Geographie,
vol. 5/2010, pp. 37-39.
42
Macht allein Schaden klug?
Die vernachlässigten Schattenseiten der Vernetzung
Herbert Saurugg
Email: office@saurugg.net
Abstract
Die Ausgangsfrage „Macht alleine Schaden klug?“ im Zusammenhang mit Naturgefahren und Naturrisiken
soll in diesem Beitrag aus einer etwas anderen Perspektive betrachtet werden. Es erfolgt eine systemische
Betrachtung, welche die vielschichtigen Interdependenzen in einer hoch vernetzten Welt verdeutlichen soll.
Zum anderen wird dargestellt, dass die zunehmende Komplexität zu bisher wenig beachteten
Systemeigenschaften führt, die mit dem üblicherweise linearen Denken nicht mehr beherrschbar sind.
Einführung
Bei der vorliegenden systemischen Betrachtung spielt das Thema „Vernetzung“ und die Art unseres
bisherigen Denkens, das weitgehend durch Linearität gekennzeichnet ist, eine zentrale Rolle. Dieses hat sich
in der Vergangenheit sehr bewährt und zum gesellschaftlichen Erfolg der westlichen Gesellschaft
beigetragen. Jedoch haben sich in den vergangenen Jahren zahlreiche Rahmenbedingungen gravierend
verändert. Dadurch stoßen auch unsere bisherigen Lösungskompetenzen zunehmend an Grenzen, da sie
vorwiegend auf dem bisherigen Erfolgsmodell beruhen (Dueck 2010, Frey et al. 2011, Gigerenzer 2013).
Lineares Denken basiert vor allem auf einfachen Ursache-Wirkungsbeziehungen und vermeidet weitgehend
die Auseinandersetzung mit komplexen Vernetzungen und Wechselwirkungen, die durch die zunehmende
technische Vernetzung entstehen (Ossimitz et al. 2006). Komplexe Herausforderungen werden nach wie vor
stark vereinfacht und in Einzelthemen zerlegt, um sie mit den bisherigen Verfahren analysieren und
bearbeiten zu können. Zahlreiche aus dem Ruder gelaufene Großprojekte, wie etwa der neue Flughafen
Berlin Brandenburg als Extrembeispiel, zeugen davon.
Eine Herausforderung bei den nachfolgenden Betrachtungen ist, dass Texte sich nur linear abbilden lassen.
Um dem ein wenig entgegenzuwirken, wird es daher immer wieder Querverweise auf andere Textstellen
geben (...).
Die Transformation zur Netzwerkgesellschaft
Was vielen von uns kaum bewusst ist, ist, dass wir uns mitten in einer fundamentalen gesellschaftlichen
Transformation befinden. Diese wurde etwa in den 1950er Jahren mit der Entwicklung von Computern
eingeleitet. Neben der Agrar- und Industriegesellschaft entsteht die Netzwerkgesellschaft (Saurugg 2012a).
In der Literatur werden weitere Begriffe, wie Informations- oder Wissensgesellschaft, die dritte industrielle
Revolution oder die zweite Moderne, verwendet. Netzwerke spielen bei dieser Transformation eine zentrale
Rolle, daher wird der Terminus „Netzwerkgesellschaft“ in diesem Beitrag verwendet. Parallel dazu wird der
bisher vorherrschende tertiäre Wirtschaftssektor (Dienstleistung), wie zuvor der primäre Sektor
(Landwirtschaft) und der sekundäre Wirtschaftssektor (Industrie), weitgehend automatisiert. Der
zunehmende Verdrängungswettbewerb findet in verschiedenen Bereichen statt (Dueck 2010). Die verstärkte
Vernetzung und Automatisierung hat aber auch ihre Schattenseiten. Unser Leben ist bereits heute völlig vom
Funktionieren der vitalen, Kritischen Infrastrukturen (etwa Strom und Telekommunikation) abhängig. Ein
Ausfall kann sehr rasch zu verheerenden Folgen führen, auch wenn wir uns das bisher kaum vorstellen
können (Casti 2012, Saurugg 2012b). Dies auch deshalb, da die bisherige (technische) Vernetzung oft
chaotisch gewachsen ist und systemische Aspekte nur unzureichend berücksichtigt wurden.
Systeme
Eine zentrale Rolle in diesem Beitrag spielen Systeme (Abb. 1). Systeme, abstrakt betrachtet, bestehen aus
unterschiedlichen Systemelementen, die miteinander vernetzt sind und ein Wirkungsgefüge bilden. Ohne
diese Vernetzungen (=Beziehungen) hat man nur eine Ansammlung von Elementen, jedoch kein System, wie
etwa bei einem Sandhaufen. Es gibt eine Systemgrenze, die das System zu seiner Umwelt determiniert.
Dadurch ergibt sich eine gewisse „Identität“ und ein bestimmter Zweck des Systems (Vester 2011). Eine
Systembeschreibung stellt natürlich nur ein Model der Realität dar.
43
Integrative Risk and Security Research
Volume 3/ 2015
Abbildung 1: Vereinfachte Darstellung eines Systems
Quelle: Eigene Darstellung
Diese Grenzen sind jedoch nicht immer physisch oder tatsächlich deterministisch vorhanden und hängen
häufig vom Betrachter bzw. von der konkreten Betrachtung ab. Sie können etwa materieller Art (z.B. unsere
Haut) als auch immaterieller Art (z. B. Abgrenzung einer sozialen Gruppe) sein (Krizanits 2013). Derartige
Grenzen können eine für die Systemsicherheit wichtige Reichweitenbegrenzung darstellen, die etwa die
Ausbreitung von Störungen oder Fehlern in einem System begrenzen (z. B. Krankheiten). Systeme haben
grundsätzlich eine optimale Größe bzw. Anzahl von Systemelementen. Sie sind anpassungsfähig und
verfügen über eine gewisse Elastizität. Wird jedoch eine nicht klar erkennbare kritische Größe erreicht und
gelingt es nicht, rechtzeitig entsprechende Subsysteme zu bilden, kollabiert das System (Vester 2011),
(Komplexitätslücke). Jedes Systemelement kann potenziell mit jedem anderen Systemelement des
Systems Beziehungen eingehen. Die Anzahl der möglichen Wechselwirkungen wächst jedoch mit der Anzahl
der Systemelemente exponentiell an (Exponentielle Entwicklungen, Dynamik). Zusätzlich sind externe
Beziehungen zu anderen Systemen oder Umweltelementen möglich. Das ist bei natürlichen Systemen der
Regelfall. Daher werden sie auch als offene Systeme bezeichnet. (Ossimitz et al. 2006, Vester 2011).
Ganz wesentlich ist dabei, dass ein System mehr ist, als die Summe der Systemelemente (Emergenz). Am
Beispiel Mensch ist das leicht nachvollziehbar. Auch wenn alle chemischen Elemente des menschlichen
Körpers zur Verfügung stehen, ergibt das noch keinen Menschen. Entscheidend sind die „unsichtbaren
Fäden“ zwischen den Elementen (Vester 2011). Menschen bestehen auch aus unterschiedlichen
Subsystemen, etwa Molekühlen, Zellen oder Organen.
Die Größe eines Systems hängt von der Anzahl der Systemelemente und der Vernetzung zwischen diesen ab.
Mit dem Anstieg der Vernetzung (Redundanzen) steigt auch die Stabilität eines Systems, jedoch nicht
unendlich (Abb. 2).
Auch die Menschheit hat sich nach diesem Muster entwickelt. Das Kernsystem ist die Familie, die als
Subsystem in eine Sippe oder Kommune integriert sein kann, oder nur lose Verbindungen zu anderen
Systemen aufweist. „Die Familie“ ist dabei nicht unbedingt mit unserer heutigen Vorstellung und
Organisation von Familie gleichzusetzen, hatte sie doch im Laufe der Geschichte unterschiedliche
Ausprägungen. Erst durch Mobilität und technische Kommunikationsmöglichkeiten wurden die Grenzen
verschoben bzw. sank die klare Strukturierung. Diese wurden mehr und mehr durch ein wildes Geflecht
ersetzt (siehe etwa Soziale Medien). Die Orientierung und Betrachtung, aber auch die Kontrolle und
Steuerung wird damit schwieriger.
44
Macht allein Schaden klug?
Abbildung 2: Von instabilen Einzelelementen zu einem stabilen System. Bei einer Überdehnung ist die Bildung von Subsystemen
erforderlich, da andernfalls ein Systemkollaps droht;
Quelle: Eigene Darstellung in Anlehnung an Vester 2011
Bis die breite Motorisierung begann, war die Reichweite des Einzelnen noch ziemlich begrenzt. Oft nur
wenige Kilometer, die zu Fuß oder mit Tieren überwunden werden konnten. Natürlich gab es auch
Ausnahmen, wie Handelsreisende oder Entdecker, aber in einem sehr begrenzten Ausmaß bzw. mit langen
Zeithorizonten. Das hat sich im letzten Jahrhundert und insbesondere im 21. Jahrhundert massiv verändert,
zuerst durch die Erhöhung der Mobilität und dann durch die Verbreitung und die Möglichkeiten der
Informations- und Kommunikationstechnik (Internet). Dies hat dazu geführt, dass viele Menschen heute in
Sekundenschnelle fast überall auf der Welt mit jemand in Kontakt treten und kommunizieren können, auch
in sonst sehr benachteiligten Regionen. Durch diese Vernetzung und auch Informations- bzw.
Reizüberflutung nehmen wir „Störungen“ und Risiken aus weit entfernten Regionen viel stärker war, als uns
tatsächlich bedrohende Gefahren. Dies kann durchaus zu sehr paradoxem Verhalten führen, wie etwa, dass
sich nach der Reaktorkatastrophe von Fukushima zahlreiche Menschen in Mitteleuropa einen Geigerzähler
gekauft haben, um ihr Risiko beurteilen zu können (Renn 2014).
Mit der steigenden Größe eines Systems entsteht auch die Gefahr, dass sich Störungen leichter, schneller und
weitreichender im System und über Systemgrenzen hinaus ausbreiten können. Daher steigt die Fragilität
eines Systems (Taleb 2013b). So können sich etwa heute Krankheiten durch die massiven Reiseströme viel
leichter, weitreichender und rascher ausbreiten, als noch vor wenigen Jahrzehnten. Die von den USA
ausgehende Finanzkrise 2007 hat nicht nur im Finanzsektor weitreichende und weltweite Folgekrisen
ausgelöst.
Die (Über-)Lebensfähigkeit eines Systems ist von seiner Größe bzw. Vernetzungsdichte mit seiner Umwelt
abhängig. In der evolutionären Entwicklung hat sich „small is beautiful“ durchgesetzt, da kleinere Systeme
anpassungsfähiger gegenüber Störungen sind (Renn 2014, Taleb 2013a). Die Natur begrenzt auch nicht die
Interaktion zwischen den Wesen, aber ihre Größe. Damit gibt es eine automatische Reichweitenbegrenzung
von Störungen (Vester 2011).
Darüber hinaus werden Systeme generell gestärkt, indem einzelne Systemelemente oder Subsysteme
versagen können und dürfen. Dabei spielt auch Diversität bzw. Vielfältigkeit eine wichtige Rolle, da damit die
Anpassungsfähigkeit und Weiterentwicklung gewährleistet werden (Fehlende bzw. abnehmende
Diversität). Das was sich bewährt, setzt sich durch. Jedoch nicht durch einen Masterplan, sondern durch
Versuch und Irrtum (Macht alleine Schaden klug?). Hierbei werden aber gerne die stummen Zeugnisse
übersehen. Bei der Betrachtung der Geschichte sehen wir nicht alles, sondern nur die Erfolgsgeschichten
(„der Sieger schreibt die Geschichte“). Daher werden diese meist überbewertet. Dinge, die nicht
45
Integrative Risk and Security Research
Volume 3/ 2015
funktionierthaben, verschwinden oder geraten rasch in Vergessenheit. Bei menschlichen Fehlentwicklungen
gibt es jedoch immer wieder Wiederholungen, wie die Geschichte zeigt (Taleb 2013b).
Auch „too-big-to-fail“ widerspricht etwa diesen Grundsätzen. Wenn viele kleine Unternehmen scheitern,
erregt das kaum Aufsehen. Scheitert aber etwa ein großes Bauunternehmen oder eine Bank, werden alle
Hebel in Bewegung gesetzt, um das zu verhindern (Kurzfristiger Aktionismus versus langfristige Ziele).
Damit wird aber das Gesamtsystem fragiler und die Wahrscheinlichkeit einer zeitverzögerten größeren
Störung steigt (Zeitverzögerte Wirkungen). Diese Gefahr droht auch bei aktuellen
Hochwasserschutzprojekten, bei denen sehr viel Aufwand zur Verhinderung von Überschwemmungen
betrieben wird. Bricht ein Schutzbau, wären die Schäden jedoch enorm. Dies vermutlich auch, weil sich die
potentiell betroffenen Menschen aufgrund des Schutzbaues wesentlich schlechter auf ein solches Ereignis
vorbereiten, da sie ja immer weniger Störungen bewältigen müssen (Visualisierung). Man spricht hier auch
von einem Sicherheits- bzw. Verletzlichkeitsparadox. Je mehr ein System gegen eine bestimmte Gefahr und
gegen eine spezifische Schwere der Störung geschützt wird, desto verwundbarer wird es gegenüber
größeren oder anders gearteten Störungen.
Eine entsprechende Erfahrung machten auch Förster in amerikanischen Nationalparks. Eine Zeitlang wurde
sofort jedes kleine Feuer gelöscht bzw. verhindert. Das führte dazu, dass sich immer mehr totes (brennbares)
Material anhäufte. Kam es dann zu einem Brand, weitete sich dieser viel rascher zu einem nicht mehr
beherrschbaren Großbrand aus (Vester 2011). Kleine Störungen (Brennte) stärken Systeme und mindern die
Fragilität (Kleine Ursache, große Wirkung). Wird das (durch Menschen) verhindert, zögert sich nur der
Zeitpunkt des Eintritts hinaus und die Auswirkungen kumulieren, das heißt, sie verschlimmern sich. Diese
Beobachtungen gibt es nicht nur in der Natur, sondern auch in vielen anderen Bereichen (Taleb 2013b,
Ossimitz et al. 2006). Menschen überschätzen dabei häufig die eigenen Manipulationsfähigkeiten bzw.
missachten dabei längere Zeithorizonte. Die Agrarindustrie investiert sehr viel Geld in die Genforschung, um
beispielsweise schädlingsresistente Pflanzen zu designen. Mit zweifelhaftem Erfolg, wie etwa die
Anpassungsfähigkeit des Maiswurzelbohrers zeigt. Hier ist es mittlerweile notwendig, in immer kürzeren
Zeitabständen die verwendete Giftdosis zu erhöhen. Dies löst wiederum negative Effekte in der restlichen
Umwelt aus (Rückkoppelungen). Der Maiswurzelbohrer passt sich evolutionär an, er wird immer stärker,
weil nur die Stärksten überleben und sich weiterentwickeln. Dasselbe passiert auch in anderen Bereichen.
Die zunehmende Sorge vor sog. „Killerbakterien“ ist daher mehr als begründet (WHO 2014).
Eine weitere Gefahr für die Lebensmittel- und damit Versorgungssicherheit geht von der zunehmenden
Konzentration der Hersteller von Saatgut aus. Das derzeit dominierende Wachstums- und
Effizienzsteigerungsparadigma führt dazu, dass immer weniger große Konzerne und Sorten übrigbleiben,
was einer überlebenswichtigen Diversität widerspricht (Wachstumsparadigma) (Abb. 3).
Abbildung 3: Folgen fehlender Diversität
Quelle: Taleb et al. 2014
46
Macht allein Schaden klug?
Eine solche Machtkonzentration und Monopolisierung ist aber auch in vielen anderen Bereichen zu
beobachten. Diese spitzt sich etwa auch in der IT-Hardwareproduktion oder Pharmabranche zu. Es bleibt
eine immer geringere Anzahl, immer größerer produzierender Unternehmen übrig (Grüter 2013). Die
Forschungsbudgets wurden in den letzten Jahren aus unterschiedlichen Gründen erheblich reduziert
(Kurzfristiger Aktionismus versus langfristige Ziele). So werden etwa immer seltener neue Antibiotika
entwickelt und gleichzeitig steigt die Zahl der Antibiotikaresistenzen (WHO 2014). Zudem gibt es weltweit
nur mehr als eine Handvoll Produktionsanlagen für Antibiotika (Grüter 2013). All das passiert von der
Öffentlichkeit weitgehend unbeachtet. Es fehlen der Durchblick und das Gefühl für die Fragilität und
Verwundbarkeit unserer Lebensweise (Komplexe Systeme). Die Gefahr von strategischen Schocks steigt
(Strategische Schocks).
Komplexität und komplexe Systeme
Ein wesentlicher Grund für das Ansteigen von unüberschaubaren Risiken liegt in einer steigenden
Komplexität. Der Begriff „Komplexität“ wird häufig und in sehr unterschiedlichen Zusammenhängen
verwendet. Ob im technischen oder politischen Bereich, er scheint fast überall anwendbar („Boundary
Object“). Häufig wird der Begriff dazu verwendet, um undurchsichtige, schwer greifbare, dynamische und
damit kaum planbare und steuerbare Situationen oder Systeme zu beschreiben. Eine gewisse Überforderung
und Hilflosigkeit geht damit einher. Mit etwas Abstand erkennt man rasch einen Zusammenhang mit der
technischen Vernetzung.
Mit der Vernetzung steigt die Komplexität und Dynamik in Systemen, da es zu ständigen Rückkoppelungen
kommt (Rückkoppelung). Es entstehen komplexe offene Systeme, die mit ihrer Umwelt in
Wechselbeziehung stehen. Die Systemgrenze eines komplexen Systems lässt sich nicht genau definieren.
Eine zentrale Steuerung wie bei Maschinen (geschlossenen Systemen) ist nicht möglich. Die Steuerung
(Regelung) beruht auf einfachen Rückkoppelungsprozessen und Regelkreisen (Rückkoppelungen).
Menschliche Eingriffe ohne Berücksichtigung dieser Mechanismen scheitern, wenn auch häufig erst
zeitverzögert bzw. führen zu nicht intendierten Ergebnissen.
Komplexe Systeme weisen eine Reihe von Eigenschaften auf, die wir von unseren bisherigen technischen
Lösungen (geschlossenen Systemen) kaum kennen (Vester 2011, Malik 2011).
Der Komplexitätsforscher John Casti hat den Begriff der Komplexitätslücke geprägt (Casti 2012). Sie
beschreibt die Differenz zwischen Systemen unterschiedlicher Komplexität (Abb. 4). Komplexitätslücken
neigen dazu, sich auszugleichen. Wenn dies nicht durch „steuernde“ Eingriffe erfolgt, kommt es zur
Systembereinigung (Vernetzung und Lebensfähigkeit, s-förmiges Wachstum). Das nicht anpassungsfähige
System kollabiert. Der „Faden“ reißt dabei abrupt (Vester 2011).
47
Integrative Risk and Security Research
Volume 3/ 2015
Abbildung 4: Komplexitätslücken entstehen etwa zwischen den Versprechungen des Marketings
und den technischen/physikalischen Möglichkeiten und Grenzen
Quelle: Eigene Darstellung
Menschen neigen dazu, die Elastizität von Systemen generell zu überschätzen. Diese ist durchaus gegeben,
aber nicht unendlich. Ob dies im individuellen Bereich ist („Burnout“), am Finanzmarkt, bei technischen
Lösungen, beim Ressourcenverbrauch, beim Stromversorgungssystem, oder wo auch immer, es gibt kein
Beispiel dafür, dass wir diese Grenzen unendlich ausdehnen könnten (Vernetzung und Lebensfähigkeit).
Die Anzahl und die Größe derartiger Komplexitätslücken nehmen seit der Erhöhung der Vernetzungsdichte
deutlich zu. Etwa zwischen dem, was die Politik, der Markt oder das Marketing verspricht und vorgibt und
andererseits, was technisch/physikalisch möglich und sinnvoll bzw. was noch beherrschbar ist. Durch die
zeitverzögerte Wirkung haben wir bisher fast nur die positiven Seiten der Vernetzung kennengelernt
(Zeitverzögerte Wirkungen).
Der Finanzcrash 2007/2008 kann hier einmal mehr als Beispiel herangezogen werden. Es zeigte sich, dass
selbst Insider den Überblick verloren hatten, welche Objekte, Produkte oder Elemente genau verkauft und
gekauft wurde (Renn 2014, Taleb 2012). Und in vielen technischen Bereichen ist heute ein ähnliches Niveau
zu beobachten (Zurich 2014).
Systemische Risiken
Die zum Teil chaotische und nicht-systemische technische Vernetzung der vergangenen Jahre hat dazu
geführt, dass in unserer Gesellschaft und in den Kritischen Infrastrukturen die Anzahl der systemischen
Risiken, nicht zu Letzt aufgrund der wachsenden Komplexitätslücken, massiv angestiegen ist. Systemische
Risiken sind gekennzeichnet durch (Renn 2014):
einen hohen Vernetzungsgrad (Dynamik, Komplexität, Wechselwirkungen)
die Gefahr von Dominoeffekten
eine Nicht-Linearität in den Auswirkungen (keine einfachen Ursache-Wirkungsketten, die durch
das standardisierte Risikomanagement erfasst werden) und
eine systematische Unterschätzung der Auswirkungen durch Verantwortungsträger.
Das führt dazu, dass die Wahrscheinlichkeit von strategischen Schockereignissen, also Ereignissen, die in der
Lage sind, unser Zusammenleben nachhaltig – langfristig und erheblich – zu verändern („Game-Changer“),
massiv angestiegen ist.
48
Macht allein Schaden klug?
Abbildung 5: Dominoeffekte können eine Vielzahl von Folgeereignissen auslösen;
Quelle: PublicDomainPictures, www.pixabay.com
Abbildung 6: Mögliche bereits abschätzbare strategische Schockereignisse;
Quelle: Eigene Darstellung
Mittlerweile gibt es eine Reihe von möglichen und realistischen Szenarien (Abb. 6), die durch systemische
Risiken ausgelöst werden können. Wesentlich ist dabei, dass fast immer unsere Kritische Infrastruktur von
einem solchen strategischen Schockereignis betroffen wäre, da es entsprechende Wechselwirkungen und
Abhängigkeiten gibt (Komplexe Systeme). Strategische Schocks sind Ereignisse, die äußerst selten
vorkommen, jedoch ernorme Auswirkungen erwarten lassen. Nassim Taleb hat dafür den Begriff der
„Schwarzen Schwäne“ geprägt. Er fügt noch hinzu, dass derartige Ereignisse im Nachhinein immer einfach zu
erklären sind, vorher aber nicht erkannt oder ignoriert werden (Taleb 2013b).
Ein Finanzkollaps hätte etwa erhebliche Auswirkungen auf die zahlreichen Infrastrukturbaustellen der
Energiewende. Umgekehrt könnten Blackouts – überregionale und länger andauernde Strom- und
Infrastrukturausfälle – zu weitreichenden Wirtschafts- und Finanzkrisen führen. Durch die vielschichtige
Vernetzung können sich strategische Schocks häufig einfach auf andere Systeme ausbreiten (Dominoeffekte)
– auf die Gesellschaft, auf Unternehmen, auf andere Infrastrukturbereiche bzw. auf so gut wie alles, was
damit verbunden ist. Dabei gibt es eine Reihe von Fallstricken, die diese Ausbreitung begünstigen.
Ein Beispiel ist die Just-in-Time/Just-in-Prozess-Logistik, die einen sehr hohen Synchronisationsgrad erfordert
und daher sehr störanfällig ist, wenn wichtige Kettenglieder zeitgleich ausfallen. Dies ist im Alltag kaum
49
Integrative Risk and Security Research
Volume 3/ 2015
spürbar, da kleine Störungen beherrscht werden. Allerdings sind die Auswirkungen eines möglichen
Blackouts auf diesen Bereich kaum abschätzbar (Casti 2012, Saurugg 2012a, 2012b).
Der wirtschaftliche Druck zur Optimierung und Effizienzsteigerung hat mittlerweile zu einer Reduktion der
Robustheit von Systemen geführt, da wichtige Redundanzen, Reserven und Puffer immer häufiger
eingespart werden (Wachstumsparadigma) (Dueck 2010). Damit sinkt die Fähigkeit, mit größeren
Störungen umgehen zu können.
Besonders brisant sind die Entwicklungen im Bereich der Kritischen Infrastruktur, von denen unser
Gemeinwesen ganz erheblich abhängig ist. Durch immer aufwendigere und undurchsichtigere technische
Lösungen und durch die steigende Vernetzung schaffen wir immer größere Verwundbarkeiten, ohne uns
dessen bewusst zu sein oder dafür einen Plan B zu haben. Technische Sicherungen gegen Katastrophen
verschieben häufig nur den kritischen Punkt, an dem ein System in die Katastrophe kippt (Ossimitz et al.
2006, Beck 2008).
Ein weiterer Fallstrick ist, dass wir in den letzten Jahrzehnten in unserer mitteleuropäischen Gesellschaft sehr
stabile und konstante Verhältnisse erleben durften. Daher besteht kaum ein Bewusstsein, dass die gesamte
Menschheitsgeschichte und auch heute noch der Großteil der Welt von Variabilität und zyklischen
Entwicklungen gekennzeichnet waren und sind. Wir haben in den vergangenen Jahren in vielen Bereichen
wichtige Auffangnetze reduziert, was uns wiederum anfälliger gegenüber größeren Störungen macht. Ob
dies den Finanzsektor, die Energie- und Rohstoffversorgung, das europäische Stromversorgungssystem, eine
Pandemie oder auch die möglichen Auswirkungen des Klimawandels betrifft, es gibt eine Vielzahl an
potenziellen Ereignissen, die uns für strategische Schocks anfällig machen. Dabei sind in Anbetracht der
möglichen Konsequenzen und der gesellschaftsverändernden Auswirkungen Wahrscheinlichkeiten
irrelevant (Taleb 2013b).
Die Konsequenzen sind umso schwerwiegender, je seltener ein Ereignis eintritt, und desto schwieriger ist
eine analytische Einschätzung. Entscheidend ist nicht, dass jemand ein Ereignis „vorhersagt“, sondern dass
diese „Vorhersage“ mit Konsequenzen verbunden ist. Daher ist es notwendig, dass Systeme und ihre
Fragilität analysiert werden und nicht Einzelereignisse oder einzelne Elemente eines Systems (Taleb 2013a).
Eine Vorgangsweise, die heute weitgehend nicht üblich ist (Zurich 2014).
Ein bekanntes Beispiel zur Illustration der Fehleinschätzung von Risiken ist die sog. Truthahn-Illusion (Abb.
7): Ein Truthahn, der Tag für Tag von seinem Besitzer gefüttert wird, hat nicht die geringste Ahnung, was am
Tag X passieren wird. Er muss aufgrund seiner positiven Erfahrungen annehmen, dass die Wahrscheinlichkeit,
dass etwas gravierend Negatives passiert, von Tag zu Tag kleiner wird. Am Tag vor Thanksgiving wird jedoch
ein entscheidender Wendepunkt eintreten, mit entsprechend fatalen Folgen für den Truthahn. Die Truthahn-
Illusion steht zudem für die Überzeugung, dass sich jedes Risiko berechnen lässt, obwohl dies nicht möglich
ist (Gigerenzer 2013, Taleb 2012).
Dabei spielt auch eine Rolle, dass das Nichtvorhandensein von Beweisen mit einem Beweis für ein
Nichtvorhandensein verwechselt wird. Es ist davon auszugehen, dass vordergründig stabile Systeme fragiler
sind, als Systeme, in denen häufiger Störungen auftreten (Vernetzung und Lebensfähigkeit). Darüber
hinaus wird übersehen, dass der sogenannte schlimmste Fall zu der Zeit, da er sich ereignete, schlimmer war
als der damals erwartete „schlimmste Fall“ (Taleb 2013a).
50
Macht allein Schaden klug?
Abbildung 7: Die Truthahn-Illusion als Folge eines linearen, vergangenheitsorientieren Denkens;
Quelle: Eigene Darstellung
Exponentielle Entwicklungen
Unter anderem spielen bei der Unterschätzung der Auswirkungen exponentielle Entwicklungen eine
entscheidende Rolle (Abb. 8), die mit linearem Denken nur schwer erfassbar sind, wie folgende Legende zum
Ausdruck bringt: Der Erfinder des Schachspiels hatte einen Wunsch frei. Er wünschte sich von seinem König
folgende vordergründig sehr bescheidene Belohnung: Für das erste Feld des Schachbrettes ein Korn, für das
zweite zwei Körner, für das dritte vier Körner und bei jedem weiteren Feld doppelt so viele wie auf dem
vorherigen Feld. Dieser Wunsch war jedoch nicht erfüllbar. 2^64 entspricht etwa 18 Trillionen
Weizenkörnern, oder rund 100 Milliarden Lkw-Ladungen Getreide, was mit sämtlichen Welternten seit
Beginn des Getreideanbaus nicht abdeckbar wäre (Wikipedia: http://de.wikipedia.org/wiki/Sissa_ibn_Dahir
(16.09.15)). In vernetzten Systemen steigt die Möglichkeit der Wechselwirkungen exponentiell an, womit die
Steuerbarkeit drastisch sinkt (Kleine Ursache, große Wirkung).
Dynamik
Mit der Vernetzung steigt auch die Dynamik in einem System. Diese bezeichnet die Änderungen aller
Systemzustände über die Zeit. Ein dynamisches System steht niemals still, es lebt. Daher sind Analysen
immer nur ein Ausschnitt zum Zeitpunkt X, was sich bei der Planung oder Durchführung von
Systemeingriffen meistens negativ auswirkt, da sich das System ja laufend weiter verändert.
51
Integrative Risk and Security Research
Volume 3/ 2015
Abbildung 8: Exponentielle Entwicklungen am Beispiel 2^x. Kommt etwa in der IT-Welt zum Tragen;
Quelle: Eigene Darstellung
Emergenz
Eine weitere Rolle spielt die steigende Emergenz in komplexen Systemen. Diese führt zur spontanen
Herausbildung von neuen Systemeigenschaften oder Strukturen durch das Zusammenspiel der
Systemelemente und der Rückkoppelungen. Die Eigenschaften der Systemelemente lassen dabei keine
Rückschlüsse auf die emergenten Eigenschaften des Systems zu. So sind etwa die Elemente Sauerstoff und
Wasserstoff brennbar. Vereint im Wassermolekül kann Wasser zum Feuerlöschen verwendet werden.
Zusätzlich kommt es zur spontanen Selbstorganisation, eine Steuerbarkeit, wie wir sie von linearen Systemen
(„Maschinen“) kennen, ist nicht mehr möglich. Komplexe Probleme lassen sich daher nicht in Teilprobleme
zerlegen, um diese dann zu analysieren und anschließend wieder zu einer Gesamtlösung zusammenzufügen.
Rückkoppelungen
In komplexen Systemen kommt es zu positiven und negativen Rückkoppelungen. Positive Rückkoppelungen
wirken selbstverstärkend (mehr führt zu mehr). Sie sind zwar für einen Start oder für ein Abbremsen wichtig,
jedoch auf Dauer schädlich. Negativen Rückkoppelungen wirken hingegen stabilisierend (mehr führt zu
weniger). Beide Arten sind für die Selbststeuerung von komplexen Systemen notwendig (Vester 2011).
Gerade am Finanzmarkt kommt es immer wieder durch positive Rückkoppelungen zu Blasenbildungen und
Crashs. Der Kurs steigt und damit auch das Interesse an den Papieren, womit wieder der Kurs steigt. Aber
eben nicht unendlich (Vernetzung und Lebensfähigkeit). Und dieser Zeitpunkt ist nie vorhersagbar
(Komplexe Systeme). Auch wenn immer wieder mit mathematischen Modellen versucht wird, negative
Entwicklungen vorherzusagen, blieben bislang sämtliche Versuche erfolglos. Menschen neigen generell
dazu, Erfolge auf eigenes Können und Misserfolg auf äußere Einflüsse und Pech zurückzuführen. Dass es
etwas mit Zufall und Glück zu tun haben könnte, wird in der Regel ausgeschlossen (Taleb 2013b). Wenn man
diese Mechanismen kennt, kann man sie auch nützen. Das hat aber nichts mit einer vermeintlichen
Berechenbarkeit zu tun.
52
Macht allein Schaden klug?
Abbildung 9: Steuerung versus Regelung
Quelle: Eigene Darstellung
Korrelation versus Kausalität
Ein anderer Irrtum entsteht, indem Korrelationen gerne mit Kausalitäten gleichgesetzt werden
(Kurzfristiger Aktionismus versus langfristige Ziele). Die Korrelation beschreibt eine Beziehung zwischen
unterschiedlichen Ereignissen, Zuständen oder Funktionen. Dabei muss keine kausale Beziehung bestehen.
Kausalität hingegen bezeichnet einen naturgesetzlichen, reproduzierbaren Zusammenhang zwischen
Ursache und Wirkung. Ein kausales Ereignis hat eine feste zeitliche Richtung, die immer von der Ursache
ausgeht, auf die die Wirkung folgt, was daher in komplexen Systemen mit laufenden Rückkoppelungen zu
Fehlschlüssen verleitet (Komplexe Systeme) (Dueck 2015, Taleb 2013a).
So kann es zwar zwischen dem Rückgang der Geburtenanzahl und der Abnahme von Störchen in einer
Region eine Korrelation geben, aber sicher keine Kausalität.
Kurzfristiger Aktionismus versus langfristige Ziele
Unser Wirtschaftssystem bzw. die Verfolgung des Wachstumsparadigmas führt dazu, dass in vielen Bereichen
nur sehr kurzfristig und auch kurzsichtig geplant und gehandelt wird (Wachstumsparadigma). Die
zunehmend auf Kennzahlen getriebene Betrachtung verleitet zu Aktionismus. Der Betrachtungshorizont
wird auf kurzfristige Erfolge eingeschränkt, die langfristige Lebensfähigkeit bleibt außen vor. Aktionismus
findet mittlerweile fast überall statt, da er gesellschaftsfähig geworden ist. Statt die Ursache eines Problems
zu suchen und dort anzusetzen, wird häufig nur eine Symptombehandlung durchgeführt, da diese rasch
angewandt werden kann und ein schnelles („vermarktbares“) Ergebnis liefert. Fundamentale Lösungen
hingegen führen kurzfristig häufig zu Nachteilen und bringen erst langfristig einen positiven Nutzen bzw.
Mehrwert (Ossimitz et al. 2006) (Evolutionäre Prägungen).
Ob das eine nicht erfolgte Verfassungs- oder Verwaltungsreform, eine Bildungs-, eine Gesundheitswesens-
oder eine Pensionsreform ist, die Beispiele können lange fortgesetzt werden. Aber auch
Hochwasserschutzdämme oder Lawinenschutzbauten sind vorwiegend eine Symptombehandlung. Auch
hier vergrößern sich die Komplexitätslücken. Sowie das bloße Ausschalten von Warneinrichtungen keine
Gefahren beseitigt, wie etwa auch die Ölkatastrophe im Golf von Mexiko 2010 einmal mehr gezeigt hat.
Wachstumsparadigma
Eine wesentliche Rolle bei vielen negativen Entwicklungen spielt unser scheinbar unumstößliches
Wachstumsparadigma, dem sich quasi alles andere unterzuordnen hat. Dem Menschen ist es immer wieder
gelungen Grenzen auszudehnen. Ob beim Bevölkerungswachstum oder bei dem Ressourcenvorkommen,
immer wurden die Erwartungen deutlich überschritten. Eine weitere Möglichkeit kurzfristig weiter wachsen
bzw. gute Zahlen liefern zu können besteht darin, Reserven und Redundanzen zu reduzieren, oder
Wartungsintervalle hinauszuzögern. Ob dies jedoch langfristig nachhaltig ist, zeigt sich erst in der Zukunft.
Bis dahin gilt die bisherige Erkenntnis, dass ein System, das zwingend permanentes Wachstum braucht, nicht
nachhaltig existieren kann und daher selbst seinen eigenen Untergang herbeiführt (Ossimitz et al. 2006,
Vester 2011).
In der Natur gibt es kein unbegrenztes, sondern nur ein zyklisches bzw. s-förmiges Wachstum, da dieses
selbstzerstörerisch wirkt. Tumore stellen bisher den erfolglosen Gegenversuch dar (Vester 2011).
53
Integrative Risk and Security Research
Volume 3/ 2015
S-förmiges Wachstum
S-förmiges Wachstum beginnt langsam, steigt nach einer längeren Periode exponentiell an und flacht dann
wieder ab (Abb. 10). Ob durch Angebot und Nachfrage, Ressourcenverknappung oder Beute-
Räuberverhältnisse, ausschlaggebend sind immer selbstregulierende Regelkreise (Rückkoppelungen). Ein
weiteres Wachstum ist nur über einen neuen Zyklus (etwa durch eine neue Technologie) möglich, der
rechtzeitig angestoßen werden muss. Die künstliche Ausdehnung des exponentiellen Wachstums führte
bisher immer zum Systemkollaps.
Abbildung 10: S-förmiges Wachstum
Quelle: Vester, 2011
Menschen neigen dazu, diesen Mechanismus zu ignorieren. Was durchaus auch eine Zeit lang gut gehen
kann, da Systemgrenzen dehnbar und Systeme generell elastisch sind (Systeme). Dieser Erfolg führt aber
zu einer Selbstüberschätzung der eigenen Fähigkeiten, mit meist langfristigen negativen Folgen
(Zeitverzögerte Wirkungen). So haben etwa langjährige Marktführer wie Kodak im Bereich der analogen
Fotografie oder Nokia im Bereich der Mobiltelefone derartige Entwicklungen (Digitalfotografie bzw.
Smartphones) unterschätzt. Kodak ist Geschichte, Nokia spielt gegenüber seiner früheren Rolle nur mehr ein
Schattendasein. Eine intensive Landnutzung führt zwar kurzfristig zu mehr Wachstum und Output, führt aber
zu einer Ressourcenübernutzung und damit zum Rückgang oder zur vollständigen Zerstörung der
Nutzbarkeit.
Aber auch fundamentale gesellschaftliche Weiterentwicklungen entstehen meist erst dann, wenn das Alte
untergegangen ist („Schöpferische Zerstörung“). Auch Innovation führt generell dazu, dass bisherige
Lösungen obsolet werden oder mit weit weniger Ressourcenaufwand bewältigt werden können. Dies wird
häufig übersehen und führt dann zu unangenehmen Überraschungen, obwohl es sich immer um dieselben
Gesetzmäßigkeiten handelt (Dueck 2010). Entweder es gelingt ein rechtzeitiger Neuanfang und Übergang,
oder es kommt zu einem abrupten Ende (Vester 2011).
Zeitverzögerte Wirkungen
Eine weitere Rolle spielen zeitverzögerte Wirkungen. Dinge, die in der Ferne liegen, sind für uns schwer
abschätzbar (Evolutionäre Prägungen). Herzkreislauferkrankungen, Übergewicht und viele andere
Wohlstandskrankheiten basieren auf jahr- wenn nicht jahrzehntelangem Fehlverhalten. Aber nicht nur im
persönlichen Bereich haben wir damit Schwierigkeiten. Auch der Klimawandel entsteht über viele
Jahrzehnte, zuerst schleichend und dann immer schneller. Es kommt zu einem exponentiellen Anstieg der
Auswirkungen, die irreversible sind (Exponentielle Entwicklungen, -förmiges Wachstum).
54
Macht allein Schaden klug?
Ein anderes Beispiel stammt aus der IT-Welt, wo es in den vergangenen Jahren zu einem exponentiellen
Anstieg in der Qualität und Quantität der Zwischenfälle gekommen ist. Und wie es scheint, ist damit das
Ende noch nicht erreicht, ganz im Gegenteil. Das, was uns noch bevorstehen könnte, würde alles Bisherige in
den Schatten stellen. Ein infrastruktureller Systemkollaps ist keine Utopie (Zurich 2014, Casti 2012, Grüter
2013).
Auch das europäische Stromversorgungssystem wird von der Öffentlichkeit weitgehend unbeachtet immer
häufiger an der Belastungsgrenze betrieben. Die unsystemischen Eingriffe der deutschen Energiewende
tragen dabei wesentlich zur Destabilisierung bei (Kurzfristiger Aktionismus versus langfristige Ziele,
Komplexe Systeme). Eine europäische Großstörung („Blackout“) auf Grund eines Systemversagens scheint
nur mehr eine Frage der Zeit zu sein (Saurugg 2012b).
Kleine Ursache, große Wirkung
In hoch vernetzten Systemen können kleine Ursachen verheerende Auswirkungen auslösen. So gibt es etwa
noch immer die Nachwirkungen der amerikanischen Immobilienkrise 2007. Nachdem die Ursachen nicht
behoben wurden, ist davon auszugehen, dass die nachfolgenden Krisen noch heftiger ausfallen werden
(Vernetzung und Lebensfähigkeit). Die Wechselwirkungen des hoch vernetzten Finanzsystems wurden
und werden dabei vielfach unterschätzt (Casti 2012, Renn 2014, Taleb 2012).
Alle großen Blackouts der vergangenen Jahre (außerhalb Europas) wurden durch die Kumulation mehrerer
kleiner Ereignisse zum falschen Zeitpunkt ausgelöst. Europa ist bisher davon verschont geblieben, was aber
leider keine Garantie für die Zukunft ist (Truthahn-Illusion, Vernetzung und Lebensfähigkeit) (Saurugg
2012b).
Ein sehr plastisches Beispiel sind auch Lawinen. Diese werden durch kleine Störungen ausgelöst. Durch
selbstverstärkende Rückkoppelungen entsteht die verheerende und gleichzeitig irreversible Wirkung.
Natürlich gibt es auch positive Beispiele für kleine Ursache, große Wirkung. Etwa die zufällige Entdeckung
von Penizillin, die massive Auswirkungen auf die Mortalität hatte. Ebenso kann hier das Pareto-Prinzip
herangezogen werden. Mit 20% des Aufwandes 80% des Erfolges erreichen bzw. umgekehrt, 80% des
Aufwandes für 20% des Erfolges.
Evolutionäre Prägungen
Bei menschlichen Handlungen spielen immer evolutionär geprägte Muster eine Rolle. So neigen wir etwa
dazu, lieber kurzfristige Erfolge als einen langfristigen Mehrwert in Kauf zu nehmen. In der Psychologie wird
dafür der Begriff „Belohnungsaufschub“ verwendet. Dabei wird auf eine unmittelbare (anstrengungslose)
Belohnung zu Gunsten einer größeren Belohnung in der Zukunft verzichtet, die allerdings entweder erst
durch Warten oder durch vorherige Anstrengung erlangt werden kann. Dieses Phänomen kann heute in
vielen Bereichen, etwa bei politischen Entscheidungen, beobachtet werden (Kurzfristiger Aktionismus
versus langfristige Ziele). Was evolutionär durchaus Sinn gemacht hat, stellt heute häufig einen langfristigen
Nachteil dar (Klingholz 2014, Dueck 2010).
Eine andere Prägung ist, dass beim Tod einer großen Gruppe viel mehr Betroffenheit entsteht, als wenn die
gleiche Anzahl von Personen verteilt stirbt. Auch das ist historisch nachvollziehbar, bedrohte der Tod einer
größeren Gruppe einer Sippe doch die Überlebensfähigkeit der ganzen Sippe. Das gilt heute nicht mehr.
Dennoch reagieren wir nach wie vor nach diesem Muster. So kamen etwa auf amerikanischen Straßen im
Jahr 2002 rund 1.500 Menschen mehr ums Leben als in den Jahren zuvor. Viele Menschen fürchteten sich
nach 9/11 vor dem Fliegen und traten die Reise lieber mit dem Auto an. Ein fataler Irrtum (Vester 2011). Sehr
viel wurde seither auch in die (Flug-)Sicherheit investiert. Gleichzeitig haben wir jedoch zugelassen, dass in
den letzten Jahren unsere Gesellschaft im infrastrukturellen Bereich um ein Vielfaches verwundbarer
geworden ist.
Durch den Klimawandel sind auch in unseren Breiten in Zukunft verstärkt längere Hitzephasen zu erwarten.
Bisherige Auswertungen haben ergeben, dass es während solcher Hitzewelle zu einem massiven Anstieg der
Mortalität kommt bzw. dass es in den letzten 50 Jahren in Europa die meisten Todesopfer infolge von
Hitzewellen gab. Gleichzeitig gibt es dazu aber kaum ein öffentliches Bewusstsein. Dies ist wohl auch darauf
zurückzuführen, dass kein Einzelereignis zum Massenanfall führt, sondern dass es sich um einen
„schleichenden“ Prozess handelt, wo noch dazu die Todesursache nicht immer eindeutig einer Ursache
zuordenbar ist (
Einfaches Ursache-Wirkungsdenken).
55
Integrative Risk and Security Research
Volume 3/ 2015
Zum anderen führen Durchschnittswerte zu falschen Erwartungen, wie etwa beim Anstieg der globalen
Erderwärmung in Folge des Klimawandels. Viel wesentlicher sind die erwartbaren Varianzen (z.B.
Extremwetterereignisse), die sich besonders auf lokaler Ebene auswirken und auch die erforderlichen
Bewältigungskapazitäten betrifft. Durchschnittswerte vermitteln im generellen einen falschen Eindruck und
verleiten zu falschen Schlüssen (Renn 2014).
Ein generelles Problem ist auch, dass wir uns zu stark auf das konzentrieren, was wir bereits wissen und
weniger auf die Vorsorge, wie dies etwa Nassim Taleb zum Ausdruck brachte:
„Wir neigen dazu, nicht das Allgemeine zu lernen, sondern das Präzise. Wir lernen keine Regeln, sondern
nur Fakten. Jeder weiß, dass wir mehr Vorbeugung als Behandlung brauchen, doch kaum jemand
belohnt Vorbeugungsmaßnahmen. Wir glorifizieren jene, deren Namen in die Geschichtsbücher
eingegangen sind, auf Kosten derjenigen, über die unsere Bücher schweigen.“ (Taleb 2013b: 9)
Mangelnde Systembetrachtung
Allen Szenarien ist gemein, dass die Basis dieser Entwicklungen auf die mangelnde Systembetrachtung und -
berücksichtigung zurückzuführen ist. Wir agieren in vielen Bereichen noch so, als gebe es keine Vernetzung
und man könnte die einzelnen Bereiche isoliert betrachten („Silodenken“).
Dieser Irrtum wurde etwa 2013 im Rahmen des europäischen Programms zum Schutz kritischer
Infrastrukturen (EPCIP) eingestanden (Europäische Kommission 2013). Das Umdenken und neue Handeln
benötigt aber Zeit. Zeit, die wir in vielen Bereichen nicht haben, da die Entwicklungen mit den potenziellen
negativen Auswirkungen ungebremst voranschreiten. Dennoch müssen wir damit beginnen.
Systemisches Denken
Damit schließt sich der Kreis zum linearen Denken. Albert Einstein wird gerne mit „Probleme kann man
niemals mit derselben Denkweise lösen, durch die sie entstanden sind.“ zitiert. Daher sind aktuelle und
zukünftige Herausforderungen, wie etwa der Klimawandel, Technikkatastrophen („man-made disaster“),
Finanzkrisen, Lebensmittelkrisen, Antibiotikaresistenzen, Terrorismus, Hungersnöte, Naturkatastrophen,
Pandemien oder Ressourcenverknappung nicht alleine mit dem bisherigen – vergangenheits- und
erfahrungsbasierten – Denken zu lösen.
Die „Steuerung“ vernetzter Systeme erfordert ebenso vernetztes Denken und Handeln, also systemisches
Denken. Dabei müssen wir uns von der Vorstellung der Steuerbar- und Kontrollierbarkeit, wie dies bei
Maschinen möglich ist, verabschieden. Das funktioniert bei komplexen, offenen Systemen nicht. Nur wenn
wir das akzeptieren können, können wir lernen, mit den neuen Herausforderungen und den damit
verbundenen Risiken umzugehen (Langner 2012).
56
Macht allein Schaden klug?
Abbildung 11: Ein Paradigmenwechsel in der Sicherheitsbetrachtung ist erforderlich
Quelle: Eigene Darstellung
Systemisches Denken hilft, das Wesentliche eines Systems, die Wirkungsgefüge und Wechselwirkungen, zu
erkennen. Dabei geht es nicht mehr um die Konzentration auf das Wesentliche, sondern um die Erfassung
des ganzen Musters. Darüber hinaus muss die Aufmerksamkeit auf Entwicklungen und nicht auf Zustände
gelegt werden. Denn Zustände ändern sich in dynamischen Systemen häufig (Vester 2011, Dörner 2011,
Krizanits 2014).
Zusätzlich ist ein „Sowohl-als-auch-Denken“ erforderlich. Die technische Vernetzung hat der Menschheit
viele positive Errungenschaften gebracht. Leider neigen wir dazu, diese Seite überzubewerten und die
möglichen Schattenseiten bis zum Eintritt zu ignorieren. Unser abendländisches „Entweder-oder-Denken“ ist
binär. Gut und schlecht, warm und kalt, trocken und heiß, gesund und krank, arm und reich, und so weiter.
Die Betonung liegt auf „und“, nicht etwa auf „oder“. Dieser Aspekt steht unsufig im Weg. Damit werden
auch viele Handlungsspielräume eingeschränkt. Mit einem „Sowohl-als-auch-Denken“ lässt sich die Realität
leichter abbilden. Sie ist nicht nur schwarz/weiß, sondern es gibt viele Graustufen dazwischen, wenngleich
die Pole eine wichtige Rolle spielen und sich gegenseitig bedingen. (Beck 2008, Völkl/Wallner 2013) Daher
sollte es selbstverständlich sein, dass jede Sonnenseite auch eine Schattenseite hat.
Auch in Zukunft werden wir lineares, logisches, rationales, analytisches oder fachspezifisches Denken für
dafür geeignete Prozesse und Technologien benötigen. Aber wir brauchen zusätzlich Menschen, die das
ganze System überblicken und mögliche Fehlentwicklungen erkennen können. Denn die bisher durchaus
sehr erfolgreiche Denkweise eignet sich nur für die Lösung von Problemen in Systemen mit geringer
Komplexität. Werden sie zur Steuerung von hochkomplexen Systemen verwendet, führen sie zu
unerwünschten oder häufig sogar zu schmerzhaften Neben- und Folgewirkungen (Beck 2008). Je größer das
System wird, desto schwieriger wird die Realisierung. Daher müssen die in diesem Beitrag (nicht vollzählig)
aufgezählten Aspekte bereits im Systemdesign einfließen.
Natürlich wäre es eine Utopie anzunehmen, dass sich das einfach und per Top-Down-Anordnung umsetzen
ließe, was sogar der Natur komplexer Systeme widersprechen würde. Daher geht es darum, dieses Wissen
möglichst breit zu streuen, damit es in möglichst vielen Bereichen einfließen kann und die
Selbstorganisationsfähigkeit komplexer Systeme, wie es auch unsere Gesellschaft eines ist, zu mobilisieren.
Dazu gehört etwa auch wieder die stärkere Übernahme von Eigenverantwortung (Dueck 2010, Giebel 2012).
Diese Fähigkeiten werden wir in turbulenten Zeiten dringend benötigen. Von der Natur wissen wir, dass sich
evolutionäre Veränderungen aus vielen kleinen Puzzlestücken entwickeln. Diese fügen sich zum richtigen
57
Integrative Risk and Security Research
Volume 3/ 2015
und nicht vorhersehbaren Zeitpunkt ohne zentrale Steuerung zusammen. Es gibt keinen großen Plan. Alle
Versuche der zentralen Steuerung sind bisher im wahrsten Sinne des Wortes brutal gescheitert.
Auslöser für fundamentale Änderungen sind meist große Brüche oder Krisen. Nicht von ungefähr bieten
Krisen auch immer Chancen, eingetretene Pfade zu verlassen und neue Wege zu gehen. In der
Vergangenheit waren derartige Krisen häufig mit Kriegen verbunden. Wir hätten heute das Wissen und die
Fähigkeiten, eine evolutionäre Weiterentwicklung auch ohne Zerstörungen voranzutreiben.
Was wir bereits heute tun können, ist, uns auf turbulente Zeiten einzustellen und vorzubereiten, indem wir
möglichst viele Puzzlestücke gestalten, die uns etwa auf eine mögliche Post-Wachstumsära vorbereiten.
Oder, indem wir beginnen, das Systemdesign unserer Kritischen Infrastruktur zu überdenken. Bis hin zur
Erhöhung der gesamtgesellschaftlichen Resilienz, indem die Bevölkerung wieder als aktives Systemelement
gesehen und die Selbsthilfe- und Selbstorganisationsfähigkeit gestärkt wird (Giebel 2012). Viele kleine
Aktivitäten, wie etwa der Wunsch nach regionalen Produkten und Wertschöpfung, einer dezentralen
Energieversorgung aus erneuerbaren Energiequellen, Urban Gardening („der Garten in der Stadt“) oder
Komplementärwährungen sind Anzeichen dafür, dass Veränderungen bereits bottom-up begonnen haben.
Bottom-up bedeutet dabei, dass Menschen aus eigener Überzeugung von sich aus tätig werden und einen
Veränderungsprozess anstoßen, der keinem Masterplan folgt und daher nur bedingt steuerbar ist. Gerade
die unausweichliche Energiewende führt zu einer massiven Machtverschiebung. Dass derartige
Entwicklungen nicht reibungslos von sich gehen werden, ist selbstsprechend (Scheer 2012). Besonders
gefährlich ist dabei der derzeit eingeschlagene Weg, wie das grundsätzlich dezentrale System der
erneuerbaren Energieversorgung in das bisher zentrale System der Energieversorgung integriert wird. Die
Energiewende bedeutet weit mehr als nur die dezentrale Stromerzeugung, wie sie derzeit vorwiegend
verfolgt wird. Sie erfordert einen Kulturwandel, um die bestehende Komplexitätslücke wieder zu minimieren.
Daher ist gerade in diesem Bereich ein Plan B – was machen wir, wenn das System die Eingriffe nicht mehr
verträgt und es zu einem temporären Systemkollaps kommt – unverzichtbar. Einen solchen gibt es derzeit
jedoch nicht. Was wiederum auf unser lineares Denken und auf die Truthahn-Illusion (Abb. 10)
zurückzuführen ist.
Kognitive Grenzen
Aus Studien ist bekannt, dass unser Hirn bei maximal 3-4 miteinander vernetzten Faktoren die
Wechselwirkungen erfassen kann (Graeme 2005) und dann an kognitive Grenzen stößt. Das hängt etwa auch
mit den exponentiell ansteigenden Wechselwirkungen zusammen. Gleichzeitig versuchen wir aber weiterhin
die durch Vernetzung entstehende Komplexität mit unseren bisherigen linearen Denkweisen und
Lösungsansätzen zu steuern.
Visualisierung
Eine Möglichkeit mit diesen kognitiven Grenzen besser umgehen zu lernen besteht in der Visualisierung bzw.
Ursache-Wirkungsmodellierung. Dabei handelt sich vordergründig um ein Kommunikationsinstrument, das
allen Beteiligten die Zusammenhänge und mögliche Wechselwirkungen (Wirkungszusammenhänge) besser
vor Augen führen. Ein Modell wird umso besser, je mehr unterschiedliche und auch widersprüchliche
Blickwinkel enthalten sind. Dabei muss immer Bewusst sein, dass ein Modell nicht die Realität, sondern nur
ein vereinfachtes Abbild dieser darstellt, ähnlich wie eine Landkarte nur ein vereinfachtes Modell des
Geländes ist und zur Orientierung dient. Zudem ist bei komplexen Situationen nie eine vollständige
Berechenbarkeit sondern immer nur eine Annäherung möglich (Neumann 2013).
Hinzu kommt, dass Menschen grundsätzlich auf der Suche nach Mustern bzw. nach Erfahrungen aus der
Vergangenheit sind, die bei der Bewältigung der aktuellen Situation helfen sollen (Krizanits 2013, Taleb
2013b). Das funktioniert bei bekannten Situationen sehr gut, stößt aber immer dann an Grenzen, wenn es
sich um eine neuartige Situation handelt, etwa wie bei den Auswirkungen der Komplexitätsentwicklungen.
Auch bei der Modellierung wird man bei Unbekannten oder bei Unsicherheiten auf das bestehende
Bauchgefühl zurückgreifen. Durch die transparente Darstellung und Diskussion können jedoch
Schwachstellen bzw. auch Stärken besser erkannt werden, was beim reinen „Gefühl“ einer Person oder
Personengruppe meist nicht möglich ist. Zudem kann das Modell jederzeit mit neuen Erkenntnissen
weiterentwickelt und angepasst werden. Insgesamt geht es dabei weniger um fertige Erklärungen, als
vielmehr um neue Möglichkeiten zum Erfassen sinnvoller Erklärungen (Neumann 2013).
58
Macht allein Schaden klug?
Eine solche Vorgangsweise unterstützt etwa der iModeler (www.imodeler.info), der speziell zur Förderung
von vernetztem Denken entwickelt wird und einfach und intuitiv zu bedienen ist, also massentauglich sein
soll.
Abb. 12 stellt ein solches Wirkungsdiagramm dar, das den Zusammenhang zwischen technischen
Sicherheitsmaßnahmen und der abnehmenden Information (Bewusstsein) über mögliche Risiken aufzeigt.
Die roten Schleifen (-: mehr führt zu weniger; +: mehr führt zu mehr) Technische Sicherheitsmaßnahmen
Information über Risiko (Bedrohung) Betroffene Menschen und Güter Technische
Sicherheitsmaßnahmen sowie Betroffene Menschen und Güter Technische Sicherheitsmaßnahmen
Risiko kleiner Katastrophen Betroffene Menschen und Güter sind selbstverstärkend. Die Schleife
Technische Sicherheitsmaßnahmen Risiko kleiner Katastrophen Technische Sicherheitsmaßnahmen ist
ausgleichend.
Abbildung 12: Beispiel Wirkungsdiagramm
Quelle: Eigene Darstellung in Anlehnung an Ossimitz et al. 2006
Hier wirken sowohl die real verringerte Gefahr von kleinen Katastrophen (etwa Überschwemmungen) als
auch die Scheinsicherheit (die vermeintliche Abwesenheit von Gefahr durch fehlende Information)
kontraproduktiv. Die Risikowahrnehmung sinkt und damit steigt die Risikobereitschaft, etwa in potentielle
Überflutungsgebiete zu bauen. Kommt es zu einer großen Katastrophe, steigt der Schaden
unverhältnismäßig, auch weil die Menschen nicht darauf vorbereitet sind. Diesem „Teufelskreis“ kann man
nur entgegenwirken, indem man mit dem Risiko bewusst umgeht und möglicherweise erforderliche
Verhaltensweisen auch immer wieder übt (Ossimitz et al. 2006).
Eine weitere Visualisierung wurde mit dem Faktor „Systemsicherheit“ und den ihn diesem Beitrag
dargestellten Faktoren erstellt (Abb. 13).
Macht allein Schaden klug?
In der bisherigen Menschheitsgeschichte war es durchaus üblich, dass die Menschen aus „Versuch und
Irrtum“ klüger wurden (Kruse 2011, Renn 2014, Taleb 2013a). Das war auch insofern möglich, als das die
damit verbundenen Schäden lokal/regional begrenzbar waren bzw. die Schädigung von Individuen in Kauf
genommen wurden. In einer zunehmend vernetzten Welt und durch neue Technologien (etwa Gen- oder
Nanotechnologie) können sich Schäden wesentlich rascher bzw. weitreichender ausbreiten. Darüber hinaus
sind menschliche Verluste in einer auf höchstmögliche Sicherheit fixierten Gesellschaft moralisch nicht mehr
zu rechtfertigen. Das Modell „Versuch und Irrtum“ erscheint daher unter den heutigen Rahmenbedingungen
nur eingeschränkt zukunftsfähig zu sein.
59
Integrative Risk and Security Research
Volume 3/ 2015
Abbildung 14: Visualisierung des Faktors Systemsicherheit aus dem Beitrag
Quelle: Eigene Darstellung
Zudem müssen wohl auch Naturgefahren und -risiken in einem viel breiteren Spektrum betrachtet werden.
Denn auch durch Naturgefahren können weitreichende Dominoeffekte in einer hoch vernetzten Infrastruktur
ausgelöst werden, wie dies etwas im Bericht zur Risikoanalyse im Bevölkerungsschutz 2014 (Deutschen
Bundestag 2014) zur Sprache gebracht wird. Hierbei wurde angenommen, dass ein außergewöhnlicher
Wintersturm eine Sturmflut und einen großräumigen Stromausfall auslöst. Für das Szenario Stromausfall
wurden folgende Eckdaten herangezogen:
unmittelbar: mehr als 6 Millionen vom Stromausfall betroffene Menschen,
nach 24 Stunden: mindestens 4,8 Millionen vom Stromausfall Betroffene,
nach 1 Woche: mindestens 3 Millionen vom Stromausfall Betroffene,
noch nach 3 Wochen: mindestens 600.000 vom Stromausfall Betroffene.
Das ermittelte Schadensausmaß beziffert rund 1.000 Tote als Folge der Stromversorgungsunterbrechung.
Auch wenn das angenommene Szenario als „sehr unwahrscheinlich“ eingestuft wird, sollte durchaus
bewusst werden, dass hier Schaden nicht klug machen sollte. Auch 9/11 oder die Atomkatastrophe von
Fukushima galten bis zum Eintritt als sehr unwahrscheinlich, was bei einem europaweiten Stromausfall mit
möglicherweise mehreren hundert Millionen betroffenen Menschen nicht angenommen werden kann.
Komplexe Sachverhalte lassen sich nicht in einfach darstellbare und lösbare Teilprobleme zerlegen und
anschließend wieder zu einer Gesamtlösung zusammenfügen. Daher ist es notwendig, auch bei
Naturgefahren und -risiken mögliche Wechselwirkungen auf die vernetzte Infrastruktur frühzeitig zu erfassen
und zu adressieren.
Bei komplexen Schadenslagen oder strategischen Schocks funktioniert auch unser bisher bekanntes und
sehr wirkungsvolles „(Krisen-)Management“ nicht mehr bzw. nur mehr sehr eingeschränkt. Die Bewältigung
etwa eines Blackouts kann nicht nur durch organisierter Hilfe erfolgen, sondern muss auf lokaler/regionaler
Ebene auf Basis von Selbstorganisation erfolgen. Management ist nur möglich, wenn es entsprechende
60
Macht allein Schaden klug?
(technische) Kommunikationsmöglichkeiten gibt, wovon bei einem Blackout nur sehr bedingt auszugehen
ist.
Eine wesentliche Voraussetzung für eine erfolgreiche Bewältigung ist daher eine umfassende, integrierte
Sicherheitskommunikation, die nicht nur anlassbezogen und ereignisorientiert erfolgt, sondern eine
generelle Erhöhung der gesamtgesellschaftlichen Resilienz verfolgt (Giebel 2012).
Integrierte Sicherheitskommunikation
Eine integrierte Sicherheitskommunikation setzt bereits frühzeitig an, am besten bereits in der Schule. Mit ihr
sollen wesentliche Fertigkeiten im Umgang mit Unsicherheiten und außergewöhnlichen Schadenslagen
vermittelt werden. Dabei geht es oft nur um einfache Fertigkeiten, die in unserer hoch technisierten und
abgesicherten Gesellschaft kaum mehr benötigt werden, aber im Anlassfall überlebenswichtig sein können.
Damit würden auch ein bewusster Umgang mit Risiken gefördert bzw. die Abhängigkeiten vom
Funktionieren der Kritischen Infrastrukturen reduziert werden. In letzter Konsequenz ist es für die
Bevölkerung nebensächlich, wodurch ein Infrastrukturausfall herbeigeführt wurde, ob dies etwas durch ein
Naturereignis, einen Sonnensturm, einem technischen Versagen oder einem gezielten Angriff ist, die
Auswirkungen werden sehr ähnlich sein. Im Wesentlichen geht es um die Stärkung der
Unsicherheitsbewältigungskompetenzen und der Selbstwirksamkeit sowie Selbsthilfefähigkeit, wenn äußere
Umstände die organisierte Hilfe stark einschränken, was gerade auch bei Naturgefahren ein großes Thema ist
(Giebel 2012).
Zum anderen ist es notwendig, das Systemdesign vieler derzeitiger Strukturen zu überdenken. Egal ob
technischer oder sozialer Art, dezentrale und fehlerfreundliche Strukturen sind generell wesentlich Robuster
gegenüber Störungen als unsere derzeitigen stark zentralisierten Lösungen.
Sicherheit kann nur erreicht werden, wenn auch der Umgang mit Unsicherheit diskutiert und geübt wird, da
es keine Sicherheit ohne Unsicherheit gibt. Und dies erfordert vor allem die aktive Einbindung der
Bevölkerung und einen offenen und transparenten Kommunikationsprozess.
Literaturverzeichnis
Beck, U 2008, Weltrisikogesellschaft: Auf der Suche nach der verlorenen Sicherheit, Suhrkamp, Frankfurt am
Main.
Casti, J 2012, Der plötzliche Kollaps von allem: Wie extreme Ereignisse unsere Zukunft zerstören können, Piper,
München.
Dörner, D 2011, Die Logik des Misslingens: Strategisches Denken in komplexen Situationen, Rowohlt, Reinbeck
bei Hamburg.
Dueck, G 2015, Schwarmdumm: So blöd sind wir nur gemeinsam, Campus, Frankfurt am Main.
Dueck, G. 2013, Verständigung im Turm zu Babel: Über Multi-Channel-Kommunikation und proaktives Zuhören,
Campus, Frankfurt, New York.
Dueck, G 2010, Aufbrechen! Warum wir eine Exzellenzgesellschaft werden müssen, Eichborn, Frankfurt am Main.
Deutscher Bundestag 2014, Unterrichtung durch die Bundesregierung: Bericht zur Risikoanalyse im
Bevölkerungsschutz 2014, Online abrufbar unter:
http://dip21.bundestag.de/dip21/btd/18/036/1803682.pdf [16.09.15].
Europäische Kommission 2013, Commission staff working document on a new approach to the European
Programme for Critical Infrastructure Protection. Brüssel. Online abrufbar unter:
http://ec.europa.eu/energy/infrastructure/doc/critical/20130828_epcip_commission_staff_working_d
ocument.pdf [16.09.15].
Frey U & Frey J 2011, Fallstricke: Die häufigsten Denkfehler in Alltag und Wissenschaft, C.H. Beck, München.
Giebel, D 2012, Integrierte Sicherheitskommunikation: Zur Herausbildung von
Unsicherheitsbewältigungskompetenzen durch und in Sicherheitskommunikation, LIT, Münster.
Gigerenzer, G. 2013, Risiko: Wie man die richtigen Entscheidungen trifft, C. Bertelsmann, München.
Graeme, SH, Baker, R, McCredden, JE & Bain, JD. (n.a.): How Many Variables Can Humans Process? Online
abrufbar unter: http://pss.sagepub.com/content/16/1/70.abstract [16.09.15].
Grüter, T 2013, Offline!: Das unvermeidliche Ende des Internets und der Untergang der
Informationsgesellschaft, Springer, Heidelberg.
Klingholz, R 2014, Sklaven des Wachstums - die Geschichte einer Befreiung, Campus, Frankfurt.
Krizanits, J 2013, Einführung in die Methoden der systemischen Organisationsberatung, Carl-Auer, Heidelberg.
Kruse, P 2011, Next practice: Erfolgreiches Management von Instabilität, Gabal, Offenbach.
Langner, R 2012, Robust Control System Networks/How to achieve reliable control after Stuxnet. Momentum,
New York.
Malik, F 2011, Strategie: Navigieren in der Komplexität der Neuen Welt, Campus, Frankfurt am Main.
61
Integrative Risk and Security Research
Volume 3/ 2015
Neumann, K. 2013, KNOW-WHY: Erfolg durch Begreifen, Books on Demand, Norderstedt.
Ossimitz, G & Lapp, C 2006, Systeme: Denken und Handeln; Das Metanoia-Prinzip: Eine Einführung in
systemisches Denken und Handeln, Franzbecker, Berlin.
Renn, O 2014, Das Risikoparadox: Warum wir uns vor dem Falschen fürchten, Fischer, Frankfurt am Main.
Saurugg, H 2012a, Die Netzwerkgesellschaft und Krisenmanagement 2.0. Wien-Budapest. Online abrufbar unter:
http://www.saurugg.net/wp/wp-
content/uploads/2014/10/die_netzwerkgesellschaft_und_krisenmanagement_2.0.pdf [16.09.15].
Saurugg, H 2012b, Blackout - Eine nationale Herausforderung bereits vor der Krise. Online abrufbar unter:
http://www.saurugg.net/wp/wp-content/uploads/2014/10/Blackout-Eine-nationale-Herausforderung-
bereits-vor-der-Krise.pdf [16.09.15].
Scheer, H. 2012, 100% jetzt: der energetische Imperativ: Wie der vollständige Wechsel zu erneuerbaren Energien
zu realisieren ist, Antje Kunstmann, München.
Taleb, NN, Read, R, Douady, R, Bar-Yam, Y & Norman, J (n.a.): The Precautionary Principle (with Application to the
Genetic Modification of Organisms). Online abrufbar unter: http://arxiv.org/abs/1410.5787 [16.09.15].
Taleb, NN 2012, Der Schwarze Schwan: Konsequenzen aus der Krise, dtv, München.
Taleb, NN, 2013a, Antifragilität: Anleitung für eine Welt, die wir nicht verstehen, Albrecht Knaus, München.
Taleb, NN 2013b, Der Schwarze Schwan: Die Macht höchst unwahrscheinlicher Ereignisse, dtv, München.
Vester, F 2011, Die Kunst vernetzt zu denken: Ideen und Werkzeuge für einen neuen Umgang mit Komplexität. Ein
Bericht an den Club of Rome, Deutscher Taschenbuch Verlag, München.
Völkl, K & Wallner, HP 2013, Das innere Spiel: Wie Entscheidung und Veränderung spielerisch gelingen, Business
Village, Göttingen.
WHO n.a., WHO’s first global report on antibiotic resistance reveals serious, worldwide threat to public health.
Online abrufbar unter: http://www.who.int/mediacentre/news/releases/2014/amr-report/en/
[16.09.15].
Zurich Insurance Company Ltd & Atlantic Council of the United States 2014, Beyond data breaches: global
interconnections of cyber risk. Online abrufbar unter:
http://www.atlanticcouncil.org/images/publications/Zurich_Cyber_Risk_April_2014.pdf [16.09.15].
62
Macht allein Schaden klug?
Sturmfluten, Washover-Prozesse und
Dünendurchbrüche auf Sylt und Amrum
Tanja Tillmann
Email: tanja.tillmann@nihk.de
Abstract
Washover-Prozesse und -Ablagerungen sind weltweit an vielen Küsten verbreitet und gehören zum
geomorphologischen Formenschatz vieler Dünen- und Barriereinseln. Auf den Nordseeinseln Sylt und
Amrum sind rezente Washover-Areale besonders im Bereich der Inselenden zu finden. Dort sind in Folge
winterlicher Sturmfluten Inseldurchbrüche zu befürchten. Durch die Arbeiten sollte nachgewiesen werden,
ob und in welchem Maße Washover-Prozesse bereits in der Vergangenheit am Aufbau der Nordseeinseln
beteiligt waren und welche Auswirkungen sie auf die Inselgenese hatten.
Washover-Prozesse können sowohl erosive als auch akkumulative Prozesse in Gang setzen. Auf der
Grundlage bekannter Washover-Areale auf Sylt wurden typische Reflexionsmuster und -geometrien
analysiert, die eine Identifizierung von Washover-Sedimenten und -strukturen mittels Georadar erlauben.
Durch Bohrungen auf Amrum konnten Washover-Sedimente, die auf Dünendurchbrüche zurückzuführen
sind, im sedimentologischen Profil nachgewiesen und mit Sturmfluten korreliert werden.
Die Daten zeigen, dass die Georadarmethode bei der Untersuchung von Washover-Ablagerungen im
Vergleich zu anderen geomorphologischen Methoden bedeutende Vorteile bietet. Die Ergebnisse lassen sich
zudem zur Identifizierung und Abgrenzung historischer Washover-Events im sandigen Sedimentationsraum
einer Dünen- und Barriereinsel, die aus dem gleichen geomorphologischen Prozesssystem hervorgehen,
anwenden.
Einleitung
Coastal overwash ist ein an vielen Küsten weltweit verbreiteter Prozess. Voraussetzung für Washover-
Prozesse sind zeitlich und örtlich erhöhte Wasserstände. Mit Ausnahme von tektonisch bedingten Tsunamis
sind hohe Wasserstände allgemein meteorologisch bedingt. In der Nordsee (Deutsche Bucht) werden hohe
Wasserstände und Sturmfluten durch eine Kombination von Tiefdruckgebieten, Gezeiten, Windstau und
Fernwellen verursacht (Gönnert 2003).
Washover-Prozesse konzentrieren sich primär auf exponierte Dünen- und Barriereinseln (Leatherman 1981;
Leatherman et al. 1977; Schwartz 1975). Dort erzeugen hohe Wasserstände in Verbindung mit starkem
Seegang und hoher Wellenenergie neben abrasionsbedingter Küstenerosion oft großflächige Überflutungen
der niedrig gelegenen Gebiete und führen zu Sedimentinput. Bei den vorwiegend aus Lockersediment
aufgebauten Nehrungen und Barriereinseln kommt es dabei örtlich zum Bruch der Dünenkette (Donnelly et
al. 2006; Kraus & Wamsley 2003; LaRoe 1976) und zum anschließenden „Washover“. Als Washover wird der
durch den Prozess des „coastal overwashs“ induzierte Sedimenttransport und die darauffolgende
Akkumulation bezeichnet (Larson et al. 2004; Xuan Tinh 2006).
Washover-Prozesse haben Auswirkungen auf die Morphologie und Entwicklung der Küsten und Inseln, die
im Folgenden kurz anhand der einschlägigen Fachtermini erläutert werden. Ein linienhafter Insel- und
Dünendurchbruch, der von der Seeseite bis zur Wattseite reicht, wird im deutschsprachigen Raum oft als
„Schlopp“ (Ehlers 1990: 643) bezeichnet und entspricht nach internationaler Nomenklatur einem „Washover-
Channel“ (z. B. Andrews 1970: 196; Vermeer 1963: 94). Durch die Washover-Channel werden abhängig von
der Neigung der Barriere und der Breite der Insel erhebliche Mengen von Sediment vom Strandbereich quer
über die Insel bis in die rückwärtige Marsch oder das Wattenmeer befördert und dort in als „Washover-Fan“
bezeichneten Schwemmfächern akkumuliert (Hayes 2005; Perkins & Enos 1968). Werden die Washover-
Sedimente in rückwärtigen aquatischen Inselbereichen (z. B. im Rückseitenwatt) akkumuliert, so spricht man
von einem Washover-Delta (Leatherman 1976). Durch die Akkumulation von Washover-Sedimenten in
stehenden Gewässern entstehen die von Schwartz (1975) als „delta-foresets“ bezeichneten und mit einem
Winkel von bis zu circa 30 Grad einfallenden Schichten. Delta-foresets-Schichten sowie nahezu horizontale
Sedimentschichten sind typische sedime
63
Integrative Risk and Security Research
Volume 3/ 2015
ntäre Strukturen, die mit der Morphologie eines Washover-Fan (Schwartz 1982) oder eines Washover-Sheet
(Buynevich et al. 2004; Davis 1992) assoziiert werden. Diese werden mit Nachlassen der Strömungsenergie im
distalen Bereich eines Washovers fächerförmig abgelagert (Leatherman 1981; Leatherman & Zaremba 1987).
Ausmaß und Ausdehnung von Washover-Ablagerungen sind abhängig von der Sturmfluthöhe und -dauer,
der Windrichtung und -geschwindigkeit, der Wellenhöhe und -periode, des bathymetrischen Profils, der
Topographie bzw. der Höhe und Weite der Barriere sowie deren Vegetationsbedeckung (Donnelly et al. 2006;
Leatherman et al. 1977).
Während für die Küsten der USA, Mexikos und Australiens bereits Forschungsarbeiten zu sturm- und
tsunamibedingten Washover-Prozessen vorliegen (vgl. z.B. Horwitz & Wang 2005; Leatherman 1979, 1982,
1983; Switzer et al. 2005, 2006; Wang & Horwitz 2007) besteht im Gebiet der Nordseeinseln ein
Forschungsdefizit. Die Arbeiten von Lindhorst et al. (2008, 2010), Tillmann & Wunderlich (2013, 2014a,
2014b) und Tillmann (2015, 2014, accepted) zeigen jedoch, dass Washover-Prozesse auch im Bereich der
Nordsee weit verbreitet sind und eine bedeutende Rolle für den Aufbau und die Genese von Nehrungshaken
und Barriereinseln gespielt haben.
Die Bedeutung von Washover-Prozessen für die morphologische Entwicklung der Inseln
Die Häufigkeit von Dünendurchbrüchen resultiert aus der Höhe des Tidenhubes und der Sturmflutintensität
(Leatherman et al. 1977; Schwartz 1975). Weitere Faktoren, welche die Ausbildung der Dünendurchbrüche
beeinflussen, sind die Höhe und Stabilität der Dünen sowie die Existenz flacher Bereiche zwischen den
Dünenzügen sowie die Strandbreite (Leatherman 1988). Das Wachstum und die Widerstandsfähigkeit eines
Dünengebietes wird wiederum primär durch die Häufigkeit und Intensität von Washover-Ereignissen
gesteuert (Ritchie & Penland 1990).
Vorteil der Washover-Events für die Erhaltung der Inseln und Nehrungen ist die Sedimentversorgung der
Rückseitenwatten. Um bei langsam steigendem Meeresspiegel die Inselbarriere aufrecht zu erhalten, muss -
bei nur geringer Sedimentzufuhr von See her - ein landwärtiger Sedimenttransport innerhalb des Systems
stattfinden. Ein Teil des Sedimenttransportes erfolgte früher äolisch über die Dünen; diese sind jedoch heute
größtenteils biotechnisch festgelegt. Ein anderer Teil erfolgte durch die Schlopps. Einige Schlopps sind heute
jedoch durch Küstenschutzmaßnahmen abgedämmt.
Hinsichtlich eines durch den „Global Change“ induzierten Meeresspiegelanstieges (Gönnert 2003) ist eine
natürliche Erhöhung der rückseitigen Bereiche der Düneninseln durch ein positives Sedimentbudget in
Zukunft von essentieller Bedeutung. Dies gilt vor allem für die rückseitigen Inselgebiete, die noch nicht durch
„harte“ Küstenschutzmaßnahmen wie Deiche geschützt und von den natürlichen Überflutungen abgeriegelt
sind. Ferner wird durch den zukünftigen Meeresspiegelanstieg eine Zunahme von Washover-Ereignissen
sowie eine Verringerung des Sedimentangebotes durch intensivierten Küstenschutz weltweit an vielen
Küsten erwartet (Sedgwick & Davis 2003).
Historische - durch Sturmfluten induzierte Dünendurchbrüche - sind in Chroniken zeitlich oftmals genau
belegt. Einige Schlopps stellten Jahrhunderte lang Schwachstellen innerhalb der Küstenlinie dar und wurden
während darauffolgender Sturmfluten reaktiviert. Auf den Nordfriesischen Inseln Sylt und Amrum sind heute
vor allem die Inselenden von sturmflutbedingten Dünendurchbrüchen betroffen (vgl. Tillmann & Wunderlich
2014b). Auch in Zukunft kann man davon ausgehen, dass einzelne Gebiete potentielle Schwachstellen für
Dünendurchbrüche darstellen. Ein Nachteil besteht primär in der erhöhten Gefährdung der Inselbereiche, die
durch eine hohe Besiedlungsdichte und touristische Infrastruktur geprägt sind. Hier können Washover-
Prozesse zu Naturkatastrophen werden. Darüber hinaus schützt eine intakte Inselbarriere das dahinter
liegende Wattenmeer und die Festlandsbereiche vor Wellenangriff und Überflutungen.
Untersuchungsgebiete
Ziel der folgenden Studie ist die Gegenüberstellung unterschiedlicher geomorphologischer Strukturen und
Sedimente, die auf sturmflutbedingte Washover-Dynamik zurückzuführen sind. In rezenten, durch
Washover-Dynamik beeinflussten Gebieten der Nord- und Ostfriesischen Inseln, werden Beispiele zur
Identifizierung und Abgrenzung von Washover-Strukturen und Sedimenten angeführt. Geomorphologisch
lassen sich sowohl Erosions- als auch Sedimentationsstrukturen nachweisen.
Die Nordfriesischen Inseln Sylt und Amrum in der südlichen Nordsee (Deutsche Bucht) sind als Außengrenze
des Wattenmeeres den Küsten des Festlandes vorgelagert und gehören zu einer Kette von Barriereinseln
64
Macht allein Schaden klug?
(Tillmann 2014b). Die Untersuchungsgebiete beschränken sich geomorphologisch auf den Bereich der
Nehrungshaken (Abb. 1), deren Entstehung durch den Küstenlängstransport von Sedimenten aus dem
pleistozänen Liefergebiet der Inselgeestkerne erfolgte.
Dünendurchbrüche und Küstenschutz auf Sylt
Die Sylter Westküste liegt mit der Breitseite in der Hauptangriffsrichtung der Wind- und Wellenenergie. Es
überwiegen nach Häufigkeit und Stärke Winde aus den Sektoren W, NW und SW, die infolge von Sturmfluten
hohe Wasserstände, Seegang, und erhebliche Brandungsenergien im Bereich der Sylter Westküste erzeugen
können (Dette 1977; Lamprecht 1957). Vorgelagerte, die Insel schützenden Außensände und Sandbänke wie
vor Amrum fehlen vor Sylt, sodass Seegang, Brandung und Tidenströmung an der als „Hochenergie-Küste“
(Schäfer 2005: 228) bezeichneten Westküste zu starken Abbrüchen führen. Die größten Abbruchsraten sind
am südlichen Inselende (Hörnum Odde) zu verzeichnen.
Einen massiven Eingriff in das natürliche Küstensystem der Hörnum Odde stellen die 1967/68 am Weststrand
zum Schutze der 1959 erbauten Kersig-Ferienhaussiedlung errichteten Tetrapoden dar (Kramer 1992). Durch
das 1270 m lange Tetrapodenquerwerk sollte der durch Küstenlängstransport in das Hörnum-Tief
verfrachtete Sand länger vor der Küste verweilen. Zwar setzte schon kurz nach Bauende eine
Sandablagerung und Strandverbesserung im Luv der Bühne ein, auf der Lee-Seite kam es jedoch zur
Steigerung der jährlichen Abbruchraten von 2 m auf 15 m (Besch 1996). Zwischen den Jahren 1974 und 1980
wurden südlich des Längswerkes insgesamt 150 m Dünen erodiert (Kelletat 1992). Zum Ausgleich negativer
Sandbilanz sowie der Abschwächung erosiver Phasen und der Sicherung und Entlastung der Randdüne
durch Reduzierung der Wellenbelastung werden auf Sylt seit 1972 in regelmäßigen Abständen
Sandvorspülungen praktiziert (EAK 1993). Eine besondere Form der Sandaufspülungen stellen die
Sandersatzmaßnahmen im Bereich der überflutungsgefährdeten Dünentäler dar.
Abbildung 1: Untersuchungsgebiete auf den Inseln Sylt und Amrum
Quelle: Eigener Entwurf in Anlehnung an die Topographische Karte Deutschland/Schleswig Holstein, Landesvermessungsamt
Schleswig-Holstein, Bundesanstalt für Kartographie und Geodäsie 2005)
Dünendurchbrüche und Küstenschutz auf Amrum
Im Vergleich zu Sylt spielt der Küstenschutz der Insel Amrum eine untergeordnete Rolle. So sind für Amrum
in Chroniken der jüngeren Vergangenheit keine größeren Landverluste durch zerstörerische Sturmfluten
65
Integrative Risk and Security Research
Volume 3/ 2015
hinterlegt. Durch den Kniepsand und die im Westen vorgelagerten Außensände wird Amrum vor dem
direkten Angriff der Nordsee geschützt (Tillmann et al. 2013). Während Sturmfluten wird der größte Teil der
Energie bereits am Kiepsand dissipiert, sodass der Inselkern nur selten direkt von Brandung und Seegang
beeinflusst wird. Dementsprechend finden bei Extremereignissen die größten Sedimentumlagerungen im
Bereich des Kniepsandes statt. So ist der Küstenschutz der Westküste stark von der Entwicklung des
Kniepsandes geprägt. Die Anfänge des Küstenschutzes auf Amrum gehen auf das 18. Jahrhundert zurück
und hatten primär das Ziel, den zunehmenden Sandflug mit Hilfe biotechnischer Maßnahmen
einzudämmen. Dazu zählen das Errichten von Sandfangzäunen und die gezielte Anpflanzung von
Strandhafer (Ammophila arenaria). Aufgrund günstiger natürlicher Bedingungen begann der Bau von
massiven Schutzwerken erst ab dem Jahre 1895 (Kramer 1992).
Auf Amrum wurde eine durchgehende Dünenkette, die im Westen der Norddorfer Marsch bestand, während
der Sturmflut 1825 durchbrochen (Mü