Das Buch „Im Wald vor lauter Bäumen: Unsere komplexe Welt besser verstehen“ von Dirk Brockmann bietet wieder viele interessante Einblicke in das Thema Komplexität und wie wir damit besser umgehen können. Hier wieder eine Zusammenfassung und ausgewählte Zitate daraus.

Zusammenfassung

Komplexe Systeme durchdringen unsere Welt – von Ökosystemen bis zu sozialen Netzwerken. Das Buch „Im Wald vor lauter Bäumen“ zeigt, wie wir durch vernetztes Denken und das Erkennen universeller Muster globale Herausforderungen besser bewältigen können. Hier die zentralen Erkenntnisse:

Grundlagen komplexer Systeme

  • Komplex vs. kompliziert: Komplexität beschreibt die objektive Vernetzung von Systemelementen (wie Ökosysteme), während Kompliziertheit subjektive Verständnisschwierigkeiten meint
  • Emergenz: Ordnung entsteht spontan aus Chaos – etwa Schwarmverhalten bei Fischen oder Phantomstaus ohne äußere Steuerung
  • Kritikalität: Viele Systeme (Pandemien, Waldbrände) pendeln sich an kritischen Schwellenwerten ein (z.B. R=1 bei Epidemien), die abrupte Phasenübergänge auslösen

Universelle Muster in Natur und Gesellschaft

  • Potenzgesetze regeln scheinbar disparate Phänomene:
    • Größenverteilung von Waldbränden und Erdbeben
    • Innovationsschübe in der Technologiegeschichte
    • Politische Radikalisierungswellen
  • Kipppunkte bestimmen Systeme wie:
    • Eisschmelze (2–4 °C Erwärmung)
    • Zusammenbruch von Finanzmärkten
    • Rapidänderungen sozialer Normen (z.B. Rauchverbote)

Mathematik als Brückenbauer

  • Epidemiemodelle zeigen: Kurze, starke Lockdowns brechen Infektionsnetzwerke effektiver als langsame Maßnahmen (Reduktion von 20 auf 5 Gäste senkt Ansteckungswege um 95%)
  • Crowd-Dynamik: Engpässe lösen Crowd-Turbulence aus – Hindernisse vor Ausgängen beschleunigen Evakuierungen paradoxerweise
  • Schwarmintelligenz: 5–10 % „Anführer“ reichen für Gruppensteuerung, neutrale Mitglieder mildern radikale Minderheitseinflüsse

Kooperation vs. Konkurrenz

  • Symbiose dominiert die Evolution: 99.9 % aller Bakterien sind keine Krankheitserreger, sondern bilden lebenswichtige Mikrobiome
  • Lynn Margulis‘ Endosymbiose-Theorie revolutionierte das Evolutionsverständnis: Zellorganellen entstanden durch Kooperation, nicht Kampf
  • Sozialdarwinismus-Kritik: Der historische Fokus auf „Survival of the Fittest“ ignoriert, dass Mutualismus die Regel ist – kein Ökosystem funktioniert ohne kooperative Netzwerke

Implikationen für moderne Krisen

  • Pandemiemanagement: Wellendynamiken folgen Aktivator-Inhibitor-Prinzipien, die synchronisierte Maßnahmen erfordern
  • Digitale Polarisierung: Soziale Medien verstärken Radikalisierungskaskaden – Kontakt mit Gegenmeinungen verhärtet oft Positionen
  • Wirtschaftssysteme: Nachhaltigkeit erfordert resiliente Netzwerke statt Wachstumsmaximierung – analog zu ökologischen Gleichgewichten

Das Buch plädiert für einen „ganzheitlichen Reduktionismus“: Wesentliche Mechanismen identifizieren, unwichtige Details ignorieren und disziplinübergreifende Ähnlichkeiten nutzen. Es ist ein Appell, in Zeiten multipler Krisen nicht im Detailwald stecken zu bleiben, sondern systemische Zusammenhänge zu erkennen – sei es bei Klimawandel, Pandemien oder gesellschaftlicher Spaltung.


Zitate

In einem Satz zusammengefasst: Im großen Ganzen geht es darum, die Ähnlichkeiten zwischen komplexen Phänomenen in der Natur einerseits und komplexen gesellschaftlichen Prozessen andererseits zu erkennen, Verbindungen zu knüpfen und aus diesen Verbindungen etwas zu lernen.

Ökosysteme sind hochdynamische, stark vernetzte, heterogene Systeme, die sich schnell an veränderte Bedingungen anpassen können, also adaptiv sind, und trotz oft stark disruptiver Einflüsse in ein Gleichgewicht zurückfinden können.

Bei jeder Aussage kommt es ja nicht nur darauf an, dass richtig ist, was man sagt, sondern dass richtig ist, was gehört wird. Es müssen die richtigen Bilder in den Köpfen der Empfänger entstehen.

Für die Vorlesung habe ich dann die »Complexity Explorables« konzipiert (www.complexity-explorables.org), eine Sammlung interaktiver webbasierter Computersimulationen, die verschiedene komplexe Systeme aus Ökologie, Biologie, den Sozialwissenschaften, Ökonomie, Epidemiologie, Physik, den Neurowissenschaften und anderen Gebieten erklärt.

Für das Verständnis der aktuellen Entwicklungen und zur Bewältigung der Krisen unserer Zeit hielt Hawking einen Ansatz für hilfreich, dessen Kernelement die Suche nach Ähnlichkeiten und Verbindungen ist, der Gemeinsamkeiten in den Fokus nimmt, gerade auch zwischen ganz verschiedenen Wissenschaftszweigen. Denn Naturkatastrophen, Globalisierung, Wirtschaftskrisen, Pandemien, der Verlust an Biodiversität, Kriege und Terrorismus, die Klimakrise, die Folgen der Digitalisierung, Verschwörungserzählungen kann man nicht als isolierte Phänomene betrachten. Nicht nur sind diese Krisen in sich schon ungeheuer komplex und vielschichtig, sondern eben auch häufig miteinander vernetzt.

Um die Probleme zu lösen und aktuelle und sich anbahnende Katastrophen besser zu bewältigen, muss man vernetzt denken. Man muss erkennen können, welche Elemente essenziell sind, und viel wichtiger, welche Details man vernachlässigen kann. Man muss nach grundlegenden Mechanismen, Mustern und Regelmäßigkeiten suchen. Hierbei geht es aber um mehr als um die rein qualitative Beschreibung der Phänomene.

»Komplex« bezieht sich auf die innere Struktur eines Systems oder eines Phänomens, ist also ein objektives Kriterium. Während »kompliziert« sich immer auf die Auffassungsgabe der Betrachtenden bezieht. »Kompliziert« ist subjektiv. Phänomene können außerordentlich komplex, aber unkompliziert sein.

Fehler in der Genauigkeit der Messung des Anfangszustands wachsen, sodass man nur kurze Zeit später mit seiner Vorhersage falschliegt. Immer, prinzipiell und fundamental.

Deterministisches Chaos ist in der Natur die Regel und nicht die Ausnahme.

Ein anderes Beispiel ist die Wettervorhersage. Die Gleichungen und die Physik, die das Wetter bestimmen, sind bekannt. Aber die Physik des Wetters ist eben chaotisch, und wir können das Wetter nicht drei Monate in die Zukunft berechnen.

In der Komplexitätswissenschaft verwendet man den Begriff »Emergenz«, wenn also ohne oberflächlich ersichtlichen Grund aus einem komplizierten Durcheinander eine Ordnung oder Struktur erwächst.

Komplexe Systeme sind häufig selbst-organisiert. Es gibt keine Leader, keine Dirigenten. Phantomstaus entwickeln sich von selbst.

Die Komplexitätswissenschaft ist in ihrem Wesen antidisziplinär. Sie ist zwar ein Gebiet, aber eines ohne Ränder. Sie erstreckt sich in alle traditionellen Disziplinen hinein und macht sich dort breit. Nicht immer zum Vergnügen der Experten, die da schon sesshaft sind. Viele Komplexitätsfachleute haben zwar bestimmte Forschungsschwerpunkte, die sich in ihrer Laufbahn aber häufig verändern. Sie sind wissenschaftliche Nomaden. Vielleicht liegt das daran, dass sie sich weniger damit beschäftigen, was sie schon wissen, als vielmehr damit, was sie noch nicht verstehen, aber verstehen wollen.

Richard Feynman, einer der bezauberndsten Wissenschaftler des 20. Jahrhunderts, Physiknobelpreisträger und unfassbar guter Lehrer, hat einmal gesagt: »If you are the smartest person in the room, you are in the wrong room« 

Wenn Sie sich ein organisches Bild der Komplexitätswissenschaft machen wollen, denken Sie an Pilze. Nicht an die Fruchtkörper, die man an Bäumen oder auf dem Waldboden findet, sondern an das Wesentliche der meisten Pilzarten, das Mycel. Ein typischer Pilz besteht zum größten Teil aus einem unterirdischen, komplexen Geflecht feiner, mikroskopisch kleiner Härchen, über die der Nährstofftransport des Organismus stattfindet. Bei Hallimaschen kann sich das Mycelgeflecht eines einzigen Pilzindividuums über viele Quadratkilometer erstrecken.

Klassisch werden komplexe Systeme fein säuberlich vertikal in Einzelteile zerlegt, und jede Disziplin und ihre Experten und Expertinnen untersuchen ein kleines Segment, dafür aber in maximaler Detailtiefe. Der Komplexitätsansatz funktioniert anders. Das Gesamtsystem wird nicht zerlegt, sondern die Kunst besteht darin, zu erkennen, welches die entscheidenden Merkmale sind und welche Details man ignorieren kann. Diese Vorgehensweise, die Kunst des Vernachlässigens (vielleicht die wichtigste Fertigkeit), hat sich die Komplexitätswissenschaft von der Physik ausgeborgt und in die anderen Gebiete getragen.

Die Prinzipien des »ganzheitlichen Reduktionismus« – das Vernachlässigen nicht-essenzieller Elemente und die Suche nach Universalität – sind so wichtig, dass ich dazu zwei Alltagsbeispiele liefern möchte. Betrachtet man die Porträts beliebiger Menschen, wird man Unterschiede feststellen. Keine zwei Personen sind identisch. Man kann sich aber fragen, was denn eigentlich ein Gesicht zu einem Gesicht macht, was also die wesentlichen Merkmale sind. Man kann ein »Modell« entwerfen, und was dabei herauskommt, ist ein Smiley. Das Smiley ist ein gutes Modell für ein Gesicht. Obwohl es nicht realistisch ist, sagt es uns: Augen, Mund und Kopf sind notwendig. Ohren, Nase, Haare, Brille, Pigmentierung, Brauen, Lippen, Zähne sind es nicht, man kann sie weglassen. Gleichzeitig hat man dadurch auch verbindende Elemente identifiziert.

Der fundamentale Sinn der Mathematik in der Anwendung liegt hauptsächlich darin, Gedanken zu sortieren, zu präzisieren und den Prozess der Vereinfachung, des Vernachlässigens und der Abstraktion systematisch zu erleichtern.

In Deutschland sind die Gräben besonders tief zwischen den Natur- und Geisteswissenschaften. Hier finden wenig Kommunikation und Transfer statt. Weil so wenig kommuniziert und die Sprache der »anderen« nicht gesprochen oder verstanden wird, passiert es ab und an, dass in dem einen Gebiet Entdeckungen gemacht werden, von denen das andere begeistert wäre, wenn es davon nur erfahren würde.

Vor allem die Komplexitätswissenschaft treibt dieses Geschehen voran und schert sich nicht um die Grenzen und die Karikaturen in den Köpfen. Deshalb ist sie so wichtig. Sie baut Brücken.

Komplexität kommt – aber in Deutschland offenbar spät – an. Hier hat man leider diese Ideen noch nicht so verinnerlicht. Antidisziplinäres Denken ist noch wenig populär und auch ein bisschen unbekannt. Das hat vielleicht kulturelle Gründe. Vielleicht gibt es hierzulande noch zu viele Grenzen in unseren Köpfen, wiegen die Unterschiede immer noch schwerer als die Gemeinsamkeiten.

In einem einfachen Modell konnte der Physiker Benjamin Maier darlegen, dass sich die Fallzahlkurven vieler Länder mit mehreren Wellen durch diesen einfachen Mechanismus des Feedbacks erklären und beschreiben ließen. Das Modell konnte auch zeigen, dass sich Pandemien durch starke, aber kurze und vor allem synchronisierte Maßnahmen effektiver in den Griff bekommen lassen. Leider wurde das von den Entscheidungsträgerinnen und -trägern auch nach drei Pandemiewellen in Deutschland nicht begriffen. Es wurde immer wieder zu spät und zu langsam reagiert, es wurden die falschen Vergleiche mit anderen Ländern herangezogen, und der zugrunde liegende fundamentale Mechanismus wurde nicht verstanden, auch weil den Verantwortlichen die Erkenntnis fehlte, dass die Wellendynamik die Konsequenz einer einfachen Aktivator-Inhibitor-Dynamik war. Hätte man das erkannt, wären die Maßnahmen mit hoher Wahrscheinlichkeit anders implementiert worden. Zum Beispiel wären einschneidendere, aber kürzere Lockdown-Maßnahmen besser gewesen, weil sie die Fallzahlen in deutlich niedrigere Bereiche gebracht hätten. Dann wirken sich die Synchronisationseffekte viel weniger aus, weil regional gar keine Ansteckungen mehr stattfinden und somit die Synchronisationskette durchbrochen wird.

Wie entscheidend sich solche stark verknüpften Cluster auswirken, hat sich auch bei der Dynamik der Covid-19-Pandemie gezeigt. Wie jedes von Mensch zu Mensch übertragbare Virus, kann sich das Coronavirus nur ausbreiten, wenn ausreichend viele Begegnungen stattfinden. Unsere Kontakte sind metaphorisch das Futter des Virus. Deshalb basieren alle Maßnahmen zur Eindämmung einer Pandemie auf der Reduktion der zwischenmenschlichen Kontakte. Trifft ein Virus auf eine stark verknüpfte Gruppe in einem Begegnungsnetzwerk, das kann zum Beispiel ein Kindergeburtstag oder eine Hochzeitsfeier sein, ist das für ein Virus »ein gefundenes Fressen«. Eine effiziente Methode, um Transmissionswege zu verringern, dem Virus quasi das Futter zu nehmen, ist die Verkleinerung von Gruppen, eine Maßnahme, die auch im Kontext der Eindämmung der Covid-19-Pandemie eine Rolle spielt. Hierzu ein Beispiel: Bei einer Geburtstagsfeier mit 20 Gästen, bei der sich alle Gäste mit allen unterhalten, gibt es 20⨯19, also insgesamt 380 mögliche Ansteckungswege, weil ja jede Person im Prinzip ansteckend sein und alle 19 anderen Personen anstecken könnte. Entscheidet man sich stattdessen, die Anzahl der Gäste auf die Hälfte zu reduzieren, also auf nur zehn, dann bleiben 10⨯9, also 90 Übertragungswege. Das ist knapp ein Viertel der ursprünglichen 380. Reduziert man weiter und feiert nur mit fünf Gästen, ergeben sich lediglich 20 Ansteckungsmöglichkeiten. Das sind circa fünf Prozent der ursprünglichen 380. Gruppenverkleinerungen bringen viel mehr, als man erwartet, und sind in Netzwerken mit starker Clusterstruktur besonders wirksam.

Skalenfreie Netzwerke sind gegenüber zufälligen Impfstrategien resistent. Kennt man allerdings die Superspreader, dann sieht es ganz anders aus. In diesem Fall müsste man nur die kleine Gruppe von Superspreadern immunisieren, und der Erfolg wäre riesig. Das Problem ist nur, dass man natürlich nicht vorher wissen kann, welche Personen in einer Population solche Superspreader sind.

Ein unwahrscheinliches Ereignis tritt mit hoher Wahrscheinlichkeit ein, weil so viele unwahrscheinliche Ereignisse möglich sind. Per Bak (1948 – 2002)

Anders als bei Wasser, wo man den Aggregatzustand durch Außendruck und Temperatur einstellt und nur durch genaues »Tuning« die kritischen Phasenübergänge trifft, entwickeln sich viele natürliche Systeme wie von selbst in einen kritischen Zustand. Sie machen sich selbst kritisch! Ein gutes Beispiel hierfür ist die COVID-19-Pandemie. Nach der ersten Welle im Frühjahr 2020 war jedem Menschen hierzulande die Reproduktionszahl, der R-Wert, ein Begriff. Zur Erinnerung: Der R-Wert bestimmt als Mittelwert die Anzahl der Übertragungen durch eine infizierte Person an andere. Ist der R-Wert 2, dann übertragen zum Beispiel acht Infizierte im Mittel das Virus an 16 weitere Personen, diese wiederum stecken 32 Personen an, im nächsten Schritt sind es 64. Ein schnelles – exponentielles – Wachstum der Infektionszahlen ist die Folge. Ist der R-Wert hingegen nur 0,5, dann infizieren acht Leute eben nur weitere vier, diese nur noch zwei, die Fallzahlen sinken. Offenbar ist R = 1 ein kritischer Wert, der entscheidet, ob eine Epidemie sich explosionsartig ausbreitet oder nach und nach verkümmert.

Während einer Pandemie wird der R-Wert ständig beobachtet. Bevor die Impfungen die Pandemie maßgeblich beeinflussen konnten, schwankte er immer um den kritischen Wert R = 1, mal lag er etwas darüber, und die Fallzahlen stiegen, dann fiel er zeitweise wieder unter den kritischen Punkt, die Fallzahlen sanken. Zufall? Oder steckt mehr dahinter? Wie wir gleich sehen werden, »sucht« sich die Dynamik des Gesamtsystems diesen kritischen Bereich selbst, ja sie pendelt sich sogar zwangsläufig auf diesen Wert ein. Um das zu verstehen, müssen wir etwas tiefer in die Materie eintauchen und die Uhr um etwa hundert Jahre zurückdrehen.

Wo aber liegt die kritische Bewaldungsdichte in diesem einfachen Modell? Man könnte meinen, der Wert läge bei 50 %. Tatsächlich liegt er bei etwa 59,27 %.

Im Gedankenexperiment können wir uns die Ausbreitung einer milden Variante des Coronavirus vorstellen, die nur leichte Symptome hervorruft. Aus Sicht des Virus wäre dieses Szenario ideal, weil wir gar nicht auf die Idee kämen, es zu bekämpfen. Spielen wir das einmal durch: Die Basisreproduktionszahl R0 des Coronavirus liegt zwischen 3,3 und 5,7, nehmen wir einen mittleren Wert von 4. Die Dauer einer Infektion beträgt etwa 14 Tage. Hätte sich diese »nette« Coronavirus-Variante in Deutschland ungestört ausgebreitet, wäre schon nach etwa acht Wochen das Maximum der Pandemie erreicht gewesen. Am Maximum wären bis zu 30 Millionen Menschen gleichzeitig infektiös gewesen, was einer Tagesinzidenz von 30.000 entspricht. Nach nur 150 Tagen wäre der Spuk vorbei gewesen und nur etwa 1,5 Millionen Menschen von 83 Millionen wären am Ende gar nicht infiziert worden.

Obwohl die Pandemie in vielen Ländern unterschiedlich verlief, hat sich dennoch immer ein dynamisches Gleichgewicht eingestellt, in dem der R-Wert um den kritischen Wert R=1 schwankte, die Ausbreitung des Virus und die Maßnahmen hielten sich die Waage. Der Rückkopplungsprozess zwischen Pandemie und gesellschaftlicher Reaktion führt also zwangsläufig dazu, dass sich das Gesamtsystem von selbst an den kritischen Punkt bewegt. Man muss also eine Pandemie immer als Gesamtsystem betrachten und die Antwort der Gesellschaft in die Dynamik mit einbeziehen, selbst wenn man die Handlungen und Entscheidungen von Einzelpersonen nicht modellieren kann.

Überraschenderweise haben die verschiedensten Systeme am kritischen Punkt universelle Eigenschaften, die unabhängig davon sind, ob es sich um einen physikalischen, biologischen, ökologischen oder gesellschaftlichen Prozess handelt. Sie senden quasi Signale aus, die sie als kritische Phänomene ausweisen. Besonders wichtig wird das, wenn wir nicht genau wissen, unter welchen Bedingungen ein System kritisch werden kann.

Potenzgesetz: Die gleiche Gesetzmäßigkeit findet man im Waldbrand-Modell von Barbara Drossel, wenn man die Ausdehnung der durch Blitze ausgelösten Waldbrände misst. Nun könnte man das Sandhaufen-Modell wie auch das Drossel’sche Waldbrand-Modell für eine groteske Vereinfachung der Realität halten. Schließlich besteht kein Wald aus einem Quadratgitter. Erstaunlicherweise aber hat die Auswertung von Satellitenbildern aus Waldbrandgegenden die postulierte Gesetzmäßigkeit bestätigt. Experimentell findet man die universellen Potenzgesetze in zahlreichen verschiedenen Systemen. Erdbeben sind ein weiteres Beispiel. Die Stärke der Erdbeben folgt den gleichen Gesetzmäßigkeiten, viele sehr kleine Erdbeben wechseln sich mit selteneren, sehr starken ab. Auch für Erdbeben gibt es sehr vereinfachte mathematische Modelle, die den Effekt erklären, obwohl sie ganz viele Details vernachlässigen.

Darwins Theorie beschreibt den Evolutionsprozess als graduelle, stetige Veränderung in kleinen Schritten, obwohl die paläontologischen Befunde eher darauf hindeuteten, dass neue Arten sprunghaft, mit sehr hoher Rate in vergleichsweise kurzen Zeiträumen entstanden sind.

Kleine Änderungen haben die meiste Zeit keinen Effekt, können aber plötzliche Evolutionskaskaden auslösen.

Das Modell macht noch eine weitere wichtige Aussage, die tatsächlich durch Fossilbefunde bestätigt wird. Es zeigt, wie Arten mit der Zeit aussterben: nicht graduell, also pro Zeiteinheit in immer etwa gleicher Anzahl, sondern in Schüben. Deren Größe folgt wiederum einem Potenzgesetz, wie die Lawinen im Sandhaufen oder die Waldbrände.

Wertet man die Häufigkeit der Stärke aller Extinktionsereignisse aus, findet man: ein Potenzgesetz.

Aber natürlich wissen wir, dass etwa technologischer Fortschritt ebenfalls in Schüben stattfindet und dass kleine Änderungen, wie zum Beispiel die Erfindung des Touchscreens für Handys, Kaskaden von technologischen Neuerungen einerseits und das »Aussterben« veralteter Technologien andererseits auslösen können. Tatsächlich folgen Innovationsschübe und Wissensfortschritt den gleichen Gesetzmäßigkeiten: punktuierten Gleichgewichten und Potenzgesetzen.

Die Häufigkeitsverteilung der Schwere der Anschläge, gemessen an der Anzahl der Verletzten und Todesopfer, gehorcht Clausets Studie zufolge ebenfalls einem universellen Potenzgesetz.

Der Baum ist selbstähnlich, seine Teile haben die Form des Ganzen. Basierend auf diesem einfachen Prinzip wird in der Pflanzenwelt eine ungeheure Vielfältigkeit von Formen erzeugt, die sich zwar oberflächlich unterscheiden, aber denselben Gesetzmäßigkeiten folgen.

Die Potenzgesetze in den Veränderungen natürlicher Systeme bedeuten, dass meistens nur kleine Veränderungen stattfinden, ein komplex vernetztes Ökosystem zum Beispiel kann so durch kleinere Veränderungen ein immer solideres Gleichgewicht finden. Durch die sehr seltenen, aber starken Disruptionen kann andererseits ein eingefahrenes System auch neue, potenziell stabilere Gleichgewichtszustände erreichen, die durch kleinere Änderungen gar nicht erreichbar wären. Selbstorganisierte Kritikalität bedeutet also nicht nur Stabilität, sondern auch die Möglichkeit zu radikalen Veränderungen und weiterer Entwicklung.

Tief im chaotischen Regime führen die kleinsten strukturellen Veränderungen fast immer zu riesigen Änderungen im Verhalten. Stuart Kauffman

Bei seinen Untersuchungen hat Kauffman etwas Erstaunliches gefunden. Trotz der sehr großen Anzahl möglicher Schalterkombinationen entwickelt sich ein Netzwerk von jedem beliebigen Anfangszustand aus ganz automatisch immer in einem von wenigen Endzuständen. Diese Endzustände sind sehr stabil. Störte man das System ein wenig, zum Beispiel durch äußere Einflüsse, kehrte es von allein in den stabilen Zustand zurück, so wie eine Murmel wieder in die Senke zurückrollt. Nur wenn die Störungen sehr stark werden, wechselt das Gesamtsystem in einen anderen stabilen Zustand. Mehr noch: Die Genregulationsnetzwerke sind robust. Selbst wenn man vereinzelt einige Verbindungen zwischen den Genen kappt oder zufällig neue Verbindungen einbaut, findet das Netzwerk weiter seine Zielkonfigurationen. Die Modellnetzwerke sind also multistabil und robust.

Die ökologischen Netzwerke bilden als Gesamtsystem ein dynamisches Gleichgewicht, das man auch Homöostase nennt: Alles ist in Bewegung und dennoch im Gleichgewicht.

Irreversibilität ist eine typische Eigenschaft von Kipppunkten.

Fängt das Grönlandeis an zu schmelzen, wird durch die freigegebene Landmasse die Temperatur weiter erhöht, was den Schmelzvorgang noch beschleunigt. In weniger als 300 Jahren könnte Grönland bei einer kritischen Erderwärmung um drei Grad eisfrei sein. Das würde zu einem Anstieg des Meeresspiegels um zwei bis sieben Meter mit massiven Folgen führen. Der Amazonas-Regenwald ist ein anderes Beispiel für ein klimatisches Kippelement. Bei einer globalen Erwärmung um etwa drei bis vier Grad würde die Kombination aus Abholzung und stärkeren Trockenphasen aufgrund der häufiger und massiver auftretenden El Niños an der südamerikanischen Pazifikküste innerhalb von nur 50 Jahren ein Verschwinden des Regenwalds nach sich ziehen, ebenfalls mit unberechenbaren Folgen für das globale Klimasystem.

Eigenschaft, die mit der Annäherung an den Kipppunkt einhergeht und wissenschaftlich als »critical slowing down« – also kritische Verlangsamung – bezeichnet wird. Da die Mulde kurz vor dem Kipppunkt fast flach ist, dauert es viel länger, bis die Murmel wieder im stabilen Minimum der Mulde angekommen ist. Genau diese beiden Effekte, stärkere Schwankungen und verlangsamte Rückkehr ins Gleichgewicht, hat man in sehr verschiedenen Systemen messen können.

Am besten sind Kipppunkte bei der rapiden Änderung sozialer Normen zu beobachten. Oft sind es aktive Minderheiten, die eine kritische Größe erreichen und dann dafür sorgen, dass sich eine soziale Norm sehr schnell ändert. Ein Beispiel für eine soziale Norm, die zunächst stabil blieb und dann plötzlich kippte, konnte man in der Intoleranz gegenüber Tabakkonsum in öffentlichen Räumen, der Legalisierung von Cannabis in vielen Ländern und der Änderung anderer sozialer Normen und Konventionen beobachten. Die einfachsten Modelle, die die Dynamik sozialer Normen und Konventionen beschreiben, funktionieren mathematisch ganz ähnlich wie die Murmel-in-der-Mulde-Modelle, die beim Verständnis der ökologischen Systeme geholfen haben.

In Finanzmärkten ist das sogenannte systemische Risiko eine wichtige Größe. Dieses Risiko beschreibt die Wahrscheinlichkeit, dass das gesamte vernetzte Finanzsystem oder ein anderer Wirtschaftszweig zusammenbricht, weil durch die komplexen Prozesse am Markt selbstverstärkende negative Kaskaden, zum Beispiel die Pleiten einzelner Banken, das Gesamtsystem destabilisieren. Seit der Finanzkrise 2008 ist klar, dass die traditionellen ökonomischen Modelle diese Krisen weder vorhersagen noch befriedigend erklären und nur schlecht mit den konventionellen Ansätzen das Systemrisiko quantifizieren können. Auch die Anzeichen eines Kollapses wurden nur mäßig erkannt.

Theoretische Analysen zeigen, dass gerade diese Netzwerkstrukturen robust gegenüber Störungen sind, aber eben nur in einem gewissen Bereich. Belastet man die Netzwerke zu stark, erreichen sie einen Kipppunkt und kollabieren irreversibel. Aus dieser Einsicht kann man schließen, dass Finanzmärkte zwar prinzipiell schon eine Struktur besitzen, die das systemische Risiko klein hält, aber dennoch durch graduelle Änderungen, wie zum Beispiel andauerndes Wachstum, immer wieder Kipppunkte erreichen, kollabieren und weltweite Finanzkrisen auslösen wird. Denn gerade hier liegt eben ein fundamentaler Unterschied. Die ökologischen Netzwerke sind nicht wachstums-, sondern dynamisch gleichgewichtsorientiert. Ein nachhaltiges Design gesellschaftlicher Wirtschaftssysteme könnte sich dieser über Hunderte Millionen Jahre erfolgreichen Strukturkonzepte bedienen und uns schwerwiegende Krisen mit hohen Kosten und schwerem wirtschaftlichem und persönlichem Leid ersparen.

Die Loveparade: Anders als zunächst diskutiert, hat sich später erwiesen, dass der Unfall nicht durch Panik ausgelöst wurde, sondern eine dynamische Konsequenz der spontan entstandenen Crowd Turbulence war, allein durch die Überschreitung einer kritischen Dichte von Menschen verursacht. Erst als die Crowd Turbulence einsetzte, brach Panik unter den Besuchern aus und verstärkte den Effekt. Ereignisse dieser Art sind nicht selten. Ähnliche Unfälle ereignen sich regelmäßig beim jährlichen Hadsch in Saudi-Arabien.

Wieso aber konnten diese Tragödien nicht verhindert werden, wenn man doch das Phänomen genau beschreiben kann? Das Problem war, dass man noch nicht genau verstanden hatte, unter welchen Bedingungen, also ab welcher Personendichte oder durch welche äußeren Faktoren, die Crowd Turbulence einsetzt und wie man sie unterbinden kann. Es fehlte das Wissen über die zugrundeliegenden Mechanismen solcher Massenbewegungen.

Selbst noch viel komplexere Vorgänge, kollektive Entscheidungsprozesse, Meinungsbildung in sozialen Netzwerken und sogar gesellschaftliche Polarisierung und die Emergenz (die Entstehung) von Extremismus beruhen oft auf ganz ähnlichen Gesetzmäßigkeiten und Regeln.

Unter bestimmten Bedingungen, wenn zum Beispiel die Dichte der Teilchen groß genug ist, bildet sich nach kurzer Zeit ein Schwarm, der eine kollektive Richtung hat, die sich nur langsam ändert. Genau wie bei den Synchronisationsphänomenen und den kritischen Phänomenen aus den letzten Kapiteln beobachtet man auch hier keinen graduellen Übergang von einem chaotischen Durcheinander zu kollektivem Schwarmverhalten, sondern eine abrupte Änderung des kollektiven Verhaltens, wenn ein kritischer Punkt überschritten wird. Entweder alle Teilchen zeigen Schwarmverhalten oder keines. Es gibt keine Zwischenlösung, in der einige Teilchen sich kollektiv verhalten und einige nicht. Obwohl das Modell unrealistisch ist – die Schwarmteilchen kollidieren nicht, haben alle dieselbe Geschwindigkeit und bewegen sich in der Ebene –, brachte es dennoch einen Durchbruch, weil es zeigen konnte, dass kollektives Verhalten möglich ist, wenn einzelne Individuen nur mit einigen wenigen anderen in ihrem unmittelbaren Umfeld wechselwirken. Es ist nicht notwendig, auf alle Beteiligten zu reagieren.

Fischschwärme schalten auch oft und ohne erkennbaren Grund zwischen Wirbel- und Laminarzustand hin und her, und Schwarmforscherinnen und -forscher haben sich gefragt, wieso und wodurch dieses Umschalten ausgelöst wird. Erst das Computermodell konnte zeigen, dass das Umschalten zufällig und spontan geschieht, nur durch das kollektive Wirken der einfachen Bewegungsregeln. Es ist also zwangsläufig und eine emergente Eigenschaft des kollektiven Verhaltens. Kein zusätzlicher Umschaltmechanismus ist notwendig.

Wie die Goldbrassen verarbeiten auch Stare nur lokale Informationen. Beide Experimente bestätigten so die einfachen, fundamentalen Regeln, auf denen die theoretischen Modelle beruhen.

Die Staus entstehen vor allem, wenn die Laufwege sogenannte Bottlenecks haben, also Engpässe, an denen die Wege sich kurz verjüngen und somit die Dichte steigt. Damit aber nicht genug: Das Modell sagte voraus, dass bei wachsender Dichte des Gedränges ein Fußgängerstrom genau drei Phasen, und nur diese drei Phasen, durchläuft:

  1. Eine laminare Phase, in der die Menschen mit geringer konstanter Geschwindigkeit vorwärtskommen.
  2. Eine typische Stop-and-go-Phase, in der sich Staus bilden, die sich entgegen der Laufrichtung nach hinten ausbreiten. Die Fortbewegungsgeschwindigkeit fällt deutlich. Diese Phasen kennt man aus dem Autoverkehr zu Stoßzeiten in den Großstädten oder von Autobahnen, wenn die Schulferien anfangen.
  3. Bei Fußgängern gibt es aber noch eine dritte Stufe: die Crowd-Turbulence. Also genau das Phänomen, das zu den Katastrophen bei der Loveparade und immer wieder beim Hadsch führte. Wie schon erwähnt, verhält sich die Menschenmasse plötzlich wie eine chaotische Flüssigkeit, und durch extrem starke Druckschwankungen werden Teile der Masse mit vergleichsweise hoher Geschwindigkeit hin und her bewegt. Das Modell war also in der Lage, durch einfache Bewegungsregeln, denen individuelle Fußgänger folgen, gänzlich verschiedene Szenarien von Fußgängerströmen korrekt zu beschreiben und zu reproduzieren.

Noch wichtiger ist allerdings, dass das Modell Informationen liefern konnte, wie man schon vor dem Einsetzen der gefährlichen Crowd Turbulence erkennen kann, dass die Lage kritisch wird. Genau wie bei den kritischen Phänomenen kündigen statistisch messbare Schwankungen in der Bewegung und in der Fußgängerdichte einen bevorstehenden kritischen Punkt an. Das Modell liefert also ein Frühwarnsystem für solche Situationen. Außerdem konnten mit seiner Hilfe Leitsysteme entwickelt werden, die der Entstehung der Crowd Turbulence vorbeugen. Hierbei werden automatisch diese statistischen Schwankungen in einer sich bewegenden Menschenmasse gemessen. Ein Algorithmus, der Videoaufnahmen in Realzeit analysiert, entdeckt die Anzeichen einer Crowd Turbulence Minuten vor dem Einsetzen dieses Zustands, und die Menschen können gewarnt werden.

Helbings Modell konnte zeigen, dass die Evakuierung aus zwei nebeneinanderliegenden kleinen Ausgängen viel schneller abläuft als aus einem großen Ausgang, der mehr als doppelt so breit ist. Noch erstaunlicher ist die Tatsache, dass die Evakuierungsgeschwindigkeit eines Saals zunimmt, wenn man einen Meter vor dem Notausgang ein Hindernis aufstellt. Aber genau das sagte das Modell voraus: Platziert man eine Säule oder eine schmale Wand vor einem Notausgang, ordnen sich die Menschen automatisch in zwei Ströme und verlassen nach dem Reißverschlussprinzip die Halle, es kommt viel seltener zu Staus oder Crowd Turbulence. Auch diese Vorhersage wurde experimentell in künstlichen Evakuierungsexperimenten bestätigt und wird mittlerweile in der Praxis, zum Beispiel in Konzertsälen, umgesetzt.

Interessanterweise zeigte sich, dass wir uns in mancher Hinsicht nicht sonderlich von Fischen und Ameisen unterscheiden, wenn es um Konsens als Basis kollektiven Handelns und von Mehrheitsentscheidungen geht.

Aufschlussreich ist allerdings folgendes Ergebnis: Bei größeren Schwärmen sind prozentual weniger Anführer notwendig, um den Schwarm in die richtige Richtung zu leiten. Das bedeutet: Je größer die Gruppe, desto größer ist der Wirkungsradius einzelner Anführer.

Mit Hilfe des Modells konnten auch Fragen beantwortet werden, die im Experiment nicht so einfach zu überprüfen sind. Was passiert, wenn einige dominante Individuen mit sehr starken Meinungen auf eine moderate Mehrheit mit anderer Meinung trifft?

Bei uns Menschen geschieht es ja nicht selten, dass ein paar laute Personen eine Mehrheit Andersdenkender dominieren und ihren Willen durchsetzen. Bringt man im Schwarmmodell wenige dominante Blaue mit vielen moderaten Gelben zusammen, ist in der Tat zu beobachten, dass die Blauen ihre Minderheitsmeinung durchsetzen können. Der Schwarm trifft also keine Mehrheitsentscheidung, wenn die Mehrheit moderat ist. Aber wie ändert sich die Situation, wenn viele neutrale Individuen hinzukommen? Politisch und soziologisch wird oft die Meinung vertreten, dass neutrale Massen lauten Demagogen den Weg ebnen, dass also die Neutralität vieler die Wirkung der lauten Minderheit verstärkt. Im Computermodell zeigt sich interessanterweise genau das Gegenteil: Erweitert man eine dominante Minderheit und eine moderate Mehrheit um eine Gruppe von neutralen Individuen, mindert das den Einfluss der dominanten Minderheit und erleichtert die Mehrheitsentscheidung. Je größer die Gruppe der neutralen Individuen, desto effektiver findet der Schwarm zur Mehrheitsentscheidung.

Natürlich rennen Menschen in der Realität selten durch Turn- oder Messehallen, um eine Gruppe in eine Ecke zu ziehen. Es stellt sich also die Frage, ob diese Beobachtungen und Theorien überhaupt relevant sind für natürliche Situationen. Dennoch sind diese Erkenntnisse wichtig. Sie zeigen, dass wir Konsensentscheidungen fällen können, ohne direkt oder explizit Informationen auszutauschen.

Gruppen können also tatsächlich deutlich bessere Entscheidungen treffen als selbst die besten Teammitglieder. Interessant wird es, wenn innerhalb der Gruppen bekannt ist, welche Teammitglieder eine besonders hohe Reputation genießen. Dann nimmt die Teamperformanz wieder ab, weil die weniger erfolgreichen Mitglieder dem »Leittier« eher folgen und ihren eigenen Einfluss auf die Gruppendynamik zurückdrehen.

Politische Polarisierung: In einer Studie von 2020 haben die Ökonomen Manuel Funke, Moritz Schularick und Christoph Trebesch die Regierungen von 60 Ländern in den letzten 120 Jahren untersucht und festgestellt, dass seit etwa 1980 der Anteil populistischer – insbesondere rechtspopulistischer – Regierungen von fünf Prozent auf etwa 25 Prozent zugenommen hat.

Durch das Internet und soziale Medien ist es mittlerweile Normalität, dass sich widersprechende Informationsquellen jeweils Wahrheitsansprüche stellen und den Konsumenten somit Informationen liefern, die ihre eigene Überzeugung festigen. »Alternative facts« ist ein Schlagwort geworden. Damit haben sich Ursache und Wirkung vertauscht. Wurden früher Überzeugungen stärker aus Fakten abgeleitet, werden heutzutage vermehrt »Fakten geschaffen«, die Überzeugungen bedienen und festigen.

Sind Menschen aber radikal, bedeutet das in erster Linie, dass sie gegen andere Meinungen sind und auch gegen die Menschen, die diese vertreten. So können im Prinzip auch Menschen mit neutraler Meinung radikal sein, weil sie gegen alle überzeugten Menschen sind, ob religiös oder nicht, ob links ob rechts.

Radikale Personen wiederum reagieren positiv auf andere auf ihrer Seite des Meinungsspektrums, unabhängig, ob sie radikal sind oder nicht. Sie reagieren aber negativ auf alle, die der anderen Seite angehören.

Personen können radikalisiert werden, wenn die Meinungsspannungen zwischen ihnen und ihrem Umfeld zu stark werden. Wenn das Umfeld die eigene Meinung vertritt, entsteht keine Spannung. Auch ein bisschen Meinungsdiversität ist erträglich. Wenn die eigene Meinung aber deutlich vom sozialen Umfeld abweicht, wird eine Radikalisierung wahrscheinlicher. Dann entfernt man sich noch stärker von der mittleren Meinung im Umfeld und erzeugt dadurch auch bei anderen Personen eine erhöhte Meinungsspannung. Die Wahrscheinlichkeit zur Radikalisierung wächst, eine Kaskade von Radikalisierungen kann entstehen, die ganze Population wird polarisiert, die Meinungsvielfalt wird kleiner, und die Häufungen an den Extremen des Meinungsspektrums steigen an.

So einfache Modelle sagen also überraschend genau die Meinungsverteilungen vorher, was bedeutet, dass wir in unserer Meinungsbildung viel stärker den unmittelbaren Einflüssen der Personen in unserem Umfeld unterliegen und dass individuelle Entscheidungsprozesse oder Überlegungen eine viel geringere Rolle spielen, als wir denken.

Wissenschaftliche Evidenz spricht dafür, dass sich Menschen in erster Linie mit Leuten umgeben, die ähnlicher oder gleicher Meinung sind. Im Zeitalter der sozialen Medien kann man diese Neigung zur sozialen Homophilie sehr gut quantitativ erfassen, indem man beispielsweise das Facebook- oder Twitter-Netzwerk untersucht und auswertet.

Allein die Tatsache, dass man nach sozialer Homophilie strebt, also Gleichgesinnte sucht, spricht dafür, dass Menschen ein tiefes Bedürfnis nach Harmonie haben, sie wollen von ihrem Umfeld wertgeschätzt werden, sind auf dieses positive Feedback angewiesen und suchen dort Bestätigung. Also müsste die Flexibilität sozialer Verlinkung auf sozialen Netzwerkplattformen ein System befrieden. Nimmt man jedoch die Informationsflüsse und auch die Strukturen der sozialen Medien genauer unter die Lupe, dann stellt man fest, dass zwar einzelne Personen Gleichgesinnte suchen und sich mit ihnen vernetzen, aber dabei durchaus mit anderen Strömungen konfrontiert werden. Anders als die Amischen im Mittleren Westen kann man sich im Netz vor unangenehmen Reizen nicht schützen und isolieren. In den Newsfeeds auf Facebook und Twitter werden alle immer wieder anderen, oft radikalen Strömungen und Meinungsspannungen ausgesetzt, was wiederum die Vernetzung im eigenen Lager verstärkt und damit die Polarisation in der Gesellschaft bewirkt. Oft wird das Argument formuliert, dass diese Prozesse stattfinden, weil zwischen den Lagern oder einzelnen Meinungsgruppen zu wenig Diskurs stattfindet, man also moderater wird, wenn man anderen Meinungen ausgesetzt ist. Tatsächlich spricht die Wissenschaft aber eine andere Sprache. In einer Studie von 2018 haben Wissenschaftler quantitativ untersucht, wie Menschen reagieren, wenn man sie mit anderen Meinungen konfrontiert. In dieser Studie wurden demokratische und republikanische Wähler zu ihren Überzeugungen befragt. Sie sollten urteilen, wie sie zu bestimmten Themen stehen. Nach der ersten Befragungsrunde mussten einige der Probanden politische Zeitungen und Blogeinträge aus dem anderen Lager lesen und wurden danach wieder befragt. Nach der Lektüre hatte sich ihre eigene konträre Meinung nicht nur verfestigt, sondern war weiter in der Meinungsskala nach außen gerutscht. Offenbar können Menschen ihre Meinung nur ändern oder hinterfragen, wenn die Exposition durch andere Meinungen in sehr, sehr milden Dosen stattfindet.

Für soziale Wesen steckt in kooperativen Handlungen ein Mehrwert. Im Kapitel »Kollektives Verhalten« haben wir gesehen, wie Ameisen und Vögel im Kollektiv Probleme lösen oder einer Gefahr ausweichen. Das ist aber etwas anderes. Beim kollektiven Verhalten interagieren sehr viele ähnliche Individuen nach bestimmten Regeln. Die kollektiven Effekte entstehen zwangsläufig und automatisch. Der Junge und ich, zwei grundverschiedene Individuen, haben aber direkt auf komplexe soziale Art und Weise kooperiert.

Diese Geschichten sind typisch: Alles ist Konkurrenz. Selten wird über die symbiotische Beziehung zwischen Arten berichtet, also zum Beispiel die Kooperation zwischen Bestäubern wie Bienen und Schmetterlingen und den Pflanzen, die sie ernähren und deren Fortpflanzung sie im Gegenzug gewährleisten. Oder von Vögeln, die in den Mäulern von Krokodilen und Flusspferden die Parasiten entfernen und davon leben. Eine klare Win-win-Situation. Symbiosen und Mutualismus (eine Art freiwillige Symbiose, aus der beide Partner Vorteile ziehen) werden als Randerscheinung und besondere Spielart der Natur begriffen.

1922, zur Zeit seiner maximalen Ausdehnung, gehörte etwa ein Viertel der Weltbevölkerung und ein Viertel der weltweiten Landmasse zum Vereinigten Königreich. Mit dem Recht des Stärkeren wurde die Überlegenheit der weißen Rasse und der koloniale Imperialismus legitimiert. Gleichzeitig zog man die fehlinterpretierten Grundsätze der Darwin’schen Evolutionstheorie für die explosionsartige Entwicklung des Kapitalismus heran. Ende des 19. Jahrhunderts entwickelte sich so der Sozialdarwinismus zu einer der populärsten Gesellschaftstheorien und lieferte das theoretische Fundament für Rassismus, Imperialismus, Nationalismus und Faschismus.

Darwin hat für seine Schlussfolgerungen nur einen kleinen Ausschnitt der Natur beobachtet. Seine Argumentationsketten beziehen sich auf Phänomene, die man bei »großen« Tieren und Pflanzen beobachtet. Die gesamte mikrobiologische Welt blieb Darwin verborgen. Und wenn wir uns daran erinnern, dass die Artenvielfalt unter den Mikroorganismen (Bakterien und Archaeen) etwa 100.000-fach größer ist als bei allen Pflanzen und Tieren, fußt die Theorie auf einer Randgruppe der Lebensformen.

Wenn wir das Wort »Bakterien« hören, denken wir zunächst an Krankheitserreger und Keime – diese zentrale Botschaft hat Koch durchaus forciert. Tatsächlich aber ist Pathogenität, also die Fähigkeit, uns Menschen oder andere Tiere krankzumachen, eher eine Seltenheit. Mehr noch, ohne Bakterien würden Menschen erkranken, sie sind für alle Tiere und Pflanzen überlebensnotwendig.

Die Assoziation von »Bakterien« mit »Krankheit« ist jedoch so tief in unserem Denken verankert, dass selbst das Verhältnis zwischen krankheitserregenden und nicht-krankheitserregenden Bakterienspezies oft total falsch eingeschätzt wird. Ich schlug vor, zwei Kreise an die Wand zu zeichnen, deren Fläche jeweils die Anzahl der bekannten pathogenen und nicht pathogenen Bakterienarten symbolisiert. An dieser Wand sind jetzt ein Kreis mit zwei Metern Durchmesser (nichtpathogene Bakterien) und ein stecknadelkopfgroßer Kreis zu sehen, der die pathogenen Erreger darstellt.

»Was Charles Darwin für die Evolution ist, ist Lynn Margulis für die Symbiose.« Margulis erkannte in den späten 1960er-Jahren als eine der Ersten, dass symbiotische Beziehungen, Mutualismus und Zusammenarbeit verschiedener Organismen in einem Geflecht sowie Wechselwirkungen das dominante Prinzip in der Natur sind. Sie bildete damit einen Gegenpol zu den klassischen Neodarwinisten wie Richard Dawkins und John Maynard Smith, die den Fokus auf das Individuum und den klassischen Gedanken des »Survival of the Fittest«, den Kampf ums Überleben und den Wettstreit der Arten um Ressourcen, legten.

Bevor Lynn Margulis mit 29 Jahren ihre bahnbrechende Arbeit zur Endosymbiogenese veröffentlichte, lehnten mehrere Fachzeitschriften die Publikation ab. Zu revolutionär war diese Idee. Es dauerte noch einige Jahrzehnte, bis Margulis ’ Theorie durch die neuen Technologien der Gensequenzierung und die Entdeckung, dass Mitochondrien und Chloroplasten ihr eigenes Erbgut haben, triumphal belegt wurde. In zahlreichen Arbeiten zur Wechselwirkung verschiedener Mikroorganismen lieferte sie immer mehr Evidenz dafür, dass kooperative und symbiotische Beziehungen in der Natur, insbesondere im Kosmos der Mikroorganismen, die Regel und nicht die Ausnahme sind.

Dieser kleine Austausch zeigt die unterschiedlichen Perspektiven der beiden Akteure. Hier Dawkins, ein glühender Verfechter einer Theorie, der alle empirische Evidenz, die seine Theorie stärkt, berücksichtigt und Evidenz, die dagegenhält, ignoriert. Da eine Wissenschaftlerin, die zunächst ganz nüchtern beobachtet, feststellt, was existiert, und erst dann eine Theorie entwickelt, die die Sachlage erklärt.

Margulis zufolge machen genau diese sprunghaften Schritte zur Kooperation und Symbiose den wesentlichen Bestandteil der Evolution aus.

Erwiesen war mit ihrer Theorie, dass durch die Entstehung neuer Verbindungen Gesamtsysteme plötzlich ganz anders funktionieren, als wenn die Einzelelemente parallel nebeneinander und unabhängig voneinander graduell evolvieren.

Margulis vertrat die Auffassung, dass durch neue Beziehungen, neue Wechselwirkung unter den Arten, zum Beispiel durch kooperative Symbiosen oder Mutualismus, neue Systeme entstehen.

Mittlerweile weiß man, dass keine einzige Tier- oder Pflanzenart ohne einen kooperativen Verbund mit Mikroorganismen existiert. Nicht eine Einzige. Jede Pflanze, jedes Tier trägt in oder auf sich Mikroorganismen, die essenziell für das Überleben und die Fitness des Gesamtorganismus sind.

Ein Mensch besteht, wie gesagt, aus rund 100 Billionen menschlichen Zellen. In seinem Verdauungstrakt leben noch einmal etwa genauso viele bakterielle Zellen, vielleicht sogar mehr. Wenn es also nach der schieren Anzahl von Zellen geht, sind wir ebenso viel Mensch wie Bakterium.

Gefangenendilemma: Kooperation ist aus Sicht des Individuums nicht die beste Strategie, obwohl der Vorteil für beide am höchsten wäre. Diesen Effekt nennt man Tragik der Allmende, also Tragik der Allgemeinheit. In den meisten Modellen dieser Art wird Kooperation als eine Handlung mit einer höheren Investition, also mit Kosten, beschrieben, die dann allerdings, nur wenn alle mitmachen, einen hohen Gewinn abwirft, der wiederum unter allen geteilt wird. Defektoren, also Personen, die nicht kooperieren, tragen die Kosten der Kooperation nicht, teilen aber den Gewinn. Strategisch sind sie deshalb immer im Vorteil.

Nun muss aber eine Theorie immer die beobachteten Phänomene erklären, und wenn sie es nicht kann, wird sie nicht richtiger, indem man nicht passende Beobachtungen einfach ignoriert. Da Kooperation unter den Lebensformen der Natur aber die Regel ist und nicht die Ausnahme, ist es fraglich, wie gut eine Theorie ist, die dieses universelle Element nicht erfassen kann.

Das Kriterium der Freiwilligkeit scheint also wichtig zu sein, dass es also zur Kooperation Alternativen gibt. Wird man zur Kooperation gezwungen, überleben am Ende nur die Defektoren.

100 Jahre haben Neodarwinismus und Sozialdarwinismus sich gegenseitig befruchtet und zu fatalen Lebens- und Wirtschaftskonzepten geführt: ungezügeltem Wachstum, monopolistischen Konzernen, Uniformität und Diversitätsverlust. Vielleicht ist es an der Zeit, aus der erfolgreichsten Strategie der Natur zu lernen und sie in gesellschaftlichen und sozialen Strukturen zu übernehmen: der Kooperation.

Die Komplexitätswissenschaft und dieses Buch liefern leider keine Betriebsanleitung für die Rettung der Menschheit. Aber vielleicht einen Werkzeugsatz, der uns dabei helfen kann, Muster in den Miseren zu erkennen, die Regeln der Krisen zu berücksichtigen, andere Perspektiven einzunehmen und zu verstehen, wie alles mit allem zusammenhängt: antidisziplinäres Denken, essenzielle Mechanismen identifizieren, statt sich in Details zu verlieren, Verbindungslinien zwischen Phänomenen erkennen, aus Ähnlichkeiten lernen. Denn nur Ähnlichkeiten sind bindend. Aus Unterschieden kann man nichts ableiten, man kann sie nur feststellen und aufzählen.