Vernetzung und Komplexität
Das Leitthema dieser Seite lautet „Vernetzung und Komplexität“. Durch Vernetzung steigt die Komplexität in Systemen und damit ändert sich auch das Systemverhalten. Etwas, das bei unseren technischen Systemen relativ neu ist und vor allem durch die IT-Vernetzung (u. a. durch das Internet) in den vergangenen zwei Jahrzehnten massiv vorangetrieben wurde und noch weiter wird („Digitalisierung“). Dabei stellen systemische Risiken eine neue und bisher kaum bekannte Risikoqualität dar, die mit unseren bisherigen Risikobewertungsmöglichkeiten kaum erfassbar sind.
In der Natur gibt es hingegen nur offene, komplexe Systeme. Daher macht es Sinn, von der Natur zu lernen und die Erkenntnisse aus der sehr langen Entwicklungsgeschichte auf unsere komplexen technischen Systeme zu übertragen. Gleichzeitig müssen wir akzeptieren, dass das, was komplex ist, das menschliche Gehirn überfordert, egal ob es mehr oder weniger komplex ist. Zum anderen gibt es die Erkenntnis, dass uns in vielen Bereichen noch die Werkzeuge und Sprache fehlen, um mit Komplexität erfolgreich umzugehen bzw. diese in einer passenden Weise zu beschreiben. Das bedeutet, dass wir uns nur annähern können und es noch keine „Wunderlösungen“ gibt, die überall passen. Eines ist aber fix: Das bisher erfolgreiche, aber vorwiegend lineare Denksystem mit einfachen Ursache-Wirkungsmustern versagt im Umgang mit Komplexität. Daher wird uns ein „more of the same“ oder „weiter wie bisher“ garantiert nicht weiterbringen.
Dennis Meadows, Die Grenzen des Wachstums
„Das Verständnis für die Systemkomponenten ergibt sich stets aus der Kenntnis des Ganzen,
nicht umgekehrt.“
Natürlich gibt es Versuche, komplexe Systeme mit mathematischen Modellen zu beschreiben und berechenbar zu machen. Aber auch das stellt immer nur eine Annäherung dar. Diese verleitet aber leicht dazu, eine Berechen- und damit Beherrschbarkeit anzunehmen. Das beste Beispiel ist wohl die Wettervorhersage. Oftmals sind die Vorhersagen sehr genau, besonders wenn stabile Rahmenbedingungen herrschen. Besteht aber eine hohe Dynamik, dann sieht das oftmals ganz anders aus. Ganz abgesehen von speziellen lokalen Phänomenen, die in der Regel nicht erfasst werden können, da die Modelle dafür trotzdem wieder zu ungenau sind. Trotz extrem zunehmender Datenmengen und Computerleistungen, die hierfür eingesetzt werden. Denn Komplexität bedeutet immer einen Informationsmangel. Zudem verändern sich komplexe Systeme laufend, womit ein Abbild (Modell) immer nur einen vergangenen Status darstellen kann. Und je nach Anwendungsfall geht es vor allem um die statistischen Ausreißer, die gefährlich werden können. Etwa im Stromversorgungssystem. Auch wenn die Algorithmen 99,99 % des Jahres richtig liegen, kann eine 0,01 % Abweichung bereits zum Kollaps des Gesamtsystems führen. Das führt dann dazu, dass kleine Ursachen zu verheerenden Auswirkungen führen können.
Was das konkret bedeuten kann, welche Schattenseiten wir gerne übersehen, aber auch welche Lösungsansätze und Chancen sich damit auftun, soll hier thematisiert werden. Vor allem ist dieses Wissen wichtig, um die Zusammenhänge bei der Betrachtung von
- lebenswichtigen (kritischen) Infrastrukturen,
- dem europäischen Stromversorgungssystem,
- dem Szenario eines europaweiten Strom- und Infrastrukturausfalls („Blackout“) sowie
- beim Lösungsansatz „Energiezellensystem„
besser verstehen zu können.
Gleichwohl kann das gesamte Thema hier nur gestreift und der eine oder andere Impuls gegeben werden. Für tiefer gehende Betrachtungen gibt es eine Reihe von Autoren, die ganze Bücher darüber geschrieben haben (siehe Literaturliste). Oder den hervorragenden Blog „Reise des Verstehens“ von Conny Dethloff wie auch den Podcast „Abenteuer Problemlösen“ von Georg Jocham.
Unzureichender Wissenstransfer
Eine Erfahrung aus der Auseinandersetzung mit dem Thema Komplexität ist, dass es oftmals an einem Wissenstransfer zwischen unterschiedlichen Domänen fehlt und daher gewisse Grunderfahrungen immer wieder aufs Neue gemacht werden müssen. Besonders markant ist das im IT-/Cyber-Sicherheitsumfeld. Hier werden heute Fehler gemacht, die bereits vor 20 Jahren in der PC-Welt gemacht wurden. Nur das die heutigen Systeme alle miteinander vernetzt sind (Internet of Things) und daher die Auswirkungen bei Sicherheitsvorfällen eine ganz andere Dimension annehmen können. Dabei sind die meisten Sicherheitsvorfälle nicht etwa auf neuartige oder außergewöhnliche Ursachen zurückzuführen, sondern auf banalste, langjährig bekannte Fehler, die immer wieder auftreten. Etwa, indem keine Plausibilitätsprüfungen durchgeführt werden.
Zum anderen sind wir in vielen Bereichen noch in „Silos“ (Abteilungen, Fachbereiche, etc.) organisiert, die gleichzeitig häufig auch „Denksilos“ darstellen. Diese Logik hat in der Industriegesellschaft ganz gut funktioniert. Nur in einer zunehmend vernetzteren Welt und Netzwerkgesellschaft kann man damit kaum mehr Probleme lösen. Zumindest nicht, wenn man nicht in der Lage ist, anlassbezogen, hierarchisch oder vernetzt zu denken und zu handeln. Es geht daher nicht um entweder-oder, sondern um sowohl-als-auch.
Noch nie stand uns soviel Wissen zur Verfügung, das gleichzeitig laufend mehr wird. Aber auch gleichzeitig so rasch veraltet und überholt sein kann, wie noch nie zuvor. Vor allem im technischen Bereich. Und dieses Wissen steht nicht nur einer kleinen Elite, sondern fast allen, die sich dafür Interessieren, Dank Internet fast jederzeit und überall zur Verfügung. Das ist zugleich auch eine Schattenseite. Denn kein Mensch kann diese Unmengen an neu generiertem Wissen erfassen. Und somit gibt es für viele Problemstellungen Lösungen, die nur nicht an die richtige Stelle kommen. Andererseits reicht Wissen alleine nicht aus. Denn wir wissen, dass die Folgen des Klimawandels verheerend sein werden. Dennoch kommen wir kaum ins Handeln, um wirklich etwas zu ändern. Wissen alleine reicht also nicht aus. Veränderung braucht jedoch Zeit und Behaarlichkeit. Etwas, das wir aufgrund der laufend neuen Reize kaum aufbringen (wollen). Ein gefährlicher Teufelskreis. Es scheitert daher häufig nicht am Wissen oder den technologischen Voraussetzungen, sondern an unserer Veränderungsbereitschaft.
Organisatorische Vernetzung verbessern
Vince Lombardi, American Football Trainer
„Menschen, die zusammenarbeiten, werden gewinnen. Sei es gegen komplexe Verteidigungen im Football oder gegen die Probleme moderner Gesellschaften.“
Um mit den von uns geschaffenen komplexen Systemen und Umwelten erfolgreich umgehen zu können, müssen wir auch unsere eigene Komplexität erhöhen. Häufig versucht man eher die Komplexität zu reduzieren. Das macht dort Sinn, wo es möglich ist bzw. unnötige Komplexität geschaffen wurde. In vielen Bereichen haben wir diese Möglichkeit, aber nicht. Daher können wir uns nur selbst anpassen.
Knut Bleicher, deutscher Wirtschaftswissenschaftler
„Wir arbeiten in Strukturen von gestern mit Methoden von heute an Problemen von morgen vorwiegend mit Menschen, die die Strukturen von gestern gebaut haben und das Morgen innerhalb der Organisation nicht mehr erleben werden.“
Komplexität und komplexe Systeme
Komplexität ist ein häufig verwendeter Begriff, ohne dass er eindeutig definiert wäre. Wir verbinden damit meist intuitiv undurchsichtige, komplizierte, vielschichtige oder unerklärliche Situationen oder Phänomene. Unsere Welt ist komplexer geworden, alles „dreht“ sich schneller. Das „Hamsterrad“ dient häufig als Metapher, immer schneller, aber ohne jemals an das Ziel gelangen zu können. Selten sind uns die dahinterliegenden Zusammenhänge bewusst.
Komplexe Systeme bestehen aus einer großen Anzahl von Elementen, die miteinander vernetzt sind, die aber auch mit ihrer Umwelt interagieren. Es kommt zu laufenden Rückkopplungen (Feedback).
Ein Sandhaufen hat auch viele Elemente, die jedoch nicht miteinander verbunden sind. Beim Zement ist zwar eine Verbindung vorhanden, aber eine starre. Daher handelt es sich dabei um kein komplexes System. Es gibt auch technische Systeme (Maschinen) mit einer großen Anzahl von Elementen. Diese funktionieren jedoch nur in einer determinierten Umgebung und sie können in ihre Einzelteile zerlegt (analysiert) und wieder zusammengebaut werden. Das sind dann komplizierte Systeme, wie etwa mechanische Uhrwerke oder Druckmaschinen. Sie werden auch als tote Systeme bezeichnet.
Komplexe Systeme hingegen können nicht einfach zerlegt und analysiert und dann wieder zusammengesetzt werden. Sie werden daher auch als lebendige Systeme bezeichnet. Daher führt die Vernetzung in einer nicht determinierbaren Umgebung zu komplexen Systemen, die ein völlig anderes Systemverhalten aufweisen, als unsere bisherigen einfachen bzw. komplizierten Systeme (Maschinen). Siehe hierzu auch die sehr anschauliche Beschreibung von Conny Dethloff in seinem Beitrag Methoden passen immer, … oder das Erklärungsvideo Komplex oder kompliziert – was macht den Unterschied? von Harald Lesch.
Die Entwicklung einer Software ist für sich genommen zwar kompliziert, ihre Einführung in einem Unternehmen jedoch komplex, denn hier spielen viele Faktoren mit dynamischen Veränderungen im Zeitablauf hinein. (…) Somit besteht Komplexität nicht einfach aus der Summe der komplizierten Bestandteile, sondern aus deren Interaktionen. Es genügt deshalb nicht, die komplizierten Aspekte im Griff zu haben und zu meinen, man manage damit auch Komplexität erfolgreich. Vielleicht braucht es auch ein Verständnis für Zusammenhänge, Eigendynamik und Zielkonflikte. Aus Vernetztes Denken und Handeln in der Praxis, S. 33.
Systeme existieren zudem nur in den Köpfen von Menschen; sie sind gedankliche Konstrukte! Das Wort „System“ ist nur ein Platzhalter für eine gedankliche Einheit. Komplexität bedeutet darüber hinaus, dass prinzipiell ein Informationsmangel herrscht. Über komplexe Verhältnisse hat man nie alles erforderliche Wissen und man kann nie alle damit verbundenen Informationen gewinnen. Entscheidend ist daher zu wissen, welche Informationen für welchen Fall relevant sind, wie diese rasch gewonnen und erfolgreich genutzt werden können. Gleichzeitig gilt, dass die Wahrscheinlichkeit von zunehmendem Chaos und von Zusammenbrüchen umso höher ist, je komplexer ein System ist und je mehr Informationsmangel herrscht. Siehe dazu auch Komplexität im Management.
Wichtige Kennzeichen komplexer Systeme
Praktische Beispiele
Es werden wohl jedem unzählige Beispiele aus dem Alltag einfallen, wo diese Kennzeichen zum Tragen kommen. Ob das die Ohnmacht bei einer Vielzahl von anstehenden Problemen ist (Bildungs-, Gesundheits-, Pensionssystem), die zeitverzögerten negativen Auswirkungen des Internets mit den steigenden Herausforderungen aus dem Cyberspace (Cyber-Angriffe, Sicherheitsschwachstellen), ein Terroranschlag der zwei Kriege nach sich zog (9/11), die immer wieder praktizierte Anlassgesetzgebung oder die unlösbaren Entwicklungen im Finanzsystem, immer spielt die unterschätzte Komplexität und Nicht-Steuerbarkeit eine Rolle. Im Zusammenhang mit technischen Lösungen betreten wir zudem weitgehend Neuland, da die technische Vernetzung erst seit etwas mehr als einem Jahrzehnt massiv zugenommen hat.
Ein Beispiel für „Kleine Ursache, große Wirkung„: Ein Primärschaden an einem Computer in der Höhe von 2.000 Euro in einer Nebenanlage einer komplexen Produktionsanlage löst in Folge einen Kaskadeneffekt aus, der zu einer 10-tägigen Betriebsunterbrechung mit einem Schaden von über 50 Millionen Euro führt. Real passiert.
Eine Vereinfachung ist kontraproduktiv
Bisherige Ansätze, Komplexität zumindest in der Betrachtung zu reduzieren, führen meist zu einer gefährlichen Vereinfachung, wie sich etwa bei der Energiewende (siehe auch „Wenn betriebswirtschaftliche Optimierungen systemgefährdend werden„) oder bei Großprojekten (Made in Germany: Chaos hat die Eigenschaft, nicht linear zu wachsen, sondern exponentiell) zeigt. Dabei wird versucht, ein System in beherrschbare Teilabschnitte zu zerlegen, ohne jedoch dabei die entscheidenden „unsichtbaren Fäden“ und die damit verbundenen Wechselwirkungen ausreichend zu berücksichtigen. Es erfolgt häufig eine Einzeloptimierung. Ein System ist jedoch mehr als die Summe der Einzelteile. Es braucht daher nicht nur Spezialisten, sondern zunehmend mehr Generalisten, die auch auf diese „unsichtbaren Fäden“ und Gesamtzusammenhänge achten, um Projekte erfolgreich abzuwickeln. Und das trifft nicht nur für Großprojekte, sondern auch zunehmend für Alltagsprojekte zu.
Albert Einstein
„Probleme kann man niemals mit derselben Denkweise lösen, durch die sie entstanden sind.“
Umgang mit Komplexität
Nun stellt sich natürlich die Frage, wie man mit Komplexität umgehen kann? Eine wesentliche Voraussetzung ist „vernetztes Denken„. Dies bedeutet jedoch nicht automatisch, dass das bisherige lineare, monokausale Denken völlig obsolet ist. Ganz im Gegenteil. Es kommt auf den Kontext an. Situationen, wo diese Denkweise auch bisher erfolgreich war, werden auch weiterhin damit zu lösen sein. Komplexe Herausforderungen hingegen sollten neu gedacht und bearbeitet werden. Daher geht es nicht um ein „entweder-oder“, sondern um ein „sowohl-als-auch“-Denken.
Da unser Gehirn nicht dafür ausgelegt ist, komplexe Zusammenhänge bzw. die Wechselwirkungen von mehr 3-4 Faktoren zu erfassen, sind Hilfsmittel zur Visualisierung erforderlich, damit alle relevanten Zusammenhänge gleichzeitig beachtet werden können. Das kann man grundsätzlich auf Papier oder mit einer Softwareunterstützung durchführen. Es gibt verschiedene Software- und Lösungsansätze, die „systemisches (vernetztes) Denken“ unterstützen können. Zum Beispiel der iModeler von Consideo. Die Betonung liegt auf „können“. Man sollte sich dabei von der Vorstellung lösen, dass man einfach ein paar Daten eingibt und dann eine fertige Lösung bekommt. Diese Erwartungshaltung wird auch gerne im Zusammenhang mit Big Data geäußert. Wobei hier ebenso ein sowohl-als-auch gilt. Natürlich gibt es hervorragende Anwendungsfelder, jedoch nicht für jede Fragestellung. Insbesondere, da wir dazu neigen, auch dort Kausalitäten zu sehen, wo es nur eine Korrelation gibt.
Dennis Meadows, Die Grenzen des Wachstums
„Wenn jedoch in einem großen System verschiedenartige Wachstumsvorgänge gleichzeitig stattfinden und diese sich auch noch auf komplizierte Weise gegenseitig beeinflussen, wird es außerordentlich schwierig, das Systemverhalten zu durchschauen und die Ursachen für das Wachstum zu analysieren.“
Got a wicked problem? First, tell me how you make toast
Ein sehr gutes und inspirierendes Beispiel bringt der TEDx Talk von Tom Wujec. Er zeigt eindrücklich, wie scheinbar banale Dinge gar nicht so banal sind. Und warum es daher oft zu Auffassungsunterschieden und Kommunikationsproblemen kommt.
Kommunikation
Eine weitere Erkenntnis aus der Auseinandersetzung mit dem Thema Komplexitätsbewältigung lautet: Es geht vor allem um Kommunikation, insbesondere um nicht funktionierende Kommunikation. Oftmals hängt das auch mit unserem „Silodenken“ zusammen. Gleichzeitig schlummert hier ein enormes Potenzial. Um diese (Denk-)Hürden zu überwinden, ist wiederum die Akzeptanz von „sowohl-als-auch“ erforderlich. Es gibt einmal unterschiedliche Blickwinkel und häufig auch unauflösbare Ambivalenzen, also Widersprüchlichkeiten und Mehrdeutigkeiten. Mit einem entweder-oder geht es um Rechthaberei. Mit einem sowohl-als-auch entstehen neue Lösungen.
Lebensfähiges Systemdesign
In der Natur haben sich in der Evolution drei wesentliche Systemdesignmerkmale für lebensfähige Systeme herausgebildet. Diese waren und sind für eine evolutionäre Weiterentwicklungen ausschlaggebend. Durch die Berücksichtigung dieser Merkmale können auch robustere technische Systeme und resilientere gesellschaftliche Strukturen geschaffen werden. Alles nicht völlig neu. Die Siedlungs- und Gesellschaftsentwicklung hat auch bisher nach diesen Mustern funktioniert. Erst durch die Möglichkeiten der technischen Vernetzung haben sich neue Strukturen ergeben, die nicht mehr unbedingt diesen Mustern folgen.
Energie-, Ressourcenbedarfssenkung, Einfachheit
Jedes System, das durch eine Weiterentwicklung/im Betrieb weniger Energie-/Ressourcen benötigt, ist weniger abhängig und damit auch lebensfähiger und robuster.
So kann etwa die Energiewende nicht ohne Verhaltensänderung/Kulturwandel gelingen. Denn die Energiemengen, die wir heute verbrauchen, lassen sich nicht speichern, wie die Grafik den Energiebedarf und die Speicherkapazitäten in Deutschland zeigen (siehe etwa auch Mythos „Speicher“ – eine Energiebevorratung ist aber unverzichtbar oder Die Energiewende – Fiktion und Wirklichkeit). Das muss nicht zwangsläufig einen Komfortverlust bedeuten. Hier ist Intelligenz und eine Abkehr von unserem bisherigen „immer mehr, immer größer, immer weiter“ Denken gefragt. Ohne dem wird es nicht gehen. Je länger wir zuwarten, desto gravierender werden die Veränderungen werden. Denn jedes System hat seine Belastungsgrenzen. Werden diese überschritten, kommt es zum Kollaps. Siehe auch Der Seneca-Effekt.
Dezentralität, Autonomie
Dezentralisierung bedeutet nicht ein Insel-/Autarkie-/nationalistisches Denken, sondern das es autonome Strukturen gibt, die miteinander und auch größer vernetzt sein können. Sie sind aber auch in der Lage, die Ausbreitung von Störungen zu begrenzen bzw. eine Rückfallebene für den Fall einer Störung einzunehmen. Siehe etwa das Konzept der Energiezellen.
Eine wichtige Erkenntnis dazu stammt vom Biokybernetiker Frederik Vester („Die Kunst vernetzt zu denken“): Eine chaotisch Vernetzung führt ins Chaos. Eine Vernetzungssteigerung ist nur über Substrukturen möglich. Das zeigt die Natur vor.
Fehlerfreundlichkeit, Fehlertoleranz, Diversität
Ein weiterer wesentlicher Faktor ist, dass Störungen nicht ausgeschalten sondern in den Verlauf eingebunden werden. Gerade im technischen Bereich wird häufig das Gegenteil versucht. Etwa indem man versucht, die Menschen an die Technik statt umgekehrt anzupassen. Dabei spielen verschiedene Aspekte eine Rolle:
- Freiräume und Puffer
- Redundanz/Kontinuität
- Variation/Vielfalt/Diversität
- Barrieren/Grenzen
- Flexibilität
- Energieautonomie
- Wandlungs- und Anpassungsfähigkeit
- Akzeptanz des Faktor Mensch – soziotechnische Aspekte
Die Fehlerfreundlichkeit ist eine wesentliche Voraussetzung für eine Risikobereitschaft, welche gerade im Umgang mit Neuem besonders gefragt ist. Auch Innovationen können nur entstehen, wenn Scheitern möglich ist.
Komplexe Zusammenhänge erkennen
Der Zentralverband Oberflächentechnik e.V. hat eine hervorragende Zusammenfassung erstellt, die hier auszugsweise wiedergeben wird. Komplexe Systeme bestehen aus einer großen Anzahl an Einflüssen bzw. Komponenten, die miteinander wechselwirken. So entstehen Wirkungsketten, aber auch Regelkreise, die über viele Komponenten laufen können. Komplexität zu bewältigen, setzt systemisches (vernetzte) Denken (oder Systemdenken) voraus, was leider häufig nicht erfolgt. Ganz im Gegenteil: Die Komplexitätslücken werden immer größer.
Bereits seit den 80er Jahren werden intensive Studien zu unseren begrenzten kognitiven Zugängen zu komplexen Systemen durchgeführt (siehe etwa Dietrich Dörner, „Die Logik des Misslingens“). Dabei treten immer die gleichen Fehler auf.
Hypothesenfehler
Eine Hypothese sollte eine widerspruchsfreie Aussage oder Annahme zu Gesetzmäßigkeiten oder Tatsachen sein, die noch unbewiesen sind. Sie dient als Ausgangspunkt für wissenschaftliche Erkenntnisse.
So resultieren Hypothesenfehler unter anderem aus linearem Denken. Es wird von eindeutigen Ursache-Wirkungsbeziehungen ausgegangen.
Eine zweite Ausprägung des Hypothesenfehlers ist die Fixierung auf die Gegenwart. Zukünftige oder zukünftige mögliche Probleme werden ausgeblendet. Auch Erfahrungen aus der Vergangenheit werden ignoriert.
Planungsfehler
Die Methodenfixierung lässt sich unter anderem an Floskeln wie „das haben wir schon immer so gemacht“ erkennen, die viele verschiedene Formulierungen kennen.
Die Überbewertung von Korrelationen ist vielen von uns schon untergekommen und auch selbst unterlaufen. Dingen, die gleichzeitig oder am gleichen Ort auftreten, wird ein kausaler Zusammenhang zugeschrieben.
Zielfehler
Globale Ziele sind sehr publikumswirksam. Sätze wie „Wir müssen besser werden“ oder „Die Umwelt muss gesünder werden“ lassen sich gut verstehen, bis wir ihnen konkret nachkommen wollen. Ohne klare Ziele mit quantitativen Kriterien sind rationale Maßnahmen und objektive Bewertungen nicht möglich. Es lassen sich zwar auch qualitative Ziele setzen, sie müssen jedoch besonders sorgfältig definiert (und überprüfbar) sein. Ohne klare Zieldefinitionen bleiben Handlungen zufällig und werden durch subjektive Bewertung entwertet.
Vermeidungsziele wie „Es sollen keine giftigen Stoffe mehr verwendet werden“ oder „Es sollen keine Ressourcen mehr verschwendet werden“ sind ebenfalls keine ausreichende Zielbeschreibung. Wann wäre das Ziel erreicht? Bei 0 Prozent? Oder ist ein Rest erlaubt? Wenn ja, wie viel? 100-Prozent-Ziele sind sehr selten erreichbar in komplexen Systemen, denn es treten immer widerstreitende Interessen bzw. Erwartungen auf. Auch 100-prozentige Sicherheit ist leider eine Illusion. Es gilt sich also zu einigen, welches Risiko und welche Umweltauswirkungen als unabänderlich zu akzeptieren sind. Alles andere lässt sich stets in Frage stellen.
Zu einfache Ziele kennt sicher auch jeder. „Eines nach dem anderen!“, „Wir müssen nur die Ursache finden!“, oder „Wir wissen doch, worauf es ankommt!“ sind in komplexen Zusammenhängen problematisch, da sie versuchen, die Komplexität zu simplifizieren. „Verbieten wir erst einmal pauschal Substanzen. Danach wird sich schon eine andere Lösung finden!“ Solche Herangehensweisen sind zwar üblich, in komplexen Systemen sind sie jedoch ungeeignet. „Man kann in komplexen Realitäten nicht nur eine Sache machen. Man kann auch nicht nur ein Ziel anstreben. Strebt man nur ein Ziel an, so kann es sein, dass man dadurch unversehens andere Missstände, also neue Probleme schafft.“
Ziele sollten grundsätzlich konkret, eindeutig, messbar, erreichbar, beeinflussbar, widerspruchsfrei, endlich und nicht zuletzt attraktiv sein. Gerade in der europäischen Regulierung werden diese notwendigen Eigenschaften meist ignoriert.
Bewertungsfehler
Der erste Bewertungsfehler, der hier genannt werden soll, ist ein alter Bekannter: das Schönrechnen! Zur Bewertung des Fortschritts oder des Erfolgs werden lediglich Informationen herangezogen, die zur Erwartung passen. Abweichende Informationen werden ignoriert oder zumindest kleingeredet.
Die zweite Form von Bewertungsfehlern ist das fehlende Bemühen um Falsifikation. Sie ist ein grundsätzliches wissenschaftliches Prinzip. Jede Hypothese muss geprüft werden, möglichst öffentlich. Daten für die Unterstützung der Hypothese zu finden, ist meist leicht. Aber ein einziges Gegenbeispiel kann sie in Frage stellen oder gar widerlegen. Dem stellt sich vor allem der politische und behördliche Bereich ungern – wer macht schon gern Fehler oder irrt sich? So wird schnell mal „Alternativlosigkeit“ postuliert. Gegenuntersuchungen werden nicht gefördert, Gegenbeispiele nicht zur Publikation zugelassen.
Komplexität wird hier simplifiziert, indem Teile des Systems (Gesellschaft, Wirtschaft etc.) außer Acht gelassen werden.
In gleicher Weise wird das Scheitern der Energiewende ausgeschlossen. „Die Sonne stellt keine Rechnung!“, erscheint als Totschlagargument für alle Falsifikationsversuche. Stellen sich die Ergebnisse nicht so ein wie erwartet, werden die Anstrengungen gesteigert und „mehr vom Gleichen“ gemacht. Wird beispielsweise die Berechnung auf die Sonneneinstrahlung reduziert, so ist das vordergründig ein Gewinn. Was ist aber mit den Herstellungsverfahren, den Rohstoffbedarfen, der Flächennutzung, den Kosten für Investition, Installation, Wartung und Entsorgung? Hier entstehen sehr wohl Kosten, die zu Alternativen in Beziehung gesetzt werden müssen. Aber widersprechende Daten und Informationen werden ignoriert oder auch schnell mal als Fakenews deklariert. Das macht es einfach, aber diese Vorgehensweise ist nicht erfolgversprechend.
Korrekturfehler
Eine erste Art dieses Fehlers ist fehlende Selbstkritik – also das Verneinen, dass man überhaupt etwas korrigieren muss. Der Umgang mit komplexen Systemen fußt jedoch auf der Beobachtung der Wirkung eigener Einflussnahmen, dem Erkennen des Systemverhaltens. Treten Abweichungen auf, so muss korrigiert werden. Dies schließt die Rücknahme von Maßnahmen mit ein!
Eine moderne Form des Korrekturfehlers ist es, nur Personen mit gleicher Überzeugung und „Experten“ mit passenden Meinungen zu berücksichtigen (siehe auch „Schönrechnen“ bei Bewertungsfehlern).
So werden Studien gern an Institute vergeben, von denen bekannt ist, dass deren eigene Agenda und (finanzielle) Verflechtung mit den Auftraggebern eine Unterstützung der Prämissen erwarten lassen. Es wird von Wissenschaft gesprochen, aber tatsächlich ist es eine „selbstbewahrheitende Prophezeiung“. So entstehen zum Beispiel immer mehr Studien zur Substitutionsmöglichkeit von Chromtrioxid. Aber keine einzige von der EU Beauftragte untersucht, warum die Substitution am Markt weitgehend chancenlos ist und erst auf Regulierungsdruck erwogen wird. In den Autorisierungsanträgen wird es vielfach erklärt – aber das findet hier keine Beachtung!
Kommunikationsfehler
Kommunizieren setzt voraus, dass wir die gleiche Sprache sprechen und verstehen! Nur dann ist es möglich, Bedürfnisse, Möglichkeiten und Vorgehensweisen in Übereinstimmung zu regeln. Das ist insbesondere für das Verhältnis von Regierung bzw. Obrigkeit zu seinem Souverän, dem Bürger, von entscheidender Bedeutung.
Weitere Fehler in der Kommunikation sollen nur aufgezählt werden: fehlende konkrete Zielvereinbarungen (siehe Zielfehler), fehlende Zwischenabstimmungen („kein Plan übersteht die erste Feindberührung“; Moltke), Kommunikationseinbahnstraßen und unzureichende Kommunikationskanäle. All dies behindert die Beteiligung der Betroffenen und damit ein gemeinsames Vorgehen in komplexen Systemen. Dies ist aber unabdingbar, um sicherstellen zu können, dass Neben- und Wechselwirkungen bestmöglich berücksichtigt und dauerhaft beobachtet werden können.
Fehldosierung
Dieser Fehler sollte intuitiv klar sein, auch in seiner Wirkung. Maßnahmen und damit ihre Nebenwirkungen schießen weit über das Ziel hinaus.
Timing
Komplexe Systeme zeigen ausgeprägte zeitliche Effekte. Manche Wirkungen treten spontan ein, andere erst verspätet oder werden durch vorgelagerte Eingriffe sogar verhindert. Die Gründe für falsches Timing sind vielfältig: Ungeduld, äußere Handlungszwänge, mangelndes Verständnis/mangelnde Erfahrung, Angst, Selbstüberschätzung oder auch die fehlende Akzeptanz des Unvermeidlichen.
Unverständnis bzw. mangelnde Erfahrung ist häufig in Regulierungskreisen anzutreffen. Kaum jemand war selbst in Wirtschaftsunternehmen tätig.
Angst führt schnell zu hektischer, irrationaler und wenig durchdachter Reaktion. Die Angst vor Krebserkrankungen führt zu einem Brute-Force-Ansatz, also einer erschöpfenden Suche nach Lösungen für alle denkbaren krebsauslösenden Substanzen. Die Substitution aller Substanzen, möglichst umgehend, wird als alternativlos betrachtet. Auch viele Programme zur Bewältigung des Klimawandels zeichnen sich durch überhastete Maßnahmen und gar Gesetze aus. Ständig andere Technologien als „die Lösung“ zu präsentieren (Batterien, Wasserstoff …), verdeutlicht dies. Eine Transformation ist aber doch nur sinnvoll, wenn der zu Transformierende das Ende der Transformation noch erreicht.
Zuletzt noch die wichtige Akzeptanz des Unvermeidlichen. Oft wird versucht, Fortschritte und Ergebnisse zu erzwingen.
Zusammenfassung
Die Ausführungen haben gezeigt, dass sich viele Fehler im Umgang mit komplexen Systemen in Politik und Regulierung finden lassen. So wundert es nicht, dass eine gut gemeinte Aktion oft haarsträubende neue Probleme schafft. Gut gemeint ist eben nicht gut gemacht!
Wir alle müssen lernen, den komplexen Zusammenhängen in Wirtschaft und Gesellschaft, aber auch Projekten in Unternehmen oder Forschung und Entwicklung informiert entgegenzutreten. Der typische Managementwerkzeugkasten genügt dafür nicht. Seine Werkzeuge setzen praktisch immer Linearität, das heißt eine eindeutige Richtung von Ursache-Wirkung voraus. Er verspricht eindeutige, wiederholbare und vorhersagbare Ergebnisse, die es zu finden gilt. Genau diese Voraussetzungen gelten für komplexe Zusammenhänge nicht. Hier braucht es andere Denk- und Herangehensweisen, die es zu trainieren gilt.
FOLGEN SIE MIR