Was so alles schief gehen kann und geht
Auf dieser Seite werden anonymisierte Vorfälle gesammelt, die eigentlich nicht passieren hätten dürfen. Sie zeigen alltägliche Probleme auf und lassen damit den einen oder anderen Rückschluss auf die weitreichenden Folgen eines möglichen Blackouts zu.
Winston Churchill
„Ein kluger Mann macht nicht alle Fehler selbst.
Er gibt auch anderen eine Chance.“
Normal Accident Theory
(Auszug Wikipedia) Charles Perrow, US Organisationstheoretiker und Soziologe, wurde in den 1980er durch Normal Accidents: Living With High Risk Technologies bekannt. Darin entwickelt er die Vorstellung, dass katastrophale Ereignisverkettungen in komplexen Systemen wahrscheinlich nicht vollständig bzw. nicht dauerhaft zu vermeiden sind. [Siehe dazu auch das aktuelle Buch: Der Seneca.Effekt: Warum Systeme kollabieren und wie wir damit umgehen können; Der Kollaps von komplexen Systemen ist ein Designbestandteil, weil anders keine Weiterentwicklung möglich wäre!]
Im Kern der Überlegungen Perrows steht die Theorie der Normalen Katastrophen. Katastrophenartige Unfälle sind demnach insbesondere in eng gekoppelten und komplexen Systemen unvermeidbar. In diesen Fällen kann einzig die Interaktion multipler Fehler den Unfall erklären. Perrows Theorie sagt voraus, dass Fehler auf verschiedenartige und unvorhergesehene Weisen auftreten können, die fast unmöglich vorhersagbar sind (Nichtlinearität).
Die wesentliche Differenz besteht für Perrow in den industriellen und technischen Umwelten der Organisation. Je nach Kerntechnologie variiert die Wahrscheinlichkeit, mit der eine undurchschaubare und deswegen schwer zu kontrollierende Ereignisverkettung eintritt, an deren Ende ein katastrophales Ereignis stehen kann.
Hauptursachen für Katastrophen:
- Mangelhafte Fehlerfreundlichkeit
- Trotz, wenn nicht sogar wegen der hohen Sicherheitstechnik
- Menschliches Fehlverhalten – Übersteuerung
Jedoch ist dabei zu berücksichtigen:
Es wird also klar, daß Unfälle und Katastrophen nicht in Einzelfällen und nur aufgrund von menschlichem Versagens auftreten. Sondern die Wahrscheinlichkeit eines Störfalls, der zu einem Unfall oder einer Katastrophe wird, steigt mit zunehmender Komplexität und Kopplung eines Systems. Je komplexer und je enger gekoppelt ein System ist, umso effizienter ist es auch. Aber in gleichem Maße steigt die Wahrscheinlichkeit eines unvermeidbaren Unfalls, der aufgrund der komplexen Interaktion der Komponenten nicht oder kaum beherrschbar ist. Katastrophen sind also normal, ihnen kann nur versucht werden durch Antizipation der möglichen Folgen in alle Richtungen entgegenzuwirken. Aufgrund der unvorhersehbaren Wechselwirkungen wird man sie aber nie sicher machen können. Wenn Unfälle aber unvermeidbar sind, muß man sich entscheiden bei welchem Nutzen man, welche Risiken, in Kauf nehmen will. (Quelle: Ortwin Renn – Normale Katastrophen nach Perrow, 2001; siehe auch Das Risikoparadox)
Daher führt die zunehmende technische Vernetzung zu steigenden systemischen Risiken mit kaum absehbaren Auswirkungen, was insbesondere bei der Auseinandersetzung mit dem Thema „Blackout“ klar wird. Man öffnet hier die Büchse der Pandora.
Murphy-Liste
Im weitesten Sinne handelt es sich hier auch um eine Murphy-Liste, die sich an Murphy’s Law orientiert – „Alles, was schiefgehen kann, wird auch schiefgehen“. Es ist eine auf den US-amerikanischen Ingenieur Edward A. Murphy, jr. zurückgehende Lebensweisheit, die eine Aussage über menschliches Versagen bzw. über Fehlerquellen in komplexen Systemen macht. Möchten Sie eine Erfahrung beisteuern? Schicken Sie mir bitte einfach ein Mail an Danke!
Zusätzliche Beispiel gibt es unter dem Tag Erfahrungen z.B.Unserer medizinischen Versorgung fehlt es an der notwendigen Robustheit
FOLGEN SIE MIR