11. Februar 2021, 17:56
Lesezeit: ca. 3 Min

Komplexe Schönwettersysteme

Auf der Suche nach einer griffigen Beschreibung komplexer Systeme reichte mir der karge Wikipedia-Artikel1 nicht. Auch die komplexen adaptiven Systeme2 wollten nicht passen. Ich fand Professor Emeritus Richard Cook. Sein Forschungsgebiet war das “Resilience Engineering” und er begann dort, wo James Reason 1990 mit seinem Buch “Human Error” aufhörte. Wem das Buch nichts sagt: Wenn Menschen mit 100%ig funktionierender Technik katastrophale Unfälle bauen, wird es als Standardwerk zitiert. Das Schweizer-Käse-Modell3 ist nichts als eine bildhafte Umschreibung seiner “Defence-in-Depth”. In den letzten fünf Jahren Thema in meinen Blogs zu Informationssicherheit4 und Flugunfällen5.

Es gibt ein Problem mit der sauberen, deterministischen Sichtweise von Reason. Nicht alles lässt sich am Reißbrett planen. Wer Fehlerketten unterbrechen will kann nur mit dem arbeiten, was bekannt ist. Das unbekannte Unwissen6, “the unknown Unknown” bleibt verborgen. Mit dem Buch “Behind Human Error”7 nahm sich Cook et al. im Jahr 2010 dieser Problematik an.

Ansicht der Bücher

Im Netz gibt es zahlreiche Vorträge von Richard Cook8. Hier die Zusammenfassung, was komplexe Systeme sind und warum diese scheitern9:

  • Umfangreiche Schutzmaßnahmen
    Dank Schutzmaßnahmen, technischer oder organisatorischer Natur schützt sich ein System vor dem Versagen. Standardisierte Prozeduren, Begrenzte Eingabe- und Steuerungsmöglichkeiten, regelmäßige Audits, Zertifizierungen, Backup-Systeme und Redundanzen sind Beispiele. Wenig überraschend: Diese tragen selbst zur Komplexität bei.

  • Fehler sind allgegenwärtig
    Einzelne Fehler reichen nicht zur Überwindung einer Schutzmaßnahme. Sie werden als unbedeutend, manchmal auch als akzeptabel betrachtet. Eine Behebung gilt als unwirtschaftlich. Warum 100% aufwenden, wenn 80% reichen?

  • Arbeiten im “degraded mode”
    Logische Folge des vorhergehenden Punktes: Komplexe Systeme sind in Wahrheit defekte Systeme voller latenter Fehler. Sie funktionieren nur, weil eingebaute Schutzmaßnahmen, Redundanzen und in erster Linie Menschen Schlimmeres verhindern und ein gemeinsames Interesse haben, das System zu erhalten.

  • Änderungsdruck
    Schutzmaßnahmen aus dem ersten Punkt gewährleisten einen Normalbetrieb und gelten als bekannt. Die Punkte zwei und drei bleiben Entscheidungs- und Führungsebenen verborgen. Das verleitet zu “Optimierungen” in Gestalt von neuen Technologien oder Personalentscheidungen und setzt das System einem stetigen Änderungsdruck aus.

  • Systemversagen
    Ein katastophales Systemversagen tritt ein, wenn eine Menge von Fehlern, Änderungsdruck oder eine Kombination aus beiden eingezogene Schutzmaßnahmen überwindet oder auf keine Schutzmaßnahmen treffen.

  • Katastrophen sind vorprogrammiert
    Das Potential für katastrophales Systemversagen ist ein intrinsisches10 Merkmal komplexer Systeme. Es ist unmöglich dieses zu eliminieren.

Complex systems are intrinsically hazardous systems.

Das ist die Kernaussage von Richard Cook. Seine Beobachtungen sind allgemeingültig und treffen auf IT-Systeme und Organisationsstrukturen gleichermaßen zu. Erstaunlicherweise habe ich in der Vergangenheit instinktiv Komplexität als Endgegner auf meinen Folien dargestellt.

Es schüttelt mich, wenn IT-Verantwortliche mit statischen Instrumenten versuchen, ein stochastisch-dynamisches11 System zu steuern. Oder wenn nach einem Vorfall nach der einen Ursache oder dem einen Schuldigen gesucht wird. Das sind Hinweise auf ein fundamental falsches Verständnis von Digitalisierung und einer miserablen Fehlerkultur.

Wir landen bei Fefe12 und seinen Rants zur Komplexität13 in der heutigen IT-Landschaft voller “Komplexitätsverstärker”:14

(…) am Ende hast du ein Schönwettersystem.
Wenn das erste Mal der Wind dreht, (…) einen Scherbenhaufen.

in diesem Sinne,
bleibt gesund!

Tomas Jakobs


  1. https://de.wikipedia.org/wiki/Komplexes_System ↩︎

  2. https://en.wikipedia.org/wiki/Complex_adaptive_system ↩︎

  3. https://de.wikipedia.org/wiki/Schweizer-K%C3%A4se-Modell ↩︎

  4. https://blog.jakobs.systems/blog/20201014-homeoffice/ ↩︎

  5. https://ul-fluglehrer.de/blog/files/20160321-fehlerquelle-mensch.html ↩︎

  6. https://de.wikipedia.org/wiki/There_are_known_knowns ↩︎

  7. Behind Human Error" Routledge Verlag, 2. Edition, first published by Asggate Publishing ↩︎

  8. https://www.youtube.com/watch?v=2S0k12uZR14 ↩︎

  9. https://how.complexsystems.fail/ ↩︎

  10. https://de.wikipedia.org/wiki/Intrinsisch ↩︎

  11. https://de.wikipedia.org/wiki/Stochastik ↩︎

  12. https://de.wikipedia.org/wiki/Fefes_Blog ↩︎

  13. https://blog.fefe.de/?q=Komplexit%C3%A4t ↩︎

  14. https://blog.fefe.de/?ts=a0d07bd8 ↩︎

© 2021 Tomas Jakobs - Impressum und Datenschutzhinweis