Sechs Fehler im Umgang mit komplexen Systemen
Wir stehen heute vor einer weltwirtschaftlichen Situation, die man als äußerst ernst bezeichnen kann. Das eigentliche Problem klingt paradox: Weil das bisherige Management der Systeme auf Haushalts- Unternehmens- und Staatsebene so gut funktioniert hat, haben wir uns erst in diese fast schon ausweglose Situation gebracht.
Wir haben derart komplexe Systeme geschaffen, die wir schon lange nicht mehr verstehen, geschweige dann steuern und lenken können.
Die Geisteshaltung, die unser Wirtschaftsgeschehen weltweit seit vielen Jahrzehnten bestimmt, ist geprägt von Rationalismus, Determinismus und dem unbeirrbaren Glauben an statistische Hochrechnungen.
Der Ausspruch: „You only can manage what you can measure“ wurde in vielen Bereichen bedingungslos umgesetzt.
Man glaubt in vielen Expertenkreisen bis heute, dass die Verfolgung von gewissen Einzelzielen (z.B. Steigerung des BIB, die Maximierung von Gewinnen, etc.) dazu angetan ist, eine insgesamte Verbesserung auf Unternehmens- oder nationalstaatlicher Ebene herbeizuführen.
Die mehr oder weniger undifferenzierte Ausschüttung von staatlichen Subventionen (Rettungs- und Hilfspakete) im Angesicht der Weltwirtschaftskrise vom 2008-2010 sowie jene im Zuge der Pandemie 2019-20 ist ein eindrucksvoller Beweis dieser Geisteshaltung.
Auf den nachstehenden Seiten möchte ich aufzeigen, dass auch das Wirtschaftsgefüge – egal ob Unternehmen oder Nation – ein hyperkomplexes und dazu soziales System ist, das mit dem herkömmlichen Verständnis von Wirtschaften unmöglich unter Kontrolle gehalten werden kann.
Hierzu werden Modelle und systemische Zusammenhänge dargestellt, die üblicherweise NICHT Gegenstand von Fachausbildungen im Finanzbereich oder gar von MBA Ausbildungen sind, die aber bereits vor vielen Jahren gewisse Irrlehren und Auswüchse im Wirtschaftsleben hätten verhindern können.
Ursachen für die Entstehung von wirtschaftlichen Krisensituationen im 21. Jahrhundert
Die Hauptgründe dafür, die wahre Natur der aktuellen Krise nicht zu sehen und nicht zu verstehen, sind aus meiner Sicht folgende:
- „Lineares Denken“: Die meisten Menschen denken in einfachen Ursache-Wirkungs-Zusammenhängen (z.B. „wenn die Wirtschaft wächst, geht es ihr gut“)
- Die Huldigung eines „Konkretismus“ (vgl. Zihlmann): Nur was messbar ist, dem wird Aufmerksamkeit geschenkt.
- Der Glaube an deterministische Hochrechnungen und Datensammlungen
- Die Ausrichtung an falschen (z.B. der Irrglaube von der Gewinnmaximierung) oder einseitigen (Das BIB als einzige Größe, an dem die Wirtschaftsleistung abgelesen werden kann) Zielen
- Die Kurzfristigkeit im Denken (Entscheidend sei nur, was hier und jetzt ein auftretendes Problem vermeintlich löst)
Hierzu der „Erfinder“ eines der wirksamsten Instrumente, um mit komplexen Systemen umgehen zu lernen – nämlich der Sensitivitätsanalyse -, Frederic Vester: „Simple Ursache-Wirkungs-Beziehungen gibt es nur in der Theorie, nicht in der Wirklichkeit. (Vester, S. 15)
Die Merkmale komplexer Handlungssituationen
Die Merkmale komplexer Handlungssituationen (Dörner, S. 58-64) können wie folgt dargelegt werden:
Es geht jeweils um die Bewältigung von Problemen in komplexen, vernetzten, intransparenten und dynamischen Situationen.
Komplexität entsteht ja dadurch, dass ein System aus sehr vielen Variablen besteht, die jeweils miteinander vernetzt sind, und die sich untereinander mehr oder weniger stark beeinflussen.
Auch sind diese Systeme meist wenig transparent, man sieht für gewöhnlich nicht das gesamte System, sondern nur einen Teilbereich daraus.
Und schließlich entwickeln sich diese Systeme weiter, sie weisen sozusagen eine Eigendynamik auf.
Komplexität und Vernetzung
In komplexen Systemen gilt es zu berücksichtigten, dass die verschiedenen Variablen nicht unabhängig voneinander existieren, sondern sich wechselseitig beeinflussen.
Ein Eingriff, der einen Teil des Systems betrifft, wirkt immer auch auf viele andere Teile des Systems. Das wird „Vernetztheit“ genannt.
Ein weiteres Problem ist auch, dass Komplexität kaum zufriedenstellend gemessen werden kann. Komplexität ist keine objektive, sondern eine subjektive Größe.
Ein geübter Schifahrer wird dieselbe Situation im Steilhang als weniger komplex wahrnehmen als ein Anfänger. Dörner erklärt diesen Effekt mit „Superzeichen“. Eine bestimmte Situation am Schihang stellt sich für den erfahrenen Fahrer nicht als ein Konglomerat von Einzelmerkmalen, die einzeln beobachtet werden müssen dar, sondern als „Gestalt“, die es dem geübten Schifahrer einfacher macht, in dieser Situation angemessen zu reagieren. „Superzeichen“ reduzieren für ihn somit die Komplexität.
Dynamik
Wenn in ein komplexes System interveniert wird, so geschieht dies oft unter Zeitdruck der Akteure (man denke nur an die vielen „Hilfsmaßnahmen“ zur Stärkung der Wirtschaft).
Zeitdruck bedeutet auch, dass die Informationssammlung nicht beliebig lange dauern darf, man muss sich mit „Ungefährlösungen“ zufriedengeben.
Auch ist es enorm wichtig, nicht nur den Status Quo eines Systems zu berücksichtigen (Wie verhält sich das System im Augenblick), sondern die Eigendynamik von Systemen macht weiterhin die Erfassung ihrer Entwicklungstendenzen erforderlich.
Die Analyse der augenblicklichen Gegebenheiten reicht keineswegs aus, man muss zusätzlich versuchen herauszubekommen, wo das Ganze hin möchte.
Intransparenz
Diejenige Person, die planen möchte, sieht in der Regel nicht alle Merkmale einer Situation (z.B: ein Bürgermeister kennt nicht alle Faktoren, die dazu angetan sind, die Lebensqualität für die Bürger seiner Gemeinde zu erhöhen).
Selbst wenn er vollständige Kenntnis über die Systemstrukturen hätte, wird er doch nie ganz genau wissen, welche Situation wirklich vorliegt. Die Intransparenz ist eine weitere Quelle der Unbestimmtheit der Planungs- und Entscheidungssituation.
Sechs Fehler im Umgang mit komplexen Systemen
Diese Fehler im Umgang mit komplexen Systemen wurden erstmals von Dietrich Dörner veröffentlicht (siehe Vester, S. 36-37).
In seinem Buch „Problemlösen als Informationsverarbeitung“ beschreibt der Systempsychologe Dörner bereits 1975 das Phänomen bezüglich unserer Unfähigkeit, Probleme in komplexen Situationen zu lösen.
Er erfand eine fiktive afrikanische Region, das Tanaland, deren wichtigste Daten und Einflussgrößen den tatsächlichen Bedingungen afrikanischer Regionen entnommen und in einem Computer gespeichert wurden.
Dazu wurde ein Dialogprogramm entwickelt und zwölf Personen unterschiedlicher Fachrichtungen bekamen die Aufgabe, ganz allgemein dafür zu sorgen, dass es den Leuten in Tanaland besser ginge, wozu ihnen von der Weltbank Kredite zur Verfügung gestellt wurden.
Damit konnten sie Brunnen und Staudämme bauen, Industrie- und Kraftwerke ansiedeln, Medizin und Hygiene verbessern und Anbauarten und Düngegepflogenheiten ebenso verändern wie etwa die Jagdgewohnheiten (durch Bereitstellen von Gewehren). Auf diese Weise konnte das Land über mehrere Entscheidungsstufen, auf denen die Auswirkungen der zuvor getroffenen Maßnahmen jeweils vorlagen, durch ein ganzes Jahrhundert gesteuert werden.
Das Ergebnis war niederschmetternd: Statt das das Leben der Menschen sich der Zielsetzung entsprechend nachhaltig besser gestaltete, traten nach vorübergehenden Besserungen Katastrophen und Hungersnöte auf.
Die Vieherden waren auf einen Bruchteil zusammengeschmolzen, die Nahrungsquellen versiegten ebenso wie die Finanzen. Eine Rückzahlung der Kredite war nicht mehr möglich. Auffallend war, dass die am Versuch beteiligten Experten genauso wie die übrigen Versuchspersonen ein Chaos schufen und das Land in ein Desaster führten, obgleich alle das Gute wollten.
Nachstehend eine Zusammenfassung der bei diesem Experiment auftretenden Fehlern:
Erster Fehler: Falsche Zielbeschreibung
Statt die Erhöhung der Lebensfähigkeit des Systems anzugehen, werden Einzelprobleme zu lösen versucht. Das System wird abgetastet, bis ein Missstand gefunden ist. Danach wird der nächste Missstand gesucht und unter Umständen bereits eine Folge des ersten Missstands korrigiert. Man nennt so etwas Reparaturverhalten. Die Planung geschieht ohne große Linie, einem Anfänger beim Schachspiel vergleichbar.
Zweiter Fehler: Unvernetzte Situationsanalyse
Viele Menschen sammeln, wenn sie eine Situation analysieren möchten, große Datenmengen. Auf die Erfassung des kybernetischen Charakters des Systems – beispielsweise seiner historischen Genese – verzichtet man. Die Dynamik des Systems bleibt auf diese Weise meist unerkannt.
Dritter Fehler: Irreversible Schwerpunktbildung
Man versteift sich einseitig auf einen Schwerpunkt, der zunächst richtig erkannt wurde. Er wurde jedoch zum Favoriten. Aufgrund der ersten Erfolge beißt man sich an ihm fest und lehnt andere Aufgaben ab.
Dadurch werden schwerwiegende Konsequenzen des Handelns in anderen Bereichen oder der vorhandenen Probleme und Missstände nicht beachtet.
Vierter Fehler: Unbeachtete Nebenwirkungen
Im linear-kausalen Denken befangen, geht man bei der Suche nach geeigneten Maßnahmen sehr zielstrebig vor, um die Lage zu verbessern. Man nimmt keine Nebenwirkungsanalyse vor. Es wird kein Policy Test (=Wenn-dann-Test) zum Durchtesten der möglichen Strategien unternommen.
Fünfter Fehler: Tendenz zur Übersteuerung
Zunächst geht man zögernd und mit kleinen Eingriffen an die Beseitigung von Missständen heran. Wenn sich darauf im System nichts tut, war die nächste Stufe ein kräftiges Eingreifen. Bei den ersten unerwarteten Rückwirkungen (durch Zeitverzögerung hatten sich die ersten kleinen Schritte unbemerkt akkumuliert) muss man wieder komplett bremsen.
Sechster Fehler: Tendenz zu autoritärem Verhalten
Die Macht, ein System verändern zu dürfen, und der Glaube, es durchschaut zu haben, führen zu einem diktatorischen Verhalten, das für komplexe Systeme völlig ungeeignet ist. Für diese ist ein Verhalten, das nicht gegen den Strom schwimmend verändert, am wirkungsvollsten. Bei der Durchsetzung von Gigantismen, die die Systemstruktur gefährden, spielte zudem häufig die Hoffnung auf einen zweifelhaften persönlichen Prestigegewinn eine Rolle: eher durch die Größe eines Projekts als durch dessen bessere Funktionsfähigkeit zu Macht und Ansehen zu kommen.
In sämtlichen Management-Weiterbildungen im Rahmen der BusinessClass Seminare und Lehrgänge gehen wir vom oben beschriebenen systemischen Managementansatz aus. Wir alle sehen uns verpflichtet, die Ursachen der Fehler in der Vergangenheit aufzuzeigen und wirksame Lösungsansätze für die Herausforderungen in der Zukunft zu erarbeiten. Das das Management komplexer Systeme ist Teil unserer Zertifikats-Lehrgänge.
Autor Paul Slamanig