Komplexitätsmanagement – Können wir Komplexität in Unternehmen handhaben, wenn ja wie? Welche Rolle spielt dabei Simplifizierung?

Dirk Baecker, für mich zusammen mit Fritz B. Simon einer der bedeutendsten systemischen Organisationsberater der heutigen Zeit, referiert kurz über Unternehmen und deren Komplexität aus systemischer Sicht.

Was ist Komplexität überhaupt? Grundsätzlich ist Emergenz ein wichtiges Hauptmerkmal von Komplexität. Wir haben immer dann das Gefühl, dass ein Problem komplex ist, wenn wir merken, dass wir es nicht in Teilprobleme zerlegen, diese lösen können und dann die Teillösungen zu einer Gesamtlösung zusammenfügen können. Eine Sachlage ist immer dann komplex, wenn diese in endlicher Zeit mit dem vorhandenen Wissen und Methoden nicht lösbar ist. Man erkennt, dass das Einstufen von Komplexität eine subjektive ist, denn es bezieht das Wissen des Betrachters mit ein. Man kann auch sagen, dass ein System komplexer ist je höher die Anzahl der möglichen Zustände des Systems, also die Vielfalt oder Varietät ist.

William Ross Ashby hat das Gesetz von der erforderlichen Varietät formuliert, was sinngemäß besagt, dass die Komplexität eines Systems stets höher oder minimal genauso groß sein muss, wie die seiner Umwelt, damit das System die Umwelt managen und steuern kann. Da dieser Fakt niemals eintreten kann, weil die Komplexität der Umwelt stets höher ist, als die des darin eingebetteten Systems, kann ein System seine Umwelt also bestenfalls handhaben. Was heißt das für Unternehmen?

Für Unternehmen bedeutet das, dass es eine gute Ausgewogenheit zwischen Effektivität (“Die richtigen Dinge tun”) und Effizienz (“Die Dinge richtig tun”) schaffen muss. Es müssen also “Die richtigen Dinge richtig getan werden.” Der Grad der Effektivität drückt die Fähigkeit des Unternehmens aus, sich selbst zu organisieren und damit neue Muster (Prozesse, Produkte, Verfahrensweisen etc.) zu erschaffen. Man kann auch sagen, dass Effektivität für eine hohe Eigenkomplexität des Unternehmens steht. Unternehmen können beispielsweise in diesem Zusammenhang auf unterschiedlichste Kundenanfragen stets adäquat reagieren. Es herrscht eine hohe Vielfalt in den Produkten, Prozessen etc. Effizienz steht in diesem Falle für eine geringe Eigenkomplexität. Prozesse sind beispielsweise schmal und kostengünstig angelegt. Das geht dann zu Lasten der Vielfalt. Die Eigenkomplexität eines Unternehmens muss also so groß wie nötig und so klein wie möglich gestaltet sein.

Die Eigenkomplexität eines Unternehmens kann unterschieden werden in “vom Kunden bezahlte Komplexität” und “vom Kunden nicht bezahlte Komplexität”. Komplexität, die vom Kunden bezahlt wird ist gut und lebensnotwendig für das Unternehmen. Diese drückt sich beispielsweise in Produktvielfat aus, die vom Kunden gewünscht oder gar gefordert wird. Komplexität, die vom Kunden nicht bezahlt wird, ist überflüssig und muss beseitigt werden. Diese Komplexität drückt sich beispielsweise in Verschwendung aus: zu unflexible und komplizierte Prozesse, zu hoher Anteil nicht wertschaffender Arbeit etc. Wann immer Sie Aktivitäten in Ihren Unternehmen verrichten, stellen Sie sich die Frage, ob dieser Aufwand direkt oder auch indirekt vom Kunden bezahlt wird. Ich wette, sehr oft kommen Sie zum Entschluss, dass der Kunde diesen Aufwand nicht vergütet. Sagen Sie dann bitte nicht, es muss ja getan werden. Denn warum? Alle Prozesse, die in einem Unternehmen ablaufen, sind vom Menschen geschaffen. Wer sollte sie sonst erschaffen haben wenn nicht wir? Wenn man also etwas erschaffen hat, kann man es auch wieder abändern oder ganz eliminieren. Man muss natürlich bedenken, dass einige Prozesse befolgt werden müssen, da von Extern Rahmenrichtlinien gesetzt werden. Ich denke da beispielsweis an SOX Compliance. Aber auch hier gilt, diese Richtlinie: Es wurde von Menschenkopf und -hand kreiert. Ich gebe Ihnen gerne ein Beispiel zur Illustration. Nehmen Sie das Scope-Management in Projekten. Neue Anforderungen müssen über ganz klar definierte Prozesse in den Projektscope eingearbeitet werden. Das Definieren dieser Prozesse bildet Ordnung und erhöht damit die Eigenkomplexität des Projektes. Werden die Prozesse allerdings zu unflexibel und schwierig gestaltet, besteht die Gefahr, dass das Projekt im Prozeßsumpf erstickt. Die Eigenkomplexität des Projektes ist also zu hoch. Es herrscht in diesem Fall keine Ausgewogenheit zwischen Effektivität und Effizienz.

Leicht gesagt: Man muss die Komplexität unterscheiden können, in “vom Kunden bezahlt” und “vom Kunden nicht bezahlt”. Wie geht das? Können wir das überhaupt?

Die Menschen nehmen die Umwelt wahr und erklären diese Umwelt für sich. Das machen Sie mit ihrer Logik. Sie erschaffen also ein Abbild der Umgebung. Man darf dieses Abbild nicht verwechseln mit einer “richtigen” Projektion. Diese gibt es nicht. Dieses Abbild ist nichts anderes als Feuern der Neuronen im Gehirn. Durch Anwenden der Logik wird die Komplexität des Abbilds der Umwelt minimiert. Ist allerdings die Diskrepanz der Komplexität der Umwelt und der Komplexität des Abbilds der Umwelt zu hoch, wird der Mensch in seiner Umwelt nicht überleben können. Die Komplexität des Originals – der Umwelt – bleibt also durch das Anwenden der Logik unangetastet. Sie kann sich nur ändern, durch das Handeln und Agieren der Menschen. Das haben wir im Zeitalter der Informationsgesellschaft gesehen. Auch hier gilt, wie bei der Logik übrigens auch, Komplexität ist nicht Gott gegeben. Die Menschen haben diese erschaffen. Bei diesem Erschaffen der Komplexität spielt Emergenz eine ausgesprochen große Rolle. Durch das Erschaffen vielfach verschachtelter Netze (soziale Plattformen, weltweites Empfangen von Radio- und TV Sender, Globalisierung der Wirtschaft, …) ist eine immens hohe Komplexität entstanden. Wie genau diese entstanden ist, kann man nicht erklären, jedenfalls nicht mit der zweiwertigen Logik, die Emergenz ausspart. Denn in dieser gilt die Methode: Löse ein Problem, in dem Du dieses in Teilprobleme zerlegst, diese Teilprobleme löst und anschließend zur gesamten Lösung zusammenfügst. Beherrschen kann man die Komplexität auch nicht, nur handhabbar machen. Das geht allerdings auch nicht mit unserer heutigen Mathematik, die auf die zweiwertige Logik von Aristoteles aufbaut. Das zeige ich am Beispiel der Wirtschaft.

Die Logik nach Aristoteles baut auf 3 Axiome auf.

  • Der Satz der Identität bedeutet, dass alles mit sich identisch und verschieden von anderem ist. Des Weiteren sagt der Satz aus, dass das Ding mit sich selbst identisch stabile Merkmale und Attribute besitzt. Beim genauen Hinsehen erkennt man das Ignorieren der Dynamik. Dieser Satz ist auf der einen Seite Ausdruck unseres statischen Denkens und auf der anderen Seite Ausdruck der Vereinfachung und Abstraktion, die wir von der Umwelt vornehmen, um überhaupt lebensfähig zu sein. Vom Standpunkt des Identitätsgesetzes existiert das Kontinuum nicht. Kunden ändern aber ihr Kaufverhalten, ändern ihre Wünsche und ihre Meinung und Einstellung zu Themen etc. Das was heute zum Erfolg geführt hat, kann morgen Misserfolg hervorbringen. Diese Fakten werden mit diesem Satz ignoriert.
  • Der Satz vom ausgeschlossenen Widerspruch besagt, dass zwei sich widersprechende Aussagen nicht zugleich wahr sein können. Das impliziert, dass wir die Wörter und Begriffe stets in demselben Sinn gebrauchen müssen, dass wir ihnen nicht in der einen Aussage den Kontext A und in der anderen Aussage den Kontext B zuordnen dürfen. Wir wissen aber zu genüge, dass die Wörter der natürlichen Umgangssprache eine große begriffliche Unschärfe aufweisen und je nach Kontext etwas anderes bedeuten können. Diesen Fakt erkennen wir immer wieder in Diskussionen, was diese ungemein erschweren. Dieser Satz ignoriert die Subjektivität bzgl. der Interpretation von Wörtern und Begriffen. Ein effektiveres und effizienteres Opportunity-Management oder auch Beschwerde-Management wäre bei Nichtbeachten dieses Axioms wohl möglich.
  • Der Satz vom ausgeschlossenen Dritten ist auch bekannt als Tertium non datur, was übersetzt bedeutet: Ein Drittes ist nicht vorhanden. Dieser Satz sagt aus, dass ein Element oder Sachverhalt entweder unter den einen oder den anderen Begriff fällt bzw. dass eine Aussage entweder wahr oder falsch ist. Dieser Satz verlieh der Logik von Aristoteles den Begriff “zweiwertige Logik”, denn sie kennt nur zwei Werte. Die Denkprozesse der Menschen werden auch bei diesem Satz idealisiert und vereinfacht, da sich in den natürlichen Sprachen die einzelnen Begriffe stark überschneiden. Es gibt viele Aussagen, die nicht nach dem einfachen Schema von wahr und falsch qualifiziert werden können. Ich gebe gerne ein Beispiel, um das Gesagte zu illustrieren. Laut der zweiwertigen Logik erhält man mit der doppelten Negation der Aussage “Der Ball ist rot.” wieder die Aussage “Der Ball ist rot.” Aber die Negation von “Der Ball ist rot” kann auch gleich bedeutend sein mit “Der Ball ist blau” und diese Aussage wieder negiert kann was auch immer sein, vielleicht “Der Ball ist gelb.” Wenden wir diese Erkenntnis auf das Wissensmanagment in der Wirtschaft an. Ich denke Jeder von uns kennt den Ausspruch “Wir wissen nicht, was wir nicht wissen”. Das Nichtwissen wird also auf sich selbst angewendet, ein Selbstbezug oder eine Zirkularität. Die doppelte Verneinung (das Nichtwissen des Nichtwissens) ergibt aber keine Bejahung. Daß wir wissen, dass wir nicht wissen, heißt nicht, daß wir jetzt wissen.

Es ist also unbedingte Notwendigkeit für eine neue Logik vorhanden. Vielleicht kann hier die Polykontexturalitätstheorie von Gotthard Günther helfen. Aus eigener Erfahrung weiß ich, dass das Begreifen dieser Theorie extrem schwer ist. Denn, ich denke wir wissen alle wie schwer wir uns tun – jedenfalls die Meisten von uns – in Rekursionen zu denken und diese mathematisch zu beschreiben. Ich denke an die programmtechnische Umsetzung des Turmes von Hanoi. Zusätzlich dazu kommt aber noch, dass wir jetzt noch heterarchisch denken müssen. Die Prozesse in lebenden Systemen laufen nebengestellt ab, das heißt man kann Teilprozessen keine Rangfolge oder Priorität gegenüber anderen Teilprozessen zuordnen. Alles was wir derzeit rekursiv in Programmen darstellen gleicht einer Hierarchie. Unser Gehirn arbeitet bereits heterarchisch, nur die Menschen limitieren diese Funktionalität, engen sie quasi ein, zu einer hierarchischen Arbeitsweise, die uns dann bewusst wird. Es gilt also die heterarchische Arbeitsweise aus dem Unbewussten ins Bewusste zu transferieren. Ein langer Weg. Ich bin gerade unterwegs. Details zur Polykontexturalitätstheorie finden Sie hier inklusive einiger Autoren.

Fazit: Ich habe vor etwas längerer Zeit an der Tür eines Managers ein Schild mit der Frage “What did you simplify today” gelesen. Ob dem Manager bewusst war, was er damit anrichten kann? Denn wie gesagt, Komplexität, in diesem Fall die Eigenkomplexität des Unternehmens, muss nicht immer schlecht, im Gegenteil sie ist lebensnotwendig.

1 Star2 Stars3 Stars4 Stars5 Stars (1 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
This entry was posted in Komplexität and tagged , , , , . Bookmark the permalink.

7 Responses to Komplexitätsmanagement – Können wir Komplexität in Unternehmen handhaben, wenn ja wie? Welche Rolle spielt dabei Simplifizierung?

  1. ein sehr guter Post von Heinz Peter Wallner zum Thema Komplexität mit zum Teil ganz neuen Sichtweisen.

    Wallner bezieht beispielsweise eine neue Art von Komplexität mit ein, zusätzlich zu den oben von mir angesprochenen: die simulierte Komplexität. Viele unserer Probleme haben wir selber erzeugt, in dem wir Komplexität simuliert haben. Hinsichtlich des Umweltproblems ist es das Nutzen fossiler und atomarer Energiequellen, anstatt solarer. Bezüglich der Finanzkrise ist es das Missbrauchen der Finanzwirtschaft zum Generieren von Geld ohne sachlichem Mehrwertgewinn, anstatt das Nutzen von Geld als reines Tauschmittel.

    Wallner hinterfragt beispielsweise warum wir Menschen immer wieder an der eigen erschaffenen Komplexität scheitern. Er kommt dabei zu folgenden Hypothesen.

    Es gibt immer ein oberes Limit der Komplexität, die ein System erträgt. Das obere Limit an Komplexität hängt vom Reifegrad und der Nachhaltigkeit des Systems ab. Wir neigen dazu, Systeme mit „simulierter Komplexität“ reifer darzustellen, als sie sind. Wir gehen über die Grenzen der Evolution. Simulierte Komplexität belastet das System und führt zu Teilzusammenbrüchen. Auch vollkommene Zusammenbrüche sind möglich.

  2. Peter Addor says:

    Vielen Dank, Conny, endlich einmal einer, der versteht, dass die aristotelische Logik in einer hochkomplexen Welt höchst ungeeignet ist. Als Methematiker muss ich mich jedoch weheren, wenn Du sagst, die Mathematik basiere auf der aristotelische Logik. Das mag für die Zermelo-Fraenkelsche Mengenlehre gelten, aber Mengen sind ja nicht die einziugen Objekte in der Mathematik. Natürlich gibt es auch eine nicht-aristotelische Methematik.

    Im ersten Teil Deines Artikels habe ich verstanden, dass Du Dich auf den Standpunkt stellst, ein Unternehmen soll nur das tun, was der Kunde bezahlt. Führt das nicht unweigerlich zu einer unseligen Herrschaft des Geldes? Könntest Du Dir vorstellen, dass jedes Unternehmen auch sein eigener Kunde ist? Es gibt immer viele interne Projekte, z.B. die Installation und der Betrieb der internen IT. Du sagst, dass die (externen) Kunden den Betrieb der IT indirekt bezahlen müssen? Wenn ich einen Testerver installiere, um irgendeine neue Technologie auszuprobieren, die an der Grenze zwischen Neugier und Notwendigkeit ist, dann wird es schwierig festzustellen, ob das die Kunden bezahlen. Irgend einmal verlaufen sich die Geldströme und Du kannst nicht mehr sicher sagen, wer was bezahlt.
    Umgekehrt würde ich gerne auch sagen, dass wir dann auf den CEO verzichten wollen, denn der kostet viel und die Kunden bezahlen ihn nicht (freiwillig). In den meisten Fällen wäre es denn auch tatsächlich möglich, den Job des CEO zu streichen.

    Ich glaube, dass Komplexität nicht rechnet. Das Gehirn funktioniert nicht nur polykontextural, sondern auch verschwenderisch. Das ist gerade für komplexe Systeme typisch. Im Gehrin laufe ständig mehrere konkurrierende Prozesse ab, von denen sich einer durch Selbstorganisation durchsetzen kann. Z.B. kommt so Aufmerksamkeit zustande. Bei n konkurrierenden Prozessen sind n-1 Verschwendung, denn sie werden “abgemurkst”. Aber ohne diese n-1 verschwendeten Prozesse würde das Gehirn deterministisch funktionieren.

    Komplexität kommt dadurch zustande, dass n Prozesse ablaufen und Du nicht vorhersagen kannst, welcher sich behaupten wird.

  3. Hallo Peter,

    vielen Dank für Dein Feedback. 3 Argumente habe ich, die ich gerne ausführen möchte.

    Deine Anmerkungen zu Verschwendung sind sehr interessant, die meinerseits in weitere Gedankengänge einfließen werden. Auf der einen Seite ist Verschwendung negativ, wenn ich beispielsweise interne Prozesse in Unternehmen definiert habe, die nicht zur Wertschöpfung beitragen. In diesem Fall trägt Verschwendung nicht zur nachhaltigen Lebensfähigkeit bei. Auf der anderen Seite ist Verschwendung notwendig, um Komplexität zu handhaben. In diesem Fall ist Verschwendung Basis für das Lernen und trägt zur nachhaltigen Lebensfähigkeit bei. Diese Einteilung ist aber auch wieder kontextabhängig, denn ein Prozess, den ich heute als nichtwertschöpfend betrachte, habe ich gestern als wertschöpfend betrachtet, denn dieser Prozess hat dazu beigetragen, dass ich mein Wissen erweitert habe.

    Das meine ich auch mit “bezahlter” Komplexität. “Bezahlt” nicht im Sinne von Geld, sondern im Sinne von Nachhaltigkeit und Lebensfähigkeit eines Unternehmens.

    Lass mich noch etwas zur nicht-aristotelischen Logik sagen. Damit meine ich die mehrstellige Logik. Das bedeutet, Stellen oder Orte, von welcher Aussagen getätigt werden. Das sind die Subjektivitäten. Gotthard Günther hat die Polykontexturalität erfunden, die dies ausführt. Man benötigt, um diese Logik darzustellen, qualitative Zahlen, die die derzeitigen Mainstreamwissenschaften nicht kennen. Dazu verweise ich gerne auf meinen Post Behindert unser unzureichendes Zahlenverständnis unser Problemlösen?

    Denkerische Grüße,
    Conny

  4. nick mott says:

    Zitat aus dem Text:
    “William Ross Ashby hat das Gesetz von der erforderlichen Varietät formuliert, was besagt, dass die Komplexität eines Systems stets höher oder minimal genauso groß sein muss wie die seiner Umwelt, damit das System in der Umwelt überleben kann.”
    Zitat Ende.

    Hier liegt für mich der Hund in der aktuellen Komplexitätsforschung begraben.

    Die Umwelt ist grundsätzlich für alle Organismen erst mal gleich.
    Dieser Planet bietet allen Lebewesen dieselben vorzufindenden Verhältnisse.
    Ein Schleimpilz findet sich hier ebenso zurecht (immerhin 700 Millionen Jahre), wie der Mensch.

    Das heißt konkret: Der Grad an Komplexität wird durch den Organismus erzeugt, der mit diesen Verhältnissen umgeht, auf diese selbsterhaltend zu reagieren versucht.
    Dabei ist der höhere Komplexitätsbewältigungsgrad keineswegs eine Garantie für mehr Selbsterhaltungssicherheit – siehe Schleimpilz vs. Mensch.

    Jeder Mensch, der in ein System zur Komplexitäts-Bewältigung einsteigt, steigert diese wiederum.
    Es verhält sich dabei analog etwa so wie in der Erforschung des Kleinsten und des Größten – mit zunehmender Komplexität (= Erfassungsdimension der Umwelt) werden für jede Frage, die beantwortet wird, zwei neue erzeugt und /oder der Aufwand für jede nächste übergeordnete Frage verdoppelt sich mindestens von Mal zu Mal.
    Dieses exponentielle Rennen können wir nicht gewinnen.

    Die Frage sollte m.E. also nicht lauten:
    “Wie gehen wir mit möglichst hoher Komplexität um?”, sondern vielmehr:
    “Wie viel Komplexität benötige ich tatsächlich, um systemstabilisierend und damit -erhaltend wirken zu können?”!
    Einfacher: Wie viele Variablen sind stabilitätsdeterminierend und wie kann ich diese, als unumgänglich zu bewältigende, Anzahl an Variablen verarbeiten?

    Selbst höchstkomplexe Systeme werden von einer geringen Anzahl Variablen determiniert.
    Die manchmal riesige Zahl von Zusatzvariablen, sind meist keine “echten”, sondern veränderliche Sekundärwerte, die aber in ihrer Wertigkeit eine Abhängigkeit von übergeordneten Hauptvariablen haben.

    Komplexitätsbewältigung wäre demnach eher eine Filterproblematik für diese Hauptvariablen.
    Ein Auto hat auch sehr viele Variablen (= Veränderlichkeitsmomente, die in Wechselbeziehung zueinander stehen – mechanische und elektronische Einheiten), trotzdem muß ein Fahrer nur wenige Parameter zueinander in Beziehung setzen, um erfolgreich fahren zu können. (siehe auch polynesische Naviagtionskunst).
    Der Rest ist Selbstorganisation des Systems, das gesteuert werden soll.

    Im Kern geht es also um die Herausfilterung von Hauptvariablen, deren Wahrnehmung und Veränderlichkeit durch Rückkopplung und die angemessene, rechtzeitige und vollständige Entsprechbarkeit des das System Steuernden bezüglich der Veränderlichkeiten.

    Ameisen können hochkomplexe Systeme steuern und differenziert auf Veränderungen reagieren, ohne Großintelligenz zu besitzen oder komplizierte Algorithmen zu bedienen.
    Hier entscheidet ein einfaches Rückkopplungssystem aus einfachsten Wahrnehmungs- und Reaktionsimpulsen IN SUMMA über den Erfolg der Komplexitätsbewältigung.

    Das Scheitern der meisten Systeme zur Bewältigung von erheblicher Komplexität besteht in seiner linear-starren GESAMTausrichtung, kurz:
    Ameise = einfache Algorithmen, die Flexibilität emergieren
    Mensch = komplexe Algorithmen, die Linearität (und damit Scheitern in variablen Zuständen) produzieren.

    Der Witz ist beim Menschen, dass er Linearität produzieren MUSS, um sich in seinen von ihm selbst erzeugten komplizierten Algorithmen nicht wiederum zu verheddern, was gleichzeitig die Ursache seines letztlichen Scheitern ist – lineares Algorithmenergebnis in non-linearer Umgebung = Scheitern^^

  5. Hi Nick,

    vielen Dank für Dein umfangreiches Feedback. Du schreibst, dass die Umwelt für alle Organismen gleich ist. Dem stimme ich zu. Jedoch wird diese von jedem Organismus anders wahr genommen. Diese Unterschiede liegen gar bei den Menschen untereinander vor. So verstehe ich Dich aber auch, wenn Du schreibst: “Das heißt konkret: Der Grad an Komplexität wird durch den Organismus erzeugt, der mit diesen Verhältnissen umgeht, auf diese selbsterhaltend zu reagieren versucht.”

    Des Weiteren kann ich nur zustimmen, dass wir den Wettlauf der Komplexitätsbewältigung nicht gewinnen können. Das ist ähnlich zu dem Wissen. In dem wir unser Wissen erweitern, wird das bewusste und erkannte Nichtwissen immer größer. Auch dieses Rennen gewinnen wir nicht. In dem Artikel Best Practice ist das Ergebnis verzweifelter Trivialisierung, den ich für die Zeitschrift SEM Radar Ausgabe 2/2010 geschrieben habe, habe ich Ähnliches anhand der Problem-Lösungs-Spirale dargestellt.

    Wo ich noch ein wenig “hänge” ist Deine Aussage “Selbst höchstkomplexe Systeme werden von einer geringen Anzahl Variablen determiniert.” Ist das wirklich so? Woran erkennt man, ob eine Variable ein Systemverhalten determiniert oder nicht?

    Dein letzter Absatz ist absolut zutreffend. Das ist das Paradigma unseres Denkschemas, dem wir unterlegen sind. Um die gravierenden Problematiken der heutigen Zeit, wie Umweltverschmutzung oder den ökonomischen Zusammenbruch aufgrund der Herrschaft der Finanzwirtschaft über die Realwirtschaft, zu bewältigen, müssen wir die derzeit vorherrschenden Systemparadigmen, wie Linearität, Determiniertheit oder Kurzsichtigkeit hinter uns lassen.

  6. nick mott says:

    Hi Conny^^

    Woran Du “hängst” ist die von mir angesprochene Filterproblematik.

    Damit bei der “Trivialisierung” von determinierenden Variablen nicht so eine Art “Wurzelergebnis von allem ist immer gleich 1” raus kommt, was nicht wirklich weiter führt, braucht man eingrenzende Orientierungsparameter.

    Banal ist die Erkenntnis, dass für jedes System die systemerhaltenden Faktoren die wichtigsten sind und das sind immer diejenigen, die ein systemisches Fließgleichgewicht sicher stellen.

    Bei der Analyse eines beliebigen komplexen Systems muss man “nur” durch “Abschalten” einzelner Komponenten beobachten, inwieweit sich das Fließgleichgewicht verändert oder auch nicht – keine wesentliche Veränderung relativiert also die Bedeutung einer Komponente entsprechend ungeachtet ihrer eigentlichen Größe bzw. genauso im umgekehrten Fall.

    Beispiel:
    Die Steuerbarkeit eines Pferdes hängt nicht vom Beschlag, dem Sattel oder der Trense ab, nicht von den Sporen des Reiters oder seiner Gerte, nicht von der Bodenqualität oder der Witterung – ausschlaggebend ist ausschließlich der Gleichgewichtszustand des Pferdes in der Bewegung.

    Die Herausfilterung dieses “Attraktors” kann selbst bei anfänglicher Unkenntnis über die kybernetischen Zusammenhänge des Reitens systematisch erschlossen werden, indem man die grundsätzlichen Bedingungen für die Steuerbarkeit eines Pferdes definiert und dann damit abgleicht, welche Komponenten darauf erst einmal überhaupt Einfluss haben könnten und dann wird durch eine Testreihe von Verringern/Verstärkung der definitionsgemäß entscheidenden Komponenten verifiziert/falsifiziert – die Resultate sprechen dann für sich.

    In dem Zusammenhang fällt mir ein Experiment von Hoimar von Dithfurt aus den ´70ern ein:
    Ein etwa 7 jahre altes Mädchen tritt gegen einen Hochleistungscomputer an.
    Aufgabe: optimiere den Wasserdurchlauf durch ein System von beliebig verstellbaren Rohren mit Gelenken und Krümmungsmöglichkeiten.
    Das Mädchen hatte innert weniger Minuten (<5min) eine ca. 90%ige Ideallösung gefunden. Der Computer wurde auch nach der Sendung weiter gelaufen lassen und war selbst nach mehreren Wochen nicht über 50% hinaus gekommen. Leider habe ich im Internet dazu keinerlei Verweismöglichkeiten gefunden, aber das hat mich damals schon beeindruckt, weil das Mädchen intuitiv für sich sehr schnell die Bedingungen für eine optimierte Durchflussrate definiert hat – Veränderung und Feedback durch beobachtete Wirkung kombinieren – während der Computer keinen brauchbaren Feedback-Algorithmus aufzuweisen hatte und auf serielles Abarbeiten aller rechnerisch möglichen Ergebnisse angewiesen war.

    Nebenbei: Mein Lieblingsexempel ist nach wie vor der Schleimpilz, der nach demselben Entscheidungsalgorithmus vorgeht, wie das Mädchen und seit 700 Millionen Jahren erfolgreich alle Katastrophen und Veränderungen unbeschadet überstanden hat – ohne Gehirn^^.

  7. Hallo Nick,

    Du schreibst: “Die Steuerbarkeit eines Pferdes hängt nicht vom Beschlag, dem Sattel oder der Trense ab, nicht von den Sporen des Reiters oder seiner Gerte, nicht von der Bodenqualität oder der Witterung – ausschlaggebend ist ausschließlich der Gleichgewichtszustand des Pferdes in der Bewegung.”

    Das kann doch aber wieder von Pferd zu Pferd unterschiedlich sein, oder? Nehmen wir mal an das Pferd wurde in jungen Jahren mit einer Gerte misshandelt. Dieses Pferd wird dann wahrscheinlich anders auf die Gerte reagieren als ein anderes Pferd, welches dies nicht erlebt hat.

    Ich bin mir schlussendlich nicht sicher, ob das Herausfiltern systembestimmender Variablen so einfach ist, da die Eigenschaft “systembestimmend” wiederum situationsabhängig ist. Und wie oben schon angedeutet. Wenn man Variablen aus einem Systemzusammenhang zieht, verändert man das gesamte System gleich mit. Dieses Herausziehen findet alleine schon durch Fokussieren und Beoabachten dieser Variablen statt.

    Das Experiment mit dem Mädchen finde ich sehr interessant. Wenn Du dazu etwas finden solltest, bin ich sehr daran interessiert. Danke

Leave a Reply to Conny Dethloff Cancel reply

Your email address will not be published. Required fields are marked *