Erkenntnisse der Mathematik werden falsch in die Wirtschaft portiert

In vielen Bereichen werden die theoretischen Erkenntnisse der Mathematik nicht richtig in die Praxis der Wirtschaft umgesetzt. Den Grund dafür kann ich nicht klar benennen. Entweder den Umsetzern ist dies nicht bewusst, weil sie die Brücke zwischen Theorie und Praxis unzureichend schlagen und weil es ja schließlich schon immer so gemacht wurde. Ein anderer Fakt könnte aber auch sein, dass man sich der Diskrepanz zwischen mathematischer Theorie und praktischer Umsetzung bewusst ist, diese aber ausgeblendet wird, da gewisse Lobbyisten die richtige Umsetzung verhindern.

Ich möchte folgend einige Beispiele für falsch geleitete Umsetzungen anführen. Viele kennen Sie ja weitere Beispiele.

Normalverteilung bei der Leistungsbewertung von Mitarbeitern

Es ist gängige Praxis, dass sich die Leistungen von Mitarbeitern innerhalb von Teams einer Normalverteilung, auch als Gaußverteilung oder Gaußglocke bekannt, annähern müssen. Manager und Führungskräfte werden regelrecht gezwungen diese Verteilung zu erzielen und müssen sich rechtfertigen, wenn dies nicht der Fall ist. Das wird nimmt dann teilweise so groteske Züge an, wenn Manager und Führungskräfte betonen, fair bewerten zu wollen. Tja, was denn wohl sonst? Spätestens nach dem Studieren der Erklärungen zur Normalverteilung, zu finden in jedem Lehrbuch zu Statistik oder Wahrscheinlichkeitsrechnung, ist diese Praxis zu hinterfragen. Die folgende ist aus dem oben angeführten Wikipedia-Link.

Das bedeutet, dass man Zufallsvariablen dann als normalverteilt ansehen kann, wenn sie durch Überlagerung einer großen Zahl von unabhängigen Einflüssen entstehen, wobei jede einzelne Einflussgröße einen im Verhältnis zur Gesamtsumme unbedeutenden Beitrag liefert.

Weder sind die Leistungen von Mitarbeitern innerhalb eines Teams unabhängig, noch ist die Anzahl der Mitarbeiter in den Teams groß genug. Also weg mit dem Streben nach Gaußverteilung wo keine sein kann.

Wettbewerb innerhalb von Teams

In meinem Post Denken und Handeln nach der Kostensicht zerstört die Identität von Unternehmen habe ich bereits die beiden unterschiedlichen Mindsets beim Führen von Unternehmen angesprochen, die Kosten- und die Durchsatzsicht. Unternehmen werden heute zum großen Teil so geführt als wären sie Bestandteil einer Kostenwelt. Profitcenter belegen diesen Fakt. Damit schafft man aber Wettbewerb zwischen den Teilen eines Unternehmens, wo keiner sein darf. Wettbewerb ist nämlich nur bei Nullsummenspielen erfolgsversprechend. Ein Nullsummenspiel im ökonomischen Sinne ist eine Konkurrenzsituation, bei der der wirtschaftliche Erfolg oder Gewinn eines Beteiligten einem Misserfolg oder Verlust eines anderen in gleicher Höhe gegenübersteht.

In einem Unternehmen gibt es keine Nullsummenspiele, da Unternehmen Teilnehmer einer Durchsatzwelt sind. Die einzelnen Teile dürfen nicht nach lokalen Optima streben, sondern müssen kooperieren. Entweder es wird zusammen gewonnen oder zusammen verloren. Dazwischen gibt es nichts. Innerhalb eines Systems muss Kooperation herrschen, mit anderen Systemen kann das System im Wettbewerb stehen. Allerdings ist diese Grenzziehung nicht immer eindeutig und abhängig vom Kontext. Belegen möchte ich dies am Beispiel Fußball.

2 Spieler konkurrieren um einen Stammplatz in einem Verein. Ist die Grenze der jeweilige Spieler, tut Wettbewerb gut. Nur sollte dort die Grenze gezogen werden? Im ersten Moment würde man sicherlich die Mannschaft als System ansehen und dort entsprechend die Grenze ziehen. Dann wäre Wettbewerb zwischen einzelnen Spielern schlecht. Sehr häufig höre ich aber von Trainern, das Wettbewerb um Positionen die Mannschaftsleistung fördert. Das würde ich ganz stark hinterfragen. Spinnen wir den Faden aber weiter. Setzen wir den Fokus auf die Nationalmannschaft und ziehen dort die Grenze. Dann dürften auch die Spieler, zumindest die potentiellen Nationalspieler verschiedener Vereine auch im Spiel gegeneinander nicht konkurrieren. Diesen Fakt hat der spanische Nationaltrainer Vicente del Bosque vor geraumer Zeit angesprochen, als er seine Sorge um die Nationalmannschaft ob der bitteren Feindschaft zwischen Real Madrid und FC Barcelona zum Ausdruck gebracht hat.

Bevor man nach Wettbewerb schreit und diesen forciert, muss man sich also ganz genau über den Kontext der Situation Gedanken machen und die Grenze zwischen betrachteten Systemen akkurat ziehen, nämlich dort wo Nullsummenspiele gewünscht sind.

Intelligenz in der Masse

Sehr häufig höre ich, dass das Arbeiten in Teams bzgl. Entscheidungen die Intelligenz erhöht, sprich, dass die Intelligenz der Masse höher ist als die Intelligenz jedes Einzelnen. Man spricht in diesem Zusammenhang auch oft von der Weisheit der Vielen. Allerdings kann diese Weisheit auch schnell in Dummheit umschlagen, dann nämlich wenn die Menschen in der Masse sich gegenseitig beeinflussen. Das haben Forscher der ETH Zürich herausgefunden. Bei Entscheidungen innerhalb von Teams müssen die Teammitglieder entsprechend unabhängig voneinander ihre Wahl treffen. Das nehme ich in den seltensten Fällen in der Praxis wahr. Damit stelle ich natürlich nicht das Arbeiten in Teams in Frage, sondern ausschließlich den Entscheidungsprozess, wie er derzeit innerhalb von Teams gelebt wird.

Richtig angewendet wird diese Erkenntnis übrigens von Günther Jauch in der Sendung “Wer wird Millionär”, wo er die Kandidaten häufig auffordert, beim potentiellen Verwenden des Publikumjokers, die eigenen Gedanken und Ideen nicht zu artikulieren, um das Publikum nicht zu beeinflussen.

Pareto-Prinzip

Das Pareto-Prinzip basiert auf der Pareto-Verteilung, welches das statistische Phänomen beschreibt, wenn eine kleine Anzahl von hohen Werten einer Wertemenge mehr zu deren Gesamtwert beiträgt als die hohe Anzahl der kleinen Werte dieser Menge. Das besagte Pareto-Prinzip besagt damit, dass sich viele Aufgaben mit einem Mitteleinsatz von ca. 20 % so erledigen lassen, dass 80 % aller Probleme gelöst werden. Allerdings gilt dieses Prinzip nur, wenn die Elemente unabhängig voneinander sind. Diese entscheidende Limitation von Vilfredo Pareto, dem Erfinder dieses Prinzips, wird leider übergangen, weshalb dieses Prinzip viel zu häufig in falsche Zusammenhänge gesetzt. Leider auch in der oben angegebenen Wikipedia-Quelle. Denn dort steht gleich am Anfang

Das Paretoprinzip, auch Pareto-Effekt, 80-zu-20-Regel, besagt, dass 80 % der Ergebnisse in 20 % der Gesamtzeit eines Projekts erreicht werden. Die verbleibenden 20 % der Ergebnisse benötigen 80 % der Gesamtzeit und verursachen die meiste Arbeit.

Aktivitäten innerhalb eines Projektes sind aber abhängig voneinander, nicht alle aber, die die es sind, sind entscheidend für das Projekt. Critical Chain Project Management setzt diesen Fakt übrigens in die Praxis um, in dem der Fokus auf den Engpass und die kritische Kette gelegt wird.

1 Star2 Stars3 Stars4 Stars5 Stars (5 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Management und Leadership, Optimierung und Mathematik | Tagged , , , , | 2 Comments

Denken und Handeln nach der Kostensicht zerstört die Identität von Unternehmen

Starten möchte ich mit einem Analogon zwischen einem Unternehmen und einer Halskette. Was wäre Ihnen bei einer Halskette wichtig. Das Aussehen bzw. die Eigenschaften der einzelnen Glieder oder das Aussehen bzw. die Eigenschaften der gesamten Kette? Wohl eher zweites, oder? Des Weiteren ist natürlich wichtig, dass eine Kette nicht reißt, dass die Glieder also stark genug miteinander verhaftet sind. Denn sonst wäre ja die Identität der Kette zerstört. Kommen wir nun zum Unternehmen. Auch bei Unternehmen kann man von Gliedern reden. Das sind nämlich die Fachbereiche, Kostenstellen, Profitcenter, Business Units, Service Lines oder oder oder. Welche Sicht wird seitens der etablierten Managementliteratur auf Unternehmen vermittelt? Wenn ich mir anschaue, wie in den Unternehmen die einzelnen Bereiche zusammenarbeiten, oder welche Kennzahlen als Basis für die Evaluierung von Unternehmenserfolg dienen, oder wie Teams in Projekten zusammenarbeiten, erkenne ich diese notwendige Ganzheitlichkeit eben nicht. Es herrscht ein Profitcenterdenken vor, welches geprägt ist von Agieren und Handeln in Silos. Aber wird nicht ähnlich wie bei einer Halskette die Identität eines Unternehmens zerstört, wenn die Integration zwischen den einzelnen Bereichen abreißt? Ein ganz klares Ja. Nicht die Glieder, also die einzelnen Fachbereiche, Kostenstellen, Profitcenter, Business Units oder Service Lines sind wichtig, sondern das Ganze und damit die Integration zwischen diesen Bereichen.

Da haben wir wieder das Phänomen, welchem wir scheinbar hilflos gegenüber stehen und welches ich in diesem Logbuch meiner Reise des Verstehens häufig anspreche. Wir müssen in einer Welt, die von einer immer größer werdenden Vernetzung geprägt ist, mit einer ebenso vernetzten Denk- und Handelsweise agieren. Genau das tun wir aber nicht. Das bedeutet aber nicht automatisch, dass die vernetzte Arbeitsweise auch gleich komplex sein muss. Im Gegenteil. Dieses habe ich in meinem Post Komplexitäten entstehen aus Einfachheiten, sind aber schwer zu handhaben beschrieben und werde nun am Beispiel Projektmanagement ausführen.

Aber vorher komme ich zu der grundlegenden Methode, die diesem notwendigen Denken und Handeln im Projektmanagement zu Grunde liegt, Theory of Constraints.

Was ist Theory of Constraints?

Übersetzen kann man Theory of Constraints, ab sofort mit ToC abgekürzt, mit der Theorie der Engpässe. Eliyahu Goldratt, ein israelischer Physiker, hat diese Methode 1984 im Rahmen von Untersuchungen zu Abläufen in Unternehmen entlang einer Supply Chain erfunden. Er deckte mit dieser Methode einen Lösungsweg auf, wie Prozesse jeglicher Art, egal ob in der Produktion, im Marketing, in Projekten etc., die in abhängige Teilprozesse auf verschiedene Ressourcen verteilt sind, optimal gestaltet und durchführt werden sollten. Wie die Methode schon ausdrückt, geht es nämlich darum sich auf das Wesentliche der Ablaufkette zu konzentrieren und das ist der Engpass oder auch anders ausgedrückt, das schwächste Glied in der Kette. Es ist wichtig, genau diesen Engpass zu identifizieren, diesen dann bestmöglich zu nutzen und dabei alles andere dieser bestmöglichen Nutzung des Engpasses unterzuordnen, wenn notwendig den Engpass zu erweitern und dann wiederum den Engpass zu identifizieren. Ich möchte auf 5 für mich wesentliche Punkte dieser Methode eingehen.

  1. Die Methode ist verglichen zu der warnehmbar hohen Vernetzung von Arbeitsabläufen in Unternehmen sehr einfach. Es ist nicht notwendig, den gesamten Ablauf ständig im Fokus zu haben und diesen kontrollieren zu wollen, sondern es reicht aus seinen Blick auf den Engpass und damit auf die Kritische Kette zu schärfen. Den Begriff “Kritische Kette” erkläre ich später am Beispiel des Projektmanagement ausführlicher. Wahrscheinlich hat uns eben genau diese Einfachheit der Methode dazu bewogen, diese Methode als nicht gut genug zu befinden, um komplexe Probleme und Sachverhalte in Unternehmen zu lösen. Diesen Mindset habe ich in meinem letzten Post Komplexitäten entstehen aus Einfachheiten, sind aber schwer zu handhaben beschrieben.
  2. Da sich Abläufe und Ressourcen dem Engpass unterordnen müssen, ist es unabdingbar vom Silodenken und -agieren wegzukommen, wo es wichtig ist, jeden einzelnen Bereich der Ablaufkette zu optimieren.
  3. Da der Engpass gegebenenfalls durch Investitionen erweitert werden muss, ist es ebenfalls essentiell, nicht jeden einzelnen Bereich der Ablaufkette kostentechnisch optimal aufstellen zu wollen.
  4. Den Überlegungen liegt eine wichtige Erkenntnis zu Grunde. Der Engpass bestimmt den Output und somit die Leistungen der gesamten Ablaufkette. Verzögerungen am Engpass führen automatisch zu einer geringeren Leistung der gesamten Kette.
  5. Im Rahmen von Verbesserungsmaßnahmen kann eine andere Ressource zu einem Engpass werden. Deshalb ist eine zyklisch-periodisch Abarbeitung der Methode notwendig. Man erkennt hier sehr schön einen kontinuierlichen Verbesserungsprozess innerhalb von Unternehmen.

Ich empfehle Ihnen diese sehr gute Simulation an, die die ToC Methode anschaulich erklärt.

Goldratt spricht in diesem Sinne von zwei verschiedenen Sichtweisen oder Mindsets in Verbindung mit dem Managen und Führen von Unternehmen, auf der einen Seite von der Kostenwelt und auf der anderen Seite von der Durchsatzwelt. In der Kostenwelt fokussiert man sich auf das Optimieren der einzelnen Teile, in der Durchsatzwelt fokussiert man sich auf das Optimieren der Gesamtheit, weil man den Durchsatz im Fokus hat. Das kann dann auch dazu führen und führt in der Regel auch zwangsläufig dazu, dass einzelne Teile schlechter gestellt werden müssen. In einer Kostenwelt herrscht im Gegensatz zur Durchsatzwelt sehr wenig Vernetzung. Dementsprechend kann in dieser Kostenwelt auch eine wenig vernetzte Denk- und Handelsweise zum Erfolg führen. In einer Durchsatzwelt ist das nicht mehr der Fall. Hier muss vernetzt, ganzheitlich und global gedacht und agiert werden. Können Sie erahnen was diese Erkenntnis für Kostenstellen und Profitcenter in Unternehmen bedeutet?

Dadurch wird aber auch klar, dass Leistungen in Unternehmen ab sofort nicht mehr so gemessen werden können, wie bisher. Wir benötigen andere Kennzahlen. Details dazu finden Sie in meinem Artikel Unternehmensbewertung nach ToC.

Wie eben schon erwähnt ist die ToC Methode verglichen mit den Problematiken, die sie löst, relativ einfach. Trotzdem hat sie, obwohl schon lange bekannt, keine flächendeckende Akzeptanz gefunden. Es scheint also so, dass sie zwar einfach ist, aber schwer in die Praxis umzusetzen ist. Vielleicht auch gerade deshalb, denn wer von den Unternehmenslenkern möchte denn schon zugeben, jahrzehntelang einem anderen Paradigma hinterhergelaufen zu sein und das Einfache übersehen zu haben. Mit Sicherheit ist es auch schwierig zu erkennen, dass komplexe Probleme mit einfachen Methoden gelöst werden können. Aber das hatten wir ja schon. Des Weiteren benötigt man Mut, Wille und Überzeugungskraft, um zu vermitteln, dass Leistungen, die in der Vergangenheit geadelt wurden, mit dieser neuen Methode getadelt werden müssen. Diesen Fakt des notwendigen Wandels im Denken und Handeln kann man sehr gut in der 1. Präsentation Values, Beliefs & Industrialization aus der Reihe A Guide to Implementing the Theory of Constraints (TOC) reflektiert sehen.

Falls Sie auf den Geschmack gekommen sind und mehr zu ToC erfahren möchten, empfehle ich Ihnen die folgenden Bücher von Goldratt. Sie sind alle in Romanform verfasst und gerade deshalb so unglaublich lehrreich und spannend zu lesen: Das Ziel, Das Ziel Teil 2 und Das Ergebnis. Es gibt weitere ToC-Literatur im deutschen Sprachraum. Die aufgeführten Bücher habe ich gelesen und kann Sie wärmstens weiter empfehlen: Wege zum Ziel: Goldratt’s Theory of Constraints – Methoden und Werkzeuge und Goldratt und die Theory of Constraints: Der Quantensprung im Management

Die ToC Methode wurde in viele Bereiche übersetzt, unter anderem auch in das Projektmanagement. Sie heißt hier Critical Chain Project Management, abgekürzt CCPM, und wurde von Goldratt 1997 entwickelt.

Was ist Critical Chain Project Management?

Im Namen Critical Chain Project Management verstecken sich die Wörter “critical chain”, auf deutsch “kritische Kette”. In vielen PM-Lehrbüchern liest man vom kritischen Pfad, aber nicht von der kritischen Kette. Wurde hier nur ein unterschiedlicher Begriff für die gleiche Bedeutung genutzt? Ein klares Nein. Es besteht ein großer und bedeutender Unterschied zwischen kritischer Kette und kritischer Pfad. Beim kritischen Pfad werden einzig und allein die Arbeitspakete eines Projektes in eine abhängige Folge gesetzt. Die Abfolge von Arbeitspaketen, die den längsten Weg innerhalb aller möglichen Folgen eines Projekts darstellt, ist der kritische Pfad. Der kritische Pfad gibt also die Mindestdauer eines Projektes an, scheinbar. Denn bei dieser Betrachtung werden die Ressourcen, die notwendig sind, diese Arbeitspakete abzuarbeiten, ignoriert. Deshalb können auch der kritische Pfad und die kritische Kette eines Projektes voneinander abweichen. In diesem kleinen Artikel (Link) wird darauf detaillierter eingegangen.

Der CONSIDEO PROCESS MODELER ist ein hervorragendes Werkzeug, kritische Ketten und Engpässe eines Projektes zu identifizieren. MS Project ist hier übrigens ungeeignet, da hier nur der kritische Pfad betrachtet werden kann. Ich habe den kleinen Netzplan des oben angesprochenen Dokumentes zu CCPM im PROCESS MODELER dargestellt.

Die folgende Abbildung zeigt das Ergebnis der Simulation.

Der kritische Pfad ist “Aktivität 4 -> Aktivität 5 -> Aktivität 6”. Die kritische Kette ist “Aktivität 3 -> Aktivität 5 -> Aktivität 6”. Sie sind also verschieden voneinander. Im linken Diagramm der obigen Darstellung erkennen Sie die kritische Kette an den Aktivitäten, die unmittelbar aneinander anschließen, ohne Unterbrechung. Der PROCESS MODELER errechnet automatisch die kritische Kette. Eine Verzögerung in der kritischen Kette ist gleichbedeutend mit einer Verzögerung des Projektes, in diesem Falle der Lieferung. Das rechte Diagramm zeigt die Auslastung der Ressourcen. Auf Ressourcen, die entlang der kritischen Kette arbeiten, muss der Fokus gelegt werden. Wir erkennen entlang der Kritischen Kette (linkes Diagramm), dass Aktivität 4 bereits in Zeiteinheit 21 beendet ist und dann eigentlich Aktivität 5 beginnen könnte, also ab Zeiteinheit 22. Nur für die Aktivität 5 wird Hilde benötigt, die noch bis zur Zeiteinheit 24 mit der Aktivität 3 beschäftigt ist. Wegen der Nichtverfügbarkeit von Hilde kann also die Aktivität 5 erst in Zeiteinheit 25 starten, also 3 Zeiteinheiten später. Hilde ist also in diesem Fall der Engpass. Würde Sie krank sein und kein Ersatz stünde bereit, würde ein Verzug entlang der kritischen Kette auftreten und das Projekt würde sich verzögern.

Mit dem konsequenten Fokuswechsel weg vom kritischen Pfad hin zur kritischen Kette eines Projektes sind einige Paradigmenwechsel verbunden, die ich im Folgenden kurz anreißen möchte. Detaillierte Informationen dazu erhalten Sie in den Büchern Critical Chain: Beschleunigen Sie Ihr Projektmanagement und Die kritsche Kette. Das zweite Buch ist von Goldratt. Er hat die Erkenntnisse zu CCPM in Romanform verpackt, was die Erkenntnisgewinnung zusätzlich spannend macht. Beide Bücher kann ich Projektmanagern, egal ob zertifiziert, erfahren oder unerfahren, aber auch allen Menschen, die irgendwie mit Projekten in Berührung stehen, absolut empfehlen. Wenn Sie bislang noch nichts von ToC gehört haben, garantiere ich Ihnen einen enormen Wissenszuwachs.

Sicherheitsreserven

Bei der Aufwandsschätzung und Planung wird in herkömmlichen Projekten pro Arbeitspaket eine Sicherheitsreserve oder Puffer eingeplant. In diesem Fall ist sich jedes Teilteam selbst das nächste. Niemand will für einen Verzug in seinem Bereich verantwortlich gemacht werden. Der Blick wird damit nicht auf das gesamte Projekt gerichtet, sondern ausschließlich auf die Teile. Werden Aufgaben in den Teilteams zu früh beendet, wird das nicht gemeldet, da beim nächsten Projekt die Erwartungen an die Aufwandsschätzungen zeitlich nach unten angepasst werden. Entweder werden also die Schätzungen punktgenau getroffen oder aber die Sicherheitsreserven für dieses Arbeitspaket werden angerissen oder aufgebraucht. Sicherheitsreserven werden so also nicht an nachgelagerte Arbeitspakte und Teams weitergegeben.

Wendet man CCPM an werden Sicherheitsreserven nicht auf jedes Arbeitspaket veranschlagt, sondern ausschließlich ganz am Ende des Projektes und in den Zulieferpfaden von Arbeitspaketen in die kritische Kette hinein.

Meilensteine

In herkömmlichen Projekten werden für fast alle Arbeitspakete Meilensteine definiert, die das geplante Endatum dieser darstellen. Was wird damit aber erreicht? Jedes Teilteam konzentriert sich auf seine Meilensteine. Der Blick über den Tellerrand zu anderen Teilteams wird dabei vernachlässigt. Es entsteht sogar sehr häufig ein Wettbewerb um Ressourcen, was dann sehr häufig zu einem Multitasking führt, das grundsätzlich schädlich ist. Vorgegebene Endtermine fördern auch das so genannte Stundentensyndrom, dass die Mitarbeiter zunächst den ganzen Zeitpuffer verstreichen lassen bevor sie mit einer Aufgabe anfangen, was dann zu Verzögerungen führt, zumindest aber die Arbeitspakete nicht früher fertig werden lässt.

Wendet man CCPM an gibt es keine Meilensteine außerhalb der kritischen Kette. Arbeitspakete die einer kritischen Kette direkt zuliefern, haben am Ende einen Zeitpuffer zur Absicherung. Diese Arbeiten werden dann mit Beginn so schnell wie möglich fertig gestellt, da die Möglichkeit in Betracht gezogen werden muss, dass die Arbeiten entlang der kritischen Kette ebenfalls vorher fertig werden und die Arbeiten entlang der kritischen Kette niemals stocken dürfen.

Fortschrittsmessung

Ich habe es unsagbar oft erlebt. Projektstatusmeetings, in denen jedes Teilteam seinen Status darlegen muss. Da jedes Teilteam versucht, den Abarbeitungsgrad seiner Arbeitspakete auf “grün” zu bekommen, kann es keine Rücksicht auf andere Teilteams nehmen. Die kritische Kette erstreckt sich aber in der Regel über mehrere Teilteams hinweg. Der integrative Aspekt dieses Faktums wird allerdings in den Statusmeetings nicht abgefragt. Der Fokus wird nie auf die kritische Kette gelegt. Die Auswirkungen sind fatal. Probleme werden zu spät erkannt, da der Status nicht fokussiert wird. Die Arbeitspakete werden nicht nach Wichtigkeit priorisiert, was dazu führt, dass der “gute” Status unwichtiger Arbeitspakete, die nicht auf der kritischen Kette liegen, den schlechten Status wichtiger Arbeitspakete, die auf der kritischen Kette liegen, relativieren. Zur Problematik lokaler Kennzahlen können Sie auch gerne meinen Post BI Lösungen gaukeln eine scheinbare Sicherheit vor und birgen deshalb Gefahr besuchen. In diesem habe ich die Gefahren des Fokussierens auf die Auslastung der Mitarbeiter analysiert. Des Weiteren muss man mit dieser gewonnenen Erkenntnis auch die meisten bekannten Messmethoden, wie die Earned Value Methode, auf Sinnhaftigkeit hinterfragen.

Wendet man CCPM an, ist es nicht notwendig, gar schädlich, lokale Kennzahlen zu messen, sprich den Status auf Teilteamebene abzufragen. Es ist ausschließlich wichtig den Verzug entlang der kritischen Kette zu messen inklusive des bisherigen Aufbruchs der Puffer.

Investitionsrechnung

Es geht um die Fragestellung ob sich Projekte lohnen und man sie deshalb starten soll. Die Fragestellung wird gerade dann essentiell, wenn man zwischen mehreren sich lohnenden Projekten entscheiden muss, da nur eine begrenzte Menge Geld für die Finanzierung zur Verfügung steht. Die herkömmlichen Methoden fokussieren auf Kennzahlen, wie beispielsweise die Kapitalrückflussdauer oder der Kapitalwert, die eindimensional sind. Die Kapitalrückflussdauer gibt an nach welcher Zeit die in das Projekt investierte Menge Geld wieder eingenommen wird, sprich wann sich das Projekt amortisiert. Der Kapitalwert gibt den gegenwärtigen Wert von zukünftigen Investitionen und Erträgen an. Die Kapitalrückflussdauer bezieht sich auf die Zeit. Der Kapitelwert auf die Finanzmittel. Beide beziehen die begrenzten Ressourcen Geld und Mitarbeiter nicht mit ein. Sie sind also beide ungenügend für die Entscheidung über Start von Projekten.

Wendet man CCPM an, ist eine Kennzahl notwendig, die beide Dimensionen Geld und Zeit, sprich den Engpass mit einbezieht. Das bedeutet also, dass die Projekte am lukrativsten sind, bei denen das Verhältnis von Durchsatz und Engpassverbrauch am größten ist, also so viel wie möglich Durchsatz durch den Engpass fließt.

Alle aufgeführten Paradigmenwechsel zielen darauf ab, dass es wichtig ist zu erkennen, dass entweder das gesamte Projekt verliert oder gewinnt. Dazwischen gibt es keine Alternative.

Fazit

ToC ist eine einfache Methode, die es erlaubt komplexe vernetzte Probleme zu handhaben. Sie ist wahrscheinlich zu einfach und damit unserer Intuition wiedersprechend, welche vorgibt, dass komplexe Probleme auch mit komplexen Methoden gelöst werden müssen. Der Umsetzung dieser einfachen Methode liegt ein Paradigmenwechsel zu Grunde, der diese dann in den meisten Organsiationen schwierig macht.

Ein Unternehmen bezieht seine Identität, ähnlich einer Kette im Analogon am Anfang dieses Posts, aus den Interaktionen und Vernetzungen der Teile eines Unternehmens. Die Mainstream-Managementmethoden konzentrieren sich allerdings auf die Teile des Unternehmens (Kostenstellen, Profitcenter, Business Units, Service Lines etc.) und nicht auf die Vernetzung, womit sie die Identität eines Unternehmens gefährden. Die Managementmethoden müssen also aus der Kostenwelt in die Durchsatzwelt überführt werden.

1 Star2 Stars3 Stars4 Stars5 Stars (2 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Intuition, Management und Leadership | Tagged , , , , , , | 4 Comments

Komplexitäten entstehen aus Einfachheiten, sind aber schwer zu handhaben

Auf dem ersten Blick hört sich die im Titel postulierte Aussage vielleicht paradox oder zumindest eigenartig an. Ich werde in diesem Post ein wenig Licht in diese These bringen und Reflexionen auf Denk- und Handlungsschemata im Umgang mit komplexen Situationen geben.

Komplexitäten entstehen aus Einfachheiten …

Wir Menschen sind der festen Überzeugung, kommend aus einer mechanistisch-technokratischen Sicht, die im 17. Jahrhundert mit dem Aufblühen der Naturwissenschaften geweckt wurde, dass komplexes Verhalten oder komplexe Zusammenhänge stets aus komplexen Verfahrensanweisungen oder komplexen Teilen bestehen muss. Das wir hier einem Irrglauben erlegen sind, möchte ich an einem Beispiel aus der Praxis belegen.

Es geht um das Fangen eines Balles, was ein sehr komplexer Vorgang ist. Würden wir als Ballfänger beginnen, diesen Vorgang in seine Einzelteile zu zerlegen, diese zu evaluieren und zu lösen und dann letzten Endes zu einem Algorithmus zu integrieren, welche das Verhalten abbildet, müssten wir nicht nur ballistische Berechnungen anstellen, sondern auch noch die aktuellen Umgebungsparameter wie Windrichtung und -geschwindigkeit, den aktuellen Luftwiderstand des Balles, die Oberflächenbeschaffenheit des Balles, die Beschaffenheit des Bodens, auf dem wir uns bewegen usw. mitberechnen. Würde diese Prozedur ausgeführt, ganz abgesehen davon die notwendigen Variablen überhaupt messen zu können, wäre der Ball längst auf dem Boden, während wir noch rechnen würden. Des Weiteren beobachten wir selbst Kinder, die von solchen Berechnungen kein Wissen haben, dass sie in der Lage sind, Bälle zu fangen. Die intuitive Regel, die wir Menschen anwenden ist jedoch sehr einfach. Sie lautet: Richte den Blick auf den Ball, beginne zu laufen und passe die Geschwindigkeit so an, dass der Blickwinkel zum Ball konstant bleibt. Prof. Dr. Gerd Gigerenzer beschreibt in seinem Buch Bauchentscheidungen: Die Intelligenz des Unbewussten und die Macht der Intuition diesen Vorgang als Blickheuristik, welcher in der folgenden Abbildung dargestellt ist, die ich seinem Buch der Seite 18 entnommen habe

Wir erkennen an dem Beispiel, dass eine einfache Regel zu einem komplexen Verhalten führt, welches bewusst-rational gar nicht ausgeführt werden könnte.

Dieses Thema hat Stephen Wolfram, der Erfinder von Mathematica, einem mathematischen Softwarepaket für symbolische Berechnungen, aufgegriffen und eine neue Art der Wissenschaft, a new kind of science, wie er es nannte, zu kreieren. Das gleichnamige Buch finden Sie beispielsweise bei Amazon oder auch direkt im Netz. Nach einem kostenlosen Registrieren können Sie sein gesamtes Werk (ca. 1.000 Seiten) im Internet verinnerlichen. Was meint Wolfram mit “a new kind of science”? Er deckt genau dieses oben angesprochene Paradigma auf, welchem die Naturwissenschaften heute immer noch erlegen sind, dem Glauben, dass komplexe Sachverhalte nur durch komplexe Handlungsschemata darstellbar sind. Dieses Aufdecken macht er sehr plastisch mit Hilfe von zellulären Automaten. Er zeigt mit diesen auf, dass mit sehr einfachen Algorithmen sehr komplexe Muster erzeugt werden können. Ich habe einige seiner zellulären Automaten in MS Excel und VBA nachprogrammiert. Es ist wirklich sehr eindrucksvoll.

Eine kritische Anmerkung habe ich allerdings, obwohl ich sein Buch noch nicht final zu Ende gelesen habe. Die von mir im Netz recherchierten Rezensionen zu seinem bestärken mich aber teilweise in meiner Sicht. Denn, es ist zwar richtig, dass mit einfachen Handlungsanweisungen komplexe Muster erzeugt werden können. Wolfram spiegelt dies aber sehr pauschal auf beliebig komplexe Naturphänomene und Naturgesetze so, dass diese sich auf kleinste Skalen durch einfache, elementare Entwicklungsregeln beschreiben lassen. Ich nehme in seinen Worten eine sehr große Euphorie wahr, mit dieser Erkenntnis komplexe Phänomene abzubilden und sogar zu beherrschen. Diese Euphorie teile ich nicht komplett, denn die zu Grunde liegenden Denkprozesse sind deshalb nicht auch gleich trivial. Die Frage bleibt also wie man zu diesen einfachen Algorithmen kommt, die komplexe Phänomene abbilden können. Das möchte ich im Folgenden beleuchten.

… und sind aber trotzdem schwer zu handhaben, …

Unsere technokratische Denk- und Handelsweise, die aus den Anfängen der modernen Naturwissenschaft stammt, vermittelt uns den Irrglauben, dass komplexe Strukturen und Verhaltensweisen aus komplexen Vorgängen oder Algorithmen entstehen müssen. Diese Denkstrukturen haben ohne Zweifel einen sehr großen Beitrag zu den Erfolgen in der Physik beigetragen. Sie haben eine solide Basis geschaffen, astronomische Entdeckungen der Planeten- und Sonnenbewegungen oder auch der Mechanik in Axiome zu fassen und damit einen Einklang zwischen experimenteller Überprüfbarkeit und theoretischer Beschreibbarkeit dieser Phänomene herzustellen. Diese Vorgänge beziehen sich aber ausschließlich auf tote Materie. Im Überschwang der Euphorie des Erfolges hat man versucht diese Denkweise auf lebende Materie 1:1 zu übertragen.

Das führte dann dazu, dass mit Hilfe der Erkenntnisse der Infinitesimalrechnung von Leibniz und Newton, also mit Differential- und Integralgleichungen lebende Prozesse modelliert werden sollten. Man erkannte die Schwierigkeit dieser Approximation, was aber die Intuition der Menschen bestätigte, denn komplexe Prozesse müssen aus komplexen Teilen bestehen. Mit dem Aufkommen der Computer war hier ein weiteres Aufblühen zu erkennen. Denn nun war man in der Lage viele Rechenoperationen in geringer Zeit auszuführen. Der Erfolg war trotzdem nicht da. Die erstellten mathematischen Modelle waren nur noch von Experten zu verstehen, waren aber nicht in der Lage komplexe Phänomene zu simulieren. Das Paradigma wurde aber trotzdem nicht umgestoßen. Es war ja klar, die Modelle müssen komplex sein, wahrscheinlich noch komplexer, damit sie komplexe Phänomene abbilden können. Selbst die Erkenntnisse aus der Systemtheorie haben an dieser Stelle nicht zu einem Umdenken animiert. Hier möchte ich die Emergenz nennen. Emergenz ist die spontane Herausbildung von neuen Eigenschaften oder Strukturen auf der Makroebene eines Systems infolge des Zusammenspiels seiner Elemente. Dabei lassen sich die emergenten Eigenschaften des Systems nicht, oder nicht offensichtlich, auf Eigenschaften der Elemente zurückführen, die diese isoliert aufweisen.

Stephen Wolfram hat sich diese Erkenntnis zu Herzen genommen und ist einen anderen Weg gegangen. Er hat Computer benutzt, um die Ergebnisse einfacher Algorithmen graphisch aufzubereiten und zu analysieren. Er hat damit die Emergenz bestätigt. Die erhaltenen komplexen Muster haben rein gar nichts mit den zu Grunde liegenden einfachen Algorithmen zu tun.

Francis Bacon, englischer Philosoph und Wegbereiter des Empirismus hat als erstes formuliert, dass der Sinn der Naturwissenschaften darin besteht, die Natur zu beherrschen. Rene Descartes, französischer Philosoph, Mathematiker und Naturwissenschaftler, hat dieser Forderung Leben eingehaucht, in dem er eine Methode definierte, wie Problemstellungen wissenschaftlich untersucht werden sollen. Im Rahmen dieser Methode werden Problem- und Fragestellungen in Teile zerlegt, sprich analysiert, diese Teile werden dann untersucht und anschließend wieder zu einer Gesamtlösung zusammengesetzt, sprich synthetisiert.

Das bedeutet, komplexe Probleme müssen zerlegt werden, um sie zu erfassen. Das ist auch notwendig, da unserer kognitiven Beschränkung geschuldet. wir können Problem- und Sachlagen nicht in Gänze auf einmal erfassen. Das ist die Analyse, in welcher für Teilbereiche des Problems Teillösungen gefunden werden wollen. Bei der späteren Zusammenführung dieser Teillösungen, also in der Synthese, ist dann Vorsicht geboten. Eine Linearisierung ist nicht möglich. Wir können nicht einfach die Teillösungen zu einer Gesamtlösung synthetisieren und glauben, dass es damit getan ist. Schwerwiegender ist noch, dass wir nicht genau wissen können, ob die Teillösungen überhaupt in die richtige Richtung der Gesamtlösung führen. Sie können vielleicht rein gar nichts miteinander zu tun haben, haben sie in der Regel auch nicht, da bei der Analyse und anschließenden Synthese die Dynamik der Wechselwirkungen der Teillösungen nicht berücksichtigt werden.

Das bedingungslose unreflektierte Anwenden der Methode von Descartes, Analyse und Sytnhese, führt bei Komplexitäten also in die Sackgasse. Mit dieser Vorgehensweise wird das Auffinden von einfachen Lösungen niemals möglich sein. Diese Methode wird allerdings in unseren Bildungseinrichtungen als das Allheilmittel für das Problemlösen angepriesen. Das macht den Umgang mit komplexen Situationen damit auch so schwierig, weshalb ich auch stets vom Handhaben und niemals vom Beherrschen von komplexen Situationen spreche. Ich möchte aber noch einmal deutlich betonen, dass diese Methode für Fragestellungen nichtlebender Materie zum Erfolg führt, aber eben nicht für lebende.

… weshalb folgende Denk- und Handlungsschemata relevant werden.

Jetzt bleibt natürlich noch die Frage offen, wie wir auf diese Erkenntnisse reagieren müssen. Worauf sollten wir achten, wenn wir mit komplexen Fragestellungen umgehen, die lebende Materie betreffen. By the way. Genau diese Problemstellungen machen uns derzeit so große Kopfzerbrechen, wenn ich an die Umweltproblematik oder an die Finanzdiskussionen denke.

Wir haben gelernt, dass keine lineare Beziehung zwischen den Teillösungen und der Gesamtlösung existiert. Die Teillösungen lassen sich nicht einfach zu einer Gesamtlösung integrieren. Das bedeutet aber auch, dass es keine direkt sichtbare Beziehung zwischen den Handlungen und dem Ergebnis geben kann. An dieser Stelle erinnere ich noch einmal an die Erzeugung der komplexen Muster durch ganz einfache Anweisungen, wie Wolfram sie eingeführt hat. An dieser Stelle müssen also bestehende Methoden und Prozesse ganz genau evaluiert werden. Immer dann wenn man es mit komplexen Problemen zu tun hat, wo also Menschen involviert sind, führen ganz detailliert definierte Prozesse häufig nicht zum Erfolg. Es darf nicht vorgeschrieben sein, was genau getan werden soll, sondern was mit diesen Prozessen erreicht werden soll. Es gibt kein Rezept zum Lösen komlexer Probleme. Und auch die Fragestellung, was mit den Prozessen erreicht werden soll, muss regelmäßig evaluiert werden, da sich Ziele in komplexen Umgebungen häufig ändern. Details dazu habe ich in meinem Post Sind Ziele sinnlos? ausgeführt.

Des Weiteren erkennt man sehr schnell die absolute Bedeutung von Kommunikation beim Lösen komplexer Probleme. Kommunikation ist bei der Synthese der Teillösungen zu einer Gesamtlösung immens wichtig. Sehr häufig geht es beim Problemlösen nicht darum im Sinne einer Lösung zu diskutieren. Es geht viel zu oft einfach nur um das “Recht haben”. Man benötigt also bei den Kommunikationsprozessen zum Lösen von komplexen Problemen eine gemeinsame Bezugsbasis. Hat man diese, ist eine Voraussetzung geschaffen, die Probleme in Teams zu lösen. Dann geht es nämlich um die “Wahrheit”. Hat man diese Bezugsbasis nicht, geht es ausschließlich um Macht. Das Finden einer tragfähigen Lösung gerät dann in den Hintergrund.

Dann möchte ich zum Schluss nicht vergessen auf die oben angesprochene Wechselwirkung und die so entstehende Dynamik zwischen den Teillösungen zu verweisen. Diese Dynamik muss nämlich bei der Analyse und anschließenden Synthese beachtet werden. Dazu eignet sich System Dynamics als Methode und Handwerkszeug sehr gut. Details dazu finden Sie in meinem Post Entscheidungen: Mit System Dynamics dem BI Wirkkreis Leben einhauchen.

1 Star2 Stars3 Stars4 Stars5 Stars (3 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Komplexität | Tagged , , , , | 10 Comments

Streitgespräch zu Stolperfallen der qualitativen Modellierung

Ein Ergebnis meines Posts Drei Stolperfallen der qualitativen Modellierung war ein Streitgespräch zu diesem Thema mit Kai Neuman. Kai ist einer von zwei Geschäftsführern der Firma Consideo GmbH. Kai hat sich zusammen mit seinem Partner Franc Grimm auf die Fahne geschrieben, das Modellieren für die breite Masse zugänglich zu machen und damit ein wenig vom akademischen “System Dynamics Staub” zu befreien. Mit Beiden bin ich seit einigen Jahren sehr rege im Kontakt, was letztendlich auch dazu geführt hat, dass ich Partner von Consideo bin.

Wenn ich Streitgespräch sage, meine ich das absolut nicht negativ, ganz im Gegenteil. Kai und ich haben unsere Standpunkte ausgetauscht, ohne dabei primär den Anderen mit aller Wucht überzeugen zu wollen. Das geht ja auch gar nicht. Letzten Endes kann man sich selbst nur von innen heraus von etwas überzeugen. Dabei kann der Gesprächspartner Anstöße geben, was in unserem Fall geschehen ist. Grundsätzlich können solche Diskussionen zwei Ergebnissen hervorbringen. Entweder man revidert seine eingangs getätigte Aussage oder man verfestigt sie. Den Ergebnissen liegen aber stets intensive Denkvorgänge zu Grunde, die zu weiteren Erkenntnissen führen. Deshalb war die Diskussion mit Kai auch sehr befruchtend und erkenntnisreich für mich. Danke dafür Kai. Anbei poste ich unser Streitgespräch.

Kai Neumann

Hallo Conny,

hmm, sollen wir das wirklich in die News stellen? Ich teile das dort geschriebene nicht – was kein Grund wäre, es nicht zu veröffentlichen. Aber es verkompliziert die Wahrnehmung der qualitativen Modellierung. Natürlich hat die ihre Grenzen und deshalb sollen eben nicht Bestände und Flüsse darin gedacht werden, es sei denn, jemand macht es explizit. Dein Beitrag suggeriert mir aber, ich müsse es immer machen. Das ist die alte Schule der SD-Modellierer, die sich aus Zeitmangel auf CLDs beschränken, aber letztlich immer nur bekannte Zusammenhänge abbilden und keinen Erkenntnis-Gewinn haben, da sie nicht kreativ nach natürlichsprachlichen, weiteren Faktoren fragen (…)
Wir machen zu viele aussagekräftige Modelle gerade auch zu den Themen deiner Beispiele ohne uns um SD zu scheren. Ein CLD ist natürlich präziser als ein unbedarftes Modell – nur kriegt das eben nicht jedermann hin und auch ohne CLD ist schon viel gewonnen.
Oder?

Viele Grüße aus ‘ner wackeligen Bahn
Kai

Conny Dethloff

Hallo Kai,

ich kann Deine Bedenken verstehen. Ist etwas zu kompliziert, trauen sich die Leute nicht ran. Aber deshalb darf man etwas nicht auf Biegen und Brechen vereinfachen. Oder?

Nimm doch einfach nur das Wannenbeispiel. Wenn ich dort nicht in Beständen und Flüssen denke, bekomme ich mit der herkömmlichen Definition der Ursache-Wirkungsbeziehungen schlichtweg falsche Erkenntnisse. Das darf doch nicht sein. Ob es nun einfach zu verstehen ist oder nicht. Was meinst Du?

Kai Neumann

CO2 in der Atmospäre – was führt zu mehr? Verbrennungsmotoren … usw.. Was führt zu weniger? Aufnahme durch Pflanzen …. usw..

Wanne voll Wasser: Wasserzufluss und Stöpsel führen zu mehr Wasser, Abfluss und Verdrängung und Überschwappen durch dicken Kai führt zu weniger Wasser.

Du denkst zu präzise: Weniger Wasserzufluss führt nicht zu einer im Zeitverlauf sich leerenden Wanne. Es führt zu einer weniger vollen (sich weniger füllenden) Wanne. Qualitative Modellierung hat nicht ein Wann und Wieviel zum Ergebnis, sondern nur ein “welchen Einfluss verglichen mit anderen” hat etwas. Bei analoger qualitativer Gewichtung auch noch mit aller Vorsicht ein “rechnet es sich am Ende oder nicht”. Deshalb verraten wir ja auch nicht, was sich hinter mittel- und langfristig verbirgt, weil es eben nicht präzise sein kann.

Verbrennungsmotoren sind dann rechts in der Erkenntnis-Matrix und die zu reduzieren bedeutet weniger CO2, als wenn ich sie nicht reduzierte. Elektromotoren sparen zumindest etwas CO2 und sind folglich nicht so weit rechts. Richtig links sind aber nur die Pflanzen …

Oder?

Conny Dethloff

Hallo Kai,

ich stimme Dir zu voll zu, wenn Du sagst:

“Du denkst zu präzise: Weniger Wasserzufluss führt nicht zu einer im Zeitverlauf sich leerenden Wanne. Es führt zu einer weniger vollen (sich weniger füllenden) Wanne.

Nur die meisten Modellierer interpretieren die Beziehungen so nicht, denn implizit, auch wenn man es nicht ausspricht, setzt man hier die Denke in Bestand und Fluss an. Und genau das ist, wie sehr oft schon in verschiedenen Experimenten und in eigenen Beobachtungen bewiesen, für viele Menschen schwer umzusetzen. Weil Sie das nicht tun, interpretieren Sie auch die Erkenntnismatrix falsch. Und das ergibt quasi eine scheinbare Sicherheit, die in vielen Fällen schlimmer ist als eine wahr genommene Unsicherheit.

Ich bin derzeit weiterhin der festen Überzeugung, dass eine Unterscheidung der Faktoren in Fluss und Bestand, ob nun explizit, wie ich es mache, oder implizit, wie Du es in Deiner obigen Erklärung mit der Wanne machst, essentiell für eine korrekte qualitative Analyse eines Modells ist. Aber ich denke weitehin darüber nach. Ich will mich ja nicht vor Erkenntnisgewinn verschließen. Und vielleicht überzeugen mich Deine Argumente am Ende. 🙂

Conny Dethloff

Hi Kai,

nur noch ein kleiner Nachtrag.

Du schreibst: “Verbrennungsmotoren sind dann rechts in der Erkenntnis-Matrix und die zu reduzieren bedeutet weniger CO2, als wenn ich sie nicht reduzierte”

Wenn ich nun kein Verständnis von Bestandsfaktoren hätte, würde ich vermuten, dass es reicht weniger Verbrennungsmotoren zuzulassen und schon reduziert sich der CO2 Gehalt der Atmosphäre. Ist natürlich Quatsch. Wir wissen das. Aber nur weil wir das Verständnis von Beständen und Flüssen haben. Der CO2 Ausstoß in die Atmosphäre wird geringer, wenn ich weniger Verbrennungsmotoren zulasse, nicht der Gehalt. Der Fluss verringert sich nicht der Bestand. Das muss man also bei der Analyse der Erkenntnismatrix beachten. Einig?

Kai Neumann

Ne, wenn der Faktor weniger CO2 in der Atmosphäre heisst, kann der Satz mehr Autos führt zu mehr CO2 gesprochen werden. Wenn nach KNOW-WHY dann gefragt wird, was führt zu weniger, werden nicht Autos genannt, sondern Bäume. Wer Elektroautos nennt, und der Satz Mehr Elektro Autos führen zu weniger CO2 gesprochen wird, merkt, dass er falsch liegt.
Ein Problem für mich ist auch, mit gleichgerichtet und entgegengerichtet zu argumentieren. Erhöhen und Senken ist da schlauer. Dann gibt es ein weniger erhöhen, aber nicht gleich ein negatives Erhöhen…
Du hast Recht, dass CLD das ganze präziser machte, aber ich bleibe dabei, dass auch natürlichsprachlich, allein durch das Sprechen der Sätze und die richtigen Fragen (wie im iMODELER), der Kunde gültige Aussagen treffen kann.

Conny Dethloff

Hallo Kai,

danke. Darüber muss ich erst einmal nachdenken. Hättest Du etwas dagegen, wenn ich unseren Briefwechsel als Kommentar zu dem Post in meinen Blog hänge? Und Deinen Namen dazu auch nenne?

Kai Neumann

nur zu – ich auch nicht unbekehrbar

Conny Dethloff

Hi Kai,

Ich gebe Dir vollkommen Recht, dass der Kunde auch durch die natürliche Sprache richtige Erkenntnsisse schließen kann. Aber hier bleibe ich bei meiner These und begründe sie auch gleich an einem Beispiel:

Wird die natürliche Umgangssprache nicht präzise eingesetzt, kann der Kunde zu falschen Schlüssen kommen. Eine Möglichkeit der Präzisierung ist das Unterscheiden in Bestands- und Flussfaktoren.

Nun zum Beispiel: Ich habe einfach nur 2 Faktoren. Der erste ist “Nicht E-Autos”, der zweite “CO2”, also angelehnt an Dein Beispiel.

Der Kunde setzt nun ein Pfeil mit einem “+” vom ersten zum zweiten Faktor und sagt: Ein mehr an “Nicht E-Autos” führt zu mehr “CO2” und weniger “Nicht E-Autos” führt zu weniger “CO2”. Jetzt sollen Maßnahmen definiert werden, um den CO2 Gehalt in der Atmosphäre zu verringern. Der Kunde freut sich, da er ja weiß, was zu tun ist, einfach weniger Nicht E-Autos zulassen. Fatale Entscheidung, denn wir wissen, dass der CO2 Gehalt der Atmosphäre dadurch nicht notwendigerweise verringert wird, sondern nur der CO2 Ausstoß in die Atmosphäre. Und wir wissen es nur deshalb, weil wir in Bestand und Fluss denken.

Den fatalen Fehlschluss kann man umgehen, wenn bereits beim Aufstellen der Ursache-Wirkungsbeziehungen (auch umgangssprachlich), die Faktoren präzise benannt werden, wie zum Beispiel “CO2 Ausstoß in die Atmosphäre” und “CO2 Gehalt in die Atmosphäre”. Dann kann nämlich eine “+” Beziehung zwischen “Nicht E-Autos” und “CO2 Ausstoß” gezogen, denn ein mehr an Nicht E-Autos führt zu mehr CO2 Ausstoß und ein weniger an Nicht E-Autos führt zu weniger CO2 Ausstoß. Die “+” Beziehung zwischen Nicht E-Autos und CO2 Gehalt der Atmosphäre kann nur gezogen werden, wenn die Beziehung präziser dargestellt wird. Ein weniger an Nicht E-Autos führt zu weniger CO2 Gehalt in der Atmosphäre, verglichen zu dem Fall wenn die Nicht E-Autos nicht verringert worden wären.

Ich freue mich auf Dein “Zerpflücken”.

Eines aber noch. Ich verstehe nicht, warum Du Dich so gegen das Denken in Bestand und Fluss stellst. Ich nehme es jedenfalls so wahr. Sorry, wenn es nicht so ist. Selbstverständlich sollte man Probleme einfach darstellen, aber nicht zu einfach, das sie sonst verfälscht werden. Wir sollten also eher daran gehen, Menschen das Denken in Bestand und Fluss beizubringen, als ihnen zu vermitteln, dass es auch ohne geht. Das tut es eben nicht. Ich weiß, ich bin hartnäckig.

Kai Neumann

Hi Conny,

komme gerade von einer Lehrer-Tagung und da würde ganz frisch von erfahrenen SD-Modellierern bestätigt, dass der Verzicht darauf ein Gewinn ist (ich würde sagen: sein kann).
Natürlich ist die Aussage Weniger Nicht-E-Autos führen zu weniger Bestand an CO2 in der Atmosphäre falsch. Aber sie führen zu weniger mehr an CO2 in der Atmosphäre. Du gehst mit Bestands- und Flussgrößen auf das Ganze los und entdeckst Unvollkommenheiten. Wenn du diese Denke aber ausklammerst sind die unbedarften Modelle dennoch aussagekräftig. Ein E-Auto welches dann weniger Nicht-E-Autos bedeutet reduziert CO2 in der Atmosphäre. Nicht korrekt den absoluten Bestand, aber eben beides, den Zuwachs des Bestandes. Wenn ich nach Maßnahmen gegen den Klimawandel suche, ist die Erkenntnis richtig – nur eben fuzzy. Wenn ich dann noch Bäume als senkenden Faktor einfüge, stelle ich sogar fest, dass die Bäume viel mehr bringen, als die E-Autos, denn die E-Autos kann ich nicht als senkenden Faktor mit CO2 verbinden, auch im qualitativen Modell nicht, es sei denn, der Faktor heißt CO2 Ausstoß (was ein Fluss ist, was der Kunde aber nicht wissen muss, sondern was sich sprachlich schon ergibt).
Du siehst, auch ich bleibe hartnäckig und will keine unnötigen Regeln, die das Modeln verhindern 😉

Anbei schreibe ich die letzten Tage alles zwischen Tür und Angel. Für deinen Post sollten wir die Position von mir vielleicht besser sauber auf den Punkt bringen….

Schönes Rest WE
Kai

Conny Dethloff

Hallo Kai,

Deine folgende Aussage

“Natürlich ist die Aussage Weniger Nicht-E-Autos führen zu weniger Bestand an CO2 in der Atmosphäre falsch. Aber sie führen zu weniger mehr an CO2 in der Atmosphäre.”

können nur Modellierer tätigen, die Ahnung in der Differenzierung zwischen Bestand und Fluss haben. Sie müssen es nicht unbedingt aussprechen, dass sie hier diese Denkweise nutzen, aber sie tun es. Und genau deshalb kann ich Dir bei Deiner nächsten Aussage

“Wenn du diese Denke aber ausklammerst sind die unbedarften Modelle dennoch aussagekräftig.”

nur bedingt zustimmen, da sich Fehler einschleichen können, die einen enormen negativen Einfluss auf die Entscheidungsfindung haben. Das habe ich an meinem Beispiel in meiner vorigen Mail gezeigt.

Denn die Aussage

“Ein E-Auto welches dann weniger Nicht-E-Autos bedeutet reduziert CO2 in der Atmosphäre. Nicht korrekt den absoluten Bestand, aber eben beides, den Zuwachs des Bestandes. Wenn ich nach Maßnahmen gegen den Klimawandel suche, ist die Erkenntnis richtig – nur eben fuzzy.”

ist aus meiner Sicht für eine Entscheidungsfindung nicht fuzzy, sondern falsch. Und hier kann ich Dir wieder vollstens zustimmen

“Wenn ich dann noch Bäume als senkenden Faktor einfüge, stelle ich sogar fest, dass die Bäume viel mehr bringen, als die E-Autos, denn die E-Autos kann ich nicht als senkenden Faktor mit CO2 verbinden, auch im qualitativen Modell nicht, es sei denn, der Faktor heißt CO2 Ausstoß (was ein Fluss ist, was der Kunde aber nicht wissen muss, sondern was sich sprachlich schon ergibt).”

Allerdings nicht im letzten Satz. Der Kunde muss den Unterschied zwischen Bestand und Fluss kennen, sonst kommt er nie zu dieser Erkenntnis, auch nicht umgangssprachlich.

Vielleicht hängen wir hier ja in unserer Diskussion. Ich habe das Gefühl, dass Du meinst, dass der Kunde bereits umgangssprachlich präzise die Ursache-Wirkungsbeziehungen formulieren kann, auch ohne Kenntnis der Differenzierung von Bestand und Fluss. Da bin ich anderer Meinung. Die Differenzierung in Bestand und Fluss ist essentiell. Ich muss diese Begriffe nur nicht unbedingt bei der Formulierung benutzen und nicht explizit formulieren, dass ich jetzt die Faktoren nach Bestand und Fluss differenziere. Aber alleine in dem der Kunde differenziert zwischen “CO2 Ausstoß in die Atmosphäre” und “CO2 Gehalt der Atmosphäre” vollzieht er diese Unterscheidung. Vielleicht ist es ja aber auch so, dass einige Kunden diese Differenzierung bereits implizit vornehmen, nur wenn Sie explizit darauf angesprochen werden, sie eher verwirrt sind und Abstand davon nehmen.

Super, wenn Du Deine Position noch einmal klar formulierst. Es macht riesigen Spaß mit Dir zu diskutieren. Auch wenn wir nicht einer Meinung zu sein scheinen. Aber vielleicht gerade deshalb.

Conny Dethloff

Hallo Kai,

auch ich habe den Fehler gemacht, umgangssprachlich nicht genau gewesen zu sein, wenn ich behaupte, dass Deine Aussage

“Ein E-Auto welches dann weniger Nicht-E-Autos bedeutet reduziert CO2 in der Atmosphäre. Nicht korrekt den absoluten Bestand, aber eben beides, den Zuwachs des Bestandes. Wenn ich nach Maßnahmen gegen den Klimawandel suche, ist die Erkenntnis richtig – nur eben fuzzy.”

falsch ist. Warum? Ich habe nicht korrekt und genau in Bestand und Fluss argumentiert. Die E-Autos tragen dazu bei, dass weniger CO2 in die Atmosphäre geblasen wird. Das bedeutet, der CO2 Gehalt nimmt langsamer zu, aber eben nicht ab, wenn ich nur diese Maßnahme betrachte. Denn die E-Autos bilden nur einen Zufluss in den Bestand CO2 Gehalt. Ein Abfluss könnten Bäume sein, die den CO2 Bestand abbauen. Wahrscheinlich meinst Du das mit fuzzy. Aber auch diese Aussage kann man nur als fuzzy bezeichnen, wenn man in Bestand und Fluss denken kann.

Du sagst, Du möchtest keine unnötigen Regeln. Hier sehe ich eine Gefahr. Für Dich ist es wahrscheinlich unsinnig, das Denken in Bestand und Fluss, auch für das qualitative Modeln als explizite Regel zu erheben. Du hast diese Denke schon so verinnerlicht, dass Du sie beim Modeln nicht mehr hervorholen musst. Du wendest sie einfach an. Aber es gibt genügend Menschen, für die das nicht der Fall ist. Für diese ist diese Regel nicht unsinnig.

Dazu ein Analogon, wissend das diese stets hinken.

Wenn ich meiner Tochter erzählen würde, dass beim Rechnen die Regel “Punkt- vor Strichrechnung” unsinnig ist, wäre es fatal. Wenn ich rechne, muss ich mir diese Regel nicht immer explizit hervorholen. Ich wende sie einfach an. Meine Tochter muss diese erst lernen, sonst rechnet sie stets falsch.

Kai Neumann

Ach Conny,
verdirb deine Tochter nicht 😉
Wer rechnet muss präzise sein, wer redet muss aufpassen, was er sagt. Wer beim Reden präzise wie die Mathematik sein will, schweigt (das war jetzt philosophisch außerhalb der Systemgrenze 🙂
Nein, ich denke beim qualitativen Modeln nicht an SF. Wohl aber kann auch beim qualitativen Modeln präzisiert werden und durch fehlende Präzisierung können Fehler auftreten – da sind wir völlig einig!!! Nur impliziert das eben nicht, dass wir nur mit Regeln reden/qualitativ modeln können!!! Im Grunde war die Urversion des MODELERs dann die beste: es konnte erst simuliert werden, wenn jeder Faktor eine Einheit zugewiesen bekommen hatte, wir also wirklich überlegt haben, wie der jeweilige Faktor gemessen werden kann und wie dieser dann mit anderen mathematisch in Beziehung gesetzt werden kann. Nur fehlt für ein solches Tool die Nachfrage, da die Entscheider lieber reden, denken, fühlen und schnell entscheiden.
Es ist also die Frage, wie präzise wir sein können (zeitlich) und wollen. Wenn nur grob und qualitativ der Frage des CO2 Gehalts in der Atmosphäre nachgegangen wird, werden ganz unbedarft Verbrennungsmotoren auf CO2 positiv zeigen, und E-Autos negativ auf Verbrennungsmotoren. Die Aussage, weniger Verbrennungsmotoren bedeuten weniger CO2 in der Atmosphäre ist dann auch richtig!!! Nur eben nicht präzise, da eben nicht unterschieden wurde, ob es um den Ausstoß dahin (Flow) oder den absoluten Gehalt dort (Stock) geht.
That’s it. Ich denke also im Gegenteil nicht an SF wenn ich qualitativ modele. Wenn ich nicht präzisiere, ist es allermeistens grob auch ganz richtig. Wenn ich präzisieren will und kann, geht das auch qualitativ.
Was allemal anzumerken ist, ist die Notwendig auch beim qualitativen Modeln aufzupassen, was wir mit einem Wort meinen, ob das Wort für die eine Verbindung auch die gleiche Bedeutung hat, wie für die andere Verbindung. Da kann viel Mist passieren. Da hilft es bei Unklarheit zu überlegen, wie der Faktor ggf. messbar wäre. Und auch da bemerken wir manchmal, dass zwischen Fluss und Bestand unterschieden werden müsste – nur eben ist das nur manchmal wichtig.
Wir sind also nur zweinig, wenn es darum geht, dass immer aufgepasst werden soll und damit eine Regel zu beachten ist. Ich halte es aber für wertvoll, wenn einzelne Berater sich durch einen präziseren Ansatz definieren – nur verteidige ich, dass es auch ohne dem gehen kann.
Einen schönen Restsonntag – vielleicht ja mit der Frage an deine Tochter, ob viele Äpfel in viele Stücke geteilt an mehr Menschen verteilt werden können und ob weniger Teilungen der Äpfel eine Verteilung an weniger Menschen ermöglichte. Mein Gefühl sagt, dass das auch ohne mathematische Regeln zu beantworten ist 😉

Conny Dethloff

Hallo Kai,

ich habe Deine Postion noch nicht ganz verstanden. Ich will meine noch einmal darstellen.

Die Eigenkomplexität des “Modellierens” muss mit der Fremdkomplexität des “zu Modellierenden” im Einklang sein. Ist die Eigenkomplexität des Modellierens zu hoch, wie vielleicht bei den Strömungen von System Dynamics zu beobachten, wird das Modellieren als zu komplex gesehen und es bleibt eine akademische Wisenschaft. Ist sie zu gering, wird das Modellieren vielleicht von Vielen angenommen. Allerdings erhält man falsche Ergebnisse. Es ist also unsere Hausaufgabe, das Modellieren so einfach wie möglich und so schwierig wie nötig zu gestalten. Das Denken in Flüssen und Beständen gehört für mich absolut dazu. Es ist essentiell für das Modellieren. Ich habe Beispiele gezeigt, wo man ohne das Denken in Beständen und Flüssen zu falschen Erkenntnissen kommt.

An welcher Stelle steigst Du jetzt aus?

1. Siehst Du die falschen Schlüsse, die ich bei den Beispielen aufgezeigt habe, nicht?
2. Oder bist Du bei den falschen Schlüssen mit mir einer Meinung, glaubst aber dass diese falschen Schlüsse nicht so gravierend für ein Endergebnis sind?
3. …

Die Diskussion mit Dir hat mir viel gebracht. Ich habe meinen Standpunkt jedes mal neu auf die Probe gestellt. Ich wollte diesen nicht auf “Teufel komm raus” verteidigen. Mein Standpunkt hat sich allerdings für mich erhärtet.

Kai Neumann

Moin,

ich lerne auch sehr viel daraus! Deine Beschreibung unten ist sehr gut. Was ich lerne ist, dass dein Mindset unumstößlich scheint. Selbst kommen Franc und ich ja von System Dynamics und wir können und praktizieren glaube ich auch SD-Modellierung – aber wir haben einen Weg gefunden, unser eigenes Mindset zu überwinden, um das von dir unten Beschriebene zu adressieren. Die Unschärfe, das Zulassen von weniger präzisen Modellierungen IN SEHR VIELEN FÄLLEN verfechten wir weniger, als unsere Vorgänger (Vester, FCM etc.), die dogmatisch von einer Überlegenheit gegenüber quantitativen Ansätzen sprechen. Das würden wir nicht tun. Wir wertschätzen vor allem auch aus sehr vielen unterschiedlichsten Praxismodellen die Erkenntnisse der rein qualitativen Modellierung.
Im Leben begegnen uns ja auch immer sehr deutliche Mindsets von LeftBrainern, RightBrainern, und sogar zwischen Mathematikern und Physikern gibt es unterschiedliche. Dein Mindset – das sage ich alles ganz vorwurfs- und wertfrei – ist das des Experten. Da treffen wir viele an, die mit dem MODELER auch nichts anfangen können. Deine Veröffentlichungen zeigen ja, dass du die ganzen Klassiker hervorhebst, aber beispielsweise KNOW-WHY als sehr einfachen, praktisch erprobten Ansatz offenbar für nicht ausreichend oder trivial hältst.
Um bei KNOW-WHY zu bleiben: der Experte baut die besseren Modelle – allenfalls dass sein Arbeiten und sein Ergebnis manchmal für andere zu viel Weiterentwicklung sind.
Um bei deiner Tochter zu bleiben: die Aussage, dass mehr Menschen Apfel bekommen können reicht dir nicht, da du die Möglichkeit, es genauer zu sagen, für zumutbar hältst.
Falsch wird es in deinen Beispielen erst, wenn du mit dem Anspruch des Präzisen darangehst. Wenn man erst einmal nur grob sehen will, was vergleichsweise mehr oder weniger Einfluss hat, verhindert deine Präzisierung als unnötige Einstiegshürde die Modellierung nur. In 50 Jahren System Dynamics sind unlängst die meisten Modelle reine CLDs. Aber diese gibt es ungleich weniger als unsere Modelle.
Let us agree to differ 🙂
Schöne Woche
Kai

Conny Dethloff

Hallo Kai,

danke Dir. Jetzt verstehe ich Deinen Standpunkt. Ich denke auch, dass wir es so stehen lassen sollten.

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Modellierung | Tagged , , , | 4 Comments

Das Manifest der empörten Ökonomen

Im Blog der Vordenker bin ich auf das Manifest der empörten Ökonomen aufmerksam geworden. Dieses Manifest prangert 10 Fehlbehauptungen der aktuellen Debatten um die Finanzkrise an.

  1. Fehlbehauptung: Finanzmärkte sind effizient
  2. Fehlbehauptung: Finanzmärkte tragen zum Wirtschafts-wachstum bei
  3. Fehlbehauptung: Märkte schätzen die Kreditwürdigkeit von Staaten korrekt ein
  4. Fehlbehauptung: Der Anstieg der Staatsverschuldung rührt von übermässigen Ausgaben her
  5. Fehlbehauptung: Staatsausgaben müssen begrenzt werden, um die Staatsverschuldung zu senken
  6. Fehlbehauptung: Staatsverschuldung verschiebt die Last unserer Maßlosigkeit auf unsere Kindeskinder
  7. Fehlbehauptung: Wir müssen die Finanzmärkte beruhigen, um die Staatsverschuldung zu finanzieren
  8. Fehlbehauptung: Die europäische Union schützt das Europäische Sozialmodell
  9. Fehlbehauptung: Der Euro ist ein Schutzschild gegen die Krise
  10. Fehlbehauptung: Die Griechenlandkrise war das Sprungbrett zu einer europäischen Wirtschaftsregierung und einem wirklichen europäischen Sozialpakt

Diese Streitschrift französischer Ökonomen ist absolut lesenswert, da sie den Ursachen auf den Grund geht und sich damit vom Mainstream abhebt. Bestellen können Sie das Manifest unter der Mailadresse pad-verlag@gmx.net. Es kostet nur 5 Euro. Das nenne ich mal gut angelegtes Geld.

1 Star2 Stars3 Stars4 Stars5 Stars (1 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Ökonomie und Wirtschaft | Tagged , , , | 2 Comments

Drei Stolperfallen der qualitativen Modellierung

In meinem Post Entscheidungen: Mit System Dynamics dem BI Wirkkreis Leben einhauchen habe ich explizit ausgeführt, wie wichtig System Dynamics für Entscheidungsprozesse ist. System Dynamics ist eine Methode des quantitativen Modellierens. Als Vorstufe des quantitativen Modellierens hat sich aus meiner Erfahrung das qualitative Modellieren bewährt. Um diese Vorteile jedoch nutzbar zu machen, muss man sich über die Stolperfallen von qualitativen Modellen bewusst sein. In diesem Post möchte ich die Möglichkeit nutzen, 3 Stolperfallen zu zeichnen und an eingängigen und einfachen Modellen zu erklären.

Stolperfalle 1: Bestands- und Flussfaktoren

Bei qualitativen Modellen werden in der Regel keine Unterscheidungen nach der Art der Faktoren vorgenommen. Die Verbindungen zwischen den Faktoren, welche die Ursache-Wirkungsbeziehungen darstellen, bekommen in der Darstellung der Modelle ein “+”, wenn die Wirkung des einen auf den anderen Faktors gleichgerichtet ist und ein “-“, wenn diese entgegengesetzt ist. Stellen wir uns vor, wir haben zwei Faktoren. Der erste ist “Motivation der Mitarbeiter” und der zweite “Leistung der Mitarbeiter”. Es ist schnell einleuchtend, dass, wenn die Motivation der Mitarbeiter steigt, die Leistung ebenfalls steigt. Die Verbindung zwischen beiden Faktoren bekommt also ein “+”. Die Wirkung von Motivation auf Leistung ist gleichgerichtet. Würde die Leistung bei steigender Motivation sinken, wäre die Wirkung entgegengesetzt und die Verbindung beider Faktoren müsste mit einem “-” dargestellt werden.

Diese generelle Betrachtungsweise ist aber zu fahrlässig, da sie keine Unterscheidung von Faktoren in Fluss- und Bestand einbaut. Das möchte ich an einem wohl für Jeden bekannten Beispiel, nämlich einer Badewanne darstellen. Stellen Sie sich folgendes Szenario vor. Sie füllen eine Badewanne mit Wasser und drehen dabei den Wasserhahn. Wir betrachten wiederum 2 Faktoren, den Füllstand des Wassers in der Badewanne und die Menge des Wassers, die aus dem Wasserhahn in die Wanne fließt. Bereits an der Beschreibung der beiden Faktoren erkennen wir, dass es sich beim ersten Faktor um einen Bestandsfaktor und beim zweiten um einen Flussfaktor handelt. Kann man zwischen diesen beiden Faktoren eine Ursache-Wirkungsbeziehung darstellen?

  1. Der Wasserhahn wird in Richtung “zu” gedreht, aber nicht ganz bis zum Anschlag. Das Wasser, welches aus dem Wasserhahn fließt, wird weniger. Wird dann auch der Wasserstand in der Wanne geringer? Ein ganz klares Nein. Das ist einleuchtend. Auch wenn das Wasser, das aus dem Wasserhahn in die Wanne fließt, geringer wird, wird trotzdem noch Wasser in die Wanne fließen, zwar weniger als vorher, aber immerhin. Der Wasserstand in der Wanne steigt also, und zwar degressiv.
  2. Der Wasserhahn wird weiter aufgedreht. Damit wird die Wassermenge, die durch den Wasserhahn in die Wanne fließt, erhöht. Was passiert nun mit dem Wasserstand in der Wanne? Auch klar. Er steigt und diesmal schneller als vorher, also progressiv.
  3. Der Wasserhahn wird komplett zugedreht. Es fließt dann kein Wasser durch den Wasserhahn in die Wanne. Damit bleibt auch der Wasserstand in der Wanne stabil, er wird nicht größer und auch nicht kleiner.
  4. Der Wasserhahn bleibt unberührt. Dann bleibt die Wassermenge, die durch den Wasserhahn fließt, gleich. Der Wasserstand in der Wanne wird größer, diesmal linear.

An den 4 Fällen erkennen wir, dass wir nach der oben getroffenen Definition nicht eindeutig ein “-” oder “+” zwischen den beiden Faktoren setzen können. Der Wasserstand wird niemals geringer, ganz egal ob der Wasserzufluss kleiner oder größer wird. Nur in einem Fall bleibt der Wasserstand konstant, und zwar im 3., wo der Wasserzufluss gleich Null ist. Damit haben wir die erste Stolperfalle aufgedeckt.

Wir müssen auch in qualitativen Modellen zwischen Bestands- und Flussfaktoren unterscheiden und die Ursache-Wirkungsbeziehungen entsprechend differenzieren.

Auf Grund der Beziehungen zwischen Fluss- und Bestandsfaktoren, wie wir sie im Badewannenbeispiel vorfinden, müssen wir die oben getroffenen Erklärungen für “+” und “-” konkretisieren. Ein Faktor A hat eine gleichgerichtete Wirkung (“+”) auf einen anderen Faktor B, wenn eine Erhöhung (Minderung) des Faktors A, einen Wert für den Faktor B hervorbringt, der größer (kleiner) ist als der Wert von Faktor B, wenn sich der Faktor A nicht geändert hätte. Mit dieser Definition ist die Beziehung zwischen Wasserstand in der Badewanne und Wasserzufluss gleichgerichtet, also “+”.

Stolperfalle 2: Nettoflussraten

Hat man die Unterscheidung nach Bestand und Fluss vollzogen, gilt es eine nächste Stolperfalle zu umschiffen.

Flussfaktoren müssen in Zu- und Abfluss differenziert werden.

In dem oben dargestellten Beispiel mit der Badewanne haben wir explizit keinen Abfluss eingebaut. Wir haben nur einen Zufluss, nämlich den Wasserhahn. Ein Abfluss könnte der Stöpsel in der Badewanne sein, über den das Wasser aus der Wanne abgelassen werden kann. Der Nettofluss wird definiert als Zufluss-Abfluss. Ein Bestand kann also nur abgebaut werden, in diesem Fall das Wasser, wenn der Nettofluss kleiner ist als Null. Das bedeutet, in unserem Beispiel kann das Wasser niemals aus der Badewanne entweichen, da Zufluss-0 niemals kleiner als Null werden kann.

In der Praxis wird dieses Phänomen leicht zur verschleierten Darstellung einer kritischen Situation genutzt. Nehmen wir das Beispiel Umweltverschmutzung durch Ausstoß von Kohlendioxid. Oft höre ich in den Medien, das der Ausstoß von Kohlendioxid gemindert wurde. Was sagt uns das? Nicht sehr viel. Für eine ganzheitliche Bewertung dieses Faktums müssten wir auch noch wissen, wieviel Kohlendioxid abgebaut wurde und wie groß die derzeitige Menge an Kohlendioxid in der Atmosphäre ist. Wir müssen also wissen, wie hoch der Abfluss und der derzeitige Bestand ist. Diese 3 Faktoren müssten wir dann über eine Messreihe über einen längeren Zeitraum betrachten. Ähnlich verhält es sich mit dem Thema Schulden, wo ich auch sehr häufig eine Vermischung von Fluss und Bestand beobachte. Ein Budgetdefizit herrscht beispielsweise im Staatshaushalt vor, wenn die Ausgaben in einem größer sind als die Einnahmen. Das Budgetdefizit ist also eine Nettoflussrate größer als Null, wenn die Schulden der Bestand sind. Wenn also in der Presse geschrieben steht, dass das Budgetdefizit geringer geworden ist, bedeutet es trotzdem, dass der Schuldenberg weiter angewachsen ist. Bei dem Ausweisen von Unternehmensergebnissen ist beispielsweise die Gewinn-und-Verlustdarstellung (GuV) der Fluss, der sich zu der Bilanz als Bestand akkumuliert.

Es ist also extrem wichtig ein Verständnis des Verhältnisses von Fluss und Bestandsfaktoren zu haben, um komplexe und dynamische Sachverhalte richtig interpretieren zu können. Günther Ossimitz hat diesen Fakt als Anlass genommen, Aufgaben diesbezüglich zusammen zu stellen. Diese finden Sie hier. Viel Spaß beim Lösen dieser Aufgaben. Sie können die Lösungen gerne als Kommentar posten. Die Lösungen habe ich natürlich auch vorrätig. Bei Bedarf können Sie diese gerne bei mir anfragen.

Des Weiteren möchte ich auf den Inhalt meines Rucksacks in der Sektion Modellierung verweisen. Dort finden Sie den Screencast 1 mit dem Titel “Beziehungen zwischen Fluß- und Bestandsfaktoren beim quantitativen Modellieren”. In diesem erkläre ich alle möglichen Beziehungen zwischen Fluss- und Bestandsfaktoren. Die Folien, die ich dort erkläre finden Sie hier.

Stolperfalle 3: Versteckte Rückkopplungsschleifen

Ich möchte nun die 3 Stolperfallen abschließend an einem Beispiel demonstrieren. 2 Stolperfallen haben wir bereits besprochen, die Differenzierung der Faktoren in Bestand und Fluss sowie die Nettoflussraten. Diese werden wir in diesem finalen Beispiel noch einmal wiederholen und damit verinnerlichen. Die 3. Stolperfalle, die versteckten Rückkopplungsschleifen, möchte ich Ihnen hier initial nahe bringen.

Das Beispiel nehme ich aus meiner Kinderzeit, wo ich noch sehr häufig mit Cowboys und Indianern in Form von kleinen Hartgummifiguren gespielt habe. Im Rahmen dieser Spiele haben meine Freunde und ich uns auf die Seiten der Indianer respektive der Cowboys aufgeteilt und haben die Hartgummifiguren sich gegenseitig bekriegen lassen. Eines noch vorweg. Selbstverständlich möchte ich mit diesem Beispiel den Krieg oder das Töten nicht verherrlichen.

In der folgenden Abbildung habe ich das qualitative Modell ohne Unterscheidung von Bestands- und Flussfaktoren gemalt.

Interpretieren wir diese sich selbst verstärkende Rückkopplungsschleife. Starten wir mit den Indianern und verfolgen den Wirkungskreis im Uhrzeigersinn. Je mehr Indianer im Spiel sind, desto mehr Cowboys werden von Indianern getötet. Das führt dazu, dass es weniger Cowboys gibt, was wiederum dazu führt, dass weniger Indianer von Cowboys getötet werden, was entsprechend dazu führt, dass es mehr Indianer gibt, die dann wieder mehr Cowboys töten. Diesen Kreis kann man jetzt fortsetzen und erkennt sehr schnell, dass die Indianer zahlenmäßig zunehmen und die Cowboys abnehmen. Diese Argumentationskette könnte man auch spiegelbildlich darstellen, dass nämlich die Cowboys in der Anzahl zunehmen und die Indianer entsprechend abnehmen. Das ist das typische Verhalten von sich selbst verstärkenden Rückkopplungsschleifen, das exponentielle Wachstum, wobei das Schrumpfen als negatives Wachstum bezeichnet werden kann.

Aber macht das Sinn? Cowboys und Indianer töten sich gegenseitig und eine der beiden Seiten nimmt zahlenmäßig zu? Wir werden also die Stolperfalle 1 aufdecken und das Modell abändern, in dem wir eine Unterscheidung nach der Art der Faktoren machen. Die folgende Abbildung stellt das neue Modell dar.

Wir erkennen jetzt die Faktoren “Indianer” und “Cowboys” als Bestandsfaktoren, die jeweils von einem Flussfaktor geändert werden. Gehen wir nun wieder die Wirkungskette entlang und starten bei dem Bestandsfaktor “Indianer”. Wenn die Anzahl der Indianer steigt, dann steigt auch die Anzahl der Cowboys, die von Indianern getötet werden im Vergleich, als wenn sich die Anzahl der Indianer nicht verändert hätte. Das führt dazu, dass die Anzahl der Cowboys schneller abnimmt, relativ dazu wenn die Anzahl der getöteten Cowboys konstant geblieben wäre. Das bedeutet dann auch, dass die Anzahl der Indianer, die von Cowboys getötet wird, kleiner wird, wiederum relativ dazu das die Anzahl der Cowboys konstant bliebe. Das bedeutet dann, und das ist der Knackpunkt, dass die Indianer zahlenmäßig langsamer schrumpfen. Sie schrumpfen auf jeden Fall, aber eben nicht ganz so rasant. Damit ist also der Knoten gelöst. Sowohl die Indianer als auch die Cowboys schrumpfen zahlenmäßig, nur halt in unterschiedlicher Geschwindigkeit. Und die Geschwindigkeit des Schrumpfens nimmt von Runde zu Runde ab.

Damit haben wir nun auch die zweite Stolperfalle implizit aufgedeckt. An der Argumentationskette erkennen wir, das die Nettoraten beider Flussfaktoren “… werden von …getötet” niemals größer werden als Null. Damit können also auch die Bestände niemals ansteigen. Da wir die Faktoren des Modells nun in Bestands- und Flussfaktoren unterschieden haben, können wir simulieren. Das wollen wir also tun. Sie erkennen in der obigen Abbildung zwei weitere bislang noch nicht erwähnte Faktoren. Das sind so genannte Hilfsfaktoren, in diesem Fall Inputfaktoren, da sie von keinem Faktor des Modells beeinflusst werden. Sie müssen am Anfang der Simulation festgesetzt werden. Diese beiden Faktoren stellen die Modernität der Waffen der Indianer sowie der Cowboys dar. Die Faktoren liegen zwischen 0 und 1. Die Modernität der Waffen ist hoch nahe bei 1 und respektive gering nahe bei 0. Je moderner die Waffen, desto vergleichsweise mehr Gegner können getötet werden. Das folgende Ergebnis erhält man mit folgenden Parametern

  1. Grad der Moderne der Waffen der Cowboys = 0.6
  2. Grad der Moderne der Waffen der Indianer = 0.3
  3. Anfangsbestand der Cowboys = 50
  4. Anfangsbestand der Indianer = 80

Das Modell finden Sie hier. Wir erkennen, dass die Indianer als auch die Cowboys zahlenmäßig abnehmen, wie eben auch vermutet. Aber ab dem Zeitpunkt 5 beginnen die Cowboys zahlenmäßig anzuwachsen und die Indianer zu schrumpfen, und das exponentiell. Wie ist das zu erklären?

Ab dem Zeitpunkt 5 wird die Anzahl der Indianer negativ. Das kann ja nicht sein. Im Modell sind also essentielle Beziehungen noch nicht abgebildet, und zwar die, dass die Bestände der Indianer und Cowboys nicht negativ werden darf. Es existieren also versteckte Rückkopplungsschleifen. Stolperfalle 3 ist aufgedeckt.

Versteckte Rückkopplungsschleifen müssen sichtbar gemacht werden.

Die folgende Abbildung zeigt die beiden versteckten Rückkopplungsschleifen, die die Anzahl der Cowboys und der Indianer nach unten hin beschränken, und deshalb sich ausgleichende Rückkopplungsschleifen sind. Das ist mit einem “B” gekennzeichnet.

Dieses Modell ergibt das folgende Ergebnis, wenn man für die Simulation die obigen Parameter zu Grunde legt.

Fazit

Wenn man jetzt die initial getätigte Aussage, dass nämlich die Cowboys bzw. die Indianer exponentiell wachsen bzw. schrumpfen mit der obigen Abbildung vergleicht, erkennen wir wie fatal die Analyse von Problemsituationen sein kann, wenn die 3 in diesem Post aufgezeigten Stolperfallen der qualitativen Modellierung nicht aufgedeckt werden.

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Modellierung | Tagged , , | 2 Comments

Motivation der Mitarbeiter: Und quartalsweise grüßt das Murmeltier

In meinem Post Sollten Manager schizophren sein? habe ich bereits ausgeführt, warum börsennotierte Unternehmen, weil sie kurzfristige Gewinne erzielen müssen, auf die Motivation ihrer Mitarbeiter keinen Wert legen können. Natürlich würde das Niemand zugeben. Logisch.

Vor geraumer Zeit durfte ich wieder einmal einem Workshop beiwohnen, wo es genau um dieses Thema ging: Wie kann man die Motivation der Mitarbeiter steigern. Am Anfang wurde darauf eingegangen, dass motivierte Mitarbeiter einen gehörigen Beitrag zum Geschäftsergebnis beitragen. Man hat dort anhand einer linear-kausalen Wirkungskette argumentiert. Man kam zum Ergebnis, dass, je höher die Motivation der Mitarbeiter in einem Unternehmen ist, desto höher ist dann auch das Geschäftsergebnis. Jetzt musste man ja nur noch Maßnahmen definieren, die zur Steigerung der Motivation der Mitarbeiter beitragen. Das waren dann Themen wie Freiräume für Mitarbeiter schaffen, damit sie ihre Kreativität ausleben können, Schulungen anbieten, Erfolge feiern etc. Das Fazit fiel dann sinngemäß so aus, dass relativ leicht ersichtlich ist, dass alle definierten Maßnahmen relativ kostengünstig umzusetzen sind. Man sollte jetzt einfach loslegen. Es beginnt sowieso bei Jedem selbst. Man wollte sich verabschieden. Geiler Workshop. Geiles Ergebnis. Schöne geniale Welt. Als ich dann aber fragte, warum denn die Maßnahmen, die ja nun nicht neu sind und in fast jedem Workshop oder Seminar zu diesen oder ähnlichen Themen immer wieder auf’s Neue durchgekaut werden, nicht schon längst flächendeckend umgesetzt werden, war Stille im Raum.

Woran liegt es denn nun, dass in den meisten Unternehmen über Motivation der Mitarbeiter zwar immer wieder viel diskutiert wird, aber leider nie gehandelt wird? Eines vorweg. Wenn ich an Diskussionen über Motivation und Maßnahmen dafür teilnehme, erlebe ich meist eine mechanistische Sichtweise. Mitarbeiter werden wie Maschinen gesehen, wo man nur den richtigen “Knopf” finden muss. Drückt man diesen, erhöht sich die Motivation der Mitarbeiter. Des Weiteren stellen sich die Manager und Führungskräfte so dar, als wären sie quasi übermächtig und können direkten Einfluss auf die Motivation der Mitarbeiter nehmen. Dabei wird verkannt, dass nur indirekt auf die Motivation eines Menschen Einfluss genommen werden kann, in dem man die “richtige” Umgebung schafft, in der der Mensch sich entfalten kann. Die Motivation generiert jeder Mensch in sich.

Wo ist denn nun der Knackpunkt in der oben angesprochenen Argumentationskette des Workshops? Es ist die linear-kausale Wirkungskette Erhöhung der Motivation der Mitarbeiter -> Erhöhung des Geschäftsergebnis. Es fehlen in der Betrachtungsweise nämlich die Rückkopplungsschleifen, die aus einer linear-kausalen Wirkungskette einen nichtlinear-kausalen Wirkungskreis machen.

Die nichtlinear-kausalen Wirkbeziehungen der oben stehenden Abbildung möchte ich im Folgenden erläutern. Nur eines kurz vorweg. Ich habe in dem qualitativen Modell die Rückkopplungsschleifen eingezeichnet, die für das nichtlineare Verhalten verantwortlich zeichnen. Es handelt sich hierbei um 3 ausgleichende Schleifen (balancing loops), die blau gekennzeichnet sind, und um 2 sich verstärkende Schleifen (reinforcing loops), die rot gekennzeichnet sind. Die Auswirkungen jede dieser Schleifen separat betrachtet kann man vielleicht noch erahnen. Nur genau das macht ja die Komplexität aus, dass wir genau das nicht dürfen. Wir müssen die Auswirkungen aller Schleifen ganzheitlich betrachten. Ohne Hilfsmittel ist das nicht möglich. Auf der qualitativen Betrachtungsebene bietet der CONSIDEO MODELER dafür die Erkenntnismatrix an, die sie in der unteren Abbildung einsehen können. Zum Umgang mit der Erkenntnismatrix verweise ich gerne auf dieses E-Buch. Ohne die Vorteile der Erkenntnismatrix schmälern zu wollen, bietet sie auch, wenn man sich dessen nicht bewusst ist, einige Nachteile, die vor allem in der Unterscheidung zwischen Bestands- und Flussfaktoren begründet liegen. Diese Nachteile kann man beheben, wenn man qualitative Modelle quantifiziert. Auch dafür bietet der CONSIDEO MODELER Funktionalitäten an, die unter der Methode von System Dynamics ihre Heimat finden. Zu den Nachteilen der qualitativen Modellierung werde ich demnächst einen Post verfassen.

Kommen wir nun zur Analyse der Erkenntnismatrix. Das Geschäftsergebnis möchte ich mal als Gewinn deklarieren. Wie bekannt, ist Gewinn gleich Umsatz abzüglich der Kosten. Ein Unternehmen kann also seinen Gewinn steigern, in dem es entweder die Kosten senkt oder die Umsätze steigert oder Beides macht. Unternehmen, die an der Börse notiert sind, müssen quartalsweise Rechenschaft über ihre Ergebnisse ablegen. Das bedeutet, sie müssen kurzfristig denken und agieren. Kurzfristiges Steigern des Umsatzes? Das ist wohl kaum durchgängig möglich, da dem Unternehmen daraufhin in Gänze der Einfluss fehlt. Kurzfristiges und vor allem aus eigener Kraft angeschobenes Senken der Kosten? Das geht. Haben Sie vielleicht auch schon des Öfteren erlebt, wenn beispielsweise Schulungen oder Events abgesagt, Personalstellen gestrichen oder in Billiglohnländer verlegt werden. Auf welche Maßnahmen greift das Management eines Unternehmens zurück, um in Zeiten des erhöhten Drucks der Shareholder die Geschäftsergebnisse zu steigern? Genau, auf Kostensenkungsmassnahmen. Und damit sind alle Maßnahmen, die man definiert hat, um einen Rahmen zu schaffen, die motivierte Mitarbeiter gedeihen lassen, über den Jordan gekippt. Natürlich stimmt die Kausalität, dass motivierte Mitarbeiter zu einem höheren Geschäftsergebnis beitragen. Aber das ist eben keine Kurzfristsicht. Kurzfristig tragen geringere Kosten zu einem höheren Gewinn bei, das dann aber auf Kosten der Motivation der Mitarbeiter. Das ist das Werk der so genannten Sanierer. Sie zerstören die Motivation der Mitarbeiter, weshalb sie auch relativ oft nach der Sanierungsaktion einen anderen Posten übernehmen, da die Mitarbeiter, die während der Sanierungszeit das Unternehmen noch nicht verlassen haben, ihnen nicht mehr folgen werden. Zumindest das haben viele Unternehmenslenker erkannt. Auf Grund der fehlenden Motivation ist die Fluktuation aber gerade während und kurz nach Sanierungen von Unternehmen relativ hoch. Das Unternehmen muss neue Mitarbeiter einstellen. Der Druck der Shareholder ist erst einmal wieder geringer geworden, obwohl dieser nie ganz verstummt. Man beginnt wieder über die Wichtigkeit von Motivation von Mitarbeitern nachzudenken und die Bedeutung hervorzuheben. Wie gesagt, während der Sanierung ist davon keine Rede. Aber Sie können sich sicherlich vorstellen, was passiert. Richtig, das Spiel beginnt von Neuem. Und quartalsweise grüßt das Murmeltier. Der Druck der Shareholder wird wieder größer, da die Gewinnerwartungen nicht erfüllt werden. Da die Unternehmen dem Zinsstress unterliegen, kann das auch nie nachhaltig der Fall sein, sondern immer nur nach dedizierten Sanierungsaktionen. Also wird der nächste Sanierungsguru in diesen Posten gehoben. Und Startschuss. Bei den immer wieder kehrenden Sanierungen muss natürlich aufgepasst werden, dass der Bogen nicht überspannt wird, dass nämlich zu viel Wert auf Kostensenkung gelegt wird und das Unternehmen im wahrsten Sinne des Wortes “ausblutet”. Das Maximum des Kostensparens liegt nämlich im Nullpunkt. Wenn ein Unternehmen aber keine Kosten mehr generiert ist es tot.

Also beim nächsten Workshop über Mitarbeitermotivation sollte nicht diskutiert werden, welche Maßnahmen ergriffen werden sollen, um diese zu erhöhen, sondern was die Gründe sind, die eine Umsetzung dieser Maßnahmen verhindern. Die Gründe sind nämlich der Zinsstress der Finanzwirtschaft, dem die Unternehmen der Realwirtschaft unterlegen sind. Leider wollen das die Wenigsten hören. Börsennotierte Unternehmen können also systembedingt gar nicht anders als immer wieder Sanierungsperioden einzulegen. In diesen Phasen wird das Gerede über die Wichtigkeit von Mitarbeitern zur Heuchelei für Diejenigen, die die Wirkbeziehungen ganzheitlich verstehen und zum blinden Fleck für die, die dies nicht tun. Für die Mitarbeiter sind beide Varianten kein Trost.

1 Star2 Stars3 Stars4 Stars5 Stars (1 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Management und Leadership | Tagged , , , | 5 Comments

In der Schule verlernen Schüler das Denken

Problemlösen ist heute in den meisten Fällen nur noch das ungefilterte und unreflektierte Anwenden von vorgefertigten Lösungen. In diesen Fällen haben wir dann auch keine Chance, die tiefgreifenden Probleme unserer heutigen Zeit, wie die Finanzkrise oder die Umweltproblematik, zu lösen. Denn es sind neuartige Denkansätze notwendig, keine Best Practice, wie Albert Einstein so schön sagte.

Probleme kann man niemals mit derselben Denkweise lösen, durch die sie entstanden sind.

Aber warum sind wir Menschen in der Regel dazu nicht mehr in der Lage? Warum können wir nicht mehr denken? Aus meiner Sicht ist der Grund dafür in unserem Bildungssystem zu suchen. Wir haben das Denken in der Schule verlernt. In der Schule bekommen wir Menschen vermittelt, dass es nicht mehr notwendig ist, seinen eigenen Kopf zu benutzen, sondern dass es ausreicht den Kopf Anderer zu benutzen, in dem Wissen “gebimst” wird. Wissen, dass man im heutigen Internetzeitalter in Sekundenschnelle auch “googeln” kann.

Um es auf den Punkt zu bringen. In der Schule werden die Kinder trivialisert. Später wundern wir uns dann, wenn in der Mehrzahl nur noch unkreative Menschen ins Arbeitsleben eintreten, die nur noch Antworten liefern können, die die betreffenden Probleme trivialisieren. Schüler, die beispielsweise auf die Frage “Was ergibt 5*4” der Lehrerin/ des Lehrers mit “4*5” oder “eine gerade Zahl” antworten, bekommen mit Sicherheit nicht die volle Punktzahl zugesprochen. Die Schüler wissen, welche Antwort erwartet wird, nämlich “20”. Also sagen sie das auch. Ganz einfach. Trivialisierung beschreibt Heinz von Foerster in seinem Buch KybernEthik wie folgt.

Trivialisierung ist Amputation interner Zustände, Blockierung der Entwicklung unabhängigen Denkens und Belohnung von vorschriftsmäßigem, also voraussagbarem Verhalten.

Das oben genannte Beispiel kann man bezüglich des Lernverfahrens in den Schulen sehr gut verallgemeinern. Es wird stets genau ein Erwartungshorizont in Form einer Lösung formuliert. Diesen muss der Schüler treffen, um nicht durchzufallen. Es wird also genau ein bestimmtes Verhalten der Schüler zugelassen. Genau dieses Denkmuster schleppen wir dann unser restliches Leben mit uns herum und können es kaum mehr abwerfen. Wenn wir aber bedenken, dass es im Jetzt stets ganz viele mögliche Zukünfte gibt, die erst durch unser Agieren zu genau einer Zukunft werden, steht das natürlich konträr unseren Denkprozessen gegenüber. Wir sind gar nicht mehr in der Lage uns verschiedene Handlungsoptionen vorzustellen. Wir denken und handeln nur noch in dem Wahr-Falsch Schema.

Wenn ich also in meinem Post Entscheidungen: Mit System Dynamics dem BI Wirkkreis Leben einhauchen darauf eingehe, dass wir denken müssen, um gute Entscheider zu sein und in der Schule das Denken verlernt wird, ist einleuchtend, wo in Bezug auf gute Entscheider für die Zukunft angesetzt werden muss, in der Schule.

Ich möchte folgend meine Ideen und Gedanken zum Thema Bildung beschreiben. Diese erheben ob der Komplexität des Themas keinen Anspruch auf Vollständigkeit. Sie sollen aber einige Bausteine eines Fundamentes eines zukunftsweisenden Bildungssystems liefern. Ich möchte Sie gerne ermuntern, über die Möglichkeit der Kommentare dieses Fundament vervollständigen zu helfen.

Als erstes möchte ich auf theoretisches Wissen zurückgreifen, welches aus dem Fachgebiet des radikalen Konstruktivismus gewonnen wurde. Dabei gehe ich vor allem auf zwei Themen ein. Zum einen darauf, dass der Lernprozess ein zirkuläres geschlossenes Agieren ist und zum anderen darauf, dass die Validitätsprüfung des Erlernten stets durch Kommunikationsprozesse geschieht.

Kommen wir zum zirkulär geschlossenen Agieren. Aus der Lerntheorie von Jean Piaget wissen wir wie der Lernprozess eines Kind aussieht. Das Kind lernt beispielsweise einen Ball als Ball kennen, in dem es versucht den Gegenstand “Ball” unter Kontrolle zu bringen. Es entwickelt dabei eine spezifische sensomotorische Kompetenz, die benannt wird, sobald das Kind ein gewisses stabiles Verhalten in Bezug auf den Gegenstand “Ball” erworben hat. In unserem Fall bezeichnet es diese Kompetenz dann als “Ball”. “Ball” ist der Eigenwert der Folge von unterschiedlichen Einwirkungen auf den Gegenstand komplett unabhängig vom Startwert, sprich wie das Kind begonnen hat, diesen Ball für sich zu begreifen. Das Kind besitzt damit ein Endverhalten in Bezug auf den Ball, welches unabhängig von der initialen Ursache ist. Das bedeutet also, nicht der Reiz ist für das Verhalten des Kindes verantwortlich, sondern das Kind selber. Was lernen wir daraus für das Lernen in der Schule?

1. Das Lernen setzt das Interesse des Lernenden voraus. Es ist unmöglich, die Wahrnehmung und das Erkennen und somit das Lernen steuernd von außen zu beeinflussen.

Kommen wir zum Validieren des Erlernten. Das Kind verifiziert, ob sein Eigenverhalten “richtig” ist, sprich ob das Ergebnis seiner Lernprozesse in sein Leben passt (viabel ist), in dem es abprüft, ob sich seine Modelle, die es sich durch das Lernen von Dingen, Verhältnissen und Vorgängen in der Erlebenswelt aufgebaut hat, in sprachlichen Interaktionen mit Anderen bewähren. Ist dies der Fall, bewirkt das eine Bestätigung und damit eine Verstärkung des Erlernten. Hat das Kind beispielsweise einen Ball in der Hand und benennt diesen mit Auto, wird es wahrscheinlich von seinen Eltern ein negatives Feedback bekommen. Mit der Zeit lernt das Kind, das ein Ball rund ist, das ein Auto beispielsweise 4 Räder hat und so weiter und so fort. Was lernen wir daraus für das Lernen in der Schule?

2. Der Lehrer darf nicht als Außenstehender des Lernprozesses, sondern als Teilnehmer gesehen werden. Kommunikative Prozesse zwischen allen Lernbeteiligten, Lehrer und Schüler, gewinnen enorm an Bedeutung.

Die beiden eben getroffenen Schlussfolgerungen möchte ich nun an 6 von mir beobachteten Paradigmen unseres Bildungssystems spiegeln, die aus meiner Sicht schnellstens überdacht werden müssen.

A. Durch Benotung kann Motivation und Pflichtbewusstsein für das Lernen vermittelt werden.

Kinder werden spätestens ab der dritten Klasse benotet. Kinder lernen in der Kita beispielsweise noch mit absoluter Freude. Sie probieren aus, lernen Laufen und Sprechen, all dies ohne Benotung. Kinder müssen in der Kita nicht explizit inspiriert werden zu Lernen. Sie tun es einfach. Sie müssen nicht durch Regeln und auferlegten Pflichten gezwungen werden. Sie lernen aus Enthusiasmus heraus. Warum glauben wir, dass Kinder ab einem gewissen Alter benotet werden müssen? Um sie zu motivieren?

Müssen Sie beispielsweise aufgefordert werden, Ihrem Hobby nachzukommen, quasi pflichtbewusst ihrem Hobby gegenüber zu sein. Hört sich komisch an, oder? Pflichtbewusstsein und Hobby passen nicht zusammen. Und zwar deshalb nicht, weil Sie ihrem Hobby mit Freude nachkommen. Sie verspüren keine Pflicht, machen es trotzdem. In der Schule wird auf Pflichtbewusstsein großen Wert gelegt und immer wieder darauf hingewiesen. Also geht man wohl schon davon aus, dass Schüler in der Regel keine Freude haben am Lernen können. Dabei sagen doch die neuesten Erkenntnisse aus der Neurologie, dass Lernen nur in Zusammenhang mit Freude am besten geht, da das Gehirn nur dann Botenstoffe aussendet, die das Schaffen neuer Verbindungen zwischen Neuronen begünstigen. Und das muss beim Lernen passieren.

B. Wettbewerb ist notwendig, um auf das Leben vorbereitet zu werden.

Vor ca. 2500 Jahren setzten die Philosophen Demokrit und Leukipp die Auffassung in die Welt, dass die Menschen nur eine Anhäufung von Atomen sind und das man alles aus der Wechselwirkung der Atome untereinander erklären kann. Das ist der Anfang der rein materialistischen Sicht auf die Welt. Dieses Denkschema hatte ihre Blütezeit in der Industrialisierung. Diesen Ideen hängen wir in der Bildung heute immer noch an: Messen, Objektivierung, Mechanisierung etc.

Wir können uns der Stärke, etwas objektivieren zu können, kaum entziehen. Basis für den Wettbewerb in der Bildung sind Zensuren und Beurteilungen. Kinder müssen vergleichbar sein. Man benötigt für die Vergleichbarkeit eine Entscheidungsgrundlage, mit der man später sehr gut Verantwortung dafür abgeben kann. Wenn also ein Kind doch schlechter oder besser ist als erwartet, ist das Messverfahren der Zensuren und Beurteilungen schuld. Geht ja gar nicht anders. Kinder werden wie Maschinen behandelt. Man muss stets besser sein als der Andere. Und dann wundern wir uns, wenn die Kinder in späteren Jahren nicht selbständig denken können, nicht kreativ oder nicht teamfähig sind. Kooperation wird zwar oft gelobhudelt, aber gehandelt wird nicht danach. Es geht stets nur um größer, schneller, weiter, besser. Denn darauf kommt es doch im Leben an. Oder? Wo uns das hinführt, nehmen wir hoffentlich alle derzeit wahr. Heute Morgen erst habe im TV wieder einmal die Ausschreitungen in Griechenland mit Erschrecken gesehen.

Ich muss nicht wissen wie gut mein Kind ist. Ich muss nur wissen, ob mein Kind glücklich ist. Kinder werden in jungen Jahren schon Stress ausgesetzt. In der zweiten Klasse haben Sie durchschnittlich 5 Unterrichtsstunden pro Tag. Sie bekommen Hausaufgaben ohne Ende auf. Derzeit hören wir in den Medien einige Debatten über Burnout. Kinder werden doch bereits in ganz jungen Jahren darauf vorbereitet, stets auf Hochtouren laufen zu müssen. Kinder haben doch aber das gute Recht darauf, einfach mal keine Lust auf etwas zu haben. Oder? Warum denn auch nicht? Bitte nicht damit verwechseln, dass ich Kinder in Watte gepackt sehen möchte. Sie benötigen aber Freiraum, um einen Sinn in den Aufgaben zu erkennen und deshalb Lust und kein Frust beim Lernen verspüren.

Bildung ist kein Nullsummenspiel, bei dem der Gewinn eines Spielers vollständig durch die seitens des anderen Spielers erlittenen Verlustes kompensiert wird. Sport ist beispielsweise solch ein Nullsummenspiel. Es gibt Gewinner und Verlierer. In der Bildung gibt es aber kein Entweder-Oder, sonder ein Sowohl-als-Auch. In der Bildung können auch Alle verlieren, oder eben Alle gewinnen. Derzeit sieht es nach ersterem aus.

C. Unser Gehirn ist vergleichbar mit dem Speicher eines Computers.

Schule darf nicht nur reine Wissensvermittlung sein. Schule soll Kinder und Jugendliche auf das Leben vorbereiten. Wissen hat eine immer kürzere Halbwertszeit. Allgemeinwissen vermitteln reicht meines Erachtens aus. Kein Auswendig lernen. Kinder und Jugendliche müssen also lernen WIE man sich Wissen aneignet, dieses in der Praxis einsetzt und ständig auf Aktualität überprüft.

In der Schule werden Kinder  und Jugendliche richtig darauf hin getrimmt, nur das wahrzunehmen, was in unser Denkschema passt. Dazu möchte ich Ihnen ein Beispiel nennen. Vor geraumer Zeit habe ich meinen Sohn mit dem Auto in die Kita gefahren. An einer Ampelkreuzung wartend, machte er mich darauf aufmerksam, dass im Auto auf der Gegenfahrbahn ein Bekannter von uns sitzt. Im festen Glauben, dass der Bekannte auf Dienstreise ist und er deshalb nicht hier sein kann, verneinte ich seine Vermutung. Im nachhinein stellte sich heraus, dass mein Sohn Recht hatte. Ich sah zwar auch das Auto und den Insassen, habe aber zu unaufmerksam beobachtet und wahrgenommen. Das ist ein Beispiel, wie wir mit der Zeit das verlieren, was Kinder noch beherrschen, das sensible und Beobachten und Wahrnehmen. Wir machen es getreu dem Motto: “Was nicht sein darf, kann nicht sein”. Wo lernen wir das? Richtig, in der Schule.

D. Man muss ein generalistischer Spezialist sein, um sein Leben zu meistern.

In der Schule werden die Kinder generalistisch zu Spezialisten erzogen. Sie müssen in vielen Fächern Spezialisten sein. Das geht in der Regel weit über die Allgemeinbildung hinaus. Reicht es nicht aus im Mathematikunterricht allgemeinbildend bis zur Prozent- und Zinseszinsrechnung zu lehren und zu lernen? Wieviel mussten Sie in ihrem Leben nach der Schule aus dem Bereich der Mathematik anwenden? Benötigen Sie die Differential- oder Intergralrechnung noch? Sicherlich nicht. Es sei denn, Sie haben sich beruflich für einen Weg entschieden, in dem dieses Wissen notwendig ist. Dann lernen Sie das aber auch später im Rahmen des Berufes oder Studiums viel schneller und effektiver. Denn Sie haben sich dann bewusst für diesen Weg entschieden und sind mit Freude und Enthusiasmus dabei. Sie erkennen den Sinn.

Mit der Konzentration auf das generalistische Spezialistentum wird der Level für Allgemeinbildung viel zu hoch angesetzt. Resultat ist, dass einfache Themen nicht mehr gekonnt werden, die aber für das Leben wichtig sind. In der heutigen Wirtschaft und Wissenschaft existieren zu viele Spezialisten, die in ihrer eigenen Welt leben und übergreifend nicht mehr in der Lage sind zu kommunizieren. Spezialisten verschiedener Fachgebiete verstehen sich einfach nicht. Die Lösung der Probleme unserer heutigen Zeit bedürfen aber Vernetzung von unterschiedlichen Fachbereichen.

E. Kinder müssen durch Disziplin und straffe Regeln lernen, Verantwortung zu übernehmen.

Schule muss Sinn vermitteln, etwas zu lernen. Das tut sie derzeit nicht. Nur wenn Menschen den Sinn einer Sache kennen, sind sie mit Eifer und Leidenschaft dabei. Beispiele sehen wir bei kleinen Kindern, wenn sie laufen oder sprechen lernen. Aber das hatten wir ja schon. Die Schule kennt statt Sinnvermittlung, das Aufstellen von starren Regularien und Strukturen. Alles geht über Druck und Angst, nach dem Motto, wenn ihr das nicht könnt, habt ihr später auch Schwierigkeiten einen Beruf zu finden.  Wurden Kinder in der Kita beim Erlernen von Laufen und Sprechen auch diesem Druck ausgesetzt? Natürlich nicht. Aber warum hat man es dort nicht als angebracht gesehen und  in der Schule auf einmal als notwendig? Mit Druck geht die Freude am Lernen verloren. Voraussetzungen des Lernens und Verstehens sind Faszination, Neugierde, Enthusiasmus.

Aus der Systemtheorie kennen wir den Effekt der Selbstorgansiation. Ein Beispiel, welches sich in der Praxis sehr oft bewährt hat sind die Kreisverkehre im Straßenverkehr. Überall dort wo statt Ampeln Kreisverkehre geschaffen wurden, ist der Autostrom fließender mit weniger Staus geworden. Mit den Kreisverkehren werden straffe Regeln gebrochen und die Verantwortung in die Hände der Autofahrer gelegt. Überall dort wo Menschen in Gemeinschaften zusammenleben, werden natürlich Regeln benötigt. Aber diese sollten so weit gefasst sein, dass Menschen sich trotzdem frei und kreativ bewegen können. Das heutige Bildungssystem bietet diese Feiheit nicht.

Wenn Kinder in der Schule so auf das Leben vorbereitet werden, muss man ja davon ausgehen, dass das Leben “dreckig und gemein” ist und wir Menschen grundsätzlich nicht in der Lage sind dieses zu meistern. Ich höre sehr oft Sätze wie: “Das Leben ist kein Ponyhof.” Aber warum eigentlich nicht? Warum darf das Leben kein Ponyhof sein? Leben wir 80 Jahre, um uns größtenteils Stress aussetzen zu wollen? Warum darf das Leben kein Spaß machen? Warum darf Lernen kein Spaß machen? Wir sollten nicht vergessen, das Leben in der Gesellschaft, wie es heute existiert, haben wir geschaffen, wir ganz alleine.

Natürlich darf Lernen Spaß machen, werden Vielleicht Einige jetzt sagen. Nur, warum verhindern wir genau das? Wie gesagt, Kinder haben in der Kita noch Spaß am Lernen. Und dann kommt die Schule. Kinder können und dürfen nicht ausprobieren. Sie werden in ein starres Schema gedrückt und sollen sich dann nach dem Schulabschluss für einen Beruf entscheiden. Wenn Sie dann öfter wechseln, egal ob die Ausbildung, den Beruf oder die Studienrichtung, bekommen Sie oft zu hören, dass sie sich nun endlich einmal durchbeißen müssen, dass sie endlich mal Verantwortung für ihr Leben übernehmen müssen. Sie passen dann nicht mehr in dieses starre Schema und werden “verstoßen”.

F. Es gab bereits Versuche, neue Ideen im Bildungssystem umzusetzen. Alle sind gescheitert.

Das wird mir oft entgegnet, wenn ich in Diskussionen meinen Standpunkt vertrete. Das Scheitern ist doch aber auch logisch, wenn die Kinder danach wieder in das alte kranke, von den oben angesprochenen Paradigmen, wie Wettbewerb und Mechanismus, entlassen werden.

Des Weiteren bekomme ich in Diskussionen oft zu hören, dass unsere Schüler “Drünnbrettbohrer” wären, die nicht verantwortungsvoll und nicht pflichtbewusst wären und zu Nichts Lust hätten, was mit Schule zu tun hat. Deshalb müsse man die “Zügel” anziehen. In dieser Argumentationskette erkennt man das linear-kausale Denkschema, dem wir Menschen sehr oft erlegen sind: eine Wirkung hat eine Ursache. Denn was wird hier missachtet? Die Kinder sind in diesem System groß geworden und sind jetzt so wie sie sind. Wendet man nämlich das nichtlinear-kausale Denkschema an, erkennt man, dass die Wirkung wiederum Ursache wird. Wir haben es hier mit dem Archetyp der Eskalation zu tun: … -> Schüler sind nicht pflichtbewusst -> Regeln und Druck werden verschärft -> Schüler werden noch weniger pflichtbewusst, da sie sich nicht ernst genommen fühlen -> Regeln und Druck werden weiter verschärft -> … Eskalation heißt der Archetyp deshalb, weil das Problem exponentiell wächst. Jetzt wissen wir aber das kein System unbegrenzt wachsen kann, da es durch seine Umwelt begrenzt wird. Es gibt also eine Grenze des Problemwachstums, die auf zwei Arten erreicht werden kann, entweder in dem man bewusst dagegen steuert oder in dem das System aus sich heraus kollabiert. Ich würde doch lieber die erste Methode bevorzugen, obwohl wir leider bereits Anfänge der zweiten Art wahrnehmen, wenn wir uns die Ausschreitungen in Großbritannien, Griechenland, Spanien oder in Nordamerika anschauen.

Unser Bildungssystem kann man mit einem Schnellzug vergleichen. Wir müssen diesen Schnellzug nicht nur lenken, sondern neu konzipieren. Die Schwierigkeit besteht nur darin, dass dies während der Fahrt geschehen muss. Die Mauer naht.

1 Star2 Stars3 Stars4 Stars5 Stars (5 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Denken, Wissen | Tagged , , , , , , | 5 Comments

Entscheidungen: Mit System Dynamics dem BI Wirkkreis Leben einhauchen

Ich habe in meinem Post Der Business Intelligence Wirkkreis den BI Wirkkreis vorgestellt. Um diesen Rahmen rankt sich das Agieren in einem Unternehmen. Die dort aufgeführten Fragen müssen regelmäßig beantwortet werden und die visionär-strategische Ebene muss in periodischen Abständen validiert werden. Dafür müssen Entscheidungen getroffen werden. Darum geht es in diesem Post, um Entscheidungsprozesse. Ich möchte “Entscheiden an sich” näher beleuchten, möchte den Begriff definieren, die Bedeutung und die Schwierigkeiten herausarbeiten und System Dynamics als Kommunikationsmittel für Entscheidungsprozesse in Unternehmen begründen.

Blogparade Thesen zur naechsten Gesellschaft

Bevor ich aber loslege möchte ich auf eine Konferenz hinweisen. x mess heißt diese Konferenz zur [nächsten] Gesellschaft und findet vom 17. bis 19. November 2011 in Berlin statt. Die Veranstaltung des mz-x widmet sich 3 Tage dem Fragenkomplex: Wie müssen Organisationen (heute) im Kontext einer nächsten – vom Computer geprägten Gesellschaft – gedacht, entworfen, beraten und letztendlich auch gemanagt und geführt werden? Im Vorfeld dieser Konferenz gibt es eine Blogparade, die aktuelle Überlegungen zum oben aufgeführten Fragenkomplex aufgreifen soll. An dieser nehme ich mit diesem Post teil.

Also los geht’s. Auf eine eifrige Diskussion.

Was verstehen wir unter Entscheiden in Unternehmen?

Entscheiden bedeutet, Daten zu sammeln, diese in Informationen umzuwandeln und dann daraus Handlungsanweisungen zu definieren, die Basis für Aktionen in Unternehmen sind. Der Erfolg ist also abhängig davon, wie schnell und welche Daten ausgewählt werden. Des Weiteren ist Wissen und Erfahrung des Entscheiders notwendig, diese Daten in Information umzuwandeln, wobei angemerkt werden muss, dass Wissen und Erfahrung auch entscheidend sind, die richtigen Daten zu selektieren. Diese Information ist dann Grundlage für Handlungsanweisungen des Entscheiders. Das weltweite Datenvolumen wächst exponentiell. Die alltägliche Datenflut resultiert aus den operativen Systemen des Unternehmens oder den neuen Online-Quellen (Foren, Blogs, Twitter, Podcasts). Das macht das “richtige” Selektieren von Daten durch die Entscheider natürlich nicht einfacher, ganz im Gegenteil.

Welche typischen Entscheidungsmuster existieren?

Sehr häufig beobachte ich das Phänomen, dass Entscheidungen durch Manager und Führungskräfte, aber auch generell von Mitarbeitern, aufgeschoben werden. In der Regel wird das damit begründet, dass noch mehr Daten benötigt werden. Dieses Verhalten birgt aber Gefahren für die Handlungsfähigkeit des Unternehmens. Wir werden niemals die Situation erreichen können, alle Daten, die für eine Entscheidung notwendig sind, zu besitzen. Auf der einen Seite ist das rein ökonomisch nicht möglich. Auf der anderen Seite könnten wir die Frage nach Vollständigkeit niemals beantworten. Des Weiteren können wir gar nicht nicht entscheiden. Auch wenn wir nicht zu entscheiden glauben, entscheiden wir, dann allerdings mit weit mehr negativen Implikationen, da keine bewussten Handlungen definiert werden.

An dem zirkulären nichtlinearen Entscheidungsprozess der neben stehenden Abbildung erkennen wir den oben beschriebenen Ablauf von Entscheidungsprozessen. Durch das Ausführen von Aktionen werden Daten gewonnen und müssen selektiert werden und in Information umgewandelt werden, um daraus Handlungsanweisungen zu generieren, die dann wieder in Aktionen münden, die dann wiederum zu Daten führen… Es ist einleuchtend, dass für jeden Schritt des Entscheidungsprozesses eine gewisse Zeit benötigt wird. Die wohl größten Herausforderungen, mit denen Entscheider umgehen müssen, sind zum einen die Nichtlinearität, die aus der Feedbackschleife von Aktion zu Daten entsteht und die eben angesprochenen Verzögerungen. Das ist auch der entscheidende Grund, warum System Dynamics als Kommunikationsmedium für Entscheidungen so gut geeignet ist. Dazu komme ich aber noch. Erst einmal möchte ich auf die beiden Komplexitätstreiber eingehen.

Was macht Entscheiden so komplex?

Die immer größer werdende Vernetzung unserer Gesellschaft, lässt auch die Wirtschaftswelt nicht unbetroffen. Die beiden prägnanten Phänomene Nichtlinearität und Verzögerung möchte ich an praxisnahen Beispielen erklären und veranschaulichen. Starten wir mit der Nichtlinearität.

Stellen Sie sich vor, Sie könnten ein Blatt Papier 48 mal falten. Was denken Sie, wie hoch der Papierstapel wäre? Das Ergebnis hat mich verblüfft und ich hätte es ohne Berechnung nicht erahnen können. Das ich ein Blatt Papier 48 mal falte, kann ich mir noch rein theoretisch vorstellen. Das ich dann aber einen Stapel erzeuge, der 28 Mio. km hoch ist, entzieht sich meiner Vorstellungskraft. Jetzt stellen Sie sich vor, mehrere nichtlineare Ursache-Wirkungsbeziehungen dieser Art sind in einer Problemlage, wie die derzeitige Gesellschaftskrise, die durch den Zinseszins erzeugt wird, enthalten. Ist es da noch verwunderlich, dass die wahren tiefliegenden Ursachen nicht erkannt werden, sondern nur Symptombekämpfung stattfindet, wie es die derzeitige Diskussion über den EU-Rettungsschirm für Banken wieder einmal zeigt? Ich habe die oben besprochene Fragestellung des Papier Stapelns mit dem CONSIDEO MODELER modelliert.

Ein weiteres Beispiel möchte ich nicht unerwähnt lassen, da es uns spätestens dann betrifft, wenn wir ein Haus bauen oder kaufen möchten und dieses finanzieren müssen. Stellen Sie sich vor Sie müssen eine Kreditsumme von 180.000 Euro aufnehmen und bekommen dafür einen Zinssatz p.a. von 4,6%. Wenn Sie jetzt monatlich 800 Euro einzahlen, benötigen Sie 42!! Jahre, um die Kreditsumme komplett zu tilgen. Dabei haben Sie nach 30 Jahren erst die Hälfte!! getilgt und ihre Gesamtkosten belaufen sich auf 403.000 Euro!!. Sie haben also für ihr Haus mehr als den doppelten realen Wert!! bezahlt. Das ist der Zinseszinseffekt, der unsere Gesellschaft in eine Krise stürzt. Die Effekte bzgl. der Hausfinanzierung können Sie in diesem CONSIDEO Modell simulieren.

Kommen wir zum zweiten Phänomen, den Verzögerungen. Verzögerungen erzeugen den so genannten Bullwhipeffekt, ein Aufschaukeln des Systems. Dieses Aufschaukeln kommt zu Stande, weil zu spät auf Einflüsse der Umwelt reagiert und dies deshalb zu stark erfolgt. Ich habe in meinem Post Mit System Dynamics Dynamiken und Verzögerungen von Handlungen verstehen das Beispiel des Einstellens der Wassertemperatur beim Duschen angeführt. Ich möchte ein weiteres anmerken. Stellen Sie sich vor, Sie sind Führer eines PKWs und fahren mit verbundenen Augen. Sie haben 3 Insassen, die sich wie in einer Kette aufgezogen, die Nachricht übermitteln, wohin sie lenken sollen. Das kann wie folgt ablaufen. Der Insasse hinten links beobachtet, wo sie lang fahren und übermittelt die Steuerinformationen an seinen Nachbarn hinten rechts, dieser gibt diese Nachrcht an Ihren Beifahrer vorne, der Ihnen diese dann mitteilt. Das “Stille Post” Phänomen wollen wir hier mal ausschließen. Sie als Fahrer bekommen also genau die Information von Ihrem Beifahrer übermittelt, die der Insasse hinten links initial abgesetzt hat, aber eben verzögert. Man kann sich relativ leicht vorstellen was ein externer Beobachter bzgl. ihrer Fahrspur wahrnehmen würde. Eine Wellenlinie von links nach rechts nach links usw. bis sie irgendwann ein Gespür für die Verzögerungen entwickelt haben und die Wellenlinien immer kleiner werden bis Sie vielleicht irgendwann eine gerade Fahrspur relativ zur Straßenführung erreicht haben. Sie befinden sich dann im Fließgleichgewicht. Diese Wellenlinie kann man auch bei einer Supply Chain mit mehreren Beteiligten beobachten: Kunden, Einzelhandel, Großhandel, Lieferant und Fabrik. Je mehr Beteiltigte existieren, desto größer ist der Bullwhipeffekt. Es versteht sich von selbst, dass ich Sie nicht ermutigen möchte, den Bullwhipeffekt durch das Führen eines PKW mit verbundenen Augen praktisch nachzuvollziehen.

Die Schwierigkeit beim Umgang mit Verzögerungen besteht also darin, dass die Auswirkungen einer getätigten Handlung erst später ersichtlich sind. In der Regel kennt man die Verzögerung nicht. Das bedeutet, die Fragestellung, auf die Auswirkungen zu warten oder bereits Gegenmaßnahmen zu entwickeln, sind schwierig zu beantworten.

Den Herausforderungen des Entscheidens kann man nicht aus dem Wege gehen, in dem man nicht mehr entscheidet. Denn nur in einem “toten Unternehmen” muss nicht mehr entschieden werden und wird es auch nicht mehr getan. Auch keine Entscheidung ist eine Entscheidung, meist ist diese dann schlechter, als wenn man bewusst entschieden hätte. Aber das hatten wir ja schon. Entscheiden heißt stets das Antizipieren des zukünftigen Geschehens. Es besteht also immer ein Risiko, das das Ergebnis des Antizipierens nicht mit dem real wahr genommenen Resultat übereinstimmt, da es zum Zeitpunkt des Entscheidens immer viele mögliche Zukünfte gibt, die erst mit den Aktionen zu genau einer Zukunft werden, die dann die Gegenwart des neuen Entscheidungsprozesses wird. Das Muster des Aussitzens von Entscheidungen haben wir oben bereits besprochen. Die wahr genommene Komplexität des Entscheidens führt dazu, dass sich Manager auf implizite Entscheidungen zurückziehen, die eigentlich nicht entschieden werden müssen, sondern die sich aus der Situation von ganz alleine ergeben. Dazu möchte ich ein Zitat des Kybernetikers Heinz von Foerster anführen.

Nur die Fragen, die prinzipiell unentscheidbar sind, können wir entscheiden.

Für diese Entscheidungen, benötigen wir aber keine Menschen. Es ist also wichtig zwischen offenen und impliziten Entscheidungen zu differenzieren. Offene Entscheidungen sind bewusste freie menschliche Entscheidungen (Auf die philosophische Diskussion von Freiheit im Handeln möchte ich in diesem Post nicht tiefer eingehen), die bei prinzipiell unentscheidbaren Fragestellungen, um mit von Foersters Worten zu sprechen, anzuwenden sind. Implizite Entscheidungen sind systembedingt unaufhaltsam und geschehen definitiv. Ein Beispiel für eine offene Entscheidung durch das Management eines Unternehmens ist das Bestellen von Material oder das Einstellen von Mitarbeitern, um letztendlich die Produktionsrate zu steuern. Hier ist also das Bestimmen der Produktionsrate eine implizite Entscheidung, da sie systembedingt ist. Die Grenze zwischen offenen und impliziten Entscheidung ist sehr oft schwammig. Diese Grenze muss aber bei der Betrachtung von Situationen beachtet werden, da sie klar herausstellt, wo eingegriffen werden kann und welche Ergebnisse systemimmanent sind. Man könnte sich genauso gut vorstellen, dass das Einstellen von Mitarbeitern eine implizite Entscheidung ist, die von anderen Faktoren abhängt, wie beispielsweise der Reputation des Unternehmens. Man muss also beim Entscheiden stets zwischen Anliegen und Tatsachen unterscheiden. Offene Entscheidungen birgen ein Dilemma für Führungskräfte, da sie zum Zeitpunkt des Treffens dieser kein “richtig” oder “falsch” kennen. Das stellt sich erst später mit den Ergebnissen der daraus abgeleiteten Aktionen heraus.

Wir kennen nun die Komplexitätstreiber im Rahmen von Entscheidungen. Manager benötigen eine Methode, um diese Komplexitätstreiber zu handhaben. Meiner Meinung nach ist System Dynamics hervorragend dafür geeignet. Das erkläre ich folgend.

Wie kann System Dynamics beim Entscheiden unterstützen?

In meinem Rucksack finden Sie unter Systemtheorie und Modellierung Grundlagen zur qualitativen und quantiativen Modellierung, speziell System Dynamics. In diesem Post möchte ich System Dynamics speziell für Entscheidungsprozesse in Unternehmen beleuchten.

In der obigen Abbildung erkennen Sie grundsätzlich die verschiedenen Faktoren einer System Dynamics Modellierung: Bestandsfaktoren, Flussfaktoren und Hilfsfaktoren. Die Bestandsfaktoren “Zustand …” zeigen die jeweilige Güte eines Systems. In der Vergangenheit haben mich sehr viele Fragen erreicht, die stets darauf abzielten wie und woher man erkennt, welche Faktoren Bestandsfaktoren sind. Ich antworte dann immer wieder, dass dies abhängig von dem Zweck der Modellierung ist. Das möchte ich am Beispiel Fußball erklären. Stellen Sie sich vor, sie sind Manager eines Bundesligavereins und möchten ihre Entscheidungen mit System Dynamics modellieren und simulieren. Nehmen wir einmal an, sie fokussieren sich auf die derzeitige Saison und setzen alles daran Meister zu werden. Ein möglicher Bestandsfaktor könnte dann die Punktzahl sein, da diese sich von Spiel zu Spiel akkumuliert. In der nächsten Saison allerdings muss dieser Bestandsfaktor wieder auf Null gesetzt werden, da die erreichten Punkte ja nicht mit in die neue Saison übernommen werden können. Es exisitieren aber Faktoren, die wichtig für den Erfolg sind, und die mit in eine neue Saison übernommen werden. Das sind zum Beispiel Teammoral oder Erfolgshunger. Vernachlässigen Sie diese Faktoren in ihrer Modellierung erkennen sie nicht, dass sich beispielsweise der Gewinn einer Meisterschaft negativ auf den Erfolgshunger einer Mannschaft in der neuen Saison auswirken kann. Es klingt paradox. Aber manchmal ist es für die langfristige Entwicklung einer Mannschaft schädlich, unerwartet und überraschend Meister zu werden. Nehmen Sie das Beispiel Wolfsburg. Wenn Sie also als Manager einer Fußballmannschaft den langfristigen Erfolg im Auge haben, müssen Sie die Kurzfristsicht (Meister in dieser Saison werden) stets mit der Mittel- und Langfristsicht (Moral, Ehrgeiz, Zusammenhalt) in Einklang bringen. Für diese Mittel- und Langfristsicht wären dann also auch die 3 in Klammern angesprochenen Faktoren Bestandsfaktoren, die im Modell berücksichtigt werden müssen.

Bestandsfaktoren speichern stets die Historie eines Systems. Sie lassen sich deshalb nur über einen Zeitverlauf ändern. Beispielsweise können Sie nicht von jetzt auf gleich eine Wanne mit Wasser füllen oder Sie werden es nicht von jetzt auf gleich schaffen ihre Mitarbeiter zu motivieren. Dafür benötigen Sie Zeit, die eingeplant werden muss.

Ich habe ein Plansimulationsspiel in Bezug auf Fußball erstellt, in welchem Entscheidungen im Hinblick auf den Erfolg einer Mannschaft simuliert werden können. Dieses können Sie im Consideo Shop käuflich erwerben. Detaillierte Informationen finden Sie hier.

Ich modelliere stets für jeden Bestandsfaktor ein separates Submodell, wie in der obigen Abbildung auch dargestellt. Des Weiteren stellen die Flussfaktoren die jeweiligen Handlungsanweisungen und Aktionen dar. Nur aus diesen ergeben sich neue Zustände eines Systems, sprich die Bestandsfaktoren ändern sich. Beeinflusst werden die Handlungsanweisungen durch die Daten, die zu Informationen transformiert werden müssen. Aus diesem Blickwinkel betrachtet, sieht es noch ein wenig mechanistisch aus. Deshalb möchte ich in den wichtigsten Part der Modellierung hineinzoomen, nämlich in den Akt der Handlungsanweisung. In der nächsten Abbildung erkennen Sie genau ein Submodell, in dem es grundsätzlich darum geht, ein bestimmtes Zustandselement (Bestandsfaktor “Zustand 4”, beispielsweise Moral) zu verändern.

Ich möchte auf den Flussfaktor “Handlungsanweisung” zu sprechen kommen. Mithilfe von Flussfaktoren lassen sich grundsätzlich die Verfahrensweisen von Entscheidungen abbilden, sprich wie Daten zu Informationen und schließlich zu Aktionen ungewandelt werden. An dieser Stelle muss also in Betracht gezogen werden, dass es Menschen sind, die Entscheidungen treffen und dass diese Menschen dabei klar definierte Regeln befolgen, die aber ohne Modellierung nicht offen gelegt werden. In diesem Entscheidungsprozess, der in der obigen Abbildung blau eingerahmt ist, spielt das Ziel, der gewünschte Zustand, sowie der momentan aktuelle Zustand des Bestandsfaktors eine Rolle. Ausgehend von der Differenz der beiden letzt Genannten wird dann eine Handlungsanweisung definiert. In Form von mathematische Anweisungen, Formeln oder Tabellenbeziehungen, zu den Flussfaktoren lassen sich dann die Verfahrensanweisungen definieren, die letztendlich zu Entscheidungen führen. Die Faktoren “aktueller Zustand”, “gwünschter Zustand” und “Korrektur” sind so genannte Hilfsfaktoren und gehören strukturell zu den Flussfaktoren, da sie den Input für diese liefern. Für die Berechnung von Entscheidungen in Form der Flussfaktoren ist es unerlässlich, Daten zu haben. Diese Daten speisen sich stets aus den Bestandsfaktoren, sprich aus den derzeitigen Zuständen des Systems. Das erkennen Sie in der obigen Abbildung an den Inputs in den Faktor “aktueller Zustand”. Beispiele für Verfahrensweisen, die in den Formeln von Flussfaktoren hinterlegt werden, sind

  • Ab welchem aktuellen Lagerbestand unter Zuhilfenahme der Information des durchschnittlichen Verkaufs eines Produktes muss ein Einzelhändler Produkte vom Großhändler bestellen und wieviel?
  • Wieviel Mitarbeiter müssen in einem bestimmten Monat eingestellt werden, um eine vorher definierte Zielauslastung zu erreichen? Dabei können die derzeit laufenden Projekte und die anstehenden Projekte in der nahen Zukunft mit in Betracht gezogen werden.

Sehr oft habe ich die Kritik bzgl. des Modellierens gehört, dass Verfahrensweisen für Handlungsentscheidungen nicht in mathematische Formeln gepackt werden können und deshalb das Modellieren keinen Mehrwert besitzt. Dem muss ich dann immer entgegnen, dass egal ob man explizit ein Modell mit System Dynamics erstellt oder nicht, der Entscheider immer ein Modell für seine Entscheidungen zu Grunde legt. Sonst könnte er gar nicht bewusst entscheiden. Der Vorteil eines expliziten System Dynamics Modells ist, dass es als Kommunikationsgrundlage dient und dass es möglich ist, im voraus bestimmte Szenarien zu simulieren ohne das man reale und dann vielleicht negative Ergebnisse erhält. Mit einem System Dynamics Modell wird man natürlich niemals simulieren können, wieviel Umsatz mit welchem Kunden im nächsten Monat erzielt wird. Das kann auch nicht der Anspruch sein. Beim Modellieren geht es eher um das Aufspüren von Verhaltensmuster im System, auf die man dann reagieren kann.

Aufgrund dessen, dass sich die Welt ändern kann aber auch dass sich unsere Sicht auf die Welt ändern kann, das sind zwei verschiedene Sachen, ist ein Modell niemals fertig. Das Modell muss stets valdiert werden, weil Sie beispielsweise die Ziele geändert haben, weil Sie neue Daten vorrätig haben, weil neue mentale Modelle für die Transformation der Daten in Informationen bestehen, weil neue Richtlinien hinsichtlich von Entscheidungsprozessen bestehen und so weiter und so fort. Entscheidungen, die Ergebnisse der Formeln in den Flussfaktoren sind, sind also abhängig von den “beobachteten” Ergebnissen. Diese können aber mit den “realen” Zuständen des Systems differieren. Gründe dafür sind die Verzögerungen in Veränderungen eines Systems und das nicht “Glauben wollen” oder das falsche Interpretieren von Bedeutungen, die sehr häufig aus Nichtlinearitäten entstehen. Diese Effekte müssen dementsprechend in ein Modell integriert sein.

System Dynamics ist eine Methode und ein Kommunikationsmedium, bei der man von dedizierten Problemsituationen ausgeht, daraus Strukturen und Muster entwickelt, unerwünschte Symptome zu verstehen und daraus dann mögliche Handlungsalternativen ableitet, um dieses negativen Verhalten zu eliminieren.

Was müssen gute Entscheider beherrschen?

Eines gleich vorweg. Ich behebe bei der kommenden Auflistung keinen Anspruch auf Vollständigkeit. Sie können über die Möglichkeit der Kommentare gerne ergänzen. Eines ist, so hoffe ich doch, ersichtlich geworden: Ohne Kenntnis von System Dynamics bleibt Entscheiden ein Stochern im Nebel ohne eine Basis für das Lernen zu kreieren. System Dynamics erlaubt kein Vorhersagen von zukünftigem Geschehen. Mit System Dynamics kann man in der Gegenwart mögliche verschiedene Zukünfte anhand von Szenarien simulieren, die dann Basis für Entscheidungen sind. Tritt dann diese Zukunft nicht ein, sprich war die Entscheidung falsch, was man wie oben schon angedeutet immer nur im nachhinein validieren kann, kann man anhand der Parameter und der Prämissen des Modells die Ursache dafür eruieren. Man erzeugt also ein Plattform, die es erlaubt über Probleme im Unternehmen zu kommunizieren und zu lernen.

Ungemein wichtig ist es aber, dass System Dynamics als Methode und Kommunikationsmittel in eine adäquate Umgebung eines Unternehmens eingebettet ist, damit sie fruchtbar gemacht werden kann. Eine proaktive Fehlerkultur muss im Unternehmen etabliert sein. Entscheiden heißt Fehler machen, da man viele mögliche Zukünfte auf genau eine eindampft. Werden Mitarbeiter für Fehler sofort abgestraft, werden Entscheidungen ausgesessen. Was dann passiert haben wir oben besprochen. Ist ein Unternehmen auf einem Kurzfristfundament gebaut, werden die verzögerten Auswirkungen von Entscheidungen per Gesetz negiert. Es darf sie dann nicht geben, weil sich getätigte Investitionen kurzfristig, bestenfalls im gleichen Quartal auszahlen müssen. Ein Hoch auf die Börse. Aber nur weil wir Menschen etwas nicht wollen, wird es deshalb nicht gleich nicht geschehen. Entscheider müssen also den Mut, Durchsetzungsstärke aber auch Argumentations- und Motivationsstärke besitzen, um solche Paradigmen zu kippen.

Des Weiteren sollten Entscheider weise und nicht nur wissend sein. Weise Entscheider fragen sehr häufig “Warum”, wissende Entscheider fragen dagegen bloß “Wie”. Um weise zu sein, muss man Wissen haben, aber Wissen alleine reicht nicht aus um weise zu sein. Der Weise fragt beispielsweise, was er eigentlich davon hat zu gewinnen. Der Wissende will stets gewinnen, ohne immer zu wissen was er davon hat. Weise sein bedeutet auch demütig gegenüber Fehler zu sein. Der Weise weiß, dass er nicht alles wissen kann. Er weiß, dass man die Effekte, die den Erfolg seiner Entscheidungen beeinflussen, nicht vollständig beherrschen kann. Der ausschließlich Wissende verallgemeinert zu schnell und denkt und agiert ausschließlich kurzfristig. Wissen steht für Wettbewerb, Weise sein für Kooperation. Weise nutzen gerne und stets ihren Kopf zum Denken. Wissende denken weniger, sondern nehmen lieber den Kopf anderer in dem sie auf vorgefertigte Lösungen und Best Practice vertrauen.

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Komplexität, Modellierung | Tagged , , , , , , | 11 Comments

Hungrig und töricht bleiben

Steve Jobs hat im Jahre 2005, ein Jahr nach dem bei ihm ein Tumor an der Bauchspeicheldrüse diagnostiziert wurde und dem er jetzt erlegen ist, an der Stanford University eine Abschlussrede vor Absolventen gehalten, die absolut gigantisch ist. Sie regt zum Nachdenken an, um das eigene Agieren in der Welt wieder auf das Wesentliche zu lenken und zu entschleunigen. Wirklich absolut lesenswert.

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Philosophie | Tagged , , , | Leave a comment