Die Finanzkrise verstehen: Aufruf zum kollaborativen Modellieren mit dem iMODELER

Die Finanzkrise ist das wohl präsenteste Thema in den Medien seit mehreren Jahren. Fragen wie “Ist der Euro noch zu retten?” oder “Muss Griechenland aus dem Euro-Raum ausgeschlossen werden?” werden immer wieder ungenügend oder gar nicht beantwortet, aber scheinbar unendlich lange und immer wieder diskutiert.

Eine Studie von Manfred Gärtner und Björn Griesbach von der Universität St. Gallen, in welcher die Praktiken der Ratingagenturen untersucht wurden, hat jüngst große Aufmerksamkeit erzeugt. Im Netz sind viele Reaktionen auf diese Studie zu finden. Eine im RiskNET, dem Risk Management Network, publizierte finden Sie hier, nahezu wortgleich wurde diese Reaktion auch in der Wirtschaftswoche veröffentlicht.

Diese Reaktionen waren auch der Ankerpunkt für unsere, das sind Axel Schröder und Conny Dethloff, Idee. Wir möchten nämlich mit Gleichgesinnten und Interessierten im Team die Zusammenhänge der Finanzkrise modellieren, was damit zu einem kollaborativen Modellieren wird.

Was ist Kollaboratives Modellieren?
Zum Modellieren an sich findet man im Logbuch der Reise des Verstehens von Conny Dethloff einige Anregungen. Zu einer bestimmten zu untersuchenden Thematik werden zugehörige Faktoren und ihre Einflüsse zueinander untersucht. Man erhält dann ein Ursache-Wirkungs-Netz, welches die zu untersuchende Thematik, in unserem Fall wäre es die Finanzkrise, vernetzt und ganzheitlich darstellt.

Aus dieser Darstellung lassen sich dann die eigentlichen Ursachen sowie Hebel zur Besserung der Lage erkennen. Das Wörtchen Kollaborativ soll weiterhin zum Ausdruck bringen, dass der Diskurs zum Aufstellen des Ursache-Wirkungs-Netzes sowie die Dokumentation dieses online und live zusammen mit allen Beteiligten geschieht.

Warum starten wir dieses Vorhaben?
Viele Debatten zur Finanzkrise, die wir in den letzten Jahren verfolgt haben, bleiben an der Oberfläche haften. Gerade in Politshows und Talkrunden wird einerseits durch Halbwissen der Teilnehmer, andererseits durch die begrenzte Sendezeit nicht der Versuch unternommen, das sehr komplexe Thema grundlegend und für die Mehrzahl der Interessierten verständlich aufzuarbeiten. Die eigentlichen Ursachen der Krise können nicht aufgedeckt werden, weil diese Debatten auf der einen Seite stets von Eigeninteressen der Beteiligten unterfüttert sind.

In den oben angeführten Reaktionen auf die Studie aus St. Gallen wird beispielsweise die Sicht einer Ratingagentur reflektiert. Dadurch werden aber viele andere Sichten ausgeblendet, was dann zu einer Analyse führt, die nicht ganzheitlich ist. Des Weiteren werden die Debatten nur unzureichend durch adäquate Methoden und Tools unterstützt. Die große Vernetzung der Finanzkrise in viele Bereiche, wie Politik, Finanzwirtschaft, Realwirtschaft, Haushalte etc., stellt eine sehr hohe Anforderung an die menschliche Kognition dar. Ohne Unterstützung mit einem geeigneten Werkzeug, wie beispielsweise durch den CONSIDEO MODELER, werden diese Anforderungen nicht ausreichend adressiert.

Wie läuft dieses Vorhaben ab?
Erst einmal kann Jeder mitmachen, der Interesse hat. Sendet uns bitte einfach eine email, entweder an info@conny-dethloff.de oder an wp-blog@axel-schroeder.de. Wir werden dann zu den jeweiligen Online-Sessions einladen. Auch wer sich nicht direkt an den Sessions beteiligen will oder kann, sei herzlich aufgefordert, kritisch unsere Modellbildung zu hinterfragen. Wir stellen uns gerne Eurer Kritik.

Zu der Strukturierung unseres Vorhabens haben wir uns Folgendes gedacht. Ankerpunkt unserer Diskurse ist Das Manifest der empörten Ökonomen sein. In diesem Manifest sind 10 Fehlbehauptungen der Finanzkrise, wie man sie immer und immer wieder in den Medien hört, aufgeführt und erläutert. Diese 10 Fehlbehauptungen sind linear beschrieben, denn sie sind nur textuell dargelegt. Des Weiteren sind die Fehlbehauptungen nur unzureichend miteinander vernetzt.

Diese Aussagen möchten wir mit den CONSIDEO MODELER in Ursache-Wirkungsbeziehungen auflösen und kritisch hinterfragen, was an den Behauptungen dran ist oder wo sie scheitern. Eine Einführung in den MODELER können Sie unter dem folgenden Link einsehen.

Wir versuchen sowohl in den Sessions, als auch in den begleitenden Artikeln auf unseren Blogs jeden Schritt in der Modellierung zu erläutern. Uns ist es wichtig, das WARUM transparent zu machen. Dies soll unsere Studie von allen anderen bisherigen Veröffentlichungen deutlich unterscheiden.

Hier können wir also einen bedeutenden Mehrwert schaffen. Natürlich sollen die dargelegten Fehlbehauptungen und ihre Erläuterungen nicht vom Selberdenken befreien, ganz im Gegenteil. Sie bilden aber eine gute Basis pro Modellierungs-Session, die eine gute Vorbereitung unterstützt.

Pro Fehlbehauptung werden wir also Sessions durchführen. Das muss nicht immer genau eine Session pro Fehlbehauptung sein. Es kann auch vorkommen, dass wir beispielsweise von Fehlbehauptung 8 noch einmal zurück gehen auf Fehlbehauptung 5. So viel Flexibilität wollen wir uns schon zugestehen, ganz im Sinne der Kybernetik. Das Ursache-Wirkungs-Netz wird dementsprechend von Session zu Session erweitert.

Später können wir dann noch überlegen, das entstandene Ursache-Wirkungs-Netz zu quantifizieren. Mit dieser Quantifizierung hätte man dann die Möglichkeit bestimmte Handlungen zur Abwendung der Finanzkrise zu simulieren und so spielerisch die Zusammenhänge der Finanzkrise zu lernen. Diese Entscheidung müssen wir aber noch nicht jetzt treffen. Wir haben übrigens das leere Modell bereits angelegt. Sie finden es unter diesem Link.

Wir freuen uns auf viele Interessierte und rege Kommentardiskussionen. Happy Modeling.

Herzlichst,
Axel Schröder und Conny Dethloff

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Modellierung, Ökonomie und Wirtschaft | Tagged , , , , | 3 Comments

Servant Leadership – Der Mensch im Fokus

Heute möchte ich auf eine aktuelle Umfrage aufmerksam machen, die sich um den Menschen bei dem Führen von Unternehmen rankt. Ich habe in vielen meiner Posts explizit oder implizit kritisiert, dass viele Managementkonzepte, nach denen Unternehmen heute geführt werden, viel zu technokratisch sind. Der Mensch ist nur ein Produktionsfaktor, wie es Maschinen auch sind, der zu funktionieren hat. Natürlich würden Manager das in dieser Art und Weise niemals äußern, aber sie handeln danach.

Ein Wegbegleiter auf meiner Reise des Verstehens, Gebhard Borck, hat mich in seinem aktuellen Post Gute Führung – macht Wissenschaft! dieser Umfrage nahe gebracht. Details zu dieser Umfrage finden Sie in diesem Anschreiben. Ich werde an dieser Umfrage noch heute teilnehmen. Machen Sie das doch auch. Danke.

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Management und Leadership | Tagged , , | Leave a comment

Projekte sind nur das Mittel niemals der Zweck

Sie kennen sicherlich das berühmte magische Dreieck des Projektmanagements: Zeit, Kosten, Qualität. Projekte müssen in-time, in-budget und in-quality abgeschlossen werden. Ich will jetzt gar nicht darauf eingehen, dass diese Überprüfung dieser 3 Dimensionen auf Planwerte beruht, die regelmäßig angepasst werden müssen, damit das Projekt nicht in seiner eigenen Scheinwelt durchgeführt wird, sondern stets im Austausch mit der Umwelt. Peter Addor hat diese Thematik ebenfalls in seinem Post Der Pfad der Ungewissheit in Projekten aufgegriffen.

Haben Sie schon einmal Statusmeetings in Projekten beiwohnen dürfen? Worüber wurde in diesen Meetings hauptsächlich gesprochen? Aus meiner Erfahrung vorrangig über Kosten und Termine, nicht über Qualität der Lieferergebnisse. Implizit sieht man dann die Dimension Qualität in den Dimensionen Zeit und Kosten enthalten, da man davon ausgeht, dass schlechte Qualität der Lieferergebnisse eines Projektes mit einem erhöhtem Aufwand, Kosten und Terminverzügen einhergeht. Wächst der Druck aber im Projekt, ist diese Implikation dann nicht mehr gültig, da zu kurz und linear gedacht. Kurioserweise wächst der Druck gerade dann, wenn die Qualität der Arbeitsergebnisse nachlässt, wenn also nachgearbeitet werden muss und dadurch Meilensteine verschoben (Zeit) werden oder zusätzlich Menschen in das Projekt geholt werden müssen (Kosten). Dann wird auch gerne mal der Scope des Projektes verringert. Das Projektergebnis, welches ursprünglich erstellt werden sollte, wird beschnitten, was ja in der Regel stets dazu führt, dass nicht das gesamte Potential aus diesem Projekt gezogen werden kann. In diesen Szenarien geht es dann nur noch um Termin- und Kostentreue. Daran wird der Projektmanager unmittelbar gemessen. Es kommt dann noch dazu, dass Zeit und Kosten quantifizierbar sind, Qualität nicht. Zeit und Kosten sind also dadurch gut messbar und bekommen einen quasi objektiven Charakter. Bei der Qualität ist das nicht so, die ist verhandelbar.

An der obigen Graphik erkennen wir das Dilemma. Qualität ist in einem hohen Maße dafür verantwortlich, welchen Nutzen das Unternehmen aus den Projektergebnissen ziehen kann. Während der Projektdurchführung verdient das Unternehmen noch kein Geld mit dem Projekt. Es ist eine Wette in die Zukunft, da mit dem Ergebnis in der Zukunft Geld verdient werden soll. Projekte sind also niemals Selbstzweck. Ein Unternehmen möchte mit den Projektergebnissen, das können neue Produkte, neue Produktfeatures, neue interne Geschäftsprozesse, Einführung neuer IT-Systeme etc. sein, nach Abschluss des Projektes implizit oder explizit Geld verdienen. Der Projektmanager ist aber immer nur bis zum Projektende für das Projekt und damit auch für die Ergebnisse verantwortlich. Dementsprechend fokussiert er sich auch nur auf die Dimensionen des magischen Dreiecks, an denen er gemessen wird. Das sind dann eben Zeit und Kosten.

Bei vielen Projekten wird aus meiner Sicht der Fokus falsch gesetzt. Projekte verkommen zum Selbstzweck. Die Sicht bei allen Aktivitäten im Rahmen eines Projektes werden explizit auf das Projektende und auf die Kosten gelegt und nur implizit, wenn überhaupt, auf die Qualität. Damit möchte ich natürlich nicht die genau entgegengesetzte Blickrichtung einnehmen und postulieren, dass Kosten und Zeit nicht wichtig sind, sondern nur die Qualität. Ich möchte nur noch einmal die Wichtigkeit der Qualität hervorheben, damit das magische Dreieck des Projektmanagements nicht zu einer magischen Linie verwaist. Denn möchte man Kosten und Zeit gering halten beginnt man das Projekt bestenfalls gar nicht. Dann hat man null Kosten und zu spät ist man ebenfalls nie.

Alle Projekte müssen also stets ganzheitlich in eine Unternehmenssicht integriert werden. Projekte wird es stets geben, da durch diese das Unternehmen erst lebensfähig bleibt. Auf der Höhe des Erfolgs müssen neue Projekte initiiert werden. Das erkennen Sie ebenfalls schematisch in der oberen Graphik. Diese Ganzheitlichkeit lässt sich natürlich auch steuern. In Anlehnung an das Sensititivitätsmodell von Vester kann man auch hier Schlüsselbereiche definieren, wogegen Kennzahlen, KPIs oder Faktoren gemappt werden können. Allerdings muss man die 7 Schlüsselbereiche der Kriterienmatrix von Vester überdenken, die da wären Beteiligte, Tätigkeiten, Raum, Befinden, Umweltbeziehungen, innere Abläufe, innere Ordnung, denn Vester bezieht sich mit diesen Kriterien eher auf das Modellieren von Großsystemen wie Ballungszentren oder Verkehrssysteme. Mögliche Kriterien wären

  1. Marktstellung
  2. Innovationsleistung
  3. Produktivität
  4. Attraktivität für gute Leute
  5. Profitabilität
  6. Liquidität

Diese Kriterien werden von Peter Gomez und Gilbert J. B. Probst, in ihrem Buch Die Praxis des ganzheitlichen Problemlösens: Vernetzt denken – Unternehmerisch handeln – Persönlich überzeugen hergeleitet, als adäquat angesehen. Allerdings sind diese aus Sicht von Sebastian Hetzler, wie er es in seinem Buch Real-Time Control für das Meistern von Komplexität auf Seite 60 ausführt, beliebig und daher nicht allgemein gültig genug für eine Kriterienmatrix. Nichtsdestotrotz müssen alle Faktoren ganzheitlich betrachtet werden, um die Lebensfähigkeit eines Unternehmens zu validieren. Sehr häufig werden ja nur finanzielle Zahlen der Vergangenheit oder der Gegenwart beleuchtet, was nicht ausreichend ist. Die oben aufgeführte Liste von Gomez und Probst ist mit Sicherheit eine gute Auswahl, aber wohl nicht die einzige.

Um aber auf das Thema Projekte zurück zu kommen. Die Qualität der Projektergebnisse in Unternehmen schlägt sich unter anderem in dem Kriterium Innovationsleistung nieder, da es aufgrund des Lebenszyklus von Produkten jeglicher Art wichtig ist auch Umsatz mit neuen Produkten zu machen und nicht nur mit etablierten. Und nicht zu vergessen. Auch die Projektmanager müssen ganzheitlich daran gemessen werden.

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Management und Leadership | Tagged , , | 3 Comments

Die Forschungen im Rahmen der Künstlichen Intelligenz sind einem Missverständnis aufgesessen

In einigen Posts habe ich die Aktivitäten im Forschungsgebiet der Künstlichen Intelligenz bereits beleuchtet.

Ich wurde in dieser Woche auf ein lange Zeit verschollenes und bislang nur in Englischer Sprache erhältliches Dokument aus dem Jahre 1954!!! von Gotthard Günther mit dem Titel The SEETEE Mind: Über Denkstrukturen der Materie und Antimaterie – eine Herausforderung für die moderne Logik aufmerksam. In diesem Dokument räumt der Autor unter anderem mit einem Missverständnis auf, denen Bestrebungen im Rahmen der Kybernetik und somit der Künstlichen Intelligenz erlegen sind, nämlich intelligente kreative Maschinen bauen zu wollen.

Das Dokument ist in 4 Teilen aufgebaut. Im ersten Teil legt der Autor dar, dass Menschen stets zweiwertig denken müssen. Wir können nicht höherwertig denken. Wir denken in Dichotomien wie gut-böse, hell-dunkel, an-aus etc. Der Grund dafür sind die grundlegenden Eigenschaften der ihm umgebenden Welt, die wir beim Denken in uns abbilden müssen.

Seite 3-4: Unser organisches Gehirn wiederholt also in seiner eigenen funktionalen Organisation diese beiden aktiven Eigenschaften der physischen Existenz. … Wir sagen dann: unsere Intelligenz arbeitet mit Grundbegriffen des Denkens, welche zwei grundlegende Qualitäten haben: sie sind entweder positiv oder negativ, wahr oder falsch, objektiv oder subjektiv, individuell oder allgemein.

In meinem letzten Post Vernetztes Denken ist (noch?) eine Illusion habe ich bereits über die Grenzen menschlichen Denkens argumentiert, dies aber aus einem anderen Blickwinkel ausgeführt. Diese weitere Argumentation über die Grenzen im menschlichen Denken soll uns aber nicht davon abhalten oder als Entschuldigung geltend gemacht werden nicht mehr denken zu müssen.

Im zweiten Teil behandelt der Autor die Frage, ob zwischen den Gegensätzen der zweiwertigen Logik vermittelt werden kann und kommt so zur nicht-aristotelischen Logik. Diese Vermittlung benötigten wir eigentlich im Alltag um beispielsweise Paradoxien aufzulösen. Günther gibt in dem Dokument dafür einige sehr gute Beispiele. Es gibt aber auf der anderen sehr gute Gründe dafür, dass Menschen “nur” zweiwertig denken, obwohl nicht alle Situationen und Aspekte im Leben, wie die Paradoxien, zweiwertig behandelt werden können.

Seite 13: Dies zeigt deutlich, dass es für uns keinen Sinn ergibt, eine dreiwertige Logik zu übernehmen, weil sie nur dann funktioniert, wenn der Umfang der Alternativen, die in ihrem System verwendet werden, willkürlich eingeschränkt wird. Andererseits verfehlt eine Logik ihren Zweck gänzlich, wenn sie es uns nicht erlaubt, Aussagen beliebig hoher Allgemeingültigkeit zu produzieren.

Im dritten Teil geht es Günther dann um theoretische Aspekte einer dreiwertigen Logik. Wenn wir Menschen mit einer dreiwertigen Logik nichts anfangen können, muss es also einen anderen Ort geben, wo die dreiwertige Logik Umsetzung finden kann. Das ist das mechanische Gehirn oder der Roboter. An dieser Stelle räumt der Autor mit einem Missverständnis mit dem Sinn und Zweck der Kybernetik auf. Ich möchte dieses Missverständnis auf die heutige Zeit übertragen und dieses Missverständnis den Forschungsaktivitäten im Rahmen der Künstlichen Intelligenz übertragen. Es kann nämlich nicht darum gehen, ein künstliches Gehirn zu entwickeln, welches dem menschlichen Gehirn überlegen ist. Dieses künstliche Gehirn wird ein mechanisches bleiben. Menschen haben ja auch nicht das Bedürfnis ihre Körperteile, beispielsweise die Beine, gegen mechanische einzutauschen, nur weil diese dann nicht ermüden. Wenn dann tun wir dies aus der Not heraus gehorchend, was dann kein Eintausch mehr ist.

Seite 16: Nun, es war einmal, da war er auch nicht mit den Fortbewegungsmöglichkeiten zufrieden, die ihm seine Beine boten. Schickte er sich an, den Mechanismus des Beines zu verbessern? Nicht dergleichen.

Auch wenn solch ein mechanisches Gehirn, was es heute noch nicht gibt, da die Notwendigkeit einer dreiwertigen Logik noch nicht erkannt wurde, in der Lage ist dreiwertig zu arbeiten, was das menschliche Gehirn niemals können wird, kann man an dieser Stelle nicht davon sprechen, dass das mechanische Gehirn dem menschlichen überlegen wäre.

Seite 16-17: Eine solche Konstruktion wäre “kreativ” in einem ganz neuen Sinne des Wortes: Es besäße delegierte Kreativität insofern, als es Gedanken in einer dreiwertigen Struktur produzieren könnte, zu denen der Mensch völlig unfähig wäre. Aber sie würde diese nur kraft der Tatsache haben, dass der Mensch die notwendigen Gesetze in den objektiven Geist der Maschine eingebaut hätte.

Im vierten und letzten Teil macht der Autor einige Ausführungen zu konkreten Umsetzungsvorschlägen einer dreiwertigen Logik. Hier führt Günther noch einmal aus, dass wir zwar nicht dreiwertig denken können, jedoch mit einer dreiwertigen Logik rechnen können, weshalb es wert wäre, diese in Maschinen umzusetzen. Er gibt hier einen Vergleich zwischen kleinen und großen Zahlen.

Seite 24: Die Situation lässt sich grob mit dem logischen Unterschied zwischen unserem Umgang mit kleinen und sehr großen Summen vergleichen. Wir können die Ergebnisse von 1+1 oder 1*1 denken, aber wir können nicht 356797351*997310971 denken.

Details zu Umsetzungen einer dreiwertigen Logik hat Günther in seinen weiteren Arbeiten zur Polykontexturalität und Morphogrammatik aufgezeigt, die dann später von seinem Schüler Rudolf Kaehr weiter geführt wurden.

1 Star2 Stars3 Stars4 Stars5 Stars (1 Bewertung(en), Durchschnitt: 3.00 von 5)
Loading...
Posted in Denken, Hirnforschung | Tagged , , , , | 4 Comments

Vernetztes Denken ist (noch?) eine Illusion

Ich höre und lese sehr häufig die Forderung nach einem vernetzten Denken der Menschen. Wir können unsere Problemstellungen in einer zunehmend vernetzten Welt nur durch vernetztes Denken in den Griff bekommen. Eine Studie der Boston Consulting Group aus dem Jahre 2002 (Dokument zufügen) belegt diese These.

Das ist aber nur die eine Seite der Medaille. Wir wissen oder glauben zu wissen, dass wir vernetzt denken müssen, um die Komplexität der heutigen vernetzten Welt zu handhaben. Aber können wir überhaupt vernetzt denken? Aus dem Titel dieses Posts wird meine Sicht bereits klar. Wir können es (derzeit) nicht. Aber keine Angst, denn das ist auch gar nicht notwendig. Warum? Das möchte ich jetzt zeigen.

Was ist eigentlich vernetztes Denken?
Nicht nur die oben angeführte Studie der BCG zeigt die Wichtigkeit des vernetzten (ganzheitlichen oder auch systemischen) Denkens auf. Hans Ulrich hat bereits 1985 für das vernetzte Denken plädiert. Natürlich darf man an dieser Stelle auch den Vater des vernetzten Denkens, Frederic Vester, nicht vergessen. In vielen seiner Ausarbeitungen, nennen möchte ich hier sein Buch Die Kunst vernetzt zu denken, hat er das vernetzte Denken zum Thema gemacht, die Notwendigkeit herausgestellt und Methoden dargelegt, wie vernetzt gedacht werden kann.

Aber was bedeutet eigentlich vernetzt zu denken? Im Unterschied zum klassischen linearen Denken wird beim vernetzten Denken in Kreisläufen oder Rückkopplungen gedacht. Das bedeutet, dass was Ursache ist kann auch wieder Wirkung sein und umgekehrt. Ein weiterer wichtiger Unterschied ist noch zu nennen. Es wird nicht nur in Kreisläufen sondern auch in Netzwerken gedacht. Damit postulieren wir ein ganzheitliches Denken. Diese Ganzheitlichkeit soll dem emergenten Verhalten komplexer Systeme Rechnung tragen, denn das Ganze ist mehr als die Summe seiner Teile. Wenn ich jetzt im nächsten Abschnitt zeigen werde, dass wir (derzeit) nicht vernetzt denken und es (derzeit) auch nicht können, dann möchte ich eben genau auf dieses Denken in Netzwerken Bezug nehmen.

Wir DENKEN nicht vernetzt, …
Emergentes Verhalten komplexer Systeme ist für uns nicht erklärbar. Wir können nicht von dem Verhalten einzelner Teile eines komplexen Systems auf das Verhalten des gesamten Systems schließen. Diese Thematik ist in der Wissenschaft auch unter dem Begriff Skalierungsproblem bekannt, also allgegenwärtig. Das bedeutet, man kann Theorien, Wissen und Erkenntnisse nicht einfach von einer Mikroebene auf eine Makroebene 1:1 transformieren.

Was wird aber in allen Methoden des vernetzten Denkens, egal ob wir uns das Sensitivitätsmodell von Vester, die Know-Why Methode von Consideo, System Dynamics oder die Methode des ganzheitlichen Problemlösens von Gomez und Probst anschauen, getan? Das Problem wird zerlegt und dann wieder zusammengefügt. Das Zerlegen und Zusammenfügen geschieht in allen der Methoden unterschiedlich, weshalb auch die Befürworter der jeweiligen Methoden diesen Fakt nehmen und argumentieren weshalb die jeweilige Methode besser geeignet ist, um vernetzt denken zu können. Der Punkt ist aber, dass keine der Methoden uns Menschen vernetzt denken lässt, da wir in allen Methoden separieren und zusammenfügen. Und genau bei diesem Zusammenfügen liegt die Krux. Denn hier sind wir dem oben angesprochenen Skalierungsproblem aufgesessen. Zeigen möchte ich das exemplarisch am Erstellen der Einflussmatrix in Vesters Sensitivitätsmodell. Ich könnte aber auch jede andere Methode heranziehen. Beim Erstellen der Einflussmatrix werden die möglichen Wirkungen zwischen den Faktoren eines Systems in einer Matrix aufgelistet. Von jedem Faktor ausgehend wird gefragt wie groß die Wirkung auf den jeweils anderen Faktor bei seiner Änderung ist. Die Zahl “0” steht für keine Auswirkung. Die Zahl “1” für einen unterproportionalen, die “2” für einen proportionalen und die “3” für einen überproportionalen Effekt. Dann werden jeweils Aktiv- und Passivsummen aller Faktoren gebildet. Damit möchte man ermitteln, wie viel die Faktoren zu einem Änderungsverhalten beitragen (aktiv oder reaktiv) und in welchem Maße die Faktoren von Änderungen in dem System betroffen sind (kritisch oder puffernd). Ich hoffe Sie erkennen bereits die Skalierungsproblematik, die aus der Emergenz eines komplexen Systems folgt. Wir können nicht einfach aus dem Verhalten einzelner Faktoren auf das Gesamtverhalten schließen. Denn wenn wir das könnten, wovon wir beim Befolgen der Methoden ausgehen, hätten wir kein emergentes System mehr. Wir bräuchten dann wohl auch diese Methoden nicht mehr.

Vernetztes Denken ist also nur dann möglich wenn wir das zu untersuchende System stets im Ganzen betrachten. Bereits beim Betrachten und Analysieren von Teilsystemen oder Faktoren verlassen wir den Bereich der Vernetztheit.

… da wir es (derzeit) nicht können, …
Denken und Vernetzung schließen sich (derzeit) aus. Denn wie denken wir? Wir nehmen unsere Umwelt wahr, in dem wir Dinge der Umwelt mit Objekten gleich setzen. Wenn wir einen Tisch wahrnehmen, dann setzen wir diesen mit dem Objekt “Tisch” in uns gleich. Alle Denkprozesse in Bezug auf diesen Tisch vollführen wir mit dem Objekt “Tisch”. Würden wir das nicht tun, könnten wir gar nicht mit unseren natürlichen Zahlen rechnen. Die natürlichen Zahlen sind also eher “künstlich” als “natürlich”. Die Zahl “1” hätte für uns keinen Mehrwert, denn ALLES würde sich unterscheiden, was es ja in der Umwelt auch tut. Aber wir abstrahieren, wir separieren und fügen danach wieder zusammen, um die Dinge für uns handhabbar zu machen. Wir denken so, weil unsere Sprachen es nicht anders zulassen. Unsere Sprachen sind nämlich nicht vernetzt und kreiskausal. Wir setzen Buchstaben zu Wörtern, Wörter zu Sätze und Sätze zu Aufsätze etc. zusammen. Unsere Sprache beeinflusst unser Denken und umgekehrt. Details können Sie in zwei meiner Posts nachlesen (Unsere Sprache beschränkt unser Denken und Die Sprache als Linse).

Wir können nur wahrnehmen in dem wir fokussieren und entsprechend unterscheiden. Ohne Fokussierung und ohne Unterscheidung gibt es für uns keine Wahrnehmung. Also auch hier keine Vernetzung. Wir dürfen grundsätzlich nicht den Fehler machen, Separierung und Zusammenfügen anschließend als Vernetzung auszulegen, auch wenn dies in Rekursionen und Rückkopplungen geschieht, da wir, und das habe ich bereits ausgeführt, Theorien von der einen Metaebene einfach in eine höhere Metaebene transformieren. Das ist sehr gefährlich, weil wir dafür keine Legitimation haben. Hier prallen zwei ganz unterschiedliche Wissenschaftstheorien aufeinander: Science und Systemics. Detlef Mamrot hat diesen Unterschied sehr schön in seiner aktuellen Ausarbeitung zu Komplexität im Kapitel 3 ausgeführt.

… was aber auch nicht so schlimm ist, da wir vernetzt HANDELN können.
Jetzt habe ich bestimmt bei Anhängern des vernetzten Denkens (Ich war übrigens auch einer. Jetzt bin ich Anhänger des vernetzten Handelns), Wellen geschlagen. Nun möchte ich die Wogen wieder ein bisschen glätten. Die Emergenz hat uns einen Stachel versetzt, den ich nun wieder entfernen möchte.

Wir können (derzeit) nicht vernetzt denken. Das ist auch nicht so wild. Denn unser Ziel ist es nicht vernetzt zu denken, sondern vernetzt zu handeln. Wir müssen nicht unbedingt vernetzt denken um vernetzt handeln zu können (Emergenz). Wir schaffen durch das Denken auf der Mikroebene auf der Makroebene eine höhere Qualität. Auf der Mikroebene herrscht noch keine Vernetztheit vor, auf der Makroebene schon. Genau für diesen Transfersind die von mir angesprochenen Methoden geeignet. Diesen Transfer möchte ich nun ein bisschen näher erläutern.

Ich teile uns Wissen oder auch Vermögen in 4 Kategorien ein.

  1. Unbewusstes Nichtwissen (Unvermögen)
  2. Bewusstes Nichtwissen (Unvermögen)
  3. Bewusstes Wissen (Vermögen)
  4. Unbewusstes Wissen (Vermögen)

Details zu diesen Arten habe ich einem Artikel verfasst. Ich möchte diese Kategorien am Beispiel “Auto fahren können” spiegeln. Meine beiden Kinder, derzeit 9 und 6 Jahre alt, können kein Auto fahren. Sie verspüren aber derzeit auch gar nicht das Verlangen, es lernen zu wollen. Es ist für sie kein Thema. Sie befinden sich diesbezüglich in Stufe 1, dem unbewussten Unvermögen. In absehbarer Zukunft allerdings werden sie sich diesem Unvermögen bewusst werden. Sie möchten es dann erlernen, da sie es benötigen. Dann befinden sie sich in Stufe 2, dem bewussten Unvermögen. Dann lernen sie das “Auto fahren”. Am Anfang ist es dann noch ein wenig holprig. Sie müssen sich beim Steuern des Autos über sehr viel bewusst werden, Bremsen, Gas geben, Schalten. Sie befinden sich in Stufe 3, dem bewussten Vermögen. Mit der Zeit geht das Steuern des Autos aber in Fleisch und Blut über. Vieles läuft dann unbewusst ab, ohne dass jede Bewegung, bevor sie ausgeführt wird, durchdacht wird. Das ist gerade in Gefahrensituationen wichtig, da es hier um schnelles Reagieren geht. Sie befinden sich dann in Stufe 4, dem unbewussten Vermögen.

Natürlich sind die Grenzen zwischen diesen Stufen nicht gradlinig, sondern eher schwammig. Des Weiteren laufen die Übergänge auch in Rekursionen ab, mal hin und mal wieder zurück, insbesondere in den Stufen 3 und 4. Es gibt hier aus meiner Sicht auch grundsätzlich keine Wertung. Stufe 4 ist also nicht besser als Stufe 3. Wir benötigen beide Stufen, um lebensfähig zu sein. In der Stufe 3 handeln wir rational. Wir denken bewusst. In der Stufe 4 handeln wir eher intuitiv.

Vielleicht fragen Sie sich, was das jetzt mit dem eigentlichen Thema zu tun hat? Ich komme jetzt darauf. Beim Durcharbeiten der Methoden befinden wir uns in Stufe 3. Wir kommunizieren, wir lesen, wir schreiben auf. Im Rahmen dieser Tätigkeiten denken wir nicht vernetzt, denn wir nutzen unsere Sprache. Das habe ich im vorigen Abschnitt gezeigt. Wir bauen dadurch Wissen auf, was uns in bestimmten Situation handeln lässt. Dann sind wir in Stufe 4.

Ich möchte kurz auf das Beispiel mit dem “Auto fahren können” zurückkommen. Ich hatte bereits des Öfteren brenzlige Situationen im Straßenverkehr zu meistern. Da habe ich einfach funktioniert und zwar vernetzt. Ich habe intuitiv gehandelt ohne jede Bewegung meines Körpers vorher genau zu durchdenken. Wenn mich danach Jemand fragte warum ich was in welcher Reihenfolge gemacht habe, konnte ich gar nicht in der Lage sein, dieses getreu zu schildern. Da diese Schilderung nur unvernetzt sein kann. Ich nutze unsere Sprache. Diese Fähigkeit beim Autofahren vernetzt handeln zu können habe ich mir durch das unvernetzte “Autofahren lernen” angeeignet. Wir erkennen hier die Emergenz.

Und hier sehe ich jetzt die Stärke der von mir angesprochenen Methoden. Es geht in diesen Methoden nämlich hauptsächlich um den Prozess des Lernens des vernetzten Handelns. Der PROZESS ist wichtig und die Ergebnisse, wie die Einflussmatrix oder das Wirkungsgefüge sind Abfallprodukte dieses Prozesses. Wie wir diese Fähigkeit genau erlernen, können wir wegen der Emergenz nicht erklären.

Fazit
Nur weil ich also postuliere, dass die herkömmlichen Methoden des vernetzten Denkens, uns Menschen nicht helfen vernetzt denken zu können, bedeutet es nicht automatisch, dass diese Methoden keinen Mehrwert liefern. Ganz im Gegenteil. Sie tragen in einem hohen Maße dazu bei, dass wir vernetzt handeln können.

Zum Ende noch eine kleine Bemerkung. Ich habe in meinen Sätzen stets das Wort “derzeit” in Klammern eingefügt, denn wir können derzeit nicht vernetzt denken. Es ist eine Standortbestimmung von mir aus heutiger Sicht. Können wir überhaupt irgendwann vernetzt denken? Keine Ahnung. Voraussetzung dafür ist aber eine vernetzte Sprache. Ich habe des Öfteren gehört, dass beispielsweise asiatische Sprachen nicht so linear aufgebaut sind wie unsere lateinischen. Können die Asiaten deshalb vernetzt denken? Ist das Ergebnis eines vernetzten Denkens besser als das eines unvernetzten Denkens? In beiden Fällen kann man die Fähigkeit entwickeln vernetzt zu handeln.

Ich spreche also nicht vom vernetzten Denken, sondern vom expliziten Modellieren und dem daraus folgenden vernetzten Handeln.

1 Star2 Stars3 Stars4 Stars5 Stars (2 Bewertung(en), Durchschnitt: 4.50 von 5)
Loading...
Posted in Denken, Modellierung, Sprache, Wissen | Tagged , , | 22 Comments

Reich ist nicht der der viel hat, sondern der der nicht viel braucht

Mit diesem Satz hat Prof. Dr. Niko Paech, derzeit Vertreter des Lehrstuhls für Produktion und Umwelt (PUM) an der Carl von Ossietzky Universität Oldenburg, seinen Vortrag zur Postwachstumsökonomie beendet. Ein Wegbegleiter auf meiner Reise des Verstehens hat mich gestern auf diesen Vortrag aufmerksam gemacht. Das anschließende Interview mit Paech können Sie hier einsehen.

In dem Interview werden viele Themen angesprochen, die ich in meinem Logbuch auch beleuchtet habe. Da wäre zum einen das Zinsparadigma, welches dazu führt, dass die Realwirtschaft im Schwitzkasten der Finanzwirtschaft verharren muss. Da wäre aber auch das Paradigma des stetigen Wachstums, welchem wir erlegen sind. Dieses Paradigma ist natürlich aus dem ersten, dem Zinsparadigma, abgeleitet, denn die Finanzwirtschaft lässt der Realwirtschaft gar keine andere Wahl. Ein drittes Paradigma möchte ich noch anführen, welches in dem Interview ein wenig durchschimmert, nämlich der Drang Komplexität reduzieren zu müssen.

Damit möchte ich nicht sagen, dass dieses Interview keinen Informationsgehalt für mich hat, da ich die Inhalte bereits in anderer Form formuliert habe. Eines kommt aus dem Interview ganz klar hervor, was ich so noch nicht bewusst durchdacht habe. Es kann kein nachhaltiges Wachstum geben. Irgendwie klar, wenn Wachstum begrenzt ist, oder? Damit werden aber auch beispielsweise die erneuerbaren Energien als nur die andere Seite der gleichen Medaille, der herkömmlichen Energien, entlarvt. Aus Sicht von Paech sind die ganzen “Green New Deals”, wie er es nennt, nur eine weitere Konjunkturspritze.

Für den Weg aus unserer ökonomischen Krise sind also andere Lösungsansätze notwendig. Paech reißt in dem Interview einige an. Wirklich sehr interessant.

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Ökonomie und Wirtschaft | Tagged , , | 20 Comments

Mit dem Viable System Model Changeprojekten den Sinn nehmen

Ich möchte heute aus meiner Sicht aufzeigen, warum Selbstorganisation die wohl einzige Lösung ist, Komplexität zu handhaben, und dass die Etablierung des Viable System Models (VSM) in Unternehmen genau dieser Selbstorganisation einen geeigneten Regelraum gibt.

Starten möchte ich aber noch einmal beim Thema Komplexität und möchte die Unterscheidung in Eigen- und Fremdkomplexität von Unternehmen thematisieren. Diesen Anstoß für weitere Gedankengänge in diesem Thema hat ein Wegbegleiter meiner Reise des Verstehens gegeben.

Unternehmen bewegen sich im Spannungsfeld zwischen Komplexitätserhöhung und –senkung. Zum einen benötigen Unternehmen eine ausreichend hohe Eigenkomplexität, um die Komplexität ihrer Umwelt (Markt, Politik, Gesellschaft etc.) zu handhaben. Zum anderen benötigen Unternehmen aber auch eine genügend kleine Komplexität, damit in den Unternehmen eine Kommunikation möglich ist. Wählen wir den Maßstab auf einer Zeitachse ausreichend groß erkennen eine stete Komplexitätserhöhung, sowohl der Eigen- als auch der Fremdkomplexität. Fortschritt in der Entwicklung, und dem sind wir aufgrund der Problem-Lösungs-Spirale ausgesetzt, bedeutet Komplexitätserhöhung. Die Lösungen von heute sind die Probleme von morgen auf einem höheren Level, für die wiederum Lösungen gefunden werden wollen. Wählen wir den Maßstab auf einer Zeitachse ausreichend klein erkennen wir aber in gewissen Zyklen immer wieder Komplexitätsminimierung innerhalb der Unternehmen. Diese Minimierung geschieht Lösungs- und Entscheidungsprozess. Hier muss Komplexität reduziert werden, um zu abstrahieren und sich zu fokussieren. Bestimmte Themen werden ausgegrenzt, die aber beim Agieren entlang der Lösung natürlich nicht ausgegrenzt bleiben, sondern Auswirkungen in die Unternehmen zurück spiegeln. Mit den getroffenen Entscheidungen, die nach dem Handeln Auswirkungen nach sich ziehen, wird die Komplexität in der Umwelt erhöht, aber auch im Unternehmen, da wie gesagt die Einflüsse der Umwelt in die Unternehmen reflektiert werden. Wenn man sich die Komplexität mal als Graph über die Zeit vorstellt, haben wir es also schematisch mit einer Wellenlänge zu tun, die kontinuierlich größer wird. Das habe ich in meinem Post Muss man einen Wettlauf mit der Komplexität eingehen?.

Mit Strategien definiert ein Unternehmen einen Regelraum, in dem es agieren möchte. Dadurch wird aber nicht der Regelraum der Umwelt, jedenfalls nicht sofort, berührt. Durch diesen Regelraum setzt das Unternehmen einen Fokus auf bestimmte Dinge, intern als auch extern, und blendet andere aus. Durch dieses Ausblenden verschwinden diese Dinge aber nicht, sondern sind immer noch da, nur eben nicht in dem Wahrnehmungsfenster der Unternehmenslenker. Das bedeutet also, dass man durch Setzen von Strategien die Eigenkomplexität des Unternehmens verringert, die Fremdkomplexität, also die der Umwelt, bleibt erst einmal konstant. Dieses Verringern ist notwendig, damit das Unternehmen überhaupt existieren kann. Damit wird die Identität des Unternehmens bestimmt. Wofür steht das Unternehmen und wofür nicht. Hier setzt man einen langfristigen Fokus. Ist der Regelraum, der durch eine Strategie gesetzt wird, allerdings zu eng gefasst, geht Agilität und Flexibilität des Unternehmens verloren. In diesem Fall ist die Eigenkomplexität des Unternehmens zu gering. Hier kommen die Taktiken ins Spiel. Durch Taktiken werden Strategien immer wieder validiert und auf die Probe gestellt und ggf. geändert. Taktiken haben einen kurzfristigen Fokus. Taktiken und die Strategie müssen aber im Einklang sein. Beim Ändern von Strategien spricht man dann von Changeprojekten. Changeprojekte haben die Aufgabe das Verhältnis von Eigen- und Fremdkomplexität des Unternehmens wieder in ein gesundes Verhältnis zu bringen. Das schafft man, in dem die Eigenkomplexität erhöht wird und in der Rückkopplung dadurch bestenfalls auch die Fremdkomplexität der Umwelt, also des Marktes, verringert wird. Wie gesagt ist das immer nur in einem kurzfristigem Zeitfenster zu beobachten. Mittel- und langfristig wird die Komplexität stets größer. Die großen Herausforderungen, die in Changeprojekten gehandhabt werden müssen und oft dazu führen, dass Changeprojekte nicht erfolgreich sind, sind größtenteils auf die Eigenkomplexitätserhöhung zurückzuführen. Sie sind aber wie gesagt notwendig. Die “goldene Mitte” bei der Definition von Strategien ist also gefragt. Ich glaube darüber machen sich Manager und Führungskräfte beim Definieren von Strategien keine Gedanken.

Hat ein Unternehmen keine Strategie und ist rein taktisch unterwegs, fehlt dem Unternehmen der Regelraum, in dem die Menschen agieren können. Sie haben beispielsweise keine gemeinsame allgemein verabschiedete Kommunikationsbasis und kein Zielbild vor Augen, welches sie gemeinsam verfolgen wollen. Jeder Einzelne ist dadurch natürlich in seinem Denken und Handeln extrem flexibel. Das Unternehmen ist dann aber nicht lebensfähig. Es herrschen chaotische Verhältnisse, da die Eigenkomplexität des Unternehmens zu hoch ist.

Eine der größten Herausforderungen in der heute global vernetzten Welt ist, dass Unternehmen auf immer schneller ablaufenden Veränderungen der Umwelt reagieren müssen. Eine Justierung der Eigenkomplexität im Rahmen von Changeprojekten muss in immer höher werdenden Frequenzen erfolgen. Strategien und Prozesse in Unternehmen müssen immer wieder validiert und angepasst werden, was letztendlich die Lebensfähigkeit von Unternehmen gefährdet. Nun stellt sich also die Frage, wie Unternehmen auf die Einflüsse der Umwelt adäquat reagieren können, ohne mit großem Aufwand und mittels Changeprojekte Strategien und Prozesse anzupassen. Hier kommt die Selbstorganisation ins Spiel. Die Schwierigkeit besteht nun aber darin, dass man Selbstorganisation nicht verordnen und bis ins letzte Detail definieren kann. Klar, sonst wäre es keine Selbstorganisation mehr. Selbstorganisation kann man nur durch entsprechende Regelräume begünstigen, die von der Unternehmensführung definiert werden. In diesen Regelräumen haben die Mitarbeiter der Unternehmen dann genügend Freiraum sich zu organisieren.

Anregungen für Selbstorganisation kann man in der Natur finden, speziell am menschlichen Körper. Wenn uns Menschen warm ist, fangen wir an zu schwitzen. Es gibt zentrale Instanz im menschlichen Körper, die dieses Schwitzen anordnet. Wir müssen uns das Schwitzen auch nicht bewusst vornehmen. Es geschieht einfach als Reaktion auf den Temperaturanstieg in der Umwelt. Ähnlich verhält es sich wenn die Temperatur in der Umwelt sinkt. Dann wird das Blut zum Wärmen vorrangig in die Organe gepumpt, die die Lebensfähigkeit des Menschen sichern. Unsere Finger und Zehen fangen mitunter an zu frieren, da hier nicht mehr so Blut ankommt. Auch das müssen wir uns nicht bewusst vornehmen.

Ein soziales System beschreibt Stafford Beer, Begründer der Managementkybernetik, mit dem Modell des lebensfähigen Systems, dem Viable System Model (VSM). Das VSM beschreibt Interaktions- und Kommunikationswege, welche Informationsverarbeitung in Echtzeit gewährleistet und damit erst Lebensfähigkeit ermöglicht.

Laut dem VSM lenkt ein System 1 eigenständige Operationen mit der Umwelt. Ein System 2 gleicht durch einen Informationskanal Oszillationen bei Anpassungsversuchen der Systeme 1 aus. Für die Ressourcenzuteilung und die interne Optimierung ist ein System 3 zuständig. Die Umweltinteraktion, Beobachtung und Simulierung möglicher Zukunft übernimmt ein System 4. System 5 ist die oberste Lenkungshierarchie, welche das Selbstverständnis entwickelt und Entscheidungen trifft, die die Ausrichtung des VSM bestimmen. Jedes System 1 beinhaltet wieder ein VSM, in dem gelenkt, abgestimmt und optimiert wird. Daran erkennt man sehr eindrucksvoll den fraktalen Aufbau des Modells. Lenken wird im VSM wie folgt verstanden. Einschränken oder Erhöhen von Varietät, also der Möglichkeiten. Das ist gleich bedeutend mit dem Erhöhen oder Senken der Eigenkomplexität des Unternehmens. Es wird sich aufeinander abgestimmt, so dass alle das tun können, was sie können. Wie bereits angedeutet hat sich Beer bei der Erstellung dieses Modells an lebende Systeme, wie dem Menschen angelehnt. Nachfolgend möchte ich dies an den Basiselementen des menschlichen Systems verdeutlichen.

System 1 steht für eine Gemeinschaft als auch für ein Individuum. Es ist individuell, autonom, liberal und selbstorganisiert. Eine Gemeinschaft ist geprägt durch eine individuelle Zusammensetzung. Das menschliche Gehirn ist auch aus vielen einzelnen Arealen zusammengesetzt. Es bedarf daher einer Abstimmung untereinander, welche überhaupt erst eine Gemeinschaft oder das Denken ermöglicht. Eine koordinierende Funktion übernimmt System 2. Es hat die Funktion, über die anderen Gemeinschaftsmitglieder etwas zu erfahren oder mit ihnen etwas zu erleben. Beim Menschen ist es das Nervensystem bzw. im Gehirn die Synapsen. System 3 stellt eine optimierende Funktionseinheit dar und hat die Aufrechterhaltung der Gemeinschaft bzw. des Menschen im Auge. Das optimierende Element hält die Lebensfähigkeit aufrecht und möchte das Potenzial sichern. Beim Menschen selbst sind es Aktivitäten, die aus Willen und Zwängen resultieren, beispielsweise die Nahrungsaufnahme. Ein Mensch bzw. eine Gemeinschaft ist immer wieder in einer größeren Gemeinschaft eingebunden und auf diese angewiesen. Um sich zu versorgen oder um Aufgaben nachzugehen, sind daher Aktivitäten und Austauschbeziehungen mit anderen Gemeinschaften notwendig. Dazu muss mit Zukunft umgegangen werden. Dies erledigt System 4. Die Identität wird durch das eigene bzw. gemeinsame Wertverständnis bestimmt und zeigt sich in den Zielen, Visionen oder Kulturen, welche der Mensch bzw. die Gemeinschaft verfolgt bzw. lebt. Diese Ziele werden immer wieder erneuert und angepasst, was Aufgabe von System 5 ist.

Die oben dargelegten Zusammenhänge zum VSM habe ich einer wie ich finde sehr genialen Schautafel entnommen, die einer meiner Wegbegleiter auf meiner Reise des Verstehens, Alexander Tornow, entwickelt hat. Weitere Details zum VSM können Sie beim Malik Management Zentrum St. Gallen nachlesen.

Wollen Unternehmen die immer größer werdende Komplexität handhaben, ein Beherrschen wird niemals möglich sein, sind Changeprojekte im herkömmlichen Gewand keine Lösung. Eine mögliche Lösung umfasst die Selbstorganisation. Ein Modell zum Operationalisieren von Selbstorganisation ist das Viable System Model (VSM).

1 Star2 Stars3 Stars4 Stars5 Stars (1 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Komplexität, Management und Leadership | Tagged , , , , | 3 Comments

Überholt die Maschine den Menschen?

Diese Frage wurde in einer Radiosendung des SWR2 namens Das digitale Superhirn thematisiert. In dieser Sendung, die am 31.05.2012 ausgestrahlt wurde, diskutieren Prof. Dr. Michael Decker (Physiker, Lehrstuhl für Technikfolgenabschätzung am Institut für Philosophie des KIT, Karlsruhe), Prof. Dr. Gerald Hüther (Hirnforscher, Universität Göttingen) und Frank Rieger (Informatiker und IT-Unternehmer, Berlin). Mehr oder weniger, so höre ich jedenfalls heraus, meinen alle 3, dass dieses Szenario nicht wirklich vorstellbar ist. Ich möchte einen anderen Blickwinkel auf die Thematik wagen.

Ich habe des Öfteren die Gedanken und Ideen zur Entwicklung der Menschheit von Gotthard Günther dargestellt. Er unterteilte die Entwicklung der Menschheit in 3 Epochen.

  1. Die primitive Epoche
  2. Die Epoche der regionalen Hochkulturen
  3. Die Epoche der universellen planetaren Kultur

Details zu den 3 Epochen können Sie im Post Wie wirken sich Werte-Welten auf das Führen von Unternehmen aus? nachlesen.

Wir haben beim Übergang von der ersten zur zweiten Epoche eine Sicherheit durch Abstraktion erzeugt. Menschen wollten Naturvorgänge verstehen, um so Sicherheit aufzubauen. Die Beobachtungen, die Menschen getätigt haben, wurden durch Schrift und Sprache zu einem Kommunikationsmedium abstrahiert. Menschen haben Objekte eingeführt, die Dinge der Natur widerspiegeln sollten, aber nicht die wahren Dinge der Natur sein können. Denn wie Kant schon formulierte, “das Ding an sich” ist für Menschen nicht erkennbar. Auf diesen abstrahierten Objekten wurde das Wissen der Menschen begründet und dabei so getan als wenn die Objekte, die man in Theorien behandelt, die “wirklichen” Objekte der Natur sind. Das ist aber eben nicht der Fall. Deshalb ist die Sicherheit, in denen die Menschen der 2. Epoche sich sonnen, nur eine Scheinsicherheit.

Die folgende Frage stellt sich also für uns. Was wissen wir wirklich von der Natur? Wissen wir beispielsweise ganz exakt, was Gravitation eigentlich ist? Menschen haben beobachtet, dass sich Massen gegenseitig anziehen und haben dies dann Gravitation genannt. Werfen Sie beispielsweise einen Ball in die Luft wird er irgendwann wieder auf die Erde fallen. Was aber “wirklich” dazu führt, dass der Ball fällt, wissen wir nicht. Fragt man danach, bekommt man als Antwort “wegen der Gravitation”. Und dann tun Menschen so als wüssten Sie Bescheid. Gravitation ist ein Modell, das wir verwenden, um das Herunterfallen eines Balles zu erklären. Was aber hinter dem Modell steckt, wissen wir nicht. Wir wollen es auch gar nicht wissen.

Wir befinden uns derzeit in der zweiten Epoche und wissen nicht viel mehr von der Natur als die Menschen in der ersten Epoche. Wir haben Modelle entwickelt, die Geschehnisse in der Natur erklären sollen. Diese Modelle sind aber unsere Erfindung und sind auf Basis unserer Beobachtungen abgeleitet. An diese Modelle halten wir fest, da unsere Beobachtungen diese immer wieder bestätigen. Wir können unsere Umwelt sowieso nur durch Modelle verstehen. Das hat Peter Addor, ein Wegbegleiter auf meiner Reise des Verstehens, sehr schön in seinem Post Effiziente Steuerung verlangt nach Modellen dargelegt. Damit gaukeln wir uns dann dieses Wissen von der Natur nur vor, da dieses Wissen ja auf diesen Modellen beruht. Hier möchte ich wieder auf Peter Addor verweisen. Er hat nämlich diese Tatsache sehr schön in seinem Post Es gibt keine absolute Gewissheit – auch nicht in exakten Wissenschaften ausgeführt.

Ebenfalls bestärkt in der Denkweise, dass wir nicht mehr von unserer Umwelt wissen als Menschen in der ersten Epoche, hat mich Armin Rütten, ein langjähriger Wegbegleiter meiner Reise des Verstehens. Ich würde fast sagen, er hat den Startschuss zu meiner Reise gegeben. Gedanken und Ideen von Herrn Rütten können Sie auf seiner Homepage erkunden. Herr Rütten hat zusammen mit einem seiner Schüler ein Buch über Wissensaktivierung geschrieben, in welchem die Wahrnehmungs- und Denkvorgänge der Menschen messerscharf unter die Lupe genommen werden. Ich durfte das Manuskript vor Veröffentlichung lesen. Unglaublich guter Lesestoff.

Ich habe bislang Folgendes thematisiert. Wir Menschen abstrahieren unsere Umwelt mit der Intension diese zu verstehen und uns darüber auszutauschen. Wir müssen also abstrahieren. Diese Abstraktionen sind aber nicht gleich der “Umwelt an sich”, sonst wären Sie keine Abstraktionen. Wir wissen also nichts von der “Umwelt an sich”. Der Gipfel der Abstraktion wurde mit dem Einzug der digitalen Maschinen erreicht. Denn hier wurde auf genau 2 Werte abstrahiert, nämlich auf NULL und EINS. Nehmen Sie die analogen Fernsehprogramme, wo es noch möglich ist, Streifen auf den Fernsehbildern zu produzieren. Oder nehmen Sie die analogen Radioprogramme, wo es noch möglich ist Rauschen im Ton zu erzeugen. Im digitalen Übertragungsmodus gibt es nur noch “Empfang | Kein Empfang”, nichts dazwischen, also auch kein Rauschen. Das ist aber nicht das was in der Natur vor sich geht. Es gibt nicht immer nur zwei Werte für eine bestimmte Situation in der Natur. Die Umwelt der Menschen ist vielfältiger, die wir aber auf eine Einfältigkeit reduzieren.

Wir Menschen sind aber in der Lage, uns aus dieser Umklammerung der Abstraktion wieder zu befreien, nicht komplett aber ein Stück weit. Denn wir benötigen Abstraktion für unsere Wahrnehmung und für die Kommunikation untereinander, da wir dafür Modelle benötigen. Die digitale Abstraktion, die wir benötigt haben, um Computer zu bauen, und die mehr und mehr auch unser Denken infiltriert hat, ist nicht notwendig. Wenn wir also den Eindruck haben sollten, dass Maschinen uns überholen könnten, ist das nicht dem Fakt geschuldet, dass die Maschinen immer “schneller” werden, sondern dass wir immer “langsamer” werden. Wir sollten also wieder anfangen zu denken. Der Startpunkt dafür muss in den Schulen gesetzt werden. Missachten wir diesen Fakt, wird der Abstand zwischen Mensch und Maschine immer geringer. Daran glaube ich. Überholen können uns die Maschinen trotzdem nicht. Das möchte ich jetzt noch zum Thema machen.

Menschen bauen Maschinen. Das bedeutet, dass diese Maschinen nicht mächtiger sein können als Menschen. In einem Regelraum, der immer abgeschlossen ist, muss es immer etwas geben, was wir als Axiom voraussetzen müssen, was also nicht durch anderes aus dem Regelraum bewiesen werden kann, da man sonst in einem Zirkelschluss feststeckt. Kurt Friedrich Gödel, österreichisch –amerikanischer Mathematiker, hat diesen Fakt in seinem Unvollständigkeitstheorem aufgezeigt. Der Anfang ist immer der Glaube, nicht das Wissen. Ähnliches erkennen wir am Gehirn. Wir nutzen unser Gehirn um unser Gehirn zu verstehen. Da wird es immer einen blinden Fleck geben müssen, der für uns nicht erkennbar ist. Ich möchte dies an einem praktischen Beispiel, der automatischen Einparkhilfe im Auto, illustrieren.

Die automatische Einparkhilfe im Auto besteht aus einem Programm und Daten. Daten werden über Sensoren am Auto erfasst. Die Daten spiegeln die Position des Autos in Bezug auf die Parklücke vollständig wieder. Das könnten sein: Abstände der Räder vom Bordstein, Länge der Parklücke, Einschlagwinkel des Lenkrads, Winkel des Autos in Bezug auf den Bordstein. Das Programm nutzt die Daten um einen Algorithmus auszuführen, der eine Motorik an der Lenkstange betreibt, die das Auto automatisch in die Parklücke fahren lässt, in dem die Lenkvorrichtung und Gas betätigt werden. Um die automatische Einparkhilfe betriebsfähig zu haben, muss diese angelernt werden. Dazu wird das Auto aus verschiedenen Positionen vom Menschen geführt und die erfassten Daten bzgl. der Position des Autos zusammen mit den zugehörigen Aktionen an Lenkvorrichtung und am Gaspedal in einer Referenztabelle erfasst. Das nennt man dann unterwiesenes Lernen. Nach dem Anlernen, kann das Auto mithilfe der automatischen Einparkhilfe in Parklücken befördert werden, auch von Positionen, die nicht angelernt wurden. Dafür müssen die neuen Daten immer wieder in die Referenztabelle übernommen werden. Damit könnten dann auch Hindernisse auf dem Weg in die Parklücke “erkannt” und umfahren werden. Das nennt man dann nicht-unterwiesenes Lernen. Stellen wir uns aber folgende Konstellation vor. Die Parklücke ist derart blockiert, dass diese nicht befahren werden kann. Was würde passieren? Im besten Fall würde das Auto stoppen und genau diese Meldung ausgeben. Diese Technik ist heute bereits realisiert. Wenn wir aber beispielsweise möchten, dass der Gegenstand in bestimmen Fällen automatisch beiseite geräumt wird oder dass automatisch eine neue verfügbare Parklücke gesucht wird, stockt der Algorithmus. An dieser Stelle reicht es nämlich nicht aus, wie noch beim unterwiesenen oder nicht-unterwiesenen Lernen, nur die Daten zu ändern. Jetzt muss das Programm geändert werden. Das Programm muss also in Eigenleistung sich selber ändern können. Es müsste adaptiv lernen. Das ist heute noch nicht realisiert. Die automatische Einparkhilfe müsste also nicht nur Lernen können, wie in den ersten beiden Fällen, sondern es müsste Lernen können wie es lernt. Davon sind wir heute technologisch noch meilenweit entfernt, auch wenn uns die Forschungsergebnisse der Künstlichen Intelligenz manchmal etwas anderes vorgaukeln mögen. Details finden Sie in diesem meiner Posts. Dort schreibe ich unter anderem von Lernen_0, Lernen_1 und Lernen_2. Diese drei Lernprozesse stimmen mit denen aus dem Beispiel der automatischen Einparkhilfe überein: Lernen_0 ist das unterwiesene Lernen, Lernen_1 das nicht-unterwiesene Lernen und Lernen_2 ist das adaptive Lernen.

Ich bin ja noch eine Antwort auf die im Titel gestellte Frage schuldig. Nein. Die Maschinen werden uns niemals überholen, zumindest so lange nicht wie sie auf der zweiwertigen Aristotelischen Logik beruhen, was sie derzeit alle tun.

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Denken, Hirnforschung | Tagged , , , , | 1 Comment

Agilität ist in aller Munde, aber auch im Kopfe?

“Wir müssen agil sein, um wettbewerbsfähig zu sein”. Diesen Ausspruch höre ich sehr oft. Ich glaube(!) auch an diesen Ausspruch. Wissen werde ich es erst dann, wenn dieser wirklich bewiesen ist. Aber zu dieser Thematik verweise ich gerne auf meinen Post Ohne Glauben ist keine Sinnkopplung möglich. Meinen Glauben an diesen Ausspruch möchte ich heute erhärten, aber ebenfalls die im Titel gestellte Frage beantworten, nämlich ob auch in diesem Sinne heutzutage schon in Unternehmen gedacht und gehandelt wird.

Was bedeutet eigentlich Agilität? Eine mögliche und wie ich finde passende Definition habe ich hier gefunden.

Agil sein oder Agilität bedeutet nicht nur Wandel zu akzeptieren. Agilität geht einen Schritt weiter und fordert Wandel, wenn dies sinnvoll erscheint. Demnach müssen zwei Bedingungen erfüllt sein, damit eine Organisation als agil bezeichnet werden kann:

  • Die Organisation akzeptiert und bewältigt Wandel.
  • Die Organisation nutzt und löst Wandel zum eigenen Vorteil aus.

Man muss also Notwendigkeiten für einen Wandel im Unternehmen erstens erkennen, zweitens bewerten und dann drittens abhängig von der Bewertung reagieren, sprich entweder den Wandel einleiten oder eben nicht. Wenn ich diese Definition lese, komme ich zu dem Schluss, dass diese Herausforderung ein Unternehmen schon immer meistern musste. Es kommt in unserer heute immer vernetzter werdenden Welt noch ein Faktor hinzu, der die Herausforderung größer werden lässt und die Unternehmenslenker vor große Schwierigkeiten stellt. Das ist die Geschwindigkeit der auftretenden Änderungen, denen die Unternehmen ausgesetzt sind und die vom Markt (Kunden, Lieferanten, Wettbewerber) getriggert werden. Das bedeutet, der oben beschriebene zirkuläre Prozess des Erkennens, Bewertens und Reagierens auf Änderungen, muss in immer kürzeren Abständen vollzogen werden.

Genau dieser Fakt wird aber bei der klassischen Denk- und Handelsweise nicht berücksichtigt. Nach der klassischen Denk- und Handelsweise, die ihre Sinnhaftigkeit mit dem Taylorismus begründet, ist Denken und Handeln voneinander separiert. Es gibt Menschen im Unternehmen, die denken müssen. Diese Menschen gehören in der Regel dem Führungsteam an und sind verantwortlich für die Definition der Vision und der Ziele, für das Planen etc. Dann gibt es die Arbeiter, die ausführen und handeln müssen. Diese müssen nicht denken. Es ist ja alles bereits vorgedacht und auf dem Silbertablett serviert. Diese Denk- und Handelsweise hat in den Anfangszeiten der Industrialisierung Erfolge aufzuweisen. Nur jetzt, wo Unternehmen im Zeitalter des Internets agieren müssen, kommen Änderungsbedarfe immer häufiger. Handlungen müssen viel frequentierter auf Sinnhaftigkeit und Nutzbarkeit reflektiert werden. Die klassische, ich habe in vielen meiner Posts auch von der mechanistischen Denk- und Handelsweise gesprochen, sind durch die agile Denk- und Handelsweise zu ersetzen. Best Practice is out, Own Practice is in.

Ich möchte nun den oben beschriebenen Prozess des Erkennens, Bewertens und Reagierens bildlich darstellen und daran die Unterschiede zwischen der klassischen und agilen Denk- und Handelsweise erklären.

Bei der agilen Denk- und Handelsweise ist man sich bewusst, dass es sinnlos ist, langfristige Ziele auszuloben, die man unbedingt erreichen möchte. Zum einen werden externe Einflüsse dazu führen, dass ein Plan, den man erstellt hat, um dieses Ziel zu erreichen, immer wieder obsolet wird, da Unvorhersagbarkeiten nicht im Plan enthalten sind. Zum anderen ist man sich auch bewusst, dass sich Ziele aufgrund der externen Einflüsse ändern werden. Dementsprechend wird in kleinen Iterationen gedacht und gehandelt. Änderungen sind also ganz bewusst eingeplant und gewollt. Sie werden als wünschenswert angesehen und sind Ergebnis eines Lernprozesses des gesamten Unternehmens. Ein Unternehmen ist quasi in einem nicht endenden Lernzyklus. Ein Reagieren führt zu einem Zustand, der erkannt und bewertet werden muss. Auf Basis der Bewertung wird dann wieder reagiert usw. usf. (Achtung: Keine Reaktion ist auch eine Reaktion, ebenso wie keine Entscheidung auch eine Entscheidung ist.)

Im Gegensatz dazu möchte man sich bei der klassischen Denk- und Handelsweise an Langfristzielen messen. Ein sehr gutes Beispiel für die Inthronisierung der klassischen Denk- und Handelsweise sind die klassischen Projektmanagementmethoden, die noch nach dem Wasserfallprinzip aufgebaut sind. Mit der Motivation, ein Langfristziel zu erreichen, ist es natürlich selbstverständlich Änderungen als unerwünscht anzusehen. Da man sich diesen Änderungen trotzdem nicht entziehen kann, das erkennen selbst die klassischen Projektmanager, hat man den Change Request Prozess institutionalisiert. Da Änderungen wie gesagt unerwünscht sind, legt man den Änderungsstellern “Steine in den Weg”. Sie müssen beschreiben und begründen, weshalb diese Änderung wichtig ist. Dieser Prozess dauert dann in der Regel oft so lange, dass ich oft erlebt habe, dass der eigentliche Änderungswunsch nach der Genehmigung, wenn er dann genehmigt wird, bereits obsolet ist. Mit dem Change Request Prozess im Rahmen eines klassischen Projektmanagements reagiert man also nicht auf den Fakt, dass ein Projekt immer frequentierteren Änderungen unterlegen ist.

Bei einer klassischen Denk- und Handelsweise unterzieht man sich auch einem viel größeren Risiko als bei der agilen. In dem man ein Langfristziel auslobt und dieses versucht zu erreichen, hat man genau einen Schuss und dieser muss sitzen. Sitzt dieser nicht, hat man in der Regel hohe Kosten ohne Ertrag gehabt. Bei der agilen Denk- und Handelsweise ist oft ein Langfristziel gar nicht bekannt. Man steckt kurzfristige Ziele ab und versucht diese zu erreichen. Die kurzfristigen Ziele werden immer wieder auf Sinnhaftigkeit validiert, was dazu führen kann, das weniger “Geld verbrannt wird”, da man schneller die Irrpfade bemerkt. Allerdings sind diese kurzfristigen Ziele notwendig, da man meiner Meinung nach ohne Ziele handlungsunfähig ist, da man keine Motivation für irgendein Agieren besitzt. Wohin jedoch diese Kurzfristziele langfristig zielen kann man nicht wissen, also muss man es auch nicht thematisieren. Die meisten Unternehmen berücksichtigen diesen Fakt nicht. Es gibt gar eigens abgestellte Abteilungen, meistens im Controllingbereich, die für nichts anderes verantwortlich sind, als für die Langfristplanung. Oft höre ich auch, dass detaillierte langfristige Projektpläne, Gantt-Charts, PERT-Diagramme etc. Sicherheit geben, die man benötigt, um den Status von Aktivitäten zu erkennen. Allerdings ist diese Sicherheit nur eine Scheinsicherheit. Glaubt man dieser Sicherheit, schippert man mit seinem Projekt in einer selbst konstruierten Scheinwelt. Den Schein erkennt man irgendwann und zwar aller spätestens zum Ende von geplanten Aktivitäten. Dann ist aber in der Regel alles zu spät.

Ich möchte Ihnen Effectuation als eine agile Denk- und Handelsweise empfehlen. Details finden Sie auf dieser Seite im Netz. Klicken Sie den dritten Registerpunkt “Über Effectuation” auf der linken Seite im Navigationsmenü an, erhalten Sie einführende Erklärungen. 4 handlungsleitende Prinzipien, die Effectuation hervorbringt und die Sie auf der Seite zu finden sind, sind aus meiner Sicht absolut bemerkenswert.

  1. Prinzip der Mittelorientierung: Beginnen Sie bei wer Sie sind, was Sie wissen und wen Sie kennen – nicht bei “mythischen Zielen”.
  2. Prinzip des leistbaren Verlusts: Orientieren Sie Ihren Einsatz am leistbaren Verlust – und nicht am erwarteten Ertrag.
  3. Prinzip der Umstände und Zufälle: Nutzen Sie Umstände, Zufälle und Ungeplantes als Gelegenheiten, anstatt sich dagegen abzugrenzen.
  4. Prinzip der Vereinbarungen und Partnerschaften: Treffen Sie Vereinbarungen und bilden Sie Partnerschaften mit denen, die mitzumachen bereit sind, anstatt sich abzugrenzen oder nach den “richtigen” Partnern zu suchen.

Welches Resümee möchte ich abschließend zur Diskussion stellen? Es wird nicht flächendeckend genug in Unternehmen agil gedacht und gehandelt. Dass die Notwendigkeit dafür besteht, habe ich hoffentlich plausibel genug dargelegt. Dass dieser Notwendigkeit aber nicht Rechnung getragen wird liegt wohl daran, dass in der Vergangenheit mit der klassischen Denk- und Handelsweise der Unternehmensführung Erfolg erwirtschaftet wurde und ein Vergessen uns Menschen schwer fällt (hier und hier). Also lassen Sie uns das Vergessen lernen um agil zu werden. Die 4 Prinzipien von Effectuation können nur den Platz in unserem Kopf finden, wenn wir es verstanden haben, unseren Erfolg der Vergangenheit zu vergessen. Let us learn to unlearn.

1 Star2 Stars3 Stars4 Stars5 Stars (1 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Denken, Management und Leadership | Tagged , , , , , , | 3 Comments

Ohne Glauben ist keine Sinnkopplung möglich

Gebhard Borck thematisiert in seinem Blog und gleichnamigen Buch Affenmärchen – Arbeit frei von Lack und Leder unter anderem die Sinnkopplung. Hier meine interpretierte Kurzform

Tätigkeiten, die von Menschen ausgeführt werden sollen, müssen für diese Sinn machen. Dieses „Sinn machen“ wird nicht, wie von vielen Mainstreamquellen aufgezeigt, durch Sinnstiftung, sondern durch Sinnkopplung erreicht. Sinnstiftung ist deshalb eine Illusion, weil den Menschen nicht von außen Sinn eingetrichtert werden kann. Menschen erzeugen in sich einen Sinn in dem sie koppeln.

Details können Sie in Gebhards Blog und eben in seinem Buch recherchieren. Mir geht es in meinem heutigen Post darum zu evaluieren, was es unter anderem braucht um überhaupt Sinn zu koppeln. Der Titel dieses Posts sagt es ja schon aus. Es ist der Glauben. Auf dem Weg zu dieser Erkenntnis half mir vor allem die Mathematik weiter. Sie lesen richtig. Mathematik bestärkt mich darin, dass der Glaube wichtig ist und eben nicht das Wissen, denn der Volksmund sagt ja: “Glauben ist nicht wissen.” Wie es dazu kam möchte ich jetzt kurz darlegen.

Ich bin vor geraumer Zeit durch Zufall auf das Buch Eine gewisse Ungewissheit oder Der Zauber der Mathematik von Gaurav Suri und Hartosh Sigh Bal gestoßen, von dem das Cover nebenstehend abgebildet ist. Ich habe es mir bestellt und regelrecht verschlungen. In diesem Buch wird in Romanform der Zauber der Mathematik enthüllt, in dem mathematische Erkenntnisse auf das praktische Leben gespiegelt werden.

Die Hauptfigur dieses Buches ist Ravi. Als kleiner Junge bekommt er von seinem Großvater den Mathematikvirus eingeimpft, in dem er kleine mathematische Knobeleien von ihm vorgesetzt bekommt. Nach dem Tod seines Großvaters verblasst sein mathematisches Interesse und wird erst wieder während seines Studiums Stanford wieder zum Leben erweckt. Ravi belegt ein Seminar über Unendlichkeit. Durch die gewonnenen Erkenntnisse in diesem Seminar und vor allem auch durch die Gespräche mit dem Dozenten dieses Seminars, Nico, und mit seinen Kommilitonen wird die Frage nach der absoluten Gewissheit oder Wahrheit debattiert. Verstärkt wird die Wichtigkeit der Klärung der Frage nach der absoluten Gewissheit noch durch die Recherchen, die Ravi anstellt, nachdem er herausgefunden hat, dass sein geliebter Großvater, der in ihm das Mathematikfieber geweckt hat, im Jahre 1919 in New Jersey wegen Verstoßes gegen das Blasphemiegesetz im Gefängnis saß. Im Zuge dieser Recherchen analysieren er und seine Kommilitonen Gespräche zwischen seinem Großvater, einem Atheisten, der absolut sicher ist, die Nichtexistenz Gottes mathematisch zu beweisen, und dem Untersuchungsrichter, der streng gläubiger Christ ist. An dieser Stelle möchte ich nicht vorgreifen, um Ihnen die Spannung nicht zu nehmen. Aber eines muss ich los werden, bevor ich den Glauben thematisieren möchte.

Es ist atemberaubend, wie der Mathematik, die die meisten von uns aus der Schulzeit wohl als trocken und verstaubt in Erinnerung haben, hier Leben eingehaucht wird. Zweieinhalbtausend Jahre abstraktes Denken, von Pythagoras und Euklid bis hin zu Riemann, Hilbert, Cantor und Gauß, werden benutzt um sehr praxisnah die Frage nach absoluter Gewissheit zu beantworten. Man kann die Begeisterung von Ravi und seinen Kommilitonen richtig fühlen, die sie für die Mathematik entwickeln. Nico, der Dozent des Seminars über Unendlichkeit, stellt sehr oft einfache Fragen, die von den Studenten relativ leicht zu beantworten sind. Die Antworten zahlen aber in die finalen Ergebnisse und den gewonnenen Erkenntnissen ein. Die Studenten haben also Erfolgserlebnisse und auch das Gefühl beteiligt zu sein. Der Dozent und sie sind ein Team, die gemeinsam Erkenntnisse gewinnen. Ich bin mir sicher, wenn der Mathematikunterricht in den Schulen und die Mathematikvorlesungen in den Hochschulen ähnlich ablaufen würden, gäbe es mehr Mathematikinteressierte. Diese Thematik habe ich in meinem Post In der Schule verlernen Schüler das Denken thematisiert.

Bei der Offenlegung der Wichtigkeit des Glaubens spielt das 5. Postulat von Euklid eine wichtige Rolle. Denn nachdem Ravi und seine Kommilitonen auf dem Weg der Erkenntnissuche auf Basis dieses Postulats herausfanden, dass es mehrere konsistente Theorien mit unterschiedlichen Aussagen geben kann, erschien ihnen das Leben irgendwie sinnlos. Denn sie haben gerade Mathematik studiert, um echte wahre Gewissheiten aufzuspüren. Da das nun nicht mehr möglich schien, gab es aus ihrer Sicht keinen Weg aus der Sinnlosigkeit. Ein kleiner Monolog von Adin, einem von Ravis Kommilitonen, den sie im Buch auf den Seiten 377 und 378 finden, macht dieses Unbehagen deutlich.

Dieses Unbehagen verflog dann gerade bei Ravi sehr schnell nachdem er einen Tagebucheintrag des Untersuchungsrichters las, welchen dieser im Jahre 1930, also gut 11 Jahre nach den Gesprächen mit Ravis Großvater im Gefängnis, verfasste. In diesem Tagebucheintrag, welchen Sie in dem Buch auf den Seiten 387 bis 417 finden, zog der Richter Resümee über die Begegnung mit Ravis Großvater. Er kam für sich zu der Erkenntnis, dass es unmöglich ist irgendetwas zu beginnen ohne zunächst an etwas zu glauben. Für ihn ist es beispielsweise der Glaube an Gott. Für Ravis Großvater ist es der Glaube dass mathematische Objekte außerhalb des menschlichen Denkens, unabhängig vom Bewusstsein existieren. Es gibt also ganz unterschiedliche Schattierungen von Glauben. Jeder Mensch muss im Anfang an etwas glauben, um Sinnkopplung betreiben zu können. Sinnkopplung setzt also Glauben voraus. Da der Glaube aber nicht beweisbar ist, sonst wäre es kein Glaube, kann es in dem Sinne wie wir absolute Gewissheit verstehen, diese nicht geben. Es ist also sinnlos nach der absoluten Gewissheit zu suchen. Vielmehr ist es bedeutend, dass jeder Mensch einen Ausgangspunkt hat, der für ihn als einigendes Prinzip dient, nach dem dieser dann denkt und agiert. Die Frage nach der Wahrheit dieses Ausgangspunktes ist unbeantwortbar. Die Frage nach der Passbarkeit schon, denn aus dieser entscheidet sich, ob Menschen miteinander koppeln können oder eben nicht. Damit will ich natürlich nicht die Wichtigkeit des Wissens bestreiten, sondern einzig und allein die Existenz von absolutem Wissen.

1 Star2 Stars3 Stars4 Stars5 Stars (4 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Management und Leadership, Optimierung und Mathematik, Philosophie | Tagged , , , | 6 Comments