Zeit lässt sich nicht managen

Alles in der Welt wird scheinbar schneller und wir haben das Gefühl uns immer schneller drehen zu müssen. Nur dadurch verstärkt sich unser Gefühl, dass sich alles nur noch schneller dreht. Ein Wettlauf, den wir niemals gewinnen können. Also sollten wir ihn erst gar nicht starten, auch wenn die vielen Bücher zu Zeitmanagement etwas Anderes postulieren.

Ich habe heute eine interessante Serie in der Stuttgarter Zeitung entdeckt, in welcher Menschen über das Thema Zeit nachdenken und ihre Gedanken zu Papier bringen. Wirklich sehr interessant und lesenswert.

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Komplexität, Philosophie | Tagged | 3 Comments

Kybernetik – die Versöhnung zwischen dem Rationalen und dem Humanen

Sehr oft habe ich über die Bedeutung der Kybernetik für meine Reise des Verstehens nachgedacht und bin dabei zu der Erkenntnis gelangt, dass die Kybernetik einen zentralen Punkt einnimmt, wenn wir die Probleme der heutigen Zeit, wie die Umweltproblematik oder die Gesellschaftskrise, in den Medien eher als Finanzkrise bezeichnet, lösen wollen.

Inspiriert wurde ich bei meiner Ideenforschung von Stephen Toulmin, der in seinem Buch Kosmopolis. Die unerkannten Aufgaben der Moderne über die historische Entwicklungen des Humanismus und des Rationalismus berichtet und Schlussfolgerungen für das menschliche Leben in der Zukunft herleitet. Das Vorwort, Kapitel 1 und Kapitel 5 des Buches können sie in diesem Dokument nachlesen.

Aber natürlich haben mich auch die Erkenntnisse und Ideen Gotthard Günthers nicht unberührt gelassen. In seiner Vorlesung über Naturphilosophie zeichnet Günther die geschichtliche Entwicklung, startend mit den Anfängen der Religion bis hin zu den ersten wissenschaftlichen Errungenschaften, die auf rationalistische Denkweisen beruhen, nach.

Die Versöhnung: Eine erste Annäherung

Norbert Wiener, einer der Pioniere der Kybernetik, gibt eine aus meiner Sicht treffende Definition von Kybernetik wieder, wenn er sagt:

Kybernetik ist die Lehre von Regelung, Steuerung und Kommunikation im Lebewesen und in der Maschine.

Die Kybernetik hat als erste Wissenschaft angefangen, auf interdisziplinare Art und Weise Natur- und Geisteswissenschaften in einen Kontext zu setzen, denn sie versucht, Erkenntnisse die bezüglich toter Materie in den Naturwissenschaften gewonnen wurden, mit den Erkenntnissen bezüglich lebender Materie aus den Geisteswissenschaften zu verheiraten.

Geboren wurde der Ansatz der Kybernetik auf den Macy-Konferenzen. Zwischen 1946 und 1951 wurden unter dem Titel “Cybernetics. Circular Causal, and Feedback Mechanisms in Biological and Social Systems” insgesamt zehn Konferenzen unter der Schirmherrschaft der Josiah Macy, Jr. Foundation veranstaltet. Auf den Konferenzen wurde interdisziplinär nach einer universalen Theorie der Regulation, Steuerung und Kontrolle zu entwickeln versucht, die für Lebewesen wie für Maschinen, für ökonomische wie für psychische Prozesse, für soziologische wie für ästhetische Phänomene gleichermaßen gilt. Da diese Dikussionen interdisziplinär waren, war es unumstößlich, dass auch Vertreter verschiedener Wissenschaftsbereiche vertreten waren, beispielsweise aus den Bereichen Mathematik, Physik, Elektrotechnik, Psychologie, Neurophysiologie, Psychiatrie, Soziologie oder Anthroplogie.

Kybernetik wird in Kybernetik erster und zweiter Ordnung unterschieden. Dazu möchte ich ein paar Worte verlieren, da diese Unterscheidung uns auf dem Weg zur Versöhnung zwischen dem Rationalen und dem Humanen voranbringt. Starten wir mit der Kybernetik erster Ordnung, stoßen wir auf die Begriffe Regelung und Steuerung, die wir schon von der Definition von Wiener her kennen. Beiden gemeinsam ist, dass ein bestimmtes System, nämlich das zu steuernde oder zu regelnde, einen bestimmten Zweck erfüllen soll, wodurch sich eine bestimmte Variable in gewünschter Weise verhalten soll. Der große Unterschied zwischen Steuerung und Regelung besteht nun darin, dass bei der Steuerung eine lineare Ursache-Wirkungsbeziehung vorliegt, was dazu führt, dass im Rahmen von Steuerung der erreichte Endzustand der zu steuernden Variable selbst bei starken Abweichungen vom gewünschten Verhalten oder Variablenwert ein endgültiger ist, also nicht mehr geändert wird. Es gibt also keinen regulierenden Mechanismus hinsichtlich der Abweichungen des Istwertes vom Sollwert. Der angesprochene regulierende Mechanismus wird auch als negative Rückkopplung bezeichnet. Die folgende Abbildung stellt diese Unterschiede graphisch dar.

Aufgrund der fehlenden Justierung auf einen Zielwert ist es ersichtlich, dass ein irgendwie funktionierendes System, das kann ein Unternehmen aber auch eine Gesellschaft sein, nicht auf negative Rückkopplungen verzichten kann. Einige Teilsysteme eines Systems können vielleicht ausschließlich gesteuert werden. Rückkopplungen in Wirkungsschleifen von Systemen sind verantwortlich für nichtlineares Verhalten dieser Systeme. Denken Sie beispielsweise an den Zinseszins, der unsere Gesellschaft in eine Krise gestürzt hat. In diesem Beispiel reden wir nicht von einer negativen, sondern von einer positiven Rückkopplung. Die positive Rückkopplung lässt uns den Schwenk hin zur Kybernetik zweiter Ordnung vollführen.

Ausgangspunkt der bisherigen Betrachtung der Kybernetik erster Ordnung ist es, ein Ziel zu haben und dieses durch Regelung und Steuerung zu erreichen. Aber wie kann man erklären, dass häufig Ziele erreicht werden, die man nicht angestrebt oder auch nicht gedacht hat, die aber trotzdem als positiv für das Unternehmen zu bewerten sind? Bei der Kybernetik erster Ordnung wird das Erreichen einer Stabilität durch eine Kontrollinstanz in den Vordergrund gestellt. In einem rein rationalistisch geprägten System, sprich einem toten System wie einer Heizungsanlage, in welchem alle Komponenten bekannt sind, gibt es weniger Überraschungen. Fast alles ist berechenbar und zum großen Teil vorhersagbar. Ein Steuern und Regeln ist anwendbar. In humanistisch geprägten Systemen aber herrscht intrinsische Unsicherheit, keine exakte Analysierbarkeit und auch keine Vorhersagbarkeit. Es muss ein Paradigmenwechsel vollzogen werden hin zur Akzeptanz einer instabilen Dynamik von Entscheidungen. Bei der Kybernetik zweiter Ordnung werden die Prinzipien der Kybernetik erster Ordnung auf den Beobachter selbst angewendet. Der Beobachter muss als Teil des Kontextes, den er beobachtet, mitkonzeptualisiert werden. Hier stehen die beobachtenden Systeme und nicht mehr nur wie in der Kybernetik erster Ordnung die beobachteten Systeme im Fokus. Es sind nicht mehr nur stabilisierende negative Rückkopplungen im Fokus der Untersuchung, sondern auch verstärkende und aufschaukelnde positive Rückkopplungsprozesse, die unter anderem in Kommunikationsprozessen zwischen Lebewesen zu beobachten sind. Dadurch werden konzeptionelle Betrachtungsweisen bezüglich des Lernens von lebenden Systemen oder des Revidierens und Korrigierens von Zielen erst möglich.

Einen Einfluss des Nichtbeachtens von positiven Rückkopplungsschleifen erkennen wir beispielsweise in Planungsprozessen der heutigen Unternehmen. Planen bedeutet in den meisten Fällen stets von nur genau einer Zukunft auszugehen. Es existieren aber ganz viele mögliche und vorstellbare Zukunften. Es muss die Möglichkeit des Phantasierens und Simulierens bestehen, um diese möglichen Zukunften einzukalkulieren. Wenn heute geplant wird, wird der Blick ausschließlich auf die Vergangenheit gerichtet. Die Zukunft kann sich aber komplett anders entwickeln als die Vergangenheit. Beim Planen gehen wir mit dem Rücken voran in die Zukunft. Negative Rückkopplungsschleifen überwiegen und damit der Rationalismus.

Damit haben wir alle Elemente obiger Definition von Wiener beleuchtet und haben einen ersten Annäherungsversuch zwischen Rationalismus und Humanismus gewagt. Einen Nachtrag habe ich noch. Detaillierter betrachte ich die Kybernetik und die Einbettung in die Unternehmensführung in meinem noch in Arbeit befindlichen Buch Business Systemics. Warum sich Business Intelligence neu erfinden muss oder Heirat von Systemtheorie, Kybernetik und Business Intelligence. Sie können auch in meinem Rucksack nachschauen, wo ich die Managementkybernetik beleuchte.

Die Versöhnung: Eine zweite Annäherung

Ich habe mein Mathematikstudium im Jahre 1999 mit dem Diplom abgeschlossen, war also zu dieser Zeit durchweg rational-mechanistisch gerägt. Mein Credo war.

Alles was man nicht messen kann, kann man nicht kontrollieren. Alle Dinge, die wir wahrnehmen, müssen auch naturwissenschaftlich erklärbar sein.

Die Erkenntnisse der Naturwissenschaften beherrschten meine Denk- und Handelsweisen. Die emotional-humanistische Denkweise kam dann so im Jahre 2006 an die Oberfläche gespült, in dem Zuge nämlich da ich merkte, dass eben nicht alles naturwissenschaftlich erklärbar ist, was geschieht. Ich wusste zu diesem Zeitpunkt nur noch nicht, ob das daran liegt, dass wir nur noch mehr Wissen aufbauen müssen, um alle Phänomene erklären zu können oder ob diese im bekannten naturwissenschaftlichen Rahmen schlicht nicht erklärbar sind, so dass dieser erweitern werden müsste. Mir wurde dann relativ schnell klar, dass es um genau diese Erweiterung tatsächlich geht. Um das zu tun, muss man aber erst einmal nach der Linie suchen, die die rational-mechanistischen Denkweise, die aus den Naturwissenschaften stammt, von der emotional-humanistischen Denkweise, die aus den Geisteswissenschaften stammt, trennt. Hat man diese analysiert, kann die Versöhnung angegangen werden. Selbstverständlich spielte und spielt bei dem Aufsuchen dieser Trennlinie die Kybernetik eine ganz besondere Rolle.

Eine der vorherrschenden Fragestellungen der Historie, aber auch noch der heutigen Zeit, ist das Leib-Seele-Problem. Unter dem hier angeführten Link habe ich auch die nebenstehende Abbildung gefunden.

Die monoistischen Materialisten behaupten, es gäbe nur Materie, die monoistischen Idealisten behaupten, es gäbe nur den Geist. Hier haben wir wieder wie oben schon angesprochen eine ganz scharfe Trennung. Eine Versöhnung kann durch den Dualismus erfolgen, der von Beidem, Geist und Materie, ausgeht. Das Problem, welches im Rahmen des Dualismus immer noch nicht geklärt ist, ist wie Geist und Materie interagieren. Denn dass diese interagieren, wissen wir spätestens seit Werner Heisenberg, der postuliert hat, dass der isolierte Gegenstand prinzipiell keine beschreibbaren Eigenschaften besitzt. Denn beim Beschreiben von Phänomenen muss stets der Beobachter mit einbezogen werden (Kybernetik zweiter Ordnung). Denn Eigenschaften von Gegenständen sind auch im Beobachter enthalten, da es ja er ist, der beobachtet und beschreibt. Dazu möchte ich Ihnen ein Beispiel geben. Es ist mir des Öfteren vorgekommen, dass ich mir ein Fussballspiel ansehe und nach dem Spiel zu dem Schluss komme, dass die eine Mannschaft viel besser war als die andere, was dann von Freunden negiert wird. Wir haben das gleiche Spiel geschaut, kommen aber zu unterschiedlichen Meinungen. Ein Grund könnte sein, dass man für die eine Mannschaft mehr fiebert als für die andere. Das Ergebnis der Beobachtung ist also im Beobachter mit enthalten. Bei den ganzen Diskussionen bzgl. Idealismus versus Materialismus wird oft vergessen, dass beide Denkrichtungen auf dem selben Fundament gebaut sind. Es wird nämlich von Teilen ausgegangen, die nicht mehr weiter zu teilen sind und aus denen dann alles Weitere aufgebaut ist. Beim Materialismus sind es die Atome, beim Idealismus sind es die Seelen. Im Materialismus besteht alles aus toter Materie, aus Atomen, selbst die Menschen werden als aus Atomen zusammengesetzt angesehen. Alles Wissen, was also im Denkschema des Materialismus entwickelt wurde, sprich in den Naturwissenschaften, ist Wissen, welches ausschließlich toter Materie anwendbar ist.

Nur erkennt man diesen Fakt nicht, oder man will es nicht erkennen. Ganz besondere Bedeutung erlangt aber diese Erkenntnis im Bereich der Künstlichen Intelligenz. Im Forschungsgebiet der KI wird davon ausgegangen, dass man das menchliche Gehirn anhand seiner Einzelteile analysen und untersuchen, diese nachbauen und dann zusammensetzen kann. Das geht aber nicht. Dazu ein passendes Zitat von Gottfried Wilhelm Leibniz aus seiner Monadologie

Man muss im übrigen eingestehen, dass die Perzeption und was davon abhängt, durch mechanische Gründe, d.h. durch Gestalten und durch Bewegungen unerklärbar ist. Wollte man vorgeben, dass es eine Maschine gäbe, deren Struktur Denken, Empfinden und Perzeptionen haben lässt, könnte man dies unter Bewahrung derselben Proportionen vergrößert begreifen, so dass man in sie wie in eine Mühle hineintreten könnte. Dies gesetzt, würde man beim Besuch im Inneren nur einander stoßende Teile finden, niemals aber etwas, was eine Perzeption erklärt.

Eine Versöhnung zwischen Materialismus und Idealismus oder auch zwischen Naturwissenschaften und Geisteswissenschaften ist also notwendig, um auf dem Gebiet der Künstlichen Intelligenz durchschlagenden Erfolg haben zu können. Dabei kann die Kybernetik vermitteln.

Selbst in der Bildung muss diese Versöhnung erfolgen, was Gerald Hüther sehr plausibel in einem Interview im Rahmen der WDR5 Tischgespräche am 28.09.2011 ausführt. Er meint, dass wir Menschen noch viel zu sehr unserer Faszination für Maschinen erlegen sind und entsprechend auch das Lernen als zu mechanistisch begreifen wollen. Lernen darf aber nicht verglichen werden mit dem Muskelaufbau auf einer Hantelbank. Das Gehirn bildet sich nur unter Freude optimal aus, also wenn wir Menschen mit Herz und Engagement bei der Sache sind. Da sind wir in unseren Bildungseinrichtungen noch weit entfernt.

Ich glaube übrigens, dass wir Menschen in den Anfangsjahren unseres Lebens mit beiden Denkrichtungen versöhnt sind. Kinder lieben beispielsweise Märchen. In diesen sind Feen, Hexen und ähnliche Wesen, die durch beispielsweise Zaubern eine Verbindung zwischen dem Jenseits und dem Diesseits herstellen, normal. Mit dem Laufe der Zeit verblasst die Freude für Märchen. Die Verbindung zwischen dem Diesseits und dem Jenseits wird ausgeknipst. Da tragen natürlich unsere Bildungseinrichtungen einen gehörigen Beitrag zu, da diese sehr naturwissenschaftlich geprägt sind. Phänomene aus dem Jenseits, die mechanistische Auswirkungen im Diesseits haben sind nicht Bestandteil der Lehrpläne. Diese gibt es aber. Nehmen Sie das Beispiel des Besprechens von Hautflechten. Sicherlich fallen Ihnen eine Reihe weiterer ein. Im Laufe der Entwicklungszeit haben die Menschen der modernen Kulturen sich also entsöhnt und haben sich entweder auf die Seite des Materialismus geschlagen, die von naturwissenschaftlichen Erklärungsmodellen beherrscht wird, um rational Phänomene des Diesseits zu untersuchen oder eben auf die Seite des Idealismus, die von humanistischen Denkmodellen besetzt ist, um emotional Phänomene des Jenseits zu erklären. Nur wo ist die Brücke?

Das eine solche Versöhnung grundsätzlich nicht abwegig ist, zeigen uns die Anfänge des menschlichen Denkens, was wohl in das 6. Jh. v. Chr. zurück reicht. In dieser Zeit, die von die Milesiern geprägt war, und solche Denker wie Thales oder Anaximander prägten, gab es noch keine Unterscheidung zwischen lebender und toter Materie. Alles wurde als lebend gesehen, selbst ein Magnet, da er ja Eisen anzieht und, das ohne Zutun von Menschen.

Eine Versöhnung ist also notwendig und auch möglich. Sie kann durch die Kybernetik vorangetrieben werden. Ist sie denn schon vollzogen?

Die Versöhnung: Der Vollzug

Leider noch nicht. 2 fortschrittliche Denker bestärken mich in diesem Fazit: Gotthard Günther und Heinz von Foerster.

Gotthard Günther betonte immer wieder den Fakt, dass in den Naturwissenschaften erkannt wurde, und zwar seit Einstein und Heisenberg mit der Relativitätstheorie und der Quantenphysik, dass es nicht mehr nur ausreicht sich in den Untersuchungen und Forschungen auf die tote Materie zu stürzen. Diese Erkenntnis wurde aber nicht zu Ende gedacht. Denn, es wurde zwar die Subjektivität eingebunden, aber eben nur genau eine. Dadurch beruhen alle Untersuchungen nur auf genau eine Kontextur. Die eingebundene Subjektivität wurde also quasi objektiviert, was nicht zum Ziel führen kann. Das hat Günther erkannt, in dem er die Polykontexturalität erfunden und eingeführt hat.

Heinz von Foerster, einer der Väter und auch Teilnehmer der oben angesprochenen Macy-Konferenzen, hat stets dafür plädiert von dem Separieren von Wissenschaftsgebieten weg zu kommen hin zu einer Untersuchung der Zusammenhängen von verschiedenen Wissenschaftsgebieten. Science kommt vom griechischen Wort Ski und bedeutet so viel wie Separieren. Dieses Separieren hat früher wahrscheinlich auch Sinn gemacht, in dem man tiefer in verschiedene Gebiete einsteigen musste, um diese zu verstehen: Mathematik, Physik, Biologie, Chemie, Psychologie etc. So entstanden die Wissenschaften und Generalisten wurden zu Spezialisten. Dabei wurde aber das Verschmelzen der Erkenntnisse vergessen oder auch teilweise unmöglich, da die einzelnen Wissenschaften ihre eigenen Sprachen entwickelt haben, die eine Kommunikation erschweren. Wir benötigen wieder Generalisten, die diese Kommunikation herstellen und unterstützen. Diese Generalisten könnten Kybernetiker sein. Maria Pruckner hat in ihrem Film 90 Jahre Heinz von Foerster das Leben und das Wirken von Foersters sehr anschaulich nachgezeichnet.

1 Star2 Stars3 Stars4 Stars5 Stars (2 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Komplexität, Philosophie | Tagged , , , , , | 8 Comments

Der Business Intelligence Wirkkreis

Business Intelligence wird heute in den Unternehmen leider viel zu mechanistisch und technisch angegangen. Bevor ich das aber erklären möchte, werde ich auf einige Begrifflichkeiten eingehen. Man hört sehr oft die Begriffe Corporate Performance Management, Business Intelligence, Business Analytics etc. Ganz egal, wie man das Baby auch nennen mag (ich bleibe beim Namen Business Intelligence), wichtig ist, die Aufgabe zu definieren, die man mit solch gearteten Engagements verfolgen will. Meines Erachtens teilt sich die Aufgabe von Business Intelligence, im Folgenden mit BI abgekürzt, in zwei Teile auf.

  • Klärung des Zweckes des Unternehmens und Ableiten der Ziele, die ein Unternehmen zur Erfüllung des Zweckes erreichen sollte.
  • Beschaffen und Verwalten von Daten, um aus diesen Informationen zu generieren, die zum Erkennen der Zielerreichung und zum Definieren von Aktionen zur Zielerreichung genutzt werden, inklusive der Validierung des Zwecks und der Ziele.

Die erste Aufgabe betrifft die visionär-strategische Ebene, die zweite Aufgabe die operative Ebene. Die folgende Abbildung stellt den BI Wirkkreis dar, der beide Aufgabenpakete strukturiert.

Was ist unter dem BI Wirkkreis zu verstehen?

Als aller erstes muss sich ein Unternehmen bewusst machen, warum es überhaupt existiert, sprich welchen Zweck das Unternehmen verfolgen will. Das ist dann hoffentlich nicht nur der Fakt des reinen Geldverdienens oder des Gewinnmaximierens. Wenn sich ein Unternehmen einzig und allein darauf konzentrieren möchte und seine Daseinsberechtigung auf ein künstliches Fundament wie Geld stützt, benötigt es auch keine BI-Lösung. Wozu auch? Dann ist das ganze Unternehmen sowieso sinnleer. Abgeleitet aus dem Zweck werden dann Ziele definiert, die das Unternehmen verfolgen sollte. Dabei können die Ziele natürlich konkurrierend zueinander sein. Deshalb ist es wichtig, die Beziehungen zwischen dem Zweck, den Zielen und den Maßnahmen, diese Ziele zu erreichen, darzustellen. Dieses Wirkgefüge kann man meines Erachtens am besten durch Modellierung, beispielsweise mit dem CONSIDEO MODELER, erarbeiten. Modellierung hilft uns, die kognitiven Beschränkungen nur 4 Variablen gleichzeitig verarbeiten zu können, zu überwinden. Dadurch können wir Phänomene aufdecken, die ohne Kenntnis der Ursache-Wirkungsbeziehungen unsichtbar bleiben. Ein Beispiel dafür können Sie in meinem Post BI Lösungen gaukeln eine scheinbare Sicherheit vor und birgen deshalb Gefahr nachlesen, in welchem ich die Auswirkung der Kennzahl Auslastung von Mitarbeiter auf ein langfristiges Unternehmensergebnis validiert habe. Der CONSIDEO MODELER bietet mittlerweile auch die Möglichkeit, Daten direkt aus einem BI System zu extrahieren, die dann für die Modellierung des Zwecks, der Ziele und der Maßnahmen, diese zu erreichen, verwendet werden können.

Sind Zweck und Ziele bekannt, muss man sich Gedanken machen, ob und wenn ja wie der Grad der Zielerreichung gemessen werden kann. Ich habe in meinem Post Wie das Messparadigma uns in die Irre führen kann erläutert, dass nicht alles messbar ist. Dessen muss man sich bewusst sein. Es gilt also nun entsprechend der definierten Ziele, Key Performance Indicators (KPIs) zu definieren, anhand derer der Grad der Erreichung der Ziele gemessen werden kann. Für die Bestimmung der KPIs kann man sehr gut das Modell, welches zur Bestimmung der Ziele und zur Validierung des Unternehmenszwecks genutzt wurde, heranziehen und erweitern. In sehr seltenen Fällen sehe ich bei Unternehmen genau diese Durchgängigkeit, dass nämlich ganz genau argumentiert werden kann, warum ein bestimmtes KPI gemessen wird und welchen Einfluss dieses KPI auf die Erreichung bestimmter Ziele hat. Bei der Definition der KPIs muss man sich auch Gedanken machen, welche Rohdaten benötigt werden und woher diese Daten bezogen werden können. In diesem Zuge muss man auf semantischer Ebene abklären, ob unternehmensweit ein gleiches Verständnis von dem KPI besteht. Sehr häufig habe ich erlebt, dass zwar namentlich vom Gleichen, beispielsweise produktive Auslastung der Mitarbeiter gesprochen wird, semantisch aber ein unterschiedliches Verständnis herrscht. Bei dem eben genannten KPI zählte eine Business Unit die Zeit für das Anfertigen von Angeboten dazu, eine andere Business Unit nicht. Macht man dann eine unternehmensweite Auswertung auf dieses KPI vergleicht man Äpfel mit Birnen. Das kann fatal sein, nämlich dann, wenn daraufhin Aktionen los getreten werden.

Erst jetzt kann man mit dem fortfahren, mit dem die meisten BI Projekte in der Regel starten. Fragestellungen der Extraktion von Daten, der Modellierung in BI Systemen und der Einbettung der BI System(e) in die existierende operative Systemlandschaft können nun angegangen werden. Eine Thematik wird aus meiner Sicht sträflich vernachlässigt, nämlich die Fragestellung nach der Darstellung der Ergebnisse im BI Frontend. Wenn man bedenkt, dass das BI Frontend (Reports, Graphiken, Dashboards oder Cockpits) das Gesicht der BI Lösung hin zum Enduser darstellt, ist diese Nichtbeachtung besonders fatal und sehr oft auch für eine schlechte Reputation und eine schlechte Verwendbarkeit der BI Lösung verantwortlich. An dieser Stelle möchte ich auf Prof. Rolf Hichert verweisen, der mit seinen SUCCESS Regeln eine Grundlage für eine erfolgreiche Geschäftskommunikation im BI Frontend erstellt hat. Für Details verweise ich gerne auf meinen Post graphomate – Ein Bild sagt mehr als tausend Worte.

Im Unternehmen wurden nun also Ziele und Massnahmen, diese zu erreichen, definiert. Es agiert dementsprechend am Markt. Die Ziele, die Maßnahmen und die Ergebnisse die erzielt wurden, können konsistent und ganzheitlich mit Hilfe einer BI Lösung dargestellt werden. Da Ziele niemals in Stein gemeißelt sind, sondern sich in der Regel ändern, ist im BI Wirkkreis eine Rückkopplung integriert, die die Erkenntnisse, die im Unternehmen durch das Agieren am Markt und das stete Validieren der Maßnahmen gewonnen werden, für eine Validierung der Ziele benutzt. Aber auch der Unternehmenszweck kann sich im Laufe der Zeit ändern. Beispielsweise startete die Unternehmensgeschichte der Adam Opel AG im Jahre 1862 mit der Herstellung und dem Vertrieb von Nähmaschinen.

Ich habe oben angedeutet, dass BI in vielen Unternehmen heutzutage zu mechanistisch und technisch umgesetzt ist, also nicht entlang des BI Wirkkreises. Darauf möchte ich kurz eingehen. Was meine ich mit technisch? Bei den meisten BI Projekten geht es einzig und allein um Software und Architektur. Fragestellungen wie

  • Welche Software sollen wir für das Reporting einsetzen?
  • Welcher Anbieter ist im Bereich ETL zu bevorzugen?
  • Benötigen wir ein zentrales oder dezentrale DWH-Systeme?

überwiegen. Die komplette strategisch-visionäre Ebene wird ausgespart. Selbstverständlich spielen Software und Technologie eine Rolle für BI Lösungen, aber eben nicht ausschließlich. Schauen Sie sich beispielsweise in einigen Xing-Foren zu BI (Business Intelligence – Nervensystem nicht nur der Unternehmen oder Business Intelligence Community) um. Dort geht es leider ausschließlich nur um technologische Aspekte, neben Ressourceanfragen von Headhuntern. Fragen Sie Menschen, die sich im BI Umfeld tummeln, was sie genau tun, bekommen Sie in der Regel Auskunft darüber mit welcher Software und mit welchen Tools sie sich besonders gut auskennen. Unser Blick ist in der Regel ausschließlich auf technische Aspekte gerichtet. Des Weiteren überwiegt die mechanistische Denkweise. Es wird vergessen, dass jeder Mensch erst in sich Informationen generiert. Information ist aber nicht gleich Information. Information wird auch nicht im Rahmen von Kommunikation transportiert, sondern ausschließlich Daten ausgetauscht, die erst im Empfänger durch ihn zu Information transformiert werden muss. Dafür ist es notwendig, die Daten in geeigneter Art und Weise darzustellen, dass die Chance sehr hoch ist, dass sie von allen Beteiligten auf die gleiche Art und Weise interpretiert werden.

Schauen wir also auf die obige Abbildung des BI Wirkreises fällt auf, dass wir uns einzig und allein auf der operativen Ebene ganz rechts bewegen. Man beleuchtet Fragestellungen der Umsetzung, ohne sich vorher ausreichend Gedanken gemacht zu haben, was mit der BI Lösung eigentlich erreicht werden soll.

Ist es da noch verwunderlich, dass ungefähr 50% aller BI Projekte nicht erfolgreich sind, sprich dass der Nutzen, den man sich von den Lösungen erhofft hat, nicht eintritt? Eigentlich auch logisch, weil man sich am Anfang über den Nutzen keine Gedanken gemacht hat. Details dazu finden Sie hier. Selbst die meisten Studien, die die erfolgskritischen Kriterien von BI Projekten untersuchen, bleiben auf dieser operativen Umsetzungsebene stehen. So besteht noch nicht einmal Aussicht auf Besserung. Leider.

Wie kann man den BI Wirkkreis operationalisieren?

Will man nun diesen BI Wirkkreis erfolgreich operationalisieren, richtet man sich am besten nach der BI Success Snowflake. Aus vielen BI Projekten, die ich aktiv begleitet habe, habe ich eine Reihe erfolgskritischer Merkmale anhand dieser Schneeflocke dargestellt, die in der folgenden Abbildung zu sehen sind.

Grundsätzlich habe ich 4 Dimensionen definiert: Change Management, Analyse und Design, Architektur und Support. Im Folgenden möchte ich die Wichtigkeit dieser Dimensionen kurz darlegen. Im Rahmen von BI Projekten nimmt man auf Grund von Änderungen den betroffenen Mitarbeitern häufig dass was sie kennen. Da Mitarbeiter in aller Regel das mögen was sie kennen, muss die Unterstützung für die neue BI Lösung von den Mitarbeitern aktiv eingeholt werden. Zu diesem Zwecke werden in der Dimension Change Management Maßnahmen dafür definiert. Des Weiteren ist es ganz wichtig, dass eine BI Lösung auf soliden fachlichen Anforderungen basiert. Es ist also absolut essentiell, dass die IT- und die Fachabteilungen sehr eng zusammenarbeiten und vor allem eine gemeinsame Sprache entwickeln. Die BI Lösung muss mit den Geschäftsprozessen und mit dem zu Grunde liegenden Organisationsmodell integriert sein. Das ist Aufgabe der Dimension Analyse und Design. Daten dürfen nicht als notwendiges Übel betrachtet werden, sondern als ein Asset, ähnlich wie es die Maschinen in Produktionsbetrieben sind. Daten sind das Blut der Geschäftsprozesse und müssen dementsprechend gewartet werden. Es muss ein ganz klares Verständnis darüber herrschen, wie sich die Qualität der Daten auf die Geschäftsprozesse und damit auch auf die Geschäftsergebnisse auswirken. Dieser Aufgabe widmet man sich in der Dimension Architektur. Ähnlich wie bei allen anderen Projekten, ist es nicht nur wichtig die betroffenen Stakeholder während der Laufzeit des Projektes mit auf die Reise zu nehmen, sondern sie auch nach Go Live zu betreuen. Dazu zählt kurz vor dem Go Live eine rollenbasierte Schulung, zugeschnitten auf die Bedürfnisse der einzelnen Usergruppen, oder auch der Support bei Anfragen nach dem Go Live. Des Weiteren ist es essentiell, dass die User das Gefühl haben, dass auch nach dem Go Live noch Anforderungen flexibel und pragmatisch umgesetzt werden können. Umso leichter tun sie sich Anforderungen initial für’s erste im Rahmen des Projektes abzusegnen. Neue und gefestigte Erkenntnisse zu fachlichen Anforderungen werden erst durch das Nutzen der Lösung gefestigt. In der Dimension Support wird auf diese Themen fokussiert.

Die Merkmale inklusive der Attribute sehen Sie in der letzten Abbildung in den entsprechenden Quadranten der Dimensionen zugeordnet. Auf diese möchte ich nicht im Detail eingehen. Falls Sie mehr dazu wissen möchten, sprechen Sie mich an, dann werde ich diese detaillierter durchdeklinieren.

Fazit

Wenn wir nicht unsere mechanistisch-technologische Denk- und Handelsweise anreichern durch eine humanistisch-emotionale entlang des BI Wirkkreises werden die Potentiale von Business Intelligence Projekten nicht ausgeschöpft weil nicht erkannt. Das ist der Hebel für das erfolgreiche Umsetzen von BI Lösungen.

1 Star2 Stars3 Stars4 Stars5 Stars (1 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Management und Leadership, Modellierung | Tagged , , , , , | 2 Comments

Sind Ziele sinnlos?

Vor einigen Wochen wurde ich durch einen Post mit dem Titel Sind wir zielgeil von Peter Addor in seinem Blog zu Komplexitätsmanagement zum Nachdenken angeregt. Im Folgenden möchte ich die im Titel dieses Posts gestellte Frage aufgreifen und beantworten.

Wie können wir Ziel definieren?

Bevor ich diese Frage jedoch analysiere, macht es Sinn sich den Begriff Ziel bewusst zu machen. Was verstehen wir also unter einem Ziel?

Ein durch freie individuelle Auswahl und Entscheidung oder gesellschaftspolitische Entscheidungen und Entscheidungsprozesse unter verschiedenen Handlungsmöglichkeiten projektierter, in der Vorstellung und Planung antizipierter zukünftiger Zustand, der zugleich Orientierung ist für die jeweils gegenwärtigen Handlungen und Handlungsfolgen; auch ein als Folge historischer Entwicklungen und Entwicklungsprozesse angenommener oder erkannter zukünftiger Zustand, der ebenfalls zur Orientierung des Handelns gemacht werden kann.

Peter Addor hat mich bezugnehmend auf einen Kommentar, den ich zu seinem Post formulierte, aufmerksam gemacht, dass man nicht den Fehler begehen sollte, Ziel und Zweck zu verwechseln. Das möchte ich zum Anlass nehmen, die Definition des Begriffes Zweck nachzuschieben.

Orientierung von Handlungen und Handlungsfolgen; im engeren Sinne das, was durch (bewussten) Einsatz bestimmter Mittel in Handlungen geplant und verfolgt wird, was dies als zweckmäßig bestimmt und durch diese erreicht wird.

Beide Definition, die von Ziel und die von Zweck, habe ich dem Meyers enzyklopädischen Lexikon von 1979 entnommen.

Ich mache die Erfahrung, das Ziel und Zweck im umgangssprachlichen Gebrauch nicht sauber getrennt werden. In der Griechischen Sprache werden Ziel und Zweck gleich mit “telos” übersetzt. Ist das vielleicht auch ein Grund dafür? Wohl nicht, denn im Englischen existieren unterschiedliche Übersetzungen, “Goal” oder “Objective” für Ziel und “Purpose” für Zweck. Die etymologische Betrachtung zeigt, dass Zweck von Zwecke kommt. Mit einer Zwecke wurde beim Armbrustschießen das Ziel markiert. Ziel und Zweck gehören also schon irgendwie zusammen. Nur kann man diesen Zusammenhang noch deutlicher zeichnen? Ich werde dies an 2 Beispielen versuchen.

Ich habe einen Gegenstand verloren. Diesen suchen zu wollen, ist nicht zwecklos, denn ich will den Gegenstand ja wieder haben. Die Suche ist aber in Abstufungen mehr oder weniger ziellos, je nachdem welche Informationen mir vorliegen, wo der Gegenstand ungefährt sein könnte. Die Suche kann dann zwecklos werden, wenn keine Aussicht auf Erfolg besteht, den Gegenstand zu finden. Hier kann man zwecklos dann mit sinnlos gleichsetzen. Nun noch das zweite Beispiel. Angenommen, Sie besitzen ein kleines Auto und bekommen mit Ihrer Frau oder Ihrem Mann ein Kind. Sie haben nun die freie Entscheidung, dass kleine Auto in Kauf zu nehmen oder für sich als Ziel auszuloben, ein größeres Auto aus Gründen des erhöhten Platzbedarfes käuflich zu erwerben. Der Zweck wäre, dieses Auto dann zu benutzen.

Sind Ziele denn nun sinnlos?

Wir haben jetzt eine Basis geschaffen, diese Frage zu beantworten. Aber der Reihe nach. Kann man das Setzen von Zielen mit dem Planen gleich setzen? Nein. Vielleicht kennen Sie ja auch das Planungsparadoxon.

Je genauer voraussagbar die Zukunft ist – je stärker sie determiniert ist – desto besser funktioniert Planung. Und. Je stärker die Zukunft determiniert ist, desto weniger hat ein Unternehmen Einfluss auf sie, das heisst desto sinnloser ist die Planung.

Wir wissen alle, dass die Zukunft eben nicht vorhersagbar ist. Das bedeutet aber natürlich nicht, dass wir irgendwie in die Welt hineinleben sollten. Die Schlussfolgerung, die wir daraus ziehen ist eben, dass Ziele sich ändern können und in der Regel auch tun. Alleine durch getätigte Handlungen erweitern wir unser Wissen und ändern damit unter Umständen unsere Sichten und Meinungen, was wiederum Einfluss auf Ziele haben kann.

Ziele sind Leitmotive für unser Handeln und haben in erster Linie nichts mit einer ungewissen Zukunft zu tun. Ohne Ziele hätten wir keinen Willen zu agieren. Der Weg ein Ziel zu erreichen ist nicht im voraus zu definieren. Das resultiert aus der Zukunft, die nicht im voraus berechenbar ist. Leider wird dieser Fakt viel zu häufig vernachlässigt, in dem viel zu detailliert geplant wird. Dann hechelt man dem Stück Papier nach, auf dem der Plan steht. Man wird der Sklave seines eigen erstellten Planes und beraubt sich so der notwendigen Flexibilität. Es ist also essentiell Ziele definieren. Dann fängt man an, dieses Ziel erreichen zu wollen. Während “des Erreichen wollens” der Ziele müssen diese stetig validiert werden. Ziele müssen zu einem jeweiligen Zeitpunkt stets konkret sein, was aber nicht heißen soll, dass sie “in Stein gemeißelt” und damit in der Zukunft nicht änderbar sein dürfen. Ganz im Gegenteil.

Ziele benötigt man, um überhaupt erst einmal einen “ersten Schritt” gehen zu können. Dabei muss dieses Ziel auf der einen Seite konkret sein, sonst hätte man keine ausreichende Grundlage für den ersten Schritt und würde in eine Starre verfallen. Das Ziel muss aber auch von Herzen gewünscht sein, sonst würde man den “ersten Schritt” gar nicht gehen wollen. Ein Ziel ist also stets konkret. Die Frage bleibt, ob ein Ziel noch valide ist. Das gilt nur im Jetzt. Was danach ist wissen wir nicht. An dieser Stelle macht es keinen Sinn detailliert zu planen. Man weiss nicht, was nach dem “ersten Schritt” kommt. Man kennt das Ergebnis nicht, man weiss nicht ob das erwartete Ergebnis dem entspricht, was man angepeilt hat. Man weiss aber auch nicht, ob das erwartete und auch eingetretene Ergebnis jetzt noch zum Ziel führt. Man weiss ebenfalls nicht, ob das Ziel, welches zu dem “ersten Schritt” geführt überhaupt hat noch valide ist. Ziele müssen stets validiert werden, in der Regel gegen andere Ziele. Hier erkennt man die Kreiskausalität der Ziele untereinander. Man kann hier auch sehr gut die Begriffe Effektivität und Effizienz einflechten. Effektiv bin ich, wenn meine Ziele noch valide sind, sie sich also nicht gegenseitig konterkarieren (Die richtigen Dinge tun). Effizient bin ich, wenn mein Weg noch in Richtung Zielerfüllung zeigt (Die Dinge richtig tun). Beides ist notwendig: Die richtigen Dinge richtig tun. Dabei gilt das Wort “richtig” ausschließlich im Jetzt und ist stets subjektiv. Es ist also abhängig von Raum und Zeit.

Man sollte auch davon abgehen, Planen als ein Vorhersagen der Zukunft zu verstehen. Planen ist eher ein Gestalten der Zukunft. Jeder einzelne Akteur hat mit seinen Handlungen Einfluss auf die Zukunft, er ist kein unbeteiligter Beobachter, der einmal in die “Glaskugel” schaut und sich dann zurücklegt und auf das wartet was kommt.

Betrachten wir das Thema einmal von der anderen Seite. Wenn wir meinen keine Ziele zu benötigen, weil sie sich ja eh ändern, können wir auch gleich aufhören Mahlzeit einzunehmen, denn wir bekommen ja sowieso wieder Hunger. Ihre Kinder könnten das Aufräumen ihres Zimmers verweigern mit dem Vorwand, das es ja wieder unordentlich wird. Oder wir könnten gleich aufhören nach Glück im Leben zu suchen, da wir ja Alle sowieso irgendwann sterben werden.

Fazit

Ziele sind nicht umsonst, ganz im Gegenteil, sie sind das Lebenselexier unseres Handelns und damit unserer Entwicklung.

1 Star2 Stars3 Stars4 Stars5 Stars (3 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Komplexität, Management und Leadership | Tagged , , , , | 24 Comments

Das Fundament der Naturwissenschaft trägt nicht das Haus der Wirtschaftswissenschaft

Wissen muss auf ein Fundament, dem alles Erkennen und Wissen vorausgeht, basieren, auf welches man Argumentationsketten und Beweise letzten Endes zurückführen kann. Wäre dieses Fundament nicht gegeben oder zu brüchig, würden Beweise nie zu einem q.e.d. führen. Dieses Fundament ist nach Immanuel Kant die apriorisch reinen Formen Raum und Zeit und die apriorisch reinen Begriffe, die Kategorien. Ausschließlich für diejenigen Sachlagen und Probleme, für die ein äquivalentes Fundament besteht, kann man das Wissen, welches darauf aufbaut, auch auf diese anwenden. Das bedeutet beispielsweise, nur wenn die Naturwissenschaft und die Wirtschaftswissenschaft auf dem gleichen Fundament gebaut sind, lässt sich das Wissen der Naturwissenschaft auf die Wirtschaftswissenschaft übertragen. Aber trägt das Fundament der Naturwissenschaft die Wirtschaftswissenschaften? Nein. Trotzdem wenden wir die Erkenntnisse der Naturwissenschaft unreflektiert auf die Wirtschaft an. Das bedeutet, wir unterstellen, das Vorgänge der Wirtschaft, Naturgesetzen folgen. Das wir hier einem Irrtum erlegen sind habe ich bereits in meinem Post Wie das Messparadigma uns in die Irre führen kann ausgeführt. Umso erfreuter war ich, ein Dokument im Netz recherchiert zu haben, in welchem Prof. Dr. Wolfgang Deppert diese Thematik aufgreift und sehr anschaulich erläutert.

Deppert greift die oben angesprochenen Fundamente des Wissens auf und zeigt dass diese für verschiedene Systeme unterschiedlich sein können. Deppert nennt diese Fundamente übrigens Festsetzungen oder auch wissenschaftstheoretische Kategorien (ref. Seite 2 und 3). Deppert legt auf der Seite 7 Folgendes dar.

Der physikalische Reduktionismus, …, erweist sich als eine wissenschaftliche Sackgasse. Gerade die wissenschaftlich hochkomplexen Probleme der mordernen Zivilisation bishin zu den ökologischen Überlebensfragen kann er weder behandeln noch lösen.

Und stellt dementsprechend die Frage.

Welche anderen normativen Festsetzungen hinsichtlich der räumlichen, zeitlichen und gesetzesartigen Abhängigkeiten sind denkbar und welche Begründungen gibt es für sie?

Im Kapitel 6 behandelt Deppert die Zeit. Hier wird es für mich besonders interessant. Es geht konkret um die Metrisierung der Zeit, sprich um die Messbarkeit von Zeit. Deppert erklärt warum es grundsätzlich unmöglich ist, Zeit objektiv zu messen. Darauf bin ich in meinem Post Wie das Messparadigma uns in die Irre führen kann auch schon eingegangen. Aber Deppert geht den Weg weiter und erklärt als Ausweg den Begriff der periodischen Äquivalenz.

Periodisch äquivalent sollen zwei periodische Vorgänge dann heißen, wenn in einem Zeitraum, der durch eine bestimmte Anzahl von Perioden des einen Vorgangs gegeben ist, die Anzahl der Perioden des anderen Vorgangs gleich bleibt.

Vorgänge, die periodisch äquivalent sind gehören zu einer Klasse. So existiert beispielsweise die physikalische Klasse (Schwingungen eines Pendels, Oszillation von Atomen etc.), auf die die physikalischen Naturgesetze wunderbar anwendbar sind. Es gibt aber weitere Klassen, die nicht periodisch äquivalent zu der physikalischen Klasse sind. Die Perioden gehen also nicht im gleichen Takt. Das wären zum Beispiel die biologische oder auch die der Wirtschaft. Und das ist genau der Punkt, den Deppert auf der Seite 11 so schön ausmalt.

… so ist es inadäquat, die physikalische Zeit für die Beschreibung von zeitlichen Verhältnissen eines Organismus zu benutzen. So geschieht es jedoch heute in der Forschung ausschließlich.

Genauso inadäquat ist es die physikalische Zeit zur Beschreibung von Vorgängen in der Wirtschaft zu verwenden, da die Klasse der Wirtschaft ebenso wie die der Biologie nicht zu der physikalischen Klasse periodisch äquivalent ist. Ähnliche Aussagen lassen sich zum Raum treffen. Der Raum einer periodischen Äquivalenzklasse spannt quasi einen Möglichkeitsraum für Merkmalskombinationen dieser auf. Auch bezüglich dieser Möglichkeitsräume weisen Systeme gleicher periodischer Äquivalenzklassen gleiche Muster auf. Anhand der Kategorien Zeit und Raum lassen sich damit Muster und Strukturen ableiten, die für Systeme gleicher periodischer Äquivalenzklassen identisch sind; sie bilden die Gesetzmäßigkeiten.

Und genau an dieser Stelle befindet sich unser “blinder Fleck”. Wir übertragen Gesetzmäßigkeiten von einem System auf ein anderes System unabhängig davon ob diese in der gleichen periodischen Äquivalenzklasse liegen. Da nämlich die Fundamente unterschiedlich sind, ist auch das Wissen, das auf dieser Basis generiert wird, nicht per se kompatibel und einfach übertragbar. Wir müssen also annehmen und verinnerlichen, dass das Wissen welches wir aus den Naturwissenschaften generiert haben, nicht vollends und unreflektiert auf andere Bereiche angewendet werden darf. Was passiert, wenn wir es trotzdem tun, sehen wir wohl gerade an der derzeit stattfindenden Gesellschaftskrise, die nicht mehr nur eine Wirtschaftskrise ist.

Es gilt viel mehr die Fundamente der einzelnen Systeme, Natur, Wirtschaft, Medizin etc., zu ergründen und darauf aufbauend das Wissen zu generieren. Die Erkenntnisse, die auf den Gesetzmäßigkeiten der physikalischen Systeme Gültigkeit besitzen und von den Naturwissenschaften erzeugt wurden, sind nicht grundlegend falsch, sie muss nur erweitert werden, um damit auch das Wissen über die Grenzen der Systeme verschiedener periodischer Äquivalenzklassen hinweg anwendbar zu machen. Das Fundament der Naturwissenschaft muss ausgebaut werden.

Ein hervorragendes Beispiel für eine Synchronisation zwischen Systemen verschiedener periodischer Äquivalenzklassen ist der menschliche Körper, der sich im Laufe der Evolution an die verschiedenen Zyklen der Natur (z.B. Schlaf-Wach-Periode) angepasst hat.

1 Star2 Stars3 Stars4 Stars5 Stars (1 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Ökonomie und Wirtschaft, Wissen | Tagged , , , | 3 Comments

Fehler, das Blut verantwortungsnehmender Mitarbeiter?

“Wir benötigen verantwortungsvoll agierende Menschen im Unternehmen.” Ein schöner Satz, den ich sehr oft höre. Ich stimme diesem Satz auch ohne Frage zu, damit ein Unternehmen langfristig Erfolg haben kann. Aber wissen die Sender dieser Sätze eigentlich was dieser Satz impliziert, sprich, was sie dafür tun müssen, damit dieser Wunsch in Erfüllung geht? Ich behaupte: Selten. Warum? Weil sie die im Titel gestellte Frage mit “Nein” beantworten.

Damit ein Mensch verantwortungsvoll agiert, muss er die Verantwortung für seine Handlungen nehmen. Grundsätzlich übernehmen Menschen ausschließlich für “etwas” Verantwortung, wenn sie dieses “etwas” auch mögen. Sie müssen dafür brennen, mit Herz und Leidenschaft dabei sein. Denn Verantwortung nehmen bedeutet nicht nur im Erfolgsfall für die Sache einzustehen, sondern auch im Misserfolgsfall. Und würden Sie für eine Sache “gerade stehen wollen”, wenn Sie diese eigentlich gar nicht gewollt haben? Ich nicht. Menschen mögen in der Regel das, was ihnen Sicherheit verschafft, und das ist das was sie kennen und können. Da fühlen Sie sich wohl, da sie wissen was auf sie zukommt. Gerade aber in Veränderungsprozessen eines Unternehmens, nimmt man betroffenen Menschen, das was sie kennen und können. Ergo bedeutet das, dass Menschen keine Veränderungen mögen. Veränderungen passieren aber nicht nur in so genannten Change Projekten eines Unternehmens, sondern viel schneller als Change Projekte initiiert werden können, da ein Unternehmen sich stets auf die neuen Verhältnisse des Marktes anpassen muss. Der Markt ändert sich auf Grund der höher gewordenen Vernetzung der Welt frequentierter als noch zu früheren Zeiten.

Daher ist es aus meiner Sicht auch ein Irrwitz, wenn ein Unternehmen glaubt, ein Change Projekt etablieren zu müssen, um Veränderungen herbei zu führen. Damit wird das ganze Vorhaben bereits mit dieser Idee ad absurdum geführt. Das kann man auch daran sehen, dass so viele Change Projekte zu einem Missprojekt mutieren. Ein Ausloben eines Change Projektes schafft noch lange kein Übernehmen von Verantwortung bei den Mitarbeitern, insbesondere nicht bei den Betroffenen. Der Projektleiter wird es schon verstehen, sich und seinem Team die Verantwortung überzustülpen. Glauben Sie daran? Ich nicht. Wir sagen uns ja auch nicht jeden Tag neu, dass wir essen und trinken müssen und planen dafür im großen Stil Freiräume ein und inszenieren dann die Handlungen, die dafür notwendig sind. Wir tun es einfach. Genauso selbstverständlich muss mit Veränderungen in Unternehmen umgegangen werden.

Aber wo liegt der Haken, der genau dieses Selbstverständnis verhindert? Schaut man sich die oben angeführte Argumentationskette an, dann übernimmt Niemand Verantwortung für Veränderungen und damit für den Fortbestand eines Unternehmens.

  • Menschen übernehmen nur für etwas Verantwortung was sie mögen.
  • Menschen mögen in der Regel das was sie kennen und können, da es ihnen Sicherheit vermittelt.
  • Bei Veränderungen nimmt man Menschen das was sie kennen und können.
  • Menschen mögen keine Veränderungen, nehmen dafür also auch nicht die Verantwortung.

Wo kann man nun eingreifen, um eine Basis zu schaffen, die das Nehmen von Verantwortung vermittelt? Menschen müssen etwas mögen, auch wenn es für sie Unsicherheit impliziert. Wie bekommt man das hin? Ein möglicher Weg ist das Institutionalisieren einer Fehlerkultur im Unternehmen. Dazu möchte ich ein Zitat von Jochen Kienbaum, Geschäftsführer von Kienbaum Consultants International, anbringen.

Es ist fatal, wenn sich in einem Unternehmen eine Kultur entwickelt, in der aus Angst vor Fehlern niemand mehr progressiv handelt. Fehler zu machen bedeutet, etwas Neues zu versuchen.

Es geht also um das Kultuvieren von Fehlern in Unternehmen. Auf dieser Seite im Netz habe ich die Säulen einer funktionierenden Fehlerkultur in Unternehmen entdeckt. Das folgende Bild stellt diese Säulen dar.

Die Säulen beinhalten folgende Verhaltensweisen, die in die Köpfe aller Mitarbeiter eines Unternehmens transportiert werden müssen, so dass diese wie selbstverständlich in die Tat umgesetzt werden.

  • Gut statt perfekt sein: Niemand ist und wird jemals perfekt sein. Fehler sind menschlich.
  • Keine Angst vor Fehler haben: Mut zum kalkulierten Risiko haben, um Neues zu schaffen.
  • Schnelle Schadensbegrenzung betreiben: Den Mut haben rechtzeitig die Reißleine zu ziehen.
  • Mit Ehrlichkeit entwaffnen: Mit eigenen Fehlern offensiv umgehen und damit Andere zu der selben Vorgehensweise animieren.
  • Lösungen statt Schuldige suchen: Da fällt mir ein Interview mit Jürgen Klopp, dem Trainer von Borussia Dortmund, ein, in dem er sinngemäß sagt, dass es für ihn nicht so schlimm ist, wenn einer seiner Spieler den Ball verliert. Er wird nur wahnsinnig, wenn nicht mindestens 2-3 seiner Spieler danach den Ball unmittelbar zurück erobern wollen.
  • Jeden Fehler nur einmal machen: Zwischen vermeidbaren und unvermeidbaren Fehlern unterscheiden und aus Fehlern lernen.

Diese Verhaltensweise wird natürlich nicht von Heute-auf-Morgen zur Selbstverständlichkeit, gerade in Unternehmen, in denen Fehler totgeschwiegen werden müssen, weil die Mitarbeiter das Gefühl haben, keine Fehler machen zu dürfen. Jedoch, nur weil ein Manager seinen Mitarbeitern verbietet, Fehler zu machen, passieren trotzdem Fehler. Fehler sind grundsätzlich nicht vermeidbar, gerade bei kreativ arbeitenden Menschen. Haben Mitarbeiter das Gefühl keine Fehler machen zu dürfen, verschweigen sie diese, was größere negative Folgen nach sich zieht, als wenn diese offen angesprochen werden dürfen, da man so die Basis für eine schnelle Fehlerbehebung legt. Fehler müssen aber unterschieden werden nach “vermeidbar” und “unvermeidbar”. Diese Unterscheidung kann man aber nur dann treffen, wenn offen mit Fehlern umgegangen wird, da man sie dann ganz offiziell analysieren kann. Des Weiteren sind Fehler die Basis für den Lernprozess. Werden Fehler als grundsätzlich negativ gesehen, verhindert man den Lernprozess im Unternehmen.

Was damit erzeugt wird, ist offensichtlich. Mitarbeiter ziehen sich komplett auf definierte Prozesse zurück und befolgen diese blind. Dabei ist nicht das Ziel im Fokus, welches mit Handlungen erreicht werden soll, sondern einzig und allein das Einhalten der Prozesse. Die Verantwortung wird abgegeben an das Stück Papier, auf dem der Prozess geschrieben steht.

Geben Sie ihren Mitarbeitern das Ziel, Fehler zu machen. Es geht natürlich in erster Linie nicht darum Fehler zu machen, sondern darum, Fehler zu legitimieren. Mitarbeitern muss glaubhaft das Gefühl vermittelt werden, dass sie Fehler machen dürfen. Denn nur wenn man mit einem solchen Gefühl an die Arbeit geht, lassen sich wahrlich große Leistungen vollbringen, da nur dann Mitarbeiter Verantwortung für schwierige Situationen und Fragestellungen übernehmen.

1 Star2 Stars3 Stars4 Stars5 Stars (4 Bewertung(en), Durchschnitt: 4.00 von 5)
Loading...
Posted in Management und Leadership | Tagged , , , | 6 Comments

Mit System Dynamics Dynamiken und Verzögerungen von Handlungen verstehen

Kürzlich nächtigte ich im Rahmen einer Geschäftsreise in einem Hotel. Ich habe morgens geduscht. Das Wasser war kalt. Ich drehte den Wasserhahn in Richtung warm. Es tat sich nichts. Ich drehte weiter und auf einmal wurde das Wasser zu heiss. Ich drehte also wieder zurück in Richtung kalt. Dieses Hin- und Herdrehen des Wasserhahnes vollzog ich einige Male bis ich die richtige Wassertemperatur eingestellt hatte. Kennen Sie dieses Phänomen auch?

Warum war ich nicht auf Anhieb in der Lage, anhand des Drehen des Wasserhahns, die richtige Temperatur des Wassers einzustellen? Es lag daran, dass zwischen der Zeit des Drehens des Wasserhahns und des Spürbarwerdens der Wassertemperatur, sprich zwischen Aktion und Ergebnis der Aktion, eine Verzögerung stattfand, die ich nicht gleich einschätzen konnte. Und genau um dieses Thema möchte ich in diesem Post meine Gedanken kreisen lassen: Verzögerungen von Handlungen.

Eines vorweg. Ich werde in diesem Post insbesondere auf System Dynamics, als eine Art der quantitativen Modellierung, und auf einige praktische Beispiele eingehen. Aus meiner Sicht schafft dies eine Basis, Verzögerungen besser zu verstehen. Die Modelle, auf die ich in diesem Post eingehe und die sie auch herunterladen können, sind mit dem CONSIDEO MODELER erstellt.

Für eine ausführliche Einführung in System Dynamics verweise ich gerne auf dieses umfassende Dokument. Es ist allerdings in englischer Sprache verfasst. Ich habe nichts vergleichbar Umfassendes in deutscher Sprache gefunden. Falls Sie fündig geworden sind, können Sie Ihre Rechercheergebnisse gerne posten. Danke.

Was kann man sich unter Verzögerungen vorstellen?

Verzögerungen lassen sich unterscheiden nach der Ordnung und nach dem Typ. Beginnen wir mit dem Typ von Verzögerungen.

Verzögerungen nach Typ

Zwei Typen von Verzögerungen existieren, Verzögerungen in Material- und Informationsströmen. Beide Ströme hängen unmittelbar zusammen. Das eine gibt es nicht ohne das andere. Information kann nur durch Materie übertragen werden und jede Materie enthält auf eine bestimmte Art und Weise Daten, die zu Information verarbeitet werden. Das möchte ich am Beispiel einer Heizungsanlage erklären. Eine Heizungsanlage transportiert Wasser in die Heizungskörper der zu versorgenden Räume, um dort die Temperatur zu regulieren. Der Wasserstrom in der Heizungsanlage ist der Materialstrom und der Transport der Temperatur durch den Wasserstrom ist der Informationsstrom. Man erkennt relativ einfach den oben angesprochenen Zusammenhang, das eines oder das andere nicht existieren kann. Was ebenfalls offensichtlich ist, sind die Verzögerungen. In dem man die Heizung am Thermostat regelt, wird nicht von jetzt auf gleich das Wasser in allen Heizungskörpern der Räume vorhanden sein und mit dem Wasser natürlich auch nicht die Wärme des Wassers, welche die Temperatur im Raum beeinflusst. So lange die am Thermostat eingestellte Solltemperatur noch nicht erreicht ist, verhalten sich beide Verzögerungen identisch. Sie streben asymptotisch ihrem Gleichgewicht entgegen. Erst im Gleichgewicht wird der Unterschied sichtbar.

Erkennen können Sie dieses Phänomen in dem Submodell “nach Typ” des folgenden Modells. Ich habe in diesem Modell absichtlich andere praktische Beispiele modelliert, um den Unterschied zwischen Material- und Informationsverzögerungen an unterschiedlichen praktischen Konstellationen sichtbar werden zu lassen. Für die Materialverzögerung habe ich die Fehlerabarbeitung in IT-Projekten, für die Informationsverzögerung das Erlernen von Schulstoff modelliert. Sie können 3 Parameter einstellen.

  • sprung1: initialer Input für die Ströme. Die Dauer der Fehlerbehandlung, also die Zeit die benötigt wird um einen Fehler abzuarbeiten, für den Materialfluss und die Lernzeit, die benötigt wird, um den zu lernenden Stoff zu erlernen.
  • sprung2: Input, auf den der initiale Input (sprung1) erhöht oder verringert wird
  • step: Der Zeitschritt, bei dem der Input sprung2 erhöht oder verringert wird

Voreingestellt im Modell sind sprung1 = 5, sprung2 = 10 und step = 250. Das erkennen Sie im Simulationscockpit “nach Typ”. Bis zum Zeitschritt 250 verhalten sich beide Ströme, Material- und Informationsstrom identisch. Die Kurven überlagern sich. Ab dem Zeitschritt 250 ist der Unterschied sichtbar. Zu diesem Zeitpunkt befinden sich beide Flüsse schon lange im Gleichgewichtszustand. Die Outputs (Fehler behoben bei Materialstrom und gelernter Stoff bei Informationsstrom) bleiben konstant und sind gleich dem Input. Im Zeitschritt 250 wird der Input von 5 auf 10 erhöht. Im Materialstrom ist das gleichbedeutend mit einer höheren Zeit, die für die Abarbeitung pro Fehler benötigt wird. Im Informationsstrom wird die Lernzeit erhöht. Beim Informationsstrom ändert sich der Output danach nicht, wenn die Lernzeit verkürzt oder verlängert wird. Es wurde ja bereits Alles gelernt. Es kommt keine Information dazu. Es wird zwar noch etwas vermittelt, aber eben nichts Neues mehr, da das Gleichgewicht ja erreicht ist. Deshalb wird auch keine Information mehr erzeugt, sondern nur noch Daten transferiert. In den Diagrammen erkennt man es daran, das der Output stabil bleibt und das der Prozessfluss gleich 0 ist. Beim Materialstrom ist das anders. Es wird der Gleichgewichtszustand verlassen und danach konvergiert Fluss und Prozess wieder gegen den Gleichgewichtszustand, der sich allerdings im Prozess geändert hat. Auch das ist aus einer Erklärungsperspektive einleuchtend. Wenn mehr Zeit benötigt wird, um Fehler abzuarbeiten, muss sich die Anzahl der behobenen Fehler pro Zeiteinheit erst einmal verringern. Diese Anzahl, sprich der Output, pendelt sich aber nach einer gewissen Zeit wieder auf die gleiche Anzahl ein, jedoch auf Kosten der im Prozess befindlichen Fehler. Die Anzahl der Fehler in Bearbeitung pendelt sich nämlich auf ein höheres Gleichgewicht ein.

Bitte beachten Sie, dass diese Untersuchungen bei konstantem Input vorgenommen wurden, nur die Kapazitäten wurden geändert. Sie können im Modell auch gerne andere Konstellationen, beispielsweise konstante Kapazitäten und variable Inputs, testen und das Verhalten verifizieren. In der Struktur beider Ströme erkennen Sie auch den generellen Unterschied, der zu diesem unterschiedlichen Verhalten im Gleichgewicht führt. Im Materialstrom ist der Output ein Flussfaktor und der Prozess ein Bestandsfaktor, beim Informationsstrom ist das umgekehrt der Fall.

Verzögerungen nach Ordnung

Material- als auch Informationsverzögerungen, wie wir sie oben beschrieben haben, lassen sich noch einmal jeweils nach der Ordnung unterscheiden. Ich möchte mich hier auf die Materialverzögerungen beschränken und die Unterscheidung nach der Ordnung vornehmen. Die Erkenntnisse lassen sich auf Informationsverzögerungen übertragen. Materialverzögerungen n-ter Ordnung haben n Makroelemente in der Kette des Materialstromes, die für die Verzögerung verantwortlich sind. Diese Makroelemente werden bei der System Dynamics Modellierung in Form von Bestandsfaktoren dargestellt. In dem Submodell “nach Ordnung” des folgenden Modells habe ich die Fehlerabarbeitung in einem Projekt modelliert. Das Modell, das eine Verzögerung 1. Ordnung darstellt, besitzt ausschließlich einen Bestandsfaktor: Fehler in Bearbeitung. Das Modell, das eine Verzögerung 3.Ordnung abbildet, ist bzgl. der Fehlerabarbeitung in 3 Phasen aufgeteilt, was letztlich zu 3 Bestandsfaktoren führt: Fehler in Analyse, Fehler in Implementierung und Fehler im Test. Beide Modelle zeigen ähnliches Verhalten. Unterschiede zeigen sich in der initialen Reaktion auf den Input. Bei der Verzögerungen 3. Ordnung reagiert das System später als bei der Verzögerung 1. Ordnung, erreicht aber dafür früher das Gleichgewicht, in welchem Input gleich Output ist. Das erkennen Sie im Simulationscockpit “nach Verzögerung” im Diagramm Output, in dem Sie die Kurven “1_Fehler behoben” und “3_Fehler behoben” vergleichen. Die Kapazitäten bei beiden Verzögerungsordnungen sind 20 Zeiteinheiten. Das erkennen Sie an den Parametern “Kapazität 1. Ordnung” und “Kapazität 3. Ordnung”. Daran erkennen wir also, dass sich ein Materialstrom eher in sein Gleichgewicht schwingt, wenn mehrere Makroelemente für die Verzögerungen beteiligt sind.

Des Weiteren erkennen wir sehr schön den jeweiligen Bestand an Bearbeitung von Fehlern im Gleichgewichtszustand, wenn also Input gleich Output ist. Der ergibt sich aus der einfachen Formel Input * Kapzität. In dem Modell 1. Ordnung werden 20 Fehler je Zeiteinheit gefunden und es werden 20 Zeiteinheiten benötigt, um einen Fehler zu bearbeiten. Das ergibt also 400 Fehler. Das sehen Sie im Cockpit “nach Verzögerung” im Diagramm “Prozess” an der Kurve “1_Fehler in Bearbeitung”. Das Gleichgewicht ist übrigens dann erreicht, wenn je Zeiteinheit 20 Fehler behoben werden (Diagramm “Output”). Im Modell ergibt sich der Bestand an bearbeiteten Fehlern additiv aus den 3 Phasen Analyse, Implementierung und Test. Aber auch im Gleichgewichtszustand haben wir in Summe 400 Fehler in Bearbeitung: 60 in der Analyse (20 Fehler * 3 Zeiteinheiten), 200 in der Implementierung (20 Fehler * 10 Zeiteinheiten) und 140 im Test (20 Fehler * 7 Zeiteinheiten).

Wann Sie welche Ordnung der Verzögerung modellieren, hängt häufig vom Detaillevel des Modells ab. Denn im Detail zeigen die verschiedenen Ordnungen unterschiedliche Muster, was wir eben gesehen haben. Verzögerungen nach Ordnung sind genau dann sehr gut zu analysieren, wenn die Bestandsfaktoren, die für die Verzögerungen verantwortlich sind, sichtbar sind. Schwierig wird es, wenn das nicht der Fall ist. Nehmen Sie das Beispiel Alkoholkonsum. Ein Mensch trinkt Alkohol, die Wirkung des Alkohols stellt sich jedoch mit Zeitverzug ein. Wie groß dieser Zeitverzug ist, ist nicht offensichtlich, was viele Menschen dazu verleitet einen “über den Durst” zu trinken. Ein anderer Fall ist der Gartenschlauch, den Sie offen auf dem Rasen ausliegen haben. Drehen Sie den Wasserhahn auf, können Sie relativ gut abschätzen, wann Sie das Wasser am Ende des Schlauchs erwarten können. Nehmen Sie mein Eingangsbeispiel mit der Dusche im Hotel. Da war das nicht der Fall. In der Praxis trifft man häufiger auf Fälle, wo die Verzögerungselemente nicht sichtbar sind.

Ein konkretes Beispiel

Ich möchte die eben gewonnenen Erkenntnisse nutzen, um an einem ganz konkreten Beispiel, nämlich dem Bugfixing, gewisse Sachverhalte zu reflektieren, die ohne ein System Dynamics Verständnis nicht zu Tage gefördert werden können. Das Modell finden Sie hier.

In einer ersten Untersuchung wollen wir schauen, welche Auswirkungen, dass Verteilen von Aktivitäten auf mehrere Instanzen im Rahmen das Bugfixings hat, natürlich unter der Annahme, das die Bearbeitungszeiten für einen Fehler im Durchschnitt identisch sind. Im Modell der 1. Ordnung beträgt diese 9 Zeiteinheiten, im Modell der 3. Ordnung sind es in Summe auch 9 Tage: 2 für Analyse, 4 für Implementierung und 3 für Test. Diese Einstellungen können Sie auch ändern. Das tun Sie im Simulationscockpit “Vergleich der Ordnungen” in den beiden oberen Parameterfenstern. Achten Sie aber bitte immer darauf, dass die Bearbeitungszeiten identisch sind. Wir sehen, dass im Falle der Aufsplittung der Aktivitäten (3. Ordnung), die ersten Fehler später zurück in die Produktion gehen, als wenn man die Aktivitäten nicht aufsplittet (1. Ordnung). Allerdings erreicht man mit der Aufsplittung der Aktivitäten schneller einen effektiven Fluss der Fehler durch die Bearbeitungskette. Das Gleichgewicht wird also früher erreicht. Das führt dazu, dass die Fehler auch früher final abgearbeitet sind: Im Falle, dass ab dem 150. Zeitschritt keine Fehler mehr generiert werden (Simulationscockpit “Parameter”: Variable step) ist das ab der 175. Zeiteinheit der Fall. Im anderen Fall hat man erst ab der 193 Zeiteinheit keine Fehler mehr in Bearbeitung. Diese Erkenntnis gewinnen Sie nach dem Simulieren im Cockpit “Vergleich der Ordnungen”. Haben Sie gewusst, dass eine Aufsplittung der Aufgaben dieses Mehr an Effizienz schafft? Was wir natürlich in diesem Modell vernachlässigt haben, ist, dass die Kommunikation und Übergabe zwischen den Phasen der Fehlerabarbeitung ohne Zeitverzug abläuft. Wir nehmen also an, dass die Effektivität der Fehlerabarbeitung für die beiden betrachteten Fälle konstant ist.

Konzentrieren wir uns nun einzig und allein auf das Modell 3. Ordnung, also auf die Aufsplittung der Aktivitäten, erhalten wir auch einige erstaunliche Einsichten in die Dynamik (Simulationscockpit “3. Ordnung”). Für die Analyse behalten wir die oben vorgenommenen Einstellungen der Kapazitätsvariablen bei: 2 für Analyse, 4 für Implementierung und 3 für Test. Es ist erstaunlich, wie lange benötigt wird, um das Gleichgewicht zu erreichen, sprich bis man genauso viele Fehler pro Zeiteinheit behoben hat, wie sie pro Zeiteinheit generiert werden. Es sind ca. 46 Zeiteinheiten. Des Weiteren erstaunt es, wie lange benötigt wird, um die Fehlerpipeline zu leeren, wenn bereits keine Fehler mehr pro Zeiteinheit generiert werden. Wenn ab der 150. Zeiteinheit keine Fehler mehr erzeugt werden, ist erst ab der 195. Zeiteinheit kein Fehler mehr zu bearbeiten.

Man kann bereits an dieser einfachen Kette die Phänomene der Theory of Constraints (ToC) simulieren und testen. Details zu ToC finden Sie in meinem Rucksack unter Critical Chain Project Management (CCPM). Sie können beispielsweise, in dem Sie die Kapazitätsvariablen für Analyse, Implementierung und Test ändern, erkennen, dass der Durchsatz der Fehler durch die gesamte Kette stark vom schwächsten Glied, vom Engpass, abhängt. Der Engpass ist diejenige Phase, die am längsten dauert. Der Engpass bestimmt also, wann die Fehler final abgearbeitet sind.

Eine Bemerkung möchte ich noch anbringen. Consideo, wie auch alle anderen Simulationswerkzeuge, besitzen Standardfunktionen für Verzögerungen in Material- und Informationsströmen. Das sind im CONSIDEO MODELER die Funktionen

  • DELAY1 für eine Materialverzögerung 1. Ordnung
  • DELAY3 für eine Materialverzögerung 3. Ordnung
  • SMOOTH1 für eine Informationsverzögerung 1. Ordnung
  • SMOOTH3 für eine Informationsverzögerung 3. Ordnung

Das Verwenden dieser Funktionen vereinfacht zwar das Erstellen des Modells, erschwert aber das spätere Verständnis, da der Prozess zwischen Input und Output nicht zu erkennen ist. Gerade bei Verzögerungen höherer Ordnung ist das absolut hinderlich, weshalb ich von dem Gebrauch dieser Funktionen abrate. Ich habe das Modell Bugfixing 3. Ordnung mit Funktionen modelliert. Dieses Modell finden Sie am Submodell “Funktionen”.

Fazit

Ein Verständnis von System Dynamics hilft Verzögerungen griffig zu machen, was wiederum unerlässlich ist, getätigte Aktionen auf Erfolg und Misserfolg zu evaluieren. Ich kann Ihnen kein Beispiel aus der Praxis nennen, wo keine Verzögerungen auftreten, sprich wo sofort eine Reaktion auf eine Aktion folgt. Alle Entscheider von heute sollten dementsprechend ein gesundes Verständnis für die quantitative Modellierung, beispielsweise System Dynamics, mitbringen.

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Komplexität, Modellierung | Tagged , , , | 2 Comments

Wie das Muster der Gesellschaftskrisen durchbrechen?

Im Post Das Muster der Gesellschaftskrisen habe ich die Gesetzmäßigkeiten beschrieben, die den Untergängen aller menschlichen Kulturen und Gesellschaften zu Grunde lagen und denen wir auch in unserer jetzigen Gesellschaft aufgesessen sind. Das Übel war der Zins. Nun fragt man sich natürlich sehr einfach: Kann man dieses Übel abstellen? Wenn ja, wie und warum tut man es nicht?

Die ersten beiden Fragen lassen sich mit ja beantworten, nämlich beispielsweise durch Freigeld. Silvio Gesell ist der Erfinder der Freigeldtheorie. Er beanstandete das Geld als Tauschmittel, da es nicht wie die Waren, mit der Zeit an Wert verliert, sondern schlimmer noch durch den Zins an Wert gewinnt. Die folgende Abhandlung im Netz beschriebt dieses Konzept sehr anschaulich. In dieser Dokumentation finden Sie auch einige Beispiele, wo das Konzept des Freigelds erfolgreich in die Praxis umgesetzt wurde. Gestoppt wurden diese erfolgreichen Experimente stets durch Wuchergedanken weniger Kaufleute oder durch Bankiers, was dazu führte in das alte Muster zurückzukehren. Leider. Und damit ist auch die dritte Frage beantwortet, nämlich warum die Lösung, die bekannt ist, nicht nachhaltig umgesetzt wird.

Anbei ein Zitat von Silvio Gesell, welches er im Jahre 1918 in einem offenen Brief an die “Berliner Zeitung am Mittag” offerierte und in dem er einen Krieg vorhersagte, wenn die Zinswirtschaft nicht abgeschafft wird.

Trotz des heiligen Versprechens der Völker, den Krieg für alle Zeiten zu ächten, trotz des Rufs der Millionen: ‚Nie wieder Krieg!’, entgegen all den Hoffnungen auf eine schönere Zukunft muß ich sagen: wenn das heutige Geldsystem, die Zinswirtschaft beibehalten wird, so wage ich es heute schon zu behaupten, daß es keine 25 Jahre dauern wird, bis wir vor einem neuen, noch furchtbareren Krieg stehen. Ich sehe die kommende Entwicklung klar vor mir. Der heutige Stand der Technik läßt die Wirtschaft rasch zu einer Höchstleistung steigern. Die Kapitalbildung wird trotz der großen Kriegsverluste rasch erfolgen und durch ein Überangebot den Zins drücken. Das Geld wird dann gehamstert werden. Der Wirtschaftsraum wird einschrumpfen und große Heere von Arbeitslosen werden auf der Straße stehen. … Wie zu alten Zeiten wird man dann nach dem Länderraub trachten und wird dazu wieder Kanonen fabrizieren müssen, man hat dann wenigstens für die Arbeitslosen wieder Arbeit. In den unzufriedenen Massen werden wilde, revolutionäre Strömungen wach werden und auch die Giftpflanze Übernationalismus wird wieder wuchern. Kein Land wird das andere mehr verstehen, und das Ende kann nur wieder Krieg sein.

Wir wissen alle was einige Jahre später passierte.

Ich möchte nun 2 Zitate von Gesell aus seinem 1916 erschienenen Hauptwerk Die Natürliche Wirtschaftsordnung durch Freiland und Freigeld anführen, die ganz deutlich den Makel von Geld unter dem Paradigma des Zins als Tauschmittel aufzeigen. Sie können das genannte Buch auch hier als PDF herunter laden.

Ein Geld, das gesetzmäßig in der Weise arbeitet, daß es sich zurückzieht, wenn es zu fehlen beginnt, und das in Masse auf dem Markt erscheint, wenn es dort schon übermäßig vertreten ist, kann nur dem Schwindel und Wucher dienen und muß als unbrauchbar bezeichnet werden, …

Unsere Waren faulen, vergehen, brechen, rosten, und nur wenn das Geld körperliche Eigenschaften besitzt, die jene unangenehmen, verlustbringenden Eigenschaften der Waren aufwiegen, kann es den Austausch der Waren schnell, sicher und billig vermitteln, weil dann solches Geld von niemand, in keiner Lage und zu keiner Zeit vorgezogen wird.

Wann wachen wir in Gesamtheit endlich auf und stellen unsere Gier im Sinne der Menschheit hinten an? Wieviele Beispiele, negative als auch positive, benötigen wir noch, um das Muster der Gesellschaftskrisen zu akzeptieren und darauf zu reagieren, beispielsweise mit dem Konzept des Freigelds?

1 Star2 Stars3 Stars4 Stars5 Stars (2 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Ökonomie und Wirtschaft | Tagged , , , , | 3 Comments

Das Muster der Gesellschaftskrisen

Horrormeldungen durchziehen derzeit unsere Medienlandschaft. Es vergeht kaum ein Tag, an dem wir nicht ähnliche Nachrichten, wie die auf dem unteren Bild, lesen.

Diese Nachrichten habe ich am 9. August um 9:08 auf der Seite http://www.news.de gefunden. Die Hilflosigkeit, der sich Politik und Wirtschaft diesen Ereignissen gegenüber ausgeliefert sieht, ist für mich noch fataler als die Nachrichten an sich. An dieser Stelle habe ich zwei Fragen.

  • Ist die Krise, in der wir uns befinden, einmalig in der menschlichen Geschichte?
  • Wenn nein, warum lernen wir nicht aus den Krisen, die in der Vergangenheit stattgefunden haben?

Beginnen wir mit der ersten Frage. Die Möglichkeit, diese Frage zu beantworten, basiert auf einen für mich faszinierenden Umstand, nämlich den des Kommentars von Stefan Wehmeier bzgl. meines letzten Posts Sollten Manager schizophren sein. Durch diesen wurde ich auf seine Seite Der Weisheit letzter Schluss und damit auf das Buch des Professors für politische Ökonomie Gustav Ruhland aufmerksam.

Ruhland wurde im Jahr 1887 vom damaligen Reichskanzler Bismarck engagiert, Erklärungen für die Niedergänge aller bisherigen Hochkulturen und Weltreiche der menschlichen Geschichte aufzustellen. Als Ruhland im Jahr 1890 von seinen diesbezüglichen Reisen zurückkehrte, war Bismarck nicht mehr im Amt. Ich bin mir nicht sicher, ob das der Grund war, warum seine Erkenntnisse keine Resonanz fanden. Ich finde seine Entdeckungen bemerkenswert, da sie ein Muster aufdecken, dem menschliche Kulturen und Gesellschaften erlegen sind und die letztendlich dazu führen das sie untergehen. Auf der bereits angesprochenen Seite von Stefan Wehmeier habe ich das Dokument Der Untergang der Römer gefunden, in welchem dieses Muster verdeutlicht wird.

Haben Sie nicht auch das Gefühl, dass wir uns bereits mitten in der Phase 5, sprich in den Unruhen befinden. Game-, Casting-, Reality- und weitere unsinnige Shows, die in den letzten Jahren die Medienlandschaft fluteten und Ausdruck der Phase 4 (Dekadenz – Brot und Spiele) sind, können die Menschenmassen mittlerweile nicht mehr besänftigen. Die Armen werden immer ärmer und von der Anzahl immer größer. Die Reichen werden immer reicher. Die Mittelschicht wird bzgl. der Anzahl der Menschen her immer kleiner, die Schere zwischen arm und reich immer größer. In Somalia verhungern Kinder und Roman Abramovitsch kauft sich eine Yacht für 200 Mio. Dollar. Die Menschen lassen sich diese Ausbeutung und Ungerechtigkeit nicht ewig gefallen und rebellieren. Beispiele dafür gibt es in der jüngsten Vergangenheit genug: Griechenland, Spanien, Nordafrika, London. Von der letzten Phase, dem Zusammenbruch, sind wir noch ein Stück entfernt. Wie weit? Keine Ahnung. Deshalb ist es aus meiner Sicht jetzt um so wichtiger den Erkenntnissen eines beispielsweise Gustav Ruhland den gebührenden Platz in den Schulen und Universitäten einzuräumen und dieses Wissen endlich einmal zu nutzen.

Schön, dass es noch Seiten wie Vergessene Bücher gibt, die dem Wirken und Schaffen von Prof. Gustav Ruhland gewidmet ist. Auf dieser können Sie auch sein Hauptwerk “System der politischen Ökonomie” herunterladen, welches er in den Jahren 1903 bis 1908 verfasst hat. Sehr interessant und vor allem so unglaublich aktuell. Ich bin zur Zeit dabei, dieses zu studieren. Ich glaube an die Erkenntnisse von Ruhland, da ich das von ihm aufgestellte Muster sehr gut an unserer derzeitigen Krise erkennen kann.

Kommen wir zur Frage 2. Der Grund für das Missachten dieser Muster und wohl auch für die Arbeiten und Erkenntnisse von Ruhland liegen meines Erachten darin, dass die Wurzel des Problems der Zins ist. Geld und Zins sind so tief in unser Leben, unsere Gesellschaft und unsere Kultur integriert, dass wir uns quasi selbst negieren müssen, um diesen Fakt zu hinterfragen. Unser Leben, unser Wirken und alles was wir geschaffen haben ist auf Geld und Zins aufgebaut. Geld ist das Blut der Wirtschaft. Da ist es natürlich nicht einfach Geld und Zins in Frage zu stellen, aber unbedingt notwendig.

Was bleibt? Immer wieder das eigentliche Problem ansprechen, auch wenn es zur Zeit noch sehr Wenige hören wollen. Der Zins ist die Wurzel des Problems. Wenn Sie das nächste mal in den Medien, in irgend welchen Talkshows oder wo auch immer eine Debatte hören, in welchen Fragen erörtert und diskutiert werden, wann die Realwirtschaft doch endlich wieder anzieht und welche Maßnahmen ergriffen werden müssen, damit der volkswirtschaftliche Kreislauf angekurbelt wird, haben Sie das oben stehende Bild bitte im Kopf. Dann kennen Sie nämlich die Antwort: Solange es den Zins gibt, Niemals. Die Finanzwirtschaft wächst durch den Zins stets exponentiell. Dem hat die Realwirtschaft nichts entgegenzusetzen. Sie kann über einen langen Zeitraum bestenfalls linear wachsen.

1 Star2 Stars3 Stars4 Stars5 Stars (3 Bewertung(en), Durchschnitt: 5.00 von 5)
Loading...
Posted in Ökonomie und Wirtschaft | Tagged , , , | 12 Comments

Sollten Manager schizophren sein?

Komische Frage, oder? Vielleicht ist die Frage auch zu pauschal gestellt? Kann sein. Lassen Sie uns loslegen.

Beginnen wir mit dem Geld. Geld wurde als reines Tauschmittel erfunden. Es war in der Zeit als sich bestimmte Berufe herausgebildet haben, die allesamt verschiedene Waren hergestellt haben, die nicht mehr einzig und allein zum Eigengebrauch sondern zum Tausch gegen andere Waren dienten. Da es aber relativ schwer fiel verschiedene Waren im Rahmen eines Tausches miteinander zu vergleichen, benötigte man ein scheinbar objektives Messinstrument, das Geld. In dieser Zeit also hat man Waren hergestellt, um andere Waren zu erhalten. Man spricht hier von W-G-W (Ware-Geld-Ware). Geld war also reines Mittel zum Zweck für den Warenerwerb. Später gewann das Geld an Wertigkeit, es war nicht nur Tauschmittel, sondern besaß seinen eigenen Wert. In dieser Zeit stellte man also Waren her, nicht um andere Waren zu erhalten, sondern um diese zu verkaufen um Geld zu erhalten. Hier sprach man von G-W-G (Geld-Ware-Geld). Der nächste Übergang war einschneidender, jedenfalls aus einer Geldsicht heraus. Es war nämlich die Geburt der Finanzwirtschaft. Hier spielten Waren nicht mehr diese große Rolle, da man erkannte, das auch ohne Waren Geld zu scheffeln ist. Man spricht hier von G-G (Geld-Geld). Aus Geld wird Geld und immer mehr Geld, angetrieben durch den Zinseszins. Die Realwirtschaft war im Würgegriff der Finanzwirtschaft. Diesen Effekt habe ich detailliert in meinem Post Wir schaffen unsere Finanzkrisen durch das Zinsparadigma selber analysiert. Die Wurzel des Übels war also gepflanzt. Der Mensch ist auf Energieeffizienz ausgelegt. Und Geld “verdienen”, bei dem keine Waren produziert oder Dienstleistungen, sieht man mal von der Dienstleistung des reinen Geld Verleihens ab, erbracht werden müssen, ist enorm energieeffizient, erfreut sich ergo besonderer Beliebtheit. Der Wurzel des Übels war also nicht nur gepflanzt, sie begann prächtig gedeihen.

Wir erkennen die Künstlichkeit des Geldes, da sie von Menschenhand erfunden wurde. Mittlerweile nimmt aber die Abhängigkeit unserer Gesellschaft von diesem künstlichen Objekt Geld groteske Züge an. Denken Sie nur an die jüngsten Diskussionen und die Aktionen bzgl. der Schuldenkrise in den USA. Einzig und allein weil die Schuldengrenze hoch gesetzt wurde, ist die USA wieder zahlungsfähig. Das Problem wird damit nicht gelöst, sondern verstärkt und in die Zukunft verschoben. Die Politiker tun aber so, als sei jetzt alles gut, weil sie nicht tiefgründig denken. Nehmen sie ihren Gehaltszettel hervor und erhöhen ihr Gehalt, gehen damit zu Ihrem Chef mit der Bitte ab dem nächsten Monat genau diesen Betrag ausgezahlt bekommen. Wie würde er reagieren? Grotesk oder? Nichts anderes hat man aber in den USA getan. Nicht zu fassen.

Ich habe eben bereits den Zinseszinseffekt angesprochen, der der Finanzwirtschaft überhaupt erst das Leben ermöglicht. Der Zinseszinseffekt hat Auswirkungen auf die Dynamik des Wirtschaftens. Alles wird schneller. Investitionen müssen sich immer schneller rentieren, Projekte müssen immer schneller einen positiven Business Case erbringen. Warum ist das so? Je schneller das Geld wieder in den Umlauf kommt, desto mehr Geld wird generiert. Diesen Fakt habe ich in meinem Artikel Diskrete und kontinuierliche Modellierung ausgeführt. Wenn sie beispielsweise ihr Geld mit einem bestimmten Zinssatz p.a. anlegen, generieren Sie mehr Geld, wenn das Geld täglich ausgeschüttet und der neue Betrag weiter verzinst wird, als wenn dies monatlich, oder schlimmer jährlich passiert. Den gleichen Effekt haben Sie wenn Sie einen Kredit aufgenommen haben, um Investitionen zu finanzieren, sagen wir ein Eigenheim. Sie reduzieren ihre Restschuld schneller, wenn ihre Tilgung monatlich gegen diese gerechnet wird, als wenn dies jährlich passiert. Wir erkennen die eben angesprochene Beschleunigung des Wirtschaftens oder gar unseres Lebens.

Vielleicht erkennen Sie jetzt auch die Notwendigkeit des Abgebens von Quartalsberichten, was jeder realen Sinnhaftigkeit entbehrt, da diese viel zu kurzfristig sind. Aus finanzwirtschaftlichen Gründen sind diese aber absolut plausibel. Die Unternehmen reagieren auf diese Kurzfristsicht mit der Abkehr von absoluten Zielen, wie den Gewinn, hin zu relativen Zielen, wie der Profitrate. Denn Unternehmen müssen nicht nur immer mehr Gewinn machen, sondern diesen auch noch mit immer weniger Mitteln und in immer kürzerer Zeit. Gewinn ist ja bekanntlich gleich Umsatz abzüglich der Kosten. Auf welchen Bestandteil hat ein Unternehmen sehr schnell sehr großen Einfluss? Richtig, auf seine Kosten. Also versuchen Unternehmen alles um die Kosten zu senken. Diesen Effekt, und das können Sie detailliert in meinem Post Renditemaximierung der Realwirtschaft: Antwort auf den Zinsstress mit negativen Implikationen nachlesen, sehen Sie auch in der Maximierung der Renditen, wenn Sie nämlich die 1. Ableitung der Renditen zu Grunde legen, die ausschließlich Kostenbestandteile enthalten. Preise, also die Sicht auf den Markt sind komplett ausgeblendet. Unternehmen richten sich mit einer Renditesicht, ausschließlich nach innen aus. Diese Innenausrichtung bewirkt, dass ein Unternehmen die Sicht auf seine Stakeholder, wie Kunde, Lieferant oder Mitarbeiter verliert, und sich ausschließlich seinen Shareholdern zuwendet. Was sind die Auswirkungen?

Kostensenkungsprogramme, manchmal verschleiert mit anderen Namen wie Harmonisierung, Standardisierung, Change oder Outsourcing. Um Innovation geht es nicht. Dienstleister werden ausschließlich über die Kosten ausgesucht. Wenn Ihnen das nächste mal Schulungen oder Events gestrichen werden, wissen Sie warum. Aber gehen Sie nicht zu hart mit Ihren Managern ins Gericht. Manager planen Schulungen oder Events guten Gewissens und sind dann immer wieder überrascht, dass sie abgesagt werden müssen. Wenn man sich über die Zusammenhänge, die vom Geld und der Finanzwirtschaft ausgehen, nicht bewusst wird, ist man sich guten Gewissens sicher alles Erdenkliche für seine Mitarbeiter zu tun. Sie sind ja wichtig. Logisch. Nur das System lässt das nicht zu.

Lassen Sie uns die im Titel gestellte Frage schlussendlich beantworten. Die Frage hat hauptsächlich Relevanz, für Manager, die in Unternehmen arbeiten, die von außen durch Investoren beeinflusst sind. Das sind in aller erster Linie börsennotierte Unternehmen. Ja, Manager müssen schizophren sein, aber nur wenn Sie die oben aufgedeckten Zusammenhänge erkennen. Sehen sie diese nicht, leben sie auch ohne Schizophrenie seelig und glücklich. Für die Anderen aber, für die Wissenden, ist Schizophrenie der Ausweg, um nicht ständig in Wiedersprüche zwischen Denken und Handeln zu geraten. Denn wie wollen Manager ihren Mitarbeitern immer wieder ihre Wertschätzung entgegenbringen, wissend, dass sie diese Wertschätzung auf Grund der Renditesicht nicht gerecht werden können?

1 Star2 Stars3 Stars4 Stars5 Stars (Keine Bewertungen bislang. Geben Sie doch die erste ab.)
Loading...
Posted in Management und Leadership, Ökonomie und Wirtschaft | Tagged , , , | 13 Comments