KI – in wie weit möglich und wie gefährlich ist das Konstruieren intelligenten Lebens?

Rudolf Kaehr, einer der Schüler von Gotthard Günther, spricht über den Forschungsstand der Künstlichen Intelligenz:

Der Zweig der Künstlichen Intelligenz versucht seit mehreren Jahren Roboter zu konstruieren, die ähnlich agieren wie Menschen. Das heisst, es soll intelligentes Leben künstlich kreiert werden. Um zu eruieren, wie weit oder nah die Forschung derzeit davon entfernt ist, muss man sich vor Augen führen, was den Menschen, als Sinnbild für intelligentes Leben, charakterisiert. Ich möchte hier auf drei Themen eingehen.

  • Bewusstsein: Der Mensch kann zwischen sich und seiner Umgebung unterscheiden und dass auch in einer unstrukturierten Umgebung. Das bedeutet, diese Umgebung ist nicht vorher bestimmt und kann sich ändern. Aus dieser Sicht ist eine strukturierte Umgebung keine wirkliche Umgebung, denn sie ist in das System “Mensch” einprogrammiert. Ein Beispiel für solch strukturierte Umgebung für einen Roboter, der Türen an Autos zusammenschrauben soll, wäre das Auto, die Türen sowie die Schrauben. Diese ist vorbestimmt und Teil des Roboterprogramms, damit also Teil des Systems “Roboter”. Eine unstrukturierte Umgebung wäre die Motorhaube. Würden die heutigen Roboter auch Motorhauben der Autos verschrauben können, ohne dass der Mensch eingreift?
  • Lernen: Der Mensch ist in der Lage zu lernen. Er kann sich ein Ziel setzen und kann dieses Ziel aufgrund von Ergebnissen von Selbstreflektionen ändern. Der Mensch durchläuft beim Lernvorgang einen Prozess, den er selbständig ändern kann. Projeziert auf einen Roboter wäre dies das selbständige Ändern seines Programmcodes. Gregory Bateson hat 3 Begriffe geprägt: Lernen_0, Lernen_1 und Lernen_2. Das Lernen_0 ist kein “wirkliches” Lernen, was die Menschen darunter verstehen. Lernen_0 beobachtet man bei einer Heizungsanlage, die mittels des Thermostates und des Reglers eine Isttemperatur auf eine Solltemperatur abstimmt. Beim Lernen_1 wird die zu erreichende Solltemperatur von der Heizungsanlage hinterfragt und kann gegebenenfalls angepasst werden. Dann erst wird die Isttemperatur gegen die Solltemperatur von der Heizungsanlage validiert und ggf. angepasst. Lernen_2 bedeutet in diesem Kontext dass nicht nur die Solltemperatur von der Heizungsanlage validiert und angepasst wird, sondern auch der Prozess, wie die Isttemperatur auf die Solltemperatur abgestimmt wird (vielleicht durch Wärmeenergie statt durch Öl). Haben wir solch eine Heizungsanlage schon einmal gesehen? Oder sind wir generell einer solchen Maschine schon einmal begegnet?
  • Gedächtnis: Noch immer transportieren unsere Umschreibungen für die perfekte Erinnerung die Vorstellung, Gedächtnis sei tatsächlich in erster Linie ein Speicher, in dem so etwas wie Wissen abgelegt ist. Eine Vorstellung, die zudem noch immer das Ideal der Schulbildung zumindest in der Öff entlichkeit prägt, man müsse den Kindern möglichst viel Wissen beibringen. Es bleibt aber in erster Instanz festzuhalten, dass es ein wesentliches Charakteristikum des menschlichen Gehirns ist, möglichst alles mit allem zu vernetzen. Unsere Erinnerung sitzt folglich nicht in irgendwelchen Nervenzellen, sondern besteht im wesentlichen aus einer verstärkten Verknüpfung von Nervenzellen. Also verabschieden wir uns von der Speicherung von Wissen im herkömmlichen Sinne. Es gibt bildlich gesprochen keinen Behälter im menschlichen Gehirn, der Wissen speichert und den man einfach so löschen kann ähnlich einer Badewanne mit Wasser. Des Weiteren lässt sich feststellen, dass der Mensch Erinnerungen auch “wegschmeißen” kann. Das passiert meist unbewusst und ist wichtig, damit der Mensch in seiner Umwelt überleben kann. Würden wir uns alle Standorte merken, an dem wir jemals unser Auto geparkt haben, hätten wir in einer speziellen Situation ein riesiges Problem unser Auto zu finden.

Als nächstes möchte ich anmerken, wo derzeit Probleme bestehen, die drei oben genannten Eigenschaften maschinell abzubilden. Die Mathematik, wie wir sie derzeit nutzen, kann Selbstbezüglichkeit nicht abbilden. Beim Versuch dieses zu tun, erhalten wir Paradoxien. Ein Beispiel ist der Satz: “Ich lüge gerade”. Ich mache eine Aussage über eine parallel zum von mir ausgesprochenen Satz ausgeführte Tätigkeit. Wenn ich gerade lüge erzeugt der Satz die Information, dass ich gerade nicht lüge. Wenn ich gerade nicht lüge erzeugt der Satz die Information, dass ich gerade lüge. Also ein Paradox. Die Russellsche Typentheorie sagt aus, dass in der klassischen zweiwertigen Logik von Aristoteles keine Menge ein Element ihrer selbst sein kann. Darauf baut unsere Mathematik auf, womit Selbstbezüglichkeiten und Paradoxien quasi ausgeschlossen werden. Bewusstsein zeichnet sich aber durch Selbstbezüglichkeit aus. Wenn wir uns im Spiegel betrachten, dann erkennen wir unser Spiegelbild als Abbild unser selbst und nicht als unser Original. Das bedeutet wir Menschen sind in der Lage die Unterscheidung zwischen uns und der Umgebung in uns abzubilden.

Wenn das Gehirn über das Gehirn nachdenkt, und das muss ja so sein, wenn wir Menschen unser Gehirn nachkonstruieren wollen, dann kann das nie vollständig sein. Ein Baby kann beispielsweise noch nicht sein Spiegelbild von sich selbst unterscheiden. Malt man einem Baby einen Punkt ins Gesicht und setzt es vor einem Spiegel, dann versucht es den Punkt im Spiegelbild zu berühren oder wegzuwischen. Das Selbstbewusstsein wird im Laufe der Zeit gebildet. Aber niemand kann genau sagen, welche Aktionen oder welche Begebenheiten genau und exakt wie dazu beitragen. Es passiert quasi aus sich selbst heraus.

Mit der derzeitigen Mathematik und Logik ist es noch nicht einmal möglich, Eigenschaften intelligenten Lebens zu beschreiben, geschweige denn dieses zu konstruieren. Wir benötigen also eine Logik, die Subjektivitäten einbezieht. Die zweiwertige Logik leistet dies nicht. Gibt es eine Alternative zur zweiwertigen Logik von Aristoteles? Ja, die gibt es. Ich möchte eine – die Polykontexturalitätstheorie von Gotthard Günther – kurz erläutern. Für ein detailliertes Erfassen der Ideen von Günther verweise ich gerne auf die einschlägige Literatur von Ihm oder von Rudolf Kaehr und Eberhard von Goldammer. Günther erweitert in seiner Theorie die Logik von Aristoteles um mehrere Kontexturen, deshalb Polykontexturalität. Eine Kontextur wird als zweiwertiger Strukturbereich, also zweiwertige Logik, definiert. Die Logik von Aristoteles befasst sich immer nur mit einer Kontextur, sinnbildlich also nur mit einem Thema. Sie ist monothematisch. Durch die Polykontexturen können also subjektive Sichten auf ein und dasselbe Thema abgebildet werden. Jeder Mensch begreift die Welt mit derselben zweiwertigen Logik, aber er begreift sie jeweils mit anderen Subjektivitäten. Benutzen alle Menschen dieselbe Logik, aber jeweils subjektiv bewertet, so sind auch die Ergebnisse verschieden. Die zweiwertige Logik unterscheidet zwischen Subjekt und Objekt. Betrachte ich diese Unterscheidung aus meiner Sicht, dann bin ich das Subjekt und alles andere ist Objekt, also auch Sie als Leser dieses Artikels. Nutze ich also die zweiwertige Logik, beispielsweise in einem Gespräch, dann setze ich Sie mit einem Ding gleich. Sie verändern sich also nicht, ändern nie Ihre Meinung. Das ist wohl ein wenig zu arg trivialisiert. Finden Sie nicht auch? Die zweiwertige Logik bleibt innerhalb der jeweiligen Kontexturen unangetastet, wird aber vervielfältigt. Kontexturübergreifend gelten die 3 Axiome der zweiwertigen Logik aber nicht mehr: Es kann ein drittes und noch mehr geben und Kontexturen können sich widersprechen. Es ergeben sich im einfachsten Fall drei Kontexturen: ICH/DU, ICH/ES und DU/ES. ICH, DU (alle zusätzlichen Gesprächsteilnehmer) und ES (die Umwelt). Jedes DU ist von sich aus gesehen ein ICH. Mit dieser Theorie könnten also Eigenschaften intelligenten Lebens beschrieben werden.

Können wir intelligentes Leben auch konstruieren? Ein menschliches Gehirn kann, wie oben angemerkt, niemals vollständig über das menschliche Gehirn nachdenken. Ein menschliches Gehirn kann deshalb auch nicht vollständig von Menschenhand erschaffen werden. Der Mensch kann nur die Rahmenbedingungen kreieren, in welchen sich die Maschine durch Lernen vervollkommnet. Wie das Lernen funktioniert können wir ja mit der Polykontexturalitätstheorie beschreiben. Allerdings sollten wir bedenken, dass wir nie genau vorhersagen können, was Ergebnis des Lernvorgangs der Maschinen ist. Diese Lernvorgänge sind dem Versuch-und-Irrtum Prinzip unterlegen, was wir bei uns selbst ja auch feststellen können.

Aus meiner Sicht müssen wir also noch sehr lange auf einen intelligenten Robotfreund warten. Vielleicht ist das ja auch gut so.

1 Star2 Stars3 Stars4 Stars5 Stars (2 Bewertung(en), Durchschnitt: 4.00 von 5)
Loading...
This entry was posted in Hirnforschung and tagged , , , , . Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *