Algebra und Verkörperung
Michael Seibel • Modell und Organismus, die drei Begriffe: Intelligenz, Lernen und Bewusstsein (Last Update: 01.07.2020)
Bis heute kennen wir nur einen Typ von Entitäten, die evolutionär zu etwas vergleichbarem in der Lage ist, nämlich biologische Organismen. Und da sprechen wir nicht von Kostenfunktion, sondern von Stoffwechsel und Sterblichkeit.
Biologen haben ohne Ende Beispiele dafür, dass Organismen auf Umweltreize reagieren, dass sie etwa den Standort wechseln, wenn ihnen an einem Ort Stoffe fehlen, die ihr Stoffwechsel braucht. Bekannt sind jedem die Blätter, die sich dem Licht zuwenden. Die Phototaxis, bei der Organismen auf unterschiedliche Beleuchtungsstärken reagieren, die Motten, die ins Licht fliegen oder gut untersuchte Fälle wie der marine Ringelwurm1 … Die Beispiele für Selbstregulation sind Legion. Wollte man das Vokabular der KI verwenden, man müsste von Kostenfunktionen und Backpropagation reden. Oder machen wir noch einmal den ganz großen Sprung zu Hamlet und der Orientierung des Erkennens, Wiedererkennens und Entscheidens in einer gigantischen sozialen Korrekturschleife. Was für eine Welt ist das, in der die Mutter den Mörder ihres Gatten, den Vater des Erkennenden heiratet und herrschen lässt? Ein Erkennensproblem, vor dem natürlich jede automatische Gesichtserkennung und jedes autonome Fahrzeug in die Knie geht.
Dass starke KI über sehr viel mehr Weltwissen verfügen müsste, um möglich zu sein, ist Gemeinplatz geworden. Wie viel mehr darf es denn sein? Um wirklich mitzureden müsste die KI-Forschung vielleicht wenigstens den Stand der Nektochaeten-Larve erreichen und damit so etwas wie organisch werden. Und dann müsste der Wurm sich ans Steuer setzen und hätte die Kluft zu überbrücken, die die Nektochaeten-Larve von Hamlet trennt. Ja, sie sollte zumindest sehr gut Autofahren. Vielleicht wäre das schon ein Beitrag, der Hamlet und seiner Entourage beim Erkennen hilft.
Schaurig schöner humanoider Roboter von Boston Dynamics. Im Parcours klappt viel. Bei freier Bewegung noch nicht .
Stand 08/21 (Quelle: Youtube)
In solch einem Phantasma durchkreuzen sich zwei Denkrichtungen, ein Organizismus mit dem Gedanken endloser Addition von Fähigkeiten. Zuerst ein Ganzes darstellen, damit es eine genuin maschineneigene Kostenfunktion geben kann, also etwas, das Abweichungen vom Lebensweg korrigiert und nicht vom Programmierer induziert ist. Dieses Gedankenkonstrukt ist schlicht nichts anderes als ein Religionsrest. Die Vorstellung eines Ganzen, das sich selbst trägt, ist der altbekannte Causa Sui-Gedanke, dessen Ecken und Kanten, dessen kompletten Unsinn wir schon seit 2000 Jahren durch alle möglichen Ideologien flicken. Durch einen Schöpfer, einen Weltzweck, eine Evolutionsrichtung, durch legitime Ordnungen, es ist die Peitsche Gottes, mit der die Creatur sich selbst auf die Weide treibt. Die Priester, darauf hatte zuletzt wieder einmal Yuval Harari hingewiesen, sind regelmäßig die, die als Verstehen die Fähigkeit ausgeben, zu sagen, warum etwas nicht geklappt hat, statt zu sagen wie es geht. Ganzheit als vorausgesetzte ist die Priesterposition. Wenn man daran den einen oder anderen Algorithmus hängt, ist es nicht mehr weit bis zu Nick Bostroms Paranoia.2 Mach eine sich selbst erhaltende Ganzheit aus was auch immer, kaum ist sie anders als du, schon musst du ihr Menschenwürde verleihen oder sie bekämpfen. Es will dir ans Leder, sagt der triviale Rassismus, diesmal nicht gegen Menschen, sondern sogar gegen das sonst so geliebte Smartphone.
Was ist wirklich grundlegend bei
neuronalen Netzen? Letztendlich ist das Elementare eine Algebra,
die auf eine bestimmte materielle Grundlage aus Silizium-basierter
Technik gestellt wird und in erheblichem Umfang Engergie verbraucht. Wesentlich scheint mir daran weiter zu sein, dass sie ganz anders, als man das sonst von
algebraischen Problemen erwartet, keineswegs zu luziden Ergebnissen führt, ausser eben unter Bedingungen der gewählten technischen Verkörperung.
1 plus 1 ist also nicht bereits an sich schon 2, sondern erst bei entsprechender Verkörperung.
Verkörperung, sei es die technische Verkörperung in einer Maschine, sei es die biologische in einem Organismus,
wird im doppelten Wortsinn 'unabsehbar', sobald die Frage der Intelligenz gestellt ist. 'Unabsehbar' heisst:
Es wird unmöglich, in Fragen von Mathematik und Logik von der jeweiligen Verkörperung abzusehen;
es wird unmöglich, das Ergebnis vorherzusagen, ohne den Algorithmus wirklich auszuführen.
Man hat empirische Daten, in diskrete Messgrößen umgesetzte
Außenreize (z.B. 28*28 Pixel * z.B. 60.000 Bilder) und man hat
letztlich nicht mehr als die Grundrechenarten. Alles, was darüber
hinausgeht wie Matrizenrechnung und Tensoren sind intelligente
Vereinfachungen dessen. Auf der elementarsten Ebene sind Neuronale Netze
außer Rand und Band geratener Grundrechenarten. Das zusammen
macht die Effektivität des Algorithmus aus. Was hinzukommt sind
ökonomische Restriktionen, ist das Problem seiner Effizienz. Aus
Sicht der heutigen KI ist ein Komplexitätsproblem letztlich noch nichts
anderes als ein Effizienzproblem. Je komplexer ein
Untersuchungsgegenstand ist, desto effizienter müssen die
Algorithmen sein, die ihn bearbeiten, wenn man ihn denn überhaupt
bearbeiten möchte. Energieaufwand und
Lichtgeschwindigkeitsbarriere werden so zum zweiten Typ
entscheidender Schranken von Bearbeitungsmöglichkeit und mithin
von Effizienz neben der ersten Schranke, einer sich selbst
evolutionär weiterentwickelnden Kostenfunktion. Eine technische
Antwort ist die massive Parallelisierung von Rechenleistung. Das
ändert aber nichts daran, dass die heutigen Silizium-basierten
Recheneinheiten gemessen an der Frage, zu wie vielen Operationen pro
Watt sie fähig sind Kohlenstoff-basierten wie dem Gehirn bei
weitem unterlegen sind. Wir haben das oben bereits angesprochen. Das
wird wahrscheinlich nicht dazu führen, dass wir das menschliche
Erbgut verändern, um immer intelligentere Menschen zu bekommen.
Menschen sind zwar sehr soziale Wesen, aber dennoch nur begrenzt
parallelisierbar. Es würde mich nicht wundern, wenn
Bioinformatiker früher oder später auf die Idee kämen,
Rechenleistung in Viren zu implementieren, um den doppelten Vorteil
von massiver Parallelität und kohlenstoffbasierter
Energieeffizienz zu realisieren. Mir ist nicht bekannt, dass das
schon der Fall wäre. Wer wollte schon groß daran zweifeln,
das Viren Turing-vollständig sind, wenn selbst schon die
einfachsten neuronale Netze Turing-vollständig sind? Man wird
dem Phantasma, auf jede Frage, die unser Geist – nicht unsere
Intelligenz – an uns stellt, im Wortsinn erschöpfend
antworten zu wollen, auch in Zukunft nachlaufen. (… wovor wir
Philosophen nicht aufhören werden zu warnen!)
Dreieinigkeit der Begriffe: Intelligenz, Lernen und Bewusstsein
Etwas grundsätzliches zu Intelligenz-Begriff, zum Begriff des Lernens und das Bewusstseins:
Wenn man überhaupt sinnvoll bei Maschinen danach zu fragen, braucht man entscheidbare Kriterien dafür.
Intelligenz im Sinne von IQ ist gerade, indem sie Kriterien bietet, keine menschliche Eigenschaft, sondern die Fähigkeit, bestimmte Sets von Aufgaben zu lösen. Bestimmte Ausschnitte solcher Sets werden Erwachsene lösen können, intelligentere besser, weniger intelligente schlechter, andere Sets werden auch Kinder lösen. Dabei wird es die unterschiedlichsten persönlichen Leistungsprofile geben. Danach wird bewertet. Andere Ausschnitte werden Affen bewältigen und wieder andere Maschinen.
Es wird also einfach nur unterschiedliche Profile dabei geben. Wenn bestimmte motorische und sensorische Aufgaben dabei sind, werden möglicherweise Affen unschlagbar sein, wenn es um Additionen geht, sind Computer nicht zu schlagen und wenn es um bestimmte sprachliche Leistungen geht, liegen Menschen möglicherweise vorne. Es wird Bereiche geben, wo sich Menschen und Affen überschneiden und es wird Überschneidungen von Menschen und Maschinen geben. Die Profile, die sich gegenwärtig am schnellsten ändern, werden die von Maschinen sein.
Selbst wenn sich Sets von Aufgaben identifizieren lassen, bei denen Menschen regelmäßig vorne liegen, lässt sich damit nicht menschliche Intelligenz definieren.
Wenn also Intelligenz durch das Lösen von Aufgaben welcher Art auf immer bestimmt wird, ist Intelligenz nicht etwas, das dem Menschen vorbehalten sein kann, sondern das jede Entität besitzt, die die entsprechenden Aufgaben nun einmal löst.
Die Unterscheidung von menschlicher und künstlicher Intelligenz ist insofern sinnlos.
Aber: Die Aufgaben, um die es in Intelligenztests geht, werden natürlich deshalb gestellt, weil vergleichbare Aufgaben außerhalb von IQ-Tests in Alltagskontexten von Menschen auftauchen, also in Kontexten, die bei Heidegger z.B. unter Verweisungszusammenhängen im Gebrauch und der Herstellung von Zeug thematisch sind. Davon wird in der Tat bei IQ-Tests nichts thematisch. Würde nicht davon abgesehen, könnte man vielleicht von spezifisch menschlicher Intelligenz sprechen. Aber dann wäre die Unterscheidung von menschlicher und künstlicher Intelligenz ebenso sinnlos. Es gäbe dann einfach apriori keine künstliche Intelligenz.
Andererseits bleiben Heideggers Verweisungszusammenhänge letztlich begrifflich unbestimmbar und unentscheidbar, weil sie, wo auch immer man sie ausdifferenziert, immer über sich hinausweisen. Heideggers Musterhandwerker, der Schuster muss irgendwann allerdings zur Meisterprüfung. Dort gibt es Aufgaben, die er lösen muss, um Meister zu werden. Und spätestens da bekommt er Konkurrenz durch Maschinen und spätestens dort hat die Vorstellung, die Fähigkeiten des Schusters aus einem spezifisch menschlichen Verweisungszusammenhang heraus verstehen zu können, ihr Ende. Hier wird genau dieser Verweisungszusammenhang unterbrochen und auf Aufgaben reduziert und abgeprüft.
Eine ähnliche Verständnisschwierigkeit betrifft den Begriff Lernen. Wenn lernen die Zustandsänderung irgendeiner Entität von einem Zustand, in dem sie nicht in der Lage ist, eine bestimmte Aufgabe zu lösen, in einen Zustand meint, in dem sie die Aufgabe lösen kann, dann sind KI-Systeme selbstverständlich lernfähig.
Lernen ist aber auch ein Wesenszug des Daseins im Sinne Heideggers. Wenn Lernen und überhaupt jedes Verstehen in einem umfassenden Verweisungszusammenhang stehen soll, denn ist kaum denkbar, wie KI-Systeme lernfähig sein sollten. Das Sein von KI-Systemen müsste selbst ein Dasein sein. Eine Beschreibung Heideggers wie folgende aus Sein und Zeit müsste dann auch neuronale Netze beschreiben:
„Das Dasein hat sonach einen mehrfachen Vorrang vor allem anderen Seienden. Der erste Vorrang ist ein ontischer: dieses Seiende ist in seinem Sein durch Existenz bestimmt. Der zweite Vorrang ist ein ontologischer: Dasein ist auf dem Grunde seiner Existenzbestimmung an ihm selbst »ontologisch«. Dem Dasein gehört nun aber gleichursprünglich – als Konstituens des Existenzverständnisses – zu: ein Verstehen des Seins alles nicht daseinsmäßigen Seienden. Das Dasein hat daher den dritten Vorrang als ontisch-ontologische Bedingung der Möglichkeit aller Ontologien.“ (SuZ GA2, 18)
Kann man sich vorstellen, dass ein KI-System, wie Heidegger über das Dasein sagt, ein Seiendes ist, das "dadurch ontisch ausgezeichnet (ist), dass es diesem Seienden in seinem Sein um dieses Sein selbst geht"? (SuZ GA2, 18)
Kann man sich vorstellen, dass KI-Systeme sich selbst in der Welt leidend und genießend gegenwärtig sind und dass sie nach sich selbst fragen? Das wäre eine anspruchsvolle Formulierung der Frage, ob KI-Systeme Bewusstsein haben können. Eine zweite Frage, die nicht weniger anspruchsvoll ist, hängt unmittelbar damit zusammen: Wenn sie das können, woran würden wir das merken?
Aber beginnen wir damit, die Frage nach einem möglichen Bewusstsein von KI-Systemen auf einer wesentlich pragmatischeren Ebene zu stellen. Fragen wir das Rote Kreuz danach, was unter Bewusstsein zu verstehen ist und nicht Heidegger. Das Bewusstsein des Menschen, sagt man uns dort, zeichnet sich durch die Fähigkeit aus, sich räumlich/zeitlich zu orientieren, auf Fragen zur eigenen Person zu antworten und auf Reize (z. B. Schmerz) zu reagieren. Wenn jemand nicht mehr ansprechbar ist, d. h. wenn er auf die oben genannten Fähigkeiten der räumlichen/zeitlichen Orientierung und der Reizempfindlichkeit nicht reagiert, dann ist er „bewusstlos". Bei einer Bewusstlosigkeit sind natürliche Schutzreflexe wie beispielsweise der Schluck- oder Hustenreflex ausgeschaltet. Auch ist die gesamte Muskulatur erschlafft.
Hier wird also auch Bewusstsein aus gutem Grund - es geht immerhin um erste Hilfe - über Aufgaben abgeprüft. Und dann passiert das gleiche wie mit Intelligenz. Dann können auch Maschinen entsprechende Aufgaben lösen.
Wird dagegen Bewusstsein wie von Fundamentalontologen über Verweisungszusammenhänge verstanden, muss ich wiederholen, dass ein hartes kryptographisches Problem auf uns zukommt. Wären Maschinen in einem vergleichbaren Sinn bei Bewusstsein, wäre es für sie viel leichter, bewusst zu sein, als für uns, sie als das zu entdecken und darin zu verstehen.
Warum das so sein muss, ist nicht schwer zu verstehen. Das Denkmodell besagt, dass maschinelles Bewusstsein in irgendeiner Weise in so etwas wie neuronalen Netzen oder in irgendeiner anderen Form gleichmächtiger Turingmaschinen realisiert wäre. Es müsste sich also um ein komplexes Netzwerk mit trainierten Gewichtungen, Bias und Glättungsfunktionen handeln. Selbst wenn wir wüssten, aus wie vielen Neuronen auf wie vielen Layern solche ein Netzwerk bestehen würde, weil es von Menschen konstruiert wäre, hätten wir nicht die geringste Ahnung, ab welchem Trainingszustand eine Form von Selbstgegenwärtigkeit des Systems eintreten würde, die wir bereit wären, als Bewusstsein oder gar Selbstbewusstsein zu bezeichnen und ab wann die Maschine so etwas sein würde wie Heideggers Schuster, ein Wesen, das in sinnvollen innerweltlichen Verweisungszusammenhängen existiert. Dabei würden wir immer nach davon ausgehen, dass Maschinenbewusstsein so etwas wäre wie eine Kopie von Menschenbewusstsein. Ein mögliches Bewusstsein neuronaler Netze würde sich für menschliche Ingenieure zunächst als ein Set sinnloser Muster darstellen. Zu erkennen, dass es sich dabei um einen Sinnzusammenhang handeln könnte und zu verstehen um welchen, wäre eine unendlich rechenaufwändigere Aufgabe, als es für eine 'bewusste' Maschine wäre, bewusst zu sein. Außerdem wäre beim Nachvollzug nicht das jeweils richtige Ergebnis bekannt. Man müsste dem vermeintlichen Maschinenbewusstsein mit nicht kontrolliertem eigenen Lernen auf die Spur kommen. Zudem wäre der Startpunkt, ab wann es Sinn macht zu vermuten, dass eine Maschine so etwas wie Bewusstsein hat, völlig unklar. Ein härteres kryptographisches Problem ist kaum denkbar.
Was das Lernen angeht, würde ich einen Vergleich mit der Lernfähigkeit von Wirtschaftsunternehmen und Kollektiven für interessant halten, die sich an vergleichbaren Kriterien, nämlich Kostenfunktionen selbst messen und die wie Maschinen nicht getrieben sind durch Genuss und Leid, sondern Gewinn und Verlust.
Anmerkungen:
1 „Platynereis dumerilii Nektochaeten-Larven können zwischen positiver und negativer Phototaxis wechseln. Phototaxis wird bei ihnen durch zwei Paare von komplexeren definiten Augen (Pigmentbecherzellen) vermittelt. Diese Augen haben mehr Photorezeptorzellen, die von Pigmentzellen beschattet werden. Die Photorezeptorzellen bilden keine direkten Synapsen zu Wimpern- oder Muskelzellen, aber dafür zu Interneurone eines Verrechnungszentrums. So kann die Information aller vier Augen zu einem niedrigaufgelösten Bild mit vier Pixeln verrechnet werden, so dass die Larve weiß woher das Licht kommt ohne zu rotieren.“ (https://de.wikipedia.org/wiki/Phototaxis)
2
Bostrom im Interview: „Stellen Sie sich eine Maschine vor, die
mit dem Ziel programmiert wurde, möglichst viele Büroklammern
herzustellen, zum Beispiel in einer Fabrik. Diese Maschine hasst die
Menschen nicht. Sie will sich auch nicht aus ihrer Unterjochung
befreien. Alles, was sie antreibt, ist, Büroklammern zu
produzieren, je mehr, desto besser. Um dieses Ziel zu erreichen,
muss die Maschine funktionsfähig bleiben. Das weiß sie.
Also wird sie um jeden Preis verhindern, dass Menschen sie
ausschalten. Sie wird alles tun, um ihre Energiezufuhr zu sichern.
Und sie wird wachsen – und selbst dann nicht aufhören,
wenn sie die Menschheit, die Erde und die Milchstraße zu
Büroklammern verarbeitet hat.“
(https://www.zeit.de/campus/2015/03/kuenstliche-intelligenz-roboter-computer-menschheit-superintelligenz)
Hat
der alte Hexenmeister Sich doch einmal wegbegeben! Und
nun sollen seine Geister Auch nach meinem Willen leben.
...
zurück ...
weiter ...
Ihr Kommentar
Falls Sie Stellung nehmen, etwas ergänzen oder korrigieren möchten, können sie das hier gerne tun. Wir freuen uns über Ihre Nachricht.