Aus der Problemgeschichte der KI
Michael Seibel • Logikmaschinen, ohne Zentrum 'verkörpert' (Last Update: 01.07.2020)
KI war von Anfang an Teil der Informatik. Die Informatik hatte von vorn herein als technische Disziplin die Aufgabe, Computerprogramme zu erstellen, die von Menschen formulierte Aufgabenstellungen der unterschiedlichsten Art lösen sollen. Gleichzeitig liefert die KI Modelle für die Kognitionswissenschaften, die in der zweiten Hälfte des 20. Jh. neu entstanden sind. Als das ist sie auch interessiert daran, Modelle für kognitive Prozesse zu liefern und damit zu deren Verständnis beizutragen. KI sollte also durchaus auch helfen, die menschliche Intelligenz zu verstehen und Softwaresysteme zu erstellen, die auf menschenähnliche Weise „wahrnehmen“ und „denken“. Es ging also von vorn herein einerseits um intelligente Software und andererseits um kognitive Modellierung.
Ferner war die KI von Anfang an in zwei recht unterschiedliche Forschungsströme unterteilt: in symbolische KI und die Forschung an neuronalen Netzen. Die symbolische KI versucht, intelligente Lösungen zu erreichen, indem Symbole gemäß Regeln manipuliert werden wie etwa bei Schachprogrammen oder beim GO-Spiel. Neuronale Netze oder Konnektionisten versuchten stattdessen, intelligente Systeme aus Netzwerken von Knoten zu schaffen, die aus vereinfachten Modellen von Neuronen zusammengesetzt werden.
Ferner wurde in einer Forschungsrichtung eher auf Argumentation für die Entscheidungsfindung abgehoben, etwa beim Schach oder über Expertensysteme in der medizinischen Diagnostik, während eine andere Forschungsrichtung eher Wahrnehmungsverarbeitung auf elementarer Ebene fokussiert, wie bei der Bildverarbeitung oder Spracherkennung, bei der Identifizierung von Objekten und ihren Beziehungen. Es zeigte sich allerdings allerorten schnell, dass für intelligente maschinelle Entscheidungen genau das gleiche gilt wie für menschliche Entscheidungsfindung, dass Argumente ohne empirische Inhalte, ohne Weltwissen nur in den seltensten Fällen ausreichen, um zu tragfähigen Entscheidungen zu kommen.
Eine weitere ebenfalls heute noch offene Frage ist von daher: Muss dieses Wissen irgendwie im System dargestellt werden oder nicht? Wenn ja in welcher Form? Oder kann es implizit bleiben? Und dann fragt sich natürlich, ob die Art, wie neuronale Netze Wissen darstellen, nämlich als Gewichtungen, als Repräsentation von Wissen verstanden werden muss oder nicht. Was heisst also Repräsentation überhaupt? Das menschliche Denken stellt sich die Dinge, über die nachgedacht wird, vor. Denken ist auf Vorstellungen angewiesen und auf Symbolisierungen, die sich ihrerseits zumeist auf Vorstellungen beziehen. Mathematische Argumentationen lassen sind dagegen nicht mehr immer mit Vorstellungen verbinden. Und auch die wenigsten Verarbeitungsleistungen des menschlichen Nervensystems dürften mit Vorstellungen verbunden sein. Niemand muss sich die Darmtätigkeit vorstellen, um verdauen zu können. Ebenso wird von einem Teil der KI-Forscher schon länger der Ansatz verfolgt, dass auch ohne umfangreiche interne Modellierung viel erreicht werden kann. Mit der Subsumtionsarchitektur hat Brooks schon in den 80er Jahren erfolgreich darauf hingewiesen, dass viel ohne Repräsentation getan werden kann.1 Sie verleiht in der Robotik jeder Ebene ihre eigenen Sinne und die Fähigkeit, ihren einzelnen Akt auszuwählen und auszuführen. Dennoch sind Repräsentationen in KI-Systemen fast allgegenwärtig, da sie intelligenter mit immer komplexeren, dynamischeren Umgebungen umgehen können. Es scheint, dass die Repräsentation für den Prozess der Aktionsauswahl in KI-Systemen entscheidend ist, viel weniger jedoch für die Ausführung dieser Aktionen.
Bei den frühen KI-Systemen haben Menschen Input in die Systeme eingegeben und auf die Ausgabe der Systeme reagiert. Frühe KI-Systeme konnten weder die Welt 'spüren' noch auf sie 'einwirken'. Später entstanden verkörperte oder lokalisierte KI-Systeme, die ihre jeweilige Umwelt direkt wahrnahmen und auch direkt auf sie einwirkten. Reale Roboter sind Beispiele für verkörperte KI-Systeme.
In den frühen Tagen der KI verfolgten viele Forscher das Ziel, in ihren Maschinen Intelligenz auf menschlicher Ebene zu erzeugen. Später, als die außerordentliche Schwierigkeit eines solchen Vorhabens deutlicher wurde, bauten fast alle KI-Forscher Systeme, die in einem relativ engen Bereich wie Schach oder Medizin intelligent funktionierten. Erst in jüngster Zeit gab es eine Rückkehr in Richtung Systeme, die eine allgemeinere Intelligenz auf menschlicher Ebene ermöglichen und auf verschiedene Bereiche angewendet werden können.
Die Softwarearchitekturen in der KI entwickeln sich ständig weiter.2 Gegenwärtig beginnt KI, auch bei der Verbesserung spezieller KI-Aufgaben allgemeine KI-Ansätze einzuschließen, um z.B. zu autonomeren Software-Agentensystemen zu kommen. Eine Trennung zwischen symbolische KI und neuronalen Netze wird nicht mehr streng betrieben.3 Neuronale Netzwerke übernehmen z.B. Aktivierungsfunktionen in einem ansonsten streng symbolischen Expertensystemen.
Heute sind Argumentation und Wahrnehmung keine getrennten Felder mehr und kommen z.B. im agentenbasierten Computing und in der kognitiven Robotik zusammen. Data Mining ist zu einer weiteren Möglichkeit geworden, Weltwissen zu integrieren.
Logikmaschinen
Angesichts der Bedeutung, die historisch der Deduktion in der Philosophie beigemessen wurde (Aristoteles, Euklid, Bacon, Hobbes, Leibniz et al.), war die Idee einer intelligenten Maschine oft gleichbedeutend mit einer Maschine, die gültige Schlussfolgerungen aus Prämissen ziehen kann. Das automatisierte Theorembeweisen, wie das Gebiet heute bekannt ist, war daher von Anfang an ein wesentlicher Bestandteil der KI. Es lässt sich in drei verschieden schwere Probleme unterteilen: In das trelativ einfache Problem der Beweisprüfung, das komplexere, die Beweisbarkeit zu ermitteln und das harte Problem der Erzeugung sinnvoller Vermutungen, in welche Richtung Beweise überhaupt zu suchen sind. Das zweite Problem ist erheblich schwieriger. Frühe Ergebnisse der rekursiven Funktionstheorie von Church4 und Turing5 zeigten, dass es keine Turing-Maschine gibt, die entscheiden kann, ob eine beliebige Formel der Logik erster Ordnung gültig ist (das war Hilberts Entscheidungsproblem6). Aus der These von Church folgt daher, dass das Problem algorithmisch unlösbar ist - es gibt keine allgemeine mechanische Methode, die in endlicher Zeit immer die richtige Entscheidung trifft. Menschen können das genauso wenig. Dementsprechend kann KI nach brauchbaren Annäherungen suchen, die in der Praxis gut funktionieren: Programme, die so oft wie möglich die richtige Antwort geben und ansonsten überhaupt keine Antwort, entweder explizit fehlschlagen oder auf unbestimmte Zeit fortfahren, bis wir sie stoppen.
Das dritte Problem, das der Erzeugung von Vermutungen, ist das schwierigste, aber auch das interessanteste. Mathematiker werden regelmäßig mit interessanten Vermutungen konfrontiert und versuchen, diese Vermutungen zu beweisen. Dieser Entdeckungsprozess (zusammen mit der Bildung neuer Konzepte) ist eine der kreativsten Aktivitäten des menschlichen Intellekts. KI hat bisher wenig Fortschritte gemacht, diese Kreativität rechnerisch zu simulieren. Wir sagten das oben: Irgendwann macht es Sinn, von Geist zu reden, wie wir Europäer das tun.
Außerdem stand im Focus von Logikern und Philosophen seit Frege im neunzehnten Jahrhundert fast ausschließlich die Rechtfertigung und nicht mit das Thema der Entdeckung. Der Entdeckungsprozess wurde als Sache von Psychologen und nicht von Philosophen und Logikern angesehen. Vor Frege hatten Philosophen wie Descartes, Bacon, Mill und Peirce allerdings durchaus versucht, den Entdeckungsprozess rational zu untersuchen.
Beginnend mit Hanson in den Naturwissenschaften und mit Lakatos in der Mathematik begannen die Philosophen, die Entdeckung erneut zu betonen. KI-Forscher versuchten auch, Entdeckungen sowohl in der Wissenschaft als auch in der Mathematik rechnerisch zu modellieren, und diese Arbeit führte zu Innovationen beim maschinellen Lernen in der KI wie der genetischen Programmierung und induktiven Logikprogrammierung. Die Erfolge waren begrenzt. Es gab grundlegende philosophische Einwände gegen algorithmische Behandlungen von Entdeckung und Kreativität im Allgemeinen. Ein Hauptproblem ist die Schwierigkeit, einen genauen Begriff der Relevanz zu formulieren, der für die rechnergestützte Implementierung geeignet ist. Fehlt er, ist nicht absehbar, wie Schlussfolgerungen erstellt, Konzepte erstellt oder abduktive Hypothesen gebildet werden sollen.
Angesichts relativ geringer Fortschritte beim Problem der Hypothesenfindung und beeinflusst von verschiedenen Kritiken der symbolischen KI starteten einige KI-Forscher wie Minsky7 ernsthafte Angriffe auf die formale Logik und kritisierten sie als übermäßig starres System, das kein gutes Modell für die überaus flexiblen Mechanismen des menschlichen Denkens liefert. Es wurde argumentiert, dass intelligentes Entscheiden als reine Symbolmanipulation, streng logisch oder nicht, eine unüberschreitbare Grenze dadurch hätte, dass die Reduktion des Geistes auf dekontextualisierte Fragmente letztendlich unmöglich und irreführend sei.8
Dreyfus und andere haben ähnliche Kritikpunkte geäußert. Durch Symbolmanipulation seien so wesentliche menschliche Merkmale wie Intuition, Urteilsvermögen und Vorstellungskraft schlicht unerreichbar. Aber gerade sie spielten eine Schlüsselrolle bei Schlussfolgerung und Problemlösung im Allgemeinen. Das menschliche Denken sei einfach kein dekontextualisiertes und körperloses System. Dazu unten mehr.
Inspirationen an den Ursprünge der KI sind die „kognitive Revolution“, die Mitte der 1950er Jahre begann und den Behaviorismus stürzte und die mentalistische Psychologie rehabilitierte und die Theorie der Berechenbarkeit, die von Pionieren wie Turing, Church, Kleene und Gödel entwickelt wurde.
Gerade wenn zugestanden wird, dass strukturierte mentale Repräsentationen für das Erkennen höherer Ordnung notwendig sind, fragt sich, wie solche Darstellungen tatsächlich rationales Denken und Handeln verursachen. Die Berechnungstheorie wurde eingesetzt, um in dieser wichtigen theoretischen Frage weiterzukommen. Das Ergebnis wurde als Computational Theory of Mind, eine Doktrin, die untrennbar mit starker KI verbunden ist.
Die erste Kernidee von Computational Theory of Mind ist, dass symbolische Darstellungen nicht nur syntaktisch manipulierbar sind, sondern dass durch nichts anderes als die syntaktische Manipulation von Symbolen sämtliche semantischen Zusammenhänge erzeugt werden, die unser Denken bevölkern. Mentale Repräsentationen haben sowohl Syntax als auch Semantik, ähnlich wie die Sätze natürlicher Sprachen. Sie bilden so etwas wie eine „Sprache des Denkens“. Aber nur ihre Syntax macht sie kausal wirksam. Die Arbeit in Logik und Berechenbarkeit habe gezeigt, dass es rein syntaktische Transformationen symbolischer Strukturen gibt, die dennoch semantisch wirksam sind. Deduktive Beweise tun ja im Grunde genau das: Indem Formeln ausschließlich auf der Grundlage ihrer syntaktischen Eigenschaften manipuliert werden, können aus ihnen andere Formeln extrahiert werden, die logisch aus ihnen folgen. Nach diesem Modell ist ein mentaler Prozess eine Folge von Zeichen mentaler Repräsentationen, die den Satzinhalt der entsprechenden Gedanken ausdrücken. Der Geist wird daher in der Computational Theory of Mind als eine „syntaktische Engine“ angesehen, die eine semantische Engine antreibt. Warum sollte er also nicht zumindest im Prinzip auf einem Computer emuliert werden können. Warum sollte man den Geist also nicht als eine Art natürlicher Erweiterung einer Turing-Maschine ansehen, als etwas, das nicht unbedingt an eine biologische Verkörperung gebunden ist.
Ein physikalisches Symbolsystem, also eins, von dem man sich vorstellt, es könne kausal wirksam sein, verfügt „über die notwendigen und ausreichenden Mittel für allgemeines intelligentes Handeln“ behaupten Newell und Simon, wobei ein physikalisches Symbolsystem „eine Maschine ist, die im Laufe der Zeit eine sich entwickelnde Sammlung von Symbolstrukturen erzeugt“. Die Symbolstruktur ist eine Sammlung von Symbol-Token, die „auf physische Weise miteinander verbunden sind und einer Vielzahl syntaktischer Operationen unterliegen, insbesondere „Erstellung, Änderung, Reproduktion und Zerstörung“.
Wenn es bei künstlicher Intelligenz nur um die Manipulation von Symbolen geht, stellt sich die Frage, wie es mentalen Elementarbegriffen in unserem Gehirn (oder in der Zentraleinheit eines Roboters) gelingt, sich mit Objekten und Sachverhalten außerhalb unseres Gehirns zu befassen - Objekten, die möglicherweise nicht einmal existieren, und Sachverhalten, die möglicherweise nicht einmal erhalten werden. Dies wird auch als Symbolerdungsproblem bezeichnet. Es ist nicht nur ein philosophisches Rätsel um den menschlichen Geist oder sogar eine protowissenschaftliche Frage der Psychologie. Es hat direkte technische Auswirkungen auf die KI, da eine plausible Antwort darauf beim Bau eines Roboters relevant wäre. Wie wäre ein Roboter in der realen Welt ausreichend verankert, wenn er lediglich formale symbolische Strukturen berechnet?
Der Kern der Informationstheorien ist der Begriff der Kovarianz. Die Idee ist, dass wenn eine Menge x systematisch mit einer Menge y übereinstimmt, x Informationen über y enthält. Der Tacho eines Autos hängt systematisch von der Geschwindigkeit des Autos ab und enthält somit Informationen darüber. Dementsprechend können wir den Tacho als ein beabsichtigtes System betrachten, indem seine Messwerte sich auf die Geschwindigkeit des Autos beziehen. Wenn ein Zeichen eines bestimmten mentalen Symbols H in unserem Gehirn gerade dann auftaucht, wenn ein Pferd vor uns erscheint, dann trägt H Informationen über Pferde und bedeutet somit Pferd.
Damit verbunden ist die ganze Frage des Externalismus. Computational Theory of Mind macht die Bedeutung eines Symbols zu einer durch und durch internen Angelegenheit, die nur von den Beziehungen abhängt, die es zu anderen Symbolen und Zuständen (einschließlich Wahrnehmungs- und Verhaltenszuständen) hat. Aber es gibt eindeutig mehr zu bedeuten als das. Auf den ersten Blick scheint die Bedeutung Symbole an die Welt zu binden, nicht nur an andere Symbole. Die Bedeutung des Begriffs Hund muss etwas mit seiner Referenz zu tun haben, d.h. mit tatsächlichen Hunden, und die Bedeutung von Aristoteles muss etwas mit dem tatsächlichen Aristoteles zu tun haben. Putnam und Burge argumentierten jeweils, dass die Bedeutung eine Funktion des gesamten physischen und sozialen Umfelds ist, in das man eingebettet ist.
Als die drei wichtigsten philosophischen Kritikpunkte an einer starken KI werden immer wieder die folgenden beurteilt: Die Kritik von Hubert Dreyfus; Blocks Kritik am Maschinenfunktionalismus und Searles Gedankenexperiment „Das Chinesische Zimmer“.
Philosophisch argumentierte Dreyfus, dass unsere Fähigkeit, die Welt und andere Menschen zu verstehen, eine nicht deklarative Art von Know-how ist, die einer Kodifizierung nach GOFAI-Art nicht zugänglich ist.9 Es ist unartikuliert, praekonzeptuell und hat eine unverzichtbare phänomenologische Dimension, die von keinem regelbasierten System erfasst werden kann. Dreyfus betonte auch die Bedeutung von Fähigkeiten wie Vorstellungskraft, Ambiguitätstoleranz und der Verwendung von Metaphern sowie von Phänomenen wie Randbewusstsein und Gestaltwahrnehmung, die alle gegen rechnerische Behandlung resistent waren und sind. Aus unserer Sicht betonte Dreyfus vor allem die Bedeutung der Relevanz, indem er die Fähigkeit des Menschen betonte, das Wesentliche vom Unwesentlichen zu unterscheiden und mühelos auf relevante Aspekte seiner Erfahrung und seines Wissens gemäß den Anforderungen seiner gegenwärtigen Situation zurückzugreifen.
Bei der Frage, woher eigentlich die Basissymbole, die die KI manipuliert, sinnvollerweise ihre Bedeutung zu beziehen hätte, hatte Dreyfus Heidegger und dessen Darstellungen wie etwa über „Das Sein des in der Umwelt begegnenden Seienden“ vor Augen:
„Ein Zeug »ist« strenggenommen nie. Zum Sein von Zeug gehört je immer ein Zeugganzes, darin es dieses Zeug sein kann, das es ist. Zeug ist wesenhaft »etwas, um zu...«. Die verschiedenen Weisen des »Um-zu« wie Dienlichkeit, Beiträglichkeit, Verwendbarkeit, Handlichkeit konstituieren eine Zeugganzheit. In der Struktur »Um-zu« liegt eine Verweisung von etwas auf etwas. Das mit diesem Titel angezeigte Phänomen kann erst in den folgenden Analysen in seiner ontologischen Genesis sichtbar gemacht werden. Vorläufig gilt es, eine Verweisungsmannigfaltigkeit phänomenal in den Bück zu bekommen. Zeug ist seiner Zeughaftigkeit entsprechend immer aus der Zugehörigkeit zu anderem Zeug: Schreibzeug, Feder, Tinte, Papier, Unterlage, Tisch, Lampe, Möbel, Fenster, Türen, Zimmer. Diese »Dinge« zeigen sich nie zunächst für sich, um dann als Summe von Realem ein Zimmer auszufüllen. Das Nächstbegegnende, obzwar nicht thematisch Erfaßte, ist das Zimmer, und dieses wiederum nicht als das »Zwischen den vier Wänden« in einem geometrischen räumlichen Sinne - sondern als Wohnzeug. Aus ihm heraus zeigt sich die »Einrichtung«, in dieser das jeweilige »einzelne« Zeug. Vor diesem ist je schon eine Zeugganzheit entdeckt.
Der je auf das Zeug zugeschnittene Umgang, darin es sich einzig genuin in seinem Sein zeigen kann, z. B. das Hämmern mit dem Hammer, erfaßt weder dieses Seiende thematisch als vorkommendes Ding, noch weiß etwa gar das Gebrauchen um die Zeugstruktur als solche. Das Hämmern hat nicht lediglich noch ein Wissen um den Zeugcharakter des Hammers, sondern es hat sich dieses Zeug so zugeeignet, wie es angemessener nicht möglich ist. In solchem gebrauchenden Umgang unter-stellt sich das Besorgen dem für das jeweilige Zeug konstitu-tiven Um-zu; je weniger das Hammerding nur begafft wird, je zugreifender es gebraucht wird, um so ursprünglicher wird das Verhältnis zu ihm, um so unverhüllter begegnet es als das, was es ist, als Zeug. Das Hämmern selbst entdeckt die spezifische »Handlichkeit« des Hammers. Die Seinsart von Zeug, in der es sich von ihm selbst her offenbart, nennen wir die Zuhandenheit. Nur weil Zeug dieses »An-sich-sein« hat und nicht lediglich noch vorkommt, ist es handlich im weitesten Sinne und verfügbar. Das schärfste Nur-noch-hinsehen auf das so und so beschaffene »Aussehen« von Dingen vermag Zuhandenes nicht zu entdecken. Der nur »theoretisch« hin-sehende Blick auf Dinge entbehrt des Verstehens von Zuhandenheit. Der gebrauchend-hantierende Umgang ist aber nicht blind, er hat seine eigene Sichtart, die das Hantieren führt und ihm seine spezifische Sicherheit verleiht. Der Umgang mit Zeug unterstellt sich der Verweisungsmannigfaltigkeit des »Um-zu«. Die Sicht eines solchen Sichfügens ist die Umsicht.“10
Wäre das ein guter Vorschlag, wie die KI „Symbolerdung“ zu verstehen hätte? Wahrscheinlich hätte sich Heidegger nicht vorstellen können, die Sicht eines solchen Sichfügens in eine künstliche Intelligenz zu fügen. Wenn aber doch, dann wahrscheinlich eher in ein neuronales Netz als in ein GOFAI-System. Wie dem auch sei; was ist nicht-repräsentatives Wissen, was ist reine Symbolmanipolation? Heideggers beschreibt durchaus etwas, wofür es ein Problembewusstsein unter KI-Entwicklern gibt.
Kaum etwas könnte besser die Distanz zu Chomsky verdeutlichen, der Dreyfus kritisiert. Chomsky betrachtet eine all zu grundlegende Skepsis der Symbolosierung gegenü,ber als Manifestationen empirischer Vorurteile über den menschlichen Geist und eines tiefsitzenden, aber ungerechtfertigten methodologischen Dualismus, der eine scharfe Unterscheidung voraussetzt zwischen dem physischen und dem mentalen Bereich. Für ihn sind die vorstehenden erkenntnistheoretischen Probleme nichts anderes als das übliche induktive Unterbestimmungsproblem, mit dem alle Wissenschaften regelmäßig konfrontiert sind.
Eine zweite einflussreiche Kritik richtete sich speziell gegen den Maschinenfunktionalismus.
In dem 1978 veröffentlichten Aufsatz Troubles with Functionalism argumentierte Block gegen den Funktionalismus. Mittels eines Gedankenexperiments versuchte er, sich eine Situation vorzustellen, in der ein System die gleiche funktionale Architektur hat, wie ein Mensch, aber dennoch kein Bewusstsein.
Block stellt sich vor, dass die chinesische Regierung ein groß angelegtes Funktionalismusexperiment durchführt. Jeder der 1,3 Milliarden Chinesen bekäme ein Funkgerät, mit dem er andere Chinesen kontaktieren kann. Koordiniert würde das Ganze über riesige Scheinwerfer, die Kommandos an die Wolkendecke projizieren. Die Menschen sind auch über Funk mit einem künstlichen Körper verbunden, von dem sie sensorische Reize empfangen und Ausgangssignale zur Erzeugung von körperlichem Verhalten wie dem Anheben eines Arms liefern können. Ein solches System aus Chinesen, Funkgeräten und Scheinwerfern könnte, so Block, zumindest für eine kurze Zeit jeden funktionalen Zustand realisieren, den auch ein Mensch realisieren kann. Dennoch wäre es laut Block vollkommen absurd, anzunehmen, dass ein solches System mentale Zustände hätte. Daraus folgert er, dass funktionale und mentale Zustände nicht identisch sein können. Wenn man voraussetzt, dass nur biologische Organismen mentale Zustände haben können, kann das Kollektivgehirn aus Blocks Gedankenexperiment natürlich keine mentalen Zustände haben.
Wie auch? Nach meinem Eindruck ist das Gedankenexperiment zirkulär und setzt voraus, was es beweisen soll. Offenbar hat das nicht gestört, dass Blocks Einwand in den USA lang anhaltende Wellen geschlagen hat.
„Das Chinesische Zimmer“ ist der Name für ein Gedankenexperiment des Philosophen John Searle.
„Stellen Sie sich einen englischen Muttersprachler vor, der kein Chinesisch kennt und in einem Raum voller Kisten mit chinesischen Symbolen (einer Datenbank) zusammen mit einem Handbuch mit Anweisungen zur Manipulation der Symbole (dem Programm) eingeschlossen ist. Stellen Sie sich vor, Personen außerhalb des Raums senden andere chinesische Symbole ein, die der Person im Raum unbekannt sind und Fragen auf Chinesisch sind (die Eingabe). Und stellen Sie sich vor, dass der Mann im Raum durch Befolgen der Anweisungen im Programm chinesische Symbole verteilen kann, die die Antworten auf die Fragen (die Ausgabe) richtig beantworten. Das Programm ermöglicht es der Person im Raum, den Turing-Test zu bestehen, dass er Chinesisch versteht, aber sie versteht kein Wort Chinesisch.“
Personen außerhalb des Raums würden aus den Ergebnissen folgern, dass der Mensch in dem Raum Chinesisch beherrscht, obwohl das nicht der Fall ist. Die Fähigkeit, Syntax zu befolgen, soll nach Searle also nicht zu Semantik befähigen. Nach Searle müsste ein Computer dafür Intentionalität aufweisen. Und die fehlt ihm. Erfolg im Turing-Test stelle also kein ausreichendes Kriterium für sogenannte starke künstliche Intelligenz dar. Darüber hinaus stellt es die komputationalen Theorien des Geistes in Frage.
Darauf wurde entgegnet, dass Searle-in-the-Room zwar kein Chinesisch versteht, das Gesamtsystem, das ihn als Teil einschließt, dies jedoch sehr wohl vermag. Ein Computer könne also mehr sein als Searle-in-the-Room. Behauptet wird vielmehr, dass in einem realen Roboter die Bedeutung auf der Grundlage der kausalen Transaktionen des Roboters mit der realen Welt aufgebaut würde.
Beim Versuch, mit Computertechnik die Grenze zu überschreiten, die das Chinesische Zimmer vorstellt, dürfte die größte praktische Schwierigkeit darin bestehen, mit einem symbolmanipulierenden System schnell relevante Informationen zu finden.
Searles Antwort auf die Systemantwort war dann die, dass man das Gedankenexperiment erweitern könne, indem man sich nicht nur vorstelle, er nehme den Platz der Hardware ein, sondern er würde selbst dann noch kein Chinesisch verstehen, wenn er sämtliche Softwareinformationen auswendig lernen würde, sie also nicht nur mechanisch ausführen, sondern komplett memorieren würde und mithin sein Körper die Grenze des Gesamtsystems wäre. Die chinesische Anweisung "Schrei, wenn Du einen Hamburger willst" würde Searle immer noch keinen Grund geben, zu schreien, selbst als er auf Chinesisch schrieb: "Ja, ich möchte einen Hamburger."
Unterdessen sagt Apple über Siri: "Es versteht, was du sagst. Es weiß, was du meinst.“
Mir ist unklar, was die halbe us-amerikanische Intelligentia dazu treibt, sich zwischen den Begriffen Übersetzung, Repräsentation, Intelligenz und Bewusstsein derart zu verheddern, wie sie das nun schon seit einigen Jahrzehnten tut.
Machen wir es an dieser Stelle kurz: Wenn ich Siri bitte, mir auf dem Bildschirm Fotos von Notre Dame zu zeigen, wird sie mir sicher eine ganze Reihe davon mit den passenden Bemerkungen vorlegen. Sie repräsentiert also genau richtig. Sie weiß in der Tat, was ich meine. Vielleicht würde sie sogar bei mir den Turing-Test bestehen, wenn mir der Kontext unbekannt wäre und ich nicht wüsste, dass Siri der Sprachassistent von Apple ist. Ich könnte dann in der Tat meinen, Siri sei ein Mensch mit Bewusstsein. Dass ich das meinen würde, würde aber nicht beweisen, dass sie Bewusstsein hätte. Nun weiß ich aber, dass Siri ein künstlicher Agent ist und ich komme deshalb gar nicht erst auf die Idee, dass sie Bewusstsein hat. Das wiederum beweist nicht, dass sie wirklich kein Bewusstsein hat. Ich weiß nicht, was daran schwer auseinanderzuhalten ist. Die Intention von Apple, der Grund, warum es Siri überhaupt gibt, ist zweifellos der, mir ein Gegenüber zu verschaffen, das mir das Gefühl geben soll, es mit einem hilfreichen, sympathischen Menschen zu tun zu haben, den ich gern so oft wie möglich und zu so mannigfaltigen Themen wie nur möglich konsultiere. Erforscht wird da gerade mein Bewusstsein und nicht das von Siri. Ob Siri Bewusstsein hat oder nicht oder irgendwann einmal haben wird, steht auf einem ganz anderen Blatt.11 Ein Turingtest an dieser Stelle würde nicht beweisen, dass Siri Bewusstsein hat, sondern möglicherweise nur, in welchem Maß das Bewusstsein ihres Zuhörers, sein Erwartungshorizont an Kommunikation bereits künstlich ist.
Ohne Zentrum 'verkörpert'
Neuronale Netze weisen eine Reihe bemerkenswerter Merkmale auf, die sie von GOFAI-Systemen unterscheiden. Eine davon ist das Fehlen einer Zentraleinheit oder explizit codierter Anweisungen, die das Verhalten des Systems bestimmen. Es gibt nur einzelne Knoten, und ein einzelner Knoten verfügt nur über eine geringe Menge vollständig lokaler Informationen: die Eingabewerte, die er von seinen Nachbarn erhält. Aufgrund dieser massiven Lokalität und Vernetzung sind neuronale Netze in der Lage, bei partiellen Fehlern nicht gleich komplett zu versagen. Wenn einige Teile des Netzes beschädigt werden, funktioniert das gesamte Netzwerk weiterhin mit einem Leistungsabfall, der mehr oder weniger proportional zur Menge von Beschädigungen ist. Im Gegensatz dazu sind symbolmanipulierende Systeme normalerweise unflexibel. Eine kleine Abweichung vom programmierten Ablauf kann zu einem katastrophalen Ausfall führen. Eine solche Sprödigkeit ist für die menschliche Intelligenz untypisch. Wie die Leistung neuronaler Netze wird auch die menschliche Wahrnehmung unter widrigen Bedingungen eine kontinuierliche und allmähliche Verschlechterung erfahren, anstatt eines abrupten allgemeinen Versagens. Zweitens wird die Darstellung dahingehend verteilt, dass Informationen nicht durch konkrete symbolische Strukturen codiert werden. Vielmehr wird eine Information im Wesentlichen als Aktivitätsmuster über das gesamte Netzwerk dargestellt. Und das gesamte „Wissen“, das von einem neuronalen Netzwerk codiert wird, liegt im Wesentlichen in den Gewichten der verschiedenen Verbindungen. Eine Folge der weit verteilten Repräsentation ist, falls man es überhaupt noch Repräsentation nennen kann, dass sich bei neuronalen Netzen die Frage nach Inhalten nicht stellt, mit der die klassische KI konfrontiert ist. Die Frage, wie Basissymbole ihre Bedeutung erlangen, stellt sich nicht - denn es gibt keine Basissymbole.
Das Problem des gesunden Menschenverstandes taucht jedoch bei der Einstellung neuronaler Netze in einem anderen Gewand wieder auf. Die Intelligenz eines (überwachten) neuronalen Netzwerks wird vom menschlichen Modellierer, der das Netzwerk trainiert, in das System integriert. Dies reicht jedoch nicht aus, um den Raum möglicher Hypothesen ausreichend zu umschreiben, um Verallgemeinerungen auszuschließen, die aus Sicht der Trainingsdaten legitim, aus menschlicher Sicht jedoch sinnlos und unangemessen sind. Es gibt Legionen von Geschichten über neuronale Netze, die nach intensivem Training Verallgemeinerungen entwickelten, die gelernt hatten, Merkmale zu unterscheiden, die für den menschlichen Modellierer völlig irrelevant waren (tatsächlich Merkmale, die vom Modellierer nicht einmal bemerkt worden waren).
Darüber hinaus kann in Bezug auf die Rechenleistung alles, was von neuronalen Netzen ausgeführt werden kann, von Turing-Maschinen ausgeführt werden, und daher gibt es nach der These von Church nichts, was neuronale Netze tun können, was beispielsweise auch nicht von LISP-Programmen ausgeführt werden kann. Dies bedeutet, dass es im Prinzip möglich wäre, Gehirne mit klassischen GOFAI-Techniken mit perfekter Präzision zu simulieren, selbst wenn sich herausstellen würde, dass es sich um riesige neuronale Netze handelt. Daraus folgt beispielsweise, dass es regelbasierte Systeme gibt, die den Turing-Test bestehen können, selbst wenn diese Systeme so unglaublich groß und unhandlich sind, dass es praktisch unmöglich ist, sie zu erstellen. Sollte sich herausstellen, dass das Gehirn nichts anderes als ein Ensemble neuronaler Netze ist, würde dies sicherlich beweisen, dass es nicht erforderlich ist, dass ein System eine symbolisch codierte regelbasierte Theorie einer Domäne einsetzt, um Kompetenz in dieser Domäne zu erlangen.
Anmerkungen:
1
„Die
um 1985 von Rodney Brooks entwickelte Subsumtionsarchitektur
war der eigentliche Beginn der verhaltensbasierten Robotik. Sie
stellt – verglichen mit der bis dahin üblichen
funktionalen Aufgliederung eines Roboters in ein Sehsystem, ein
motorisches System, ein zentrales Repräsentationssystem und
eine zentrale Recheneinheit – ein revolutionäres
Verfahren dar. Brooks orientierte sich dabei am Verlauf der
biologischen Evolution: (...) Brooks will das (...) als Argument
dafür (verstanden wissen), dass die Probleme der höheren
Intelligenz vergleichsweise einfach sein könnten. Worauf es
ankommt, so Brooks’ Interpretation der Botschaft der
Evolution, ist die Fähigkeit, sich in derUmwelt zu bewegen und
diese soweit wahrzunehmen, dass man sich in ihr am Leben erhalten
und reproduzieren kann. Brooks warnt davor, Roboter erst einmal für
eine künstliche vereinfachte Welt zu konstruieren, um sie dann
nach und nach an mehr Komplexität zu gewöhnen. Es könne
zu leicht geschehen, dass man bei diesem Ansatz zentrale Aspekte für
Verhalten in der realen Welt übersieht und sie nachträglich
nicht mehr ergänzen kann. Brooks plädiert deshalb dafür,
mit simplen, aber in der realen Welt funktionierenden Systemen zu
beginnen und diese Schicht für Schicht komplexer zu gestalten.
Er orientiert sich an biologischen Vorbildern und teilt den Roboter
in eine Reihe verhaltensgenerierender Einheiten auf: Vermeiden (etwa
von Hindernissen), Wandern (in Bewegung bleiben), Erforschen (zum
Beispiel Suche nach guten Wegen), Überwachung von Veränderungen
der Umwelt, Planen von Aktionen, Erkennen von Objekten. Diese
unterschiedlichen Subsysteme arbeiten parallel, das Gesamtsystem ist
in Schichten von unten nach oben aufgebaut. (…) Jedes Modul
einer Kompetenzebene kann auf alle sensorischen Daten zugreifen,
Aktivierungsbefehle abgeben und die zwischengelagerte Verarbeitung
vollständig durchführen. Die oberen Schichten können
die unteren auf zwei Weisen beeinflussen: Sie können ein Signal
der unteren Schichten unterdrücken und es durch ein anderes
ersetzen oder es unterdrücken, ohne es zu ersetzen. Dieser
Prozess wird Subsumtion genannt, was der darauf beruhenden
Subsumtionsarchitektur den Namen gab. Die Subsumtionsarchitektur hat
in der verhaltensbasierten Robotik weite Verbreitung und einige
Modifikation erfahren, sodass die Bezeichnung heute für alle
schichtenförmig organisierten Systeme steht, in denen die
Schicht mit der höchsten Prioritätsstufe den Output von
tiefer liegenden Schichten unterdrücken kann.“
(Manuela Lenzen, Natürliche und künstliche
Intelligenz, Frankfurt 2002, S.111 f.)
2 vg..: https://www.wikiwand.com/en/Cognitive_architecture
3 Beispiele.: integrierterer Hybridmodelle wie ACT-R, CLARION und LIDA
4 Church, A. (1936). An unsolvable problem of elementary number theory, American Journal of Mathematics 58: 345–63.
5 Turing, A. M. (1936). On computable numbers, with an application to the Entscheidungsproblem, Proceedings of the London Mathematical Society 42: 230–65.
6 Hilbert: „Diese Überzeugung von der Löslichkeit eines jeden mathematischen Problems ist uns ein kräftiger Ansporn während der Arbeit; wir hören in uns den steten Zuruf: Da ist das Problem, suche die Lösung. Du kannst sie durch reines Denken finden; denn in der Mathematik gibt es kein Ignorabimus!“
7 Minsky, M. (1986). The Society of Mind. New York: Simon and Schuster, S. 167
8 Winograd, T. (1990). Thinking machines: Can there be? Are we?, in D. Partridge and Y. Wilks (eds.), The Foundations of Artificial Intelligence (pp. 167–89). Cambridge University Press.
9 Dreyfus, H. L. (1972; rev. edn. 1979). What Computers Can’t Do. New York: Harper & Row.
10 Heidegger, Sein und Zeit, S. 92 f.
11 „Die
vielen Fragen, die durch das Argument des chinesischen Raums
aufgeworfen werden, können möglicherweise erst geklärt
werden, wenn ein Konsens über die Art der Bedeutung, ihre
Beziehung zur Syntax und über die biologischen Grundlagen des
Bewusstseins besteht. Es gibt weiterhin erhebliche
Meinungsverschiedenheiten darüber, welche Prozesse Bedeutung,
Verständnis und Bewusstsein schaffen und was durch
Gedankenexperimente a priori bewiesen werden kann.“ Das sind
die Schlusssätze immerhin von
https://plato.stanford.edu/entries/chinese-room/
Man
zeigt sich diesmal sprachverwirrt.
zurück ...
weiter ...
Ihr Kommentar
Falls Sie Stellung nehmen, etwas ergänzen oder korrigieren möchten, können sie das hier gerne tun. Wir freuen uns über Ihre Nachricht.