Think about ..
Michael Seibel • Wo ist der Zufall geblieben? (Last Update: 01.07.2020)
Bei unserem Beispiel, der Handschrifterkennung könnte die Inputschicht auch mehr oder weniger als 784 Messpunkte haben und die Outputschicht mehr oder weniger als genau 10? Etwa dann, wenn die zugrundeliegenden Bilder ein anderes Format hätten. Bei einem Format von 100 * 100 Pixeln hätte man eben 10.000 Messpunkte. Es gibt eine Vielzahl von Modulationsmöglichkeiten. Man hätte einen entsprechend höheren ökonomischen Aufwand, ohne ein reichhaltigeres Ergebnis erwarten zu können. Die Antworten auf die Frage, um was für eine Ziffer von 0 bis 9 es sich handelt, wird dadurch nicht besser als bei der geringeren Bildgröße von 28 * 28 Pixeln. Bei der Beschränkung auf 784 Messpunkten gegenüber 10.000 Messpunkten geht also nur Rauschen verloren und keine Information. Dass das, was so eingespart wird, Rauschen ist, nicht aber Information, hängt allerdings von der gestellten Frage ab. Es ist nicht mehr zu tun, als 10 Ziffern in den Rohdaten zu erkennen. Eine andere Fragestellung, z.B. Gesichtserkennung käme mit der geringen Auflösung nicht aus. Ebenso wenig die Erkennung von Lungenkarzinomen auf Röntgenbildern.
Halten wir fest: die jeweilige Frage und die zu ihrer Beantwortung zur Verfügung stehenden Instrumente entscheiden darüber, was Information und was Rauschen ist. Es bedarf also eines Fragestellers, der selbst bereits vor ökonomischen Restriktionen steht, um den jeweiligen Unterschied zwischen Information und Rauschen zu definieren und mithin zu bestimmen, wie weit man mit der Treue gegenüber dem Zufall gehen kann. Die Grenze zwischen Information und Rauschen wird als effiziente Auflösung festgelegt, mit der gemessen wird. Wie immer ist also die naturwissenschaftliche Treue gegenüber den Messdaten abhängig von der Fragestellung, die sich unter gegebenen ökonomischen Beschränkungen überhaupt ans Material stellen lässt. Die Wahl der effizientesten Auflösung versucht die Kosten zu reduzieren, andererseits ist Redundanz das dem Kanal geschuldete gegenläufige Erfordernis und ist teuer. In unserem Fall klärt die Frage, was für eine handgeschriebene Ziffer von Null bis Neun auf jedem einzelnen Bildchen zu sehen ist, wo das ökonomische Optimum liegt.
Natürlich könnte man den Versuch machen, 11 unterschiedliche Zeichen mittels 10.000 Inputneuronen in einem Datensatz von 100.000 Bildern auf 4 Outputneuronen abzubilden. Als elftes Zeichen würde vielleicht regelmäßig ein Mutant zwischen 5 und 9 identifiziert. Auch das würde zu einem Ergebnis führen, mit dem allerdings die Post, die Adressen von Briefumschlägen lesen möchte oder Banken, die Schecks einlesen möchte, nichts anfangen könnten. Man käme zu anderen Ordnungen, zu Ordnungen von Nichts für niemanden. Grundsätzlich ist die Zahl der Input- wie der Outputneuronen also durchaus frei wählbar. Es ist allein ein ökonomischer Gesichtspunkt, eine Frage, welcher Netzaufbau effizienter, mit weniger Zeit- und Energieverbrauch ein besseres Ergebnis bringt.
Die Fehlerrate ist zunächst bei
weitem zu hoch. Aber dies 'zu hoch' bezieht sich auch nur wieder auf
die zuvor gestellte Frage. Das zufällige Anfangssystem wäre
in sich selbst nicht weniger konsistent als das erfolgreich
trainierte. Es wäre die ideale Lösung einer nicht
gestellten Frage. Die Kunst besteht in der Tat darin, Fragen zu
stellen. Und genau darum geht es, wenn nach der Möglichkeit
starker KI, nach autonom lernenden Maschinen gefragt wird. Allein die
Frage führt den Sinn ein, aber allein das Setting aus Input- und
Outputneuronen und der Algorithmus, der mathematische Schematismus
der Verarbeitung von Input zu Output entlang von Redundanzen macht
die Konsistenz aus. Es gibt also eine klare, sozusagen ontologische
Trennung zwischen Sinn und System. Konsistenz entsteht nicht durch
Sinn, sondern durch einen Regelapparat; und das System ist letztlich
kontingent, eine Sache willkürlicher Entscheidungen. Das was
jede andernfalls willkürliche Entscheidung bindet, ist die
Frage, auf die sie antwortet. Bisher stellen KI-Programme jedoch noch
keine eigenen Fragen, sondern sie arbeiten letztlich imitativ. Hier
ist eine 9. Lies eine 9! Wenn nicht, dann kommt ein Abzug in die
Kostenfunktion. Aber die Kostenfunktion ist selbst keine Frage,
sondern sie misst die Abweichung von einer Frage, die außerhalb
des maschinellen Systems gestellt wird. Sie werden daran gemessen, ob
sie Menschenaufgaben lösen, Aufgaben, die für Menschen
relevant sind und die aufwendig von Menschen gelöst werden.
Wegen dieser Aussicht auf eine noch grenzenlose Imitationsfähigkeit
boomt die KI-Branche.
Kinder, die sprechen lernen, erfinden dagegen
ihre eigene Sprache. Wenn, was sie am Ende fehlerfrei sprechen, ihre
Muttersprache ist, dann haben sie sie genuin erfunden und nicht
kopiert. Würde ihnen gegenüber nicht die Muttersprache
gesprochen oder würde gar nicht gesprochen, würde nur
gestikuliert oder irgendwie anders kommuniziert, hätten sie auch
daraus etwas gemacht, - etwas Neues, das dann und nur dann wie eine
Wiederholung aussieht, wenn man von außen darauf schaut. Den
Zweiflern an der Möglichkeit künstlicher Intelligenz sei
gesagt: Hört auf, mit doppeltem Maß zu messen! Hört
auf, die Maschinen erst dann für intelligent zu halten, wenn es
ihnen gelungen ist, euch genau zu kopieren. Versucht doch mal, ein
KI-System mit Millionen Parametern zu kopieren, dessen Werte ihr
nicht kennt und ihr werdet merken, wie wenig intelligent ihr selbst
seid. Und außerdem, warum sollten Maschinen gerade dann
besonders intelligent sein, wenn sie nichts anderes mehr tun, als
euch zu kopieren? Schlau ist nur, wer euch nachmacht? Was für ein Blödsinn!
Wenn einmal die Zeit kommt, zu der ein Lehrer dem Heranwachsenden sagen kann, die Neun ist eine Neun, sage nicht, die Neun ist eine acht oder eine Null, dann ist zuvor bereits alles Entscheidende gelaufen.
Aber vielleicht hören wir der KI einfach nicht richtig zu. Wir sind es, die eine Neun vorlegen und fordern: Lies eine Neun! An sich ist das völlig trivial: Die Wiederholung des Gleichen führt in der gleichen Umgebung zu immer gleichen Ergebnissen, sie hat Systemcharakter, selbst wenn sie sinnlos ist. Selbst darin steckt noch die idealisierte, immer nur begrenzt richtige Behauptung, die Umgebung überhaupt immer gleich halten zu können. Wenn man die Dinge so sieht, unterschlägt man den Aspekt der Variation und Komposition, die in jedem Umgang mit Redundanz steckt und im Kern jeder Ähnlichkeit.
Aber was ist mit dem Algorithmus, mit dem Formalismus der Verarbeitung? Ist wenigstens er an sich selbst notwendig? Weisen wir erneut darauf hin: Die Herausforderung der KI sind die Aufgaben, die von Menschen leicht auszuführen, von ihnen jedoch nur schwer formal zu beschreiben sind. Das Problem, einen Vorgang überhaupt formal beschreiben zu müssen, entsteht bei der KI ja nur wegen der Aufgabe, etwas nachahmen zu wollen. Auch das wieder ein Problem, das ein Kind wenn es z.B. lesen lernt, gar nicht hat. Denken wir uns ein künstliches neuronales Netz, das vom Zwang der Nachahmung befreit wäre. Eine Art künstliches Auge. Lassen wir es, sagen wir, aus drei Layern bestehen, einem Input-Layer mit, das in sagen wir 5000 mal 5000 Pixeln Bilddaten als Input in 25 Mio. Neuronen aufnimmt, es an einen Hidden Layer mit 250.000 Neuronen übergibt und am Ende an sagen wir 5000 Outputneuronen ausgibt, die ihm als eine Art Begriffe dienen. Geben wir diesem Konstrukt eine genügend dichte Kette fortlaufender Input-Daten, sagen wir 25 Bilder pro Sekunde, oder wie man in der KI wahrscheinlich sagen würde, 25 Epochen pro Sekunde. Intelligent gemacht wäre die zeitgerechte Verarbeitung solch relativ weniger Daten vermutlich durchaus zu bewältigen. Mit den Leistungen des menschlichen Gehirns hat das vermutlich nicht viel zu tun. Aber darum geht es an dieser Stelle zunächst nicht. Es würde sich um eine Art Sehmaschine handeln, die permanent aus dem Gesehenen 5000 Begriffe macht. Wozu? Das ist völlig ungeklärt. Es ist also auch bei dieser KI nicht absehbar, wie sie sich ihre relevanten Fragen selbst machen sollte.
Dennoch wäre das eine durchaus komplexe Welt aus Bildern und sich weiterentwickelnden Begriffen. Man hätte eine durchaus reiche Begriffswelt geschaffen, die sich von einem bestimmten Anfangszustand durchaus weiterentwickelt, und nicht anders als ein Mensch vor Interpretations- und Entscheidungsaufgaben stünde, die leicht auszuführen, aber schwer zu formalisieren wären. Natürlich hätte man von vorn herein eine Form vorgegeben, aber für jeden Dritten wäre es ohne genaue Kenntnis dieser Form so gut wie unmöglich, diese Form zu rekonstruieren, oder ihr bei ihrer permanenten, durchaus autonomen Fortentwicklung zu folgen. Ein Dritter wäre wahrscheinlich nicht in der Lage, ein zweites Netz mit den genau gleichen Leistungen nachzubauen. Das hat etwas von dem kryptographischen Problem, dass es sehr viel einfacher ist, große Primzahlen zu multiplizieren, als das Ergebnis seinerseits wieder in Primzahlfaktoren zu zerlegen. Ganz entsprechend ist es sehr viel einfacher, mit einem vorhandenen Set an Werten zu operieren, das sich zudem auch noch ständig langsam verändert, als aus den Leistungen, die sich dabei ergeben, auf das Werteset zurückzuschließen.
Aber bleiben wir noch etwas bei diesem vorgestellten Netz. Es durchläuft 25 Epochen pro Sekunde immerhin mehr als 500 Mio. Epochen pro Jahr, hätte also sozusagen ein reges Seelenleben, bei der es seine Bilderwelt mit immerhin 5000 Begriffen differenziert interpretieren würde.
Wenn sich ein menschlicher Forscher in einer Science-fiction-Welt mit dieser Optik-Maschine verständigen wollte, würde er feststellen, dass kein einziger der dort entwickelten 5000 Begriffe des Netzwerks ohne weiteres irgendeine Deckung mit seinen eigenen Begriffen hätte, selbst dann nicht, wenn sich bei optischen Erkennungsleistungen in einem ersten Hidden Layer regelmäßig so etwas wie Ecken, Kanten und Linienbruchstücke abzeichnen sollten, würde sich das auf höheren Ebenen nicht notwendig zu Gesichtern zusammensetzen. Damit wäre nicht gesagt, dass auf Dauer Verständigung unmöglich wäre, sondern dass sie das bei weitem härtere Problem wäre, als mit den eigenen Erkennungsgewohnheiten alltäglich zu operieren. Solche Aussagen setzen allerdings voraus, dass künstliche neuronale Netze überhaupt ein zumindest grob geeignetes Modell dafür sind, wie Menschen Ähnlichkeiten erkennen.
Dies einmal unterstellt sollte uns eigentlich nicht nur verblüffen, wie schwer bei aller Einfachheit des elementaren Aufbaus die Leistungen intelligente Maschinen zu verstehen sind (darüber diskutieren wir ja gerade ausgiebig, wenn es darum geht, wie sich KI-Leistungen z.B. im Hinblick auf Fairness kontrollieren lassen), sondern wie im Grunde komplex die Aufforderung etwas zu wiederholen oder zu variieren ist, die den Hauptteil unserer sozialen Aktivitäten ausmacht, eine Aufforderung, mit der wir uns alltäglich ständig konfrontiert sehen. Wenn ein beliebiger Lehrer einen Erstklässler auffordert, eine Neun ins Heft zu schreiben, die er ihm vorgemalt hat, fordert er zu einer Wiederholung auf, und er betrachtet womöglich Lernen grundsätzlich als ein einübendes Wiederholen. Auf Seiten des Schülers setzt die Wiederholung eine enorme synthetische, und man kann es nicht anders nennen: creative Leistung voraus, die alles andere als trivial ist, um die Forderung nach Wiederholung überhaupt zu erfüllen. Weil es ausgesprochen schwierig ist, diese creative Leistung formal zu beschreiben und weil wir schlichtweg gewohnt sind, dass sie ständig verfügbar ist, neigen wir dazu, sie zu übersehen, außer bei Spitzenleistungen in Kunst und Wissenschaft.
Damit haben wir uns durch die Frage nach Ähnlichkeiten auf ein Feld führen lassen, das üblicherweise als fraglos angesehen wird und zu einer nur noch sehr selten gestellten Frage: Was treibt uns eigentlich dazu, einfach zu lösende Aufgaben formal beschreiben zu wollen, selbst dort, wo sich das als extrem schwierig herausstellt? Das ist die Frage nach der Mathematisierung, die die Moderne prägt. Sie hat tausende von Antworten. Eine davon steht im Hinweis, dass tausende von KI-Intiativen wegen ihres erwarteten wirtschaftlichen Erfolgs aus dem Boden sprießen. Das Verhältnis dazwischen, was von Menschen einfach durchzuführen und was schwer zu formalisieren ist, unterliegt offensichtlich einer rasanten Verschiebung. War formales Beschreiben einmal so ziemlich das genaue Gegenteil von trial and error, des empirischen Versuchens, so ist in der Digitalisierung beides inzwischen weitgehend zusammengewachsen.
Die Gleichungen, die die jeweils gewünschte Lösung am effektivsten optimieren, müssen empirisch ermittelt werden. Erinnern wir daran: Das Feld, auf dem nicht Naturphänomene, sondern Gedanken untersucht werden, nennt man üblicherweise Geistes- und Sozialwissenschaften. In diesem Sinn ist Arbeit an Algorithmen eine empirische (!) Geisteswissenschaft. Die Frage z.B. bis wohin die Sigmoid-Funktion besser oder schlechtere Ergebnisse bringt als andere Aktivierungsfunktionen oder bei welchen Fragen mit völlig anderen Netzwerkarchitekturen zu arbeiten ist, wird via trial and error durchforscht. Es wird mit ganz verschiedenen Algorithmen gearbeitet. Bei Bilderkennung z.B. mit Convolutional Networks, die hier ebenfalls kurz angesprochen seien. Und auch hier steht wieder eine bestimmte Fragestellung nach Ähnlichkeiten am Anfang.
Die Grundintention, die mit neuronalen Netzen verfolgt wird, will allerdings durchaus mehr. Sie will eine Erkennungsleistung, die sich nicht bei jeder neuen Aufgabe von außen neue Fragen vorgeben lassen und neu konfiguriert werden muss, sondern die sich ihre eigenen Fragen stellt und selbst ihren Algorithmus entsprechend umkonfiguriert und all das letztendlich von einem zufälligen Anfangszustand aus. Das wäre starke KI, genau die die Searle für unmöglich hält. Man bemerkt die Ironie der gestellten Aufgabe. Wir wollen keine starke KI. Wir wollen die sein, die die Frage stellen.
Die Fragen, die wir heute an neuronale Netze stellen, kommen z.B. von der Post, von der Polizei, aus der Medizin, von Banken oder von einem Touristen, aus Sinnzusammenhängen, die extrem weit entfernt von der Simpelsemantik einer Kostenfunktion sind, an der neuronale Netze bestimmen, ob sie richtig liegen oder nicht. Dass Neuronale Netze sich eigene Fragen stellen könnten hieße, dass sich der Niveauunterschied zwischen der sie befragenden Semantik und ihrer eigenen Architektur extrem verringert. Es reicht dazu nicht, dass einfach nur von außen immer komplexere Architekturen von neuronalen Netzen realisiert werden. Sie müssten ihre jeweilige Erkennungsleistung nicht nur an einer bestimmten, ihnen vorgegebenen Kostenfunktion messen, sondern sie müssten entlang ihrer jeweiligen Ergebnisse selbst ihre eigenen Kostenfunktionen weiterentwickeln können.
Frage: Es wird unterschieden zwischen
maschinellem Lernen und Deep learning oder zwischen einmal KI als
Input Output-Logarithmus und einer Art selbstlernenden System. Wie
unterscheidet sich eine lernende KI von einer nicht-lernenden KI?
Maschinelles Lernen ist der Oberbegriff, Deep learning ist eine bestimmte Form des maschinellen Lernens. Fragt sich zu allererst: was wird unter Lernen verstanden?
Generell gilt für, soweit ich das sehe, alle Formen heutiger KI: Die leitenden Fragen stellt bisher immer der Mensch.
In einfachster Form: Beispiele werden vorgegeben und daraus wird statistisch verallgemeinert. Dafür braucht das Programm Statistik-Regeln und Daten.
Der Unterschied zu einem nicht-lernenden Programm ist dann einfach, dass ein nicht lernendes Programm aus einem objektorientierten oder prozessualen Algorithmus besteht, der bestimmte Eingaben annimmt und entsprechend des Algorithmus deduktiv Ausgaben erzeugt.
Weiterentwicklungen, die hier ständig gemacht werden, optimieren die Effizienz in alle möglichen Richtungen, schneller, komplexer, energieeffizienter, ohne Programmierarbeit wiederholen zu müssen, Prüfbarkeit auf Fehler etc.. Aber es geht nicht darum, dass Programme etwas lernen, sondern vordefinierte Aufgaben gelöst werden, dass Menschen informiert werden oder Menschen mittels Computern etwas steuern.
Die Symbolic artificial intelligence (oder GOFAI = good oldfashion artificial Intelligence) von maschinellem Lernen tut letztlich auch nicht viel mehr. Sie ergänzt den deduktiven Typ des nicht-lernenden Algorithmus allerdings um ein induktives Moment. (Also z.B. eine Bankgesellscahft hat in Berlin und Hamburg in bestimmten Wohngebieten Kunden, die häufiger als anderswo ihre Kredite nicht pünktlich zurückzahlen. Es werden von menschlichen Entwicklern Kriterien eingegeben und daraufhin am vorliegenden Datenmaterial zu den lokalen Kunden und deren Zahlungsdisziplin gefragt, ob sich ein Muster erkennen lässt und was das z.B. für eine Filiale in München heißen könnte.) Aber der statistische Regelapparat ändert sich dabei nicht, und zusätzliche Kriterien müssen von menschlichen Bearbeitern eingegeben werden und es wird auf Kriterien aus Datenbanken zurückgegriffen, die dort bereits verwendet wurden.
Ein Problem des maschinellen Lernen allerdings - auch beim Deep Learnig - ist mögliche Überanpassung. (Im Beispiel: Man hat Kriterien identifiziert, die in Hamburg und Berlin trennscharf bis auf fast den letzten Kunden die schlechten Schuldner herausfiltern. Man stellt möglicherweise jedoch fest, dass sie in München auch Kunden ausschließen, mit denen ein gutes Geschäft zu machen wäre.)
Wichtig scheint mir dabei: die Kriterien, die am Ende zum Einsatz kommen, sind bis hierhin klar symbolisch (=begrifflich) repräsentiert und damit grundsätzlich, wenn auch bei steigender Anzahl der verwendeten Kriterien nicht ohne weiteres, für Menschen nachvollziehbar.
Der wesentliche Unterschied zum Deep learning scheint mir der folgende zu sein:
Die leitenden Fragen kommen zwar nach wie vor von Menschen, aber es werden keine Kriterien vorgegeben wie bei den Kreditwürdigkeitsabfragen, (also z.B. Zahlungsgeschichte, Arbeitgeber, Alter, Geschlecht, Nationalität, Wohnort etc.,) sondern es wird ein bestimmtes Strukturmodell, das Perzeptron oder Neuron und eine elementare Arithmetik und Trainingsdaten vorgegeben (Paare von Ein- und Ausgaben – Beispiel waren die Bilder von handschriftlichen Ziffern, bei denen immer im Klartext dabeistand, um welche Ziffer es sich handelt). Mögliche Kriterien muss das System aber alleine herausfinden, und es braucht sie nicht symbolisch explizit zu machen. Nur die Fehlerrate beim Ergebnis zeigt, ob das gelungen ist oder nicht.
Ob man das jetzt schon Lernen nennen möchte, ist eine Frage der Definition. Bei Kindern, die etwas lernen, würde man erwarten, dass sie nicht nur nach und nach Fragen richtig beantworten, sondern, dass sie auch gelegentlich selbst Fragen zum Thema stellen.
Das deep learning System stellt dabei in der Tat ständig schematisch die Frage, ob es richtig liegt oder nicht (das ist die Kostenfunktion und die Korrektur qua Backpropagation). Angewandt auf die Frage der Kreditwürdigkeit müsste man einem funktionierenden deep learning System nicht sagen, dass auf die Kredithistorie des Kunden zu achten ist, sondern man würde es, soweit das rechtlich möglich ist, mit sämtlichen Kundendaten, die überhaupt verfügbar sind und sei es der Unterhosengröße oder die Gesundheitsdaten befüttern und es würde idealerweise irgendwann zu einem brauchbaren Ergebnis kommen, indem es beginnt, die Kredithistorie zu berücksichtigen und vielleicht sogar von sich aus darauf zu kommen, dass man bei Alkoholikern Vorsicht walten lassen sollte, einem Kriterium, an das möglicherweise bisher noch kein trinkfreudiger Banker freiwillig denken wollte.
Was beispielsweise bei selbstfahrenden Autos eingesetzt werden soll, sind trainierte Systeme, bei denen also der Lernprozess schon gelaufen ist. Ob die noch weiter lernfähig sind, ist eine gesonderte Frage. Ich glaube nicht, dass daran gedacht ist, das selbstfahrende Autos nach Auslieferung noch weiter dazulernen. Die Bordcomputer dürften voll damit beschäftigt sein, das mitgelieferte trainierte System einzusetzen. Sie werden Fehler melden und Datenmaterial zur Verarbeitung an eine Cloud liefern, und sie werden laufend über Internet upgedatet werden und dadurch besser werden. Aber gelernt wird auf Trainigssystemen und wahrscheinlich nicht von der KI im Fahrzeug selbst.
Zur Unterscheidung zwischen überwachtem und unüberwachtem Lernen: Überwachtes Lernen heisst einfach nur, dass die Beispieldaten jeweils mit dem erwarteten Ergebnis gekennzeichnet sind, dass wom Wunschergebnis aus kontrolliert wird und nicht durch die Vorgabe von Selektionskriterien, dass also bei der handschriftlichen Ziffer 7 dransteht, dies ist eine 7. Das fehlt beim unüberwachten Lernen nicht. Man hat dort also nicht die selbe Art von Kostenfunktion, weil man die Abweichung vom richtigen Ergebnis nicht ohne weiteres messen kann. Aber man käme beim unüberwachten Lernen zu keinen brauchbaren Ergebnissen, wenn nicht irgend etwas anderes die Rolle der Kostenfunktion spielen würde, z.B. Häufungen, die sich zur Clusterbestimmung heranziehen lassen. Und auf die Art bekommt man doch wieder so etwas wie eine Kostenfunktion.1
Eine weitere Eigenschaft: Wenn zwei Menschen den gleichen Job haben, werden sie ihn wahrscheinlich ziemlich ähnlich, aber kaum jemals genau gleich erledigen. Es gibt Spielraum für Entscheidungen. Das ist eine Eigenschaft, die man gelegentlich für ziemlich charakteristisch für menschliche Tätigkeit hält und die man mit Kreativität und Freiheit in Verbindung bringt.
DeepMind Inc. hat mit Alphastar ein KI-Programm entwickelt, das bei dem Echtzeitstrategiespiel StarCraft II eingesetzt wird und das Eigenschaften aufweist, die schon recht deutlich an Akteure mit großem Handlungsspielraum erinnern. Bei StarCraft II besteht keine perfekte Information zur Verfügung. Das Spiel findet in einer dynamischen Umgebung statt. Zu bespielen ist ein Aktionsfeld variabler Größe mit mehreren Agenten. Es gibt einen oder mehrere Gegner, aber potenziell auch Kooperationspartner. Wirkungen von Entscheidungen können zum Teil erst nach längerer Zeit eintreten. Ob Aktionen erfolgreich sind, ist also nicht sofort zu erkennen. Es gibt bei StarCraft II spieltheoretisch gesehen keine beste Strategie. Und unter den selben aktuellen Bedingungen müssen verschiedene Agenten von Alphastar abhängig von ihrem jeweiligen Trainingszustand und den genauen Anfangs- und Randbedingungen nicht zu den selben Entscheidungen kommen. Das sind Verhältnisse, die schon etliche Gemeinsamkeiten mit den Arbeitsbedingungen von Menschen in Wirtschaftsunternehmen aufweisen.
Was 'Ähnlichkeit' nicht meint...
Ich meine damit nicht irgendeine etwaige Ähnlichkeit von Menschen und Maschinen oder irgendeine Ähnlichkeit dazwischen, wie Maschinen und Menschen bestimmte Probleme lösen, auch wenn das hier und da naheliegt wie bei Alphastar, einem Schach- oder GO-Programm. Natürlich hält sich ein Schachprogramm an die Schachregeln und tut insofern das gleiche wie ein Mensch, es spielt Schach. Aber das beweist nicht, dass Mensch und Maschine auch intern das gleiche tun und dass der Bauplan der Maschine, den wir mehr oder weniger kennen, zugleich ein gutes Modell für die Vorgänge im Menschen sein muss. Das ist zwar nicht auszuschließen, aber bei meinem Nachdenken über den Ähnlichkeitsbegriff geht es mir nicht darum. Es geht mir vielmehr um den evolutionsgeschichtlich grundlegenden Übergang von Kontingenz über Redundanz in Ähnlichkeit.
Ich habe allein über die Ähnlichkeit als erkenntnistheoretische und praktische Minimalvoraussetzung nachgedacht, irgendetwas zu erkennen. Dazu liefern Perzeptronen ein interessantes Modell, was aus sich wiederholenden Zufällen, aus Redundanzen wird, die von geeigneten Körpern rezipiert werden. Es werden nämlich Ähnlichkeiten daraus.
Offensichtlich ist es bei der evolutionären Entwicklung des Lebens durch Millionen Jahre bis hin zum Menschen in besonderem Maß dazu gekommen, dass von höher entwickelten Organismen Ähnlichkeiten erkannt und in den letzten paar tausend Jahren sogar Wissen u.a. darauf aufgebaut wird. Wenn man beides vergleicht begegnet bisher leider ein notorisch übersimplifizierter Maschinenbegriff einem ebenso notorisch unterbestimmten Bewusstseinsbegriff.
Anmerkungen:
1 Wer etwas derartiges In Aktion besichtigen möchte, findet hier ein Beispiel zum Ausprobieren.
zurück ...
weiter ...
Ihr Kommentar
Falls Sie Stellung nehmen, etwas ergänzen oder korrigieren möchten, können sie das hier gerne tun. Wir freuen uns über Ihre Nachricht.