Google-CEO Sundar Pichai teilte diese Woche auf X ein kurzes, mitleiderregendes Video über eine Maschine. Man sieht darin die schwarz behandschuhten »Hände« eines humanoiden Roboters, der Wäschestücke nach ihrer Farbe sortieren soll. Während er unbeholfen versucht, Stoffstücke in Schwarz, Weiß und Rot in Behälter der gleichen Farbe zu bugsieren, schiebt ein Mensch die flachen Wäschewannen hin und her wie ein Hütchenspieler seine Streichholzschachteln. Der Roboter muss auf die Veränderungen reagieren, was leidlich zu funktionieren scheint.
Parallel sieht man Unmengen von Softwarecode über einen Bildschirm scrollen. »Man kann hier seinen ganzen Gedankenstrom sehen«, sagt der menschliche Vorführer, »und es denkt jedes Mal, wenn es handelt.«
Schlampige Anwendung psychologischer Begriffe
Im Silicon Valley operiert man, aus der Perspektive der Kognitionspsychologie, derzeit mit rudimentären, man könnte auch sagen: verstümmelten Vorstellungen davon, was »Denken« ist. Viele, die an dem arbeiten, was »künstliche Intelligenz« genannt wird, gebrauchen ständig in der Psychologie wohldefinierte Begriffe und Konzepte. Oft allerdings ohne ein Grundverständnis dafür, was diese Begriffe eigentlich bedeuten.
Zwar trifft das nicht auf alle zu: Einige der Pioniere des maschinellen Lernens sind selbst Kognitionspsychologen, Geoff Hinton zum Beispiel, ehemaliger Leiter der KI-Abteilung von Google, heute mahnender Aussteiger , und gemeinsam mit John Hopfield Physik-Nobelpreisträger. Doch die inflationäre und schlampige Anwendung psychologischer Konzepte haben die Psychologen in der KI-Szene nicht verhindert – bislang.
Die implizite oder sogar explizit formulierte Annahme, dass das, was Sprachmodelle wie ChatGPT oder Googles Gemini tun, »Denken« sei, ist enorm verbreitet. Sie ist aber falsch, wenn man Definitionen zugrunde legt, die Psychologiestudierende schon in den ersten Semestern lernen: »Denken unterscheidet sich explizit vom Handeln insofern, als es ihm vorausgeht und die Vorbereitungen zum geplanten Handeln schafft«, heißt es zum Beispiel im »Dorsch Lexikon der Psychologie «, dem deutschsprachigen Standardwerk.
Freud und die künstliche Intelligenz
Sigmund Freud, (der kein Psychologe war), nannte Denken »inneres Probehandeln«: Bevor wir etwas tun, entwickeln wir eine Erwartung darüber, was das für Folgen haben wird. Wir simulieren gewissermaßen die unmittelbare Zukunft, die wir mit unserem Verhalten selbst herbeiführen wollen. Wir entwickeln und testen ständig Hypothesen darüber, was unser Verhalten für sensorische Eindrücke erzeugen wird. Manchmal irren wir dabei. Das haben alle, die schon einmal eine überraschend leere Milchtüte hochgehoben haben, bereits selbst erlebt.
Alles andere – rückwirkendes Bewerten von Ereignissen und Erlebnissen, Verknüpfen von Sachverhalten, Begriffen und Vorstellungen mit dem Ziel, neue Erkenntnisse zu generieren – kommt gewissermaßen erst im Anschluss.
Ein neugeborenes Kind lernt das Denken verknüpft mit dem Handeln. Begriffe, so hat mein verstorbener Doktorvater, der Kognitionspsychologe Joachim Hoffmann, das formuliert , werden über »funktionale Äquivalenzen« gebildet. Ein Stuhl ist etwas, worauf man sitzen kann. Ein Löffel ist etwas, mit dem man sich Essen in den Mund schaufeln kann. Eine Gabel ist etwas, womit man Essen aufspießen kann, was mit einem Löffel schlecht geht. »Essen« ist etwas, das man mit seinem Körper tut, genau wie »Gehen«, »Greifen« oder »Sprechen«. Und so weiter.
Nur abstrakt denken, das können Menschen nicht
Problemlösen, eine Unterform des Denkens, ist gewissermaßen die nächste Stufe dieser Art von Auseinandersetzung mit der Welt: Wenn ich diese Suppe in meinen Mund bringen will und ich dafür die Gabel benutze, was wird dann passieren? Und was, wenn ich stattdessen den Löffel nehme? Denken simuliert die Folgen des Handelns, was uns im besten Fall jede Menge peinlicher Versuchs- und Irrtumsschleifen erspart.
Die Entwicklung des menschlichen Denkens vollzieht sich nicht unabhängig von unseren Körpern, im Gegenteil: Wir lernen, über die Welt nachzudenken, indem wir mit ihr interagieren. Dabei können wir irgendwann enorme Abstraktionslevel erreichen: Astrophysikerinnen oder Bioinformatiker sind permanent mit Dingen beschäftigt, die sie weder sehen noch anfassen können. Anfangen aber müssen wir alle mit Interaktionen mit der Umwelt. Unser Denken basiert darauf, genau wie unser Handeln. Wir verknüpfen in unseren Köpfen Sinneswahrnehmungen – Sensorik also – mit Handlungen – Motorik also. »Denken« ist zunächst einmal die interne Simulation dieser Verknüpfung.
Wer »Freiheit« verstehen will, muss vorher »Löffel« sagen
Vereinfacht gesagt: Um Begriffe wie »Freiheit«, »Krankenversicherung« oder »Hypotenuse« lernen und verstehen zu können, müssen wir zunächst einmal Begriffe wie »Löffel«, »Stuhl« oder »Schuh« gelernt haben, und zwar auf Basis des physischen Umgangs mit ihnen. Abstraktes Denken ist eine Weiterentwicklung konkreten Denkens, keine davon unabhängige Funktion des menschlichen Geistes.
Die Entwickler der großen Sprachmodelle aber tun seit Jahren mit großer Selbstverständlichkeit so, als könne man diese elementare Tatsache über menschliche Kognition einfach ausblenden, überspringen.
Sie benutzen Worte wie »Denken«, »Begriffe« oder »Konzepte« und schreiben all diese aus der Psychologie stammenden Definitionen Maschinen zu, die etwas völlig anderes tun. ChatGPT »weiß« nicht, was ein Löffel ist, denn es hat nie mit einem interagiert. Sprachmodelle gehen zwar ständig mit Dingen um, die wir gedankenlos »Begriffe« nennen – aber sie begreifen nichts, buchstäblich wie metaphorisch.
Die scheinbar triviale Feststellung, dass das Wort »Begriff« von »Begreifen« kommt, erhält in den KI-Laboren der Welt neue Aktualität.
»Kein Handeln unter der Haube«
Der preisgekrönte Neurowissenschaftler Karl Friston , der sich mit dem Denken als Simulation von Umweltveränderungen durch Verhalten beschäftigt, formulierte es kürzlich so : Generative KI-Modelle hätten »keine Handlungsfähigkeit unter der Haube«. Für echte künstliche Allzweck-Intelligenz, so Friston, »muss man sich aktiv und körperlich, physisch in einer Welt aufhalten, in der man handeln kann, bevor man die Vorstellung von Intelligenz überhaupt anwenden kann«.
Womit wir wieder bei dem Roboter vom Beginn dieses Textes wären. Nicht nur Google arbeitet derzeit verstärkt an Robotern , auch die anderen großen KI-Firmen tun das. OpenAI schreibt gerade diverse Stellen aus , in denen es um die Entwicklung von »Allzweck-Robotern« und um »allgemeine künstliche Intelligenz in dynamischen, realweltlichen Umgebungen« geht. Das Unternehmen hat diverse Robotikfachleute von anderen Firmen wie Teslas Optimus-Projekt oder US-Eliteuniversitäten angeheuert und kooperiert mit Robotikfirmen.
Das neue Interesse für Roboter hat, auch wenn die Maschinen in Demonstrationsvideos oft Wäsche falten oder eben sortieren müssen, in Wahrheit weniger mit einer Zukunftsvision zu tun, in der wir alle mechanische Haushaltshilfen beschäftigen (mir würde so eine Maschine eher Angst machen). Es scheint eher, als hätten die großen KI-Unternehmen verstanden, dass ihren Schöpfungen etwas Entscheidendes fehlt, um das große Versprechen – manche würden sagen: Menetekel – der künstlichen Allzweck-Intelligenz wahr zu machen: eine Vorstellung von der realen Welt.
Maschinen, die wirklich »begreifen«
Was der beschriebene Google-Roboter tut, wenn er unbeholfen Stofflappen in Plastikwannen hievt, ist menschlichem »Denken« tatsächlich näher als das, was ChatGPT tut, wenn man es auffordert, ein Gedicht über kartenspielende Hunde zu schreiben. Die Maschine muss »Begriffe« im engeren Sinn bilden. Sie muss die Worte in ihrem Sprachkorpus in Verbindung bringen mit Objekten und Konzepten in der realen Welt, etwa mit den Farben der Stoffstücke und Wannen; mit Objekten, die sie mit ihren Sensoren wahrnehmen kann und mit denen ihre Effektoren, in diesem Fall ihre »Hände«, interagieren können.
Der Informatiker David Silver, der bei Googles KI-Tochter Deepmind forscht und unter anderem die unschlagbare Go-Maschine AlphaGo entwickelt hat, und sein Doktorvater Richard Sutton, Informatiker und Psychologe, haben vor Kurzem einen gemeinsamen Essay veröffentlicht . Er trägt die Überschrift »Willkommen im Zeitalter der Erfahrung« und vertritt diese zentrale These: In vielen entscheidenden Bereichen wie Mathematik, Softwareentwicklung oder Naturwissenschaften sind die qualitativ hochwertigen Trainingsdaten für lernende Maschinen so gut wie aufgebraucht. Die nächste Stufe könnten KI-Systeme nur erreichen, »wenn man Agenten erlaubt, kontinuierlich aus ihrer eigenen Erfahrung zu lernen, das heißt aus Daten, die durch die Interaktion des Agenten mit dessen Umwelt entstehen.« Wie das Kleinkind mit dem Löffel.
So folgerichtig wie Furcht einflößend
»Am Ende«, schreiben die beiden, »werden Erfahrungsdaten die Menge und Qualität menschlicher Daten in den Schatten stellen.«
Das ist, psychologisch betrachtet, so folgerichtig wie Furcht einflößend. Wenn die künstlichen Intelligenzen der Zukunft physisch oder anderweitig in die reale Welt eingreifen können – sei es als Haushaltsroboter mit übermenschlichen Kräften, als ultraschnelle, autonome Handelsmaschinen an den Börsen der Welt, oder gar als Drohnenschwarm , der selbstständig Ziele angreift –, dann werden die bislang teils hysterischen Warnungen vor den Gefahren durch Maschinen , die gewaltige Schäden anrichten, plötzlich viel plausibler.
Es scheint, als ob KI jetzt zwangsläufig gefährlicher werden muss, um nützlicher zu werden. Spätestens jetzt ist eine öffentliche Debatte darüber unerlässlich, wie man das im Griff behält.