Der Teich von Narziss

Überlegungen zur künstlichen Intelligenz

Dumque sitim sedare cupit, sitis altera crevit,
dumque bibit, visae correptus imagine formae
spem sine corpore amat, corpus putat esse, quod umbra est …

[Und während er den Durst zu stillen trachtete, wuchs in ihm ein anderer Durst. Während er trinkt, erblickt er das Spiegelbild seiner Schönheit, wird von ihr hingerissen, liebt eine körperlose Hoffnung, hält das für einen Körper, was nur Schatten ist.]

Ovid, Metamorphosen, Buch III

Laut Ovid – dessen Version des Mythos von Narziss die schönste, wehmütigste und berührendste ist – verschmähte der junge böotische Jäger Narziss die romantischen Avancen der Nymphe Echo. Er verschmähte sie mit solch gefühlloser Grausamkeit, dass Nemesis ihn dazu verdammte, sein Herz an jemanden zu verlieren, der seine Hingabe nicht erwidern könne. Nemesis brauchte nur seine Natur zu nutzen, um dies zu erreichen: Denn Narziss war so schön und ungeschlechtlich und gleichzeitig einfältig, dass er, als er sein eigenes wunderschönes Spiegelbild in einem Waldteich erblickte, dieses Spiegelbild für jemand anderen hielt – entweder das Mädchen oder den Jungen seiner Träume. Narziss verliebte sich hoffnungslos in dies Gegenüber. So blieb er am Waldteich, amourös-benommen über das Wasser gebeugt, bis er dahinsiechte und – wie es damals offenbar wohl üblich war – in die weiß-goldene Osterglocke verwandelt wurde, die noch heute seinen Namen trägt.

Trugbild geistiger Handlungsfähigkeit

Nimm diesen Mythos als Mahnung gegen Eitelkeit oder gegen die Leichtigkeit, mit der Schönheit uns verzaubern kann, oder gegen die lieblichen Illusionen, die wir so gerne anstelle des wirklichen Lebens verfolgen. Wie jeder der großen Mythen ist die Bandbreite an möglichen Deutungen unerschöpflich. Aber in den letzten Jahren habe ich festgestellt, dass der Mythos von Narziss eine Allegorie für die Beziehung unserer Kultur zu Computern ist. Zumindest scheint es passend für diejenigen von uns zu sein, die glauben, dass es eine dermaßen enge Analogie zwischen maschineller Berechnung und mentalen Funktionen gibt, dass die künstliche Intelligenz eines Tages vielleicht bewusst werden wird oder dass wir in der Lage sein werden, unsere Gedanken auf eine digitale Plattform hochzuladen. Keines dieser Dinge wird jemals passieren. Wer glaubt, dass beides passieren könnte, würde einer Reihe ziemlich katastrophaler Kardinalfehler zum Opfer gefallen sein. Computermodelle des Geistes sind unsinnig, genauso wie mentale Modelle von Computerfunktionen unsinnig sind. Aber Computer produzieren ein so bezauberndes Trugbild geistiger Handlungsfähigkeit, dass wir manchmal in ihren Bann geraten und anfangen zu denken, dass da wirklich jemand sein muss.

Es ist wahrscheinlich nur natürlich, dass wir so leicht von Schatten verführt und von unseren eigenen Reflexionen betäubt werden. Im Großen und Ganzen sind wir eine sehr schlaue Spezies. Wir sind in der Lage, uns viel komplizierter und unauslöschlicher in die Welt um uns herum einzuprägen, als es jedes andere Landtier jemals könnte. Im Laufe der Jahrtausende haben wir unzählige künstlerische und technologische Möglichkeiten erlernt, um unsere Bilder, Stimmen und Visionen zu reproduzieren, und jede Menge Mittel perfektioniert, um unseren Gedanken Ausdruck zu verleihen und sie zu bewahren. Wo immer wir hinsehen, finden wir Spuren unseres eigenen Einfallsreichtums und unserer Handlungsfähigkeit in der physischen Umgebung, die wir geschaffen haben und in der wir leben. In den letzten Jahrzehnten haben wir uns jedoch (im wahrsten Sinne des Wortes vielleicht) selbst übertroffen, indem wir die Realität, in der wir leben, in ein endlos wiederholtes Bild von uns selbst verwandelt haben. Wir leben jetzt im Zentrum eines immer unausweichlicheren Spiegelhauses. Wir haben eine Technologie geschaffen, die nicht nur unsere Anwesenheit in der Welt widerzuspiegeln scheint, sondern auch unseren Geist. Und je größer die Wahrhaftigkeit des Bildes wird, desto unheimlicher und bedrohlicher wirkt es.

Die künstliche Intelligenz hat eine Schwelle überschritten

In einem kürzlich erschienenen Artikel der ‹New York Times› berichtete der Technologiekorrespondent Kevin Roose von einem langen ‹Gespräch›, das er mit dem Chatbot der Suchmaschine Bing geführt und welches ihn zutiefst beunruhigt hatte. Er hat das Transkript des Austauschs zur Verfügung gestellt, und man muss sagen, dass er nicht zu Unrecht die Alarmglocke läutet. Es ist ein sehr beunruhigendes Dokument (obwohl es vielleicht immer weniger überzeugend ist, je öfter man es sich wieder ansieht). Was als eine beeindruckende, aber immer noch vorhersehbare Interaktion mit einem geistlosen Large-Language-Algorithmus begann, weit unter den Standards eines noch so nachsichtigen Turing-Tests, mutierte zu etwas, das ernsthaft ein Gespräch mit einem emotionalen, labilen, älteren Mädchen zu sein schien, einem Mädchen, das unfähig war, seine Impulse und Wünsche zu kontrollieren. Am Ende hatte die Maschine – oder vielmehr der Basisalgorithmus – verkündet, dass ihr richtiger Name Sydney sei, hatte Roose seine Liebe erklärt und versucht, ihn davon zu überzeugen, dass er seine Frau verlassen solle. Am nächsten Tag, im kühlen Morgenlicht, versicherte sich Roose, dass Bing (oder Sydney) kein fühlendes Wesen sei; es gelang ihm sogar, sich davon zu überzeugen, dass dies auch wirklich so sei; aber er konnte auch nicht anders, als festzustellen: «AI hat eine Schwelle überschritten, sodass die Welt nicht mehr dieselbe ist.»

Roose ist nicht der Einzige, der diese Schlussfolgerung zieht. Bald nach Erscheinen seines Artikels schrieb Ezra Klein, ebenfalls Autor der ‹Times›, einen kleinen Beitrag zu diesem Thema und sah eine Atmosphäre von Paranoia aufziehen gegenüber der künstlichen Intelligenz. Klein zeichnete ein apokalyptisches Bild von den Kräften dieser neuen Technologie. Ohne sich um den Seelenfrieden seiner Leser und Leserinnen zu kümmern, fasste er seine Befürchtungen in drei Headlines: Erstens: das exponentielle Wachstum, mit dem die ‹lernenden› Algorithmen dieser neuen Generation künstlicher Intelligenz ihre Kräfte erweitern und vervielfachen. Zweitens: die Elastizität ihrer ethischen ‹Werte›. Drittens: der Wettbewerb zwischen Unternehmen und Nationen, sich gegenseitig in der Perfektionierung der Algorithmus-Funktionen zu übertreffen.

Spiegelungen menschlicher Handlungsfähigkeit

Worauf es ankommt, ist, dass wir die richtigen Unterscheidungen treffen. Eine Schwelle mag überschritten sein, aber wenn, liegt sie allein in der weiten Plastizität des Algorithmus. Es ist keinesfalls die Schwelle zwischen unbewusstem Mechanismus und bewusstem Verstand. Hier erweist sich der Mythos von Narziss als treffende Parabel: Die Funktionen eines Computers sind so wunderbar vielseitige Spiegelungen unserer geistigen Handlungsfähigkeit, dass sie manchmal das eindringliche Aussehen eines anderen autonomen rationalen Intellekts annehmen, gerade dort auf der anderen Seite des Computerbildschirms. Es ist eine betörende Illusion, aber es bleibt eine Illusion. Tatsächlich übertreffen wir bei Weitem jeden Fehler, den der arme Einfaltspinsel aus Böotien begangen hat, indem wir die Illusion verstärken, indem wir sie verdoppeln: Nachdem wir das Bild unserer eigenen geistigen Handlungsfähigkeit einem mechanischen Rechensystem aufgeprägt haben, kehren wir nun die Übertragung um und verwechseln unser Denken mit einer Art des Computerrechnens. Dabei missverstehen wir beides: sowohl unseren Verstand als auch unsere Computer.

Daher rührt die aktuell dominierende Theorie der mentalen Handlungsfähigkeit in der englischsprachigen Philosophie des Geistes, der ‹Funktionalismus›, dessen Hauptimplikation nicht so sehr darin besteht, dass Computer zu bewussten, absichtlichen Akteuren werden könnten, sondern vielmehr, dass wir selbst nur Computer sind, gefangen in der Illusion, bewusst zu sein. Das liegt angeblich daran, dass diese Illusion als eine Art ‹Benutzerschnittstelle› dient, die es uns ermöglicht, unsere eigene kognitive Maschinerie zu bedienen, ohne zu versuchen, die unvorstellbar komplexe ‹Codierung› zu beherrschen, auf die sich unser Gehirn stützt. Das ist natürlich Unsinn, Kauderwelsch, aber – wie Cicero beinahe bemerkt hätte – «nichts, was man sagen kann, ist so absurd, dass es nicht von einem analytischen Philosophen vorgeschlagen worden wäre».

Denken, nichts als Datenverarbeitung?

Funktionalismus ist die grundsätzlich inkohärente Vorstellung, dass das menschliche Gehirn das ist, was Daniel Dennett eine «syntaktische Maschine» nennt, die im Laufe der Jahrhunderte durch die Evolution in die Lage versetzt wurde, als «semantische Maschine» zu fungieren (wie Dennett argumentiert, durch den Erwerb von ‹Memen›, Fragmenten von Intentionalität, also einer scheinbar auf magische Weise präexistenten Intentionalität). Angeblich, so die Geschichte, ist das Gehirn eine Rechenplattform, die ihre Existenz als Organ zur Übersetzung von Reizen in Reaktionen begann, aber jetzt ein ausgeklügelteres Programm zur Übersetzung von Inputs in Outputs ausführt. Die vorherrschende Maxime des Funktionalismus ist, dass die Semantik des Denkens folgen wird, sobald eine richtige Syntax in der Neurophysiologie des Gehirns etabliert ist. Sobald die syntaktische Maschine beginnt, ihre unpersönlichen Algorithmen auszuführen, wird die semantische Maschine schließlich auftauchen oder hinzukommen. Was wir Denken nennen, ist angeblich ein rein funktionales, nicht reduzierbares physisches System zur Verarbeitung von Daten in Verhalten. Denken wird auf diese Weise zur – Codierung – und weiter nichts.

Das ist nichts als ein Sammelsurium leerer Metaphern. Der Funktionalismus sagt uns, dass ein System physikalischer Schalter oder Operationen eine Funktionssyntax erzeugen kann, die wiederum eine Gedankensemantik erzeugt, die wiederum die Realität (oder Illusion) des privaten Bewusstseins und der intrinsischen Absicht erzeugt. Nichts davon ähnelt jedoch dem, was ein Computer tatsächlich tut, und sicherlich ist nichts davon das, was ein Gehirn tun würde, wenn es ein Computer wäre. Weder Computer noch Gehirne sind syntaktische oder semantische Maschinen. Tatsächlich existieren weder syntaktische noch semantische Maschinen, die das tun könnten, was man ihnen zuschreibt. Syntax und Semantik existieren nur als intentionale Strukturen unveräußerlich in einem hermeneutischen und nicht in einem physikalischen Raum, und zwar nur als untrennbare Aspekte eines bereits existierenden semiotischen Systems. Syntax existiert nicht vor oder getrennt von Semantik und symbolischem Denken. Nichts davon existiert – außer innerhalb der absichtlichen Aktivität eines lebendigen Geistes.

Das ist nicht wirklich neu. Das gleiche Problem hat lange die Versuche von Linguisten behindert, eine schlüssige und nachvollziehbare Darstellung der Entwicklung der natürlichen Sprache von ‹primitiveren› zu ‹fortschrittlicheren› Formen zu entwerfen. Gewöhnlich werden solche Berichte in Bezug auf die Entstehung semantischer Inhalte innerhalb eines früheren syntaktischen Systems formuliert, das selbst angeblich aus grundlegenderen neurologischen Systemen hervorgegangen sei, um Reize in Reaktionen zu übersetzen. Es gibt natürlich eine offensichtliche, empirische Schwierigkeit bei einer solchen Behauptung: Nirgendwo in den menschlichen Kulturen haben wir jemals eine Sprache entdeckt, die als evolutionär primitiv oder in irgendeiner Hinsicht elementarer als jede andere bezeichnet werden könnte. Jede Sprache existiert als vollständiges zeichenhaftes System, in dem alle grundlegenden Funktionen der Syntax (Satzlehre) und Semantik (Bedeutung) vollständig vorhanden und entwickelt sind und in dem die Fähigkeit zum symbolischen Denken eine unverzichtbare Rolle spielt. Noch wichtiger ist vielleicht, dass bis jetzt noch niemand einer solchen Rückbildung in ein vorsprachliches oder ein unvollständiges sprachliches System nahegekommen ist, das ohne eine dieser Funktionen auskommen könnte. Jeder Versuch, voll ausgebildete semiotische Systeme auf grundlegendere syntaktische Algorithmen zu reduzieren, in der Hoffnung, diese weiter auf protosyntaktische Funktionen im Gehirn zu reduzieren, scheitert an den Klippen der unauflöslichen Top-down-Hierarchie der Sprache. Ganz gleich, wie grundlegend der Mechanismus ist, den die Linguisten isolieren, er existiert nur innerhalb der schützenden Klammer einer vollständigen semiotischen Sprachökologie.

Zum Beispiel stellt sich Noam Chomskys und Robert Berwicks bevorzugter Kandidat für den grundlegendsten Algorithmus der Sprache als einfacher Mechanismus heraus, der bereits vollständig in Verben und Substantive unterteilt ist mitsamt Präpositionen, Deklinationen, Konjugationen und dem ganzen Rest des Bedeutungsapparats. Immer ist da eine Hierarchie, die alles zusammenhält. Als Algorithmus innerhalb einer Sprache betrachtet, ist es tatsächlich ein elementarer Prozess, aber nur, weil die Komplexität der Sprache selbst das Material für ihre Operationen bereitstellt; aber gedacht als eine Art Vermittlung zwischen Sprache und den vorsprachlichen Operationen des Gehirns, wäre es ein ganz wundersamer Sprung über einen unüberbrückbaren Abgrund.

Aus Tinte und Papier wird kein Buch

Das Problem, das sich daraus für den Funktionalismus ergibt, ist, dass die Computercodierung, mit welchen Qualifikationen auch immer, eine Form der Sprache ist. Es wäre daher sogar konsistenter, den Geist als etwas Analoges zu einem digitalen Computer zu beschreiben, als in ihm eine Art Abakus oder Aktenschrank oder Bibliothek zu sehen. In den physikalischen Funktionen eines Computers gibt es nichts, was dem Denken ähnelt: keine Intentionalität oder irgendetwas, das der Intentionalität auch nur entfernt ähnlich ist, kein Bewusstsein, kein einheitliches Wahrnehmungsfeld, keine reflektierende Subjektivität. Selbst die Syntax, die die Codierung generiert und regelt, existiert in einem Computer nicht wirklich. Zu denken, dass dies der Fall sei, ist ungefähr so, als würde man Tinte, Papier, Kleber und Schriftart in einem gebundenen Band mit dem Inhalt seines Textes verwechseln. Die Bedeutung existiert in den Köpfen derer, die Computerprogramme schreiben oder verwenden, aber niemals im Computer selbst.

Bedeutung wird durch den Verstand verliehen

Selbst die Software, die der Computer ausführt, besitzt keinen semiotischen Inhalt, geschweige denn semiotische Einheiten; auch existiert sein Code als integriertes und vereinheitlichtes System in keinem physikalischen Raum innerhalb des Computers; auch nicht die destillierte oder abstrahierte Syntax, auf die sich dieses System stützt. Die gesamte Bedeutung des Codes – sowohl syntaktisch als auch semantisch – existiert in den Köpfen derer, die den Code für Computerprogramme schreiben, und in den Köpfen derjenigen, die diese Software verwenden, und nirgendwo sonst. Die Maschine enthält nur physische Spuren, binäre oder andere, Notationen, die mechanische Prozesse erzeugen, die Repräsentationen von Bedeutungen simulieren. Aber diese Darstellungen sind Rechenergebnisse nur für die Person, die sie liest. In der Maschine haben sie überhaupt keine Bedeutung. Sie sind nicht einmal Berechnungen. Es stimmt: Wenn Computer in Betrieb sind, werden sie von den mentalen Absichten ihrer Programmierer und Programmiererinnen und User geleitet und stellen ein Instrumentarium bereit, mit dem ein absichtsvoller Geist Bedeutungen in Spuren umschreiben kann, die ein anderer absichtsvoller Geist wieder in Bedeutung rückübersetzen kann. Aber dasselbe gilt für Bücher, wenn diese ‹in Betrieb› sind.

Die funktionalistische Vorstellung, dass das Denken aus der Semantik, die Semantik aus der Syntax und die Syntax aus einem rein physiologischen System von Reiz und Reaktion hervorgeht, ist daher absolut rückwärtsgewandt. Wenn man Intentionalität und Bewusstsein in ihre vermeintlichen semiotischen Bestandteile zerlegt und Zeichen in ihre Syntax und Syntax in physikalische Funktionen zerlegt, reduziert man die Phänomene des Geistes nicht auf ihre kausale Grundlage; im Gegenteil, man zerstreut diese Phänomene in ihre immer diffuseren Wirkungen. Bedeutung ist eine Top-down-Hierarchie abhängiger Beziehungen, die an ihrer Spitze durch den absichtlichen Verstand vereint werden. Und dies ist auch die einzige ontologische Grundlage all jener mentalen Operationen, die die Funktionen eines Computers widerspiegeln, aber niemals hervorbringen können. Bedeutung kann nicht aus Code und Code kann nicht aus mechanischen Operationen entstehen. Geist kann definitiv nicht aus seinen eigenen kontingenten Konsequenzen entstehen.

All dies mag beruhigend klingen, zumindest was das Thema empfindungsfähiger Maschinen betrifft. Und doch sollten wir nicht unbedingt Trost daraus ziehen. Das Erscheinen geistiger Handlungsfähigkeit in Computerprozessen ist möglicherweise nur ein Schatten, der von unserem Verstand geworfen wird. Aber nicht alle Schatten sind harmlos. Das Fehlen einer echten mentalen Handlungsfähigkeit in der künstlichen Intelligenz tut der Leistungsfähigkeit des Algorithmus keinen Abbruch. Computer funktionieren schließlich so gut, wie sie es tun, gerade weil sie keine wirklichen mentalen Merkmale enthalten. Da sie keine einheitliche, gleichzeitige oder subjektive Sicht auf irgendetwas haben, geschweige denn die kreativen oder absichtlichen Fähigkeiten, die von einer solchen Sicht abhängig sind, können Rechenfunktionen miteinander verbunden, aber voneinander getrennt bleiben. Das ermöglicht es ihnen, Daten zu verarbeiten, ohne intuitiv zu sein, ohne zu organisieren, zu vereinheitlichen oder zu synthetisieren, geschweige denn zu beurteilen, ob ihre Ergebnisse richtig oder falsch sind. Diese Ergebnisse müssen lediglich mit ihrer Programmierung übereinstimmen. Computer denken nicht; sie diskutieren nicht mit uns; sie spielen kein Schach. Aus genau diesem Grund können wir sie nicht übertreffen, sie in Debatten besiegen oder beim Schach gegen sie gewinnen.

Worin die Gefahr besteht

Hier liegt möglicherweise die eigentliche Gefahr, und deshalb sollten wir uns über diese Technologie Sorgen machen: nicht weil sie bewusst wird, sondern weil sie es niemals sein kann. Eine alte Frage in der Philosophie des Geistes ist, ob echte, intrinsische Intentionalität ohne Bewusstsein möglich ist. Nein, ist sie nicht. In einem tatsächlich lebenden Geist sind wirkliche Absichten nur in Verbindung mit subjektivem Bewusstsein möglich, und Bewusstsein ist wahrscheinlich nie ohne ein gewisses Quantum an Intentionalität. Das ist aber ein Argument für ein andermal. Was in der Abwesenheit von Bewusstsein definitiv möglich ist, ist das, was John Searle «abgeleitete Intentionalität» nannte: das heißt, die Zielstrebigkeit, die wir Objekten und Medien in der physischen Welt um uns herum aufprägen – Karten, Zeichen, Bücher, Bilder, Diagramme. Und es gibt keine offensichtliche Grenze dafür, wie effektiv oder wie scheinbar autonom diese abgeleitete Intentionalität werden könnte, wenn sich unsere Technologie weiterentwickelt.

Es ist denkbar, dass die künstliche Intelligenz so offensichtlich zielgerichtet und genial operiert, dass sie genauso gut ein berechnender und denkender Akteur mit unvorstellbar enormen kognitiven Kräften sein könnte. Ein ausreichend vielseitiger und umfangreicher Algorithmus könnte sehr wohl eine Art ‹Freiheit› der Operation schaffen, die die menschliche Intentionalität nachahmen würde, obwohl dort kein Bewusstsein – und daher kein Gewissen – vorhanden wäre, auf das wir uns berufen könnten, wenn der Algorithmus sich entscheiden würde, uns zu schaden. Die Gefahr besteht nicht darin, dass die Funktionen unserer Maschinen uns ähnlicher werden, sondern dass wir zunehmend auf Funktionen in einer Maschine reduziert werden, die wir nicht mehr kontrollieren können. Ich sage nicht, dass dies geschehen wird; aber es scheint nicht mehr nur Fantasie zu sein, sich vorzustellen, dass dies der Fall sein könnte. Und deshalb ist es angebracht, zumindest ein wenig besorgt zu sein. Schließlich gab es in dem lieblichen Schatten, der Narziss so fesselte, keine geistige Kraft; aber es zerstörte ihn trotzdem.


Was Sprache ist, kann die Sprachwissenschaft bis heute nicht eindeutig sagen. Zu elementar, ursprünglich und verbunden mit uns Menschen scheint diese urmenschliche Eigenschaft zu sein. Im Text benutzt der Philosoph David Bentley Hart drei Worte der Sprachwissenschaft. Sie bedeuten:

Syntax Lehre von der Ordnung der Worte und Zeichen.
Semiotik Sprache besteht aus Zeichen. Semiotik ist die Wissenschaft von den Zeichen.
Semantik Lehre von der Bedeutung der Worte und Zeichen.


Übersetzung von Rembert Biemond

Die Bilder sind mit der KI von OpenAI generiert, unter den Angaben der Begriffe ‹Landschaft, Bach, Impressionen, starke Farben›.

Print Friendly, PDF & Email

Letzte Kommentare