Sind wir am Beginn eines goldenen Zeitalters, in dem sich die Versprechen der Aufklärung einlösen, die Überwindung menschlicher Mühsal und die Verwirklichung neuer Freiheitsgrade, oder erleben wir den Anfang vom Ende, eine schleichende Verdrängung von uns Menschen, unserer eigenen Kultur? So fragte die Moderatorin Simone Miller die beiden Denker Markus Gabriel und Daniel Kehlmann am internationalen Philosophiefest phil.cologne in Köln.
Die einfache Antwort von Gabriel: «Das liegt komplett in unserer Hand.» Es hänge davon ab, welche Systeme der künstlichen Intelligenz (KI) wir bauen und insbesondere wer sie baue. Denn, so der Philosoph, KI sei anders als andere Techniken nicht wertneutral. Neuronale Netzwerke sammeln Daten bzw. menschliches Verhalten, das sich in den Daten ausdrückt, sie bilden Muster aus diesen Daten und verstärken diese Muster. Deshalb hängt es von den Daten ab, was herauskommt, und von der Art, wie sich die Muster bilden. Während häufig davon die Rede ist, dass Technik das menschliche Verhalten ändert, drehte Gabriel die Betrachtung bezüglich der künstlichen Intelligenz um: Es sei das menschliche Verhalten, das zu Daten geronnen die künstliche Intelligenz präge. Einen weiteren Gedanken wendet er: KI arbeite nicht (nur) für uns, sondern mit jeder Abfrage liefere man Daten und arbeite so für diese neuronalen Netzwerke. Die Antworten, die KI liefert, das Produkt, das man damit erwirbt, entsteht erst durch die Fragen.
Diese Widersprüchlichkeit griff Daniel Kehlmann auf und betonte, dass weder diejenigen, die künstliche Intelligenz nutzen, noch diejenigen, die sie entwickeln, genau wissen, warum und wie sie möglich ist. Wichtig sei, dass die Entwickler und Entwicklerinnen festgestellt hätten, dass es weniger darum geht, die Algorithmen, mit denen die Wahrscheinlichkeiten berechnet werden, zu verbessern, als vielmehr die Datenmenge und die Geschwindigkeit ihrer Verarbeitung zu erhöhen. «Dann verbessern sich die Resultate nicht allmählich, sondern exponentiell. Warum das so ist, weiß keiner so genau.» Dann fasste er es in ein einfaches Bild: Wir haben die Datenmenge des Internets in den letzten 40 Jahren geschaffen, und die künstliche Intelligenz ermöglicht, dass dieses gesamte Datenfeld uns auf unsere Fragen antwortet.
KI macht uns Menschen intelligenter
Dann wollte die Moderatorin erneut wissen, was denn KI eigentlich sei. Gabriel: Man baut Systeme, die Verhalten ausführen, das als intelligent zu gelten hat, wenn es von einem Menschen oder einem anderen lebenden Wesen ausgeführt wird. Es seien «Simulationen intelligenten Verhaltens». Dabei definierte er Intelligenz als die Fähigkeit, ein gegebenes Problem in einem endlichen Zeitraum zu lösen. Wenn man deshalb mithilfe einer künstlichen Intelligenz ein Problem schneller lösen könne, so wachse damit die eigene Intelligenz. Wieder ein Perspektivwechsel: Nicht die Intelligenz der KI sei interessant, sondern vielmehr der Zuwachs der menschlichen Intelligenz, indem sie KI nutze. Zurück zur KI fragte Gabriel dann, ob die Simulation von intelligentem Verhalten selbst intelligentes Verhalten sei. Es gibt viele Beispiele, dass eine Simulation nicht dem Original entspricht. Wer mit dem Finger auf einer Landkarte oder auf Google-Maps ans Mittelmeer fährt, erholt sich nicht. Die Simulation der Fahrt bleibt etwas völlig anderes als die tatsächliche Fahrt. Gilt das auch für KI? Gabriel vermutet, dass die Simulation gedanklichen Verhaltens hier anders ist: «Die Dinger denken.» Daniel Kehlmann beschrieb ein Experiment, bei dem ein KI-Modell in kornischer Sprache sprechen sollte. Diese dem Bretonischen und Walisischen verwandte Sprache sprechen nur wenige Hundert Menschen in Cornwall. Es gibt deshalb kaum kornische Texte im Internet, sondern nur ein Wörterbuch. Gleichwohl gelang es dem KI-Modell, sich in Kornisch auszudrücken. Diese erstaunliche Fähigkeit, so Kehlmann, zeige, dass man KI nicht allein aus der Datengrundlage ableiten könne.
KI hat keine Probleme
Doch wie steht es um die künstliche Intelligenz, gemessen an einem anspruchsvolleren Intelligenzbegriff, der zum Beispiel die Anpassung an eine Umgebung, das Vermögen, Überlebenstechniken zu entwickeln, einschließt, fragte die Moderatorin. Das sei, so Gabriel, die «alte Linie der KI-Philosophie», und er zitierte John Haugeland mit: «Computers don’t give a damn.» KI-Systemen sei alles egal. Intelligenz finde sich überall im Leben und wachse dann graduell, vom Einzeller über den Schleimpilz. All diesen Intelligenzformen sei der Überlebensdrang gemein. Wenn, so fragte er, Intelligenz die Fähigkeit sei, ein Problem zu lösen, kann man dann intelligent sein, wenn man kein Problem haben kann? Diesem Standpunkt wollte Gabriel jedoch nicht mehr folgen und fragte, ob nicht die Verarbeitung von Gedanken selbst Denken sei. Dann: Können Gedanken sich selbst denken, fragten Kehlmann und Gabriel und stellten den Positionen, nur Lebewesen könnten denken und es gäbe ein Denken an sich, die Philosophen Gottlob Frege (1848–1925) und Georg W. Hegel (1770–1831) gegenüber. Beantworten wollten beide die Frage nicht – es sehe, so Gabriel, aber gerade gut für Hegel aus. Wenn Denken tatsächlich eine Verarbeitung von Gedanken unabhängig von «lebendig verkörperten Wesen» sei, dann werde künstliche Intelligenz gefährlich. Ohne Leib, ohne sinnliche Erfahrung, könne doch bei aller verblüffenden Datenverarbeitung kein Bewusstsein entstehen, warf die Moderatorin Simone Miller ein. Daniel Kehlmann verwies auf das Unternehmen Google, das Roboter einsetzen würde, um Erfahrungen von Körperlichkeit zu erzeugen, um dann, nicht anders wie bei den Daten, diese Erfahrungen durch Simulation zu skalieren. Kehlmann fragte, ob es nicht möglich sei, dass man «das verkörperte In-der-Welt-Sein, das untrennbar zu unserer Vorstellung von Bewusstsein gehört, auch «technischen Wesenheiten beibringen kann».
Das Gespräch von Kehlmann und Gabriel ging weiter. Was blieb, waren Fragen, die offener, unbestimmter waren als vor der Präsenz dieser neuen Technik. Vielleicht führt das zur Antwort: KI ruft auf, unser Denken zu bestimmen, uns selbst zu bestimmen und die Leibfreiheit des Denkens zu befragen. Vielleicht gewinnt leibfreies Denken maschinell-untersinnlich seinen Platz, wenn es sich in uns Menschen ebenfalls ereignet. In diese Richtung fragten auch Kehlmann und Gabriel, als sie dann KI-Bewusstsein abstritten und auch hier kein endgültiges Urteil fällen wollten. Was für ein sokratischer Moment – etwas, das KI gänzlich fremd ist –, in dem Moment des Nicht-Wissens innezuhalten.
Bild Internationales Philosophiefest phil.cologne auf Youtube: ‹Mein Algorithmus und Ich› – Markus Gabriel und Daniel Kehlmann über den Menschen im Zeitalter der KI.








