Wer bestimmt die Zukunft der künstlichen Intelligenz?

Die Zeitschrift ‹Science› warnt: Die US-Regierung spreche von «Deregulierung» der KI, verschiebe aber staatliche Macht in weniger transparente Formen, statt sie abzubauen.


Ausgangspunkt war Trumps Ankündigung einer One-Rule-Verordnung. Sie soll verhindern, dass einzelne Bundesstaaten eigene KI-Gesetze erlassen. Laut Trump drohe ein «Tod im Keim», wenn Firmen sich durch 50 unterschiedliche Rechtsrahmen kämpfen müssten. Die Botschaft: weniger Bürokratie, mehr Innovation.

Eine unsichtbare Hand

Die Analyse in ‹Science› zeichnet ein gegenteiliges Bild: Governance verschwinde nicht, nur weil formale Regeln gestrichen werden. Macht werde über andere Kanäle ausgeübt – oft früher, leiser und wirksamer. Dazu zählen Eigentumsbeteiligungen, Subventionen, Handelsrestriktionen, Visa-Regelungen, Forschungsförderung oder die Umlenkung administrativer Prioritäten. Das Resultat: Hyperregulierung durch andere Mittel.

Regulierung wird traditionell mit Behörden, öffentlichen Anhörungen und schriftlichen Regeln verbunden. Das ist sichtbar, nachvollziehbar und diskutierbar. Doch Steuerung kann viel früher und diskreter einsetzen – über Erwartungen, politische Signale, Institutionen, Finanzströme und strategische Entscheidungen. Die Trump-Regierung setzt dabei stark auf exekutive Ermessensentscheidungen statt auf öffentliche Verfahren.

Neue Instrumente der Kontrolle

Besonders auffällig ist der Einsatz staatlicher Beteiligungen. 2025 erwarb das Handelsministerium knapp zehn Prozent des Chip-Konzerns Intel. Weitere Milliarden flossen in Unternehmen der Chip-, Rohstoff- und Energiebranche. Mit solchen Beteiligungen verschafft sich der Staat direkten Einfluss auf Standort-, Technologie- und Lieferkettenentscheidungen – teils sogar mit Vetorechten. Das ist Regulierung, aber ohne Verfahren, ohne Konsultation, ohne gerichtliche Kontrolle.

Bemerkenswert für eine konservative US-Regierung ist der aggressive Eingriff in die Zuständigkeit der Bundesstaaten. Die One-Rule-Strategie verhindert regionale Experimente und entzieht der lokalen Öffentlichkeit Mitbestimmung. Ein Flickenteppich von Regeln kann hinderlich sein – doch die Lösung erfolgt nicht parlamentarisch, sondern exekutiv, mit Machtkonzentration und geringerer demokratischer Rechenschaft.

Zwei weitere Hebel entscheiden über die Zukunft der KI, ohne als Regulierung zu gelten: Visa bestimmen, wer in Laboren und Start-ups arbeiten darf. Forschungsförderung legt fest, welche Fragen überhaupt gestellt werden dürfen. Forschung zu sozialen oder ökologischen Folgen wird gekürzt, während technische Entwicklung priorisiert wird.

Hinzu kommt eine internationale Dimension: Die USA versuchen weltweit, die Vorstellung zu etablieren, staatliche Aufsicht sei ein Innovationshemmnis. Damit werde nicht Deregulierung exportiert, sondern ein Rahmen, in dem Wettbewerbsfähigkeit Vorrang vor Rechenschaft und Gemeinwohl hat.

Drei Wege zur KI-Ordnung

Die ‹Science›-Analyse weist zudem auf eine industriepolitische Konstante hin: Staaten betreiben immer Industriepolitik. Entscheidend ist, ob sie dies transparent und deliberativ tun – oder diskret und exekutiv. Frühe Weichenstellungen sind kaum reversibel. Entscheidungen über Standards, Forschung und Infrastruktur erzeugen Pfadabhängigkeiten, die spätere Korrekturen erschweren. Europa verfolgt einen anderen Ansatz: Statt exekutiver Machtausübung setzt die EU auf Recht, Verfahren und Aufsicht. Ihre Instrumente sind der AI Act, der Digital Services Act und der Digital Markets Act. Während die USA Standards über Märkte und Machtmittel setzen, reguliert Europa durch Gesetzgebung und Institutionen.1 China wiederum operiert mit einem staatskapitalistischen Modell, das durch Implementierungsgeschwindigkeit und Zentralisierung wirkt – eine dritte Form der Machtbildung in der KI.2

Ein geopolitisches Dreieck entsteht: Die USA ordnen KI primär durch Kapital – verstanden als unternehmerische Intelligenz und Initiative, die Freiheitsräume benötigt. Europa ordnet KI über Recht – als egalisierende Macht, die auf Verfahren und Gleichbehandlung setzt. China integriert KI tief in Industrie, Logistik und Dienstleistungen – als Sphäre der Wertschöpfung, die auf Effizienz, Skalierung und materielle Umsetzung zielt. Drei Sphären stehen einander gegenüber: Kapital, Recht und Wertschöpfung – jede mit eigener Vorstellung von KI und wofür sie dient.

Wer schreibt die Spielregeln?

Jedes der drei Systeme erfasst einen wichtigen Aspekt, aber nur einen: Die USA verstehen die Rolle des Kapitals, China die der Wertschöpfung, Europa die des Rechts. Kapital allein schafft Geschwindigkeit, aber keine Legitimation. Wertschöpfung erzeugt Effizienz, aber keine Freiheit. Recht stiftet Ordnung, aber keine Skalierung. Deshalb besitzt das europäische Modell eine Besonderheit: Es kann Kapital und Wertschöpfung verfassungsmäßig vermitteln – ohne eines der beiden Prinzipien zu verabsolutieren.

Doch die Frage bleibt offen: Wird die künftige KI-Ordnung vom Kapital, vom Recht oder von der Wertschöpfung geprägt? Oder entscheidet sich nicht, ‹welches› dieser Systeme dominiert, sondern ‹wie› sie verfassungsmäßig zueinander in Beziehung gesetzt werden? Und besitzt Europa tatsächlich die Fähigkeit, widersprüchliche Logiken zu vermitteln – oder werden die Spielregeln längst andernorts geschrieben?


Foto Taylor Vick, Unsplash

Fußnoten

  1. Die EU verfolgt einen verwaltungs- und wettbewerbsrechtlichen Ansatz, der seit den 1990er-Jahren im Binnenmarkt etabliert ist. Technologische Innovation wird nicht durch staatliche Kapitalallokation gesteuert, sondern durch Regulierungsarchitekturen. Der AI Act setzt auf Grundrechte, Risikoklassen und Aufsicht – und richtet sich vor allem an Marktakteure und Plattformen.
  2. China integriert KI vor allem in Industriepolitik, Logistik, Infrastruktur, Gesundheitswesen und Energiesysteme. Regulierung erfolgt durch Implementierungsgeschwindigkeit, staatliche Priorisierung und zentrale Koordination; Legitimation entsteht über Leistungsfähigkeit und Effizienz, weniger über Recht oder Öffentlichkeit.

Letzte Kommentare