KI ist blind
Und die physische Welt wird das schneller offenlegen, als wir denken.
Künstliche Intelligenz befindet sich in einer Phase nahezu grenzenloser Skalierung. Mehr Rechenleistung, mehr Daten, größere Modelle, und das Limit ist noch lange nicht erreicht. In absehbarer Zeit werden wir Systeme sehen, die das menschliche Gehirn in seiner schieren Größe nachbilden mit 80+ Milliarden Neuronen, gespiegelt in Silizium.
Und doch fehlt etwas Grundlegend anderes. Sprache wird verarbeitet, ohne Bedeutung zu verstehen. Intelligenz wird simuliert, ohne Bewusstsein zu erleben. Ergebnisse werden optimiert, ohne Realität zu begreifen. Was fehlt, ist nicht Leistung. Es ist Zugang. Wir verstehen das Leben nicht.
Der eigentliche Engpass der heutigen KI ist deshalb nicht Ambition, nicht Talent und, zumindest kurzfristig, nicht einmal Rechenleistung. Es ist die Wahrnehmung. KI-Systeme operieren auf Abstraktionen. Tokens, Vektoren, Wahrscheinlichkeiten. Sie werden auf Repräsentationen der Welt trainiert, komprimiert, gefiltert, gemittelt. Sie erkennen Muster, aber nicht ‘Wirklichkeit’. Sie extrapolieren, ohne je zu erfahren, bzw. Eigenerfahrung zu erleben (dies zumindest meine aktuelle Überzeugung).
Doch das Leben ist keine Abstraktion. Leben ist ein Signal. Ein biologisches, physisches, dynamisches Geschehen, das sich nicht vollständig in Datenpunkte zerlegen lässt. Es ist verkörpert, situativ, flüchtig, und in genau dieser Flüchtigkeit liegt seine Komplexität. Wir können dieses Signal bislang nicht messen. Nicht präzise, nicht in Echtzeit und schon gar nicht im Maßstab. Das ist der blinde Fleck.
Intelligenz skalieren vs. Realität erfassen
In den führenden Laboren der Welt wächst dennoch die Überzeugung, dass wir uns auf direktem Weg zur Allgemeinen Künstlichen Intelligenz befinden. Einige der klügsten Köpfe unserer Zeit gehen davon aus, dass wir nur noch wenige Jahre entfernt sind. Aber was beudetet hier “Allgemein”?
Ich habe eine Sichtweise auf “AGI” in der Definition die Demis Hassabis bei Google etwa definiert als ein System, das das gesamte Spektrum menschlicher kognitiver Fähigkeiten abbildet. Und vieles spricht dafür, dass dieser Weg weiter beschritten wird. Skalierung funktioniert. Rechenleistung wächst. Neue algorithmische Ideen entstehen.
Doch genau hier beginnt die eigentliche Frage. Kann ein System seine Fähigkeit, Repräsentationen der Welt zu verarbeiten, immer weiter steigern, ohne jemals Zugang zu der Realität zu erhalten, auf die diese Repräsentationen verweisen? Kann es immer besser werden in dem, was es tut, ohne je zu verstehen, was es eigentlich ist, das es da verarbeitet?
KI kann und wird zunehmend intelligenter erscheinen, und dabei dennoch fundamental blind bleiben. Diese Blindheit bleibt solange abstrakt, wie wir uns in Benchmarks bewegen. Sie wird konkret in dem Moment, in dem wir die reale Welt betreten.
Die Illusion des Humanoiden
Die zugrunde liegende Annahme ist einfach. Sobald Intelligenz ein bestimmtes Niveau erreicht hat, lässt sie sich in einen Körper übertragen. Ein Roboter wird dann sehen, verstehen, handeln, so wie wir. Doch diese Vorstellung unterschätzt, was die reale Welt ist. Dort beginnt die Illusion des Humanoiden. Legen wir hier die Simulation zur Seite, dann ist die Reale Welt kein Datensatz. Sie ist nicht statisch. Sie ist nicht sauber. Und sie ist nicht wiederholbar. Sie ist ein kontinuierlicher Strom aus Ereignissen, Zuständen und Wechselwirkungen. Ein Geflecht aus Unsicherheit, Rauschen, physischer Instabilität und sozialer Komplexität.
Ein humanoider Roboter löst in diesem Kontext keine klar definierten Aufgaben. Er existiert in einem offenen System, in dem sich Bedingungen permanent verändern. Das Problem ist deshalb kein reines Skalierungsproblem. Es ist ein Kontinuitätsproblem.
Von Intelligenz zu kontinuierlichem Lernen und die energetische Realität
Damit verschiebt sich auch der Kern dessen, was wir unter Intelligenz verstehen. Die vielleicht größte ungelöste Herausforderung der KI liegt nicht im Denken, sondern im kontinuierlichen Lernen. Heutige Systeme werden trainiert, deployt und in Intervallen aktualisiert. Doch sie lernen nicht wirklich im Fluss der Zeit. Sie integrieren keine neuen Erfahrungen nahtlos, sie aktualisieren ihre Weltmodelle nicht kontinuierlich, und sie bewahren keine stabile Kohärenz über längere Zeiträume hinweg.
Das menschliche Gehirn hingegen tut genau das, scheinbar mühelos. Es lernt nicht in Versionen. Es lernt im Leben. Ein wirklich intelligentes System wäre daher nicht eines, das in isolierten Aufgaben exzellent performt. Es wäre eines, das sich kontinuierlich anpasst. Nimmt man diese Perspektive ernst, verändert sich die Architekturfrage grundlegend. Der Engpass ist dann nicht mehr primär Intelligenz im Sinne von Rechenleistung oder Modellgröße. Der Engpass verschiebt sich auf eine andere Ebene: Speicher, Bandbreite und Energie.
Ein humanoides System, das sich in der realen Welt bewegt, muss gleichzeitig sehen, hören, räumlich verstehen, motorisch reagieren, sozialen Kontext erfassen und Erfahrungen speichern. Und das alles in Echtzeit. Hier entsteht eine fundamentale Spannung. Verlagert man die Verarbeitung in die Cloud, entstehen Latenzen und Kommunikationsabhängigkeiten. Verlegt man sie vollständig auf das Gerät, stoßen Rechenleistung und Energie an ihre Grenzen. Und skaliert man das System auf viele Einheiten, wird die Kommunikation selbst zum limitierenden Faktor.
Die Konsequenz ist physikalisch, nicht theoretisch. Ein vollständig autonomer Humanoid, der kontinuierlich lernt und handelt, würde nach heutiger Architektur enorme Rechenleistung, Energie und Kühlung benötigen. Die Vorstellung einer Maschine, die (im übertragenen Sinne) ein Rechenzentrum, Atomkraftwerk und Kühleinheiten hinter sich herzieht, ist deshalb weniger absurd, als sie zunächst erscheint. Sie ist eine Zuspitzung dessen, was unsere aktuellen Ansätze implizieren.
Eine andere Art von Durchbruch
An diesem Punkt beginnt sich die Diskussion zu verschieben. Nicht weg von künstlicher Intelligenz, sondern tiefer hinein, zu der Frage nach ihrem Fundament. Neuere Arbeiten im Bereich des Quantencomputings deuten darauf hin, dass kleine Quantensysteme bestimmte Klassen klassischer Daten mit erheblich geringerem Speicheraufwand verarbeiten können. Es geht dabei nicht um Bewusstsein oder AGI, sondern um eine mögliche Effizienzverschiebung im Umgang mit komplexen, hochdimensionalen Daten.
Das ist kein unmittelbarer Durchbruch. Aber es ist ein Hinweis. Ein Hinweis darauf, dass die Zukunft der Intelligenz möglicherweise nicht allein durch das weitere Skalieren bestehender Modelle bestimmt wird, sondern durch eine Veränderung des zugrunde liegenden Rechen-Substrats. Damit ist nicht gesagt, dass humanoide Systeme kurzfristig Quantenprozessoren benötigen. Ebenso wenig, dass wir in absehbarer Zeit exotische Hardware in Maschinen integrieren. Aber es stellt eine unbequeme Frage: Was, wenn klassisches Skalieren nicht ausreicht, um kontinuierliche, verkörperte Intelligenz in der realen Welt zu ermöglichen?
Wenn das zutrifft, dann wird die nächste Welle nicht aus größeren Modellen hervorgehen. Sie wird aus einem tieferen Zugang zur Realität entstehen.
What’s Next? Von Software zu Infrastruktur
Wir werden humanoide Roboter bauen. Das ist nicht die Frage. Die Frage ist, ob sie tatsächlich autonome, kontinuierlich lernende Akteure in der realen Welt sein werden, oder ob sie Systeme bleiben, die auf Unterstützung angewiesen sind, verzögert reagieren und letztlich von der Realität entkoppelt bleiben. Systeme, die Intelligenz simulieren, aber sie nicht leben.
Ein Wandel zeichnet sich bereits ab. Wir gehen von Software zu Infrastruktur, von Simulation zu Messung, von Intelligenz zu Verständnis. Die Zukunft der Intelligenz entsteht nicht isoliert in Modellen. Sie entsteht an der Schnittstelle von Leben, Infrastruktur, Energie und Rechenarchitektur.
Vielleicht liegt der eigentliche Fehler darin, dass wir versuchen, Intelligenz als Objekt zu bauen. Ein Modell. Eine Architektur. Ein System. Dabei ist Intelligenz kein Zustand. Sie ist ein Prozess. Ein fortwährendes Zusammenspiel von Wahrnehmung, Erinnerung und Anpassung. Wenn wir das nicht verstehen, werden wir Maschinen erschaffen, die uns äußerlich ähneln. Aber nicht solche, die die Welt verstehen, in der wir leben.
Wenn du an der Schnittstelle von Leben, Infrastruktur, Intelligenz und Energie arbeitest, interessiert mich, woran du baust.
