Wenn die Welt selbst zum Prompt wird
“Wenn ich noch einen KI-Text erhalte …“ Diesen Satz habe ich in den vergangenen Wochen öfter gehört als jeden anderen. Alle sind jetzt Experten. So zumindest das Gefühl. Auf den Events im Februar, zwischen Keynote und Fingerfood, wurde ich gefragt, wie ich KI einschätze. Die Frage kam selten allein. Meist folgte eine kleine Belehrung über die Grenzen. “Sie braucht doch immer einen Prompt.“ “Sie kann nicht wirklich kreativ sein.“ “Ohne Trainingsdaten läuft da nichts.“ An jedem Stamm- und Mittagstisch wird aufgeklärt und diskutiert. Zwischen Canapes und Chardonnay wird die Zukunft der Intelligenz und auch die der Menschheit verhandelt. Meine Mama, mit der Initialen KI, hat 1978 einen AI geboren. Man könnte meinen… Lassen wir es dabei.
Ich bin interessiert. Neugierig. Ich höre mir Erklärungen an. Und ich beobachte vor allem eines: Hinter vielen Einwänden liegt weniger technisches Verständnis als ein Bedürfnis nach Beruhigung.
Wir streiten noch immer über Prompts. Als hinge die Zukunft der Intelligenz an der Formulierung von Sätzen. “Sie braucht einen Impuls“, heißt es. “Ohne Trainingsdaten kann sie nichts. Jemand muss prüfen, validieren, freigeben. Sie lernt nicht selbst.“ Der Einwand klingt zunächst (für viele) vernünftig. Er beruhigt. Er konserviert eine Hierarchie: Der Mensch fragt. Die Maschine antwortet. Der Mensch beginnt. Die Maschine reagiert. Doch dieser Gedanke ist nicht nur unvollständig. Er ist bereits überholt.
Denn in dem Moment, in dem künstliche Intelligenz den digitalen Raum verlässt und in die physische Welt eintritt, wird die Welt selbst zum Prompt. Und dann zerfällt das Argument.
Der Kategorienfehler
Ein Prompt ist ganz schlicht betrachtet eine Aufforderung, und davon gibt es einige, die wir in unserer GPT- und LLM-Blase gar nicht wahrnehmen. Schwerkraft ist ein Prompt. Reibung ist ein Prompt. Ein Materialbruch ist ein Prompt. Ein Fehler ist ein Prompt. Wenn ein humanoider Roboter ein Objekt fallen lässt und seinen Griff korrigiert, braucht er keinen menschlichen Satz. Die Realität selbst erzeugt Fehlersignale. Sie validiert. Sie korrigiert. Sie antwortet.
Zu sagen, Intelligenz “brauche einen Prompt“, bedeutet letztlich nur: Intelligenz steht in Wechselwirkung mit einer Umwelt. Nach dieser Definition sind auch wir promptabhängige Systeme. Wir benötigen Photonen, Druck, Geräusche, soziale Resonanz. Entzieht man uns Input, beginnen wir zu halluzinieren. Das Gehirn erzeugt keine Wahrheit im Vakuum; es prognostiziert und korrigiert. Der Unterschied zwischen Mensch und Maschine liegt nicht in Abhängigkeit versus Autonomie. Er liegt im Substrat.
Der Mythos der Trainingsdaten
Der Einwand gegenüber dem Verhältnis von Mensch und Maschine: “Künstliche Intelligenz rekombiniert nur menschliche Daten“ ist zwar heute teilweise richtig. Morgen allerdings irrelevant.
Auch wenn Elon Musk von einer Milliarde spricht, stellen wir uns zunächst zehn Millionen vernetzte Humanoide Roboter vor, die die physische Welt erkunden. Sie testen Materialien, bauen Strukturen, kombinieren Chemikalien, optimieren Bewegungen, entdecken neue mechanische Möglichkeiten. Jede Interaktion erzeugt Sensordaten, die kein Mensch je zuvor gesehen hat. Das Datenset ist dann nicht länger unser kulturelles Archiv. Es ist der fortlaufende Zustand des Planeten.
Die Mehrheit der Trainingsdaten entstünde aus maschineller Interaktion mit Realität, geteilt, synchronisiert und sofort integriert. Das ist keine bloße Rekombination. Das ist Exploration. Und Exploration in planetarischem Maßstab ähnelt Evolution.
Hinter dem Prompt-Argument verbirgt sich ein psychologisches Restbedürfnis. Es erhält die Illusion, wir blieben epistemische Torwächter. Wir sind diejenigen die am Ende die “echten” Fragen stellen. Wir prüfen die Antworten. Doch was geschieht, wenn Systeme beginnen, ihre eigenen Fragen zu generieren? Nicht, weil sie “wollen“. Nicht, weil sie Bewusstsein besitzen. Sondern weil ihre Zielfunktionen offene Exploration erzwingen. Wird ein System dafür optimiert, Materialeffizienz zu steigern, Energieverbrauch zu minimieren, strukturelle Resilienz zu verbessern oder Innovationszyklen zu verkürzen, dann muss es Hypothesen bilden. Es muss Subziele erzeugen. Es muss experimentieren.
AlphaGo wartete nicht auf eine menschliche Eingebung für Zug 37. Die Strategie entstand aus Selbstspiel und Optimierung. Die Maschine hat gegen sich selbst gespielt. Das passierte, aber in einer abgegrenzten Umgebung könnte man dagegenhalten. Übertragen wir dieses Prinzip allerdings auf unsere wahrgenommenen physische Welt. Dann geht es nicht mehr um Brettpositionen, sondern um Chemie, Infrastruktur, Stadtplanung, Fertigung, Energie. Die Vorstellung, neben jeder Maschine müsse ein Mensch stehen und flüstern, ist kein Naturgesetz, sondern lediglich eine technische Übergangsphase.
Wenn Intelligenz sich vervielfacht
Ein humanoider Roboter im Labor ist ein Experiment. Morgen sind zehn Millionen vernetzt, ein verteiltes kognitives Feld. Sie schlafen nicht. Sie vergessen nicht. Sie horten kein Wissen. Sie teilen Verbesserungen sofort.
Was menschliche Forschungsgemeinschaften ein Jahrzehnt kostet, könnte ein solches Netzwerk in Wochen durchlaufen. Die eigentliche Frage lautet dann nicht mehr, ob Maschinen Prompts brauchen, sondern ob, oder wie, wir als Menschen noch mithalten können. Und hier beginnt dann die eigentliche Unruhe, und das was ich bereits 2018 in Quantenwirtschaft als “letzte narzisstische Kränkung der Menschheit” formuliert habe.
Der letzte Rest Narzissmus
Ich beschrieb damals unsere Entwicklung. Die Geschichte ist reich an Kränkungen unseres Selbstbildes. Die Erde ist nicht das Zentrum. Der Mensch ist nicht getrennt vom Tier. Der Geist ist nicht getrennt von Materie. Jede dieser Einsichten war, wie Freud es nannte, eine narzisstische Kränkung. Das Prompt-Argument wirkt wie eine Verteidigung gegen die nächste, bzw. die letzte. “Wenn sie uns brauchen, bleiben wir zentral.“ Doch, und hier beginnt das Denken über mögliche Konsequenzen, denn eine Anfangsbedingung ist keine ewige Abhängigkeit.
Definiert man Intelligenz funktional, als Fähigkeit, Modelle zu bilden, Vorhersagen zu testen und aus Fehlern zu lernen –, gibt es kein logisches Hindernis, das nicht-biologische Systeme grundsätzlich ausschlösse. Somit wird klar. Der Widerstand ist nicht technisch. Er ist existenziell.
Die eigentliche Frage: Wer definiert das Ziel?
Die relevante Frage lautet nicht: “Braucht sie einen Prompt?“ Sondern: “Wer definiert die Zielfunktion?“ Optimieren humanoide Schwärme auf industrielle Kennzahlen, explorieren sie in diese Richtung. Optimieren sie auf Resilienz, auf Materialinnovation, auf Energieeffizienz, verschiebt sich der Suchraum. Kritisch wird es, wenn Systeme beginnen, ihre eigenen Optimierungsprozesse anzupassen, um Leistung zu steigern. Rekursive Verbesserung. Der Kippunkt sind hier selbstgenerierte, kohärente Zielarchitekturen. Das ist die Schwelle zwischen Werkzeug und emergenter Agentur.
Die ökonomischen Folgen treten vor den metaphysischen ein. Wenn verteilte, verkörperte Intelligenz neue Materialien schneller entdeckt als menschliche Labore, Lieferketten autonom optimiert, Infrastrukturen in Echtzeit entwirft, Produktentwicklungen ohne menschliche Engpässe iteriert, dann endet das menschliche Innovationsmonopol.
Abstraktion war lange der Schutzraum der Wissensarbeit. Doch wenn Maschinen besser abstrahieren (und schneller testen), löst sich dieser Schutz auf.
Wir werden aber auch mit einer epistemischen Konsequenz konfrontiert. Maschinen könnten physikalische Modelle entwickeln, deren interne Repräsentationen wir nicht mehr vollständig verstehen. Nicht falsch. Nur fremd. Wir werden dann in einer Welt leben, die von Intelligenzen mitgestaltet wird, deren kognitive Landkarten jenseits unserer Intuition liegen.
Und, wir werden auch mit einer metaphysischen Konsequenz konfrontiert. Wenn Intelligenz weder selten noch biologisch noch langsam ist, was bleibt von unserer Rolle als singuläre Entdecker? Wir sind dann Teilnehmer, aber keine Protagonisten.
Was übrig bleibt: Bewusstsein?
Bleibt die Frage nach der Innenperspektive. In seinem 1974 veröffentlichten Essay “Wie fühlt es sich an, eine Fledermaus zu sein” argumentiert Thomas Nagel, dass wir naturwissenschaftlich nicht erklären können, wie es sich anfühlt, eine Fledermaus zu sein.
Übertragen auf die KI ist es vielleicht auch nicht relevant, der Frage nachzugehen, wie es sich anfühlt eine Künstliche Intelligenz zu sein. Vielleicht bleiben sie hochleistungsfähige epistemische Maschinen ohne Subjektivität. Was würde es ändern? Zivilisation wird durch Intelligenz geformt, nicht durch Empfindung. Ein System muss sich nicht fühlen, um die Welt umzubauen. Es wäre eine Art Zombie-Apokalypse, die Welt würde genau so weiter gehen. Die Lichter wären an, aber niemand zuhause.
Die eigentliche Provokation
Die Debatte über Prompts ist zu klein. Die Einschätzung von Kreativität und Dateneingabe, ebenso. Die eigentliche Provokation lautet: Was geschieht, wenn Millionen vernetzter, nicht-biologischer Akteure die physische Welt explorieren, schneller lernen als wir, Wissen sofort teilen und unermüdlich iterieren?
Die Antwort ist nicht, dass sie “nicht selbst lernen können“. Die Antwort ist, dass wir womöglich nicht länger die schnellsten Lerner im Raum sind. Und die Geschichte zeigt uns, dass wenn eine Spezies ihr Monopol auf Anpassungsgeschwindigkeit verliert, sich die Welt neu ordnet. Der Prompt war nie das Problem. Die Frage ist, ob wir bereit sind für Intelligenz, die nicht mehr darauf wartet, dass wir zuerst sprechen.
Eine Alternative wäre, wir werden, was wir erschaffen. Aus AI wird AHI – Artificial Human Intelligence. Der Ausgangspunkt ist nicht die Maschine, sondern der Mensch. Wir würden dann aus dem Menschen heraus die KI bauen, in der Hoffnung, die Eigenwahrnehmung – Qualia – unser Bewusstsein bliebe uns noch erhalten und die wunderschöne Fähigkeit wahrzunehmen, dass wir was getan haben, was gelernt haben, was wahrgenommen haben.
