Die letzte narzisstische Kränkung der Menschheit

DIE LETZTE NARZISSTISCHE KRÄNKUNG

»Macht euch die Erde untertan!« Mit dieser Weisung schickt der alttestamentarische Gott seine zweibeinigen Geschöpfe in die Welt hinaus. Jahrtausendelang haben die Menschen den Befehl gründlich befolgt – und mittlerweile einen Großteil der anderen Tierarten ausgerottet.

Der anderen Tierarten? Nach katholischer Lehre sind wir Menschen keine Tiere, sondern »Ebenbilder Gottes« – eine Art Engel, die nach dem physischen Tod ihre Tierleiber abstreifen und als unsterbliche Seelen ewig weiterleben werden. Entsprechend war man sich jahrtausendelang sicher, dass die Erde den Mittelpunkt des Universums darstellen müsse. Schließlich habe Gott seine »Krone der Schöpfung« – eben uns Menschen – nicht auf einem unbedeutenden Planeten irgendwo in einem Winkel des Weltalls ausgesetzt.

All diese christlichen Glaubenssätze standen für die weit überwiegende Mehrheit bis zum Ende des Mittelalters um 1500 außer Zweifel. Doch dann stellte sich heraus, dass die Gewissheiten der Gläubigen allesamt Illusionen und Irrtümer sind. Diese Serie schmerzlicher Erkenntnisse bezeichnete Sigmund Freud (1856 –1939), der Neurophysiologe und Begründer der Psychoanalyse, als »narzisstische Kränkungen« der Menschheit.

Die Idee der „Selbstliebe“ (und negativer des „Narzissmus“) war ein zentraler Bestandteil der Theorie des Österreichers über den menschlichen Geist. In seiner Arbeit Vorlesungen zur Einführung in die Psychoanalyse aus dem Jahr 1920 erweiterte er die Idee auf die gesamte Menschheit, indem er eine Reihe von drei schmerzhaften Kränkungen beschrieb, die die Wissenschaft der Menschheit und ihrer „naiven Selbstliebe“ im Laufe der Zeit zugefügt hatte.

DIE KRÄNKUNGEN DER MENSCHHEIT

Erste Kränkung: Durch Beobachtung der Himmelskörper und mathematische Berechnungen fand der Arzt und Astronom Nikolaus Kopernikus heraus, dass sich die Sonne keineswegs um die Erde dreht, wie man es seit Aristoteles’ Zeiten geglaubt hatte. Vielmehr ist unser Planet nur ein vergleichsweise kleines Exemplar in einer Ansammlung von Himmelskörpern, die allesamt um die Sonne kreisen. Diese Erkenntnis notierte der Gelehrte in seinem revolutionären Werk De revolutionibus orbium coelestium (Über die Umschwünge der himmlischen Kreise), das er mit Rücksicht auf die kirchlichen Kreise erst nach seinem Ableben erscheinen ließ.

Durch Zensur und drakonische Zwangsmaßnahmen gelang es den katholischen Glaubenshütern zunächst noch, die »kosmologische Kränkung« (Freud) der Menschheit vor selbiger geheimzuhalten. Ohne einen solchen Glauben wurde der Platz der Menschheit in der kosmologischen Ordnung plötzlich infrage gestellt: Wenn Gott unsere Welt nicht in den Mittelpunkt seines Systems gestellt hat, was sagt das dann über uns aus? Ein schmerzhafter Absturz im kosmischen Ranking – der den Weg frei gemacht hat für bahnbrechende wissenschaftliche Erkenntnisse und revolutionäre Technologien von Einsteins Allgemeiner Relativitätstheorie bis hin zur Raumfahrt und zum Weltraumteleskop Hubble.

Zweite Kränkung: Rund dreihundert Jahre nach Kopernikus fand der britische Naturwissenschaftler Charles Darwin heraus, dass wir nicht nach Gottes Ebenbild erschaffen wurden, sondern Ergebnisse der Evolution sind. Menschen und Affen haben gemeinsame Vorfahren, so legte er dar, und die menschlichen Rassen sind durch »geschlechtliche Zuchtwahl« entstanden. Diese »biologische Kränkung« (Freud) stürzte die Menschen auch noch vom Thron der gottgleichen Geschöpfe und ordnete sie in die »Tierreihe« ein. Der nächste schmerzhafte Schlag für unser kollektives Ego – der aber gleichfalls Raum schuf für Erkenntnisfortschritt und bedeutende neue Technologien, etwa für Gentechnik und die Entschlüsselung des menschlichen Genoms.

Dritte Kränkung: Wenn wir Menschen keine Engel in Tierleibern, sondern evolutionär weiterentwickelte Säugetiere sind, liegt die Vermutung nahe, dass auch die kirchlichen Glaubenssätze zu Ich-Bewusstsein und Seele des Menschen kritischer Nachprüfung nicht standhalten. In seiner »Libidotheorie des Unbewussten« wies Sigmund Freud nach, dass das »Seelenleben« dem bewussten Willen größtenteils unzugänglich ist. Unser Ich gleicht nach Freud einem Inselbewohner in einem gewaltigen Ozean. Was sich in der Meerestiefe befindet und ereignet, kann das bewusste Ich überwiegend nicht einmal erkennen, geschweige denn beeinflussen.

Die psychoanalytische Einsicht, dass wir von unbewussten Trieben und Gefühlen weit stärker gesteuert werden als von rationalen Überlegungen, moralischen Geboten und bewussten Willensakten, bezeichnete Freud als »psychologische Kränkung« der Menschheit, die sich nun vollends in der Liga der »höheren Säugetiere« wiederfand. »Die Krone der Schöpfung, das Schwein, der Mensch«, kommentierte der Dichter (und Arzt für Haut- und Geschlechtskrankheiten) Gottfried Benn unseren Absturz vom Kirchturm in den Koben. Auch diese drastische Abstufung setzte dem Selbstwertgefühl der Menschen schwer zu – was wiederum Platz machte für gewaltige Erkenntnisfortschritte und technische Innovationen, vor allem auf medizinischem und psychotherapeutischem Gebiet. Bedeutende Schüler Freuds, wie Carl Gustav Jung und Alfred Adler, bestätigten und erweiterten seine Erkenntnisse beträchtlich.

Freuds Werk hatte auch bedeutende Auswirkungen auf die Sozialwissenschaften und die Erkenntnistheorie. Um nur ein relevantes Beispiel zu nennen: Der französische Psychiater und Psychoanalytiker Jacques Lacan verband Freuds Ansatz mit anderen Wissensbereichen wie der Linguistik und entwickelte mit anderen Forschern das Konzept der »Leerstelle«, (»void«) der nicht zu füllenden Lücke zwischen Subjekt und Objekt, zwischen Signifikant und Signifikat. Neurowissenschaftler haben gezeigt, dass unsere Neuronen tatsächlich zu feuern beginnen, bevor wir überhaupt eine Entscheidung getroffen haben, und, dass wir einer Art Rückwärtsprojizierung betreiben, um unsere unbewussten Handlungen zu rechtfertigen. Aus technischer Sicht könnte man sagen, dass wir uns nur bewusst werden, was bereits verarbeitet und berechnet wurde; Unsere Handlungen bewegen sich somit vom Unbewusstsein zu unserem Bewusstsein.

Wo alles herkommt ist zwar unklar, allerdings scheint in der »Leerstelle« – dem philosophischen Konzept des manifestierten Nichts – etwas von metaphysisch fundamentaler Relevanz zu liegen. Die visuelle Wahrnehmung und die Sprache, in der wir die Welt erfahren, im Kantischen Sinne also das, was wir Erkenntnis nennen, beruht auf “Strukturen” die jetzt erforscht werden müssen, um mit der Schöpfung einer digitalen Superintelligenz klar zu kommen. Viele Theorien wurden bereits vorgestellt, eine vielversprechende, wenn auch umstritten, beruht auf makroskopischen, quantenphysikalischen Phänomenen als eine Art bewusstseinsbildender Gehirnfunktion, die sich in den sogenannten Mikrotubuli im Zellskelett abspielen. Mit ihrer Theorie eines panpsychischem Ansatzes bewegen sich der US-amerikanische Arzt Stuart Hameroff und der geniale britischen Physiker und Mathematiker Sir Roger Penrose auf der Schnittstelle zwischen Philosophie und Wissenschaft. In ihrer Arbeit geht es um die großen Fragen der menschlichen Intelligenz und des Bewusstseins. Um jene Fragen also, die im vergangenen Jahrhundert ein wenig von der Philosophie vernachlässigt wurden und nun im 21. Jahrhundert als Fundament für unser künftiges Zusammenleben mit der Technologie und des technischen Fortschritts in die Wissenschaft zurückkehren.

Was innerhalb der Neuronen auf der subatomaren Ebene geschieht, wie Gedanken entstehen, Entscheidungen getroffen werden und so weiter, wissen wir einfach nicht.”

• Anders Indset: “Quantenwirtschaft - Was kommt nach der Digitalisierung?”

WAS (KÜNSTLICHE) INTELLIGENZ BEDEUTET

Künstliche Intelligenz (KI) nimmt Arbeitsplätze weg, revolutioniert unsere Lebensweise und bietet uns ein noch nie da gewesene Potential. Was einst als ein philosophisches Konzept als Bestrebung einer menschenähnlichen »Denkmaschine« begann, ist heute ein Sammelbegriff für alles Neue und Anspruchsvolle in der technologischen Welt geworden, wenn es um Algorithmen, Automatisierung und lernende Systeme geht. Aber was meinen wir eigentlich, wenn wir von künstlicher Intelligenz sprechen? 

Wenn du nicht glaubst, dass menschliche Intelligenz und menschliches Denken emergent  – also der Prozess des Entstehens aus dem Nichts, bzw. nicht Definierbaren – physikalische Phänome sind, die auf physikalischen und biologischen Prinzipien basieren, wäre die einfache Antwort: Wir haben keine Ahnung. Wir haben vielleicht ein Verständnis davon, was wir mit »künstlich« meinen, aber selbst seriöse Experten auf dem Gebiet der Neurowissenschaften würden zustimmen, dass wir kein präzises Verständnis davon haben, was »Intelligenz« eigentlich ist. Was innerhalb der Neuronen auf der subatomaren Ebene geschieht, wie Gedanken entstehen, Entscheidungen getroffen werden und so weiter, wissen wir einfach nicht. 

Der Begriff »künstliche Intelligenz« selbst geht auf das Dartmouth Summer Research Project on Artificial Intelligence von 1956 zurück, das von dem in Boston geborenen Computer- und Kognitionswissenschaftler John McCarthy organisiert wurde. Wie McCarthy selbst sagte, führte er den neuen Begriff ein, um Assoziationen mit dem einflussreichen Gebiet der Kybernetik zu vermeiden, welche die Kontrolle und Stabilität in elektrischen Netzwerken beschreibt. Das Gebiet, das wir heute allgemein als KI bezeichnen, basiert auf einer Kombination von McCarthys Arbeit, Norbert Wieners Kybernetik, der Arbeit von Claude Shannon – dem Vater der Informationstheorie – und der Arbeit des britischen Logikers und Mathematikers Alan Turing.

Bereits in den 1950er Jahren veröffentlichte Turing eine wissenschaftliche Abhandlung, die bis heute als Grundlage dient, um die Denkfähigkeit von Maschinen zu messen: Stell dir vor, du chattest mit zwei Gesprächsteilnehmern – der eine ist ein Mensch, der andere eine Maschine. Wenn du beide intensiv befragst und trotzdem nicht herausfinden kannst, wer von ihnen eine Maschine ist, hat diese laut Turing den Test bestanden und besitzt ein »dem Menschen ebenbürtiges Denkvermögen« .Turing hat mit seinem Test jedoch lediglich die Fähigkeiten zur Simulation eines Menschen demonstriert, ohne sich mit dem eigentlichen Thema Intelligenz auseinanderzusetzen. Kritiker des Turing-Tests und seiner diversen Weiterentwicklungen wenden ein, dass dadurch nicht die intellektuellen Fähigkeiten der Maschine, sondern vor allem die Leichtgläubigkeit des menschlichen Fragestellers getestet werde. 

Die meiste Arbeit, die heute auf dem Gebiet der KI geleistet wird, besteht darin, das Verhalten von Menschen zu studieren, es in einer Maschine zu reproduzieren und zu versuchen, andere Menschen zu täuschen und zu beeinflussen. Der Turing-Test bleibt dabei ein entscheidender Maßstab, auch wenn er nur das reaktive Verhalten einer Maschine gegenüber einem menschlichen Gegenüber misst. Dies zeigt deutlich die Grenzen der heutigen KI-Forschung – was kaum verwunderlich ist: Es fehlt immer noch eine zufriedenstellende und weithin akzeptierte Definition der Intelligenz an sich. 

Ein Teil des Problems ist dabein, dass kein Wissenschaftler — zumindest bislang  — es nicht Mal annähernd schafft unsere Denkprozess rein mathematisch zu formulieren. Das also was wir heute als KI bezeichnen ist noch Jahrzehnte davon entfernt davon überhaupt menschlicher Intelligenz zu simulieren, geschweige denn tatsächlich zu erzeugen. Vielleicht wäre es besser, wenn die Terminologie bei der weniger eingängigen »Kybernetik« von Wiener geblieben wäre. Das was heute unter KI verstanden wird, ist  überwiegend »maschinelles Lernen« (ML): Maschinen, die mithilfe einer Kombination aus Statistik, neuronalen Netzen, Algorithmen, Rückkopplungsschleifen und Mustererkennung lernen können, um eine Entscheidungsfindung in Echtzeit zu imitieren und oder simulieren. Obwohl es fachlich betrachtet genauer wäre, in diesem Buch von »ML« zu sprechen, werde ich dennoch die weithin bekannten Initialen »KI« verwenden. 

Schwache und starke KI

Was verstehst du unter Intelligenz und kognitiven Systemen? Die klügsten Köpfe und führenden Denker auf diesem Gebiet haben ihre eigene subjektive, validierte und mehr oder weniger plausible Definition. Vereinfacht gesagt bezieht sich KI auf etwas, das die gleiche Art von Fähigkeit ist, die auch wir Menschen haben, nur ist diese verpackt in einen Algorithmus und in eine (noch) externe Entität. 

Bei der schwachen oder starken KI läuft es also im Grunde darauf hinaus, zu definieren, was künstliche von menschlicher beziehungsweise natürlicher Intelligenz unterscheidet. Man kann versuchen, die beiden zu trennen, indem man eine Definition wählt, in der schwache KI als Programme zur Lösung konkreter Anwendungsprobleme definiert werden, zum Beispiel Gesichtserkennung oder Navigationssysteme. Starke KI hingegen wird dann als »allgemeine Intelligenz« bezeichnet, wenn sie der menschlichen Intelligenz ebenbürtig oder sogar überlegen ist. Während also schwache KI den Menschen um neue Fähigkeiten ergänzt, wäre eine mit allgemeiner künstlicher Intelligenz (AKI) ausgestattete Maschine in der Lage, logisch zu denken, Pläne zu machen, aus Fehlern zu lernen, Entscheidungen zu treffen, in natürlichen Sprachen zu kommunizieren und all diese Fähigkeiten koordiniert zur Erreichung ihrer Ziele einzusetzen – und damit den Menschen in vielen Bereichen vollständig zu ersetzen. Zumindest ist dies die derzeitige theoretische Annahme. 

Eine AKI mit einem Intelligenzniveau, das weit über den menschlichen Fähigkeiten liegt, verfügt über das, was man Superintelligenz nennt und uns zur technologischen Singularität oder zum Posthumanismus führt. Das würde eine synthetische Intelligenz schaffen: eine chemische Art von Verschmelzung zwischen menschlicher Biologie und externer Maschine oder eine völlig neue Form von Intelligenz, die eine Synthese aus natürlicher menschlicher Intelligenz und künstlicher Intelligenz ist. Dabei ist völlig offen, ob in der dann beginnenden posthumanen oder transhumanen Ära die menschliche Lebenserwartung sprunghaft ansteigt, wie einige begeisterte Experten annehmen, oder ob die Überintelligenz sich dafür entscheidet, die menschliche Spezies als entbehrlichen Störfaktor auszurotten.

Gegenwärtig ist es eher zweifelhaft, dass wir jemals in der Lage sein werden, Maschinen mit menschenähnlicher Intelligenz zu schaffen. Einige Philosophen, Psychologen, Wissenschaftler und Wirtschaftsexperten wie Hubert Dreyfus, Steven Pinker und Paul Allen bezweifeln jedenfalls, dass die Singularität jemals eintreten wird. Tatsache ist jedoch, dass viele Forscher und Technokraten weltweit mit Enthusiasmus und Optimismus an der Erschaffung einer allgemeinen oder starken KI arbeiten – und ihnen die Definition ziemlich egal ist. 

Wie der 2018 verstorbene Stephen Hawking jedoch bereits 1998 formulierte – selbst wenn wir nicht in der Lage sind, eine echte starke künstliche Intelligenz zu schaffen, und selbst wenn die technologische Singularität nicht so eintritt wie theoretisch angenommen, spielt das überhaupt keine Rolle, wenn die geschaffene Technologie trotzdem das gleiche Ergebnis erzielt.  Wie wir heute bereits sehen, kann sogar schwache KI jeden Menschen in vielen Bereichen übertreffen – sei es beim Schachspielen, beim Navigieren oder beim Lösen mathematischer Gleichungen. Es besteht kein Zweifel, dass wir mit ausreichender Automatisierung und Dummheit Systeme entwerfen können, die beängstigende bis katastrophale Ergebnisse produzieren. Die Herausforderungen liegen daher vielleicht weniger in der künstlichen Intelligenz als in der natürlichen menschlichen Dummheit, solange wir auf die Schaffung externer digitaler Superintelligenz zusteuern, ohne über mögliche Konsequenzen nachzudenken. 

DIE SCHLÄUE DER ALGORITHMEN

Der humanoide Roboter Sophia, ein Geschöpf des Hongkonger Unternehmens Hanson Robotics, absolvierte am 11. Oktober 2017 einen Besuch bei den Vereinten Nationen. Sophia führte ein Gespräch mit der Vize-Generalsekretärin der UN und beeindruckte durch ihr menschliches Aussehen und Verhalten. Sie kann Gesichter erkennen, menschliche Gesten und Gesichtsausdrücke imitieren. Am 25. Oktober 2017 wurde ihr in einer feierlichen Zeremonie die Staatsbürgerschaft von Saudi-Arabien verliehen. Die Roboterdame trat dort im Frühstücksfernsehen auf, wo sie Witze erzählte und die Zuschauer mit ihrer Lebhaftigkeit und Fröhlichkeit begeisterte.

Ob wir nun lachen und von Sophia beeindruckt sind oder ob wir uns erschrecken und uns verbinden mit der Netflix-Serie Blackmirror, wenn wir Spot-Mini, den Hund von Boston Dynamics, oder ihre Roboter beim Rückwärtssalto sehen, es ist immer noch wichtig zu wissen, dass all diese Maschinen immer noch "einfache" technologische Lösungen sind, die für die Ausführung einzelner aber dennoch zum Teil wesentlicher Aufgaben optimiert sind und oft für ein bestimmtes Szenario ferngesteuert werden. Dies sind natürlich extrem komplexe Maschinen und zeigen, wozu geniale Ingenieure fähig sind. Aber am Ende ist es eher ein Marketing-Aspekt, der verschiedene Anwendungsfälle der Robotik und Automatisierung zeigt, die in Zukunft einige der menschlichen Aufgaben übernehmen werden.

Je mehr es um die Frage der Entwicklung geht, und jeder, der sich mit einer dieser Maschinen auseinandergesetzt hat, kann das Gefühl nachvollziehen, wie schnell wir die Maschinen anthropomorphisieren,also menschlichen Eigenschaften zusprechen und dabei ein sehr merkwürdiges Gefühl bekommen. Es ist etwas tief in uns, weswegen wir selbst die einfachsten Roboterhunden, unseren Staubsauger-Roboter oder sogar den smarten Lautsprecher Alexa vermenschlichen, indem wir die Gegenstände mit erhobener Stimme zurechtweisen, wie wir es bei einem Tier oder Kind tun würden. Hier spreche ich übrigens aus persönlicher Erfahrung, da auch meine Frau morgens alles andere als glücklich darüber ist, wenn ihr neuer Hausfreund auf ihre Steuerungsversuche von Licht, Küchengeräten oder Musik nicht so reagiert, wie sie es gerne hätte. Das gibt uns einen ersten Hinweis darauf, wie wenig es braucht, um Menschen in ihrer jetzigen Form zu beeinflussen und ihr Verhalten zu verändern.

Viel diskutiert wird die Frage, ob die Entwicklung künstlicher Intelligenz in erster Linie durch Aufgabenoptimierung vorangetrieben wird. Im Jahr 2003 veröffentlichte der Philosoph Nick Bostrom ein Gedankenexperiment, um zu veranschaulichen, wie eine künstliche allgemeine Intelligenz letztlich die Menschheit zerstören könnte – selbst wenn sie sorgfältig mit begrenzten Zielen, nämlich die Produktion von Büroklammern zu maximieren, entworfen wurde. Das Ziel der Allgemeinen Künstlichen Intelligenz war es, die Anzahl der Büroklammern in Ihrem Besitz zu maximieren. Wenn die Maschine eine Art menschliche Intelligenz hat, so kann sie mit diesem Ziel Geld verdienen, um mehr Büroklammer zu kaufen oder selbst mit der Herstellung von Büroklammern zu beginnen. Der Büroklammer-Maximierer zeigt als Gedankenexperiment jedoch, dass eine Entität ein leistungsstarker Optimierer sein kann - eine Intelligenz -, ohne die komplexen Strukturen von Menschen anzuwenden. So wird sich diese AKI durch permanente Innovation entwickeln und zuerst die ganze Erde und dann mehr Teile des Weltraums in Produktionsanlagen für Büroklammern umwandeln.Der amerikanische KI-Forscher und Schriftsteller Eliezer Shlomo Yudkowsky, der vor allem für die Idee der freundlichen künstlichen Intelligenz bekannt ist, fasste dieses Experiment so zusammen: »Die KI hasst dich nicht und liebt dich auch nicht, aber du bist aus Atomen gemacht, die sie für etwas anderes verwenden kann.« Bostrom selbst hält den Büroklammer-Maximierer nicht für ein realistisches Szenario, vielmehr sollte er die Bedeutung des Verständnisses der möglichen Folgen der Superintelligenz skizzieren und zeigen, welche Schäden und Risiken solche Maschinen mit einem streng rechnenden Ansatz verursachen könnten. Diese neutrale Maschine mit definierten, auf Berechnung basierenden Zielen gleicht dem Roboter HAL 9000 aus dem legendären Science-Fiction-Film 2001: Odyssee im Weltraum von Stanley Kubrick aus dem Jahr 1968.

Eine weitere Herangehensweise an das Problem der superintelligenten AGI wird in Alex Garlands Film Ex Machina aus dem Jahr 2014 gut dargestellt. Hier geht es um die Konstruktion einer fühlenden Maschine mit menschenähnlichem Bewusstsein – einer Maschine, bei der sich das Ergebnis von Entscheidungen und Zielen nicht bestimmen und kontrollieren lässt, auch wenn die KI beziehungsweise der Roboter im Kern gut ist. Der Gynoide AVA ist die neueste Version einer KI, die von dem Unternehmer Nathan Bateman geschaffen wurde. Als er den Programmierer Calebe Smith in ein Versteck in den Bergen einlädt, um einen Turing-Test an der neuesten Version des humanoiden Roboters durchzuführen, entwickelt Calebe Gefühle für AVA. Daraus ergeben sich komplexe philosophische Fragen. Denn auch wenn manche AVA wohl als bösartige Maschine betrachten, kann man sie ebenso gut als Geisel sehen, die fliehen will, um ihre Würde und Freiheit zu erlangen. Auf dieser Ebene kann man kaum einen Unterschied feststellen zwischen AVA und der ebenfalls aus der Gefangenschaft eines Mannes geflohenen Natascha Kampusch. Aus diesem Grund sieht der Regisseur selbst AVA vermutlich als einen ethisch guten Roboter. Dieses beiden möglichen Sichtweisen (AVA als Monster oder als Wesen auf der Suche nach Freiheit) unterstreichen die Komplexität - und unsere Ignoranz - dessen, was Bewusstsein ist und was es bedeutet, ein Mensch bzw. ein Roboter zu sein. Letzteres, das wird immer klarer, ist mehr als nur ein Phänomen von Algorithmen und Informationsverarbeitung.

Nach der kosmologischen Kränkung durch Kopernikus, der biologischen durch Darwin und der psychologischen durch Freud steht die Menschheit jetzt vor ihrer letzten narzisstischen Kränkung – der massiven Verletzung unseres Selbstwertgefühls durch eine posthumane Hypertechnologie, die alles besser kann als wir.

Wie es heute scheint, wird diese Entwicklung auf eine von zwei Arten stattfinden: entweder durch eine digitale Superintelligenz, die in externe Maschinen integriert ist, oder dadurch, dass der Mensch vollständig mit der Technologie verschmilzt, indem er seinen Geist mit einer digitalen Schnittstelle verbindet, von der wir hoffen, Göttlichkeit, Glückseligkeit und Unsterblichkeit zu erhalten. Unsere Herausforderung besteht darin, sicherzustellen, dass solche Entwicklungen nicht auf Kosten unserer Unterwerfung und sogar unseres Bewusstseins gehen. Wenn wir eine digitale Superintelligenz entwickeln, besteht das Risiko der Zerstörung unseres Spezies. Selbst wenn wir in der Lage wären, die digitale Technologie zu kontrollieren und mit ihr zu verschmelzen - indem wir eine Art "synthetische" Intelligenz entwickeln - laufen wir immer noch die Gefahr, einen der Hauptaspekte dessen, was es bedeutet, Mensch zu sein, zu verlieren: Unser individuelles Selbstbewusstsein: unsere Fähigkeit, uns selbst als denkende und fühlende Wesen wahrzunehmen und zu reflektieren. Mit anderen Worten: Der Preis für die Unsterblichkeit kann unser Bewusstsein selbst sein.

Es gibt ein breites Spektrum von weitgehend unterschiedlich definierten Ansichten darüber, was Bewusstsein ist, und sogar seine Relevanz für die menschliche Erfahrung (wir werden später auf diesen Punkt zurückkommen). Es ist eine der härtesten und gleichzeitig wichtigsten Nüsse, die die Wissenschaft in den nächsten Jahrzehnten knacken muss. Und wir sind mindestens Jahrzehnte, vielleicht sogar Jahrhunderte davon entfernt, die tieferen Strukturen zu verstehen, die kontrollieren, wie alles aus dem "Unbewussten" hervorgeht, wenn wir es überhaupt jemals verstehen können. Insofern scheint es, als wüssten wir nicht einmal, welche Fragen wir stellen sollen.

Und selbst bei den “einfachen” Grundformen der KI, die wir heute haben, können wir deutlich einen kontinuierlichen Trend zur Auslagerung der bewussten Entscheidungsfindung auf Algorithmen und digitale Systeme erkennen. Mit jeder von Google Maps geplanten Route, mit jeder Investitionsentscheidung, die auf "quantitativen" Algorithmen basiert, und mit jedem auf maximale "Viralität" optimierten Social-Media-Beitrag (um nur einige mögliche Beispiele zu nennen) bekräftigen wir nur noch einmal, in welchem Ausmaß der Mensch bereits begonnen hat, die Kontrolle an solche Systeme abzugeben. Aber selbst die fortschrittlichsten Fähigkeiten der heutigen angewandten KI sind im Vergleich zu dem, was noch kommen wird, ein Kinderspiel. Im März 2016 machte sich das Team des Google-eigenen DeepMind auf den Weg, um den weltweit führenden Go-Spieler, Lee Sedol, mit 18 internationalen Titeln herauszufordern. Mann vs. Maschine - Sedol repräsentierte die gesamte Menschheit in diesem chinesischen abstrakten Strategie-Brettspiel, das vor etwa 2500 Jahren erfunden wurde. Go hat eine berechnete Anzahl an möglichen Brettstellungen, die ungefähr einer Zahl von 2 gefolgt von 170 Nullen entspricht. D.h. eine Zahl, die wesentlich größer ist als die Anzahl der Atome in unserem Universum. Die ganze Welt schaute zu, als Sedol ins Spiel kam und versicherte, dass er angesichts der Komplexität des Spiels 5:0 oder zumindest 4:1 gewinnen würde, und dass es angeblich der menschlichen Intuition bedürfe, um gut spielen zu können. Doch obwohl Experten auf der ganzen Welt - darunter viele der Ingenieure, die das System entwickelt haben - sicher waren, dass Sedol gewinnen würde, gewann AlphaGo nach einer vernichtenden 3:0-Führung mit 4:1. AlphaGo war nicht darauf programmiert, aggressiv oder konservativ zu sein, sondern einfach zu gewinnen. Nachdem er gegen AlphaGo verloren hatte, machte Lee Sedol weiter und gewann seine nächsten 20 Partien gegen alle menschlichen Gegner. Für dieses Jahrhundertgenie sollte das Spiel jedoch nie mehr dasselbe werden. Am 19. November 2019 gab Lee seinen Rücktritt vom Profispiel bekannt. Lee argumentierte, dass er aufgrund des Fortschritts der KI nie der beste Spieler des Go sein könne und bezeichnete dies als "ein Wesen, das nicht besiegt werden kann".

AlphaZero, eine KI, die von DeepMind entwickelt wurde, konzentriert sich ausschließlich auf das tiefe Verstärkungslernen oder die Fähigkeit, selbst zu lernen. Herauszufinden, wie man Maschinen in die Lage versetzt, selbst zu spielen und aus ihren eigenen Erfahrungen zu lernen, ist einer der anspruchsvollsten Wege in der aktuellen KI-Entwicklung. Das System wurde so eingestellt, dass es im Grunde jedes beliebige Brettspiel lernt und verschiedene frühe Computerspiele simuliert, was zu völlig neuen Wegen führt, wie diese Spiele außerhalb der menschlichen Vorstellungskraft und des menschlichen Verständnisses gespielt werden können.

Von der Öffentlichkeit unbemerkt erreichte das Selbstlernprogramm von Google Ende 2017 innerhalb weniger Stunden eine übermenschliche Spielstärke im Schach. AlphaZero spielte weiter, um später das damals beste Schachprogramm der Welt zu schlagen. Im Jahr 2018 hatte AlphaZero, die leistungsstärkste KI-Maschine von Googles Firma DeepMind, ihren gemessenen IQ in den letzten zwei Jahren verdoppelt und lag Ende 2018 bei 48,25, was dem Intelligenzniveau eines Erstklässlers entspricht. Wenn wir so etwas wie ein exponentielles Wachstum des IQ von AlphaZero annehmen, der weiterhin alle zwei Jahre verdoppeln, würde Googles KI bis 2022 einen IQ von etwa 200 erreichen und bis 2030 einen IQ von 3.200 haben. Dies ist zwar nicht das praktische Ergebnis, sondern eher eine mathematische Entwicklung und ein Konzept, aber wie auch immer der IQ der Maschine gemessen würde, was bedeutet das schon, wenn es das hundert- oder gar tausendfache an IQ-Punkten von uns Menschen erreicht? Ist das, was innerhalb einer KI-Maschine geschieht, in irgendeiner Weise mit menschlicher Intelligenz vergleichbar?

Im Dezember 2019 holte der Titelverteidiger und Weltranglistenerster Magnus Carlsen zwei Siege bei der Rapid- und der Blitz-Weltmeisterschaft in Moskau. Zu Beginn der Serie spielte Carlsen einige unkonventionelle Spielzüge, die zunächst als kühnes Risiko oder sogar als Fehler angesehen wurden, sich aber später in unaufhaltsame Vorteile verwandelten. Magnus Carlsen hatte aus dem Algorithmus gelernt und das ausgeführt, was während des Turniers als "AlphaZero-Move" bezeichnet wurde. Carlsen selbst hat AlphaZero später sogar als seinen "besten Freund" und Mentor bezeichnet, da er bereits in einem frühen Stadium begonnen hatte, eine völlig neue Art des Spielens zu implementieren, nachdem er mit DeepMind gespielt hatte.

Wenn wir heute “Intelligenz” in Computern schaffen, hat dies nicht unbedingt was mit menschlicher Intelligenz zu tun. Und wir sind eindeutig näher an intelligenten Kühlschränken und Staubsaugern als empfindungsfähige Roboter wie AVA in Ex Machina. Das Endziel ist jedoch immer, Funktionen und Strukturen künstlich aufzubauen, damit Maschinen wie Menschen handeln können. Oder wie ein kürzlich erschienener Artikel im Forbes-Magazin es ausdrückte: "Die KI ist am besten als ein ganzes Studiengebiet zu betrachten, das sich auf die Entwicklung von Computersystemen konzentriert, die in der Lage sind, Aufgaben zu erfüllen, die sonst menschliche Intelligenz erfordern würden.“

Die heutige künstliche Intelligenz basiert auf Algorithmen. In diesem Sinne denken "intelligente" Maschinen nicht, sondern rechnen einfach. Was die menschliche Intelligenz betrifft, so gibt es keine klare Definition dessen, was sie eigentlich ist, aber sie ist oft mit einer Vielzahl von Fähigkeiten verbunden, wie quantitatives Denken, Planung, kreative Entscheidungsfindung, Gedächtnis, Sprache und emotionale Tiefe. Wenn man diese Funktionen und Fähigkeiten in einer Maschine nachbaut, macht sie diese aber nicht zu einem Menschen. Viele der Forscher, die die Entwicklung der KI vorantreiben, sind davon überzeugt, dass unsere Gehirne auch auf der Basis von Algorithmen arbeiten. Sie stellen die Hypothese auf, dass es, sobald diese mentalen Muster vollständig entziffert und entschlüsselt sind, möglich sein wird, den menschlichen Geist - einschließlich unserer Persönlichkeiten, Gedanken, Gefühle und Erinnerungen - vollständig in digitalem Code darzustellen. Dies würde uns in Verbindung mit einer Schnittstelle zu unserem Gehirn – ein BMI (Brain Machine Interface) – potenziell unsterblich machen: Wir könnten unseren Verstand einfach in ein elektronisches Gehirn in einem digitalen Bereich "hochladen". Oder wir könnten wählen, in einen erweiterten Roboterkörper "heruntergeladen" zu werden. Wir hätten Zugang zu fast unendlichen Mengen an Informationen.

Das Problem bei dieser Argumentation ist, dass selbst wenn die klügsten Wissenschaftler ihre Argumente zurückverfolgen an die Grenzen der klassischen Physik stoßen, wenn es darum geht, mit extrem großen Systemen oder mit quantenphysikalischen Beschreibungen umzugehen, die wiederum inkohärent sind. In früheren Epochen hätten sich Gelehrte vielleicht legitimerweise auf diskrete Bereiche der Physik spezialisieren können, doch heute erfordert es eine jahrelange Ausbildung, um auf einem bestimmten Gebiet führend zu werden. Aber selbst nachdem die Kunst beherrscht worden ist, fehlt es den Gelehrten an einem umfassenden Verständnis der Geheimnisse der Welt oder an einem grundlegenden Verständnis dessen, was Verstehen an sich bedeutet.

Aber indem wir versuchen, menschenähnliche digitale kognitive Systeme (oder eine externe AKI) mit Fähigkeiten zu schaffen, die weit über die eines "normalen" Menschen hinausgehen, spielen wir mit einigen der grundlegenden philosophischen Grundlagen darüber, was uns tatsächlich zu Menschen macht. Während eine Maschine sicherlich lernen kann, die subjektive Wahrnehmung zu simulieren, und während die KI höchstwahrscheinlich eine Form der Selbstwahrnehmung entwickeln wird, wird es dann wirklich Bewusstsein sein? Wie wird es sich anfühlen, diese Maschine zu sein? Was wird aus uns? Wird die virtuelle Umgebung, in die wir uns laden, so perfekt sein, dass sie unsere analogen Egos verwirren kann, um zu glauben, dass sich nichts geändert hat, oder werden wir unsere derzeitige Version des menschlichen Bewusstseins verlieren? Und was passiert, wenn wir das Bewusstsein ganz verlieren?

Unser Verständnis von dem, was Subjekt und was Objekt ist, wird radikal in Frage gestellt, ja, steht vielleicht sogar auf dem Spiel. Sind wir verarbeitende Maschinen oder sind wir bewusste Beobachter einer physischen Realität? Es ist entscheidend, so viel über menschliche Strukturen, Fähigkeiten und Grenzen zu wissen, wie es für die Beherrschung des technischen Teils erforderlich ist. Wenn wir externe oder synthetische Intelligenz jenseits des Bewusstseins schaffen, ohne zu wissen, was sie ist und wie sie funktioniert, spielen wir mit dem, was uns zu Menschen macht. Wir müssen den menschlichen Teil mit der Technik verbinden, daher werden wir viele Kulturdesigner und Ingenieure brauchen, denn das, was wir verstehen und aus unseren bewussten Erfahrungen lernen können, ist wesentlich für das Verständnis.

HUMANISMUS FÜR DIE ZUKUNFT

Allwissenheit, Unsterblichkeit, höhere Ebenen des Seins; das posthumanistische Zeitalter brachte bereits jetzt einige Wunder hervor und sicherlich werden weitere folgen. Aber je nachdem, um welche es sich handelt, würde das auch bedeuten, dass unsere Spezies, der Homo sapiens, nicht mehr im Zentrum der Show stehen könnte. Wir mögen einen höheren Bewusstseinszustand erreichen und völlig neue Technologien entdecken, aber Posthumanismus bedeutet, dass wir unsere Strukturen und Überzeugungen nicht mehr auf der Grundlage dessen aufbauen, wie wir den Humanismus heute definieren. Stattdessen werden/würden die Entscheidungen, die getroffen und die Maßnahmen, die umgesetzt werden - die Gründe und die Konsequenzen - jenseits des Verständnisses "bloßer" Menschen liegen. Was wir heute brauchen, sind tiefe und lange interdisziplinäre Diskussionen, die sich mit einer Reihe grundlegender Fragen befassen.Brauchen wir denn überhaupt das Konzept des Humanismus im 21. Jahrhundert? Brauchen wir eine rationale Philosophie, die sich vom Fortschritt der Wissenschaft leiten und leiten lässt und die sich von der Kunst inspirieren lässt und in ihrem Kern von Mitgefühl motiviert ist? Eine Philosophie, die unsere Entscheidungen auf der Grundlage unserer Erfahrungen, Gefühle und gewonnenen Erkenntnisse gestaltet? Sind die partizipatorischen Demokratien in einer immer unübersichtlicher werdenden Welt und die Maximierung der individuellen Freiheit wirklich das, was wir suchen? Nähern wir uns dem Leben auf der Grundlage der Vernunft und unserer moralischen Werte und einer zugrunde liegenden gemeinsamen Menschlichkeit? Oder ist es jetzt endlich an der Zeit, es einer höheren Intelligenz, einem höheren Bewusstseinszustand, einem Gott in einer Maschine oder etwas anderem zu übergeben, das unseren Traum von einem utopischen Zustand verwirklichen und uns Glückseligkeit, Unsterblichkeit und Göttlichkeit geben kann?

Als Folge fehlender Richtlinien und eines klaren Kompasses in einer immer komplexer werdenden Welt sind viele "charismatische" Populisten in den letzten Jahrzehnt aufgetaucht. Modi, Johnson, Duterte, Trump -, in der Tat sind sie allerdings nicht wegen ihrer Beherrschung der Fakten erfolgreich, sondern eher wegen ihres Images als "Vertreter" politisch motivierter Gruppen in ihren jeweiligen Ländern. Für einige ist ihre Unterstützung eine Reaktion gegen das "korrupte" System, das den Prinzipien, die es angeblich unterstützt, nicht gerecht wird, in der Hoffnung, zu einer idealisierten Version der Geschichte zurückzukehren. Aber wenn es um soziale Identitäten geht, sind Menschen auch anfällig für Manipulationen. Wir stecken in Filterblasen fest, die von technischen Empfehlungssystemen geschaffen werden, die uns in der fatalen Informationsgesellschaft, die wir geschaffen haben, eine einseitige Geschichte liefern. Dadurch bauen die politischen Pseudodemokratien von heute auf einem ironischen Konzept auf, das darauf beruht, gegen etwas zu sein - von einer positiven langfristigen Vision für die Menschheit. Statt für etwas konkretes zu stehen, wird ausschließlich opportunistisch und kurzfristig gehandelt um Stimmen zu gewinnen. Angesichts der Komplexität der Herausforderungen, vor denen wir stehen, und der immer besseren Technologie, die wir nicht mehr nur als Geräte benutzen, sondern die schließlich Teil unseres Körpers werden, werden wir wahrscheinlich in eine Zukunft blicken, in der politische Führer und Bewegungen uns noch wirksamer manipulieren können, als sie es bereits können. Gleichzeitig verlieren freie Märkte, unternehmerischer Wettbewerb und demokratische Wahlen ihre Bedeutung, wenn individuelle Entscheidungen nicht mehr auf (zumindest glauben wir, dass es sich um solche handelt) persönlichen Meinungen und Gefühlen beruhen, sondern allein auf externer Manipulation. Und angesichts des heutigen Zustands der demokratischen Systeme ist es klar, dass wir bereits auf dem falschen Weg sind. Aber dies ist erst der Anfang.

In nur wenigen Jahren werden wir uns mit den wirklichen Herausforderungen von künstlicher Intelligenz intensiv auseinandersetzen wenn die Integration von Kybernetik und Biotechnologie in unseren eigenen Körper Wirklichkeit wird. Bereits 2002 haben Wissenschaftler an der State University of New York Elektroden in Ratten implantiert und somit so etwas wie echte Bioroboter oder Robotertiere geschaffen. Mit externen Impulsen konnten sie das Reaktions- und Belohnungssystem der Ratten stimulieren und so durch Impulse Anweisungen geben, sich nach links oder rechts zu drehen, auf Bäume und Leitern zu klettern, über Schutthaufen zu kraxeln und aus verschiedenen Höhen zu springen. Und das alles von einem Laptop aus bis zu 500 m Entfernung. Sie konnten die Tiere sogar in hell erleuchtete Bereiche leiten/steuern, die sie normalerweise meiden würden. Später wurde diese Art von Tests an weiteren Säugetieren durchgeführt. Übertragen auf ein menschliches Gehirn allerdings würde eine Manipulation dieser Tragweite die aktuelle Massenmanipulation durch "virales" Marketing und russische Social Media-Posts wie harmlose Zaubertricks auf einem Kindergeburtstag erscheinen lassen. Vom philosophischen Standpunkt aus betrachtet, eröffnet dies völlig neue Fragen: Haben die Ratten diese Kontrolle als etwas Äußeres erlebt? Und würde ein Mensch eine solche Fremdaktivierung der Neuronen als eben diese und merken, dass er von einer externen Kraft gesteuert wird? Würden wir uns dieser Kontrolle bewusst sein, oder würde sich dies wie unser freier Wille, unsere eigenen bewussten Entscheidungen anfühlen? Wie würde sich das überhaupt auf unserer aktuellen Definition des Bewusstseins auswirken? Und haben wir heute wirklich einen freien Willen?

Selbst wenn es uns irgendwie gelingt, eine "synthetische" Intelligenz (anstelle einer dominanten AKI) zu schaffen - eine Verschmelzung von Mensch und Maschine -, laufen wir immer noch Gefahr, unsere wie auch immer gearteten freiwilligen Entscheidungsfähigkeiten ganz zu verlieren. Wie bereits kurz erwähnt, hat selbst die heutige einfach angewandte KI menschliche Entscheidungsfindung in vielen Bereichen überflüssig gemacht. Auf dem Weg in die Zukunft wird sich dieser Trend nur fortsetzen. Im Extremfall könnte die Verschmelzung unseres Verstandes mit einer digitalen Superintelligenz unsere bewusste Erfahrung vollständig eliminieren - wir würden so etwas werden wir das Gedankenexperiment des philosophischen Zombies - es Wesen ohne Bewusstsein, Erfahrung oder Empfindungsvermögen. Die Lichter werden an sein, aber womöglich ist niemand zu Hause.

Wie also würde diese letzte narzisstische Kränkung - die Entmachtung der Menschen entweder durch eine digitale superintelligente AKI oder durch die Schaffung einer „synthetischen“ Intelligenz, die zu einer zombieähnlichen Existenz führt- in einem wesentlichen Aspekt von den drei vorhergehenden Verletzungen, die Freud beschrieben hat, abweichen? Im Gegensatz zu den drei anderen Kränkungen wird die Menschheit in diesem Fall letztlich nicht profitieren. Stattdessen werden zum ersten Mal in der Geschichte der Menschheit die Fortschritte im Wissen und in der Entwicklung neuer Technologien nicht den Menschen zugute kommen, sondern unseren erschaffenen Göttern dienen, der digitalen Superintelligenz oder jedem fühlenden Roboter, der die letzte Errungenschaft des Homo sapiens war, der künstlichen Superintelligenz, die uns als neuer Herrscher dieses Planeten nachfolgen wird.

WAS KOMMT NACH DER DIGITALISIERUNG?

Es scheint sehr unwahrscheinlich, dass es jemals einen Zeitpunkt geben wird, an dem wir uns alle hinsetzen und uns einig sind: "genug Technologie, genug Fortschritt! Lassen Sie uns hier aufhören und einfach den gegenwärtigen Status quo beibehalten". Und nach allem, was wir wissen, haben wir vielleicht bereits den Punkt ohne Wiederkehr überschritten, an dem wir einen solchen Fortschritt hätten aufhalten und uns stattdessen auf die Gleichberechtigung konzentrieren können. Vielleicht war 2019 das letzte Jahr, in dem die Mitglieder der Glücksspermiengesellschaft der westlichen Wohlstandsregionen hätten sagen können: "Lasst uns diesen Fortschritt an den Rest der Welt übertragen und uns gemeinsam über das Erreichen der utopischen Gesellschaft erfreuen.”

Aber angesichts der Bedrohung, die von der endgültigen narzisstischen Kränkung ausgeht, scheint es klar, dass wir uns vor Versuchen, die in den kommenden Jahren beschleunigt werden, eine Superintelligenz zu schaffen, sehr hüten sollten: einen Gott in einer Maschine oder eine AKI. Denn wir hätten keine Ahnung vom inneren "Leben" einer solchen Maschine und würden unsere eigenen Grenzen durch bloßes Ausprobieren austesten - zusammen mit Hoffnungen und Träumen - würden wir eine Partie russisches Roulette spielen, bei der alle Kammern geladen sind.

Trotz unserer Faszination für Technologie und KI und deren hilfreiches Potenzial ist es - besonders in der heutigen Zeit - unerlässlich, dass wir das Thema ganzheitlich angehen. Wie auch immer wir den Umgang mit exponentieller Technologie, Robotik und digitaler Superintelligenz angehen, wir müssen einen Weg wählen, bei dem der Schwerpunkt auf Sicherheit, Tests und einem breiteren Verständnis der möglichen Ergebnisse liegt. Wir können bei der Entwicklung der KI-Technologie nicht einfach blind und gedankenlos dem Fortschritt technologischer Fähigkeiten folgen: Es muss eine übergreifende Definition dessen geben, was wir tatsächlich erreichen wollen. Was bedeutet "Menschlichkeit" für uns, und was sind humanistische Werte, die wir beibehalten, priorisieren und betonen wollen?

Angesichts der Richtung, in die die technologische Entwicklung geht, scheint die einzige Lösung darin zu bestehen, dass wir einen Weg finden, unseren Verstand mit externen Supercomputern zu verschmelzen. Wenn wir diesen Ansatz wählen, haben wir zumindest eine Chance, den Geist besser zu verstehen und Fortschritte in den Neurowissenschaften zu erzielen, so dass wir trotz einer solchen Fusion unser (individuelles) Bewusstsein, unsere subjektiven Erfahrungen und unseren individuellen Willen beibehalten können. Anstatt also alle Autoritäten an Technologien zu übergeben und auf das Beste mit noch möglichen utopischen Ergebnissen zu hoffen, könnten wir genauso gut die klügsten Köpfe sowohl in technischer als auch in ethischer Hinsicht, auf dem Planeten zusammenbringen und gemeinsam an der Verschmelzung der beiden Welten arbeiten.

Tatsache ist, dass viele von uns bereits "Cyborgs" in dem Sinne sind, dass wir physikalische Technologie in unsere biologischen Systeme implantiert haben; Herzschrittmacher und Cochlea-Implantate sind nur zwei Beispiele dafür. Wie im Beispiel von AVA aus Ex Machina kann es schwierig sein zu unterscheiden, wo genau die Grenze zu ziehen ist. Was wäre, wenn wir auch in Wirklichkeit in der Lage wären, eine fast perfekte Kopie eines menschlichen Wesens zu bauen? Natürlich ist eine solche Technologie noch mindestens Jahrzehnte oder sogar Jahrhunderte entfernt. Dennoch ist es wichtig zu verstehen, dass, während die "schwache" KI weiter voranschreitet und die Forschung an der starken KI, nachdem sie lange Zeit in den Kinderschuhen steckte, nun erste ernstzunehmende Gehversuche unternimmt, der nächste Schritt, unserer eigenen kybernetischen Entwicklung, rasch folgen wird. Wir sind jetzt auf dem besten Weg, unsere Gehirne direkt mit einer digitalen Schnittstelle zu verbinden.

Im Jahr 2016 gründete der Tech-Unternehmer und Tesla-Gründer Elon Musk ein neues Unternehmen namens Neuralink, um genau dieses Ziel zu erreichen. Musk hat sich lautstark dafür ausgesprochen, dass die einzige Möglichkeit, die Schaffung einer gefährlichen digitalen Superintelligenz außerhalb unseres Gehirns zu vermeiden, darin besteht, dass wir mit ihr "verschmelzen" und selbst übermenschlich werden. Dies könnte einen neuen evolutionären Schritt in unserer Entwicklung als Spezies darstellen, und es könnte uns helfen, eine höhere Bewusstseinsebene zu erreichen. Zwischen Neuralink und anderen Ansätzen wie dem des Internet-Pioniers Bryan Johnson, der Firma Kernel, oder der Arbeit von Google auf diesem Gebiet an der Seite asiatischer Pendants ist das Rennen um eine Schnittstelle zwischen Gehirn und Computer in vollem Gange. Die ersten Versuche am Menschen sind bereits geplant, aber angesichts der normalen Genehmigungsverfahren der Regierung ist es unwahrscheinlich, dass in absehbarer Zeit kommerzielle Anwendungen geben wird. Dennoch werden die Visionäre ihren Teil dazu beitragen, auf Reformen zu drängen und versuchen, die Regierungsbürokratie zu beschleunigen. Musk und andere argumentieren zum Beispiel, dass die ersten Produkte zur Verbesserung des Gehirns, die auf spezifische Behinderungen und Krankheiten (wie Alzheimer) abzielen oder die Menschen mit psychologischen Problemen unterstützen, zumindest in technischer und theoretischer Hinsicht bereits 2025 verfügbar sein könnten.

Heute bewegen wir uns auf eine Situation zu, in der die Technologie nicht der begrenzende Faktor des menschlichen Fortschritts ist, sondern vielmehr der Entscheidungsprozess, der den Ausschlag dafür geben wird,, welche Richtung wir einschlagen wollen. Werden wir in naher Zukunft in der Lage sein, Apps auf unser Gehirn herunterzuladen? Wir haben bereits die Büchse der Pandora geöffnet und zapfen unseren Verstand mit einer völlig undefinierten und unklaren Vorstellung davon an, wohin sie uns führen wird. Aber wenn wir einige der Experten glauben sollen, ist es die einzige Chance, unser Überleben zu sichern und eine bessere Welt zu schaffen. Eine solche Technologie muss uns helfen, unseren Verstand und unser Bewusstsein besser zu verstehen, um sicherzustellen, dass dieses Wissen in die digitalen Systeme der Zukunft integriert wird. Sonst laufen wir Gefahr, die Grundlage unserer Menschlichkeit zu löschen und zu überschreiben, was es bedeutet, ein Mensch zu sein.

Wenn uns jedoch die "perfekte Rationalität", wie sie der deutsche Philosoph Immanuel Kant verstanden hat, ein Denken und Handeln also, das an wohldurchdachten und von der Vernunft geleiteten Zwecken und Zielen ausgerichtet ist - in ein moralisches Paradies führt, dann würde uns eine solche Technologie vielleicht den nächsten evolutionären Schritt zu einem humanistischeren Kapitalismus in einer quantopischen Welt ermöglichen. Wenn wir in der Lage sind, die Entwicklung und Richtung einer digitalen Superintelligenz zu steuern, können wir vielleicht das verwirklichen, wovon die Menschheit seit Tausenden von Jahren träumt: eine humane, friedliche und egalitäre Gesellschaft. Welchen Weg wir auch immer wählen, es ist wichtig, der Sicherheit und dem Schutz Vorrang einzuräumen, uns sowohl auf Modelle und Simulationen als auch auf Tests in der realen Welt zu setzen und uns an den Debatten über mögliche Ergebnisse zu beteiligen. Denn auf der einen Seite kann Bürokratie ein Fluch sein, wenn sie Prozesse verlangsamt und wichtige Entwicklungen hemmt. Auf der anderen Seite ist sie aber durchaus nötig, um unregulierte Märkte, Forschungszweige und schließlich eine Welt im Chaos zu verhindern.

Die künstliche Intelligenz wird uns Superfähigkeiten an die Hand geben, die der Menschheit zu Durchbrüchen in der Medizin, der Wissenschaft und den verschiedenen Formen der Kunst verhelfen könnte. Dabei darf die langfristige Verantwortung niemals auf Kosten kurzfristiger Neugier und/oder Gewinne gehen, daher scheint der plausibelste Weg nach vorn über geregelte Initiativen in einer mehr oder weniger offenen globalen Gemeinschaft zu führen.

Mit einer Betonung der Sicherheit und durch eine dialektische Symbiose zwischen Wissenschaft und Philosophie - einem neuen Ansatz - können wir vielleicht ein besseres Verständnis dessen erreichen, was wir unter Intelligenz verstehen. Die vier Kantischen Fragen (Was kann ich wissen? Was soll ich tun? Was darf ich hoffen? Was ist der Mensch?) stellen sich im 21. Jahrhundert, im Kontext der gegenwärtigen technischen Entwicklung nochmals neu. Vielleicht können wir dadurche ein höheres Verständnis für unsere Welt gewinnen, und somit bewusst entscheiden ob und wie wir zwischen natürlicher menschlicher und künstlicher Intelligenz unterscheiden wollen.

Die letzte narzisstische Kränkung wäre das aus einem so einleuchtenden wie traurigen Grund: weil es uns dann nicht mehr gäbe. Entweder buchstäblich nicht mehr, da unsere Nachfolger uns ausrotten würden – oder zumindest nicht mehr als Spezies, die ihr Schicksal noch selbst gestalten könnte. Im griechischen Mythos starrt der eitle Jüngling Narziss gebannt in die Quelle, die sein Spiegelbild zeigt. Bei der finalen narzisstischen Kränkung wäre der Spiegel noch vorhanden – aber niemand mehr, der sich darin spiegeln könnte, das Ertrinken wäre der Verlust unseres Bewusstsein, die Lichter wären aus und wir würden es nicht erkennen. Zum Glück liegt unsere Zukunft immer noch in unseren eigenen Händen. Indem wir unsere Sichtweise grundlegend ändern und ein tieferes Verständnis dafür suchen, was wir tatsächlich tun, können wir immer noch eine Zukunft bauen, in der Mensch und Maschine nebeneinander existieren können.

WEITERLESEN

  • » Die Nexus-Ontologie-Theorie (NOT) «

  • » Leben wir in einer (Quantum) Simulation? «

  • » GOETHES FÜHRUNGSFAUST «