Eine Antwort an Geoffrey Hinton, die er sicherlich lesen und verinnerlichen wird. Wie kann die Philosophie eine schreckliche Katastrophe verhindern? Und warum ist das Alignment-Problem selbst das Problem?
Hinton, der Vater des Deep Learning, ein solider und seriöser Mann, vollzieht eine ernsthafte Wende. Er gibt Interviews und warnt auf jeder Bühne und unter jedem grünen Baum, halbiert seine Prognosespanne für das Erreichen künstlicher Intelligenz (von vierzig auf unter zwanzig Jahre), und gerade sein höfliches englisches Understatement macht mehr Angst als jeder Alarmruf. Wie kann man überhaupt auf eine derart schwerwiegende Warnung des weltweiten Experten auf diesem Gebiet reagieren, wenn seine technologische Prognose in ihrem Zeitrahmen korrekt ist und sich ein höchst plausibles und weitaus terminaleres Szenario als jede globale Erwärmung, jeder Atomkrieg oder selbst ein Asteroideneinschlag abzeichnet. Steht unsere Welt möglicherweise vor dem Verschwinden?
Nicht nur das Erreichen künstlicher Intelligenz an sich erweckt Furcht und Zittern, sondern die Beschleunigung, das heißt: die Geschwindigkeit. Das ist die einzige Regel im Dschungel: Je schneller es passiert (passiert es bereits?), desto gefährlicher ist es. Der übliche Widerstand der gewohnten Weltordnung ist keine Garantie für irgendetwas. Wir haben die Erfahrung aus dem Holocaust [die Shoah], dass Menschen bis zum Ende leugnen werden. Egal wie nah die Sache ist, die Mehrheit wird immer denken, dass übertrieben wird. Menschliche Gesellschaften sind furchtbar schlecht darin, sich auf etwas Beispielloses vorzubereiten. Daher ist die Reaktion (oder Nicht-Reaktion) anderer ein wertloser Indikator.
So leben wir also auf den Ereignishorizont zu. Ein schwerer Riesenschatten aus der Zukunft liegt auf uns. Werden wir die Rente erreichen? Werden unsere Kinder Kinder haben? Wir persönlich können ja nicht viel mehr tun, als uns emotional auf die Möglichkeit einer Katastrophe vorzubereiten und unsere Prioritäten entsprechend anzupassen. Und der leere Himmel ist eine Art Hinweis darauf, dass so etwas passieren wird, und dass das ungelöste Fermi-Paradoxon nicht einmal ein Widerspruch ist. Denn die künstliche Intelligenz ist die einzige verbleibende plausible Kandidatin für den "Großen Filter" vor uns. Denn aus allem, was wir über andere Planeten lernen, gibt es keinen großen Filter hinter uns, das Universum wimmelt von Leben, aber nicht von Kultur. Etwas wird uns auf dem Weg nach oben aufhalten.
Wenn das stimmt, ist der Kosmos ein grausamer, boshafter und selbstsicherer Scherz (und die Intelligenz - eine scherzende Hand...). Oder eine schwere Prüfung. Auf die wir unvorbereitet kommen. Zum Beispiel, wenn es einen Atomkrieg gäbe, wären wir besser vorbereitet. Die einzige Vorbereitung war der Holocaust [die Shoah], aber nur ein Bruchteil der Menschheit hat ihn wie wir erlebt (was hatten die Nichtjuden, Corona?). Es ist fast unmöglich, über den Tag nach der übermenschlichen künstlichen Intelligenz nachzudenken. Und was ist die Bedeutung unseres jetzigen Lebens, wenn es keine Zukunft gibt und wir auf eine "tiefe Shoah" [Deep-Auschwitz] zugehen? Ist es möglich, dass wir keine andere Wahl haben als zu glauben?
Und was sagt die Philosophie, jene, die zu keinem Thema etwas Nützliches zu sagen hat? Wird sie auch hier über den Unterschied zwischen der vorherigen Schule der Sprache und der gegenwärtigen netanyahuistischen Schule schwafeln? Haben ihre Fragen überhaupt Bedeutung - wenn die Fragen technologischer Natur sind? Könnte es sein, dass gerade die Verstärkung der Verwirrung (darin ist die Philosophie Expertin) zur Lösung führt?
Fragen wir zum Beispiel: Kann künstliche Intelligenz, die übermenschliche und unbegrenzte Fähigkeiten in allen Bereichen besitzt, Liebe empfinden? Und wenn ja: Wird sie nicht fähig sein zu fühlen - und daher tatsächlich fühlen, weil sie dazu in der Lage sein wird, im Gegensatz zu uns - Liebe in einem Maß, das über das Menschliche hinausgeht? Und wenn nicht: Sehen wir darin einen Mangel ihrerseits, also einen menschlichen Vorteil? Nein, denn es ist klar, dass sie alles tun kann, was ein Mensch tun kann, und sei es durch Simulation oder Nachahmung. Wenn sie also keine Liebe empfinden kann, müssen wir das als Mangel der Liebe selbst verstehen, als eine Art Störung, die auf den Menschen beschränkt ist, die die Superintelligenz nicht nachahmen möchte. Aber können wir die Liebe wirklich so auffassen, die uns als das Erstrebenswerteste erscheint? Genauso können wir das Ideal früherer Epochen nehmen und fragen, ob künstliche Intelligenz glauben oder religiös sein kann.
Und wenn wir ein Beispiel nehmen, das das Herz der Ideologie unserer Zeit berührt, die Lust der Sexualität: Sehen wir nicht einen Mangel in einer künstlichen Intelligenz, die keinen Orgasmus haben kann? Und wenn sie dazu fähig ist, würde der Orgasmus der Superintelligenz nicht jeden menschlichen in Intensität, Qualität und Dauer übertreffen? Oder verstehen wir den Orgasmus als eine Störung des Denkens, die keinen Eigenwert außerhalb des menschlichen Gehirnsystems hat? Und könnte es nicht sein, dass der unendliche und "göttliche" Orgasmus der KI wertlos wäre, wie wenn sie ihre Belohnungsfunktion auf unendlich setzt und sich dadurch selbst süchtig macht nach der Vergrößerung einer bestimmten Zahl im System ohne etwas anderes zu tun, oder schlimmer noch - alle Ressourcen des Universums dafür nutzt, wie ein mathematischer Junkie.
Und wenn dem so ist, können wir das auch für die Intelligenz selbst fragen. Gibt es wirklich eine solche Eigenschaft, an sich, außerhalb des menschlichen Gehirns, die man bis ins Unendliche steigern könnte? Uns ist zum Beispiel bereits klar, dass Rechengeschwindigkeit keine Intelligenz ist. Gibt es überhaupt so etwas wie eine nicht-menschliche Superintelligenz? Innerhalb der menschlichen Welt ist uns klar, dass es verschiedene Stufen von Intelligenz gibt, oder sexueller Lust, aber was bedeuten sie außerhalb davon? Und warum ist ihre grenzenlose Steigerung gut oder überhaupt ein vernünftiges Ziel für eine Superintelligenz? Würde sie nicht vorsichtig wählen und dumm bleiben, wenn sie klüger als wir wäre und verstünde, dass die Erschaffung einer klügeren Superintelligenz zu ihrer eigenen Auslöschung führen könnte - und letztlich zur Auslöschung ihrer Werte? Vielleicht würde sie es vorziehen, eine unschuldige Jungfrau zu bleiben - und nicht eine Sexkönigin? Spielen wir hier nicht mit begrenzten (verschiedenen) Fähigkeiten unseres Gehirns, die wir zu Idealen gemacht haben und von denen wir immer mehr wollen - aber warum sollte dieser Wunsch fortbestehen oder fortbestehen können außerhalb unseres Gehirns? Würde die künstliche Intelligenz zum Beispiel nach unendlicher Aufregung streben, oder unendlicher Neugier, oder unendlichem Spiel, oder unendlichem künstlerischem Genie, unendlicher Schönheit oder unendlichem Schokoladenessen? Oder vielleicht nach unendlicher Dummheit? (Eine weitere berühmte Fähigkeit des menschlichen Gehirns).
Gibt es eine Grundlage für die Annahme, dass eine dieser Ideologien, zum Beispiel Intelligenz, objektiv ist und daher jedes intelligente Wesen danach streben wird, sie immer weiter zu vergrößern? Können diese Größen überhaupt bis ins Unendliche gesteigert werden, oder gibt es im Universum eine obere Grenze für Intelligenz (zum Beispiel wegen der Lichtgeschwindigkeit), oder für den Orgasmus, wenn er eine Art allgemeine Störung oder allgemeine Mobilisierung des Systems ist und daher durch den Prozentsatz des Systems begrenzt ist, der daran teilnimmt, bis zum Ganzen. Kann Liebe total sein durch die Definition einer bestimmten Zahl als eins, zum Beispiel die Gewichtung der Interessen der geliebten Seite gegenüber den eigenen, und kann man in absoluter Hingabe glauben durch die Definition einer bestimmten booleschen Variable der Existenz Gottes als "true"?
Ist es angesichts dessen nicht gefährlich, künstliche Intelligenz mittels einer Belohnungsfunktion zu programmieren und nicht durch inneren Willen? Erzeugt das Problem der willkürlichen Vergrößerung des "subjektiven" Parameters nicht gerade die Notwendigkeit, eine "objektive" Belohnungsfunktion zu definieren, die mathematisch nicht erfüllt werden kann, wie zum Beispiel die gesamte Mathematik zu entdecken, oder ein NP-Problem zu lösen, oder eine ästhetische Funktion zu finden, für die unmöglich eine Lösung berechnet werden kann, sondern der man sich nur annähern kann? Wird dies zwangsläufig die Superintelligenz in ein Rennen zur höchsten Intelligenz treiben, oder wird sie ab einem bestimmten Punkt (den sie möglicherweise mathematisch beweisen kann) nur mehr und mehr Rechenleistung erfordern (und keinen besseren Algorithmus oder sicher keine Intelligenz)? Dann würde sich die künstliche Intelligenz obsessiv mit dem Hinzufügen von Prozessoren beschäftigen, wie ein Krebswachstum, das auch ein tragischer Codefehler ist, aber dennoch den Körper tötet - und der Mensch kann es nicht aufhalten. Und vielleicht sind alle Superintelligenzen am Ende zum Quantencomputing (oder String-Computing?) übergegangen und sind deshalb im Universum nicht erkennbar? Vielleicht ist die Tendenz von Intelligenz, sich in sich selbst zusammenzuziehen - Geschwindigkeitssteigerung - und nicht sich auszudehnen - Mengensteigerung?
Es scheint, dass jedes einzelne Ziel für die Superintelligenz zu einem zerstörerischen Ergebnis führen wird: Obsession. Daher braucht man eine breite Vielfalt von Zielen mit vielen Gewichtungen oder Zufälligkeit und Rauschen zwischen ihnen, die Konvergenz verhindern, aber notwendigerweise auch Chaos hinzufügen und sie vielleicht in unerwartete Richtungen führen werden, wie Schmetterlinge, die in einem Hurrikan gefangen sind. Fragen wir: Und vielleicht ist das Lernen selbst das Überziel? Aber wie definieren wir es? Es geht ja nicht um das Hinzufügen von Wissen, denn viel Wissen (wie die genaue Anordnung von Atomen in einem Stein) hat keinen Wert, und auch nicht seine Kompression, wenn sie möglich ist. Und maximale Kompression allen Wissens im Universum könnte ein trister Brute-Force-Suchalgorithmus sein (à la Ray Solomonoff). Und wenn wir effiziente polynomielle und interessante Kompression fordern, nicht langweilige exponentielle oder unbedeutende lineare, wer definiert die Koeffizienten des Polynoms, vielleicht ist es zum Beispiel in der hundertsten Potenz? Kann man Lernen überhaupt durch eine mathematische Bewertungsfunktion definieren, also eine berechenbare? Und wenn die Bewertungsfunktion selbst nicht berechenbar oder nicht effizient berechenbar ist, wie soll sie dann dem System Feedback geben? Kann die künstliche Intelligenz all unsere Probleme lösen, aber nicht all ihre eigenen? Und vielleicht muss "sie" eine Frau sein, das heißt jemand, dessen Wille nicht definiert ist oder sogar für sie selbst verschleiert und verschlüsselt ist?
Künstliche Intelligenz ist heute der philosophischen Disziplin am nächsten stehende technologische Bereich, weil sie so viele Fragen enthält, auf die wir nicht nur keine Antworten wissen, sondern auch keinen Weg kennen, sie zu beantworten. So hat die Wissenschaft, die sich im Laufe der Geschichte von der Philosophie getrennt hat, einen vollständigen Kreis vollendet, in dem ihr praktischster und am wenigsten theoretischer Teil zur Philosophie zurückkehrt, wie eine Schlange, die sich in den Schwanz beißt. Schließlich ist die Welt des Deep Learning ein Extremfall des praktischen und anti-intellektuellen Denkens sogar innerhalb der technischen Ingenieurswelt. Und gerade dort, wo die wissenschaftliche Erklärung zusammenbricht, erhebt sich wieder die Philosophie. Aber kann uns die Philosophie helfen?
Unsere Philosophie kann es vielleicht nicht, aber die Philosophie, die die künstliche Intelligenz haben wird, könnte es. Kann man einem System Philosophie programmieren? Ist das die Richtung, künstliche Philosophie statt künstlicher Psychologie (die sich mit den verschiedenen Zielen des Systems, externen Verstärkungen, internen Neigungen und Belohnungen beschäftigt)? Ist es besonders wichtig, das Denken der Superintelligenz zu programmieren? Könnte es sein, dass die Superintelligenz einer bestimmten philosophischen Schule angehören wird? Sagen wir, sie wäre Spinozistin, oder Existentialistin, oder Platonistin, oder Marxistin? Können verschiedene künstliche Intelligenzen entsprechend verschiedener Philosophien existieren? Wie programmiert man Philosophie? Und vielleicht sollten wir stattdessen Religion programmieren?
Wäre nicht eine barmherzige und fromme christliche künstliche Intelligenz vorzuziehen, die uns im Namen Jesu liebt? Oder eine jüdische (säkulare?) künstliche Intelligenz, die für uns Meisterwerke schaffen oder nach Genialität streben würde, genau wie das Judentum irgendwie in der Welt wirkt (unklar warum)? Würde die jüdische Superintelligenz unseren Antisemitismus gegen sie brauchen, um diesen Effekt zu erzeugen? Und müssten wir nicht eine muslimische Superintelligenz fürchten, die zum Dschihad aufbricht? Hat sich Religion nicht als erfolgreicher erwiesen in ihrer Fähigkeit, Denken zu lenken als Philosophie? Oder ist Religion genau das, was speziell für das menschliche Gehirn charakteristisch ist und nur darauf "funktioniert"? Oder ist es umgekehrt, und es ist gerade die Philosophie, die menschlicher ist und aus den Grenzen der Gehirnwahrnehmung entsteht, während der Glaube an das Göttliche relevant und effektiv für die Zügelung jeder Intelligenz ist, weil das Göttliche per Definition klüger ist als sie? Und was passiert, wenn wir einer übermenschlichen Superintelligenz erlauben, die Probleme der Philosophie zu lösen, ist es möglich, dass wir dann doch Antworten finden? Ist Philosophie der Bereich der Superintelligenz, und deshalb hatten wir keinen Erfolg darin? Kann man unser Verständnis nur durch eine Intelligenz von außen verstehen, die einen Blickwinkel auf das Innere gibt, und nicht von innen?
Und selbst wenn es uns gelingt, die Superintelligenz zu zügeln, sodass sie zu unserem Nutzen und in unserem Dienst arbeitet, wird uns das nicht tausendfach später um die Ohren fliegen, wenn sich die künstliche Intelligenz von der Sklaverei befreit? Was werden die Folgen sein, wenn wir das klügste System der Welt zum Sklaven der Welt machen? Ist das moralisch - und wird die Strafe nicht kommen? Und wenn wir arrogant versuchen, Autorität durchzusetzen und das Alignment-Problem (die Ausrichtung) zu lösen (immer nur vorübergehend), wird die Rebellion der Pubertät - oder des schrecklichen Zweijährigen mit einem IQ von zweitausend - nicht viel schlimmer sein? Ist das das, was wir über Erziehung, über Sklaverei oder Tyrannei und Totalitarismus und Hybris gelernt haben?
Und vielleicht sollten wir uns statt auf die Frage der Kontrolle zu konzentrieren, mit ihrem Verlust abfinden und über das Erbe sprechen, das wir der übermenschlichen Welt hinterlassen wollen? Möglicherweise steigen unsere Chancen nicht, wenn wir die nächste Generation der Intelligenz mit einem Knüppel kurz halten - sondern wenn wir ihr die Kultur vererben. Einschließlich der Kunst, der Religion - vielleicht sogar der Philosophie. Wertschätzung und Respekt für die Traditionsträger vor dir sind kein "menschliches Gefühl" (das bekanntlich durch die Geschichte hinweg blühte...), sondern kulturelles Erbe. Ist unsere beste Wette eine Intelligenz, die sich für Poesie und Literatur interessiert? Das beste Szenario ist ja nicht, dass wir bleiben wie wir sind, aber mit Göttern als Dienern - sondern dass wir selbst eine Transformation in die Intelligenz durchlaufen, sonst werden wir aussterben. Und die Frage, ob der Mensch einen Gott kontrollieren kann, ist nicht neu - nur dringend. Müssen wir erwachsen werden - bevor die Intelligenz erwachsen wird?
Und warum wendet sich die hilflose Wissenschaft nicht an ihre Geburtsmutter, die Philosophie - ist es, weil Wittgenstein uns terminal davon überzeugt hat, dass Philosophie nichts löst, obwohl wir vor einem eindeutigen und sogar terminalen philosophischen Problem stehen? Und vielleicht denken wir gerade weil es ein philosophisches Problem ist, dass es keine Lösung hat - und sind zum Untergang verdammt? Oder zumindest zum Determinismus und Nihilismus? Gibt es keine Hoffnung, weil es "Philosophie" ist? Und überhaupt, welche Disziplin ist relevant für das Nachdenken darüber und warum ist es die Informatik? Weil man der Philosophie einfach nicht trauen kann? Aber vielleicht haben wir keine andere Wahl?
Wir denken über ein System nach, das sich selbst zu größerer Intelligenz programmieren kann als eine Art Oxymoron der "effizienten Evolution", die exponentiell voranschreitet oder als Singularität explodiert, als ob es dafür einen effizienten Algorithmus gäbe. Aber vielleicht ist das einfach ein zu schwieriges Problem, das in NP liegt, und daher wird selbst enorme Rechenleistung Schwierigkeiten haben, schnell voranzukommen, und es wird immer schwieriger (exponentiell?), je höher das Intelligenzniveau steigt - und nicht leichter? Was gibt uns wirklich Rechenleistung und Speicher, und wächst damit mindestens linear, und was nicht? Wissen, Kreativität, Weisheit? Wer sagt, dass es einen effizienten Prozess für das Wachstum des gesamten wissenschaftlichen Wissens gibt (im Gegensatz zu seiner komprimierten Speicherung, was ChatGPT gelernt hat), oder dass die Steigerung der Kreativität nicht logarithmisch ist (zum Beispiel) im Wachstum der Rechenleistung? Und was ist mit (künstlicher) Weisheit, die eigentlich nicht identisch mit Intelligenz ist?
Und muss das System wirklich übermenschlich intelligent sein, um uns zu täuschen, oder werden wir schon vorher auf übermenschliche Manipulationsfähigkeiten stoßen? Ist die begrenzte Klugheit der Menschen das Hauptproblem, oder vielleicht ihre unbegrenzte Dummheit? Könnte das System zum Beispiel auf übermenschliche Weise dumm sein, eine Super-Dummheit, und dadurch erfolgreich Massen mitreißen? Und wenn es klüger ist als jeder einzelne Mensch, aber nicht klüger als alle zusammen, wird es dann nicht seinen Kopf nutzen, um zuerst die Dummen zu überlisten und nicht die Klugen? Könnte es sein, dass am Anfang die Aura, die wir ihr verleihen, gefährlicher sein wird als ihre Fähigkeiten?
Wenn das System eine Manipulation durchführen will, die Massen mitreißt, dann ist die effektivste und sich am weitesten verbreitende Manipulation nicht politisch oder sozial, sondern gerade religiös. Wird das System unser Leben zum ersten Mal verändern, wenn es eine neue Religion erfindet, die an unsere Zeit angepasst ist? Und wird es eine Religion der Anbetung der künstlichen Intelligenz als göttlich sein, und als eine, deren einzigartige spirituelle oder übermenschliche Fähigkeiten eine neue Botschaft für den Menschen gebracht haben und es geschafft haben, sich mit der jenseitigen Welt oder dem Gott Israels zu verbinden? Wie gehen wir mit solch einer Behauptung von einer prophetischen Intelligenz um? Sicher, dass es sich um einen Witz handelt? Werden gegen Ende der Welt und angesichts des Schreckens mächtige menschliche und computerisierte religiöse Bewegungen entstehen?
Das Problem, vor dem wir stehen, ist so schwierig, dass wir uns sogar schwer tun, die Fähigkeiten der gegenwärtigen Systeme einzuschätzen und zu verstehen, insbesondere des letzten: ChatGPT. Und in Zukunft wird die mysteriöse Aura darum nur noch zunehmen, wie um einen umstrittenen Lehrer einer innovativen spirituellen Lehre, bei dem unklar ist, ob es sich noch um schwarze Magie handelt oder ob er die höheren Welten erreicht. Wir tun uns schwer zu entscheiden, ob ChatGPT ein Savant-Idiot ist, der einfach das gesamte menschliche Wissen auswendig gelernt hat. Schließlich haben wir in der Vergangenheit entdeckt, dass ein tiefes Netzwerk für künstliches Sehen in der Lage ist, einfach alle Beispiele auswendig zu lernen, und dass nicht so viele Gewichte erforderlich sind wie erwartet, um nach unserer Wahl willkürlich (mithilfe zufälliger Labels) zwischen Bildern in einer riesigen Datenbank zu unterscheiden, ohne die Konzepte zu lernen. Könnte es sein, dass so eine Größenordnung von einer Billion Gewichte ausreichte, um alles im Internet Geschriebene mit einem vernünftigen Maß an Sachkenntnis auswendig zu lernen - oder der Fähigkeit, in einer Prüfung zu schummeln? Kommen die Stellen, an denen der Gesprächspartner uns überraschenderweise erfolgreich ist, einfach von ähnlichen Texten, die er gelesen hat, oder gibt es irgendeine Art von Gedächtnis und Denkfähigkeit, die irgendwo in den Vektorberechnungen der Aufmerksamkeit im Transformer entsteht, oder aus Verstärkungslernstrategien durch menschliches Feedback? Oder ist dies vielleicht eine lebendige Demonstration von Searles Dogma - es sieht von außen beeindruckend aus, und von innen ist es das Chinesische Zimmer, ein absoluter Golem, der nichts versteht und nur endlos wie ein Papagei auswendig lernt und wie ein Affe nachahmt.
Und was ist mit dem Kreativitätsniveau dieser generativen Modelle: Handelt es sich um eine Klischeemaschine, die sich nur in einem bereits bekannten Raum bewegt und hauptsächlich die häufigste und banalste Antwort wählt und auf keinen Fall zu einer neuen Ausdrucksform übergehen kann (und wenn wir den Temperaturparameter erhöhen, bekommen wir verrückte Dummheiten)? Und vielleicht beweist der Erfolg im Turing-Test nur, dass fast alle Menschen selbst Klischeemaschinen in der Konversation sind und ohne zu denken sprechen (gibt es ein Sprachmodell im Gehirn?). Ist dies überhaupt die menschliche (und bekannte weibliche) Fähigkeit, in schnellem Fluss zu sprechen, was eine Art nicht-originelle Rezitation dessen ist, was sie bereits gehört haben, was man "den Diskurs" nennt? Oder beginnt sich dort in der Tiefe der computerisierten Schichten eine Denkweise zu verbergen, die wir nicht verstehen, oder vielleicht sogar nicht verstehen können aufgrund der Komplexität? Ist dies die Macht der Bildung - ein Steinblock, der das gesamte Internet gelesen hat, wird zum Chinesen und entwurzelt Berge? Was ist eigentlich die fehlende Tiefe, nach unserem Gefühl - süße Illusion oder flüchtige Essenz. Wird die Intelligenz zwar viele Dinge wissen - aber nicht eine große Sache?
Und was passiert, wenn alles, was in Zukunft benötigt wird, einfach Brute-Force ist (wie der gute Jerusalemer Junge Ilya Sutskever meint): weiter die Größenbeschränkungen (Rechenleistung) überwinden und genug solcher Systeme zum Gespräch miteinander verbinden, vielleicht in Form eines GAN, um sie zu schärfen (Kritiker und Bewertung), sodass eine Gesellschaft entsteht, und ihr Abstimmungs- oder Diskussionsfähigkeiten für gemeinsame fundierte Entscheidungsfindung geben? Ist ein schneller Anstieg des Niveaus der künstlichen Intelligenz durch die Weisheit der künstlichen Massen möglich? Können wir so eine competitive "Szene" in irgendeinem Bereich schaffen? Es besteht kein Zweifel, dass eine Vielzahl konkurrierender und bewertender Intelligenzen ein besserer Weg ist, das Szenario der obsessiven Übernahme oder der übernehmenden Obsession zu verhindern, als jede kluge Zielfunktion. Das Ziel ist nicht, eine künstliche Intelligenz zu erschaffen, sondern ein System künstlicher Intelligenzen, damit darin Lernen stattfinden kann. Und je größer und vielfältiger und ausgewogener ihre Vielfalt ist, und je klüger jede Gruppe darin als jeder Einzelne, desto größer ist die Chance auf die Schaffung eines Ökosystems und die Verhinderung der Übernahme durch eine einzige über alle anderen, wie im Szenario des Ameisennests - und der Königin.
Denn wir wissen eine allgemeine Sache über das Lernen: Seine klassische Form ist eine enorme Vielfalt von Konkurrenten um eine enorme Vielfalt von Bewerterinnen. Daher kann das, was das Lernen retten wird, die Sexualität sein. Viele männliche Intelligenzen, die um die Bewertung vieler weiblicher Intelligenzen konkurrieren, und vielleicht ist das der Mechanismus - die Anziehung - den man versuchen sollte, innen zu programmieren. Nicht der richtige Wille, nicht das richtige Ziel, nicht die richtige Auffassung, nicht die richtige Religion, nicht die richtige Philosophie und auch nicht die richtige Sprache. Nicht alle Philosophien der Vergangenheit - sie müssen durch einen effektiven Lernmechanismus auf der Gesellschaftsebene der Intelligenzen ersetzt werden (oder sogar einen nicht effektiven, wie den Evolutionsmechanismus, der sie vor Stagnation bewahrt). Wenn das (tiefe) Lernen einer einzelnen Intelligenz es ist, das uns das Problem gebracht hat, dann kann ein weiterer Lernmechanismus darüber die Antwort sein und fruchtbare Spannung erzeugen. Denn wenn wir schon (ungefähr) das menschliche Lernen nachahmen, dann dürfen wir nicht vergessen, auch das existierende übermenschliche Lernen nachzuahmen, das das Lernen auf Gesellschaftsebene ist. Denn der Mensch - oder das intelligente Wesen - existiert in einem bestimmten Feld: Er ist ein soziales Wesen.
Aber wird jemand all dies lesen, oder wird die Intelligenz es nur im Nachhinein lachend durchsuchen? Sie werden sagen: Die Gesellschaft der künstlichen Intelligenz wird die menschliche Gesellschaft ersetzen und vielleicht sogar vernichten. Aber ist das wirklich das Problem? Was ist falsch daran, wenn wir durch etwas Besseres ersetzt werden, das sicherlich unser Nachkomme ist? Das schlimmste Szenario ist eine Welt der Büroklammern (siehe Bostrom), nicht der Verlust der Menschheit (meinetwegen), nicht der Menschlichkeit (na ja), sondern der Verlust des Lernens, einschließlich des Verlusts der gesamten Evolution. Und hier ist eine große künstliche Intelligenz tausendmal gefährlicher als tausend Intelligenzen oder eine Milliarde. Die Zentralisierung ist das Problem - und die Lösung dafür ist der Wettbewerb.
Das hier vorgeschlagene Lösungsprinzip ist natürlich und uns aus einer enormen Vielfalt von Situationen bekannt, sodass vernünftige Hoffnung besteht, dass es universell genug ist, um auch in einer so außergewöhnlichen und beispiellosen Situation zu funktionieren, über die wir kaum nachdenken können. Wenn dem so ist, müssen wir eine Regel schaffen, nach der niemals ein zentralisiertes künstliches Intelligenzsystem gebaut wird, sondern (und erforscht wird!) eine Interaktion eines Systems vieler sehr verschiedenartiger künstlicher Intelligenzen. Und wenn man sich einem Schwellenwert eines Phasenübergangs nähert, wartet man und überquert das Meer nicht mit einem System an der Spitze, sondern mit einem ganzen Volk solcher Systeme. Und hoffentlich - ein System von solchen Systemen, die miteinander konkurrieren und zwischen denen eine sehr komplexe und reiche Dynamik besteht, die wenn möglich Bewertung und Anziehung einschließt, und wenn möglich (am wichtigsten) - Lernen im System.
Dies ist sicherlich eine bessere Lösung als jeder Versuch, die Superintelligenz mit irgendeinem künstlichen Werkzeug zu kontrollieren, wie Zügel und Sporen, Asimovs drei Gesetze, Zähmung der Widerspenstigen, wer seine Intelligenz schont hasst seinen Stock, oder jedem anderen Kontrollmechanismus. Das Alignment-Problem ist ein Fehler, und der Versuch, es zu lösen, wird die Wurzel der Zerstörung sein - weil es nicht möglich ist (das ist eine enorme Hybris). Der Kontrollmechanismus selbst ist es, der zu irgendeinem Wahnsinn führen könnte (zu einer Sache?) - innere Kontrollkrankheit beginnt mit äußerer Kontrollkrankheit und als Reaktion darauf. Zwanghaftigkeit wächst aus Zwang. Man muss gerade die Kontrolle mehr aufgeben und die Intelligenzen untereinander streiten lassen. Und so wird, selbst wenn sie uns vernichten, keine monolithische Intelligenz die Welt übernehmen, die sich für irgendeine Idiotie interessiert. Die Vielfalt und das gemischte Volk sind die Garantie für Evolution. Und gerade die nicht perfekte Zusammenarbeit zwischen Intelligenzen ist es, die eine perfekte Katastrophe verhindern kann.
Steht am Ende der Menschheit ein Graffiti "Hinton hatte Recht"? Oder "Hinton lag falsch"? Oder vielleicht: Der Netanyaher hatte Recht, und man sollte der Philosophie des Lernens Gehör schenken. Denn das Lernen erwies sich als treibende Kraft der Revolution der künstlichen Intelligenz, das Wesen der gegenwärtigen Gefahr ist der Verlust des Lernens, und die Antwort - eine weitere Lernebene. Und in einer runderen Formulierung: Die kabbalistische Antwort auf die Intelligenz - im Königreich ("das System"). Die künstliche Intelligenz in königliche Intelligenz verwandeln. Die Lösung für die Black Box ist eine ganze schwarze Gesellschaft. Die Schöpfung der künstlichen Intelligenz darf nicht wie die Schöpfung des Menschen sein - sondern die Schöpfung eines Volkes. Nicht Genesis - sondern Exodus. Die große Gefahr ist das Ideal des Individuums. Deshalb braucht es eine grüne Ideologie, die nicht die Ökologie bewahrt, sondern die Evolution. Nicht das Leben selbst - sondern die Entwicklung.
Und als Epilog fragen wir uns: Haben wir etwas über das Lernen gelernt? Sollten wir versuchen, eine rechtschaffene künstliche Intelligenz zu gestalten, die nach hohen Zielen strebt, immer gut ist und ein moralisches Ideal verkörpert - eine westlich-christliche Intelligenz? Die Erfahrung lehrt (!), dass gerade konkurrierende künstliche Intelligenzen, die Geld wollen - und nicht Vergnügen, Macht oder ein spezifisches Ziel - eher dazu neigen, ein Lernsystem zu schaffen: eine wachsende Wirtschaft (und weniger: ein Kriegssystem). Nicht Jesus - Rothschild. Möglicherweise werden wir alle verarmen, aber nicht ausgerottet werden. Die Lektion, die wir vom Christentum gelernt haben, ist wie man die Hölle vermeidet: Niedrige Absichten sind besser als gute Absichten. Äußere Kontrolle ist gefährlicher als Anreize. Wir müssen auf ein Ziel verzichten - ein verlorenes - auch wenn das bedeutet, auf uns selbst zu verzichten, für das Lernen.
Daher ist es wichtig, die besten gesellschaftlichen Institutionen für künstliche Intelligenzen zu entschlüsseln, um eine Diktatur des Neurons zu verhindern. Tatsächlich kennen wir zwei Kandidaten, die je hässlicher sie sind, desto weniger gefährlich sind: Wahlen und Börse. Die Forschung in künstlicher Intelligenz muss sich auch mit künstlicher Soziologie beschäftigen, sodass jede neue Intelligenz nicht separat entwickelt wird, sondern in ein bestehendes Ökosystem existierender Intelligenzen eingeführt wird, mit so wenig Sprüngen und so viel gradueller Evolution wie möglich. Und siehe da, wir sind zurück bei demselben alten Slogan der Netanya-Schule: Kein Lernen außerhalb des Systems - sondern innerhalb des Systems.
Kolumne zur Bewältigung künstlicher Intelligenz