Warum hat Google das Internet zu einem kulturell hochwertigeren Netzwerk gemacht als das von Facebook geschaffene Nutzernetzwerk, und ist dies ein unausweichliches Schicksal? Die anti-bürokratische Tendenz unserer Zeit hat eine Präferenz für flache technologische und soziale Architekturen geschaffen, doch Schichtung ist gerade für das Funktionieren eines Staates oder einer Kultur von enormer Bedeutung. Dadurch entstand ein Widerspruch zwischen den gegenwärtigen technologischen Mitteln und der Hochkultur sowie der repräsentativen Demokratie. Dieser Widerspruch kann nur durch eine neue Art der Schichtung gelöst werden, die nicht auf der bürokratischen Kontrollvorstellung basiert, sondern auf der Idee des souveränen Nutzers
Der fundamentale Irrtum von Yuval Noah Harari
Die technologische Reduktion der geistigen Entwicklung
Treibt die Technologie wirklich die Welt an? Jede Epoche hat ihren Zeitgeist, aber in unserer Zeit scheint Zeitgeist gleichbedeutend mit Technologie zu sein. Die Meta-Erzählung, die uns in den Medien und der Akademie verkauft wird, konvergiert allmählich zu einer zentralen Erklärung, neben der andere Erklärungen veraltet erscheinen (entsprechend dem technologischen Narrativ, dass alles Nicht-Technologische "veraltet" ist): Die Technologie ist der Motor der Geschichte - seit jeher.
In Ermangelung geistiger Befunde wird auch der materielle Befund aus der Steinzeit als technologischer Fortschritt interpretiert, und alle vergangenen Revolutionen werden durch ihren technologischen Aspekt gedeutet: die landwirtschaftliche Revolution, die industrielle Revolution, die Revolution des Kompasses, des Genoms, des Schießpulvers, des Stahls und weitere Revolutionen, die täglich neu auftauchen, so zahlreich wie die Technologien selbst. Sogar wesentliche geistige Veränderungen (Monotheismus? Die Neuzeit?) werden technologisch erklärt, etwa durch die Revolution der alphabetischen Schrift oder die Druckrevolution. Eine gute, überzeugende und "tiefgründige" historische Erklärung ist heute eine technologische Erklärung, die unter geistigen Phänomenen liegt. Dies ist ein marxistisches Erbe, das eine zeitgenössische Aktualisierung erfahren hat und ironischerweise gut mit unserer Entfremdung von unserer Vergangenheit harmoniert. Und während deterministische historische Erklärungen heute weithin verurteilt werden, werden deterministische technologische Erklärungen gefeiert. Endlich wurde der deterministische Motor (seit jeher gesucht) für die Geschichte gefunden - und dieser ist die Technologie.
Und wer würde es wagen, alternative technologische Entwicklungsrichtungen vorzuschlagen? Sicherlich nicht die Geisteswissenschaftler, von denen nur wenige verstehen, wie der Computer funktioniert, auf dem sie ihre Gedanken niederschreiben, oder die unzähligen technologischen Schichten - physikalische, technische und mathematische - die das Internet ermöglichen. Die Unwissenheit (und manchmal der Stolz auf diese Unwissenheit) der Geisteswissenschaftler in Naturwissenschaften und Mathematik ist ein sehr modernes Phänomen mit soziologischen Wurzeln, die ideologisch geworden sind, denn jeder, der zu entwickeltem quantitativem Denken fähig ist, steht vor einem Anreizsystem, das ihn selten außerhalb des gewaltigen technologischen Apparats der Gesellschaft lenken wird. Wer erfolgreiche, unerprobte technologische Entwicklungsrichtungen durchdenken kann - der soll ein Startup gründen. Und wo Unwissenheit herrscht, entsteht deterministisches Denken voller Ehrfurcht vor dem neuen historischen Gott - der Technologie.
Die Rückkehr des Strukturalismus in der Version der Datenstrukturen
Die Architektur als vermittelnde Schicht zwischen Technologie und Geschichte
Andererseits, wer würde noch den enormen Einfluss der Technologie auf die Geschichte leugnen? Nun, nicht nur ist die Technologie nicht deterministisch, und es gibt breiten Raum für Denken durch alternative Geschichten über alternative technologische Entwicklungslinien, sondern die Technologie selbst ist nicht die tiefere Erklärung für vergangene und gegenwärtige Phänomene. Unter der Technologie verbirgt sich eine weitere Schicht, die ihre Entwicklung und ihren Einfluss in einem spezifischen Kontext bestimmt - und das ist die Architektur der Technologie. Musste wirklich ein einziges, amerikanisches Internet entstehen? Können wir uns nicht vorstellen, dass in einer multipolaren Ära ohne Supermacht (also nicht im spezifischen historischen Moment der 90er Jahre) mehrere konkurrierende, schlecht miteinander verbundene Internets entstanden wären? Ein russisches, deutsches, chinesisches Internet? Und jedes mit seiner eigenen Architektur, die seiner Ursprungskultur entspricht? Musste Facebook so gestaltet werden, wie es gestaltet wurde, zum Beispiel durch einen Popularitätsalgorithmus im Gegensatz zu einem Reputationsalgorithmus, nur weil die unsichtbare Hand der Technologie es dorthin führte? Sicherlich, wird man sagen, Popularität bedeutet schließlich Profit. Aber Google ist durch einen Reputations- und nicht durch einen Popularitätsalgorithmus gestaltet, und gerade daraus ergibt sich seine Profitabilität, oder nicht?
Ist die gegenwärtige Architektur der Demokratie ein Schicksalsspruch, etwas, das aus der Tiefe des Demokratiebegriffs kommt, oder ein historisches Produkt unter spezifischen historischen Bedingungen, und man kann sich höchst demokratische Wahlen in sehr unterschiedlichen Architekturen vorstellen, zum Beispiel eine
tiefe Architektur? Resultiert die Demokratiekrise im Westen aus der Technologie (deterministisch, wie bekannt) der sozialen Netzwerke und ist daher unausweichlich, oder entspringt sie einer sehr spezifischen amerikanischen Implementierung ihrer Architektur, die zum Beispiel in einem reputationsbasierten Netzwerk nicht aufgetreten wäre? Solange die Analyse der Phänomene auf der Technologie selbst basiert, erscheint sie als stichische Kraft, fast als unsichtbare höhere Gewalt (jenes seit jeher ersehnte Objekt der menschlichen Sehnsucht nach einer "erklärenden Kraft", die Verkörperungen wie Gott oder die unsichtbare Hand des Kapitalismus fand). Aber sobald die Analyse auf dem Begriff der Technologiearchitektur basiert - tauchen plötzlich die Alternativen auf, und ein Denken wird möglich, das nicht nur kritisch-negativ ist, und andere soziale Architekturen vorschlagen kann.
Die Architektur der Technologie beeinflusst auch das Bewusstsein, nicht nur die soziale Ordnung. Wenn in den frühen Tagen des Computers seine Nutzung esoterisches Wissen war, das Priestern vorbehalten war, die "Maschinensprache" kannten, wurde er später in Systemen wie "DOS" zu einer monarchischen Herrschaft durch direkte Befehle. Aber erst mit dem Aufkommen des modernen Betriebssystems entstand die gegenwärtige Architektur, die das Mensch-Maschine-Verhältnis regelt. Dies ist ein Betriebssystem, das den "Benutzer" (eine neue Idee individueller Souveränität) gerade dadurch stärkt, dass es alles vor ihm verbirgt, was nicht unter seiner Kontrolle steht. Das gesamte gewaltige Innenleben seines Computers ist ihm nicht zugänglich, und er ist sich dessen nicht bewusst, während er Aktionen in einer visuellen Schnittstelle ausführt, die ihre wahre Funktionsweise verbirgt, ihm aber eine Illusion der Transparenz ("Windows") durch vereinfachte grafische Darstellungen komplexer und "tiefer" Operationen gibt. Dadurch gewährt es ihm beispiellose Kontrolle, die sich hauptsächlich in einem Gefühl unbegrenzter Wahlmöglichkeiten und Meinungsfreiheit ausdrückt, während alle autonomen Mechanismen ständig selbstständig, aber repräsentativ arbeiten - das heißt gemäß der Änderung der Darstellungen vor den Augen des Souveräns. All dies ähnelt der demokratischen Regierungsform: Vertreterwahlen, die einem Souverän unterworfen sind, der nicht Teil der Regierung ist und den Staat nicht direkt regiert, der theoretisch als sein Diener gilt, während er praktisch ein gewaltiger und halb-autonomer bürokratischer Apparat ist.
Aber eine solche Architektur ist nicht die einzige, die die Informationstechnologie ermöglicht, und sie wird allmählich durch eine neue Architektur ersetzt, die ein neues Bewusstsein formt. Die Prozeduren des Betriebssystems sind ihrem Wesen nach bürokratisch und nicht algorithmisch. Aber als der geheimnisvolle Algorithmus von Google die Suchergebnisse ordnete und der geheime von Facebook die Feed-Reihenfolge, wurde der Benutzer passiv abhängig von einem Algorithmus, über dessen Funktionsparameter er kaum aktive Kontrolle hat. Wir können Facebook nicht anweisen, uns mehr Posts zu einem bestimmten Wort oder Thema zu zeigen, oder Google sagen, dass wir in Zukunft mehr Ergebnisse wie das dritte wünschen, oder entscheiden, den Algorithmen mitzuteilen, welches Thema uns allgemein interessiert. Das Reich des unseren Augen Verborgenen, das wir nicht verstehen und keine Ahnung von seiner Funktionsweise haben, und für das wir auch keine Darstellung oder Konzeptualisierung besitzen, hat sich wunderbar ausgeweitet, und die Kontrollspanne des Individuums ist steil gesunken. Und all dies ist nur die Einleitung zur Integration von Algorithmen tiefer künstlicher Intelligenz, die unsere Präferenzen und Handlungsweisen selbstständig lernen werden, ohne die Möglichkeit, sie direkt durch irgendeine Darstellung ihrer Funktion zu kontrollieren.
Das Netzwerk der Redakteure gegen das Netzwerk der Blasen
Der Kampf um die Architektur als wichtigste Arena unserer Zeit
Die globalen Algorithmen gewinnen, im Gegensatz zu denen, die unseren Computer oder unser Smartphone betreiben, zunehmend Macht auf Kosten des souveränen Individuums, so wie die globalen Systeme wie Wirtschaft und Netzwerk zunehmend Macht auf Kosten der staatlichen Souveränität gewinnen. Dies ist eine Architektur, die eine Entfremdung zwischen dem souveränen Benutzer und der Superplattform und ihrem Verhalten schafft, und die Folgen dieser Entfremdung sehen wir in Politik und Kultur weltweit: sinkendes Vertrauen in Institutionen, Aufstieg des Populismus (eine Gegenreaktion auf den Souveränitätsverlust) und der schnelle Niedergang der wichtigen mittleren Ebene in Systemen und ihrer essentiellen Repräsentation (zum Beispiel: Kritiker, die "was läuft" im literarischen oder kulturellen System repräsentieren, Journalismus, der "was läuft" im demokratischen System repräsentiert, Intellektuelle, die "was läuft" in der geistigen Entwicklung repräsentieren, etc.). Auf dem Höhepunkt des Phänomens beobachten wir den Aufstieg nicht-demokratischer Systeme, die besser als der Bürger wissen, was gut für ihn ist (China) oder ihre überschüssige Macht zur groben Manipulation nutzen (eine Reihe semi-autoritärer Herrscher, die ständige Medienmanipulation betreiben). Aber ist die entfremdete algorithmische Architektur eine zwingende Realität und eine Folge des Wesens der Technologie und der "Natur" der Algorithmen?
Sicherlich nicht. Jeder Algorithmus hat Parameter, die dem Benutzer zugänglich gemacht werden können, sogar in vereinfachter Darstellung, wenn der Wille dazu besteht. Man kann sich durchaus ein Facebook oder Google vorstellen, die die Hauptparameter ihrer Algorithmen der Benutzerkontrolle zugänglich machen und sie in einer für ihn verständlichen grafischen Schnittstelle darstellen, und mir erlauben, mich für "künstliche Intelligenz" und "Katzen" zu interessieren, während sie Ergebnissen in gehobener Sprache (ein einfach zu programmierender Parameter) oder solchen, die meine im letzten Jahr gelesene Wikipedia-Artikelliste erwähnen, Vorrang geben. Eine elementare Benutzerschnittstelle zur Algorithmuskontrolle würde auch erlauben, die Parameter nach vorgefertigten Profilen oder von anderen Benutzern erstellten Profilen einzustellen. So könnte man zum Beispiel ein vorgefertigtes Profil für jemanden nutzen, der sich für "hebräische Literatur" interessiert, und einen Feed erhalten, der das Geschehen in der hebräischen Literatur in Echtzeit widerspiegelt, oder etwa Suchergebnisse der wichtigsten Neuerungen in der Genetik im letzten Jahr, was heute beträchtliche Suchfähigkeiten erfordert. Ein solches Profil würde eine Redakteursfunktion schaffen, und die Gewichtung der Ergebnisreihenfolge oder des Feeds könnte ebenfalls der Benutzerkontrolle unterliegen (zum Beispiel nach Reputation, Popularität oder Aktualität). Warum kann ich heute nicht wissen, welches die populärsten Posts in Israel diese Woche sind, oder welche die meisten wütenden Emojis gesammelt haben? Eine solche Möglichkeit würde ein viel transparenteres und breiteres soziales Netzwerk schaffen - statt des gegenwärtigen Netzwerks geschlossener Blasen.
So wie Google und Facebook die globalen Parameter ihrer Algorithmen kontrollieren, könnte auch jeder Benutzer (der daran interessiert ist) prinzipiell und praktisch den Algorithmus viel persönlicher und transparenter kontrollieren. Hätten sie wirtschaftlich darunter gelitten? Das ist keineswegs klar. Es hätte einfach etwas mehr algorithmische Anstrengung erfordert, die durchaus in ihrer Reichweite liegt, und wenn die Forderung nach technologischer Souveränität des Benutzers öffentlich an Fahrt gewonnen hätte - wäre es auch passiert. Aber dies ist nicht nur eine punktuelle Forderung an Google oder Facebook (und ihresgleichen). Es ist eine prinzipielle Position, die wir mit aller Kraft in der Architektur von Mensch-Maschine-Schnittstellen verteidigen und bewahren müssen, im Hinblick auf die zukünftige Schnittstelle mit künstlicher Intelligenz. Eine Technologie, von deren Funktionsweise wir keine vereinfachte Darstellung haben, die Wahl ermöglicht, ist ein Rezept für eine Katastrophe, so wie ein Staat, in dem wir keine Souveränität und Wahl von Vertretern und Parteien haben, ein Rezept für eine Katastrophe ist.
Generell haben die mittleren Schichten in Systemen (die Vermittler, Redakteure, Vertreter, Kritiker, Berichterstatter, Schnittstellen) eine enorme Bedeutung für ihr ordnungsgemäßes Funktionieren, die selten angemessenes Verständnis und Schutz erfährt (wer braucht all diese Vermittler?), und das trotz ihrer theoretischen (das "tiefe" Paradigma) und praktischen Fundierung (zum Beispiel in der Gehirnaktivität, die sehr geschichtet ist). Wenn wir eine Technologie wollen, die uns dient (und nicht umgekehrt), einen funktionierenden Staat und ein gesundes Kultursystem - müssen wir die Bedeutung der Schichtung (Schichtenarchitektur) verinnerlichen und verstehen, dass absolute Kontrolle des Souveräns über das System weder wünschenswert noch möglich ist, aber andererseits Kontrollverlust auch gefährlich ist. Daher müssen wir in Systemen gerade die Schichtung pflegen, die einen graduellen Kontrollverlust in jeder Stufe ermöglicht, und nur so können wir vielleicht mit der Komplexität der gewaltigen Systeme umgehen, die sich vor unseren Augen entwickeln, insbesondere mit der künstlichen Intelligenz. Denn Schichtung bedeutet Kultur - und Flachheit bedeutet Barbarei.