Pourquoi Google a-t-il transformé le réseau de sites en un réseau culturel et qualitatif supérieur au réseau d'utilisateurs créé par Facebook, et est-ce une fatalité ? La tendance anti-bureaucratique de notre époque a créé une préférence pour des architectures technologiques et sociales plates, mais la stratification est d'une importance cruciale pour le fonctionnement d'un État ou d'une culture. Ainsi, une contradiction est née entre les moyens technologiques actuels et la haute culture et la démocratie représentative. Cette contradiction ne pourra être résolue que par un nouveau type de stratification, qui n'est pas basé sur l'idée du contrôle bureaucratique, mais sur l'idée de l'utilisateur souverain
L'erreur fondamentale de Yuval Noah Harari
La réduction technologique du développement de l'esprit
La technologie fait-elle vraiment avancer le monde ? Chaque époque a son Zeitgeist, mais à notre époque, il semble que Zeitgeist signifie technologie. Le méta-récit qu'on nous vend dans les médias et le monde universitaire converge progressivement vers une explication centrale unique, face à laquelle les autres explications semblent dépassées (conformément au récit technologique selon lequel tout ce qui n'est pas technologique est "dépassé") : la technologie est le moteur de l'histoire - depuis toujours.
En l'absence de vestiges spirituels, même les vestiges matériels de l'âge de pierre sont interprétés comme un progrès technologique, et toutes les révolutions du passé sont interprétées à travers leur aspect technologique : la révolution agricole, la révolution industrielle, la révolution de la boussole, du génome, de la poudre à canon, de l'acier, et d'autres révolutions qui émergent régulièrement au rythme des technologies. Même les changements spirituels fondamentaux (monothéisme ? époque moderne ?) sont expliqués technologiquement, par exemple à travers la révolution de l'écriture alphabétique ou la révolution de l'imprimerie. Une bonne explication historique, convaincante et "profonde" aujourd'hui est une explication technologique sous-jacente aux phénomènes spirituels. C'est un héritage marxiste qui a reçu une mise à jour contemporaine et, ironiquement, s'accorde parfaitement avec notre aliénation de notre passé. Et si les explications historiques déterministes sont aujourd'hui largement condamnées - les explications technologiques déterministes sont célébrées. Enfin, le moteur déterministe (recherché depuis toujours) de l'histoire a été trouvé - et c'est la technologie.
Et qui oserait contester et proposer des voies alternatives de développement technologique ? Certainement pas les intellectuels, dont peu comprennent comment fonctionne l'ordinateur sur lequel ils écrivent leurs réflexions, ou les innombrables couches technologiques - physiques, techniques et mathématiques - qui permettent l'existence d'Internet. L'ignorance (et parfois la fierté de l'ignorance) des intellectuels en sciences naturelles et en mathématiques est un phénomène très moderne, qui a des racines sociologiques devenues idéologiques, car quiconque capable de pensée quantitative développée fait face à un système d'incitations qui le dirigera rarement hors de l'immense appareil technologique de la société. Celui qui peut penser à des voies de développement technologique réussies non testées - qu'il crée une start-up. Et quand l'ignorance règne, une pensée déterministe et pleine de révérence émerge face au nouveau dieu historique - la technologie.
Le retour du structuralisme version structures de données
L'architecture comme couche médiatrice entre la technologie et l'histoire
D'autre part, qui nierait encore l'influence immense de la technologie sur l'histoire ? Eh bien, non seulement la technologie n'est pas déterministe, et il existe un vaste champ de réflexion à travers des histoires alternatives sur des lignes de développement technologique alternatives, mais la technologie elle-même n'est pas l'explication profonde des phénomènes passés et présents. Sous la technologie se cache une autre couche, qui détermine son développement et son influence dans un contexte spécifique - c'est l'architecture de la technologie. Devait-il vraiment y avoir un seul Internet, américain ? Ne pouvons-nous pas imaginer que dans une ère multipolaire, sans superpuissance (c'est-à-dire pas au moment historique spécifique des années 90), plusieurs Internets concurrents auraient émergé, ne se connectant pas bien entre eux ? Un Internet russe, allemand, chinois ? Et chacun avec sa propre architecture, correspondant à la culture dont il est issu ? Facebook devait-il être conçu comme il l'est, par exemple avec un algorithme de popularité plutôt qu'un algorithme de réputation, simplement parce que c'est là que la main invisible de la technologie l'a conduit ? Certes, diront-ils, la popularité signifie le profit. Mais Google est conçu avec un algorithme de réputation et non de popularité, et c'est précisément de là que vient sa rentabilité, n'est-ce pas ?
L'architecture actuelle de la démocratie est-elle une fatalité, quelque chose qui découle de la profondeur du concept de démocratie, ou un produit historique dans des conditions historiques spécifiques, et peut-on imaginer des élections parfaitement démocratiques dans des architectures très différentes, par exemple une
architecture profonde ? La crise de la démocratie en Occident découle-t-elle de la technologie elle-même (déterministe, comme on le sait) des réseaux sociaux et est donc une fatalité, ou peut-être découle-t-elle d'une mise en œuvre américaine très spécifique de son architecture, qui ne se serait pas produite, par exemple, dans un réseau basé sur la réputation ? Tant que l'analyse des phénomènes est basée sur la technologie elle-même, elle apparaît comme une force stochastique, presque comme une force supérieure invisible (cet objet de désir de la nature humaine pour une "force explicative" depuis toujours, qui a connu des incarnations comme Dieu ou la main invisible capitaliste). Mais dès que l'analyse est basée sur le concept d'architecture de la technologie - soudain les alternatives émergent, et une pensée qui n'est pas seulement critique-négative devient possible, ainsi que la proposition d'autres architectures sociales.
L'architecture de la technologie influence aussi la conscience, pas seulement l'ordre social. Si au début de l'informatique, son utilisation était un savoir ésotérique réservé aux prêtres qui connaissaient le "langage machine", plus tard dans des systèmes comme "DOS", elle est devenue un règne monarchique par commandes directes. Mais ce n'est que lorsque le système d'exploitation moderne est apparu qu'est née l'architecture actuelle qui régule les relations homme-machine. C'est un système d'exploitation qui autonomise l'"utilisateur" (nouvelle idée de souveraineté individuelle) précisément en lui cachant tout ce qui n'est pas sous son contrôle. Toutes les entrailles immenses de l'ordinateur qu'il a entre les mains ne lui sont pas accessibles, et il n'est pas conscient de leur existence, alors qu'il effectue des actions dans une interface visuelle qui cache leur véritable fonctionnement, mais lui donne une illusion de transparence ("fenêtres") à travers des représentations graphiques simplifiées d'actions complexes et "profondes". Ainsi, il lui accorde un contrôle sans précédent, qui se manifeste principalement dans un sentiment de capacité de choix illimité et de liberté d'expression, tandis que tous les mécanismes autonomes fonctionnent constamment de manière indépendante mais représentative - c'est-à-dire selon le changement dans les représentations devant les yeux du souverain. Tout cela, similaire à la forme de gouvernement démocratique : élection de représentants soumis à un souverain qui ne fait pas partie du gouvernement, et ne dirige pas directement l'État, qui est théoriquement considéré comme son serviteur, mais qui est en pratique un immense système bureaucratique semi-autonome.
Mais une telle architecture n'est pas la seule permise par la technologie de l'information, et elle est progressivement remplacée par une nouvelle architecture, qui façonne une nouvelle conscience. Les procédures du système d'exploitation sont essentiellement bureaucratiques et non algorithmiques. Mais quand l'algorithme mystérieux de Google a organisé les résultats de recherche, et celui secret de Facebook l'ordre du fil d'actualité, l'utilisateur est devenu passivement dépendant d'un algorithme sur lequel il n'a presque aucun contrôle actif des paramètres. Nous ne pouvons pas demander à Facebook de nous montrer plus de posts sur un certain mot ou domaine, ou dire à Google que nous voulons à l'avenir plus de résultats comme le troisième, ou décider de dire aux algorithmes quel sujet ou thème nous intéresse en général. Le royaume de ce qui est caché à nos yeux, que nous ne comprenons pas et dont nous n'avons aucune idée du fonctionnement, et dont nous n'avons même pas de représentation ou conceptualisation quelconque, s'est considérablement élargi, et le contrôle de l'individu a fortement diminué. Et tout cela n'est qu'une introduction à l'intégration d'algorithmes d'intelligence artificielle profonde qui apprendront nos préférences et nos modes de fonctionnement d'eux-mêmes, sans possibilité de les contrôler directement à travers une quelconque représentation de leur fonctionnement.
Le réseau des éditeurs contre le réseau des bulles
La lutte pour l'architecture comme arène la plus importante de notre temps
Les algorithmes globaux, contrairement à ceux qui font fonctionner notre ordinateur ou téléphone personnel, accumulent de plus en plus de pouvoir aux dépens de l'individu souverain, tout comme les systèmes globaux, tels que l'économie et le réseau, accumulent du pouvoir aux dépens de la souveraineté étatique. C'est une architecture qui crée une aliénation entre l'utilisateur souverain et la super-plateforme et son fonctionnement, et nous voyons les résultats de cette aliénation dans la politique et la culture à travers le monde : baisse de confiance dans les institutions, montée du populisme (réaction à la baisse de souveraineté), et déclin rapide du niveau intermédiaire dans les systèmes et la représentation vitale qu'il fournit (par exemple : critiques qui représentent "ce qui se passe" dans un système littéraire ou culturel, journalisme qui représente "ce qui se passe" dans le système démocratique, intellectuels qui représentent "ce qui se passe" dans le développement de l'esprit, etc.). Au sommet du phénomène, nous assistons à l'émergence de systèmes non démocratiques qui savent mieux que le citoyen ce qui est bon pour lui (Chine) ou utilisent leur pouvoir excédentaire pour une manipulation grossière sur lui (une série de dirigeants semi-autoritaires qui exercent une manipulation médiatique constante). Mais l'architecture algorithmique aliénée est-elle une nécessité, et une conséquence de l'essence de la technologie et de la "nature" des algorithmes ?
Certainement pas. Tout algorithme a des paramètres, qui peuvent être rendus accessibles à l'utilisateur, et même dans une représentation simplifiée, s'il y a une volonté pour cela. On peut certainement imaginer un Facebook ou un Google qui rendent accessibles les paramètres principaux de leurs algorithmes au contrôle de l'utilisateur, et les représentent dans une interface graphique qui a du sens pour lui, et me permettent de choisir de m'intéresser à l'"intelligence artificielle" et aux "chats", tout en donnant la priorité aux résultats écrits dans un langage soutenu (paramètre simple à programmer) ou ceux qui mentionnent la liste des articles Wikipédia que j'ai lus l'année dernière. Une interface utilisateur élémentaire pour contrôler l'algorithme permettrait également d'ajuster les paramètres selon des profils prédéfinis, ou ceux créés par d'autres utilisateurs. Ainsi, on pourrait par exemple utiliser un profil prédéfini de quelqu'un qui s'intéresse à la "littérature française", et recevoir un fil qui reflète ce qui se passe dans la littérature française en temps réel, ou par exemple des résultats de recherche des innovations les plus importantes en génétique de l'année dernière, ce qui nécessite aujourd'hui des capacités de recherche non négligeables. Un tel profil créerait une fonction d'éditeur, et la pondération de l'ordre des résultats ou du fil pourrait également être soumise au contrôle de l'utilisateur (par exemple selon la réputation, la popularité ou la tendance). Pourquoi ne puis-je pas savoir aujourd'hui quels sont les posts les plus populaires en France cette semaine, ou ceux qui ont recueilli le plus d'émojis en colère ? Une telle possibilité créerait un réseau social beaucoup plus transparent et large - au lieu du réseau actuel de bulles fermées.
Tout comme Google et Facebook contrôlent les paramètres globaux de leurs algorithmes, chaque utilisateur (qui le souhaite) pourrait en principe et en pratique contrôler l'algorithme de manière beaucoup plus personnelle et transparente. En auraient-elles souffert économiquement ? Ce n'est pas du tout clair. Cela aurait simplement nécessité un peu plus d'effort algorithmique, qui est certainement à leur portée, et si la demande de souveraineté technologique de l'utilisateur avait pris de l'ampleur publique - cela se serait produit. Mais ce n'est pas seulement une demande ponctuelle à Google ou Facebook (et leurs semblables). C'est une position de principe que nous devons défendre et préserver farouchement dans l'architecture des interfaces homme-machine, en vue de l'interface future avec l'intelligence artificielle. Une technologie dont nous n'avons pas de représentation simplifiée du fonctionnement permettant le choix est une recette pour le désastre, tout comme un État où nous n'avons pas de souveraineté et d'élections de représentants et de partis est une recette pour le désastre.
En général, les couches intermédiaires dans les systèmes (les médiateurs, éditeurs, représentants, critiques, commentateurs, interfaces) ont une importance énorme pour leur bon fonctionnement, qui est rarement comprise et préservée comme il se doit (qui a besoin de tous ces intermédiaires ?), et ce malgré sa base théorique (le paradigme "profond") et pratique (par exemple dans l'activité du cerveau, très stratifié). Si nous voulons une technologie qui nous serve (et non l'inverse), un État fonctionnel, et un système culturel sain - nous devons intérioriser l'importance de la stratification (architecture en couches), et comprendre qu'un contrôle total du souverain sur le système n'est ni souhaitable ni possible, mais d'autre part la perte de contrôle est aussi dangereuse. Il faut donc cultiver dans les systèmes précisément la stratification qui permet une perte de contrôle graduelle à chaque étape, et ce n'est que ainsi, peut-être, que nous pourrons faire face à la complexité des systèmes immenses qui se développent sous nos yeux, et en particulier avec l'intelligence artificielle. Car la stratification signifie la culture - et la superficialité signifie la barbarie.