Hier jeudi 9 janvier 2025 avait lieu à la galerie NUNC à Grenoble une rencontre autour des œuvres de l'artiste JBC qui portait ce titre. Je me suis interrogé, comme m'y invitait la belle affiche de l'événement, sur la relation entre IA et totalitarisme. Voici une version quelque peu développée de mes propos.
Mon objectif, lorsque je réponds à une invitation comme celle de ce soir, est d'essayer d'apporter le concours de la philosophie éthique et politique à la compréhension de la transformation des activités humaines sous l’effet du déploiement des systèmes d’IA. Ce dernier apparaît massif et fortement transformant pour toutes les activités professionnelles, institutionnelles et sociales (privées et publiques) actuelles.
La question est pour moi également de préciser si, sous l’effet de cette transformation concrète, s’opère également une autre transformation, plus abstraite mais dont les effets sont réels. Est-ce que les concepts fondamentaux de la grammaire philosophico-politique se transforment eux aussi ? Ces concepts sont de ce genre-là : l’idée de la liberté privée et publique, celle de l’autorité, celle de l’égalité, etc. Il est parfaitement possible que ce soit le cas, et alors, comme ces concepts servent à stabiliser la réalité et à organiser l’activité, il faut les amender ou en créer de nouveaux.
En somme, la question revient à se demander : comment traduire un nouveau phénomène dans un langage préexistant (étant entendu que la plupart du temps on n’appréhende le nouveau qu’à travers des langages et des catégories mentales héritées) ? Cette tâche fondamentale doit s’accompagner d’une nécessaire prudence. Soumises à une dynamique de transformation de grande intensité sous l’effet de telles innovations, ces activités sont en effet en pleine évolution, peu stabilisées et susceptibles de remettre en question un certain nombre de concepts jusqu’ici stabilisés.
Autre point important, mon hypothèse est que le développement des IA dans la société s’effectue à travers ce que j’ai appelé le paradigme de l’innovation (Ménissier, 2016, 2021, 2022), c’est-à-dire via une logique devenue presque invisible mais très particulière dans laquelle les apports scientifiques et technologiques sont diffusés dans la société tout autrement qu’ils l’étaient dans l’ancien modèle, celui du progrès. On peut souligner deux grandes différences majeures entre ces deux modèles. Dans celui de l'innovation, le sens et la valeur intrinsèques des connaissances ou du savoir scientifique tend à s’effacer devant leur sens d’utilité ou d’usage et leur valeur commerciale et financière, d’une part ; de l’autre, l’organisation (géopolitique, sociale) des acteurs n’est pas la même ici et là : dans celui de l'innovation, les grandes entreprises prennent le pas sur la puissance des États, lesquels constituaient les acteurs majeurs de l'histoire mondiale lors de l'ère du progrès.
D'une certaine manière, le développement global et contemporain de l’IA dans les activités sociales ne représente rien d’autre qu’un cas d'innovation, au sein de sociétés (industrielles) qui en ont déjà connu un certain nombre, et de grande ampleur. Certes, il s'agit d'un cas particulièrement massif et susceptible de modifier bien des situations voire de faire perdre de vue des points de repères importants.
C’est dans ce contexte, me semble-t-il, que la question se pose de savoir si les concepts classiques aidant à la conception des formes de pouvoir sont encore pertinents ou s’ils sont inutiles car obsolètes. Il faut également se demander si, dans la mesure où c’est cette seconde option s’impose, ils ne font pas écran à la compréhension de ce qui se passe effectivement : lorsqu'ils sont mécaniquement plaqués sur de nouvelles réalités (scientifiques, technologiques, sociales et politiques), les vieux concepts constituent même des manières de voir et de dire dangereuses si l'on veut disposer d'une intelligence lucide sur les nouvelles réalités. C'est pourquoi, en ce cas, il apparaît nécessaire d'en créer de nouveaux. Ce genre de questionnement me semble personnellement représenter une des conditions de base du travail philosophique, surtout dans la tradition dite continentale qui nourrit les cursus par l'étude des grandes œuvres du passé et dans laquelle on ne devient un philosophe patenté que sous la condition de la fréquentation assidue des vieux et grands maitres. Il est nécessaire si l'on veut éviter de produire des philosophes déconnectés du réel : faute de quoi, en effet, ce système éducatif ne produit au mieux que d'honnêtes antiquaires, au pire d’irascibles conservateurs du patrimoine, mais pas des philosophes.
Le concept de totalitarisme a été forgé dans les années 1920 puis longuement travaillé par des auteurs de tendances philosophiques et politiques variées pour rendre compte, le plus souvent de manière critique, des nouvelles formes du pouvoir étatique apparues au début du XXème siècle avec la conjonction de l'étatisme, du nationalisme et de l'industrie de masse (Traverso, 2001 ; Bruneteau, 2014). Dans son ample ouvrage sur les Origines du totalitarisme (1951), Hannah Arendt lui a donné une forme particulièrement aiguë, qui évoque une forme de pouvoir certes étatique et nationale (ce qui existait depuis très longtemps) mais surtout absolument originale dans ses modalités, reposant sur la violence guerrière, l’organisation industrielle de la mort et la production de la terreur, et dont l’effet est de déshumaniser les personnes sous l’effet de facteurs tels que l'intimidation psychologique, la galvanisation des masses et le contrôle des conduites et des pensées. En proposant une phénoménologie du pouvoir inédite, Arendt expliquait que de tels effets étaient (génériquement appréhendés) produits par la répression des relations entre les personnes de même que par la négation de leurs particularités individuelles. Si bien qu'on parvenait, dans l'Allemagne nazie comme en URSS, aussi bien à ramener les humains à un ensemble de réactions animales conditionnées que, finalement, à rendre l'humain « superflu ». Comme on sait, cette élaboration est contemporaine de la fiction inventée en 1948 par Georges Orwell, 1984, et les deux visions apparaissent même fortement convergentes.
Le concept de totalitarisme m'apparait personnellement inadapté pour penser le nouveau régime technologique (numérique et algorithmique) qui s’installe avec le développement de l’IA. Non pas qu’il n’y ait pas aujourd’hui l’installation d’un pouvoir qui peut être à bien des égards liberticide (j'estime au contraire qu'il y a bien des tendances liberticides dans le déploiement contemporain de l'IA), mais le concept de totalitarisme ne convient pas pour en rendre compte.
Pour quelles raisons ? Il y en a plusieurs. La première tient au fait que le régime numérique-algorithmique, post-nationaliste, correspond à un monde global qui met désormais les humains en relation pour échanger dans des espaces d’une taille considérable. La seconde est que, formellement au moins, cet espace est régi par une culture voire par des règles démocratiques, c’est-à-dire admettant le désaccord et la controverse. La troisième tient au caractère fortement individualisé des solutions numériques et algorithmiques : délivrées dans le cadre de l’économie de l’innovation, les systèmes d’IA sont centrés sur les usagers, sur leurs besoins et leurs désirs, dans la mesure où les services numériques impliquant de l'intelligence artificielle sont désignés pour produire de la reconnaissance et de l'appartenance. Bref, tout est fait dans le dessein que l’IA rende heureuse la majorité des personnes. Le vieux concept de totalitarisme est obsolète et, sauf dérive anormale d'un gouvernement (qu'il est toujours possible de contester et de dénoncer) et en dehors de l'état d'exception (par exemple sanitaire, comme celui de la pandémie de COVID-19) aucun Big Brother ne nous surveille pour nous terroriser…
Si la philosophie peut contribuer à l’intelligence de la situation, c’est en fournissant des concepts qui lui sont adaptés – ce qui oblige à faire preuve d’inventivité lorsque les lignes habituelles se troublent. Or, confrontés à la nouvelle situation socio-technique, les philosophes ou auteur.es apparentés n’ont pas, depuis la vague numérique précédant la vague algorithmique actuelle, manqué de proposer de nouveaux concepts, dont voici quelques exemples particulièrement intéressants : « Catopticon » suspects de développer de la « sous-veillance » (Ganascia 2009), « Gouvernementalité algorithmique » (Rouvroy & Berns, 2013), « Datacratie » (Pouvoirs, 2018), « Algocracie » (Danaher, 2016, 2022 : PDF), « Stack » (« empilement ») (Bratton, 2016), « capitalisme de surveillance » (Zuboff, 2019), « Empire du signal » (Chardel, 2020), « Sociétés du profilage » (Huneman, 2023).
La plupart de ces caractérisations repose sur le fondement implicite de la conception moderne de la subjectivité, qui serait soucieuse de sincérité, capable d’autonomie et désireuse d’émancipation. Ce qu’on constate pourtant aujourd’hui, c’est la remise en question de cette tendance supposée naturelle à la condition humaine. Dès la vague numérique, on pouvait en effet constater à l’étude des réseaux sociaux des phénomènes de « servitude librement consentie (Martin-Juchat & Pierre, 2011), et la vague actuelle de l’IA permet de constater des phénomènes de « servitude volontaire » dans la société algorithmique (Ménissier, 2021), au point qu’on a récemment pu écrire un « discours de la servitude numérique » (Poitevin 2023).
Fait récent et original, les IA dites génératives, plus particulièrement à la mode, incluent des expressions mais également des relations émotionnelles. C’est ce que mettent particulièrement bien en valeur les œuvres de JBC exposées ce soir : tous les personnages ont l’air ravis immensément joyeux et même pleinement comblés, et j’estime en effet que les IA génératives tendent à produire ce climat émotionnel de bonheur. Et de ce fait elles viennent encore davantage compliquer la situation. Leur apparition fracassante n’était d’ailleurs pas évidente dans le contexte historique de la naissance de l’intelligence artificielle, dont le projet était plutôt celui de la création d’un artifice capable de reproduire (en les mimant ou non) certaines fonctions intellectuelles de l’humain – telle était l’ambition perceptible à la fois dans l'article séminal d'Alan Turing (1950 : PDF) et dans le programme de la conférence de Dartmouth de l'été 1956 (ainsi que le rappelle Andler, 2023). Ces « nouveaux entrants » dans l’outillage technique (domestique et organisationnel) s’apparentent plutôt à des systèmes susceptibles de créer une nouvelle forme de pouvoir biopolitique. Par ce terme, Michel Foucault entendait caractériser des dispositifs qui invisibilisent la domination, qui contrôlent en douceur la population en agissant sur ses milieux de vie, capables de la « faire vivre et laisser mourir ». Les précédents systèmes (concernant la souveraineté et la discipline) étaient quant à eux destinés à la « faire mourir et laisser vivre » (Foucault, 1976).
La nouveauté avec nos IA génératives figurant les émotions est qu’elles stimulent effectivement ces dernières. Cela invite à considérer combien le nouveau système technologique crée des communautés d’émotions. A la place de la biopolitique, il serait donc judicieux d’évoquer la mise en place d’une « pathopolitique » (une « politique des passions »). Comparables aux dispositifs biopolitiques sans cependant s’y réduire, ces systèmes procèdent par un contrôle subtil : ils invitent à libérer les émotions, ils les suscitent même en créant de véritables communautés sensibles et enfiévrées. Toutefois, à l’inverse du populisme dont elle est pourtant contemporaine, la pathopolitique ne procède pas vraiment par des mobilisation mais plutôt par sur-individuation, puisqu’elle tend à enfermer chacun.e dans la « chambre d’échos » (Maclure, 2024) de ses propres émotions. Le contrôle pathopolitique est invisible aux usagers qu’il rend heureux en les enfermant dans leur effervescence émotionnelle. Il invite de ce fait à prendre en compte une toute nouvelle forme de « moralité des systèmes techniques », à savoir les valeurs engrammées dans leur design (Verbeek, 2011). Il ne sépare pas du tout les individus les uns des autres en anéantissant l’espace entre eux, ainsi qu’Arendt l’affirmait à propos du totalitarisme. Ils proposent au contraire de multiplier « les sources du moi » (qui, selon Charles Taylor, 1998, nourrissent les subjectivités) au point que les individus sont comme désorientés, car susceptibles de s’affilier à trop d’appartenances éphémères.
Que recouvre donc le rapport du sujet à lui-même à travers des IA génératives sensibles ? De nouveaux et vertigineux récits de soi à travers de l’empathie stimulée ad nauseam : la subjectivation devient l’inverse d’un enracinement, elle repose sur de l’émotion algorithmiquement démultipliée, comme pour faire écran à la (sempiternelle) difficulté d’être soi. Et que se passe-t-il aujourd’hui, du point de vue politique, dans la raison algorithmique ? Tandis que la formule des anciennes IA issues de l’ambition de Dartmouth s’exprimait plutôt comme « faire penser et laisser s’émouvoir », la formule de nos enchantements artificiels sensibles semble désormais plus proche de « faire s’émouvoir et laisser penser ».
Finalement, la stimulation émotionnelle intense et permanente accessible à travers les terminaux individuels, promettant un bonheur sensible peut-être jamais atteint dans de telles proportions, fait que les intellectuels peuvent penser ce qu'ils ou elles veulent, cela change bien peu de choses. Alors, je concède volontiers que nous vivons une situation de totalisation affective et de bonheur englobant, encouragés par une « idéologie hédoniste totalitaire » (et qu'Hannah Arendt me pardonne cet oxymore), mais il n'y a pas de contrôle forcé des consciences et d'imposition de la terreur sur les comportements de type totalitaire, absolument pas, et bien au contraire : sous réserve d'avoir accès à de bonnes conditions de crédit, les délices d'une marchandise désignée pour créer un sentiment de distinction et d'appartenance sont accessibles. Or, le bonheur matériel conjugué au sentiment de la reconnaissance, ce n'est pas peu de choses pour l'être humain : tout se passe comme si le capitalisme de l'innovation dopé par les algorithmes et les réseaux sociaux avait réussi à dissiper des siècles de pénurie, de frustration, d'angoisse et d'indifférence. Toujours est-il que l'utilitarisme individualiste triomphe dans un cadre où l'idéal industriel hérité du XIXème siècle paraît réalisé, et même amélioré par la science du design. La question est donc de savoir si bonheur et liberté vont de pair, ou encore jusqu'où vont-ils aujourd'hui de pair. Sur le principe, il ne me semble pas impossible de soutenir que jusqu'à un certain point ils peuvent aller de pair. Compte non tenu, évidemment, du caractère soutenable ou non du modèle industrialiste qui sert de base à la nouvelle configuration sociale.
A la rigueur, si l’on veut mobiliser un concept qui fait peur, c’est moins le totalitarisme auquel je penserais que celui de nihilisme. Il me semble en effet qu’il y a bien un nihilisme informatique qui trouve dans le phénomène global qu’est la diffusion de l’IA une expression préoccupante. Mais c’est une autre histoire, sur laquelle je reviendrai plus tard…