Je signale ce petit podcast dont la parution m'avait échappé (merci pour votre aimable sollicitation Sciences Citoyennes). Il me donne l'occasion de revenir sur ce que signifie pour moi, philosophe tourné vers la pratique et engagé dans un travail d'animation d'équipe, de m'intéresser au système technologique global qu'on appelle "intelligence artificielle".
Il ne peut exister d'éthique de l'intelligence artificielle si l'on ne saisit pas les multiples dimensions dans lesquelles se déploie ce système - même celles qui sont équivoques, indépassablement équivoques pourrais-je dire, comme l'imaginaire d'une intelligence non naturelle ou non humaine. Que les informaticien.nes et roboticien.nes le veuillent ou non, et quoiqu'ils/elles s'en défendent, le déploiement sociétal de l'IA n'a jamais été coupé d'un tel imaginaire.
Aussi, face à l'ampleur du projet de ce "grand automate" qu'est l'IA, héritière lointaine du projet cybernétique, il est impossible de la considérer seulement comme un sujet scientifique ou un problème technologique. Je fonde ce jugement sur trois convictions.
Ma première conviction est d'abord que ce système technique global (reposant sur un idéal d'automaticité calculée pour toutes sortes de fonctions) ne peut faire sens que si son déploiement est accompagné par une compréhension réflexive (donc, philosophique) adéquate. Or, ce n'est pas encore le cas. Il convient pourtant d'approfondir la réflexion afin d'accueillir l'IA en fonction de la construction de son sens pour la société dans laquelle elle se déploie, et ce dans tous les domaines d'activités où c'est le cas. Je sais, la tâche est tellement vaste qu'elle donne le vertige...
La deuxième est ensuite que, comme pour toute innovation, seuls les retours d'usage effectués par toutes les parties prenantes ont de la valeur pour éprouver (afin de les corriger / valider) les expérimentations qui doivent accompagner le déploiement de l'IA.
C'est pourquoi, ainsi que s'y emploie la petite équipe de contributrices et contributeurs qui m'accompagne dans le projet de la chaire éthique&IA (autre présentation ici) de l'institut grenoblois MIAI, les sciences humaines et sociales sont requises pour observer et juger la valeur de ces expérimentations. L'éthique de l'IA est nécessairement aussi celle qui repose sur les usages, je veux parler de l'éthique des usages de l'IA (non moins pertinente que l'éthique informatique et robotique produite par les spécialistes de ces sciences), que je propose de nommer par référence aux méthodologies et à l'esprit de l'User experience : UX AI ethics.
La troisième est que l'éthique pertinente pour l'IA ne peut être coupée du défi environnemental contemporain. Ainsi, l'éthique environnementale de l'IA constitue même un des sujets majeurs pour toute approche contemporaine quelque peu responsable. Or, pour diverses raisons, il est manifestement occulté par les scientifiques et les experts du secteur. D'où vient ce déni ? Constituer la généalogie de ce genre de résistances - et par suite désocculter les dénis qui entourent la constitution de l'IA - cela fait partie du projet de la chaire que je porte.
A cet égard, je voudrais achever ce billet par une anecdote. Il y a quelque temps, notre institut a été visité par des experts d'une importante institution nationale. Nous étions une dizaine de porteurs/ses de chaire à être auditionnés. A la fin de la séance, on nous demande ce que, selon nous, il faudrait améliorer à la Stratégie National en faveur de l'IA (SNIA) et plus généralement dans le cadre de la solution européenne sur le déploiement de l'IA (UE). Responsable de la chaire éthique, je réponds qu'une clause d'éthique, précisément, devrait être systématiquement imposée à tout projet scientifique et technologique déposé au niveau hexagonal et européen, qui viserait tout à la fois à faire décrire les risques éthiques et à exposer mieux qu'on ne le fait actuellement les avantages sociétaux attendus par le projet ou la publication. Tout le monde opine et trouve que c'est une excellente idée, et nos visiteurs notent l'idée.
Aussitôt, et comme en réaction à ma proposition et à l'effet qu'elle produit sur ces derniers, deux de mes excellents collègues scientifiques ajoutent que dans leur domaine, les mathématiques-informatiques, une telle idée n'a rien de nouveau puisque les grandes conférences ainsi que certaines revues procèdent ainsi et imposent de telles clauses. Les collègues ajoutent cependant que des services plus ou moins officieux se sont déjà développés afin d'offrir contre rémunération des argumentaires ad hoc avant soumission des projets et des articles afin de rendre les uns et les autres plus performants/acceptables. Ils laissent entendre assez explicitement qu'un tel usage montre que les clauses existantes sont uniquement formelles, sans valeur sur le contenu, et que de toutes façons les scientifiques se passent volontiers d'une réelle ambition éthique (qui ne relèvent en effet pas de la science, en tout cas pas directement, j'en conviens). Au final, cette situation paraît les amuser.
Il existerait donc, dans le monde académique, une organisation qui permet de pipeauter l'éthique de l'IA par ses concepteurs & conceptrices mêmes....Tout le monde a ri autour de la table, pour ma part c'était un rire jaune face à l'intuition qu'il y avait quelque chose de pourri au royaume de Turing, si l'on veut bien me passer cette référence shakespearienne. Si un tel usage est avéré, que d'intelligence humaine mal employée...mais ce n'est qu'un avis de philosophe*.
Par respect pour leur dignité académique, devant les auditeurs de l'importante institution, je n'ai pas adressé à mes collègues la question qui m'a pourtant brulé les lèvres, à savoir, s'ils/elles trouvaient pour leur part cet usage académique déplorable ou remarquable. Comme quoi, à faire le philosophe éthicien, il est parfois nécessaire de lutter "à front renversé" contre l'ethical washing (posture dont on trouvera une jolie définition, bien que sur d'autres sujets, ici), qui me semble une tentation très forte en matière de déclarations sur l'IA. Et mobiliser beaucoup de volonté pour continuer de croire aux vertus de la science et à la force éclairante du progrès !
* Oui mais comme ce philosophe s'intéresse à l'éthique publique (par ex. ici), j'ai quand même une petite question : le financement du service de pipeautage de l'éthique de l'IA, s'il existe, est pris sur quel budget ?
Remarque du 27/5/2022 :
Réflexion faite, cet échange peut également signifier autre chose que ce qui s'est explicitement échangé. Pour le mathématicien-informaticien, la dimension éthique apparaît à la fois comme une exigence fortement contraignante (et de fait, elle l'est pour tout le monde !) et parfaitement extérieure au noble travail du calcul. Elle passe donc pour pénible à supporter et intellectuellement vaine, bref vulgaire. J'ai eu parfois le sentiment que certains professeurs de médecine étaient également tentés par une pareille posture, à la réserve près qu'ils/elles se montraient très conscients du fait que celle s'avère vite contradictoire avec leur métier, puisque la vie et la mort sont en jeu dans leurs pratiques - et que la tradition des médecins humanistes est encore bien vivante (si certains informaticiens peuvent individuellement aspirer à l'humanisme, je ne pense pas qu'il existe l'équivalent de cette tradition socialement constituée dans le domaine mathématique-informatique).
Par conséquent, pour celles et ceux qui son socialement t investi.es de la compétence mathématique, il paraît effectivement tentant d'affecter de dire haut et fort ou de laisser assez explicitement entendre que leur œuvre propre se situe par-delà de telles contingences indignes. Et également de signaler qu'il est normal de les déléguer à un service particulier, subalterne par rapport aux sujets scientifiques, quant à eux dignes de considération
Cette conjecture m'apparait satisfaisante car elle permet d'éclairer la raison d'être du stupéfiant échange qui donne matière à l'anecdote, tout en soulignant le fait qu'à titre individuel, mes interlocutrices.cuteurs peuvent ne pas être de purs cyniques sur le plan moral. Cela confirme également que le sujet IA relève d'une construction sociale, qui obéit à des jeux de rôles pour les acteurs, des jeux dans lesquels ils sont pris sans que cela dise quoi que ce soit de leur intériorité.