Limites à l’éthique, l’éthique à limites

Jean-Gabriel Ganascia (JGG, @quecalcoatle) a été un de nos spécialistes en intelligence artificielle. Il est surtout connu pour avoir présidé le Comité d’éthique du CNRS (de 2016 à 2021), il siège encore à celui de Pôle Emploi (sur les questions d’IA) et est membre du Comité national pilote d’éthique du numérique (CNPEN), une extension du Comité consultatif national d’éthique (CCNE), initié en 2019. En 2017, il avait fait paraître un petit livre, simple, clair et précis, que j’avais beaucoup apprécié, Le mythe de la Singularité. Il vient de faire paraître Servitudes virtuelles au Seuil. Autant le dire tout de suite, ce nouveau livre est bien moins réussi. Bavard, peu tenu, Servitudes virtuelles n’éclaire aucun chemin. 

Pourtant, le livre commence bien… Puisque l’un de nos spécialistes de l’éthique nous explique donc que l’éthique, appliquée au numérique, ne produit pas grand chose, d’autre que des facilités, des rappels moraux convenus et vains. “Les éthiques à principes (…) ne nous prémunissent en rien”. Au mieux, elles nous rassurent en faisant semblant de mettre en place des principes de responsabilité. En vrai, elles permettent de mettre en place des procédures lourdes et tatillonnes, mais qui se révèlent surtout poreuses aux questions morales qui se posent. A part poser de nouvelles questions, bien souvent, elles n’apportent pas de réponses aux difficultés qui sont les nôtres. 

Pour mieux prendre en compte les limites de l’éthique, JGG propose une bien abstraite “Rose des vents”, une boussole qui n’éclaire pas bien mieux nos problèmes que l’éthique à principe. Elle renvoie à une vision très individuelle de l’éthique, où chacun est sommé de se positionner selon les mêmes grands principes, sans aider non plus aux décisions collectives. Ainsi, il prend longuement l’exemple de la fin de vie d’une personne, qu’il interroge depuis plusieurs scénarios, allant du téléchargement de la conscience de cette personne, au fait que des algorithmes déterminent l’arrêt des fonctions vitales. Des scénarios putatifs qui renvoient leurs limites les uns aux autres, sans qu’on ne s’intéresse vraiment à qui leurs efficacités bénéficient, ni à qui elles portent préjudices. C’est un peu comme si les principes achoppaient sur la décision, d’autant que la forme prospective des questions pose trop de questions irrésolues pour aider à apporter des réponses. Comme si, à mesure qu’on révèle les doutes qui recouvrent une question, la meilleure réponse était toujours de ne pas prendre position. Ganascia montre bien par exemple que le projet Neuralink d’Elon Musk, qui prévoit à terme d’accroître nos capacités mémorielles, est un projet qui, scientifiquement, pose plus de problèmes qu’il n’apporte de réponse. JGG rappelle très bien qu’en l’état, rien ne nous permet de croire que nous puissions un jour arriver à ce que ce soit possible. Très concrètement, à ce jour, nous ne savons rien de la façon dont l’information se transcrit dans nos cellules, ni de la nature de cette transcription, rappelle-t-il. Coder et encoder des neurones risque de rester encore longtemps hors de notre portée. Sans compter qu’outre l’encodage, il faut aussi répondre à la difficile question de la consolidation (comment la mémoire s’étiole ou s’ancre) et également la question de son accès (comment le souvenir re-surgit). Ces difficultés concrètes expliquent certainement qu’aucun comité d’éthique ne se soit prononcé contre le projet Neuralink explique-t-il, alors que les questions morales qu’il pose, elles, pourraient être déjà, selon nos boussoles morales, parfaitement condamnables. 

Dans son livre, Ganascia cite plus les classiques de la littérature et de la philosophie que la littérature scientifique. Il nous ressort Aristote et Montaigne pour critiquer l’amitié redéfinie par Facebook, comme si on pouvait prendre au sérieux le marketing de Facebook et le comparer à l’amitié philosophique. Les rares pages où Ganascia livre un peu de science ou de connaissance sont intéressantes, mais elles sont bien trop rares. Enfin, le problème est également que le propos qui se veut pourtant un peu surplombant, n’arrive pas toujours à dépasser les particularismes de l’auteur. Au final, il finit par glisser dans les mêmes amalgames que ceux qu’il dénonce, critiquant la transparence, le zadisme ou le “wokisme” (c’est lui qui utilise ce terme). Les nœuds papillon de JGG commencent à montrer leur époque. Sous couvert d’objectivité, il n’en produit pas plus que les autres. Pourtant, on ne pourra que le rejoindre finalement, quand il souligne, oui, que “l’éthique consiste essentiellement à appliquer de façon plus ou moins arbitraire des normes et des règlements fixés eux-mêmes sur un mode discrétionnaire”. Nous sommes finalement bien plus confrontés à une forme d’éthique contractuelle qu’autre chose, à une forme d’éthique-washing, qui tient plus du moralement correct, de l’affichage… que d’une solution aux difficultés de la réalité permettant de la maîtriser. 

Certes, l’éthique est un processus de réflexion plus que le résultat du processus (enfin, c’est dans le résultat qu’elle se projette pourtant). Certes, son but est d’abord d’organiser les différents niveaux de dialogue. Mais le risque est fort alors qu’elle se résume à agréger les opinions pour produire un avis médian, à produire du compromis et de l’acceptation plus que quelques refus. 

Je fais un peu le même constat du livre qui synthétise deux ans de travaux du CNPEN, Pour une éthique du numérique (où l’on trouve également une contribution de JGG). Ce petit livre qui agrège de très courtes contributions de ses membres, dénonce lui aussi ce qu’il réalise. 

Ce qui est marquant dans les deux ouvrages, c’est qu’on trouve très peu d’exemples concrets. On descend très peu dans les systèmes. On n’y parle quasiment pas d’économie. On y évoque plus les philosophes classiques que les systèmes techniques (et quasiment aucun penseur du numérique). Alors que l’éthique souhaite comprendre les enjeux de réel du numérique pour y placer des règles, des barrières ou des garanties, on a l’impression que le surplomb moral produit surtout du relativisme plutôt que de faire remonter les questions des systèmes eux-mêmes. On a l’impression – très désagréable – que l’éthique, en lissant son propos moral sous une forme de neutralité, d’objectivité, finit par produire un propos qui ne s’affiche jamais comme politisé. Derrière un enjeu de maîtrise sur des techniques dont nous maîtrisons pourtant mal les les impacts, l’éthique se résout souvent dans un relativisme sans conflit, comme si son enjeu était plus d’aplanir les anicroches que de les faire saillir. Elle produit plus des catégorisations que des exclusions, des bannissements, des interdictions, des positionnements clairs, alors qu’on attend d’elle qu’elle dresse la carte, qu’elle nous dise ce qu’il faut faire, de marquer les interdits, de nous alerter sur les cas où les décisions doivent rester spécifiques. 

Un autre problème, de cette éthique qui observe les projets de développements techniques d’une manière générale et surplombante, c’est qu’elle nous fait passer d’une approche déontologique, à une approche plus conséquentialiste, basée sur l’évaluation des risques. Des risques qui, quand on interroge la prospective des voitures autonomes ou des chatbots, restent toujours difficiles à évaluer. Finalement, l’éthique finit par paraître creuse et lénifiante, à l’image de la plupart des contributions que ce dernier livre assemble. Ce qui me frappe, à ces lectures, c’est le fossé entre ces approches surplombante et la réalité de terrain du travail éthique, à l’image de celui réalisé par l’agence de la biomédecine sur le Score Coeur sur le changement du mode d’attribution des greffons cardiaques en France, ou plus récemment, l’excellent travail réalisé par l’association Changer de Cap qui pointe très concrètement les dérives de la numérisation de la CAF. C’est par le regard très concret sur les systèmes que l’éthique prend les couleurs d’une exigence de responsabilisation. Si l’éthique du numérique reste une éthique à principe, c’est certainement, il me semble, parce qu’elle ne parle pas des systèmes, n’y descend pas, voire n’y descend jamais concrètement. Ce qui est le plus marquant dans ces deux ouvrages, c’est l’absence des systèmes dont on est censé parler. 

Les deux livres rappellent très bien d’où vient l’éthique, cette réflexion sur l’action. Ils rappellent l’influence du rapport Belmont, au fondement de l’éthique biomédicale moderne, qui a fondé la discipline sur 3 grands principes, à savoir : l’autonomie (c’est-à-dire le consentement des sujets), la bienfaisance (c’est-à-dire l’évaluation des risques, où les bénéfices doivent l’emporter sur les méfaits), la justice (c’est-à-dire le fait de proposer des procédures équitables). Les réflexions autour de l’éthique de l’IA ont ajouté un principe, celui de la transparence et de l’explicabilité. Mais sous prétexte d’en montrer les limites, les contradictions, JGG se prend les pieds dans le tapis de ses démonstrations. Certes, explicabilité, intelligibilité et transparence semblent plus souvent antagonistes qu’autre chose. Reste que Ganascia finit par simplement dénoncer l’idéologie de la transparence (en condamnant Julian Assange par exemple ou en fustigeant les wokistes…), sans dire un mot de l’idéologie de l’opacité ! De même, il a raison de dire qu’avec le numérique il est difficile d’anticiper bienfaits et méfaits, alors que les systèmes évoluent en continue et que la plupart d’entre eux sont plus putatifs que concrets, mais si l’éthique ne nous aide pas à voir clair entre le bien et le mal, à quoi sert-elle ? 

Au final, on a un peu l’impression que l’éthique pourrait ne pas être politique. Les propos problématiques de JGG montrent que ce n’est pourtant pas le cas. La difficulté de l’éthique à regarder les questions bien réelles pour sentencier d’en haut et produire oui, des principes vides, est certainement bien plus liée au fait de croire que l’éthique pourrait s’abstraire du politique. Elle devrait surtout nous aider à montrer là où la technique est politique, plutôt que de concourir à nous faire croire en sa neutralité ou en son progressisme. Peut-être que l’un des problèmes, l’une des différence entre les questions éthiques en médecine et dans le “numérique”, c’est que dans la santé, la question éthique est confrontée à des moments de vie particulier, alors que dans le numérique, la question n’est pas attachée à des moments particuliers, mais pose sur le fondement même de la solution produite. D’un côté, elle se rattache toujours à l’individu (on part de l’individu vers le système), alors que de l’autre, la question reste bien souvent systémique (on regarde les valeurs du système, pas celles de l’individu pris dans ses rets). 

Dans son article pour le CNPEN, Ganascia définit le numérique comme l’ensemble des applications des technologies de l’information. Une définition aussi neutre n’aide certainement pas à penser. Dominique Cardon, dans son excellent manuel – Culture numérique – , le définit autrement : “une nouvelle ère de la productivité dont l’information, la communication et le calcul seraient les principaux ressorts”. Il en fait ressortir la spécificité, qui n’est pas applicative, mais bien économique. D’un côté, on ne peut pas anticiper le numérique, puisqu’il demeure parfaitement neutre, de l’autre, on sait d’avance ce vers quoi il nous amène. 

Au final, on a un peu l’impression que l’éthique est prise dans le piège de sa neutralité, pour produire une forme de pensée magique. Le risque comme dit Catherine Tessier dans une contribution pour le livre de CNPEN, c’est qu’elle ne nous aide pas à identifier “au nom de quoi, de quelle valeur, de quel principe, de quel besoin, est conçu un objet numérique.” Comme disait Hans Jonas, dans le Principe de responsabilité, les nouvelles technos procurent à l’humanité une puissance d’intervention sur le monde qui croît plus vite que sa capacité à en appréhender les conséquences. Jérôme Perrin, directeur scientifique de Renault, a raison de vanter notre besoin de fraternité numérique (qui suppose de privilégier le plus vulnérable, via des pratiques auditables, une évaluation par les utilisateurs les plus fragiles ou les moins experts techniquement, une éthique de la sollicitude numérique… ou l’on fait avec et non à la place), en posant, lui, le fondement d’une solide boussole. 

Reste que, pour ma part, la question de l’éthique de l’IA me laisse toujours plus dubitatif. Et ces deux ouvrages, dispensables, ne lèvent pas mes doutes, mais les renforcent. J’ai l’impression que nous sommes là, dans une voie sans issue. Et qui restera d’autant plus sans issue qu’elle en reste à des objets abstraits, à des recommandations générales. 

Permettez-moi de terminer sur un objet très concret, qui me semble illustrer précisément un autre malaise. Le 7 avril 2020, le CNPEN a validé le déploiement d’outils de suivi de contacts pour lutter contre l’épidémie. Certes, il l’a fait en prenant des précautions et en faisant des mises en gardes qui n’ont pas été respectées, mais il en a malgré tout validé l’idée. Deux ans plus tard, on sait désormais que le coeur applicatif de StopCovid, le signalement automatisé des cas contacts par géolocalisation, a eu un impact minimal sur l’épidémie. C’est ce que disaient déjà ceux qui s’y opposaient (moi parmi bien d’autres). C’est ce qu’à confirmé ceux qui s’y sont concrètement intéressés par la suite. Dans son petit livre, le CNPEN reste pourtant très satisfait de ce qu’il considère comme une défense de StopCovid, le rendant possible. Il faut peut-être rappeler ici, que Jean-François Delfraissy, initiateur du CNPEN en tant que président du Comité consultatif d’éthique, a été et reste le président du Conseil scientifique Covid-19. Très concrètement là encore, ces emboîtements d’expertises, d’un comité d’éthique l’autre, demeure une béance frappante de l’éthique, alors qu’on sait très bien justement que l’éthique par définition, invite justement à prévenir ces redondances problématiques. 

Le regard éthique devrait être un regard philosophique et moral sur des systèmes techniques précis. Pour descendre de ses principes, il faut qu’il s’attarde sur la réalité des systèmes, sur la réalité des cas concrets. Cela ne suffit ni ne suffira pas, bien sûr. Mais tant qu’il restera dans le monde des idées, l’éthique n’éclairera aucun chemin. Comme le dit la philosophe Cynthia Fleury, l’éthique, c’est avant tout la place du souci de soi, des autres, du monde. L’éthique consiste à s’engager dans le monde. Comme elle le rappelle très bien, nous sommes Irremplaçables, parce que personne ne peut prendre nos engagements à notre place ! 

Pas sûr à nouveau que les comités d’éthique du numérique qui n’invitent pas le monde à s’engager dans le monde, mais rêvent de prendre des décisions à la place des autres, ne nous aident beaucoup à le changer. 

Hubert Guillaud

A propos du livre de Jean-Gabriel Ganascia, Servitudes virtuelles, collection “Science Ouverte”, Le Seuil, 2022, 288 pages, 21 euros. Et du livre du Comité national pilote d’éthique du numérique, coordonné par Eric Germain, Claude Kirchner et Catherine Tessier, Pour une éthique du numérique, PUF, 2022, 272 pages, 15 euros.

Advertisement

Dans les chaînes de données

Le nouveau petit livre de la philosophe Barbara Stiegler (@B_Stiegler) (après De la démocratie en Pandémie paru l’année dernière – voir ce que j’en disais) et de l’épidémiologiste François Alla, Santé publique année zéro offre un éclairage tout aussi lumineux que le précédent sur ces 2 années passées. Les deux auteurs cherchent à comprendre pourquoi nos libertés publiques ont été suspendues, comment en sommes-nous venus à croire que nous pouvions opposer santé et liberté ?

Depuis les années 70, de la Charte d’Ottawa à l’épidémie de Sida, nous savons pourtant qu’aucune action en santé ne peut être efficace si elle ne s’appuie pas sur l’autonomie des individus et des communautés auxquels ils appartiennent. Comment et pourquoi notre démocratie sanitaire s’est-elle effondrée en niant justement l’importance primordiale de l’égalité et de l’équité et l’importance à faire une place aux individus et collectifs dans les politiques de santé publique (on devrait même parler de santé sociale). Pourtant, ce n’est pas ce à quoi nous avons assistés. Plutôt que de chercher à réduire les inégalités de santé (voir les travaux du géographe Emmanuel Vigneron), plutôt que d’avoir recours aux associations de patients, la politique autoritaire des autorités a arbitré en faveur d’une médecine top dow, où le seul acteur valorisé était le patient autonome, “acteur de son parcours de santé”, responsable du repérage de ses symptômes, de son auto-médication, de l’activation des systèmes de suivi de contact, de son isolement, de son dépistage…) et certaines visions de la santé (infectiologues et épidémiologistes, notamment au détriments de tous les autres). Le patient n’a plus tant été défini par ses droits que par ses devoirs, rengaine libérale et macroniste répétée ad nauseam.

Cette focalisation sur l’individu a nié les déterminants sociaux de la santé, en faisant comme si les individus étaient souverainement responsables de leurs choix, indépendamment de leurs statuts sociaux et antécédents. Les autorités se sont arrogé le droit d’arbitrer. En l’absence de communautés de patients qui défendent des intérêts spécifiques, bâillonnées par les confinements, les instances de démocraties sanitaires ont été mises sur la touche. Le modèle politique a nié toute “élaboration collective de la vérité” et toute “construction démocratique de l’intérêt général”. Au lieu de cela les autorités ont instauré une politique indifférenciée, renforçant l’impact de l’épidémie sur les plus vulnérables. L’invocation d’un égalitarisme républicain face à la maladie a surtout aggravé les inégalités et vulnérabilités. L’hésitation vaccinale a été considérée comme une attitude irrationnelle, alors qu’elle a été bien moindre qu’on l’estimait, mais surtout, caricaturée dans la figure de l’antivax, alors que pour l’essentiel, elle est avant tout l’expression du doute des figures les plus éloignées du soin (vieux isolés, gens malades qui hésitent à se faire vaccinés, jeunes peu concernés par la gravité de la maladie… ce que montrait très bien la sociologue Zeynep Tufekci pour les Etats-Unis). La politique de santé publique s’est réduite à un raisonnement moral, à une alternative binaire, indifférente aux conditions d’existence. On a vacciné les plus jeunes parce qu’on n’arrivait pas à vacciner tous les plus fragiles, “ou plus exactement, parce qu’on ne fait pas l’effort suffisant pour aller vers les personnes vulnérables”.  

Stiegler et Alla montrent que ce que nous avons vu disparaître en 2 ans, c’est une politique de santé publique démocratique, compensatrice et attentive aux gens. Nous avons vu apparaître un nouvel acteur du système de santé, et qui risque demain d’être convoqué partout. Le démantèlement des systèmes de soin reposent sur un “individu connecté directement aux systèmes d’informations des autorités sanitaires, dont elles attendent une compliance et un autocontrôle permanent dans le respect des mesures et dans la production des données”. C’est le même individu qui est désormais convoqué dans Parcoursup ou dans les services publics, comme Pole Emploi ou la CAF. C’est un individu qui produit lui-même les données que vont utiliser ces systèmes à son encontre. “Ici, la santé n’est jamais appréhendée comme un fait social, dépendant de ce que la santé publique nomme les “déterminants structurels” en santé. Elle devient un ensemble de données ou de data, coproduites par les autorités sanitaires et les individus érigés en patients acteurs, qui intériorisent sans résistance toutes les normes qu’elles leur prescrivent”. Dans cette chaîne de production de données, les soignants sont réduits à l’état de simples prestataires, privés de l’expérience clinique de la maladie, tout comme les agents des systèmes sociaux ou les professeurs sont privés de leur capacité de conseil pour devenir de simples contrôleurs. Quant aux réalités sociales qui fondent les inégalités structurelles, elles sont niées, comme sont niées les différences sociales des élèves devant l’orientation ou devant la compréhension des modalités de sélection. Les populations les plus vulnérables sont stigmatisées. Éloignés des services et des systèmes numériques, les plus vulnérables sont désignés comme responsables de la crise hospitalière, comme les chômeurs et les gens au RSA sont responsables de leur situation ou les moins bons élèves accusés de bloquer Parcoursup ! Les premières victimes du démantèlement de l’Etat social sont désignées comme les ultimes coupables, accusés de ruiner les efforts de tous ! Cela reste inacceptable !  

Hubert Guillaud

A propos du livre de Barbara Stiegler et François Alla, Santé publique année zéro, Gallimard, “Tracts” n°37, mars 2022.