Limites à l’éthique, l’éthique à limites

Jean-Gabriel Ganascia (JGG, @quecalcoatle) a été un de nos spécialistes en intelligence artificielle. Il est surtout connu pour avoir présidé le Comité d’éthique du CNRS (de 2016 à 2021), il siège encore à celui de Pôle Emploi (sur les questions d’IA) et est membre du Comité national pilote d’éthique du numérique (CNPEN), une extension du Comité consultatif national d’éthique (CCNE), initié en 2019. En 2017, il avait fait paraître un petit livre, simple, clair et précis, que j’avais beaucoup apprécié, Le mythe de la Singularité. Il vient de faire paraître Servitudes virtuelles au Seuil. Autant le dire tout de suite, ce nouveau livre est bien moins réussi. Bavard, peu tenu, Servitudes virtuelles n’éclaire aucun chemin. 

Pourtant, le livre commence bien… Puisque l’un de nos spécialistes de l’éthique nous explique donc que l’éthique, appliquée au numérique, ne produit pas grand chose, d’autre que des facilités, des rappels moraux convenus et vains. “Les éthiques à principes (…) ne nous prémunissent en rien”. Au mieux, elles nous rassurent en faisant semblant de mettre en place des principes de responsabilité. En vrai, elles permettent de mettre en place des procédures lourdes et tatillonnes, mais qui se révèlent surtout poreuses aux questions morales qui se posent. A part poser de nouvelles questions, bien souvent, elles n’apportent pas de réponses aux difficultés qui sont les nôtres. 

Pour mieux prendre en compte les limites de l’éthique, JGG propose une bien abstraite “Rose des vents”, une boussole qui n’éclaire pas bien mieux nos problèmes que l’éthique à principe. Elle renvoie à une vision très individuelle de l’éthique, où chacun est sommé de se positionner selon les mêmes grands principes, sans aider non plus aux décisions collectives. Ainsi, il prend longuement l’exemple de la fin de vie d’une personne, qu’il interroge depuis plusieurs scénarios, allant du téléchargement de la conscience de cette personne, au fait que des algorithmes déterminent l’arrêt des fonctions vitales. Des scénarios putatifs qui renvoient leurs limites les uns aux autres, sans qu’on ne s’intéresse vraiment à qui leurs efficacités bénéficient, ni à qui elles portent préjudices. C’est un peu comme si les principes achoppaient sur la décision, d’autant que la forme prospective des questions pose trop de questions irrésolues pour aider à apporter des réponses. Comme si, à mesure qu’on révèle les doutes qui recouvrent une question, la meilleure réponse était toujours de ne pas prendre position. Ganascia montre bien par exemple que le projet Neuralink d’Elon Musk, qui prévoit à terme d’accroître nos capacités mémorielles, est un projet qui, scientifiquement, pose plus de problèmes qu’il n’apporte de réponse. JGG rappelle très bien qu’en l’état, rien ne nous permet de croire que nous puissions un jour arriver à ce que ce soit possible. Très concrètement, à ce jour, nous ne savons rien de la façon dont l’information se transcrit dans nos cellules, ni de la nature de cette transcription, rappelle-t-il. Coder et encoder des neurones risque de rester encore longtemps hors de notre portée. Sans compter qu’outre l’encodage, il faut aussi répondre à la difficile question de la consolidation (comment la mémoire s’étiole ou s’ancre) et également la question de son accès (comment le souvenir re-surgit). Ces difficultés concrètes expliquent certainement qu’aucun comité d’éthique ne se soit prononcé contre le projet Neuralink explique-t-il, alors que les questions morales qu’il pose, elles, pourraient être déjà, selon nos boussoles morales, parfaitement condamnables. 

Dans son livre, Ganascia cite plus les classiques de la littérature et de la philosophie que la littérature scientifique. Il nous ressort Aristote et Montaigne pour critiquer l’amitié redéfinie par Facebook, comme si on pouvait prendre au sérieux le marketing de Facebook et le comparer à l’amitié philosophique. Les rares pages où Ganascia livre un peu de science ou de connaissance sont intéressantes, mais elles sont bien trop rares. Enfin, le problème est également que le propos qui se veut pourtant un peu surplombant, n’arrive pas toujours à dépasser les particularismes de l’auteur. Au final, il finit par glisser dans les mêmes amalgames que ceux qu’il dénonce, critiquant la transparence, le zadisme ou le “wokisme” (c’est lui qui utilise ce terme). Les nœuds papillon de JGG commencent à montrer leur époque. Sous couvert d’objectivité, il n’en produit pas plus que les autres. Pourtant, on ne pourra que le rejoindre finalement, quand il souligne, oui, que “l’éthique consiste essentiellement à appliquer de façon plus ou moins arbitraire des normes et des règlements fixés eux-mêmes sur un mode discrétionnaire”. Nous sommes finalement bien plus confrontés à une forme d’éthique contractuelle qu’autre chose, à une forme d’éthique-washing, qui tient plus du moralement correct, de l’affichage… que d’une solution aux difficultés de la réalité permettant de la maîtriser. 

Certes, l’éthique est un processus de réflexion plus que le résultat du processus (enfin, c’est dans le résultat qu’elle se projette pourtant). Certes, son but est d’abord d’organiser les différents niveaux de dialogue. Mais le risque est fort alors qu’elle se résume à agréger les opinions pour produire un avis médian, à produire du compromis et de l’acceptation plus que quelques refus. 

Je fais un peu le même constat du livre qui synthétise deux ans de travaux du CNPEN, Pour une éthique du numérique (où l’on trouve également une contribution de JGG). Ce petit livre qui agrège de très courtes contributions de ses membres, dénonce lui aussi ce qu’il réalise. 

Ce qui est marquant dans les deux ouvrages, c’est qu’on trouve très peu d’exemples concrets. On descend très peu dans les systèmes. On n’y parle quasiment pas d’économie. On y évoque plus les philosophes classiques que les systèmes techniques (et quasiment aucun penseur du numérique). Alors que l’éthique souhaite comprendre les enjeux de réel du numérique pour y placer des règles, des barrières ou des garanties, on a l’impression que le surplomb moral produit surtout du relativisme plutôt que de faire remonter les questions des systèmes eux-mêmes. On a l’impression – très désagréable – que l’éthique, en lissant son propos moral sous une forme de neutralité, d’objectivité, finit par produire un propos qui ne s’affiche jamais comme politisé. Derrière un enjeu de maîtrise sur des techniques dont nous maîtrisons pourtant mal les les impacts, l’éthique se résout souvent dans un relativisme sans conflit, comme si son enjeu était plus d’aplanir les anicroches que de les faire saillir. Elle produit plus des catégorisations que des exclusions, des bannissements, des interdictions, des positionnements clairs, alors qu’on attend d’elle qu’elle dresse la carte, qu’elle nous dise ce qu’il faut faire, de marquer les interdits, de nous alerter sur les cas où les décisions doivent rester spécifiques. 

Un autre problème, de cette éthique qui observe les projets de développements techniques d’une manière générale et surplombante, c’est qu’elle nous fait passer d’une approche déontologique, à une approche plus conséquentialiste, basée sur l’évaluation des risques. Des risques qui, quand on interroge la prospective des voitures autonomes ou des chatbots, restent toujours difficiles à évaluer. Finalement, l’éthique finit par paraître creuse et lénifiante, à l’image de la plupart des contributions que ce dernier livre assemble. Ce qui me frappe, à ces lectures, c’est le fossé entre ces approches surplombante et la réalité de terrain du travail éthique, à l’image de celui réalisé par l’agence de la biomédecine sur le Score Coeur sur le changement du mode d’attribution des greffons cardiaques en France, ou plus récemment, l’excellent travail réalisé par l’association Changer de Cap qui pointe très concrètement les dérives de la numérisation de la CAF. C’est par le regard très concret sur les systèmes que l’éthique prend les couleurs d’une exigence de responsabilisation. Si l’éthique du numérique reste une éthique à principe, c’est certainement, il me semble, parce qu’elle ne parle pas des systèmes, n’y descend pas, voire n’y descend jamais concrètement. Ce qui est le plus marquant dans ces deux ouvrages, c’est l’absence des systèmes dont on est censé parler. 

Les deux livres rappellent très bien d’où vient l’éthique, cette réflexion sur l’action. Ils rappellent l’influence du rapport Belmont, au fondement de l’éthique biomédicale moderne, qui a fondé la discipline sur 3 grands principes, à savoir : l’autonomie (c’est-à-dire le consentement des sujets), la bienfaisance (c’est-à-dire l’évaluation des risques, où les bénéfices doivent l’emporter sur les méfaits), la justice (c’est-à-dire le fait de proposer des procédures équitables). Les réflexions autour de l’éthique de l’IA ont ajouté un principe, celui de la transparence et de l’explicabilité. Mais sous prétexte d’en montrer les limites, les contradictions, JGG se prend les pieds dans le tapis de ses démonstrations. Certes, explicabilité, intelligibilité et transparence semblent plus souvent antagonistes qu’autre chose. Reste que Ganascia finit par simplement dénoncer l’idéologie de la transparence (en condamnant Julian Assange par exemple ou en fustigeant les wokistes…), sans dire un mot de l’idéologie de l’opacité ! De même, il a raison de dire qu’avec le numérique il est difficile d’anticiper bienfaits et méfaits, alors que les systèmes évoluent en continue et que la plupart d’entre eux sont plus putatifs que concrets, mais si l’éthique ne nous aide pas à voir clair entre le bien et le mal, à quoi sert-elle ? 

Au final, on a un peu l’impression que l’éthique pourrait ne pas être politique. Les propos problématiques de JGG montrent que ce n’est pourtant pas le cas. La difficulté de l’éthique à regarder les questions bien réelles pour sentencier d’en haut et produire oui, des principes vides, est certainement bien plus liée au fait de croire que l’éthique pourrait s’abstraire du politique. Elle devrait surtout nous aider à montrer là où la technique est politique, plutôt que de concourir à nous faire croire en sa neutralité ou en son progressisme. Peut-être que l’un des problèmes, l’une des différence entre les questions éthiques en médecine et dans le “numérique”, c’est que dans la santé, la question éthique est confrontée à des moments de vie particulier, alors que dans le numérique, la question n’est pas attachée à des moments particuliers, mais pose sur le fondement même de la solution produite. D’un côté, elle se rattache toujours à l’individu (on part de l’individu vers le système), alors que de l’autre, la question reste bien souvent systémique (on regarde les valeurs du système, pas celles de l’individu pris dans ses rets). 

Dans son article pour le CNPEN, Ganascia définit le numérique comme l’ensemble des applications des technologies de l’information. Une définition aussi neutre n’aide certainement pas à penser. Dominique Cardon, dans son excellent manuel – Culture numérique – , le définit autrement : “une nouvelle ère de la productivité dont l’information, la communication et le calcul seraient les principaux ressorts”. Il en fait ressortir la spécificité, qui n’est pas applicative, mais bien économique. D’un côté, on ne peut pas anticiper le numérique, puisqu’il demeure parfaitement neutre, de l’autre, on sait d’avance ce vers quoi il nous amène. 

Au final, on a un peu l’impression que l’éthique est prise dans le piège de sa neutralité, pour produire une forme de pensée magique. Le risque comme dit Catherine Tessier dans une contribution pour le livre de CNPEN, c’est qu’elle ne nous aide pas à identifier “au nom de quoi, de quelle valeur, de quel principe, de quel besoin, est conçu un objet numérique.” Comme disait Hans Jonas, dans le Principe de responsabilité, les nouvelles technos procurent à l’humanité une puissance d’intervention sur le monde qui croît plus vite que sa capacité à en appréhender les conséquences. Jérôme Perrin, directeur scientifique de Renault, a raison de vanter notre besoin de fraternité numérique (qui suppose de privilégier le plus vulnérable, via des pratiques auditables, une évaluation par les utilisateurs les plus fragiles ou les moins experts techniquement, une éthique de la sollicitude numérique… ou l’on fait avec et non à la place), en posant, lui, le fondement d’une solide boussole. 

Reste que, pour ma part, la question de l’éthique de l’IA me laisse toujours plus dubitatif. Et ces deux ouvrages, dispensables, ne lèvent pas mes doutes, mais les renforcent. J’ai l’impression que nous sommes là, dans une voie sans issue. Et qui restera d’autant plus sans issue qu’elle en reste à des objets abstraits, à des recommandations générales. 

Permettez-moi de terminer sur un objet très concret, qui me semble illustrer précisément un autre malaise. Le 7 avril 2020, le CNPEN a validé le déploiement d’outils de suivi de contacts pour lutter contre l’épidémie. Certes, il l’a fait en prenant des précautions et en faisant des mises en gardes qui n’ont pas été respectées, mais il en a malgré tout validé l’idée. Deux ans plus tard, on sait désormais que le coeur applicatif de StopCovid, le signalement automatisé des cas contacts par géolocalisation, a eu un impact minimal sur l’épidémie. C’est ce que disaient déjà ceux qui s’y opposaient (moi parmi bien d’autres). C’est ce qu’à confirmé ceux qui s’y sont concrètement intéressés par la suite. Dans son petit livre, le CNPEN reste pourtant très satisfait de ce qu’il considère comme une défense de StopCovid, le rendant possible. Il faut peut-être rappeler ici, que Jean-François Delfraissy, initiateur du CNPEN en tant que président du Comité consultatif d’éthique, a été et reste le président du Conseil scientifique Covid-19. Très concrètement là encore, ces emboîtements d’expertises, d’un comité d’éthique l’autre, demeure une béance frappante de l’éthique, alors qu’on sait très bien justement que l’éthique par définition, invite justement à prévenir ces redondances problématiques. 

Le regard éthique devrait être un regard philosophique et moral sur des systèmes techniques précis. Pour descendre de ses principes, il faut qu’il s’attarde sur la réalité des systèmes, sur la réalité des cas concrets. Cela ne suffit ni ne suffira pas, bien sûr. Mais tant qu’il restera dans le monde des idées, l’éthique n’éclairera aucun chemin. Comme le dit la philosophe Cynthia Fleury, l’éthique, c’est avant tout la place du souci de soi, des autres, du monde. L’éthique consiste à s’engager dans le monde. Comme elle le rappelle très bien, nous sommes Irremplaçables, parce que personne ne peut prendre nos engagements à notre place ! 

Pas sûr à nouveau que les comités d’éthique du numérique qui n’invitent pas le monde à s’engager dans le monde, mais rêvent de prendre des décisions à la place des autres, ne nous aident beaucoup à le changer. 

Hubert Guillaud

A propos du livre de Jean-Gabriel Ganascia, Servitudes virtuelles, collection “Science Ouverte”, Le Seuil, 2022, 288 pages, 21 euros. Et du livre du Comité national pilote d’éthique du numérique, coordonné par Eric Germain, Claude Kirchner et Catherine Tessier, Pour une éthique du numérique, PUF, 2022, 272 pages, 15 euros.

2 thoughts on “Limites à l’éthique, l’éthique à limites

  1. Rien n’a vraiment l’air d’avoir changé dirait-on.
    “Ces difficultés concrètes expliquent certainement qu’aucun comité d’éthique ne se soit prononcé contre le projet Neuralink explique-t-il, alors que les questions morales qu’il pose, elles, pourraient être déjà, selon nos boussoles morales, parfaitement condamnables.”
    –> concernant Neuralink, ou plutôt les “« neuro-amélioration » chez la personne non malade”, le CCNE avait produit 2 rapports en 2013 et 2014. Les avis sont quand même très critiques, autant vis-à-vis des fausses promesses, que du flou artistique en ce qui concerne l’usage et les effets, et aussi les ressorts idéologiques. Entre une éthique dépolitisée, et une éthique politisée mais qui reste sans effets, on a donc plusieurs problèmes.
    Un extrait parmi d’autres :
    “En résumé, l’enjeu éthique de l’autonomie est fortement engagé par le phénomène de
    neuro-amélioration. L’individu se croit libre de tout, mais en réalité il est sous l’effet d’une
    injonction à la performance. « La recherche éperdue d’une performance mue par le désir impérieux de
    progresser peut masquer la plus contraignante des aliénations » (avis CCNE n° 81). Dans certains
    groupes particuliers comme les enfants, les personnes accusées, les soldats, les personnes considérées
    comme asociales, le risque existe de domination et de manipulation. Le « glissement de la bienfaisance
    à la manipulation, de « agir pour » à « agir sur » pourrait être subtil » (Chneiweiss, 201266).”

    source : https://www.robertholcman.net/public/ccne/avis_122_comite_consultatif_national_ethique_2014_recours_techniques_biomedicales_neuro_amelioration_personne_non_malade_enjeux_ethiques.pdf

    Like

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s