Il est temps de faire entrer les voix des gens dans le code

Avec Voices in the Code, David G. Robinson (@dgrobinson, @dgrobinson@mastodon.social) signe un livre important pour nous aider à rendre les systèmes responsables.  Robinson est l’un des directeurs de l’Apple University, le centre de formation interne d’Apple. Il a surtout été, en 2011, le cofondateur d’Upturn (@teamupturn), une association américaine qui promeut l’équité et la justice dans le design, la gouvernance et l’usage des technologies numériques. Voices in the code est un livre qui se concentre sur la gestion d’une question technique et une seule, en descendant dans ses tréfonds, à la manière d’une monographie : celle de l’évolution de l’algorithme d’attribution des greffons de rein aux Etats-Unis. Et cette histoire est riche d’enseignement pour comprendre comment nous devrions gérer les algorithmes les plus essentiels de nos sociétés. 

“Plus de technologie signifie d’abord moins de démocratie”

De plus en plus de moments décisifs de nos vies sont décidés par des algorithmes : attribution de places dans l’enseignement supérieur, obtention de crédit bancaire, emploi, emprisonnement, accès aux services publics… Derrière les verdicts opaques des systèmes techniques, nous avons tendance à penser que leurs enjeux de conception n’est qu’une question technique. Ce n’est pas le cas. La mathématicienne Cathy O’Neil dans Algorithmes, la bombe à retardement, nous le disait déjà : les algorithmes sont des opinions embarquées dans du code. Et le risque est que confrontés à ces systèmes nous perdions les valeurs et l’idéal de société qui devraient les guider. Ces systèmes qui produisent des choix moraux et politiques sont souvent difficiles à comprendre, peu contrôlés, sujets aux erreurs. “Les choix éthiques et démocratiques pris par ces logiciels sont souvent enterrés sous une montagne de détails techniques qui sont traités eux-mêmes comme s’ils étaient techniques plus qu’éthiques”, explique Robinson. Pourtant, les algorithmes n’ont aucune raison d’être mystérieux et leurs limites morales devraient être partagées, notamment pour que nous puissions faire collectivement le travail nécessaire pour les améliorer. 

Couverture du livre de David G. Robinson, Voices in the Code.

Les algorithmes permettent de traiter des données massives et sont particulièrement populaires pour prendre des décisions sur les personnes – et notamment les plus démunies -, parce qu’ils permettent justement de procéder à des traitements de masses tout en réduisant les coûts de ces traitements. Cela n’est pas sans conséquences. “Trop souvent, plus de technologie signifie d’abord moins de démocratie”, constate Robinson. Le problème, c’est que quand les décisions difficiles sont embarquées dans des logiciels, ces décisions sont plus dures à comprendre et plus difficiles à contrôler. Les logiciels agissent depuis des données toujours imparfaites et la compréhension de leurs biais et lacunes n’est pas accessible à tous. La quantification semble souvent neutre et objective, mais c’est surtout un moyen de prendre des décisions “sans avoir l’air de décider”, comme le disait l’historien des sciences Theodore Porter dans son livre, Trust in numbers. Trop souvent, l’implantation d’algorithmes est le décret d’application des lois. Le problème, c’est que trop souvent, la politique n’est pas assez précise, les ingénieurs comme les administrations avant eux, doivent en produire une interprétation qui a des conséquences directes sur ceux qui sont affectés par le calcul. Nos lois et politiques sont remplies d’ambiguïtés. Le risque auquel nous sommes confrontés c’est de laisser décider aux ingénieurs et systèmes le rôle de définir les frontières morales des systèmes techniques qu’ils mettent en place. 

Le problème, bien souvent, demeure l’accès aux algorithmes, aux calculs. En 2021, Upturn a publié une étude (.pdf) sur 15 grands employeurs américains pour comprendre les technologies qu’ils utilisaient pour embaucher des candidats, concluant qu’il était impossible de saisir les biais de leurs pratiques depuis l’extérieur. Et c’est encore plus difficile quand les algorithmes ou leurs résultats sont puissamment intriqués entre eux : avoir un mauvais score de crédit a des répercussions bien au-delà d’une demande de crédit (sur ses primes d’assurance ou la possibilité de candidater à certains emplois par exemple…). Nous sommes cernés par des scores complexes, intriqués, qui ne nous sont pas expliqués et qui calculent trop souvent des objets d’une manière trompeuse, selon une prétention à la connaissance mensongère (Robinson parle de “prédictions zombies” qui m’évoquent les “technologies zombies” de José Halloy), peu contrôlés, pas mis à jour… sans qu’on puisse les contester, les rectifier ou même être au courant de leur existence. Robinson donne de nombreux exemples d’algorithmes qui posent problèmes, dans le domaine de la justice, de la santé, de l’aide sociale, de l’affectation dans l’enseignement supérieur… 

“Quand les enjeux sont élevés, nous devrions construire des systèmes qui se trompent rarement et où les erreurs sont faciles à trouver et à corriger”. Ce n’est pas le cas. Les systèmes mettent en œuvre les logiques morales de ceux qui les conçoivent. Trop souvent, on laisse les experts techniques, cette élite du code (qui tient également beaucoup d’une consultocratie, entre Gafams et grands acteurs du conseil) décider d’enjeux moraux et politiques. Nous sommes confrontés à une industrie logicielle qui encode les principes et visions du monde des puissants. Des technologies avec des objectifs, comme disait Kate Crawford. Un numérique industriel profondément orienté à droite, comme je le résume souvent et plus directement. Contrairement à ce qu’on pourrait penser, décider de qui doit prioritairement bénéficier d’un organe tient bien plus d’un choix moral que d’un choix médical, notamment parce que les différences médicales entre les patients qui relèvent d’une même urgence sont faibles. Trop souvent, le choix moral qu’accomplissent les systèmes n’est pas explicite. “Nous devons nous inquiéter de la relation entre le process et le résultat”, explique Robinson. Le problème, c’est que bien souvent la conception met en valeur l’un ou l’autre, prônant la vertu du processus ou la vertu du résultat, quand ils devraient surtout se renforcer l’un l’autre plutôt que de s’opposer. Or, souligne Robinson dans son livre, seule la délibération et la participation partout tendent à mener à de meilleurs résultats, permettent de faire se rejoindre le process et le résultat. 

4 stratégies pour améliorer la gouvernance des systèmes

Robinson détaille 4 stratégies de gouvernance pour les systèmes algorithmiques : 

  • Élargir la participation des parties prenantes
  • Renforcer la transparence
  • Améliorer la prévision d’impact des systèmes
  • Assurer l’audit en continu

La participation des parties prenantes reposent sur les techniques délibératives très documentées, comme on les trouve développées dans les jury ou les conférences de citoyens : à savoir délivrer une information équilibrée, consciente, substantielle, compréhensible. C’est ce qu’on appelle aussi, assez mal, les “comités consultatifs” communautaires ou éthiques (qu’on devrait plutôt appeler il me semble Comités de parties prenantes, parce qu’ils ne devraient pas être seulement consultatifs, mais bien impliqués dans les décisions… et parce que leurs fonctions consistent avant tout à rassembler autour de la table tous ceux qui sont concernés, les usagers comme les experts). Ces comités chargés d’inspecter, de contrôler, d’équilibrer les décisions techniques en faisant entendre d’autres voies dans les décisions sont encore bien trop rares. Une coalition d’organisation de défense des droits civils a proposé ainsi que les algorithmes d’évaluation de risque de récidive utilisés dans les cours de justice américaines mettent en place ce type de structure pour déterminer ce qui devrait être pris en compte et rejeté par ces systèmes, et on pourrait les imaginer comme des structures obligatoires à tout système à fort impact social. C’est le “rien pour nous sans nous” de ceux qui réclament d’être à la table et pas seulement au menu de ce que l’on conçoit pour eux. Le risque bien sûr – et c’est d’ailleurs la règle plus que l’exception – c’est que ces comités soient trop souvent des coquilles vides, un faux-semblant participatif, rassemblant des gens qu’on n’écoute pas. 

La transparence peut prendre bien des formes. La principale à l’œuvre dans les systèmes techniques consiste à divulguer le code source des systèmes. Une solution intéressante, mais insuffisante, notamment parce qu’il ferme la question à l’élite du code, et surtout que sans données correspondantes, il est difficile d’en faire quelque chose (et c’est encore plus vrai avec les systèmes d’IA, dont la non-reproductabilité est le premier écueil). La transparence doit s’accompagner d’une documentation et de  descriptions plus large : des données utilisées comme des logiques de décisions suivies, des critères pris en compte et de leurs poids respectifs. Elle doit être “extensive”, plaide Robinson (pour ma part, j’ajouterai bien d’autres termes, notamment le terme “projective”, c’est-à-dire que cette transparence, cette explicabilité, doit permettre au gens de se projeter dans les explications). Dans le contexte de la transplantation, le système doit être décrit d’une manière compréhensible, les changements envisagés doivent être explicités, montrer ce qu’ils vont changer, et l’ensemble doit pouvoir être largement débattu, car le débat fait également partie de la transparence attendue. 

La prévision consiste à produire des déclarations d’impacts qui décrivent les bénéfices et risques des modifications envisagées, évaluées et chiffrées. La prévision consiste à montrer les effets concrets, les changements auxquels on souhaite procéder en en montrant clairement leurs impacts, leurs effets. L’enjeu est bien de prévoir les conséquences afin de pouvoir décider depuis les effets attendus. Dans le cas de la transplantation de rein, les études d’impact sur les modifications de l’algorithme d’allocation ont permis de voir, très concrètement, les changements attendus, de savoir qui allait être impacté. Lors d’une de ses modifications par exemple, la prévision – produite par un organisme dédié et indépendant, c’est important –  montrait que les patients âgés recevraient bien moins de transplantation… ce qui a conduit à rejeter la proposition. 

L’audit consiste à surveiller le système en usage et à produire une documentation solide sur son fonctionnement. Les audits permettent souvent de montrer les améliorations ou détériorations des systèmes. Sous prétextes de vie privée ou de propriété, l’audit est encore bien trop rarement pratiqué. Bien souvent, pourtant, l’audit permet d’accomplir certaines mesures, comme par exemple de mesurer la performances des systèmes d’attribution de crédits sur différents groupes démographiques. Dans le domaine de la transplantation rénale américaine, le Scientific Registry of Transplant Recipients (SRTR) – l’organisme indépendant qui publie un rapport annuel détaillé pour mesurer la performance du système pour les patients selon des caractéristiques comme l’âge, le genre ou la race – permet de voir les évolutions dans le temps de ces caractéristiques, et de montrer si le système s’améliore ou se dégrade.

Ces bonnes pratiques ne se suffisent pas, rappelle Robinson, en évoquant l’exemple d’un outil de prédiction du risque de maltraitance et d’agression d’enfants du comté d’Allegheny en Pennsylvanie sur lequel avait travaillé Virginia Eubanks dans Automating inequality. La bonne question à se poser parfois consiste aussi à refuser la construction d’un système… ou de poser la question des moyens. Trop souvent, les systèmes algorithmiques visent d’abord et avant tout à gérer la pénurie quand l’enjeu devrait d’abord consister à y remédier. Trop souvent, leurs déploiements visent et produisent de la diminution de personnel et donc amoindrit l’interaction humaine. Le refus – que défendent nombre d’activistes, comme ceux présents à la conférence sur le refus technique organisée à Berkeley en 2020 ou les associations à l’origine du Feminist Data Manifest-No (voir également “Pour un féminisme des données”) – tient bien souvent, pour certains, du seul levier pour s’opposer à des projets par nature toxiques. Face à des moyens de discussion et d’écoute réduits à néant, l’opposition et le refus deviennent souvent le seul levier pour faire entendre une voix divergente. Dans le champ du social notamment, les travaux d’Eubanks ont montré que la mise en place de systèmes numériques produisent toujours une diminution des droits à l’encontre des plus démunis. Nombre de systèmes sociaux mis en place depuis (au Royaume-Uni, aux Pays-Bas, en Autriche, mais également en France – ce qu’il se passe actuellement autour des systèmes mis en place dans les CAF suit les mêmes logiques) sont en ce sens profondément dysfonctionnels. Les biais, les logiques austéritaires et libérales qui président au déploiement des systèmes ne produisent que la dégradation des systèmes sociaux et des services publics (ce patrimoine de ceux qui n’en ont pas), de la justice et de l’équité vers lesquels ils ne devraient jamais cesser de tendre.  C’est bien l’inverse pourtant auquel on assiste. La numérisation accélérée des services publics, sous prétexte d’économie budgétaire, devient un levier de leur définancement et de la minimisation des droits et empêche les gens d’accéder à leurs droits et aux services. Depuis les travaux d’Eubanks, on constate finalement que partout, le déploiement de systèmes de traitements de masse des bénéficiaires d’aides ou de services publics est problématique, et la cause est autant à trouver dans les choix de développement que dans les considérations idéologiques qui président à ceux-ci. Partout, le but est de gérer la pénurie et de l’étendre, tout en diminuant les coûts. Le but n’est pas de faire des services publics qui rendent le service qu’on en attend, que de faire des services qui produisent des gains économiques, de la rentabilité. Et de l’accélérer… quoi qu’il en coûte. 

Une histoire algorithmique exemplaire : affecter des reins à ceux qui en ont besoin

D’une manière un peu déstabilisante, Robinson ne nous explique pas comment le système d’attribution d’un greffon rénal calcule (c’est tout de même dommage de ne pas s’être essayé à l’exercice… Ainsi par exemple, on finit par comprendre que c’est un système par points qui préside à l’attribution où le but du côté du greffon est d’en avoir le moins possible, quand du côté du greffé, il est d’en avoir le plus possible).  Robinson raconte plutôt la grande histoire de l’évolution de la transplantation rénale et l’évolution des débats éthiques qui l’ont accompagné. Il raconte l’histoire de la discussion d’un système technique avec la société et si cette histoire est exemplaire, ce n’est pas parce que le système d’attribution, l’algorithme d’appariement, serait plus vertueux que d’autres (Robinson termine son analyse en montrant que ce n’est pas le cas), mais parce qu’il démontre que ce qui est vertueux c’est la mise en discussion – ouverte, organisée, inclusive… – continue entre technique et société… Même quand elle se referme (par exemple quand il évoque la question de la prise en compte des problèmes liés à la géographie des dons), d’autres moyens permettent de l’ouvrir (en l’occurrence, le recours aux tribunaux). Ce qu’il montre, c’est que même quand les discussions se referment, les questions de justice et d’équité, d’équilibres des droits, finissent toujours par revenir, comme nous le rappelle Alain Supiot

De l’introduction des questions éthiques

Robinson retrace l’histoire de la transplantation rénale en montrant les conséquences éthiques de l’évolution des connaissances médicales. Si la première tentative de  transplantation à eu lieu au début du XXe siècle, longtemps, la question de l’immunologie, c’est-à-dire de l’acceptation d’un organe étranger dans le corps est restée obscure à la science. La première transplantation de rein réussie date de 1954 seulement, et elle était entre deux parfaits jumeaux, qui semblait la seule condition à la réussite de l’opération. A défaut de transplantation, la médecine a progressé sur un autre front, la dialyse, c’est-à-dire le fait de faire filtrer les toxines d’un patient non pas par un rein, mais par une machine, ce qu’on est parvenu à faire pendant la seconde guerre mondiale. En 1960, le docteur Scribner met au point le cathéter qui va permettre de prolonger la durée d’un patient sous dialyse (qui n’était que de quelques semaines), transformant le dysfonctionnement du rein de maladie fatale en maladie chronique et amenant un problème éthique chronique : comment trier les patients, à une époque où les appareils de dialyse sont encore extrêmement rares et coûteux ? Face à l’afflux des demandes, Scribner va avoir l’intuition de mettre en place un système de sélection qui ne soit pas uniquement médical. Pour élire les patients à la dialyse, il met en place un processus de sélection consistant en un avis médical pour déterminer l’éligibilité à la dialyse mais surtout il va mettre en place un comité de profanes chargés de trancher les décisions non-médicales d’attribution (comme de déterminer entre deux patients médicalement éligibles, lequel doit être prioritaire). Les membres de ce comité recevront des informations sur le fonctionnement de la dialyse et de la transplantation… mais devront décider des règles non médicales s’appliquant aux patients éligibles à une transplantation ou une dialyse. Très tôt donc, la réponse des limites de l’allocation dans des cas où les ressources sont rares a consisté à  faire porter la problématique éthique à  une communauté plus large – et pas seulement aux experts techniques. Lors de ses 13 premiers mois de fonctionnement, le Centre du rein de Seattle du docteur Scribner a dû considérer 30 candidats, 17 ayant été jugé médicalement aptes la dialyse, mais en écartant 7 du traitement. 

D’autres centres de dialyse vont pourtant faire des choix différents : certains vont opter pour une approche, “premier arrivé, premier servi”. Les premiers critères de choix n’étaient pas sans opacités où sans jugements moraux : les patients pauvres, vieux ou appartenant à des minorités ethniques, ceux dont les vies sont plus chaotiques, ont été plus facilement être écartés que d’autres. Malgré ses déficiences, ces interrogations ont permis de construire peu à peu la réponse éthique. 

Ce qui va changer dans les années 60, c’est la généralisation de la dialyse (d’abord accessible aux vétérans de l’armée), le développement de la transplantation rénale en ayant recours à des donneurs provenant de la famille proche, puis, en 1972, la décision par le Congrès de rembourser les soins de dialyse. Cette évolution législative doit beaucoup aux témoignages de patients devant les représentants, expliquant la difficulté à accéder à ce type de soins. Le remboursement des soins va permettre d’élargir le public de la dialyse, de créer des centres dédiés et de la rendre moins coûteuse, non seulement pour les patients, mais aussi pour la médecine. Cette prise en charge de la dialyse n’est pas sans incidence d’ailleurs, souligne Robinson, notamment quand les soins liés à une transplantation, couvrant la prise d’immunosuppresseurs, eux, ne courent que sur 3 ans, alors que les soins de dialyse, eux sont pris en charge à vie. Même encore aujourd’hui (et plus encore aux Etats-Unis, ou la prise en charge en charge des soins de santé est difficile), cette logique subsiste et fait que certains patients ne peuvent se permettre de s’extraire de la dialyse au profit d’une transplantation. En moyenne, une dialyse, consiste en 3 traitements par semaine, 4 heures de traitement par session. Coûteuse, elle reste surtout dangereuse, le taux de mortalité des patients sous dialyse est encore important à cette époque. Sans compter que l’augmentation du nombre de patients sous dialyse va avoir un impact sur l’augmentation de la demande de transplantation… 

Dans les années 60, la découverte de médications immunosuppressives va permettre de faire baisser considérablement le rejet des greffons et d’élargir le nombre de greffes : en quelques années, on va passer d’une mortalité post transplantation de 30% à un taux de survie de 80%. 

Un algorithme, mais sûr quels critères ?

En 1984, les spécialistes de la greffe de rein, Tom Starzl et Goran Klintmalm reçoivent une demande de greffe de toute urgence pour une petite fille de 4 ans. Ce drame public, très médiatisé, va reposer la question de l’attribution.  La loi nationale sur la transplantation d’organe votée en 1984 va organiser l’encadrement de l’attribution et décider de la création d’un système national par ordinateur pour apparier les organes des donneurs aux patients, dont la réalisation est confiée au Réseau d’approvisionnement en organe et de transplantation (OPTN, Organ procurement and transplantation network) et qui doit faire discuter, comme les premiers comités de Scribner, des médecins et le public. A nouveau, deux écoles s’affrontent. Celle qui propose le premier arrivé, premier servi, et une autre qui propose une rationalisation médicale de la priorisation. 

Cette priorisation va longtemps reposer sur l’appariement antigénique… Ce typage des tissus, consiste a prédire biologiquement la meilleure relation entre les données biomédicales d’un donneur et celles d’un receveur. Cette prédiction ne va cesser d’évoluer avec l’avancée des connaissances et l’évolution des standards de soin. Cet appariement permet de médicaliser le choix, mais repose sur la croyance que cet appariement est important pour la plupart des cas. Pour Robinson, nous avons là un expédient moral car les caractéristiques biomédicales ne sont pas toujours un obstacle insurmontable pour la survie des greffons de reins. Le problème, c’est que les antigènes ne sont pas seulement un prédicteur de la compatibilité entre donneur et receveur, ils sont aussi statistiquement corrélés à la race. Les afro-américains ont trois fois plus de risques d’avoir une maladie des reins en stade terminal que les blancs, alors que la majorité des donneurs ressemblent à la population américaine et sont donc blancs. La prise en compte antigénique signifie proportionnellement moins d’appariements pour les noirs. 

Un autre problème va donner lieu à de longues discussions : à partir de quand prendre en compte une demande de transplantation ? La règle a longtemps été à l’inscription d’un patient sur la liste d’attente… Or, cette inscription sur la liste d’attente n’est pas la même pour tous les patients : le niveau social, la couleur de peau et l’accès aux soins de santé sont là encore producteurs d’inégalités. En fait, le souhait de ne vouloir prendre en compte que des critères dits médicaux pour l’attribution d’un greffon, fait l’impasse sur ce qui ne relève pas du médical dans le médical et notamment ses pesanteurs sociales. Ce que montre très bien le livre de Robinson, c’est combien les discussions internes comme le débat public ne cessent de se modifier dans le temps, à mesure que la connaissance progresse. 

En 1987, l’UNOS (United network for Organ Sharing) qui opère l’OPTN, décide d’opter pour un algorithme d’allocation déjà utilisé localement à Pittsburgh (là encore, soulignons le, on retrouve une constante dans le déploiement de procédures techniques nationales : celle de s’appuyer sur des innovateurs locaux… Le sociologue Vincent Dubois raconte la même histoire quand il évoque la généralisation du contrôle automatisé à l’égard des bénéficiaires de l’aide sociale dans les CAF). Cet algorithme prend en compte de multiples facteurs : le temps d’attente d’un patient, la comptabilité antigénique et l’urgence médicale… avant d’opter deux ans plus tard pour renforcer dans les critères la question de l’appariement antigénique, alors que de nombreux spécialistes s’y opposent prétextant que la preuve de leur importance n’est pas acquise. La contestation gagne alors du terrain arguant que la question antigénique est insignifiante dans la plupart des cas de transplantation et qu’elle est surtout discriminatoire. En 1991, l’inspecteur général de la Santé américain souligne que les noirs attendent un rein deux à trois fois plus longtemps que les blancs (jusqu’à 18 mois, contre 6 !). Sans compter que ceux en faveur de l’appariement antigénique sont également ceux qui valorisent la distribution géographique, qui elle aussi à un impact discriminatoire.

Mais à nouveau, comme aux premiers temps de la transplantation, pour équilibrer les débats, une infrastructure de gouvernance ouverte et équilibrée s’est installée. Avec l’OPTN d’abord, qui s’est imposé comme une organisation caractérisée par la transparence, la consultation et la décision (par le vote). L’OPTN est le modèle de nombreux comités de parties prenantes qui prennent en compte la représentation des usagers et discutent des changements à apporter à des systèmes via d’innombrables conférences ouvertes au public qui vont se déplacer à travers le pays pour permettre la participation. Les efforts de cette structure ont été soutenus par une autre, qui lui est indépendante : le Scientific Registry of Transplant Recipents (SRTR), dont l’une des fonctions est de produire une compréhension des modèles et des impacts des changements envisagés par l’OPTN. Les visualisations et simulations que va produire le SRTR vont bien souvent jouer un rôle vital dans les débats. Simuler les conséquences d’un changement de modèle d’affectation permet d’en saisir les orientations, permet de comprendre qui va en bénéficier et qui risque d’en pâtir. Outre ces institutions phares, il faut ajouter les autorités de santé, les représentants politiques, la communauté médicale, les associations de patients, les décisions de justice… qui s’imbriquent et s’entremêlent dans une grande discussion médico-politique.  

Des critères qui évoluent avec la science et le débat public
Durant les années 90, les progrès de l’immunosuppression renforcent la critique des antigènes, les rendant encore moins critiques dans le succès de la transplantation. L’UNOS procéde à plusieurs changements à son système d’affectation pour réduire le rôle des antigènes dans l’attribution des greffons (et atténuer le fossé des discriminations), au profit du temps d’attente. Dans les années 90, la barrière des groupes sanguins est également dépassée. 

En 2003, un processus de discussion pour reconcevoir le système d’attribution des greffons qui semble en bout de course est à nouveau lancé. Pour beaucoup, “l’algorithme d’allocation des reins était devenu un collage de priorités”. A partir de 2003, le débat s’enflamme sur la question des listes d’attentes : là encore, la discrimination est à l’oeuvre, les afro-américains n’étant pas placé sur les listes d’attentes aussi rapidement ou dans les mêmes proportions que les blancs. Les patients noirs attendent plus longtemps avant d’être inscrits en liste d’attente, souvent après plusieurs années de dialyse, notamment parce que l’accès aux soins aux Etats-unis reste fortement inégalitaire. Pour corriger cette disparité, en 2002, on propose non plus de partir du moment où un patient est ajouté à une liste d’attente, mais de partir du moment où un patient commence une dialyse. Pourtant, à cette époque, la question ne fait pas suffisamment consensus pour être adoptée. 

Une autre critique au premier système de calcul est son manque d’efficacité. Certains proposent que les reins soient affectés prioritairement afin de maximiser la durée de vie des patients (au détriment des patients en attente les plus âgés). D’autres discussions ont lieu sur les patients sensibles, des patients qui ont développé des antigènes spécifiques qui rendent leur transplantation plus à risque, comme ceux qui ont déjà eu une transplantation, des femmes qui ont eu plusieurs naissances ou des patients qui ont reçu beaucoup de transfusions par exemple. Ce degré de sensibilité est calculé par un score :  le CPRA, calculated panel reactive antibody score. L’un des enjeux est de savoir si on doit favoriser un patient qui a déjà reçu une transplantation sur un autre qui n’en a pas encore eu : le fait d’avoir une double chance paraissant à ceux qui n’en ont pas encore eu une, comme une injustice. L’introduction de ce nouveau calcul souligne combien les calculs dépendent d’autres calculs. L’intrication des mesures et la complexité que cela génère n’est pas un phénomène nouveau. 

L’utilité contre l’équité : l’efficacité en question

La grande question qui agite les débats qui vont durer plusieurs années, explique Robinson, consiste à balancer l’utilité (c’est-à-dire le nombre total d’années de vie gagnées) et l’équité (le fait que chacun ait une chance égale). Des médecins proposent d’incorporer au système d’allocation une mesure du bénéfice net (le LYFT : Life years from Transplant), visant à classer les candidats selon le nombre d’années de vie qu’ils devraient gagner s’ils reçoivent une greffe. Cette formule, présentée en 2007, est compliquée : elle prend en compte une douzaine de facteurs (l’âge, l’indice de masse corporelle, le temps passé à vivre avec un problème rénal, la conformité antigénique…). En utilisant les données passées, le STR peut modéliser le temps de survie des patients en liste d’attente, le temps de survie post-transplantation, pour chaque patient et chaque appariement. Les modélisations présentées par le STR montrent que LYFT devrait avoir peu d’effet sur la distribution raciale et sanguine des receveurs, mais qu’il devrait éloigner de la greffe les diabétiques, les candidats sensibles et âgés, au profit des plus jeunes. Le calcul du temps de vie cumulé que le système devrait faire gagner peut paraître impressionnant, mais le recul de la chance pour les seniors est assez mal accueilli par les patients. L’efficacité semble mettre à mal l’équité. Les discussions s’enlisent. Le comité demande au ministère de la santé, si l’usage de l’âge dans les calculs est discriminatoire, sans recevoir de réponse. Une version finale et modifiée de Lyft est proposée à commentaire. Lyft montre une autre limite : les modèles de calculs de longévité sur lesquels il repose ne sont pas très compréhensibles au public. Ce qui permet de comprendre une autre règle des systèmes : quand l’explicabilité n’est pas forte, le système reste considéré comme défaillant. Au final, après plusieurs années de débats, Lyft est abandonné. 

En 2011, une nouvelle proposition de modification est faite qui propose de concilier les deux logiques : d’âge et de bénéfice net. Les greffons sont désormais évalués sur un score de 100, où plus le score est bas, meilleur est le greffon. Les patients, eux, sont affecté par un Post-Transplant Survival score (EPTS), qui comme Lyft tente d’estimer la longévité depuis 4 facteurs seulement : l’âge, le temps passé en dialyse, le diabète et si la personne a déjà reçu une transplantation, mais sans évaluer par exemple si les patients tolèrent la dialyse en cas de non transplantation… Pour concilier les logiques, on propose que 20% des greffons soient proposés prioritairement à ceux qui ont le meilleur score de longévité, le reste continuant à être attribué plus largement par âge (aux candidats qui ont entre 15 ans de plus ou de moins que l’âge du donneur). Là encore, pour faire accepter les modifications, le comité présente des simulations. Plus équilibré, la règle des 20/80 semble plus compréhensible,  Mais là encore, il réduit les chances des patients de plus de 50 ans de 20%, privilégiant à nouveau l’utilité sur l’équité, sans répondre à d’autres problèmes qui semblent bien plus essentiels à nombre de participants, notamment ceux liés aux disparités géographiques. Enfin, la question de l’âge devient problématique : la loi américaine contre la discrimination par l’âge a été votée en 2004, rappelant que personne ne peut être discriminé sur la base de son âge. Ici, se défendent les promoteurs de la réforme, l’âge est utilisé comme un proxy pour calculer la longévité. Mais cela ne suffit pas. Enfin, les patients qui ont 16 ans de plus ou de moins que l’âge du donneur n’ont pas moins de chance de survivre que ceux qui ont 14 ans de différence avec le donneur. Ce critère aussi est problématique (comme bien souvent les effets de seuils des calculs, qui sont souvent strictes, alors qu’ils devraient être souples). 

La surveillance du nouveau système montre d’abord que les receveurs de plus de 65 ans sont défavorisés avant de s’améliorer à nouveau (notamment parce que, entre-temps, la crise des opioïdes et la surmortalité qu’elle a engendré a augmenté le nombre de greffons disponibles). Le suivi longitudinal de l’accès aux greffes montre qu’entre 2006 et 2017, l’équité raciale a nettement progressé, notamment du fait de la prise en compte de la date de mise sous dialyse pour tous.  Les différences entre les candidats à la greffe, selon la race, se resserrent. 

En septembre 2012, une nouvelle proposition est donc faite qui conserve la règle des 20/80, mais surtout qui qui intègre le calcul à partir du début de l’entrée en dialyse des patients, atténue l’allocation selon le groupe sanguin… autant de mesures qui améliorent l’accès aux minorités. Cette proposition finale est à nouveau discutée entre septembre et décembre 2012, notamment sur le fait qu’elle réduit l’accès aux patients les plus âgés et sur le compartimentage régional qui perdure. En juin 2013, le conseil de l’OPTN approuve cependant cette version et le nouvel algorithme entre en fonction en décembre 2014. Dix ans de discussion pour valider des modifications… Le débat public montre à la fois sa force et ses limites. Sa force parce que nombre d’éléments ont été discutés, recomposés ou écartés. Ses limites du fait du temps passé et que nombre de problèmes n’ont pas été vraiment tranchés. Décider prend du temps. Robinson souligne combien ces évolutions, du fait des débats, sont lentes. Il a fallu 10 ans de débats pour que l’évolution de l’algorithme d’attribution soit actée. Le débat entre utilité et équité n’a pu se résoudre qu’en proposant un mixte entre les deux approches, avec la règle du 20/80, tant ils restent irréconciliables. Mais si le processus a été long, le consensus obtenu semble plus solide. 

La lente déprise géographique

Le temps d’acheminement d’un greffon à un donneur a longtemps été une donnée essentielle de la greffe, tout comme la distance d’un malade à une unité de dialyse, ce qui explique, que dès le début de la greffe et de la dialyse, le critère géographique ait été essentiel. 

L’allocation de greffon est donc circonscrite à des zonages arbitraires : 58 zones, chacune pilotées par un organisme de contrôle des allocations, découpent le territoire américain. Le système montre pourtant vite ses limites, notamment parce qu’il génère de fortes discriminations à l’accès, notamment là où la population est la plus nombreuse et la demande de greffe plus forte. Les patients de New York ou Chicago attendent des années, par rapport à ceux de Floride. Plusieurs fois, il va être demandé d’y mettre fin (hormis quand le transport d’organes menace leur intégrité). Pourtant, les zones géographiques vont s’éterniser. Il faut attendre 2017 pour que l’UNOS s’attaque à la question en proposant un Score d’accès à la transplantation (ATS, Access to Transplant Score) pour mesurer l’équité de l’accès à la transplantation. L’outil démontre ce que tout le monde dénonçait depuis longtemps :  la géographie est un facteur plus déterminant que l’âge, le groupe sanguin, le genre, la race ou les facteurs sociaux : selon la zone dont dépend le receveur (parmi les 58), un même candidat pourra attendre jusqu’à 22 fois plus longtemps qu’un autre ! Cette question va évoluer très rapidement parce que la même année, l’avocat d’une patiente qui a besoin d’une greffe attaque en justice pour en obtenir une depuis une zone où il y en a de disponibles. Fin 2017, l’UNOS met fin au zonage pour le remplacer par une distance concentrique par rapport à l’hôpital du donneur, qui attribue plus ou moins de points au receveur. Le plus étonnant ici, c’est qu’un critère primordial d’inégalité ait mis tant d’années à être démonté. 

Le scoring en ses limites

Les scientifiques des données de l’UNOS (qui ont mis en place l’ATS) travaillent désormais à améliorer le calcul de score des patients. Chaque patient se voit attribuer un score, dont la précision va jusqu’à 16 chiffres après la virgule (et le système peut encore aller plus loin pour départager deux candidats). Mais se pose la question du compromis entre la précision et la transparence. Plus il y a un chiffre précis et moins il est compréhensible pour les gens. Mais surtout, pointe Robinson, la précision ne reflète pas vraiment une différence médicale entre les patients. “Le calcul produit une fausse précision”. Ajouter de la précision ne signifie pas qu’un candidat a vraiment un meilleur résultat attendu qu’un autre s’il est transplanté. La précision du calcul ne fait que fournir un prétexte technique pour attribuer l’organe à un candidat plutôt qu’à un autre, une raison qui semble extérieurement neutre, alors que la précision du nombre ne reflète pas une différence clinique décisive. Pour Robinson, ces calculs, poussés à leur extrême, fonctionnent comme la question antigénique passée : ils visent à couvrir d’une neutralité médicale l’appariement. En fait, quand des candidats sont cliniquement équivalents, rien ne les départage vraiment. La précision du scoring est bien souvent une illusion. Créer une fausse précision vise surtout à masquer que ce choix pourrait être aussi juste s’il était aléatoire. Robinson souhaite voir dans cette question qu’adressent les data scientist de l’UNOS, le retour de l’interrogation sempiternelle de ne pas transformer une question technique en une question morale. Il paraîtra à d’autres assez étonnant qu’on continue à utiliser la précision et la neutralité des chiffres pour faire croire à leur objectivité. Pourtant, c’est là une pratique extrêmement répandue. On calcule des différences entre les gens via une précision qui n’a rien de médicale, puisqu’au final, elle peut considérer par exemple, que le fait d’habiter à 500 mètres d’un hôpital fait la différence avec une personne qui habite à 600 mètres. En fait, l’essentiel des candidats est si semblable, que rien ne les distingue dans la masse, les uns des autres. Faire croire que la solution consiste à calculer des différences qui n’ont plus rien de scientifiques est le grand mensonge de la généralisation du scoring. C’est trop souvent l’écueil moral des traitements de masse qui justifient le recours aux algorithmes. Mais le calcul ne le résout pas. Il ne fait que masquer sous le chiffre des distinctions problématiques (et c’est un problème que l’on retrouve aujourd’hui dans nombre de systèmes de scoring, à l’image de Parcoursup). Le calcul d’attribution de greffes de rein n’est pas encore exemplaire. 

Faire mieux
Dans sa conclusion, Robinson tente de remettre cette histoire en perspective. Trop souvent, depuis Upturn, Robinson a vu des systèmes conçus sans grande attention, sans grands soins envers les personnes qu’ils calculaient. Trop de systèmes sont pauvrement conçus. “Nous pouvons faire mieux.” 

Dans la question de l’attribution de greffes, la participation, la transparence, la prévision et l’audit ont tous joué un rôle. Les gens ont élevé leurs voix et ont été entendus. Pourquoi n’en est-il pas de même avec les autres algorithmes à fort enjeu ? Robinson répond rapidement en estimant que la question de la transplantation est unique notamment parce qu’elle est une ressource non marchande. Je ne partage pas cet avis. Si le système est l’un des rares îlots de confiance, son livre nous montre que celle-ci n’est jamais acquise, qu’elle est bien construite, âprement disputée… Cette histoire néanmoins souligne combien nous avons besoin d’une confiance élevée dans un système. “La confiance est difficile à acquérir, facile à perdre et pourtant très utile.” L’exemple de la transplantation nous montre que dans les cas de rationnement la participation du public est un levier primordial pour assurer l’équité et la justice. Il montre enfin que les stratégies de gouvernance peuvent être construites et solides pour autant qu’elles soient ouvertes, transparentes et gérées en entendant tout le monde. 

Gérer la pénurie pour l’accélérer… et faire semblant d’arbitrer

Certes, construire un algorithme d’une manière collaborative et discutée prend du temps. Les progrès sont lents et incrémentaux. Les questions et arbitrages s’y renouvellent sans cesse, à mesure que le fonctionnement progresse et montre ses lacunes. Mais les systèmes sociotechniques, qui impliquent donc la technique et le social, doivent composer avec ces deux aspects. La progression lente mais nette de l’équité raciale dans l’algorithme d’affectation des reins, montre que les défis d’équité que posent les systèmes peuvent être relevés. Reste que bien des points demeurent exclus de ce sur quoi l’algorithme concentre le regard, à l’image de la question des remboursements de soins, limités à 3 ans pour la prise en charge des médicaments immunosuppresseurs des transplantés alors qu’ils sont perpétuels pour les dialysés, pointent qu’il y a encore des progrès à faire sur certains aspects du système qui dépassent le cadre de la conception de l’algorithme lui-même. Les questions éthiques et morales évoluent sans cesse. Sur la transplantation, la prochaine concernera certainement la perspective de pouvoir avoir recours à des reins de cochons pour la transplantation. Les xénogreffes devraient être prêtes pour les essais médicaux très prochainement, et risquent de bouleverser l’attribution. 

Robinson évoque les algorithmes de sélection des écoles de la ville de New York, où chaque école peut établir ses propres critères de sélection (un peu comme Parcoursup). Depuis peu, ces critères sont publics, ce qui permet un meilleur contrôle. Mais derrière des critères individuels, les questions de discrimination sociale demeurent majeures. Plusieurs collectifs critiques voudraient promouvoir un système où les écoles ne choisissent pas leurs élèves selon leurs mérites individuels ou leurs résultats à des tests standardisés, mais un système où chaque école doit accueillir des étudiants selon une distribution représentative des résultats aux tests standardisés, afin que les meilleurs ne soient pas concentrés dans les meilleures écoles, mais plus distribués entre chaque école. C’est le propos que porte par exemple le collectif Teens Take Change. De même, plutôt que d’évaluer le risque de récidive, la question pourrait être posée bien autrement : plutôt que de tenter de trouver quel suspect risque de récidiver, la question pourrait être : quels services garantiront le mieux que cette personne se présente au tribunal ou ne récidive pas ? Déplacer la question permet de déplacer la réponse. En fait, explique très clairement Robinson, les orientations des développements techniques ont fondamentalement des présupposés idéologiques. Les logiciels de calcul du risque de récidive, comme Compass, reposent sur l’idée que le risque serait inhérent à des individus, quand d’autres systèmes pourraient imaginer le risque comme une propriété des lieux ou des situations, et les prédire à la place. (pour InternetActu.net, j’étais revenu sur les propos de Marianne Bellotti, qui militait pour des IA qui complexifient plutôt qu’elles ne simplifient le monde, qui, sur la question du risque de récidive, évoquait le système ESAS, un logiciel qui donne accès aux peines similaires prononcées dans des affaires antérieures selon des antécédents de condamnations proches, mais, là où Compass charge l’individu, ESAS relativise et aide le juge à relativiser la peine, en l’aidant à comparer sa sentence à celles que d’autres juges avant lui ont prononcé). Les algorithmes qui rationnent le logement d’urgence, comme l’évoquait Eubanks dans son livre, visent d’abord à organiser la pénurie, et finalement permettent de mieux écarter le problème principal, celui de créer plus de logements sociaux. Au contraire même, en proposant un outil d’administration de la pénurie, bien souvent, celle-ci peut finalement être encore plus optimisée, c’est-à-dire plus rabotée encore. Les systèmes permettent de créer des “fictions confortables” : la science et le calcul tentent de neutraliser et dépolitiser des tensions sociales en nous faisant croire que ces systèmes seraient plus juste que le hasard, quand une “loterie aléatoire refléterait bien mieux la structure éthique de la situation”

Participer c’est transformer

La force de la participation n’est pas seulement dans l’apport d’une diversité, d’une pluralité de regards sur un problème commun. La participation modifie les regards de tous les participants et permet de créer des convergences, des compromis qui modulent les systèmes, qui modifient leur idéologie. Au contact d’autres points de vues, dans une ambiance de construction d’un consensus, les gens changent d’avis et modèrent leurs positions, souligne très pertinemment Robinson. Certes, la participation est un dispositif complexe, long, lent, coûteux. Mais ses apports sont transformateurs, car la délibération commune et partagée est la seule à même à pouvoir intégrer de la justice et de l’équité au cœur même des systèmes, à permettre de composer un monde commun. “Une compréhension partagée bénéficie d’une infrastructure partagée”. Pour produire une gouvernance partagée, il faut à la fois partager la compréhension que l’on a d’un système et donc partager l’infrastructure de celui-ci. Les jurés sont briefés sur les enjeux dont ils doivent débattre. Les participants d’un budget citoyens également. La participation nécessite la transparence, pas seulement des données et des modalités de traitement, mais aussi des contextes qui les façonnent. Cela signifie qu’il est toujours nécessaire de déployer une infrastructure pour soutenir le débat : quand elle est absente, la conversation inclusive et informée tend à ne pas être possible. Dans le cas de la transplantation, on l’a vu, les ressources sont innombrables. Les organismes pour les produire également – et leur indépendance est essentielle. Les visualisations, les simulations se sont souvent révélées essentielles, tout autant que les témoignages et leur pluralité. Pour Robinson, cette implication des publics, cette infrastructure pour créer une compréhension partagée, ces gouvernances ouvertes sont encore bien trop rares au-delà du domaine de la santé… alors que cela devrait être le cas dans la plupart des systèmes à haut enjeu. “La compréhension partagée bénéficie d’une infrastructure partagée, c’est-à-dire d’investissements qui vont au-delà de l’effort qu’implique la construction d’un algorithme en soi.”   Certes, concède-t-il, la participation est très coûteuse. Pour Robinson : “Nous ne pouvons pas délibérer aussi lourdement sur tout”. Bien sûr, mais il y a bien trop d’endroits où nous ne délibérons pas. Faire se rejoindre l’utilité et l’équité prend du temps, mais elles ne sont irréconciliables que là où aucune discussion ne s’engage. En fait, contrairement à Robinson, je pense que nous ne pouvons pas vivre dans des systèmes où la justice n’est pas présente ou le déséquilibre entre les forces en présence est trop fort. Les systèmes injustes et oppressifs n’ont qu’un temps. L’auto-gouvernement et la démocratie ont toujours pris du temps, mais ils demeurent les moins pires des systèmes. L’efficacité seule ne fera jamais société. Cette logistique de la participation est certainement le coût qui devrait balancer les formidables économies que génère la dématérialisation. Mais surtout, convient Robinson, la participation est certainement le meilleur levier que nous avons pour modifier les attitudes et les comportements. Plusieurs études ont montré que ces exercices de discussions permettent finalement d’entendre des voies différentes et permettent aux participants de corriger leurs idées préconçues. La participation est empathique. 

Le risque d’une anesthésie morale par les chiffres

Enfin, Robinson invite à nous défier de la quantification, qu’il qualifie “d’anesthésiant moral“.  “Les algorithmes dirigent notre attention morale”, explique-t-il. Le philosophe Michael Sacasas parle, lui, de machines qui permettent “l’évasion de la responsabilité”. Quand on regarde le monde comme un marché, un score “semble toujours dépassionné, impartial et objectif”, disaient Marion Fourcade et Kieran Healy. Pourtant, la quantification n’est pas objective, parce qu’elle a des conséquences normatives et surtout que le chiffre nous rend indifférent à la souffrance comme à la justice (c’est ce que disait très bien le chercheur italien Stefano Diana, qui parlait de psychopathologisation par le nombre). C’est également ce que disaient les juristes Guido Calabresi et Philip Bobbitt dans leur livre, Tragic Choices (1978) : “En faisant en sorte que les résultats semblent nécessaires, inévitables, plutôt que discrétionnaires, l’algorithme tente de convertir ce qui est tragiquement choisi en ce qui n’est qu’un malheur fatal. Mais généralement, ce n’est qu’un subterfuge, car, bien que la rareté soit un fait, une décision particulière… (par exemple, celle de savoir qui recevra un organe dont on a besoin de toute urgence) est rarement nécessaire au sens strict du terme.” C’est tout le problème du scoring jusqu’à 16 décimales, qui ne distingue plus de différences médicales entre des patients, mais les discrétise pour les discrétiser. La fausse rationalité du calcul, permet “d’esquiver la réalité que de tels choix, sont, à un certain niveau, arbitraires”. Ces subterfuges par le calcul se retrouvent partout. Poussé à son extrême, le score produit des différences inexistantes. Pour Robinson, “nous apprenons à expliquer ces choix impossibles dans des termes quantitatifs neutres, plutôt que de nous confronter à leur arbitraire”. Pour ma part, je pense que nous n’apprenons pas. Nous mentons. Nous faisons passer la rationalité pour ce qu’elle n’est pas. Nous faisons entrer des critères arbitraires et injustes dans le calcul pour le produire. Quand rien ne distingue deux patients pour leur attribuer un greffon, on va finir par prendre un critère ridicule pour les distinguer, plutôt que de reconnaître que nous devrions avoir recours à l’aléatoire quand trop de dossiers sont similaires. Et c’est bien le problème que souligne Robinson à la fin de son inspection du système de calcul de l’attribution de greffe de rein : la plupart des patients sont tellement similaires entre eux que le problème est bien plus relatif à la pénurie qu’autre chose. Le problème est de faire penser que les critères pour les distinguer entre eux sont encore médicaux, logiques, rationnels. 

Pour Robinson, les algorithmes sont des productions de compromis, d’autant plus efficaces qu’ils peuvent être modifiés (et ne cessent de l’être) facilement. Leur adaptabilité même nous invite à tisser un lien, trop inexistant, entre la société et la technique. Puisque les modifier n’est pas un problème, alors nous devrions pouvoir en discuter en permanence et avoir une voix pour les faire évoluer. Ils sont tout aussi bordéliques que la réalité. L’expertise technique n’est jamais et ne devrait jamais être prise comme une autorité morale. La participation ne devrait pas être vue comme quelque chose de lourd et de pesant, mais bien comme le seul levier pour améliorer la justice du monde. Robinson nous invite à imaginer un monde où les plus importants systèmes techniques refléteraient bien des voix, même la nôtre. Pour l’instant, ce que l’on constate partout, c’est que tout est fait pour ne pas les écouter. 

Ce que nous dit le livre de Robinson, c’est combien la question de l’équité reste primordiale. Et qu’améliorer un système prend du temps. La justice n’est pas innée, elle se construit lentement, patiemment. Trop lentement bien souvent.  Mais le seul outil dont nous disposons pour améliorer la justice, c’est bien le débat, la contradiction et la discussion. Malgré sa complexité et sa lenteur, la question du débat public sur les systèmes est essentielle. Elle ne peut ni ne doit être un débat d’experts entre eux. Plusieurs fois, dans ces débats, Robinson montre l’importance des patients. C’est leurs interventions lors des séances publiques qui modifient les termes du débat. Construire des systèmes robustes, responsables, nécessite l’implication de tous. Mais ce qui est sûr c’est qu’on ne construit aucun système responsable quand il n’écoute pas les voix de ceux pris dans ces filets. Nous devons exiger des comités de parti de prenantes partout où les systèmes ont un impact fort sur les gens. Nous devons nous assurer d’améliorations incrémentales, non pas imposées par le politique, mais bien discutées entre égaux, dans des comités où les experts ont autant la voix que les calculés. Aujourd’hui, c’est ce qui manque dans la plupart des systèmes. Y faire entrer les voix des gens. C’est la principale condition pour faire mieux, comme nous y invite David Robinson. 

Hubert Guillaud

A propos du livre de David G. Robinson, Voices in the code, a story about people, their values, and the algorithm they made, Russell Sage Foundation, 2022, 212 pages.

Advertisement

Dématérialiser pour mieux régner : dématérialisation et non-recours

Le 25 octobre 2022, le Mouton Numérique organisait une rencontre au Centre Picoulet à Paris autour de la question de la dématérialisation. 

Anne-Charlotte Oriol du Mouton numérique introduit la soirée pour rappeler que les mots masquent souvent leurs sens. La numérisation qui a lieu avec la dématérialisation de l’action publique se justifie toujours par la modernisation et la simplification. Pourtant, ses conséquences sur les personnes ne sont ni plus simples, ni plus modernes. La numérisation dans le champ de l’action sociale a d’abord des conséquences désastreuses. La modernisation et la simplification tiennent surtout d’écrans de fumées dont il faut comprendre les logiques et les finalités. 

De gauche à droite, Gabriel Amieux, Habib, Maud Barret Bertelloni et Anne-Charlotte Oriol du Mouton Numérique, Clara Deville. Photo Joelle Morel.

La sociologue Clara Deville a travaillé sur le l’accès au RSA en milieu rural, dans la région de Libourne, et la question de la dématérialisation. En 2012, alors qu’elle travaillait à sa thèse, a été publié le premier chiffrage par la Caisse nationale d’allocations familiales (Cnaf) du non-recours aux droits, c’est-à-dire la première estimation de la différence entre une population éligible à un droit et ses bénéficiaires réels. D’un coup, le chiffre révélait une autre réalité du RSA, en montrant que 34% de la population éligible n’avait pas recours au RSA (pour le RSA socle, pour le RSA activité, le taux de non-recours était encore plus élevé, puisque estimé à 68%, des chiffres qui n’ont pas beaucoup bougés depuis). En 2012, pourtant, la dématérialisation de l’action sociale n’existe pas encore. On estime alors que numériser pour un public en difficulté n’est pas adapté, et que le chantier est d’autant plus compliqué qu’il nécessite de coordonner à la fois les CAF et les départements, qui sont les deux acteurs du RSA. Mais si la dématérialisation est d’abord écartée, la CAF, elle, est à la pointe sur le sujet. Voilà longtemps qu’elle utilise les outils numériques pour le travail de son administration, comme le raconte le sociologue Vincent Dubois dans son livre, Contrôler les assistés. La rationalisation budgétaire qui la touche l’a habitué à utiliser le numérique pour mieux traiter plus de bénéficiaires avec moins de personnels. En 2014, un rapport du SGMAP, creuse la question du non-recours qui est devenu un sujet politique. Ce rapport défini plusieurs types de “non-recourants” : ceux qui le font par choix, ceux qui sont traumatisés par les démarches ou encore, “les abandonnistes”… autant de définitions individualisantes qui semblent dire que le non-recours tient bien plus de la responsabilité des gens que de celle de l’Etat. Le non-recours a été individualisé et dépolitisé, estime Clara Deville : les usagers sont renvoyés à leur seule responsabilité… Reste que le mot d’ordre qui s’impose alors consiste à simplifier pour que les gens comprennent mieux. 

La réforme de la prime d’activité en 2015 va amener encore plus de gens aux portes des CAF, rendant la dématérialisation sencore plus nécessaire qu’elle n’était. Les deux objets, la dématérialisation et le non-recours vont alors très étrangement s’arrimer ensemble, alors que rien ne prédisposait à cela, notamment parce qu’on ne trouve nulle part aucune preuve d’amélioration des droits par la dématérialisation ! Mais comme les gouvernants pensent que le non-recours est un problème individuel et que la numérisation va améliorer l’information… 

Ce sont les CAF qui vont mettre en œuvre le RSA et traduire la réforme opérationnellement. Cela va avoir des impacts directs et immédiats. Dématérialiser, c’est d’abord très concrètement changer les modes d’accueil. A Libourne, terrain de thèse de Clara Deville, la sociologue voit les points d’accueils les plus ruraux, les plus éloignés, fermer. Il n’y a pas de rupture de service public, puisque le service est dématérialisé, se défendent les organismes sociaux ! Vers 2016, les CAF passent également au rendez-vous ! On ne peut plus se présenter à l’accueil sans rendez-vous. Il faut prendre rendez-vous par internet ou par téléphone (et pendant longtemps ce sera au tarif de 7 centimes la minute !). Les lieux d’accueil sont reconfigurés, sans plus aucune file d’attente. On y implante des espaces libres services qui servent aux usagers à fournir une estimation de droit nécessaire avant tout rendez-vous, qu’ils doivent remplir par eux-mêmes ce qui permet de réduire les coûts de traitements. Reste que tous les publics n’y arrivent pas. CAF et départements se renvoient la balle de l’accompagnement des usagers à l’accès au droit. Comme ni l’un ni l’autre n’en ont voulu, on l’a refilé aux “acteurs locaux”, c’est-à-dire aux centres sociaux et aux associations. Ce sont eux qui vont gérer l’accompagnement, sans toujours beaucoup d’aides pour cela. Très concrètement, conclut Anne-Charlotte, on voit que le numérique vient percuter l’accès au droit en créant une barrière à l’accès, celle des écrans. 

C’est le même constat que fait Gabriel Amieux qui coordonne les équipes bénévoles du Secours Catholique du 93 et du collectif “Bouge ta préfecture” (FB, Twitter). La dématérialisation est exclusive. Toutes les procédures d’accès au droit des étrangers sont dématérialisées. Mais pire encore, explique-t-il, impossible désormais d’avoir accès au droit sans passer par des associations ou des avocats. La dématérialisation est devenu un frein à la régularisation des sans papiers et à l’accès au droit. Et malgré les promesses de la mise en place de l’ANEF (l’Administration numérique pour les étrangers en France), un site qui concentre toutes les démarches, rien n’y est à jour. 

Il y a 7 à 8 ans, quand on faisait une demande de titre de séjour, on pouvait déposer un dossier physiquement en préfecture. Il fallait faire la queue très longtemps, mais on pouvait accéder au service sans rendez-vous. Peu à peu, les préfecture se sont fermées, avec la mise en place du rendez-vous obligatoire par internet. Le problème, c’est que la prise de rendez-vous est impossible du fait du système mis en place, comme l’a montré la Cimade avec son enquête, À guichets fermés. Entre 2018 et 2022, il n’y avait que deux solutions pour obtenir un rendez-vous pour un dépôt de titre de séjour en préfecture : l’acheter à des revendeurs sur internet pour 800 à 900 euros, revendeurs qui bookait les outils de rendez-vous des préfectures grâce à des robots, ou passer par un avocat pour contraindre les préfectures à proposer un rendez-vous après être passé au tribunal administratif et avoir fait la preuve que le prise de rendez-vous était impossible. Une magistrate qui s’en amusait disait que les tribunaux administratifs étaient devenus les Doctolib des préfectures – ou, comme le disait Le Monde, de transformer les juges en secrétaires de préfecture! Le Secours Catholique, la Cimade et d’autres associations ont lancé un contentieux systématique contre ce système. Mais c’est très long. Il faut constituer la preuve que la prise de rendez-vous est impossible : c’est-à-dire pendant 2 à 3 mois, documenter de captures d’écrans l’impossibilité d’en obtenir un par des démarches répétées. Passer devant le tribunal, attendre la réponse de la préfecture… En juin 2022, la préfecture donnait des rendez-vous pour juillet 2023 ! Le contentieux contre la dématérialisation exclusive a été entériné par le Conseil d’Etat, mais c’est encore aux associations d’apporter la preuve !

Désormais, c’est en train de changer. Les préfectures sont en train de s’adapter au processus démarches simplifiées. C’est encore compliqué parce qu’il faut un identifiant France Connect et un acte de naissance de moins de 6 mois, mais depuis l’avis du Conseil d’Etat, on obtient des rendez-vous. Reste que ça ne règle pas le problème. Le nombre de rendez-vous proposés chaque semaine n’arrive jamais à combler le retard et la demande. 

La folie de la démarche qui s’est mise en place, c’est Habib qui en parle mieux. Habib est sans papier. Il vit en France depuis 2007. Y travaille. Paye ses impôts. Est marié. A des enfants. Quand il a voulu régulariser sa situation, en 2019, il s’est retrouvé pendant des mois à tenter de prendre un rendez-vous sans jamais y parvenir. Alors il finit par faire son dossier avec le Secours catholique. En octobre 2021. Il vient d’avoir un rendez-vous. Il est pour dans un an et 3 jours ! 4 ans donc pour avoir un rendez-vous, on ne parle même pas d’obtenir un titre de séjour auquel, à la vue de son dossier, il devrait avoir largement droit ! 

Cet exemple, rappelle Gabriel Amieux est emblématique. Habib coche tous les critères pour être régularisé, mais n’a même pas accès à un rendez-vous. Pour obtenir un rendez-vous, il faut désormais produire autant de preuves que pour l’accès au droit ! 

Les conditions implicites de l’accès au droit demande des preuves qu’il faut produire et des compétences numériques qu’il faut mobiliser, alors qu’elles ne sont pas forcément très bien distribuées parmi les administrés. La charge de l’administration revient de plus en plus aux administrés. Pour Clara Deville, l’accès au RSA ressemble beaucoup à ce qu’on voit pour les titres de séjours. L’usager doit désormais fournir un travail conséquent pour obtenir un rendez-vous. Sur internet, il faut remplir une demande, fournir les pièces justificatives. Ce n’est facile que pour une certaine catégorie de population, les plus favorisés des demandeurs et les employés des CAF, peu payés, peu formés, qui se retrouvent ainsi à l’abri de la file d’attente physique et des tensions qu’elle générait. Ce confort, relatif, explique pourquoi le mythe de la dématérialisation s’enracine. Mais cela rend difficile le fait de montrer que la dématérialisation ne permet pas de lutter contre le non-recours.

On pense le non recours d’une manière très responsabilisante, individualisante, mais, comme le dit Bourdieu, c’est une pensée d’Etat. “Le non recours accompagne des démarches d’accès au droit qui reposeraient sur la décision”. On considère que le parcours d’accès au droit commence par une décision de l’administré à faire valoir un droit… Dans son travail de thèse, constate Clara Deville, ce moment de prise de décision dans le parcours d’accès des gens n’existe pas. Ce qui conduit les gens à se tourner vers l’Etat à un moment ou à un autre très inégalement réparti. Beaucoup vont avoir des expériences malheureuses avec l’Etat : de contrôle, de sanctions, de violence, de menace… Des expériences qui naissent dans d’autres parcours, des parcours scolaires ou de soins par exemple. Des expériences qui forgent des représentations notamment dans les classes populaires. Le long parcours de socialisation à l’Etat génère et cristallise les inégalités. Ceux qui accèdent au RSA rapidement restent des gens qui ont eu un rapport positif avec des institutions, qui ont peu se familiariser avec des fonctionnements bureaucratiques… “Se tourner vers l’Etat n’est pas la même chose pour tout le monde”. Il y a donc des trajectoires inégales et situées socialement. Prendre un rendez-vous est compliqué, notamment parce qu’il faut se déplacer. Cela suppose d’avoir accès à un ordinateur et une voiture, mais surtout se confronter à un espace qui fonctionne autrement, notamment socialement. Même quand on obtient un rdv à la CAF, c’est encore compliqué pour bien des administrés. Un rdv à la CAF est limité à 15 minutes : un logiciel chronomètre les agents et s’affiche sur leur écran durant l’entretien. Et la numérisation a aussi permis cela : un contrôle disciplinaire du travail pour assurer sa productivité. En arrivant à la CAF, il faut saisir son nom ou son numéro à une borne qui rejette les gens s’ils ont 7 minutes de retard, comme par exemple quand ils s’installent en attente sans savoir qu’il faut pointer à la borne d’abord. Savoir lire l’espace technique de la CAF nécessite des compétences que ceux qui ne le fréquentent pas non pas.    

Pour Gabriel Amieux, pour les sans papiers, l’Etat, bien souvent, c’est un écran et la police. Pour Habib, sans titre de séjour, le risque d’un contrôle d’identité est lancinant. Sur le terrain, constate Amieux, la dématérialisation produit surtout une inflation de procédures. Or, quand les personnes ont un titre de séjour qui expire, la CAF sait très bien couper les aides de manière automatisée et coordonnée. Pourtant, quand une personne reçoit un titre de séjour, les aides, elles, ne sont jamais affectées automatiquement. 

Clara Deville revient enfin sur le lien entre le vote et l’accès au droit. L’éloignement et la fermeture des infrastructures publiques, l’exclusion et les expériences malheureuses de l’accès au droit génèrent du ressentiment, créent une distance sociale et politique. Ces expériences entretiennent une mise en retrait des classes populaires vis-à-vis de la politique, qui a toujours été plus marquée qu’ailleurs. Or, les difficultés d’accès au droit coûte cher notamment du fait des coûts de soins qui sont reportés à plus tard, des loyers impayés… Le RSA ce n’est pas de la redistribution de richesses ou un truc communiste, c’est quelque chose de très capitaliste qui permet d’abord de maintenir les plus pauvres à flot pour qu’ils puissent continuer à travailler si besoin. La dégradation de l’accès au droit avec la dématérialisation rallonge la distance entre les classes populaires et la politique. 

La sociologue rappelle que d’autres pistes que la dématérialisation ont été évoquées dès 2012, comme l’automatisation de l’accès au droit ou le revenu universel d’activité. L’automatisation progresse un peu : pour l’accès au RSA, le calcul du revenu va être automatisé, mais pour l’instant, on n’envisage toujours pas de l’attribuer automatiquement, sans avoir à faire de demande. 

Pour Sébastien Manier, directeur du Centre social du Picoulet, de plus en plus, on est confronté à des gens qui n’ont plus d’interlocuteurs. Or, nombreux sont ceux qui cherchent des interlocuteurs pour ouvrir leurs droits. Mais dès qu’il y a une difficulté, on n’a plus accès aux services publics, on ne sait plus vers qui se tourner. Le centre social accueille des associations pour accompagner des usagers, par exemple pour constituer leurs dossiers de retraites… Mais là encore, la dématérialisation est en train de faire des ravages, comme le constatait récemment un collectif. L’aide aux usagers retombe sur des structures associatives qui sont bien souvent sans moyens pour aider. 

Dans le public, quelqu’un fait remarquer que cette question de l’accès au droit n’est jamais une question de délibération démocratique. “On est face à une politique publique qui n’a jamais eu de fondements démocratiques”. La question de la gestion de ces services est toujours technique, jamais ouverte au regard des usagers… 

En effet, prolonge Clara Deville. les Conventions d’objectifs et de gestion, qui sont les contrats qui lient l’Etat et la Cnaf, qui allouent les moyens données aux CNAF en contrepartie d’objectifs à atteindre, précisent des indicateurs de qualité de service auxquels doivent se conformer les CAF. Ces conventions d’objectifs poussent à la numérisation et en regard, les Cnaf produisent un indicateur, le seul sur l’accès au droit, qui est… le taux de dématérialisation des procédures ! La lutte contre le non-recours consiste donc uniquement en la dématérialisation. Ce qui entretient une illusion jusqu’aux agents de la CAF, qui pensent qu’ils luttent contre le non-recours puisqu’ils produisent des statistiques qui leurs montrent que la dématérialisation progresse ! 

Gabriel Amieux le confirme : la restriction des voies d’accès au titre de séjour n’a été voté nulle part ! Il n’est écrit nulle part qu’il faut des années de présence en France et des dizaines de fiche de paye pour avoir droit à un titre de séjour. Or, nous-mêmes, associations, nous trions les demandes des personnes que l’on accompagne selon la solidité et l’ancienneté de leurs dossiers. Ces règles non écrites deviennent totalement illisibles pour tous, que ce soit les personnes qui cherchent à obtenir un titre de séjour, les agents, les associations qui les accompagnent. Tous les gens qui devraient avoir accès à un titre de séjour ne peuvent donc pas l’obtenir. C’est un vrai problème démocratique. 

Si vous le souhaitez, vous pouvez écouter l’audio de la rencontre qui déploie ce que j’ai tenté de condenser ici. La prochaine rencontre organisée par le Mouton numérique aura lieu le 24 novembre et portera sur les conséquences de la numérisation sur le travail social et administratif. On s’y retrouve ! 

Hubert Guillaud

Peut-on réguler le capitalisme superstar ?

Avant de devenir économiste, James Bessen (site perso, @jamesbessen) a été développeur logiciel et même patron d’une entreprise de logiciel dans les années 80. Aujourd’hui, il est économiste et directeur de l’Initiative de recherche sur la technologie et la politique (@TPRI_BU) à l’université de Boston, spécialiste des impacts économiques de la technologie sur la société, des brevets et de l’innovation. Cette expérience lui permet de porter un regard très concret sur l’évolution numérique. Il vient de faire paraître un livre en tout point passionnant : The New Goliaths: How Corporations Use Software to Dominate Industries, Kill Innovation, and Undermine Regulation (Yale, 2022, 272 pages, non traduit). Un livre qui tente de caractériser les spécificités qu’introduit le numérique dans l’économie industrielle. 

Bien souvent, on caractérise assez mal les transformations profondes qu’a introduit l’informatique dans l’industrie. Si nous sommes bien cernés par un projet industriel, nous peinons à caractériser ses spécificités. Pierre Veltz parle assez justement d’hyperindustrialisation pour expliquer qu’avec le numérique tout devient industriel. Mais cette description est peut-être insuffisante. Nous pensons trop souvent que le projet industriel du numérique est de même nature que les projets industriels que nous connaissions jusqu’alors. On devine, dans d’autres approches, que ce n’est pas nécessairement le cas. La notion de capitalisme de surveillance, posée par Shoshana Zuboff par exemple, nous indique bien que les effets du numérique industriel ne sont pas de même nature que ceux d’une industrie traditionnelle. Le numérique transforme le capitalisme comme nos sociétés. Dans son livre, Bessen tente de montrer que l’industrialisation par le numérique a des caractéristiques propres qui ne sont pas les mêmes que les phases industrielles des XIXe et XXe siècles. En comparant les formes d’innovation liée aux révolutions industrielles avec celles qu’on connaît aujourd’hui, Bessen tente de mieux cerner les atouts et faiblesses de l’innovation numérique. Pour lui, “la maîtrise logicielle des plus grandes entreprises [et pas seulement des Gafams, puisque tous les secteurs industriels sont désormais pilotés par le numérique, de l’automobile à la banque] contribue à expliquer la concentration économique croissante, l’augmentation des inégalités et le ralentissement de l’innovation”, comme le soulignait le New York Times

La couverture du livre de James Bessen.

Un capitalisme superstar dans une économie en berne

Les technologies de l’information ont fondamentalement transformé les processus économiques : elles ont changé la nature des marchés, l’innovation, l’organisation des entreprises, exacerbé les divisions économiques et sapé les régulations. Elles ont changé la nature du capitalisme. Les systèmes technologiques sont utilisés pour réaliser une domination industrielle inédite, estime Bessen. Même si on parle de milliers de systèmes différents, les logiciels qui se déploient partout ont des caractéristiques communes : ils permettent aux firmes de mieux adresser une demande très hétérogène et constamment changeante. Ils permettent une compétition sur la complexité à très grande échelle qui permet d’atteindre des gains d’efficacité inédits. Le logiciel revisite le compromis entre efficacité et hétérogénéité, permettant d’obtenir une variété et une flexibilité que la standardisation de la production de masse ne permettait pas d’atteindre. Le problème, c’est que cette complexité n’est accessible qu’à une poignée d’entreprises : celles qui dépensent des milliards dans leur outil productif logiciel propriétaire. Le fossé entre des entreprises superstars, capables d’atteindre cette complexité et les autres, se creuse… Et cela a pour conséquence directe de ralentir la croissance économique comme de ralentir la régulation. Les nouvelles technos créent une nouvelle économie, un capitalisme superstar. 

Du code barre à la plateforme : pourquoi certaines entreprises réussissent et pas d’autres ?

Le 26 juin 1974 dans un supermarché Marsh de l’Ohio a été scanné le premier produit avec un code barre, une tablette de chewing gum. Le magasin Marsh appartenait à une chaîne régionale disparue. La technologie du code barre était accessible et promettait au petit commerce de connaître la révolution des plus grands. Bessen revient sur la montée des chaînes de supermarchés dans l’Amérique du XXe siècle. Né au début du siècle, sous l’impulsion de John Harford de A&P, le supermarché introduit la standardisation de la livraison et de la logistique qui permet de proposer une offre plus importante pour mieux répondre à la demande ainsi que des prix plus bas que les épiceries indépendantes. Mais l’innovation des chaînes de supermarché a surtout été organisationnelle : comme  l’accélération de production industrielle, elle a surtout reposé sur de nouvelles méthodes de contrôle pour gérer de l’information et des volumes, comme l’explique l’historien James Beniger dans La révolution du contrôle. La standardisation et la décision centralisée permettent alors de limiter le volume d’information. Les coûts et les prix bas permis par l’amélioration logistique et les commandes en volumes vont permettre à A&P de s’étendre très rapidement : la chaîne comptera jusqu’à 16 000 magasins en 1930.  A cette même date, 5 grandes chaînes de supermarchés concentrent 29% des ventes de produits alimentaires aux Etats-Unis. La percée des chaînes n’a pas été sans conséquences sur les épiceries indépendantes qui ont périclitées. 

Quand elle est née, la technologie du code barre était une technologie assez accessible aux petites chaînes de supermarchés. Son adoption a pourtant été lente : les producteurs de produits alimentaires ont longtemps traîné des pieds pour intégrer un code barre sur leurs produits et le code barre s’est développé lentement (en 1985, 25% des supermarchés américains l’utilisaient). Les early adopters ont plutôt été des chaînes régionales plus que les chaînes nationales, plus attentistes. Le code barre apportait un réel bénéfice : pour le client à qui il permettait de fournir la liste des produits achetés, mais surtout pour le magasin à qui il faisait gagner du temps lors du passage en caisse et pour l’inventaire et le réapprovisionnement de produits, permettant de réduire le coût du travail de manière significative. Il a surtout permis d’améliorer la logistique, le suivi de vente et le contrôle de la variété des produits distribués. Avec les années 80, la révolution de l’informatique personnelle va transformer les entreprises. L’ordinateur personnel puis les applications comme le tableur VisiCalc (1979) pour le commerce où les applications Wysiwyg pour la presse vont permettre de démultiplier les usages, encouragé par une foule de petites entreprises de développement logiciel. Ce renouveau a eu partout des effets dans un premier temps : par exemple, alors que la presse n’a cessé de se réduire en nombre de titres, entre les années 30 et 80, l’informatisation a produit un temps, un rebond de publications, jusqu’au développement d’internet. L’industrie informatique et logicielle va soutenir un dynamisme industriel qui va contribuer à renouveler le paysage entrepreneurial. Mais ce renouvellement va vite prendre fin et la concentration reprendre ses droits. Ainsi, les petites chaînes de supermarchés qui ont innové avec le code barre vont vite être dépassées par des acteurs qui vont l’utiliser pour construire des systèmes dédiés et organisés autour du code barre. 

En 1982, Walmart ne représentait que 3% des ventes de supermarchés aux Etats-Unis. En 2012, les ventes de Walmart représentent 52% des ventes américaines. Entre 1977 et 2007 Walmart a ouvert 3000 supermarchés ! Qu’est-ce qui a fait la différence ? Si on met de côté les niveaux d’investissements, pour Bessen, la force de Wallmart n’a pas été d’adopter la technologie du code barre, comme d’autres, mais surtout de relier ses centres de distribution par un réseau, via cette technologie. C’est-à-dire de s’appuyer sur la décentralisation de son outil de prise de décision. L’idée majeure qui a permis à Walmart de faire la différence a été d’ouvrir ce réseau logistique aux fournisseurs, qui pouvaient ainsi surveiller les ventes dans le réseau et générer des commandes pour réapprovisionner eux-mêmes chaque magasin. Décentraliser la prise de décision a permis à Walmart de réduire les coûts et de multiplier l’offre disponible, les fournisseurs proposant directement aux magasins leurs nouveaux produits. Walmart a pu investir dans des formats de magasins différents, offrant des variétés de produits différents. Grâce à son flot de données en temps réel sur ses livraisons et expéditions, Walmart a aussi changé le transbordement, pour accélérer la livraison de ses magasins, lui permettant d’offrir une plus grande variété de produits dans un plus grand nombre de magasins. Walmart a utilisé très tôt les données pour améliorer la coordination. En diminuant le temps de stockage et le coût des inventaires, Walmart a produit des économies qui se sont répercutées sur les prix des produits. En multipliant les promotions, il a aussi rendu les ventes plus prévisibles.  Enfin, cette surveillance en temps réel des ventes et des biens a permis d’adapter l’offre aux besoins spécifiques de chaque magasin. 

Walmart n’a pas été le seul à investir dans des systèmes de ce type. Sears a longtemps été également une chaîne de supermarché leader dans le domaine. Mais si Walmart a fait la différence, c’est en mariant l’information à une nouvelle organisation : la décentralisation de la décision, qui a accéléré l’efficacité. La force de Walmart a été de créer une plateforme ouverte à ses fournisseurs. qui a changé l’organisation de l’approvisionnement et de la distribution. Certes la chute du coût de l’informatique et du logiciel a tout bousculé…Mais “si les technologies de l’information changent l’économie c’est parce qu’elles changent la façon dont les acteurs économiques utilisent l’information”, insiste Bessen. Les détaillants doivent apprendre la qualité des biens qu’ils vendent par l’expérience, ce qui est coûteux en temps, d’autant plus que l’offre de nouveaux produits évolue sans cesse. Les chaînes de magasin réalisent des économies d’échelle par la standardisation. Mais très longtemps, cette standardisation est restée coincée par la centralisation des décisions, ignorant les retour terrains locaux et multiples. En choisissant de décentraliser sa chaîne de décision, Walmart s’est mieux adapté que d’autres aux besoins locaux, permettant à la fois aux magasins d’adapter leurs demandes et aux fournisseurs d’ajuster leurs offres. La force des technologies de l’information est d’être modulaires, de s’adapter en permanence. 

Bessen ne croit pas au mythe de la disruption ni à son accélération. Les entreprises deviennent dominantes par leurs investissements dans des logiciels propriétaires qui leur permettent d’être compétitif en tirant parti de la complexité, en proposant plus de variété, plus de produits, plus de fonctions, plus de versions… Cette compétition pour la complexité change la nature des marchés et la structure de l’industrie. Si certaines entreprises dominent toutes les autres, c’est pas parce qu’elles ont les meilleurs managers et les meilleurs employés, c’est parce que la nature de la compétition économique a changé et que les technologies permettent désormais de maintenir des positions dominantes. Les connaissances technologiques se diffusent désormais bien moins rapidement qu’avant, notamment parce que les firmes dominantes n’ont plus d’incitations à partager leurs technologies et parce que la complexité des développements techniques limite désormais la possibilité de copier ou d’imiter les autres. C’est ce ralentissement de la diffusion du savoir technique qui crée une économie de firmes superstars. Et ce ralentissement a des impacts sur la productivité, les inégalités… Pour Bessen, l’enjeu est d’améliorer le partage de l’information. 

La fin de la disruption

Depuis les travaux de Clayton Christensen (Le dilemme de l’innovateur, publié en 1997), tout le monde s’accorde à penser que les entreprises leaders sur leurs marchés peuvent être disruptées par l’émergences de nouvelles technologies, moins chères, plus accessibles et qui s’améliorent avec le temps. Beaucoup d’économistes adhèrent aux idées de Schumpeter qui pense que le capitalisme est essentiellement une question de mutation technologique, de destruction créatrice. Si à l’époque de la publication du livre de Christensen, la disruption ne cessait de progresser, le taux de disruption s’est depuis écroulé. La probabilité qu’une très grande entreprise de n’importe quelle industrie soit évincée par un rival est devenue bien plus faible qu’elle ne l’était dans les années 90. Walmart a pris la place de Sears comme plus grand  commerçant des Etats-Unis en termes de ventes dans les années 90, mais depuis, personne n’est venu le déloger. Même constat dans nombre de secteurs industriels. Pour Bessen, la raison de la fin de la disruption repose sur le développement logiciel. Le cœur de la révolution de l’informatique personnelle remonte à VisiCalc, l’ancêtre d’Excel, introduit en 1979, et qui a certainement été la killer app d’Apple. En 1982, il existait une vingtaine de programmes de tableurs sur le marché. La concurrence faisait rage : chaque produit tentant de se distinguer des autres par des fonctions spécifiques puis par une accumulation de fonctions. Des centaines de fonctions furent intégrées dans une compétition extrêmement agressive entre programmes. Quand Lotus 1-2-3 a intégré des capacités graphiques permettant de faire des graphiques en 1983, il a rapidement distancé VisiCalc pour conquérir 70% du marché dès 1988. Microsoft lance Excel en 1985, puis Office en 1991. Excel devient leader du marché en 1993 et l’est resté depuis. 

Les entreprises ont tout le temps rivaliser sur la qualité et les fonctionnalités. Dès les années 20, la compétition entre Ford et General Motors a d’abord vu la victoire de Ford, qui a privilégié la standardisation pour améliorer l’efficacité et produire en masse. Dès 1923, GM a introduit la couleur et a créé de nouveaux modèles chaque année qui ont rapidement emporté l’adhésion du public. Avec le logiciel, les choses ont été plus rapides encore : l’ajout de fonctionnalité est plus rapide et surtout moins coûteux, notamment du fait de son caractère modulaire et capable de passer à l’échelle plus rapidement que la production d’objets physiques. “Cette extensibilité altère la nature des marchés”. Les fonctionnalités s’améliorent rapidement et leur ajout permet de mieux répondre aux besoins de qualité comme à la diversité du marché. L’innovation séquentielle a remplacé la propriété intellectuelle. Quand Microsoft devient leader avec Excel 5.0 en 1993, sa documentation technique fait 1850 pages. Ce qui signifie que son produit est devenu déjà très complexe et que peu de firmes peuvent venir le concurrencer sur le marché des tableurs. Le niveau d’investissement nécessaire pour produire ce type de produits limite de lui-même la compétition.En fait, le logiciel permet d’accroître la complexité pour améliorer la qualité des produits et services que ce soit par l’ajout de fonctionnalités qui permettent de répondre à des besoins plus hétérogènes ou d’accroître la variété des produits, des services, de la distribution, du marketing… Les entreprises qui parviennent le mieux à gérer cette complexité différencient leurs produits de  leurs rivaux pour dominer le marché, comme l’a réussi Walmart en proposant un outil qui permette de gérer un inventaire, une logistique et un merchandising complexe. Le but , s’adapter plus rapidement aux changements de la demande comme de l’offre. Dans les années 20, la complexité offerte par GM dans les voitures n’était que sur les couleurs et les modèles. Il y a 30 ans, les voitures comportaient 10 000 composants, aujourd’hui, elles en comportent 30 000. Les voitures aujourd’hui contiennent 50 à 100 ordinateurs, tous interreliés. Une voiture, c’est 100 millions de lignes de codes. Dans les voitures, la transmission n’est plus mécanique, elle s’adapte à des grande diversité de capteurs et de modules. Face à cette complexité, le coût de produire un nouveau modèle de voiture (à partir de composants existants pourtant) commence à 1 milliard de dollars et peut prendre 5 années. Ce n’est plus seulement le nombre de fonctionnalités qui importe, mais surtout leur flexibilité, c’est-à-dire leur capacité à se recombiner entre elles pour produire nouvelles versions et nouveaux produits. Les firmes automobiles désormais tentent de collaborer entre elles pour réduire les coûts. La concentration pour la course à la complexité colonise toute industrie. Toutes font d’énormes investissements dans des systèmes propriétaires pour devenir plus compétitives en termes de complexité. Les investissements logiciels des entreprises atteignent 234 milliards en 2019 autant que leurs investissements en équipement. Mais cet investissement logiciel n’est pourtant qu’une part de l’investissement total dédié : il faut ajouter l’acquisition de données, la main d’œuvre… Le logiciel est devenu l’investissement principal des principales industries (devant les acquisitions, la publicité, la lobbying, la R&D – qui plafonnent à 2% de leur capital, quand le logiciel culmine à plus de 5%). Les industries les plus intensives en technologies de l’information (IT) dominent le classement des top firmes. Les investissements logiciels des top firmes de chaque industries sont plus massifs que leurs challengers, expliquant qu’elles croissent plus vite et ne puissent être rattrapées. Le logiciel est le moteur de la concentration et de la puissance des plus grosses entreprises. Le taux auquel les firmes dominantes ont acquis d’autres entreprises a diminué depuis la fin des années 90. Le stock d’acquisition est devenu plat depuis les années 2000. Les acquisitions ne sont pas le moteur du déclin de la disruption. La montée de la concentration s’explique principalement par l’investissement dans le logiciel. Le déclin de la disruption se constate dans toutes les industries. Partout, la technologie a permis de réduire les coûts de l’information à adresser une grande variété de clients. Walmart a démultiplié la variété des produits et de ses enseignes. Les constructeurs automobiles proposent plus de modèles avec plus de fonctionnalités variées pour chaque modèle, les banques ont une très large gamme de véhicules financiers adaptés à de multiples besoins et risques… Pour Bessen, nous avons été habitués à croire que la technologie était une force pour créer de la disruption. “Désormais, elle l’a supprime”. Une fois que les nouveaux leaders techniques sont apparus, la disruption décline. Et cette transformation du paysage compétitif a des conséquences majeures sur la croissance de la productivité, les inégalités et la politique. 

Si le logiciel réduit le coût de gestion de la complexité, alors plus d’entreprises devraient être capable de se l’offrir ou de le développer ?

Ce n’est pourtant plus le cas. Nous sommes désormais entrés dans l’économie superstar, une économie où quelques firmes dominent leurs marchés et ne peuvent plus être concurrencées.

L’économie superstar

La fabrique d’acier dans de petits fours est très coûteuse et inefficace. La production d’acier profite très bien d’économies d’échelles, permettant de faire baisser le coût unitaire de production avec son élargissement. Les économies d’échelle sont un moteur du développement industriel qui a conduit à changer la structure du capitalisme et de l’industrie, notamment par l’émergence de très grandes entreprises, dominantes, organisées hiérarchiquement, qui ont évincées nombre de petits acteurs, incapables de les concurrencer. Pour réaliser ces économies d’échelle, il faut bien souvent être capable de faire des investissements conséquents, toujours plus importants, poussant les entreprises à se concentrer ou à fusionner. Pourtant, interroge Bessen, qu’est-ce qui a changé ces dernières années ? La différenciation de produits est une clé pour comprendre pourquoi la disruption des plus grandes firmes ralentie. A l’heure du logiciel, désormais, la différenciation des produits peut se faire à la fois à large échelle et avec une personnalisation de masse. Alors que la quantité de demande était la clef pour saisir les transformations induites par les économies d’échelles, la portée, le champ d’application, l’étendue est celle qui explique pourquoi les firmes dominantes le restent. Jusqu’à présent, on pensait que les économies d’échelle s’obtenaient par la taille. Ce n’est plus vrai. Bessen revient par exemple longuement sur les évolutions de la production d’acier et comment la concentration s’est mise en place. Il rappelle combien les économies d’échelle permettent de mettre des barrières à l’entrée de nombre d’industries. Pourtant, les économies d’échelle ne signifiaient pas qu’une industrie finirait très concentrée. Bien souvent, à mesure que la taille du marché s’agrandit, la domination des plus grandes entreprises s’érode, surtout si les prix chutent. Bessen montre que plus que les économies d’échelle, c’est la consolidation financière qui permet à de grandes entreprises de dominer leur secteur. Les acquisitions de concurrents, le développement financier explique bien plus le maintien de domination d’entreprises que les économies d’échelle. 

Le niveau d’investissement dans l’IT par les plus grandes firmes reste faible par rapport à ce qu’elles investissent dans des produits financiers. Ensuite, contrairement à l’époque de l’acier, les firmes dominantes ne perdent pas leur domination à mesure que les marchés grossissent. Amazon ou Walmart ont maintenu leur domination malgré le doublement de leurs marchés. Elles n’ont même pas eu besoin d’être particulièrement agressives envers la concurrence pour s’imposer. Enfin, le niveau d’investissement ne suffit plus pour entrer sur un marché. Certes, il est énorme, comme à l’époque de l’acier, mais il demeure toujours insuffisant pour rattraper les entreprises qui se sont imposées en leaders sur leurs secteurs. Pour Bessen, ce qui a changé entre l’époque de l’acier et celle du logiciel, c’est la nature de la compétition. L’acier nécessitait d’énormes investissements qui permettaient de baisser les coûts et les prix.Aujourd’hui, les entreprises investissent dans des systèmes qui combinent les avantages de l’échelle et de la personnalisation de masse. Les entreprises ne sont plus en compétition sur les prix, mais sur la différenciation qualitative de leurs offres. L’important n’est plus l’échelle absolue des investissements, mais l’échelle relative par rapport aux concurrents. 

Sherwin Rosen a le premier décrit “l’effet superstar” :  quand les leaders sur leurs marchés augmentent leur pouvoir sur ces marchés à mesure que les marchés grossissent. L’enjeu n’est plus la taille absolue de leurs investissements, mais leur taille relative à ceux de leurs rivaux. Le nombre d’entreprises qui peuvent dominer le marché de l’aviation ou de l’ordinateur est limité, pas tant à cause des coûts fixes du développement de produits (qui sont tout de même très élevés), mais bien plus par la possibilité à faire évoluer ces produits très sophistiqués. Et l’expansion des marchés permet plutôt aux entreprises phares de rester dominantes. 

Les industries logicielles produisent des superstars parce que leurs systèmes permettent de fournir des produits plus variés. Pensez à Walmart. Son système lui a permis de passer de 14 000 produits proposés par magasin en moyenne en 1980 à 30 000 en 2004. En proposant une plus grande différenciation, Walmart a changé les comportements des consommateurs. La différenciation par la qualité, contrairement à la différenciation par l’échelle, explique largement le fait que quelques rares firmes dominent, car peu savent rivaliser sur la complexité. Les systèmes logiciels introduits dès les années 80 ont permis à certaines entreprises de se différencier par la qualité, en proposant plus de fonctions, une plus grande variété de produits, un meilleur ciblage… Leur permettant de mieux répondre à la diversité des besoins et des demandes. Les entreprises capables de se différencier par la qualité, capables de mieux gérer la complexité deviennent dominantes. 

Bessen chiffre les entreprises où le logiciel est devenu dominant. En 2012, si on regarde les industries qui emploient 500 développeurs ou plus, ou celles où les développeurs représentent au moins 2% des employés, alors 45% des industries sont déjà intensives en développement logiciel. Et ces mêmes industries sont plus puissantes que celles qui n’intègrent pas du développement en leur sein : puisqu’elles accumulent  71% des revenus de l’ensemble des revenus des entreprises. 

Dans cette compétition qui se transforme, les firmes innovantes, plus petites, font l’expérience de vents contraires qui les empêchent non pas de croître, mais de venir bousculer leurs aînées. Pour Bessen, nous avons atteint un nouveau capitalisme, qui ne repose pas seulement sur des entreprises surperstars, que sur l’émergence d’une nouvelle forme de compétition. Une économie de firmes superstars change la relation entre la productivité et la croissance d’une entreprise. “Dans des marchés différenciés par la qualité, les petites entreprises ont peu d’incitation pour améliorer leur qualité, car l’améliorer signifie être moins différencié de leurs rivaux, être confronté à une compétition plus forte” et donc, possiblement, faire moins de profits. De même, les grandes entreprises qui investissent dans la qualité coupent la croissance de leurs petits concurrents. Pour Bessen,  la disruption décline parce que l’accès aux nouvelles technologies est limité. D’une manière contre-intuitive, avance-t-il, la diffusion technologique s’est ralentie. 

Comment le capitalisme s’est-il refermé ?

Ca peut paraître très iconoclastes à nous, biberonnés aux API, aux standards ouverts et au web collaboratif. On peut avoir l’impression que l’information est plus ouverte qu’elle n’a jamais été depuis l’avènement du web. Ce n’est pourtant pas ce qu’avance Bessen. Les technologies propriétaires ont toujours été utilisées pour assurer une domination sur les marchés et des avantages compétitifs. Pourtant, l’accès à de nouvelles technologies a souvent été bien plus rapide qu’on le pense. Bessen prend l’exemple de la transmission automatique sur les automobiles. Développée par General Motors, avec l’Hydramatic en 1939, elle est ensuite proposée en option sur certains modèles. L’option gagne en popularité, notamment en rendant la conduite plus accessible et s’étend dans les différentes divisions de GM. En 1949, soit 10 ans plus tard, GM licencie sa technologie pour la rendre accessible à d’autres constructeurs comme Ford. D’autres petits constructeurs vont en proposer également des versions, qu’ils proposent également en licence. Pour Bessen, l’exemple montre que la diffusion de la tech est bien souvent rapide, sans compter que les savoirs se transmettent vite, avec des ingénieurs qui vont travailler d’un constructeur à l’autre. L’économie du transistor, né aux Bell Labs à la fin des années 40, va se répandre grâce aux innombrables disséminations d’entreprises. Longtemps, le savoir technologique s’est répandu très facilement. Longtemps, les industries ont valorisé le fait de licencé leurs technologies, permettant de répandre l’usage d’une technologie et d’assurer un temps des revenus. Plus que leur protection, c’est la diffusion des technologies qui a été un pilier du capitalisme, soutient Bessen. Le problème, estime Bessen, c’est que les licences et l’essaimage ont considérablement ralenti… Et cela explique pour beaucoup la puissance des entreprises superstars. Le fossé entre les top firmes et les autres s’est creusé. Elles amassent plus de revenus par employés que toutes les autres firmes. Jusqu’aux années 80, il n’y avait pas de grandes différences sur cette productivité entre les entreprises leaders et les autres. Mais cet écart a depuis explosé. Cet écart est également très lié à l’IT : les plus grandes entreprises gagnent plus de leurs investissements technologiques que les plus petites. “Le fossé sur le revenu par employé est lié à un fossé technologique. Les entreprises dominantes utilisent des technologies différentes des plus petites entreprises”, et ces technologies ne se diffusent pas aussi rapidement qu’elles le faisaient par le passé. 

Pour Bessen, c’est la complexité qui explique ce ralentissement. “La complexité rend plus difficile pour des rivaux de développer une techno indépendamment, il rend plus difficile de recruter les employés de ces entreprises pour recréer des technologies comparables et il rend le procédé de licence plus difficile”. Dans les marchés où la différenciation est critique pour le succès, nombre d’entreprises dominantes ne souhaitent pas licencier ou partager leur techno. Dans l’aviation comme l’industrie automobile, les appareils sont devenus très complexes. Les technologies ne sont plus à la portée de la figure de l’inventeur individuel, ce héros de l’âge d’or industriel. L’Amérique de la fin du XIXe et du début du XXe démultipliait alors les brevets, qui se vendaient très facilement, participant à une croissance économique très rapide et réactive. Ces inventeurs pouvaient encore être des individus. Mais à mesure que la complexité technique progressait, pour continuer à innover, il a fallu se rapprocher des firmes, se spécialiser. Les entreprises se sont mises à acquérir des brevets et même à les déposer pour leurs équipes, développant des organisations pour inventer, notamment via leurs départements R&D, comme ceux de General Electric, DuPont, AT&T… Et à mesure que les marchés sont devenus nationaux, les licences de brevets régionaux ont reflué.

La technologie a changé. En se complexifiant, les coûts de coordination ont grimpé. Les évolutions des uns influençait celles des autres. Le marché des brevets fonctionnait bien quand les technologies pouvaient être développées à des niveaux individuels. Avec la complexité, le marché des brevets n’est plus devenu la meilleure façon d’organiser le développement des technologies. La montée en compétence, qu’illustre le développement des départements R&D, a surtout eu pour conséquence d’enfermer la connaissance technique et donc de limiter sa diffusion. Le marché des licences logiciels et des brevets n’a pas disparu, notamment parce que la propriété intellectuelle s’est considérablement renforcée et s’est structurée (par exemple via les bureaux de valorisation et de transferts de technologies, même si rares sont ceux qui se révèlent profitables). Ces idées brevetées ou licencées nécessitent de forts investissements avant de pouvoir devenir des produits et un marché. “La complexité du processus d’innovation limite désormais la marché”. Plus personne n’est désormais capable de développer et maîtriser l’ensemble des technologies modernes, ce qui limite l’émergence de rivaux. Les entreprises superstars ont donc désormais une longueur d’avance. Elles disposent des systèmes les plus complexes et bien souvent spécifiques, à l’image de celui de Walmart. Ainsi, si dans les années 40 et 50, la transmission automatique a pu se partager et se répandre, désormais, sa nature a changé. La transmission automatique est désormais contrôlée par une intrication de capteurs et d’ordinateurs. L’important ne repose pas sur les améliorations spécifiques de capteurs et de composants, mais sur la maîtrise de l’ensemble du système de transmission, sur le logiciel qui assure le contrôle de l’ensemble des capteurs, qui se complexifie toujours plus. L’intégration est de plus en plus difficile pour les plus petits fabricants automobiles. Les entreprises superstars sont donc de moins en moins menacées par leurs petits rivaux. Ils pourraient donc choisir de mieux diffuser leurs technologies pour raviver la concurrence, par exemple en licenciant leurs technologies. C’est le cas avec les technologies open source, mais les entreprises superstars n’y ont pas avantage, car leur avantage sur le marché n’est plus de faire des économies d’échelle, mais de proposer elles-mêmes leur propre diversité. Quand GM a licencié la transmission automatique à Ford, il a ainsi agrandi le marché. Désormais, avec le numérique, l’agrandissement du marché est anecdotique. Les systèmes logiciels donnent aux entreprises l’avantage de différencier leurs produits de leurs rivaux, mais ne leur permettent pas nécessairement d’augmenter la taille de leurs marchés. Pour cette raison, les firmes superstars ont peu d’intérêt à proposer des licences ou à partager leurs technologies. Cela a pour conséquence de limiter l’accès aux nouvelles techno et donc de rendre difficile l’essor de toute concurrence. Le problème de ce ralentissement est profond, prévient Bessen, pas pour les profits des firmes superstars bien sûr. Mais à terme, c’est la concurrence qui devient impossible. Mais plus encore, explique Bessen, à terme, les nouvelles entreprises peinent à innover, notamment parce que leurs employés ne peuvent plus acquérir des compétences essentielles qui ne sont disponibles que chez les firmes superstars. 

Le paradoxe de l’automatisation

Les technologies ne remplacent pas l’humain par des machines, mais transforment l’économie : elles augmentent le travail, améliorent la productivité et permettent d’abord de faire des choses qui n’étaient pas possibles avant, explique Bessen. A sa démonstration pour souligner que les technos ne remplacent pas l’humain, Bessen cite une méga-étude qui revient sur plus de 2000 études sur le diagnostic automatisé du Covid via l’IA par analyse de clichés au rayons X, soulignant qu’aucun ne peut prétendre à un usage clinique. En fait, comme souvent, on pense que l’analyse automatisée de radio suffirait alors que le travail du radiologiste ne s’arrête pas à l’analyse d’image, qu’il combine avec d’autres informations sur le patient. Un diagnostic n’est jamais isolé. L’IA ne remplacera pas demain les radiologues, elle leur permettra certainement d’améliorer leurs diagnostics, voire d’accélérer leurs recommandations… mais pas de substituer à eux. 

Bessen a également étudié l’évolution des emplois indiqués par les gens dans les recensements entre 1950 et 2010. Il montre que ceux qui ont disparu l’ont été pour une grande variété de raisons, comme l’obsolescence (comme le cas des employés du télégraphe). Bien souvent, rappelle-t-il, l’automatisation est partielle : elle agit sur une partie du travail seulement. Si le code barre a diminué le travail du caissier et permis de l’accélérer, s’il a diminué le coût du travail, son effet majeur n’est pas là. 

En 1985, 29% des supermarchés utilisaient des scanners à code barre, pourtant, le nombre de caissiers a continué à progresser jusqu’à la fin des années 90. Les guichets automatiques des banques ont colonisé leurs devantures entre 1995 et 2005 surtout, pourtant, là encore, le nombre d’employés de banque a continué d’augmenter bien au-delà de cette période. Le paradoxe semble là tout entier : alors que les machines qui font le travail des gens se déploient, on a besoin de plus de gens. La raison ? En fait, c’est que l’automatisation permet d’accroître la demande. Le déploiement de machines semble entraîner un déploiement de la demande, notamment parce que les prix s’abaissent avec l’automatisation. Ce n’est qu’un peu plus tard, quand la demande recule, que l’emploi recule à son tour. Ce schéma s’est reproduit dans plusieurs industries, du textile à l’automobile. 

Dans cette automatisation, la robotisation reste marginale. Elle affecte certains secteurs et métiers, mais globalement, elle affecte une très petite portion de la force de travail. L’informatisation a bien plus d’impact. En 2018, l’équipement robotique des entreprises américaines atteignait 6,5 milliards. La même année, l’investissement en logiciel représentait 778 milliards. Nombre d’entreprises font des investissements majeurs dans l’automatisation. Leurs investissements sont souvent par à-coups plus que incrémentaux. Dans une de ses études, Bessen montre que l’emploi augmente bien plus vite dans les entreprises qui font des investissements majeurs dans l’automatisation que dans les firmes qui n’en font pas. L’automatisation est donc un facteur de développement de l’emploi, explique Bessen, pas de son recul. Bien souvent, certes, celui-ci se transforme. Ce ne sont pas les mêmes emplois qui sont disponibles après et avant les investissements dans l’automatisation. En fait, les études montrent que ce sont surtout les employés les plus âgés qui sont le plus affectés par ces évolutions. C’est ceux qu’on ne peut former qui sont le plus affectés. Enfin, l’automatisation ne conduit pas à des départs massifs. Les firmes qui investissent dans l’automatisation se développent plus vite.

Quand une entreprise fait des investissements logiciels, l’emploi de travailleurs non spécialistes en logiciels croît de 7%, alors que les revenus croissent de 11%. Des emplois de cadres et de spécialistes IT sont également créés, bien sûr. Pour Bessen, là encore, l’économie de main-d’œuvre de l’automatisation n’a pas lieu, bien souvent parce que l’augmentation de la demande conduit dans un premier temps à une augmentation de l’emploi. “La profondeur de la demande adoucit l’impact de l’automatisation”.  Ce n’est que quand la demande se stabilise, que l’emploi reflue. 

Comment se produit le fossé productif : limiter l’accès aux données et à la complexité

Nuance, entreprise spécialiste de la reconnaissance vocale, est née en 1994 d’un laboratoire de Stanford qui travaillait pour le gouvernement. C’est une entreprise qui a longtemps connu une belle croissance, jusqu’en 2014, fusionnant et rachetant plusieurs entreprises tout le long de son histoire… jusqu’à ses revenus stagnent. En 2019, ses revenus étaient les mêmes qu’en 2013. Que s’était-il donc passé ? 

Dans les années 90 et 2000, la reconnaissance vocale était balbutiante. Elle ne fonctionnait que sur des vocabulaires limités, très spécialisés, comme des applications bancaires par téléphone par exemple. Dans les années 2000, Nuance développe et étend le vocabulaire de ses applications, permettant de toucher de nouveaux secteurs, comme la santé. C’est l’époque où Nuance lance son logiciel de dictée vocale grand public, Dragon, qui deviendra une application populaire pour smartphone, Dragon étant l’une des applications officielles au lancement de l’Iphone 3GS en 2009. En 2011, Apple lance Siri, fondé sur les technologies de Nuance. Fort de se partenariat, les revenus de Nuance vont alors bondir pour atteindre 1,7 milliard de dollars en 2013. Les succès de Nuance montrent la voie. D’autres acteurs se disent que la reconnaissance vocale est une technologie d’interaction primordiale. Les grandes entreprises de la tech vont alors lancer des investissements dans cette technologie. Amazon va recruter jusqu’à 10 000 ingénieurs sur ses produits Alexa, plus de 10 fois le nombre d’employés à la R&D de Nuance. Les produits dont disposent déjà les géants que sont Amazon, Apple ou Google, leur permettent d’acquérir bien plus de données que Nuance et sur des fonctionnalités bien plus larges, leur permettant de créer des fonctions particulières, comme des commandes musicales ou des commandes de produits. En 2014, alors que Dragon était très présent sur les téléphones Android, Google a poussé ses propres applications et fonctions vocales… Rapidement, Dragon n’a plus été une application pré-installée d’Android. Les produits de Nuance ont été relégués, non sans conséquences pour l’entreprise, puisque pour se développer, Nuance aurait eu besoin d’accéder à plus de contenus vocaux pour diversifier son offre et étendre la portée de ses applications. Nuance a rencontré les vents contraires des firmes superstars qui ont accaparé les données nécessaires à l’amélioration des technologies vocales. En 2018, Nuance a arrêté ses applications grand public pour se concentrer sur des marchés spécialisés, comme la santé. Le marché de la reconnaissance vocale générale est devenu une oligopole. Nuance a finit par être rachetée par Microsoft en 2021. L’exemple illustre très bien comment les investissements colossaux que peuvent désormais faire les géants peuvent ralentir voir casser la croissance de rivaux plus petits. “La montée des marchés superstars a changé la dynamique industrielle”. Pour Bessen, cela montre qu’il faut s’intéresser à la croissance des petits acteurs. 

La productivité a considérablement ralenti depuis 2005. La croissance de la productivité était de 2,7% par an jusqu’en 2005, elle est désormais de 1,4% par an. Pour Bessen, c’est l’emprise des géants qui aurait ralenti la productivité générale. Désormais, seules les entreprises superstars peuvent faire croître les avantages comparatifs que leurs apportent les données qu’elles seules capitalisent. Pourtant, il y a toujours des start-ups qui se lancent là où les entreprises superstars dominent. Ce taux d’entrée a même progressé : le nombre de start-ups qui se sont lancées dans la reconnaissance du langage par exemple a quadruplé depuis 2005. Si certaines se spécialisent sur des niches dans l’espoir de finir par être rachetées, beaucoup tentent de rester dans un développement assez général. Le problème, c’est qu’elles ne grossissent pas et sont rapidement rachetées. La domination d’entreprises géantes ralentit la croissance des start-up, explique Bessen. UiPath par exemple, la première licorne européenne, spécialiste de l’automatisation des processus, se bat sur un marché où domine Microsoft, SAP ou Oracle. Son marché : développer des systèmes de connexions logiciels automatiquement. Sa réussite n’a pas laissé les 3 plus gros vendeurs de ce types de solutions indifférents. Oracle a noué un partenariat, alors que SAP a racheté une jeune pousse française concurrente et que Microsoft a lancé son propre produit développé par une startup britannique. Pour l’instant, UiPath a encore quelques avantages. Ses systèmes fonctionnent avec ceux des 3 géants du domaine. Et s’il n’a pas été racheté, c’est certainement parce que sa croissance ultra-rapide rend la valorisation difficile à apprécier. UiPath, montre qu’il est toujours possible aux startups de grossir rapidement, mais c’est aussi parce qu’elle propose un produit difficile à imiter. UiPath ressemble assez à un contre-exemple dans l’environnement concurrentiel actuel. 

Le temps moyen entre la création d’une startup et son financement est passé de 0,9 ans en 2006 à 2,5 ans en 2020. Le temps moyen entre le premier financement et l’acquisition a triplé passant de 2 ans en 2000 à 6,3 ans en 2018. Enfin, le rapport productivité/croissance des entreprises a fortement ralenti. Pourtant, la théorie de la destruction créative nous répète que les firmes les plus productives vont croître plus vite que les autres. Mais depuis les années 2000, ce lien entre productivité et croissance semble non pas brisé, mais en berne (la croissance est moitié moindre qu’elle n’était dans les années 80 ou 90).  Et bien sûr, cela explique le fait que les entreprises même très dynamiques n’arrivent pas à dépasser les plus établies. 

Les petites entreprises dynamiques ne sont pas plus importantes que les grosses. Pour l’économiste Wesley Cohen, les deux sont également importantes. Les deux innovent, mais les petites ont tendance à faire plus d’innovation produit, quand les grandes ont tendance à faire plus d’innovation incrémentale et de process. Nuance comme Amazon ont largement innové sur le marché de la reconnaissance vocale. L’innovation n’est pas plus forte quand les petites entreprises dominent un secteur industriel. Pourtant, cette croissance ralentie n’est pas un ralentissement d’innovation, soutient Bessen. Cela ne signifie pas que les entreprises innovent moins. L’idée que l’entrepreneuriat se porterait mal est fausse. Le taux de de startup et de nouvelles entreprises est resté constant. Le financement d’entreprises innovantes lui non plus n’a pas décliné, il a au contraire continué de croître. Même la qualité des entreprises lancées n’est pas en cause… “En fait, si la croissance de la productivité ralentit, ce n’est pas parce que moins d’entreprises seraient créées, mais parce que les entreprises productives, comme les startups, ne grandissent plus aussi vite, relativement aux autres”. Le produit intérieur brut n’est pas le meilleur outil pour mesurer l’activité économique, notamment parce qu’il peine à mesurer le passage au service et aux biens intangibles, la complexification de l’économie et, plus encore, ne tient pas compte de l’épuisement des ressources. Quand les entreprises sont en compétition sur la qualité de service, la mesure de la qualité devient primordiale. La mesure de l’évolution de la qualité est pourtant devenue difficile, non seulement car nombre d’améliorations sont intriquées, interreliées et que la croissance de la variété de produits ou de versions rend les estimations sur le progrès en qualité difficiles. On a tendance à estimer que le PIB sous-estime la croissance en échouant à mesurer l’amélioration des produits dans l’économie.  

Pour Bessen, si les firmes dominantes ne sont plus concurrencées voire concurrençables, c’est parce qu’elles ont accès à des technologies clefs qui ne sont pas accessibles à leurs rivaux. Comme quand Nuance s’est vu couper les accès aux données des utilisateurs par la prise de position de Google et Apple. Alors qu’UiPath peut continuer à grandir parce que – pour l’instant ) ses accès aux plateformes ne sont pas limités. 

L’effet sur les jobs et les inégalités : la polarisation des talents

Le fait que certaines technologies ne soient plus accessibles à d’autres  a un impact sur l’emploi et plus largement sur les inégalités, estime Bessen. Depuis les années 80, les inégalités de revenus s’accroissent. Selon la recherche, ces inégalités se développent à la fois du fait des progrès inégaux de l’éducation, mais également selon les caractéristiques des entreprises pour lesquelles les gens travaillent. Les différences de rémunération se sont bien plus accentuées selon les entreprises pour lesquelles on travaille, qu’entre les travailleurs de mêmes entreprises. Cela signifie que désormais, certaines entreprises payent mieux que d’autres, à emploi équivalent. Sans surprise, les entreprises qui investissent le plus dans le logiciel ont tendance à mieux payer leurs employés, mais également mieux leurs employés par rapport aux autres entreprises. La justification méritocratique des inégalités estime pourtant qu’une société est équitable tant que les gens ont des opportunités économiques égales. Pour ceux qui croient en la méritocratie, les inégalités de revenus sont justifiées parce qu’elles récompenseraient les différents niveaux d’efforts et d’investissements des gens. Michael Sandel, dans La Tyrannie du mérite soulignait que l’idéologie méritocratique tenait surtout d’un arrangement économique, qui valorise la responsabilité individuelle au détriment des différences sociales. Pourtant, seules quelques entreprises utilisent les technologies et seulement quelques travailleurs peuvent acquérir les talents nécessaires au déploiement de ces technologies. Et ces talents, qui permettent de soutenir l’innovation, sont bien plus acquis par l’expérience avec des systèmes complexes que par l’éducation par exemple. Pour le dire autrement, “votre salaire ne dépend pas seulement de la qualité ou de la quantité de travail que vous faites, de l’éducation que vous avez eu la chance de recevoir, mais de plus en plus de savoir pour qui vous travaillez”. Et les modèles de recrutement sont en train d’accélérer la ségrégation estime Bessen.

En 2019, un sondage annuel de Manpower estimait que 54% des employeurs avaient des difficultés à embaucher et retenir des travailleurs qualifiés. Dix ans plus tôt, seuls 30% d’entre eux s’en plaignaient. L’idée du déficit de compétence a pourtant été souvent critiquée, comme étant une fiction des entreprises souhaitant bien souvent des talents sans les payer et renvoyant les difficultés de recrutement des employeurs à des offres inadaptées. Mais dans le domaine des technologies, les talents sont rares, car ils reposent sur l’expérience, et notamment l’expérience dans les systèmes les plus complexes, ceux détenus principalement par les géants. Dans ces domaines, les besoins de talents sont souvent hybrides, à la croisée de plusieurs domaines d’expertise. Chez Walmart, les gestionnaires de magasins doivent savoir lire et interpréter les données, mais ils doivent aussi comprendre leurs marchés locaux et les techniques commerciales. Dans le domaine numérique, les jobs en data science et en analyse de données sont très disputés, ce qui expliquent qu’ils soient mieux rémunérés que des jobs qui nécessitent le même niveau d’étude. Dans les technologies numériques, les formations deviennent plus rapidement obsolètes qu’avant. Les salariés avec de multiples compétences sont plus recherchés que d’autres. Une étude sur les annonces proposées dans les entreprises qui utilisent intensivement les technologies a montré par exemple que pour les emplois qui n’étaient pas liés à la technologie, les offres nécessitaient néanmoins la maîtrise d’au moins un compétence en technologie, 2,9 années d’expériences et 12,5 années de scolarité en moyenne. Les entreprises qui utilisent intensivement la technologie demandent plus de compétences que les autres : plus de talents spécifiques, plus de de compétences transverses, plus d’expérience et plus de scolarité. Quand les entreprises investissent dans la technologie, elles demandent plus de compétences et plus de variété, que ce soit dans les emplois liés à la technologie que dans les autres et surtout, elles souhaitent trouver des travailleurs avec plus de compétences sociales que les autres : le travail d’équipe est bien plus valorisé dans les organisations qui développent des nouvelles technologies. 

Or, les compétences hybrides sont bien plus difficiles à acquérir, puisqu’elles nécessitent des compétences dans plusieurs secteurs ou disciplines. Le besoin d’acquérir de nouvelles compétences, même après l’école, explique l’envolée des cours en ligne de haut niveau, estime Bessen. Mais surtout, les compétences critiques nécessitent surtout de l’expérience. Pour Bessen, le manque de diffusion des technologies propriétaires limite le développement de ces compétences critiques. Le fossé s’agrandit entre ceux qui vont pouvoir acquérir ces compétences et les autres et il ralentit la croissance des nouvelles entreprises quand elles ne peuvent pas accéder à des niveaux de compétences suffisants. La guerre des talents permet aux entreprises dominantes de renforcer leur avantage. L’accès limité à de nouvelles compétences exacerbe les inégalités de revenu et limite la croissance de la richesse commune. 

Les entreprises qui investissent le plus dans des technologies propriétaires ont tendance à payer beaucoup plus que les autres ! Certaines entreprises payent donc bien plus que d’autres pour des compétences comparables. Celles qui rémunèrent le mieux vont donc pouvoir avoir de bien meilleurs travailleurs que les autres. 

Bien souvent, les plus grandes entreprises payent plus. Mais ce sont surtout celles qui reposent sur des développements techniques intensifs qui payent plus (17% plus en moyenne pour des emplois semblables). Mais si elles payent plus, ce n’est pas pour des travailleurs équivalents à d’autres, c’est pour retenir des travailleurs plus qualifiés que d’autres et qui en travaillant chez elles vont devenir plus qualifiés encore. Les entreprises qui reposent sur des développements techniques intensifs embauchent plus de managers et de supports administratifs que les autres. Les technologies de l’information sapent la justification méritocratique, estime Bessen. “Les entreprises superstars ne font pas que saper la cohésion sociale, elles augmentent la ségrégation économique”. La ségrégation des travailleurs par compétence est allé croissante. General Motors par exemple, employait autant des travailleurs qualifiés que peu qualifiés. Mais ce n’était plus le cas dans les grandes entreprises qui lui ont succédé comme McDonald ou Microsoft, où les forces de travail sont bien plus homogènes. Cela s’accentue dans les entreprises superstars, qui emploient surtout des managers et des employés avec de hautes compétences. En utilisant des données de Linked-In, Bessen s’est intéressé aux changements d’emplois des travailleurs des géants. Leurs employés ont 5% plus de chances de venir d’un autre géant. Le top exécutif des plus grandes firmes est très endogène : 13% vient d’une autre très grande entreprise. Pour Bessen, nous assistons à une stratification inédite de la force de travail (sans compter qu’elle se stratifie également dans sa localisation, 21% venant des 10 plus grandes villes du monde…). Ce n’est pas seulement que les inégalités progressent, estime Bessen, le problème, c’est qu’elles cristallisent… alimentant un ressentiment puissant à l’égard des élites. 

Réguler la complexité logicielle ?

En prenant l’exemple du Diesel Gate, Bessen explique la difficulté dans laquelle est désormais plongé le régulateur. Il rappelle que découvrir la tricherie de Volkswagen n’a pas été si simple, elle est longtemps passée inaperçue. Les chercheurs ont montré depuis que le dispositif de triche était caché dans des milliers de lignes de code du système de contrôle du moteur. Or, prouver une triche nécessite d’accéder au code logiciel, qui est largement protégé. Sans compter que quand bien même des accès seraient introduits pour des chercheurs, même pour eux, il serait difficile de l’interpréter sans la documentation adaptée. C’est uniquement grâce à la fuite de documents que les autorités ont pu identifier précisément la triche de Volkswagen au-delà des soupçons plus que légitimes qu’avaient mis en évidence les mesures indépendantes. Et c’est seulement parce que des poursuites étaient lancées que les assignations et enquêtes ont pu dévoiler, notamment par la découverte d’échanges d’e-mails, la culpabilité de Volkswagen. On estime que seulement une dizaine d’ingénieurs étaient impliqués dans la mise en place du système de triche. 13 employés de Volkswagen ont été inculpés. La firme a payé 33 milliards d’amendes et  pénalités.  Pour Bessen, cet exemple n’est pas une question de mauvais acteurs et de régulateurs corrompus. Cet exemple suggère un problème systémique. En rivalisant sur la complexité, il devient de plus en plus difficile de trouver des moyens de régulation efficaces. Les régulateurs peuvent améliorer leurs protocoles de tests, certes, mais dans la course à la complexité, sans accès au code et aux ressources pour l’interpréter, les régulateurs seront toujours dépassés. La complexité logicielle a changé non seulement les comportements des entreprises, mais plus encore la capacité des autorités à les réguler. Nassim Taleb dans Antifragile ou Chris Clearfield et Andras Tilcsik dans Meltdown avaient déjà pointé le problème d’une complexité inédite. Mais la complexité logicielle affecte la régulation d’une manière plus particulière que la complexité. Bessen évoque d’autres exemples : celui du Boeing 737 Max ou encore celui de la crise des subprimes, ces prêts hypothécaires à risque où les modèles logiciels obscurcissaient le niveau réel de risques. 

Ces exemples montrent que le logiciel est profondément impliqué dans quelques-uns des pires échecs de régulation de ces dernières années. Pour Bessen, ce ne sont pas là des accidents : les logiciels dominent la gestion de l’information et les régulateurs sont complètement dépendants de ce à quoi les entreprises leur laissent accèder. Aux Etats-Unis, la régulation est née en réaction au déploiement de technologies qui ont permis de bâtir de puissants empires économiques. La première agence de régulation a été le bureau de l’industrie animalière, née en 1884, capable de décider de quarantaine ou d’abattage de troupeaux entiers. Puis elle s’est étendue au commerce, pour réguler le prix du rail et a bien d’autres secteurs. Avec la régulation, les autorités s’affirment comme les contre-pouvoirs à la domination des entreprises. Mais, la régulation a toujours été dépendante de la mesure. Pour connaître les pratiques, les régulateurs ont toujours dû faire appel aux experts des industries. Le premier expert à réguler les tarifs du tail était un avocat qui avait représenté les entreprises des chemins de fer durant des années. Peu à peu, une autre politique s’est pourtant imposée : forcer les entreprises à mieux prendre en compte le bien commun en fixant des normes, des seuils que les entreprises doivent respecter. D’autres obligations ont été faites, comme l’obligation à l’information. Pourtant, la régulation est devenue compliquée avec la montée de la complexité. D’abord, il y a le risque que les experts soient biaisés en faveur des industries qui les emploient. Et “plus les objets de régulation sont complexes, plus la dépendance aux experts de l’industrie est grande, et plus le risque de captation réglementaire est forte”. Plus les systèmes sont complexes, plus la régulation est proche des préférences de l’industrie, notamment parce que l’information critique y est retenue. Si les agences de régulation peuvent souvent prendre des mesures elles-mêmes, ce n’est pas le cas avec les systèmes logiciels qui dépendent souvent de tests standardisés. Quand la mesure est gérée par le logiciel, le risque d’obfuscation est grand. Même chose en ce qui concerne l’évaluation des risques : les régulateurs sont bien souvent dépendants des modèles statistiques qui leurs sont fournis par les entreprises. La sécurité des véhicules par exemple est calculée depuis les accidents en fonction du kilométrage, mais sans prendre en compte le contexte : à savoir qu’un accident se soit produit à cause d’une mauvaise visibilité ou parce que les freins ont lâché.  Si l’obligation de publication d’information (disclosure) a été le moyen d’une régulation à moindre frais ces dernières années,  il y a peu de preuve que ce levier fonctionne, autrement que dans des cas assez limités. Reste que la complexité rend l’obligation de divulgation très difficile. Bien souvent, l’information sur un fonctionnement complexe reste incompréhensible aux usagers et citoyens. Il faut souvent être un expert pour comprendre les termes d’un contrat… et ce sans parler des biais cognitifs qui nous font sous-estimer les risques et mal apprécier les coûts futurs. La régulation de la complexité a également des coûts disproportionnés pour les plus petites entreprises par rapport aux très grosses. Bessen donne l’exemple des coûts de conformités bancaires qui sont proportionnellement bien plus élevés pour les plus petites banques que pour les plus grandes. Finalement, la complexité sape la régulation : en permettant l’obfuscation, en permettant de corrompre le régulateur lui-même, en développant la surcharge informationnelle et en augmentant les coûts des plus petits acteurs. Pour Burden, il existe pourtant un moyen de résoudre ces problèmes. L’histoire logicielle nous éclaire : l’open source a été un moyen d’apporter un meilleur contrôle sur le développement logiciel. Sa nature distribuée l’a rendu robuste à la détection d’erreurs et de bugs. L’open source a également été un moteur de l’amélioration constante de la qualité des logiciels. Pour Bessen, les régulateurs devraient pouvoir avoir accès au code des programmes et pouvoir les inspecter sur le modèle de l’open source. Pour l’instant, chez les régulateurs, seul le Bureau de la protection financière des consommateurs a le pouvoir d’accéder aux codes des institutions financières qu’il régule. Mais ce bureau a rarement utilisé son pouvoir. Mais ce ne devrait pas être les seuls à accéder aux logiciels. Bessen rappelle par exemple, que ce sont les compagnies d’assurances qui notent la sécurité des voitures. De même, les régulateurs financiers ont autorisé des agences indépendantes à évaluer les risques financiers. Pour Bessen, nous devrions donc penser à ouvrir les logiciels (le code, leurs données, leurs traitements…) au contrôle des parties prenantes. On pourrait également imaginer que ces données et traitements soient accessibles via des simulateurs : les problèmes du Boeing 737 Max étaient par exemple apparent aux pilotes depuis leurs simulateurs. 

Le problème souligne Bessen, n’est pas que le logiciel soit complexe, c’est qu’il soit propriétaire. Le logiciel ouvert est bien moins ouvert aux abus. La lumière est bien souvent le meilleur désinfectant, disait déjà le juge à la Cour suprême américaine, pionnier de la concurrence régulée, Louis Brandeis

En juillet 2020, les PDG d’Amazon, Apple, Facebook et Google ont été longuement interrogés par les sénateurs américains. Cette audition a ressemblé à l’audition des grands patrons de l’industrie du tabac en 1994, sauf que celle-ci avait conduit à changer la régulation à leur encontre. L’opinion publique est partagée sur les géants de l’industrie numérique. Beaucoup de gens estiment qu’ils ont trop de pouvoir, qu’ils sont devenus des monstres financiers qui ont avalé toute concurrence. Mais, à la différence de l’industrie du tabac, les gens aiment leurs produits et mesurent mal les impacts qu’ils ont sur la société. Si la technologie transforme la compétition économique, les appels à casser le monopole des Gafams n’attaquent pas le problème au bon endroit, estime Bessen. Pour lui, à nouveau, l’enjeu est de casser leurs monopoles propriétaires pour les pousser à devenir des plateformes toujours plus ouvertes qu’elles ne sont, afin de soutenir une plus grande diversité d’innovation. 

Les nouvelles technologies utilisées par quelques entreprises leur ont souvent permis d’abaisser les prix et de dominer leurs marchés. Ca a été le cas avec le procédé Bessemer pour produire de l’acier qui a permis d’abaisser son prix, de développer le rail, d’abaisser le prix du transport… La technique a permis de réduire drastiquement le prix de l’acier : en 1900 son prix était le tiers de celui de 1868. Pour réduire encore les coûts, les entreprises de production d’acier se sont également transformées, devenant de plus en plus grandes. Les économies d’échelle leur ont permis de déployer leurs monopoles. Mais pour Bessen, le problème n’est pas la taille des entreprises, d’ailleurs les lois antitrusts ne s’intéressent pas qu’à la taille, mais interdisent également la collusion par exemple ou au comportement prédateur. Si elles ont des ressources pour le lobbying, elles ont tendance également à être plus attentives aux questions sociales : elles pratiquent bien moins la discrimination que d’autres (elles payent les femmes en moyenne 13% de moins que les hommes, mais c’est pire dans les entreprises plus petites encore qui ont tendance à les payer 20% de moins !). Croire donc que parce qu’elles sont grandes les entreprises font le mal et parce qu’elles sont petites font bien, est une vision bien naïve. Le principal problème de la taille et de la domination d’un marché, est qu’il peut donner un pouvoir prédominant pour limiter toute concurrence future. L’économie d’échelle montre qu’à mesure que les entreprises se développent, elles limitent l’accès aux marchés, mais bien souvent, cela tient bien plus de leur conduite que de leur taille. A nouveau, l’abus de pouvoir, la discrimination voire l’exclusion des concurrents n’est pas forcément l’apange des plus puissants. Ce qui est normalement jugé inégal par les lois anticoncurrentielles, c’est le fait de déployer un monopole. Mais quelles actions conduisent à déployer des monopoles et quelles actions relèvent de la compétition ? La régulation s’est surtout intéressé à des compétiteurs ou des consommateurs lésés, qu’aux effets de la puissance des entreprises sur les travailleurs, la politique, la société. Face à la concentration, on estime que l’application des lois anticoncurrentielles sont désormais trop faibles. Mais si cette concentration est le résultat d’un investissement logiciel inédit, c’est sur le logiciel qu’il faut faire porter l’effort de régulation. 

Réguler les plateformes ?

L’économie des plateformes fait référence à l’accès à des composants modulaires des technologies. C’est le cas par exemple des châssis de voitures, qui sont de plus en plus communs à de multiples modèles et constructeurs. Mais ce n’est pas nouveau. En 1908 déjà, GM partageait des éléments de ses modèles avec Chevrolet, Buick, Pontiac… Le numérique a rendu les plateformes plus modulaires encore. Certaines permettent à de multiples acteurs d’y accéder. Walmart permet à la fois aux fournisseurs et aux gestionnaires de magasins d’accéder au détail d’information sur les ventes et d’initier des commandes. On parle alors de plateforme biface ou multiface. Certaines sont accessibles au public, d’autres non, mais l’idée clé c’est que les plateformes ouvertes facilitent les transactions et la compétition. Walmart est une plateforme bileface et privée. Les plateformes de conception assistée par ordinateur permettent à des ingénieurs ou designers de collaborer à plusieurs sur la conception de produits : ce sont des plateformes unilatérales et souvent fermées. AWS d’Amazon a commencé comme une plateforme interne pour faciliter le stockage de données pour Amazon sur ces nombreux projets, avant de l’ouvrir à d’autres pour qu’elle devienne la plateforme d’informatique en nuage. Google propose une plateforme biface, permettant de faire se rencontrer utilisateurs et publicitaires. 

Les plateformes ouvertes et multifaces, comme celles des Gafams,  sont celles qui posent le plus de problèmes. Pourquoi ? Parce qu’elles permettent la subvention croisée, c’est-à-dire que les plateformes peuvent subventionner un marché et taxer l’autre, par exemple en donnant un accès gratuit à ses outils et en faisant payer plus cher l’accès aux utilisateurs pour les publicitaires. Les journaux par exemple subventionnent les abonnés en faisant payer plus cher les annonceurs. La subvention croisée rend plus difficile l’identification de comportements prédateurs. Sans compter que les marchés multifaces peuvent avoir des effets de réseaux importants, c’est-à- dire que la valeur à utiliser une plateforme augmente avec la taille du réseau d’utilisateur : ainsi plus un journal à d’abonné, plus il a de la valeur pour les annonceurs. Ainsi un journal peut décider de baisser ses abonnements bien en dessous de toute rentabilité pour accroître son volume d’abonné au bénéfice de ses annonceurs. La guerre des journaux aux Etats-Unis a ainsi fait qu’en 1920, 500 villes avaient un quotidien, quand en 2017, ce n’était plus le cas que d’une dizaine de villes. Le problème des effets réseaux, c’est que l’avantage économique d’une entreprise dominante devient dynamique. L’avantage acquis à construire une aciérie moderne est gagné dès qu’elle est bâtie, l’économie d’échelle est immédiate. Ce n’est pas le cas avec le numérique, où les effets réseaux modifient l’équation. A l’heure des plateformes, la conquête d’un marché se déroule sur le temps long et l’avantage n’est pas permanent. Nombre d’acteurs en ont fait les frais : Yahoo!, MySpace, Nokia par exemple. Quand les firmes leaders sont rapidement concurrencées dans des marchés émergents, les effets réseaux ne sont pas garantis, mais ils s’installent souvent dans le temps. Quand les effets réseaux se combinent avec des différences qualitatives, alors les marchés ont plus tendance à être complètement dominés, c’est ce qu’on appelle l’effet du Winner Take All. Si l’économie des marchés multifacse est proche des marchés avec économie d’échelle, il y a d’importantes différences. La subvention croisée et les dynamiques à long terme rendent l’analyse pour le régulateur compliqué. La juriste américaine Lina Khan, qui a été nommée à la tête de la Commission fédérale du commerce pour améliorer la régulation de la concurrence, s’est fait connaître par un article sur le paradoxe antitrust d’Amazon. Elle y explique qu’Amazon a entretenu des années de pertes financières pour soutenir des prix bas afin d’évincer la concurrence. Le problème c’est qu’avoir des prix bas ne suffit pas à caractériser un comportement prédateur, estime Bessen qui semble avoir construit tout son livre pour répondre à Khan. Pour lui, à nouveau, la bonne question consiste à savoir si la compétition a été altérée. 

La compétition entre un site en ligne et un commerce physique a plus tendance à intensifier la compétition qu’autre chose. Dans le secteur de la livraison, Amazon est un très modeste acteur par rapport à FedEx ou UPS. Certes, la subvention croisée qui a permis à Amazon de minimiser les coûts d’expédition en les faisant prendre en charge par les vendeurs, mais elle semble avoir surtout élargi la compétition dans un secteur très concentré. Baisser ses prix ne signifie pas nécessairement une prédation illégale. Amazon ne réalise que 35% des ventes de son site : la plupart des ventes sont réalisées par des vendeurs tiers qui bénéficient de sa place de marché, sans nécessairement profiter de ses services d’expédition. Ces vendeurs proposent souvent leurs produits sur d’autres plateformes. Le pouvoir d’Amazon n’est pas comparable avec celui de la Standard Oil, qui détenait 90% du marché de la raffinerie. Certes, les Big Tech ne sont pas surveillées, mais elles ne représentent pas une grosse part de l’économie américaine. Elles n’incarnent pas tant que ça le capitalisme superstar. Le problème, souligne Bessen, n’est pas les plateformes elles-mêmes que leur accès. “Ce n’est pas la technologie des plateformes le problème, c’est la façon dont des entreprises superstars utilisent la technologie et en limitent l’accès”. Pour Bessen, les plateformes ouvertes ne sont pas assez nombreuses. La politique anticoncurrencielle ne devrait pas pénaliser les plateformes ouvertes, mais plutôt les encourager. “Nous avons besoin de plus d’Amazon, pas de moins.”

Le découplage à venir

Certaines entreprises leaders ont choisi de découpler leur technologie, rendant accessible des parties de leurs systèmes, ou partageant parfois librement des portions de code, de données, de matériel, afin que d’autres puissent utiliser ou accéder à ces technologies. Le découplage est un puissant levier pour transformer l’industrie, accélérer la diffusion, améliorer la concurrence, estime Bessen. Le 23 juin 1969 est le jour où IBM s’est dégroupé. Jusqu’à cette date, IBM vendait logiciel et matériel ensemble. Pour nombre de concurrents, il était difficile de venir concurrencer IBM. L’industrie logicielle était alors très fragmentée et les logiciels étaient écrits pour des modèles spécifiques d’autant que les modèles n’avaient pas tous les mêmes systèmes d’exploitation. En 1964, IBM introduit la compatibilité logicielle avec la série 360 : tous les modèles de cette série étaient compatibles sur le plan logiciel et pouvaient évoluer. Les 360 ont été un énorme succès, permettant à IBM de conquérir les ⅔ du marché. IBM avait également un timide marché d’applications logicielles, mais qui restait très difficilement accessible du fait de sa politique de vente couplée. En fait, c’est la menace d’une poursuite pour comportement monopolistique qui a poussé IBM a découpler son offre. Le découplage a permis l’essor d’une industrie logicielle permettant de démultiplier les produits pour répondre à la grande variété des besoins. Elle a ouvert la division logicielle d’IBM à la concurrence, à permis de faire baisser les prix, et surtout d’élargir le marché. En passant d’un système clos et fermé à un système ouvert, IBM a facilité la diffusion des connaissances techniques, les a élargies. Pourtant, rappelle Bessen, ce schéma d’ouverture et d’élargissement du marché est on ne peut plus classique en économie : le métier à tisser automatisé peinait à se diffuser, à la fois parce que peu standardisé et à la fois parce que les fabricants couplaient la machine à la production. C’est quand les manufacturiers qui utilisaient les machines se sont mis à les vendre leurs machines à d’autres manufacturiers que la diffusion des métiers à tisser automatisés s’est envolée.

Aujourd’hui, nombre d’entreprises pratiquent le découplage. Mais il pourrait être accéléré par des politiques spécifiques. Amazon par exemple excelle dans le découplage. En 2002, les ventes d’Amazon plafonnent… beaucoup de transactions échouent parce que le site web croule sous les demandes. Amazon a besoin de centres de données très coordonnés pour abaisser le temps de réponse de son site, et ce d’autant plus qu’il vend à l’époque son moteur à d’autres grands acteurs, comme Target. Amazon développe alors ses premières API pour que d’autres marchands puissent accéder à ses infrastructures e-commerce. En 2003, ces développements propriétaires deviennent clés, mais Amazon pense également qu’ils pourraient l’être pour d’autres. C’est ainsi qu’Amazon lance AWS qu’il commercialisera en 2006 : Amazon abandonne alors des services qu’il vendait au profit d’un autre service dans l’espoir de conquérir un marché plus large, celui de l’informatique en nuage. Nombre de start-ups vont utiliser AWS pour croître plus vite, pour être plus productives. Bessen dresse une comparaison entre Amazon et Walmart. Pour lui, Amazon, contrairement à Walmart, a rendu son système accessible à tous, même à d’autres revendeurs que lui-même. Bessen rappelle qu’à la fin des années 90, quand Amazon a dû augmenter ses capacités de livraisons, Amazon a débauché des employés de Walmart qui avaient géré ses capacités IT. Amazon a poursuivit son développement en cherchant toujours à raccourcir la livraison, car plus celle-ci était courte, plus les consommateurs achetaient. Et la clé pour améliorer la livraison a consisté à être capable de mieux prédire la demande. Amazon a découvert qu’il pouvait améliorer ses données en les ouvrant à des vendeurs indépendants. En 2006, il a ouvert ses capacités logistiques aux marchands tiers, en leur permettant de stocker leurs produits et de les faire expédier par Amazon via sa place de marché. Des petits vendeurs ont pu utiliser les avantages logistiques d’Amazon et 450 000 entreprises qui ne vendent pas sur Amazon, utilisent ses capacités logistiques de stockage et d’expédition. Depuis 2015, Amazon permet à des entrepôts qui ne lui appartiennent pas d’être qualifiés pour son programme d’expédition Prime, s’ils remplissent certains standards de performance, permettant ainsi à une poignée d’entreprises de la logistique d’accéder en partie aux modalités de qualité développées par Amazon. En 2018, 58% des ventes d’Amazon viennent d’autres vendeurs qu’Amazon. 

Reste à savoir comment ces entreprises peuvent rester concurrentielles. Amazon par exemple a accès à toutes les données des vendeurs de porte bébé. Les vendeurs qui passent par Amazon, eux, ont accès seulement à leurs données, mais de toutes les plateformes qu’ils utilisent. En fait, un vendeur de porte-bébé a de meilleures données qu’Amazon, plus locales, et plus complètes leur permettant de faire de meilleures prévisions qu’Amazon qui a un regard sur les transformations de l’ensemble des acteurs du porte-bébé (permettant par exemple, comme il l’a fait parfois et d’une manière problématique, de se positionner sur des marchés, par exemple en lançant des produits dont il était capable de déterminer la gamme dans laquelle ils avaient une chance de se développer). Amazon a commencé avec une plateforme propriétaire qui lui a apporté un avantage compétitif par son infrastructure IT. En l’ouvrant avec AWS et Marketplace, il a permis à des rivaux d’utiliser ses avantages, mais il a étendu son marché lui permettant de croitre bien au-delà de la perte de son avantage compétitif. En élargissant son marché, Amazon est devenu plus central qu’il n’était, attirant toujours plus de clients. Cet élargissement a fait d’Amazon un acteur dominant, mais une domination qui a amélioré la compétition et profité également à d’autres acteurs. Pour Bessen, Amazon n’est pas anti compétitive. 

D’autres entreprises pratiquent le découplage. Microsoft avec Azure a cannibalisé son offre de serveur. Apple a découplé son téléphone en permettant à des développeurs d’y créer des applications. Travelocity et son système de réservation… La conversion de produits et services en plateforme est devenue une clé stratégique de bien des entreprises. Pour Bessen, si toutes les entreprises n’ont pas vocation à devenir des plateformes, beaucoup devraient réfléchir à ouvrir certains composants de leurs modèles d’affaires. Walmart devrait réfléchir à entrer dans la fourniture logistique d’autres enseignes, en proposant son infrastructure logistique à d’autres. Les banques devraient ouvrir leurs opérations à d’autres acteurs. Pour Bessen, les systèmes logiciels propriétaires ont considérablement ralenti la diffusion des technologies. Le découplage vise à l’accélérer, à remettre du dynamisme industriel et de l’innovation, de la productivité, de la croissance, de la diversité… Pour Bessen, les autorités devraient travailler à encourager la plateformisation ouverte, par exemple dans le secteur bancaire, en promouvant l’open banking permettant d’améliorer les services de prédiction des banques tout en rendant ces services de calculs mieux observés et contrôlés par les communautés. Pour cela, il faut que les institutions financières et leurs usagers consentent à donner accès aux données et surtout que les institutions voient ou aient avantage à collaborer entre elles. Trop souvent, les régulateurs ne sont pas assez proactifs à l’ouverture et à la plateformisation, regrette Bessen. La raison est peut-être à trouver dans une régulation de la propriété intellectuelle devenue bien trop maximaliste. Les entreprises ont également du mal à anticiper les profits de l’ouverture et du découplage. Longtemps le fait de proposer des licences pour leurs technologies a permis aux technologies de se répandre. Mais dans un marché superstar, où la technologie permet aux entreprises de se différencier les unes des autres, la propriété intellectuelle fournie une incitation trop insuffisante pour proposer des licences. Pour Bissen, nous avons besoin de politiques pour inciter au découplage plutôt que de politiques pour renforcer la propriété intellectuelle. 

Et Bessen de proposer plusieurs inflexions politiques comme l’ouverture forcée. Les autorités antitrust ont parfois forcé à la licence de produits et de technologie, notamment de vaccins ou de médicaments (mais pas seulement rappelle-t-il, quand Bell a été démantelé dans les années 80, l’entreprise a dû licencer ses brevets et notamment ses brevets sur le transistor, ce qui a accéléré le développement de l’industrie des semiconducteurs ; à la fin de la première guerre mondiale, les brevets ennemis ont également été ouverts ce qui a accéléré l’innovation allemande). On pourrait tout à fait imaginer pourtant que les régulateurs forcent certaines positions à l’ouverture de systèmes, recommande à l’ouverture open source, incite à placer des données clés en données ouvertes, à la création d’API ouverte ou au découplage. Les régulateurs devraient également favoriser plus qu’ils ne font les standards ouverts. Le régulateur devrait également protéger la mobilité des travailleurs, afin que les technologies et les savoir-faire circulent mieux. Or, la mobilité des travailleurs a plutôt décliné, notamment (mais pas seulement) du fait des accords de non concurrence qui empêchent des employés d’aller chez des rivaux. Les poursuites impliquant le secret des affaires ou des accords de non concurrence ont quadruplé depuis les années 2000. Les entreprises en font trop pour limiter la mobilité de leurs employés et les cours de justice trop souvent leur donnent raison. La propriété intellectuelle est censée être une balance qui doit à la fois protéger les auteurs et limiter la durée de leurs droits pour favoriser la diffusion des technologies et leur amélioration. Ces dernières années, la protection des auteurs s’est renforcée au détriment de la diffusion et de l’intérêt général. Bessen plaide pour revenir à un meilleur équilibre. Il égratigne également le secret des affaires qui encourage le déclin des dynamiques économiques. Nous avons excessivement renforcé les droits de la propriété intellectuelle, argue-t-il. L’innovation est un dynamisme, qui nécessite des équilibres. Le problème est de les favoriser, pas de les rompre. 

Ouvert ou fermé ? Le monde logiciel n’est pas si binaire…

En 1962, Fritz Machlup théorisait l’économie de la connaissance. Longtemps, ces théories sont restées très libérales. Les firmes privées devant utiliser l’information privée pour maximiser leurs profits, qui permettraient par rebonds ou ruissellement au reste de la société d’en profiter. La propriété intellectuelle est venue défendre la connaissance en protégeant sa création plus que sa diffusion : l’allongement des droits et leurs extensions dans plus de circonstances la renforçant plus encore. Ce régime a été couronné de succès et a donné naissance à un capitalisme superstar. Le problème, c’est que les objectifs de ces grandes entreprises ne sont pas nécessairement alignés avec ceux de la société, notamment quand ces entreprises doivent se différencier de leurs rivaux. Au final, pourtant, c’est la diffusion des technologies qui s’en trouve ralentie. Or l’innovation est plus forte quand de multiples entreprises peuvent développer différentes idées, ce qui nécessite une diffusion très active de la connaissance. Pour Bessen, c’est le ralentissement de la diffusion de la connaissance qu’il faut combattre. Les appels à démanteler les big tech échouent à comprendre les changements en cours dans une économie superstar. Entre la plateforme de Walmart et celle d’Amazon, la différence repose sur l’ouverture. Seules les plateformes ouvertes permettent de remettre du dynamisme économique. Ouvrir les technologies est bien plus préférable que de démanteler des entreprises – mais l’on peut faire les deux, comme cela a été le cas avec Bell, semble oublier Bessen, minimisant les avantages que l’acteur du découplage peut tirer du découplage pour s’assurer une hégémonie qui n’a plus rien d’équilibrée. Les centaines de milliards de profits des entreprises leaders font que, qu’elles dominent des plateformes ouvertes ou fermées, les rattraper, les concurrencer ou les subvertir tient désormais de l’impossible. Bessen semble oublier également que l’ouverture et la fermeture dans les systèmes complexes ne sont pas des états aussi clairs qu’il paraît. Androïd est un système ouvert, dont il existe des centaines d’instances. Et pourtant, Google a une position dominante dans tous ces systèmes ouverts qui lui permet d’imposer des standards, des politiques, des produits. Ainsi, tous les mots que vous tapez depuis les claviers Android finissent dans les datacenters de Google. Certes, ils peuvent être partagés avec d’autres acteurs et applications, mais dans la course aux données, Google a un avantage comparatif imbattable, qui lui permet par exemple de développer un clavier virtuel bien plus performant que les autres, lui permettant de renforcer sa domination. Mais surtout, ce clavier est un aspirateur incomparable de nos échanges qui lui permet d’alimenter ses IA et à terme de proposer des services inédits, inaccessibles à ceux qui n’auront pas accès à ce type de données. En arguant que l’ouverture suffit, Bessen propose une fable un peu simpliste. Les intrications de systèmes et leurs complexités ne s’arrêtent pas à un bouton ouvert/fermé, open source/propriétaire. Les logiciels sont souvent de plus en plus composés de briques, intriquées les unes dans les autres, depuis du code libre et d’autres fermés, avec des formes d’accès à certains acteurs et des fermetures à nombres d’autres acteurs. 

L’autre problème, c’est que Bessen ne semble pas voir que ces découplages génèrent des positions hégémoniques voire quasi monopolistiques à terme, Androïd en est certainement un bon exemple à nouveau. Et que surtout, derrière l’ouverture concédée, il y a une fermeture accélérée de certains éléments : si l’iPhone est ouvert à certains développements, la structure générale reste fermée et contrôlée par Apple. Bessen défend une plateformisation globale au prétexte de l’ouverture, peut-être sans mesurer la concentration monopolistique que les plateformes accélèrent. Enfin, en promouvant les plateformes, Bessen oublie que bien souvent, elles mettent d’un côté les professionnels, de l’autres les usagers/citoyens/consommateurs… Et pas toujours au bénéfice de ces derniers. Les plateformes des services publics sont un bon exemple d’emprise monopolistiques qui permettent à des acteurs publics ou des acteurs privés qui délivrent une concession de service publique (voir “Le numérique : arme de privatisation massive”) de faire sans avoir à rendre de comptes. Le partage d’information entre acteurs comme le proposent les plateformes peut avoir d’autres limites encore : à l’image de cette collusion qu’évoquait Propublica récemment, où propriétaires de biens mobiliers et agences de location parviennent à organiser un cartel de fixation des prix des loyers, largement anticoncurrentiel. Le développement de Nuance a bien été entravé par les géants des Big Tech qui se sont lancés sur les interfaces vocales. En s’accaparant l’accès à de nouvelles données, elles ont changé le cours de l’innovation.

En fait, Bessen semble encore largement croire au marché. Si l’ouverture est une solution, alors il est nécessaire de regarder partout et en continue à mesure que les systèmes évoluent où elle est nécessaire… Surtout, cette ouverture, parfois, ne peut pas être laissée dans les mains du marché, au risque que ce soit une ouverture de façade. L’ouverture donc nécessite d’être informée pour qu’elle puisse être plus dynamique qu’elle n’est et surtout, elle doit pouvoir s’adosser à un service public, une agence ou un contrôle permettant de la garantir et de contrôler qu’elle soit bien au bon niveau. 

Les démonstrations de Bessen sont souvent puissantes et informées. Le livre est riche et partisan. On a envie, avec lui, de militer pour plus d’ouverture bien sûr, pourtant on voit peut-être plus que lui les limites d’une ouverture, qui n’est pas blanche ou noire, mais souvent plus complexe et intriquée qu’il ne la présente, ou foncièrement choisie (comme l’ouverture de startups d’Etat, mais pas du tout des systèmes déployés dans nombre d’administrations publiques) via des exemples souvent trop spécifiques ou trop choisis pour coller à sa démonstration. On a l’impression en lisant ces Nouveaux Goliaths, que si le livre est riche en complexité, Bessen peine parfois à être lui-même complexe. Le développement du cloud computing par exemple a permis à des acteurs de s’imposer (Amazon notamment) en proposant des modalités d’hébergement souples et configurables et plus encore des capacités de traitements (et de sécurité) associées que d’autres ne proposaient pas. Mais ce nouveau marché a certainement beaucoup concurrencé l’infogérance et l’hébergement traditionnel et plus encore complexifie les problématiques de propriété et de souveraineté. Bessen n’évoque pas beaucoup les niveaux d’investissements sans précédents que peuvent se permettre les entreprises leaders de leurs secteurs qui deviennent inaccessibles à nombre d’acteurs, pensant que remettre de la concurrence suffira… Bessen semble prêt à excuser la concentration si celle-ci permet la compétition. Ces investissements ne sont pourtant bien souvent pas si faramineux : nombre d’entreprises sont plus obsédées par les dividendes qu’elles rapportent que par la démultiplication de leurs taux d’investissements, qui reste proportionnellement assez plats.

On était déjà convaincu que le manque d’ouverture est toujours le problème. Mais on voit bien que la réponse par la plateforme n’est pas un gage de probité ni d’ouverture. Contrairement à Bessen, la régulation antitrusts n’est aujourd’hui certainement pas assez agressive. Le levier de l’ouverture (comme de l’interopérabilité) est effectivement un levier qui mériterait d’être bien plus exploré qu’il n’est. Mais elle ne se suffit pas à elle-même pourtant. La question de plateformes logicielles ouvertes pour smartphone par exemple, devient un vrai enjeu quand deux acteurs se partagent seuls non seulement le marché, mais capitalisent leur développement depuis des données fermées à tout autres acteurs. La maîtrise logicielle, l’accaparement des données et des possibilités de traitements, la concentration autour de quelques acteurs clés est en passe de devenir indéboulonnables du fait des niveaux d’investissements inépuisables dont ils disposent. Elle ne se résoudra pas en leur demandant d’ouvrir un peu plus. Ils le font très bien. Ces acteurs savent très bien ce qu’ils ouvrent et ce qu’ils capitalisent par devers eux. Les entreprises superstars risquent de rester longtemps les maîtres d’un jeu dont elles décident de tous les paramètres. Et les investissements publics sont si peu à niveau, qu’on ne peut même plus penser qu’ils puissent en changer ou en orienter les règles.

Hubert Guillaud

A propos du livre de James Bessen, The New Goliaths: How Corporations Use Software to Dominate Industries, Kill Innovation, and Undermine Regulation, Yale University Press, 2022, 272 pages.

Du sens du travail

Le petit livre des économistes Thomas Coutrot et Coralie Perez, Redonner du sens au travail est un ouvrage bienvenu en ces temps où tout le monde parle assez mal du travail. En s’intéressant à l’importance que ceux qui travaillent donnent au sens de leur travail, ils permettent de mieux comprendre ce qui dysfonctionne. Pour les deux chercheurs, l’appauvrissement du sens au travail explique pour beaucoup les difficultés actuelles de notre rapport au travail. Longtemps, nous avons accepté le travail en échange de sa promesse consumériste, c’est-à-dire la promesse qu’il nous permettrait de vivre et consommer comme on le souhaite. Ce n’est plus le cas, quand le pouvoir d’achat de la plupart des salariés stagne voire s’effondre. Le sens du travail lui-même se perd et s’appauvrit, notamment du fait de l’essor du reporting, du management par le chiffre et de la perte d’autonomie que cela induit. Nous sommes confrontés à un travail de plus en plus individualisé et qui, de ce fait, perd son sens collectif. Une dissonance se produit entre “deux conceptions de la qualité : celle, objective, instrumentale et chiffrée du management ; et celle, relationnelle et sensible, des destinataires”, pointant par là la dichotomie entre une activité définie par le management et de l’autre la même qui doit être en permanence négociée avec d’autres destinataires du travail, clients ou usagers. Enfin, ils relèvent une autre dissonance : entre le productivisme (“l’engrenage de la production”) et la crise écologique. Ils distinguent ainsi 3 niveaux du sens au travail : “l’impact du travail sur le monde (l’utilité sociale), sur les normes de la vie en commun (la cohérence éthique) et sur le travailleur lui-même (la capacité de développement)”

Couverture du livre de Thomas Coutrot et Coralie Perez : Redonner du sens au travail.

Les métriques qui se sont instillées partout empêchent le “travail vivant” au bénéfice du “travail mort”. Dans les entrepôts de logistiques, sous commande vocale, il n’est plus possible d’édifier une “belle palette”, soigneusement rangée. L’activité des travailleurs est réduite à un pur travail d’exécution qui doit suivre des process, des timing, des instructions sans pouvoir plus en dévier… C’est oublier que le travail ne se réduit jamais aux critères de qualités définis par le management : il faut compter sur l’importance de l’épanouissement, du jugement d’utilité ou de la cohérence éthique…Pour Perez et Coutrot, nous devons reconsidérer le travail à partir d’une conception politique : notre travail transforme le monde, nous transforme nous-même et questionne les normes politiques qui organisent la société en les reproduisant ou en les négociant. 

L’essentiel de leur court livre repose sur les enquêtes relatives aux conditions de travail de la Dares qui montrent que les professions peu qualifiées trouvent particulièrement peu de sens à leur travail (ouvriers de l’industrie, employés de commerce, employés de banque et d’assurance). Mais le sens au travail n’est pas l’apanage des professions supérieures non plus : aux tâches fragmentées des uns, répond le fastidieux contrôle du reporting des autres: Les professions du soin, du care, ceux qui travaillent en contact avec le public trouvent souvent plus de sens à leur activité que ceux qui se limitent à des fonctions productives. Par contre, si leur sentiment d’utilité sociale est plus fort, leur rapport aux conflits éthique, lui, est dégradé. Dans ces métiers, le fait de ne pas pouvoir apporter le soin nécessaire du fait des conditions de travail délétères pèse sur le moral. Quant au télétravail, soulignent-ils, il n’apporte pas de solution à la perte de sens, mais au contraire tend à favoriser l’éclosion des conflits éthiques. 

Les deux auteurs estiment que la question du sens au travail n’est pas un problème de riche, mais est une question largement négligée des politiques publiques comme des directions des ressources humaines. Les uns comme les autres continuent de faire comme si la seule motivation au travail était le gain monétaire. C’est ce que semblent dire également de plus en plus de Français : pour 45% d’entre eux, le seul intérêt du travail est le salaire (et ils n’étaient que 33% à le penser il y a 30 ans), mais cela traduit certainement bien plus la résignation et la dégradation du rapport au travail à l’heure où tout ce qui le protège est abattu, législation après législation. 

Pourtant, rappellent-ils très justement, les travaux de recherche montrent très bien que les allocations n’ont jamais eu l’effet qu’on leur prête : à savoir ne pas prendre un emploi parce qu’on bénéficie d’aides sociales. La plupart des gens reprennent un emploi, même quand ils y perdent sur le plan financier. Si gagner sa vie est important, l’utilité personnelle semble plus importante encore. La grande démission a montré que le sens concernait autant les moins diplômés que les plus diplômés. La valeur travail n’est pas en cause : tout le monde sait ce que le travail apporte (et certainement encore plus ceux qui n’en ont pas). Le problème, c’est qu’on ne cesse d’en réduire le sens, de réduire la part vivante du travail sous sa part morte. Les changements organisationnels en continue, les process, les objectifs chiffrés, le reporting… sont autant de technologies zombies qui produisent un rapport au travail flou, imprévisible, fragmenté, plus axé sur son rapport productiviste que sur sa réalité concrète… très éloigné des salariés. Les deux auteurs reviennent ainsi sur le développement du toyotisme, qui se voulait à l’origine un management par objectif assez favorable à l’autonomie au travail, alors qu’il a surtout produit une traçabilité et un contrôle permanent. Le numérique est ici bien en cause. En permettant de codifier et standardiser les tâches, de les surveiller, de produire des indicateurs… Il a largement participé à créer un travail hors-sol, un néo-taylorisme., qui détruit les marges de manœuvres individuelles comme collectives, à l’image des logiciels de tarification à l’activité du secteur hospitalier et médical. Au final, la dégradation du travail touche tous les secteurs du travail. 

Outre le conflit entre les objectifs et le sens, les transformations incessantes du travail, de son organisation (là encore facilitées par le numérique) sont vécues comme épuisantes. Le management par les chiffres produit une intensification et une fragmentation du travail qui favorise le désengagement et la perte de sens. L’organisation du travail et notamment la montée des contraintes qui pèsent sur lui, participe également de la perte de sens. Enfin, les questions écologiques remettent profondément en question les rapports productivistes. Beaucoup de métiers connaissent désormais des “conflits fonctionnels”.

Certes, certaines entreprises tentent de s’attaquer au problème, par exemple en développant des politiques de responsabilités sociales et environnementales (RSE), qui privilégient trop souvent les questions écologiques sur les questions sociales. Mais là encore, la fiabilité des indicateurs mis en place reste bien souvent douteux. Même la finance responsable pose problème, rappellent-ils : le secteur des énergies fossiles est bien plus souvent exclu des portefeuilles d’actions par prudence financière plus que pour des raisons climatiques, du fait de la dévalorisation probable de ces actifs à terme du fait de politiques plus restrictives… Quant aux entreprises à mission et aux formes plus coopératives encore, elles sont bien trop marginales pour représenter un changement. La codétermination ne suffit pas toujours à améliorer la soutenabilité écologique ni à réduire les conflits éthiques. Pour Coutrot et Perez (comme chez Carbonell ou Supiot), il faut aller plus loin dans la socialisation des entreprises : faire que celles-ci soient sous le contrôle des apporteurs de capital, mais également des salariés ainsi que des usagers et clients. Quant aux entreprises libérées, les deux chercheurs dressent le même constat que celui que dressait Danièle Linhart : si elle favorise l’autonomie professionnelle, permettant de choisir comment organiser son travail, bien souvent, elle ne permet pas aux salariés d’accéder à l’autonomie stratégique consistant à définir les finalités du travail, qui restent le profit. Dans ces entreprises, bien souvent, la libération tient surtout d’une intensification du travail là encore. La participation reste asymétrique… La sociocratie est encore bien loin ! Le néo-taylorisme numérique y est comme partout très présent, trop présent. 

La perte de sens au travail explique bien souvent la mobilité professionnelle. L’absence de possibilité de développement et d’utilité sociale sont les premières raisons qui poussent à partir, auxquelles il faut ajouter les exigences émotionnelles et le faible soutien hiérarchique. Si la perte de sens peut alimenter des démissions individuelles ou des contestations collectives , les auteurs soulignent encore que la question du sens est restée négligée par les syndicats (pas chez tous visiblement, les auteurs valorisent notamment la démarche revendicative (.pdf) mise en place par la CGT, qui consiste à élaborer une conception commune de la qualité du travail qui renforce la cohésion entre salariés et produit des résultats pour mieux négocier le rapport de force, à l’image de cette expérience dans un centre d’appel). 

Il y a 20 ans, les 35 heures, c’est-à-dire la réduction du temps de travail, ont été la dernière conquête syndicale. Sur tous les sujets relatifs au travail, nous sommes depuis plongés dans une régression qui semble sans fin. Partout, la discussion dans le monde du travail est vue comme une perte de temps, à l’image des réunions d’où rien ne sort vraiment que des consignes top-down nouvelles à appliquer. Ce rapport non démocratique, caporaliste au travail est assurément une impasse. Comme disait Supiot, sans justice au travail, c’est le travail lui-même qui n’est plus possible. Et les auteurs de rappeler que “les salarié.es soumis.es à des consignes rigides ou des tâches répétitives sont plus nombreux.ses à s’abstenir aux élections ou à voter pour l’extrême droite”. La perte de sens au travail à des conséquences directes sur la perte de sens de nos sociétés elles-mêmes. 

Hubert Guillaud

A propos du livre de Thomas Coutrot et Coralie Perez, Redonner du sens au travail : une aspiration révolutionnaire, Le Seuil, “La République des Idées”, 2022, 160 pages, 13,5 euros.

Coincés dans Zoom, le livre

Vendredi 21 octobre paraîtra chez Fyp éditions, Coincés dans Zoom : A qui profite le télétravail ? (192 pages, 22 euros, disponible en pré-commande jusqu’à cette date à 19 euros sur la boutique de l’éditeur). Certains d’entre vous avaient peut-être lu la série d’articles que j’avais consacré, fin 2020, à l’essor et aux limites de la téléconférence que nous avions connu avec la pandémie de Covid-19. D’autres ont peut-être écouté l’épisode du Code à changé de Xavier de la Porte que nous avions consacré au sujet en avril 2021. Voici désormais le livre, qui en reprend la trame et l’enrichit. Et c’est toujours un plaisir de se dire qu’un nouveau format va permettre d’élargir le public.  

La couverture du livre, Coincés dans Zoom, en librairie dès le 21 octobre 2022.

L’idée qui m’a animé était d’abord de prolonger la réflexion sur ce qu’à pu signifier dans nos vies l’irruption brusque des outils de visioconférence, de revenir sur leur histoire et leur évolution. Tenter de comprendre ce que signifie ce moment particulier que beaucoup d’entre nous ont vécu (pas tous !). Tenter de comprendre où il nous emmène. L’irruption brutale d’un outil numérique dans nos vies n’est pas fréquente. Souvent, ils s’installent doucement, progressivement. C’est aussi cette accélération inédite que je voulais ausculter. Quelle promesse les outils de visio réalisent-ils pour que beaucoup d’entre nous se soient mis à utiliser un outil qui n’était pas vraiment dans les usages, il y a 3 ans ?  

Au plus fort de la pandémie, jusqu’à 10 millions de Français ont goûté au télétravail, un télétravail intensif et contraint, alors que jusqu’en 2020, sa pratique restait très limitée et très occasionnelle. Or, on le sait, ça ne s’est pas si bien passé, ou plutôt ça ne s’est pas très bien passé pour tous. Des écrans noirs des étudiants (auxquels la couverture rend hommage), à la Zoom fatigue, les outils de visioconférences ont bien plus révélé leurs limites qu’ils n’ont fluidifié les relations de travail. Si les outils de visioconférence ont bien accéléré le télétravail, il nous faut comprendre pourquoi. Loin d’avoir amélioré l’efficacité des réunions, la visioconférence a surtout permis aux catégories socioprofessionnelles privilégiées de s’affranchir de l’épreuve de la mobilité lorsque celle-ci est progressivement revenue. Zoom n’a pas amélioré la productivité des entreprises par ses qualités propres qui en ferait un outil magique du travail des cadres, mais il a permis à ceux-ci d’avoir un meilleur contrôle individuel de leur mobilité et de leur productivité.  

Si depuis la première vague, le télétravail a largement reflué, reste que cette pratique s’est durablement installée dans la vie des professions supérieures. Mais d’un outil d’autonomie, de confort, qui se présente comme éminemment social, les outils de visioconférences ont montré qu’ils n’étaient pas aussi sociaux qu’ils en avaient l’air, laissant sur le bas côté des autoroutes de l’information ceux qui n’avaient ni les codes de conduite ni la liberté de les utiliser comme ils le souhaitent. Face à la question de l’élargissement des publics et le constat de leurs difficultés, on a eu tendance à renforcer la surveillance et les contraintes, plutôt qu’à libérer les pratiques… pour produire un télétravail de plus en plus hybride, contraint, imposé, très contrôlé. D’une pratique qui se voulait sociale, les outils de visio sont en train de devenir des outils économiques et politiques comme les autres. Économiques, puisque le travail à distance et la visioconférence se sont imposés comme des outils pour réduire les coûts, pour améliorer les gains d’efficacité et les économies d’échelle : dans l’enseignement supérieur où il est en passe de devenir un recours banalisé, malgré les difficultés qu’il génère, comme dans les entreprises qui cherchent à trouver la modalité d’une utilisation équilibrée dans des organisations de travail très perturbées par tous les changements qui les frappent. Politiques, puisqu’il est mobilisé justement dans une acception libérale, permettant de dégrader les conditions d’enseignement comme de travail, en déportant toujours plus les coûts collectifs sur les individus, à l’image dont on l’envisage désormais, comme une solution pour pallier aux défaillances d’investissements face à l’envolée des coûts de l’énergie. Au final, on peut se demander si le télétravail n’augure pas d’un statut social du cadre en mode dégradé : un moyen d’améliorer les gains de productivité des professions supérieures, après avoir ratissé tous les gains de productivité qu’il était possible de faire sur les derniers de cordée. Symptôme de l’individualisation du travail, il renforce la précarisation et la déqualification du travail des cadres par leur mise à distance, entre ubérisation et précariat. 

Le propos que je défends dans cet essai, c’est que Zoom, malgré sa grande simplicité, n’est pas un outil adapté à tous. C’est le constat que dresse également Eszter Hargittai (@Eszter) dans un livre à paraître sur le sujet, Connected in isolation, qui souligne que les visioconférences ont surtout bénéficié à ceux qui étaient le plus connecté, à ceux qui ont les capacités socio-économiques pour s’y confronter. Le constat est ancien et la crise ne l’a que renforcé : les pratiques numériques les plus riches, les plus variées sont d’abord le fait de ceux qui ont les pratiques culturelles les plus riches et les plus variées, de ceux qui ont les moyens économiques, culturels et politiques de leur liberté. 

Pour que le télétravail soit profitable à ceux qui l’utilisent, il faut qu’ils soient capables ou qu’ils disposent d’une certaine autonomie, d’une certaine indépendance. Partout où cela n’a pas été le cas, cela c’est mal passé. Zoom est resté l’outil qu’il était avant la pandémie : un outil de cadres pour cadres. Tout comme la pratique du télétravail est majoritairement restée ce qu’elle a toujours été : une pratique de cadres pour cadres.  En tentant de l’élargir, de l’imposer sans contrepartie ni garantie, le télétravail est en train de devenir un espace de tension supplémentaire entre individus et collectifs. Dans un travail qui se délite, qui s’individualise toujours plus, le télétravail participe à l’effondrement du travail, de son sens, comme l’expliquent Thomas Coutrot et Coralie Perez dans un excellent livre qui vient de paraître : Redonner du sens au travail. Dans un moment où les relations de travail sont de plus en plus inégalitaires, car de plus en plus individualisées, le télétravail ne remet aucune équité, mais au contraire participe de sa dissolution. A mesure qu’on facilite les abus des entreprises à l’encontre de leurs employés (comme le facilite la loi travail et ses plafonds d’indemnisation quelque soit le niveau d’abus que commettent les entreprises, ou la menace de l’abandon de poste qu’il sera si facile d’activer à distance…), le climat du travail ne peut que se dégrader partout. Sans pouvoir “convertir des rapports de force en rapports de droit”, comme disait Alain Supiot, il n’y aura pas plus de justice en télétravail qu’au travail. 

Hubert Guillaud

J’espère que l’ouvrage vous plaira ! Il est disponible en pré-commande sur toutes les plateformes. Pour toute demande de service de presse, je vous invite à vous adresser directement à FYP éditions. Interviews ou invitations sont traitées en directes : hubertguillaud@gmail.com 

Je me permettrai de mettre à jour ce billet en y collectant les recensions presse et web :

Impuissances critiques

Avec Techno-luttes, enquête sur ceux qui résistent à la technologie (Seuil, Reporterre, 2022), les journalistes Fabien Benoît (@fabienbenoit) et Nicolas Celnik (@nicolascelnik) signent un livre très clair et très accessible sur le mouvement technocritique jusqu’à ses plus récents développements. C’est une bonne entrée en matière pour ceux qui découvrent qu’il y a une critique voire une opposition au développement de la technique… Pour les autres, le livre sera peut-être un peu sans surprises.

Couverture du livre Technoluttes.

Les deux auteurs nous rappellent que nous n’avons pas d’usage raisonnable de la technique. Chaque pas que l’on fait vers une société plus technologique est définitif. En donnant la parole à nombre de militants et d’opposants, de la Quadrature du Net à L’Atelier Paysan, en passant par Écran Total, Faut pas pucer… à des acteurs comme à des penseurs de la critique technologique, ils nous confrontent à l’histoire d’une longue bataille culturelle, où toute désescalade face à la puissance technique semble impossible. Partout, la technologie soutient un modèle industriel, de l’élevage à la surveillance des administrés, dans une logique de gestion austéritaire et autoritaire qui se renouvelle à chaque couche technique et qui semble ne devoir jamais prendre fin. 

La contestation des technologies repose d’abord sur la confiscation des savoir-faire par la techno, estiment Benoît et Celnik. L’un de ses moteurs est la dénonciation de la déqualification et de l’intensification que les technos produisent. C’est une lutte “contre les changements sociaux qu’elles incarnent et renforcent” : le déploiement des technologies a toujours été un moteur des luttes sociales, rappellent-ils. 

L’autre moteur est la question écologique plus que la surpuissance technologique : que ce soit à cause du remplacement d’un matériel fonctionnel par un autre ou parce que le numérique a fini de montrer qu’il n’était pas un levier pour réduire notre empreinte sur le monde, bien au contraire. “Il y a désormais une conscience que quelque chose procède de l’excès”. La machine ne nous a pas libéré, malgré le “fantasme de délivrance” qu’elle incarne. Mais là encore, c’est surtout une lutte contre le changement du monde, contre le “monopole radical” (Illich) qu’impose partout la machine. La critique technologique est toujours prise dans un flux et reflux, dans des phases de contestations qui précèdent les recadrages modernisateurs, comme si la critique était toujours vouée à être défaite par plus de technologie. 

Reste qu’à mesure que la technique se radicalise en étendant partout sa puissance, en devenant un moyen sans plus aucune fin, sa contestation elle aussi se radicalise. Pas autant et pas avec la même puissance pourtant. Si l’animosité gagne du terrain, le front des luttes reste dispersé. Nous restons surtout face à “un microluddisme sans grands effets”, disais-je. Difficile de s’opposer au monde qui vient quand celui-ci repose sur l’argent tout puissant et la redondance technologique. 

Si Linky et la 5G sont à l’origine d’une démocratisation de la technocritique, Celnik et Benoît montrent que la sociologie des oppositions est complexe, plus hétérogène que jamais, tout en restant confinée à une poignée de mêmes acteurs. Plus que des technoluttes, Celnik et Benoît constatent surtout la généralisation des stratégies de fuite, des désertions, à la recherche d’une désescalade, comme si l’on ne pouvait plus vraiment échapper au monde que la technique a conquis. Quant au sabotage, si la répression est sévère pour être exemplaire, il reste limité, marginal, visant plus à attirer l’attention sur les limites du monde moderne qu’à réellement le détruire. Ouvrir les bouteilles de Roundup là où il est vendu ou dégonfler les pneus de SUV relèvent d’un micro-sabotage, d’actes de colère et de rage, d’impuissance, plus individuels que politiques. Face à la poussée technosolutionniste, la critique marque son désarroi et son asthénie, comme si nous n’étions pas capables finalement de mettre fin à ce monde, même à ses pires excès. Au final, on s’oppose aux objets (mis en visibilité, comme les panneaux publicitaires numériques, les antennes, les trottinettes…), sans parvenir à réguler le monde qu’ils incarnent et  représentent (le fléau d’une publicité numérique toujours plus omniprésente, les débits comme la mobilité sans limite…). Face aux monstres techniques, l’opposition semble désarmée, ne parvenant qu’à abattre des symboles physiques plus qu’à faire reculer la machination, sa prolifération, qui anime d’une manière sous-jacente les objets, comme s’il était finalement impossible de s’en prendre au réseau, aux données et aux traitements qui façonnent nos existences numériques comme réelles. 

Couverture du livre Internet et Libertés.

Début 2022, dans un numéro de la revue Réseaux, Olivier Alexandre, Jean-Samuel Beuscart (@jsbtweet) et Sébastien Broca livraient une très intéressante sociohistoire des critiques du numérique, revenant sur la critique du numérique depuis ces 30 dernières années.  Pour eux, elle se décompose en une critique libérale qui dénonce les entraves aux libertés fondamentales. Une critique sociale qui conteste les inégalités que le numérique renforce. Et une critique écologique qui semble désormais très en vue. Ces trois formes de contestations ne sont ni étanches, ni statiques, mais au contraire s’entremêlent, se rendent incompatibles ou convergent. Pourtant, la grande difficulté de la critique reste d’être dépossédée de ce qu’il se passe au cœur des objets, des réseaux, des traitements, des données. La “numérisation de la critique”, c’est-à-dire son incorporation dans des dispositifs techniques (comme les bloqueurs de pubs), “s’est parfois posée comme une stratégie alternative à l’action démocratique et aux tentatives pour obtenir des avancées légales ou réglementaires”. Elle aussi n’a pas réussi à proposer des échappatoires, autres que marginales, constatent-ils. Dans la conclusion d’Internet et Libertés, le livre que Mathieu Labonde, Lou Malhuret, Benoît Piédallu et Axel Simon consacrent à l’histoire de la Quadrature du Net (@laquadrature), ses membres font également le constat de la difficulté à “transformer des sujets d’experts en évidences culturelles”. Là encore, dans ce combat pour nos libertés numériques, on a l’impression d’une lutte impossible, où l’hydre qu’on tente d’abattre voit pousser de nouvelles têtes à mesure qu’on les coupe. C’est toute l’histoire de la Quadrature, une lutte continue pour que le numérique ne puisse être un prétexte à écraser nos libertés fondamentales.

De partout le constat demeure sombre : celle d’une impuissance de la critique, celle d’un combat sans fin où aucun droit n’est jamais acquis, où une victoire est vite défaite par les ajustements et transformations du monde auquel on s’oppose. C’est la réalité des luttes à armes inégales : elles ne se terminent jamais.

Hubert Guillaud

A propos des livres de Fabien Benoît et Nicolas Celnik, Techno-luttes, enquête sur ceux qui résistent à la technologie, Le Seuil, Reporterre, 2022, 222 pages, 12 euros, ainsi que celui de  Mathieu Labonde, Lou Malhuret, Benoît Piédallu et Axel Simon, Internet et Libertés, 15 ans de combats de la Quadrature du Net, Vuibert, 2022, 272 pages, 19,90 euros.

Changer d’infra pour changer de direction

L’année dernière, dans leur livre, La servitude électrique, Alain Gras et Gérard Dubey nous avaient déjà alertés sur la fusion en cours entre le macro-système technique électrique et numérique. Dans A bout de flux (divergences, 2022), l’historienne de l’architecture et des techniques, Fanny Lopez, prolonge cette réflexion, en nous invitant à trouver la voix d’un autre rapport à la technique, entre hypercapitalisme et effondrement. 

Ce qui crée de la valeur, aujourd’hui, c’est la circulation des données, rappelle-t-elle. Et ces données si circulantes sont pourtant conservées dans des enceintes encore plus sécurisées que ne l’étaient les banques : les data centers. En quelques années, ils se sont démultipliés (8200 bâtiments dans le monde, dominée par les USA, l’Allemagne, le Royaume-Uni puis la Chine. La France, 8e de ce classement mondial dispose de 295 data centers dont 250 en Ile-de-France). Les centres de données qui font fonctionner l’économie numérique sont la propriété de quelques acteurs majeurs (comme l’européen Interxion, dont le chiffre d’affaires est bien supérieur à celui d’Orange par exemple ou le leader mondial américain Digital Realty, avec lequel Interxion a récemment fusionné). Lopez explore la réalité bien matérielle des services numériques d’aujourd’hui… et notamment leur consommation électrique explosive (même si nombre de ces services sont à la pointe de l’efficience comme de la renouvelabilité…) comme leur expansion sans limite. Ces nouveaux centres de consommation électrique participent d’une charge nouvelle sur un réseau électrique à bout de souffle alors qu’il dépend lui-même de plus en plus du numérique pour fonctionner. Fanny Lopez décrit une industrie des centres de données hyperconcentrée (géographiquement comme économiquement, et qui, pour maintenir son niveau d’innovation et ses capacités de traitement, voit ses niveaux d’investissements s’envoler), en voie de saturation accélérée, bâtie sur les ruines des télécoms et le fantôme du service public, complètement privatisé. Elle décrit très bien la dépossession en cours, liée en grande partie à la concentration des investissements nécessaires pour réaliser ces infrastructures (Fanny Lopez parle d’un “âge post-service public”). Le réseau électrique est un emblème des macrosystèmes techniques : ces systèmes à grande échelle, qui se développent par la croissance, qui consomment d’importantes quantités d’énergie fossiles, sont particulièrement polluants, fonctionnent en réseau d’une manière complexe et opaque, et qui demeurent gérés de façons centralisés et en temps réel. Reste que l’informatique a transformé le réseau électrique, dans une fusion machinique, une forme de grande synergie productive en réseau, qui, comme le dit Günther Anders, transforme les machines elles-mêmes, où aucun appareil n’est plus une machine individuelle, mais un composant d’un système qui le dépasse. Un radiateur ou une ampoule ne sont plus un simple radiateur ou une ampoule, mais un composant du réseau auquel il doit se raccorder, participer, s’adapter, contribuer. Avec l’IA, la machine se règle à l’aide d’autres machines, comme si le réseau avait invisibilisé sa propre infrastructure, comme si le réseau s’était autonomisé. Nous voilà dans le continuum numérico-électrique qui semble fonctionner par lui-même, dans une dynamique productiviste et consumériste, sans qu’on réinterroge sa structure et ses faiblesses. 

Couverture du livre de Fanny Lopez

Or, le réseau électrique révèle ses faiblesses à mesure de sa croissance (et encore plus quand il souffre de pénurie et que le prix de la production d’énergie s’envole, comme c’est le cas actuellement). Il a du mal à répondre aux pics de consommation et à la démultiplication des raccordements qui renforcent les pics. Et on n’a pas vraiment de politique de régulation comme le montre le scénario de délestage tournant qui se profile pour l’hiver

Le numérique perturbe plus le réseau qu’il ne le fluidifie. Le raccordement de centres de données gourmands en énergie vient perturber les productions, via des acteurs qui privatisent le réseau et commencent à générer des conflits d’usages ou des formes de privatisation qui risquent d’être encore plus compliqués en temps de pénurie. 

Fanny Lopez nous explique le fonctionnement du réseau électrique libéralisé. En France, 3 structures se partagent le réseau : la distribution (Enedis), le transport (RTE), la production (EDF), 3 acteurs qui semblent parfois plus en concurrence entre eux qu’en complémentarité. Les gros consommateurs que sont les centres de données se branchent surtout sur RTE, mettant en fragilité la distribution. La coordination spatiale et énergétique du réseau est mise à mal par des acteurs privés qui abusent d’infrastructures publiques que “les opérateurs n’ont pas les moyens réglementaires de réguler”.

Non seulement la régulation est défaillante, mais la sobriété est nulle part. L’avenir consiste à produire toujours plus d’électricité pour répondre à une consommation qui n’est jamais appelée à diminuer. “L’hégémonie technicienne repose sur la croissance et le renforcement du grand système technique électricité comme unique perspective”. Pour sortir de cette hégémonie, avance Fanny Lopez, nous devons changer le réseau, c’est-à-dire transformer sa structure pour rapprocher la production de la consommation. Mais si aux Etats-Unis, les microréseaux émergent timidement, ce n’est pas le cas en France, notamment parce que les opérateurs de l’électricité souhaitent garder la main et ne permettent les microproductions locales que comme réserves du réseau. En France, les projets de mutualisations, citoyens comme privés, tentent de s’insérer dans les zones grises de la réglementation. La production est partout sous tutelle. En fait, les restructurations possibles (technologiques, énergétiques, urbanistiques, économiques comme politiques) semblent surtout coincées dans un réseau doublement incapable d’évoluer, à la fois par manque d’ouverture politique comme économique. Plus encore, explique Lopez, le réseau tel qu’il est conçu, aménagé, opéré, n’est pas taillé pour une décentralisation ni pour intégrer, d’une manière suffisamment flexible, les alternatives intermittentes comme le solaire ou l’éolien. Le réseau de distribution n’est pas conçu pour accueillir facilement des unités de production décentralisées, mais est surtout taillé pour répartir et acheminer l’électricité. En fait, explique Lopez, les choix technico-politiques ne sont pas pris, alors qu’ils engagent les usages futurs. Dans tous les scénarios d’avenir, il est nécessaire de construire des infrastructures, de la faire croître dans une complexification qui impose sa numérisation, seule capable de piloter le système. Le numérique est devenu le processus de commande, de régulation, de modélisation, de flexibilisation… Le débat public se focalise sur les sources de production, jamais sur le système. C’est un peu comme si tout le monde pensait que l’architecture des réseaux n’était qu’une question de logistique, qui saura toujours s’adapter aux contraintes. Dans l’avenir du réseau, il n’y a pas de fermeture ni de déconstruction ni vraiment de transformation, il n’y a que croissance, entre abondance et pénurie. Pour les opérateurs, “il n’y a pas de problème de production d’électricité en France” ! Qu’importe si nous n’avons pas de ressource énergétique primaire suffisante, qu’importe si les réacteurs vieillissent, que les EPR soient à la traîne… Pourtant, transformer l’infrastructure ne consiste pas à changer de source d’énergie, ni à améliorer la maintenance, mais bien à “repenser le réseau dans son organisation structurelle pour de nouveaux lendemains techniciens”. Pour Castoriadis, “changer de société, c’est changer d’infrastructure”, rappelle Lopez. Nous n’en prenons pas le chemin, au contraire. La technique impose toujours son infra, la complexifie sans jamais vraiment la remettre en cause ou en dessiner des alternatives.

Pour remettre en cause le paradigme technicien, soutient Lopez nous devons augmenter l’autonomie, organiser l’intermittence, reconfigurer les machines, inverser la hiérarchie du système… Pour Lopez, la perspective autonomiste et ultra-localiste, à l’image de celle proposée par l’Institut Momentum dans son scénario Biorégion 2050, L’Ile-de-France après l’effondrement, où la demande devra s’adapter aux pénuries reposent sur un scénario qui confirme la disparition de toute puissance publique, plutôt que de chercher sa reconfiguration pour qu’il continue à assurer un service au plus grand nombre. Pour contrer ce scénario effondriste, nous devons alléger les réseaux estime Lopez, c’est-à-dire augmenter l’autonomie et organiser l’intermittence en facilitant d’autres modes de connexion et d’interconnexion. Réduire sa consommation, maximiser ses capacités productives et optimiser sa gestion devraient être un fondement de toute interconnexion à la maille énergétique, locale comme nationale. Le réseau devrait être capable de gérer ses excès comme ses pénuries, ses intermittences. Enfin, elle invite à inverser la hiérarchie historique du système électrique, c’est-à-dire à interroger quelles infrastructures garder et sous quelles formes de propriété. Pour elle, si je suis bien, cela signifie que les microréseaux pourraient devenir le système primaire et le grand réseau, le système secondaire… posant par là, à la suite d’Alexandre Monnin la question des communs négatifs comme celle de l’héritage et du démantèlement des infrastructures. Que voulons-nous garder du réseau électrique ? Pour quoi faire ? Comment faire pour que sa structure s’adapte aux transformations dont nous aurons besoin demain ? L’un des risques qui pointe pourtant est que ce démantèlement se fasse par défaut, sous la pression des moyens et creuse les inégalités : qu’on ferme ce qui n’a pas les moyens contre là où sont les moyens. Enfin, Lopez nous invite à tenir l’utopie de la diversité infrastructurelle, c’est-à-dire “Comment penser le global sans retomber dans le solutionnisme hégémonique, unidimensionnel, hors sol et sans monde ?” Comment tenir à la fois un service public et à la fois une diversité d’approches, les deux choses auxquelles nous risquons de renoncer, au risque de créer d’un côté des “ghettos énergétiques” et de l’autre des “territorialités premium” ! Elle nous invite, à la suite de Pierre Caye, à envisager la technique non plus comme accélération et intensification, mais comme mesure et limitation. L’enjeu, c’est de parvenir à ré-utopiser la grande échelle infrastructurelle tout en tenant la technique proche serait un défi de l’hypothèse redirectionniste. “L’image archétypale des petits moulins hydrauliques renvoie à une infrastructure désirable, un monde de forces habitables. Tous les ingrédients de l’imaginaire localiste sont là : la petite échelle, l’intégration à l’environnement, la localité des matériaux servant à l’édification, la possibilité d’habiter l’infrastructure. Pourtant la petite échelle ne suffit pas à garantir un idéal émancipateur et progressiste”. Un réseau, rappelle-t-elle, “permet simultanément la circulation et le contrôle, il signifie à la fois l’abondance et la dépendance, le lien et la surveillance”. Le forme et la réorganisation des flux posent devant nous d’immenses défis. Pour les relever nous devons faire un pas de côté. Nous attaquer à modifier les structures matérielles, les outils de régulation et de gouvernance. Pour le dire autrement, la redirection passe par la déprivatisation, la diversification des solutions et leur reterritorialisation sous la forme d’un retour de politiques publiques multiples et concrètes. C’est un constat et des solutions qui vont au-delà des infras matérielles d’ailleurs. Zuckermann ou Tarnoff font les mêmes. 

*

La force du livre de Lopez, c’est de tisser une vraie continuité entre la critique des systèmes techniques et les questions énergétiques actuelles, de relier la grande histoire d’une approche alternative de la technique à celle de la structuration du réseau électrique. Peut-on sortir d’une dépendance au sentier ? Peut-on construire des alternatives afin de ne pas faire comme on a toujours fait et remettre en cause le chemin technique emprunté ? La question traverse tout le champ de la technique. 

Pourtant, le sujet qu’elle évoque demeure – comme souvent avec les questions techniques – complexe, touffu, âpre. Dans les livres sur la technique, les enjeux restent difficiles à saisir pour qui n’est pas averti du sujet. La question technique est toujours engoncée dans sa complexité et difficile à faire saisir. De ce côté là, ce court essai tient plus d’une alarme que d’un ouvrage pédagogique.   

Hubert Guillaud

A propos du livre de Fanny Lopez, A bout de flux, Divergences, 2022, 144 pages, 14 euros. Voir aussi les bonnes feuilles sur Lundi Matin. Si vous avez une bonne heure devant vous, allez l’écouter discuter avec François Jarrige à la Manufacture des idées !

Renverser nos intelligences

Avec Ways of Being, Beyond Human Intelligence (Allen Lane, 2022, non traduit), James Bridle (@JamesBridle) signe un essai brillant et décalé. Il est assurément le livre d’un artiste à l’écoute du monde et de ses transformations. J’avais dit beaucoup de bien de son précédent livre, Un nouvel âge des ténèbres (Allia, 2022), lors de sa parution en anglais. J’ai toujours trouvé Bridle inspirant : que ce soit quand il nous invitait à écrire avec les machines pour composer avec elles une nouvelle esthétique, comme quand il nous alertait sur les perturbations en chaînes que produit le modèle économique de Youtube. Il sait comme nul autre mettre nos modernités en abîmes, à l’image de son fameux piège pour voiture autonome. Ce n’est pas seulement un artiste inspiré, c’est également un essayiste différent. Et cet essai, tout comme son précédent en fait une éclatante démonstration.  

Couverture du livre de James Bridle.

Ways of Being s’intéresse à un sujet très mal traité : l’intelligence. Celle des hommes, comme celle de leurs machines sont aujourd’hui dévoyées. Elles ont été mises au service de l’extractivisme et de l’efficacité. Nous sommes coincés dans un déterminisme technologique mis au services du capitalisme, dont l’IA n’est que la version la plus moderne, la plus libérale, exacerbant sa propre quête de profits. Comme le disait l’écrivain de SF, Charles Stross : “nous vivons dans un état global qui a été structuré pour le bénéfice d’entités non-humaines avec des objectifs non-humains”. Avec une IA dont le développement appartient tout entière aux entreprises, les machines n’ont plus d’autres buts que d’extraire du profit. 

Pour changer nos relations au monde, nous devons changer la façon dont nous définissons l’intelligence, estime James Bridle. Pour cela, nous devons élargir la nôtre, nous intéresser à d’autres formes d’intelligences : à des intelligences non-humaines. Pour apprendre à vivre avec le monde, plutôt que de le dominer, nous devons apprendre à vivre avec les intelligences qui le composent et construire ce qu’il appelle une “écologie de technologie”

L’écologie, rappelle-t-il, est l’étude des interrelations. Elle nous invite non pas à nous intéresser aux choses, mais à leurs relations. La technologie, elle, consiste à produire des choses qui ont bien souvent été aveugles à leur environnement, à leur contexte, à leurs conséquences. Pour Ursula Le Guin, la technologie est “l’interface humaine active avec le monde matériel” (comme elle le dit dans Danser au bord du monde). Dans notre monde moderne, elle est surtout le produit de notre exploitation de l’environnement. Cette technologie là n’est pas celle qui intéresse Bridle. Pour lui, nous avons besoin d’une écologie de la technologie, c’est-à-dire une technologie qui soit concernée par l’interrelation au monde, c’est-à-dire une technologie qui incorpore l’écologie dans ce qu’elle active. 

Pour y parvenir, nous devons changer notre manière même de comprendre ce qu’est l’intelligence. Nous devons arrêter de croire que l’intelligence de l’homme est unique. L’intelligence est un processus actif plus qu’une capacité, défend-il. Elle est multiple plutôt qu’unique. Pour mieux intégrer l’écologie à la technologie, nous devons nous défaire de notre intelligence, ou plutôt reconnaître qu’elle n’est pas unique, pas la seule. Nous avons besoin de mettre fin à notre volonté de nous séparer de la nature et pour cela nous devons plus que jamais comprendre que nous habitons un monde plus qu’humain. La vie résulte d’une interdépendance éminemment complexe. Pour la redécouvrir, pour repenser notre relation au monde, il nous faut changer notre manière de voir l’intelligence et la place de l’homme, tout comme changer notre rapport à la technologie que notre anthropocentrisme a créé. 

Elargir l’intelligence

Une voiture autonome est un organisme qui crée son propre umwelt, son propre environnement sensoriel. Pour Bridle, la relation entre les hommes et l’intelligence artificielle devrait relever d’une collaboration créative. Au lieu de cela, nous sommes coincés dans une forme dominante d’IA, profondément extractiviste, une intelligence artificielle d’entreprise (Kate Crawford ne disait pas autre chose). Pour Bridle, si on prend au sérieux le terme d’intelligence dans l’IA, cela devrait nous pousser à réfléchir à ce qu’elle signifie. La plus claire définition de l’intelligence selon lui, c’est “ce que les humains font”. Or, on devrait l’entendre d’une manière plus extensive, multiple et relationnelle, capable de prendre bien des formes différentes, plutôt que de toujours la juger selon nos propres standards. Pour Bridle, c’est là l’erreur de Turing, pour qui l’intelligence d’une machine a surtout consisté à être capable de nous tromper, à se faire passer pour humaine. Le problème, c’est que nous refusons d’accorder de l’intelligence à quoi que ce soit d’autre qu’humain. Bien des animaux pourtant ont montré qu’ils étaient capables de reconnaître des problèmes, de faire des plans pour les résoudre comme de manipuler des outils pour y arriver. Le test du miroir, le fait de se reconnaître dans un miroir, a longtemps été considéré comme un test d’intelligence, mais l’enfant humain ne le réussit pas avant 18 mois. Seules certaines espèces de singes le passent sans encombre, mais bien d’autres animaux y parviennent dans certaines conditions, pour autant que le test s’adapte à leur environnement et à la façon dont ils le vivent. On oublie trop souvent que le corps et ses spécificités ont des implications sur l’esprit. Voir une tâche sur son visage dans un miroir tient plus d’une compétence sociale que cognitive. Les visages n’ont pas la même importance pour toutes les espèces. Le test du miroir dit bien plus de l’obsession humaine pour le social que d’être un outil de mesure de l’intelligence. Les gorilles par exemple échouent beaucoup au test du miroir, du fait de leur aversion pour le contact visuel, considéré comme une menace… A l’inverse, des schizophrènes peinent à se reconnaître dans un miroir, cela ne signifie pas pourtant qu’ils ne soient pas humains ou intelligents. Pour Bridle, nous devons arrêter de considérer l’intelligence comme quelque chose définie par l’expérience humaine. Les intelligences non-humaines peuvent être très différentes de la nôtre, mais particulièrement retorses. Bridle documente longuement différentes sortes d’intelligences animales, allant des éléphants aux pieuvres, montrant leur diversité : comportementale, neurologique, physiologique, sociales… 

Les intelligences sont actives, génératives, et montrent que bien des espèces accordent leurs actes à leurs pensées et leurs pensées à leurs actes. “L’intelligence n’est pas quelque chose que nous devons tester, mais quelque chose que nous devons reconnaître dans les multiples formes qu’elle peut prendre”. Cela demande de nous changer nous-mêmes bien plus que d’altérer les conditions dans lesquelles on l’évalue. Pour Bridle, travailler avec une IA lui a permis de comprendre que, bien plus que d’être un outil pour exploiter la planète, elle était un moyen pour s’ouvrir à d’autres pensées, à d’autres modalités de pensées. Pour Bridle, nous devons être plus attentifs à l’écosystème dans lequel nous élevons nos IA. Pour l’instant, cet écosystème est celui de l’extraction et de la domination. “Si nous voulons qu’elle évolue différemment, nous avons besoin d’adresser différemment et d’altérer son écologie”. Le web nous a donné un outil pour comprendre le fonctionnement des réseaux. L’IA superforme nos capacités humaines par endroits. Cela devrait nous aider à ouvrir nos regards. 

Il n’y a pas que les animaux qui expriment des formes d’intelligence alternatives à la nôtre. Les plantes également, explique-t-il en enquêtant longuement sur les champignons, les arbres et les plantes, et notamment la mycorhize, cette symbiose entre plante et champignon, arbres-mères de l’écologue Suzanne Simard ou encore sur la capacité des plantes à mémoriser, et donc à apprendre et changer leur comportement face aux agressions. En fait, le terme d’intelligence est insuffisant pour décrire la diversité des modes de compréhension que les êtres vivants ont de leurs milieux, explique l’artiste-chercheur en nous invitant à franchir le fossé des différences, à nous intéresser à l’intelligence du monde avant qu’il ne s’éteigne, à un monde qui est bien plus coopératif que compétitif. Bridle s’intéresse également à notre histoire génétique, et à nos entrecroisements. Nous descendons bien moins d’un arbre, que d’entrecroisements. Nous tenons bien plus d’une symbiose que d’individus. Nous sommes ce que nous sommes à cause de tout le reste. Cette symbiose n’est pas une harmonie, mais surtout des relations et elles apportent surtout des bénéfices mutuels qu’elles ne sont antagonistes. 

Pour une autre informatique

Dans toutes ces perspectives, nos outils sont un problème, notamment parce qu’ils façonnent notre culture elle-même. Plutôt que d’utiliser la technologie pour contraindre le monde et renforcer notre perspective, nous devrions la déployer pour élargir notre vision du monde et étendre notre attention. Or, nous faisons et avons fait tout le contraire. 

Le bâton de Bambou de James Bridle.

Bridle prend l’exemple du temps. Nous l’avons harmonisé au XIXe sous le développement des technologies. Le train, la vapeur, la radio, le télégraphe ont nécessité une stricte coordination. Nous avons séparé le temps de la terre, du soleil et des saisons pour le subordonner à l’industrie afin de servir ses propres fins. Le temps aujourd’hui est imaginé et créé par nos machines qui nous poussent à le penser à leur propre vitesse. Pour Bridle, nous devons retrouver un temps qui nous aide à comprendre les changements en cours plutôt que de les accélérer. Il s’est ainsi intéressé à la vélocité du changement climatique, à quelle vitesse notre monde se transforme. Cette vélocité nous indique la vitesse à laquelle nous devrions bouger pour que les conditions dans lesquelles nous vivons restent les mêmes. Cette vitesse n’est pas la même partout. Elle est plus rapide dans les lieux humides ou les déserts. De nombreuses espèces ne pourront s’adapter au changement ni bouger suffisamment vite. La vitesse du changement climatique a été évaluée à 0,42 kilomètre par an, soit 115 centimètre par jour. C’est la taille d’un bambou peint en blanc que Bridle a posé dans son jardin (une photo est disponible dans cet article du Financial Times sur le livre de Bridle). C’est la distance que les plantes de son jardin devraient parcourir chaque jour pour pouvoir continuer à vivre dans les mêmes conditions. Fort heureusement, les plantes se déplacent : 10 à 15 km par décade ! A croire que les arbres s’adaptent au changement climatique plus vite que nous. Les plantes sont juste des animaux très lents, comme le dit le botaniste Jack Shultz. Notre mesure du temps ne nous permet pas de saisir, de penser à celle du monde. Pour cela, nous devons changer notre façon de voir. Non pas tant en distinguant les choses entre elles, comme nous l’apprend la science, mais en recherchant leurs connexions, comme nous l’apprend l’écologie. Nous avons besoin d’un macroscope plus que d’un microscope. “Nous choisissons trop souvent de regarder du mauvais côté, pas nécessairement dans la mauvaise direction, mais avec de mauvaises intentions.” Notre intention – la façon dont on choisit de regarder – informe de ce que l’on voit. 

L’internet est né de la paranoïa de la Guerre froide et de l’idéologie californienne, entre pouvoir militaire et entrepreneurial. Pas étonnant qu’ils aient produit une structure capitaliste de violence et de surveillance jusqu’au cœur même de ses fonctions et de son code. Mais nous pouvons encore le détourner, à l’image de l’utilisation de radars militaire pour l’ornithologie. Les technologies, parce qu’elles ont des capacités perceptives parfois bien supérieures à nous, peuvent nous aider à changer notre vision, à regarder le monde autrement, selon une plus grande échelle, une plus grande perspective. Bridle démultiplie les exemples de nos relations aux autres intelligences, en évoquant par exemple nos relations langagières avec d’autres espèces animales, comme notre langage est aujourd’hui contraint par celui des machines. Nous leur parlons comme nous avons toujours parlé à d’autres espèces, tentant de trouver les modalités d’une communication commune. Parler à d’autres, trouver les moyens de communiquer différents, reste un moyen d’apprendre à faire un monde plus qu’humain. Or, nos machines partagent le même langage basique, même si on les utilise souvent sans comprendre ce qu’elles font et trop souvent en acceptant sans critique le monde qu’elles nous proposent. Notre croyance dans la calculabilité est violente et destructrice, elle attribue des valeurs à ce qui peut être compté et donc décidé, oubliant tout ce que l’on ne sait pas compter. On ne produit pas de décision sur ce que l’on ne sait pas mesurer.  

Pour Bridle pourtant, l’indécidabilité n’est pas une barrière à la compréhension, mais doit être un signe, une alerte que nous touchons quelque chose. Nous pensons que tout est un problème de décision et nous traitons le monde comme quelque chose qui doit être calculé. “Nous pensons que les machines vont nous donner des réponses concrètes sur le monde, sur lequel nous allons pouvoir agir, tout en conférant à ces réponses une logique d’irréfutabilité et une impunité morale”. Au final, nous forçons le monde à se conformer à nos représentations. Les bases de données qui trient et y échouent, les marchés financiers qui se crashent et appauvrissent, les algorithmes qui surveillent et jugent… sont autant de machines de décision qui tentent de dominer le monde en en produisant des modèles pour créer des décisions basées sur ces modèles. 

Pourtant, il n’en a pas toujours été ainsi, rappelle-t-il. Le principe de la cybernétique consistait bien plus à s’adapter au monde qu’à l’anticiper et le contrôler, tout comme le cerveau n’est pas tant une machine à penser, mais une machine à agir. La cybernétique cherchait bien plus à être adaptative qu’à être pré-programmée. Nous avons produit des outils complexes qui accumulent d’incroyables quantités de connaissances sans nous permettre de résoudre le monde, au contraire. Dans nos tentatives d’assurer l’ordre et d’établir des vérités sur l’excessive complexité du monde, nos incertitudes se sont plus développées que nos certitudes, nous laissant plus paralysés, plus apeurés, plus en colère que jamais et plus démunis face à des systèmes opaques d’oppression et de contrôle. Nous devons retrouver la voie vers des machines qui nous permettent de négocier avec l’inconnu, qui se reconfigurent avec les changements sans nécessairement nous amener à comprendre la nature de ces changements, qui nous permettent de mieux nous adapter au monde plutôt que de mieux le comprendre, à l’image des propriétés de certains champignons capable de résoudre le problème du voyageur de commerce mieux que nos ordinateurs ou des formes robotiques douces, capables de s’adapter aux contraintes du monde, ou des formes d’informatiques liquides, comme ces maquettes géantes pour reproduire le Mississippi… explique Bridle depuis des exemples toujours variés et étranges. Pour lui, l’enjeu n’est pas que l’informatique rende le monde connaissable, mais qu’elle permette de mieux le partager plutôt que de mieux se l’approprier, de faire que les systèmes demeurent lisibles par tous plutôt que seulement par quelques-uns, à l’image du Moniac, un ordinateur hydraulique imaginé pour faire comprendre l’économie. “Tous les ordinateurs sont des simulateurs. Ils intègrent des modèles abstraits de certains aspects du monde que nous mettons en route – en oubliant immédiatement qu’ils sont des modèles. Nous les prenons pour le monde lui-même. On peut faire le même constat avec notre propre conscience, notre propre umwelt. Nous nous trompons sur nos perceptions immédiates comme si elles étaient le monde tel qu’il est – alors que notre attention consciente est un modèle sur le moment (…). Notre modèle interne du monde, notre conscience, façonne le monde de la même façon et de façon aussi puissante que le fait un ordinateur. Nous essayons de faire que le modèle ressemble au monde et que le monde ressemble au modèle (…). D’abord nous modélisons le monde puis nous tentons de remplacer le monde par le modèle. Nos esprits aussi, sont des machines de simulation qui deviennent des machines à décider (…). La bonne question à se poser alter est plutôt quelles sont les caractéristiques des modèles – et donc des machines – qui rendent le monde meilleur ?” En fait, éclaire-t-il très justement, nous produisons tout le temps des modèles que nous éprouvons jusqu’à leur limite, jusqu’à ce qu’un autre produise un autre modèle, plus éclairant… Comme si par nature, dans ces modèles, notre compréhension du monde était toujours imparfaite.

Leviers pour une écologie des technologies

Pour y parvenir, Bridle nous invite donc à construire nos machines autrement, selon d’autres principes et pour d’autres objectifs. Bridle plaide pour des machines non-binaires, décentralisées et sans-savoirs (unknowing). Non-binaires, c’est-à-dire qui ne puissent jamais être capables de couper le monde en deux catégories, qui ne produisent jamais de simplifications trop excessives pour mieux nous aider à penser la complexité. Décentralisées, c’est-à-dire qui ne puissent être centralisées, et donc être toujours scrutées et critiquées, comme l’open source, c’est-à-dire capables de changer la topographie même des relations de pouvoir. Enfin, sans-savoirs signifie reconnaître les limitations de ce que nous pouvons connaître et le traiter avec respect plutôt que de chercher à l’ignorer ou l’effacer, c’est-à-dire produire des machines capables de se réviser et de se réécrire depuis leurs propres erreurs ou capables de gérer des formes d’incertitudes, à l’image du Roachbot du designer Garnet Hertz, où un cafard contrôle un petit robot mobile (entraîné à le faire, mais pas dominé pour le faire). 

Pour Bridle, ces nouvelles machineries auxquelles il aspire visent à démanteler les formes extractivistes et de domination de nos machinations actuelles : de créer des machines qui ne visent pas à prendre le dessus sur d’autres, de favoriser des formes coopératives, de libération et d’empuissantement mutuelles. Mettre fin à nos tentatives à dominer le monde, comme nous l’avons fait avec nos machines, en brisant le monde en composants que nous avons rassemblés dans des machines pour assouvir cette domination. En nous demandant comment tout fonctionne, nous tentons de subordonner ce tout à nos seules fins et nous avons utilisé la connaissance pour oppresser et supprimer l’agentivité des autres, de tous les autres… sans voir qu’à terme, c’est notre propre autonomie que nous rendons impossible. 

James Bridle mobilise encore d’autres leviers pour cette nouvelle écologie des technologies : l’aléatoire, la solidarité et l’interconnexion. 

Il y a une chose que nos machines savent très mal faire, c’est de produire de l’aléatoire. C’est pourtant ce que nous savons très bien faire, à l’image du klérotèrion, cette machine à tirage au sort de la démocratie athénienne, qui nous rappelle que l’aléatoire, le tirage au sort, sont à la racine même de l’égalité radicale. Incapables de produire de l’aléatoire, nos machines sont donc incapables d’être de réels agents d’égalité. Pour nos ordinateurs, l’aléatoire est généré par des programmes qui le simulent. Bridle rappelle longuement l’histoire de ces simulations. En fait, les ordinateurs ne sont pas capables de produire de l’aléatoire sans aide extérieure. Pour y parvenir, on les connecte à diverses sources d’incertitudes, comme la mesure des fluctuations de l’atmosphère. Pour Bridle, l’importance de l’aléatoire a toujours été sous-évaluée. Darwin lui-même a surévalué le rôle de la sélection naturelle alors que sans production de modifications aléatoires des gènes, cette sélection n’aurait pas lieu. Dans la nature, les mutations sont la règle plus que l’exception. L’essentiel de nos outils technologiques visent pourtant à réduire voire à nier l’aléatoire. Ils cherchent bien plus à réduire le hasard qu’à l’étendre. Nos outils, du GPS aux systèmes de prévision météo visent avant tout à limiter le hasard et l’incertitude. Pour Bridle, l’aléatoire et le hasard sont de bons leviers pour réintégrer l’incalculable, tout comme le tirage au sort en politique permet d’élargir les points de vues et les expériences pour produire de meilleures réponses à la complexité. 

L’aléatoire n’est pas la seule piste que nous devrions utiliser. La solidarité est également un levier. D’abord parce qu’elle est une activité politique première : à l’image de l’entraide qu’évoquait Kropotkine, elle est un lien entre la coopération et la réciprocité. La solidarité et la sociabilité sont parmi les plus forts moteurs de nos actions et nous montrent que nous partageons un monde commun. La cohésion sociale montre combien elle est critique pour assurer la survie collective. En ce sens, elle est une forme de politique en pratique que pratiquent même les animaux (là, Bridle explique et pointe vers des études passionnantes sur comment les abeilles, les pigeons ou les bisons prennent des décisions en commun !). La solidarité avec le vivant, sa défense et la reconnaissance de ses droits, sont autant de moyens de renforcer nos liens avec le monde, de l’inclure plus que de le dominer. Même chose pour les machines. “La bonne action ne dépend pas tant de la pré-existence de la bonne connaissance – une carte des rues ou une hiérarchies des vertues ) que de prévenance et d’attention”, explique-t-il en parlant des voitures autonomes. C’est le même problème qu’on trouve dans le dilemme du Trolley, rappelle-t-il. En nous focalisant sur le résultat, le problème ignore les décisions qui y mènent, c’est-à-dire la culture qui nous y conduit. Il nous rappelle que nous ne pouvons pas contrôler toutes les conséquences, mais qu’on peut travailler à changer notre culture. Pour le dire autrement : les processus technologiques comme l’intelligence artificielle ne construiront pas un monde meilleur par eux-mêmes. Ce à quoi ils doivent nous aider, c’est à mettre à nu le fonctionnement moral d’un monde plus qu’humain auquel nous aspirons. L’attention sur les dilemmes éthiques cache toujours des problèmes plus larges : plus politiques que ce à quoi ils sont réduits. Mettre la solidarité au cœur de notre relation avec la technologie permet là encore de modifier nos attitudes, et notamment de combattre l’opacité et la centralisation qui sont au centre de leurs développements actuels. C’est la raison d’être d’une écologie des technologies. Pour y parvenir, nous devons élargir notre regard, nous invite à nouveau Bridle, comme si c’était là le mantra principal de l’artiste. Il termine son livre en nous racontant comment s’est développé un internet des animaux, qui n’est pas un internet pour les animaux, mais comment les technologies ont été adaptées pour élargir notre compréhension des animaux. Il évoque l’histoire de la surveillance radio des animaux sauvages, comme les loups, qui ont changé notre compréhension de ce que nous pensions être leur territoire et de leurs interconnexions avec d’autres communautés de leurs semblables. Des découvertes qui ont changé notre approche de la préservation animale, à l’image du programme Y2Y d’extension du parc de Yellowstone, né d’une coopération entre loups, chercheurs et satellites. L’attention à la vie plus qu’humaine exige que nous pensions au-delà de nos sens et sensibilités, pour tenter d’imaginer l’umwelt des autres êtres vivants. Pour cela, nous devons travailler de concert. L’internet plus qu’humain doit nous mener à co-créer le futur au-delà de nous-mêmes. Nous devons écouter le monde plutôt que le disséquer. Nous ne saurons pas tout pour autant. Les animaux et le monde que nous devons mieux écouter ont également un droit à être laissé tranquille, comme nous nous attribuons à nous même le droit à l’oubli. Pour Bridle, l’ennemi n’est pas la technologie, mais les inégalités et la centralisation de pouvoir et de connaissance qu’elle produit. “Il y a d’autres moyens pour faire de la technologie, comme il y a d’autres moyens pour faire de l’intelligence et de la politique. La technologie, après tout, est seulement ce que nous pouvons apprendre à faire”. 

On pourrait presque conclure ici, l’étonnant livre de James Bridle. Pourtant, dans sa conclusion, Bridle nous retourne à nouveau le cerveau en évoquant les fermes à métal. Les fermes à métal consistent à cultiver certaines variétés de plantes (les plantes hyperaccumulatrices) capables de pousser dans des sols riches en métaux, pollués, qui utilisent ces métaux pour pousser et le stockent dans leurs feuilles ou leurs racines. Non seulement elles nettoient les sols, mais ce métal peut également être récolté, avec une concentration qui est parfois plus riche que la concentration de métaux qu’on trouve dans la terre elle-même. On parle désormais d’Agromining ! Bien sûr, reconnait Bridle, cette production ne suffira jamais à combler nos besoins : elle est peu efficace et très lente. Mais pour Bridle, il y a là un exemple de plus à porter à sa thèse. La géo-ingénierie traditionnelle qui consiste à démultiplier un comportement prédateur devrait pouvoir imaginer sa propre refondation. Notre futur commun nécessite bien moins de superpuissance industrielle et bien plus de coopération avec le monde tel qu’il existe… Encore faut-il que nous nous y intéressions avant qu’il ne disparaisse. C’est ce à quoi nous invite le regard décalé de Bridle. 

Si le livre de Bridle prend parfois des accents de gourou, son livre agite des rencontres improbables, nous invite à dépasser nos idées et nos expériences… A certains, le livre de Bridle paraîtra anecdotique, déconnecté des réalités. Et il l’est en partie. Comment croire une seconde que l’avenir de l’informatique doit suivre l’exemple de robots-cafards, doit s’ouvrir à l’incertain ? Mais de l’autre, la voix qu’il fait entendre et la voie qu’il trace nous rappellent un problème de fond : le déploiement d’un modèle informatique unique est une impasse profonde. Prenons au moins l’appel de Bridle pour ce qu’il est ! Celui d’appeler à une plus grande diversité de l’informatique comme un projet nécessaire, essentiel… qui mériterait plus d’intérêt en tout cas qu’un simple déni. Aux autres, plongez dans l’étonnement, vous ne le regretterez pas !

Hubert Guillaud

A propos du livre de James Bridle, Ways of Being, Beyond Human Intelligence (Allen Lane, 2022, non traduit). 

Industries désenchantées

Comme chaque année, je me suis procuré le numéro annuel de la revue Z, et comme chaque année, c’est l’une de mes meilleures lectures de l’année !

Ce 15e numéro est consacré à l’industrialisation des forêts. Il nous rappelle combien nos forêts n’ont cessé d’être romantisées, alors qu’elles étaient surtout transformées et exploitées, colonisées, sur le modèle de la plantation. Malgré leur industrialisation, elles restent et demeurent, des lieux de vies, entre espaces de luttes et espaces clandestins, des “espaces qui protègent”. Sur la montagne limousine où se déroule l’essentiel de l’enquête qui compose ce numéro, en un siècle, la surface de la forêt va être multipliée par dix, pas tant par son abandon, mais bien au contraire par sa surexploitation. Pour sauvegarder les territoires, on les a vendu à l’industrie. La montagne est devenue une monoculture de résineux comme les autres. Cette transformation en espace industriel a apporté avec elle son lot d’impacts : pollution, appauvrissement des sols, diminution de la capacité des forêts à faire face aux parasites comme aux modifications climatiques. Cette surexploitation a eu les mêmes conséquences que toute autre agriculture intensive (engrais, pesticides, standardisation…) et a été (et est encore) générée par une politique qui l’encourage à coups d’aides et d’exonérations fiscales qui favorisent partout la concentration et la financiarisation du secteur (les dispositifs d’aides s’adressent exclusivement aux plus grosses entreprises, celles dont le volume de coupe est très élevé, 5% des scieries concentrent 50% du sciage ; elle va également vers de nouveaux procédés techniques, qui ne sont pourtant pas au point techniquement, comme les pellets torréfiés, qui consistent à fabriquer du charbon à partir de bois fraichement coupé). Face au coût des abatteuses, les petits travailleurs du bois sont de plus en plus contraints de fermer. Les catastrophes dont les forêts sont victimes (feux, tempêtes) ayant toujours pour conséquence de renforcer l’industrialisation et la machination plutôt que le contraire au détriment d’une sylviculture douce ou même d’un résinement adapté (à l’image de l’eucalyptus qu’on a envoyé en Algérie, alors que cet arbre nécessite énormément d’eau). Dans les forêts, les cultures vivrières ont toujours été particulièrement réprimées, de la haine de la châtaigne à celle des champignons en passant par la haine des écolos – bien plus persécutés que les industriels qui pratiquent des coupes illégales -, l’histoire de la forêt est celle d’une longue expropriation des Communs, des droits d’usages au profit de la propriété privée et d’un contrôle toujours renforcé. Un excellent article écorne le greenwashing qui invite particuliers comme entreprises à planter des arbres pour sauver la planète, rappelant combien la compensation carbone est illusoire, d’autant que là encore, on parle à nouveau de monoculture pour l’exploitation, sans attention pour les populations locales concernées. Un autre excellent article égratigne la ritournelle de la cogestion avec les populations locales (ce “dominer moins pour dominer mieux”), où “gouverner de façon participative s’affirme ainsi comme une technique plus perfectionnée d’enrôlement des populations et d’incitation à se conformer aux modes de fonctionnement imposés”, puisque le “contrôle social est bien plus économe et efficace que le contrôle administratif”. L’injonction à la gouvernance permet d’atténuer les contestations, diffusant une “mentalité gestionnaire”, exigeants des habitants qu’ils soient responsables et raisonnables, sans que cette participation ne redistribue beaucoup la manne, tout en faisant croire aux habitants qu’ils peuvent reprendre la main. 

Couverture du dernier numéro de la revue Z.

Comme toujours dans Z, cette description de l’emprise industrielle est contre-balancée par le récits des luttes qui ont tenté de s’y opposer, des habitants qui tentent d’y vivre, de ceux qui y ont été déportés, isolés, de ceux qui y travaillent, dans une mécanisation et une intensification sans fin, qui n’est pas plus facile pour les corps d’aujourd’hui que pour ceux d’hier. La mécanisation n’a pas fait disparaître la dangerosité, y rappelle-t-on : un salarié sur cinq a un accident dans l’année. Elle a surtout isolé les bûcherons, cassé les solidarités. On y lit également le récit des glaneurs, à l’image de ceux qu’on trouvait dans le merveilleux livre d’Ana Tsing, même si la monoculture tend à faire disparaître les cueilleurs de champignons. On y lit également ce que sont les actes de résistance, de sabotage, d’Ecodéfense, de contre-violence… pour tenter de “saboter la machine qui sabote le monde”. On y voit combien les Communs forestiers n’ont cessé d’être criminalisés, au détriments des savoirs sensibles et pratiques qui permettaient surtout à la forêt de se régénérer. La forêt reste un lieu de lutte pour y défendre un accès pour tous. 

On ne préservera pas les forêts sans chercher à créer une autre filière que la filière industrielle, rappellent des militants de Faîte et Racines, qui invitent à renouer avec des pratiques artisanale. Renouer avec des “pratiques de la forêt, plutôt que des connaissances théoriques”, comme le dit si justement Camille, une des étonnante habitante de la forêt que nous fait rencontrer l’incroyable équipe de Z.

Ce numéro de Z illustre très concrètement comment se déploie l’industrialisation. Celle de la filière bois est finalement pareille à toutes les autres. Ce monde enrésiné, fait écho à bien d’autres. Il nous rappelle que les techniques de l’industrialisation sont partout les mêmes. Accélération lors des chocs et scandales, aides aux plus gros acteurs, abandon de ceux qui ne peuvent pas se conformer à la machination, surveillance et répression des opposants… Ces forêts désanchantées ressemblent à tous les autres secteurs qui s’industrialisent, de l’Ecole à l’hôpital. Les mêmes techniques produisent les mêmes effets, au détriment d’un monde commun. Ellul définissait le système comme un ensemble de mécanismes qui répondent à la recherche de l’efficacité en toutes choses, pour elle-même. Pour Z, un système, c’est une machine qui relie les oppressions les unes aux autres (extractivisme, autoritarisme, exploitation sociale, raciale et de genre, inconséquence environnementale et sécuritaire…). C’est une définition tout aussi pertinente !

Hubert Guillaud

A propos de la revue Z, n°15, “Montagne Limousine, forêts désenchantées”, édition de la dernière lettre, avril 2022, 192 pages, 15 euros. La revue est également disponible sur Cairn

Pour rappel, retrouvez sur FB mes critiques du n°12 en 2018, sur l’extractivisme en Guyanne, du n°13 en 2020 sur Lubrizol – j’en avais également tiré un article pour InternetActu, “Catastrophes technologiques et risques industriels : gouverner l’ingouvernable ?” -, du n°14 en 2021 sur l’Ecole…

Homo Confort : le confort en guise de progrès

“La commodité est la force la plus puissante qui façonne nos vies et nos économies”, disait il y a quelques années Tim Wu dans une tribune pour le New York Times (dont je vous avais parlé sur InternetActu.net). C’est un peu le propos de l’anthropologue Stefano Boni dans Homo Confort qui décrit en profondeur ce que le confort de notre monde hypertechnologique produit, et surtout ce qu’il détruit. Dans cet essai plombant, Boni oppose notre monde hypertechnologique d’aujourd’hui, à un idéal hypotechnologique, c’est-à-dire un monde où la technologie ne coupe pas l’homme de son environnement, de l’effort qu’il doit produire pour y accéder. 

Couverture du livre Homo Confort.

Le confort nous assujettit de notre plein gré. C’est par la dimension expérientielle de notre bien être que le capitalisme et la technologie se diffusent, soutient très pertinemment Stefano Boni. La démocratisation du bien-être nous a protégé de la nature tout en nous permettant de profondément la remodeler. Le confort industrialisé s’est répandu partout. La commodité a été avant tout un succès politique. “Le confort est le programme (politique le plus) consensuel”. Il est la clé pour comprendre notre adhésion massive au techno-productivisme. Il est la clé pour comprendre finalement combien la critique technologique est restée marginale : personne ne souhaite être libéré du confort que la technologie a produit. 

“Le confort est le programme (politique le plus) consensuel”

Boni livre plusieurs chapitres sur les effets du confort sur nous et sur la société, sur la façon dont nous sommes coupés de nos milieux, dont nos sens se réduisent à force d’être libérés de l’effort. Le confort nous conduit à réduire notre participation au monde, explique-t-il. Ce catalogue, assez sombre, qui peut paraître parfois réactionnaire, déstabilise pourtant parce que souvent, il touche juste, soulignant combien en l’absence de notre implication corporelle, nous perdons une connaissance du monde. Nous privilégions partout une connaissance abstraite sur les interactions sensorielles directes. Nous vivons dans des mondes isolés et aseptisés, coupés de leurs environnements. Nous adaptons le monde aux processus industriels et technologiques qui sont les nôtres. Et nous nous y adoptons en retour, comme si rien n’était plus précieux que de nous glisser dans nos techno-cocons, dans nos capsules de survie qui détruisent le monde plus qu’elles nous en protègent. “La sauvegarde de notre mode de vie empêche tout renoncement à la technologie”. Nos savoir-faire artisanaux ont été perdus, muséifiés. “Le confort moderne s’est affirmé sans laisser de place à aucune hybridation et sans faire aucun compromis”

Il développe d’ailleurs une réflexion plutôt intéressante sur notre rapport au bien être (très lié au “bien avoir”), cette discipline de soi qui s’impose socialement pour compenser notre inconfort perdu, à l’image du sport, où l’activité physique est réduite à sa part récréative, thérapeutique, hygiéniste… comme un soin palliatif de notre humanité perdue. Une forme de “biomoralité” s’impose à tous : un impératif moral à l’autodiscipline pour compenser notre manque d’effort que le confort produit. “Tant que l’on appréhendera le bien-être comme le résultat d’un effort individuel pour s’approcher d’un idéal de perfection défini par la société, et non comme le fruit d’un effort collectif pour concevoir une société qui favorise l’épanouissement des qualités de chacun, celui-ci sera immanquablement distribué de façon inégalitaire et restera inaccessible à bon nombre d’entre nous. Un tel souci de soi occulte les causes structurelles du mal-être et empêche d’identifier les enjeux qui participent d’un projet de changement commun. L’attention de chacun se concentre sur des choix existentiels, plutôt que sur les pouvoirs qui façonnent le monde. Plus on néglige l’analyse des maux de la société, plus on inhibe toute velléité de transformation politique en la remplaçant par des préoccupations morales et esthétisantes subjectives”. Plus la machine est LE programme et moins nous sommes capables de nous défaire de son subjuguant pouvoir. A mesure que le confort croît, nous nous éloignons et nous répugnons à ce qui n’en relève pas. Nous avons perdu les callosités qui permettaient de nous confronter à l’inconfort. “Le confort nous fait perdre de multiples compétences et savoirs incarnés, tout en produisant des corps inaptes à manipuler des matériaux dans leur état naturel”. Cette rupture entre Homo confort et le monde organique altère des processus cognitifs fondamentaux et explique notre perte de savoirs-faires. Nous perdons pied avec les savoirs incarnés au profit d’un monde de connaissances abstraites. “L’hypertechnologie est le résultat d’un processus continuel de destruction de l’hypotechnologie”, explique-t-il, en employant même le terme “technocide”, pour évoquer la mise à mort de nos outils et savoir-faire. La technologie détruit la technique. Les hommes ont été séparés de leurs outils. Pour Boni, cela nous conduit à une fragilité extrême, où les habiletés deviennent le savoir-faire de rares experts, parfois si outillés qu’ils ne savent plus faire sans leurs outillages hypertechnologiques. Pour Boni, le problème c’est que cette coupure au monde est en train de le détruire. Et que face au risque de sa destruction, nous serons plus désarmés que jamais, puisqu’incapables de réactiver nos savoirs perdus et incapables de reprendre du pouvoir avec des outils hypertechnologiques qui n’ont cessé de nous reléguer. Pour Boni, nous ne changerons pas la structure de la société sans démanteler son ossature technologique. Boni prône une réappropriation du pouvoir technique par la société, mais cette solution ne promet ni confort, ni une société conviviale que les gens n’imaginent plus tant nous nous en sommes éloignés. 

Lire Boni est assez éprouvant et déprimant. Du haut d’un travail théorique plutôt sérieux, Boni donne corps à la vieille opposition entre technique et technologie, entre artisanat et industrie. Pourtant, je ne suis pas sûr que ce discours puisse porter, pas plus qu’il n’a porté hier, autre que marginalement. La promesse du confort, qui semble ce qui reste du vieux rêve du progrès, ne semble pouvoir être défaite que par l’effondrement qui s’annonce. L’hypotechnologie demeure une promesse d’un retour à la bougie. C’est peut-être ce à quoi nous serons contraints, mais l’aporie du confort nous montre qu’il n’est pas un horizon qu’on peut éloigner de nous si facilement. Certainement parce que l’individualisme de nos sociétés contemporaines rend l’inconfort encore moins désirable qu’il n’a été dans les sociétés familiales d’antan. Le confort n’est pas un horizon. L’inconfort non plus.  

Hubert Guillaud

A propos du livre de Stefano Boni, Homo Confort : le prix à payer d’une vie sans efforts ni contraintes, L’échappée, 2022, 256 p. 19 euros.