Une Silicon Valley, plus de droite que de gauche

“Au-delà de l’idéologie de la Silicon Valley” : Tèque n°4.

En devenant enfin thématique, le 4e numéro de Tèque réussit assurément sa mue. Loup Cellard et Guillaume Heuguet y livrent une intéressante critique de l’idéologie californienne (portée notamment dans le livre éponyme de Richard Barbrook et Andy Cameron, mais également par Fred Turner dans Aux sources de l’utopie numérique). Ils rappellent fort justement que le pouvoir économique de la Silicon Valley précède de loin le moment hippie et que Barbrook et Cameron sous-estiment particulièrement le rôle de l’industrie technologique et des fonds d’investissement qui lui sont bien antérieurs. Le positionnement technologique de la Silicon Valley a d’abord été porté et est encore porté par des notables, des personnalités autoritaires, des investisseurs qui ne partagent en rien les idéaux communautaires. Les cadres de la Valley ont toujours bien plus tenus de bourgeois réactionnaires que de socialistes libertaires. Le darwinisme et l’eugénisme, c’est-à-dire le fond très réactionnaire des industriels de la Valley, n’est pas que le fait d’un Musk ou d’un Bezos, mais se retrouvent en continue chez tous ceux qui ont fait la Silicon Valley depuis le 19e siècle (comme le montrent d’ailleurs Timnit Gebru et Emile Torres dans leur dernier article pour First Monday sur l’idéologie de l’IA). Les élites californiennes ont toujours porté peu d’attention à l’égard du prolétariat qu’ils ont toujours largement exploité.

Dans ce numéro, on découvre également une belle contribution de Fred Turner qui critique la notion de prototypage, qui rappelle combien elle est enracinée dans la pratique ingénieure comme dans la théologie protestante, et combien ceux-ci permettent de produire des récits permettant de fusionner des orientations commerciales et politiques. Par le prototype, les ingénieurs deviennent des ministres du culte ingénieurial, capables de proposer des mondes sociaux idéaux, à leur propre gloire. 

Charlie Tyson dresse, lui, un passionnant portrait de Peter Thiel, symbole réactionnaire de la Silicon Valley, qui fait se rejoindre ses stratégies d’investissement et ses combats idéologiques, pour imposer au monde les uns comme les autres. 

Le sociologue de la finance, Fabien Foureault, lui, explique dans un excellent papier combien la technologie a permis de construire des machines financières pour dépasser la stagnation capitaliste, notamment en permettant de développer le capital-risque qui n’a cessé de se construire comme s’il était la seule réponse aux crises du capitalisme contemporain. Pourtant, le capital risque a intrinsèquement un caractère dysfonctionnel. Il favorise les emballements et effondrements, peine à inscrire une utilité sociale, et surtout, ses performances financières restent extrêmement médiocres selon les études longitudinales. “L’économie numérique, financée par le capital-risque, a été conçue par ces élites comme une réponse au manque de dynamisme du capitalisme tardif. Or, on constate que cette activité se développe en même temps que les tendances à la stagnation et qu’elle n’arrive pas à les contrer.” Sa contribution à la croissance semble moins forte que le crédit bancaire et le crédit public ! “Le rendement de la financiarisation et de l’innovation est de plus en plus faible : toujours plus d’argent est injecté dans le système financier pour générer une croissance en déclin sur le long-terme”

On y trouve également un extrait du livre de Ruha Benjamin (Race after technology, dont j’avais longuement parlé), qui nous rappelle que le design tient surtout d’un projet colonisateur, qui ne parvient pas à accompagner l’émancipation.

Un autre extrait de livre, celui de Orit Halpern et Robert Mitchell, The Smartness Mandate, MIT Press, 2023), vient discuter des limites de l’injonction à créer un monde parfaitement optimisé, qui vient renouveler la logique de la promesse, sans ne plus proposer aucun progrès. Ils rappellent que les machines et les algorithmes sont devenus les principes d’une gouvernance rationnelle qui cherche toujours à s’adapter aux transformations. Ils rappellent que l’optimisation ingénieuriale signifiait obtenir “la meilleure relation entre les performances minimales et maximales au sein d’un système”, c’est-à-dire une mesure relative au système étant donné ses buts et contraintes, offrant le plus de bénéfices. Mais depuis, cette optimisation pour elle-même a surtout montré ses limites et ses échecs. Elle a produit des solutions pour certains mais pas pour tous. Les deux auteurs soulignent que cette optimisation repose sur la logique de dérivation, propres aux produits dérivés financiers, c’est-à-dire, à produire des dérivés de données pour automatiser, en prenant par exemple en compte des signaux qui ne devraient pas être pris en compte pour construire des systèmes, en ajoutant ainsi aux systèmes d’information des voyageurs, des dérivés qui ne reposent pas seulement sur l’information dont on dispose sur ceux-ci pour mesurer le risque, mais sur d’autres facteurs comme le temps séparant l’achat d’un billet du départ, le fait qu’il soit réglé en espèces, etc. Les dérivés des systèmes d’information permettent “de se prémunir contre les risques sans se retrouver légalement responsables des instruments instables” produits, comme c’est le cas avec les produits dérivés financiers. 

Enfin, le recueil se termine par un inédit de Dave Karpf, sur le longtermisme. Dont je ne retiendrais qu’une phrase pour illustrer les limites des développements technologiques actuels : “Nous sommes en train de brûler la forêt tropicale pour que les ordinateurs puissent faire des dessins animés à notre place”

Ce nouveau numéro de Tèque n’a pas qu’une couverture qui passe du blanc au rouge ! Je vous le recommande chaudement !

Hubert Guillaud

A propos de Au-delà de l’idéologie de la Silicon Valley, Tèque 4, 160 pages, 16 euros. 

Je vous avais déjà parlé de Tèque : du premier numéro, du second et du troisième.

L’aporie de la société ordinale 

L’essai des sociologues Marion Fourcade et Kieran Healy, The ordinal society (Harvard University Press, 2024) livre une réflexion assez générale sur les paradoxes de la numérisation de nos sociétés. C’est un peu dommage. Le livre manque souvent d’exemples, de concepts et de terrains. Reste que l’idée générale d’une société désormais ordonnée par et pour la mesure est une évidence que l’on partage largement. Fourcade et Healy montrent que la généralisation des classements conduit à une contradiction insoluble qui invisibilise les forces sociales qui traversent chacun. Les systèmes de classements nous promettent une société où nous aurions tous les mêmes chances à l’aune de nos seuls mérites. Rien n’est moins vrai. A invisibiliser le social par l’individualisation, le risque est qu’il nous éclate à la figure. 

Couverture du livre The ordinal society.

Société ordinale, société ordonnée
Nous sommes confrontés à un monde paradoxal expliquent les deux sociologues : l’informatisation promeut à la fois une démocratisation et une hiérarchisation de nos organisations sociales. La société ordinale est une société ordonnée, gouvernée en toute chose par la mesure, qui produit des effets très concrets sur la société dans une forme de stratification inédite qui bouscule la distribution des opportunités. “Une société ordinale crée de l’ordre par le classement et l’appariement automatisés”. La puissance de ses méthodes, des hiérarchies et catégories qu’elle produit semble sans limite, alors que tout le monde n’est pas bien classé par ces outils. Ce pouvoir ordinal concentre le pouvoir de la mesure dans quelques mains, mais surtout il distille l’idée que le classement et l’appariement sont la solution à tous nos problèmes. Nous sommes passés d’un protocole de partage à un système d’organisation, d’évaluation et de contrôle remarquablement pratique qui est devenu la structure même de notre société. 

Cette grande commodité qu’apporte le numérique est à la source de notre acceptabilité de la grande transformation sociale qu’a été la numérisation. Le problème c’est qu’elle produit un système sans échappatoire. C’est là, la “tragédie politique de l’interactivité”, notre participation enthousiaste se termine par notre propre capture, dans une relation fondamentalement asymétrique, où chaque utilisateur est transformé en profit.

L’accumulation de données est devenue l’impératif, un schéma ordinal s’est mis en place pour capturer et traiter les données. Le numérique a permis à la fois de déployer une précision, un détail, une granularité des données sans précédent ainsi qu’un volume et une massification sans précédent. Tous les processus deviennent communs, comme le disait très justement la sociologue Marie-Anne Dujarier en évoquant le paradoxe de la standardisation des dispositifs par le numérique. Toutes les activités se structurent autour de mêmes activités formelles qui consistent pour l’essentiel à remplir des tableurs et produire des calculs. Les activités deviennent partout mimétiques, normalisées, standardisées. Faire de l’éducation ou du marketing revient désormais à utiliser les mêmes procédures. “La logique bureaucratique des organisations a fusionné avec la logique de calcul des machines”. Les machines sont programmées pour utiliser les données et identifier des modèles, qui sont souvent opaques voire peu interprétables à mesure que se démultiplient les données et les calculs. Les modèles statistiques étaient déjà complexes et opaques, ils le sont plus encore avec l’IA. “La combinaison de grands volumes de données, de haut niveaux de précisions et l’absence d’interprétabilité a plusieurs conséquences organisationnelles” : elles encouragent une forme d’orientation magique au profit des résultats et une déférence à leurs égards. Au risque que les calculs se rapprochent bien plus de l’alchimie ou de l’absurde qu’autre chose, les calculs produisent des résultats, comme on le montrait avec la reconnaissance faciale par exemple. Le problème, c’est que cela ne fonctionne pas toujours. Face à la complexité des calculs cependant, le risque est que nous soyons laissés avec toujours “moins de place à la compréhension et moins de moyens d’intervention”

Fourcade et Healy avancent que si nos machines classent c’est d’abord parce que nous mêmes le faisons. Pourtant, la différence avec nos classements, c’est que ceux établis par le numérique sont actionnables, et que les classifications produites à la volée, elles, invisibilisent les interprétations qui sont faites. Les distinctions sont exprimées sous forme de scores et de classements, toujours mouvants, pour nourrir les mesures les unes des autres. Mais comme les hommes, les classifications des machines ne sont pas exemptes d’erreurs, des erreurs qui se déversent d’un classement l’autre, d’autant qu’ils s’entrecroisent les uns les autres.

Dans les défaillances des calculs au risque de produire un “lumpenscoretariat”
Au final, bien souvent, les résultats se révèlent pauvres, extrêmement biaisés quand ce n’est pas profondément problématiques. “Il n’y a pas de solution technique simple à ces problèmes sociologiques”, avancent les sociologues. Fourcade et Healy prennent un exemple frappant. Pour classer des images médicales pour identifier des cas de pneumonies, des chercheurs ont utilisé 160 000 images provenant de nombreux hôpitaux américains. Mais ce que le système d’IA a le mieux identifié, c’est d’abord la différence sociale entre les hôpitaux eux-mêmes. Les hôpitaux n’avaient pas les mêmes patients ni les mêmes qualités d’images. Dans ce cas, le classifieur a surtout appris des différences entre les hôpitaux que ce à quoi une radio de pneumonie ressemble. 

Bien souvent la spécification des modèles par ces méthodes restent pauvres, puisqu’ils doivent apprendre par eux-mêmes. “En incitant les organisations à considérer toutes les données comme utiles et en développant des outils dotés d’une capacité jusqu’ici inégalée à trouver des modèles, les ingénieurs logiciels ont créé des outils dotés de pouvoirs nouveaux et quelque peu extraterrestres.” Le risque, c’est bien sûr de transformer notre monde social en modèle, mais sur des bases particulièrement opaques et avec des performances retorses et qui le sont d’autant plus que ce que l’on doit classer est problématique. Bien souvent on utilise des données inadaptées qu’on mixe à d’autres données inadaptées pour produire un calcul qui approche ce que l’on souhaite calculer. C’est ce que répète souvent Arvind Narayanan : les systèmes ne savent pas calculer ce qui n’est pas clairement défini. Dans le domaine de l’emploi, par exemple, la productivité, la performance ou la qualité d’un candidat ne sont pas des calculs faciles à produire. Et ceux qui en proposent apportent rarement la preuve que leurs calculs fonctionnent. 

Quant à savoir si le résultat est juste ou pas, c’est bien souvent encore plus difficile puisque cela dépend de qui est classé est comment, selon quels critères… ce qui devient encore plus difficile avec des données qui s’adaptent, des catégories qui se reconfigurent sans arrêts… Nous sommes inscrits dans des matrices de caractéristiques fluctuantes qui se recombinent et évoluent sans cesse, rappellent les sociologues. Les systèmes de mesures tendent à chercher une objectivité qui est difficilement atteignable. Au prétexte de pouvoir calculer tout le monde, les systèmes produisent des scores qui fonctionnent très mal pour tous. Certains publics sont mal mesurés et mal classés. C’est ceux que Marion Fourcade appelle le “lumpenscoretariat” du capitalisme numérique. Ceux qui n’entrent pas dans les cases du formulaire, ceux dont la position est trop aberrante par rapport aux données et moyennes, ceux qui vont être maltraités par les systèmes de calcul, et qui seront d’autant plus mal traités que les scores les suivent par devers eux, se répliquent, se consolident dans d’autres index, sous la forme de cascades décisionnels de l’ordinal. 

La performativité généralisée
Fourcade et Healy passent ensuite plusieurs chapitre à nous faire comprendre comment la donnée est convertie en flux de paiements et comment les plateformes assurent leurs monopoles sur les données et renforcent leurs avantages compétitifs par le grand raffinage permanent des données, comme le pratiquent les Gafams, cherchant toujours à renforcer leur propre position, leurs propres avantages. Ils expliquent comment Amazon ou Google ont exploité leur position pour améliorer leur business. Le problème, c’est qu’elles finissent par utiliser les informations qu’elles recueillent pour ajuster leurs business au détriment de leurs clients et de leurs publics, comme le constataient Tim O’Reilly, Illan Strauss et Mariana Mazzucato. Le risque est que demain, elles l’appliquent non seulement aux prix, mais aussi aux salaires, comme le font déjà les plateformes des travailleurs du clic ou les outils de planning RH. Quand toute donnée devient performative, le risque est qu’on ajuste leur performance pour les optimiser. 

Les firmes se sont accaparées les données nécessaires pour accéder à leurs services ainsi que leur propriété. Le business model du numérique tient avant tout de la rente. Les fonctionnalités que permettent l’exploitation des données ou les nouvelles fonctionnalités sont vendues en plus de votre abonnement. Dans le monde des biens non numériques, une vente signifiait un transfert de propriété. Ce n’est plus le cas avec les biens logiciels. Vous n’êtes plus que le locataire d’un service. C’est en cela que “les flux de données deviennent des flots de revenus”. Les industries du numérique, quels que soient les produits qu’elles vendent, finissent par se ressembler jusque dans leurs processus et leurs modèles économiques. “Chaque producteur de bien se transforme en compagnie technologique, chaque compagnie technologique devient un fournisseur de service, et chaque fournisseur de service devient un flux de données transformé en actif”. Avec le numérique, se diffuse d’abord une façon de penser l’économie comme un actif financier. Les données que tous les acteurs s’échangent, rendant le marché toujours plus liquide, ajustable. “L’infrastructure toute entière d’internet peut être transformée en registre qui est aussi un casino”. Tout peut être tokenisé, vendu, transformé en actif, comme l’est le langage lui-même avec l’IA générative. 

Vers une citoyenneté ordinale ?
La classification sociale et le classement quant à eux, produisent des groupes éphémères, composés à la volée, construits puis déconstruits, qui s’ajustent aux contextes, aux frontières plus floues que tranchées, mais où tout doit être hiérarchisé. Les anciennes catégories sociales sont recomposées jusqu’à composer des groupes sans personnes et des personnes sans groupes dans une forme d’individualisation exacerbée. Dans la société pensée par les technologies de classement, l’individu semble devenir auto-souverain. Pour Fourcade et Healy, le risque est que ces évolutions nous conduisent à une citoyenneté ordinale, à une société crédentialiste, c’est-à-dire qui repose uniquement sur les preuves que cette même société produit, une forme d’hyper-méritocratie par le calcul. On ne reviendra pas ici sur toutes les limites de cette vision par le seul mérite. Les mesures du mérites sont partout, sans même parvenir à imposer une mesure objective ou équitable de celui-ci. Dans cette société ordinale, organisée par et pour que ses citoyens soient classés, le rôle de l’Etat n’est plus d’organiser les objectifs de chacun, mais de “s’assurer que le marché les servent bien”. Dans cette société ordinale, les citoyens sont évalués individuellement plutôt qu’en tant que membres de groupes sociaux, sur leurs actions individuelles. Dans une société ordinale, l’important est le classement et ce classement ne permet pas de protéger les gens qui sont mal classés : il n’y a pas de compensation pour les marginalisés et les vulnérables. Nous passons d’une gestion des citoyens par catégories sociales à des gestions individuelles comportementales. Une citoyenneté ordinale, c’est une citoyenneté très individualiste et donc très contrôlée. Et les plus contrôlés sont les moins bien classés, ceux qui relèvent du lumpenscoretariat. Le classement individuel paraît à tous moins controversé et plus équitable, alors qu’il produit une trappe des déclassés, comme l’a montré Issa Kohler-Hausmann dans son livre Misdermeanorland, une enquête sur les délits mineurs, les infractions, les écarts de conduite et leurs jugements expéditifs à l’égard des plus démunis. C’est ce que montre également le philosophe Achille Mbembe quand il évoque leur éviction.  

Dans la société ordinale, chacun semble avoir ce qu’il mérite, comme si la société n’existait pas
“En approfondissant les mesures au niveau individuel, en standardisant la prise de décision grâce à des repères comportementaux de plus en plus détaillés, la collecte de données finit par reconstituer, un petit morceau à la fois, la vérité fondamentale de la structure sociale”. Alors que le développement de la citoyenneté conduit le plus souvent au déclin des différences de genre, de race, de propriété, de religion, de caste… la citoyenneté ordinale permet de contourner les lois contre les discriminations, de réinscrire les discriminations sous le voile du mérite. Même en enlevant toutes les catégories problématiques par exemple, le score de crédit demeure classiste, validiste, raciste, masculiniste… comme le montraient les travaux d’Andreas Fuster ou de Davon Norris. L’ordinalisation de la société est trompeuse. D’abord parce qu’elle transforme la structure sociale du social en choix individuels qui n’en sont pas : le fait de ne pas avoir accès au crédit n’est pas un choix individuel ! Ensuite parce que les positions de chacun sont interprétées comme un choix moral, alors que le fait de ne pas accéder au crédit ne relève pas de son seul comportement, mais bien plus des valeurs morales de la société qui donne plus de crédits à ceux qui ont le plus de moyens. Dans la société ordinale, chacun semble avoir ce qu’il mérite, comme si la société n’existait pas. 

Or, le classement et l’appariement n’ont rien de mesures objectives. En invisibilisant le social, elles le révèlent. On ne peut pas corriger les algorithmes : un système ordinal ne peut pas être ajusté ou corrigé, avancent les deux sociologues. C’est la société elle-même qui est scorée à un niveau individuel. Les outils de classement et d’appariement sont produits pour fonctionner dans certains contextes, ils sont produits au service de certains objectifs pour certaines organisations. Beaucoup de systèmes ordinaux favorisent ceux qui produisent de la valeur pour ceux qui produisent le système. Avoir un bon score de crédit par exemple nécessite d’abord d’utiliser parfaitement le système crédit, tout comme les plateformes du digital labor favorisent ceux qui y performent, ou les médias sociaux favorisent leurs meilleurs éléments (ceux qui postent beaucoup, ceux qui payent…). La stratification ordinale trouve sa justification dans le mérite alors qu’elle n’en relève pas. Le management algorithmique reste une cage invisible ou le mérite qu’il mesure reste illisible et fluctue de manière imprévisible. Deux tiers des conducteurs de Lyft et Uber en 2023 ont été désactivés brutalement à un moment ou à un autre par l’application. Le risque est que nous soyons de plus en plus confrontés à des calculs “aliens”, étranges, improbables… auxquels nous devons nous conformer sans même savoir ce qu’ils agencent ou comment ils l’agencent. Face à des processus d’évaluation opaques et complexes, chacun peut penser que ce sont ses mérites personnels qui sont évalués quand cela reste et demeure un individu et sa position sociale. Les règles de l’ordinalité peuvent changer en permanence pour qu’il soit plus difficile d’en lire ses caractéristiques, la “précarité algorithmique”, elle, s’installe pour de plus en plus en plus d’entre nous, les déclassés des systèmes. 

Se retirer des classements ?
Dans leur conclusion les deux sociologues dénoncent “l’insupportable justesse à être classé”. Les classements et appariement sont partout. Ces outils promettent d’être inclusifs, objectifs et efficaces… Mais ce n’est pas le cas. “Ces intermédiaires algorithmiques remplacent les classifications institutionnelles plus conventionnellement solidaristes ou universalistes par une esthétique de hiérarchie justifiée. Les classements et les notes, ainsi que les correspondances associées qu’ils permettent, soutiennent l’imagination d’une société ordinale.” Nous sommes dans une double vérité. A la fois nous pensons que le classement est juste et à la fois qu’il ne peut pas l’être.

En guise de perspective, les deux sociologues montrent que certaines universités américaines ont décidé de ne plus être classées dans le classement des universités américaines. Mais tout le monde ne peut pas se retirer des classements. “À mesure que la société ordinale s’étend, la recherche d’une égalité formelle sous l’œil du marché éclipse la lutte pour l’égalité substantielle sous l’ombre de l’Etat. Les biens publics et les objectifs collectifs se dissolvent dans le bain acide de l’individualisation et de la concurrence, nous laissant de plus en plus seuls dans un monde hyperconnecté dont l’ordre social est précisément mesuré et, à sa manière factice, car incontestablement « juste ». La vie dans la société ordinale pourrait bien être parfaitement insupportable”.

Pour ceux qui bataillent déjà dans les calculs du social qui sont produits sur eux, c’est déjà le cas

Hubert Guillaud

A propos du livre de Marion Fourcade et Kieran Healy, The ordinal society, Harvard University Press, 2024, 384 pages.