
Les sociétés du profilage (Payot, 2023), le livre du philosophe des sciences, Philippe Huneman, est un livre difficile, et son manque de clarté, parfois, n’est pas aidé par son art de la digression intempestive. Bref, autant vous prévenir, il faut un certain temps pour s’y installer. Ce que le philosophe réussit pourtant, c’est de montrer la complexité de la question du calcul, en nous immergeant dans la description des différents profils qui agissent par devers nous. Ce que le philosophe rate, à mon sens, c’est de clarté sur les limites du profilage et de proposer des concepts éclairants. On peut lui faire notamment un reproche : comme Zuboff, Huneman peine à mettre en doute l’efficacité des calculs, leurs apories. Les profils veulent nous prédire, nous faire acheter… mais l’un comme l’autre oublient de souligner combien ces prédictions marchent mal. Cet infléchissement des conduites est bien souvent marginal, peu opératoire. De la police au marketing, les calculs prédictifs sont largement défaillants. Si nos outils numériques captent notre attention, je suis pour ma part plus sceptique sur leurs autres effets (nous faire acheter, nous faire changer de comportement…) qui sont pourtant le moteur de leur déploiement sans limite.
Après les sociétés disciplinaires et de contrôle, les sociétés de profilage ?
Sommes-nous passés des sociétés de disciplines aux sociétés de contrôle, et entrons-nous dans des sociétés de profilage, plus que de surveillance ? On serait très légitime à être d’accord avec cette thèse, qui se veut le cœur du livre de Huneman. Reste que cette lecture ne m’a pas convaincu, d’abord parce que le profilage est bien moins puissant que le contrôle ou la discipline, et surtout parce que nous sommes loin de consentir au profilage, contrairement à ce qu’affirmait Bernard Harcourt. La discipline, le contrôle et la surveillance peuvent être des fantasmes d’ordres puissants, mais le profilage, lui, fait plutôt fuir tout le monde. Le calcul reste fait par devers nous, bien masqué aux utilisateurs qui se débattent avec leurs effets. Bien souvent, nous ne savons rien des profils qui sont produits sur nous et surtout de leur efficacité, très discutable.
Pour Huneman, l’enjeu des technologies de collectes et de traitements n’est pas tant de surveiller que de prédire. C’est effectivement, avec le tri et le matching, l’un des moteurs, mais c’est oublier combien ces tris et prédictions sont surtout fausses. Leur efficacité est pourtant bien suffisante pour nous faire croire le contraire, qu’importe si le tri ou la prédiction se font sur des éléments abscons, sans réalité autre que celle d’un calcul approximatif, imprécis et surtout injuste. La prédiction calcule depuis ses biais et ses lacunes pour trouver des prédicteurs (de dépression ou d’achat par exemple) suffisamment efficaces pour nous le faire croire, mais qui sont surtout extrêmement contextuels et volatiles et qui produisent des “vérités” problématiques, comme quand le calcul du score de greffe finit par donner un petit point de plus à une personne en attente de greffe qui habite quelques mètres plus près d’un hôpital qu’un autre.
Nous ne sommes plus tant dans le contrôle et la surveillance normative des comportements, que dans l’âge de la prédiction, qui vise à évaluer les croyances et les préférences à la volée, non pas tant pour les domestiquer, pour les discipliner que pour les rendre productives, explique assez justement Philippe Huneman. Nous voici à l’ère des traces et données massives, qui, pour les faire parler, sont comparées les unes aux autres. Cet extractivisme sans limite nous dépossède de nos données, que nous sommes incapables, nous, de faire parler, parce qu’elles ne parlent que comparées à d’autres. La plus-value est dans le traitement et dans sa rétroaction sur nos propres profils et jusqu’à nos comportements, ce “surplus comportemental” dont parlait Zuboff. Pourtant, la fiabilité n’est pas tant le fait de la quantité de données recueillie, de leur véracité ou de leur précision, que de la prévalence des calculs, c’est-à-dire du fait qu’ils imposent avec eux leur monde. L’essentiel du profilage sert à produire de la publicité sans que l’efficacité de la publicité sur le monde ne soit jamais démontrée. Certes, les images et les termes auxquels nous sommes confrontés ont une influence, mais laquelle ? Quelle est leur force ? Leur impact ? Leur résistance ? Bien souvent, les chiffres de l’impact publicitaire, même numérique, restent extrêmement bas, ce qui devrait nous rappeler que cela ne marche massivement pas.
De même, le score de crédit n’est pas plus fiable avec plus de données. Il est plus réactif, certainement. Mais sa fiabilité ne tient pas à la quantité de données, mais à leur qualité et à leur agencement. Il n’est pas meilleur s’il évalue votre comportement depuis des données problématiques, comme le fait de mettre des patins sous vos chaises ou de prendre soin de votre voiture (qui seraient des marqueurs de personnes qui remboursent très bien leurs crédits). Au contraire, en ingérant des éléments psychologisant, le score de crédit montre surtout qu’il intègre des a priori et des biais à la neutralité du calcul qui devrait être le sien, qui ne devrait se baser que sur la capacité financière à rembourser, sans prendre en compte d’éléments fantasques. Certes, en les intégrant, il maximise peut-être pour la banque le fait d’être remboursé… mais au détriment de la justice et de l’équité. Trop souvent, on incorpore des données, toujours plus fluides, toujours plus contextuelles, toujours plus en temps réel pour produire des calculs qu’on présente comme plus précis, plus réactifs. On oublie que nombre de calculs ne devraient pas prendre en compte le temps réel. Nombre d’entre eux sont par exemple annuels plus que mensuels, ce qui permet d’apporter des perspectives aux individus (les impôts par exemple, mais c’est encore le cas de nombre d’aides sociales, comme les bourses calculées à l’année, non sans raison). En réduisant la prédiction à un calcul instantané, le risque bien sûr est de générer des droits à la volée, comme le disait très distinctement Achille Mbembe.
Certes, Huneman a raison de dénoncer “l’opacité radicale” de ces opérations calculatoires, mais la transparence et l’explicabilité ne suffiront certainement pas à rendre les calculs plus justes, s’ils ne permettent pas de limiter ce qu’ils peuvent prendre en compte et ce qu’ils ne devraient pas prendre en compte.
Le profilage repose bien plus sur les corrélations que la causalité, pointe très justement le philosophe. Ce qui nous fait sortir du schéma épistémologique classique, c’est-à-dire du schéma d’explications de nos connaissances. Huneman prend ainsi l’exemple de Slamtracker, l’outil d’analyse des joueurs de tennis lancé par IBM au début des années 2010, qui prédit les victoires en analysant la structure des points gagnés par les joueurs. Pour ces systèmes, les clés d’une victoire se déterminent aux points gagnés, aux nombre de premières balles passées, par une analyse fine, granulaire du jeu (dans le baseball, on parlait de sabermétrie, initié très concrètement au début des années 2000 par le manager de l’équipe d’Oakland, Billy Beane). Rémi Sussan nous le disait déjà il y a longtemps, ce qui manque, dans les prédictions, c’est le pourcentage d’incertitude sur celles-ci, tout comme le retour sur leurs défaillances. Dans le monde du profil, les erreurs n’en sont jamais. Elles sont incorporées aux données pour produire de nouvelles prédictions qui s’annoncent toujours plus justes qu’elles n’étaient… jusqu’à ne plus l’être du tout, à l’image de l’outil de la prédiction de la grippe qu’avait lancé Google. La causalité est devenue inutile au calcul, dit très justement Huneman – peut-être moins à la société. Désormais, nous sommes capables de prédire sans comprendre. Et les machines le font effectivement bien mieux que nous. Nous voici en train d’entrer dans une “science sans théorie”, mais également une science sans politique. Le problème, explique-t-il, c’est que si elles montrent des formes d’efficacité, ces méthodes ne sont pas infaillibles.
Troubles dans les profils
Nos profilages sont multiples. Il y a à la fois nos profils individuels, toujours changeants, et les profils des autres (“collectifs”) auxquels nous sommes comparés ou associés.“Tout profilage est un ajustage”, qui vise à nous programmer, à nous manufacturer… C’est-à-dire non seulement à nous prédire, mais à nous faire agir depuis cette prédiction. Huneman en revient alors aux théories de l’économie comportementale, qui sont assurément l’un des socles idéologiques de ceux qui pensent pouvoir programmer les autres. Il rappelle combien ces systèmes cherchent à exploiter nos biais (comme les systèmes de calcul eux-mêmes, incapables de s’extraire des biais dont ils sont tissés, mais au contraire, construits pour les rendre productifs), à privilégier nos préférences individuelles (mais sont-ce vraiment les nôtres, où celles que les systèmes décident pour nous ?) au détriment de toute perspective collective, qui ne semble être qu’un terreau comparatif. Le nudge semble ici le levier d’un libéralisme sans limite, où la “somme des interventions individuelles prend la place de l’action publique”. Demain, “il suffira de rectifier les biais des agents et d’infléchir leurs comportements pour enfin réparer le monde”, ironise-t-il, en projetant un horizon où nul ne doit agir radicalement ou différemment, c’est-à-dire où nul ne doit agir politiquement. Dans la prédiction et la correction automatisée, c’est le politique qui est neutralisé. Les biais ne sont pas tant infléchis ou corrigés, qu’amplifiés. D’ailleurs, dans le profilage, il n’y a plus de chapelle définie. Dans les algorithmes de recommandation de Spotify ou de Netflix, vous n’aimez plus la techno ou la SF, votre profil est associé à des mots clefs obscurs, qui se génèrent à mesure que le système génère des croisements entre les styles. Dans les algorithmes, nous ne sommes plus des groupes sociaux lisibles, mais des groupes étiquetés par des catégories volatiles, éphémères, contextuelles. Nous n’y sommes pas tant personnalisés que massifiés.
Huneman fait ainsi une simple mais pertinente distinction entre profils individuels et profils collectifs, ceux auxquels nous sommes comparés, associés ou dissociés. Dans nos profils, les mots sont des “prédicteurs” d’autres mots (“les mots sont des vecteurs définis par des coordonnées très simples : la fréquence avec laquelle il va être associé avec d’autres mots”). Le sens, lui, n’a que très peu d’importance par rapport à ces associations, hormis pour nous, la cible. Les profils sont associés à d’autres, formant des communautés à la volée, profondément étrangères les unes aux autres. Nous sommes caractérisés à l’instant, selon nos actions et les actions des autres. Le problème, c’est que ces données sont souvent calculées plus que déclaratives, volatiles, et qu’au final, ces systèmes croient à leurs calculs quand bien même ils sont complètement artificiels. Votre profil peut se voir attribuer un #PSG ou un #OM, sans que l’un ou l’autre ne soient vrais, ni pérennes, tout en étant, pour le système, un renforceur de croyance. Enfin, il faudrait également apprécier ce collectif créé à la volée, qu’est-ce qui détermine la création du tag #OM et pas celui de l’ASSE par exemple ? Quels volumes, quelles vélocités président aux pseudos collectifs par lesquels nous sommes catégorisés le plus souvent indûment ? Nous sommes donc constamment plongés dans des troubles dans les profils, entre normativité et subversion, sans que nous n’ayons la main sur l’un ou l’autre. “Les tags colligent les agents”, selon une grammaire sociale très simple, celle du dedans ou du dehors (ou votre profil a le tag #PSG ou il ne l’a pas), celle du pourcentage (vous êtes #PSG à 51% donc #PSG). Ces grammaires associées au profil produisent une expressivité “indifférente au vrai”. Le ralliement (l’engagement) est plus fort que la vérité. Tout est affaire d’optimalité. Nos profils sont nudgés selon une optimalité qui oublie le sens même de son calcul. Cette “indifférence au vrai” est le fondement de la post-vérité, rappelle le philosophe. Elle ne mesure que nos actions, les évalue pour leur donner un poids. Reste que Huneman oublie que ces poids sont influencés par d’innombrables autres facteurs qui correspondent peu à notre profil, par exemple, la recommandation repose aussi sur le succès qui fait qu’on va vous recommander ce qui a eu du succès ailleurs, pas seulement d’ailleurs dans des profils proches du vôtre. Netflix a beau générer des vignettes différentes pour promouvoir ses séries auprès de ses publics, au final, il promeut tout de même ses séries et les mêmes séries. Cette optimalité, cette optimisation est toujours sous influence, toujours imparfaite. Il lui suffit pourtant de nous faire croire qu’elle est suffisamment bonne pour fonctionner, il lui suffit de faire un peu mieux que l’aléatoire pour nous convaincre de sa pertinence. Et c’est cette capture qui fait un peu mieux que l’aléatoire qui est au cœur des services algorithmiques.
Si les sociétés du profilage sont des “usines à optimalité”, elles en produisent très peu, autre que leur propre renforcement. La volatilité des données et des calculs ne produisent qu’un monde instable, à la manière dont la volatilité permet désormais de gagner de l’argent dans la finance mondialisée et automatisée, ou à la manière dont l’IA produit des textes. Les élèves vont désormais produire leurs copies avec des machines qui seront corrigées par d’autres machines qui leur attribueront des notes. Nous voici en train d’entrer dans un monde “où les machines répondent aux machines”. La commodité l’emporte partout puisque le sens n’en a plus. Les machines produisent leurs propres mèmes. Prises dans leurs propres boucles récursives, “les prédictions que génèrent les profils ne peuvent plus être réfutées ni corroborées, puisqu’elles génèrent des comportements qui s’ajustent eux-mêmes à ces prédictions”. Un peu comme si au final, le profil était construit pour qu’il se réalise.
Plus que façonner le réel, nous façonnons ici l’irréel. A défaut de prouver le contraire, le profilage publicitaire comme le nudge fonctionnent, qu’importe si en fait, pour l’un comme pour l’autre cela reste assez marginal. Les données font illusion. Les mouches dans les urinoirs de l’aéroport d’Amsterdam (ce symbole du nudge) permettaient de réduire le nettoyage de 80% nous a-t-on longtemps asséné, avant de concéder que cette “amélioration” n’était, au mieux, que de 8%… Pas étonnant que les mouches aient été enlevées. Même chose pour le profilage. Il fonctionne a défaut d’avoir montré le contraire. Vous allez pouvoir cibler tous ceux qui aiment le PSG, même si c’est seulement à 51% ou même si cette préférence est calculée avec la plus grande approximation. Dans la masse des profils a qui est attribué le tag, ca marchera toujours mieux que l’aléatoire…
Des biais des profils à leur nécessaire opacité pour couvrir leurs défaillances
Le biais cognitif du nudge fait écho au biais algorithmique du calcul. Ils s’auto-renforcent l’un comme l’autre. “Le résultat d’un processus accentue ses conditions, accélérant le processus, ce qui intensifie encore les conditions”. On se croirait dans la boucle du changement climatique. Il fait chaud, on monte la clim qui émet plus de CO2, donc il fait encore plus chaud et donc on monte la clim… Huneman a raison d’ailleurs de souligner que “les loopings par lesquels le profilage se boucle sur le réel, excluent toute transparence”, d’abord parce que nous ne serions les lire, comme quand on consulte l’interminable liste de mots clés publicitaires que Facebook, Instagram ou d’autres produisent sur chacun de nos profils (dans une liste qui est sans cesse mise à jour quelque soit les corrections qu’on lui apporte…), mais surtout parce nous verrions alors l’inanité de ces boucles d’auto-renforcement.
La logique du calcul reste une logique de pouvoir. La société du profilage a besoin de l’opacité pour faire croire en sa puissance. Faire croire en sa prétention à la connaissance est sa force et sa faiblesse, à l’image de cette IA qui serait capable de déterminer à partir d’une photo l’orientation sexuelle d’une personne. On peut faire produire n’importe quelle catégorisation à l’IA. Qu’importe si ces mensonges construisent des réalités, qui sont au-delà ou en dehors de toute vérité. Pour Huneman, l’efficience, c’est-à-dire le fait d’avoir un effet, a remplacé la vérité. Dommage qu’il défende le fait que cette efficience serait neutre au regard de la norme de vérité, que la prédiction ne serait ni vraie ni fausse (il parle de “vérineutralité”). C’est là la voie ouverte au plus grand relativisme et à une grande acceptation des effets de ces systèmes. C’est oublier qu’au-delà du marketing, ces systèmes de profilage ont des effets forts sur la réalité. Quand un algorithme nous dira que nous ne sommes pas assez productifs et nous licenciera parce qu’on a envoyé deux fois moins de mails que nos collègues, on comprendra que ce sont les critères d’appréciation de la productivité qu’il nous faut discuter. La position relativiste semble accepter que tout calcul équivaut à un autre quelque soit la manière dont il est fait, sans mettre en jeu la question de la justice du calcul. Or, les faux calculs sont des calculs faux. Tout l’enjeu est bien de limiter le croisement des données, les possibilités de calculs et non pas de les accepter pour la simple raison qu’ils sont possibles.
En 2018, Max Read, s’interrogeait : Combien d’internet est-il du fake ? Il parlait “d’inversion” pour parler du moment où “la perception du réel devient indiscernable de celle du semblant”, à l’image du moment où le trafic humain est subverti par les robots. Nous sommes entrés dans une prolifération du simulacre. “Nous vivons la miscibilité du réel”, appuie Huneman. La causalité et l’objectivité sont retirées du réel, dit-il très justement. Un peu comme si dans un monde multicloisonné par les profilages, aucun autre point de vue n’était désormais possible que celui que façonnent pour nous les machines, qui est toujours le nôtre et jamais pleinement nôtre. Nous ne pouvons consentir à rien, puisque nul ne sait ce que la combinaison des données va produire. L’ambiguïté au consentement est d’autant plus forte que l’opacité est nécessairement massive puisque nous ne connaissons pas les limites temporelles des données qui sont collectées par devers nous, pas plus que nous n’en connaissons les destinataires (ni pour quoi faire !), pas plus que les contenus (de quelles données parle-t-on exactement), ni les limites juridiques de ces consentements (notamment via les cessions à des tiers…). L’intrication des données rend certainement leur traçabilité inatteignable, estime Huneman. La seule issue, conclut le philosophe, consiste à résister à toute plateformisation. “La société du profilage est aussi une manière pour le capitalisme néolibéral de se survivre par-delà la crise environnementale qu’il a induite – ou du moins de l’espérer, via le songe de la Substitution” (la substitution de nos interactions réelles par le numérique). “Le solutionnisme technologique s’avère impuissant”, tout en étant tout puissant aujourd’hui. Le profilage ne propose qu’une solution individualisante, qui ne promet ni de changer de société, ni nos modes de consommation et de production, mais seulement de les optimiser sans fin. Le nudge se substitue à la politique. La gestion et le management individuel se substituent à la décision politique. Ce que le profilage de chacun menace c’est le collectif, et ce d’autant plus quand l’efficacité prime désormais sur la vérité. C’est la société et la politique qui sont mises en danger. Le problème, c’est que l’optimisation des flux ne nous promet rien d’autre qu’à optimiser la concentration des richesses, termine Philippe Huneman. Le profilage est un pouvoir sur lequel nous n’avons pas la main et sur lequel nous n’avons pas vraiment prise. “La norme des sociétés de disciplines traçait un dedans et un dehors ; le score des sociétés du profilage définit à chaque instant les positions mouvantes de tous dans un champ que traversent les multiples flux”. Les espaces privés prospèrent au détriment de la chose publique. Tinder sait qui je désire avant moi ! Face à cette dissolution, la résistance passe par le retrait et par les communs, c’est-à-dire soit par s’extraire des flux, soit en remettant leur sens collectif en premier. Et Huneman d’inviter à traiter ces algorithmes comme des biens communs, c’est-à-dire à les collectiviser pour sortir de l’optimisation. C’est un peu la conclusion qu’on lit dans tous les livres sur le numérique depuis quelques années.
*
A nouveau, même si nous sommes d’accord sur l’essentiel, il me semble que la critique qu’articule Philippe Huneman et dont j’ai tenté de rendre compte, est assez convenue. A mon sens, elle n’insiste pas assez sur l’aporie du profilage. S’il montre bien la vacuité des boucles que les systèmes produisent, il peine à pointer leurs déficiences fondamentales, leurs incapacité à produire ce qu’on leur demande, et d’abord de produire des identités (et c’est bien ce qu’on demande à un profil), quand ces identités sont bien plus mouvantes que fixes. Kate Crawford par exemple montre pourtant très bien dans son livre que l’identité n’est pas binaire. Le profilage joue de caractéristiques qui ne sont jamais certaines. Souriez-vous ? Aimez-vous le PSG ? Etes-vous blanc ?… Le profilage ne peut qu’échouer à dire une réalité. Si cela n’a que peu d’impact quand le profilage est mobilisé pour servir de la publicité (quoique, c’est parfois extrêmement problématique comme l’expliquait Safiya Noble dans Algorithms of oppression), quand il vise à servir des droits ou des possibilités qui ont un impact fort sur la vie des gens, son usage est bien plus problématique. L’obtention d’un emploi, d’un prêt, d’une formation, d’un rein…ne peuvent pas reposer sur un calcul qui cumule les approximations comme le propose le profilage. La société du profilage repose sur un calcul de l’injustice, mouvant, changeant, éphémère, sur lequel, ceux qui le subissent n’ont aucun levier. Là où les sociétés disciplinaires et de surveillance reposaient sur des normes claires et rigides, les sociétés du profilage reposent sur un calcul permanent, dans lequel, comme le disait très bien le philosophe Achille Mbembe, “il n’existe plus de droits durables, tous sont révocables”. Ce qui signifie qu’il n’existe plus de droit du tout. Dans la société du profilage, tous les calculs sont injustes. La société de discipline, de contrôle et de risque ne sont pas tant des moments différents, successifs – une évolution -, que des logiques agrégatives et de moins en moins fiables. Nous voici confrontés à une société de l’optimisation plus radicale qu’elle n’était, où discipline, contrôle et risque se renforcent les uns les autres, sans nous laisser aucune échappatoire.
Quant à l’aporie du profilage, une récente étude expliquait combien les prédictions – qu’elles soient produites par des banques, gouvernements, employeurs, commerçants, réseaux sociaux… – ne sont ni précises, ni justes, ni efficaces.
Pour les chercheurs Arvind Narayanan, Angelina Wang, Sayash Kapoor et Solon Barocas ces “optimisations prédictives” échouent le plus souvent, expliquent-ils dans une très intéressante méta-étude. Le problème, c’est que, de la prédiction du risque criminel à la prédiction à l’embauche (les chercheurs en ont travaillé sur une cinquantaine de systèmes prédictifs et cherchent à en recenser d’autres…), ces prédictions prolifèrent.
Or, elles présentent toutes des défauts structurels, expliquent-ils en pointant 7 limites :
– De bonnes prédictions ne conduisent pas à de bonnes décisions ;
– La mesure rate souvent sa cible ;
– Les données d’entraînement correspondent rarement aux périmètres de déploiements;
– Les impacts sociaux des systèmes ne sont pas prévisibles ;
– Les performances différentes des groupes ne peuvent pas être corrigées par des interventions algorithmiques ;
– La contestabilité est rendue difficile ;
– L’optimisation prédictive ne tient pas compte des comportements stratégiques.
Ces défauts n’ont pas de correctifs techniques. “L’optimisation prédictive échoue selon ses propres conditions”. Si chaque défaut est problématique, l’ensemble devrait nous conduire à remettre sérieusement en cause les applications prédictives, concluent-ils.
Les chercheurs appuient leurs constats en produisant 27 questions pour contester les systèmes de ce type. Par exemple, l’intervention affecte-t-elle les résultats prédits, et peuvent-ils déclencher une prophétie auto-réalisatrice ? Par exemple, si des montants de caution plus élevés sont fixés en raison d’une prédiction de récidive, ce score peut-il augmenter la probabilité de récidive ? Les prédictions optimales individuellement conduisent-elles à une intervention globalement optimale ? L’embauche individuelle de bons vendeurs ne prédit pas la qualité de leur capacité à travailler ensemble et peut produire une baisse globale des ventes. L’intervention crée-t-elle une boucle de rétroaction ? Rejeter un crédit en fonction du score de la personne a-t-elle une incidence supplémentaire sur la diminution de son score ? Les individus peuvent-ils accéder ou contester les données qu’un modèle utilise à leur sujet ? Les privilégiés qui comprennent le fonctionnement du système décisionnel ont-ils un avantage ? Quelle est la gravité des conséquences d’une mauvaise catégorisation ? …
Enfin, bien souvent la prédiction privilégie un critère ou un objectif sur tous les autres et au détriment des autres. Par exemple, la sélection des meilleurs élèves au détriment de leur diversité ou de leur motivation. Cet objectif est-il clairement explicité ?…
Autant de questions qui pointent l’aporie des sociétés du profilage. Les optimisations prédictives construisent une optimalité de façade. La prédiction est surtout enfermée dans la prédiction de sa propre réussite sans apporter de preuves que celle-ci ne se réalise pas au détriment de la justice comme de l’équité ! Au contraire.
Hubert Guillaud
A propos du livre de Philippe Huneman, Les sociétés du profilage, Evaluer, optimiser, prédire, Payot, 2023., 432 pages, 24 euros.
La prédiction n’est pas tant un moyen pour connaître le futur, qu’une justification pour l’extraction de données et la concentration de pouvoir explique Sun-Ha Hong – https://twitter.com/sunhahong – : https://journals.sagepub.com/doi/10.1177/20539517231171053 Le but est toujours de “rendre le comportement humain plus prévisible pour le client de la prédiction (le manager, l’officier de police) et rendre a vie et le travail plus imprévisibles pour la cible de la prédiction (l’employé, le citoyen)”.
LikeLike