Peut-on réguler le capitalisme superstar ?

Avant de devenir économiste, James Bessen (site perso, @jamesbessen) a été développeur logiciel et même patron d’une entreprise de logiciel dans les années 80. Aujourd’hui, il est économiste et directeur de l’Initiative de recherche sur la technologie et la politique (@TPRI_BU) à l’université de Boston, spécialiste des impacts économiques de la technologie sur la société, des brevets et de l’innovation. Cette expérience lui permet de porter un regard très concret sur l’évolution numérique. Il vient de faire paraître un livre en tout point passionnant : The New Goliaths: How Corporations Use Software to Dominate Industries, Kill Innovation, and Undermine Regulation (Yale, 2022, 272 pages, non traduit). Un livre qui tente de caractériser les spécificités qu’introduit le numérique dans l’économie industrielle. 

Bien souvent, on caractérise assez mal les transformations profondes qu’a introduit l’informatique dans l’industrie. Si nous sommes bien cernés par un projet industriel, nous peinons à caractériser ses spécificités. Pierre Veltz parle assez justement d’hyperindustrialisation pour expliquer qu’avec le numérique tout devient industriel. Mais cette description est peut-être insuffisante. Nous pensons trop souvent que le projet industriel du numérique est de même nature que les projets industriels que nous connaissions jusqu’alors. On devine, dans d’autres approches, que ce n’est pas nécessairement le cas. La notion de capitalisme de surveillance, posée par Shoshana Zuboff par exemple, nous indique bien que les effets du numérique industriel ne sont pas de même nature que ceux d’une industrie traditionnelle. Le numérique transforme le capitalisme comme nos sociétés. Dans son livre, Bessen tente de montrer que l’industrialisation par le numérique a des caractéristiques propres qui ne sont pas les mêmes que les phases industrielles des XIXe et XXe siècles. En comparant les formes d’innovation liée aux révolutions industrielles avec celles qu’on connaît aujourd’hui, Bessen tente de mieux cerner les atouts et faiblesses de l’innovation numérique. Pour lui, “la maîtrise logicielle des plus grandes entreprises [et pas seulement des Gafams, puisque tous les secteurs industriels sont désormais pilotés par le numérique, de l’automobile à la banque] contribue à expliquer la concentration économique croissante, l’augmentation des inégalités et le ralentissement de l’innovation”, comme le soulignait le New York Times

La couverture du livre de James Bessen.

Un capitalisme superstar dans une économie en berne

Les technologies de l’information ont fondamentalement transformé les processus économiques : elles ont changé la nature des marchés, l’innovation, l’organisation des entreprises, exacerbé les divisions économiques et sapé les régulations. Elles ont changé la nature du capitalisme. Les systèmes technologiques sont utilisés pour réaliser une domination industrielle inédite, estime Bessen. Même si on parle de milliers de systèmes différents, les logiciels qui se déploient partout ont des caractéristiques communes : ils permettent aux firmes de mieux adresser une demande très hétérogène et constamment changeante. Ils permettent une compétition sur la complexité à très grande échelle qui permet d’atteindre des gains d’efficacité inédits. Le logiciel revisite le compromis entre efficacité et hétérogénéité, permettant d’obtenir une variété et une flexibilité que la standardisation de la production de masse ne permettait pas d’atteindre. Le problème, c’est que cette complexité n’est accessible qu’à une poignée d’entreprises : celles qui dépensent des milliards dans leur outil productif logiciel propriétaire. Le fossé entre des entreprises superstars, capables d’atteindre cette complexité et les autres, se creuse… Et cela a pour conséquence directe de ralentir la croissance économique comme de ralentir la régulation. Les nouvelles technos créent une nouvelle économie, un capitalisme superstar. 

Du code barre à la plateforme : pourquoi certaines entreprises réussissent et pas d’autres ?

Le 26 juin 1974 dans un supermarché Marsh de l’Ohio a été scanné le premier produit avec un code barre, une tablette de chewing gum. Le magasin Marsh appartenait à une chaîne régionale disparue. La technologie du code barre était accessible et promettait au petit commerce de connaître la révolution des plus grands. Bessen revient sur la montée des chaînes de supermarchés dans l’Amérique du XXe siècle. Né au début du siècle, sous l’impulsion de John Harford de A&P, le supermarché introduit la standardisation de la livraison et de la logistique qui permet de proposer une offre plus importante pour mieux répondre à la demande ainsi que des prix plus bas que les épiceries indépendantes. Mais l’innovation des chaînes de supermarché a surtout été organisationnelle : comme  l’accélération de production industrielle, elle a surtout reposé sur de nouvelles méthodes de contrôle pour gérer de l’information et des volumes, comme l’explique l’historien James Beniger dans La révolution du contrôle. La standardisation et la décision centralisée permettent alors de limiter le volume d’information. Les coûts et les prix bas permis par l’amélioration logistique et les commandes en volumes vont permettre à A&P de s’étendre très rapidement : la chaîne comptera jusqu’à 16 000 magasins en 1930.  A cette même date, 5 grandes chaînes de supermarchés concentrent 29% des ventes de produits alimentaires aux Etats-Unis. La percée des chaînes n’a pas été sans conséquences sur les épiceries indépendantes qui ont périclitées. 

Quand elle est née, la technologie du code barre était une technologie assez accessible aux petites chaînes de supermarchés. Son adoption a pourtant été lente : les producteurs de produits alimentaires ont longtemps traîné des pieds pour intégrer un code barre sur leurs produits et le code barre s’est développé lentement (en 1985, 25% des supermarchés américains l’utilisaient). Les early adopters ont plutôt été des chaînes régionales plus que les chaînes nationales, plus attentistes. Le code barre apportait un réel bénéfice : pour le client à qui il permettait de fournir la liste des produits achetés, mais surtout pour le magasin à qui il faisait gagner du temps lors du passage en caisse et pour l’inventaire et le réapprovisionnement de produits, permettant de réduire le coût du travail de manière significative. Il a surtout permis d’améliorer la logistique, le suivi de vente et le contrôle de la variété des produits distribués. Avec les années 80, la révolution de l’informatique personnelle va transformer les entreprises. L’ordinateur personnel puis les applications comme le tableur VisiCalc (1979) pour le commerce où les applications Wysiwyg pour la presse vont permettre de démultiplier les usages, encouragé par une foule de petites entreprises de développement logiciel. Ce renouveau a eu partout des effets dans un premier temps : par exemple, alors que la presse n’a cessé de se réduire en nombre de titres, entre les années 30 et 80, l’informatisation a produit un temps, un rebond de publications, jusqu’au développement d’internet. L’industrie informatique et logicielle va soutenir un dynamisme industriel qui va contribuer à renouveler le paysage entrepreneurial. Mais ce renouvellement va vite prendre fin et la concentration reprendre ses droits. Ainsi, les petites chaînes de supermarchés qui ont innové avec le code barre vont vite être dépassées par des acteurs qui vont l’utiliser pour construire des systèmes dédiés et organisés autour du code barre. 

En 1982, Walmart ne représentait que 3% des ventes de supermarchés aux Etats-Unis. En 2012, les ventes de Walmart représentent 52% des ventes américaines. Entre 1977 et 2007 Walmart a ouvert 3000 supermarchés ! Qu’est-ce qui a fait la différence ? Si on met de côté les niveaux d’investissements, pour Bessen, la force de Wallmart n’a pas été d’adopter la technologie du code barre, comme d’autres, mais surtout de relier ses centres de distribution par un réseau, via cette technologie. C’est-à-dire de s’appuyer sur la décentralisation de son outil de prise de décision. L’idée majeure qui a permis à Walmart de faire la différence a été d’ouvrir ce réseau logistique aux fournisseurs, qui pouvaient ainsi surveiller les ventes dans le réseau et générer des commandes pour réapprovisionner eux-mêmes chaque magasin. Décentraliser la prise de décision a permis à Walmart de réduire les coûts et de multiplier l’offre disponible, les fournisseurs proposant directement aux magasins leurs nouveaux produits. Walmart a pu investir dans des formats de magasins différents, offrant des variétés de produits différents. Grâce à son flot de données en temps réel sur ses livraisons et expéditions, Walmart a aussi changé le transbordement, pour accélérer la livraison de ses magasins, lui permettant d’offrir une plus grande variété de produits dans un plus grand nombre de magasins. Walmart a utilisé très tôt les données pour améliorer la coordination. En diminuant le temps de stockage et le coût des inventaires, Walmart a produit des économies qui se sont répercutées sur les prix des produits. En multipliant les promotions, il a aussi rendu les ventes plus prévisibles.  Enfin, cette surveillance en temps réel des ventes et des biens a permis d’adapter l’offre aux besoins spécifiques de chaque magasin. 

Walmart n’a pas été le seul à investir dans des systèmes de ce type. Sears a longtemps été également une chaîne de supermarché leader dans le domaine. Mais si Walmart a fait la différence, c’est en mariant l’information à une nouvelle organisation : la décentralisation de la décision, qui a accéléré l’efficacité. La force de Walmart a été de créer une plateforme ouverte à ses fournisseurs. qui a changé l’organisation de l’approvisionnement et de la distribution. Certes la chute du coût de l’informatique et du logiciel a tout bousculé…Mais “si les technologies de l’information changent l’économie c’est parce qu’elles changent la façon dont les acteurs économiques utilisent l’information”, insiste Bessen. Les détaillants doivent apprendre la qualité des biens qu’ils vendent par l’expérience, ce qui est coûteux en temps, d’autant plus que l’offre de nouveaux produits évolue sans cesse. Les chaînes de magasin réalisent des économies d’échelle par la standardisation. Mais très longtemps, cette standardisation est restée coincée par la centralisation des décisions, ignorant les retour terrains locaux et multiples. En choisissant de décentraliser sa chaîne de décision, Walmart s’est mieux adapté que d’autres aux besoins locaux, permettant à la fois aux magasins d’adapter leurs demandes et aux fournisseurs d’ajuster leurs offres. La force des technologies de l’information est d’être modulaires, de s’adapter en permanence. 

Bessen ne croit pas au mythe de la disruption ni à son accélération. Les entreprises deviennent dominantes par leurs investissements dans des logiciels propriétaires qui leur permettent d’être compétitif en tirant parti de la complexité, en proposant plus de variété, plus de produits, plus de fonctions, plus de versions… Cette compétition pour la complexité change la nature des marchés et la structure de l’industrie. Si certaines entreprises dominent toutes les autres, c’est pas parce qu’elles ont les meilleurs managers et les meilleurs employés, c’est parce que la nature de la compétition économique a changé et que les technologies permettent désormais de maintenir des positions dominantes. Les connaissances technologiques se diffusent désormais bien moins rapidement qu’avant, notamment parce que les firmes dominantes n’ont plus d’incitations à partager leurs technologies et parce que la complexité des développements techniques limite désormais la possibilité de copier ou d’imiter les autres. C’est ce ralentissement de la diffusion du savoir technique qui crée une économie de firmes superstars. Et ce ralentissement a des impacts sur la productivité, les inégalités… Pour Bessen, l’enjeu est d’améliorer le partage de l’information. 

La fin de la disruption

Depuis les travaux de Clayton Christensen (Le dilemme de l’innovateur, publié en 1997), tout le monde s’accorde à penser que les entreprises leaders sur leurs marchés peuvent être disruptées par l’émergences de nouvelles technologies, moins chères, plus accessibles et qui s’améliorent avec le temps. Beaucoup d’économistes adhèrent aux idées de Schumpeter qui pense que le capitalisme est essentiellement une question de mutation technologique, de destruction créatrice. Si à l’époque de la publication du livre de Christensen, la disruption ne cessait de progresser, le taux de disruption s’est depuis écroulé. La probabilité qu’une très grande entreprise de n’importe quelle industrie soit évincée par un rival est devenue bien plus faible qu’elle ne l’était dans les années 90. Walmart a pris la place de Sears comme plus grand  commerçant des Etats-Unis en termes de ventes dans les années 90, mais depuis, personne n’est venu le déloger. Même constat dans nombre de secteurs industriels. Pour Bessen, la raison de la fin de la disruption repose sur le développement logiciel. Le cœur de la révolution de l’informatique personnelle remonte à VisiCalc, l’ancêtre d’Excel, introduit en 1979, et qui a certainement été la killer app d’Apple. En 1982, il existait une vingtaine de programmes de tableurs sur le marché. La concurrence faisait rage : chaque produit tentant de se distinguer des autres par des fonctions spécifiques puis par une accumulation de fonctions. Des centaines de fonctions furent intégrées dans une compétition extrêmement agressive entre programmes. Quand Lotus 1-2-3 a intégré des capacités graphiques permettant de faire des graphiques en 1983, il a rapidement distancé VisiCalc pour conquérir 70% du marché dès 1988. Microsoft lance Excel en 1985, puis Office en 1991. Excel devient leader du marché en 1993 et l’est resté depuis. 

Les entreprises ont tout le temps rivaliser sur la qualité et les fonctionnalités. Dès les années 20, la compétition entre Ford et General Motors a d’abord vu la victoire de Ford, qui a privilégié la standardisation pour améliorer l’efficacité et produire en masse. Dès 1923, GM a introduit la couleur et a créé de nouveaux modèles chaque année qui ont rapidement emporté l’adhésion du public. Avec le logiciel, les choses ont été plus rapides encore : l’ajout de fonctionnalité est plus rapide et surtout moins coûteux, notamment du fait de son caractère modulaire et capable de passer à l’échelle plus rapidement que la production d’objets physiques. “Cette extensibilité altère la nature des marchés”. Les fonctionnalités s’améliorent rapidement et leur ajout permet de mieux répondre aux besoins de qualité comme à la diversité du marché. L’innovation séquentielle a remplacé la propriété intellectuelle. Quand Microsoft devient leader avec Excel 5.0 en 1993, sa documentation technique fait 1850 pages. Ce qui signifie que son produit est devenu déjà très complexe et que peu de firmes peuvent venir le concurrencer sur le marché des tableurs. Le niveau d’investissement nécessaire pour produire ce type de produits limite de lui-même la compétition.En fait, le logiciel permet d’accroître la complexité pour améliorer la qualité des produits et services que ce soit par l’ajout de fonctionnalités qui permettent de répondre à des besoins plus hétérogènes ou d’accroître la variété des produits, des services, de la distribution, du marketing… Les entreprises qui parviennent le mieux à gérer cette complexité différencient leurs produits de  leurs rivaux pour dominer le marché, comme l’a réussi Walmart en proposant un outil qui permette de gérer un inventaire, une logistique et un merchandising complexe. Le but , s’adapter plus rapidement aux changements de la demande comme de l’offre. Dans les années 20, la complexité offerte par GM dans les voitures n’était que sur les couleurs et les modèles. Il y a 30 ans, les voitures comportaient 10 000 composants, aujourd’hui, elles en comportent 30 000. Les voitures aujourd’hui contiennent 50 à 100 ordinateurs, tous interreliés. Une voiture, c’est 100 millions de lignes de codes. Dans les voitures, la transmission n’est plus mécanique, elle s’adapte à des grande diversité de capteurs et de modules. Face à cette complexité, le coût de produire un nouveau modèle de voiture (à partir de composants existants pourtant) commence à 1 milliard de dollars et peut prendre 5 années. Ce n’est plus seulement le nombre de fonctionnalités qui importe, mais surtout leur flexibilité, c’est-à-dire leur capacité à se recombiner entre elles pour produire nouvelles versions et nouveaux produits. Les firmes automobiles désormais tentent de collaborer entre elles pour réduire les coûts. La concentration pour la course à la complexité colonise toute industrie. Toutes font d’énormes investissements dans des systèmes propriétaires pour devenir plus compétitives en termes de complexité. Les investissements logiciels des entreprises atteignent 234 milliards en 2019 autant que leurs investissements en équipement. Mais cet investissement logiciel n’est pourtant qu’une part de l’investissement total dédié : il faut ajouter l’acquisition de données, la main d’œuvre… Le logiciel est devenu l’investissement principal des principales industries (devant les acquisitions, la publicité, la lobbying, la R&D – qui plafonnent à 2% de leur capital, quand le logiciel culmine à plus de 5%). Les industries les plus intensives en technologies de l’information (IT) dominent le classement des top firmes. Les investissements logiciels des top firmes de chaque industries sont plus massifs que leurs challengers, expliquant qu’elles croissent plus vite et ne puissent être rattrapées. Le logiciel est le moteur de la concentration et de la puissance des plus grosses entreprises. Le taux auquel les firmes dominantes ont acquis d’autres entreprises a diminué depuis la fin des années 90. Le stock d’acquisition est devenu plat depuis les années 2000. Les acquisitions ne sont pas le moteur du déclin de la disruption. La montée de la concentration s’explique principalement par l’investissement dans le logiciel. Le déclin de la disruption se constate dans toutes les industries. Partout, la technologie a permis de réduire les coûts de l’information à adresser une grande variété de clients. Walmart a démultiplié la variété des produits et de ses enseignes. Les constructeurs automobiles proposent plus de modèles avec plus de fonctionnalités variées pour chaque modèle, les banques ont une très large gamme de véhicules financiers adaptés à de multiples besoins et risques… Pour Bessen, nous avons été habitués à croire que la technologie était une force pour créer de la disruption. “Désormais, elle l’a supprime”. Une fois que les nouveaux leaders techniques sont apparus, la disruption décline. Et cette transformation du paysage compétitif a des conséquences majeures sur la croissance de la productivité, les inégalités et la politique. 

Si le logiciel réduit le coût de gestion de la complexité, alors plus d’entreprises devraient être capable de se l’offrir ou de le développer ?

Ce n’est pourtant plus le cas. Nous sommes désormais entrés dans l’économie superstar, une économie où quelques firmes dominent leurs marchés et ne peuvent plus être concurrencées.

L’économie superstar

La fabrique d’acier dans de petits fours est très coûteuse et inefficace. La production d’acier profite très bien d’économies d’échelles, permettant de faire baisser le coût unitaire de production avec son élargissement. Les économies d’échelle sont un moteur du développement industriel qui a conduit à changer la structure du capitalisme et de l’industrie, notamment par l’émergence de très grandes entreprises, dominantes, organisées hiérarchiquement, qui ont évincées nombre de petits acteurs, incapables de les concurrencer. Pour réaliser ces économies d’échelle, il faut bien souvent être capable de faire des investissements conséquents, toujours plus importants, poussant les entreprises à se concentrer ou à fusionner. Pourtant, interroge Bessen, qu’est-ce qui a changé ces dernières années ? La différenciation de produits est une clé pour comprendre pourquoi la disruption des plus grandes firmes ralentie. A l’heure du logiciel, désormais, la différenciation des produits peut se faire à la fois à large échelle et avec une personnalisation de masse. Alors que la quantité de demande était la clef pour saisir les transformations induites par les économies d’échelles, la portée, le champ d’application, l’étendue est celle qui explique pourquoi les firmes dominantes le restent. Jusqu’à présent, on pensait que les économies d’échelle s’obtenaient par la taille. Ce n’est plus vrai. Bessen revient par exemple longuement sur les évolutions de la production d’acier et comment la concentration s’est mise en place. Il rappelle combien les économies d’échelle permettent de mettre des barrières à l’entrée de nombre d’industries. Pourtant, les économies d’échelle ne signifiaient pas qu’une industrie finirait très concentrée. Bien souvent, à mesure que la taille du marché s’agrandit, la domination des plus grandes entreprises s’érode, surtout si les prix chutent. Bessen montre que plus que les économies d’échelle, c’est la consolidation financière qui permet à de grandes entreprises de dominer leur secteur. Les acquisitions de concurrents, le développement financier explique bien plus le maintien de domination d’entreprises que les économies d’échelle. 

Le niveau d’investissement dans l’IT par les plus grandes firmes reste faible par rapport à ce qu’elles investissent dans des produits financiers. Ensuite, contrairement à l’époque de l’acier, les firmes dominantes ne perdent pas leur domination à mesure que les marchés grossissent. Amazon ou Walmart ont maintenu leur domination malgré le doublement de leurs marchés. Elles n’ont même pas eu besoin d’être particulièrement agressives envers la concurrence pour s’imposer. Enfin, le niveau d’investissement ne suffit plus pour entrer sur un marché. Certes, il est énorme, comme à l’époque de l’acier, mais il demeure toujours insuffisant pour rattraper les entreprises qui se sont imposées en leaders sur leurs secteurs. Pour Bessen, ce qui a changé entre l’époque de l’acier et celle du logiciel, c’est la nature de la compétition. L’acier nécessitait d’énormes investissements qui permettaient de baisser les coûts et les prix.Aujourd’hui, les entreprises investissent dans des systèmes qui combinent les avantages de l’échelle et de la personnalisation de masse. Les entreprises ne sont plus en compétition sur les prix, mais sur la différenciation qualitative de leurs offres. L’important n’est plus l’échelle absolue des investissements, mais l’échelle relative par rapport aux concurrents. 

Sherwin Rosen a le premier décrit “l’effet superstar” :  quand les leaders sur leurs marchés augmentent leur pouvoir sur ces marchés à mesure que les marchés grossissent. L’enjeu n’est plus la taille absolue de leurs investissements, mais leur taille relative à ceux de leurs rivaux. Le nombre d’entreprises qui peuvent dominer le marché de l’aviation ou de l’ordinateur est limité, pas tant à cause des coûts fixes du développement de produits (qui sont tout de même très élevés), mais bien plus par la possibilité à faire évoluer ces produits très sophistiqués. Et l’expansion des marchés permet plutôt aux entreprises phares de rester dominantes. 

Les industries logicielles produisent des superstars parce que leurs systèmes permettent de fournir des produits plus variés. Pensez à Walmart. Son système lui a permis de passer de 14 000 produits proposés par magasin en moyenne en 1980 à 30 000 en 2004. En proposant une plus grande différenciation, Walmart a changé les comportements des consommateurs. La différenciation par la qualité, contrairement à la différenciation par l’échelle, explique largement le fait que quelques rares firmes dominent, car peu savent rivaliser sur la complexité. Les systèmes logiciels introduits dès les années 80 ont permis à certaines entreprises de se différencier par la qualité, en proposant plus de fonctions, une plus grande variété de produits, un meilleur ciblage… Leur permettant de mieux répondre à la diversité des besoins et des demandes. Les entreprises capables de se différencier par la qualité, capables de mieux gérer la complexité deviennent dominantes. 

Bessen chiffre les entreprises où le logiciel est devenu dominant. En 2012, si on regarde les industries qui emploient 500 développeurs ou plus, ou celles où les développeurs représentent au moins 2% des employés, alors 45% des industries sont déjà intensives en développement logiciel. Et ces mêmes industries sont plus puissantes que celles qui n’intègrent pas du développement en leur sein : puisqu’elles accumulent  71% des revenus de l’ensemble des revenus des entreprises. 

Dans cette compétition qui se transforme, les firmes innovantes, plus petites, font l’expérience de vents contraires qui les empêchent non pas de croître, mais de venir bousculer leurs aînées. Pour Bessen, nous avons atteint un nouveau capitalisme, qui ne repose pas seulement sur des entreprises surperstars, que sur l’émergence d’une nouvelle forme de compétition. Une économie de firmes superstars change la relation entre la productivité et la croissance d’une entreprise. “Dans des marchés différenciés par la qualité, les petites entreprises ont peu d’incitation pour améliorer leur qualité, car l’améliorer signifie être moins différencié de leurs rivaux, être confronté à une compétition plus forte” et donc, possiblement, faire moins de profits. De même, les grandes entreprises qui investissent dans la qualité coupent la croissance de leurs petits concurrents. Pour Bessen,  la disruption décline parce que l’accès aux nouvelles technologies est limité. D’une manière contre-intuitive, avance-t-il, la diffusion technologique s’est ralentie. 

Comment le capitalisme s’est-il refermé ?

Ca peut paraître très iconoclastes à nous, biberonnés aux API, aux standards ouverts et au web collaboratif. On peut avoir l’impression que l’information est plus ouverte qu’elle n’a jamais été depuis l’avènement du web. Ce n’est pourtant pas ce qu’avance Bessen. Les technologies propriétaires ont toujours été utilisées pour assurer une domination sur les marchés et des avantages compétitifs. Pourtant, l’accès à de nouvelles technologies a souvent été bien plus rapide qu’on le pense. Bessen prend l’exemple de la transmission automatique sur les automobiles. Développée par General Motors, avec l’Hydramatic en 1939, elle est ensuite proposée en option sur certains modèles. L’option gagne en popularité, notamment en rendant la conduite plus accessible et s’étend dans les différentes divisions de GM. En 1949, soit 10 ans plus tard, GM licencie sa technologie pour la rendre accessible à d’autres constructeurs comme Ford. D’autres petits constructeurs vont en proposer également des versions, qu’ils proposent également en licence. Pour Bessen, l’exemple montre que la diffusion de la tech est bien souvent rapide, sans compter que les savoirs se transmettent vite, avec des ingénieurs qui vont travailler d’un constructeur à l’autre. L’économie du transistor, né aux Bell Labs à la fin des années 40, va se répandre grâce aux innombrables disséminations d’entreprises. Longtemps, le savoir technologique s’est répandu très facilement. Longtemps, les industries ont valorisé le fait de licencé leurs technologies, permettant de répandre l’usage d’une technologie et d’assurer un temps des revenus. Plus que leur protection, c’est la diffusion des technologies qui a été un pilier du capitalisme, soutient Bessen. Le problème, estime Bessen, c’est que les licences et l’essaimage ont considérablement ralenti… Et cela explique pour beaucoup la puissance des entreprises superstars. Le fossé entre les top firmes et les autres s’est creusé. Elles amassent plus de revenus par employés que toutes les autres firmes. Jusqu’aux années 80, il n’y avait pas de grandes différences sur cette productivité entre les entreprises leaders et les autres. Mais cet écart a depuis explosé. Cet écart est également très lié à l’IT : les plus grandes entreprises gagnent plus de leurs investissements technologiques que les plus petites. “Le fossé sur le revenu par employé est lié à un fossé technologique. Les entreprises dominantes utilisent des technologies différentes des plus petites entreprises”, et ces technologies ne se diffusent pas aussi rapidement qu’elles le faisaient par le passé. 

Pour Bessen, c’est la complexité qui explique ce ralentissement. “La complexité rend plus difficile pour des rivaux de développer une techno indépendamment, il rend plus difficile de recruter les employés de ces entreprises pour recréer des technologies comparables et il rend le procédé de licence plus difficile”. Dans les marchés où la différenciation est critique pour le succès, nombre d’entreprises dominantes ne souhaitent pas licencier ou partager leur techno. Dans l’aviation comme l’industrie automobile, les appareils sont devenus très complexes. Les technologies ne sont plus à la portée de la figure de l’inventeur individuel, ce héros de l’âge d’or industriel. L’Amérique de la fin du XIXe et du début du XXe démultipliait alors les brevets, qui se vendaient très facilement, participant à une croissance économique très rapide et réactive. Ces inventeurs pouvaient encore être des individus. Mais à mesure que la complexité technique progressait, pour continuer à innover, il a fallu se rapprocher des firmes, se spécialiser. Les entreprises se sont mises à acquérir des brevets et même à les déposer pour leurs équipes, développant des organisations pour inventer, notamment via leurs départements R&D, comme ceux de General Electric, DuPont, AT&T… Et à mesure que les marchés sont devenus nationaux, les licences de brevets régionaux ont reflué.

La technologie a changé. En se complexifiant, les coûts de coordination ont grimpé. Les évolutions des uns influençait celles des autres. Le marché des brevets fonctionnait bien quand les technologies pouvaient être développées à des niveaux individuels. Avec la complexité, le marché des brevets n’est plus devenu la meilleure façon d’organiser le développement des technologies. La montée en compétence, qu’illustre le développement des départements R&D, a surtout eu pour conséquence d’enfermer la connaissance technique et donc de limiter sa diffusion. Le marché des licences logiciels et des brevets n’a pas disparu, notamment parce que la propriété intellectuelle s’est considérablement renforcée et s’est structurée (par exemple via les bureaux de valorisation et de transferts de technologies, même si rares sont ceux qui se révèlent profitables). Ces idées brevetées ou licencées nécessitent de forts investissements avant de pouvoir devenir des produits et un marché. “La complexité du processus d’innovation limite désormais la marché”. Plus personne n’est désormais capable de développer et maîtriser l’ensemble des technologies modernes, ce qui limite l’émergence de rivaux. Les entreprises superstars ont donc désormais une longueur d’avance. Elles disposent des systèmes les plus complexes et bien souvent spécifiques, à l’image de celui de Walmart. Ainsi, si dans les années 40 et 50, la transmission automatique a pu se partager et se répandre, désormais, sa nature a changé. La transmission automatique est désormais contrôlée par une intrication de capteurs et d’ordinateurs. L’important ne repose pas sur les améliorations spécifiques de capteurs et de composants, mais sur la maîtrise de l’ensemble du système de transmission, sur le logiciel qui assure le contrôle de l’ensemble des capteurs, qui se complexifie toujours plus. L’intégration est de plus en plus difficile pour les plus petits fabricants automobiles. Les entreprises superstars sont donc de moins en moins menacées par leurs petits rivaux. Ils pourraient donc choisir de mieux diffuser leurs technologies pour raviver la concurrence, par exemple en licenciant leurs technologies. C’est le cas avec les technologies open source, mais les entreprises superstars n’y ont pas avantage, car leur avantage sur le marché n’est plus de faire des économies d’échelle, mais de proposer elles-mêmes leur propre diversité. Quand GM a licencié la transmission automatique à Ford, il a ainsi agrandi le marché. Désormais, avec le numérique, l’agrandissement du marché est anecdotique. Les systèmes logiciels donnent aux entreprises l’avantage de différencier leurs produits de leurs rivaux, mais ne leur permettent pas nécessairement d’augmenter la taille de leurs marchés. Pour cette raison, les firmes superstars ont peu d’intérêt à proposer des licences ou à partager leurs technologies. Cela a pour conséquence de limiter l’accès aux nouvelles techno et donc de rendre difficile l’essor de toute concurrence. Le problème de ce ralentissement est profond, prévient Bessen, pas pour les profits des firmes superstars bien sûr. Mais à terme, c’est la concurrence qui devient impossible. Mais plus encore, explique Bessen, à terme, les nouvelles entreprises peinent à innover, notamment parce que leurs employés ne peuvent plus acquérir des compétences essentielles qui ne sont disponibles que chez les firmes superstars. 

Le paradoxe de l’automatisation

Les technologies ne remplacent pas l’humain par des machines, mais transforment l’économie : elles augmentent le travail, améliorent la productivité et permettent d’abord de faire des choses qui n’étaient pas possibles avant, explique Bessen. A sa démonstration pour souligner que les technos ne remplacent pas l’humain, Bessen cite une méga-étude qui revient sur plus de 2000 études sur le diagnostic automatisé du Covid via l’IA par analyse de clichés au rayons X, soulignant qu’aucun ne peut prétendre à un usage clinique. En fait, comme souvent, on pense que l’analyse automatisée de radio suffirait alors que le travail du radiologiste ne s’arrête pas à l’analyse d’image, qu’il combine avec d’autres informations sur le patient. Un diagnostic n’est jamais isolé. L’IA ne remplacera pas demain les radiologues, elle leur permettra certainement d’améliorer leurs diagnostics, voire d’accélérer leurs recommandations… mais pas de substituer à eux. 

Bessen a également étudié l’évolution des emplois indiqués par les gens dans les recensements entre 1950 et 2010. Il montre que ceux qui ont disparu l’ont été pour une grande variété de raisons, comme l’obsolescence (comme le cas des employés du télégraphe). Bien souvent, rappelle-t-il, l’automatisation est partielle : elle agit sur une partie du travail seulement. Si le code barre a diminué le travail du caissier et permis de l’accélérer, s’il a diminué le coût du travail, son effet majeur n’est pas là. 

En 1985, 29% des supermarchés utilisaient des scanners à code barre, pourtant, le nombre de caissiers a continué à progresser jusqu’à la fin des années 90. Les guichets automatiques des banques ont colonisé leurs devantures entre 1995 et 2005 surtout, pourtant, là encore, le nombre d’employés de banque a continué d’augmenter bien au-delà de cette période. Le paradoxe semble là tout entier : alors que les machines qui font le travail des gens se déploient, on a besoin de plus de gens. La raison ? En fait, c’est que l’automatisation permet d’accroître la demande. Le déploiement de machines semble entraîner un déploiement de la demande, notamment parce que les prix s’abaissent avec l’automatisation. Ce n’est qu’un peu plus tard, quand la demande recule, que l’emploi recule à son tour. Ce schéma s’est reproduit dans plusieurs industries, du textile à l’automobile. 

Dans cette automatisation, la robotisation reste marginale. Elle affecte certains secteurs et métiers, mais globalement, elle affecte une très petite portion de la force de travail. L’informatisation a bien plus d’impact. En 2018, l’équipement robotique des entreprises américaines atteignait 6,5 milliards. La même année, l’investissement en logiciel représentait 778 milliards. Nombre d’entreprises font des investissements majeurs dans l’automatisation. Leurs investissements sont souvent par à-coups plus que incrémentaux. Dans une de ses études, Bessen montre que l’emploi augmente bien plus vite dans les entreprises qui font des investissements majeurs dans l’automatisation que dans les firmes qui n’en font pas. L’automatisation est donc un facteur de développement de l’emploi, explique Bessen, pas de son recul. Bien souvent, certes, celui-ci se transforme. Ce ne sont pas les mêmes emplois qui sont disponibles après et avant les investissements dans l’automatisation. En fait, les études montrent que ce sont surtout les employés les plus âgés qui sont le plus affectés par ces évolutions. C’est ceux qu’on ne peut former qui sont le plus affectés. Enfin, l’automatisation ne conduit pas à des départs massifs. Les firmes qui investissent dans l’automatisation se développent plus vite.

Quand une entreprise fait des investissements logiciels, l’emploi de travailleurs non spécialistes en logiciels croît de 7%, alors que les revenus croissent de 11%. Des emplois de cadres et de spécialistes IT sont également créés, bien sûr. Pour Bessen, là encore, l’économie de main-d’œuvre de l’automatisation n’a pas lieu, bien souvent parce que l’augmentation de la demande conduit dans un premier temps à une augmentation de l’emploi. “La profondeur de la demande adoucit l’impact de l’automatisation”.  Ce n’est que quand la demande se stabilise, que l’emploi reflue. 

Comment se produit le fossé productif : limiter l’accès aux données et à la complexité

Nuance, entreprise spécialiste de la reconnaissance vocale, est née en 1994 d’un laboratoire de Stanford qui travaillait pour le gouvernement. C’est une entreprise qui a longtemps connu une belle croissance, jusqu’en 2014, fusionnant et rachetant plusieurs entreprises tout le long de son histoire… jusqu’à ses revenus stagnent. En 2019, ses revenus étaient les mêmes qu’en 2013. Que s’était-il donc passé ? 

Dans les années 90 et 2000, la reconnaissance vocale était balbutiante. Elle ne fonctionnait que sur des vocabulaires limités, très spécialisés, comme des applications bancaires par téléphone par exemple. Dans les années 2000, Nuance développe et étend le vocabulaire de ses applications, permettant de toucher de nouveaux secteurs, comme la santé. C’est l’époque où Nuance lance son logiciel de dictée vocale grand public, Dragon, qui deviendra une application populaire pour smartphone, Dragon étant l’une des applications officielles au lancement de l’Iphone 3GS en 2009. En 2011, Apple lance Siri, fondé sur les technologies de Nuance. Fort de se partenariat, les revenus de Nuance vont alors bondir pour atteindre 1,7 milliard de dollars en 2013. Les succès de Nuance montrent la voie. D’autres acteurs se disent que la reconnaissance vocale est une technologie d’interaction primordiale. Les grandes entreprises de la tech vont alors lancer des investissements dans cette technologie. Amazon va recruter jusqu’à 10 000 ingénieurs sur ses produits Alexa, plus de 10 fois le nombre d’employés à la R&D de Nuance. Les produits dont disposent déjà les géants que sont Amazon, Apple ou Google, leur permettent d’acquérir bien plus de données que Nuance et sur des fonctionnalités bien plus larges, leur permettant de créer des fonctions particulières, comme des commandes musicales ou des commandes de produits. En 2014, alors que Dragon était très présent sur les téléphones Android, Google a poussé ses propres applications et fonctions vocales… Rapidement, Dragon n’a plus été une application pré-installée d’Android. Les produits de Nuance ont été relégués, non sans conséquences pour l’entreprise, puisque pour se développer, Nuance aurait eu besoin d’accéder à plus de contenus vocaux pour diversifier son offre et étendre la portée de ses applications. Nuance a rencontré les vents contraires des firmes superstars qui ont accaparé les données nécessaires à l’amélioration des technologies vocales. En 2018, Nuance a arrêté ses applications grand public pour se concentrer sur des marchés spécialisés, comme la santé. Le marché de la reconnaissance vocale générale est devenu une oligopole. Nuance a finit par être rachetée par Microsoft en 2021. L’exemple illustre très bien comment les investissements colossaux que peuvent désormais faire les géants peuvent ralentir voir casser la croissance de rivaux plus petits. “La montée des marchés superstars a changé la dynamique industrielle”. Pour Bessen, cela montre qu’il faut s’intéresser à la croissance des petits acteurs. 

La productivité a considérablement ralenti depuis 2005. La croissance de la productivité était de 2,7% par an jusqu’en 2005, elle est désormais de 1,4% par an. Pour Bessen, c’est l’emprise des géants qui aurait ralenti la productivité générale. Désormais, seules les entreprises superstars peuvent faire croître les avantages comparatifs que leurs apportent les données qu’elles seules capitalisent. Pourtant, il y a toujours des start-ups qui se lancent là où les entreprises superstars dominent. Ce taux d’entrée a même progressé : le nombre de start-ups qui se sont lancées dans la reconnaissance du langage par exemple a quadruplé depuis 2005. Si certaines se spécialisent sur des niches dans l’espoir de finir par être rachetées, beaucoup tentent de rester dans un développement assez général. Le problème, c’est qu’elles ne grossissent pas et sont rapidement rachetées. La domination d’entreprises géantes ralentit la croissance des start-up, explique Bessen. UiPath par exemple, la première licorne européenne, spécialiste de l’automatisation des processus, se bat sur un marché où domine Microsoft, SAP ou Oracle. Son marché : développer des systèmes de connexions logiciels automatiquement. Sa réussite n’a pas laissé les 3 plus gros vendeurs de ce types de solutions indifférents. Oracle a noué un partenariat, alors que SAP a racheté une jeune pousse française concurrente et que Microsoft a lancé son propre produit développé par une startup britannique. Pour l’instant, UiPath a encore quelques avantages. Ses systèmes fonctionnent avec ceux des 3 géants du domaine. Et s’il n’a pas été racheté, c’est certainement parce que sa croissance ultra-rapide rend la valorisation difficile à apprécier. UiPath, montre qu’il est toujours possible aux startups de grossir rapidement, mais c’est aussi parce qu’elle propose un produit difficile à imiter. UiPath ressemble assez à un contre-exemple dans l’environnement concurrentiel actuel. 

Le temps moyen entre la création d’une startup et son financement est passé de 0,9 ans en 2006 à 2,5 ans en 2020. Le temps moyen entre le premier financement et l’acquisition a triplé passant de 2 ans en 2000 à 6,3 ans en 2018. Enfin, le rapport productivité/croissance des entreprises a fortement ralenti. Pourtant, la théorie de la destruction créative nous répète que les firmes les plus productives vont croître plus vite que les autres. Mais depuis les années 2000, ce lien entre productivité et croissance semble non pas brisé, mais en berne (la croissance est moitié moindre qu’elle n’était dans les années 80 ou 90).  Et bien sûr, cela explique le fait que les entreprises même très dynamiques n’arrivent pas à dépasser les plus établies. 

Les petites entreprises dynamiques ne sont pas plus importantes que les grosses. Pour l’économiste Wesley Cohen, les deux sont également importantes. Les deux innovent, mais les petites ont tendance à faire plus d’innovation produit, quand les grandes ont tendance à faire plus d’innovation incrémentale et de process. Nuance comme Amazon ont largement innové sur le marché de la reconnaissance vocale. L’innovation n’est pas plus forte quand les petites entreprises dominent un secteur industriel. Pourtant, cette croissance ralentie n’est pas un ralentissement d’innovation, soutient Bessen. Cela ne signifie pas que les entreprises innovent moins. L’idée que l’entrepreneuriat se porterait mal est fausse. Le taux de de startup et de nouvelles entreprises est resté constant. Le financement d’entreprises innovantes lui non plus n’a pas décliné, il a au contraire continué de croître. Même la qualité des entreprises lancées n’est pas en cause… “En fait, si la croissance de la productivité ralentit, ce n’est pas parce que moins d’entreprises seraient créées, mais parce que les entreprises productives, comme les startups, ne grandissent plus aussi vite, relativement aux autres”. Le produit intérieur brut n’est pas le meilleur outil pour mesurer l’activité économique, notamment parce qu’il peine à mesurer le passage au service et aux biens intangibles, la complexification de l’économie et, plus encore, ne tient pas compte de l’épuisement des ressources. Quand les entreprises sont en compétition sur la qualité de service, la mesure de la qualité devient primordiale. La mesure de l’évolution de la qualité est pourtant devenue difficile, non seulement car nombre d’améliorations sont intriquées, interreliées et que la croissance de la variété de produits ou de versions rend les estimations sur le progrès en qualité difficiles. On a tendance à estimer que le PIB sous-estime la croissance en échouant à mesurer l’amélioration des produits dans l’économie.  

Pour Bessen, si les firmes dominantes ne sont plus concurrencées voire concurrençables, c’est parce qu’elles ont accès à des technologies clefs qui ne sont pas accessibles à leurs rivaux. Comme quand Nuance s’est vu couper les accès aux données des utilisateurs par la prise de position de Google et Apple. Alors qu’UiPath peut continuer à grandir parce que – pour l’instant ) ses accès aux plateformes ne sont pas limités. 

L’effet sur les jobs et les inégalités : la polarisation des talents

Le fait que certaines technologies ne soient plus accessibles à d’autres  a un impact sur l’emploi et plus largement sur les inégalités, estime Bessen. Depuis les années 80, les inégalités de revenus s’accroissent. Selon la recherche, ces inégalités se développent à la fois du fait des progrès inégaux de l’éducation, mais également selon les caractéristiques des entreprises pour lesquelles les gens travaillent. Les différences de rémunération se sont bien plus accentuées selon les entreprises pour lesquelles on travaille, qu’entre les travailleurs de mêmes entreprises. Cela signifie que désormais, certaines entreprises payent mieux que d’autres, à emploi équivalent. Sans surprise, les entreprises qui investissent le plus dans le logiciel ont tendance à mieux payer leurs employés, mais également mieux leurs employés par rapport aux autres entreprises. La justification méritocratique des inégalités estime pourtant qu’une société est équitable tant que les gens ont des opportunités économiques égales. Pour ceux qui croient en la méritocratie, les inégalités de revenus sont justifiées parce qu’elles récompenseraient les différents niveaux d’efforts et d’investissements des gens. Michael Sandel, dans La Tyrannie du mérite soulignait que l’idéologie méritocratique tenait surtout d’un arrangement économique, qui valorise la responsabilité individuelle au détriment des différences sociales. Pourtant, seules quelques entreprises utilisent les technologies et seulement quelques travailleurs peuvent acquérir les talents nécessaires au déploiement de ces technologies. Et ces talents, qui permettent de soutenir l’innovation, sont bien plus acquis par l’expérience avec des systèmes complexes que par l’éducation par exemple. Pour le dire autrement, “votre salaire ne dépend pas seulement de la qualité ou de la quantité de travail que vous faites, de l’éducation que vous avez eu la chance de recevoir, mais de plus en plus de savoir pour qui vous travaillez”. Et les modèles de recrutement sont en train d’accélérer la ségrégation estime Bessen.

En 2019, un sondage annuel de Manpower estimait que 54% des employeurs avaient des difficultés à embaucher et retenir des travailleurs qualifiés. Dix ans plus tôt, seuls 30% d’entre eux s’en plaignaient. L’idée du déficit de compétence a pourtant été souvent critiquée, comme étant une fiction des entreprises souhaitant bien souvent des talents sans les payer et renvoyant les difficultés de recrutement des employeurs à des offres inadaptées. Mais dans le domaine des technologies, les talents sont rares, car ils reposent sur l’expérience, et notamment l’expérience dans les systèmes les plus complexes, ceux détenus principalement par les géants. Dans ces domaines, les besoins de talents sont souvent hybrides, à la croisée de plusieurs domaines d’expertise. Chez Walmart, les gestionnaires de magasins doivent savoir lire et interpréter les données, mais ils doivent aussi comprendre leurs marchés locaux et les techniques commerciales. Dans le domaine numérique, les jobs en data science et en analyse de données sont très disputés, ce qui expliquent qu’ils soient mieux rémunérés que des jobs qui nécessitent le même niveau d’étude. Dans les technologies numériques, les formations deviennent plus rapidement obsolètes qu’avant. Les salariés avec de multiples compétences sont plus recherchés que d’autres. Une étude sur les annonces proposées dans les entreprises qui utilisent intensivement les technologies a montré par exemple que pour les emplois qui n’étaient pas liés à la technologie, les offres nécessitaient néanmoins la maîtrise d’au moins un compétence en technologie, 2,9 années d’expériences et 12,5 années de scolarité en moyenne. Les entreprises qui utilisent intensivement la technologie demandent plus de compétences que les autres : plus de talents spécifiques, plus de de compétences transverses, plus d’expérience et plus de scolarité. Quand les entreprises investissent dans la technologie, elles demandent plus de compétences et plus de variété, que ce soit dans les emplois liés à la technologie que dans les autres et surtout, elles souhaitent trouver des travailleurs avec plus de compétences sociales que les autres : le travail d’équipe est bien plus valorisé dans les organisations qui développent des nouvelles technologies. 

Or, les compétences hybrides sont bien plus difficiles à acquérir, puisqu’elles nécessitent des compétences dans plusieurs secteurs ou disciplines. Le besoin d’acquérir de nouvelles compétences, même après l’école, explique l’envolée des cours en ligne de haut niveau, estime Bessen. Mais surtout, les compétences critiques nécessitent surtout de l’expérience. Pour Bessen, le manque de diffusion des technologies propriétaires limite le développement de ces compétences critiques. Le fossé s’agrandit entre ceux qui vont pouvoir acquérir ces compétences et les autres et il ralentit la croissance des nouvelles entreprises quand elles ne peuvent pas accéder à des niveaux de compétences suffisants. La guerre des talents permet aux entreprises dominantes de renforcer leur avantage. L’accès limité à de nouvelles compétences exacerbe les inégalités de revenu et limite la croissance de la richesse commune. 

Les entreprises qui investissent le plus dans des technologies propriétaires ont tendance à payer beaucoup plus que les autres ! Certaines entreprises payent donc bien plus que d’autres pour des compétences comparables. Celles qui rémunèrent le mieux vont donc pouvoir avoir de bien meilleurs travailleurs que les autres. 

Bien souvent, les plus grandes entreprises payent plus. Mais ce sont surtout celles qui reposent sur des développements techniques intensifs qui payent plus (17% plus en moyenne pour des emplois semblables). Mais si elles payent plus, ce n’est pas pour des travailleurs équivalents à d’autres, c’est pour retenir des travailleurs plus qualifiés que d’autres et qui en travaillant chez elles vont devenir plus qualifiés encore. Les entreprises qui reposent sur des développements techniques intensifs embauchent plus de managers et de supports administratifs que les autres. Les technologies de l’information sapent la justification méritocratique, estime Bessen. “Les entreprises superstars ne font pas que saper la cohésion sociale, elles augmentent la ségrégation économique”. La ségrégation des travailleurs par compétence est allé croissante. General Motors par exemple, employait autant des travailleurs qualifiés que peu qualifiés. Mais ce n’était plus le cas dans les grandes entreprises qui lui ont succédé comme McDonald ou Microsoft, où les forces de travail sont bien plus homogènes. Cela s’accentue dans les entreprises superstars, qui emploient surtout des managers et des employés avec de hautes compétences. En utilisant des données de Linked-In, Bessen s’est intéressé aux changements d’emplois des travailleurs des géants. Leurs employés ont 5% plus de chances de venir d’un autre géant. Le top exécutif des plus grandes firmes est très endogène : 13% vient d’une autre très grande entreprise. Pour Bessen, nous assistons à une stratification inédite de la force de travail (sans compter qu’elle se stratifie également dans sa localisation, 21% venant des 10 plus grandes villes du monde…). Ce n’est pas seulement que les inégalités progressent, estime Bessen, le problème, c’est qu’elles cristallisent… alimentant un ressentiment puissant à l’égard des élites. 

Réguler la complexité logicielle ?

En prenant l’exemple du Diesel Gate, Bessen explique la difficulté dans laquelle est désormais plongé le régulateur. Il rappelle que découvrir la tricherie de Volkswagen n’a pas été si simple, elle est longtemps passée inaperçue. Les chercheurs ont montré depuis que le dispositif de triche était caché dans des milliers de lignes de code du système de contrôle du moteur. Or, prouver une triche nécessite d’accéder au code logiciel, qui est largement protégé. Sans compter que quand bien même des accès seraient introduits pour des chercheurs, même pour eux, il serait difficile de l’interpréter sans la documentation adaptée. C’est uniquement grâce à la fuite de documents que les autorités ont pu identifier précisément la triche de Volkswagen au-delà des soupçons plus que légitimes qu’avaient mis en évidence les mesures indépendantes. Et c’est seulement parce que des poursuites étaient lancées que les assignations et enquêtes ont pu dévoiler, notamment par la découverte d’échanges d’e-mails, la culpabilité de Volkswagen. On estime que seulement une dizaine d’ingénieurs étaient impliqués dans la mise en place du système de triche. 13 employés de Volkswagen ont été inculpés. La firme a payé 33 milliards d’amendes et  pénalités.  Pour Bessen, cet exemple n’est pas une question de mauvais acteurs et de régulateurs corrompus. Cet exemple suggère un problème systémique. En rivalisant sur la complexité, il devient de plus en plus difficile de trouver des moyens de régulation efficaces. Les régulateurs peuvent améliorer leurs protocoles de tests, certes, mais dans la course à la complexité, sans accès au code et aux ressources pour l’interpréter, les régulateurs seront toujours dépassés. La complexité logicielle a changé non seulement les comportements des entreprises, mais plus encore la capacité des autorités à les réguler. Nassim Taleb dans Antifragile ou Chris Clearfield et Andras Tilcsik dans Meltdown avaient déjà pointé le problème d’une complexité inédite. Mais la complexité logicielle affecte la régulation d’une manière plus particulière que la complexité. Bessen évoque d’autres exemples : celui du Boeing 737 Max ou encore celui de la crise des subprimes, ces prêts hypothécaires à risque où les modèles logiciels obscurcissaient le niveau réel de risques. 

Ces exemples montrent que le logiciel est profondément impliqué dans quelques-uns des pires échecs de régulation de ces dernières années. Pour Bessen, ce ne sont pas là des accidents : les logiciels dominent la gestion de l’information et les régulateurs sont complètement dépendants de ce à quoi les entreprises leur laissent accèder. Aux Etats-Unis, la régulation est née en réaction au déploiement de technologies qui ont permis de bâtir de puissants empires économiques. La première agence de régulation a été le bureau de l’industrie animalière, née en 1884, capable de décider de quarantaine ou d’abattage de troupeaux entiers. Puis elle s’est étendue au commerce, pour réguler le prix du rail et a bien d’autres secteurs. Avec la régulation, les autorités s’affirment comme les contre-pouvoirs à la domination des entreprises. Mais, la régulation a toujours été dépendante de la mesure. Pour connaître les pratiques, les régulateurs ont toujours dû faire appel aux experts des industries. Le premier expert à réguler les tarifs du tail était un avocat qui avait représenté les entreprises des chemins de fer durant des années. Peu à peu, une autre politique s’est pourtant imposée : forcer les entreprises à mieux prendre en compte le bien commun en fixant des normes, des seuils que les entreprises doivent respecter. D’autres obligations ont été faites, comme l’obligation à l’information. Pourtant, la régulation est devenue compliquée avec la montée de la complexité. D’abord, il y a le risque que les experts soient biaisés en faveur des industries qui les emploient. Et “plus les objets de régulation sont complexes, plus la dépendance aux experts de l’industrie est grande, et plus le risque de captation réglementaire est forte”. Plus les systèmes sont complexes, plus la régulation est proche des préférences de l’industrie, notamment parce que l’information critique y est retenue. Si les agences de régulation peuvent souvent prendre des mesures elles-mêmes, ce n’est pas le cas avec les systèmes logiciels qui dépendent souvent de tests standardisés. Quand la mesure est gérée par le logiciel, le risque d’obfuscation est grand. Même chose en ce qui concerne l’évaluation des risques : les régulateurs sont bien souvent dépendants des modèles statistiques qui leurs sont fournis par les entreprises. La sécurité des véhicules par exemple est calculée depuis les accidents en fonction du kilométrage, mais sans prendre en compte le contexte : à savoir qu’un accident se soit produit à cause d’une mauvaise visibilité ou parce que les freins ont lâché.  Si l’obligation de publication d’information (disclosure) a été le moyen d’une régulation à moindre frais ces dernières années,  il y a peu de preuve que ce levier fonctionne, autrement que dans des cas assez limités. Reste que la complexité rend l’obligation de divulgation très difficile. Bien souvent, l’information sur un fonctionnement complexe reste incompréhensible aux usagers et citoyens. Il faut souvent être un expert pour comprendre les termes d’un contrat… et ce sans parler des biais cognitifs qui nous font sous-estimer les risques et mal apprécier les coûts futurs. La régulation de la complexité a également des coûts disproportionnés pour les plus petites entreprises par rapport aux très grosses. Bessen donne l’exemple des coûts de conformités bancaires qui sont proportionnellement bien plus élevés pour les plus petites banques que pour les plus grandes. Finalement, la complexité sape la régulation : en permettant l’obfuscation, en permettant de corrompre le régulateur lui-même, en développant la surcharge informationnelle et en augmentant les coûts des plus petits acteurs. Pour Burden, il existe pourtant un moyen de résoudre ces problèmes. L’histoire logicielle nous éclaire : l’open source a été un moyen d’apporter un meilleur contrôle sur le développement logiciel. Sa nature distribuée l’a rendu robuste à la détection d’erreurs et de bugs. L’open source a également été un moteur de l’amélioration constante de la qualité des logiciels. Pour Bessen, les régulateurs devraient pouvoir avoir accès au code des programmes et pouvoir les inspecter sur le modèle de l’open source. Pour l’instant, chez les régulateurs, seul le Bureau de la protection financière des consommateurs a le pouvoir d’accéder aux codes des institutions financières qu’il régule. Mais ce bureau a rarement utilisé son pouvoir. Mais ce ne devrait pas être les seuls à accéder aux logiciels. Bessen rappelle par exemple, que ce sont les compagnies d’assurances qui notent la sécurité des voitures. De même, les régulateurs financiers ont autorisé des agences indépendantes à évaluer les risques financiers. Pour Bessen, nous devrions donc penser à ouvrir les logiciels (le code, leurs données, leurs traitements…) au contrôle des parties prenantes. On pourrait également imaginer que ces données et traitements soient accessibles via des simulateurs : les problèmes du Boeing 737 Max étaient par exemple apparent aux pilotes depuis leurs simulateurs. 

Le problème souligne Bessen, n’est pas que le logiciel soit complexe, c’est qu’il soit propriétaire. Le logiciel ouvert est bien moins ouvert aux abus. La lumière est bien souvent le meilleur désinfectant, disait déjà le juge à la Cour suprême américaine, pionnier de la concurrence régulée, Louis Brandeis

En juillet 2020, les PDG d’Amazon, Apple, Facebook et Google ont été longuement interrogés par les sénateurs américains. Cette audition a ressemblé à l’audition des grands patrons de l’industrie du tabac en 1994, sauf que celle-ci avait conduit à changer la régulation à leur encontre. L’opinion publique est partagée sur les géants de l’industrie numérique. Beaucoup de gens estiment qu’ils ont trop de pouvoir, qu’ils sont devenus des monstres financiers qui ont avalé toute concurrence. Mais, à la différence de l’industrie du tabac, les gens aiment leurs produits et mesurent mal les impacts qu’ils ont sur la société. Si la technologie transforme la compétition économique, les appels à casser le monopole des Gafams n’attaquent pas le problème au bon endroit, estime Bessen. Pour lui, à nouveau, l’enjeu est de casser leurs monopoles propriétaires pour les pousser à devenir des plateformes toujours plus ouvertes qu’elles ne sont, afin de soutenir une plus grande diversité d’innovation. 

Les nouvelles technologies utilisées par quelques entreprises leur ont souvent permis d’abaisser les prix et de dominer leurs marchés. Ca a été le cas avec le procédé Bessemer pour produire de l’acier qui a permis d’abaisser son prix, de développer le rail, d’abaisser le prix du transport… La technique a permis de réduire drastiquement le prix de l’acier : en 1900 son prix était le tiers de celui de 1868. Pour réduire encore les coûts, les entreprises de production d’acier se sont également transformées, devenant de plus en plus grandes. Les économies d’échelle leur ont permis de déployer leurs monopoles. Mais pour Bessen, le problème n’est pas la taille des entreprises, d’ailleurs les lois antitrusts ne s’intéressent pas qu’à la taille, mais interdisent également la collusion par exemple ou au comportement prédateur. Si elles ont des ressources pour le lobbying, elles ont tendance également à être plus attentives aux questions sociales : elles pratiquent bien moins la discrimination que d’autres (elles payent les femmes en moyenne 13% de moins que les hommes, mais c’est pire dans les entreprises plus petites encore qui ont tendance à les payer 20% de moins !). Croire donc que parce qu’elles sont grandes les entreprises font le mal et parce qu’elles sont petites font bien, est une vision bien naïve. Le principal problème de la taille et de la domination d’un marché, est qu’il peut donner un pouvoir prédominant pour limiter toute concurrence future. L’économie d’échelle montre qu’à mesure que les entreprises se développent, elles limitent l’accès aux marchés, mais bien souvent, cela tient bien plus de leur conduite que de leur taille. A nouveau, l’abus de pouvoir, la discrimination voire l’exclusion des concurrents n’est pas forcément l’apange des plus puissants. Ce qui est normalement jugé inégal par les lois anticoncurrentielles, c’est le fait de déployer un monopole. Mais quelles actions conduisent à déployer des monopoles et quelles actions relèvent de la compétition ? La régulation s’est surtout intéressé à des compétiteurs ou des consommateurs lésés, qu’aux effets de la puissance des entreprises sur les travailleurs, la politique, la société. Face à la concentration, on estime que l’application des lois anticoncurrentielles sont désormais trop faibles. Mais si cette concentration est le résultat d’un investissement logiciel inédit, c’est sur le logiciel qu’il faut faire porter l’effort de régulation. 

Réguler les plateformes ?

L’économie des plateformes fait référence à l’accès à des composants modulaires des technologies. C’est le cas par exemple des châssis de voitures, qui sont de plus en plus communs à de multiples modèles et constructeurs. Mais ce n’est pas nouveau. En 1908 déjà, GM partageait des éléments de ses modèles avec Chevrolet, Buick, Pontiac… Le numérique a rendu les plateformes plus modulaires encore. Certaines permettent à de multiples acteurs d’y accéder. Walmart permet à la fois aux fournisseurs et aux gestionnaires de magasins d’accéder au détail d’information sur les ventes et d’initier des commandes. On parle alors de plateforme biface ou multiface. Certaines sont accessibles au public, d’autres non, mais l’idée clé c’est que les plateformes ouvertes facilitent les transactions et la compétition. Walmart est une plateforme bileface et privée. Les plateformes de conception assistée par ordinateur permettent à des ingénieurs ou designers de collaborer à plusieurs sur la conception de produits : ce sont des plateformes unilatérales et souvent fermées. AWS d’Amazon a commencé comme une plateforme interne pour faciliter le stockage de données pour Amazon sur ces nombreux projets, avant de l’ouvrir à d’autres pour qu’elle devienne la plateforme d’informatique en nuage. Google propose une plateforme biface, permettant de faire se rencontrer utilisateurs et publicitaires. 

Les plateformes ouvertes et multifaces, comme celles des Gafams,  sont celles qui posent le plus de problèmes. Pourquoi ? Parce qu’elles permettent la subvention croisée, c’est-à-dire que les plateformes peuvent subventionner un marché et taxer l’autre, par exemple en donnant un accès gratuit à ses outils et en faisant payer plus cher l’accès aux utilisateurs pour les publicitaires. Les journaux par exemple subventionnent les abonnés en faisant payer plus cher les annonceurs. La subvention croisée rend plus difficile l’identification de comportements prédateurs. Sans compter que les marchés multifaces peuvent avoir des effets de réseaux importants, c’est-à- dire que la valeur à utiliser une plateforme augmente avec la taille du réseau d’utilisateur : ainsi plus un journal à d’abonné, plus il a de la valeur pour les annonceurs. Ainsi un journal peut décider de baisser ses abonnements bien en dessous de toute rentabilité pour accroître son volume d’abonné au bénéfice de ses annonceurs. La guerre des journaux aux Etats-Unis a ainsi fait qu’en 1920, 500 villes avaient un quotidien, quand en 2017, ce n’était plus le cas que d’une dizaine de villes. Le problème des effets réseaux, c’est que l’avantage économique d’une entreprise dominante devient dynamique. L’avantage acquis à construire une aciérie moderne est gagné dès qu’elle est bâtie, l’économie d’échelle est immédiate. Ce n’est pas le cas avec le numérique, où les effets réseaux modifient l’équation. A l’heure des plateformes, la conquête d’un marché se déroule sur le temps long et l’avantage n’est pas permanent. Nombre d’acteurs en ont fait les frais : Yahoo!, MySpace, Nokia par exemple. Quand les firmes leaders sont rapidement concurrencées dans des marchés émergents, les effets réseaux ne sont pas garantis, mais ils s’installent souvent dans le temps. Quand les effets réseaux se combinent avec des différences qualitatives, alors les marchés ont plus tendance à être complètement dominés, c’est ce qu’on appelle l’effet du Winner Take All. Si l’économie des marchés multifacse est proche des marchés avec économie d’échelle, il y a d’importantes différences. La subvention croisée et les dynamiques à long terme rendent l’analyse pour le régulateur compliqué. La juriste américaine Lina Khan, qui a été nommée à la tête de la Commission fédérale du commerce pour améliorer la régulation de la concurrence, s’est fait connaître par un article sur le paradoxe antitrust d’Amazon. Elle y explique qu’Amazon a entretenu des années de pertes financières pour soutenir des prix bas afin d’évincer la concurrence. Le problème c’est qu’avoir des prix bas ne suffit pas à caractériser un comportement prédateur, estime Bessen qui semble avoir construit tout son livre pour répondre à Khan. Pour lui, à nouveau, la bonne question consiste à savoir si la compétition a été altérée. 

La compétition entre un site en ligne et un commerce physique a plus tendance à intensifier la compétition qu’autre chose. Dans le secteur de la livraison, Amazon est un très modeste acteur par rapport à FedEx ou UPS. Certes, la subvention croisée qui a permis à Amazon de minimiser les coûts d’expédition en les faisant prendre en charge par les vendeurs, mais elle semble avoir surtout élargi la compétition dans un secteur très concentré. Baisser ses prix ne signifie pas nécessairement une prédation illégale. Amazon ne réalise que 35% des ventes de son site : la plupart des ventes sont réalisées par des vendeurs tiers qui bénéficient de sa place de marché, sans nécessairement profiter de ses services d’expédition. Ces vendeurs proposent souvent leurs produits sur d’autres plateformes. Le pouvoir d’Amazon n’est pas comparable avec celui de la Standard Oil, qui détenait 90% du marché de la raffinerie. Certes, les Big Tech ne sont pas surveillées, mais elles ne représentent pas une grosse part de l’économie américaine. Elles n’incarnent pas tant que ça le capitalisme superstar. Le problème, souligne Bessen, n’est pas les plateformes elles-mêmes que leur accès. “Ce n’est pas la technologie des plateformes le problème, c’est la façon dont des entreprises superstars utilisent la technologie et en limitent l’accès”. Pour Bessen, les plateformes ouvertes ne sont pas assez nombreuses. La politique anticoncurrencielle ne devrait pas pénaliser les plateformes ouvertes, mais plutôt les encourager. “Nous avons besoin de plus d’Amazon, pas de moins.”

Le découplage à venir

Certaines entreprises leaders ont choisi de découpler leur technologie, rendant accessible des parties de leurs systèmes, ou partageant parfois librement des portions de code, de données, de matériel, afin que d’autres puissent utiliser ou accéder à ces technologies. Le découplage est un puissant levier pour transformer l’industrie, accélérer la diffusion, améliorer la concurrence, estime Bessen. Le 23 juin 1969 est le jour où IBM s’est dégroupé. Jusqu’à cette date, IBM vendait logiciel et matériel ensemble. Pour nombre de concurrents, il était difficile de venir concurrencer IBM. L’industrie logicielle était alors très fragmentée et les logiciels étaient écrits pour des modèles spécifiques d’autant que les modèles n’avaient pas tous les mêmes systèmes d’exploitation. En 1964, IBM introduit la compatibilité logicielle avec la série 360 : tous les modèles de cette série étaient compatibles sur le plan logiciel et pouvaient évoluer. Les 360 ont été un énorme succès, permettant à IBM de conquérir les ⅔ du marché. IBM avait également un timide marché d’applications logicielles, mais qui restait très difficilement accessible du fait de sa politique de vente couplée. En fait, c’est la menace d’une poursuite pour comportement monopolistique qui a poussé IBM a découpler son offre. Le découplage a permis l’essor d’une industrie logicielle permettant de démultiplier les produits pour répondre à la grande variété des besoins. Elle a ouvert la division logicielle d’IBM à la concurrence, à permis de faire baisser les prix, et surtout d’élargir le marché. En passant d’un système clos et fermé à un système ouvert, IBM a facilité la diffusion des connaissances techniques, les a élargies. Pourtant, rappelle Bessen, ce schéma d’ouverture et d’élargissement du marché est on ne peut plus classique en économie : le métier à tisser automatisé peinait à se diffuser, à la fois parce que peu standardisé et à la fois parce que les fabricants couplaient la machine à la production. C’est quand les manufacturiers qui utilisaient les machines se sont mis à les vendre leurs machines à d’autres manufacturiers que la diffusion des métiers à tisser automatisés s’est envolée.

Aujourd’hui, nombre d’entreprises pratiquent le découplage. Mais il pourrait être accéléré par des politiques spécifiques. Amazon par exemple excelle dans le découplage. En 2002, les ventes d’Amazon plafonnent… beaucoup de transactions échouent parce que le site web croule sous les demandes. Amazon a besoin de centres de données très coordonnés pour abaisser le temps de réponse de son site, et ce d’autant plus qu’il vend à l’époque son moteur à d’autres grands acteurs, comme Target. Amazon développe alors ses premières API pour que d’autres marchands puissent accéder à ses infrastructures e-commerce. En 2003, ces développements propriétaires deviennent clés, mais Amazon pense également qu’ils pourraient l’être pour d’autres. C’est ainsi qu’Amazon lance AWS qu’il commercialisera en 2006 : Amazon abandonne alors des services qu’il vendait au profit d’un autre service dans l’espoir de conquérir un marché plus large, celui de l’informatique en nuage. Nombre de start-ups vont utiliser AWS pour croître plus vite, pour être plus productives. Bessen dresse une comparaison entre Amazon et Walmart. Pour lui, Amazon, contrairement à Walmart, a rendu son système accessible à tous, même à d’autres revendeurs que lui-même. Bessen rappelle qu’à la fin des années 90, quand Amazon a dû augmenter ses capacités de livraisons, Amazon a débauché des employés de Walmart qui avaient géré ses capacités IT. Amazon a poursuivit son développement en cherchant toujours à raccourcir la livraison, car plus celle-ci était courte, plus les consommateurs achetaient. Et la clé pour améliorer la livraison a consisté à être capable de mieux prédire la demande. Amazon a découvert qu’il pouvait améliorer ses données en les ouvrant à des vendeurs indépendants. En 2006, il a ouvert ses capacités logistiques aux marchands tiers, en leur permettant de stocker leurs produits et de les faire expédier par Amazon via sa place de marché. Des petits vendeurs ont pu utiliser les avantages logistiques d’Amazon et 450 000 entreprises qui ne vendent pas sur Amazon, utilisent ses capacités logistiques de stockage et d’expédition. Depuis 2015, Amazon permet à des entrepôts qui ne lui appartiennent pas d’être qualifiés pour son programme d’expédition Prime, s’ils remplissent certains standards de performance, permettant ainsi à une poignée d’entreprises de la logistique d’accéder en partie aux modalités de qualité développées par Amazon. En 2018, 58% des ventes d’Amazon viennent d’autres vendeurs qu’Amazon. 

Reste à savoir comment ces entreprises peuvent rester concurrentielles. Amazon par exemple a accès à toutes les données des vendeurs de porte bébé. Les vendeurs qui passent par Amazon, eux, ont accès seulement à leurs données, mais de toutes les plateformes qu’ils utilisent. En fait, un vendeur de porte-bébé a de meilleures données qu’Amazon, plus locales, et plus complètes leur permettant de faire de meilleures prévisions qu’Amazon qui a un regard sur les transformations de l’ensemble des acteurs du porte-bébé (permettant par exemple, comme il l’a fait parfois et d’une manière problématique, de se positionner sur des marchés, par exemple en lançant des produits dont il était capable de déterminer la gamme dans laquelle ils avaient une chance de se développer). Amazon a commencé avec une plateforme propriétaire qui lui a apporté un avantage compétitif par son infrastructure IT. En l’ouvrant avec AWS et Marketplace, il a permis à des rivaux d’utiliser ses avantages, mais il a étendu son marché lui permettant de croitre bien au-delà de la perte de son avantage compétitif. En élargissant son marché, Amazon est devenu plus central qu’il n’était, attirant toujours plus de clients. Cet élargissement a fait d’Amazon un acteur dominant, mais une domination qui a amélioré la compétition et profité également à d’autres acteurs. Pour Bessen, Amazon n’est pas anti compétitive. 

D’autres entreprises pratiquent le découplage. Microsoft avec Azure a cannibalisé son offre de serveur. Apple a découplé son téléphone en permettant à des développeurs d’y créer des applications. Travelocity et son système de réservation… La conversion de produits et services en plateforme est devenue une clé stratégique de bien des entreprises. Pour Bessen, si toutes les entreprises n’ont pas vocation à devenir des plateformes, beaucoup devraient réfléchir à ouvrir certains composants de leurs modèles d’affaires. Walmart devrait réfléchir à entrer dans la fourniture logistique d’autres enseignes, en proposant son infrastructure logistique à d’autres. Les banques devraient ouvrir leurs opérations à d’autres acteurs. Pour Bessen, les systèmes logiciels propriétaires ont considérablement ralenti la diffusion des technologies. Le découplage vise à l’accélérer, à remettre du dynamisme industriel et de l’innovation, de la productivité, de la croissance, de la diversité… Pour Bessen, les autorités devraient travailler à encourager la plateformisation ouverte, par exemple dans le secteur bancaire, en promouvant l’open banking permettant d’améliorer les services de prédiction des banques tout en rendant ces services de calculs mieux observés et contrôlés par les communautés. Pour cela, il faut que les institutions financières et leurs usagers consentent à donner accès aux données et surtout que les institutions voient ou aient avantage à collaborer entre elles. Trop souvent, les régulateurs ne sont pas assez proactifs à l’ouverture et à la plateformisation, regrette Bessen. La raison est peut-être à trouver dans une régulation de la propriété intellectuelle devenue bien trop maximaliste. Les entreprises ont également du mal à anticiper les profits de l’ouverture et du découplage. Longtemps le fait de proposer des licences pour leurs technologies a permis aux technologies de se répandre. Mais dans un marché superstar, où la technologie permet aux entreprises de se différencier les unes des autres, la propriété intellectuelle fournie une incitation trop insuffisante pour proposer des licences. Pour Bissen, nous avons besoin de politiques pour inciter au découplage plutôt que de politiques pour renforcer la propriété intellectuelle. 

Et Bessen de proposer plusieurs inflexions politiques comme l’ouverture forcée. Les autorités antitrust ont parfois forcé à la licence de produits et de technologie, notamment de vaccins ou de médicaments (mais pas seulement rappelle-t-il, quand Bell a été démantelé dans les années 80, l’entreprise a dû licencer ses brevets et notamment ses brevets sur le transistor, ce qui a accéléré le développement de l’industrie des semiconducteurs ; à la fin de la première guerre mondiale, les brevets ennemis ont également été ouverts ce qui a accéléré l’innovation allemande). On pourrait tout à fait imaginer pourtant que les régulateurs forcent certaines positions à l’ouverture de systèmes, recommande à l’ouverture open source, incite à placer des données clés en données ouvertes, à la création d’API ouverte ou au découplage. Les régulateurs devraient également favoriser plus qu’ils ne font les standards ouverts. Le régulateur devrait également protéger la mobilité des travailleurs, afin que les technologies et les savoir-faire circulent mieux. Or, la mobilité des travailleurs a plutôt décliné, notamment (mais pas seulement) du fait des accords de non concurrence qui empêchent des employés d’aller chez des rivaux. Les poursuites impliquant le secret des affaires ou des accords de non concurrence ont quadruplé depuis les années 2000. Les entreprises en font trop pour limiter la mobilité de leurs employés et les cours de justice trop souvent leur donnent raison. La propriété intellectuelle est censée être une balance qui doit à la fois protéger les auteurs et limiter la durée de leurs droits pour favoriser la diffusion des technologies et leur amélioration. Ces dernières années, la protection des auteurs s’est renforcée au détriment de la diffusion et de l’intérêt général. Bessen plaide pour revenir à un meilleur équilibre. Il égratigne également le secret des affaires qui encourage le déclin des dynamiques économiques. Nous avons excessivement renforcé les droits de la propriété intellectuelle, argue-t-il. L’innovation est un dynamisme, qui nécessite des équilibres. Le problème est de les favoriser, pas de les rompre. 

Ouvert ou fermé ? Le monde logiciel n’est pas si binaire…

En 1962, Fritz Machlup théorisait l’économie de la connaissance. Longtemps, ces théories sont restées très libérales. Les firmes privées devant utiliser l’information privée pour maximiser leurs profits, qui permettraient par rebonds ou ruissellement au reste de la société d’en profiter. La propriété intellectuelle est venue défendre la connaissance en protégeant sa création plus que sa diffusion : l’allongement des droits et leurs extensions dans plus de circonstances la renforçant plus encore. Ce régime a été couronné de succès et a donné naissance à un capitalisme superstar. Le problème, c’est que les objectifs de ces grandes entreprises ne sont pas nécessairement alignés avec ceux de la société, notamment quand ces entreprises doivent se différencier de leurs rivaux. Au final, pourtant, c’est la diffusion des technologies qui s’en trouve ralentie. Or l’innovation est plus forte quand de multiples entreprises peuvent développer différentes idées, ce qui nécessite une diffusion très active de la connaissance. Pour Bessen, c’est le ralentissement de la diffusion de la connaissance qu’il faut combattre. Les appels à démanteler les big tech échouent à comprendre les changements en cours dans une économie superstar. Entre la plateforme de Walmart et celle d’Amazon, la différence repose sur l’ouverture. Seules les plateformes ouvertes permettent de remettre du dynamisme économique. Ouvrir les technologies est bien plus préférable que de démanteler des entreprises – mais l’on peut faire les deux, comme cela a été le cas avec Bell, semble oublier Bessen, minimisant les avantages que l’acteur du découplage peut tirer du découplage pour s’assurer une hégémonie qui n’a plus rien d’équilibrée. Les centaines de milliards de profits des entreprises leaders font que, qu’elles dominent des plateformes ouvertes ou fermées, les rattraper, les concurrencer ou les subvertir tient désormais de l’impossible. Bessen semble oublier également que l’ouverture et la fermeture dans les systèmes complexes ne sont pas des états aussi clairs qu’il paraît. Androïd est un système ouvert, dont il existe des centaines d’instances. Et pourtant, Google a une position dominante dans tous ces systèmes ouverts qui lui permet d’imposer des standards, des politiques, des produits. Ainsi, tous les mots que vous tapez depuis les claviers Android finissent dans les datacenters de Google. Certes, ils peuvent être partagés avec d’autres acteurs et applications, mais dans la course aux données, Google a un avantage comparatif imbattable, qui lui permet par exemple de développer un clavier virtuel bien plus performant que les autres, lui permettant de renforcer sa domination. Mais surtout, ce clavier est un aspirateur incomparable de nos échanges qui lui permet d’alimenter ses IA et à terme de proposer des services inédits, inaccessibles à ceux qui n’auront pas accès à ce type de données. En arguant que l’ouverture suffit, Bessen propose une fable un peu simpliste. Les intrications de systèmes et leurs complexités ne s’arrêtent pas à un bouton ouvert/fermé, open source/propriétaire. Les logiciels sont souvent de plus en plus composés de briques, intriquées les unes dans les autres, depuis du code libre et d’autres fermés, avec des formes d’accès à certains acteurs et des fermetures à nombres d’autres acteurs. 

L’autre problème, c’est que Bessen ne semble pas voir que ces découplages génèrent des positions hégémoniques voire quasi monopolistiques à terme, Androïd en est certainement un bon exemple à nouveau. Et que surtout, derrière l’ouverture concédée, il y a une fermeture accélérée de certains éléments : si l’iPhone est ouvert à certains développements, la structure générale reste fermée et contrôlée par Apple. Bessen défend une plateformisation globale au prétexte de l’ouverture, peut-être sans mesurer la concentration monopolistique que les plateformes accélèrent. Enfin, en promouvant les plateformes, Bessen oublie que bien souvent, elles mettent d’un côté les professionnels, de l’autres les usagers/citoyens/consommateurs… Et pas toujours au bénéfice de ces derniers. Les plateformes des services publics sont un bon exemple d’emprise monopolistiques qui permettent à des acteurs publics ou des acteurs privés qui délivrent une concession de service publique (voir “Le numérique : arme de privatisation massive”) de faire sans avoir à rendre de comptes. Le partage d’information entre acteurs comme le proposent les plateformes peut avoir d’autres limites encore : à l’image de cette collusion qu’évoquait Propublica récemment, où propriétaires de biens mobiliers et agences de location parviennent à organiser un cartel de fixation des prix des loyers, largement anticoncurrentiel. Le développement de Nuance a bien été entravé par les géants des Big Tech qui se sont lancés sur les interfaces vocales. En s’accaparant l’accès à de nouvelles données, elles ont changé le cours de l’innovation.

En fait, Bessen semble encore largement croire au marché. Si l’ouverture est une solution, alors il est nécessaire de regarder partout et en continue à mesure que les systèmes évoluent où elle est nécessaire… Surtout, cette ouverture, parfois, ne peut pas être laissée dans les mains du marché, au risque que ce soit une ouverture de façade. L’ouverture donc nécessite d’être informée pour qu’elle puisse être plus dynamique qu’elle n’est et surtout, elle doit pouvoir s’adosser à un service public, une agence ou un contrôle permettant de la garantir et de contrôler qu’elle soit bien au bon niveau. 

Les démonstrations de Bessen sont souvent puissantes et informées. Le livre est riche et partisan. On a envie, avec lui, de militer pour plus d’ouverture bien sûr, pourtant on voit peut-être plus que lui les limites d’une ouverture, qui n’est pas blanche ou noire, mais souvent plus complexe et intriquée qu’il ne la présente, ou foncièrement choisie (comme l’ouverture de startups d’Etat, mais pas du tout des systèmes déployés dans nombre d’administrations publiques) via des exemples souvent trop spécifiques ou trop choisis pour coller à sa démonstration. On a l’impression en lisant ces Nouveaux Goliaths, que si le livre est riche en complexité, Bessen peine parfois à être lui-même complexe. Le développement du cloud computing par exemple a permis à des acteurs de s’imposer (Amazon notamment) en proposant des modalités d’hébergement souples et configurables et plus encore des capacités de traitements (et de sécurité) associées que d’autres ne proposaient pas. Mais ce nouveau marché a certainement beaucoup concurrencé l’infogérance et l’hébergement traditionnel et plus encore complexifie les problématiques de propriété et de souveraineté. Bessen n’évoque pas beaucoup les niveaux d’investissements sans précédents que peuvent se permettre les entreprises leaders de leurs secteurs qui deviennent inaccessibles à nombre d’acteurs, pensant que remettre de la concurrence suffira… Bessen semble prêt à excuser la concentration si celle-ci permet la compétition. Ces investissements ne sont pourtant bien souvent pas si faramineux : nombre d’entreprises sont plus obsédées par les dividendes qu’elles rapportent que par la démultiplication de leurs taux d’investissements, qui reste proportionnellement assez plats.

On était déjà convaincu que le manque d’ouverture est toujours le problème. Mais on voit bien que la réponse par la plateforme n’est pas un gage de probité ni d’ouverture. Contrairement à Bessen, la régulation antitrusts n’est aujourd’hui certainement pas assez agressive. Le levier de l’ouverture (comme de l’interopérabilité) est effectivement un levier qui mériterait d’être bien plus exploré qu’il n’est. Mais elle ne se suffit pas à elle-même pourtant. La question de plateformes logicielles ouvertes pour smartphone par exemple, devient un vrai enjeu quand deux acteurs se partagent seuls non seulement le marché, mais capitalisent leur développement depuis des données fermées à tout autres acteurs. La maîtrise logicielle, l’accaparement des données et des possibilités de traitements, la concentration autour de quelques acteurs clés est en passe de devenir indéboulonnables du fait des niveaux d’investissements inépuisables dont ils disposent. Elle ne se résoudra pas en leur demandant d’ouvrir un peu plus. Ils le font très bien. Ces acteurs savent très bien ce qu’ils ouvrent et ce qu’ils capitalisent par devers eux. Les entreprises superstars risquent de rester longtemps les maîtres d’un jeu dont elles décident de tous les paramètres. Et les investissements publics sont si peu à niveau, qu’on ne peut même plus penser qu’ils puissent en changer ou en orienter les règles.

Hubert Guillaud

A propos du livre de James Bessen, The New Goliaths: How Corporations Use Software to Dominate Industries, Kill Innovation, and Undermine Regulation, Yale University Press, 2022, 272 pages.

Advertisement

One thought on “Peut-on réguler le capitalisme superstar ?

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s