UN CAPITALISME DE SURVEILLANCE

Publié le par Résistance verte

 

L’industrie numérique prospère grâce à un principe presque enfantin : extraire les données personnelles et vendre aux annonceurs des prédictions sur le comportement des utilisateurs. Mais, pour que les profits croissent, le pronostic doit se changer en certitude. Pour cela, il ne suffit plus de prévoir : il s’agit désormais de modifier à grande échelle les conduites humaines.

Cette journée de juillet 2016 fut particulièrement éprouvante pour David. Il avait passé de longues heures à auditionner les témoins de litiges assurantiels dans un tribunal poussiéreux du New Jersey où, la veille, une coupure d’électricité avait eu raison du système d’air conditionné. Enfin chez lui, il s’immergea dans l’air frais comme on plonge dans l’océan. Pour la première fois depuis le matin, il respira profondément, se servit un apéritif et monta à l’étage afin de s’accorder une longue douche. La sonnette retentit au moment même où l’eau commençait à ruisseler sur ses muscles endoloris. Il enfila un tee-shirt et un short, puis dévala les escaliers. En ouvrant la porte, il se retrouva nez à nez avec deux adolescents qui agitaient leurs téléphones portables sous son nez.

— Hé ! vous avez un Pokémon dans votre jardin. Il est pour nous ! On peut aller l’attraper ?
— Un quoi ?

Ce soir-là, David fut dérangé encore quatre fois par des inconnus impatients d’accéder à son jardin et furieux de se voir congédiés. Ils poussaient des cris et scrutaient sa maison à travers l’écran de leur smartphone, à la recherche des fameuses créatures de « réalité augmentée ». Vue à travers leurs appareils, cette portion du monde laissait paraître leurs Pokémon, mais aux dépens de tout le reste. Le jeu s’était emparé de la maison et du monde alentour. Il s’agissait là d’une nouvelle invention commerciale : une déclaration d’expropriation qui transforme la réalité en une étendue d’espaces vides prêts à être exploités au profit d’autres. « Combien de temps cela va-t-il durer ?, se demandait David. De quel droit ? Qui dois-je appeler pour que cela cesse ? »
Ni lui ni les joueurs pendus à sa sonnette ne soupçonnaient qu’ils avaient été réunis ce soir-là par une logique audacieuse et sans précédent : le capitalisme de surveillance.

En 1999, Google, malgré l’éclat de son nouveau monde, avec ses pages Web consultables en un clic et ses capacités informatiques croissantes, ne disposait d’aucune stratégie pour faire fructifier l’argent de ses investisseurs prestigieux.
Les utilisateurs apportaient la matière première sous la forme de données comportementales, lesquelles étaient récoltées pour améliorer la vitesse, la précision et la pertinence des résultats afin de concevoir des produits annexes comme la traduction. Du fait de cet équilibre des pouvoirs, il eût été financièrement risqué, voire contre-productif, de rendre le moteur de recherche payant pour ses utilisateurs. La vente des résultats de recherche aurait aussi créé un précédent dangereux pour la multinationale, en assignant un prix à des informations dont son robot indexateur s’était déjà emparé sans verser de rétribution. Sans appareils du type de l’iPod d’Apple, avec ses chansons au format numérique, pas de plus-value, pas de marge, et rien à transformer en profit.

À l’époque, Google reléguait la publicité à l’arrière-plan : l’équipe d’AdWords, sa régie publicitaire, comptait... sept personnes, dont la plupart partageaient l’antipathie des fondateurs à l’égard de leur spécialité. Mais, en avril 2000, la fameuse « nouvelle économie » entre brutalement en récession, et un séisme financier secoue le jardin d’Éden de la Silicon Valley. La réponse de Google entraîne alors une mutation cruciale, qui va transformer AdWords, Google, Internet et la nature même du capitalisme de l’information en un projet de surveillance formidablement lucratif.

La logique d’accumulation qui assurera la réussite de Google apparaît clairement dans un brevet déposé en 2003 par trois de ses meilleurs informaticiens, intitulé : « Générer des informations utilisateur à des fins de publicité ciblée ». La présente invention, expliquent-ils, vise « à établir les informations de profils d’utilisateurs et à utiliser ces dernières pour la diffusion d’annonces publicitaires (1)  ». En d’autres termes, Google ne se contente plus d’extraire des données comportementales afin d’améliorer les services. Il s’agit désormais de lire dans les pensées des utilisateurs afin de faire correspondre des publicités avec leurs intérêts. Lesquels seront déduits des traces collatérales de leur comportement en ligne. La collecte de nouveaux jeux de données appelés « profil utilisateur » (de l’anglais user profile information) va considérablement améliorer la précision de ces prédictions.

D’où proviennent ces informations ? Pour reprendre les mots des détenteurs du brevet, elles « pourront être déduites ». Leurs nouveaux outils permettent de créer des profils par l’intégration et l’analyse des habitudes de recherche d’un internaute, des documents qu’il demande ainsi que d’une myriade d’autres signaux de comportement en ligne, même lorsqu’il ne fournit pas directement ces renseignements. Un profil, préviennent les auteurs, « peut être créé (ou mis à jour, ou élargi) même lorsque aucune information explicite n’est donnée au système ». Ainsi manifestent-ils leur volonté de surmonter les éventuelles frictions liées aux droits de décision de l’utilisateur, ainsi que leur capacité à le faire. Les données comportementales, dont la valeur a été « épuisée » du point de vue de l’amélioration des recherches, formeront désormais la matière première essentielle — exclusivement détenue par Google — à la construction d’un marché de la publicité en ligne dynamique. Ces informations collectées en vue d’usages autres que l’amélioration des services constituent un surplus. Et c’est sur la base de cet excédent comportemental que la jeune entreprise accède aux profits « réguliers et exponentiels » nécessaires à sa survie.

L’invention de Google met au jour de nouvelles possibilités de déduire les pensées, les sentiments, les intentions et les intérêts des individus et des groupes au moyen d’une architecture d’extraction automatisée qui fonctionne comme un miroir sans tain, faisant fi de la conscience et du consentement des concernés. Cet impératif d’extraction permet de réaliser des économies d’échelle qui procurent un avantage concurrentiel unique au monde sur un marché où les pronostics sur les comportements individuels représentent une valeur qui s’achète et se vend. Mais surtout, le miroir sans tain symbolise les relations sociales de surveillance particulières fondées sur une formidable asymétrie de savoir et de pouvoir.

Soudain autant que retentissant, le succès d’AdWords entraîne une expansion significative de la logique de surveillance commerciale. En réponse à la demande croissante de clics de la part des publicitaires, Google commence par étendre le modèle au-delà de son moteur de recherche pour transformer Internet tout entier en un vaste support pour ses annonces ciblées. Selon les mots de Hal Varian, son économiste en chef, il s’agissait alors pour le géant californien d’appliquer ses nouvelles compétences en matière « d’extraction et d’analyse » aux contenus de la moindre page Internet, aux moindres gestes des utilisateurs en recourant aux techniques d’analyse sémantique et d’intelligence artificielle susceptibles d’en extraire du sens. Dès lors, Google put évaluer le contenu d’une page et la manière dont les utilisateurs interagissent avec elle. Cette « publicité par ciblage de centres d’intérêt » basée sur les méthodes brevetées par l’entreprise sera finalement baptisée AdSense. En 2004, la filiale engendrait un chiffre d’affaires quotidien de 1 million de dollars ; un chiffre multiplié par plus de vingt-cinq en 2010.

Tous les ingrédients d’un projet lucratif se trouvaient réunis : excédent d’informations comportementales, sciences des données, infrastructure matérielle, puissance de calcul, systèmes algorithmiques et plates-formes automatisées. Tous convergeaient pour engendrer une « pertinence » sans précédent et des milliards d’enchères publicitaires. Les taux de clics grimpèrent en flèche. Travailler sur AdWords et AdSense comptait désormais autant que travailler sur le moteur de recherche. Dès lors que la pertinence se mesurait au taux de clics, l’excédent de données comportementales devenait la clé de voûte d’une nouvelle forme de commerce dépendant de la surveillance en ligne à grande échelle. L’introduction en Bourse de Google en 2004 révèle au monde le succès financier de ce nouveau marché. Mme Sheryl Sandberg, ancienne cadre de Google passée chez Facebook, présidera à la transformation du réseau social en géant de la publicité. Le capitalisme de surveillance s’impose rapidement comme le modèle par défaut du capitalisme d’information sur la Toile, attirant peu à peu des concurrents de tous les secteurs.

L’économie de surveillance repose sur un principe de subordination et de hiérarchie. L’ancienne réciprocité entre les entreprises et les utilisateurs s’efface derrière le projet consistant à extraire une plus-value de nos agissements à des fins conçues par d’autres — vendre de la publicité. Nous ne sommes plus les sujets de la réalisation de la valeur. Nous ne sommes pas non plus, comme d’aucuns l’ont affirmé, le « produit » que vend Google. Nous sommes les objets dont la matière est extraite, expropriée, puis injectée dans les usines d’intelligence artificielle de Google qui fabriquent les produits prédictifs vendus aux clients réels : les entreprises qui paient pour jouer sur les nouveaux marchés comportementaux.

Sous couvert de « personnalisation »

Premier responsable de la marque Google, M. Douglas Edwards raconte une réunion tenue en 2001 avec les fondateurs autour de la question « Qu’est-ce que Google ? ». « Si nous avions une catégorie, méditait M. Larry Page, cofondateur de l’entreprise, ce serait les informations personnelles (…). Les endroits qu’on a vus. Nos communications (…). Les capteurs ne coûtent rien (…). Le stockage ne coûte rien. Les appareils photographiques ne coûtent rien. Les gens vont générer d’énormes quantités de données (…). Tout ce que vous aurez entendu, vu ou éprouvé deviendra consultable. Votre vie entière deviendra consultable (2).  »

La vision de M. Page offre un fidèle reflet de l’histoire du capitalisme, qui consiste à capter des choses extérieures à la sphère commerciale pour les changer en marchandises. Dans son essai La Grande Transformation, publié en 1944, l’économiste Karl Polanyi décrit l’avènement d’une économie de marché autorégulatrice à travers l’invention de trois « marchandises fictives ». Premièrement, la vie humaine subordonnée aux dynamiques de marché et qui renaît sous la forme d’un « travail » vendu et acheté. Deuxièmement, la nature convertie en marché, qui renaît comme « propriété foncière ». Troisièmement, l’échange devenu marchand et ressuscité comme « argent ». Les détenteurs actuels du capital de surveillance ont créé une quatrième marchandise fictive, extorquée à la réalité expérimentale d’êtres humains dont les corps, les pensées et les sentiments sont aussi intacts et innocents que l’étaient les prairies et forêts dont regorgeait la nature avant son absorption par le marché. Conformément à cette logique, l’expérience humaine se trouve marchandisée par le capitalisme de surveillance pour renaître sous forme de « comportements ». Traduits en données, ces derniers prennent place dans l’interminable file destinée à alimenter les machines conçues pour en faire des prédictions qui s’achètent et se vendent.

Cette nouvelle forme de marché part du principe que servir les besoins réels des individus est moins lucratif, donc moins important, que vendre des prédictions de leur comportement. Google a découvert que nous avions moins de valeur que les pronostics que d’autres font de nos agissements.

Cela a tout changé.

La première vague de produits prédictifs fut portée par l’excédent de données extraites à grande échelle sur Internet afin de produire des annonces en ligne « pertinentes ». À l’étape suivante, il fut question de la qualité des prédictions. Dans la course à la certitude maximale, il apparut clairement que les meilleures prédictions devraient s’approcher le plus possible de l’observation. À l’impératif d’extraction s’ajouta une deuxième exigence économique : l’impératif de prédiction. Ce dernier se manifeste d’abord par des économies de gamme.

L’excédent de données comportementales doit être non seulement abondant, mais également varié. Obtenir cette variété impliquait d’étendre les opérations d’extraction du monde virtuel au monde réel, là où nous menons notre « vraie » vie. Les capitalistes de surveillance comprenaient que leur richesse future passait par le développement de nouvelles chaînes d’approvisionnement sur les routes, au milieu des arbres, à travers les villes. Ils tenteraient d’accéder à votre système sanguin, à votre lit, à vos conversations matinales, à vos trajets, à votre footing, à votre réfrigérateur, à votre place de parking, à votre salon.

Une seconde dimension, plus critique encore que la variété, caractérise désormais la collecte des données : l’approfondissement. Pour obtenir des prédictions comportementales très précises et donc très lucratives, il faut sonder nos particularités les plus intimes. Ces opérations d’approvisionnement visent notre personnalité, nos humeurs, nos émotions, nos mensonges et nos fragilités. Tous les niveaux de notre vie personnelle sont automatiquement captés et comprimés en un flux de données à destination des chaînes de montage qui produisent de la certitude. Accomplie sous couvert de « personnalisation », une bonne part de ce travail consiste en une extraction intrusive des aspects les plus intimes de notre quotidien.

De la bouteille de vodka « intelligente » au thermomètre rectal connecté, les produits destinés à interpréter, suivre, enregistrer et communiquer des données prolifèrent. Sleep Number, qui fournit « des lits intelligents dotés d’une technologie de suivi du sommeil », collecte également « des données biométriques et des données relatives à la manière dont vous, un enfant ou toute autre personne utilise le lit, notamment les mouvements du dormeur, ses positions, sa respiration et sa fréquence cardiaque ». Elle enregistre aussi tous les sons émis dans votre chambre…

Nos maisons sont dans la ligne de mire du capitalisme de surveillance. Des entreprises spécialisées se disputaient en 2017 un marché de 14,7 milliards de dollars pour des appareils ménagers connectés, contre 6,8 milliards l’année précédente. À ce rythme-là, le montant atteindra 101 milliards de dollars en 2021. Commercialisés depuis quelques années, des objets absurdes se tiennent à l’affût dans nos intérieurs : brosse à dents intelligente, ampoule intelligente, tasse à café intelligente, four intelligent, extracteur de jus intelligent, sans oublier les couverts intelligents censés améliorer notre digestion. D’autres semblent plus inquiétants : une caméra de surveillance à domicile avec reconnaissance faciale, un système d’alarme qui repère les vibrations inhabituelles précédant un cambriolage, des GPS d’intérieur, des capteurs qui s’adaptent à tous les objets pour analyser le mouvement et la température, sans oublier des cafards cyborgs qui détectent les sons. Même la chambre du nourrisson est repensée pour devenir une source de surplus comportemental.

Tandis que la course aux profits générés par la surveillance s’exacerbe, les capitalistes s’aperçoivent que les économies de gamme ne suffisent pas. Certes, l’excédent de données doit être abondant et varié ; mais le moyen le plus sûr de prédire le comportement reste d’intervenir à la source : en le façonnant. J’appelle « économies de l’action » ces processus inventés pour y parvenir : des logiciels configurés pour intervenir dans des situations réelles sur des personnes et des choses réelles. Toute l’architecture numérique de connexion et de communication est désormais mobilisée au service de ce nouvel objectif. Ces interventions visent à augmenter la certitude en influençant certaines attitudes : elles ajustent, adaptent, manipulent, enrôlent par effet de groupe, donnent un coup de pouce. Elles infléchissent nos conduites dans des directions particulières, par exemple en insérant une phrase précise dans notre fil d’actualités, en programmant l’apparition au moment opportun d’un bouton « achat » sur notre téléphone, en coupant le moteur de notre voiture si le paiement de l’assurance tarde trop, ou encore en nous orientant par GPS dans notre quête de Pokémon. « Nous apprenons à écrire la musique, explique un concepteur de logiciels. Ensuite, nous laissons la musique les faire danser. Nous pouvons mettre au point le contexte qui entoure un comportement particulier afin d’imposer un changement... Nous pouvons dire au réfrigérateur : “Verrouille-toi parce qu’il ne devrait pas manger”, ou ordonner à la télé de s’éteindre pour que vous vous couchiez plus tôt. »

Depuis que l’impératif de prédiction a déplacé les opérations d’approvisionnement dans le monde réel, les fournisseurs de biens ou de services dans des secteurs bien établis, loin de la Silicon Valley, salivent à leur tour à l’idée des profits issus de la surveillance. En particulier les assureurs automobiles, impatients de mettre en place la télématique — les systèmes de navigation et de contrôle des véhicules. Ils savent depuis longtemps que les risques d’accident sont étroitement corrélés au comportement et à la personnalité du conducteur, mais, jusqu’ici, ils n’y pouvaient pas grand-chose. Un rapport des services financiers du cabinet de conseil Deloitte recommande désormais la « minimisation du risque » (un euphémisme qui, chez un assureur, désigne la nécessité de garantir les profits) à travers le suivi et la sanction de l’assuré en temps réel — une approche baptisée « assurance au comportement ». D’après le rapport de Deloitte, « les assureurs peuvent suivre le comportement de l’assuré en direct, en enregistrant les heures, les lieux et les conditions de circulation durant ses trajets, en observant s’il accélère rapidement ou s’il conduit à une vitesse élevée, voire excessive, s’il freine ou tourne brusquement, s’il met son clignotant (3) ».

À mesure que la certitude se substitue à l’incertitude, les primes d’assurance, qui auparavant reflétaient les aléas inévitables de la vie quotidienne, peuvent grimper ou chuter d’une milliseconde à l’autre, grâce à la connaissance précise de la vitesse à laquelle vous conduisez vers votre lieu de travail après une matinée particulièrement tendue passée à vous occuper d’un enfant malade, ou d’un dérapage plus ou moins contrôlé effectué sur le parking du supermarché.

Toutefois, les outils télématiques ne visent pas seulement à savoir, mais aussi à agir. L’assurance au comportement promet ainsi de réduire les risques à travers des mécanismes conçus pour modifier les conduites et accroître les gains. Cela passe par des sanctions, comme des hausses de taux d’intérêt en temps réel, des malus, des blocages de moteur, ou par des récompenses, comme des réductions, des bonus ou des bons points à utiliser pour des prestations futures.

Spireon, qui se décrit comme la « plus grande entreprise de télématique » dans son domaine, suit et surveille des véhicules et des conducteurs pour les agences de location, les assureurs et les propriétaires de parcs automobiles. Son « système de gestion des dommages collatéraux liés à la location » déclenche des alertes chez les conducteurs qui ont un retard de paiement, bloque le véhicule à distance quand le problème se prolonge au-delà d’une certaine période et le localise en vue de sa récupération.

La télématique inaugure une ère nouvelle, celle du contrôle comportemental. Aux assureurs de fixer les paramètres de conduite : ceinture de sécurité, vitesse, temps de pause, accélération ou freinage brusque, durée de conduite excessive, conduite en dehors de la zone de validité du permis, pénétration dans une zone d’accès restreint. Gavés de ces informations, des algorithmes surveillent, évaluent et classent les conducteurs, et ajustent les primes en temps réel. Comme rien ne se perd, les « traits de caractère » établis par le système sont également traduits en produits prédictifs vendus aux publicitaires, lesquels cibleront les assurés par des publicités envoyées sur leur téléphone.

Lorsqu’il ouvrit la porte ce soir-là, David ignorait que les chasseurs de Pokémon et lui-même participaient à une expérience grandeur nature d’économies de l’action. Ils en étaient les cobayes, et le laborantin en blouse blanche se nommait John Hanke.

Auparavant vice-président de Google Maps et responsable de Street View, M. Hanke a créé en 2010 sa propre rampe de lancement au sein de Google : Niantic Labs, l’entreprise à l’origine de Pokémon Go. Il caressait l’ambition de prendre possession du monde en le cartographiant. Il avait déjà fondé Keyhole, une start-up de cartographie virtuelle à partir d’images satellites financée par la Central Intelligence Agency (CIA) puis rachetée par Google, qui l’a rebaptisée Google Earth. Avec Niantic, il s’attelle à concevoir des jeux en réalité virtuelle qui permettront de traquer et de téléguider les gens sur les territoires que Street View a déjà audacieusement enregistrés sur ses cartes.

Ce jeu repose sur le principe de la « réalité augmentée » et fonctionne comme une chasse au trésor. Une fois que vous téléchargez l’application de Niantic, vous utilisez votre GPS et l’appareil photographique de votre smartphone pour trouver des créatures virtuelles appelées Pokémon. Elles apparaissent sur l’écran comme si elles se trouvaient devant vous : dans le jardin d’un homme qui ne se doute de rien, dans la rue d’une ville, dans une pizzeria, un parc, une pharmacie, etc. Il s’agit de pousser les joueurs à « sortir » et à « partir à l’aventure à pied », dans les espaces à ciel ouvert des villes, des villages et des banlieues. Disponible aux États-Unis, en Australie et en Nouvelle-Zélande le 6 juillet 2016, Pokémon Go est devenue en une semaine l’application la plus téléchargée et la plus lucrative aux États-Unis, atteignant vite autant d’utilisateurs actifs sur Android que Twitter.

Terrain de jeu grandeur nature

Six jours seulement après la sortie du jeu, Joseph Bernstein, reporter pour le site d’information en ligne BuzzFeed, conseillait aux utilisateurs de Pokémon Go de se pencher sur les quantités de données que l’application recueillait sur leurs téléphones. TechCrunch, un site spécialisé dans l’actualité des start-up et des nouvelles technologies, exprimait des inquiétudes similaires au sujet de la « longue liste d’autorisations requises par l’application ».

Le 13 juillet 2016, la logique de chasse aux données qui se cache derrière le jeu se précise. En plus des paiements pour des options supplémentaires du jeu, « le modèle économique de Niantic contient une seconde composante, à savoir le concept de lieux sponsorisés », a reconnu M. Hanke dans un entretien avec le Financial Times. Ce nouveau flux de revenus était prévu depuis le départ : les entreprises « paieront Niantic pour figurer parmi les sites du terrain de jeu virtuel, compte tenu du fait que cette présence favorise la fréquentation ». La facturation, expliquait-il, s’effectue sur la base d’un « coût par visite », semblable au « coût par clic » pratiqué par les annonces publicitaires du moteur de recherche Google.

L’idée frappe par sa simplicité : les revenus issus du monde réel sont censés augmenter selon la capacité de Niantic à pousser les gens vers certains sites précis, tout comme Google a appris à extraire toujours plus de données comme un moyen d’adresser des publicités en ligne à des personnes précises. Les composantes et les dynamiques du jeu, associées à la technologie de pointe de la réalité augmentée, incitent les gens à se rassembler dans des lieux du monde réel pour dépenser de l’argent bien réel dans des commerces du monde réel appartenant aux marchés de la prédiction comportementale de Niantic.

L’apogée de Pokémon Go, à l’été 2016, signait l’accomplissement du rêve porté par le capitalisme de surveillance : un laboratoire vivant de la modification comportementale qui conjuguait avec aisance échelle, gamme et action. L’astuce de Pokémon Go consistait à transformer un simple divertissement en un jeu d’un ordre très différent : celui du capitalisme de surveillance — un jeu dans le jeu. Tous ceux qui, rôdant dans les parcs et les pizzerias, ont investi la ville comme un terrain d’amusement servaient inconsciemment de pions sur ce second échiquier bien plus important. Les enthousiastes de cet autre jeu bien réel ne comptaient pas au nombre des agités qui brandissaient leurs portables devant la pelouse de David. Ce sont les véritables clients de Niantic : les entités qui paient pour jouer dans le monde réel, bercées par la promesse de revenus juteux. Dans ce second jeu permanent, on se dispute l’argent que laisse derrière lui chaque membre souriant du troupeau. « La capacité du jeu à servir de vache à lait pour les marchands et autres lieux en quête de fréquentation suscite d’intenses spéculations », s’est réjoui le Financial Times.

Il ne peut y avoir de revenus assurés si on ne s’en donne pas les moyens. Les nouveaux instruments internationaux de modification comportementale inaugurent une ère réactionnaire où le capital est autonome et les individus hétéronomes ; la possibilité même d’un épanouissement démocratique et humain exigerait le contraire. Ce sinistre paradoxe est au cœur du capitalisme de surveillance : une économie d’un nouveau genre qui nous réinvente au prisme de son propre pouvoir. Quel est ce nouveau pouvoir et comment transforme-t-il la nature humaine au nom de ses certitudes lucratives ?

Shoshana Zuboff
Professeure émérite à la Harvard Business School. Auteure de The Age of Surveillance Capitalism : The Fight for a Human Future at the New Frontier of Power, Public Affairs, New York, 2019.

Le Monde diplomatique, janvier 2019
https://www.monde-diplomatique.fr/2019/01/ZUBOFF/59443

(1) NDLR. Pour les références, nous renvoyons à l’ouvrage de Shoshana Zuboff.

(2) Douglas Edwards, I’m Feeling Lucky : The Confessions of Google Employee Number 59, Houghton Mifflin Harcourt, New York, 2011.

(3) Sam Friedman et Michelle Canaan, « Overcoming speed bumps on the road to telematics » (PDF), Deloitte, 21 avril 2014
https://www2.deloitte.com/content/dam/insights/us/articles/telematics-in-auto-insurance/DUP-695_Telematics-in-the-Insurance-Industry_vFINAL.pdf
 

 

 

 

LE CAPITALISME DE LA SURVEILLANCE     

Tous tracés, et alors ? Bienvenue dans le capitalisme de  surveillance ! Les géants du web, Google, Facebook, Microsoft et  consorts, ne cherchent plus seulement à capter toutes nos données, mais à orienter, modifier et conditionner tous  nos comportements : notre vie sociale, nos émotions, nos pensées les  plus intimes… jusqu’à notre bulletin de vote. En un mot, décider à notre  place – à des fins strictement lucratives.
Des premiers pas de Google au scandale de Cambridge Analytica, Shoshana Zuboff analyse cette mutation monstrueuse du capitalisme, où la  souveraineté du peuple est renversée au profit non pas d’un État  autoritaire, comme on pourrait le craindre, mais d’une nouvelle  industrie opaque, avide et toute-puissante, menaçant dans une indifférence radicale notre libre arbitre et la démocratie.
Il est urgent de développer des outils pour appréhender cette  situation « sans précédent » et provoquer une prise de conscience  internationale. Unanimement salué par la presse, L’Âge du capitalisme de surveillance est un appel à la résistance.

Alors que la division du travail était le principe organisateur de la société industrielle, c’est la division du savoir qui organise la société numérique. Mais elle est prise en otage par le capitalisme de la surveillance qui traduit l’expérience humaine en données informatiques à son profit.
Les connections sont devenues des armes : plus nous nous connectons, et plus nous donnons d’informations personnelles. […] Ils ont appris à prendre beaucoup plus de nous que ce que nous savons.  

Ce texte est extrait du livre The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power (Public Affairs Books, 2019). Le capitalisme de la surveillance y est défini comme cette nouvelle forme de capitalisme qui traduit l’expérience humaine en données ­comportementales afin de produire des prédictions qui sont ensuite revendues sur le marché des comportements futurs. Pour Shoshana Zuboff, la concentration de richesse, de savoir et de pouvoir par les capitalistes de la surveillance est telle qu’elle menace la démocratie, les libertés et l’avenir de l’humanité.
 
« Allons-nous tous travailler pour une machine intelligente, ou aurons-nous des personnes intelligentes autour de la machine ? » Un jeune gérant d’une usine à papier m’a posé cette question en 1981, entre le poisson frit et la tarte aux noix de pécan, au cours de ma première soirée passée dans une petite ville du sud des États-Unis où cette usine gigantesque était domiciliée et où j’allais élire domicile pour les six années suivantes. Au cours de cette soirée pluvieuse, ses paroles m’ont submergée, étouffant le bruit des gouttes de pluie sur l’auvent au-dessus de notre table. Je reconnaissais les plus anciennes questions politiques : domicile ou exil ? Souverain ou sujet ? Maître ou esclave ? Tels sont les éternels problèmes du savoir, de ­l’autorité et du pouvoir qui ne sont jamais fixés pour toutes les époques. Il n’y a pas de fin de l’histoire ; chaque génération doit affirmer sa volonté et son imagination face aux nouvelles menaces qui exigent que l’affaire soit jugée à nouveau à chaque époque.

Dans les années qui ont suivi cette soirée, j’ai observé de près la numérisation du travail dans la papeterie. Comme je l’ai décrit dans In the Age of Smart Machine, le tournant vers les technologies de l’information a transformé l’usine en un « texte électronique » qui s’est placé au centre des attentions des travailleurs[1]. À la place des tâches manuelles associées aux matériaux et aux équipements bruts, faire « du bon boulot » revenait à suivre des données sur écran et à maîtriser les compétences requises pour comprendre, apprendre de et agir par ce texte électronique. Ce qui semble ordinaire aujourd’hui était alors extraordinaire.

J’ai soutenu alors que ces changements manifestes signalaient une transformation profonde et importante. Le principe organisateur de l’entreprise n’était plus la division du travail, mais la division du savoir. J’ai décrit ces femmes et ces hommes qui, à la surprise générale, parvenaient à acquérir de nouvelles compétences intellectuelles et à prospérer dans un nouvel environnement riche en informations, mais j’ai également observé des conflits violents, que l’on peut considérer comme des dilemmes du savoir, de l’autorité et du pouvoir.

Qui sait ?

Toute prise en compte de la division du savoir doit résoudre ces dilemmes, que l’on peut exprimer en trois questions fondamentales : la première question est : « Qui sait ? » Elle porte sur la distribution du savoir et des possibilités d’apprentissage. La deuxième question est : « Qui décide ? » Elle porte sur l’autorité : quelles personnes, institutions ou processus déterminent ceux qui bénéficient de l’apprentissage, ce qu’ils sont capables d’apprendre, et leur marge d’action en fonction de leur savoir. Quel est le fondement légitime de cette autorité ? La troisième question est : « Qui décide qui décide ? » Elle porte sur le pouvoir. Quelle est la source de pouvoir qui sous-tend l’autorité de partager ou non le savoir ?

Le jeune gérant finira par trouver des réponses à ses questions, mais elles ne correspondaient pas à ce que nous espérions. En dépit des luttes et des victoires des travailleurs de l’usine de papier, la conception du monde selon Hayek devenait hégémonique aux plus hauts niveaux politiques et les disciplines de fonctionnement de Jensen trouvaient un accueil favorable à Wall Street, qui a vite appris à les imposer à toute entreprise cotée en bourse. Il en résulta un modèle commercial de réduction des coûts au profit des investisseurs de Wall Street, qui insistait sur l’automatisation et la délocalisation des emplois plutôt que sur l’investissement dans les compétences numériques et les capacités du travailleur américain. À la question Qui sait ?, on a répondu par la machine, avec une élite de cadres capables de forger les outils analytiques permettant de résoudre les problèmes et d’extraire la valeur de l’information. À la question Qui décide ?, on a répondu par une forme de marché restreint et ses modèles commerciaux. Et, en l’absence de réaction de la part des institutions démocratiques et de la société civile, à la question Qui décide qui décide ?, on a répondu que c’était le capital financier, tenu par la discipline de la maximisation des dividendes.

Il n’est donc pas surprenant que, quelque quarante ans plus tard, un rapport de l’institut Brookings regrette que des millions de travailleurs américains soient « exclus de possibilités décentes de formation » face à « la numérisation fulgurante ». Le rapport exhorte les entreprises à « investir rapidement dans des stratégies de formation en technologies de l’information pour les travailleurs en place, sachant que les compétences numériques représentent un moyen important de gagner en productivité [2] ». À quoi ressemblerait notre société si les entreprises américaines avaient choisi d’investir dans les personnes autant que dans les machines ?

La plupart des entreprises ont préféré les machines intelligentes aux personnes intelligentes, favorisant le remplacement des agents humains par des machines et leurs algorithmes pour une large gamme de métiers, dont de plus en plus de professions éloignées de l’usine. Cela produit ce que les économistes appellent une « polarisation du marché du travail », avec des métiers très qualifiés et d’autres peu qualifiés aux deux extrémités, l’automatisation remplaçant la plupart des métiers qui étaient situés entre les deux. Bien que certains dirigeants d’entreprise, économistes et spécialistes des technologies décrivent ces développements comme des conséquences nécessaires et inévitables des technologies informatiques, des études montrent que la division du savoir dans le domaine éco­nomique reflète la force de l’idéologie, la politique, la culture et les structures institutionnelles néolibérales. Par exemple, en Europe continentale et du Nord, où des institutions démocratiques et des organisations de la société civile ont survécu sous une forme ou une autre, la polarisation du marché du travail est tempérée par des investissements massifs dans la formation de la main-d’œuvre qui rend la division du savoir plus inclusive et permet des produits et services innovants et de grande qualité[3].

La division du savoir dans le domaine économique de la production et de l’emploi est importante, mais elle ne constitue que le début d’une nouvelle lutte, plus générale, portant sur la division du savoir dans la société. Les dilemmes du savoir, de l’autorité et du pouvoir font sauter les murs de l’usine et bouleversent nos vies quotidiennes. Alors que les personnes, les processus et les choses sont réinventés comme informations, la division du savoir devient le principe d’organisation sociale prédominant de notre époque.

Le monde et nos vies sont intégralement transformés en informations

Par nos cartes de crédit et téléphones, par les caméras et capteurs qui prolifèrent dans les espaces privés et publics, des ordinateurs enregistrent et codifient presque tous les détails de nos vies quotidiennes. Plus rien n’échappe à l’écriture continue de ce nouveau texte électronique, qui se répand comme une énorme nappe de pétrole, engloutissant tout sur son passage : votre conversation au petit-déjeuner, les rues de votre quartier, la taille de votre salon, votre séance de jogging au parc.

Ainsi, le monde et nos vies sont intégralement transformés en informations. Que l’on se plaigne de son acné ou que l’on contribue à un débat politique sur Facebook, que l’on cherche une recette de cuisine ou une information sensible concernant la santé sur Google, que l’on commande de la lessive ou que l’on prenne des photographies avec son enfant de neuf ans, que l’on sourie ou que l’on soit en colère, que l’on regarde la télévision ou que l’on fasse une roue arrière sur un parking, tout ceci constitue du matériau brut pour le développement du texte. Le spécialiste de l’information Martin Hilbert et ses collègues font remarquer que même les éléments fondamentaux de la civilisation, comme « le langage, les ressources culturelles, les traditions, les institutions, les règles et les lois… sont en cours de numérisation et, pour la première fois, explicitement transformés en code visible », et ensuite rendus à la société à travers le filtre d’« algorithmes intelligents » déployés afin de remplir de plus en plus de fonctions commerciales, gouvernementales et sociales[4]. Nous sommes confrontés aux mêmes questions essentielles à chaque tournant : Qui sait ? Qui décide ? Qui décide qui décide ?

Le capital de la surveillance et les deux textes

Il existe des parallèles importants avec la fin du xixe siècle et le début du xxe siècle, quand la division du travail a émergé comme le principe majeur de l’organisation sociale dans les sociétés industrielles naissantes en Europe et en Amérique du Nord. Ces expériences peuvent nous guider et nous avertir des enjeux. Par exemple, quand le jeune Émile Durkheim écrit De la division du travail social, le titre même du livre est polémique. La division du travail avait été comprise comme un moyen décisif d’augmenter la productivité du travail par la spécialisation des tâches. Adam Smith avait écrit à propos de ce nouveau principe d’organisation industrielle dans sa description d’une manufacture d’épingles, et la division du travail était restée un thème de controverse pour la science économique tout au long du xixe siècle. Durkheim reconnaît que la productivité du travail est un impératif économique du capitalisme industriel qui va pousser la division du travail jusqu’au bout, mais ce n’est pas ce qui retient son attention.

Durkheim se concentre plutôt sur la transformation sociale qui s’opère sous ses yeux, le fait que la « spécialisation » gagne de « l’influence » en politique, dans l’administration, le monde judiciaire, la science et les arts. Il conclut que la division du travail n’est plus cantonnée au site de production industriel. Elle fait sauter les murs de l’usine pour devenir le principe organisateur de la société industrielle. « Quelque jugement qu’on porte sur la division du travail, écrit Durkheim, tout le monde sent bien qu’elle est et qu’elle devient de plus en plus une des bases fondamentales de l’ordre social [5]. »

Les impératifs économiques commandent de manière prévisible la division du travail dans la production, mais quel est le but de la division du travail dans la société ? Telle est la question qui motive l’analyse de Durkheim, et ses conclusions vieilles d’un siècle sont toujours pertinentes aujourd’hui. Pour lui, la division du travail explique les interdépendances et les rapports réciproques des divers membres d’une société industrielle dans une recherche plus générale de solidarité. Les rapports réciproques nourrissent le besoin, l’engagement et le respect mutuels, qui confèrent une force morale à ce nouveau principe organisateur.

Autrement dit, la division du travail est introduite dans la société au début du xxe siècle par les circonstances rapidement changeantes pour les nouveaux individus de la première modernité. Elle est une réponse fondamentale à leurs nouvelles « conditions d’existence ». Alors que des personnes comme mes arrière-grands-parents rejoignaient le monde moderne, ­s’effondraient les anciennes sources de sens qui avaient fait tenir les communautés dans le temps et l’espace. Qu’est-ce qui fera tenir la société en l’absence des règles et des rituels du clan et de la parenté ? La réponse de Durkheim est la division du travail. La cause est le besoin d’une nouvelle source cohérente de sens et de structure et l’effet, un principe d’organisation qui permet et soutient une communauté moderne saine. Comme l’explique le jeune sociologue, « le plus remarquable effet de la division du travail n’est pas qu’elle augmente le rendement des fonctions divisées, mais qu’elle les rend solidaires. Son rôle n’est pas simplement d’embellir ou d’améliorer les sociétés existantes, mais de rendre possibles des sociétés qui, sans elles, n’existeraient pas… Son résultat dépasse infiniment la sphère des intérêts purement économiques, car il consiste dans l’établissement d’un ordre social et moral sui generis[6] ».

La conception de Durkheim n’est ni stérile ni naïve. Il reconnaît que les choses peuvent mal tourner, et que cela arrive souvent, produisant ce qu’il appelle une division « anormale » ou « pathologique » du travail mettant de la distance sociale, de l’injustice et de la discorde à la place de la réciprocité et de l’interdépendance. Dans ce contexte, Durkheim identifie les effets destructeurs de l’inégalité sociale sur la division du travail dans la société, notamment ce qu’il considère comme la forme la plus dangereuse d’inégalité : les asymétries extrêmes de pouvoir qui rendent « la lutte même impossible ; on n’est même pas admis à combattre ». On ne peut remédier à de telles pathologies que par une politique qui affirme le droit de protester, de s’affronter à un pouvoir inégal et illégitime sur la société, et éventuellement de l’emporter. À la fin du xixe siècle et pendant la majeure partie du xxe siècle, cette lutte est menée par les mouvements de travailleurs et d’autres mouvements sociaux qui défendent l’égalité sociale par le moyen d’institutions comme la négociation collective et l’éducation publique.

La transformation que nous connaissons à notre époque fait écho à ces observations historiques dans la mesure où la division du savoir suit le même chemin que la division du travail : du domaine économique au domaine social. Aujourd’hui, la division du savoir « dépasse infiniment la sphère des intérêts purement économiques » et constitue le fondement de notre ordre social et de son contenu moral.

La division du savoir est à nous, membres de la seconde modernité, ce que la division du travail était à nos grands-parents et arrière-grands-­parents, pionniers de la première modernité. De nos jours, la division du savoir émerge depuis la sphère économique pour devenir un nouveau principe d’organisation sociale et témoigne de la primauté de la formation, de l’information et du savoir dans la quête contemporaine pour une vie effective. Et comme Durkheim prévenait sa société il y a un siècle, nos sociétés sont aujourd’hui menacées par la dérive de la division du savoir vers le pathologique et l’injustice, prise dans des asymétries inédites de savoir et de pouvoir que le capitalisme de la surveillance a créées.

La maîtrise de la division du savoir par le capitalisme de la surveillance commence par ce que j’appelle le problème des deux textes. Les mécanismes spécifiques de cette forme de capitalisme imposent la production, non pas d’un, mais de deux « textes électroniques ». En ce qui concerne le premier texte, nous sommes ses auteurs et ses lecteurs. Ce texte est public, familier et célébré pour l’univers d’informations et d’associations qu’il met à notre portée. Une grande partie de ce texte public est composée de ce que nous y inscrivons : nos publications, blogs, vidéos, photos, conversations, musiques, histoires, observations, likes, tweets et tout le grand brouhaha de nos vies enregistrées et communiquées.

Sous le régime du capitalisme de la surveillance, toutefois, ce premier texte n’est pas seul ; il porte un fantôme avec lui. Le premier texte, plein de promesses, fonctionne en réalité comme une source d’approvisionnement pour le second : le texte fantôme. Toute contribution au premier texte, aussi banale ou passagère soit-elle, fait l’objet d’une extraction d’un excédent qui vient remplir les pages du second texte. Ce dernier demeure caché, sous embargo, sauf pour les capitalistes de la surveillance. Dans ce texte, notre expérience est une matière première accumulée et analysée pour servir les finalités commerciales des autres. Le texte fantôme est une accumulation croissante d’excédent comportemental et de ses analyses ; il révèle plus sur nous-mêmes que nous ne pouvons savoir. Pis, il devient de plus en plus difficile et sans doute impossible de se retenir d’y contribuer. Il se nourrit de notre expérience de manière automatique, tandis que nous participons, normalement et nécessairement, aux routines sociales.

La division du savoir a déjà été prise en otage par le capitalisme de la surveillance

La manière dont les capitalistes de la surveillance mettent en œuvre ce qu’ils apprennent de leur texte fantôme exclusif pour façonner le texte public de leurs intérêts est encore plus énigmatique. Il y a eu de nombreuses révélations sur les manipulations de l’information par Google et Facebook. Pour le moment, je me contenterai de souligner que les algorithmes de Google et de Facebook sélectionnent et ordonnent les résultats de recherche et les publications du flux d’informations. Dans les deux cas, des chercheurs ont montré que ces manipulations reflètent les objectifs commerciaux de chaque entreprise. Comme l’écrit le juriste Frank Pasquale, « les décisions du Googleplex sont prises derrière des portes closes… le pouvoir d’inclure, d’exclure ou de classer est le pouvoir de s’assurer quelles traces du public deviennent permanentes et lesquelles sont effacées… Malgré leur prétention à l’objectivité et à la neutralité, ces entreprises prennent constamment des décisions qui sont contestables et chargées de valeur [7] ». En ce qui concerne le texte fantôme, les lois de la dynamique du capitalisme de la surveillance imposent à la fois le secret et la croissance continue. Nous sommes les objets de ses récits, mais nous sommes exclus de ses leçons. En tant que nous sommes la source de ce trésor, le second texte est à propos de nous, mais il n’est pas pour nous. Il est plutôt créé, maintenu et exploité, sans que nous en ayons conscience, au profit des autres.

Ainsi, la division du savoir est le principe dominant de l’organisation sociale dans notre civilisation de l’information, mais elle a déjà été prise en otage par le capitalisme de la surveillance, grâce à sa position privilégiée de principal compositeur, propriétaire et gardien de ces textes. La capacité du capitalisme de la surveillance à corrompre et à contrôler ces textes produit des asymétries de savoir inédites qui fonctionnent précisément comme Durkheim le craignait : les libertés accordées à cette forme de marché et le caractère illisible de son action lui ont permis d’imposer un contrôle important sur la division du savoir sans que nous en prenions conscience et sans que nous puissions nous y opposer. Pour revenir aux trois questions fondamentales, le capital de la surveillance a recueilli le pouvoir et revendiqué l’autorité de fournir toutes les réponses. Mais l’autorité ne suffisant pas, le capital de la surveillance maîtrise aussi l’infrastructure matérielle et l’expertise requises pour dominer la division du savoir dans la société.

Un nouveau clergé

Les scientifiques nous préviennent que la capacité du monde à produire de l’information a largement dépassé sa capacité à la traiter et à la conserver. Notre mémoire technologique a en effet plus ou moins doublé tous les trois ans. En 1986, seul 1 % de l’information mondiale est numérisé, 25 % en 2000. En 2013, le progrès de la numérisation et de la « datafication » (l’application d’un logiciel qui permet à des ordinateurs et à des algorithmes de traiter et d’analyser des données brutes), combiné à de nouvelles technologies de conservation moins onéreuses, a permis de traduire 98 % de l’information en format numérique.

L’information est numérique, mais son volume dépasse notre capacité à saisir sa signification. L’expert en information Martin Hilbert prodigue le conseil suivant : « La seule possibilité qu’il nous reste pour donner du sens à toutes ces données est de combattre le mal par le mal », d’employer « des ordinateurs à l’intelligence artificielle » afin de « cribler les énormes masses d’informations [8] ». L’essor du capitalisme de la surveillance ne peut que transformer le conseil de Hilbert en une proposition dangereuse. Quelle que soit son intention, Hilbert renforce la position privilégiée des capitalistes de la surveillance et le pouvoir asymétrique qui leur permet de détourner la division du savoir à leur profit.

Le pouvoir asymétrique de Google s’appuie sur des ressources sociales : ses communiqués, ses fortifications défensives, son exploitation du droit, l’héritage de l’exceptionnalisme de la surveillance, les fardeaux qui pèsent sur les individus de la seconde modernité, etc. Mais son pouvoir serait inefficace sans la gigantesque infrastructure matérielle que les revenus de la surveillance lui ont permis d’acheter. Google est le pionnier des calculs à très grande échelle (hyperscale), grâce au « plus grand réseau d’ordinateurs sur Terre[9] ». On trouve les calculs à très grande échelle dans les entreprises qui traitent d’importants volumes d’informations, telles que les compagnies de télécommunication et de transferts d’argent internationaux, où les centres de données requièrent des millions de « serveurs virtuels » qui augmentent les capacités de calcul de manière exponentielle sans accroître la demande en espace physique, en refroidissement ou en énergie électrique. L’intelligence mécanique au cœur de la formidable domination de Google est « à 80 % infrastructurelle », et comprend des centres de données sur mesure de la taille d’entrepôts répartis sur quinze sites et quatre continents, avec quelque deux millions cinq cent mille serveurs en 2016.

Les investisseurs considèrent que Google est « encore plus difficile à arrêter que jamais » parce qu’il est inégalé dans sa combinaison d’infrastructures et de science. Google est connu comme une « entreprise d’ingénierie en intelligence artificielle » qui « forme ses propres algorithmes, fonctionnant sur ses propres puces, déployés sur ses propres serveurs ». Sa domination est encore renforcée par le volume de données dont il dispose. En 2013, l’entreprise a compris que son tournant vers « les réseaux neuronaux », la nouvelle frontière de l’intelligence artificielle, allait substantiellement augmenter ses demandes en calcul et requérir un doublement de ses centres de données. Urs Hözle, le vice-président des infrastructures techniques de Google, le formule ainsi : « Le petit secret derrière l’intelligence artificielle est qu’elle requiert un nombre insensé de calculs simplement pour former le réseau. » Si l’entreprise avait essayé de traiter la surcharge de travail par des processeurs centraux (CPU) traditionnels, explique-t-il, « nous aurions eu à doubler l’empreinte totale de Google – centres de données et serveurs – pour seulement faire deux ou trois minutes de reconnaissance vocale par usager d’Android par jour[10] ».

Étant donné les coûts des centres de données et de l’énergie, Google a trouvé une voie pour échapper à la crise d’infrastructure. En 2016, il a annoncé le développement d’une nouvelle puce dédiée à « l’inférence ­d’apprentissage profond », appelée processeur à tension (TPU). Le processeur à tension augmente considérablement l’intelligence des machines de Google, consomme une petite fraction de l’énergie requise pour les processeurs existants et réduit la dépense de capital et le budget opérationnel, tout en apprenant plus et plus vite.

Google/Alphabet est l’acquéreur de technologies et de talents en intelligence artificielle le plus agressif sur le marché. En 2014-2016, il a acheté neuf entreprises d’intelligence artificielle, soit deux fois plus que son principal concurrent Apple[11]. La concentration de talents en intelligence artificielle à Google reflète une tendance plus générale. En 2017, on estime que les entreprises américaines ont alloué plus de 650 millions de dollars pour alimenter la course aux talents en intelligence artificielle, avec plus de 10 000 emplois disponibles. Les cinq plus grandes entreprises de technologie disposent d’assez de capital pour évincer leurs concurrents : start-ups, universités, municipalités, entreprises établies dans d’autres industries et pays plus pauvres[12]. En Grande-Bretagne, les administrateurs d’université parlent déjà d’une « génération perdue » ­d’experts en méga-données. Les gros salaires dans les entreprises de technologie sont tellement attractifs qu’il n’y a plus personne pour enseigner à la nouvelle génération d’étudiants. Comme l’explique un expert, « le véritable problème est que l’intelligence et l’expertise sont concentrées sur un petit nombre d’entreprises[13] ».

Grâce à ses efforts de recrutement extravagants, Google a triplé le nombre de ses experts en intelligence des machines au cours des dernières années et est devenu le contributeur principal des revues scientifiques les plus prestigieuses – quatre à cinq fois la moyenne mondiale en 2016. Sous le régime du capitalisme de la surveillance, les scientifiques de l’entreprise ne sont pas recrutés pour lutter contre la faim dans le monde ou éliminer les énergies carbones. Leur génie est plutôt censé percer les mystères de l’expérience humaine, la transformer en données et la traduire en un nouveau colosse commercial qui crée de la richesse par la prédiction, l’influence et le contrôle des comportements.

Il y a plus de six cents ans, l’imprimerie a mis l’écrit aux mains des gens ordinaires, en sauvegardant les prières, en contournant le clergé et en permettant une communion spirituelle directe des fidèles. Il nous semble acquis qu’Internet assure une diffusion inédite de l’information, remplissant la promesse de plus de connaissance pour plus de personnes : une force démocratique puissante qui accomplit la révolution de Gutenberg dans la vie de milliards d’individus. Mais cet accomplissement grandiose nous a aveuglés sur un autre développement historique, qui a lieu hors de notre portée et à l’abri des regards, et qui vise à exclure, brouiller et obscurcir. Par ce mouvement caché, la lutte concurrentielle pour les revenus de la surveillance revient à un ordre d’avant Gutenberg, dès lors que la division du savoir dans la société tend vers le pathologique, capturée par un clergé étroit de spécialistes en informatique employés dans le privé, leurs machines privées et les intérêts économiques au nom desquels elles apprennent.

La privatisation de la division du savoir dans la société

La division du savoir dans la société a été prise en otage par le capitalisme de la surveillance. En l’absence d’un double mouvement ferme par lequel les institutions démocratiques et la société civile rattachent le capitalisme de l’information brute aux intérêts du peuple – même imparfaitement –, nous sommes renvoyés à la forme du marché des entreprises capitalistes de la surveillance dans la plus importante des compétitions pour la division du savoir dans la société. Les experts dans les disciplines associées à l’intelligence des machines le savent, mais ils n’en saisissent pas les conséquences plus générales. Ainsi, l’ingénieur en méga-données Pedro Domingos écrit : « Celui qui a les meilleurs algorithmes et le plus de données a gagné… Google, avec sa longueur d’avance et une plus grande part de marché, sait mieux que vous ce que vous voulez… celui qui apprend le plus vite a gagné [14]… » Le New York Times rapporte que le Pdg de Google, Sundar Pichai, partage désormais son étage avec le laboratoire de recherche en intelligence artificielle de l’entreprise et note que c’est une tendance qui s’observe chez de nombreux Pdg : une acception littérale de la concentration du pouvoir[15].

Il y a près de trente ans, le juriste Spiros Simitis a publié un essai précurseur sur le thème de la confidentialité dans la société de l’information. Simitis comprend très tôt que les tendances déjà observables dans « le traitement de l’information », privé et public, présente des risques pour la société qui débordent les conceptions étroites de la confidentialité et de la propriété des données : « Les informations personnelles sont de plus en plus utilisées pour renforcer des normes de comportements. Le traitement de l’information contribue à des stratégies à long terme visant à façonner et ajuster la conduite individuelle[16]. » Simitis a soutenu que ces tendances étaient incompatibles, non seulement avec le respect de la vie privée, mais aussi avec la possibilité même de la démocratie, qui dépend d’un ensemble de capacités individuelles associées à l’autonomie du jugement moral et à l’auto-détermination.

S’appuyant sur le travail de Simitis, Paul M. Schwartz prévient en 1989 que l’informatisation va transformer le fragile équilibre des droits et des devoirs sur lequel repose le respect de la vie privée : « Aujourd’hui, les énormes quantités de données personnelles disponibles sur les ordinateurs menacent l’individu d’une manière qui rend obsolète une grande partie des protections juridiques existantes. » Plus encore, Schwartz avertit que l’ampleur de la crise, qui ne fait alors que commencer, impose des risques qui débordent le cadre du droit au respect de la vie privée : « Le danger que pose l’ordinateur concerne l’autonomie humaine. Plus on connaît une personne, plus il est facile de la contrôler. Garantir la liberté qui nourrit la démocratie exige de réguler l’usage social de l’information et même d’autoriser une certaine dissimulation de l’information[17]. »

Simitis et Schwartz ont tous les deux pris conscience de l’essor de la division du savoir comme principe central du nouveau milieu social de l’informatisation, mais ils n’ont pas anticipé l’émergence du capitalisme de la surveillance et de ses effets. Bien que la croissance explosive du continent de l’information fasse bouger un axe crucial de l’ordre social, de la division du travail du xxe siècle vers la division du savoir du xxie siècle, ce sont les capitalistes de la surveillance qui règnent sur ce champ et qui s’octroient une part disproportionnée des droits de décider qui façonne la division du savoir dans la société.

Le capitalisme de la surveillance est profondément antidémocratique

Les actions de dépossession numérique par les capitalistes de la surveillance imposent un nouveau genre de contrôle sur les individus, les populations et des sociétés entières. La vie privée des individus est la victime de ce contrôle et sa défense exige de repenser le discours, le droit et le raisonnement juridique concernant la vie privée. « L’atteinte à la vie privée » est désormais une dimension prévisible de l’inégalité sociale, même si ce n’est pas la seule. Elle est le résultat systématique d’une division « patho­logique » du savoir dans la société, pour laquelle le capitalisme de la surveillance sait, décide et décide qui décide. Exiger le respect de la vie privée de la part des capitalistes de la surveillance ou faire campagne en faveur de la fin de la surveillance commerciale sur Internet, c’est comme demander à Henry Ford de fabriquer chaque modèle T à la main ou à une girafe de raccourcir son cou : de telles exigences menacent leur existence. Elles violent les mécanismes et les lois fondamentales du mouvement qui produisent les concentrations à la Léviathan de savoir, de pouvoir et de richesse de ce marché.

L’enjeu est donc celui-ci : le capitalisme de la surveillance est profondément antidémocratique, mais son remarquable pouvoir ne trouve plus son origine historique dans l’État. On ne peut expliquer ses effets par la technologie ou les mauvaises intentions de méchantes personnes ; elles sont des conséquences cohérentes et prévisibles d’une logique d’accumulation réussie. Le capitalisme de la surveillance a assuré sa domination aux États-Unis dans des conditions de vide juridique relatif. De là, il s’est étendu à l’Europe, et il continue de réaliser des percées dans toutes les régions du monde. Les entreprises du capitalisme de la surveillance, à commencer par Google, dominent l’accumulation et le traitement de ­l’information, en particulier sur le comportement humain. Elles connaissent beaucoup de choses nous concernant, mais notre accès à leur connaissance est limité : leur connaissance reste cachée dans le texte fantôme et lue seulement par les nouveaux prêtres, leurs patrons et leurs machines.

Cette concentration inédite de savoir produit une concentration également inédite de pouvoir : les asymétries doivent se comprendre comme la privatisation illicite de la division du savoir dans la société. Autrement dit, des intérêts privés puissants contrôlent le principe déterminant de l’ordre social de notre époque, comme, pour Durkheim il y a un siècle, les forces puissantes du capital industriel ont subverti la division du travail. Dans la situation contemporaine, ce sont les entreprises capitalistes de la surveillance qui savent. C’est la forme du marché qui décide. C’est la concurrence entre capitalistes de la surveillance qui décide qui décide.

Shoshana Zuboff, mai 2019
Traduit de l’anglais (États-Unis) par Jonathan Chalier

https://esprit.presse.fr/article/shoshana-zuboff/le-capitalisme-de-la-surveillance-42084


 
[1] - Shoshana Zuboff, In the Age of Smart Machine: The Future of Work and Power, New York, Basic Books, 1988.

[2] - Mark Muro, Sifan Liu, Jacob Whiton et Siddarth Kulkarni, “Digitalization and the American workforce”, Washington, Metropolitan Policy Program, Brookings Institution, novembre 2017.

[3] - Voir Kathleen Thelen, Varieties of Liberalization and the New Policits of Social Solidarity, -Cambridge, Cambridge University Press, 2014.

[4] - Martin R. Gillings, Martin Hilbert et Darell J. Kemp, “Information in the biosphere: biological and digital worlds”, Trends in Ecology and Evolution, vol. 31, n° 3, 2016.

[5] - Émile Durkheim, De la division du travail social [1893], Paris, Presses universitaires de France, 2013.

[6] - Ibid.

[7] - Frank Pasquale, The Black Box Society: The Secret Algorithms that Control Money and Information, Cambridge, Harvard University Press, 2015, p. 60-61.

[8] - Martin Hilbert, “Toward a synthesis of cognitive biases”, Psychological Bulletin, vol. 138, n° 2, 2012.

[9] - Paul Borker, “What is hyperscale?”, Digital Reality, 2 février 2018.

[10] - GeekWire, 15 novembre 2017.

[11] - Information, 10 janvier 2017.

[12] - Cade Metz, “Tech giants are paying huge salaries for scarce AI talent”, The New York Times, 22 octobre 2017.

[13] - Ian Sample, “Big tech firms’ AI frenzy leads to brain drain at UK universities”, The Guardian, 2 novembre 2017.

[14] - Pedro Domingos, The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World, New York, Basic Books, 2015.

[15] - Cade Metz, “Why AI researchers at Google got desks next to the boss”, The New York Times, 19 février 2018.

[16] - Spiros Simitis, “Reviewing privacy in an information society”, University of Pennsylvania Law Review, vol. 135, n° 3, 1987, p. 710.

[17] - Paul M. Schwartz, “The computer in German and American constitutional law: Towards an American right of informational self-determnation”, American Journal of Comparative Law, n° 37, 1989, p. 676.

Publié dans Contrôle numérique

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article