Derrière les écrans – Les nettoyeurs du Web à l’ombre des réseaux sociaux — Sarah T. Roberts. La Découverte 2020.
Twitter et Facebook viennent de supprimer les messages de Trump, reconnaissant que les réseaux dits sociaux peuvent véhiculer le pire et le meilleur. Mais pour faire du commerce et attirer des clients, les plateformes et autre GAFAM ne souhaitent pas que des contenus pourris, haineux, ou pornographiques viennent polluer les messages et les images qui vantent des produits. C’est pour faire ce nettoyage qu’est née la fonction de « modération commerciale ». C’est le mérite des chercheurs américains et notamment Sarah T. Roberts dans son livre Derrière les écrans – Les nettoyeurs du Web à l’ombre des réseaux sociaux, que d’aller enquêter derrière les écrans sur ces nouveaux boulots.
Avec Internet, un nouvel univers qualifié d’« espace » est apparu, avec de multiples dénominations : cyberespace, espace numérique, espace virtuel. Au début, internet a été conçu comme un espace de liberté, effaçant les frontières. Il annonçait un nouveau monde permettant la circulation des idées sans possibilité de contrôle des États. Il y eut même eu une Déclaration d’indépendance du cyberespace, proposée en 1996 (voir dans Metis, « Essayer de ne pas mourir idiots », note sur le livre de Dominique Cardon, Culture numérique, Danielle Kaisergruber, 16 juin 2020)
Dans les premières années du XXIe siècle, la nature d’internet a subi une mutation radicale avec l’apparition de l’Âge du capitalisme de surveillance analysé par Shoshana Zuroff (1). Cette mutation s’est produite d’abord chez Google qui, menacé de disparition lorsqu’a éclaté la bulle internet des années 2000, a découvert le surplus comportemental : en deux mots, le recueil continu des données laissées par les utilisateurs des plateformes (objets d’une surveillance permanente) permet, grâce à l’intelligence artificielle, de construire des produits prédictifs des comportements vendus aux annonceurs.
Internet : liberté ou supermarché ?
La convergence de trois secteurs technologiques — le haut débit, les appareils mobiles compatibles avec internet et les plateformes de réseaux sociaux — ont permis l’explosion d’une gigantesque machine technologique transportant et stockant des objets numériques représentant des textes, des images, des vidéos, des programmes, des virus… Le tout mis en œuvre par des dizaines de milliers de personnels hautement qualifiés, engagés principalement dans des entreprises de dimension mondiale (dont les GAFAM) ou des start-ups. Ce faisant, internet est devenu de moins en moins un espace de liberté, mais surtout une sorte de grand centre commercial, organisé en sites privés où des entreprises sont libres de fixer leurs propres règles ; les algorithmes en sont les boîtes noires.
Il y a donc des faces cachées dans ce monde triomphant. On a découvert, petit à petit, que cette gigantesque machine technologique a besoin de centaines de milliers de « petites mains » pour des raisons qui ternissent l’image dominante de progrès.
Sarah T. Roberts est une chercheuse américaine en sciences de l’information, enseignant à l’université de Californie (UCLA) à Los Angeles. Elle fait partie de cette communauté de chercheurs, enseignants, journalistes, juristes, cinéastes… qui tentent de comprendre ce qui se passe derrière les écrans. Ils s’interrogent sur les pratiques réelles des acteurs dominants de l’espace numérique par exemple en mettant en évidence les conditions de travail de ces « petites mains » que sont les soutiers du Web.
Depuis plus d’une décennie Sarah T. Roberts a enquêté sur ces pratiques en s’intéressant plus particulièrement aux travailleurs anonymes et inconnus qui exercent derrière les écrans. Qui sont-ils ? Où travaillent-ils et dans quelles conditions ? À quoi ressemble leur vie professionnelle ? Quelles sont les décisions qui leur incombent et au profit de qui les prennent-ils ? Pourquoi sont-ils « invisibles » ?
Le livre, qualifié de pionnier par Antonio A. Casilli dans sa préface, relate les résultats de cette enquête novatrice d’un auteur qui a contribué à mettre en lumière « la modération commerciale de contenu » et ceux qui la réalisent. Ce travail de synthèse, outre la présentation de ses enquêtes ethnographiques, s’appuie sur les nombreux travaux publiés dans ce domaine, principalement aux États-Unis. Tout ceci témoigne de la vigueur et du dynamisme d’un noyau de personnes qui mettent à jour, dans une perspective de justice et d’humanisme, la face cachée du Web.
La modération commerciale des contenus et ses exigences ?
La loi américaine dans la section 230 du « Communications Decency Act » garantit l’immunité des hébergeurs de contenus en ligne contre d’éventuelles poursuites pénales liées à la diffusion d’images, de vidéos ou de textes publiés par les utilisateurs de leurs services.
Pourquoi modérer les contenus dans ce contexte favorable aux GAFAM ?
La réalité est que l’espace numérique est un véhicule permettant, hors de tout contrôle social ou juridique, de diffuser les violences connues dans notre espace classique, mais puissamment diffusées dans ce nouvel espace de non-droit constitué par les réseaux sociaux. Les turpitudes, les discours de haine, tous les ismes (complotisme, racisme…) trouvent là un exutoire facile.
Les entreprises, qui se sont approprié des espaces numériques pour développer des activités commerciales, ont vite perçu le danger que la présence de ces manifestations sur leurs sites apporte à leur image ; elles sont donc amenées à les supprimer. Il s’agit de montrer un univers aseptisé qui rassure. Il ne faut pas que l’usager soit choqué et fuie. Il ne s’agit pas d’éthique, mais bien de commerce !
Le boulot de grand nettoyage silencieux
Le problème est que tout doit être fait « silencieusement » pour ne pas compromettre l’idée d’espace de liberté d’internet et surtout pour ne pas chasser des utilisateurs dont le nombre fait la puissance de ces sites. L’idéal serait de pouvoir confier la tâche à des automates en s’appuyant notamment sur l’intelligence artificielle. Une partie peut être traitée de cette manière, mais l’intervention humaine demeure incontournable à condition d’être discrète voir cachée.
La tâche n’est pas simple, car ce travail doit être réalisé 24h sur 24h, en principe dans toutes les langues, tenir compte des mentalités et cultures locales (l’image d’une femme en bikini sera effacée pour un pays musulman alors qu’elle ne posera aucun problème en occident…). Les objets sont de plus en plus complexes : ce n’est pas la même chose d’examiner un texte pour identifier des discours de haine (une analyse automatique par mots clés suffit) ou pour repérer des textes de fake news, d’analyser des photos ou des vidéos…
La modération commerciale des contenus est devenue une fonction incontournable qu’il convient de maîtriser tant du point de vue des coûts que du point de vue de ses principes de mise en œuvre (les règles). Vu les volumes grandissants d’objets à traiter, il faut créer des sortes d’« usines de modération » avec une organisation du travail taylorisée.
Le premier internet était constitué d’espaces de discussions textuels où des communautés virtuelles pouvaient débattre. Rapidement est apparue la nécessité d’une modération des utilisateurs et de la fixation de règles évitant les dérapages. Cette modération était faite par des bénévoles et d’une manière transparente selon des règles de fonctionnement que se donnaient ces communautés.
Avec le développent des activités commerciales des plateformes et des entreprises avec leurs sites, la modération a pris une autre tournure. Il a fallu payer des modérateurs ou autres opérateurs, gestionnaires de contenu.
Ceux qui exercent ce métier acquièrent tous la conviction que, si on laissait faire, le Web ne serait qu’un gigantesque égout charriant les turpitudes humaines, rempli d’objets pornographiques, pédophiles, de propos haineux et racistes, d’images de meurtres, et de toutes les violences possibles. Il faut donc nettoyer cela en permanence et comme la machine ne sait pas le faire entièrement, une intervention humaine est nécessaire.
Sarah T. Roberts a recueilli dans son enquête l’expression de « mangeurs de péchés ». Cette image est empruntée au folklore du Pays de Gales où un membre pauvre de la communauté était chargé de porter les péchés en contrepartie d’une aumône. C’est au fond de cela qu’il s’agit. Car la boucle se boucle : ceux qui nettoyaient tout ce qui est malsain, sale, dangereux pour la santé physique ou mentale, occupaient des situations de relégation, de précarité en général et étaient faiblement rétribués ou pas du tout.
Pour le web, les nettoyeurs sont chargés d’éliminer tous ces objets numériques agressifs dont la vision peut perturber le consommateur et perturbe la santé mentale du travailleur. Le problème est que ce travail, même s’il est exercé « à la chaîne » — par exemple analyser 1000 à 1500 vidéos par jour — exige un niveau de compétence relativement élevé. Ces postes sont souvent occupés par de jeunes diplômés sortants des universités dans des disciplines littéraires ou par des personnes capables de contextualiser pour prendre des décisions conformes à l’esprit de chaque site.
Dans la taxonomie des types de travail proposée par l’auteure à partir de ses enquêtes, il apparaît que cette activité est toujours sous-traitée même si elle peut, rarement, être réalisée en partie dans les locaux de l’entreprise concernée — par exemple les plateformes. Dans ces entreprises de sous-traitance, il existe quelques emplois permanents pour assurer une organisation optimale, développer les outils et surtout définir les règles, les doctrines. Tous les autres peuvent avoir des contrats à durée déterminée (par exemple un an renouvelable une fois après une interruption de trois mois) ou sont indépendants, auto-entrepreneurs travaillant parfois chez eux. Tous ces travailleurs doivent signer des clauses de confidentialité strictes et sont soumis à des obligations de rendement.
Ces formes de gestion des RH permettent aux entreprises et plateformes qui ont besoin de modération commerciale de se dédouaner en particulier des éventuelles conséquences sur la santé mentale de ceux qui en travaillant subissent ce flot quotidien d’images insoutenables. Ce personnel est enfermé dans un mur de silence contractuellement. Il va sans dire que ces travailleurs en tant que sous-traitants ou auto-entrepreneurs ne bénéficient d’aucun des avantages sociaux accordés au personnel propre des entreprises donneuses d’ordre.
Une sous-traitance mondiale
L’organisation se fait à une échelle mondiale essentiellement pour optimiser les coûts :
- Les tâches simples, n’exigeant pas un niveau culturel spécifique, seront confiées à certains pays comme l’Inde, par exemple, pour les images pornographiques (tout le monde peut les reconnaître…)
- Comme l’essentiel du travail de nettoyage pour le public américain doit se faire pendant la journée américaine, les Philippines sont une bonne ressource en main-d’œuvre, nettement moins chère, mais les Philippins devront travailler toutes leurs nuits.
Sarah T. Roberts consacre un chapitre au cas des Philippines en montrant comment la délocalisation de cette activité a été possible. Le pays, qui a été culturellement façonné par une longue présence américaine, a voulu se positionner comme un centre de référence dans le BPO (Busines processing outsourcing) en développant un urbanisme de zones économiques ad hoc, grâce à un régime politique favorisant (ce que Gilles Pinson appelle l’essor d’une ville néolibérale dans son livre (2)).
Cette activité de modération commerciale des contenus, marginale au début, devient de plus en plus importante et complexe, même si elle s’appuie sur des outils d’aide de plus en plus puissants. Google annonçait en 2018 vouloir augmenter ses effectifs de modérateurs de 20 000 et Facebook prévoyait d’en recruter 10 000.
Qui conteste ces formes de travail ? Les procès pour requalifier les contrats de travail, pour demander la réparation des dommages liés à des troubles psychologiques, la dénonciation des conditions d’exploitation et le risque d’image des plateformes font bouger les lignes. Dans un dernier chapitre intitulé « L’humanité digitale », Sarah T. Roberts cite un certain nombre d’initiatives dont certaines prises par les entreprises elles-mêmes comme la « Technology Coalition » ayant pour mission de lutter contre l’exploitation sexuelle des enfants sur internet et qui a publié un « Guide pour favorise la résilience des employés ».
La surveillance du Web, un métier d’avenir ?
Le développement de la fonction de surveillance des utilisateurs opérée par les plateformes pour influer sur leurs comportements a eu pour effet collatéral la nécessite de la modération commerciale de contenu dans un contexte où les plateformes de réseaux sociaux ne sont pas tenues pour responsables du contenu de leurs sites. Mais, à la fois pour protéger leur image et pour éviter la fuite des utilisateurs face à des contenus insupportables, les entreprises ont développé leurs propres règles pour décider de ce qui est publiable ou non. Ces règles n’obéissent pas à des normes juridiques émises par des États.
Jusqu’ici l’espace numérique a été un espace de non-droit. Cela est en train d’évoluer notamment pour des raisons de sécurité. L’espace numérique permet de véhiculer, grâce aux réseaux sociaux, des messages comportant des menaces de tout ordre notamment pour les États ou la sécurité de leurs populations. Quelle est la responsabilité de ceux qui les abritent ?
On l’a vu dans l’assassinat de Samuel Paty comment les messages d’appel au meurtre avaient pu se diffuser sans que quiconque y mette fin, révélant l’impuissance ou l’inefficacité d’instruments de surveillance comme Pharos, la plateforme de signalement des contenus en ligne du gouvernement français.
La Commission européenne vient de prendre l’initiative d’un « Digital Services Act » pour permettre la régulation des contenus dans la sphère sociale fondé sur un principe simple : « Ce qui est interdit dans le monde réel l’est aussi dans le monde virtuel ». Il s’agit de purger l’espace numérique des attaques racistes, des contenus terroristes, de la pédopornographie, de la vente de contrefaçons… « Pour ne pas se voir accuser de censure, ni imposer une mesure trop complexe à mettre en œuvre, la Commission a exclu tout contrôle en amont des publications. Elle ne reviendra pas non plus sur le principe d’“hébergeur passif”, qui garantit aux plates-formes de ne pas être tenues responsables des contenus publiés par leurs usagers. »
En revanche, Bruxelles veut renforcer les procédures de signalement et imposer aux plates-formes quelle que soit leur taille, des obligations, afin que les contenus illicites puissent être retirés rapidement… « Aux plates-formes les plus puissantes… il leur sera demandé d’avoir des moyens de modération (automatisés et humains) suffisamment étoffés ». (Le Monde du 22 décembre 2020)
Premier pas vers une régulation par les États. Ces exigences nouvelles vont introduire des normes juridiques dans la régulation des contenus du Web. Dans quelle mesure ces normes permettront-elles d’améliorer les conditions de travail et d’emploi des nettoyeurs ?
En tout cas, la fonction de surveillance du web a de beaux jours devant elle.
Je suis passée par un webcleaner en freelance pour effacer des liens d’articles et des photos de moi, en quelques semaines, Pierre B. a pu tout supprimer. Heureusement pour moi que j’ai trouvé ce nettoyeur du web, car il ne faut pas compter sur les moteurs de recherche pour effacer du contenu quand on y connait rien.