Partout dans le monde, des activistes numériques exhortent le réseau social à sérieusement considérer le fait que son algorithme permet de faciliter la diffusion de désinformation, de haine en ligne et de violence ethnique.
Selon de nombreux critiques, le plus grand réseau social ne lutte pas contre la haine en ligne avec la même intensité dans les pays autres que les États-Unis.
La haine en ligne en Éthiopie
Dans le The Guardian, des chercheurs indépendants d’Éthiopie ont expliqué qu’il n’y avait pas assez de modérateurs de contenus Facebook pour contrôler les publications enfreignant les règles de la plateforme sociale. Dans ce pays, les fils d’actualités des utilisateurs contiennent énormément de contenus haineux.
À Nairobi, la chercheuse Berhan Taye et ses collègues analysent des centaines de publications Facebook. En Ethiopie, depuis des années, la plateforme pullule de séquences vidéo de maltraitance d’enfants, de publications haineuses dirigées à l’encontre de divers groupes ethniques et de discours en streaming incitant à la haine, racontent-ils dans le journal.
Étant donné que Facebook ne dispose pas d’assez de modérateurs axés sur les contenus diffusés en Éthiopie, Taye, une chercheuse indépendante spécialisée dans l’impact de la technologie civile, et une équipe de volontaires locaux, se chargent de la collecte et du signalement de la désinformation et des discours haineux.
Il s’agit d’un travail risqué. En effet, les personnes qui diffusent ce type de discours de haine en ligne sont organisées. Par conséquent, les modérateurs bénévoles éthiopiens travaillent anonymement. Ils enchainent les heures de visionnage de diffusions en direct de violences et rassemblent les contenus incitant à la haine. Cette activité a bien entendu des conséquences sur leur santé mentale, explique The Guardian.
Une fois leur rapport envoyé via email à Facebook, le réseau social peut prendre une semaine pour fournir une réponse. Selon Taye, dans certains cas, le réseau supprimera 70% du contenu. Toutefois, à plusieurs reprises, la plateforme sociale leur a sollicité des traductions de contenus.
« À maintes reprises, nous constatons qu’ils échouent activement », explique Taye. « Facebook n’est pas disposé à investir dans les droits de l’homme et dans des ressources et des langues qui ne lui rapportent pas d’argent », poursuit la chercheuse.
13 milliards de dollars pour lutter contre la haine en ligne
Facebook conteste l’accusation selon laquelle il ne réprime pas de la même manière les contenus haineux en-dehors des États-Unis. Le réseau social de Mark Zuckerberg affirme dépenser la bagatelle de 13 milliards de dollars, partout dans le monde, pour lutter contre ce fléau. Selon Facebook, un effectif de 15.000 personnes se chargent de ce travail, dans des dizaines de langues.
En juin dernier, Facebook a déclaré avoir procédé à la suppression d’un réseau de faux comptes éthiopiens prenant pour cible les utilisateurs nationaux avant la période électorale.
Depuis 2018, Taye est en pourparlers avec Facebook au sujet de la situation en Éthiopie. Récemment, ce pays a été accusé d’actes de nettoyage ethnique. Par ailleurs, les conflits armés s’y intensifient dans cette région du monde. En Éthiopie, Facebook est une plateforme d’information essentielle.
Berhan Taye a sollicité au réseau social la publication de tous les rapports d’évaluation de son impact sur les droits humains en Éthiopie.
« Facebook déchire nos sociétés »
Les accusations de Taye sont identiques à celles de Frances Haugen, une ancienne ingénieure en poste pour le réseau social, ayant expliqué récemment devant le Congrès américain que le système de classement de contenus de Facebook avait permis la propagation de désinformation et de discours de haine.
Haugen a déclaré que le groupe privilégiait davantage le profit au détriment de la sûreté des utilisateurs. « La version actuelle de Facebook déchire nos sociétés et provoque des violences ethniques à travers le monde », a-t-elle expliqué.
Le classement du contenu de Facebook fonctionne à l’aide de modèles d’apprentissage automatique. Ceux-ci permettent de supprimer ou de rétrograder les contenus inappropriés. Toutefois, ces modèles d’apprentissage automatique ne sont formés que pour certains contenus.
« Le classement axé sur l’engagement est dangereux sans l’application de systèmes d’intégrité et de sécurité », a déclaré Haugen. Selon elle, le problème est pire dans les régions du monde où les messages sont diffusés dans une autre langue que l’anglais.
« La tactique consistant à se concentrer uniquement sur des systèmes spécifiques à la langue et au contenu en espérant que l’IA nous sauve est vouée à l’échec », a-t-elle encore déclaré.
Pour les activistes des droits numériques, son témoignage est tout sauf une surprise.
« Nous sommes victimes de ce système », commente Taye. « Il est positif que les Américains soient au courant. Mais nous l’avons toujours dit. La première chose que vous voyez lorsque vous ouvrez votre compte Facebook, c’est le contenu le plus odieux. »
Facebook Files
Haugen est la lanceuse d’alerte qui a rassemblé les documents compris dans l’enquête fracassante « Facebook Files » du Wall Street Journal. Selon un document interne de Facebook auquel a eu accès le journal, les recherches du réseau social sur la désinformation incluent 3,2 millions d’heures de travail. Toutefois, seules 13% de ces recherches concernent des pays autres que les États-Unis. Or, plus de 90% des utilisateurs de Facebook sont en-dehors des États-Unis.
De son côté, Facebook a contesté cette statistique de 13% qui, selon lui, n’est le reflet que d’un programme parmi tant d’autres.
Plusieurs défenseurs des droits numériques et activistes des droits de l’homme du monde entier ont fait pression sur le réseau social pour qu’il publie ces rapports.
Selon Eliška Pírková, responsable mondiale chargée de la liberté d’expression d’Access Now, une organisation de défense des droits de l’homme, une réglementation des plateformes en ligne, basée sur les droits humains, est nécessaire. Les utilisateurs devraient bénéficier par défaut d’une protection contre les pièges à utilisateurs résultant de la conception d’une interface incitant à l’adoption de certains comportements.
« Le témoignage de Haugen a révélé l’opacité inhérente et réticence de Facebook à divulguer des informations et le fonctionnement de ses algorithmes. »
Pírková a encore déclaré que lors de l’expulsion de familles Palestiniennes d’un quartier de Jérusalem-Est, en mai 2021, et durant le bombardement de 11 jours de Gaza, l’incitation à la violence contre des Palestiniens avait eu lieu sur des groupes WhatsApp. Par contre, les messages en faveur des Palestiniens ont à cette époque été supprimés des plateformes appartenant à Facebook.
Myanmar
Le Myanmar est une étude de cas souvent citée pour exemplifier les conséquences catastrophiques de la désinformation et des discours de haine en ligne diffusés et partagés sur Facebook.
Il y a quelques années, des utilisateurs de Facebook ont utilisé le réseau social pour inciter à la violence contre les Rohingyas, un groupe minoritaire majoritairement musulman dans ce pays à majorité bouddhiste.
Ainsi, en 2017, des milliers de Rohingyas ont été tués, des centaines de villages ont été réduits en cendres et des centaines de milliers de personnes ont été contraintes à l’exode. Selon les Nations Unies, il s’agit d’« un exemple classique de nettoyage ethnique ».
Victoire Rio, une chercheuse en droits numériques spécialisée sur le Myanmar, a expliqué que le pays avait connu une hausse rapide du nombre d’utilisateurs de Facebook. En 2014, on comptabilisait 1,2 million d’utilisateurs de Facebook au Myanmar en 2014, contre 21 millions en janvier 2019. En janvier de cette année, le pays comptait 23,65 millions d’utilisateurs de Facebook, soit près de 40% de la population. Au départ des activités de Facebook dans ce pays, il n’y avait que deux modérateurs, contre 120 actuellement.
« Le témoignage de Haugen met en lumière l’écart entre ce que fait Facebook aux États-Unis et son manque d’action et d’intervention dans le reste du monde », conclut Victoire Rio.