L’algorithme de TikTok crée une dépendance chez les jeunes utilisateurs
11/04/2023L’application TikTok compte à travers le monde 1,7 milliards d’utilisateurs. Près d’un quart de ceux-ci sont des adolescents. Récemment, une organisation de défense et plusieurs experts britanniques ont averti que les enfants étaient, sur cette plateforme, inondés de contenus préjudiciables afin de promouvoir leur dépendance.
La « cocaïne des réseaux sociaux »
Sur TikTok, on peut essentiellement visionner des tutoriels de danse ou encore des sketches comiques viraux. Toutefois, cette plateforme héberge également du contenu sur les troubles de l’alimentation et sur l’automutilation. Ce contenu est propulsé par un algorithme baptisé le « le crack cocaïne des réseaux sociaux. »
Selon l’Information Commissioner’s Office, un organisme public non ministériel du Royaume-Uni, TikTok a autorisé l’utilisation de sa plateforme par 1,4 million d’enfants britanniques de moins de 13 ans en 2020. L’organisme accuse la société chinoise d’enfreindre les règles exigeant le consentement parental pour que des organisations utilisent les données personnelles des enfants.
Dans The Guardian, Imran Ahmed, responsable du Center for Countering Digital Hate, une ONG britannique luttant contre la désinformation en ligne, a expliqué que l’on trouvait sur TikTok du contenu d’automutilation ainsi que du contenu absurde concernant les remèdes sur la santé mentale.
Dans un rapport de décembre dernier, l’organisme précise que l’algorithme de TikTok fournit du contenu préjudiciable aux utilisateurs et ce, à peine quelques minutes après leur inscription.
L’aspect le plus délicat est certainement la prévalence de ce contenu sur les médias sociaux, ajoute Ahmed. .
« Les jeunes utilisateurs sont inondés de contenu leur offrant une vision déformée d’eux-mêmes, de leurs corps et de leur santé mentale. Ce contenu les incite également à se comparer aux autres. »
Son organisation a démontré qu’en modifiant le nom d’utilisateur « Sarah » à « Sarah Lose Weight » (« Sarah perd du poids »), l’algorithme de TikTok peut fournir à l’utilisateur jusqu’à 12 fois plus de contenu sur l’automutilation.
TikTok exploite la vulnérabilité des utilisateurs
Ahmed a également expliqué que l’algorithme considérait la vulnérabilité des utilisateurs comme un point potentiel de dépendance au lieu de quelque chose auquel il faut prêter attention. Cette vulnérabilité aide TikTok à maximiser le temps passé par le jeune sur la plateforme en lui proposant du contenu pouvant déclencher certaines préoccupations préexistantes.
Les recherches d’Ahmed et de ses collègues se sont centrées sur des utilisateurs âgés de 13 ans dans des pays comme le Royaume-Uni, les États-Unis, le Canada et l’Australie. Selon ces travaux, les jeunes se voient proposer du contenu d’automutilation dans les deux minutes et demie succédant la création d’un compte TikTok. Le contenu sur les troubles de l’alimentation met quant à lui 8 minutes à arriver à l’utilisateur.
Selon une enquête plus récente, un garçon de 14 ans est susceptible de recevoir du contenu misogyne virulent d’Andrew Tate moins de 3 minutes après son inscription.
Les experts ont déclaré qu’il s’agissait d’un phénomène particulièrement inquiétant car cela fournit des représentations incroyablement dangereuses de ce à quoi une jeune fille devrait ressembler et de la manière dont un jeune homme devrait se comporter et voir les jeunes femmes. Dans les deux cas, on décèle une misogynie fondamentale.
Le commissaire à l’information britannique a expliqué que cela signifie que les données des enfants peuvent servir pour leur suivi et leur profilage. De cette manière, la plateforme livre un contenu potentiellement nuisible et inapproprié lors de la prochaine consultation du compte.
Réactions de TikTok
De son côté, TikTok a déclaré que de nombreuses personnes aux prises avec leur santé mentale ou en voie de rétablissement utilisent TikTok en guise de soutien. Selon un porte-parole, TikTok cherche à permettre aux utilisateurs d’utiliser sa plateforme en toute sécurité.
Les responsables de TikTok ont également précisé que les directives communautaires de la plateforme interdisent la promotion, la normalisation ou la glorification des contenus sur les troubles de l’alimentation, le suicide ou l’automutilation.
Enfin, selon Ahmed, TikTok n’est en aucun cas la seule plate-forme de médias sociaux faisant trop peu pour contrôler le contenu préjudiciable. L’expert explique que l’on est en présence d’une course aux armements pour concevoir des moyens toujours plus efficaces de maintenir l’attention des utilisateurs même si cela doit représenter un risque pour leur santé mentale.