Algorithmes de TikTok: promo de l’automutilation et des troubles de l’alimentation

Les algorithmes de TikTok font la promotion de vidéos sur l’automutilation et les troubles de l’alimentation auprès des adolescents vulnérables, selon un rapport publié mercredi qui met en lumière les préoccupations au sujet des réseaux sociaux et de leurs répercussions sur la santé mentale des jeunes.

Des chercheurs du Center for Countering Digital Hate ont créé des comptes TikTok pour des personnages fictifs d’adolescents aux États-Unis, au Royaume-Uni, au Canada et en Australie. Les chercheurs qui gèrent les comptes ont ensuite «aimé» des vidéos sur l’automutilation et les troubles de l’alimentation pour voir comment l’algorithme de TikTok réagirait.

En quelques minutes, la plateforme très populaire recommandait des vidéos sur la perte de poids et l’automutilation, y compris des photos de modèles et de types de corps idéalisés, des images de lames de rasoir et des discussions sur le suicide.

Lorsque les chercheurs ont créé des comptes avec des noms d’utilisateur qui suggéraient une vulnérabilité particulière aux troubles de l’alimentation — des noms qui comprenaient les mots «perdre du poids» par exemple — les comptes ont été alimentés avec un contenu encore plus nuisible.

«C’est comme être coincé dans une salle de miroirs déformés où on vous dit constamment que vous êtes laid, que vous n’êtes pas assez bon, que vous devriez peut-être vous tuer», a déclaré le PDG du centre, Imran Ahmed, dont l’organisation a des bureaux aux États-Unis et au Royaume-Uni.

«Il envoie littéralement les messages les plus dangereux possibles aux jeunes.»

Les algorithmes des réseaux sociaux fonctionnent en identifiant les sujets et le contenu d’intérêt pour un utilisateur, qui est ensuite envoyé plus de la même façon comme un moyen de maximiser leur temps sur le site. Mais les critiques des médias sociaux disent que les mêmes algorithmes qui promeuvent le contenu sur une équipe sportive particulière, passe-temps ou engouement pour la danse peuvent envoyer les utilisateurs dans un terrier de contenu nuisible.

C’est un problème particulier pour les adolescents et les enfants, qui ont tendance à passer plus de temps en ligne et sont plus vulnérables à l’intimidation, à la pression des pairs ou au contenu négatif sur les troubles de l’alimentation ou le suicide, selon Josh Golin, directeur exécutif de Fairplay, un organisme sans but lucratif qui appuie une protection accrue des enfants en ligne.

Il a ajouté que TikTok n’est pas la seule plateforme qui ne protège pas les jeunes utilisateurs contre les contenus nuisibles et la collecte de données agressive.

«Tous ces torts sont liés au modèle d’affaires», a déclaré Golin. «La plateforme de médias sociaux ne fait aucune différence.»

Dans une déclaration d’un porte-parole de l’entreprise, TikTok a contesté les conclusions, notant que les chercheurs n’utilisaient pas la plateforme comme des utilisateurs typiques, et disant que les résultats étaient faussés en conséquence. La société a également déclaré que le nom de compte d’un utilisateur ne devrait pas affecter le type de contenu que l’utilisateur reçoit.

TikTok interdit aux utilisateurs de moins de 13 ans et ses règles officielles interdisent les vidéos qui encouragent les troubles de l’alimentation ou le suicide. Aux États-Unis, les utilisateurs qui cherchent du contenu sur les troubles de l’alimentation dans TikTok reçoivent un message leur offrant des ressources en santé mentale et des coordonnées pour la National Eating Disorder Association.

«Nous consultons régulièrement des experts en santé, éliminons les violations de nos politiques et fournissons un accès à des ressources de soutien pour toute personne dans le besoin», indique la déclaration de TikTok, qui appartient à ByteDance Ltd., une société chinoise basée à présent à Singapour.

Malgré les efforts de la plateforme, les chercheurs du Center for Countering Digital Hate ont constaté que le contenu sur les troubles de l’alimentation avait été consulté sur TikTok des milliards de fois. Dans certains cas, les chercheurs ont constaté que les jeunes utilisateurs de TikTok utilisaient un langage codé sur les troubles de l’alimentation afin d’éviter la modération du contenu de TikTok.

La quantité de contenu nuisible qui est transmise aux adolescents sur TikTok montre que l’autoréglementation a échoué, a affirmé M. Ahmed, ajoutant que des règles fédérales sont nécessaires pour forcer les plateformes à en faire plus pour protéger les enfants.

Il souligne que la version de TikTok offerte au public chinois est conçue pour promouvoir le contenu sur les mathématiques et les sciences auprès des jeunes utilisateurs, et limite la durée de la présence des jeunes de 13 et 14 ans sur le site chaque jour.

Une proposition devant le Congrès imposerait de nouvelles règles limitant les données que les plateformes de médias sociaux peuvent recueillir concernant les jeunes utilisateurs et créerait un nouveau bureau au sein de la Federal Trade Commission axé sur la protection de la vie privée des jeunes utilisateurs de réseaux sociaux.

L’un des parrains du projet de loi, le sénateur Edward Markey, D-Mass., a déclaré mercredi que les législateurs optimistes des deux partis peuvent s’entendre sur la nécessité d’une réglementation plus stricte sur la façon dont les plateformes accèdent et utilisent l’information des jeunes utilisateurs.

«Les données sont la matière première que la grande technologie utilise pour suivre, manipuler et traumatiser les jeunes dans notre pays chaque jour», a déclaré Markey.