L’algorithme instable de TikTok ne protègerait pas les utilisateurs !

Les créateurs de contenu exploitent les failles et les lacunes de l'algorithme de Tik Tok pour promouvoir des contenus potentiellement dangereux pour la santé mentale des autres utilisateurs, selon un nouveau rapport.

Déployer Replier le sommaire

Un utilisateur moyen de TikTok passe 95 minutes par jour sur la plateforme, soit plus d’une heure et demie à parcourir des vidéos d’une durée de 3 secondes à 3 minutes. Et comme nous le savons tous maintenant, la base d’utilisateurs est très jeune.

Sur les plus de 80 millions d’utilisateurs actifs mensuels aux États-Unis, 60 % sont âgés de 16 à 24 ans. Et avec plus d’un milliard d’utilisateurs, cela signifie que beaucoup de jeunes impressionnables consomment le contenu de TikTok à un rythme alarmant dans le monde entier.

Les filtres sont-ils actifs ?

Mais la plateforme a-t-elle mis en place des filtres adéquats pour protéger ses utilisateurs de contenus potentiellement dangereux ? Pas selon un nouveau rapport de Within Health, une organisation américaine qui offre un soutien aux personnes souffrant de troubles alimentaires.

L’algorithme de TikTok a longtemps été critiqué pour avoir conduit les utilisateurs dans un « terrier de lapin », en faisant apparaître des vidéos similaires encore et encore dans son flux principal (connu sous le nom de « page pour vous »), de sorte que les utilisateurs sont bombardés de manière répétée de contenus potentiellement dangereux.

Si tous les médias sociaux peuvent avoir un impact sur notre bien-être mental, Joe Mercurio, membre de l’équipe créative de Within Health, a déclaré à TRT World que son équipe « a été particulièrement choquée par l’ampleur des problèmes liés à TikTok ».À son crédit, TikTok s’est efforcé de réduire sa boucle de contenu pour éviter qu’elle ne devienne toxique, mais les créateurs de contenu trouvent de nouveaux moyens d’exploiter les failles algorithmiques pour promouvoir leurs propres vidéos, indique le rapport.

Quels sont les problèmes majeurs ?

Within Health a identifié huit problèmes majeurs qui amplifient les contenus dangereux liés aux troubles alimentaires.

Pour accéder aux vidéos en dehors de la page « Pour vous », les utilisateurs peuvent rechercher du contenu par le biais des différents canaux de recherche de l’application : recherche par hashtag, recherche par utilisateur, recherche par vidéo et même en dehors de la plateforme par le biais de la recherche sur Internet.

De nombreux mots-clés et termes dangereux, tels que ceux liés à la promotion des troubles de l’érection, figurent sur une liste « bloquée » et les utilisateurs ont également la possibilité de la personnaliser en limitant davantage certains mots.

Par exemple, la plateforme interdit des mots tels que « anorexique ». Ainsi, si un utilisateur recherche ce terme, un message s’affiche, indiquant que « vous n’êtes pas seul » et le guidant vers une liste de ressources d’aide aux personnes souffrant de troubles alimentaires.

Cependant, des variantes ou des fautes d’orthographe délibérées, telles que « anorexique » et « trouble de l’alimentation », peuvent contourner l’interdiction des mots clés jugés nuisibles – par exemple, les habitudes alimentaires malsaines et les perceptions négatives de l’image corporelle.

Et combien de mots non bloqués et mal orthographiés y a-t-il ? Le rapport a compilé un « nuage de mots » lié aux troubles alimentaires et a constaté que le volume total de vues est supérieur à 1,3 milliard.

« Ces résultats sont préoccupants, car même si les utilisateurs de TikTok bloquent volontairement certains hashtags et termes de recherche, le contenu lié aux troubles alimentaires fait toujours son chemin vers les fils d’actualité des utilisateurs », a déclaré le ministre de l’éducation français.