Les grandes entreprises de médias sociaux ne font pas assez pour protéger les utilisateurs LGBTQ+ contre les abus et le harcèlement sur leurs plateformes, selon une analyse du groupe américain de défense des droits GLAAD.
L’indice a analysé cinq plateformes principales – Instagram, Twitter, Facebook, YouTube et TikTok – qui ont toutes été classées comme ayant des mesures « inadéquates » pour soutenir et protéger les utilisateurs LGBTQ+. Chacun a obtenu moins de 50 sur 100.
« Les plateformes et les entreprises de médias sociaux donnent la priorité au profit plutôt qu’à la sécurité et à la vie des LGBTQ », a déclaré Sarah Kate Ellis, présidente de GLAAD, dans une introduction au 2022 Indice de sécurité des médias sociaux.
Toutes les entreprises de médias sociaux examinées ont des politiques pour prévenir les abus, et les plateformes ont déclaré qu’elles révisaient constamment les règles et développaient leurs systèmes pour supprimer les contenus préjudiciables.
Alors, qu’est-ce que le rapport a trouvé et comment les plateformes de médias sociaux peuvent-elles protéger au mieux leurs utilisateurs contre les contenus préjudiciables ?
Quels sont les soucis ?
L’indice a analysé les performances de la plateforme dans 12 domaines, des engagements à protéger les utilisateurs LGBTQ+ contre la discrimination à la question de savoir s’ils offrent des options de pronom et un contrôle sur la manière dont les données sur le sexe et la sexualité des utilisateurs sont collectées et utilisées.
Les cinq entreprises ont des politiques qui protègent les utilisateurs contre les attaques fondées sur leur sexe et leur identité sexuelle, indique le rapport, mais l’application fait souvent défaut.
Il a constaté que la modération du contenu était inadéquate sur les cinq plates-formes, les systèmes automatisés ne parvenant pas à détecter toutes les instances et les modérateurs humains étant parfois lents à réagir.
Les plateformes ont déclaré qu’elles travaillaient constamment pour développer et améliorer leurs systèmes anti-abus.
Le rapport a également soulevé des inquiétudes quant à l’absence de politiques sur la référence aux personnes trans par leurs anciens noms avant la transition, ce qui est connu sous le nom de « deadnaming » et est largement considéré comme du harcèlement qui sape l’identité des personnes trans.
Sur les cinq plates-formes, seules TikTok et Twitter ont des directives communautaires interdisant spécifiquement le « deadnaming » ou faisant référence intentionnellement aux personnes comme au mauvais sexe, selon le rapport GLAAD.
Quel est l’impact sur les personnes LGBTQ+ ?
Les jeunes LGBTQ+ ont dépensé plus de temps en ligne que leurs pairs en moyenne, selon une étude de 2019, les chercheurs constatant qu’ils se tournent vers des plateformes pour explorer leurs identités et se connecter avec les autres.
Pourtant, la recherche a montré que les personnes LGBTQ+ sont également ciblé de manière disproportionnée par des abus en ligne.
Quatre adultes LGBTQ+ sur 10 ne se sent pas le bienvenu et en sécurité sur les réseaux sociaux, a trouvé GLAAD, qui a également averti que la haine en ligne alimentait le harcèlement hors ligne et que la désinformation était à l’origine de la croissance des lois anti-LGBTQ+ dans de nombreux États américains.
L’auteure et militante des droits trans Christine Burns a déclaré qu’elle avait bloqué plus de 6 000 utilisateurs sur Twitter pour rhétorique et abus anti-trans.
« Cela peut être déprimant à voir, mais … c’est une grande quantité de bruit généré par un petit nombre de personnes », a-t-elle déclaré.
Le signalement des abus par l’IA fonctionne-t-il ?
La plupart des entreprises de médias sociaux s’appuient au moins en partie sur des systèmes automatisés et basés sur l’intelligence artificielle pour identifier les contenus abusifs ou enfreignant leurs règles.
Avec des centaines de millions d’utilisateurs se connectant chaque jour aux plateformes, les systèmes automatisés peuvent parcourir d’énormes ensembles de données pour aider à signaler rapidement le harcèlement et les abus.
« La modération humaine nécessite un temps considérable… La modération de contenu IA peut fournir des outils d’assistance pour accélérer le processus de jugement humain », a déclaré Abdulwhab Alkharashi, chercheur en informatique à l’Université de Glasgow.
Cependant, certains utilisateurs ont trouvé des moyens de contourner les systèmes d’IA.
« Si vous dites quelque chose sur un ton vraiment joyeux et qu’il s’agit d’amour, puis que vous laissez tomber quelque chose (de nocif) dans votre message, il se peut qu’il ne soit pas capté », a déclaré Effi Paul, un expert des médias sociaux qui a cofondé l’agence de marketing numérique. Six20Deux.
L’IA peut signaler les discours de haine probables en reconnaissant des modèles de discours ou des emojis basés sur l’apprentissage automatique.
« Ces systèmes peuvent être trompés ou contournés en utilisant des synonymes ou des symboles compliqués », a déclaré David Berry, professeur d’humanités numériques à l’Université du Sussex.
« Les humains sont infiniment adaptables et créatifs dans leur utilisation du langage alors que les ordinateurs s’appuient sur des systèmes mécaniques ou probabilistes, ce qui signifie qu’ils seront toujours en retard. »
Quelles sont les solutions ?
L’indice indique que toutes les plateformes devraient améliorer la conception des algorithmes pour les empêcher de diffuser des contenus préjudiciables, renforcer les directives de la communauté et former les modérateurs à comprendre les besoins des utilisateurs LGBTQ+.
Il a appelé à la fin de la publicité ciblée basée sur l’identité de genre et a demandé que davantage de données soient publiées sur la manière dont les directives sont appliquées.
GLAAD a également formulé des recommandations spécifiques pour chacune des cinq plates-formes analysées, exhortant Instagram, Facebook et YouTube à adopter des politiques qui protègent les utilisateurs contre les noms morts et les erreurs de genre ciblés.
Que disent les plateformes de médias sociaux ?
Twitter, YouTube et TikTok travaillent tous avec GLAAD.
Twitter a déclaré avoir introduit des fonctionnalités pour aider à protéger les utilisateurs, notamment en permettant aux utilisateurs de supprimer leurs noms d’utilisateur des conversations d’autres personnes et en les incitant à faire une pause et à examiner les réponses avant de les publier.
« Bien que nous ayons récemment fait des progrès en donnant aux gens un plus grand contrôle pour gérer leur sécurité, nous savons qu’il reste encore du travail à faire », a déclaré un porte-parole.
TikTok a déclaré que la plateforme s’engage à garantir que ses politiques sont justes et équitables, et qu’elle prend continuellement des mesures pour renforcer la protection des personnes et des communautés marginalisées.
« TikTok s’engage à soutenir et à élever les voix LGBTQ+, et nous travaillons dur pour créer un environnement inclusif permettant aux personnes LGBTQ+ de s’épanouir », a déclaré un porte-parole.
Un porte-parole de YouTube a déclaré avoir fait des progrès significatifs dans sa capacité à « supprimer rapidement les contenus haineux et harcelants et à mettre en évidence le contenu dans les résultats de recherche et les recommandations de sources faisant autorité ».
Facebook et Instagram, qui appartiennent tous deux à Meta Platforms, n’ont pas répondu aux demandes de commentaires.
Facebook a déclaré en septembre qu’il avait dépensé plus de 13 milliards de dollars dans les mesures de sûreté et de sécurité depuis 2016.
Reportage de Lucy Middleton; édité par Sonia Elks.
TEMPS GAY et Ouvertement/Fondation Thomson Reuters travaillent ensemble pour diffuser les principales actualités LGBTQ+ à un public mondial.
TEMPS GAY et Ouvertement/Fondation Thomson Reuters travaillent ensemble pour diffuser les principales actualités LGBTQ+ à un public mondial.
