Un nouveau rapport de GLAAD indique que la sécurité LGBTQ continue de s'éroder sur les principales plateformes de médias sociaux, la plupart des entreprises affichant leurs scores les plus bas à ce jour dans son évaluation annuelle des politiques affectant les utilisateurs queer.
Le sixième indice annuel de sécurité des médias sociaux (SMSI) évalue six plateformes : TikTok, YouTube, X, Facebook, Instagram et Threads, sur leurs politiques liées à la sécurité, à la vie privée et à l'expression LGBTQ. Les résultats de 2026 montrent de larges baisses dans tous les domaines, TikTok restant la seule plateforme à rester stable par rapport à l’année dernière.
Les chercheurs affirment que les résultats mettent en évidence un écart croissant entre les directives communautaires énoncées et les protections réelles pour les utilisateurs LGBTQ.
Les scores atteignent des plus bas historiques pour la plupart des plateformes
Selon le rapport, X continue de se classer au dernier rang avec un score de 29 sur 100, reflétant les préoccupations persistantes concernant les discours de haine et le harcèlement. YouTube suit à la 30e place, perdant 11 points par rapport à l'année dernière, soit la baisse la plus forte parmi toutes les plateformes mesurées.
Les plateformes de Meta ont également connu des baisses. Instagram a obtenu un score de 41, Facebook de 40 et Threads de 39, tous en retrait par rapport aux niveaux de 2025. TikTok s'est maintenu à 56, le score le plus élevé de l'indice mais ne montrant aucune amélioration.
Les chercheurs de GLAAD affirment que ces baisses reflètent des reculs politiques, une transparence réduite et un affaiblissement des protections pour les utilisateurs LGBTQ, en particulier les personnes transgenres et non conformes au genre.
Les changements de politique suscitent des inquiétudes
Le rapport met en évidence plusieurs changements récents dans les grandes entreprises technologiques qui, selon lui, ont contribué à la baisse des scores de sécurité.
Meta a été critiquée pour avoir modifié ses règles en matière de discours de haine de manière à permettre davantage de rhétorique anti-LGBTQ sur ses plateformes. L'entreprise a également réduit ses initiatives en matière de diversité, d'équité et d'inclusion et a modifié son approche de modération de contenu, notamment en mettant fin à son programme de vérification des faits aux États-Unis.
YouTube, quant à lui, a supprimé l'identité de genre de sa liste de caractéristiques protégées dans ses politiques en matière de discours de haine, un changement qui, selon GLAAD, expose les utilisateurs LGBTQ à un plus grand risque de harcèlement et d'abus.
Le rapport affirme que les deux sociétés s’éloignent des meilleures pratiques précédemment établies en matière de sécurité en ligne.
Les principales conclusions pointent vers des risques plus larges
Au-delà des politiques spécifiques aux plateformes, le rapport soulève des inquiétudes quant à la manière dont l’intelligence artificielle façonne la modération du contenu. Il prévient que les systèmes automatisés peuvent supprimer de manière disproportionnée les voix LGBTQ sans parvenir à supprimer systématiquement les contenus préjudiciables.
Les chercheurs signalent également des inquiétudes concernant la confidentialité des données, notant que les grandes plateformes utilisent de plus en plus le contenu généré par les utilisateurs pour entraîner les systèmes d’IA, souvent sans cadre de consentement clair.
L'indice met en outre en évidence un déclin de la transparence, notamment des rapports limités sur les pratiques de modération et les données sur la diversité de la main-d'œuvre.
GLAAD affirme que ces tendances rendent plus difficile l’évaluation de la protection adéquate des plateformes par les communautés vulnérables.
Les préjudices hors ligne se reflètent en ligne
Le rapport relie les préoccupations en matière de sécurité en ligne à des tendances plus larges du monde réel, citant plus de 1 000 incidents anti-LGBTQ signalés en 2025. Il fait également référence aux données du FBI montrant que les préjugés anti-LGBTQ représentaient plus de 20 % des crimes haineux signalés en 2024, marquant la troisième année consécutive à ce niveau.
Les chercheurs affirment que le harcèlement et la désinformation en ligne contribuent souvent aux préjudices hors ligne, en particulier lorsque les contenus extrémistes se propagent sur les plateformes numériques.
Le plaidoyer appelle à la responsabilité
La présidente et directrice générale de GLAAD, Sarah Kate Ellis, a déclaré que les principales plateformes ne respectaient pas les normes de base en matière de sécurité et de transparence.
Elle a appelé les annonceurs et les utilisateurs à reconsidérer leur relation avec les plateformes qui ne protègent pas suffisamment les communautés LGBTQ.
« Les sociétés de médias sociaux ne respectent pas les meilleures pratiques de base en matière de modération du contenu, de transparence, de confidentialité des données et de diversité de la main-d'œuvre », a déclaré Ellis dans un communiqué inclus dans le rapport. « Ils continuent de donner la priorité au profit plutôt qu’à la sécurité. »
Ellis a ajouté que les créateurs et les utilisateurs LGBTQ sont souvent confrontés au harcèlement, aux menaces et à la désinformation sans un soutien significatif de la plateforme.
Ce qui vient ensuite
Le SMSI recommande des systèmes de modération de contenu plus solides, une meilleure transparence autour de l'application et un investissement renouvelé dans les programmes de diversité et d'inclusion. Il exhorte également les plateformes à mieux protéger les utilisateurs LGBTQ contre le harcèlement ciblé tout en évitant la suppression des contenus et expressions queer.
Alors que les débats sur la sécurité en ligne, la réglementation et la liberté d'expression se poursuivent, le rapport suggère que les utilisateurs LGBTQ restent affectés de manière disproportionnée par les changements de politique des grandes entreprises technologiques.
Pour l’instant, TikTok se démarque comme la seule plateforme à maintenir son score précédent, tandis que d’autres continuent de baisser, soulevant de nouvelles questions sur la manière dont les entreprises de médias sociaux équilibrent croissance, modération et sécurité des utilisateurs dans un paysage numérique de plus en plus polarisé.
