Sarah Glozer, Université de Bath; Emily Jane Godwin, Université de Bathet Rita Mota, ESADE
Pour un homme qui a fait fortune grâce aux voitures électriques, la prise de contrôle de Twitter s’est jusqu’à présent transformée en un parcours assez cahoteux. Peu de temps après avoir acheté la société de médias sociaux pour 44 milliards de dollars (38 milliards de livres sterling), Elon Musk a déclaré qu’il n’avait « pas le choix » de licencier une grande partie du personnel de l’entreprise.
Il a déjà fait face à un contrecoup sur sa décision de facturer aux utilisateurs de Twitter des frais mensuels pour leur statut vérifié «coche bleue». Et ces utilisateurs devraient également s’inquiéter des plans de l’« absolutiste de la liberté d’expression » autoproclamé visant à réduire la modération du contenu.
La modération, le filtrage et le blocage des contenus en ligne inacceptables, est en place depuis qu’Internet existe. Et après être devenu une fonctionnalité de plus en plus importante et sophistiquée contre une marée montante de discours de haine, de désinformation et de contenu illégal, il ne faut pas le défaire à la légère.
Tout ce qui affaiblit les filtres, permettant à des contenus plus préjudiciables d’atteindre nos écrans, pourrait avoir de graves implications pour les droits de l’homme, à la fois en ligne et hors ligne.
Car ce ne sont pas seulement les gouvernements qui sont responsables du respect des droits de l’homme, les entreprises le sont aussi. Et lorsque différents droits de l’homme s’affrontent, comme c’est parfois le cas, ce conflit doit être géré de manière responsable.
Les médias sociaux se sont révélés être un moyen extrêmement puissant pour les personnes du monde entier d’affirmer leur droit humain à la liberté d’expression – la liberté de rechercher, de recevoir et de communiquer toutes sortes d’informations et d’idées.
Mais la liberté d’expression n’est pas sans limites. Le droit international des droits de l’homme interdit la propagande en faveur de la guerre, ainsi que l’appel à la haine nationale, raciale ou religieuse qui constitue une incitation à la discrimination, à l’hostilité ou à la violence. Elle autorise également les restrictions nécessaires pour assurer le respect des droits ou de la réputation.
Ainsi, Twitter, comme d’autres plateformes en ligne, a la responsabilité de respecter la liberté d’expression. Mais il a également la responsabilité de ne pas laisser la liberté d’expression l’emporter complètement sur les autres droits de l’homme.
Après tout, les contenus en ligne préjudiciables sont souvent utilisés pour restreindre la liberté d’expression d’autrui. Parfois, les menaces en ligne débordent sur le monde hors ligne et causent des dommages physiques et émotionnels irréparables.
Toute décision de supprimer la modération de contenu risque donc de violer les obligations des entreprises en matière de droits de l’homme. La liberté d’expression illimitée pour certains entraîne presque inévitablement la restriction ailleurs de cette même liberté. Et il est peu probable que le mal s’arrête là.
Musk affirme que Twitter deviendra désormais une « place publique » plus démocratique. Mais sans modération du contenu, sa version privée d’une place publique pourrait devenir dysfonctionnelle et dangereuse.
Twitter – encore une fois, comme la plupart des autres plateformes de médias sociaux – est depuis longtemps lié à des expressions manifestes de racisme et de misogynie
avec un flot de tweets racistes qui ont même fait surface après que Musk a conclu son accord.
Et tandis que Musk nous rassure que Twitter ne deviendra pas un « enfer », il est important de rappeler que la modération de contenu n’est pas la même chose que la censure. En fait, la modération peut faciliter un véritable dialogue en réprimant le spam et les propos toxiques qui perturbent souvent la communication sur les réseaux sociaux.
Convivial?
La modération rassure également. Sans cela, Twitter risque de perdre des utilisateurs qui pourraient partir vers des plateformes alternatives considérées comme plus sûres et mieux adaptées idéologiquement.
Les annonceurs de valeur sont également prompts à s’éloigner des espaces en ligne qu’ils considèrent comme source de division et risqués. General Motors a été l’une des premières grandes marques à annoncer un arrêt temporaire de la publicité payante sur Twitter après la prise de fonction de Musk.
Bien sûr, nous ne savons pas encore exactement à quoi ressemblera la version de Twitter de Musk. Mais il a été suggéré que les équipes de modération de contenu pourraient être dissoutes au profit d’un «conseil de modération».
S’il est similaire au « comité de surveillance » de Meta (anciennement Facebook), les décisions relatives au contenu doivent être sous-traitées à une partie externe représentant divers points de vue. Mais si Twitter a moins de contrôle interne et de responsabilité, le contenu préjudiciable peut devenir une bête plus difficile à apprivoiser.
Une telle abdication de responsabilité risque de violer les obligations de Twitter en matière de droits de l’homme et d’avoir un impact négatif à la fois sur les personnes touchées par des contenus préjudiciables et sur l’approche globale des droits de l’homme adoptée par d’autres plateformes en ligne.
Ainsi, comme un homme d’affaires (extrêmement) riche prétend « libérer » l’oiseau bleu de Twitter pour le bien de l’humanité, il prend également le contrôle commercial de ce qui a été conçu comme un espace social relativement démocratique jusqu’à présent. Ce qu’il fera ensuite aura de graves répercussions sur nos droits humains à l’ère numérique.
La modération du contenu n’est en aucun cas une panacée et l’affirmation selon laquelle les plateformes de médias sociaux sont des « arbitres de la vérité » est problématique pour de nombreuses raisons. Nous ne devons pas non plus oublier le bilan émotionnel et psychologique des modérateurs de contenu humains devant voir « le pire de l’humanité » pour protéger nos écrans. Pourtant, la désinfection des plateformes sociales n’est pas non plus la solution. Internet est un meilleur endroit lorsque les plateformes les plus performantes s’engagent dans un filtrage axé sur les droits de l’homme – pour le bénéfice de tous.
Sarah Glozer, maître de conférences en marketing et société, Université de Bath; Emily Jane Godwin, doctorante en cybersécurité, Université de Bathet Rita Mota, professeure adjointe, Département de société, politique et durabilité, ESADE
Cet article est republié de The Conversation sous une licence Creative Commons. Lire l’article d’origine.