Gayvox
    • Facebook
    • Instagram
    Gayvox
    Contact
    • Actualités
    • Lifestyle
    • Culture
      • Musique
      • Films
      • Télévision
    • Fashion
    • Drag
    • Originals
    • À propos
    Gayvox
    Accueil » LGBT Lifestyle » La technologie de reconnaissance faciale IA pourrait avoir des conséquences dévastatrices pour les personnes trans

    La technologie de reconnaissance faciale IA pourrait avoir des conséquences dévastatrices pour les personnes trans

    12 mai 20246 minutes
    La technologie de reconnaissance faciale IA pourrait avoir des conséquences dévastatrices pour les personnes trans
    Partager
    Facebook Twitter WhatsApp Email

    Il a toujours été difficile de trouver un sentiment de sécurité sur Internet en tant que personne queer. Et avec un monde numérique en évolution rapide, les choses semblent devenir de plus en plus complexes.

    Pour moi, l’essor de l’IA (intelligence artificielle) est venu de nulle part – je ne connaissais rien du sujet, puis mon flux a été inondé de captures d’écran de chatbot, de drames deepfake et de clips vidéo générés.

    Bien sûr, tout cela soulève la question suivante : qu’est-ce que l’IA exactement ? Il a fait des pas de géant ces derniers temps, mais nous utilisons également des versions simplifiées depuis de nombreuses années.

    Plongez plus profondément chaque jour

    Rejoignez notre newsletter pour des commentaires stimulants qui vont au-delà de la surface des problèmes LGBTQ+

    Pour le dire simplement, l'intelligence artificielle est « l'intelligence » manifestée par des machines qui peut refléter la capacité humaine – la capacité d'apprendre, de lire, d'écrire, de créer et d'analyser.

    Bien sûr, cette définition même est remise en question si l’on tient compte du fait que l’IA est formée sur des ensembles de données préexistants – tout ce que la machine « crée » est régurgité à partir de connaissances passées. Par exemple, si vous utilisez l'outil populaire ChatGPT et lui demandez de vous écrire une histoire originale, il fera de son mieux – mais il serait imprudent de publier ces œuvres car il est probable qu'elles reflètent du matériel protégé par le droit d'auteur précédemment publié.

    Dans certains cas, l’IA peut être utile. Cela perturbe déjà la main-d'œuvre, car les employeurs choisissent l'IA pour créer du contenu plus rapidement (bien que souvent avec une qualité inférieure) qu'une personne ne le pourrait. L'IA est utilisée dans la recherche médicale et dans d'autres domaines STEM ; l’utilisation de l’IA peut réduire considérablement le temps qu’il faudrait à un individu pour traiter de grandes quantités de données.

    Malheureusement, les caractéristiques qui rendent l’IA si utile dans certaines circonstances la rendent également extrêmement préjudiciable dans d’autres. Lorsque j’ai découvert pour la première fois le traitement d’images et les transcripteurs d’images IA, j’ai mis quelques images de moi par curiosité. J'ai surtout obtenu des résultats précis – des descripteurs comme « jeune homme aux cheveux roses », « homme d'une vingtaine d'années souriant légèrement », etc.

    Cependant, lorsqu’on demande à l’IA de générer une image d’une personne trans, les résultats deviennent terriblement offensants.

    Sourojit Ghosh, chercheur en conception de systèmes centrés sur l'humain, découvre des problèmes inquiétants dans la manière dont Stable Diffusion, un processeur d'images, conceptualise la personnalité. « Il considère les personnes non binaires comme celles qui ressemblent le moins à une personne ou qui s'éloignent le plus de sa définition de » personne « .

    Ghosh a noté que lorsqu'on a demandé à Diffusion de produire des images de personnes avec des invites comprenant « non binaire », le programme est devenu confus et a souvent fait un amalgame monstrueux de visages humains qui ne ressemblaient à aucune personne réelle. De même, insérer des invites pour « homme trans » ou « femme trans » peut confondre l’IA, donner lieu à des images hypersexualisées malgré une invite neutre, ou aboutir à une version stéréotypée et embarrassante de ce à quoi une personne trans pourrait ressembler.

    Ce qui est plus préoccupant pour de nombreuses personnes transgenres et/ou non binaires, c'est la poussée croissante en faveur des logiciels de reconnaissance faciale IA. Les logiciels d'analyse faciale sont de plus en plus utilisés à des fins de marketing et de sécurité ; Comme si l'idée d'une caméra scannant votre visage pour l'utiliser pour des statistiques marketing n'était pas assez préoccupante, ce que cela signifie pour les personnes transgenres n'est pas clair.

    « Nous avons constaté que les services d'analyse faciale étaient systématiquement moins performants sur les personnes transgenres et étaient universellement incapables de classer les genres non binaires », a déclaré l'auteur principal Morgan Klaus Scheuerman, doctorant au département des sciences de l'information de l'Université du Colorado. « Bien qu’il existe de nombreux types de personnes différents, ces systèmes ont une vision extrêmement limitée de ce à quoi ressemble le genre. » Cela pourrait signifier que le logiciel étiquette incorrectement les personnes transgenres avec une fréquence qui entraînerait des problèmes dans les résultats finaux.

    Les chercheurs ont collecté 2 450 images de visages sur Instagram. Les images ont ensuite été divisées en sept groupes de 350 images (#women, #man, #transwoman, #transman, #agender, #agenderqueer, #nonbinary) et ensuite analysées par quatre des plus grands fournisseurs de services d'analyse faciale (IBM, Amazon). , Microsoft et Clarifai).

    Les hommes et les femmes cisgenres présentaient tous deux des taux de précision élevés : 98,3 % des femmes cis et 97,6 % des hommes cis ont été identifiés en fonction de leur sexe.

    Mais en dehors des personnes cis, le système a commencé à se heurter à davantage de problèmes. Les hommes trans ont été identifiés à tort comme des femmes dans 38 % des cas ; ceux qui se sont identifiés comme agenres, sexistes ou non binaires – indiquant qu’ils ne s’identifient ni comme hommes ni comme femmes – ont été mal interprétés dans 100 % des cas.

    « Ces systèmes risquent de renforcer les stéréotypes sur ce à quoi il faut ressembler si l’on veut être reconnu en tant qu’homme ou femme. Et cela concerne tout le monde. dit Scheuerman.

    Alors que les logiciels d’analyse faciale deviennent de plus en plus courants, on ne sait pas exactement comment les personnes transgenres seront affectées. Je suis de nature inquiète, mais mon esprit ne peut s'empêcher de se lancer dans les pires scénarios. Puis-je échouer à l'habilitation de sécurité pour ne pas correspondre au sexe indiqué sur ma carte d'identité ?

    Il est déjà bien établi que les personnes trans ont plus de difficultés à obtenir les autorisations de sécurité et peuvent être soumises à des fouilles si quelque chose dans leur physique semble « anormal ». Un exemple notable de ceci est l'agression de Megan Beezley, une femme trans qui a été fouillé de manière inappropriée et qui lui a demandé de présenter des pièces d'identité supplémentaires par la TSA à l'aéroport international de Raleigh-Durham (cette histoire m'a touché de près, car j'ai grandi à Durham). , et une partie de mes efforts pour quitter l'État était l'incidence croissante des crimes haineux queer).

    Si ce logiciel devient public, est-ce que tout le monde pourra retrouver des photos de moi passées, avant la transition, en saisissant une image de moi maintenant ? Il semble que l'avenir du fait de devenir « furtif » – en faisant passer dans votre vie de tous les jours votre identité de genre choisie, sans préciser que vous avez fait la transition – est en danger, car vous pourriez devoir vous chamailler sur les traits de votre visage avec n'importe qui. qui utilise ce logiciel.

    Il est clair que ces programmes nécessitent davantage de travail avant d'être utilisés auprès du public – après tout, un système qui ne peut pas identifier correctement un groupe entier de personnes est, c'est le moins qu'on puisse dire, imparfait.

    ★★★★★

    Article précédentLe petit ami d'Orville Peck révélé : regardez son discours émouvant introduit par Jennifer Lawrence
    Article suivant « J'aime les pieds » : Ricky Martin brise le silence sur les commentaires sur le fétichisme des pieds
    Avatar photo
    Mathias Gerdy

    Après avoir fait ses premiers pas dans la presse féminine, Mathias Gerdy a fondé le site Gayvox en tant que journaliste indépendant pour écrire sur ce qui lui tenait à cœur : la cause LGBT.

    Ajouter un commentaire
    Laisser un commentaire Cancel Reply

    • Facebook
    • Instagram
    À la une
    Voici la distance idéale à marcher chaque jour pour perdre du poids selon les experts
    18 septembre 2025
    500 millions d’années sous l’Antarctique : les scientifiques convaincus d’une autre chaîne de montagnes
    11 septembre 2025
    Le travail à distance augmente le bonheur : conclusions d’une étude sur 4 ans
    11 septembre 2025

    Newsletter
    Gayvox

    Newsletter
    Gayvox

    Gayvox
    Facebook Instagram RSS
    © 2025 Gayvox - Magazine LGBT & actualités - Mentions légales - [email protected]

    Appuyez sur Entrer pour rechercher. Appuyez sur Echap pour annuler.