Lorsque Junia Joplin a essayé Lensa – une application populaire qui génère des images stylisées à partir de photographies – elle a vu une version d’elle-même qui n’avait jamais existé mais qui était parfaitement logique.
Joplin, qui a commencé sa transition en tant que femme transgenre il y a cinq ans à l’âge de 39 ans, a déclaré que le fait de configurer l’application pour créer des images féminines à partir de ses clichés d’adolescente l’avait aidée à se sentir plus à l’aise avec son passé.
« C’était émouvant. Certains d’entre eux semblaient si réalistes », a déclaré Joplin, un pasteur associé de Toronto, à Context.
« Tant de mes souvenirs n’ont pas de sens, comme si j’étais une femme qui avait un tas de souvenirs de la vie d’un homme imprimés dans sa conscience », a déclaré Joplin.
« Mais en voyant la » jeune June « , il est devenu plus facile de m’imaginer en tant que jeune fille. »
Lensa, fabriqué par la société californienne Prisma Labs, utilise l’intelligence artificielle (IA) pour sa fonctionnalité « Magic Avatars » qui génère une sélection de portraits et de dessins animés originaux à partir de photos.
L’application demande aux utilisateurs de télécharger une sélection de photos d’eux-mêmes et de choisir si leurs avatars doivent être affichés en tant qu’homme, femme ou autre.
Les images stylisées, aux couleurs vives et parfois légèrement vêtues qui en résultent ont été collées sur les réseaux sociaux ces dernières semaines.
Lensa a suscité des critiques – certains utilisateurs se sont plaints que leurs avatars sont sexualisés avec de gros seins et peu de vêtements, ou qu’ils reflètent des stéréotypes raciaux.
Prisma Labs a déclaré que les résultats de Lensa reflètent parfois des biais dans les millions d’images sur lesquelles l’application est formée, malgré les efforts des développeurs pour les éliminer. Ce mois-ci, la société a mis à jour l’application pour mieux filtrer les résultats d’image explicites.
Mais pour certaines personnes trans et non binaires qui luttent contre la dysphorie de genre – ou un décalage entre leur identité de genre et leur corps – l’application peut être affirmative.
« Je souffre de dysphorie autour de parties de mon corps qui pourraient être perçues comme » masculines « », a déclaré Abbie Zeek, 27 ans, régisseuse trans pour une compagnie de théâtre en Australie.
Zeek a envoyé ses résultats générés par Lensa à un ami, lui demandant si les images étaient fidèles à la réalité.
« Quand ils m’ont montré ceux qui ressemblaient à ce qu’ils me voyaient, j’ai fondu en larmes parce que la femme qui me regardait sur les photos ne me ressemblait pas seulement, elle ressemblait à la femme que je voulais être », a-t-elle déclaré. .
QUESTIONS SUR LA DIVERSITÉ DE GENRE
Les progrès de l’IA qui utilise du texte, des fichiers audio, des images et des vidéos existants pour créer de nouveaux contenus deviennent de plus en plus réalistes et répandus.
Cependant, certains utilisateurs ont déclaré que des outils comme Lensa pourraient toujours ne pas fournir de représentation aux utilisateurs qui rejettent les frontières du genre binaire.
Philip Li, un artiste et interprète qui s’appelle Le Fil, a choisi l’option de genre « autre ».
Li s’identifie comme non binaire, ce qui signifie qu’il ne se considère ni comme un homme ni comme une femme, et utilise les pronoms ils et eux.
Cependant, l’IA de Lensa a ajouté des seins à leurs images.
Li, qui est anglo-chinoise, a également déclaré que les images ne capturaient pas leur visage avec précision, mais suivaient les stéréotypes des petites femmes asiatiques en adoucissant leur mâchoire et en amincissant leurs membres.
« Dans la plupart des images, le visage était assez déformé, comme s’il ne savait pas quoi penser de moi – une image était un torse coupé », ont-ils déclaré.
« Les images étaient principalement terribles dans leur ressemblance. »
Li et d’autres ont fait part de leurs inquiétudes quant au fait que les applications d’IA peuvent créer des normes de beauté inaccessibles pour les jeunes utilisateurs.
Ces images idéalisées de la féminité peuvent être particulièrement nocives pour les femmes trans en ajoutant à la pression de « se faire passer » pour une femme sans aucun point d’interrogation sur leur sexe, a ajouté Li.
« Chaque étape du voyage trans est tout aussi valable et a également besoin d’être représentée », ont-ils déclaré.
APPEL SUR LA DIVERSITÉ DE LA MAIN-D’ŒUVRE IA
Les algorithmes de création artistique sont formés en scannant des images préexistantes qu’ils peuvent ensuite copier et remixer. Magic Avatars de Lensa apprend de plus de 5 milliards d’images extraites de plates-formes générées par les utilisateurs, de sites d’images de stock et d’œuvres d’artistes célèbres.
« Nous apprécions l’art et la créativité car ils nécessitent de l’authenticité, de l’originalité, souvent une grande compétence et virtuosité, une profonde perspicacité humaine », a déclaré Jon McCormack, professeur d’informatique à l’université australienne Monash.
« Les systèmes actuels d’intelligence artificielle et d’apprentissage automatique ne possèdent aucune de ces qualités, ce ne sont que de bons imitateurs statistiques. »
Les entreprises génératrices d’images d’IA peuvent assurer une représentation plus large et plus réaliste de l’âge, du type de corps, du sexe et d’autres données démographiques en filtrant les images dont elles tirent des enseignements, a déclaré McCormack.
Même dans ce cas, il pourrait s’avérer difficile d’éviter les stéréotypes – certains genres tels que la fantasy incluent souvent des stéréotypes sexistes et des images sexualisées de femmes, a déclaré McCormack.
Pour Li, cela souligne la nécessité d’une meilleure représentation LGBTQ+ parmi les travailleurs de l’industrie de l’IA.
« Lorsque l’IA commencera à développer des films, des publicités, des séances photo, nous serons à nouveau complètement oubliés. Tout ce que vous aurez, ce sont des hommes hyper masculins et des femmes super féminisées », ont-ils déclaré.
« Pour que l’IA s’intègre aux humains, elle doit refléter l’humanité, et non une version idéalisée de celle-ci. »
Reportage d’Adam Smith.
GAY VOX et Openly/Thomson Reuters Foundation travaillent ensemble pour diffuser les principales actualités LGBTQ+ à un public mondial.