FEMMES & IA GÉNÉRATIVES : DES REPRÉSENTATIONS QUI AMPLIFIENT LES STÉRÉOTYPES

representation femmes 50 ans IA
illustration femmes de 50 produite par DALL-E

Représenter les femmes, toutes les femmes, y compris celles de plus de 50 ans, est un enjeu en termes d’égalité. Les intelligences artificielles (IA) qui produisent des images peuvent-elles constituer des leviers à ces représentations ? Pour l’instant, elles constituent surtout un frein.

Elles ont toutes un carré blond clair ou blanc. Un tee-shirt à la coupe un peu large et aux couleurs pastels. Un sourire discret. Un corps mince. Elles sont toutes blanches. Est-ce vraiment à ça que ressemblent toutes les femmes de 50 ans ? C’est en tout cas la réponse du programme d’intelligence artificielle générative Dall-e – qui produit des images à partir de descriptions textuelles – lorsqu’on lui demande de fournir des images d’une « femme de 50 ans ».

Les IA ne créent pas les stéréotypes, mais amplifient leur diffusion

L’exemple ne pourrait être plus probant sur les biais des intelligences artificielles (IA) en ce qui concerne la représentation des femmes. Virginie Mathivet, qui a effectué cette recherche, en est restée « choquée ». Cette spécialiste française de l’intelligence artificielle, nommée à 42 ans « experte IA France » l’an dernier par l’association internationale Women In Tech, en connaît pourtant un rayon sur le secteur. Une fois la stupéfaction passée, elle reconnaît que c’est une réponse classique des intelligences artificielles génératives. « Elles produisent ce qu’on leur demande et leurs modèles sont nourris à partir des images les plus présentes dans la société, décrit-elle. Les IA génératives ne créent pas les stéréotypes, mais diffusent ceux qui existent déjà ».

« Les IA sont principalement conçues par des hommes, de la même catégorie sociale et ethnique. On obtient donc un résultat représentatif d’un système traditionnel de domination masculine, avec des représentations archétypales et très anciennes », complète Cristina Lunghi, 60 ans, fondatrice de l’association Arborus, qui a proposé en 2020 une Charte internationale pour une intelligence artificielle inclusive. Donc oui, « l’IA est sexiste », synthétise-t-elle encore.

Lorsqu’on demande à une IA générative de représenter un CEO (terme neutre en anglais pour chef d’entreprise), on tombe ainsi invariablement sur des hommes blancs de 40 ans. Par contre, pour des images de secrétaire, les IA fournissent systématiquement des femmes. Et donc, lorsqu’on cherche à obtenir des représentations de femmes de 50 ans, on tombe sur ce cliché de la femme discrète, un peu bourgeoise, de type caucasien… « Quand on ne précise pas davantage, on obtient la réponse qui est la plus parlante globalement, la moins diversifiée », détaille Virginie Mathivet. Par contre, si on fait preuve de précisions dans la description en demandant des images d’une « femme de 50 ans noire cheffe d’entreprise » ou d’une « femme de 50 ans avec des lunettes qui fait du vélo », là on peut sortir du rang.

« Condamné à agir »

Le problème, c’est qu’il faut y penser. Cela va donc « dépendre de l’humain qui utilise l’IA, poursuit cette experte. Il faut que les gens soient au courant que les IA produisent ce qu’il y a de plus probable et qu’il faut varier les demandes. Sinon cela va continuer à perpétuer les stéréotypes. » Cristina Lunghi s’en inquiète grandement : « Il y a une urgence historique : si on est trop peu à alerter, les discriminations vont être amplifiées par les IA. » L’enjeu de l’éducation des individus au fonctionnement des IA est ainsi énorme. Celui des entreprises qui les utilisent aussi.

« On n’est pas condamné à la trajectoire actuelle, mais on est condamné à agir », soutient Hélène Deckx Van Ruys, 51 ans, qui codirige le cercle de réflexion sur les femmes et l’IA créé en 2017 au sein de l’association Laboratoire de l’égalité. Pour elle comme pour ses consœurs, les solutions sont évidentes, mais nécessitent beaucoup d’investissement pour être appliquées. Il faut plus de femmes dans le secteur de la tech, notamment. Car aujourd’hui, 88 % des algorithmes sont conçus par des hommes, selon des chiffres compilés par le Forum économique mondial.

Comprendre les biais inconscients de l’IA

Former les hommes de ce secteur pour qu’ils comprennent « les biais inconscients » est donc important. Il faudrait aussi forcer l’industrie à se soumettre « à des audits sur la représentation des femmes et à d’autres critères d’inclusion comme la diversité ». Des propositions que l’on retrouve dans le Pacte pour une intelligence artificielle initié en 2021 par le Laboratoire de l’égalité, constitué de 110 propositions. » Celles-ci s’adressent aux entreprises, aux associations, au secteur de l’éducation et de la formation, de la recherche et des médias, ainsi qu’aux institution publiques.

La Charte internationale pour une intelligence artificielle inclusive lancée par Arborus répond aux mêmes objectifs. Elle réunit plus de 130 signatures – avec parmi elles des entreprises comme EDF, Danone, L’Oréal, Sodexo – qui s’engagent ainsi à « promouvoir la mixité et la diversité dans les équipes qui travaillent sur des solutions à base d’IA » ou à « intégrer dans les cahiers des charges des points de contrôle » pour éviter les biais discriminatoires.

Pour Virginie Mathivet, il faut aussi agir à la source. C’est-à-dire sur les banques d’images qui nourrissent les bases de données sur lesquelles sont entraînées les IA. « Beaucoup d’IA ne sont pas transparentes sur les sources qu’elles utilisent, ce qui pose des problèmes. Beaucoup se fondent sur des photos libres de droit qui sont généralement des contenus peu variés, assez stéréotypés. » Des initiatives commencent à voir le jour pour créer des banques d’images plus diversifiées, commr Flickr Diverse Faces, IBM Diversity in Faces ou DiveFace. « La création de ces banques d’images plus inclusives est balbutiante. Il y a beaucoup de travail à faire, mais c’est aussi là que se niche l’espoir », conclut-elle.

Laisser un commentaire

*

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.