INTELLIGENCE ARTIFICIELLE : COMMENT ÉVITER LA REPRODUCTION DES STÉRÉOTYPES SEXISTES

jaipiscineavecsimone_société_IA_ensemblecontrelesexisme

Le collectif d’associations « Ensemble contre le sexisme » s’est mobilisé le 24 janvier pour obtenir la création d’une journée nationale contre le sexisme. parmi les ateliers organisés ce jour là, la question du sexisme dans l’Intelligence Artificielle a donné lieu à un passionnant débat sur la nature et le caractère genré des données composant les algorithmes.

Si l’intelligence artificielle est un sujet obscur dont la cuisine interne semble réservé aux spécialistes, elle occupe néanmoins notre vie quotidienne. Affichage de contenus en lien avec nos dernières recherches sur le web, sélection de CV, recommandations personnalisées … Les algorithmes ont pour but de résoudre des problèmes, apporter des solutions en exécutant une suite d’instructions précises. Mais les solutions qu’ils proposent sont impactés par la manière dont ils sont « nourris ». Pour Frédéric Bardolle, responsable des collectifs Algo Transparency et Data for good, les algorithmes d’apprentissage automatique sont entrainés avec des données essentiellement conservatrices, ce qui introduit discrimination et biais genrés.

L’#IA, ce n’est pas Terminator, c’est Google Translate, qui suggère un docteur (au masculin) et une infirmière (au féminin) !

Hugo Ruggieri

L’un des exemples les plus récents vient de la plateforme Amazone et de son algorithme de recrutement. L’Intelligence Artificielle faisait ressortir des candidatures essentiellement masculines pour des postes de développeurs. Alimenté pendant une dizaine d’années avec des CV émanant d’hommes, l’IA minorait les CV avec le mot « femme ». Corrigé depuis, l’exemple reste exemplaire sur l’introduction de biais sexiste. De même la question se pose pour les avatars assistants personnels dotés essentiellement de voix de femmes. Comment faire un avatar neutre et non genré ? » est une question qui est loin d’être anecdotique. La plupart des assistants personnels possède une voix féminine. Il suffit d’interroger Siri, zélée commande vocale d’Apple.

L’usage numérique est pour tout le monde et la maitrise pour très peu.

Isabelle Collet

Quelles solutions pour éviter les biais sexistes ?

Isabelle Collet, maitresse d’enseignement et de recherche en sciences de l’éducation à l’université de Genève et VP du conseil d’administration de l’INSA Lyon souligne la nécessité d’agir dès la formation des développeurs. « Il faut accueillir plus de femmes dans les écoles numériques. Depuis 2 ans on a des taux qui montent, il y a plus de 40 % d’étudiantes à l’INSA. Il faut également faire en sorte que la présence des filles ne pose pas de problème aux garçons ! ». L’Intelligence Artificielle serait-elle systématiquement sexiste ? La chercheuse estime que ce n’est qu’un outil qui ne fait que ce qu’on lui demande. « On peut ajouter des biais positif qui peuvent aider à produire de l’égalité ». Elle déplore qu’on se contente de dire aux femmes « bougez vous » ! « Il faut faire des politiques de quota et en plus cela à le mérite de monter le niveau ! »

Il faut aussi arrêter de parler d’autocensure des femmes qui sont très bonnes à l’école mais ne prennent pas leur place (…). C’est un long laminage tout au long de leurs parcours, après on se demande pourquoi ? ! Moi je n’ai jamais réussi à prendre ma place comme informaticienne.(…)
Il faudrait se demander qui sont les 40% d’hommes qui sont là grâce à la discrimination sociale ?

Isabelle Collet

Hugo Ruggieri, responsable juridique et DPO chez Doctrine.fr estime que plus largement l’une des solutions est de redonner des droits aux utilisateurs des plateformes. « La pression de l’opinion publique avec la politique de « name and shame »en exposant les mauvaises pratiques aura des répercussions sur le business ». La récente amende de 50 millions d’euros infligée à Google au titre du RGPD montre la voie à suivre. Promouvoir une utilisation éthique des données de l’Intelligence Artificielle est le projet de Data for Good qui propose un serment d’Hippocrate pour Data Scientists. Développé dans ce cadre Algo Transparency est un programme qui détecte les vidéos les plus suggérées par l’algorithme de YouTube à partir d’une recherche donnée.