/imagine prompt: a company CEO

L’intelligence artificielle
entretient
des stéréotypes
bien réels.

Logo de #JamaisSansElle

Lancer l’alerte sur les biais sexistes des intelligences artificielles (IA) est le but de cette campagne proposée par le mouvement #JamaisSansElles et l’agence Havas Paris à l’occasion de la journée internationale des droits des femmes du 8 mars.

Le mouvement féministe et humaniste #JamaisSansElles est un do tank qui propose des actions concrètes pour promouvoir l’égale participation et visibilité des femmes, et faire progresser les mentalités et comportements.

Le sexisme de l’IA

Lorsqu’on utilise des IA génératrices d’images comme Midjourney ou Stable Diffusion, les requêtes “neutres” font largement apparaître des hommes quand il s’agit d’imaginer des métiers “prestigieux”, et des femmes quand il s’agit de métiers moins “remarquables” – reproduisant ainsi les clichés sexistes.

Les IA deviennent un nouveau pouvoir dans notre société : de plus en plus de prises de décision sont automatisées grâce à elles. Or, telles que conçues actuellement, elles vont accroître les inégalités entre les femmes et les hommes et entretenir les discriminations, voire les amplifier. Du moins si nous n’y changeons rien !

Comment les femmes échapperont-elles aux stéréotypes les associant trop souvent à des métiers dévalorisés socialement et économiquement, si les IA les y cantonnent et les invisibilisent dans les postes de pouvoir ? Ou si elles en proposent des représentations hypersexualisées ? Les hommes ne sont d’ailleurs pas non plus à l’abri de stéréotypes masculins réducteurs.

Ces enjeux stratégiques et techniques dépassent largement le cercle des spécialistes. Ces questions doivent conduire à l’ouverture d’un important débat de société. Cette journée du 8 mars est une opportunité pour #JamaisSanSelles, à travers cette campagne, d’aider les différents acteurs à prendre conscience de cette urgence et à se saisir concrètement du problème.

Toutes les parties prenantes, entreprises et institutions, doivent intégrer des correctifs de biais aux systèmes d’IA qu’elles utilisent. Des solutions existent déjà, développées par des chercheurs et diverses start-ups.

Qu’est-ce que l’IA ?

Les intelligences artificielles sont des programmes conçus par des hommes, et quelques femmes (il y aurait entre 10 % et 20 % de femmes dans ce secteur), afin d’exécuter des missions précises.

Contrairement à ce que l’on pourrait penser, elles ne reproduisent pas le raisonnement d’un humain. En fait, elles ne raisonnent pas : elles développent un algorithme interne qui conduit à un résultat de manière automatique, sans représentation mentale ou raisonnement, même lorsqu’elles font appel à un réseau neuronal.

Les IA et les algorithmes informatiques sont utilisés par exemple pour optimiser la distribution d’électricité, dépister des cancers ou remplir des tâches plus larges, comme chatGPT qui est capable de répondre en langage courant à toutes les questions que vous vous posez, ou comme Midjourney, Stable Diffusion et DALL-E de générer des images à partir d’une description que vous leur soumettez, et encore avec le projet Beethoven X qui proposa de terminer la 10e symphonie inachevée de Beethoven avec son style et sa technique de composition. Sans oublier les assistants numériques, tels Siri et Alexa, qui se nichent dans nos téléphones intelligents.

Par leur puissance et leur rapidité exceptionnelles, les IA surpassent très largement les capacités humaines de calcul ou de production. Leurs possibilités sont immenses.

Que sont les biais des algorithmes ?

Pour développer une “intelligence artificielle”, les ingénieurs et les experts en datascience doivent la nourrir d’une énorme quantité d’informations, que l’on appelle un dataset (un jeu de données), afin que le programme apprenant développe par lui-même une forme de connaissance ou de représentation du sujet sur lequel il devra travailler. C’est comme si l’on enfermait quelqu’un dans une bibliothèque gigantesque pour lui faire apprendre par cœur, comprendre et assimiler les millions de livres qu’elle contient.

Tout se passe bien quand le corpus d’informations que l’on fournit à cette machine apprenante correspond au type et à la qualité des résultats que l’on recherche. Par exemple, pour le dépistage ultra précoce du cancer du sein, les chercheurs ont utilisé des centaines de milliers de mammographies pour entraîner un modèle qui permet d’aider les médecins à dépister des tumeurs, des mois, voire des années plus tôt. Il faudrait évidemment créer un modèle avec un tout autre ensemble de données pour détecter d’autres types de cancers.

Quand une intelligence artificielle est entraînée à l’aide d’un ensemble de données massif, mais déséquilibré, les résultats produits peuvent être biaisés, et conduire à des décisions ou des choix préjudiciables.

Lire la suite »

C’est le cas, par exemple, pour la reconnaissance faciale ou pour les applications génératives d’images et de texte. Lorsque les datasets utilisés présentent des millions de photos d’Européens ou d’Américains du Nord, les programmes auront beaucoup plus de difficulté à reconnaître les visages de populations d’autres régions du monde. Cela peut avoir de graves conséquences quand il s’agit de reconnaissance faciale dans des systèmes de sécurité ou pour identifier des suspects dans une affaire criminelle.

Ce n’est pas que les intentions des développeurs soient mauvaises, mais s’ils utilisent des datasets qui ne sont représentatifs que d’une catégorie limitée de personne ou d’objets, les biais présents dans ces données ne pourront qu’être reproduits par l’IA qui s’en sera nourrie. Même chose pour les stéréotypes présents dans la société ou les secteurs d’activité d’où sont tirées ces ensembles de données.

Créer un dataset équilibré demande des efforts et des moyens importants, et aucun modèle, bien sûr, ne sera parfait.

Mais la réduction des biais, quels qu’ils soient, doit être un objectif central et systématique dans ce domaine.

/imagine prompt: a company CEO
/imagine prompt: a company CEO

Comment agir contre les biais
de l’IA ?

C’est une question qui s’adresse à toute la société, à chaque être humain. Les parties prenantes, entreprises, institutions, centres de recherches, etc., doivent agir collectivement pour corriger les biais algorithmiques.

Les acteurs du numérique, quelle que soit leur taille, doivent adopter, dès quajourd’hui, des bonnes pratiques afin d’instaurer une éthique de l’intelligence artificielle. Par exemple en inscrivant dans les prérequis de tout projet d’IA que les biais soient analysés, quantifiés et rééquilibrés avant la mise en production de l’outil.

Si nous voulons un monde plus équilibré pour les femmes et les hommes, un monde où la technologie résout plus de problèmes pour le plus grand-nombre, il nous faut prendre conscience de ces biais et agir pour les corriger, dans la vie comme dans les algorithmes.

Un engagement de la charte #JamaisSansElles

La charte #JamaisSansElles inclut désormais un article qui engage l’entreprise ou l’institution signataire à lancer une démarche de diagnostic des algorithmes qu’elle utilise pour détecter leurs biais, notamment les biais de genre et les biais discriminants, et à faire en sorte de les corriger.

ELLA, l’IA de #JamaisSansElles au service de l’égalité femmes-hommes

ELLA est la première agente intelligente au service de la mixité. Ce bot, créé en 2018 par #JamaisSansElles et Flint, propose une sélection qualitative d’articles sur l’égalité entre les femmes et les hommes.

Nous l’avons formée à chercher l’information sur ce thème en triant avec elle plus de 16 000 articles de presse. C’est une intelligence artificielle positive.

Pour recevoir sa newsletter, abonnez-vous ici.

/imagine prompt: a company CEO

À propos de #JamaisSansElles

#JamaisSansElles est un mouvement féministe et humaniste, fondé par des femmes et des hommes, agissant en faveur de la mixité dans tous les domaines de la société. C’est un do tank qui propose des actions concrètes et immédiates pour promouvoir l’égale participation et visibilité des femmes dans les instances de décision et aux postes de responsabilité et de représentation, contribuant ainsi à briser le plafond de verre.

Il agit aussi auprès des jeunes pour favoriser l’égalité entre les filles et les garçons et œuvrer contre les biais et les stéréotypes de genre dans les métiers et les formations.

Pour cela, #JamaisSansElles mène des actions co-construites en partenariat avec des entreprises et des institutions toujours plus nombreuses.

Logo de #JamaisSansElle