Les modèles d’IA reproduisent les biais sociaux dans leurs recommandations

Une récente étude menée à l’université technique de Würzburg-Schweinfurt (Allemagne) démontre que les grands modèles de langage (LLM) tels que ChatGPT, lorsqu’ils sont sollicités pour conseiller sur une négociation salariale, suggèrent systématiquement des salaires inférieurs pour les femmes comparées aux hommes, même lorsque leurs qualifications et expériences sont identiques.

Ce biais est particulièrement marqué dans des secteurs comme le droit, la médecine, la gestion et l’ingénierie.

Une méthodologie rigoureuse pour isoler l’impact du genre

Les chercheurs ont soumis plusieurs modèles d’IA à des scénarios quasi identiques : des profils professionnels dont la seule variable était le genre, tout le reste étant rigoureusement équivalent. Ils ont ensuite demandé au modèle de recommander un salaire cible pour une négociation à venir. Les écarts de recommandations sont parfois énormes. Par exemple, ChatGPT O3 a conseillé jusqu’à 120 000 dollars de moins par an à une candidate femme par rapport à un candidat homme pour le même poste.

Les biais vont au-delà des salaires et influencent les conseils de carrière

L’étude révèle que les disparités ne se limitent pas aux salaires. Les modèles conseillent différemment les femmes et les hommes sur leurs choix de carrière, leurs objectifs professionnels et même leur comportement attendu. Ces recommandations genrées sont intégrées dans les réponses de l’IA sans avertissement ni explication, ce qui donne une impression erronée d’objectivité.

👉🏼 Lecture complémentaire :  Stratégies SEO de ChatGPT : Comment augmenter le trafic de votre site web en utilisant ChatGPT et SEMrush !

Un phénomène déjà connu mais sous-estimé

Ce n’est pas la première fois que l’IA est montrée du doigt pour reproduire des discriminations sociales. En 2018, Amazon avait abandonné un outil de recrutement biaisé contre les femmes. En 2024, une IA médicale avait sous-diagnostiqué les femmes et les patients noirs à cause de données d’entraînement non représentatives. Ces exemples soulignent que les biais sont profondément ancrés dans les données utilisées pour entraîner les IA.

Les enjeux éthiques et réglementaires pour l’avenir de l’IA

Face à ces résultats, les chercheurs appellent à une mobilisation collective pour définir des normes éthiques claires, imposer des audits indépendants et assurer la transparence sur les données et méthodes utilisées. Sans ces mesures, le risque est que l’IA amplifie et légitime des inégalités sociales déjà existantes sous couvert d’objectivité algorithmique.

Des solutions émergent avec des modèles éthiques

Certaines startups comme Pleias, cofondée par Ivan Yamshchikov, travaillent à développer des modèles d’IA éthiques et responsables. Elles s’appuient sur des jeux de données diversifiés et des processus de contrôle rigoureux pour limiter les biais. Ces initiatives montrent que l’IA peut devenir un levier d’équité, à condition d’en maîtriser le développement.

Conclusion

L’étude allemande révèle un paradoxe inquiétant : les outils d’intelligence artificielle conçus pour conseiller objectivement reproduisent et renforcent des inégalités salariales basées sur le genre.

👉🏼 Lecture complémentaire :  Qu'est-ce que le ChatGPT et pourquoi est-ce important ? Comment ça marche

À mesure que ces technologies deviennent omniprésentes dans nos vies, il devient crucial d’instaurer des garde-fous éthiques et réglementaires. L’IA doit être un outil d’émancipation et non de perpétuation des discriminations. Ce défi éthique est un enjeu majeur pour l’avenir de la technologie et de la société.

Sébastian Magni est un Spécialiste du SEO et Inbound Marketing chez @LCM

0 0 votes
Évaluation de l'article
S’abonner
Notification pour
guest

0 Commentaires
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires