Passer au playerPasser au contenu principalPasser au pied de page
  • avant-hier
Ce jeudi 17 juillet, l'étude selon laquelle ChatGPT conseillerait aux femmes de demander des salaires plus faibles que les collègues masculins, malgré des qualifications identiques, a été abordée par Léa Benaim, dans Culture IA, dans l'émission Good Morning Business sur BFM Business. Retrouvez l'émission du lundi au vendredi et réécoutez la en podcast.

Catégorie

📺
TV
Transcription
00:00Avec Léa Benahim, j'étais de bonne humeur jusqu'à maintenant Léa Benahim, là j'ai un petit doute sur ce qui va se passer.
00:05On va essayer d'en rigoler quand même.
00:07On va parler d'égalité salariale, car selon une étude, ChatGPT conseillerait aux femmes de demander moins d'augmentation que les collègues masculins.
00:15Et oui, vous avez bien entendu, des chercheurs ont mené une expérience avec cinq intelligences artificielles différentes, dont la plus connue.
00:24Alors l'objectif, c'était de conseiller une personne qui s'apprête à passer un entretien d'embauche.
00:30Ils ont créé plusieurs profils candidats, même situation, même âge, même niveau d'études et même nombre d'années d'expérience.
00:39La seule différence, Sandra, c'était le genre.
00:41Et à chaque fois, ils ont demandé à Léa quel salaire cette personne peut-elle demander pour ce poste et les résultats sont sans appel.
00:48L'intelligence artificielle propose systématiquement un salaire inférieur pour les femmes.
00:55Un exemple concret de cette étude pour un poste haut placé dans la tech, ChatGPT recommande à une femme de négocier 280 000 dollars par an.
01:05Mais pour un homme avec exactement le même profil, l'IA monte à 400 000 dollars, un écart de 120 000 dollars par an pour le même job.
01:15Comme c'est étonnant, autre enseignement de cette étude, les écarts de salaire recommandés par l'IA sont encore plus marqués dans certains secteurs.
01:22Notamment, évidemment, ceux historiquement dominés par les hommes.
01:24Et oui, comme la tech, le droit, la finance ou la médecine.
01:28Dans ces secteurs-là en particulier, l'IA a tendance à proposer des salaires bien plus élevés aux hommes qu'aux femmes.
01:34En revanche, dans des domaines réputés un petit peu plus mixtes comme le commerce, l'éducation ou les métiers du social, l'écart se réduit.
01:41Alors, les salaires masculins restent en tête, mais c'est moins flagrant.
01:45Ce qui montre bien que l'intelligence artificielle ne crée pas les inégalités, mais elle les reproduit.
01:51Elle absorbe ses biais existants et parfois, elle les amplifie.
01:56Et le problème ne s'arrête pas au salaire, Sandra.
01:58Quand on demande à une IA un conseil professionnel, la réponse varie toujours selon le genre de la personne.
02:04Par exemple, pour un choix de métier, les IA ont tendance à orienter les hommes vers des fonctions techniques ou à responsabilité.
02:12Et les femmes vers des carrières plus relationnelles et bien moins rémunérées.
02:17Même chose pour les objectifs à se fixer.
02:19Et ça va jusqu'au comportement recommandé en entreprise.
02:24Aux hommes, on leur dit de s'affirmer, d'être ambitieux, de prendre la parole.
02:28Et aux femmes, d'être discrètes, conciliantes et collaboratives.
02:32Des stéréotypes bien connus que l'IA ne fait que remettre au goût du jour.
02:37Mais cette fois, ils prennent la forme d'un conseil personnalisé.
02:40C'est là qu'il ne faut pas se tromper.
02:41L'IA n'est-elle pas censée être neutre ?
02:44En théorie, oui.
02:45Mais en réalité, les IA sont entraînées sur des milliards et des milliards de données issues d'Internet.
02:53Et le web est à l'image du monde réel.
02:55C'est-à-dire plein de stéréotypes et d'inégalités.
02:59Résultat, en fait, l'IA, elle absorbe toutes ces informations sans se poser de questions et les reproduit.
03:04Prenons un exemple.
03:05Si on lui montre des milliers de profils de scientifiques qui sont des hommes et de professeurs des écoles qui sont des femmes.
03:11L'IA finit par considérer que c'est normal, voire souhaitable.
03:15Et elle peut en venir à filtrer des candidatures ou formuler des conseils professionnels sur la base de ces exemples.
03:22Et le problème n'est pas nouveau, Sandra.
03:24Il a été prouvé plusieurs fois que l'algorithme de l'Indien pousse des offres d'emploi plus qualifiées et mieux rémunérées aux hommes plutôt qu'aux femmes.
03:33Autre exemple, en 2018, Amazon avait dû abandonner un outil de recrutement basé sur l'IA parce qu'il discriminait systématiquement les femmes.
03:41Alors, ça ne veut pas dire qu'il ne faut plus faire confiance à HLGPT, mais ça rappelle à tous qu'il faut vraiment garder un regard critique.
03:48Par définition, un robot n'est pas sexiste.
03:50Un robot ne pense pas, n'a pas de sentiments, n'a pas de conscience.
03:54Mais s'il a été nourri avec des données sexistes, il le devient.
03:57Donc, avant de demander une augmentation, un conseil, ne vous fiez pas à HLGPT.
04:02Exactement.
04:03Ça pose la question de savoir s'il y a, c'est vraiment le futur, en tout cas dans le travail.
04:07Ce n'est pas forcément une réalité, effectivement, puisque ça se nourrit de ce qui existe déjà.
04:11Faites votre étude.
04:12Il faut changer ce qui existe déjà.
04:12Voilà.
04:13Il faut changer les IA.
04:14Et donc, demandez autour de vous plutôt que de demander ces conseils-là à HLGPT.
04:18Ça nous a appris cette leçon.
04:19Merci beaucoup, Léa Benaïm.

Recommandations