Passer au player
Passer au contenu principal
Passer au pied de page
Rechercher
Se connecter
Regarder en plein écran
Like
Commentaires
Favori
Partager
Ajouter à la playlist
Signaler
Les enjeux éthiques associés à l’IA [Meriem Hizam]
Xerfi Canal
Suivre
09/10/2024
Xerfi Canal a reçu Meriem Hizam, doctorante en sciences de gestion et du management, LEMNA, Nantes Université, pour parler des enjeux éthiques associés à l'IA.
Une interview menée par Jean-Philippe Denis.
Catégorie
🗞
News
Transcription
Afficher la transcription complète de la vidéo
00:00
Bonjour Myriam Issam. Bonjour Jean-Philippe. Myriam Issam, vous êtes doctorante en sciences
00:12
de gestion et du management au Lemna, Université de Nantes, laboratoire économie-management de
00:16
l'Université de Nantes. Éclairage sur l'évolution de la fabrique de la décision à l'ère de l'IA,
00:21
c'est le papier que vous avez publié dans Management & Data Science, qui est une revue
00:24
qu'il faut lire. Ce sont des textes courts, percutants, à impact et extrêmement intéressants.
00:30
On va discuter ensemble des enjeux éthiques. Il y a le grand enjeu de est-ce que la machine va
00:38
nous remplacer dans nos décisions ? Il y a le grand enjeu de est-ce qu'elle va nous voler nos emplois,
00:42
nos jobs ? Puis il y a l'enjeu éthique. Alors les enjeux éthiques, qu'est-ce qu'on doit pointer ?
00:49
Vous nous dites responsabilité, explicabilité, redevabilité. Dites-nous tout.
00:57
En effet, l'intelligence artificielle, ça date des années 50 et l'éthique aussi. Je pense que
01:02
ce n'est pas une question nouvelle qui vient de se poser. Mais ce qui est intéressant,
01:06
c'est qu'avec la manipulation de l'IA générative, je reviens toujours à l'IA générative,
01:10
parce qu'elle est manipulable par le grand public. On a entendu parler des scandales un peu éthiques,
01:17
qui a par exemple le cas de la bombe avec ChatGPT, le cas de l'IA conversationnel pédophile de
01:25
Snapchat. Donc ce sont des éléments qui ont été pas mal communiqués sur les réseaux sociaux qui
01:30
ont fait parler le public. Évidemment, si on revient à l'IA de manière générale,
01:34
il y a toujours un risque d'introduction ou bien de glissement des billets cognitifs ou autres. Les
01:42
billets dans les systèmes d'information vont se glisser, même en détriment des meilleures
01:45
intentions. Donc ce que nous on peut faire, c'est vraiment essayer de minimiser ces billets-là. Après,
01:51
les billets ne sont pas forcément mauvais, c'est ce que je dis dans mon papier, parce que c'est ce
01:54
qui fait ce que nous sommes. Mais dans des organisations, dans des contextes de développement
01:59
des systèmes d'intelligence artificielle, l'idée ou bien ce qui est proposé actuellement, c'est de
02:04
travailler sur la diversité des équipes qui développent les solutions de l'IA, travailler
02:09
sur l'interdisciplinarité aussi pour introduire des chercheurs qui viennent de domaines un peu
02:13
pas vraiment rattachés au domaine sur lequel on développe le système. Mais il y a aussi un
02:20
travail actuellement de recherche sur de nouvelles approches pour aborder les données et pour essayer
02:26
de rendre les données les plus éthiques possibles. Ne jamais oublier que l'IA ne sera jamais
02:31
responsable. Vous dites d'ailleurs, qui assumera la responsabilité en cas de problème ? L'IA, elle
02:36
n'est pas responsable ? Parce que ce n'est pas une personne physique ou morale, donc forcément,
02:40
elle n'est pas responsable de ce qu'on lui demande de faire, ce qu'on lui demande de faire
02:45
de manière implicite, ce qu'elle nous donne en contrepartie, c'est-à-dire les outputs, elle ne les
02:51
crée pas. C'est nous qui mettons des algorithmes d'apprentissage. Du coup, la question se pose,
02:56
pour ces algorithmes d'apprentissage-là, est-ce qu'il y avait un problème au niveau de la
02:59
conception ? C'est la phase d'entraînement plus qui a entraîné ce problème ou bien qui a entraîné
03:03
cette faille ? C'est l'utilisateur qui a mal utilisé le système ? Donc moi, quand je parle de
03:09
responsabilité, je pense que c'est important de définir à quelle étape exactement il y avait
03:14
le souci ou bien la faille. Mon idée n'est pas dans une logique de pénalisation ou bien pour
03:20
pénaliser la personne qui a contribué en quelque sorte aux failles, mais c'est plus pour valoriser
03:26
et pour aller vers une IA plus responsable et une IA qui est plus éthique, qui va répondre
03:32
à nos besoins tout en respectant notre vie privée, notre intégrité, notre dignité et notre bien-être.
03:38
Vaste sujet dont on n'a pas fini de parler parce que la question de la responsabilité,
03:45
effectivement, l'IA, ce n'est pas une personnalité juridique. Donc on ne mettra pas une IA en prison.
03:52
Voilà. Donc ça veut dire qu'on mettra quelqu'un d'autre. Merci à vous.
03:55
Merci à vous.
Recommandations
5:06
|
À suivre
Appréhender les effets de l’IA sur la prise de décision [Meriem Hizam]
Xerfi Canal
02/10/2024
5:44
Ce que l'IA peut ou va comprendre [Meriem Hizam]
Xerfi Canal
20/06/2024
4:52
Qui gagnera la bataille de l’I.A. ? [Ismael Al-Amoudi]
Xerfi Canal
02/09/2019
5:08
La déresponsabilisation par l'intelligence artificielle [Marius Bertolucci]
Xerfi Canal
15/10/2024
6:25
Face à l'I.A. les sciences de gestion vont devoir se réinventer [Marius Bertolucci]
Xerfi Canal
22/11/2024
3:52
L’IA, une hécatombe d’expertises [Paul Jorion]
Xerfi Canal
21/02/2025
5:14
L’IA ou la fin du travail comme Labeur [Jean-Gabriel Ganascia]
Xerfi Canal
14/03/2025
5:23
Les enjeux organisationnel et politiques de l'I.A. [Véronique Steyer]
Xerfi Canal
04/07/2022
7:38
Xerfi Canal a reçu Michelle Bergadàa, professeur à l’Université de Genève, pour parler des sciences de l'intégrité. Une interview menée par Jean-Philippe Denis.
Xerfi Canal
23/10/2020
5:57
La taille de l’IA détermine son degré d’intelligence [Paul Jorion]
Xerfi Canal
26/07/2024
6:02
Homo-algorithmus : l’homme diminué par l’IA [Marius Bertolucci]
Xerfi Canal
11/10/2024
4:29
Manager l'humain face au digital, aux algorithmes et à l'IA [Marie-Josée Bernard]
Xerfi Canal
28/11/2024
5:13
Les IA génératives à l'épreuve d'un enseignement (trop) vertical [Marc Bidan]
Xerfi Canal
29/03/2024
5:17
Comment l’IA a su se libérer de la culture humaine [Paul Jorion]
Xerfi Canal
10/12/2024
4:48
Mobiliser Amartya Sen en gestion [Benoît Grasser]
Xerfi Canal
07/05/2024
5:17
L’IA vous pulvérisera mais ne vous remplacera pas [Jean-Gabriel Ganascia]
Xerfi Canal
22/05/2025
7:57
Efficacité réelle de l'IA dans la finance de marché [Thierry Foucault]
Xerfi Canal
23/09/2021
5:06
« L’organisation pirate » : un problème de légitimité [Maxime Massey]
Xerfi Canal
25/10/2024
5:25
Pronostic d'un cancer : la révolution grâce à l’IA ? [Frédéric Jallat]
Xerfi Canal
05/12/2024
6:07
Christopher Hood : La quête du sens des mesures de la performance [Aude Deville]
Xerfi Canal
12/03/2021
7:42
Produire et évaluer autrement les connaissances en sciences de gestion [Matthieu Mandard]
Xerfi Canal
22/11/2024
4:58
Garder le contrôle humain face au deep learning et l’IA [Marc Bidan]
Xerfi Canal
27/06/2019
5:20
Comment l’organisation pirate se normalise : tempérance et intégration [Maxime Massey]
Xerfi Canal
17/01/2025
4:49
l’IA dérobe aussi la créativité [Paul Jorion]
Xerfi Canal
28/03/2025
12:53
Comprendre les critiques adressées aux sciences de gestion [Matthieu Mandard]
Xerfi Canal
18/10/2024