Passer au player
Passer au contenu principal
Passer au pied de page
Rechercher
Se connecter
Regarder en plein écran
Like
Commentaires
Favori
Partager
Ajouter à la playlist
Signaler
Le repentir du papa de l’intelligence artificielle
Europe 1
Suivre
04/05/2023
Tous les matins après le journal de 8h30, Emmanuelle Ducros dévoile aux auditeurs son “Voyage en absurdie”, du lundi au jeudi.
Retrouvez "Voyage en absurdie" sur : http://www.europe1.fr/emissions/chronique-en-absurdie
Catégorie
🗞
News
Transcription
Afficher la transcription complète de la vidéo
00:00
*Gaspard Proust, tous les mardis, mercredis et jeudis à 8h34 sur Europe 1*
00:06
Voilà, ça se réécoute toujours avec bonheur.
00:08
Gaspard Proust, que vous retrouvez toutes ses chroniques sur europe1.fr et dans votre
00:11
appli Europe 1.
00:12
Il revient en chair en os, mardi prochain ce bon Gaspard.
00:15
Place à Emmanuel Ducrox du journal L'Opinion.
00:17
Bonjour Emmanuel.
00:18
Bonjour Dimitri, bonjour à tous.
00:20
Alors, petit séisme dans la Silicon Valley, Geoffrey Hinton a démissionné de chez Google.
00:25
Qui est Geoffrey Hinton ?
00:27
Son départ fait beaucoup parler dans le monde des technologies.
00:30
Vous allez nous le présenter.
00:31
Oui, Geoffrey Hinton est un inconnu pour le grand public.
00:34
Il a 70 ans.
00:35
C'est un psychologue cognitif canadien et un chercheur en informatique.
00:38
Sa spécialité, ce sont les réseaux de neurones artificiels.
00:41
Et s'il a été recruté par Google il y a 10 ans, c'était pour mettre au point un
00:44
de ces algorithmes qui permettent à ces réseaux de neurones d'apprendre.
00:48
Pour résumer, c'est un des pionniers de l'intelligence artificielle.
00:52
Ses travaux ont ouvert la voie à ces fulgurantes innovations que sont, par exemple, les robots
00:56
conversationnels chat-GPT.
00:57
C'est en quelque sorte le papa de l'IA qui vient de jeter les pontes.
01:01
Mais pourquoi a-t-il fait ça ?
01:02
Eh bien, Geoffrey Hinton est victime du syndrome de Frankenstein.
01:06
Il a peur du monstre qu'il a créé.
01:09
Il explique que l'intelligence artificielle est entrée dans une course à l'armement
01:12
et que les créations d'images, de textes vont mal tourner.
01:14
Ça va causer des perturbations énormes pour le secteur de l'emploi.
01:17
Nicolas Bouson en parlait ici même ce matin.
01:19
Il redoute que les fausses informations corrompent les élections.
01:23
Et pour Hinton, le risque est que les gens normaux, vous et moi, ne puissent plus distinguer
01:27
le vrai du faux.
01:28
Il parle même d'un risque existentiel qu'une intelligence numérique ferait couvrir à
01:33
l'espèce humaine en devenant plus intelligente qu'elle.
01:36
Et ça, pour lui, ça va arriver plus tôt que prévu.
01:39
Ce repentir de Geoffrey Hinton, c'est bien tardif.
01:42
Il est au soir de sa carrière, ce monsieur.
01:44
Oui, mais au quotidien américain de New York Times, il a avoué qu'une part de lui-même
01:48
regrette l'oeuvre de sa vie.
01:50
C'est terrible.
01:51
Il dit "je me console avec l'excuse habituelle, si je ne l'avais pas fait, quelqu'un d'autre
01:54
l'aurait fait".
01:55
Bon, il quitte Google pour pouvoir parler librement, devenir lanceur d'alerte.
01:59
Il n'est pas le seul, Geoffrey Hinton a s'inquiété de l'intelligence artificielle.
02:03
Et non, en mars dernier, des pointures de la Tech, des scientifiques, des spécialistes
02:07
de l'intelligence artificielle comme Elon Musk, Steve Wozniak, avaient signé une lettre
02:12
ouverte demandant au laboratoire d'interrompre le développement des plus puissants systèmes
02:17
d'intelligence artificielle pendant au moins six mois, alertant sur des risques profonds
02:21
pour la société et pour l'humanité.
02:23
"Faire une pause", disait-il.
02:24
Mais est-ce qu'il faut tout arrêter en matière d'IA, pensez-vous ?
02:27
Eh bien, certainement pas.
02:29
Parce que là où on voit un risque, on peut aussi voir une fantastique opportunité d'accélérer
02:33
la recherche, la compréhension du monde, de faire tourner très vite des modèles utiles
02:38
face par exemple au défi du changement climatique.
02:40
Alors ça ne veut pas dire qu'il ne faut pas réfléchir et ça ne veut pas dire même
02:43
qu'il ne faut pas accélérer sur certains points comme la régulation par la concurrence,
02:48
par les autorités infrarouestes, une terra incognita comme l'IA, eh bien ça s'encadre.
02:54
Et pour ça, figurez-vous qu'on a déjà des bases posées par des intelligences bien
02:59
humaines.
03:00
Celles des auteurs de science-fiction Isaac Asimov et John Campbell.
03:03
On est en 1942.
03:04
- Les lois de la robotique.
03:05
- Et voilà, ces deux visionnaires posent ces trois lois de la robotique auxquelles
03:11
doivent obéir les robots dans leur roman.
03:13
Je vais les énoncer parce que c'est intéressant.
03:15
Un robot ne peut porter atteinte à un humain ni, en restant passif, laisser cet être humain
03:20
exposé aux dangers.
03:21
Ça vous pose une gradation dans les priorités.
03:25
Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres
03:29
entrent en contradiction avec la première loi.
03:32
C'est-à-dire qu'elles mettent par exemple d'autres humains en danger.
03:35
- On ordonne à un robot d'attaquer un humain par exemple.
03:37
- Par exemple, il doit dire non.
03:38
Et un robot doit protéger son existence dans la mesure où cette protection n'entre pas
03:42
en contradiction avec la première ou avec la deuxième loi.
03:45
Vous la voyez cette échelle des responsabilités ?
03:46
- Oui.
03:47
- Eh bien, on a là de quoi poser des règles qui devraient régir la recherche sur l'intelligence
03:50
artificielle.
03:51
Mais ça, ça ne peut être qu'un travail mondial et un travail collectif.
03:55
- Ça, c'est vraiment des questions pour les 20-30 prochaines années.
03:58
Merci beaucoup Emmanuel Ducrot du journal L'Opinion.
04:00
On vous retrouve avec bonheur lundi.
Recommandations
3:40
|
À suivre
Innovation médicale et intelligence artificielle : arrêtons d’avoir peur !
Europe 1
17/05/2023
3:17
Le «Cas Roussel»
Europe 1
11/04/2023
3:17
La politique «bisou» de l’Ademe
Europe 1
27/11/2023
3:10
Histoires d’ours… sans morale
Europe 1
17/04/2023
3:18
Une photo et des fantasmes
Europe 1
12/03/2024
3:33
Comment le Covid à embrouiller les esprits
Europe 1
03/11/2022
3:14
L’illusion de l’agriculture urbaine
Europe 1
31/01/2024
3:12
Soutien aux paysans : le bal des hypocrites
Europe 1
24/01/2024
3:57
Ras le bol des donneurs de leçons !
Europe 1
26/06/2023
2:54
Rachida des sources
Europe 1
01/02/2024
3:15
L’exode des juifs britanniques
Europe 1
07/03/2024
3:04
Dans les élevages, les antibios, ce n’est plus automatique
Europe 1
21/11/2023
3:07
Une année qui commence sans paillettes
Europe 1
10/01/2024
3:55
Écriture inclusive à l’université de Lyon : les ravages de l’idéologie
Europe 1
15/05/2023
3:34
Attention au syndrôme Ratatouille !
Europe 1
14/03/2023
3:33
Plantez et re-replantez qu’ils disaient
Europe 1
20/12/2023
3:02
La mort programmée de l’endive
Europe 1
26/02/2024
2:50
Le désarrois des bons élèves du carbone agricole
Europe 1
27/02/2024
3:24
Le Bio retombe brutalement sur terre !
Europe 1
02/03/2023
4:08
La guerre du marketing vert
Europe 1
26/01/2023
3:13
Le prix du café de plus en plus corsé
Europe 1
06/06/2023
3:14
Le ras-le-bol de la filière : arrêtez de lui casser des noisettes !
Europe 1
28/02/2024
2:59
Les occasions manquées de Notre-Dame
Europe 1
21/12/2023
3:41
Heineken sous pression
Europe 1
17/11/2022
3:19
Quand la bureaucratie étouffe la science
Europe 1
06/12/2023