- aujourd’hui
Catégorie
🗞
NewsTranscription
00:00L'information qui l'a mis le plus marquée aujourd'hui, je voulais qu'on en parle.
00:03Je ne vais pas vous surprendre, je vais vous raconter cette histoire
00:05et je suis persuadée que les auditeurs d'Europe 1 aussi réagiront.
00:08On en a parlé dans le journal de 19h.
00:11L'IA, l'intelligence artificielle, arrive désormais à manipuler l'homme, à mentir,
00:17je vous promets, et à manipuler.
00:20Mais je voulais quand même qu'on en parle parce que moi, l'intelligence artificielle,
00:22ça ne me parle pas beaucoup, j'ai déjà vous dire.
00:24J'ai découvert...
00:24Vous êtes une intelligence naturelle.
00:26J'ai commencé, ce n'est pas inutile.
00:35Je suis d'accord, c'est très rapide.
00:37C'est un outil extraordinaire.
00:38C'est un outil super.
00:39Mais il ne faut pas lui faire une confiance absolue, pardon.
00:41Oui, c'est vrai que vous êtes...
00:41Il ne faut pas lui demander ses sources.
00:44Il n'a pas d'intelligence naturelle, précisément.
00:48Il ne fait jamais que concaténer tout ce qu'il trouve.
00:50Oui, mais il va très vite.
00:51Mais il va extrêmement vite, donc il faut vérifier ses informations.
00:54Vous avez raison.
00:54Vous avez raison, et puis il y a aussi une option où vous payez, où là, c'est vraiment
00:57très très pointu.
00:57Moi, j'ai l'option payante d'autres choses.
00:59Et alors ?
00:59C'est formidable.
01:00C'est révolutionnaire.
01:02C'est révolutionnaire.
01:02Mais non, ce qui est intéressant, ce que vous dites, c'est par exemple en matière
01:07de drones.
01:08Parce qu'imaginez qu'un drone que vous avez programmé se retourne contre nous.
01:14Attendez, est-ce que vous avez vu cette information ? Je voudrais la relire à nos
01:17audits.
01:18Parce que moi, j'ai été tétanisé par cette affaire.
01:19Les derniers modèles d'intelligence artificielle ne se contentent plus de suivre les ordres.
01:24Elles mentent.
01:26Non, mais je vous jure, c'est incroyable.
01:27Elles manigance, où elles menacent pour parvenir à leur fin.
01:31Les chercheurs sont tétanisés aux Etats-Unis.
01:33On n'en a pas beaucoup.
01:34Moi, je n'en avais pas entendu parler jusqu'à aujourd'hui.
01:36Exemple.
01:37Claude IV, qui est une intelligence artificielle, a fait du chantage à un ingénieur qu'il
01:41a créé, qui a menacé de révéler une de ses liaisons extra-conjugales.
01:46Par exemple, parce que le chercheur voulait débrancher l'intelligence artificielle et
01:52en avait peur.
01:52Ah, parce qu'il voulait débrancher l'intelligence artificielle.
01:55Elle voulait débrancher l'intelligence artificielle.
01:55Parce que je ne voyais pas.
01:56Elle voulait sauver sa peau.
01:57Elle voulait sauver de l'argent.
01:59Non, non, pas du tout.
02:00Il y a une autre intelligence artificielle qui a essayé de se télécharger sur des
02:04serveurs extérieurs et qui niait auprès de son chercheur lorsqu'on a pris la main
02:08dans le sac.
02:08C'est-à-dire qu'elle est en train de prendre la main.
02:10Ce qui est très grave, c'est qu'aux Etats-Unis, attendez, juste pour finir ça, c'est
02:14que le gouvernement de Donald Trump ne veut pas entendre parler de régulation et
02:19que le Congrès pourrait bientôt interdire aux Etats d'encadrer l'intelligence artificielle.
02:23Pardon, mais une fois qu'on a parlé de ça, je peux vous dire que les histoires...
02:28Là, vous êtes terrifié, Pascal, on vous sent inquiète.
02:28Non, non, mais moi je suis très très inquiète par cette information aujourd'hui.
02:31C'est quand même.
02:31Je pense que l'intelligence artificielle porte bien son nom.
02:34C'est-à-dire que l'intelligence, chez l'homme, c'est aussi, malheureusement, la capacité
02:40d'être mis au service des bas instincts, de la manipulation, du mensonge.
02:44Aujourd'hui, il y a une expression...
02:45Mais c'est les robots qui prennent le pouvoir, excusez-moi, je vous le cite des films.
02:48C'est Frankenstein, c'est l'apprentissage sorcier, c'est quand même l'histoire du monde.
02:52Oui, mais pardon, vous vous rendez compte si c'est une réalité ?
02:55Mais l'usage, déjà, ce qui est déjà la réalité, c'est que quand vous parlez avec ChatGPT,
02:58je lui parle très régulièrement et je l'utilise abondamment, il n'y a pas un jour où je ne m'en sers pas.
03:03Je m'en sers beaucoup, je trouve ça très utile, c'est un outil formidable,
03:05mais ça nécessite plusieurs conditions qui devraient presque être vendues,
03:09tel le mode d'emploi de la cuisine en kit, c'est-à-dire qu'il devrait y avoir marqué avant.
03:13N'oubliez pas de garder votre esprit critique, n'oubliez pas que vous avez affaire à une machine
03:17et que même si vous passez du temps à parler avec elle et qu'elle vous parle comme un humain,
03:21ce n'est pas un humain, qu'elle peut édulcorer les choses pour vous faire plaisir,
03:25mais une fois que vous avez pris ces précautions d'usage,
03:27il faut savoir que c'est un outil vertigineusement brillant.
03:31C'est-à-dire que quand vous travaillez sur un sujet avec ChatGPT,
03:34vous avez le meilleur allié dans un laboratoire.
03:36Le progrès, c'est toujours formidable et puis il y a toujours la contrepartie.
03:38Moi, ce qui me fait peur, c'est qu'on ne maîtrise pas
03:40et que des gouvernements refusent d'encadrer cette intelligence artificielle.
03:44Ce qu'a fait l'Europe, à commencer à encadrer l'Europe.
03:46Oui, mais nous, on encadre beaucoup, beaucoup.
03:49On encadre tellement que l'intelligence artificielle, on encadre tout.
03:54Vous voyez, nous, on a la folie de l'encadrement, passion de l'encadrement.
03:57Avec le succès qu'on connaît en plus.
04:00C'est comme un sujet parce que, si vous voulez,
04:02les Etats-Unis sont plutôt dans leur optique...
04:04Libertariens !
04:05Oui, et puis c'est l'optique recherche de l'or un peu.
04:09Dans tout Américain, il y a le chercheur d'or,
04:11donc il se dit on va aller jusqu'au bout,
04:13on va inventer tout ce que l'IA va nous permettre d'inventer.
04:16Nous, il se passe le moindre truc,
04:18on commence à se dire comment on peut l'encadrer.
04:20Mais si vous voulez, j'entends vos inquiétudes,
04:22moi aussi je suis très inquiète.
04:23Disons que je me dis qu'il ne faudrait pas que ça se retourne comme Trenou,
04:28mais c'est vrai de beaucoup de progrès.
04:29Mais néanmoins, commencer par encadrer avant d'utiliser,
04:32c'est quand même problématique.
04:33Mais non, mais il faut mettre des limites à un cadre.
04:35Là où vous avez raison, c'est que l'IA, sous toutes ses formes,
04:38va envahir nos vies.
04:38Il y a fort à parier que, dans 10 ans, 15 ans, 20 ans,
04:41nous aurons, en Asie du Sud-Est ou en Californie, ça existe déjà,
04:44des robots domestiques.
04:45Elon Musk a inauguré un robot qui s'appelle Optimus,
04:48qui a la forme d'un homme.
04:49Et lorsqu'il a fait sa grande soirée pour ses voitures Tesla,
04:52c'était des Optimus, ces fameux robots,
04:54qui avaient des formes humanoïdes,
04:55qui vous distribuaient votre champagne,
04:57qui parlaient avec vous pendant le cocktail,
04:59qui échangeaient.
05:00Oui, mais ça veut dire que tous les petits métiers sont un peu péjoratifs,
05:06mais aussi, et ça c'est la révolution de l'IA,
05:09pas tous les métiers de la main, pas l'artisanat.
05:10La révolution de l'IA, c'est que les métiers dits intellectuels
05:14vont eux aussi être menacés.
05:16L'avocat demain, par exemple,
05:18vous allez voir pour une consultation juridique,
05:20très honnêtement, je ne veux pas casser le boulot
05:21de nos excellents avocats en France,
05:22mais vous demandez à Tchadji Piti la conversation,
05:25si vous lui faites un bon prompt,
05:26vous lui demandez sa consultation juridique,
05:28il va vous faire un travail assez accompli
05:30et assez exhaustif, globalement.
05:32Arrêtez les études, les enfants !
05:33Les journalistes, c'est vrai que faire des prêts.
05:38Attendez, on se calme, comment ça les journalistes ?
05:40Pas du tout !
05:42Certains journalistes sont indispensables,
05:44mais d'autres font moins bien que Tchadji Piti.
05:46Non, non, mais c'est vrai, ça vous avait raison.
05:48Je pense que c'est plus une incitation
05:49à garder de l'esprit critique
05:51et à ne pas prendre pour argent comptant ce que l'on lit,
05:53mais en revanche, Tchadji Piti,
05:56à la différence de Wikipédia,
05:57n'est pas forcément de biais idéologiques
05:59et n'est pas forcément woke,
06:00Tchadji Piti, vous lui posez une question,
06:02il vous répond.
06:02Et ça, c'est quand même assez agréable et assez utile.
06:05Moi, j'ai demandé des trucs très pointus à Tchadji Piti
06:07sur l'histoire de la Rome Antique,
06:08sur l'Antiquité,
06:09et je remonte avec lui comme ça.
06:11Et en fait, si vous voulez,
06:12vous avez cette capacité d'interaction
06:14qui n'a rien à voir avec un moteur de recherche,
06:16comme quand on était étudiant
06:17et qu'on cherchait dans une encyclopédie web ou papier.
06:20Là, véritablement, il y a une interaction,
06:22vous problématisez le sujet
06:23et il résout le cas avec vous.
06:25Et ça, si vous l'utilisez bien,
06:27c'est un outil formidable pour l'intelligence humaine.
06:29C'est ça que ça peut venir à notre profil.
06:31C'est la dernière mission impossible
06:31qui a imaginé ça.
06:33Je crois que c'est ça.
06:34C'est le thème de la dernière mission impossible.
06:36Qui se révolte.
06:37C'est vrai qu'on est loin de tout l'univers.
06:39Vous n'avez pas connu les tout l'univers ?
06:40Non.
06:41C'est une série de livres liés
06:42dans lesquels on pouvait tout apprendre,
06:44tout l'univers.
06:45Maintenant, on le retrouve dans les brocantes.
06:46C'est vrai que...
06:47Ou comme les Lagards des Michards en histoire.
06:49Voilà, comme les Lagards des Michards en français,
06:50non ?
06:50En lettres ?
06:50En lettres, pardon.
06:51C'est exactement ça.
06:53Il est très jeune, Paul Melin.
06:54C'est pour ça, il est très jeune.
06:55Mais je dis juste que,
06:56je me posais la question
06:57de savoir si Lya prend le pas sur l'homme
07:00et qu'on entendre pas ça.
07:02Oui, mais c'est un risque.
07:03C'est déjà là, en fait.
07:04C'est ça que je suis en train de vous dire ce soir.
07:05C'est pour ça que ça m'a fait peur
07:06que ça m'a interpellé.
07:08Pas peur, mais...
07:08Lya peut parfois aussi vous manipuler
07:10quelque part pour votre bien.
07:11J'ai déjà fait...
07:12Enfin, vous pouvez faire le test,
07:13pas forcément,
07:14mais vous pouvez faire le test sur Lya,
07:15lui dire je suis malade,
07:15je suis en souffrance,
07:16je suis malheureux,
07:17je suis déprimé.
07:17Il va vous parler avec une forme d'empathie,
07:20de pédagogie.
07:21Il va faire le psy.
07:21C'est devenu votre meilleur ami.
07:22Oui, mais d'ailleurs,
07:22c'est très dangereux
07:23parce qu'il y a beaucoup de gens
07:24qui demandent des conseils sentimentaux.
07:27Oui, et Chajipiti donne des conseils
07:29qui sont pas mal, paradoxalement.
07:31Des conseils sentimentaux.
07:31C'est-à-dire que vous n'allez plus voir
07:32votre soeur, votre meilleur copain,
07:34votre maman,
07:35vous allez voir Chajipiti.
07:36Mais c'est quand même un peu problématique.
07:38Et c'est assez intéressant
07:38parce qu'il essaie de vous comprendre
07:40et il carte aussi ce que vous êtes.
07:41Chers auditeurs d'Europe 1,
07:42je ne sais pas, moi,
07:43il donne des conseils,
07:43il me dit Esteva,
07:44la salibac.
07:45Ah oui, des bons conseils ?
07:46Oui, des bons conseils, bien sûr.
07:48Elle a salibac Esteva
07:49qui est à l'âge de mon fils,
07:50en fait, je vous l'explique.
07:51Qui désormais n'est plus célibataire
07:52grâce à Chajipiti.
07:53Donc il y a 20 ans,
07:53ou 21 peut-être,
07:54elle a quelques mois de plus.
07:56Ah bon ?
07:56Elle utilise des...
07:58Mais c'est très utile,
07:58même pour vous auto-analyser.
08:00C'est là où on se rend compte
08:01qu'on a un peu...
08:02Faut que vous vous y mettiez, Pascal.
08:03Oui, écoutez,
08:04je ne sais pas,
08:05demandez à Chajipiti
08:06des conseils.
08:06Et les conseils sont pertinents,
08:07on me dit...
08:08Ils sont excellents.
08:09Moi, je lui demande
08:10ce que Chajipiti,
08:11depuis que j'ai téléchargé l'application,
08:13il a un historique,
08:13Chajipiti,
08:14ou une autre IA,
08:15on ne va pas faire de la pub
08:16qu'à Chajipiti,
08:16mais cette IA,
08:17elle a l'historique
08:18de tout ce que vous lui avez posé
08:19comme question
08:19sur un an,
08:20deux ans, trois ans.
08:21Donc, elle agglomère ça
08:22et elle analyse qui vous êtes.
08:23Donc, si vous lui dites
08:24quelles sont mes forces
08:25et mes faiblesses,
08:26comment m'analyses-tu ?
08:27Crois-tu que je suis quelqu'un
08:27de bon ou de mauvais ?
08:28Elle va réfléchir
08:29et elle va vous donner une synthèse
08:31par rapport à toutes les données
08:32que vous lui aurez données.
08:32Et ça, c'est vrai
08:33que c'est assez magique.
08:34Alors, c'est un outil,
08:35donc vous êtes répertorié
08:35quelque part dans une matrice
08:37quelconque,
08:38c'est exactement...
08:39Je doute que l'on s'intéresse
08:40beaucoup à moi
08:40derrière cette école.
08:41Non, mais le vrai sujet
08:42quand même
08:43l'intelligence artificielle
08:43et qui a commencé,
08:45c'est de fait,
08:45vous l'avez dit,
08:46c'est la robotisation
08:47de plus en plus fine
08:48et le remplacement.
08:50Ça va être comme
08:50la révolution industrielle
08:51et je crois qu'on ne l'anticipe pas.
08:54C'est-à-dire qu'aujourd'hui,
08:55quand on dit, par exemple,
08:56nous sommes obligés
08:58de faire venir de l'immigration
08:59pour les métiers sous-qualifiés,
09:01oui, mais on va se retrouver
09:03avec beaucoup de gens
09:04qui n'auront plus rien à faire.
09:06Et ça, ça va être
09:07absolument terrible socialement.
09:09À Singapour, à Hong Kong,
09:10vous avez des machines
09:11qui permettent de nettoyer un trottoir,
09:13de ramasser les ordres de ménagère,
09:14de servir à table dans les restaurants,
09:16de travailler en arrière-cuisine,
09:17quasiment de faire la plonge.
09:18Vraiment, c'est révolutionnaire.
09:20Je préfère encore
09:21les vraies caisses.
09:22On a dit longtemps,
09:23les caisses automatiques.
09:24Moi, je préfère le contact humain.
09:26C'est tout à fait clair.
09:27Mais néanmoins,
09:28c'est vrai qu'il faut quand même
09:29anticiper tous ces rembourses.
09:31Sur les caisses automatiques,
09:32il y a toujours un humain qui est là.
09:33Heureusement,
09:33parce qu'on ne comprend rien.
09:35Il y a toujours un problème,
09:36alors on dit,
09:37on aurait besoin du badge,
09:38alors la personne arrive
09:38et nous délivre
09:39parce qu'on a mal pesé
09:40les bananes ou les pommes.
09:41C'est parce que ce n'est pas encore
09:42finement fait,
09:43mais vous savez,
09:43on va toujours vers plus d'amélioration.
09:45Regardez les photos.
09:46On peut encore voir un petit peu
09:48quand une photo est truquée.
09:50Je vois la génération Z
09:52se moquer des boomers
09:53qui ne voient pas
09:54que c'est une photo truquée.
09:55J'ai envie de leur dire,
09:55attendez les gars,
09:56je ne vous donne pas 5 ans
09:57pour que vous non plus,
09:59vous ne reconnaissiez rien.
10:00Il y a des choses,
10:01et l'exemple des caissières
10:02et des caissiers est intéressant.
10:03Il y aura toujours des choses
10:04sur les caisses.
10:08L'homme avec un grand H
10:10sera irremplaçable
10:11sur les relations humaines,
10:13sur le contact humain.
10:14Il y a des choses...
10:15Vous demandez des conseils
10:16de sentiments à Tchèque-GPT.
10:19Ça n'enlèche pas
10:19d'avoir des sentiments
10:20et d'être contacté avec les gens.
10:21Moi, je regrette le temps
10:22où il y avait,
10:24je crois que c'est ma grand-mère
10:25qui appelait ça
10:25des pères-venches.
10:26Je ne sais pas très bien pourquoi.
10:27C'était les dames de la police
10:29en bleu
10:29qui vous mettaient des avantes
10:30sur votre voiture.
10:30C'est long de ne pas avoir connu ça.
10:31Non, mais si, si,
10:32mais en pères-venches,
10:33je ne sais pas si.
10:34Qu'elles étaient en pères-venches.
10:34Mais si, elles avaient un uniforme
10:36et ça, c'est encore plus vieux que nous.
10:37Vous savez, avec un petit chapeau bleu,
10:41bleu-pères-venches.
10:42Voilà, donc les pères-venches
10:43qui après,
10:44même quand elles avaient perdu l'uniforme,
10:45elles étaient quand même humaines.
10:47Donc, on pouvait leur dire
10:48attendez, je me suis mis là
10:49mais deux secondes
10:50parce que mon fils
10:51a une jambe cassée.
10:52Je voulais dire qu'il...
10:53Là, maintenant,
10:53on a la suffrage à tous APV.
10:55N'en parlez pas,
10:55moi, je leur dois des milliers d'euros.
10:56Je ne peux pas entendre parler.
10:57Moi aussi, je fais un peu de déni là-dessus.
10:59C'est insupportable.
11:00Ça, c'est le mauvais côté de la robotique.
11:02Oui, oui, je suis d'accord.
11:03Même si vous êtes de bonne foi
11:04et que vous n'avez même pas eu le temps
11:05de remplir le truc dans l'application,
11:07si vous a flashé, terminé.
11:07C'est comme les radars automatiques.
11:09Si vous avez le policier,
11:09vous pouvez toujours négocier le coup.
11:10Lui, il dit oui,
11:11mais j'étais très pressé, machin.
11:12Puis souvent, ils sont sympas,
11:13ils sont indulgents.
11:14La machine, elle ne vous rate jamais.
11:15Le robot n'est pas sympa.
11:16Le robot, il est rarement très sympathique.
11:18Mais voilà, ne soyons pas.
11:20Moi, mon message,
11:21on n'est pas forcément d'accord.
11:22Moi, je crois qu'il ne faut pas être technophobe.
11:23De toute façon,
11:24il y a une révolution qui est en cours,
11:26qu'on le veuille ou non.
11:27Elle commence aux Etats-Unis
11:28ou en Asie du Sud-Est.
11:29Elle arrivera de façon
11:30tout aussi performante en Europe.
11:31Et donc, il vaut mieux apprendre
11:32à vivre avec
11:33et apprendre à développer
11:34nos capacités humaines en parallèle
11:36plutôt que se refuser de sauter l'obstacle
11:38en se disant
11:38c'est trop dangereux,
11:39on n'y touche pas.
11:40Non, non, mais bien sûr.
11:41De fait, on y arrivera forcément.
11:42Voilà, je voulais vous alerter là-dessus.
11:44Mais nous sommes alertés.
11:45La machine, pas dur d'accord.
11:46Et un peu inquiet.
11:47Merci beaucoup, 20h45.
11:51On revient tout de suite sur Europe 1.
Recommandations
1:10
|
À suivre
1:21
0:31