Passer au playerPasser au contenu principalPasser au pied de page
  • 01/07/2025
Retrouvez les émissions en intégralité sur https://www.france.tv/france-2/telematin/toutes-les-videos/
Dans « le grand témoin » Télématin reçoit Luc Julia, co-créateur de l'assistant vocal Siri et auteur du livre "IA génératives, pas créatives".

Catégorie

📺
TV
Transcription
00:00Et c'est l'heure du grand témoin de Télé Matin.
00:02Santé, art, banque et bien d'autres domaines, quasiment tout est concerné désormais par l'IA, l'intelligence artificielle.
00:08Alors faut-il s'en inquiéter ? Notre grand témoin va tenter de nous le dire.
00:11Bonjour Luc Julia.
00:12Bonjour.
00:13Merci d'être avec nous ce matin. Vous publiez un livre, IA Générative, Pâques Créative, aux éditions Le Cherche Midi.
00:19Pour ceux qui ne vous connaissent pas, Luc Julia, vous êtes un ingénieur franco-américain, vous êtes toulousain, vous vivez désormais aux Etats-Unis.
00:25Mais c'est à vous que l'on doit Siri, à qui on dit toujours, dit Siri, ou encore Renault, ou Renault, je ne sais pas, celui de la nouvelle R5.
00:33C'est l'assistant vocal à qui l'on peut demander actuellement la clim, ce qui est quand même super pratique.
00:38Il suffit de dire, mets-moi la clim pour que ça fonctionne.
00:40Bref, l'intelligence artificielle, c'est votre dada.
00:42Tu n'as pas pris l'option.
00:43Et vous nous dites, non absolument pas, j'ai l'option manuelle moi.
00:46Et vous nous dites, Luc Julia, l'intelligence artificielle, elle n'existe pas.
00:50Oui, celle qui n'existe pas en fait, c'est celle dont on nous rebat les oreilles depuis quelques temps.
00:54C'est celle d'Hollywood un peu.
00:55C'est celle de Hollywood, c'est tout.
00:56Il y a Siri qui tiendra à l'agir.
00:58Dis Siri, non, là, je suis avec ton patron, là, donc tu vas nous laisser tranquille.
01:03Vous pouvez lui dire que vous êtes là, ça, Chichi ?
01:04Elle écoute beaucoup quand vous l'appelez, elle répond.
01:07Mais j'ai même peur qu'elle m'écoute réellement.
01:09Non, mais ça, on n'aie pas peur de ça, ce n'est pas possible.
01:11Donc ça, c'est Hollywood ?
01:12Oui, donc c'est Hollywood, c'est effectivement les I.A. des films style Terminator qui nous fait peur,
01:18ou alors les I.A. des films comme Her où on tombe amoureux, ça ne sert à rien.
01:22Donc je vous conseille de ne pas tomber amoureux des I.A.
01:26Mais c'est le mot intelligence qui vous pose problème ?
01:28Parce que derrière l'intelligence, il y a conscience, voire pression.
01:30Oui, c'est ça, c'est qu'en fait l'intelligence, on a fait une petite erreur dans l'interprétation,
01:34parce que le mot américain, il y a deux sens.
01:36Il y a le sens intelligence, comme notre intelligence humaine,
01:39mais il y a aussi le mot intelligence qui veut dire information, comme dans C.I.A.
01:42Oui, c'est vrai.
01:43D'accord ? Et c'est ça, c'est de l'information.
01:45C'est ça.
01:45Et donc, évidemment, pour se faire peur, parce qu'on aime bien se faire peur,
01:50on a fantasmé sur le fait que ces I.A. pouvaient être aussi intelligentes que nous,
01:53ce qui est très, très loin d'être le cas.
01:55Oui, mais Luc, Julia, quand même, quand on se sert, par exemple, de tchat GPT,
01:59je suis désolée, mais parfois, il y a des résultats, des questions qu'on lui pose
02:02qui nous laissent sans voix, où on se dit, mais ce n'est pas possible, je n'y ai même pas pensé.
02:06Dans ces moments-là, on ne peut pas s'empêcher d'être sidéré et de se dire que c'est plus fort que nous.
02:10Oui. Alors, j'ai deux scoops pour vous.
02:12D'abord, le mot qui est intéressant, ce que vous venez de dire, c'est « parfois ».
02:15C'est vrai ? C'est rassurant.
02:17« Parfois » aussi, elle dit des grosses bêtises.
02:19D'accord ?
02:20Et il faut comprendre que cette information, elle est là.
02:23D'accord ? C'est-à-dire qu'il y a ce que vous allez demander,
02:26d'autres gens l'ont demandé avant.
02:27Et c'est dans l'information.
02:28Et donc, elle ne va faire que compléter et dire exactement ce qu'ont dit déjà
02:31des milliers et des millions de gens avant vous.
02:33Et donc, ce qui vous étonne, vous, aujourd'hui,
02:36c'est des choses qui ont été dites avant.
02:37Oui, mais parfois aussi, c'est d'un point de vue créatif.
02:39Il y a des artistes qui s'en inquiètent pour la musique, pour la peinture, pour la photo.
02:44Et c'est là qu'il faut lire le bouquin et lire le titre.
02:47Donc, c'est les IA génératives.
02:49Elles génèrent à partir du contenu qui est dans ces modèles,
02:52dans ces modèles qui sont des modèles statistiques,
02:53ce n'est que des mathématiques.
02:54Donc, c'est de l'information qui a été mise dans des gros modèles.
02:58Mais ce qui va ressortir, ce qui va être généré, ça vient du modèle.
03:02Donc, il n'y a absolument pas de créativité.
03:04La seule créativité, c'est la mienne.
03:06C'est-à-dire que c'est moi qui, à travers un truc qui est fantastique dans ces IA,
03:09qui s'appelle le prompt,
03:10le fait que je puisse parler à ces IA et avoir une conversation.
03:13Le texte qu'on doit rentrer pour générer une image, par exemple.
03:15Et c'est ça qui me crée, en fait, ma créativité.
03:19Et c'est fantastique pour ça.
03:20En fait, c'est moi en plus, en développer.
03:24Je développe mon moi, je développe ma créativité,
03:26je développe mon intelligence, je développe ma culture.
03:29C'est exactement ça.
03:30C'est pour ça que j'aime bien parler.
03:31IA, intelligence, augmenter.
03:32C'est mon intelligence qui a augmenté par ces outils.
03:35Je m'augmente.
03:35Ce ne sont que des outils.
03:37Dans un monde où l'image fait loi et foi,
03:40comment est-ce qu'on va pouvoir ne pas tomber dans le panneau
03:42de certaines photos qui sont générées par l'IA ?
03:45C'est pas possible.
03:45Vous comprenez que ça puisse faire peur aussi, ça ?
03:47C'est pas possible.
03:48Dans le monde de demain, on voit Emmanuel Macron.
03:50Tiens, regardez, Emmanuel Macron qui échappe à une foule lors d'une manif.
03:55Tout ça, c'est généré par l'IA.
03:56Emmanuel Macron assis sur des poubelles.
03:58Donc, c'est pas possible, d'accord ?
04:00Parce que c'est super réaliste.
04:02Mais évidemment, quelqu'un les a créées, ces photos.
04:04Elles ne sont pas devenues toutes seules.
04:06Donc, quelqu'un a demandé à l'IA de générer ces trucs,
04:08mais quelqu'un les a créées, d'accord ?
04:10Donc, on les a demandées.
04:11Donc, ce qu'il faut qu'on fasse, nous et vous, en fait,
04:13le métier des journalistes,
04:15il va falloir beaucoup plus de journalistes,
04:16beaucoup plus de gens qui vont aller investiguer tout ça.
04:20Parce que la réalité, c'est qu'il va y avoir de plus en plus de gens
04:23qui vont essayer de nous désinformer.
04:25Par ce biais-là.
04:26Par ce biais-là.
04:26Donc, les IA sont dangereuses pour ça.
04:29Et peut-être qu'un jour, il faudra réguler
04:30et puis aller attaquer les gens qui utilisent ces IA
04:34dans une mauvaise condition.
04:35Il y a autre chose aussi.
04:36On prend tous des crédits à la banque et tout.
04:39Est-ce que vous saviez que maintenant,
04:40c'est l'IA qui détermine l'éligibilité, en fait,
04:46d'un demandeur de crédit auprès de la banque ?
04:49Non, mais c'est l'IA qui trie.
04:50Enfin, je veux dire, on n'a plus l'humain.
04:51La marge de négociation n'est plus possible.
04:54Alors, il faut faire attention.
04:55Ce n'est pas tout à fait vrai.
04:56C'est-à-dire qu'il y a toujours un humain quelque part dans la boucle,
04:57à un moment donné.
04:58Mais c'est vrai que les IA vont faire ces tris, dont vous parlez.
05:01Et le problème, c'est que ces IA ont des biais, de toute façon.
05:03D'accord ?
05:04Donc, dans les modèles dont on vient de parler,
05:05il y a des biais.
05:06Et malheureusement, ces biais,
05:08ils sont représentatifs de nos biais à nous.
05:10D'accord ?
05:11Et donc, de temps en temps, il y a des personnes,
05:13par exemple les femmes,
05:14qui vont avoir moins de crédit que les hommes
05:16parce que c'est biaisé comme ça depuis des années.
05:18Voilà, c'est ça.
05:19Et ça, petit à petit, on repère ces biais
05:22et petit à petit, on change les modèles
05:24pour qu'ils soient moins biaisés.
05:25Mais en fait, ça veut dire quoi ?
05:26Ça veut dire qu'on rebiaise les données
05:28pour pouvoir faire en sorte d'essayer,
05:31de faire en sorte d'être plus correcte
05:33par rapport à toute la population.
05:34Vous dites, c'est qui ?
05:36Ce sont les sociétés qui développent l'intelligence artificielle
05:39et est-ce qu'il ne faut pas,
05:40est-ce que ce n'est pas aux politiques,
05:42justement, à un moment donné,
05:43de mettre un stop en disant
05:43on va peut-être trop loin dans ce domaine,
05:45justement, et ça crée plus d'inégalités
05:46que d'égalités ?
05:47Est-ce qu'il faut légiférer, quoi, aussi ?
05:49Oui, voilà.
05:49Il faut commencer par,
05:50pour que les politiques, déjà,
05:51il faudrait qu'ils comprennent, déjà.
05:53Donc, il faut qu'ils fassent le premier pas,
05:55c'est-à-dire aller essayer de comprendre ces IA.
05:57Ne pas les ignorer.
05:58Vous dites que sinon,
05:58ça va rester à l'âge de pierre.
06:01Ah bah oui, évidemment.
06:01Et puis, effectivement, la législation,
06:03avoir des réglementations,
06:05c'est très important.
06:06Il faut réglementer.
06:07Mais il faut que ce soit nous
06:08qui demandons aussi ces réglementations.
06:10C'est-à-dire qu'il faut qu'on ait conscience
06:11du fait que c'est potentiellement dangereux.
06:13Il faut qu'on travaille tous ensemble
06:15sur ces potentielles réglementations.
06:18Il faut que ça vienne.
06:18Il faut qu'on demande ça.
06:20Le grassroots, ça s'appelle en anglais.
06:22Donc, il faut que ça vienne de nous aussi.
06:23Donc, il faut qu'on séduque un minimum
06:25sur le fait qu'il faut faire attention
06:27avec ces IA.
06:28Mais on peut leur faire confiance,
06:29des fois, sur des plans particuliers.
06:32Sam ?
06:32Parfois.
06:32C'est effectivement le temps qu'on reprend.
06:34Rapidement, Sam.
06:35Parfois, en tout cas, pas tout le temps.
06:36Je vous écoute parler,
06:37mais je suis omnibulé par votre bague.
06:38C'est une drôle de bague.
06:40Elle est connectée, votre bague ?
06:41Elle a l'air connectée.
06:42Elle est connectée à sa voiture ?
06:43C'est quoi ?
06:44C'est une bague qui permet
06:46de regarder mon rythme cardiaque,
06:48de regarder plusieurs choses, en fait.
06:51Le sommeil.
06:51J'ai mon sommeil, j'ai à peu près tout ce que je fais.
06:53Et vous lui parlez aussi, ou pas ?
06:55Non, celle-là, je ne peux pas lui parler.
06:56Non, celle-là, je ne peux pas encore.
06:58Merci infiniment, Luc Julia,
06:59d'avoir pris du temps pour être avec nous ce matin.
07:01IA Générative, pas Créative,
07:03justement, c'est aux éditions du Cherche-Midi.
07:05Et ça permet de nous éduquer,
07:06parce qu'effectivement, on en a peur.

Recommandations