- avant-hier
Le 18 juin, la commission des affaires économiques auditionnait Luc Julia, concepteur de l’assistant vocal Siri et spécialiste de l’intelligence artificielle, directeur scientifique de Renault. Il a éclairé les sénateurs sur les enjeux de l’intelligence artificielle. Il a d’abord alerté sur le risque de circulation de fausses informations qui prévaut avec les IA comme ChatGPT : “Ces IA génératives sont pertinentes à 64% [...] c’est-à-dire que 36% du temps, l’IA dit qu’un truc vrai est faux”, a-t-il expliqué. Luc Julia a également mentionné les biais de ces IA, conçues aux Etats-Unis. Il a ensuite soulevé les enjeux climatiques de ces outils, très gourmands en énergie et en eau. Enfin, il a plaidé pour une régulation a posteriori, car il considère que réguler trop tôt empêcherait des solutions intéressantes d’émerger. Revivez leurs échanges. Année de Production :
Catégorie
📺
TVTranscription
00:00:00Bonjour à tous, ravi de vous retrouver sur Public Sénat pour un nouveau numéro de 100% Sénat,
00:00:14l'émission qui vous fait vivre les travaux de la Haute Assemblée.
00:00:18On va parler d'intelligence artificielle et de ses conséquences sur notre société,
00:00:22puisque les sénateurs ont auditionné le concepteur de l'assistant vocal Siri sur les smartphones,
00:00:27Luc Julia qui est également directeur scientifique chez Renault et spécialiste de l'intelligence artificielle.
00:00:33Je vous laisse écouter son audition.
00:00:35Nous avons beaucoup de chance d'avoir pu trouver un créneau horaire avec M. Luc Julia
00:00:41qui passe énormément de son temps aux Etats-Unis,
00:00:45mais qui me disait à l'instant qu'il revenait quand même une semaine par mois en France.
00:00:50Initialement, nous avions pris contact avec M. Julia
00:00:54et potentiellement la possibilité de faire cette audition en visio.
00:00:59Je pense que c'est beaucoup plus agréable pour tout le monde que de pouvoir l'amener physiquement.
00:01:05Et donc, je le remercie très sincèrement d'avoir pris de son temps.
00:01:08La seule chose, c'est que M. Julia a un impératif et devra nous quitter à 11 heures.
00:01:13Donc, je demanderai d'ores et déjà, parce que je ne doute pas que les questions seront fort nombreuses,
00:01:18à l'ensemble de nos commissaires d'être le plus concis possible dans leurs questions
00:01:24pour laisser le temps à M. Julia de pouvoir répondre précisément et dans le détail aux questions qui lui seront posées.
00:01:33Donc, je vous le disais, nous avons le plaisir d'accueillir aujourd'hui M. Luc Julia
00:01:37qui est ingénieur informaticien et entrepreneur spécialisé dans l'intelligence artificielle
00:01:44mais également auteur de plusieurs ouvrages sur ce sujet
00:01:48tels que « L'intelligence artificielle n'existe pas » ouvrage publié en 2019
00:01:55ou bien encore plus récemment « IA générative, pas créative » en 2025.
00:02:04Sans détailler l'ensemble de votre carrière, je veux rappeler que vous avez beaucoup travaillé
00:02:10dans la Silicon Valley et que vous êtes l'un des co-créateurs de Siri chez Apple.
00:02:18Vous avez par la suite été directeur technique chez Hewlett-Packard en 2011
00:02:23puis directeur technique et vice-président pour l'innovation chez Samsung Electronics de 2013 à 2021
00:02:34avant de cumuler désormais les postes de directeur scientifique du groupe Renault depuis 2021
00:02:43et de directeur IA de sa branche Ampère consacrée aux véhicules électriques intelligents.
00:02:51Dans vos ouvrages, vous dénoncez un certain nombre d'idées sur l'intelligence artificielle
00:02:58dont vous considérez qu'elles sont fausses et qu'elle crée des attentes
00:03:03ou des craintes démesurées vis-à-vis de ces modèles.
00:03:08Vous expliquez d'ailleurs que l'IA, dont l'histoire débute en 1956,
00:03:13a créé à plusieurs reprises par le passé d'immenses espoirs suivis de désillusions profondes,
00:03:22ce qui a alors conduit les entreprises et les chercheurs à s'en détourner pendant de longues années,
00:03:30ce que certains ont pu appeler les « hivers de l'IA ».
00:03:35Depuis que l'entreprise OpenEye a mis à la disposition du grand public en 2022
00:03:42son modèle d'IA générative et conversationnel,
00:03:50l'IA s'est considérablement démocratisé.
00:03:54Le nombre de ces usagers a explosé partout dans le monde
00:03:58et le sujet est désormais au cœur de nos préoccupations économiques, sociales,
00:04:04mais également éthiques, tant son potentiel paraît considérable.
00:04:09Dans vos ouvrages, vous insistez beaucoup sur l'idée que les IA ne sont pas créatives
00:04:14et que seuls les humains le sont,
00:04:17que ce ne sont que des boîtes à outils dont nous demeurons responsables.
00:04:22Pourriez-vous revenir pour nous sur ce sujet
00:04:25et nous précisez également pourquoi la création d'une intelligence artificielle générale
00:04:33envisagée par certains acteurs du secteur vous apparaît comme un mythe.
00:04:39Vous estimez que lorsqu'elles sont spécialisées dans certaines tâches,
00:04:44les IA sont des outils exceptionnellement performants
00:04:47qui peuvent libérer du temps pour les salariés
00:04:50ou leur donner la possibilité de réaliser des tâches nouvelles
00:04:55de façon beaucoup plus efficace qu'auparavant.
00:04:59Selon vous, comment utiliser les IA de la façon la plus judicieuse
00:05:02pour améliorer la productivité du travail et de nos entreprises ?
00:05:09Considérez-vous que les entreprises françaises
00:05:11s'approprient suffisamment rapidement les modèles d'IA
00:05:16pour gagner en compétitivité par rapport à ce que vous pouvez observer,
00:05:21notamment aux États-Unis ?
00:05:24Les impacts possibles de l'IA sur l'emploi
00:05:26suscitent également beaucoup de craintes.
00:05:30Pensez-vous qu'il y a là une réelle menace
00:05:32ou bien que, comme lors des révolutions technologiques du passé,
00:05:37l'IA fera certes disparaître certains métiers,
00:05:41mais en créera d'autres, peut-être même davantage ?
00:05:44En tout état de cause, comment répondre à l'immense défi
00:05:48consistant à former à l'IA les plus jeunes,
00:05:51mais également les adultes qui sont d'ores et déjà
00:05:55confrontés à cette révolution du travail ?
00:05:59Dans vos ouvrages, comme dans vos déclarations,
00:06:02vous vous montrez très critiques vis-à-vis des grands modèles
00:06:06de langage d'IA générative,
00:06:08tels que CHAP-GPT,
00:06:10qui repose sur une course au gigantisme.
00:06:13Pourriez-vous nous expliquer en quoi ils posent problème selon vous,
00:06:17en particulier en matière d'impact environnemental,
00:06:21qu'il s'agisse de leur consommation d'eau ou d'énergie ?
00:06:25Peut-on et doit-on réserver les IA génératives
00:06:29à certains cas d'usage
00:06:31et utiliser des IA classiques plus frugales
00:06:34pour des requêtes plus simples ?
00:06:37Quel regard portez-vous sur les investissements
00:06:39dans de gigantesques data centers
00:06:42annoncés ces derniers mois ?
00:06:45Tant aux États-Unis,
00:06:46les 500 milliards de dollars du projet Stargate
00:06:50qu'en France,
00:06:51les 109 milliards d'euros
00:06:53annoncés lors du dernier sommet mondial sur l'IA
00:06:57de février dernier.
00:06:59Que pensez-vous du modèle chinois,
00:07:01DeepSync,
00:07:02développé pour un coût bien plus faible
00:07:04que celui de CHAP-GPT ?
00:07:07Notre pays nous paraît avoir des atouts importants
00:07:09dans le domaine de l'intelligence artificielle,
00:07:12avec plus de 1 000 start-up
00:07:14et une place de 3e pays au monde
00:07:17en nombre de chercheurs spécialisés en IA.
00:07:20Partagez-vous cet avis ?
00:07:22Quel regard portez-vous sur la place
00:07:23et la dynamique de la France
00:07:25dans la course mondiale à l'IA ?
00:07:28Que pourraient faire de plus les pouvoirs publics
00:07:31pour renforcer les maillons critiques
00:07:33de la chaîne de valeur de l'IA en France ?
00:07:37Voilà déjà beaucoup, beaucoup de questions,
00:07:40monsieur le directeur,
00:07:41que je souhaitais vous poser.
00:07:44Quelques sujets qui, donc,
00:07:46ne manqueront pas d'être très certainement complétés
00:07:49par l'ensemble des membres de la Commission
00:07:51qui vous poseront des questions
00:07:53à l'issue de votre exposé.
00:07:55Je vous remercie encore une fois
00:07:57d'avoir accepté cette audition.
00:07:59Nous avons beaucoup de chance
00:08:00de pouvoir, voilà, vous écouter.
00:08:03Je vous cède la parole
00:08:04et je précise, comme je le fais habituellement,
00:08:07que l'audition fait l'objet d'une captation vidéo
00:08:09et qu'elle est diffusée en direct
00:08:12sur le site du Sénat.
00:08:14Monsieur le directeur,
00:08:15je vous laisse très volontiers la parole
00:08:17et nous sommes à votre écoute.
00:08:19Madame la présidente, merci beaucoup.
00:08:21Il faut que j'ai fait ce bouton,
00:08:22voilà, vous avez fait pour moi.
00:08:24Merci beaucoup.
00:08:25Alors, effectivement, il y a beaucoup,
00:08:26beaucoup de questions dans votre introduction.
00:08:29Je ne sais pas si je vais pouvoir répondre à toutes,
00:08:31mais bon, vous y reviendrez certainement
00:08:32si j'en oublie quelques-unes.
00:08:34Je vais effectivement commencer
00:08:36par un petit exposé rapide
00:08:37de ce que j'appelle l'intelligence artificielle,
00:08:41qui n'est pas forcément la définition
00:08:44que vous vous entendez,
00:08:45surtout dans les médias
00:08:46et surtout en ce moment,
00:08:47depuis ces deux, trois dernières années,
00:08:48avec les IA génératives.
00:08:50D'abord, comme vous l'avez rappelé,
00:08:51les IA, l'IA, l'intelligence artificielle,
00:08:55a officiellement débuté en 1956.
00:08:58Et donc, ça fait presque 70 ans aujourd'hui
00:08:59que nous avons des vagues successives
00:09:01de ces IA.
00:09:03Ça a commencé avec des IA statistiques.
00:09:05Alors, pour être clair, déjà,
00:09:06les IA, ce ne sont que des mathématiques.
00:09:09Donc, on va se calmer.
00:09:10Mais c'est uniquement des maths
00:09:12et ce n'est que des maths.
00:09:13Alors, les maths, c'est bien,
00:09:14ce n'est pas bien, vous décidez,
00:09:15ce n'est pas grave,
00:09:16mais ce n'est que des maths.
00:09:18Et donc, en 1956,
00:09:19ces maths-là, c'était des statistiques.
00:09:22Ça n'a pas bien marché.
00:09:23On est effectivement rentré
00:09:24dans le premier hiver de l'IA
00:09:25parce qu'on nous avait promis
00:09:25beaucoup de choses
00:09:26qui ne sont pas réalisées.
00:09:28Et dans les années 60, 70, 80, 90,
00:09:31sont arrivés à un autre type d'IA
00:09:33qui était des IA logiques,
00:09:35cette fois-ci,
00:09:36au lieu d'être des IA statistiques.
00:09:38Et donc, ces IA logiques
00:09:39ont très bien marché.
00:09:40Pour les plus vieux d'entre nous,
00:09:41on se rappelle des systèmes experts
00:09:42qui ont effectivement très bien marché
00:09:45puisqu'en 1997,
00:09:46un système expert a battu Kasparov
00:09:47aux échecs,
00:09:48ce qui était relativement impressionnant
00:09:50si tant est qu'on puisse considérer
00:09:52que jouer aux échecs soit intelligent.
00:09:55Donc, les machines sont capables
00:09:59d'être meilleures que les humains
00:10:01parce que, comme vous l'avez aussi dit,
00:10:03je dis en permanence,
00:10:04et j'ai raison,
00:10:05que l'IA, l'intelligence artificielle,
00:10:08si j'ai donné une définition,
00:10:10je vais dire que c'est une boîte à outils.
00:10:12Une boîte à outils
00:10:13dans laquelle il y a des outils
00:10:13aussi différents que les marteaux,
00:10:15les tournevis, les scies.
00:10:16D'accord ?
00:10:17Et donc, ces IA,
00:10:18maintenant, je vais les mettre au pluriel,
00:10:19ces IA sont très, très différentes
00:10:21et contrairement à ce qu'on nous dit
00:10:23et ce qu'on nous répète,
00:10:24souvent, on nous dit
00:10:25les IA, l'IA va être plus intelligente que nous.
00:10:28Ah ben, j'ai un scoop pour vous.
00:10:29Les IA sont plus intelligentes que nous
00:10:31depuis très longtemps
00:10:32parce que quand on définit un outil,
00:10:34par définition,
00:10:35il est meilleur que moi.
00:10:36Sinon, ce n'est pas un outil.
00:10:37Et donc, ces outils qui existent
00:10:39depuis 1956
00:10:40sont effectivement meilleurs que nous
00:10:42dans les domaines
00:10:43pour lesquels on a défini l'outil.
00:10:45Et donc, effectivement,
00:10:46aux échecs, par exemple, en 1997,
00:10:48l'outil était meilleur
00:10:49que Kasparov, champion du monde,
00:10:51donc que nous tous ici dans la salle.
00:10:54Et dans les années 90,
00:10:57on a oublié, en fait,
00:10:58ces IA logiques
00:11:00pour revenir aux IA statistiques
00:11:01parce qu'il s'est passé
00:11:02quelque chose de formidable
00:11:03et dont vous vous rappelez tous
00:11:04dans les années 90,
00:11:06est arrivé Internet.
00:11:07Et Internet est arrivé avec quoi ?
00:11:09Il est arrivé avec le Big Data.
00:11:11Donc, Big Data, ça veut dire quoi ?
00:11:12Beaucoup de données.
00:11:13Et qu'est-ce qu'on fait
00:11:14quand on a beaucoup de données ?
00:11:15On fait des statistiques.
00:11:17Et donc, on a refait des statistiques.
00:11:19Machine Learning,
00:11:20vous avez entendu ça.
00:11:21Deep Learning,
00:11:22c'était les années 90,
00:11:23les années 2000.
00:11:24Et puis, donc, depuis,
00:11:26à peu près,
00:11:26officiellement,
00:11:27pour le grand public,
00:11:292022,
00:11:30mais en fait,
00:11:30depuis 2017,
00:11:31on fait des machines
00:11:33qu'on appelle maintenant
00:11:34des IA génératives.
00:11:36ces IA génératives
00:11:37ne sont que des IA statistiques,
00:11:39une évolution des IA statistiques
00:11:40avec juste la capacité
00:11:43de traiter plus de données.
00:11:46Machine Learning,
00:11:46Deep Learning,
00:11:47IA génératives,
00:11:49des IA statistiques
00:11:50avec de plus en plus de données,
00:11:51de plus en plus de capacités
00:11:52de calcul.
00:11:53D'accord ?
00:11:54Donc, quand on parle de révolution,
00:11:57il n'y a absolument pas de révolution
00:11:59dans les IA qui sont apparues en 2022
00:12:03pour le grand public,
00:12:04en novembre 2022 avec JGPT,
00:12:06mais il y a une évolution,
00:12:07une évolution de la capacité
00:12:09à pouvoir traiter beaucoup plus de données.
00:12:12Par contre, il y a une révolution.
00:12:14Vous allez savoir ce que je raconte.
00:12:16En fait, il y a une révolution
00:12:17dans l'usage,
00:12:18ce qui est absolument extraordinaire
00:12:20dans les IA,
00:12:21les nouvelles IA,
00:12:21donc ces IA génératives
00:12:22qui sont apparues
00:12:23pour le grand public
00:12:24en novembre 2022,
00:12:25c'est le prompt.
00:12:27Le fait que vous puissiez
00:12:28vous adresser à ces IA
00:12:30directement en langage naturel
00:12:31sans aucune notion
00:12:33d'informatique,
00:12:34de data science,
00:12:36de choses comme ça.
00:12:37Donc, n'importe qui
00:12:38peut faire n'importe quoi
00:12:39et d'ailleurs,
00:12:40on voit beaucoup de n'importe quoi.
00:12:43Et donc,
00:12:43depuis ces années-là,
00:12:46effectivement,
00:12:47vous avez dit
00:12:47que ça a été une évolution,
00:12:50une révolution d'usage.
00:12:51en janvier-février 2023,
00:12:54en deux mois,
00:12:55100 millions d'utilisateurs
00:12:56de Chagipiti 3.5.
00:12:58100 millions d'utilisateurs,
00:13:00c'est la technologie
00:13:01qui a été le plus rapidement adoptée
00:13:03dans l'histoire des technologies.
00:13:05Donc, impressionnant.
00:13:07Pourquoi ?
00:13:07À cause de ce prompt,
00:13:08parce que ce prompt
00:13:09me permet de m'adresser
00:13:11directement à ces IA
00:13:12en langage naturel
00:13:13sans aucune notion,
00:13:15encore une fois,
00:13:16d'informatique.
00:13:17Donc, ça, c'est intéressant,
00:13:19mais c'est aussi dangereux.
00:13:21parce que ça veut dire
00:13:22que tout le monde
00:13:23peut faire n'importe quoi.
00:13:24Et je ne sais pas
00:13:24si vous êtes amusés
00:13:25à faire vos starter packs,
00:13:26mais un starter pack,
00:13:28c'est n'importe quoi.
00:13:29Ça ne sert strictement à rien,
00:13:30sauf à faire péter la planète.
00:13:32Et ça,
00:13:32on va y revenir certainement.
00:13:34Donc,
00:13:35ces IA,
00:13:36aujourd'hui,
00:13:36ne sont que des outils.
00:13:38Il faut les considérer
00:13:39comme tels.
00:13:40Et en fait,
00:13:40je vais vous dire même
00:13:42une autre chose
00:13:42à propos de ces IA.
00:13:43Je vous ai dit
00:13:44que ça a commencé en 1956.
00:13:46En fait, moi,
00:13:46en tant que Français,
00:13:47franchouillard de base,
00:13:48je fais commencer les IA
00:13:50en 1642.
00:13:51En 1642,
00:13:52qu'est-ce qui s'est passé ?
00:13:53Il y a Pascal,
00:13:54que vous connaissez tous,
00:13:55mathématicien,
00:13:56philosophe français,
00:13:57qui a inventé la Pascaline.
00:13:59Et la Pascaline,
00:14:00c'est quoi ?
00:14:00C'est la première machine à calculer.
00:14:02La première machine à calculer
00:14:03qui est des additions
00:14:04et des soustractions
00:14:04que je vais vous mettre
00:14:07au défi
00:14:07de faire vous maintenant
00:14:09parce que ça faisait
00:14:10des additions et des soustractions
00:14:11à 4 ou 5 digits.
00:14:13Donc, par exemple,
00:14:141769 plus 498.
00:14:17À vous.
00:14:21Voilà.
00:14:21Bon, donc,
00:14:22vous ne l'avez pas eu,
00:14:23ce n'est pas grave.
00:14:24La Pascaline,
00:14:25en 1642,
00:14:27en 1642,
00:14:28la Pascaline
00:14:29aurait eu cette équation,
00:14:31cette addition
00:14:32en 4 secondes.
00:14:34OK ?
00:14:34Et elle aurait eu
00:14:35juste elle.
00:14:37Donc,
00:14:37si j'avais été chinois,
00:14:40je vous aurais dit
00:14:40que le boulier
00:14:41était une intelligence artificielle.
00:14:43Si j'avais été grec,
00:14:45j'aurais certainement
00:14:45pu trouver un truc
00:14:46dans la Grèce antique
00:14:47qui avait l'air
00:14:48de faire des trucs intelligents.
00:14:50Parce que ces IA
00:14:51ont juste l'air
00:14:53de faire des trucs intelligents
00:14:54dans des domaines particuliers.
00:14:56Et donc,
00:14:56maintenant,
00:14:57quand on va parler
00:14:57de AGI,
00:14:58donc Artificial General Intelligence,
00:15:00ce,
00:15:01pourquoi certains,
00:15:03des gens qui sont,
00:15:05on va dire,
00:15:06influencés
00:15:08par leurs propres intérêts,
00:15:10disent que ça va arriver.
00:15:12AGI,
00:15:13donc c'est
00:15:13Artificial General Intelligence,
00:15:14c'est l'intelligence artificielle
00:15:16générique générale
00:15:17qui fera tout,
00:15:18tout le temps,
00:15:18beaucoup mieux que nous
00:15:19et n'importe quoi.
00:15:21Cette AGI
00:15:22est impossible.
00:15:24C'est juste impossible
00:15:25statistiquement
00:15:26tant qu'on utilise
00:15:27des mathématiques.
00:15:28D'accord ?
00:15:29Donc,
00:15:29je ne vais pas vous dire
00:15:29que je vais
00:15:30savoir exactement
00:15:33ce qui va se passer
00:15:33dans le monde
00:15:34dans les mille ans
00:15:35qui viennent.
00:15:36Peut-être qu'avec du quantique,
00:15:37on réussira
00:15:38à faire des choses.
00:15:39La différence
00:15:40entre le quantique
00:15:40et l'intelligence artificielle
00:15:43aujourd'hui,
00:15:45c'est que le quantique,
00:15:45c'est de la physique.
00:15:47Et les mathématiques,
00:15:49ce n'est pas de la physique.
00:15:50Les mathématiques
00:15:51sont une approximation
00:15:51de la physique.
00:15:53D'accord ?
00:15:53Donc,
00:15:54la mathématique,
00:15:55on essaye de décrire
00:15:55le monde tel qu'on peut
00:15:56et malheureusement,
00:15:57la mathématique
00:15:58n'est pas le monde.
00:16:00D'accord ?
00:16:00Et donc,
00:16:01du coup,
00:16:01quand on fait des statistiques,
00:16:03alors,
00:16:03je ne sais pas vous,
00:16:04mais le 100% en statistiques
00:16:06n'existe pas.
00:16:08D'accord ?
00:16:08Donc,
00:16:09ça veut dire quoi ?
00:16:09Ça veut dire que
00:16:10le parfait n'existe pas.
00:16:12Et donc,
00:16:13quand on parle des AGI,
00:16:14on parle du parfait.
00:16:16On parle d'un truc
00:16:16qui serait absolument extraordinaire,
00:16:19qui ferait tout bien,
00:16:20tout le temps
00:16:20et mieux que nous.
00:16:22AGI Artificial General Intelligence.
00:16:25Donc,
00:16:26ça,
00:16:27ce n'est pas possible.
00:16:27C'est juste
00:16:28mathématiquement impossible.
00:16:29Un exemple de AGI,
00:16:31qui est dans un domaine particulier,
00:16:32mais un exemple d'AGI,
00:16:33ça serait
00:16:34la voiture autonome
00:16:35niveau 5.
00:16:37Alors là,
00:16:37je vais vous calmer
00:16:38tout de suite
00:16:38sur la voiture autonome
00:16:39niveau 5.
00:16:41Monsieur Musk,
00:16:42que j'adore,
00:16:44nous promet
00:16:45la voiture autonome
00:16:46niveau 5
00:16:46depuis 2014.
00:16:48On est en 2025.
00:16:50Les Tesla,
00:16:51aujourd'hui,
00:16:51niveau 5,
00:16:52il faut expliquer
00:16:53un tout petit peu,
00:16:53il y a 5 niveaux
00:16:54d'autonomie
00:16:54dans les voitures autonomes.
00:16:57Niveau 1,
00:16:57ce n'est pas autonome
00:16:58du tout,
00:16:58etc.
00:16:59Et puis,
00:16:59vous imaginez,
00:17:00niveau 5,
00:17:00c'est complètement autonome,
00:17:02ça va d'un point A
00:17:02à un point B
00:17:03sans écraser mes mets
00:17:04au milieu.
00:17:05Donc,
00:17:06cette voiture-là,
00:17:08elle n'existe pas
00:17:09et elle n'existera jamais.
00:17:11Je vais vous le prouver,
00:17:11je ne vais pas juste vous le dire,
00:17:13je vais vous le prouver
00:17:13mathématiquement
00:17:14parce que je suis mathématicien,
00:17:16donc je ne peux faire que ça.
00:17:18Bref,
00:17:18donc,
00:17:19la voiture niveau 5
00:17:20n'existe pas,
00:17:21elle n'existera jamais.
00:17:22La voiture niveau 4
00:17:22existera,
00:17:23elle existe déjà d'ailleurs
00:17:24dans les robotaxis.
00:17:25Si vous avez été
00:17:26à San Francisco récemment,
00:17:27vous avez peut-être vu
00:17:28ces robotaxis circuler
00:17:29sans chauffeur.
00:17:30Ça existe à San Francisco,
00:17:32Phoenix,
00:17:32Austin,
00:17:33Los Angeles.
00:17:34Ça existe beaucoup
00:17:34en Chine aussi.
00:17:35Mais ces robotaxis,
00:17:37comme vous le savez peut-être,
00:17:39ils sont limités
00:17:40non seulement dans la géographie
00:17:41dans laquelle
00:17:42ils peuvent opérer.
00:17:43D'accord ?
00:17:43Donc,
00:17:43déjà,
00:17:44cette limitation
00:17:44dit qu'on n'est plus
00:17:45au niveau 5.
00:17:46À partir du moment
00:17:47où on limite,
00:17:47on n'est plus
00:17:47dans le général.
00:17:48et ces robotaxis aussi
00:17:51ne sont que 300
00:17:52d'un charcut de ces villes
00:17:54parce qu'en fait,
00:17:55ils sont télécommandés.
00:17:56Alors,
00:17:56ils ne sont pas télécommandés
00:17:57tout le temps.
00:17:58Mais dès qu'il y a un problème,
00:18:00ce qui arrive,
00:18:000,1% du temps,
00:18:02d'accord ?
00:18:03Eh bien,
00:18:03il y a un gars
00:18:04quelque part
00:18:05dans un centre de commande
00:18:06qui a un joystick
00:18:07et une caméra
00:18:07et qui sort la voiture
00:18:09de la mouise
00:18:09dans laquelle elle s'est mise.
00:18:10Donc,
00:18:11il faut bien comprendre
00:18:11que ces voitures
00:18:12sont remote control.
00:18:14Donc,
00:18:14il y a une intervention humaine
00:18:16à un moment donné.
00:18:16À partir du moment
00:18:17où il y a une intervention humaine,
00:18:19ce n'est plus
00:18:19des voitures autonomes
00:18:20niveau 5.
00:18:21Ce que nous promet donc
00:18:22Musk depuis 2014,
00:18:24les Tesla aujourd'hui
00:18:25sont 2,5.
00:18:27Donc,
00:18:28on est encore très,
00:18:28très loin.
00:18:29Mais encore une fois,
00:18:29il y a des voitures
00:18:30qui arrivent au niveau 3
00:18:31aujourd'hui
00:18:31qui ne sont pas
00:18:32des voitures robotaxis
00:18:33et les voitures
00:18:34niveau 4 arriveront.
00:18:35Pourquoi la voiture
00:18:35niveau 5 n'existera jamais ?
00:18:37Donc,
00:18:39définition,
00:18:39on va dire,
00:18:40ou démonstration
00:18:42rigolote
00:18:43pour vous,
00:18:44les Français,
00:18:44pour vous,
00:18:45les Parisiens,
00:18:45pour vous,
00:18:45les gens qui avaient pris
00:18:46déjà...
00:18:47Pour vous aussi ?
00:18:49Ouais,
00:18:49enfin,
00:18:49pour vous surtout
00:18:50parce que moi,
00:18:50je ne conduis pas à Paris.
00:18:53Vous faites ce que vous voulez,
00:18:54mais vous avez des chauffeurs,
00:18:55donc c'est pas grave.
00:18:56C'est...
00:18:57Pas tout le monde,
00:18:59non,
00:18:59mais ça dépend.
00:19:00Donc,
00:19:00il y en a qui ont de la chance
00:19:02d'avoir les chauffeurs.
00:19:03Et...
00:19:03Ah,
00:19:04la présidente
00:19:05en a chauffeurs,
00:19:05donc c'est très bien.
00:19:07Mais bon,
00:19:07donc,
00:19:07le chauffeur en question
00:19:09qui va prendre
00:19:10la fameuse
00:19:11place de l'étoile
00:19:12à 18 heures.
00:19:13Place de l'étoile
00:19:14à 18 heures,
00:19:15si vous voulez,
00:19:15vous voyez,
00:19:16vous mettez une voiture autonome
00:19:17sur une de ces 10 avenues
00:19:18de la place de l'étoile,
00:19:20la voiture autonome
00:19:21va faire ça.
00:19:23D'accord ?
00:19:24Et elle ne va pas
00:19:25pouvoir traverser
00:19:25la place de l'étoile
00:19:27pour une raison simple,
00:19:28c'est que la voiture autonome,
00:19:29elle fait un truc super bien,
00:19:31elle suit le code de la route.
00:19:34Et si vous suivez
00:19:36le code de la route
00:19:37à 18 heures
00:19:38sur la place de l'étoile,
00:19:40vous n'avez absolument
00:19:40aucune chance
00:19:41de traverser cette place.
00:19:43Vous le savez mieux que moi.
00:19:46Donc,
00:19:46voilà.
00:19:47Mais bon,
00:19:47ça, c'était une blague,
00:19:48c'était pour rigoler.
00:19:49Je vais vous raconter
00:19:50la vraie histoire
00:19:50et la vraie histoire,
00:19:51c'est quelque chose
00:19:52qui s'est passé en 2018.
00:19:53En 2018,
00:19:54donc,
00:19:55le PDG de Wemo,
00:19:56Wemo qui est la compagnie
00:19:57qui opère
00:19:57ces taxis autonomes
00:19:58dont je parlais
00:19:59à San Francisco
00:20:00et ailleurs,
00:20:01le PDG de Wemo
00:20:02de l'époque a dit,
00:20:03bon,
00:20:03j'en ai marre
00:20:04d'entendre les bêtises
00:20:05d'Elon Musk,
00:20:07je vais faire don
00:20:08de toutes mes données,
00:20:10de toutes mes données
00:20:11qui sont des données
00:20:13de conduite,
00:20:15des vidéos de conduite
00:20:16dans le monde entier
00:20:17de mes voitures,
00:20:1810 millions de miles
00:20:19que je mets à disposition
00:20:21de la communauté
00:20:21pour qu'on arrive
00:20:22le plus rapidement possible
00:20:23au niveau 4.
00:20:24On n'arrivera jamais
00:20:25au niveau 5,
00:20:26mais pour qu'on arrive
00:20:26au niveau 4,
00:20:27je mets à disposition
00:20:28ces 10 millions de miles.
00:20:2910 millions de miles,
00:20:30c'est beaucoup.
00:20:31Et il met ça sur YouTube.
00:20:33Et donc,
00:20:33des gens comme moi
00:20:34qui s'intéressent au domaine,
00:20:35on se précipite
00:20:36donc sur YouTube
00:20:37pour aller voir
00:20:38un peu ces 10 millions de miles.
00:20:39Alors,
00:20:39je n'ai pas eu le temps
00:20:39de regarder les 10 millions de miles.
00:20:41Je ne vous cache pas
00:20:41que c'est un peu long,
00:20:42même en accéléré.
00:20:44Mais bon,
00:20:45je n'ai pas eu besoin
00:20:45en fait
00:20:46pour trouver
00:20:46ce que j'appelle
00:20:47une pépite.
00:20:48C'est quoi une pépite ?
00:20:49Une pépite,
00:20:50c'est un truc
00:20:50qui prouve
00:20:50que j'ai raison.
00:20:52Et donc,
00:20:53là en l'occurrence,
00:20:55j'ai mis à peu près
00:20:5620 minutes
00:20:56pour trouver
00:20:57ma première pépite
00:20:58et j'en ai trouvé
00:20:59des dizaines depuis.
00:21:00Mais ma première pépite,
00:21:01je vais vous la raconter.
00:21:05rouler dans les rues
00:21:06de Mountain View.
00:21:07Mountain View,
00:21:08c'est le headquarter
00:21:09de Google.
00:21:10On voit cette voiture
00:21:11qui roule.
00:21:11Alors Mountain View,
00:21:12c'est chiant comme la mort.
00:21:13Je ne sais pas
00:21:13si vous y avez été déjà,
00:21:14mais il ne se passe rien.
00:21:15Et donc,
00:21:16la voiture
00:21:17est en train de rouler
00:21:18et tout d'un coup,
00:21:19elle s'arrête.
00:21:20Elle attend 2-3 secondes,
00:21:22elle fait 2-3 mètres
00:21:23et s'arrête.
00:21:24Elle attend 2-3 secondes,
00:21:24elle fait 2-3 mètres
00:21:25et s'arrête.
00:21:26Elle fait ça 5-6 fois
00:21:27et la caméra
00:21:28est passée au-dessus
00:21:28du windshield,
00:21:29du pare-brise.
00:21:31Et donc,
00:21:31on voit
00:21:32les mains
00:21:35on voit les mains
00:21:37du gars
00:21:37qui prend les commandes
00:21:39et qui s'en va
00:21:39parce qu'il y a des mecs
00:21:40derrière
00:21:40qui commencent à s'énerver.
00:21:42Pourquoi le mec
00:21:42il s'arrête
00:21:43tous les 3-4 mètres ?
00:21:44Ça n'a strictement aucun sens.
00:21:47Ça n'a aucun sens
00:21:47jusqu'à ce qu'on regarde
00:21:48bien la vidéo.
00:21:49Et quand on regarde
00:21:50bien la vidéo,
00:21:50on voit que sur le trottoir,
00:21:52il y a 2 gars
00:21:53qui marchent
00:21:54dans la même direction
00:21:55que la voiture.
00:21:56Jusque là,
00:21:57il n'y a pas de mandat,
00:21:57ce n'est pas très grave.
00:21:59Mais quand on regarde
00:21:59vraiment très très bien,
00:22:00on voit que celui
00:22:01qui est le plus près
00:22:02de la chaussée,
00:22:02donc sur la gauche
00:22:04du trottoir,
00:22:06quand il marche
00:22:07dans la même direction
00:22:08de la voiture,
00:22:09sur son épaule,
00:22:10il a un panneau stop.
00:22:13Alors vous,
00:22:14vous humains,
00:22:16vous voyez un gars
00:22:16sur le bord de la route
00:22:18qui marche
00:22:19avec un panneau stop,
00:22:21vous humains,
00:22:23vous n'arrêtez pas.
00:22:24Vous trouvez
00:22:24qu'il y a un débile
00:22:25qui est sur le côté,
00:22:27qui a un panneau stop
00:22:28sur les...
00:22:28Bon, voilà,
00:22:29voilà,
00:22:29et donc vous vous dites
00:22:31c'est débile,
00:22:31ça n'existe pas,
00:22:33ça n'est jamais arrivé,
00:22:34c'est un truc,
00:22:34je n'ai jamais vu ça,
00:22:35mais moi,
00:22:36je suis intelligent,
00:22:38j'analyse la situation
00:22:39et la situation me dit
00:22:40c'est un débile,
00:22:42ok,
00:22:42et je continue tranquillou.
00:22:45La voiture super intelligente,
00:22:46autonome,
00:22:48qui n'a jamais vu le cas non plus,
00:22:49d'accord,
00:22:50qu'est-ce qu'elle voit ?
00:22:51Elle voit un panneau stop
00:22:52et puis un panneau stop
00:22:54et puis un panneau stop
00:22:55et puis un panneau stop.
00:22:58Voilà.
00:22:59Bon,
00:22:59alors juste avec un exemple
00:23:00comme ça,
00:23:00et des exemples comme ça,
00:23:01quand il y en a un,
00:23:03ça veut dire qu'il y a
00:23:03une infinité,
00:23:05ok,
00:23:05et donc le problème,
00:23:07c'est que l'infini,
00:23:08c'est beaucoup,
00:23:09voyez,
00:23:10et donc à partir du moment
00:23:11où on a un cas,
00:23:13donc comme ça,
00:23:14qui est un cas
00:23:14qui n'existe pas,
00:23:17mais qui va exister,
00:23:19la généricité
00:23:20n'est pas possible,
00:23:21ok,
00:23:21donc ça c'est réglé,
00:23:23on n'a plus besoin
00:23:25d'en parler,
00:23:26maintenant je vais parler
00:23:27vite fait,
00:23:27avant que vous passiez
00:23:28aux questions,
00:23:28des impacts,
00:23:30parce que vous avez parlé
00:23:31un tout petit peu
00:23:31des impacts écologiques
00:23:33de ces IA,
00:23:35alors les IA,
00:23:35les vieilles IA,
00:23:36on va dire,
00:23:37donc les IA logiques
00:23:38prenaient pratiquement
00:23:40aucune,
00:23:41aucune ressource,
00:23:43d'accord,
00:23:44quand vous créiez,
00:23:45quand vous faisiez
00:23:46les modèles,
00:23:47les modèles,
00:23:47c'était en fait
00:23:48des arbres de décision,
00:23:49c'était vous,
00:23:50avec le cerveau,
00:23:50qui faisaient
00:23:51les arbres de décision,
00:23:52et après ça suivait
00:23:52les arbres de décision,
00:23:53ça prenait pratiquement
00:23:54pas d'électricité.
00:23:56Les modèles,
00:23:57les vieux modèles statistiques
00:23:58depuis les années 90,
00:23:59donc au début d'Internet,
00:24:01quand on a commencé
00:24:01à faire ces choses-là,
00:24:03en machine learning,
00:24:04deep learning,
00:24:05faire les modèles,
00:24:06ça prenait des ressources,
00:24:08ça prenait donc
00:24:09des ressources
00:24:09de data center,
00:24:10et vous savez tous
00:24:11que les data centers
00:24:12prennent de l'électricité,
00:24:14font du CO2,
00:24:14surtout avec maintenant
00:24:15mon nouveau président
00:24:16qui adore
00:24:18tout ce qui est
00:24:20charbon,
00:24:21pétrole,
00:24:21etc.
00:24:21Donc on va avoir
00:24:23des nouveaux data centers,
00:24:24vous avez parlé de Stargate,
00:24:25la bonne nouvelle
00:24:26de Stargate,
00:24:26c'est que les 500 milliards,
00:24:27il ne les a pas.
00:24:28Donc il n'a que 10
00:24:29sur les 500,
00:24:30mais bon c'est Trump,
00:24:31donc il raconte n'importe quoi.
00:24:33Et donc les data centers,
00:24:36on sait tous
00:24:36que ça prend effectivement
00:24:39beaucoup d'électricité,
00:24:41et quand on entend
00:24:41que Microsoft par exemple
00:24:43est en train de réfléchir
00:24:44à mettre à côté
00:24:45de chacun de ces data centers
00:24:46une petite centrale nucléaire,
00:24:49bon aux Etats-Unis,
00:24:50il n'y a pas de régulation
00:24:51comme il y a en Europe,
00:24:52en moins,
00:24:53et donc ça fait un peu peur,
00:24:54d'accord ?
00:24:54Mais bon,
00:24:55en Europe,
00:24:56on aura la régulation
00:24:57qui nous permettra
00:24:57peut-être de ne pas faire ça,
00:24:58mais en tout cas,
00:24:59on sait que ça,
00:25:00ça prend beaucoup d'électricité.
00:25:01Ce qu'on sait moins,
00:25:02c'est que les IA génératives
00:25:05prennent non seulement
00:25:06de l'électricité
00:25:07et des ressources
00:25:08au moment où on crée
00:25:09les modèles,
00:25:10et donc plus les modèles
00:25:11sont gros
00:25:11et plus ça prend de l'électricité,
00:25:13il se trouve que
00:25:14quand on parle par exemple
00:25:15de Chazipiti,
00:25:16on parle de 1200 milliards
00:25:18de paramètres,
00:25:191200 milliards de paramètres,
00:25:21ça ne veut rien dire,
00:25:21vous ne comprenez même pas
00:25:22ce que ça veut dire,
00:25:231200 milliards de paramètres,
00:25:241200 milliards de paramètres,
00:25:25c'est tout Internet.
00:25:27Le truc,
00:25:27il a bouffé tout Internet,
00:25:29ok ?
00:25:29Et donc,
00:25:31il y a tout dedans.
00:25:32Donc c'est pour ça
00:25:33que quand on vous annonce
00:25:34Chazipiti 5,
00:25:36vous allez attendre longtemps
00:25:36en fait,
00:25:37parce que ce n'est pas possible,
00:25:39d'accord ?
00:25:39Il n'y a plus de data,
00:25:40il n'y en a plus,
00:25:40on a tout bouffé.
00:25:41Sauf,
00:25:42si on met les data synthétiques,
00:25:44c'est-à-dire les data
00:25:44qui sont créées
00:25:45par les IA elles-mêmes.
00:25:47Et là,
00:25:47ça va être embêtant
00:25:48parce que les data,
00:25:49comme je vais vous le dire
00:25:49dans quelques minutes,
00:25:51les data qui sont générées
00:25:52par ces IA
00:25:53sont souvent fausses,
00:25:55ok ?
00:25:56Parce qu'elles sont aussi fausses
00:25:57que ce que vous trouvez
00:25:57sur Internet
00:25:58et vous savez certainement
00:25:59que sur Internet,
00:26:00il n'y a pas que des trucs vrais,
00:26:02ok ?
00:26:03Non, vous ne saviez pas ?
00:26:05Bon,
00:26:05il est temps que vous sachiez,
00:26:07donc je vais vous le dire
00:26:10tout à l'heure,
00:26:10encore une fois.
00:26:11Je me suis pas fait venir,
00:26:12je ne suis pas venu pour rien,
00:26:13donc je suis content
00:26:14que la représentation nationale
00:26:16sache maintenant
00:26:18que sur Internet,
00:26:20il n'y a pas que des trucs vrais.
00:26:21Bref,
00:26:22donc,
00:26:23les IA génératives,
00:26:24elles ont une particularité,
00:26:25c'est que non seulement
00:26:26ça va prendre des ressources
00:26:27au moment où on crée les modèles
00:26:28et énormément,
00:26:29donc on crée un modèle
00:26:31maintenant d'IA générative,
00:26:33c'est des mois,
00:26:34des mois de GPU,
00:26:36vous avez tous entendu parler
00:26:37des GPU
00:26:37qui sont à la mode aujourd'hui,
00:26:39on a vu ça la semaine dernière
00:26:40avec Viviatek,
00:26:41on a signé avec le provider
00:26:44de GPU mondial,
00:26:46bref,
00:26:47donc ces GPU
00:26:48prennent énormément
00:26:49d'électricité,
00:26:50ça on sait.
00:26:51Ce qu'on sait moins,
00:26:52c'est que ça prend aussi
00:26:53de l'électricité
00:26:53au moment de l'inférence.
00:26:55L'inférence,
00:26:55c'est quoi ?
00:26:56C'est au moment
00:26:56où on utilise ces IA.
00:26:58Les vieilles IA,
00:26:59il y a 2-3 ans,
00:27:01elles n'utilisaient pratiquement
00:27:02pas d'électricité
00:27:03à l'inférence,
00:27:03au moment où on les utilisait,
00:27:04machine learning,
00:27:05deep learning.
00:27:06IA générative,
00:27:07les modèles sont tellement gros
00:27:09que ça,
00:27:10pour aller chercher
00:27:10les résultats,
00:27:11les réponses,
00:27:12ça utilise aussi
00:27:13de l'électricité,
00:27:14ça utilise aussi
00:27:15des ressources
00:27:15au moment de l'inférence.
00:27:17Et donc bon,
00:27:18ça c'est embêtant
00:27:19parce que ça veut dire quoi ?
00:27:19Ça veut dire que
00:27:20quand vous faites une requête
00:27:21chez GPT,
00:27:22vous pétez de l'électricité.
00:27:25On a encore une fois
00:27:26une bonne notion
00:27:27de ce que ça veut dire
00:27:27au niveau des data centers.
00:27:29Ce qu'on sait moins
00:27:30et ce qu'on ne réalise pas
00:27:32encore tout à fait,
00:27:33c'est que ces data centers,
00:27:34non seulement ils prennent
00:27:35de l'électricité,
00:27:36mais ils utilisent aussi
00:27:36de l'eau.
00:27:38Et l'eau,
00:27:39c'est intéressant
00:27:39parce que c'est l'eau
00:27:40pour refroidir
00:27:41les machines
00:27:43qui se chauffent entre elles.
00:27:45Le fait que vous ayez
00:27:46des milliers de machines
00:27:46dans un data center fermé,
00:27:49ils se chauffent entre eux.
00:27:51Ces machines se chauffent
00:27:52entre elles
00:27:52et donc vous avez
00:27:53des circuits d'eau
00:27:54qui sont des circuits
00:27:55de refroidissement.
00:27:57Et malheureusement,
00:27:59comme ça utilise,
00:28:00ces IA,
00:28:01les nouvelles IA
00:28:01utilisent de l'électricité
00:28:03et des ressources
00:28:04en eau aussi
00:28:05au moment de l'inférence,
00:28:06ça veut dire
00:28:07qu'entre 10,
00:28:08alors ça dépend
00:28:08de la complexité
00:28:09des requêtes.
00:28:10Mais entre 10 et 30 requêtes
00:28:12chaque GPT,
00:28:13c'est un litre et demi d'eau
00:28:14qui disparaît.
00:28:18Un litre et demi d'eau
00:28:19pour 10 à 30 requêtes
00:28:22chaque GPT.
00:28:24Donc,
00:28:24tous vos Sutterpacks
00:28:25que vous êtes amusés
00:28:26à faire,
00:28:27vous avez pété
00:28:28des milliers
00:28:29de litres de flotte.
00:28:31Et ça,
00:28:32on n'en sait rien
00:28:33parce qu'on ne se rend pas compte,
00:28:35c'est loin des yeux,
00:28:36le long du cœur,
00:28:37les data centers.
00:28:38Donc,
00:28:39on ne se rend pas compte
00:28:39de ça.
00:28:40Et même Sam Altman,
00:28:41le PDG d'Open AI,
00:28:43a avoué,
00:28:44il n'y a pas très longtemps
00:28:45dans une interview,
00:28:46qu'effectivement,
00:28:47lui,
00:28:47il a dit 3 requêtes.
00:28:48Il s'est un peu tiré
00:28:49une balle dans le pied.
00:28:513 requêtes,
00:28:52il a dit en litre et demi de flotte.
00:28:53Mais bon,
00:28:53bref,
00:28:54donc tout ça pour dire
00:28:54que ça utilise énormément de ça.
00:28:56Alors bon,
00:28:57évidemment,
00:28:57ce n'est pas de l'eau salée,
00:29:00c'est de l'eau douce.
00:29:01Donc,
00:29:02autant faire les choses correctement,
00:29:03on pète de l'eau douce
00:29:05et donc des milliers,
00:29:06des millions de litres par jour,
00:29:08parce qu'il y a des millions
00:29:10de requêtes qui sont faites
00:29:11par jour.
00:29:13Donc,
00:29:14il faut juste avoir conscience
00:29:15de ça.
00:29:18Je ne vous entends pas,
00:29:19mais il faut juste avoir
00:29:20conscience de ça.
00:29:22Un autre truc que je veux dire
00:29:23vite fait,
00:29:23et puis je vous laisse vraiment
00:29:24la parole,
00:29:25c'est l'histoire de pertinence
00:29:27dont je parlais un peu
00:29:28tout à l'heure.
00:29:29Parce qu'on dit,
00:29:31c'est super,
00:29:32l'IA,
00:29:32on fait plein de trucs avec,
00:29:33machin,
00:29:34vous vous amusez avec,
00:29:35vous faites vos résumés avec,
00:29:36machin,
00:29:36tout ça.
00:29:37Bravo,
00:29:37super.
00:29:38En avril 2023,
00:29:41il y a un avocat qui s'est dit,
00:29:42je vais demander à l'IA
00:29:44de New York,
00:29:45baron de New York,
00:29:46je vais demander à l'IA
00:29:47qu'il me fasse ma plaidoirie.
00:29:49Il avait un cas
00:29:49où il avait un plaignant
00:29:52qui n'était pas content
00:29:53d'une compagnie aérienne.
00:29:55Donc,
00:29:55il rentre les deux,
00:29:56trois éléments
00:29:56qu'il lui faut
00:29:57et Chagipiti,
00:29:58en 15 secondes,
00:30:00lui pond une plaidoirie.
00:30:01Il envoie la plaidoirie au juge
00:30:03et le juge,
00:30:04quelques jours après,
00:30:05lui renvoie un mot,
00:30:06il dit,
00:30:06c'est la meilleure plaidoirie
00:30:09que tu ne m'aies jamais envoyée.
00:30:11L'avocat est super,
00:30:13j'ai gagné six heures de mon temps,
00:30:14je vais être très riche maintenant
00:30:16parce que je peux prendre
00:30:17plein de cas
00:30:17et c'est super.
00:30:19Mais le juge continue,
00:30:20il lui dit,
00:30:20bon,
00:30:21c'est super,
00:30:21c'était super la plaidoirie.
00:30:23Il y a un seul petit problème,
00:30:24c'est que toutes les jurisprudences
00:30:26que tu cites à la fin,
00:30:27elles n'existent pas.
00:30:29Les case numbers ont l'air OK,
00:30:30les juges,
00:30:31les noms des juges ont l'air OK,
00:30:32mais ça n'existe pas.
00:30:33Donc l'erreur qu'a fait cet avocat,
00:30:36il a fait deux erreurs.
00:30:37La première,
00:30:38c'est qu'au moment
00:30:38où il a parlé à Tchadjipiti,
00:30:40où il a demandé à Tchadjipiti,
00:30:41il n'a pas donné de référence.
00:30:43Et la deuxième erreur,
00:30:44c'est qu'il n'a pas relu
00:30:44son truc à la fin.
00:30:46D'accord ?
00:30:47Relire, c'est bien,
00:30:48c'est plutôt une bonne chose.
00:30:51Parce que quand je vous disais tout à l'heure
00:30:52que le 100% n'existe pas,
00:30:54le 60% existe.
00:30:57C'est-à-dire que ces IA
00:30:58sont pertinentes à 64%.
00:31:01Alors ça, 64%,
00:31:02c'est un chiffre qui fait un peu peur.
00:31:04Parce que vous vous dites quand même
00:31:05que ça veut dire que 36% du temps,
00:31:07le truc, il me raconte n'importe quoi.
00:31:09Et c'est super difficile à prouver.
00:31:11C'est super difficile à montrer.
00:31:13Mais l'Université de Hong Kong
00:31:15a réussi à faire un truc
00:31:16qui est rigolo,
00:31:17que je vais vous décrire maintenant,
00:31:19qui montre ce chiffre.
00:31:21Pourquoi c'est super difficile à prouver ?
00:31:23Parce que quand vous vous interrogez
00:31:25ces IA,
00:31:26la façon dont vous vous posez la question,
00:31:29vous donnez déjà plus ou moins la réponse.
00:31:31C'est-à-dire que vous orientez la réponse.
00:31:33Et pour vous, du coup,
00:31:34ça devient pertinent.
00:31:36C'est-à-dire que si vous demandez à l'IA
00:31:37montre-moi que la Terre est plate,
00:31:39il va vous montrer que la Terre est plate.
00:31:41Parce qu'il y a des sites platistes qui existent.
00:31:43Et donc, il va vous montrer que la Terre est plate.
00:31:45Et donc, c'est pertinent.
00:31:46C'est ce que vous avez demandé.
00:31:47D'accord ?
00:31:47Donc, c'est compliqué de comprendre
00:31:50ce que c'est la pertinence.
00:31:51Mais là, l'Université de Hong Kong
00:31:52a fait quelque chose d'intelligent.
00:31:53Ils ont pris des millions,
00:31:55des millions de faits
00:31:57communément acceptés comme vrais.
00:31:59Des faits communément acceptés comme vrais,
00:32:01c'est quoi ?
00:32:022 plus 2 égale 4.
00:32:03OK ?
00:32:04Bon, on est tous d'accord que c'est comme ça.
00:32:06Et donc, ils ont pris ces millions de faits
00:32:08et ils ont demandé à l'IA
00:32:09est-ce que ce fait est vrai ?
00:32:13S'il y a dit, c'est vrai.
00:32:15C'est vrai parce que c'est vrai.
00:32:16S'il y a dit, c'est faux.
00:32:19C'est faux parce que c'est vrai.
00:32:20Suivez, là ?
00:32:22Ouais, c'est bon ?
00:32:23OK.
00:32:23Donc, à la fin,
00:32:25on compte les vrais et les faux.
00:32:27Et donc, ce qu'ils ont compté,
00:32:2864 % de vrais.
00:32:31Ça veut dire que 36 % du temps,
00:32:32l'IA dit qu'un truc vrai est faux.
00:32:35Et ça, c'est statistique.
00:32:37C'est-à-dire qu'il ne va jamais dire les mêmes.
00:32:39D'accord ?
00:32:40Et donc, c'est un peu embêtant
00:32:41parce que ça veut dire quand même
00:32:42que ces trucs-là disent n'importe quoi.
00:32:45Et ça ne va pas en s'arrangeant.
00:32:46Parce que, comme je disais tout à l'heure,
00:32:47le problème, c'est que maintenant,
00:32:49les IA sont en train de s'auto-alimenter
00:32:53exactement avec leur data synthétique.
00:32:55Et donc, du coup, on voit,
00:32:57il y a un papier d'OpenA qui est sorti
00:32:58il y a deux semaines.
00:32:59Donc, c'est tout récent.
00:33:00Qui montre...
00:33:01Bon, ils n'ont pas trop fait de pub.
00:33:02D'ailleurs, qui montre qu'en deux ans,
00:33:06on a perdu 2 %.
00:33:07Parce que, petit à petit,
00:33:09donc, la pertinence descend.
00:33:11Parce que, de plus en plus,
00:33:12on met, pour être clair,
00:33:14du caca dans les IA.
00:33:17OK ?
00:33:17Voilà.
00:33:18C'était mon exposé.
00:33:19Maintenant, c'est à vous de shooter.
00:33:20Merci beaucoup, en tout cas.
00:33:25Je vois que ça a vraiment, voilà,
00:33:27à la fois interpellé.
00:33:28Et je pense que les questions
00:33:29ne vont pas manquer.
00:33:30Je vais d'abord laisser la parole
00:33:31à Patrick Chaises.
00:33:32Et ensuite, on attaquera
00:33:33le lot des questions.
00:33:35On les prendra, si vous le voulez bien,
00:33:37après l'intervention de Patrick,
00:33:383 par 3,
00:33:39de façon à ce que vous puissiez y répondre.
00:33:41Patrick Chaises.
00:33:42Merci, Madame la Présidente.
00:33:44Monsieur le Directeur,
00:33:44alors, je tiens à dire
00:33:45que mon intervention
00:33:46n'a pas été réalisée
00:33:47avec l'aide de ChatGPT.
00:33:51Donc, ces dernières années,
00:33:52la France a su faire émerger
00:33:54de nombreuses start-up
00:33:54dans le domaine
00:33:55de l'intelligence artificielle,
00:33:56dont un certain nombre
00:33:57sont parvenus
00:33:58à devenir des licornes.
00:34:00S'il s'agit là
00:34:00d'un beau succès,
00:34:02mais selon vous,
00:34:03comment faire en sorte,
00:34:04en matière de financement,
00:34:05de permettre à davantage
00:34:06de ces jeunes entreprises
00:34:07de réaliser en France
00:34:08ou en Europe
00:34:09les levées de fonds
00:34:10dont elles ont besoin
00:34:11pour croître ?
00:34:13Comment éviter
00:34:13que nombre d'entre elles,
00:34:15on pourrait tendre
00:34:16cette notion-là aussi
00:34:18aux chercheurs,
00:34:18je vais vous en mettre
00:34:19un exemple,
00:34:20ne finissent par partir
00:34:21aux Etats-Unis
00:34:22ou par être rachetés
00:34:23par des entreprises américaines ?
00:34:25Quel regard portez-vous
00:34:26sur la façon
00:34:27dont l'Union européenne
00:34:28régule l'intelligence artificielle,
00:34:30en particulier
00:34:30à travers l'IA Acte ?
00:34:32Êtes-vous favorable
00:34:33à la mise en place
00:34:34d'une gouvernance mondiale
00:34:35de l'IA ?
00:34:36Pensez-vous qu'il s'agisse
00:34:37d'une perspective réaliste
00:34:38dans un contexte
00:34:39de rivalité exacerbée
00:34:40entre les grandes puissances
00:34:42dans le domaine ?
00:34:43S'il convient
00:34:43de ne pas fantasmer
00:34:45des peurs excessives
00:34:46sur l'IA,
00:34:47quels sont néanmoins
00:34:47les risques
00:34:48auxquels nous devons
00:34:49nous montrer attentifs ?
00:34:50Et enfin,
00:34:51une toute dernière question
00:34:52sur les mobilités.
00:34:54Quelle est l'application
00:34:57de l'intelligence artificielle
00:34:58dans les mobilités ?
00:34:59Vous avez parlé
00:34:59de la véhicule autonome ?
00:35:01Mais sur les autres mobilités,
00:35:03comment voyez-vous les choses ?
00:35:05Encore une fois,
00:35:06moi,
00:35:06je suis plutôt monomodal,
00:35:08vous voyez,
00:35:08donc me poser cinq questions
00:35:10à la fois,
00:35:11j'ai du mal,
00:35:12mais je vais essayer
00:35:13de répondre.
00:35:15Alors d'abord,
00:35:15sur la place de la France
00:35:16et sur la qualité
00:35:18de nos chercheurs
00:35:19et la qualité
00:35:21de ce qu'on est en France,
00:35:24il faut se dire
00:35:26une seule chose,
00:35:27c'est qu'on est les meilleurs.
00:35:28Et malheureusement,
00:35:29on ne se le dit pas,
00:35:29alors je ne sais pas
00:35:30dans cette assemblée ici,
00:35:31mais on ne se le dit pas assez.
00:35:33On aime bien se flageller,
00:35:35d'accord,
00:35:36en France,
00:35:36vous aimez bien
00:35:37vous flageller
00:35:37et vous dire
00:35:39que vous êtes nuls,
00:35:41qu'il y a le nivellement
00:35:42par le bas,
00:35:43que notre éducation
00:35:44est à chier,
00:35:45d'accord ?
00:35:46Donc tout ça,
00:35:47c'est ce que j'entends
00:35:47de là-bas
00:35:48et ça me fatigue.
00:35:51Ça me fatigue
00:35:51parce qu'on est les meilleurs.
00:35:53On est les meilleurs.
00:35:54Point.
00:35:54Et ça,
00:35:55ce n'est pas moi qui le dis en fait.
00:35:56C'est par exemple
00:35:58les médailles Fields.
00:36:00Encore une fois,
00:36:00je vous rappelle
00:36:00que l'IA,
00:36:01c'est que les mathématiques.
00:36:03Et donc les médailles Fields,
00:36:04on a, nous,
00:36:05en France,
00:36:05le plus de médailles Fields
00:36:07dans le monde.
00:36:08Point à la ligne.
00:36:10Et donc ça veut dire quoi ?
00:36:10Ça veut dire
00:36:10qu'on est les meilleurs
00:36:11en maths du monde.
00:36:13Et si on est les meilleurs
00:36:14en maths du monde,
00:36:16c'est parce qu'on est aussi
00:36:17les meilleurs en IA.
00:36:19Et donc c'est pour ça
00:36:20que dans la Silicon Valley,
00:36:21vous l'avez noté,
00:36:22il y a beaucoup de gens
00:36:23qui sont partis,
00:36:24mais qui sont partis
00:36:24il y a longtemps.
00:36:25Moi, je suis parti
00:36:25il y a 32 ans.
00:36:26Yann Lequin est parti
00:36:27il y a 30 ans.
00:36:28Donc les vieux
00:36:30sont effectivement partis
00:36:31il y a longtemps.
00:36:33Depuis 2013 en France,
00:36:34depuis la French Tech,
00:36:35depuis la BPI,
00:36:38il y a des pépites
00:36:38qui se forment en France.
00:36:40On a retrouvé
00:36:41le goût de l'entreprenariat.
00:36:43Et donc on a aussi
00:36:44retrouvé le goût
00:36:45de faire des choses
00:36:46qui sont intelligentes
00:36:47en France.
00:36:48Je n'ai pas répondu
00:36:49à DeepSick tout à l'heure,
00:36:50mais je vais y revenir certainement.
00:36:52Donc on est les meilleurs.
00:36:55Ce qui se prouve
00:36:56dans la Silicon Valley aussi,
00:36:57on est 55 000 français
00:36:59dans la Silicon Valley.
00:37:00Il y a la moitié
00:37:01de boulangers
00:37:01et la moitié
00:37:02d'informaticiens.
00:37:04Et les informaticiens,
00:37:06on les arrache,
00:37:08on se les arrache
00:37:09pour faire de l'IA
00:37:10parce qu'on est
00:37:11les meilleurs en IA.
00:37:12Et quand vous regardez
00:37:13n'importe quelle boîte,
00:37:14Meta, Netflix, Google,
00:37:17enfin vous citez
00:37:17n'importe quelle boîte
00:37:18de la Silicon Valley,
00:37:19le chef de l'IA
00:37:20est français.
00:37:22Donc déjà,
00:37:22on va se détendre,
00:37:23on va arrêter
00:37:24de se flageller,
00:37:25on va se dire
00:37:26on est les meilleurs.
00:37:27Et il faut se le répéter
00:37:27tous les jours
00:37:28et moi je le répète
00:37:29tous les jours
00:37:29parce qu'on est les meilleurs.
00:37:32Ça c'est réglé.
00:37:34Maintenant,
00:37:35le problème des financements,
00:37:37c'est un énorme problème.
00:37:41On n'a pas
00:37:41de capital risque en Europe.
00:37:44On n'a pas
00:37:44de capital risque en France.
00:37:46Alors là,
00:37:47je vais certainement
00:37:48rentrer un peu
00:37:50dans une polémique
00:37:51dans laquelle
00:37:53je n'ai absolument
00:37:54pas ma place
00:37:54parce que de toute façon
00:37:55je n'y connais rien.
00:37:57Mais quand on a
00:37:58600 milliards
00:37:59dans les librais
00:38:00qui sont disponibles,
00:38:03quand on a
00:38:031 600 milliards
00:38:04dans les assurances-vie
00:38:06qui sont disponibles,
00:38:09moi je vois
00:38:10le modèle américain.
00:38:11Alors le modèle américain
00:38:12est ce qu'il est,
00:38:13ce n'est pas la panacée,
00:38:15mais
00:38:15les fonds de pension
00:38:18comme on les appelle
00:38:19là-bas,
00:38:21ce sont eux
00:38:21qui
00:38:22financent
00:38:24les VCs,
00:38:26les ventures capitalistes,
00:38:27les capital risqueurs.
00:38:30Les VCs ici
00:38:31en France,
00:38:32et je ne les critique pas
00:38:33parce qu'ils font
00:38:33ce qu'ils peuvent
00:38:34avec ce qu'ils ont,
00:38:35la moyenne
00:38:35d'un fonds
00:38:37VCs en Europe,
00:38:38en France,
00:38:38c'est 200-300 millions.
00:38:41200-300 millions,
00:38:42vous ne pouvez pas
00:38:43faire des investissements
00:38:44de 100 millions.
00:38:46Et donc,
00:38:46quand vous avez
00:38:47une scale-up,
00:38:49donc une start-up
00:38:50qui doit maintenant
00:38:51scaler,
00:38:52et on a vu ça
00:38:53avec Mistral par exemple,
00:38:54quand vous avez
00:38:55une scale-up,
00:38:56on ne parle pas
00:38:57de 10 millions,
00:38:58on ne parle pas
00:38:58de 5 millions,
00:38:59on parle de
00:39:00centaines de millions.
00:39:02Et aucun VC français,
00:39:05européen même,
00:39:06n'est capable
00:39:07de faire ça.
00:39:07Et c'est dommage
00:39:08parce que l'argent,
00:39:08il y en a.
00:39:09Il y en a donc
00:39:10dans les deux institutions
00:39:11dont je viens de parler
00:39:12et il y en a
00:39:13dans les compagnies privées.
00:39:15Les compagnies privées françaises,
00:39:16vous avez des fois
00:39:18la première fortune
00:39:19du monde
00:39:19qui est française,
00:39:21d'accord ?
00:39:22Donc,
00:39:22il y a plein de sous
00:39:23dans les entreprises.
00:39:25Les entreprises
00:39:25aux Etats-Unis
00:39:26font partie
00:39:27des VC corporate,
00:39:29comme on dit,
00:39:30donc les venture
00:39:31capitalistes
00:39:31qui font
00:39:32de l'investissement
00:39:33des corporations,
00:39:35des entreprises
00:39:36et elles font partie
00:39:37donc de cette prise
00:39:40de risque
00:39:40dans ces jeunes pousses,
00:39:46dans ces entreprises.
00:39:47Un exemple,
00:39:48en 2019,
00:39:48alors ça a un peu changé
00:39:49après la pandémie,
00:39:50mais en 2019,
00:39:53Google,
00:39:54vous connaissez tous,
00:39:55a acheté
00:39:56300 compagnies,
00:39:59une par jour,
00:40:00d'accord ?
00:40:01Google a acheté
00:40:02300 compagnies
00:40:03en 2019.
00:40:05Je ne vous demande pas
00:40:05combien d'assauts
00:40:07ou combien LVMH
00:40:11a acheté
00:40:12de compagnies
00:40:13en 2019.
00:40:16Renaud,
00:40:17oui,
00:40:17c'est pareil,
00:40:18c'est la même chose.
00:40:19Donc,
00:40:20les compagnies françaises,
00:40:22et Renaud,
00:40:23peut-être pas
00:40:23le meilleur exemple
00:40:24dans ce cas-là,
00:40:25les compagnies françaises
00:40:26qui ont des sous
00:40:27n'investissent absolument pas
00:40:29dans les pépites.
00:40:33Voilà.
00:40:33Alors,
00:40:33donc,
00:40:34le problème,
00:40:34c'est effectivement
00:40:35le risque,
00:40:37c'est effectivement
00:40:37monter sur la table.
00:40:39Aux États-Unis,
00:40:40dès la petite enfance,
00:40:43on vous apprend
00:40:43à monter sur la table
00:40:45pour dire n'importe quoi.
00:40:47D'accord ?
00:40:48Et bon,
00:40:48c'est une culture,
00:40:49c'est comme ça,
00:40:50et ils disent,
00:40:50ils font très bien,
00:40:51ils disent n'importe quoi.
00:40:53Mais bon,
00:40:53vous montez,
00:40:53vous n'avez pas honte,
00:40:55vous montez sur la table.
00:40:56En France,
00:40:57je me rappelle,
00:40:59si au CP,
00:41:01vous vous dites
00:41:01un mot de travers
00:41:02quand vous lisez
00:41:03votre petit texte
00:41:04qu'on vous a demandé
00:41:05de lire,
00:41:06au coin.
00:41:08D'accord ?
00:41:08En France,
00:41:10en entreprise,
00:41:11vous faites une petite bêtise,
00:41:13au placard.
00:41:16Le risque,
00:41:19aux États-Unis,
00:41:22est rewardé,
00:41:24si tout le monde
00:41:25est récompensé.
00:41:28Donc,
00:41:28on a ces récompenses
00:41:30dans le sens où
00:41:31on comprend
00:41:33que prendre un risque
00:41:35est l'échec,
00:41:37la culture de l'échec,
00:41:38on parle souvent
00:41:38de la culture de l'échec,
00:41:40l'échec fait partie
00:41:42de l'apprentissage.
00:41:43C'est-à-dire que
00:41:44quand j'échoue,
00:41:44j'ai appris un truc.
00:41:46Et il y a une bonne chance
00:41:46que la prochaine fois,
00:41:48je ne fasse pas
00:41:48la même bêtise.
00:41:49Et ça,
00:41:50on ne sait pas le faire.
00:41:51On ne sait pas le faire
00:41:51en Europe en général.
00:41:53Ce n'est pas seulement
00:41:53la France.
00:41:54Donc,
00:41:55je n'ai pas la solution.
00:41:58Je vous ai dit tout à l'heure
00:41:59que je considère
00:41:59que le système éducatif français
00:42:01est l'un des meilleurs
00:42:01parce qu'on crée
00:42:02les meilleures élites.
00:42:03On laisse certainement
00:42:04beaucoup de gens
00:42:04sur le bord de la route,
00:42:05sur le chemin.
00:42:06Mais on forme
00:42:07les meilleures élites du monde
00:42:08en mathématiques.
00:42:10D'accord ?
00:42:10Ça, c'est super.
00:42:12Maintenant,
00:42:12est-ce que c'est au prix
00:42:13de ne pas savoir monter
00:42:15sur la table
00:42:16pour pouvoir expliquer
00:42:19et juste des fois
00:42:22faire rêver
00:42:23avec des choses
00:42:25qui sont prospectives
00:42:28et qui sont risquées ?
00:42:30C'est possible.
00:42:31Je ne sais pas.
00:42:32Mais ça serait bien
00:42:32qu'on apprenne un peu.
00:42:33Alors,
00:42:34c'est difficile d'apprendre le risque.
00:42:35Mais ça serait bien
00:42:37juste de laisser un peu couler
00:42:39de temps en temps
00:42:39les choses
00:42:41quand ça ne se passe pas
00:42:42très, très bien.
00:42:43Voilà.
00:42:43Donc, ça, c'était
00:42:44pour les investissements.
00:42:45Et la dernière partie
00:42:46qui est sur la régulation.
00:42:48Alors là,
00:42:48je ne vais pas être sympa, là.
00:42:49D'accord ?
00:42:50Je ne vais pas être sympa du tout.
00:42:51Donc, je ne sais pas
00:42:52si vous avez d'une manière
00:42:53ou d'une autre
00:42:53participé à l'EI Act.
00:42:55Mais l'EI Act
00:42:55est une aberration.
00:42:57Une aberration totale
00:42:58qui a été voulue
00:42:59par votre collègue breton
00:43:01en février 2023.
00:43:04D'accord ?
00:43:05Dans un esprit
00:43:06de l'IA générative arrive,
00:43:09il faut se dépêcher
00:43:09de faire un truc.
00:43:12Et on a fait n'importe quoi.
00:43:14On a fait absolument n'importe quoi.
00:43:15Alors, vous savez certainement
00:43:16comment il marche.
00:43:17C'était l'EI Act.
00:43:17Il y a quatre niveaux.
00:43:19Quatre niveaux de...
00:43:21de...
00:43:22comment...
00:43:23de risques.
00:43:25D'accord ?
00:43:25Donc, c'est pas trop risqué.
00:43:27C'est un peu risqué.
00:43:29C'est très risqué.
00:43:31Et c'est interdit.
00:43:32Alors, moi, évidemment,
00:43:32ce qui me gêne,
00:43:33c'est l'interdit.
00:43:35D'accord ?
00:43:35Parce que l'interdit,
00:43:38si on avait interdit des choses
00:43:39en comprenant ce que c'est,
00:43:42ça aurait été chouette.
00:43:43Mais en fait,
00:43:44on n'a rien compris.
00:43:46Et surtout,
00:43:46on n'a pas demandé
00:43:47aux gens qui comprenaient.
00:43:49Et on a collé,
00:43:50donc, dans le dernier paquet,
00:43:52là-haut,
00:43:53on a collé des gros sacs
00:43:55de choses
00:43:56qui sont
00:43:57qui sont
00:43:57peut-être,
00:44:00un jour,
00:44:01utilisables
00:44:02et intéressantes.
00:44:03Mais on l'a mis
00:44:04parce que ça faisait partie
00:44:05du gros sac
00:44:06qu'on avait considéré,
00:44:10a priori,
00:44:11sans avoir aucune notion
00:44:12de comment on pourrait utiliser
00:44:14ces choses-là.
00:44:15Et donc,
00:44:16on se tire une balle dans le pied,
00:44:17en fait,
00:44:18pour l'innovation.
00:44:19On se tire une balle dans le pied
00:44:20avec cet IA Act
00:44:21parce qu'on s'interdit
00:44:22à faire des choses
00:44:23qui, peut-être,
00:44:25seront bonnes.
00:44:26Le niveau de granularité
00:44:27de ces gros sacs
00:44:28qu'on a mis
00:44:29dans ces différentes
00:44:30boquettes,
00:44:32dans ces différents seaux,
00:44:33on va dire,
00:44:34la granularité
00:44:35est trop importante.
00:44:36D'accord ?
00:44:37Et le problème
00:44:37avec Bruxelles,
00:44:39je ne sais pas
00:44:40si c'est le même avec vous,
00:44:41mais le problème
00:44:42avec Bruxelles,
00:44:42c'est qu'une fois
00:44:44qu'un truc est dans un sac,
00:44:45pour le sortir du sac,
00:44:47ça va prendre
00:44:48cinq ans,
00:44:49dix ans.
00:44:50D'accord ?
00:44:50Et ça,
00:44:50c'est un peu embêtant
00:44:51parce que la flexibilité,
00:44:52on va dire,
00:44:53de Bruxelles
00:44:53n'est pas vraiment
00:44:54sans fourté.
00:44:55Donc,
00:44:56ça,
00:44:57c'est très,
00:44:57très embêtant.
00:44:58Et en plus,
00:44:58un truc rigolo,
00:44:59alors rigolo,
00:45:00moyen,
00:45:01en fait,
00:45:01moi,
00:45:01ça me fait plutôt pleurer,
00:45:03c'est que la plupart
00:45:03des actes,
00:45:07je ne sais pas
00:45:07comment on dit,
00:45:08de l'IA Act,
00:45:09la plupart des,
00:45:11comment on dit ça,
00:45:11des...
00:45:13Bon,
00:45:14je ne sais plus,
00:45:15c'est ce que vous faites
00:45:16tous les jours,
00:45:17des lois,
00:45:19des directives
00:45:20qui sont dans l'IA Act,
00:45:23sont en contradiction
00:45:24avec RGPD.
00:45:26Et donc,
00:45:27ça,
00:45:27c'est quand même
00:45:27extraordinaire
00:45:28parce que les deux gars,
00:45:30RGPD et l'IA Act,
00:45:32jusqu'à preuve du contraire,
00:45:33ils sortent
00:45:33de la même commission.
00:45:36et aujourd'hui,
00:45:38il y a un cas,
00:45:39un cas qui existe
00:45:40aux Etats-Unis
00:45:41qui est un cas
00:45:41Apple contre Meta.
00:45:44Et Apple contre Meta,
00:45:46je peux vous annoncer
00:45:46officiellement
00:45:47que c'est un truc
00:45:47qui va durer 10 ans
00:45:48ou 15 ans
00:45:49ou 20 ans
00:45:50parce que c'est
00:45:51absolument insolvable.
00:45:53D'un côté,
00:45:54il y a Meta
00:45:54qui dit à Apple,
00:45:57l'IA Act
00:45:57me dit
00:45:58qu'il faut que tu me donnes
00:46:00accès
00:46:01à toutes tes
00:46:02fonctionnalités
00:46:04qui sont sur l'iPhone.
00:46:06Et de l'autre côté,
00:46:08Apple dit
00:46:08mais RGPD
00:46:10me dit
00:46:11je n'ai pas le droit
00:46:12de te donner
00:46:13accès
00:46:13à mes fonctionnalités
00:46:15qui sont sur mon iPhone.
00:46:16Voilà.
00:46:17Donc,
00:46:17ce cas-là,
00:46:18la bonne chance.
00:46:19C'est parti
00:46:19pour 10-15 ans
00:46:20et il n'y a absolument
00:46:22aucune résolution.
00:46:24Et donc,
00:46:24aujourd'hui,
00:46:24on va se retrouver
00:46:24avec des batailles juridiques
00:46:25absolument extraordinaires
00:46:26autour de l'IA Act
00:46:27parce que l'IA Act
00:46:28est une aberration totale.
00:46:31Et en plus de ça,
00:46:31donc,
00:46:32ça va nous générer
00:46:33des...
00:46:35Enfin,
00:46:36en fait,
00:46:37les entrepreneurs français
00:46:38ont déjà décidé
00:46:38de prendre des avocats
00:46:39en disant
00:46:40de toute façon,
00:46:41on ne va pas respecter le truc.
00:46:43Et ils ont raison.
00:46:45Voilà,
00:46:46voilà.
00:46:47Alors,
00:46:47même si
00:46:48on va accélérer,
00:46:50je suis désolée,
00:46:50mais si on veut
00:46:52que l'ensemble
00:46:52de nos collègues
00:46:53puissent poser des questions,
00:46:55M. Julia Partant
00:46:56en 11h,
00:46:56ça va être difficile.
00:46:57Donc,
00:46:57je vous demande
00:46:58s'il vous plaît
00:46:58d'être concis.
00:47:00Néanmoins,
00:47:00on va quand même
00:47:01prendre les questions
00:47:01trois par trois.
00:47:02mais je sais
00:47:04que vous aurez...
00:47:04Voilà.
00:47:05Franck Montauger.
00:47:08Merci,
00:47:08Mme la Présidente.
00:47:09Merci,
00:47:09M.
00:47:09Julien,
00:47:11pour cette présentation
00:47:13et surtout
00:47:14la liberté de ton
00:47:15et de pensée
00:47:16qui est la vôtre,
00:47:17qui doit caractériser
00:47:18toutes ces personnes
00:47:19qui travaillent
00:47:19sur ces systèmes.
00:47:22Merci beaucoup.
00:47:24Alors,
00:47:24une question
00:47:25un peu en marge.
00:47:28J'aime bien ça.
00:47:29aujourd'hui
00:47:30et depuis
00:47:31l'avènement
00:47:32du numérique,
00:47:33de la data numérique,
00:47:36le pouvoir
00:47:36est dans le code.
00:47:37Il y avait même
00:47:38un article célèbre
00:47:39de Laurence Lessig,
00:47:40je crois,
00:47:41de la fin du siècle dernier,
00:47:43qui titrait
00:47:44Code is Law.
00:47:48Le développement
00:47:48de l'intelligence artificielle
00:47:50comme ses potentialités
00:47:52renforce ce constat
00:47:55que le pouvoir
00:47:57est dans le code.
00:48:01Montesquieu,
00:48:03qui a été
00:48:05le concepteur,
00:48:06on le sait,
00:48:06de la théorie
00:48:07de la séparation
00:48:08des pouvoirs,
00:48:09disait que
00:48:10pour qu'on ne puisse
00:48:11pas abuser
00:48:12du pouvoir,
00:48:13il faut que
00:48:14par la disposition
00:48:14des choses,
00:48:15le pouvoir
00:48:16arrête le pouvoir.
00:48:19Alors,
00:48:19de fait,
00:48:21on commence
00:48:21à mesurer
00:48:22les effets
00:48:23positifs ou négatifs
00:48:24de l'intelligence artificielle
00:48:26utilisés
00:48:27comme outils,
00:48:29notamment dans
00:48:29la vie publique.
00:48:32Pensez-vous
00:48:32que l'intelligence
00:48:33artificielle,
00:48:34dans certains domaines,
00:48:36comme celui
00:48:36de la vie démocratique
00:48:37et publique,
00:48:39pose un problème
00:48:40ou des problèmes
00:48:41d'abus de pouvoir ?
00:48:43Et si oui,
00:48:45quelle implication
00:48:46doit être
00:48:47ou pourrait être
00:48:48celle du politique
00:48:50dont, en principe,
00:48:52on fait partie ?
00:48:53Voilà.
00:48:54première question.
00:48:55L'intelligence
00:48:56artificielle
00:48:57peut-elle
00:48:58être utilisée
00:48:59comme une vigie
00:49:01pour mettre
00:49:02en évidence
00:49:03les dérives
00:49:04ou les abus
00:49:05dont elle peut
00:49:06aussi être
00:49:07la source
00:49:07ou le moyen ?
00:49:12C'est bon ?
00:49:12Je vous remercie.
00:49:14OK.
00:49:14D'avance.
00:49:15Vous pouvez répondre
00:49:15à ma mesure,
00:49:16préférée ?
00:49:16Ah, pardon,
00:49:17c'était...
00:49:18Allons-y.
00:49:19Allez,
00:49:20Rémi Cardon,
00:49:21rapidement.
00:49:21Pareil,
00:49:23deux questions.
00:49:24Déjà,
00:49:24la première,
00:49:26excusez-moi,
00:49:26je vais peut-être
00:49:27vous tutoyer,
00:49:28dit,
00:49:29Luc,
00:49:29est-ce que
00:49:29Siri nous écoute ?
00:49:31C'est vraiment
00:49:31une question
00:49:32que je me pose
00:49:32puisqu'on voit
00:49:33certaines sorties
00:49:34dans la presse
00:49:35et notamment,
00:49:35il y a une affaire
00:49:36en cours
00:49:36sur des enregistrements
00:49:38qui violeraient
00:49:39la RGPD.
00:49:40Donc ça,
00:49:40c'est la première question.
00:49:41Et la deuxième question,
00:49:42sans monter sur la table,
00:49:45c'est est-ce que l'IA
00:49:47va nous permettre
00:49:47de travailler mieux
00:49:48pour vivre plus ?
00:49:49Voilà,
00:49:50c'est ce que vous parliez
00:49:51tout à l'heure
00:49:51d'avoir des perspectives.
00:49:52Très bien,
00:49:53très concis,
00:49:53Rémi.
00:49:53Merci.
00:49:54Éric Dumoulat.
00:49:55Oui,
00:49:55je vais être tout aussi concis.
00:49:56Merci pour votre présentation
00:49:57absolument géniale.
00:49:59Moi,
00:50:00j'ai juste une question.
00:50:00Il y a des pays
00:50:01comme la Finlande,
00:50:02etc.,
00:50:02qui se sont lancés
00:50:03dans une logique d'éducation
00:50:04entre guillemets,
00:50:05de masse,
00:50:06si on peut le dire,
00:50:06au moins 1% de la population
00:50:08à la fois pour mieux maîtriser
00:50:10mais aussi mieux comprendre
00:50:11les éventuelles dérives
00:50:12de l'IA.
00:50:15Qu'est-ce que vous verriez
00:50:16en France
00:50:16comme plan possible,
00:50:18aussi bien auprès
00:50:19des lycées,
00:50:19des universités,
00:50:20éventuellement dans le cadre
00:50:21de la formation professionnelle
00:50:22pour justement mieux appréhender
00:50:24toutes les difficultés
00:50:26que vous mettiez en évidence ?
00:50:27Merci.
00:50:28Merci pour la concision
00:50:29de vos questions.
00:50:30Monsieur Julien.
00:50:31Moi,
00:50:31j'essaie de me rappeler.
00:50:33On va vous aider.
00:50:34Donc,
00:50:35pour ce qui est
00:50:37du pouvoir
00:50:38et des IA
00:50:39en général,
00:50:40comme tous les outils,
00:50:42les IA peuvent être utilisés
00:50:43à bon et à mauvais escient.
00:50:45Le marteau,
00:50:46il est utilisé très bien
00:50:47pour planter le clou,
00:50:48il peut être utilisé très bien
00:50:49pour vous taper sur la tête.
00:50:50Contrairement à ce qu'il aurait pu
00:50:52être interprété
00:50:53par rapport à ce que je viens de dire
00:50:54sur les IAAC,
00:50:55je suis pro-régulation.
00:50:57C'est-à-dire qu'on doit réguler.
00:51:00Mais on doit réguler
00:51:00quand on comprend.
00:51:02On ne doit pas réguler
00:51:02à priori.
00:51:04Donc, réguler à priori
00:51:05est une bêtise absolue.
00:51:06D'accord ?
00:51:06C'est ce qui se passe
00:51:07avec les IAAC.
00:51:07Je pense que réguler
00:51:09à postériori,
00:51:10des fois,
00:51:11c'est un peu embêtant
00:51:11parce qu'on laisse
00:51:12des victimes
00:51:13sur le bord de la route.
00:51:14Et c'est ce qui se passe
00:51:15aux États-Unis en général.
00:51:16D'accord ?
00:51:17Donc, on est à postériori,
00:51:18mais sur la jurisprudence.
00:51:19Mais bon,
00:51:20il y a un certainement
00:51:21juste milieu
00:51:21qui fait qu'on doit avoir
00:51:23des gens qui comprennent
00:51:24le machin
00:51:24pour pouvoir réguler
00:51:26le machin correctement.
00:51:26Donc, pour répondre
00:51:27à notre question,
00:51:28c'est les deux.
00:51:29D'accord ?
00:51:30L'IA peut être,
00:51:31d'un côté,
00:51:32juge
00:51:33et donc faire les choses
00:51:34correctement,
00:51:35dans la partialité,
00:51:36dans tout ce qu'il faut.
00:51:37Et en même temps,
00:51:38on peut utiliser l'IA
00:51:39pour faire en sorte
00:51:40de démonter
00:51:40tous ces mécanismes.
00:51:43Donc,
00:51:44c'est en fait,
00:51:45après,
00:51:46soit la régulation,
00:51:48soit l'éthique
00:51:49qui fait que
00:51:50chacun d'entre nous,
00:51:52les entreprises,
00:51:53vont décider,
00:51:54ou l'État,
00:51:55va décider
00:51:56ce qu'il en est.
00:51:58Je n'ai pas répondu
00:51:58sur la régulation mondiale
00:52:00tout à l'heure.
00:52:01En fait,
00:52:01l'ONU,
00:52:02ça marche,
00:52:02ça ne marche pas,
00:52:03vous décidez.
00:52:04Moi,
00:52:04je trouve que ça ne marche
00:52:04pas trop bien.
00:52:06Donc,
00:52:06du coup,
00:52:06une régulation mondiale,
00:52:07je ne sais pas
00:52:08si ça marcherait.
00:52:08Par contre,
00:52:09quand vous regardez
00:52:09ce qui s'est passé
00:52:10avec les accords salt,
00:52:12avec le nucléaire,
00:52:13avec la bombe atomique,
00:52:15on va dire,
00:52:15dans les années 60,
00:52:1670, 80,
00:52:17d'accord ?
00:52:17Les accords salt
00:52:18ont été quelque chose
00:52:19qui était bilatéral
00:52:20entre l'URSS
00:52:21et les USA,
00:52:22mais ça a quand même
00:52:23bien marché.
00:52:24Bon,
00:52:25même si les tensions
00:52:26continuent à être là,
00:52:28mais ça a quand même
00:52:28freiné quelque chose
00:52:29où on était tout près
00:52:30de faire péter le monde,
00:52:31d'accord ?
00:52:32Donc,
00:52:33une régulation mondiale
00:52:34est compliquée,
00:52:35par contre,
00:52:35une prise de conscience mondiale
00:52:37est des fois possible.
00:52:39Donc,
00:52:39du coup,
00:52:40cet équilibre,
00:52:42c'est à nous
00:52:43de le décider
00:52:43et c'est au régulateur,
00:52:45à un moment donné,
00:52:46qu'il soit à n'importe
00:52:47quel niveau
00:52:48de le décider.
00:52:51OK ?
00:52:52Syrie,
00:52:53Syrie ne nous écoute pas.
00:52:55Donc,
00:52:55effectivement,
00:52:55il y a plein de choses
00:52:57qui sont en cours,
00:52:58aussi bien en France,
00:52:59enfin en Europe
00:53:00qu'aux États-Unis.
00:53:02C'est physiquement impossible,
00:53:03en fait.
00:53:04Bon,
00:53:04je suis assez bien passé
00:53:05pour vous le dire.
00:53:06C'est absolument impossible
00:53:08d'écouter tout,
00:53:10tout le temps,
00:53:10d'accord ?
00:53:11Et de le restaurer,
00:53:12de le mettre sur des disques.
00:53:13Pas possible,
00:53:14il y a trop de choses
00:53:15qui seraient dites.
00:53:15Donc ça,
00:53:16c'est idiot,
00:53:17en fait,
00:53:18de penser que ça serait possible.
00:53:20Par contre,
00:53:20les attaques
00:53:21qui sont faites aujourd'hui
00:53:23contre Syrie,
00:53:24ces attaques qui ont du sens
00:53:25dans le sens où,
00:53:26des fois,
00:53:28il y a des phrases
00:53:29qui sont des phrases
00:53:30qui ne sont pas bien reconnues
00:53:31et on considère,
00:53:33il y a un threshold,
00:53:34une limite,
00:53:35qui est une limite
00:53:36à 70%,
00:53:37qui,
00:53:37quand on n'est pas sûr
00:53:38à moins de 70%
00:53:41de la reconnaissance
00:53:42de la phrase,
00:53:43cette phrase est extraite,
00:53:44anonymisée
00:53:45et envoyée
00:53:47à des humains
00:53:47qui vont écouter
00:53:49et qui vont écouter
00:53:50la phrase
00:53:51pour savoir
00:53:51pourquoi elle n'a pas
00:53:52été reconnue correctement
00:53:53et comment on peut
00:53:54améliorer le modèle
00:53:56pour que la prochaine fois,
00:53:58une phrase du même type
00:53:59soit mieux reconnue.
00:54:00D'accord ?
00:54:01Donc,
00:54:01c'est rare,
00:54:02c'est très rare
00:54:03par rapport aux millions.
00:54:04Il y a 500 millions
00:54:05d'utilisateurs quotidiens
00:54:06de Syrie aujourd'hui.
00:54:08500 millions.
00:54:09Il y a des gens
00:54:10qui écoutent
00:54:11et des gens
00:54:11qui se plaignent
00:54:12et des gens
00:54:12qui sont sortis
00:54:13en disant,
00:54:14les lanceurs d'alerte
00:54:15qui sont sortis
00:54:16en disant
00:54:16« Oh là là,
00:54:17on m'a fait écouter
00:54:18des phrases
00:54:19de gens, machin. »
00:54:20Oui,
00:54:21c'est le boulot,
00:54:22en fait.
00:54:23Ça s'appelle comme ça.
00:54:24D'accord ?
00:54:24Et on vérifie
00:54:25qu'on essaye
00:54:27de comprendre
00:54:27pourquoi ça a été mal reconnu.
00:54:29Donc,
00:54:29c'est pour l'amélioration
00:54:30du reconnaisseur.
00:54:33Ce n'est pas systématique,
00:54:34c'est seulement
00:54:34sur des cas particuliers.
00:54:36Donc,
00:54:37évidemment,
00:54:38de toute façon,
00:54:39Apple n'a aucune chance
00:54:40de gagner ça.
00:54:42Donc,
00:54:42c'est pour ça
00:54:43qu'ils font leur settlement
00:54:43aujourd'hui
00:54:44sur ces cas-là
00:54:45parce que,
00:54:46de toute façon,
00:54:46aucune chance.
00:54:47Deuxième question
00:54:48que vous aviez,
00:54:48c'était ?
00:54:49Oui.
00:54:51L'IA est un outil.
00:54:53et Mme la Présidente
00:54:54l'a dit tout à l'heure,
00:54:56ces outils,
00:54:57effectivement,
00:54:58vont nous permettre
00:54:59de dégager du temps.
00:55:01D'accord ?
00:55:01Et alors là,
00:55:02c'est pas moi qui le dis.
00:55:03Il faut se reporter,
00:55:04c'est ce qu'a dit aussi
00:55:04Mme la Présidente,
00:55:05à ce qui s'est passé
00:55:06dans les révolutions
00:55:07industrielles précédentes.
00:55:08En l'occurrence,
00:55:09dans les années 1850.
00:55:11D'accord ?
00:55:11Et regardez ce que nous a dit
00:55:12notre ami Schumpeter
00:55:14au début du XXe siècle.
00:55:16On a vu que,
00:55:18dans l'équilibre des tâches,
00:55:20dans les métiers,
00:55:20les métiers disparaissent rarement.
00:55:22D'accord ?
00:55:22Les métiers qui disparaissent,
00:55:23c'est rare.
00:55:23Par contre,
00:55:24des tâches à l'intérieur des métiers
00:55:25qui changent et qui disparaissent,
00:55:27ça, c'est possible.
00:55:28Mais par contre,
00:55:28il y a des tâches
00:55:28qui sont rajoutées,
00:55:29ne serait-ce que la maîtrise
00:55:30même de l'outil.
00:55:32D'accord ?
00:55:32Ça, c'est rajouté
00:55:33dans les tâches.
00:55:34Donc du coup,
00:55:34il y a un équilibre
00:55:35qui se forme dans les métiers,
00:55:37mais qui font que
00:55:37l'utilisation de l'outil
00:55:39va nous apporter quelque chose.
00:55:40Et là, en l'occurrence,
00:55:41dans des métiers,
00:55:41par exemple,
00:55:42des métiers humains,
00:55:45on va dire,
00:55:45où il y a une relation humaine,
00:55:47ça va nous permettre
00:55:47d'avoir encore plus
00:55:48de relations humaines.
00:55:49On se plaint souvent
00:55:50de notre médecin
00:55:51qui dit,
00:55:52le médecin,
00:55:53il m'a parlé deux minutes et demie
00:55:54et puis il m'a viré.
00:55:55Là, avec les nouvelles technologies,
00:55:57les radiologues,
00:55:58par exemple,
00:55:58dont on a parlé
00:55:59il y a une dizaine d'années,
00:56:00on a dit,
00:56:00les radiologues vont disparaître.
00:56:01Ben non.
00:56:02Les radiologues n'ont pas disparu
00:56:03et les radiologues
00:56:04ne vont pas disparaître.
00:56:05Les radiologues vont avoir
00:56:06plus de temps
00:56:07pour discuter avec la patiente
00:56:08ou le patient
00:56:09des traitements
00:56:13qui sont possibles
00:56:14parce qu'il y a
00:56:15un autre élément
00:56:16qui est l'élément
00:56:16humain,
00:56:17l'élément d'empathie
00:56:19qui est quelque chose
00:56:20qui est censé être
00:56:21dans leur métier
00:56:22et qui va,
00:56:24pour moi,
00:56:24et je suis optimiste,
00:56:26qui va réapparaître
00:56:28dans ces métiers-là.
00:56:29Et donc,
00:56:30dans tous les métiers,
00:56:30en fait,
00:56:31on va pouvoir dégager du temps
00:56:32pour se focusser
00:56:34sur l'essence même
00:56:36du métier.
00:56:37Et donc,
00:56:37j'en viens à votre question
00:56:38à vous,
00:56:39sur l'apprentissage.
00:56:41Et il y a une erreur énorme
00:56:44qu'on peut faire,
00:56:45c'est se dire,
00:56:46on n'a plus à apprendre
00:56:47les métiers.
00:56:48Il ne faut surtout pas
00:56:49arrêter d'apprendre
00:56:51les métiers
00:56:52parce que c'est compétence
00:56:53dans les métiers différents,
00:56:54que ce soit boulanger,
00:56:55que ce soit n'importe quel métier.
00:56:57L'IA n'en sait rien.
00:56:58L'IA ne sait rien.
00:57:00L'IA ne comprend rien.
00:57:01L'IA n'invente rien.
00:57:02L'IA ne fait que faire
00:57:04ce qu'on lui demande.
00:57:05D'accord ?
00:57:06Donc, il ne faut surtout pas
00:57:07s'arrêter de s'éduquer
00:57:09sur les métiers eux-mêmes.
00:57:11Donc ça,
00:57:11ça serait une bêtise énorme.
00:57:14Et maintenant,
00:57:15apprendre à utiliser les outils.
00:57:18Ben oui,
00:57:19il faut apprendre
00:57:19parce que si on n'utilise pas
00:57:20l'outil,
00:57:21évidemment,
00:57:21on risque d'être mis
00:57:22sur le côté
00:57:23parce que ces outils,
00:57:24comme on vient de dire,
00:57:25peuvent éventuellement
00:57:26me faire gagner du temps,
00:57:28me faire gagner de la précision,
00:57:30me faire gagner de la qualité.
00:57:31C'est ça
00:57:32à quoi ils servent,
00:57:33ces outils.
00:57:34Et donc,
00:57:34la bonne nouvelle,
00:57:36et c'est pour ça
00:57:36que ce qu'on fait en Finlande,
00:57:37ça ne sert peut-être
00:57:38à peu près à rien
00:57:39aujourd'hui,
00:57:40c'est que la bonne nouvelle,
00:57:41c'est que ces nouveaux outils,
00:57:42les outils d'IA génératifs
00:57:43en l'occurrence,
00:57:45la prise en main,
00:57:45l'apprentissage
00:57:46est égale à peu près
00:57:47à zéro.
00:57:48On a vu ça justement
00:57:49en janvier, février 2023
00:57:51quand 100 millions d'utilisateurs
00:57:52ont pris le truc en main
00:57:53parce que c'était
00:57:54du langage naturel.
00:57:56Je n'ai strictement
00:57:56plus rien à faire.
00:57:58Je n'ai plus rien à apprendre.
00:57:59J'ai juste à parler.
00:58:01J'ai juste à discuter.
00:58:02C'est conversationnel,
00:58:03comme l'a dit
00:58:04la présidente tout à l'heure.
00:58:05Donc,
00:58:06l'apprentissage
00:58:07de l'outil lui-même
00:58:08est très très faible.
00:58:09Alors,
00:58:09ça dépend des outils.
00:58:10Il y a des outils
00:58:11qui sont un peu plus compliqués.
00:58:12Donc là,
00:58:12évidemment,
00:58:13il ne va pas faire
00:58:14de l'apprentissage.
00:58:14C'est l'apprentissage
00:58:15des tâches
00:58:16qu'on va avoir
00:58:16à l'intérieur de ces métiers.
00:58:18Mais,
00:58:19ce n'est pas la peine
00:58:20de devenir tous informaticiens.
00:58:22Ça serait une bêtise énorme.
00:58:24Ça ne sert à rien
00:58:24d'apprendre
00:58:25des langages informatiques.
00:58:26Un langage informatique,
00:58:27moi,
00:58:27j'en en reprends un
00:58:28en une demi-journée.
00:58:29D'accord ?
00:58:29Ça ne sert à rien.
00:58:31OK ?
00:58:32Ça ne sert strictement à rien.
00:58:34Par contre,
00:58:35apprendre les métiers,
00:58:36les compétences,
00:58:38il ne faut surtout pas les perdre.
00:58:39Et c'est le danger
00:58:40qu'on a aujourd'hui
00:58:41avec les nouvelles générations
00:58:42qui disent
00:58:42« Oh non,
00:58:43j'ai plus besoin
00:58:44d'apprendre l'informatique
00:58:45parce que ça code tout seul,
00:58:47le truc. »
00:58:47Ça ne code pas tout seul.
00:58:49C'est-à-dire,
00:58:49le truc,
00:58:50il va pondre du code.
00:58:51Mais si je ne le corrige pas
00:58:52avec mes compétences,
00:58:54ça va être du caca.
00:58:56D'accord ?
00:58:56Donc,
00:58:57faisons attention
00:58:58de ne surtout pas perdre
00:58:59nos compétences.
00:59:01Merci.
00:59:02Alors,
00:59:02nouvelle série de questions
00:59:03avec Yannick Jadot.
00:59:06Merci,
00:59:06Madame la Présidente.
00:59:07Merci,
00:59:07Monsieur.
00:59:10Tout votre exposé,
00:59:11c'est quand même
00:59:11de nous expliquer
00:59:12que finalement,
00:59:14il n'y a pas
00:59:15à ce point
00:59:16de révolution technologique
00:59:18et qu'au fond,
00:59:19un outil
00:59:20est neutre politiquement.
00:59:22Et ça dépend
00:59:23de ce qu'on en fait.
00:59:23est-ce qu'on n'est
00:59:25quand même
00:59:25pas rentré
00:59:26aujourd'hui
00:59:27dans quelque chose
00:59:29qui démocratiquement
00:59:31pose énormément,
00:59:34énormément de questions.
00:59:36Cette recherche,
00:59:37ce développement
00:59:37d'outils,
00:59:38il est aujourd'hui
00:59:39parfois soutenu
00:59:41par de l'argent public,
00:59:42mais il est quasi
00:59:42exclusivement privé.
00:59:45Et que
00:59:45celles et ceux
00:59:46qui ont pris en main
00:59:48une partie
00:59:49de cette économie
00:59:50ont une pensée politique.
00:59:53Je veux dire
00:59:53que
00:59:54beaucoup
00:59:55dans la Silicon Valley
00:59:57et soutenu
00:59:58Donald Trump
00:59:58n'est quand même
00:59:59pas neutre
01:00:00technologiquement
01:00:01et évidemment
01:00:01pas démocratiquement.
01:00:03Qui est derrière
01:00:04ces technologies
01:00:05aussi
01:00:05des appétits
01:00:07libertariens
01:00:08au sens
01:00:09y compris
01:00:10de la suppression
01:00:10de l'État
01:00:11et de toute forme
01:00:11de régulation
01:00:12n'est pas neutre.
01:00:14Quand
01:00:14l'intelligence artificielle
01:00:16permet
01:00:17au-delà
01:00:18de tout
01:00:18ce qui a été fait
01:00:19avant
01:00:19de collecter
01:00:20les émotions
01:00:21de collecter
01:00:22les intimités
01:00:23et d'essayer
01:00:24de dicter
01:00:25des comportements
01:00:25ça percute
01:00:27ça ne perturbe pas
01:00:29ça percute
01:00:30complètement
01:00:30nos fonctionnements
01:00:31démocratiques
01:00:32et
01:00:32alors peut-être
01:00:33que
01:00:34les initiatives
01:00:35de Breton
01:00:35ne sont pas
01:00:36les meilleures
01:00:37mais vous voyez bien
01:00:38que notre
01:00:38temps démocratique
01:00:40il est aujourd'hui
01:00:42déconnecté
01:00:44du temps
01:00:44de vos inventions.
01:00:46Nous
01:00:46il faut quand même
01:00:47que dans la société
01:00:48il y a un débat éclairé
01:00:49que les gens
01:00:49puissent s'en emparer
01:00:50qu'ils puissent délibérer
01:00:51qu'ils puissent voter
01:00:53qu'on puisse mettre
01:00:53en oeuvre
01:00:54et vous avez inventé
01:00:55la génération suivante
01:00:56avant qu'on ait mis ça
01:00:58en place.
01:00:59Donc ce que je veux dire
01:00:59c'est que
01:01:00l'absence aujourd'hui
01:01:02d'une régulation
01:01:03très puissante
01:01:05et d'une capacité
01:01:07à porter ce débat
01:01:10au-delà
01:01:10du techno-solutionnisme
01:01:12on a fait 100 milliards
01:01:14sur les data centers
01:01:15ça y est
01:01:15on est dans le jeu
01:01:16ça pose pas
01:01:18les vrais sujets.
01:01:20Et c'est quoi la question
01:01:21alors ?
01:01:22Est-ce que
01:01:23vous nous avez
01:01:24beaucoup parlé
01:01:25au fond
01:01:25d'une forme
01:01:26de neutralité
01:01:27technologique
01:01:27je pense que
01:01:29cette technologie-là
01:01:30n'est plus
01:01:31du tout neutre
01:01:32politiquement
01:01:33et percute
01:01:34nos démocraties.
01:01:35D'accord.
01:01:35Allez,
01:01:36Amel Gacker.
01:01:37Merci Madame la Présidente.
01:01:38Alors très rapidement
01:01:39j'aimerais dire
01:01:39synthétiquement
01:01:40que ça fait du bien
01:01:41d'entendre
01:01:42votre approche
01:01:43en fait de l'IA
01:01:43qui est ni dithyrambique
01:01:45ni alarmante
01:01:46mais qui remet les choses
01:01:47à leur place
01:01:47l'humain
01:01:48et l'outil
01:01:49et la nécessité
01:01:50pour l'humain
01:01:50de garder la main
01:01:51justement sur l'outil
01:01:52et vous avez parlé
01:01:54de l'usage
01:01:54et c'est de ça
01:01:54dont je vais vous parler
01:01:55j'aimerais vous entendre
01:01:57en fait sur l'usage
01:01:58massif
01:01:58on en a un petit peu parlé
01:01:59mais je voudrais vous entendre
01:02:01un peu plus précisément
01:02:02de chatbot
01:02:03on a parlé de chat GPT
01:02:05on peut aussi parler du chat
01:02:06on a quand même
01:02:06vous l'avez dit
01:02:07certaines excellences françaises
01:02:09il faut les mettre en avant
01:02:10on sait aujourd'hui
01:02:11qu'un quart de nos ados
01:02:13utilisent ces chatbots
01:02:14pour faire leur devoir
01:02:15et moi je me questionne
01:02:16très fortement
01:02:17et je m'inquiète
01:02:18aujourd'hui
01:02:19sur l'impact
01:02:20qu'a cet usage
01:02:21pas que sur les jeunes
01:02:22d'ailleurs
01:02:22on le voit
01:02:23dans nos administrations
01:02:24entre autres
01:02:25sur l'usage
01:02:26de ces chatbots
01:02:27et sur l'impact
01:02:28que ça a
01:02:29sur l'esprit critique
01:02:30de nos enfants
01:02:31de leur capacité
01:02:32d'apprentissage
01:02:33leur volonté
01:02:33d'apprentissage
01:02:34et j'aimerais en fait
01:02:35pointer du doigt
01:02:36et vous entendre
01:02:37sur aujourd'hui
01:02:38les risques
01:02:38que ça peut avoir
01:02:39sur l'intelligence humaine
01:02:41sur nos démocraties
01:02:42on parlait
01:02:43de l'aspect démocratique
01:02:44et donc
01:02:45vers quoi aller
01:02:46merci
01:02:48merci
01:02:48et dernière série de questions
01:02:50pour l'instant
01:02:51Anne-Catherine Loisier
01:02:52merci madame la présidente
01:02:53merci beaucoup monsieur
01:02:54moi je voudrais revenir
01:02:56effectivement sur
01:02:57l'outil IA
01:02:58et avoir
01:03:00votre vision
01:03:01est-ce que
01:03:02pour le coup
01:03:02vous pensez que
01:03:03l'économie
01:03:04l'appareil industriel
01:03:05français et européen
01:03:06s'est emparé
01:03:08de cet outil
01:03:10pour en faire
01:03:10un élément
01:03:12de compétitivité
01:03:13est-ce que vous pensez
01:03:14que l'industrie automobile
01:03:15est plus globalement
01:03:17dans notre volonté
01:03:17de réindustrialisation
01:03:19l'IA
01:03:20est bien optimisée
01:03:22ensuite
01:03:23juste une remarque
01:03:23pour vous dire
01:03:24mais si vous n'êtes pas informé
01:03:25c'est que nous travaillons
01:03:27quand même aujourd'hui
01:03:27sur des législations
01:03:28par rapport à la chaleur fatale
01:03:29par rapport à l'usage
01:03:30de l'eau
01:03:31dans les data centers
01:03:32alors c'est pas parfait
01:03:33mais en tout cas
01:03:33c'est bien dans l'optique
01:03:36de permettre
01:03:37des économies circulaires
01:03:39en fait
01:03:40et dernier point
01:03:42moi je me suis plutôt
01:03:44arrêtée sur votre réflexion
01:03:44sur le quantique
01:03:45finalement
01:03:47est-ce que
01:03:48nous sommes
01:03:49suffisamment engagés
01:03:51sur ces aspects
01:03:53est-ce que nous avons
01:03:54là aussi
01:03:55une plus-value
01:03:56française
01:03:56sur le quantique
01:03:58et est-ce que
01:03:59ce n'est pas là
01:04:00un point
01:04:01sur lequel
01:04:01nous devrions
01:04:02peut-être
01:04:02renforcer notre intérêt
01:04:04merci
01:04:04tout retenu
01:04:05c'est bon
01:04:06je les ai tous
01:04:07monsieur Jadot
01:04:08vous avez raison
01:04:10les IA d'aujourd'hui
01:04:13sont des IA
01:04:14de la côte ouest
01:04:15sont des IA
01:04:16qui pensent
01:04:17comme les gens
01:04:18de la côte ouest
01:04:19sont des IA
01:04:20qui sont politiquement
01:04:21driven
01:04:23drivés
01:04:24par les gens
01:04:25de la côte ouest
01:04:25et par des gens
01:04:26qui sont
01:04:27les Sandman
01:04:28les Elon Musk
01:04:29des gens qui sont
01:04:30absolument pas respectables
01:04:31d'un point de vue
01:04:32purement politique
01:04:33de mon point de vue
01:04:35d'accord
01:04:35donc c'est pour ça
01:04:37qu'en fait
01:04:37je milite
01:04:39depuis longtemps
01:04:40maintenant
01:04:40pour le biais
01:04:42parce que ces IA
01:04:43sont biaisées
01:04:44déjà aujourd'hui
01:04:45elles sont biaisées
01:04:46donc parce que
01:04:4670% du net
01:04:47est américain
01:04:49et donc ces IA
01:04:50penchent
01:04:51du côté
01:04:52de la côte ouest
01:04:52d'accord
01:04:53et donc effectivement
01:04:54aujourd'hui
01:04:54si vous demandez
01:04:55à une IA
01:04:56quelle qu'elle soit
01:04:56Gemini
01:04:57Tchad GPT
01:04:59etc
01:04:59vous demandez
01:05:00aujourd'hui
01:05:00qui a inventé
01:05:01l'aviation
01:05:02qu'est-ce qu'elle va
01:05:03vous répondre
01:05:04elle va vous répondre
01:05:05que c'est les Frelwright
01:05:06en 1903
01:05:07dans cette assemblée
01:05:09ici
01:05:09on sait
01:05:10tous
01:05:11que c'est Clément
01:05:12Adair
01:05:1213 ans avant
01:05:13en 1890
01:05:14malheureusement
01:05:16c'est pas du tout
01:05:18ce que ces IA répondent
01:05:19parce que ces IA répondent
01:05:20comme un petit écolier
01:05:21américain
01:05:22de la côte ouest
01:05:23d'accord
01:05:24et effectivement
01:05:24il y a certainement
01:05:25des biais
01:05:27des biais
01:05:27qui sont sous-jacents
01:05:29à ces IA
01:05:30et qui sont
01:05:31qui vont aller
01:05:32percuter
01:05:33comme vous dites
01:05:34les idées reçues
01:05:37de certains
01:05:37et qui vont
01:05:38donc alimenter
01:05:40une élection
01:05:41de Trump
01:05:42par exemple
01:05:43à la présidence
01:05:45Grock
01:05:46qui est l'IA
01:05:48de Elon Musk
01:05:49est une aberration
01:05:51complotiste
01:05:52d'accord
01:05:53dans laquelle
01:05:54que vous lui posez
01:05:55des questions
01:05:56non seulement
01:05:56il est là
01:05:57pour vous faire plaisir
01:05:57et pour vous répondre
01:05:58à vos questions
01:05:59et donc plus c'est
01:05:59complotiste
01:06:00plus il va reprendre
01:06:01les trucs
01:06:01parce que
01:06:01la base donnée
01:06:02de Grock
01:06:03c'est la meilleure
01:06:04base donnée
01:06:05du monde
01:06:05c'est X
01:06:06c'est Twitter
01:06:07donc effectivement
01:06:08c'est des aberrations
01:06:09totales
01:06:10c'est n'importe quoi
01:06:11mais bon
01:06:11c'est le choix
01:06:12de Musk
01:06:13parce que
01:06:14justement
01:06:14il a un agenda
01:06:15politique
01:06:16donc vous avez raison
01:06:17c'est aujourd'hui
01:06:18un problème
01:06:19et c'est pour ça
01:06:20que je milite
01:06:21pour le biais
01:06:22ça veut dire quoi
01:06:23que je milite
01:06:23pour le biais
01:06:24je veux dire
01:06:25qu'il faut assumer
01:06:25le biais
01:06:26on ne peut pas
01:06:26débiaiser
01:06:27ces IA
01:06:27il y a les data
01:06:29salentis
01:06:29qui disent
01:06:30idéalement
01:06:31il faudrait
01:06:31que les data
01:06:32ne soient pas biaisées
01:06:33et qu'on ait
01:06:33un truc
01:06:34qui soit
01:06:35comment une
01:06:37quelque chose
01:06:40qui soit
01:06:40commun à tout le monde
01:06:42et qu'on soit tous
01:06:43d'accord
01:06:43ça n'existe pas
01:06:45ça
01:06:45d'accord
01:06:45et donc moi
01:06:46je veux créer
01:06:47des IA biaisées
01:06:49françaises
01:06:51européennes
01:06:52africaines
01:06:53singapouriennes
01:06:54qui vont donner
01:06:55les réponses
01:06:56biaisées
01:06:56de ce que donnerait
01:06:58un petit français
01:06:59à l'école
01:07:00ce que donnerait
01:07:00un petit africain
01:07:01aujourd'hui
01:07:02l'Afrique
01:07:02n'existe plus
01:07:03dans le net
01:07:04elle n'existe pas
01:07:06l'Afrique
01:07:06elle est culture
01:07:07pas écrite
01:07:08mais culture orale
01:07:09n'existe pas
01:07:10dans le net
01:07:10et donc du coup
01:07:12les IA
01:07:13qui sont basés
01:07:14là dessus
01:07:14il n'y a pas
01:07:15d'IA africaine
01:07:16n'existe pas
01:07:16d'accord
01:07:17IA française
01:07:18on a le chat
01:07:19effectivement
01:07:20mais le chat
01:07:21même des fois
01:07:22répond
01:07:23les frais
01:07:23right
01:07:24d'accord
01:07:25pourquoi
01:07:25parce qu'on sait
01:07:27que ça commence
01:07:28à pencher
01:07:28un tout petit peu
01:07:29sur la côte ouest
01:07:30étonné que maintenant
01:07:31c'est Microsoft
01:07:32qui a
01:07:33la main
01:07:35sur le chat
01:07:36bref
01:07:37donc
01:07:37vous avez raison
01:07:38c'est un problème
01:07:39vous avez raison aussi
01:07:40sur le fait
01:07:41qu'il faut
01:07:41réguler
01:07:42tout ça
01:07:43comme je l'ai dit
01:07:44tout à l'heure
01:07:44je suis pro-régulation
01:07:46d'accord
01:07:46mais je suis pro-régulation
01:07:48comme vous l'avez dit
01:07:49après qu'il y ait eu
01:07:50débat
01:07:50pas avant
01:07:51le problème
01:07:52de votre ami breton
01:07:54et vos amis
01:07:55à Bruxelles
01:07:56c'est que
01:07:57eh ben
01:07:58ils ont pris
01:07:59des décisions
01:07:59bah ouais
01:08:01j'y sais plus rien
01:08:01vous y étiez
01:08:03donc
01:08:03c'est comme ça
01:08:07donc
01:08:07le problème
01:08:09c'est que
01:08:09ces décisions
01:08:10ont été prises
01:08:10a priori
01:08:11avec des a priori
01:08:13justement
01:08:13qui sont pour moi
01:08:14pas les bons
01:08:15d'accord
01:08:16donc c'est un gros problème
01:08:17et je suis pour le débat
01:08:18démocratique
01:08:19et je pense
01:08:19qu'on devrait avoir
01:08:20ce qu'on appelle
01:08:21le grassroots
01:08:22chez nous là-bas
01:08:23où c'est les gens
01:08:24qui une fois
01:08:25qu'ils utilisent
01:08:25les machins
01:08:26disent ça
01:08:27éthiquement
01:08:28c'est pas ce que je veux
01:08:29il y a un problème
01:08:31et je voudrais
01:08:32que ça soit
01:08:32que la représentation nationale
01:08:34en fait
01:08:35représente vraiment
01:08:36ce que pensent les gens
01:08:37ok
01:08:38il y en a
01:08:51donc c'est des IA
01:08:51super spécialisés
01:08:52d'accord
01:08:53donc dans des domaines
01:08:54comme par exemple
01:08:55des journalistes
01:08:57Radio France
01:08:58par exemple
01:08:59a créé
01:09:01une IA
01:09:01locale
01:09:03qui fait du fact-checking
01:09:04d'accord
01:09:04donc c'est plus ou moins bon
01:09:07il n'y a pas
01:09:08c'est pas du 100%
01:09:09encore une fois
01:09:09mais c'est relativement intéressant
01:09:11et j'utilise ça
01:09:12d'accord
01:09:13je trouve que je suis administrateur
01:09:14de Radio France
01:09:15donc je connais un peu
01:09:17vous c'était
01:09:21les jeunes
01:09:22ah oui c'est très intéressant
01:09:23en fait
01:09:23donc moi j'interviens
01:09:26je fais 150 conférences par an
01:09:273 par semaine
01:09:28et j'en fais énormément
01:09:30dans les écoles
01:09:31d'accord
01:09:32j'en fais énormément
01:09:33dans les écoles
01:09:33justement pour
01:09:34faire respirer un peu
01:09:36les enseignants
01:09:37parce que les enseignants
01:09:38ont très peur
01:09:38et ont effectivement
01:09:39la vision de ce que vous avez dit
01:09:41où les gamins
01:09:42les élèves
01:09:43utilisent aujourd'hui
01:09:44les IA
01:09:44pour faire leurs devoirs
01:09:46et ne réfléchissent plus
01:09:47et deviennent des
01:09:48des idiots
01:09:49en fait
01:09:49si vous connaissez tous
01:09:51le film
01:09:52Idiocratie de 2003
01:09:53d'accord
01:09:54c'est un film qui est court
01:09:55donc mais qui est idiot
01:09:56mais qui est court
01:09:56donc c'est la bonne nouvelle
01:09:57mais qui montre quand même
01:09:59qu'on peut créer
01:10:00une société d'idiot
01:10:01avec les technologies
01:10:03où ils ne réfléchissent plus
01:10:05et ils font complètement
01:10:05confiance à ces robots
01:10:07mais on s'aperçoit
01:10:08évidemment
01:10:08qu'il y a une autre caste
01:10:09qui est la caste du dessus
01:10:11qui elle contrôle les robots
01:10:12d'accord
01:10:13et c'est la caste
01:10:14qui vraiment est intelligente
01:10:15donc bon
01:10:17créer des idiots
01:10:18c'est facile
01:10:18et on y arrive
01:10:19aux Etats-Unis
01:10:20on est arrivé
01:10:21on a quand même
01:10:2250% d'idiot
01:10:23qui votent pour Trump
01:10:23donc
01:10:24non mais
01:10:26il faut vous dire des choses
01:10:26c'était par design
01:10:27c'était fait par design
01:10:29c'était fait dans les années 80
01:10:31par Bush numéro 1
01:10:32qui a éliminé
01:10:34tout ce qui était
01:10:35éducation
01:10:36finalement
01:10:36et donc on a créé des idiots
01:10:38pour pouvoir voter Trump
01:10:3930 ans plus tard
01:10:39bref
01:10:40donc
01:10:42j'interviens dans les écoles
01:10:43et j'interviens avec les enseignants
01:10:44et je leur fais faire un exercice
01:10:46l'exercice que je vais vous donner
01:10:47tout de suite
01:10:48non je vais pas vous demander
01:10:50de le faire
01:10:50mais
01:10:51l'exercice que je donne
01:10:53c'est
01:10:54on va dire aux gamins
01:10:56aujourd'hui
01:10:57en classe
01:10:58on va utiliser
01:10:59Tchajipiti
01:10:59super madame
01:11:03on va faire ça
01:11:04ouais ouais c'est bien
01:11:05allez-y les gars
01:11:05donc déjà on va
01:11:06créer le prompt
01:11:07parce que le prompt
01:11:09c'est le truc le plus intéressant
01:11:10et je veux que vous créez un prompt
01:11:11pour me générer
01:11:13la biographie de Victor Hugo
01:11:15en deux pages
01:11:16très bien
01:11:17on réfléchit un peu
01:11:18il n'y a pas à réfléchir beaucoup
01:11:19le prompt il est assez simple
01:11:21génère-moi la biographie de Victor Hugo
01:11:23en deux pages
01:11:24très bien
01:11:25on a réussi à faire ça
01:11:26on tape le machin
01:11:27pouf
01:11:2815 secondes
01:11:29on a la biographie de Victor Hugo
01:11:32en deux pages
01:11:34ouais madame c'est bon
01:11:35c'est fini
01:11:36on va
01:11:37on part en récréation
01:11:38ah non
01:11:39c'est là que ça commence en fait
01:11:41ce qu'on va faire
01:11:42on va faire un truc incroyable
01:11:43on va relire
01:11:44le truc
01:11:46bon déjà il faut savoir
01:11:47donc il faut savoir lire
01:11:49bon bref
01:11:49donc on va relire le truc
01:11:51Victor Hugo
01:11:53est né le 18 mars
01:11:541802
01:11:55à Besançon
01:11:56gna gna gna gna gna
01:11:58ah
01:11:58mince
01:11:59il est né en février
01:12:01on commence mal
01:12:03bon évidemment
01:12:03alors la prof
01:12:04il faut qu'elle connaisse
01:12:05la vie de Victor Hugo
01:12:06d'accord
01:12:07parce que sinon
01:12:08ça va être un peu embêtant
01:12:09donc
01:12:10il faut montrer
01:12:11que le sachant
01:12:12sait
01:12:12d'accord
01:12:13et donc
01:12:14le prof
01:12:15la prof
01:12:16ici
01:12:17est la clé
01:12:18est la référence
01:12:20et elle va le montrer
01:12:21elle va le démontrer
01:12:22elle va démonter
01:12:23Tchadipiti
01:12:25elle va démonter
01:12:26les croyances
01:12:26des élèves
01:12:27parce qu'effectivement
01:12:28statistiquement
01:12:29rappelez-vous
01:12:3064%
01:12:31statistiquement
01:12:32dans les deux pages
01:12:33il va y avoir 5 erreurs
01:12:35d'accord
01:12:365 erreurs
01:12:37et quand on va relire
01:12:38on va trouver
01:12:39les 5 erreurs
01:12:40et ça les gamins
01:12:41au fur et à mesure
01:12:42qu'on trouve les erreurs
01:12:43ils vont dire
01:12:45oh purée
01:12:45mais
01:12:46donc je ne peux pas
01:12:47faire confiance au truc
01:12:48bah non
01:12:49tu ne peux pas faire confiance
01:12:50et il y a un truc
01:12:51qui est super intéressant
01:12:52c'est que tu vas pouvoir
01:12:53faire du fact-checking
01:12:55tu vas pouvoir faire
01:12:58du fact-checking
01:12:59c'est à dire
01:13:00que tu vas pouvoir faire
01:13:01des choses incroyables
01:13:02aller
01:13:02voir
01:13:03l'encytopédie universaliste
01:13:05à une autre source
01:13:06du papier
01:13:07machin
01:13:09et donc ça
01:13:10il y a une prise de conscience
01:13:11d'accord
01:13:12l'esprit critique
01:13:14dont vous parlez
01:13:15commence à être
01:13:16un peu plus
01:13:17exacerbé
01:13:18ou au moins
01:13:19commence à avoir
01:13:21un minimum
01:13:22de
01:13:22de naissance
01:13:23et
01:13:24bah en fait
01:13:26on se retrouve avec
01:13:26encore une fois
01:13:28il faut que le sachant
01:13:28sache
01:13:29d'accord
01:13:30mais si le sachant sait
01:13:31le respect
01:13:33s'établit
01:13:34la
01:13:36le respect
01:13:37de l'outil
01:13:38descend
01:13:39d'accord
01:13:40et on se retrouve
01:13:41avec quelque chose
01:13:42qui est beaucoup plus
01:13:43agréable
01:13:43donc
01:13:43aujourd'hui le problème
01:13:45c'est que
01:13:46on fait pas ça
01:13:46d'accord
01:13:47on fait pas
01:13:48et on baisse les bras
01:13:49et on dit
01:13:50je peux plus rien faire
01:13:51j'ai
01:13:52l'outil
01:13:53en train de me bouffer
01:13:53et les élèves font ça
01:13:55et moi je suis perdu
01:13:56et je sais pas quoi faire
01:13:57bah si t'es perdu
01:13:58réfléchis
01:14:00voilà
01:14:00donc ça c'est la bonne nouvelle
01:14:02et je pense que j'ai répondu
01:14:05à votre question
01:14:05votre question à vous
01:14:08quantique
01:14:10quantique
01:14:11alors l'outil
01:14:13il y a dans l'industrie
01:14:13c'est
01:14:14alors
01:14:14dans les boîtes du CAC 40
01:14:16en 2023-2024
01:14:18en moyenne
01:14:19les boîtes du CAC 40
01:14:21ont
01:14:22fait 170 POC
01:14:24des POC
01:14:25des proof of concept
01:14:27en utilisant
01:14:27les IA génératives
01:14:28en moyenne
01:14:29170 POC
01:14:30par boîte du CAC 40
01:14:31c'est beaucoup de POC
01:14:32d'accord
01:14:33beaucoup de POC
01:14:34on s'est aperçu
01:14:35que ça marchait pas
01:14:36d'accord
01:14:38on s'est aperçu
01:14:38que c'était cher
01:14:39on s'est aperçu
01:14:40que c'était compliqué
01:14:41d'accord
01:14:42sur les 170 POC
01:14:44en moyenne
01:14:44il y en a 10
01:14:45qui ont été implémentés
01:14:47ce qui est pas mal
01:14:48finalement
01:14:49d'accord
01:14:49ça fait 5%
01:14:50c'est
01:14:51pourquoi pas
01:14:52donc c'est pas trop mal
01:14:545% dans l'innovation
01:14:56c'est bon
01:14:57donc
01:14:58mais 10 implémentés
01:14:59ça veut dire
01:15:00qu'il y a eu des choses
01:15:01qui se sont implémentées
01:15:01vous savez
01:15:02ça suit exactement
01:15:03ces IA
01:15:04vous connaissez tous
01:15:05la courbe de Gardner
01:15:06d'accord
01:15:07la courbe de Gardner
01:15:07de Hype
01:15:08donc vous avez
01:15:09des technologies
01:15:10qui commencent
01:15:11ici à gauche
01:15:12elles montent
01:15:13on est dans le Hype
01:15:14donc ça c'était
01:15:14janvier-février 2023
01:15:15on était dans le Hype
01:15:16total avec les IA génératives
01:15:17et puis on s'aperçoit
01:15:18que c'est de la merde
01:15:19pardon
01:15:19mais on s'aperçoit
01:15:20que c'est pas bon
01:15:21donc il y a ce drop
01:15:22qui est énorme
01:15:23d'accord
01:15:23qu'on a tous constaté
01:15:25parce qu'il y a des erreurs
01:15:25des hallucinations
01:15:26et puis après
01:15:27il y a le rebond
01:15:28et le rebond
01:15:29est une stabilisation
01:15:30pas au niveau du Hype
01:15:31mais une stabilisation
01:15:32et donc l'utilisation
01:15:34dans les industries
01:15:34l'utilisation dans la vie
01:15:35de tous les jours
01:15:36les technologies
01:15:37en général
01:15:37quand elles arrivent
01:15:39à faire tout le cycle
01:15:40ce qui est peu
01:15:41il n'y a pas beaucoup
01:15:42qui arrivent
01:15:43par exemple le Métaverse
01:15:45il est resté coincé
01:15:45quelque part
01:15:46là
01:15:47vous voyez
01:15:47mais bon
01:15:48donc les technologies
01:15:49quand elles arrivent
01:15:49à parcourir toute la courbe
01:15:50en général
01:15:51ça met entre 5 et 10 ans
01:15:52d'accord
01:15:54ce qui est long
01:15:54mais ce qui est normal
01:15:56les IA génératives
01:15:57ce qui est absolument
01:15:58exceptionnel
01:15:59c'est qu'elles ont parcouru
01:16:01toute la courbe
01:16:01avec des applications
01:16:03qui sont arrivées
01:16:03au bout de 18 mois
01:16:04donc c'était absolument
01:16:06exceptionnel
01:16:06et pourquoi ?
01:16:07à cause de ce fameux prompt
01:16:09encore une fois
01:16:09qui nous permet
01:16:10d'avoir une prise
01:16:12de
01:16:12comment de
01:16:15une prise en main
01:16:16de ces IA
01:16:17assez facile
01:16:18donc ça veut dire quoi ?
01:16:19ça veut dire que dans l'industrie
01:16:20en général
01:16:20aujourd'hui
01:16:22dans toutes les industries
01:16:23et celles que je connais
01:16:23en particulier
01:16:24on a implémenté
01:16:25effectivement
01:16:26pas mal de choses
01:16:27dans les usines elles-mêmes
01:16:29pour les cols blancs
01:16:31des outils
01:16:31qui sont par exemple
01:16:32pour les gens
01:16:33qui font les achats
01:16:34on a des outils spécifiques
01:16:35qui sont très très spécifiques
01:16:36encore une fois
01:16:37plus c'est spécifique
01:16:38plus ça marche
01:16:39d'accord ?
01:16:40les 64%
01:16:41dont je parlais tout à l'heure
01:16:41quand on arrive à faire
01:16:43des choses qui sont spécifiques
01:16:44on arrive à du 98%
01:16:4699%
01:16:47de pertinence
01:16:47ça veut pas dire
01:16:48qu'il faut pas relire les trucs
01:16:49ça veut dire juste que
01:16:50les pertinences
01:16:51vont être très très bonnes
01:16:52et vont nous permettre
01:16:53d'avoir un outil
01:16:54dans lequel je vais avoir confiance
01:16:55parce que je vais avoir rajouté
01:16:56mes propres données
01:16:57et à partir du moment
01:16:58où je mets mes propres données
01:16:59je peux avoir confiance
01:17:00donc dans l'industrie
01:17:01donc dans mon industrie à moi
01:17:02on a rajouté ça
01:17:03et aujourd'hui
01:17:04vous avez
01:17:04vous avez tous acheté
01:17:05une Renault 5
01:17:06évidemment au mois de décembre
01:17:07et dans la Renault 5
01:17:09de Renault
01:17:10aujourd'hui
01:17:11il y a
01:17:12de l'IA générative
01:17:13que mon équipe
01:17:14a réussi à mettre
01:17:15en quelques mois seulement
01:17:16et on a
01:17:17cette IA générative
01:17:18qui d'après
01:17:19les derniers chiffres
01:17:20d'utilisation
01:17:21est un hit
01:17:22et donc on est très fiers
01:17:23voilà
01:17:23donc
01:17:24ça c'est pour
01:17:26l'utilisation
01:17:28dans l'industrie
01:17:28en général
01:17:29le quantique
01:17:30alors moi je suis mathématicien
01:17:31je suis pas physicien
01:17:32je comprends rien
01:17:34ok
01:17:35donc il faut être très clair
01:17:37je comprends
01:17:37et j'essaye
01:17:37j'essaye
01:17:38mais je ne comprends
01:17:39strictement que dalle
01:17:40et
01:17:42et c'est embêtant
01:17:44que je comprenne rien
01:17:45parce que bon
01:17:46j'essaye quand même
01:17:47et
01:17:48le problème c'est que
01:17:49les gens
01:17:50qui font du quantique
01:17:51qui sont honnêtes
01:17:51qui font du quantique
01:17:53ils disent
01:17:53on n'en sait rien en fait
01:17:54on sait pas
01:17:55si ça va marcher
01:17:56on sait pas
01:17:57on essaye
01:17:57on fait des trucs
01:17:58il y a deux grandes écoles
01:17:59il y a l'école
01:18:00du moins 273 degrés
01:18:01l'école du moins 273 degrés
01:18:04c'est l'école qui dit
01:18:05on va faire
01:18:05des trucs
01:18:06qui vont stabiliser
01:18:07les atomes
01:18:08au niveau zéro
01:18:09au degré zéro
01:18:11de
01:18:12Fahrenheit
01:18:13et donc
01:18:14moins 273 degrés
01:18:15c'est stable
01:18:16c'est bien
01:18:17mais c'est frais
01:18:18et donc du coup
01:18:20c'est frais
01:18:20ça veut dire quoi
01:18:20ça veut dire
01:18:21qu'il faut énormément
01:18:22d'énergie
01:18:22pour arriver à ces
01:18:24moins 273 degrés
01:18:25et donc cette école là
01:18:26est morte
01:18:27d'accord
01:18:27mais c'est l'école d'IBM
01:18:28c'est l'école de Google
01:18:29c'est l'école des américains
01:18:31mais c'est mort
01:18:32c'est mort
01:18:32mais les américains
01:18:33ils s'en foutent
01:18:34de l'énergie
01:18:34à cause de le bouffon
01:18:36là maintenant
01:18:36qui est là
01:18:36donc ils s'en foutent
01:18:38complètement
01:18:39excusez-moi
01:18:40l'autre bouffon
01:18:40c'était Trump
01:18:41pour être sûr
01:18:45pour mettre une couche
01:18:47pour être sûr
01:18:48donc
01:18:48ça c'est compliqué
01:18:51donc il y a une autre école
01:18:52qui est une école
01:18:53où on fait un peu moins frais
01:18:54d'accord
01:18:55mais le problème
01:18:56du un peu moins frais
01:18:57c'est que la stabilité
01:18:58des atomes
01:18:59n'est pas là
01:18:59et donc du coup
01:19:00on est obligé
01:19:00de stabiliser
01:19:01les atomes
01:19:01entre guillemets
01:19:02avec des mathématiques
01:19:03avec des statistiques
01:19:04et donc du coup
01:19:05ça veut dire quoi ?
01:19:06ça veut dire que nous
01:19:07on revient
01:19:07là
01:19:08et donc on dit
01:19:09ben là on comprend
01:19:10là on comprend
01:19:11mais on comprend aussi
01:19:12que c'est statistique
01:19:13et donc du coup
01:19:15ça va être compliqué
01:19:15et du coup
01:19:17le quantique
01:19:17bon
01:19:18il y a des trucs
01:19:18alors des acteurs français
01:19:19il y en a plein
01:19:20d'accord
01:19:21et on est
01:19:21encore une fois
01:19:22on est bon là
01:19:23on a plein plein de boîtes
01:19:26qui sont très bonnes
01:19:26on n'est pas les pionniers
01:19:27parce que les pionniers
01:19:28étaient les Google
01:19:29et les IBM
01:19:29donc il y a une dizaine
01:19:30d'années maintenant
01:19:31mais ce qu'on fait
01:19:33on est dans cette partie là
01:19:35et ce qu'on fait
01:19:36c'est intéressant
01:19:36mais honnêtement
01:19:39on ne sait pas
01:19:40quand ça va arriver
01:19:41si ça va arriver
01:19:42et de toute façon
01:19:44on ne sait pas non plus
01:19:45ce qu'on va pouvoir faire avec
01:19:46parce qu'une addition
01:19:48en quantique
01:19:49c'est très très très compliqué
01:19:51d'accord
01:19:52mais mathématiques
01:19:53ce n'est pas de la physique
01:19:54alors on va essayer
01:19:56de ne pas vous mettre en retard
01:19:57il reste 4 questions
01:19:58vraiment soyez très concis
01:19:59Bernard Buick
01:20:00concis, concis
01:20:01merci Madame la Présidente
01:20:03rapidement une question
01:20:04donc les voitures connectées
01:20:06collectent une grande
01:20:07quantité de données
01:20:08quelle est votre position
01:20:09sur la propriété
01:20:10de ces données
01:20:11doivent-elles revenir
01:20:12au constructeur
01:20:13à l'utilisateur
01:20:13ou une entité tierce
01:20:15Henri Cabanel
01:20:18oui merci Madame la Présidente
01:20:20merci Monsieur Julien
01:20:21un nom qui nous est commun
01:20:22ici au Sénat
01:20:23merci pour votre
01:20:24façon tripédagogue
01:20:25pour nous expliquer
01:20:27donc l'IA
01:20:28vous l'avez dit
01:20:29l'IA peut être
01:20:31donc le meilleur
01:20:32comme le pire
01:20:33et notre rôle
01:20:35en tant qu'élu
01:20:36c'est d'éviter
01:20:37au maximum le pire
01:20:38voilà
01:20:38vous l'avez dit
01:20:40pour éviter le pire
01:20:42il faut réguler
01:20:43et réguler
01:20:44ça veut dire légiférer
01:20:45et vous avez parlé
01:20:47donc
01:20:47d'un ancien commissaire
01:20:48européen
01:20:49Monsieur Breton
01:20:49qui a essayé de faire
01:20:50mais qui
01:20:51d'après vous
01:20:52n'a pas réussi
01:20:53est-ce que vous pensez
01:20:56que les élus
01:20:57que nous sommes
01:20:58et plus particulièrement
01:21:00les parlementaires
01:21:01que nous sommes
01:21:01nous avons
01:21:03bien compris
01:21:04la transformation
01:21:06culturelle
01:21:07que nous oblige
01:21:09l'IA
01:21:09pour bien légiférer
01:21:11autrement dit
01:21:13est-ce que
01:21:13nous sommes
01:21:14en capacité
01:21:15aujourd'hui
01:21:16ne comprenant pas
01:21:18toujours
01:21:18comme il faut
01:21:19ce que c'est lié
01:21:20même si ici
01:21:21il y a quelques experts
01:21:22mais moi je me considère
01:21:23comme pas l'expert
01:21:24du tout
01:21:24comment peut-on
01:21:26arriver
01:21:27à bien réguler
01:21:28sachant qu'on ne comprend
01:21:30pas toujours
01:21:31tout
01:21:31Daniel Fargeau
01:21:33merci Madame la Présidente
01:21:35Monsieur le Directeur
01:21:36et permettez-moi
01:21:37de vous dire
01:21:37merci Professeur
01:21:39votre clairvoyance
01:21:40cartésienne
01:21:41fait plaisir à entendre
01:21:42vous le savez
01:21:43le Sénat est le représentant
01:21:44des collectivités
01:21:45alors très rapidement
01:21:46vous le savez
01:21:48les services publics
01:21:49doivent s'adresser
01:21:49à tous
01:21:50et s'adapter
01:21:51à tous
01:21:51pensez-vous
01:21:52que l'utilisation
01:21:53de l'IA
01:21:54dans le fonctionnement
01:21:55des services publics
01:21:56à destination
01:21:56des usagers
01:21:58soit en mesure
01:21:59de répondre à cet impératif
01:22:00enfin vous l'avez dit
01:22:02vous avez souligné
01:22:03que générer
01:22:03100 mots
01:22:04sur chat de GPT
01:22:05c'est environ
01:22:063 litres d'eau
01:22:07comment pensez-vous
01:22:08qu'il est possible
01:22:08de concilier
01:22:09l'utilisation
01:22:10de cette technologie
01:22:11sans affaiblir
01:22:12l'ambition collective
01:22:13en matière
01:22:14de transition écologique
01:22:15enfin
01:22:16j'ai demandé
01:22:17à mon nouvel ami
01:22:18chat de GPT
01:22:19j'ai demandé
01:22:20à mon nouvel ami
01:22:20chat de GPT
01:22:21de me donner sa vision
01:22:22sur Luc Julia
01:22:23je la partage
01:22:24merci
01:22:24et Christian Redon
01:22:26Sarrazy
01:22:26oui une dernière question
01:22:28merci Madame la Présidente
01:22:29merci M. Julia
01:22:30pour ces approches
01:22:31assez disruptives
01:22:33et qui font du bien
01:22:34qui peut-être
01:22:35peuvent répondre aussi
01:22:36à la question
01:22:36que posait
01:22:37Henri Cabanel
01:22:38mais moi
01:22:38je voudrais avoir
01:22:39votre avis
01:22:39sur ce qu'on entend
01:22:40parfois
01:22:42pour des chercheurs
01:22:45qui disent
01:22:45que d'ici 100 ans
01:22:47il y a 70
01:22:49à 100%
01:22:50de chances
01:22:50que l'IA
01:22:52entraîne
01:22:52la fin du monde
01:22:53pardon
01:22:55et peut-être
01:22:56dernier point
01:22:57et peut-être
01:23:00dernier point
01:23:00vous nous avez
01:23:01rien dit
01:23:01s'il vous plaît
01:23:03et vous nous avez
01:23:03rien dit
01:23:04sur DeepSync
01:23:04si vous arrivez
01:23:05aussi à nous dire
01:23:05quelque peu
01:23:06alors attendez
01:23:07qui a commencé
01:23:07là
01:23:07alors c'est
01:23:08vous qui avez commencé
01:23:09avec une autonome
01:23:10des données
01:23:11oui
01:23:12collection de données
01:23:13donc à qui ça appartient
01:23:14ça appartient à l'utilisateur
01:23:15l'utilisateur va donner
01:23:16après potentiellement
01:23:17le droit
01:23:18à des services
01:23:20que ce soit
01:23:21les services
01:23:21qui soient
01:23:22proposés par la compagnie
01:23:24de voitures
01:23:25ou d'autres services
01:23:26et ça doit être
01:23:27l'utilisateur
01:23:28qui donne le droit
01:23:29d'utiliser les données
01:23:31à ces services
01:23:32et donc il y a des services
01:23:33qui vont être importants
01:23:34les services qui vont
01:23:35vous permettre
01:23:35d'avoir plus de sécurité
01:23:36etc
01:23:36il y a des services
01:23:37qui vont être moins importants
01:23:39plus de divertissement
01:23:39et on a la possibilité
01:23:41de pas forcément
01:23:42opter pour ça
01:23:43ok
01:23:44c'est vous après
01:23:46le fait même
01:23:48le fait même
01:23:50que je sois là
01:23:50c'est plutôt
01:23:51une bonne nouvelle
01:23:52c'est à dire
01:23:53que vous écoutez
01:23:54vous apprenez
01:23:54et on est là pour ça
01:23:56et bah faites ça
01:23:57avec d'autres que moi
01:23:58d'accord
01:23:58faites ça avec
01:23:59Yann Lequin
01:24:00faites ça avec des gens
01:24:01qui savent
01:24:02qui connaissent les IA
01:24:03faites pas ça
01:24:04avec des gens
01:24:05qui disent n'importe quoi
01:24:06comme Laurent Alexandre
01:24:07ça c'est dit
01:24:10il y avait Daniel Fargeau
01:24:13d'abord
01:24:14c'est bien
01:24:15ouais
01:24:16alors pour
01:24:18oui c'est fait
01:24:19pour Laurent Alexandre
01:24:19ça me fait plaisir
01:24:20ça reste public
01:24:22alors évidemment
01:24:23comme tous les outils
01:24:24évidemment
01:24:25les outils d'IA
01:24:26peuvent aider
01:24:27il faut les orienter
01:24:29correctement
01:24:30la bonne nouvelle
01:24:31c'est que
01:24:31comme
01:24:32ils sont faciles
01:24:33à utiliser
01:24:34par la voix
01:24:34par exemple
01:24:35comme on a dit
01:24:35tout à l'heure
01:24:36par le langage naturel
01:24:37la bonne nouvelle
01:24:38c'est que
01:24:39ça va être
01:24:40beaucoup plus accessible
01:24:41pour beaucoup plus
01:24:42de personnes
01:24:42donc ça va être
01:24:43très intéressant
01:24:44il faut évidemment
01:24:45diriger le truc
01:24:47correctement
01:24:47et être sûr
01:24:48que ça va vous donner
01:24:48des bonnes réponses
01:24:49et que ça parte pas
01:24:50en vrille
01:24:51et que ça vous raconte
01:24:52pas n'importe quoi
01:24:53transition écologique
01:24:56où on en a parlé
01:24:57c'est évident
01:24:58qu'il faut
01:24:59faire attention
01:25:01il faut comprendre
01:25:01et il faut s'éduquer
01:25:03sur ces trucs là
01:25:04la fin du monde
01:25:04la fin du monde
01:25:07question
01:25:07la fin du monde
01:25:08la fin du monde
01:25:09c'est non
01:25:10donc on va se calmer
01:25:11un tout petit peu
01:25:12c'est pas
01:25:13bon déjà
01:25:1470 ans
01:25:15nous on s'en fout
01:25:16mais
01:25:18la réalité
01:25:20peut-être pas
01:25:20vous là-bas
01:25:21mais
01:25:22moi personne
01:25:25je m'en fous
01:25:25mais non
01:25:26ça va pas se passer
01:25:27de toute façon
01:25:28si vous voulez
01:25:28le problème que j'ai
01:25:29avec l'IA
01:25:30qui est présenté
01:25:31dans les médias
01:25:32dans certains médias
01:25:32c'est l'IA
01:25:34que j'appelle
01:25:35de Hollywood
01:25:35et donc l'IA
01:25:36de la science-fiction
01:25:37l'IA de Terminator
01:25:39l'IA de Her
01:25:40il faut arrêter
01:25:40il faut arrêter
01:25:41les conneries
01:25:42d'accord
01:25:42le truc c'est que l'IA
01:25:44les IA
01:25:45comme je dis
01:25:45ce sont des outils
01:25:46des outils particuliers
01:25:47qui vont nous servir
01:25:48à faire des trucs
01:25:49d'accord
01:25:49qui sont potentiellement
01:25:50dangereux
01:25:51on en a parlé
01:25:51déjà
01:25:52mais la fin du monde
01:25:53il faut arrêter
01:25:54comparer l'IA
01:25:56avec le nucléaire
01:25:57par exemple
01:25:58avec la bombe atomique
01:25:59je veux dire
01:26:00là il faut avoir fumé
01:26:00des trucs
01:26:01donc il faut arrêter
01:26:03et finalement
01:26:04DeepSeek
01:26:05alors moi j'appelle
01:26:05DeepSheet
01:26:06je l'appelle DeepSheet
01:26:09parce que
01:26:09parce qu'on sait pas
01:26:11en fait
01:26:11vous avez dit
01:26:12dans votre exposé
01:26:12au départ
01:26:13vous avez dit
01:26:14c'est beaucoup moins cher
01:26:15ça a été fait
01:26:15d'une manière
01:26:16beaucoup plus
01:26:17beaucoup moins cher
01:26:18on n'en sait rien en fait
01:26:19on sait pas exactement
01:26:20ce que monsieur Chi
01:26:21a donné
01:26:22et pas donné
01:26:22d'accord
01:26:23donc on sait pas
01:26:24comment le modèle
01:26:24a été créé
01:26:25on n'en sait rien
01:26:26par contre
01:26:26ce qu'on sait
01:26:27c'est que le modèle
01:26:28à l'utilisation
01:26:29à l'inférence
01:26:30est plus frugal
01:26:31et ça c'est vrai
01:26:32ça on peut le vérifier
01:26:33parce qu'il est open source
01:26:34donc on peut vérifier
01:26:35on vérifie effectivement
01:26:36que c'est malin
01:26:38ce qu'ils ont fait
01:26:38c'est malin
01:26:39et donc j'aurais aimé
01:26:40franchement
01:26:40que ce soit les français
01:26:41qui le fassent
01:26:42d'accord
01:26:42alors encore une fois
01:26:43on sait pas
01:26:44comment ça a été créé
01:26:45mais par contre
01:26:46à l'utilisation
01:26:47c'est malin
01:26:48c'est plus frugal
01:26:49ça aurait dû être français
01:26:51d'accord
01:26:52c'est un peu
01:26:53ce que fait
01:26:54Mistral
01:26:55ont des modèles
01:26:56qui sont des modèles
01:26:57plus frugaux
01:26:57et qui sont malins aussi
01:26:59donc
01:26:59l'histoire du malin
01:27:01comme je vous l'ai dit avant
01:27:03c'est que nous
01:27:04en France
01:27:05on a les capacités
01:27:06d'être malins
01:27:06d'accord
01:27:07voilà
01:27:08et les chinois aussi
01:27:09mais peut-être
01:27:10qu'ils ont copié
01:27:11merci beaucoup
01:27:12on aura tenu le timing
01:27:13c'était passionnant
01:27:14j'étais très heureuse
01:27:15parce que c'est en découvrant
01:27:16une de vos interviews
01:27:17une de vos interviews
01:27:23dans le Figaro
01:27:23où j'ai dit
01:27:24à notre chef de secrétariat
01:27:25je voudrais vraiment
01:27:26qu'on puisse auditionner
01:27:27monsieur Julia
01:27:28et c'est comme ça
01:27:29qu'on s'est mis
01:27:29en relation avec vous
01:27:31et on ne regrette
01:27:32absolument pas
01:27:33d'avoir pu faire
01:27:33cette audition
01:27:34physiquement avec vous
01:27:36et on a bien compris
01:27:37que ce n'est pas
01:27:38la fin du monde
01:27:38et en tout cas
01:27:39qu'on ait les meilleurs
01:27:40et qu'il faut être
01:27:41potentiellement aussi
01:27:42les plus malins
01:27:42merci beaucoup
01:27:43merci
01:27:44voilà pour cette audition
01:27:46au Sénat
01:27:46de Luc Julia
01:27:47le concepteur
01:27:48de l'assistant vocal
01:27:49Siri
01:27:49spécialiste de
01:27:50l'intelligence artificielle
01:27:52et également
01:27:52directeur scientifique
01:27:53pour le groupe Renault
01:27:55c'est la fin de cette émission
01:27:56merci de l'avoir suivie
01:27:57continuez à suivre
01:27:58l'actualité politique
01:27:59et parlementaire
01:27:59sur notre site internet
01:28:00publicsénat.fr
01:28:02je vous souhaite
01:28:02une très bonne suite
01:28:03des programmes
01:28:03sur Public Sénat
01:28:08Sous-titrage Société Radio-Canada
01:28:13Sous-titrage Société Radio-Canada
01:28:14Merci
Recommandations
1:23:14
|
À suivre
1:30:29
51:46
34:24
27:00
26:02
1:43
0:45
0:22