- 13/05/2025
Mardi 13 mai 2025, retrouvez Mehdi Medjaoui (entrepreneur & CEO, Olympe Legal), Charles Martinet (responsable des relations institutionnelles, CesIA), Hervé Le Jouan (Fondateur, Advisory) et Romain Tiberghien (président et cofondateur, Ma boite à Moustique) dans SMART TECH, une émission présentée par Delphine Sabattier.
Catégorie
🗞
NewsTranscription
00:00Bonjour à tous, grand rendez-vous de l'intelligence artificielle de Smartech.
00:11Aujourd'hui à la une de l'émission, on va parler du plongeon dans le grand bain de Meta dans l'IA, évidemment en Union Européenne.
00:19On va aussi s'intéresser à ce projet de CERN européen pour l'IA et puis on va vous partager quelques applications qui nous ont carrément bluffés.
00:27On parlera aussi dans cette édition d'OpenAI avec ce retournement de situation, pourquoi cette structure reste finalement sous le contrôle d'une organisation à but non lucratif.
00:38Mais d'abord, trois questions sur des pièges anti-moustiques connectés et oui c'est la saison qui démarre, on en parle tout de suite dans Smartech.
00:49Ma boîte à moustiques a levé un million d'euros, un peu plus d'un million d'euros d'ailleurs pour accélérer dans la recherche de la lutte contre ces espèces.
00:57Invasives et on en parle avec Romain Tiberguen. Bonjour Romain.
01:02Bonjour Nelly, bonjour, enchanté.
01:05Enchanté, ravi d'être connecté avec vous. Vous êtes le président et le cofondateur de Ma boîte à moustiques, donc entreprise toulousaine.
01:11Vous nous parlez de là-bas, j'imagine, vu votre teint.
01:14Vous concevez donc des pièges à moustiques connectés.
01:16Expliquez-nous comment fonctionne ce dispositif puis surtout ce qu'il a de spécifique et d'efficace.
01:20Oui, alors c'est très simple en fait. Ce qu'on cherche à faire, c'est le principe du biomimétisme.
01:27On cherche à copier un humain. Et alors comment copier un humain ?
01:30Parce qu'on sait que les humains vont être piqués finalement par les moustiques, notamment femelles.
01:34On va chercher à copier finalement notre respiration par une très faible émission de CO2 biosourcée
01:39et à copier également l'odeur de notre peau par un attractif odorant.
01:43Et ainsi, le moustique qui va se retrouver finalement à une dizaine, quinzaine de mètres du piège
01:48va être attiré par le dispositif et ensuite aspiré. C'est une forme d'aspirateur.
01:53La particularité ensuite de nos pièges, c'est vraiment la notion d'intelligence embarquée.
01:57C'est-à-dire que c'est comme une station météo.
01:59Elle a différents capteurs intégrés, ce qui lui permet de s'adapter au cycle de vie du moustique.
02:03Par exemple, il pleut. On sait que le moustique femelle ne va pas voler.
02:08Par contre, il a plu et derrière, il fait chaud.
02:10On sait que les moustiques vont chercher à nous piquer.
02:12Et là, la machine, elle va maximiser l'émission de CO2 biosourcée à ce moment-là
02:16pour attirer un maximum de moustiques et abaisser le niveau de nuisance.
02:19Donc là, nous, on voit quelques images du dispositif.
02:22C'est quand même une boîte assez grande qui peut être à l'extérieur,
02:26donc qui va attirer ces moustiques.
02:28Mais si nous, on est à côté, on peut les attirer aussi.
02:30Comment est-ce qu'on s'assure qu'on ne soit pas tous des pièges, finalement ?
02:36Alors, c'est une très bonne question.
02:38Une des clés, c'est évidemment le conseil associé à l'installation de ces dispositifs.
02:44On ne va pas le mettre juste à côté de nous sur la terrasse,
02:46mais plutôt à 5, 10, 15 mètres de la terrasse, du lieu de vie principal.
02:51Parce qu'en fait, le piège va attirer en effet les moustiques,
02:54comme nous les attirons également.
02:56Ce qui permet, dans l'environnement extérieur dans lequel on vit,
02:58par exemple sur 300, 700 mètres carrés, d'abaisser la nuisance de plus de 70%
03:03dans un rayon d'action après une à deux semaines de mise en œuvre du dispositif.
03:08Alors, j'ai parlé de votre levée de fonds d'un peu plus d'un million d'euros.
03:12Quel est l'objectif pour vous ? Quelle est la suite de l'histoire ?
03:15Alors, notre histoire, elle a démarré avec ce piège assez iconique,
03:19Maguatamoussi, qui ressemble à une jardinière.
03:21Et finalement, aujourd'hui, l'histoire de Maguatamoussi,
03:24ce n'est pas juste un piège.
03:26C'est plusieurs marques.
03:27Donc, on a la marque Maguatamoussi, avec cette marque professionnelle,
03:30avec plusieurs milliers d'installations partout en France.
03:33Et maintenant, on commence également à l'étranger.
03:35Une marque qui s'appelle Weave, qui est plutôt pour le grand public.
03:38Et aujourd'hui, en effet, on continue d'investir assez fortement
03:41pour développer les innovations de rupture de demain,
03:44des innovations d'usage, mais également de rupture.
03:47Et du coup, on investit en effet dans des laboratoires,
03:50dans des capacités de test, mais aussi dans des ruptures d'usage,
03:57donc des brevets associés qui arriveront dans les prochaines années.
04:00Et ça fonctionne en intérieur, dans des appartements ?
04:05Non. Alors, notre principe, c'est avant tout d'abaisser
04:08le niveau de nuisance en extérieur, du coup, en copiant le comportement humain.
04:13Alors, évidemment, si on l'abaisse en extérieur,
04:15on va permettre d'abaisser la nuisance également naturellement à l'intérieur.
04:19Mais les dispositifs type piège à CO2, c'est avant tout, en effet, pour l'extérieur.
04:25Vous vous attaquerez à d'autres espèces invasives ?
04:27Ce n'est pas que les moustiques qui nous embêtent.
04:29Alors, en effet, dans la société, on a des capacités de recherche, de développement.
04:34On a cette dimension de recherche de l'insecte avec l'entomologie,
04:37la capacité de développer des produits, de les fabriquer,
04:40de les industrialiser en France,
04:41et d'amener tout un service de conseil,
04:43puisqu'on a aussi une application associée aux produits.
04:46Et du coup, avec ça, on s'intéresse d'abord aux moustiques,
04:48on se concentre dessus actuellement et pour les deux prochaines années.
04:51Mais ce qui est sûr, c'est qu'avec ce type de dispositif,
04:54on sait qu'on a des problématiques comme le frelon asiatique ou autre,
04:57pour lesquelles on pourrait demain amener des réponses
04:59avec l'expertise qu'on développe dans la société.
05:01Exactement, je pensais à ça pour les jardins.
05:04C'est l'autre espèce qui embête tout le monde en ce moment.
05:07Et une dernière question.
05:09Aujourd'hui, vous êtes une entreprise toulousaine,
05:11vous parlez de technologie française.
05:13Votre premier marché, c'est la France ?
05:15Oui, actuellement, en fait, la société a été créée, c'est assez récent,
05:18en 2021, avec un premier exercice en 2022.
05:21On faisait une centaine de milliers d'euros de chiffre d'affaires.
05:23Aujourd'hui, on a dépassé les 2 millions de chiffres d'affaires,
05:26avec 90% de notre marché qui est en France.
05:29Mais aujourd'hui, on avance pour développer la Suisse.
05:32On est présent en Cameroun, on est présent en Côte d'Ivoire.
05:35Et on se développe également à l'international actuellement.
05:38Merci beaucoup, Romain Thiberguin, d'avoir été avec nous dans Smartech
05:42pour cette ouverture de l'émission.
05:44Je rappelle que vous êtes le président et cofondateur de ma boîte à Moustique.
05:48Nous, on enchaîne avec plaisir.
05:50On enchaîne, nous, avec le grand rendez-vous sur l'intelligence artificielle de Smartech.
05:53Dans le grand rendez-vous de l'IA de Smartech,
06:00aujourd'hui, nous avons Charles Martinet.
06:02Bonjour, Charles.
06:03Je rappelle que vous êtes le responsable des relations institutionnelles
06:06au Centre pour la sécurité de l'IA, le CESIA.
06:09Vous élaborez des recommandations pour la gouvernance internationale et européenne
06:13de l'intelligence artificielle.
06:15Avec vous, Mehdi Mejiaoui.
06:16Bonjour, Mehdi.
06:16Bonjour.
06:17Vous êtes entrepreneur, CEO de Olympe-Legas.
06:20C'est un assistant IA pour les DPO, pour tous ceux qui travaillent
06:23sur la protection des données personnelles dans les entreprises et les organisations.
06:26Et vous êtes également le fondateur de conférences.
06:29Je vous ai rencontré sur la première grande conférence Génération AI
06:34et plus connu parce que plus ancien, Happy Days également à votre actif.
06:40Alors, je voulais vous faire commenter quelques actualités dans l'intelligence artificielle
06:43et notamment parler de méta-AI.
06:45puisque ça y est, c'est vraiment une entrée en force, en puissance de méta sur le marché de l'IA
06:51et notamment en Europe.
06:53À partir du 27 mai, méta va commencer à utiliser les données de ses utilisateurs
06:58de Facebook, d'Instagram pour nourrir son chatbot, son intelligence artificielle
07:03et son grand modèle de langage.
07:06Alors, ça a suscité pas mal d'émoi, je dirais, d'un seul coup.
07:09Les gens se sont dit, mes données personnelles vont être utilisées par l'intelligence artificielle.
07:14J'ai l'impression qu'à chaque fois que Facebook sort quelque chose qui utilise les données,
07:18ça nous met en émoi, les autres font la même chose quand même, il faut le préciser.
07:23Comment est-ce que vous percevez-vous cette arrivée de méta dans l'IA
07:28avec la volonté vraiment d'être une nouvelle puissance parmi les puissances,
07:32au même titre qu'un chat GPT, un Gemini ?
07:34En fait, méta, Marc Zuckerberg s'est cherché, il avait Facebook, il a racheté Instagram,
07:42il a racheté WhatsApp et ensuite il s'est rendu compte que c'était compliqué.
07:46Il a essayé d'aller dans le métavers en rebaptisant la société méta.
07:49Et donc là, il sent que c'est l'IA qui est la grande tendance.
07:53Donc c'est pour ça qu'il met tout sur l'IA.
07:55Puis il a même changé, même de style, il a changé tout de manière de parler, de penser,
07:59ce genre de choses.
08:01Même si ce n'est pas vraiment nouveau, parce qu'il faut quand même rappeler,
08:03dans l'histoire de Facebook, les chatbots, ça fait longtemps que c'est un projet de Marc Zuckerberg
08:08de créer justement des applis dans Facebook pour discuter avec les utilisateurs,
08:13pour leur faire des recommandations de shopping.
08:15Ça fait longtemps que ce projet est là.
08:16En 2014, il avait racheté, je crois, 8.AI, Alexandre Lebrun, qui maintenant travaille chez Meta.
08:20Il avait déjà commencé l'ère des chatbots 2015-2016, mais ça ne marchait pas aussi bien que maintenant.
08:26Aujourd'hui, oui, quand on attend tellement de données,
08:28quand on a une application avec plus de 2 milliards d'utilisateurs,
08:31ben oui, on a envie de faire de l'IA, parce qu'on sait que c'est la donnée
08:34qui va permettre de gagner la bataille.
08:37Et donc là, il essaye, et ça va être intéressant d'en discuter dans un deuxième temps,
08:40mais il essaye de montrer qu'il le fait en respectant les règles,
08:43alors que comme vous le disiez, Open.AI, Meta, Anthropik et tous les autres
08:49ne respectent rien du tout.
08:51Là, ils font semblant.
08:52Vous vous parlez de X aussi, peut-être ?
08:54X et AI, oui.
08:55Là, ils font semblant dans un contexte qui est intéressant,
08:57et on aura l'occasion d'en reparler, mais ça s'est joué, c'était très politique.
09:01Quand vous dites qu'ils ne respectent rien les autres,
09:03enfin, il y a quand même les règles en Europe aujourd'hui
09:05qui imposent de respecter la protection des données personnelles,
09:09est-ce que vous êtes plus inquiet aujourd'hui qu'hier, par exemple ?
09:12Alors, tout à fait.
09:13Ce n'est pas forcément très étonnant de la part de Meta.
09:17Comme le disait Mehdi, ils ont un nombre d'utilisateurs
09:19et une quantité de données absolument énormes qu'ils peuvent utiliser
09:22pour entraîner leur modèle d'IA.
09:24Il faut quand même dire que ça ne s'appliquera pas aux échanges privés
09:28sur les applications de Meta.
09:29Pas sur la messagerie WhatsApp.
09:30Exactement.
09:31Mais ça s'appliquera aux postes qui sont publics
09:35et aux échanges faits par les utilisateurs avec les chatbots IA.
09:38Il y a une possibilité de dire qu'on ne veut pas que ces données
09:42soient utilisées par Meta, mais ce n'est pas un simple réglage à changer.
09:46Il faut envoyer un formulaire.
09:47Donc, ils essaient de mettre en place des mécanismes
09:49qui font que ça sera systématique.
09:52C'est assez inquiétant, de mon point de vue.
09:55Pourquoi ?
09:57De par l'histoire de Meta.
10:00On se souvient du scandale Cambridge Analytica
10:03qui avait mené à des violations massives
10:05de la vie privée de millions d'utilisateurs.
10:07On voit aussi dans le domaine de l'IA cette fois-ci
10:12Meta a lancé son premier modèle open source, l'AMA, en 2023.
10:17Il a fallu attendre deux ans avant de savoir
10:19quels étaient les mécanismes de sécurité mis en place,
10:22comment est-ce qu'ils évaluaient leur modèle.
10:25Et c'est assez inquiétant de ce point de vue-là.
10:28Mehdi, vous partagez cette inquiétude ?
10:30Alors, quand on n'est pas au courant, c'est inquiétant.
10:33Quand on est au courant, c'est normal.
10:34Parce que, si vous voulez, tout le monde fait ça.
10:37Toutes les grandes boîtes de l'IA font ça.
10:39Et c'est aussi une logique de la Silicon Valley qui est
10:41« ask for forgiveness, not for permission ».
10:43Ne demandez pas la permission, vous demanderez pardon.
10:46Une fois que ce sera plus tard, vous négocierez avec les lois.
10:48Et c'est exactement ça.
10:50Il y a Pierre-Carl Langlais, qui est un chercheur et entrepreneur de la société Playas.
10:53Il a montré que, surtout sur le dernier modèle d'image, vous savez, avec les studios Ghibli et tout ça,
11:01aujourd'hui, les modèles s'entraînent sur toutes les données, ne respectent absolument rien.
11:05Par contre, c'est a posteriori qu'on va filtrer.
11:08On va refiltrer.
11:09C'est pour ça qu'il y a des gens qui s'amusent à casser les filtres pour retrouver qu'en fait, ils n'avaient rien à respecter.
11:13Donc en fait, aujourd'hui, on ne respecte pas a priori.
11:15On prend tout et ensuite, on filtre.
11:18Et c'est à peu près ce qu'on peut imaginer sur tout ce qui s'est passé.
11:21Le fait que sur XAI, sur X ou Facebook, les données soient gardées par les entreprises,
11:28les autres ne peuvent pas y accéder.
11:29Donc c'est un actif qui est différenciant.
11:31Mais aujourd'hui, c'est inquiétant, mais quand on ne le savait pas.
11:36Mais quand on le sait, en fait, c'est déjà le cas.
11:38Et je prends juste un...
11:39Et on a des moyens de se protéger ?
11:41Il y a quelques moyens de se protéger, mais vous savez, Montesquieu, la force s'oppose à la force.
11:46Il faut absolument avoir le même niveau de force.
11:49Il y a quelques moyens de se protéger.
11:51Je prends l'exemple, il y a un droit dans le RGPD.
11:53Il ne respecte pas grand-chose, mais celui-là, il le respecte.
11:55Si vous demandez à que vos données soient effacées,
11:57mais il faut faire un mail, une formulaire, ce genre de choses, effacées, je parle,
12:00vous n'apparaîtrez plus dans les résultats, par exemple, d'OpenAI.
12:02Il y a un avocat américain qui s'appelle Jonathan Zitrin.
12:04Si vous tapez son nom, ça fait bugger OpenAI immédiatement
12:07parce qu'ils savent qu'il a demandé à ce que ce n'est pas le cas.
12:10Ou Disney.
12:11Si vous demandez une image faite par Disney, ça bug automatiquement
12:13parce qu'ils savent que Disney va les attaquer immédiatement.
12:16Mais avec RG, vous pouvez demander des images de Tintin ou autre chose.
12:19Ils n'ont pas peur et donc ils y vont.
12:20Donc c'est vraiment la force s'opposer à la force.
12:22Il reste très peu de forces européennes pour s'opposer à tout ça.
12:26Comment on se protège alors chaque individu ?
12:28On refuse absolument tout partage avec ces chatbots finalement ?
12:32On peut refuser mais ça passe aussi par des actions au niveau européen.
12:40On a des cadres de loi qui sont en train d'être mis en place au niveau européen
12:42à la fois sur le copyright mais aussi sur les enjeux d'évaluation,
12:46sur les enjeux d'atténuation des risques
12:48qui peuvent éviter, faire en sorte que le développement soit fait de manière responsable
12:54et protéger les utilisateurs des plus grands risques.
12:57Après, ça reste compliqué.
12:59Là, on parle, Mehdi parle de rapport de force, c'est effectivement l'enjeu.
13:02Et puis ils sont tellement déjà avancés finalement dans cette captation de données personnelles,
13:08pas que personnelles, de données tout court.
13:09De données tout court, exactement.
13:11Donc il y a aussi l'enjeu de créer des concurrents en fait en Europe.
13:15Et on aura l'occasion d'en reparler plus tard dans l'émission
13:16mais c'est le moyen de peser dans le rapport de force.
13:19Oui. Alors moi je voulais juste... Oui, pardon Mehdi ?
13:22Non, je veux juste dire qu'il y a aussi une assez grande forfaiture de l'Europe par rapport à ces sujets.
13:26C'est-à-dire ?
13:27Parce qu'en 2024, Meta a essayé de venir et d'entraîner ses données sur l'IA.
13:31Oui.
13:32Et ils ont dit non, il faut le consentement de l'utilisateur, comme le RGPD, les lois de données.
13:35Au bout d'un an de tractation, lobbying ou ce genre de choses,
13:39on est passé de l'intérêt du consentement à l'intérêt légitime.
13:43C'est une exception en fait qui est prévue dans l'IA Act, c'est ça ?
13:46Alors là c'est même dans le RGPD.
13:49C'est dans le RGPD, c'est de l'intérêt légitime.
13:50C'est-à-dire qu'avant, si je n'ai pas besoin de vos données, mais je vous les demande gentiment,
13:55je dois avoir votre consentement actif, positif, éclairé.
13:58Je dois dire oui.
13:59Et en fait, ils ont négocié avec l'autorité de la CNIL irlandaise pour arriver à un débat
14:04où ils arrivent à dire, maintenant il faut que les gens s'opposent à un intérêt légitime.
14:08J'ai un intérêt légitime à utiliser ces données.
14:09Je veux améliorer l'application.
14:11Pour eux, c'est un intérêt légitime.
14:12Je n'ai pas à leur demander leur consentement l'intérêt légitime.
14:15C'est un peu comme l'intérêt légitime pour un chercheur, pour un grand sujet de recherche.
14:21En fait, ça lui donne une exception au RGPD.
14:25Ce n'est pas tellement une exception, c'est un autre cadre qui a moins de contraintes
14:29et moins de respect de l'utilisateur.
14:31Et juste pour finir, l'autorité de contrôle irlandaise a dit OK pour l'intérêt légitime.
14:36Les CNIL européennes avaient trois mois pour contredire la décision.
14:40La CNIL française, qui est quand même assez forte, avait.
14:43Et puis finalement, ils ont décidé de ne pas opposer, de ne pas y aller.
14:46Et ils ont juste communiqué sur le fait que, attention, il va falloir sortir vos données, faire un opt-out.
14:51Mais donc, si vous voulez, ils accompagnent la décision plutôt que de la challenger.
14:55Parce que Meta est basée en Irlande.
14:57Et en Irlande, l'autorité de contrôle est moins stricte que la CNIL française.
15:01Donc, il y a de la géopolitique derrière.
15:03Absolument.
15:04Bon. Alors, mais juste comme ça, pour savoir.
15:06Ça veut dire que vous, vous allez vous opposer ?
15:09Vous allez utiliser cette case opt-out ?
15:13Moi, oui. Je comprends ce qui se passe.
15:15Donc, à la guerre, je vais voir. Je vais m'opposer.
15:17Mais je fais même partie d'une classe action aux Etats-Unis.
15:20Quand je vivais là-bas, Cambridge Analytica, où Facebook a dit
15:23on va donner 800 millions de dollars de dommages d'intérêt à tous les gens qui font la demande dessus.
15:27Je fais même partie de cette classe action-là.
15:29Je ne suis pas forcément un activiste.
15:30Mais quand je peux, j'évite.
15:32D'accord. Et vous, Charles ?
15:34A priori, oui. A priori, oui.
15:35Si le formulaire, je parviens à le trouver, j'essaierai de le remplir.
15:39Vous allez voir, il y a plein de sites Internet qui détaillent les manipulations.
15:44Alors, je voulais vous lancer sur le projet de CERN européen pour l'intelligence artificielle.
15:47Vous aviez commencé à nous en parler, Charles, lors de votre premier passage.
15:52Rappelez-nous un peu quel est le concept.
15:54Tout à fait. Alors, le CERN, tout d'abord, c'est une initiative, une coopération intergouvernementale
15:59lancée après la Seconde Guerre mondiale pour mener à bien des recherches en physique des particules.
16:04C'est dans le contexte de l'IA.
16:06L'idée, c'est que l'Europe est dépassée par les Etats-Unis, par la Chine, même par le Royaume-Uni.
16:12Et que ce serait une occasion pour elles de se positionner.
16:19Premièrement, la première étape, ce serait pour les gouvernements européens de s'associer
16:23pour investir dans la puissance de calcul en commun.
16:26En ce moment, on a beaucoup d'efforts différents qui sont un peu dispersés.
16:29L'idée, ce serait de réduire cette duplication des efforts pour investir.
16:33En Europe, on a une excellente communauté scientifique.
16:35On a une énergie pas carbone.
16:37On a beaucoup d'avantages qu'on peut utiliser et qu'on peut mettre à profit à travers une initiative
16:43comme un CERN pour l'IA, donc une coopération scientifique intergouvernementale.
16:48Ça, c'est la première étape.
16:49À l'avenir, ce serait aussi intéressant d'accepter d'autres pays dans cette initiative européenne.
16:55L'idée, c'est que...
16:57Extra-européens ?
16:58Exactement. Extra-européens.
16:59Pourquoi ?
17:00L'idée, c'est que la compétition, l'environnement stratégique actuel,
17:04il est caractérisé par de grandes puissances dans l'IA, mais aussi de manière générale,
17:08la Chine, les États-Unis.
17:10C'est une dynamique de course.
17:11Ça mène ces pays à éviter, par exemple, de réguler l'IA pour garder leur leadership et leur suprématie.
17:18Le problème, c'est que ça mène à des risques.
17:20On le voit très bien au niveau des entreprises.
17:22OpenAI, qui fait face à beaucoup de concurrences, a réduit la durée de temps qu'elle donnait à des évaluateurs externes pour tester leur modèle.
17:32C'est passé de quelques mois, il y a plusieurs années, à maintenant quelques jours récemment pour leur dernier modèle.
17:37Et cette dynamique, elle s'applique aussi à la compétition entre États.
17:41L'idée, en concentrant la recherche et le développement de l'IA les plus avancées dans un projet international collaboratif,
17:49ça serait d'éviter ce genre de dynamique de compétition, de concurrence extrême,
17:55pour que ce développement soit fait avec des normes de sécurité élevées,
18:00avec la communauté scientifique internationale, et d'éviter les déboires potentiels.
18:08Mehdi, ça vous inspire quoi, cette idée de faire un cerne européen de l'IA ?
18:11L'idée est très intéressante, mais c'est pourquoi on le fait.
18:15Pourquoi on le fait ? Il y aurait de superbes avantages à faire un cerne de l'IA.
18:20Tout d'abord, les chercheurs auraient accès à une capacité de calcul à l'échelle d'un GAFA,
18:24donc ça à l'échelle d'un Google, d'un Amazon ou d'un OpenAI,
18:27donc à peu près 100 000 processeurs, 100 000 cartes dessus.
18:32Aujourd'hui, aucun chercheur n'a accès à ça, hormis dans ces sociétés-là, XAI ou autres.
18:37Ça aurait un avantage aussi de leadership.
18:39Avec tous les chercheurs qui veulent partir des États-Unis,
18:40on aurait enfin une entité de recherche à la pointe,
18:44parce qu'il faut savoir aussi qu'énormément de Thésards aujourd'hui sont pré-embauchés
18:47à Meta, par OpenAI en amont.
18:51Le projet FER, par exemple, que l'Ilecain avait fait à Paris, c'était exactement ça.
18:56Mais donc, ils sont déjà en thèse, ils sont déjà embauchés chez Meta en thèse.
18:58Donc, ça redonnerait un leadership sur la recherche dessus.
19:02Ça aurait d'autres effets positifs, de la coopération, des résultats.
19:07Financer une IA...
19:08Je sens arriver quand même le mai.
19:09Ah oui, oui, il arrive, il arrive.
19:11Financer une recherche aux valeurs européennes,
19:13en contrepartie d'une recherche américaine,
19:15les valeurs, les RGPD, les EIAC seront directement dedans.
19:19L'enjeu, c'est attention, c'est quand même de l'argent public,
19:23c'est de l'argent du contribuable,
19:24qui part déjà des labos de recherche.
19:26Il y a un réseau qui s'appelle ELIS,
19:27de laboratoires de recherche dans l'IA.
19:29Il y en a 40 distribués.
19:31Ça risque de sucer tout cet argent-là
19:33dans une seule entité, très centralisée,
19:35très étatique, multi-étatique.
19:37Donc ça, c'est un premier point.
19:39Et puis, il y a un autre point aussi de gouvernance.
19:43On est quand même dans des...
19:44Il y a l'extrême droite en Europe,
19:45qui est pro-Trump, pro-Musk,
19:48qui a attaqué...
19:50Je ne sais pas si vous avez vu,
19:50Eloquitix, vous savez,
19:51quand ils ont voulu sortir de X...
19:53Créer un outil pour migrer toute sa communauté de Twitter,
19:57X, vers...
19:58Blue Sky ou autre.
19:59...d'autres plateformes décentralisées.
20:01Voilà, ils les ont attaquées assez violemment dessus.
20:04Et puis, attention, le dernier point,
20:08c'est qu'on est aujourd'hui dans l'ère de l'usage de l'IA.
20:10Yann Lequin, Luc Julia et Iliane Souskever,
20:14qui sont des fondateurs de OpenIA ou des grands chercheurs,
20:16ont dit qu'on avait atteint un point dans la recherche,
20:19un point d'arrêt.
20:20On n'a pas de nouveaux concepts scientifiques
20:22qui vont révolutionner l'IA.
20:24Donc aujourd'hui, on est dans l'ère de l'usage,
20:26dans l'ère des applications.
20:26On n'est plus dans l'ère de la recherche fondamentale,
20:28en tout cas pour les 5-6 prochaines années.
20:30C'est l'enjeu des agents de l'usage.
20:33Et donc là, si on fait un cerne de l'IA
20:35pour gagner les 5-6-7 prochaines années,
20:37on a complètement tort.
20:38Si c'est pour gagner les 20-30 prochaines années,
20:41là, c'est le cas.
20:42Mais attention, qu'on ne se trompe pas,
20:43c'est quand même l'argent du contribuable.
20:45Qu'est-ce qu'on est en train de gagner ?
20:46Et surtout, qu'est-ce qu'on est en train de ne pas gagner ?
20:48Et puis comment on s'entend à plusieurs États,
20:50si c'est même au-delà de l'Union européenne ?
20:53Alors, il ne nous reste plus qu'une minute.
20:54Je voulais vous partager,
20:54puisque justement, on est dans cette période de cas d'usage.
20:56C'est le moment où j'avais partagé des petits usages
20:59que vous avez trouvé chouette.
21:00Donc moi, je vous partage le mien.
21:01Moi, j'ai été absolument bluffée par Notebook LM de Google.
21:05Alors, la punchline est quand même tueuse.
21:09Réfléchissez mieux sans réfléchir plus.
21:11Ça, ça m'a un peu inquiétée.
21:12Mais le résultat est sympa.
21:13En fait, on peut lui demander de compiler
21:15des tas d'informations sur un sujet
21:17et de le retranscrire sous forme d'un podcast.
21:19C'est super bien joué.
21:20Ça prend quelques minutes.
21:22Les voix jouent les hésitations humaines.
21:25Enfin voilà, ça m'a beaucoup amusée.
21:27Votre appli ?
21:27Je me permets juste, sur Notebook LM,
21:29ma femme organise un des plus gros festivals de podcast de France
21:31qui s'appelle La Claque à Marseille.
21:33Et c'est le sujet.
21:34Ah ben, ça ne m'étonne pas.
21:35Voilà, donc c'est ça.
21:36Moi, c'est Kinetics.
21:37C'est aujourd'hui, quand vous générez des vidéos,
21:39très souvent, ça fait des mouvements bizarres.
21:42Des gens qui dansent, les modèles ne savent pas faire.
21:44Mais là, si vous vous enregistrez et vous faites un geste,
21:47le personnage qui était dans la vidéo
21:48refait les mêmes gestes que vous
21:49avec une précision assez incroyable.
21:50Et c'est une start-up française, Kinetics.
21:52Kinetics, on les a reçues dans Smartech.
21:55Super.
21:55Et moi, ça sera, moins original,
21:57ce sera d'OpenAI, le dernier modèle O3, donc.
21:59Oui.
22:00Qui est assez intéressant,
22:01donc qui a plein de capacités assez impressionnantes.
22:04Une qui est assez intéressante
22:05et un petit peu inquiétante.
22:07Vous lui donnez une image d'un lieu
22:08que vous avez pris, dans la rue, par exemple.
22:11Et le modèle va analyser les différentes parties de l'image
22:13et vous dire avec une précision assez incroyable
22:16où est-ce que l'image a été prise.
22:17Ah, c'est génial, parce que je connais une application
22:19où on doit, c'est pour rapport à la géographie.
22:21Exactement, géoguisseur.
22:23Comme ça, on peut gagner à ce jeu-là.
22:24Eh bien, super.
22:25Merci beaucoup à tous les deux.
22:26Charles Martinet, je rappelle que vous êtes
22:28responsable des relations institutionnelles
22:29OCSIA et Mehdi Mejiaoui,
22:32le fondateur notamment de Génération AI
22:33et Happy Days.
22:34Merci encore.
22:35Merci.
22:35Merci à vous.
22:36Et pour terminer cette édition,
22:44on invite Hervé Lejouan, advisor.
22:46Bonjour Hervé.
22:47Bonjour Léphine.
22:48Alors aujourd'hui, vous allez nous parler d'Open AI
22:50qui finalement reste sous contrôle
22:52d'une association à but non lucratif.
22:56Alors peut-être que vous pourrez d'abord
22:57nous rappeler la genèse et l'objectif d'Open AI.
22:59Oui, à mon avis, c'est important de le faire.
23:03Donc Open AI, en fait, a été créé en 2015
23:05à l'initiative d'Elon Musk et de Salmatman
23:08qui à l'époque dirigeait l'incubateur Y Combinator
23:12aux Etats-Unis dans la Silicon Valley
23:14qui est un des plus grands incubateurs aux Etats-Unis.
23:18Et Elon Musk, à ce moment-là, a injecté 100 millions de dollars
23:21et cependant, et là c'est là où il y a un cependant,
23:24elle n'a pas été créée sous forme, on va dire,
23:26d'une start-up habituelle qui est une société
23:28mais sous la forme d'une association à but non lucratif
23:31non-profit aux Etats-Unis
23:33dont la mission était de développer en fait
23:36une intelligence artificielle générale.
23:39Donc c'est là qu'on commence à voir le côté LLM,
23:41général, c'est-à-dire capable d'être très autonome
23:44et surtout, et surtout, et c'est pour ça que c'était
23:47à but non lucratif, d'être très sûr
23:50et de bénéficier à l'humanité.
23:54Donc ça, c'était vraiment dans les statuts,
23:55c'était vraiment au bénéfice de l'humanité
23:57et très sûr, très contrôlé.
24:00Donc c'était un très beau et un vaste programme
24:02et cependant, ça n'a pas duré très longtemps
24:04puisque, du moins, ils ont démarré.
24:06Mais en 2018, Elon Musk, il a claqué la porte
24:08à la suite d'un conflit avec Salmatman,
24:11probablement, alors ce n'est pas très clair,
24:12mais probablement justement sur des
24:14nouveaux objectifs de cette intelligence artificielle
24:18et qui était moins alignée finalement
24:21avec les valeurs initiales.
24:22Et suite à cela, Salmatman, il a créé une structure,
24:26là pour le compte, à but lucratif,
24:28en dessous, en fait, de cette association
24:30parce qu'il ne pouvait pas faire autrement.
24:32Et mec était donc toujours contrôlé majoritairement
24:35par ces associations et surtout, dans quel but ?
24:37Dans le but de lever des fonds parce qu'il avait levé
24:39100 millions de dollars, mais il lui fallait, là,
24:40beaucoup plus de fonds.
24:41Et à ce moment-là, c'est là où Microsoft est rentré
24:44en 2019, ils ont investi plus d'un milliard de dollars
24:46en échange d'un partenariat privilégié pour commercialiser.
24:51Et ensuite, ben voilà, on connaît l'histoire.
24:53La première version est sortie en 2022
24:55qui a transformé notre vision de l'intelligence artificielle.
24:59Donc cela, c'était tout beau, tout ça,
25:00mais ça demandait énormément d'investissement.
25:02Et là, à ce moment-là, Microsoft va s'engager
25:04à mettre 10 milliards de dollars,
25:06mais pour finalement avoir une exclusivité
25:08sur la commercialisation avec un partenariat.
25:12Et ce qui a valorisé à ce moment-là,
25:13la société en dessous, toujours pareil,
25:15pas la maison, pas la non-profit,
25:18à 29 milliards de dollars.
25:20Et donc, qu'en est-il de la session
25:22à but non lucratif ?
25:23Eh bien, finalement, elle est restée en contrôle,
25:26mais encore une fois, à un moment donné,
25:28il y a eu des nouveaux objectifs.
25:29Ils ont parlé de superintelligence.
25:31Je ne sais pas si vous vous souvenez,
25:32Salmatman était parti avec cette superintelligence
25:35qui devait surpasser à l'horizon 2030.
25:37toute l'intelligence humaine, globale.
25:41Et là, c'est là où il y a eu des ennuis,
25:43puisque c'est là où, finalement,
25:44le board, son conseil d'administration,
25:46qui était composé de gens très indépendants,
25:48pas du tout business, entre guillemets,
25:50eh bien, ils l'ont licencié.
25:53Et à ce moment-là, ça a été, si vous vous souvenez,
25:56l'épisode recambolaise, où il est parti.
25:58Il est parti un peu chez Microsoft,
25:59qui est une partie des skips qui est partie,
26:00puis finalement, il est revenu.
26:01Tout ça dans un week-end.
26:02Et donc, voilà, il est revenu.
26:05Et là, il a tout changé.
26:06Et il a dit, OK, maintenant, il avait le pouvoir.
26:09Il y avait Microsoft au bord des compagnies.
26:11Et là, il s'est dit, OK, maintenant, je veux...
26:13L'objectif, c'est de monter une structure,
26:15ce qu'ils appellent, en fait,
26:16une structure d'utilité publique,
26:18une société d'utilité publique,
26:19qui, là, permettrait de, finalement,
26:22de récupérer des fonds investis,
26:24mais qui sortait un peu du scope.
26:27Et là, ça, justement,
26:30à la fois, ça l'a aidé
26:31à lever 6 milliards de dollars derrière,
26:33donc, encore une fois,
26:33pour continuer de faire tourner OpenAI,
26:36et en signant un énorme accord avec Microsoft.
26:38Mais cet accord avec Microsoft,
26:40il était assujetti au fait que Microsoft disait,
26:42je vais récupérer 75 % de vos futurs bénéfices
26:44jusqu'au moment où je rembourserai mes 13 milliards.
26:47Parce que Microsoft avait bien compris
26:48qu'il y avait un problème avec cette structure
26:50et que ce n'était pas une société normale.
26:53Il était dans du monde lucratif.
26:54Et ça restait un frein, finalement,
26:55à la récupération des fonds.
26:57Donc, de nombreux mondes, à ce moment-là,
26:59suite à tout ça, ont quitté OpenAI
27:00pour fonder et participer à la fondation d'Entropique.
27:03Donc, là, il y a eu vraiment un éclatement des équipes.
27:06Et surtout, cette annonce, ça a mis le feu aux poudres.
27:09Et Elon Musk, avec ses avocats,
27:11ils ont attaqué Salmatman
27:12sur, justement, le fait qu'il ne pouvait pas transformer
27:15la structure initiale, effectivement,
27:17à but non lucratif,
27:18en une société d'utilité publique.
27:20C'était contraire aux lois.
27:22C'était contraire à tout un tas de choses.
27:23Mais il a poursuivi ça.
27:25Et en poursuivant ça, finalement,
27:28il a été cherché.
27:29Et là, on a vu, après l'élection de Donald Trump,
27:31ils ont parlé de 500 milliards de dollars
27:33d'investissement dans l'IA.
27:36Salmatman était à ses côtés.
27:38Et derrière, il a dit,
27:39moi, je vais lever 40 milliards.
27:41Mais il a levé 40 milliards
27:42auprès, majoritairement, de Softbank,
27:44mais en promettant, justement,
27:46le fait que la structure,
27:47elle allait être, à fin 2025,
27:50à but lucratif,
27:51ce qui devrait être une société d'utilité publique.
27:53Et finalement,
27:54la vérité, c'est comme vous l'avez dit initialement,
27:58il y a quelques jours,
27:59il a annoncé qu'il ne pourrait pas le faire.
28:01Et donc, on se retrouve face,
28:05il se retrouve face à un mur
28:06où finalement, pas seulement à cause du procès d'Elon Musk,
28:10mais aussi d'un contexte
28:12où il a demandé à des leaders civils,
28:14à de nombreux avocats,
28:15à la fois du Delaware et Californie,
28:17s'ils pouvaient le faire,
28:17et lui ont dit,
28:18ça va être trop complexe
28:19et on ne pourra pas y arriver.
28:20Donc, il est revenu en arrière.
28:22Et là, finalement,
28:22il a cette société en dessous,
28:24effectivement,
28:25qui est là pour faire de l'argent,
28:27mais qui reste majoritairement contrôlée
28:29par la société à but non lucratif
28:32et donc qui doit bénéficier,
28:34toujours pareil,
28:35on en revient toujours pareil,
28:36à l'humanité,
28:37avec de la sécurité,
28:38de la sûreté.
28:39Et on verra,
28:40on verra, Hervé,
28:41oui,
28:42quelles sont toutes les implications,
28:43finalement,
28:44de ce revirement de situation,
28:45de ce choix de Sam Altman
28:48de rester sous le contrôle
28:50de cette structure à but non lucratif.
28:52Merci beaucoup, Hervé Lejouan,
28:53d'avoir été avec nous.
28:54Et puis, merci à tous nos téléspectateurs
28:56de nous suivre sur la chaîne
28:57Be Smart for Change.
28:58C'était Smartech,
28:59on se retrouve très vite.
29:01Sous-titrage Société Radio-Canada
29:03Sous-titrage Société Radio-Canada
29:06Sous-titrage Société Radio-Canada
29:08Sous-titrage Société Radio-Canada
Recommandations
28:47
|
À suivre
28:41
28:28
28:04
29:56
28:54
27:49
29:24
5:16
28:38
58:51
28:59
27:57
29:02
28:44
47:18
28:28
28:21
28:00
28:43
42:47
41:46
28:25
28:30
27:36