Passer au playerPasser au contenu principalPasser au pied de page
  • 24/06/2025
Mardi 24 juin 2025, retrouvez Laurent Darmon (directeur de l'innovation, Crédit Agricole), Jean Cattan (Secrétaire général, Conseil National du Numérique), David Lacombled (Président, la Villa numéris) et Patrick Perez (directeur du laboratoire de recherche, Kyutai) dans SMART TECH, une émission présentée par Delphine Sabattier.

Catégorie

🗞
News
Transcription
00:00Bonjour à tous, très heureuse de vous retrouver dans notre nouveau studio.
00:12C'est Smartech qui démarre.
00:13Aujourd'hui, on a un rendez-vous avec l'intelligence artificielle, un grand rendez-vous.
00:16On va parler notamment de cette nouvelle IA vocale révolutionnaire
00:20qui est lancée par le laboratoire de recherche Qtai, laboratoire français, je le rappelle.
00:23On va parler aussi de la mission Café IA ou encore du Conseil National du Numérique
00:29qui devient le Conseil IA et numérique.
00:31Qu'est-ce que ça change ? On va voir ça avec son secrétaire général.
00:35On parlera aussi de Tchadipiti, comment faire autrement, mais avec un prisme nouveau
00:40puisqu'on va s'intéresser à une étude qui nous parle de sa force de persuasion
00:43ou comment les IA génératifs peuvent nous faire changer d'avis.
00:47Dans cette édition, également une chronique sur l'économie numérique
00:51après la grand messe Vivatech.
00:53Mais d'abord, trois questions sur le dataïsme.
00:56C'est tout de suite l'interview.
00:59Bienvenue dans le dataïsme.
01:06C'est un livre écrit par Laurent Darmon, publié aux éditions Rémanence.
01:10Laurent Darmon, docteur en sciences de l'information et de la communication,
01:13directeur de l'innovation du crédit agricole.
01:15Vous êtes le fondateur de la fabrique Bysea, qui est un start-up studio.
01:20Et ce livre, vous le portez à titre tout à fait personnel.
01:23Vous dites la réflexion d'un simple citoyen, enfin quand même,
01:27qui est quand même bien immergé dans ce monde de l'innovation, Laurent.
01:31C'est votre regard sur cette société à l'heure des algorithmes.
01:34Est-ce que vous diriez qu'on est à la fin de quelque chose dans le secteur de l'innovation,
01:39des technologies, la fin de peut-être votre enthousiasme sur l'innovation ?
01:43Bonjour.
01:45Alors, à la fin, au début aussi, à la fin peut-être d'un mouvement
01:50qui nous a porté depuis quand même quelques centaines d'années.
01:54Il y a eu le moment religieux où on croyait une immanence pour expliquer le monde.
01:57Il y a eu le moment humaniste pour nous expliquer le monde grâce à la science.
02:02Et aujourd'hui, il y a une foi dans la data,
02:05qui a commencé quand même à la fin, au tournant du siècle dernier.
02:09Un peu de désillusion peut-être du XXe siècle,
02:13de cette fois qu'on avait, la télévision nous a apporté des images
02:17qui montraient le monde tel qu'il est.
02:19Et puis à côté, la data de plus en plus accessible.
02:22Et tout devient data, l'être humain étant lui-même un être biochimique,
02:26un algorithme biochimique.
02:28La question s'est posée, est-ce qu'on ne peut pas, avec toutes ces données,
02:30faire une optimisation mathématique, statistique ?
02:33Et c'est le monde dans lequel on est aujourd'hui,
02:35de cette efficience par l'optimisation.
02:37D'accord. Mais c'est plutôt quand même un livre technocritique ?
02:41Ou je me trompe ?
02:42Alors, c'est un monde qui prend le monde tel qu'il est, d'abord.
02:45Donc, il ne s'agit pas de dire avec un brin de nostalgie
02:48comment on revient au monde d'avant.
02:50Il ne s'agit pas de rentrer dans un déclinisme.
02:52Il ne s'agit pas d'être technophile
02:54et d'embrasser les amoureux de la tech.
02:57Il s'agit de dire le monde, maintenant, est un monde dataïste.
03:01Et donc, à partir de là...
03:02On est dans le traitement de la donnée.
03:03On est dedans.
03:03Donc, comment on fait société à partir de là et quel monde on veut ?
03:07Et plutôt que de se laisser porter par des grandes tendances,
03:11on a sans doute à dire comment notre société
03:13et les choix politiques qu'on fait viennent dans le monde de la data.
03:18Est-ce qu'il y a toujours une place pour l'humain ?
03:21Il y a toujours une place pour l'humain, déjà, pour définir ce qu'on veut.
03:23Par exemple, la liberté d'expression, définissons-la.
03:26Les règles sur le harcèlement.
03:28On a vu récemment les règles sur la pornographie.
03:30En tout cas, on avait des règles dans le monde physique traditionnel.
03:34Dans ce monde dataïste, comment on les porte ?
03:36Quelles règles soient apportées par les algorithmes qui créent des biais ?
03:40Biais de confirmation, biais avec des bulles cognitives.
03:43Et donc, on a à reprendre notre destin en main.
03:45Et alors, parce que le sous-titre, c'est « Nouvelle économie,
03:48nouvelle politique, nouvelle société ».
03:50Aussi, ce qu'il faut entendre, j'ai l'impression,
03:52c'est que ce n'est pas une simple transposition, en fait,
03:55du monde réel vers le monde virtuel.
03:57On ne va pas simplement transposer l'économie réelle dans l'économie virtuelle.
04:01Il y a de nouvelles donnes, notamment dans le domaine de l'économie.
04:04C'est les GAFAM aujourd'hui, qui sont les maîtres du jeu.
04:08Exactement.
04:08On a deux grands changements.
04:10Un, sur l'économie.
04:11On a eu l'habitude d'avoir une économie décentralisée,
04:14avec, dans le modèle libéral, le fait de dire,
04:16on cherche des optimaux locaux, des optimums locaux par chaque agent.
04:20Et ça doit créer un optimum pour l'ensemble de la société.
04:23Tout ça est remis en cause parce qu'aujourd'hui, la data est centralisatrice.
04:28Et donc, on voit émerger des grands orchestrateurs
04:31qui permettent d'agréger l'ensemble des offres et d'orienter la demande.
04:34Et donc, on va dans un monde plutôt centralisé en économie.
04:38Et on observe dans la société exactement le mouvement inverse.
04:41L'individualisation à outrance.
04:44Et surtout, on avait pour nous orienter des gatekeepers.
04:48Les gatekeepers, c'est ceux qui filtraient l'information pour nous.
04:51Les journalistes, les politiques, les syndicats.
04:54Toutes ces populations un peu éclairées et qui avaient cette capacité de le faire.
04:58Alors maintenant, les gatekeepers, ils sont plutôt dénoncés
05:01au niveau de la Commission européenne.
05:03Ce sont ces grandes plateformes numériques.
05:05Exactement.
05:05On a des plateformes qui jouent un rôle, dit-on, d'hébergeurs,
05:08mais qui, en fait, permettent à cette information de circuler.
05:11La question qui est posée par le débat, c'est
05:13est-ce qu'elle circule vraiment librement ou est-ce qu'elle est orientée ?
05:17Et elle est déjà orientée par le choix économique,
05:20c'est-à-dire une information qui a plus de valeur,
05:22qui aura plus de succès, circule mieux.
05:24Et quelquefois, ce sont plutôt les informations vraisemblables
05:27que les informations véridiques qui circulent plus rapidement.
05:30Alors, vous parlez d'un risque de glisser vers un anti-humanisme radical.
05:34À quoi ça ressemblerait ?
05:36Oui. Alors, à partir du moment où on commence à abandonner la raison
05:39au profit de cette logique algorithmique,
05:41on peut pousser les choses très, très loin.
05:43donner deux exemples d'innovation, entre guillemets, qui émergent aujourd'hui.
05:48On commence à avoir des réseaux sociaux
05:50où, en fait, l'interaction sociale, quand même,
05:53dans le réseau social avec les autres,
05:55est remplacée par des agents qui conversent avec nous.
05:58L'humain est même retiré de nos relations humaines.
06:01Et on voit même des sites de dating
06:03qui, eux-mêmes, organisent, à partir de nos historiques,
06:06quelle est la personne la plus adaptée pour nous.
06:08Donc, on utilise juste cette data
06:10et on commence à enlever de plus en plus l'humain et la raison.
06:13Donc, dans ce livre, vraiment,
06:15on décrypte dans quelle société on vit,
06:19ce qui a radicalement changé.
06:21Mais vous terminez avec l'heure des choix.
06:24Exactement.
06:24C'est là où il faut arriver.
06:26C'est-à-dire, il faut reprendre un peu notre destin en main
06:29pour se dire quelle société on veut.
06:31Et j'évoque, en tirant quelques scénarios de prospective
06:33des futurs possibles,
06:34et c'est par des raisonnements par l'absurde
06:36que j'amène à nous dire
06:37quel est le scénario qu'on veut privilégier.
06:40Merci beaucoup.
06:41Donc, j'invite justement à le lire pour faire les bons choix.
06:44Laurent Darmon, vous êtes l'auteur de
06:46« Bienvenue dans le dataïsme » paru chez Rémanence.
06:49Merci encore.
06:50Nous, on a justement un grand rendez-vous
06:52avec l'intelligence artificielle.
06:56Dans le grand rendez-vous de l'IA de Smartech,
07:00aujourd'hui, je reçois Jean Catan,
07:02secrétaire général du CENUM,
07:03le Conseil national du numérique,
07:04qui vient d'être rebaptisé
07:05Conseil de l'intelligence artificielle et du numérique.
07:08Bienvenue Jean.
07:09Patrick Pérez également avec nous.
07:11Bonjour Patrick.
07:12Bonjour.
07:12Directeur du laboratoire de recherche Qtai.
07:15Eh bien, vous faites l'actualité tous les deux.
07:17C'est pour ça que je vous ai conviés.
07:18On va commencer avec Qtai.
07:20Qtai qui a dévoilé Unmute,
07:22une nouvelle IA vocale.
07:24Je dois dire, assez spectaculaire.
07:25Moi, je me suis amusée avec,
07:27pas plus tard qu'hier,
07:28et j'ai reconnu la voix
07:30d'un des fondateurs du laboratoire.
07:32Donc, évidemment, synthétiser
07:34pour répondre à mes questions.
07:36Ce qui m'intéressait,
07:36c'était de voir comment
07:37cette interaction vocale
07:38était fluide ou non.
07:40La comparaison avec Moshi,
07:41qui est un peu son prédécesseur.
07:42Et d'ailleurs, j'ai demandé à Unmute,
07:44mais quel rapport entre Unmute et Moshi ?
07:46Et la réponse, ça a été que Moshi,
07:48c'était un prototype.
07:50Alors, est-ce que l'IA a bien répondu, Patrick Perrin ?
07:53Oui, alors j'espère qu'elle a dit plus de choses.
07:55Les deux sont des prototypes
07:56qui concernent dans les deux cas
07:59de l'IA vocale,
08:01donc de l'interaction vocale
08:02avec une intelligence artificielle.
08:05Mais c'est deux façons un petit peu différentes
08:06d'explorer un problème,
08:08qui est celui de la fluidité,
08:09de la rapidité,
08:10de la pertinence de l'échange
08:12et du réalisme.
08:15Et en l'occurrence,
08:16Unmute, qu'on a sorti il y a peut-être un mois,
08:20c'est une exploration
08:22d'une technologie modulaire
08:24qui permet,
08:26à partir de n'importe quel chatbot textuel,
08:29de l'équiper,
08:30avec des modules justement qu'on propose
08:32et qu'on va commencer à partager incessamment,
08:36de l'équiper,
08:37donc d'une interface vocale très fluide.
08:39Donc, on peut lui parler
08:40et l'IA répond avec sa voix
08:43et on peut même spécifier sa voix,
08:45etc.
08:46Donc, ça impose des tours de parole
08:48contrairement à Moshi,
08:50mais néanmoins,
08:51on a réussi à descendre la latence
08:52de façon importante,
08:54en dessous de la seconde,
08:55ce qui permet d'avoir quand même...
08:56Parce que pour Moshi,
08:57il n'y avait pas du tout d'interface textuelle.
09:00C'est ça ?
09:01Alors, dans Moshi...
09:02En tout cas, Moshi,
09:03juste pour rappeler
09:04ce qui était spectaculaire,
09:06effectivement,
09:06c'était le temps de latence
09:08pratiquement de zéro.
09:09Et on a même dit,
09:10en fait, Moshi est trop rapide
09:11à répondre à nos questions
09:12parce qu'elle n'attend pas
09:14qu'on ait terminé notre phrase
09:15pour nous répondre.
09:16Là, on n'est pas du tout
09:16dans ce cas-là.
09:17On peut mener une conversation
09:19tout à fait fluide et normale
09:20avec cette IA.
09:22On sent qu'elle prend le temps
09:23d'écouter nos temps de respiration
09:25et de bien s'assurer
09:28et de bien s'assurer
09:28qu'on a terminé notre phrase
09:29et elle enchaîne
09:29tout naturellement.
09:30Alors, qu'est-ce qui change
09:31technologiquement derrière
09:33dans la machine ?
09:34Dans le cas de Moshi,
09:36qu'on a sorti il y a un an,
09:38effectivement,
09:38il n'y a pas de passage explicite
09:40par le texte.
09:41C'est-à-dire,
09:42c'est ce qu'on appelle
09:43des technologies voix-voix.
09:45Donc, ce que dit l'utilisateur,
09:46en particulier,
09:47n'est pas transcrit textuellement.
09:49Donc, ça va plus vite.
09:50Ça permet aussi, justement,
09:52au modèle de pouvoir
09:53interrompre même l'utilisateur
09:56et d'être interrompu.
09:57Là où Unmute fonctionne
10:00par ce qu'on appelle
10:02en cascade,
10:04ce que dit l'utilisateur
10:05est transcrit en texte.
10:06Le texte passe
10:07dans un chatbot textuel
10:08et la réponse de ce chatbot
10:10est synthétisée vocalement.
10:12C'est un modèle finalement
10:12plus classique
10:13qu'on retrouve
10:14chez les autres chatbots.
10:15Alors, absolument plus classique.
10:18Mais ce qui, nous,
10:19nous importe,
10:19c'est que,
10:20les deux briques
10:21d'entrée et de sortie,
10:22c'est nous qui les proposons.
10:23Donc, elles sont en open source
10:24très bientôt.
10:26Elles sont extrêmement rapides
10:28en temps réel.
10:30En particulier,
10:30la partie transcription
10:32est très rapide
10:33et très précise
10:34et très robuste.
10:35La partie synthèse
10:36qui donne sa voix à l'IA,
10:38elle est effectivement
10:39très rapide,
10:40mais elle peut démarrer
10:40avant que le texte soit fini.
10:42La synthèse vocale
10:43démarre avant même
10:45que la partie textuelle
10:46soit finie.
10:47Et ça permet d'avoir
10:47cette rapidité
10:48malgré l'aspect cascadé.
10:49qui donne un effet
10:51temps réel, en fait.
10:52Et la dernière chose,
10:54c'est que
10:54la partie textuelle,
10:56en fait,
10:57on peut la remplacer
10:59vraiment en fonction
11:01des cas d'usage,
11:03etc.
11:03Donc, il y a une partie,
11:04il y a une très grande
11:05modularité,
11:05ce qui permet
11:06beaucoup de versatilité
11:09dans l'application
11:09de la technologie.
11:10Donc, c'est des technologies
11:11complémentaires.
11:11accessoirement,
11:12Unmute aussi hérite
11:14d'un certain nombre
11:15d'avancées technologiques
11:16qu'on a dû développer
11:17pour Moshi.
11:20Comment vous regardez
11:21ces évolutions
11:22des chatbots vocaux ?
11:24Parce que ça transforme
11:25totalement la manière
11:26dont on adresse aujourd'hui
11:28le numérique,
11:29la recherche,
11:29les outils du net.
11:31Oui, avec beaucoup d'intérêt
11:32et notamment du point de vue
11:33des cafés IA aussi.
11:35Quand on organise
11:35ces temps d'échange
11:36entre citoyens
11:37et que, par exemple,
11:38la ministre elle-même
11:39pose la question de savoir
11:40est-ce que vous utilisez
11:42une IA donnée
11:43et qu'on a des retours
11:44dans la pièce
11:45des utilisateurs
11:46ou non
11:46de ces outils-là,
11:47la question du langage,
11:49de la capacité à s'exprimer,
11:50la capacité à corriger
11:51aussi
11:52tout type de problème
11:54d'élocution
11:55ou autre
11:56que l'on pourrait avoir
11:57est vraiment
11:58un des sujets prioritaires
12:00qui ressort.
12:02Et ça,
12:02c'est absolument prodigieux.
12:04Je veux dire,
12:04qu'on pense aux personnes
12:05en situation de handicap
12:06ou aux personnes
12:07qui se sentent
12:08et qui sont dans des situations
12:09de discrimination
12:11pour X motifs
12:12liés à l'expression langagière,
12:14je pense que là,
12:15on est sur quelque chose
12:16de très intéressant
12:17à condition, évidemment,
12:19d'associer ces outils-là
12:20à toutes les exigences
12:22du dialogue,
12:23de aussi la prise en compte
12:24des problèmes
12:25des uns et des autres,
12:26éventuellement des enjeux
12:27qui pourraient en ressortir.
12:28On évoquait la question
12:29de la transcription
12:31de sa propre voix.
12:32C'est vrai que
12:33quand on fait l'exercice,
12:34c'est toujours très perturbant.
12:35Donc vraiment,
12:36il y a là
12:37tout un travail sociétal
12:38à aborder
12:39et c'est un débat
12:40qui dépasse largement
12:41le lire.
12:42C'est finalement
12:43la question de la relation
12:44à la source informationnelle.
12:46Comment est-ce qu'on crée
12:47un écosystème de confiance ?
12:48Ça pose la question
12:49de la responsabilité aussi
12:50de la technologie.
12:52Quand vous êtes à l'origine
12:53comme ça de briques
12:54qui peuvent transformer
12:56complètement la manière
12:57dont on va interagir demain
12:59entre humains
13:00et entre machines et humains
13:01peut-être de manière
13:01totalement indifférenciée,
13:03vous posez cette question
13:04de la manière
13:04dont ces briques technologiques
13:05que vous allez mettre
13:06en open source
13:06vont être utilisées
13:07par qui ?
13:08Bien sûr.
13:09Alors évidemment,
13:11une des beautés
13:12et un des défis
13:14de l'open source,
13:15c'est qu'une fois
13:15qu'il est en open source,
13:16il est accessible
13:17à tout le monde
13:18de façon indifférenciée.
13:21En revanche,
13:23un élément de réponse
13:24parmi d'autres,
13:26quand on ouvre en ligne
13:28des démos
13:29tels que Unmute
13:30ou comme on l'avait fait
13:30avec Moshi,
13:31il y a certains éléments
13:32qui ne sont pas nécessairement
13:34ensuite dans les modèles
13:35qui sont open sourcés
13:36pour des raisons liées à la...
13:39Vous pensez à quoi ?
13:39Ça peut être la voix,
13:41dans le cas de Moshi,
13:43la voix de la démo en ligne
13:45n'est pas celle
13:45qu'il y a dans les modèles
13:46qui sont open sourcés
13:47parce que dans la démo en ligne,
13:49c'est vraiment la voix
13:49de quelqu'un,
13:50d'une artiste
13:51qui a fait le travail
13:51avec nous
13:52et pour la démo.
13:54Et une fois qu'on a
13:55open sourcés,
13:55on a mis d'autres voix
13:56plus synthétiques
13:58pour cette raison-là.
13:59C'est un exemple
14:00parmi d'autres.
14:01Donc, on fait attention.
14:03Ensuite, nous,
14:04on est évidemment intéressés
14:05aussi, comme il a été dit,
14:06à regarder les usages vertueux
14:09ou à impact positif
14:12sur la société
14:13de nos technologies.
14:16Et puis, une dernière chose,
14:17c'est que faire de la pédagogie,
14:19faire de la vulgarisation,
14:20contribue aussi,
14:21je crois,
14:22vraiment très fort
14:23à alerter les gens
14:25et sans doute
14:27à être plus collectivement
14:29en capacité
14:29de réduire
14:30les mauvais usages.
14:31Oui, parce que
14:33moi,
14:33quand j'ai eu cette conversation
14:35hier
14:35avec Unmute,
14:36c'était vraiment
14:37très agréable,
14:39déjà,
14:39comme conversation.
14:40J'ai un peu challengé
14:41sur le français,
14:41d'ailleurs.
14:43Et donc,
14:43Unmute est capable
14:44de très bien s'exprimer
14:45en français,
14:46mais elle n'ose pas le faire
14:47à cause de son accent.
14:48C'est le présent
14:49qu'elle m'a donné.
14:50Et donc,
14:50il y a un moment,
14:51on se dit,
14:52c'est bien parce que
14:53ça m'alerte
14:54sur la capacité
14:55de ces IA demain,
14:57peut-être,
14:58à m'influencer,
14:59peut-être,
15:00à me tromper
15:01sur leur identité.
15:02Et je vous parle de ça
15:03pour faire un lien
15:03avec notre prochain sujet
15:05que je voulais aborder.
15:05c'est une étude
15:07des universitaires
15:08qui ont regardé
15:09comment ChatGPT
15:10pouvait ou non
15:10finalement nous faire
15:12changer d'avis.
15:13Alors,
15:13c'est quand même,
15:14le résultat est assez perturbant.
15:16Je pense que vous l'avez regardé
15:18aussi,
15:18cette étude qui est parue
15:20dans la revue scientifique
15:20Nature.
15:22Donc,
15:22ce sont des enseignants
15:23de l'École politique
15:24et technique fédérale
15:25de Lausanne
15:25et de l'Université
15:26de Princeton
15:27aux États-Unis.
15:28Et en fait,
15:29ils ont fait débattre
15:30900 personnes humaines
15:31avec des IA ou pas,
15:34avec d'autres humains.
15:35Et résultat,
15:36en fait,
15:37le LLM est beaucoup
15:38plus convaincant
15:38qu'un humain
15:39et est capable
15:40de nous faire changer
15:41d'avis assez facilement.
15:43En fait,
15:43il est plus convaincant
15:44que l'humain
15:44dans 64% des cas quand même.
15:46C'est un résultat d'ailleurs,
15:47c'est une étude
15:48très intéressante
15:48parce qu'elle vient
15:49dans la succession
15:50d'une autre étude
15:50qui avait fait
15:51cette même expérience
15:52auprès de personnes
15:53que l'on abordait
15:55dans ce cadre-là.
15:56C'est vraiment le cadre
15:56de la recherche
15:57qui a été fait
15:58de personnes susceptibles
16:00de croire
16:00en ce qu'on identifie
16:01comme des complots.
16:02Et donc là,
16:03on voyait que le LLM
16:04était plus efficace
16:05pour dénouer
16:06les ressorts du complot
16:07perçu comme tel
16:09que l'être humain.
16:11Et donc là,
16:12il y a beaucoup d'enjeux.
16:12En fait,
16:13du coup,
16:13on se pose la question
16:14de savoir
16:14qu'est-ce qu'on met
16:15dans la relation
16:16inter-individuelle.
16:17Déjà,
16:17ça offre
16:18ce questionnement réflexif.
16:20C'est-à-dire qu'en fait,
16:20on se fait moyennement confiance
16:22et qu'on est plus irritant
16:23pour l'autre
16:23qu'une machine.
16:25Déjà,
16:25c'est intéressant à explorer.
16:26Et ensuite,
16:27il y a aussi la question
16:28de savoir
16:28comment est-ce que
16:29l'agent conversationnel
16:30crée aussi
16:31cette bulle de confiance
16:32dans laquelle
16:32on peut se livrer
16:33corps et âme
16:34jusqu'à se dédire
16:35soi-même.
16:36Et ça,
16:36c'est assez intéressant
16:37mais c'est aussi
16:37questionnant
16:39d'un certain point de vue
16:40puisque ça veut dire
16:41que cette relation
16:42de proximité finalement
16:43avec l'agent conversationnel
16:44peut-être nous délie
16:47de cet esprit critique
16:48que l'on pourrait avoir
16:49vis-à-vis de l'autre
16:49justement peut-être
16:50parce qu'il est irritant
16:51et on se dit
16:51tiens,
16:51qu'est-ce qui ne va pas
16:53dans ce qu'il me dit ?
16:54Et que là,
16:54on s'abandonne
16:55un petit peu.
16:56En fait,
16:56on est presque face
16:57à soi-même.
16:58C'est ce sentiment
16:59qui peut naître.
17:00Oui,
17:00on lâche quelque chose.
17:02On lâche quelque chose.
17:03Et alors,
17:03d'un certain côté,
17:04c'est très bien
17:05si on veut poser des questions
17:06que par exemple
17:06un élève n'oserait pas poser
17:07dans une salle de classe.
17:08Ça,
17:08c'est déjà quelque chose
17:09que l'on observait
17:10dans les commentaires
17:10sous les vidéos d'apprentissage
17:12sur YouTube et autres.
17:14C'est l'apprentissage
17:14par la bande
17:15comme le disait
17:16la regrettée Dominique Pasquier.
17:18C'est de se dire
17:18que finalement,
17:19on va peut-être oser
17:20poser des questions
17:21qu'on ne pose pas
17:21dans la salle de classe.
17:22Donc,
17:22il y a ça.
17:23Il y a bien sûr
17:24l'attention qu'il faut porter
17:25à la réponse offerte,
17:26ça c'est évident.
17:27Mais il y a aussi
17:28le fait qu'on lâche
17:29peut-être quelque chose
17:30qui est de l'ordre
17:30de la vigilance,
17:31du contrôle
17:31et finalement
17:32de la construction collective
17:34qui se fait aussi,
17:35il faut l'accepter,
17:36dans la friction,
17:37dans une interaction
17:37un petit peu plus rugueuse.
17:3982% de chances supplémentaires
17:41à parvenir
17:42à nous faire changer
17:43d'avis sur notre point de vue
17:44initial,
17:45sur un thème
17:46à partir du moment
17:47où cette IA
17:48en plus possède
17:49des informations
17:49plus personnelles sur nous,
17:50plus sociales.
17:52Donc,
17:53on voit en fait
17:53la manière aussi
17:54dont ça peut être utilisé
17:55pour la manipulation.
17:57Ça pose aussi
17:58toute la question
17:59des données d'entraînement
18:00et jusqu'où
18:01on entraîne une IA
18:02à développer des arguments,
18:03sur quel type de sujet.
18:05Ça, aujourd'hui,
18:05ce sont des thématiques
18:06que vous abordez
18:07ou pas du tout
18:07parce que vous restez
18:08dans le champ
18:08de la recherche technologique ?
18:10Alors,
18:11pas vraiment,
18:11même si ça m'inspire
18:12évidemment des réflexions.
18:14Alors,
18:15pour avoir regardé
18:16rapidement l'article,
18:18à quel point
18:18l'accès à des informations
18:20personnelles
18:21sur l'utilisateur
18:22augmente les chances
18:23de persuasion.
18:24Moi,
18:25j'ai lu quelque chose
18:25de différent
18:26dans le résumé
18:26qui dit que les résultats
18:28ne sont pas si significatifs
18:29que ça.
18:29En fait,
18:30il s'aperçoit
18:30que même sans
18:31cette personnalisation,
18:32de toute façon,
18:33l'IA est prompt
18:34à nous faire changer d'avis.
18:35Mais disons
18:35qu'elle affine davantage,
18:37elle donne plus en plus
18:38de chances
18:39de persuasion
18:40à son IA
18:41si elle a les infos
18:42sur la personne
18:42à qui elle s'adresse.
18:43En effet,
18:44ce n'est pas surprenant
18:44puisque c'est vrai
18:46dans la relation humaine,
18:47etc.
18:47mais ça vient d'être dit
18:48aussi à nouveau
18:49l'interaction
18:52avec des machines
18:52peut aussi,
18:55quand on sait
18:55que c'est des machines
18:56en particulier,
18:57peut conduire
18:58à une forme
18:58de moindre autocensure,
19:00etc.
19:00Mais avec tout un tas
19:02de cas d'usages
19:02qui sont plutôt bénéfiques.
19:04Celui de l'enseignement
19:06pour certains élèves
19:07ou certaines personnes
19:08qui seraient vraiment bloquées
19:09face à un professeur,
19:11etc.
19:11je pense qu'il peut y avoir
19:13vraiment des vertus.
19:15Une question
19:16qui est vraiment compliquée
19:17avec ces outils,
19:18c'est leur polyvalence.
19:20Un même outil
19:21est utilisé
19:21de façon complètement
19:22transversale
19:23pour toutes sortes d'usages
19:24dont certains
19:26sont parfaitement
19:26bénéfiques
19:29ou vertueux
19:31et d'autres pas du tout.
19:32C'est vrai d'à peu près
19:34tous les modèles
19:35d'IA généralistes,
19:36que ce soit créer des images,
19:37créer du texte,
19:39interagir avec un humain.
19:40Donc, on revient toujours
19:42à ces questions-là.
19:42Mais pour ce qui est des données,
19:44puisque c'était aussi la question,
19:46il faut quand même distinguer
19:46les données
19:47qui sont effectivement utilisées
19:48pour entraîner les IA
19:49et celles auxquelles l'IA
19:51a accès
19:51au moment où elle est utilisée.
19:54Ce qui ne sont pas
19:54tout à fait la même chose.
19:56Je pense que parfois,
19:56il y a une confusion.
19:57Mais effectivement,
19:58si on a plus d'informations
19:59sur la personne,
20:00c'est aussi une façon
20:00d'être plus pertinent,
20:02d'être plus utile
20:04ou plus persuasif.
20:07Alors, c'est vrai
20:08que ce que vous dites,
20:10Patrick, c'est très important.
20:11C'est la question finalement
20:12de l'usage,
20:12le cas d'usage.
20:13Alors, ce Conseil national
20:14de numérique
20:15qui est renommé
20:15en Conseil IA et numérique,
20:17il va s'intéresser
20:18au cas d'usage ?
20:19Oui, je pense en fait
20:20ce qui a été annoncé
20:21est que ce Conseil
20:22travaillerait en groupe
20:23de travail thématique.
20:25Et donc,
20:26on peut parier,
20:28même si je suis assez mauvais
20:29au poker,
20:30que finalement,
20:32cette question
20:32de l'adoption,
20:33de l'appropriation,
20:34que ce soit
20:34dans l'environnement professionnel
20:35ou dans l'environnement sociétal
20:37au sens le plus large,
20:37sera sur la table,
20:39c'est sûr.
20:40Et c'est aussi,
20:40je pense,
20:41cette question
20:42de l'accompagnement
20:43des usages précisément
20:44qui existe d'ores et déjà
20:46qui fait que
20:47l'institution a été
20:48assez logiquement renommée.
20:50Il est très difficile
20:51aujourd'hui
20:51de parler de notre relation
20:52à la technologie
20:53sans parler d'IA.
20:54Et donc,
20:54appelons un char,
20:55un char,
20:56et mettons ce sujet
20:57sur la table.
20:58On a quand même gardé
20:59IA et numérique,
21:00ça veut dire qu'il n'y aura
21:01pas quand même
21:01que de l'IA
21:02dans vos sujets ?
21:03Voilà,
21:03donc il y a toujours
21:04cette question,
21:04évidemment,
21:05l'IA c'est du numérique,
21:06le numérique est imprégné
21:08d'IA aujourd'hui,
21:09c'est justement,
21:09il y a un sens dans tout ça
21:11et un message qui est porté,
21:12c'est de se dire précisément,
21:13comme vous venez de le dire,
21:14que oui,
21:15il y a ces questions
21:16relatives à l'IA
21:17sans pour autant
21:18abandonner
21:18toutes les priorités politiques
21:20qui peuvent exister
21:21au sein de la population.
21:22Et alors justement,
21:22pas de priorité politique
21:23parce que le CENUM
21:24c'est un organe indépendant
21:26du politique,
21:27est-ce que là,
21:28il va y avoir des choses
21:29qui vont changer
21:29du fait d'un rattachement ?
21:31Le rattachement a toujours
21:32été existant,
21:33il est dans le décret
21:34aujourd'hui qui date
21:35de 2017 même
21:36et puis dans les précédentes versions
21:38et c'est un rattachement
21:39à une ministre déléguée
21:41à l'IA et au numérique,
21:42d'où aussi la correspondance
21:43de non,
21:44son fonctionnement
21:45est totalement indépendant,
21:46c'est-à-dire dans l'établissement
21:47de son programme de travail,
21:48dans l'adoption de ses documents
21:49et ce qui sert cette indépendance
21:51c'est aussi le fait,
21:52notamment,
21:52entre mille autres choses,
21:54que les membres
21:54sont complètement bénévoles,
21:56bénévoles mais alors
21:57bénévoles de chez bénévoles,
21:58c'est beaucoup de temps
21:59qui est donné
22:00à ces œuvres collectives
22:01qui sont fournies
22:02dans le cadre du travail
22:03du Conseil national du numérique
22:04aujourd'hui et du SCIENT demain
22:06et donc il y a
22:07toutes les garanties
22:08pour que le travail fourni
22:09soit le reflet
22:10de l'expression libre
22:11et indépendante
22:11de ses membres.
22:13Et vous travaillez ensemble ?
22:14Il y a des connexions
22:15qui se font comme ça
22:16avec l'écosystème,
22:17la recherche
22:18et le conseil ?
22:19Oui,
22:19à Vivatech,
22:21forcément,
22:21on fait la rencontre
22:22des acteurs
22:23et voilà,
22:24nous,
22:24le rôle que l'on a
22:25c'est de garder
22:26un œil très ouvert
22:27et de mettre en partage
22:28tous ces éléments
22:29d'information.
22:30Donc là,
22:31aujourd'hui,
22:32cette semaine,
22:33on lance la lettre
22:34d'information
22:34de Café IA
22:36qui prend la succession
22:37de la lettre d'information
22:38qui existait jusque-là
22:39et qui s'appelait
22:40CENUM
22:40et c'est l'endroit
22:41où justement
22:42on a à cœur
22:43de rapporter
22:43les initiatives
22:44qui existent
22:45dans la société.
22:46Donc nous,
22:46on garde toujours
22:47un œil très ouvert
22:48sur ce qui se fait.
22:49Vivatech,
22:49ça a été un moment
22:50important aussi
22:51pour Qtai ?
22:51Oui,
22:52on a été présents
22:53les trois jours.
22:54On a fait les démos
22:56en live
22:56de Unmute
22:57mais également
22:58de IbiKey
22:58qui est notre modèle
22:59de traduction
23:00en temps réel
23:00sur téléphone portable.
23:03On a montré aussi
23:04Moshi avec des yeux
23:06qui s'appelle
23:06Moshi Viz.
23:07On a rencontré
23:07des gens.
23:08On était sur le stand
23:09de notre partenaire
23:11de Compute
23:13qui est Scaleway.
23:15Non,
23:15c'était un moment fort
23:16et on a fait
23:17pas mal d'interventions
23:19et pas mal de rencontres.
23:20On va continuer
23:21à parler de Vivatech
23:22pour faire un petit retour
23:24en arrière
23:24dans notre séquence
23:25qui suit
23:26sur l'économie numérique.
23:27Merci encore
23:27à tous les deux
23:28Patrick Pérez
23:29de Qtai
23:29et Jean Catan
23:30du Conseil national
23:31du numérique
23:31ou du Conseil IA
23:32et numérique.
23:33Merci.
23:39On termine cette édition
23:42avec David Lacomblette,
23:43le président
23:43de la Villa Numéris.
23:44Bonjour David.
23:45Bonjour Delphine.
23:46On va revenir
23:46sur ce salon
23:47Vivatech,
23:48Vivatechnologie.
23:49Je voulais entendre
23:50un petit peu
23:50le bilan
23:51que vous pouviez en faire.
23:53Vivatech pour les intimes,
23:54effectivement,
23:55c'était la neuvième édition
23:56déjà,
23:57avec un bilan chiffré
23:58communiqué
23:59par les organisateurs
24:00qui a vu
24:0110% de plus
24:02de visiteurs
24:03pour grimper
24:04à 180 000.
24:05Ce sont 14 000 start-up
24:08représentant
24:08plus de 30 secteurs,
24:103 000 investisseurs,
24:12450 intervenants,
24:14171 nationalités
24:15représentées.
24:16N'en jetez plus.
24:18Vivatech s'impose
24:19comme un rendez-vous
24:20incontournable.
24:22Entre salons professionnels,
24:24c'est simple,
24:24vous rencontrez tout le monde.
24:25Il y a aussi
24:26un petit côté foire de Paris
24:28au sens où
24:30elle est belle,
24:30mon innovation,
24:31regardez comme elle est belle.
24:33Avec une intelligence
24:34artificielle,
24:35sans trop de surprises,
24:36superstar,
24:3740% des applications
24:39présentées
24:39concernaient l'IA.
24:41Alors,
24:42il y a eu aussi
24:42la conférence de Jensen Huang,
24:44le patron de NVIDIA,
24:45autre superstar
24:46quand même
24:46de cet événement,
24:48avec l'annonce
24:49d'une alliance
24:51avec Mistral AI,
24:52notre français,
24:53dans une infrastructure
24:53IA qui est annoncée
24:54souveraine,
24:56puissante
24:56et qui devrait
24:57conduire notre champion
24:58à lever la somme record
25:00d'un milliard d'euros.
25:02Alors,
25:02effectivement,
25:03s'il fallait une annonce
25:03majeure
25:04elle est là,
25:05au risque d'occulter
25:07un peu le reste,
25:08je pense en particulier
25:09au dîner qui se tenait
25:10à l'Elysée,
25:11Choose France
25:12and Europe
25:13for Tech,
25:14qui se tenait
25:15au premier soir,
25:16avec Rebelote,
25:18le fameux Jensen Huang,
25:19le patron de NVIDIA,
25:20qui a volé un peu
25:22la vedette,
25:23notamment en comparant
25:24la manière dont on fabrique
25:25du vin
25:26et avec les logiciels,
25:28ce qui est une bonne manière
25:29de flatter ses hôtes,
25:30mais il restait
25:30assez peu de miettes
25:32pour le reste
25:33de la troupe.
25:35Beaucoup d'intervenants
25:36cette année
25:37et de premier rang,
25:38Arthur Mensch,
25:39bien sûr,
25:39le patron de Mistral,
25:41Joe Itze,
25:42celui d'Ali Baba,
25:44Yann Lequin pour Meta,
25:45Sarah Friard pour OpenAI,
25:48Anthropique était également
25:49représentée par Mike Rieger
25:51et Thomas Wolff était là
25:52pour Hugging Face,
25:54il y avait de la qualité
25:55et de la quantité.
25:56Est-ce qu'il y a eu quand même
25:57un peu de place
25:58pour d'autres technologies ?
25:59Bien sûr,
26:00notamment les opérateurs
26:01de cloud français
26:02ont mis à profit
26:03le salon pour faire
26:05des annonces
26:05en matière d'offres souveraines,
26:08je vous rappelle leur nom,
26:09c'est Skylway,
26:10OVH,
26:11Yonos et Nextcloud,
26:13des offres souveraines,
26:14c'est quoi ?
26:15C'est des offres européennes
26:17et ce qui est aussi
26:18une bonne manière
26:18de rassurer leurs clients
26:20qui peuvent craindre
26:21des ruptures de services,
26:22notamment avec les tensions
26:24actuelles avec les Etats-Unis.
26:27Ensuite,
26:27il y avait un côté
26:28un peu atelier de Mr. Q
26:29dans James Bond
26:31avec ce qu'on peut retenir
26:32les fameuses lunettes
26:34Ray-Ban et Meta
26:35qui sont toujours plus efficientes
26:37et qui permettent
26:39de se guider à l'œil,
26:41de traduire
26:41de manière automatique
26:43et avec un véritable engouement.
26:46Ensuite,
26:46parmi des startups
26:47peut-être moins connues,
26:48Sinsora
26:49montrait
26:50qu'il est possible
26:51de capter
26:52les émotions du cerveau
26:53avec un petit X
26:54et qu'il faut quand même
26:54se coller un patch
26:55sur la tête.
26:57Et j'ai retenu également
26:58une société
27:00qui s'appelle
27:00H-E-Rays
27:01qui développe des chaussures
27:03avec GPS intégrée
27:05parfaite pour les non-voyants
27:07puisque vous y associez
27:08des capteurs
27:09et des petits systèmes
27:10de vibration
27:11qui vous remettent
27:12dans le chemin.
27:13Et à mon avis,
27:14ça devrait aussi
27:14pouvoir servir
27:15pour les voyants
27:15qui ont quand même
27:16le nez toujours collé
27:17sur leurs écrans
27:19dans les rues
27:19au risque de nous insupporter
27:21parfois.
27:21Au risque de tomber
27:22par exemple,
27:23je dis ça pour moi.
27:24Les humanoïdes étaient
27:26un peu moins présents
27:27cette année,
27:28mais ne serait-ce
27:28qu'après la liquidation
27:30judiciaire d'Aldébaran,
27:32il n'y avait pas néo
27:33dans toutes les travées
27:35comme cela a été coutume.
27:37Et puis,
27:37il faut bien voir
27:38que les investissements
27:38ont également baissé
27:39pour les humanoïdes.
27:41On peut parler quand même
27:41d'une édition très réussie
27:43de VivaTech 2025.
27:44Oui, bien sûr.
27:44VivaTech s'inscrit
27:45très clairement
27:46dans les grands rendez-vous
27:48de la tech internationale
27:50entre le Consumer Electronics Show,
27:52le fameux CES de Las Vegas,
27:54le Web Summit de Lisbonne,
27:56c'est en novembre
27:57et la conférence RICE de Hong Kong.
27:59Avec,
28:00fait notable,
28:01beaucoup plus
28:02de représentations
28:03internationales
28:04et d'étrangers,
28:06120 pays,
28:0650 pavillons nationaux,
28:08on est à plus de 20%.
28:09Beaucoup de représentations
28:10de l'Asie
28:12et c'est un fait notable
28:14du Moyen-Orient,
28:15même si le Canada
28:16était le pays invité
28:18avec 170 start-up
28:20et ce qui est une manière
28:21aussi de continuer
28:22à faire du business
28:23avec l'Amérique
28:24et pas uniquement
28:25avec les États-Unis.
28:26Merci beaucoup
28:27David Lacomblet
28:28de la Villa Numéris
28:29et merci à tous
28:30de nous avoir suivis.
28:31C'était Smartech,
28:32votre émission
28:32qui regarde l'innovation
28:33pas comme tout le monde.
28:35On se retrouve très vite.
28:36Excellente journée à tous.
28:37Sous-titrage Société Radio-Canada

Recommandations