Passer au playerPasser au contenu principalPasser au pied de page
  • 24/06/2025
Et si l’IA pouvait nous convaincre… sans même que l’on s’en rende compte ? Un article publié dans la revue Nature révèle que ChatGPT maîtrise l’art de la persuasion conversationnelle, capable donc d’influencer nos opinions et de faire évoluer nos idées.

Catégorie

🗞
News
Transcription
00:00Dans le grand rendez-vous de l'IA de Smartech, aujourd'hui je reçois Jean Catan, secrétaire général du CENUM,
00:09le Conseil National du Numérique, qui vient d'être rebaptisé Conseil de l'Intelligence Artificielle et du Numérique.
00:14Bienvenue Jean.
00:15Patrick Pérez également avec nous. Bonjour Patrick.
00:18Bonjour.
00:18Directeur du laboratoire de recherche Qtai.
00:21Vous faites l'actualité tous les deux, c'est pour ça que je vous ai conviés.
00:24On va commencer avec Qtai.
00:26Qtai qui a dévoilé Unmute, une nouvelle IA vocale.
00:30Je dois dire assez spectaculaire.
00:31Moi je me suis amusée avec, pas plus tard qu'hier, et j'ai reconnu la voix d'un des fondateurs du laboratoire,
00:38donc évidemment synthétisée, pour répondre à mes questions.
00:42Ce qui m'intéressait c'était de voir comment cette interaction vocale était fluide ou non,
00:46la comparaison avec Moshi qui est un peu son prédécesseur.
00:48Et d'ailleurs j'ai demandé à Unmute, quel rapport entre Unmute et Moshi ?
00:52Et la réponse a été que Moshi c'était un prototype.
00:56Alors, est-ce que l'IA a bien répondu Patrick Pérez ?
00:59Oui, alors j'espère qu'elle a dit plus de choses.
01:01Les deux sont des prototypes qui concernent dans les deux cas de l'IA vocale,
01:07donc de l'interaction vocale avec une intelligence artificielle.
01:11Mais c'est deux façons un petit peu différentes d'explorer un problème,
01:14qui est celui de la fluidité, de la rapidité, de la pertinence, de l'échange et du réalisme.
01:20Et en l'occurrence, donc Unmute qu'on a sorti il y a peut-être un mois,
01:26c'est une exploration d'une technologie modulaire qui permet,
01:32à partir de n'importe quel chatbot textuel, de l'équiper avec des modules justement qu'on propose
01:38et qu'on va commencer à partager incessamment,
01:42de l'équiper donc d'une interface vocale très fluide.
01:45Donc on peut lui parler et l'IA répond avec sa voix et on peut même spécifier sa voix, etc.
01:52Donc ça impose des tours de parole contrairement à Moshi,
01:56mais néanmoins on a réussi à descendre la latence de façon importante,
02:00en dessous de la seconde, ce qui permet d'avoir quand même...
02:03Parce que pour Moshi, il n'y avait pas du tout d'interface textuelle.
02:05C'est ça ?
02:07Alors dans Moshi...
02:08En fait Moshi, juste pour rappeler ce qui était spectaculaire,
02:12effectivement c'était le temps de latence pratiquement de zéro,
02:15et on a même dit, en fait Moshi est trop rapide à répondre à nos questions
02:18parce qu'elle n'attend pas qu'on ait terminé notre phrase pour nous répondre.
02:22Là on n'est pas du tout dans ce cas-là,
02:23on peut mener une conversation tout à fait fluide et normale avec cette IA,
02:28on sent qu'elle prend le temps d'écouter nos temps de respiration
02:31et de bien s'assurer qu'on a terminé notre phrase et elle enchaîne tout naturellement.
02:36Alors qu'est-ce qui change technologiquement derrière dans la machine ?
02:40Dans le cas de Moshi, donc on a sorti il y a un an,
02:44effectivement il n'y a pas de passage explicite par le texte,
02:47c'est-à-dire ce qu'on appelle des technologies voix-voix,
02:51donc ce que dit l'utilisateur en particulier n'est pas transcrit textuellement,
02:55donc ça va plus vite, ça permet aussi justement au modèle
02:58de pouvoir interrompre même l'utilisateur et d'être interrompu.
03:03Là où Newt fonctionne ce qu'on appelle en cascade,
03:10ce que dit l'utilisateur est transcrit en texte,
03:12le texte passe dans un chatbot textuel
03:14et la réponse de ce chatbot est synthétisée vocalement.
03:17C'est un modèle finalement plus classique,
03:19qu'on retrouve chez les autres chatbots.
03:21Alors absolument plus classique,
03:23mais ce qui nous importe, c'est que les deux briques d'entrée et de sortie,
03:28c'est nous qui les proposons,
03:29donc elles sont en open source très bientôt,
03:32elles sont extrêmement rapides en temps réel,
03:35en particulier la partie transcription est très rapide,
03:39très précise et très robuste,
03:41la partie synthèse qui donne sa voix à l'IA,
03:44elle est effectivement très rapide,
03:46mais elle peut démarrer avant que le texte soit fini.
03:47La synthèse vocale démarre avant même que la partie textuelle soit finie
03:52et ça permet d'avoir cette rapidité malgré l'aspect cascadé.
03:56Et la dernière chose, c'est que la partie textuelle,
04:02on peut la remplacer vraiment en fonction des cas d'usage, etc.
04:09Donc il y a une partie, il y a une très grande modularité,
04:11ce qui permet donc beaucoup de versatilité dans l'application de la technologie.
04:16Donc c'est des technologies complémentaires.
04:18Accessoirement, Unmute aussi hérite d'un certain nombre d'avancées technologiques
04:22qu'on a dû développer pour Moshi.
04:26Comment vous regardez ces évolutions des chatbots vocaux ?
04:30Parce que ça transforme totalement la manière dont on adresse aujourd'hui
04:34le numérique, la recherche, les outils du net.
04:37Oui, avec beaucoup d'intérêt et notamment du point de vue des cafés IA aussi.
04:41Quand on organise ces temps d'échange entre citoyens
04:43et que, par exemple, la ministre elle-même pose la question de savoir
04:46est-ce que vous utilisez une IA donnée ?
04:49Et qu'on a des retours dans la pièce des utilisateurs ou non de ces outils-là.
04:53La question du langage, de la capacité à s'exprimer,
04:56de la capacité à corriger aussi tout type de problème d'élocution
05:01ou autre que l'on pourrait avoir,
05:03est vraiment un des sujets prioritaires qui ressort.
05:07Et ça, c'est absolument prodigieux.
05:09Je veux dire qu'on pense aux personnes en situation de handicap
05:12ou aux personnes qui se sentent et qui sont dans des situations de discrimination
05:16pour X motifs liés à l'expression langagière.
05:20Je pense que là, on est sur quelque chose de très intéressant,
05:23à condition évidemment d'associer ces outils-là à toutes les exigences du dialogue,
05:29de aussi la prise en compte des problèmes des uns et des autres,
05:32éventuellement des enjeux qui pourraient en ressortir.
05:34On évoquait la question de la transcription de sa propre voix.
05:38C'est vrai que quand on fait l'exercice, c'est toujours très perturbant.
05:41Donc vraiment, il y a là tout un travail sociétal à aborder.
05:45Et c'est un débat qui dépasse largement l'IA.
05:48C'est finalement la question de la relation à la source informationnelle.
05:52Comment est-ce qu'on crée un écosystème de confiance ?
05:54Ça pose la question de la responsabilité aussi de la technologie.
05:58Quand vous êtes à l'origine comme ça de briques
06:00qui peuvent transformer complètement la manière dont on va interagir demain
06:05entre humains et entre machines et humains,
06:07peut-être de manière totalement indifférenciée,
06:09vous posez cette question de la manière dont ces briques technologiques
06:11que vous allez mettre en open source vont être utilisées par qui ?
06:14Bien sûr.
06:15Alors évidemment, une des beautés et un des défis de l'open source,
06:21c'est qu'une fois qu'il est en open source,
06:22il est accessible à tout le monde de façon indifférenciée.
06:27Mais en revanche, un élément de réponse parmi d'autres,
06:32quand on ouvre en ligne des démos telles que Mute
06:35ou comme on l'avait fait avec Moshi,
06:37il y a certains éléments qui ne sont pas nécessairement ensuite
06:40dans les modèles qui sont open sourcés pour des raisons liées à la…
06:45Vous pensez à quoi ?
06:45Ça peut être la voix, dans le cas de Moshi,
06:49la voix de la démo en ligne n'est pas celle qu'il y a dans les modèles
06:52qui sont open sourcés parce que dans la démo en ligne,
06:54c'est vraiment la voix de quelqu'un, d'une artiste qui a fait le travail avec nous
06:58et pour la démo.
07:00Et une fois qu'on a open sourcés, on a mis d'autres voix plus synthétiques
07:03pour cette raison-là.
07:05C'est un exemple parmi d'autres.
07:07Donc on fait attention.
07:09Ensuite, nous, on est évidemment intéressés aussi,
07:11comme il a été dit, à regarder les usages vertueux
07:15ou à impact positif sur la société de nos technologies.
07:20Et puis une dernière chose, c'est que faire de la pédagogie,
07:25faire de la vulgarisation contribue aussi, je crois, vraiment très fort
07:29à alerter les gens et sans doute à être plus collectivement en capacité
07:35de réduire les mauvais usages.
07:37Oui, parce que moi, quand j'ai eu cette conversation hier avec Unnude,
07:42c'était vraiment très agréable déjà comme conversation.
07:46J'ai un peu challengé sur le français d'ailleurs.
07:48Unnude est capable de très bien s'exprimer en français,
07:52mais elle n'ose pas le faire à cause de son accent.
07:54C'est le présent qu'elle m'a donné.
07:56Et donc, à un moment, on se dit, c'est bien parce que ça m'alerte
08:00sur la capacité de ces IA demain, peut-être, à m'influencer,
08:05peut-être à me tromper sur leur identité.
08:08Et je vous parle de ça pour faire un lien avec notre prochain sujet
08:10que je voulais aborder.
08:12C'est une étude des universitaires qui ont regardé comment Tchadjpt
08:16s'ils pouvaient ou non, finalement, nous faire changer d'avis.
08:19Alors, c'est quand même, le résultat est assez perturbant.
08:22Je pense que vous l'avez regardé aussi,
08:24cette étude qui est parue dans la revue scientifique Nature.
08:28Donc, ce sont des enseignants de l'École politique fédérale de Lausanne
08:31et de l'Université de Princeton aux États-Unis.
08:34Et en fait, ils ont fait débattre 900 personnes humaines
08:37avec des IA ou pas, avec d'autres humains.
08:41Et résultat, en fait, le LLM est beaucoup plus convaincant qu'un humain
08:45et est capable de nous faire changer d'avis assez facilement.
08:49En fait, il est plus convaincant que l'humain dans 64% des cas, quand même.
08:52C'est un résultat, d'ailleurs.
08:53C'est une étude très intéressante parce qu'elle vient dans la succession
08:56d'une autre étude qui avait fait cette même expérience
08:58auprès de personnes que l'on abordait dans ce cadre-là.
09:02C'est vraiment le cadre de la recherche qui a été fait
09:04de personnes susceptibles de croire en ce qu'on identifie comme des complots.
09:08Et donc là, on voyait que le LLM était plus efficace
09:11pour dénouer les ressorts du complot perçu comme tel que l'être humain.
09:16Et donc là, il y a beaucoup d'enjeux, en fait.
09:19Du coup, on se pose la question de savoir
09:20qu'est-ce qu'on met dans la relation inter-individuelle, déjà.
09:24Ça offre ce questionnement réflexif.
09:26C'est-à-dire qu'en fait, on se fait moyennement confiance
09:27et qu'on est plus irritant pour l'autre qu'une machine.
09:30Déjà, c'est intéressant à explorer.
09:32Et ensuite, il y a aussi la question de savoir
09:34comment est-ce que l'agent conversationnel
09:36crée aussi cette bulle de confiance
09:38dans laquelle on peut se livrer corps et âme
09:40jusqu'à se dédire soi-même.
09:42Et ça, c'est assez intéressant,
09:43mais c'est aussi questionnant d'un certain point de vue
09:45puisque ça veut dire que cette relation de proximité,
09:48finalement, avec l'agent conversationnel,
09:51peut-être nous délie de cet esprit critique
09:54que l'on pourrait avoir vis-à-vis de l'autre,
09:55justement peut-être parce qu'il est irritant.
09:57Et on se dit, tiens, en fait,
09:58qu'est-ce qui ne va pas dans ce qu'il me dit ?
10:00Et que là, on s'abandonne un petit peu.
10:02En fait, on est presque face à soi-même.
10:04C'est ce sentiment qui peut naître.
10:06Oui, on lâche quelque chose.
10:08On lâche quelque chose.
10:09Et alors, d'un certain côté,
10:10c'est très bien si on veut poser des questions
10:12que, par exemple, un élève n'oserait pas poser
10:13dans une salle de classe.
10:14Ça, c'est déjà quelque chose que l'on observait
10:16dans les commentaires sous les vidéos d'apprentissage
10:18sur YouTube et autres.
10:20C'est l'apprentissage par la bande,
10:21comme le disait la regrettée Dominique Pasquier.
10:23C'est de se dire que, finalement,
10:25on va peut-être oser poser des questions
10:27qu'on ne pose pas dans la salle de classe.
10:28Donc, il y a ça.
10:29Il y a, bien sûr, l'attention qu'il faut porter
10:31à la réponse offerte, ça, c'est évident.
10:33Mais il y a aussi le fait qu'on lâche
10:35peut-être quelque chose qui est de l'ordre
10:36de la vigilance, du contrôle
10:37et, finalement, de la construction collective
10:39qui se fait aussi, il faut l'accepter,
10:42dans la friction,
10:43dans une interaction un petit peu plus rugueuse.
10:4582% de chances supplémentaires
10:47à parvenir à nous faire changer d'avis
10:49sur notre point de vue initial,
10:51sur un thème,
10:52à partir du moment où cette IA, en plus,
10:54possède des informations plus personnelles sur nous,
10:56plus sociales.
10:58Donc, on voit, en fait,
10:59la manière aussi dont ça peut être utilisé
11:01pour la manipulation.
11:03Ça pose aussi toute la question
11:05des données d'entraînement
11:06et jusqu'où on entraîne une IA
11:08à développer des arguments,
11:09sur quel type de sujet.
11:11Ça, aujourd'hui,
11:11ce sont des thématiques que vous abordez
11:12ou pas du tout parce que vous restez
11:14dans le champ de la recherche technologique ?
11:16Alors, pas vraiment,
11:17même si ça m'inspire, évidemment,
11:19des réflexions.
11:20Alors, pour avoir regardé rapidement l'article
11:23à quel point l'accès
11:25à des informations personnelles
11:27sur l'utilisateur
11:28augmente les chances de persuasion,
11:30moi, j'ai lu quelque chose de différent
11:32dans le résumé
11:32qui dit que les résultats
11:34ne sont pas si significatifs que ça.
11:35En fait, il s'appelle ça
11:36que même sans cette personnalisation,
11:38de toute façon,
11:39l'IA est prompte
11:40à nous faire changer d'avis.
11:41Mais disons qu'elle affine davantage,
11:43elle donne plus en plus de chances
11:44de persuasion à son IA
11:47si elle a des infos
11:48sur la personne à qui elle s'adresse.
11:49En effet, ce n'est pas surprenant
11:50puisque c'est vrai
11:51dans la relation humaine, etc.
11:53Mais ça vient d'être dit aussi
11:55à nouveau,
11:56l'interaction avec des machines
11:58peut aussi,
12:01quand on sait que c'est des machines
12:02en particulier,
12:03peut conduire à une forme
12:04de moindre autocensure, etc.
12:06Mais avec tout un tas de cas d'usages
12:08qui sont plutôt bénéfiques.
12:10Celui de l'enseignement
12:12pour certains élèves
12:13ou certaines personnes
12:14qui seraient vraiment bloquées
12:15face à un professeur, etc.
12:17Donc, je pense qu'il peut y avoir
12:19vraiment des vertus.
12:21Une question qui est vraiment compliquée
12:22avec ces outils,
12:23c'est leur polyvalence.
12:26Un même outil est utilisé
12:27de façon complètement transversale
12:29pour toutes sortes d'usages
12:30dont certains sont parfaitement
12:32bénéfiques ou vertueux
12:37et d'autres pas du tout.
12:38Donc, c'est vrai d'à peu près
12:40tous les modèles d'IA généralistes,
12:42que ce soit créer des images,
12:43créer du texte,
12:44interagir avec un humain.
12:46Donc, on revient toujours
12:47à ces questions-là.
12:48Mais pour ce qui est des données,
12:50puisque c'était aussi la question,
12:51il faut quand même distinguer
12:52les données qui sont effectivement
12:53utilisées pour entraîner les IA
12:55et celles auxquelles l'IA a accès
12:57au moment où elle est utilisée.
13:00Ce qui ne sont pas tout à fait
13:01la même chose.
13:01Je pense que parfois,
13:02il y a une confusion.
13:03Mais effectivement,
13:04si on a plus d'informations
13:05sur la personne,
13:06c'est aussi une façon
13:06d'être plus pertinent,
13:08d'être plus utile
13:10ou plus persuasif.
13:12Alors, c'est vrai que ce que vous dites,
13:16Patrick, c'est très important.
13:17C'est la question finalement
13:17de l'usage,
13:18le cas d'usage.
13:19Alors, ce Conseil national du numérique
13:21qui est renommé en Conseil IA et numérique,
13:23il va s'intéresser au cas d'usage ?
13:25Oui, je pense en fait
13:25ce qui a été annoncé
13:27est que ce Conseil
13:28travaillerait en groupe de travail
13:30thématique.
13:31Et donc,
13:32on peut parier,
13:34même si je suis assez mauvais au poker,
13:36que finalement,
13:37cette question de l'adoption,
13:39de l'appropriation,
13:39que ce soit dans l'environnement professionnel
13:41ou dans l'environnement sociétal
13:42au sens le plus large,
13:44sera sur la table,
13:45c'est sûr.
13:46Et c'est aussi, je pense,
13:47cette question
13:48de l'accompagnement des usages,
13:50précisément,
13:51qui existe d'ores et déjà,
13:52qui fait que l'institution
13:53a été assez logiquement renommée.
13:56Il est très difficile aujourd'hui
13:57de parler de notre relation
13:58à la technologie
13:59sans parler d'IA.
14:00Et donc,
14:00appelons un char,
14:01un char,
14:02et mettons ce sujet
14:03sur la table.
14:04On a quand même gardé
14:05IA et numérique.
14:06Ça veut dire qu'il n'y aura pas
14:07quand même que de l'IA
14:08dans vos sujets.
14:09Voilà, donc il y a toujours
14:09cette question.
14:10Évidemment, l'IA,
14:11c'est du numérique.
14:13Le numérique est imprégné d'IA
14:14aujourd'hui.
14:14C'est justement,
14:15il y a un sens dans tout ça
14:17et un message qui est porté.
14:18C'est de se dire précisément,
14:19comme vous venez de le dire,
14:20que oui,
14:21il y a ces questions
14:22relatives à l'IA
14:23sans pour autant
14:24abandonner toutes les priorités
14:25politiques qui peuvent exister
14:27au sein de la population.
14:27Et alors, justement,
14:28pas de priorité politique
14:29parce que le Sénum,
14:30c'est un organe indépendant
14:32du politique.
14:33Est-ce que là,
14:33il va y avoir des choses
14:35qui vont changer
14:35du fait d'un rattachement ?
14:37Le rattachement a toujours
14:38été existant.
14:39Ça, il est dans le décret
14:40aujourd'hui qui date
14:40de 2017 même
14:42et puis dans les précédentes versions.
14:44Et c'est un rattachement
14:45à une ministre déléguée
14:47à l'IA et au numérique,
14:48d'où aussi la correspondance
14:49de nom.
14:50Son fonctionnement
14:51est totalement indépendant,
14:52c'est-à-dire dans l'établissement
14:53de son programme de travail,
14:54dans l'adoption
14:54de ses documents.
14:56Et ce qui sert
14:56cette indépendance,
14:57c'est aussi le fait,
14:58notamment,
14:58entre mille autres choses,
15:00que les membres
15:00sont complètement bénévoles.
15:02Bénévoles,
15:03mais alors bénévoles
15:03de chez Bénévoles,
15:04c'est beaucoup de temps
15:05qui est donné
15:06à ces œuvres collectives
15:07qui sont fournies
15:08dans le cadre du travail
15:09du Conseil national du numérique
15:10aujourd'hui
15:10et du SCIEN demain.
15:12Et donc,
15:13il y a toutes les garanties
15:14pour que le travail fourni
15:15soit le reflet
15:16de l'expression libre
15:17et indépendante
15:17de ses membres.
15:18Et vous travaillez ensemble ?
15:20Il y a des connexions
15:21qui se font comme ça
15:22avec l'écosystème,
15:23la recherche
15:24et le conseil ?
15:25Oui,
15:25à Vivatech,
15:27donc forcément,
15:27on fait la rencontre
15:28des acteurs
15:29et voilà,
15:30nous,
15:30le rôle que l'on a,
15:31c'est de garder
15:32un œil très ouvert
15:33et de mettre en partage
15:34tous ces éléments
15:35d'information.
15:36Donc là,
15:37aujourd'hui,
15:38cette semaine,
15:38on lance
15:39la lettre d'information
15:40de Café IA
15:42qui prend la succession
15:43de la lettre d'information
15:44qui existait jusque-là
15:45et qui s'appelait CENUM
15:46et c'est l'endroit
15:47où justement,
15:48on a à cœur
15:49de rapporter
15:49les initiatives
15:50qui existent
15:51dans la société.
15:52Donc nous,
15:52on garde toujours
15:53un œil très ouvert
15:54sur ce qui se fait.
15:55Vivatech,
15:55ça a été un moment important
15:56aussi pour Kutai ?
15:57Oui,
15:58on était présents
15:59trois jours,
16:00on a fait les démos
16:01en live de Unmute
16:03mais également
16:03de Ebiki
16:04qui est notre modèle
16:05de traduction
16:05en temps réel
16:06sur téléphone portable.
16:09On a montré aussi
16:10Moshi avec des yeux
16:11qui s'appelle Moshi Viz.
16:13On a rencontré des gens,
16:14on était sur le stand
16:15de notre partenaire
16:16de Compute
16:19qui est Scaleway.
16:21Non,
16:21c'était un moment fort
16:22et on a fait
16:23pas mal d'interventions
16:25et pas mal de rencontres.
16:26On va continuer
16:27à parler de Vivatech
16:28pour faire un petit retour
16:30en arrière
16:30dans notre séquence
16:31qui suit
16:32sur l'économie numérique.
16:33Merci encore
16:33à tous les deux
16:34Patrick Pérez
16:35de Kutai
16:35et Jean Catan
16:36du Conseil national
16:37de numérique
16:37ou du Conseil IA
16:38et numérique.
16:39Merci.
16:40Merci.

Recommandations