- 07/02/2023
ChatGPT, nouvel agent conversationnel en ligne fait la Une des médias depuis plusieurs semaines. Entre maîtrise presque parfaite des langues humaines, raisonnements logiques mais aussi incohérences et fake news : faut-il craindre les intelligences artificielles ? C'est le sujet du Talk franceinfo. Tous les soirs à partir de 18 heures, Manon Mella et ses invités débattent avec les internautes de la chaîne Twitch de franceinfo.
Catégorie
🗞
NewsTranscription
00:00 thriller comique qui s'appelle "Kia Aki Garutia" qu'on a écrit avec Serge Abitboul et Gilles
00:06 Doweck et qu'on espère bien voir vivre parce que justement ça donne cette projection dans la vie
00:12 de tous les jours, ce qu'on pourrait attendre de ça et des limites aussi. Et qu'est-ce que c'est
00:16 que sur la mémoire ? Qu'est-ce que ça fait sur nous ? Parce qu'on anthropomorphise ces objets,
00:20 or ce sont des objets. Ils n'ont pas de conscience et pas d'intention, comme il vient de le dire. Et
00:25 en fait il faut apprendre à utiliser ces objets autour de nous. C'est un objet comme un autre
00:30 objet mais qui a des capacités de mémorisation de nos vies. Mais nous on perd même sans parler
00:37 de Tchadjipiti, mais alors je dirais pas que c'est une bonne ou une mauvaise nouvelle, mais on a déjà
00:41 perdu quelques fonctionnalités entre guillemets, les numéros de téléphone de nos proches, les dates
00:47 d'anniversaire. Si vous voulez on a déjà perdu la mémoire du calendrier. On évolue, nos ancêtres
00:54 ils n'avaient pas de téléphone, donc ils n'avaient pas de numéro de téléphone. Donc on se donne des
00:58 outils, donc on s'adapte à ces outils, donc on avait mémorisé le numéro de téléphone. Maintenant,
01:03 dans l'ancien temps, il n'y avait pas de téléphone, il y avait d'autres choses, il y avait d'autres
01:07 capacités. On savait se battre ou faire d'autres choses dans la vie. - Mais on ne savait pas écrire
01:10 non plus ! - Et on ne savait pas écrire. - Nos très grands ancêtres. - On évolue. - Et c'est vrai que
01:15 l'écriture apparaît relativement tardivement dans l'histoire, toute l'épopée de l'humanité.
01:23 Et puis depuis un certain temps, de plus en plus de personnes apprennent à écrire. Et les technologies
01:29 de l'information justement nous aident à écrire. On écrit plus aujourd'hui par exemple.
01:36 Il y a 30-40 ans, on pensait qu'on rentrerait dans une société où on n'écrierait plus. - Visuel.
01:42 - On écrit différemment mais on écrit toujours. - C'est ce que l'on disait. Alors maintenant, on écrit.
01:46 Il y a une histoire qui est intéressante, qui permet de prendre conscience des changements. Un de mes
01:53 amis, un grand philosophe, Dan Sperber, a écrit il y a une trentaine d'années un article dans lequel
01:58 il disait "on va rentrer dans une société sans écriture". Alors il disait "pas sans lecture".
02:03 Alors qu'est-ce qu'il voulait dire ? Il voulait dire qu'avec les machines à dicter, on parlerait et
02:09 on n'aurait plus besoin d'utiliser de stylo. C'est un peu comme... Vous savez que Virgil, par exemple,
02:14 n'écrivait pas. Alors il n'écrivait pas mais il dictait, il avait des scribes. Et donc on va pouvoir
02:19 faire ça avec les machines. Alors on se rend compte que c'est un peu plus compliqué. Ça ne marche
02:24 pas aussi simplement que ça. - Non, parce que l'écriture cursive, on a bien démontré que c'était
02:29 important dans la mémorisation de faire cette écriture cursive. Donc à la main. - Mais avec le clavier,
02:37 par exemple, c'est plus vraiment une écriture cursive. - Justement. Ils ont pas jamais démontré ça.
02:41 - Ce qui est intéressant, c'est qu'on pourrait dire aussi "on est une société sans écriture où les machines
02:47 vont rédiger à notre place". Et là, ça ressemble... Alors, bien sûr, ce qui est amusant, c'est de faire
02:52 des analogies avec ce qui se produisait dans le passé. J'ai dit tout à l'heure, le dictaphone,
02:57 enfin plus exactement la machine à dicter, c'est un peu comme le scribe. Et bien là, on a une
03:02 machine avec chaque GPT, enfin plus exactement avec GPT, qui ressemble aux écrivains publics. Vous savez
03:07 qu'il y a un certain nombre de dizaines d'années, encore au début du XXe siècle, c'est-à-dire si vous
03:13 avez vu "Les enfants du paradis", je crois qu'il y a comme ça un épisode, lorsque des gens qui étaient
03:19 peu cultivés avaient quelque chose à écrire, qu'ils étaient gênés, à ce moment-là, ils demandaient à un
03:24 écrivain public de le faire à leur place. Mais on peut dire que c'est un peu l'utilisation que pourraient
03:30 avoir ces machines. C'est-à-dire que, par exemple, pour écrire une lettre d'amour ou pour répondre à une
03:35 annonce professionnelle... - On serait dans "Heure", quoi. Dans "Heure", c'est ce qu'ils faisaient au départ.
03:39 - Tout à l'heure, vous aviez expliqué que chaque GPT était prédictif, donc ça veut dire "pas factuel".
03:46 Est-ce que c'est ça, aujourd'hui, le plus gros... le premier danger qu'on voit arriver, c'est cette
03:53 crainte de la désinformation, finalement ? - En fait, il est capable de générer... - En gros, plus il y a de la désinformation sur le web...
03:58 - Plus il y en aura. - C'est un peu un cercle vicieux, infernal. - Plus il y a de théorie de données qui viennent de machines.
04:05 Comme tu le dis, sans écriture, fait d'humains. Et là, où va-t-on ? - Mais le problème, c'est même pas le faux sur le web.
04:13 C'est que, dans sa conception même, il engendre le mot le plus plausible dans un contexte donné.
04:22 Donc, c'est juste ce qu'il est de bon ton de dire. Mais ça n'est absolument pas relié à une quelconque véracité,
04:31 à une quelconque recherche. Et c'est bien ça, le problème. - Attend, attend, il y en a quand même...
04:35 Parce que, quand on parle de ces systèmes, il y a quand même des censures derrière.
04:40 Parce que ces systèmes sont quand même des choses qui vont générer beaucoup d'incohérences.
04:44 Et donc, le concepteur, par exemple, d'Opelia... - Laissez-la finir, d'abord.
04:50 - Donc, le concepteur a mis derrière, en fait, ces filtres où on vous dit d'un seul coup, "ce mot-là, c'est pas bien de dire ça"...
04:56 Enfin, voilà. Il rajoute en fait quelque chose qui juge de l'utilité ou pas d'aller interroger ce système sur un sujet,
05:05 parce qu'il n'est pas politiquement correct, ou sur les propos sexuels, ou sur des choses haineuses.
05:10 Bon, eh bien, ça, je suis désolée, c'est un humain qui l'a décidé. Et ce sont les ingénieurs.
05:17 Donc, il y a une poignée d'ingénieurs qui sont à la conception de ce système. - Oui, mais c'est un autre problème, ça.
05:21 - Oui, mais c'est un problème qui apparaît aussi à travers ces machines, puisque, comme je le dis, c'est fait par des humains.
05:25 - Oui, mais attends, Laurence, c'est juste pour préciser quand même pour les auditeurs, pour qu'ils comprennent bien.
05:30 - Qui configure tout ça ?
05:31 - Il y a deux points. Le premier, c'est que le système engendre des écrits simplement sur le fait que les mots s'enchaînent avec une certaine plausibilité.
05:43 Ça, c'est le point important. Alors après, effectivement, il y a une censure.
05:47 - Il n'y a pas que ça, les mots qui l'enchaînent, c'est à partir d'un corpus qui est choisi par des humains.
05:53 - Les humains arrivent à beaucoup d'étages dans cela.
05:56 - Donc, Chef J.P.T. est subjectif, mais il faut le savoir en étant bien conscient.
06:00 - Attendez, laissez-vous parler... - Mais ce sont des normes corpus, quand même, qui sont présentes.
06:04 - Mais quand je fais un deep learning, je veux dire, c'est moi qui le mets en œuvre.
06:07 Donc, je sais combien je mets comme contexte de mémoire, je sais comment je projette sur les différentes couches.
06:12 Et donc, j'ai, moi, en tant que concepteur, un certain nombre de verrous qui sont liés à l'origine.
06:17 Tu vas beau dire que les données font tout, je ne suis pas d'accord.
06:20 En général, il y a une méprise. On dit, il y a des algos et des données.
06:23 - Non, il y a trois choses. - Je ne suis pas en désaccord.
06:25 - D'accord. Il y a des algos, des données et une optimisation.
06:29 Et l'optimisation qui sont tous ces verrous que l'on met à jour, là, et tous ces choix sont très importants.
06:35 - Alors, peut-être que l'enseignement à tirer, peut-être, Jean-Gabriel, ce serait de décentraliser, si je puis dire...
06:45 - Non, parce que justement... - Les gens qu'il y a derrière, quoi.
06:48 - Non, mais comme... - Il y a à la limite plusieurs Chef J.P.T.
06:50 - Non, mais c'est pour ça que je voulais essayer de clarifier les choses.
06:52 On apprend quand même sur des très gros corpus.
06:54 Donc, c'est une décision qui est prise à un moment donné, mais qui a un effet d'entraînement assez long.
07:05 Et donc, on ne change pas comme ça de corpus tout d'un coup.
07:08 - Non, non, ça coûte trop cher. - Parce que ça coûte très cher.
07:10 - Qui choisit les données, demande Fanny dans le chat. C'est bien la question.
07:13 - C'est bien la question. - Ce sont les ingénieurs.
07:15 Pour en utiliser, moi, les J.P.T.
07:17 Quand vous avez une tâche particulière, par exemple, détection des émotions dans une certaine tâche,
07:23 eh bien, je l'adapte, ce chat J.P.T.
07:25 C'est-à-dire que je peux figer une partie des paramètres et l'adapter.
07:29 Et donc, je fais ça sans arrêt.
07:31 Donc, ce qu'il faut voir, c'est que demain, on va utiliser ces modèles.
07:35 Ils vont être encapsulés avec d'autres données plus spécifiques à une tâche,
07:39 sur lesquelles on aura optimisé le système.
07:41 Donc, il va répondre à la fois sur la tâche que vous avez précisé,
07:43 mais avec une connaissance un peu de lieux communs,
07:47 d'une certaine connaissance dans la société,
07:51 mais qui ne sera pas non plus très affûtée,
07:53 qui sera l'ensemble des informations.
07:55 Alors, il faut vraiment se dire que ça a un intérêt quand même, ces énormes systèmes.
08:00 Et on le voit, par exemple, pour la médecine,
08:02 quand on cherche sur les radios à déceler des cancers.
08:05 - Donc, ça, c'est de l'intelligence artificielle.
08:07 - Oui, c'est un peu les principes de ces énormes corpus, si vous voulez, dont on parle là.
08:12 Et quand je transfère le problème sur la reconnaissance sur les images médicales,
08:16 eh bien, la machine voit des choses que je ne vois pas.
08:19 Elle va voir des détails que je n'ai pas vus à l'œil humain.
08:23 Et donc, il faut se dire aussi que dans ces énormes corpus,
08:27 elle est détectée bien avant que le médecin,
08:30 c'est ça tout l'intérêt, de prédire avant d'avoir un regard
08:34 qui permet de faire des analyses et peut-être de ne pas en souffrir après.
08:38 Donc, ce qu'il faut comprendre, c'est que si je fais le parallèle entre le visuel et le langage,
08:43 eh bien, la machine va déceler des corrélations de termes,
08:46 des agglutinations qui arrivent dans ces documents,
08:48 qui ont un sens pour certains, qui n'en ont pas pour d'autres.
08:51 Et il y a quand même quelque chose à aller chercher dans cette massification des données.
08:56 Après, l'utilisation doit en être vraiment...
08:59 On doit apprendre à l'utiliser.
09:01 Et c'est ce que disaient les médecins par rapport à ça.
09:03 Le problème, c'est que quand vous mettez des médecins qui radiologuent devant ces systèmes,
09:08 il y a beaucoup trop de faux positifs.
09:11 C'est-à-dire que la machine détecte beaucoup trop d'indices
09:13 et ils n'ont pas encore été entraînés dans leur programme d'apprentissage
09:18 à utiliser des machines comme celle-là.
09:21 Donc, ça coûte beaucoup à la société si on faisait à nouveau des vérifications
09:25 pour tous les gens qui ont été détectés.
09:27 Donc, c'est vraiment un sujet compliqué, l'équilibre et la compréhension
09:31 qu'il va y avoir de ces systèmes et l'utilisation vont en faire.
09:33 Donc, on est obligé de passer par ces étapes d'apprentissage en interaction avec des machines.
09:38 - Jean-Gabriel, est-ce que l'IA peut être un outil politique idéologique, demande Ebay Commercial Agency ?
09:45 Et je relais cette question parce que tout le monde la pose un peu, j'imagine.
09:51 - Je ne sais pas ce qu'on entend par outil politique et idéologique.
09:56 - Il fait les discours !
09:58 - Est-ce que ça peut faire un discours ? Oui, pourquoi pas.
10:01 - Non mais peut-être dans la hiérarchie de l'information, je ne sais pas, favoriser certains sites.
10:05 - Ça peut manipuler, ça manipule.
10:07 - Certainement, ça manipule.
10:09 - Tu peux influencer si tu décides de parler d'un sujet.
10:12 - Peut-être qu'il faudrait envisager la question d'une autre façon.
10:16 Avec l'intelligence artificielle, on fait depuis un certain temps du profilage,
10:21 c'est-à-dire qu'on est capable de déterminer pour chacun des internautes
10:26 ce qui lui plaît, quelles sont les requêtes qu'il fait sur le moteur de recherche,
10:30 dans quel site il va.
10:32 Et à partir de ça, il y a d'autres outils d'intelligence artificielle
10:36 qui ciblent de l'information.
10:38 Et donc, effectivement, de ce point de vue-là, on peut avoir un effet politique à terme.
10:43 Et les générateurs de textes sont utilisés par un certain nombre de bots
10:48 pour fabriquer des fake news et pour les diffuser sur certaines personnes.
10:53 Et donc, l'effet politique de ces outils d'intelligence artificielle
10:57 peut être extrêmement délétère sur l'ensemble de la société.
11:01 - En fait, on fait monter l'anarchie.
11:03 - Et en même temps, bien sûr... Oui, c'est ça.
11:06 - On fait monter l'anarchie. - Tout à fait.
11:08 - C'est les deux extrêmes.
11:10 Soit vous êtes dans un régime un peu chinois qui prend en main tous les systèmes et qui pilote,
11:14 soit vous êtes au contraire devant tout le monde qui met tout et n'importe quoi
11:18 et qui fait exprès de détourner.
11:20 - Mais on y voit plus clair.
11:22 - On va rajouter et on va arriver sur l'anarchie.
11:25 - Dit autrement, on tend à fragmenter la société.
11:28 C'est-à-dire que là où, avec la maison de la radio, ici, l'ORTF,
11:32 on avait une information commune pour tout le monde...
11:34 - On sait où on est, on sait où on va.
11:36 - Et donc, on se disputait le matin parce qu'on n'était pas d'accord,
11:38 mais au moins, on avait tous vu le 20h.
11:40 Tandis que là, chacun a une information différente.
11:43 Et donc, effectivement, on risque d'avoir des groupes et des muls.
11:48 Donc, de ce point de vue-là, oui, du point de vue politique, ça peut être extrêmement nocif.
11:52 Et surtout, il peut y avoir des groupes de politique
11:56 qui instrumentalisent ces technologies avec des signes qui sont mauvaises.
12:02 C'est-à-dire qu'il faut toujours voir.
12:04 Pour répondre à la question, ce ne sont pas les machines dont il faut avoir peur,
12:08 ce sont les hommes qui sont derrière les machines.
12:10 - Une question de Skill66 qui demande le modèle d'OpenAI d'ouvrir au public.
12:20 Est-il profitable au développement des intelligences artificielles ?
12:24 Expliquez-nous ça. C'est transparent comme technologie ?
12:28 - En partie, oui, parce qu'on a accès à tout.
12:31 Après, il y a plein de paramètres cachés, donc ce n'est pas si transparent que ça.
12:35 Et en France, avec un partenariat public-privé, on a essayé de refaire un chat GPT
12:43 avec 176 milliards de paramètres, parlant 59 langues.
12:48 C'est au niveau européen aussi. Ce projet s'appelle le projet Bloom.
12:52 On a un calculateur à Saclay qui nous permet de monter à des niveaux assez intéressants
12:58 pour faire ce genre de système.
13:00 Et puis, comme je le disais, c'était fait par un partenariat public-privé avec Uninface
13:05 qui a été piloté tout cela, et qui est une société française qui est à New York en ce moment.
13:13 C'est quand même très intéressant que des chercheurs puissent avoir accès à tous les modules
13:19 qui sont utilisés et à travailler sur ces systèmes pour mieux comprendre les limites,
13:25 faire que ce soit plus explicable et plus transparent.
13:27 Donc ça, il y a eu une réelle volonté en France, et on peut en être fiers de ça.
13:30 Il faut le continuer.
13:32 Et donc c'est pour ça que moi j'ai une chaire en IA, on fait de la recherche aussi sur l'interaction
13:36 de ma machine et sur la manipulation possible avec des populations comme des enfants.
13:42 On va dans des écoles où on capture des données, on met des enfants en situation devant des petits robots
13:46 ou des chatbots pour essayer de mieux comprendre et de mieux amener la société à être vigilante,
13:51 prendre conscience et aussi le côté normatif, parce que je suis maintenant aussi sur des aspects de normalisation
13:58 avec des industriels, pour pousser les industriels justement à avoir ces techniques de vérification,
14:03 de mesure et de monitoring, on dit, qui vont permettre après de faire des audits sur les systèmes.
14:09 Imaginons qu'il arrive des problèmes de suicide ou autres grâce à des machines qui vous parlent.
14:15 Et bien comment on va faire pour ouvrir le capot de la voiture si on n'a pas prévu un tout petit peu avant
14:20 d'essayer de comprendre où sont les nœuds complexes dans le système qui est en œuvre.
14:26 C'est du système multi-agent, mélangeant, comme on l'a dit, des agents artificiels, donc des IA, et des humains.
14:32 Et donc il faut comprendre comment la morale peut être instable dans ces sujets
14:38 et comment on peut mesurer ces systèmes et pousser les industriels à le faire.
14:44 Alors il nous reste un quart d'heure, je veux bien qu'on attaque un peu la partie travail.
14:50 On a souvent, dès qu'on parle d'intelligence artificielle, de chat GPT, l'impression qu'on va nous voler notre travail.
14:59 Qu'est-ce que vous avez à dire là-dessus ? En tout cas, si je peux vous confier ça, dans le milieu,
15:05 si je regarde vraiment uniquement mon nombril, chez les journalistes, mine de rien, on se pose directement la question,
15:11 on se dit "tiens, la dépêche avant, qu'on bâtonnait, c'est-à-dire bâtonner, c'est reprendre une dépêche qui existe déjà,
15:18 et puis la reformuler, enrichir, compléter", on se dit "finalement, ce travail un peu automatique,
15:26 ça sera peut-être chat GPT qui pourra le faire à notre place".
15:30 Jean-Gabriel, peut-être ? Sur le côté "l'IA va voler nos emplois".
15:35 C'est une version automatique de texte qui était utilisée pour écrire des nouvelles un peu ordinaires,
15:41 par exemple la météo ou ce genre de choses.
15:44 Il y a des métiers qui pourraient être mal laissés ?
15:47 Ce n'est pas un métier lui-même. Je crois que toute l'erreur, c'est qu'on suppose...
15:53 C'est une tâche.
15:54 C'est une tâche.
15:55 Parmi d'autres tâches.
15:56 Et en général, un métier, c'est plusieurs tâches.
15:59 Il y a des tâches qui sont fastidieuses et on est très content qu'elles soient automatisées.
16:02 Mais bien sûr, le problème, c'est que si les tâches fastidieuses sont automatisées,
16:05 le métier va s'exécuter plus vite et à ce moment-là, il y aura peut-être moins d'emplois pour les personnes.
16:11 Donc, c'est toute la difficulté.
16:13 Regardez, la question de la traduction, par exemple.
16:15 On n'imagine pas qu'une machine traduise du "olderling" parce que c'est beaucoup trop difficile.
16:21 En revanche, si les machines traduisent les modes d'emploi,
16:23 ça veut dire que toute cette activité qui permettait aux traducteurs de survivre,
16:28 celle-là va être faite automatiquement.
16:32 Mais on pourrait aller plus loin.
16:34 On a parlé de l'éducation.
16:36 Effectivement, on peut se demander si l'effet des machines,
16:43 ça ne va pas être de faciliter la formation.
16:46 Mais là, justement, avec chaque GPT, on voit bien que c'est plutôt l'inverse.
16:51 C'est-à-dire que les élèves vont faire leur devoir avec chaque GPT.
16:57 C'est bien ce qu'on condamne.
16:59 Et s'ils le font, ça veut dire que les élèves vont moins apprendre.
17:01 Et donc, de ce point de vue-là, c'est un peu désolant.
17:03 Nous, on est enseignants.
17:05 Et donc, ce qu'on aimerait, c'est que les élèves soient motivés par ce qu'ils veulent apprendre.
17:12 Par exemple, qu'ils aient envie d'apprendre à rédiger.
17:18 Et le fait qu'ils utilisent ces outils,
17:21 qui font qu'ils vont faire moins de devoirs parce qu'ils veulent avoir une bonne note,
17:25 et donc ils vont moins apprendre,
17:27 ça, effectivement, c'est un peu désolant de ce point de vue-là.
17:29 Donc, le risque, ce n'est pas tant que la machine se substitue à l'homme,
17:33 c'est plutôt que par paresse, on perd des compétences.
17:36 Et ça, je crois que c'est un peu le problème.
17:38 - Et je réponds très rapidement à Vedex qui dit
17:41 "Je trouve que chaque GPT est à l'opposé du métier de journaliste,
17:44 vérifier, croiser les sources".
17:45 Mais c'est vrai que, comme vient de le dire Jean-Gabriel,
17:47 il y a le métier de journaliste,
17:49 mais en fait, ce qu'il faut savoir, c'est qu'au sein de notre journée,
17:52 on va faire ce travail de vérifier, croiser les sources.
17:54 Mais parfois, on a des moments où on doit faire vraiment des...
17:57 Par exemple, le TOLE, qu'il faut faire une page web,
18:00 on va prendre mon paragraphe, le copier, le coller.
18:03 Mais Laurence, peut-être sur le côté, l'intelligence artificielle
18:07 qui va interroger de plus en plus nos façons de travailler,
18:10 on va peut-être se concentrer sur d'autres tâches.
18:14 - Comme je disais tout à l'heure pour les médecins, pour les radiologues,
18:18 il faut effectivement avancer là-dessus,
18:20 mais c'est la même comparaison que l'on pourrait faire avec les journalistes.
18:22 Parce que moi, je ne pense pas que vous allez rester journaliste
18:25 si vous faites faire vos devoirs par tchad GPT.
18:27 Ça va être un nouvellement vers le bas.
18:30 Et donc, à ce moment-là, vous n'aurez plus de valeur ajoutée,
18:33 et donc on va remplacer tous les journalistes par des machines.
18:35 Je ne crois pas. - Et ce n'est pas le but, d'ailleurs ?
18:37 - Non, je ne crois pas. Je crois qu'en fait, on cherche...
18:40 On peut aussi imaginer ces machines comme étant des moyens
18:44 d'avoir accès à d'autres informations.
18:46 Vous vous rendez compte quand même que,
18:48 à chaque fois que je vais changer le prompt départ,
18:50 je peux changer ce qu'il y a derrière.
18:52 Il y a un facteur aussi un peu, comme tu l'as dit, stochastique,
18:55 c'est-à-dire hasardeux dans le résultat.
18:57 Donc on peut se retrouver en fait avec des formes un peu bigarrées
19:01 de toutes ces choses.
19:02 Il fait de la fiction, on parle d'imagination,
19:05 mais ce n'est pas de l'imagination.
19:06 Donc de là naît peut-être d'autres choses.
19:10 Il ne faut pas croire que ce soit un perroquet mécanique
19:14 bien sophistiqué qui va vous faire votre devoir parfaitement.
19:17 Je crois qu'il faut arrêter d'avoir cette idée en tête que ça remplace.
19:20 Ça va apporter autre chose de farfelue peut-être,
19:23 qu'on pourrait peut-être utiliser.
19:25 Ça peut dire des choses fausses.
19:27 Donc surtout, ne faites pas confiance.
19:29 Regardez, ce n'est pas un système qui va vous assurer...
19:33 - Ne faites pas présenter vos journaux par TGPT.
19:36 - Ce n'est pas un système qui va vous assurer que vous êtes en train de dire la vérité.
19:38 Aucunement.
19:39 Ni qui est capable finalement de liser les erreurs,
19:41 ni de vérifier les dates,
19:42 ni de vérifier finalement que vous n'êtes pas en train de dire n'importe quoi.
19:46 - Mais qu'est-ce qui nous garantit ça finalement ?
19:48 Qu'on ne va pas abuser de...
19:50 - C'est vous qui...
19:51 - C'est vous la garantie.
19:52 - Alors, normalement, effectivement, c'est le travail du journaliste.
19:55 - De manière générale, dans d'autres professions.
19:57 - Je crois que...
19:58 - Comment faire pour qu'il n'y ait pas d'abus, Jean-Gabriel ?
20:01 - Je pense que justement, c'est...
20:03 L'éthique dans la société de l'information,
20:06 c'est qu'on est tous un peu journalistes.
20:08 - Il y a des entreprises qui n'ont pas d'éthique.
20:10 - Oui, non, mais les individus, quand je dis.
20:12 On est tous un peu journalistes.
20:13 C'est-à-dire qu'il faut apprendre à l'ensemble des citoyens
20:18 que l'information, elle doit pouvoir être confrontée à d'autres informations
20:23 parce que, bien sûr, sinon on n'a aucune connaissance.
20:27 Je crois qu'il est important de comprendre que ces systèmes nous fascinent.
20:32 D'abord parce qu'ils génèrent des textes qui sont étonnants,
20:34 on va peut-être revenir là-dessus après,
20:36 mais aussi du point de vue scientifique.
20:38 Parce que l'intelligence artificielle, avant d'être une technologie,
20:40 c'est une science qui a pour but de simuler nos capacités cognitives.
20:45 Alors, la leçon de chaque GPT, elle est double.
20:49 La première, c'est qu'avec beaucoup de textes,
20:51 beaucoup de données, on arrive à faire un système.
20:55 Et pour des gens qui ont fait de l'IA depuis longtemps,
20:58 c'est quelque chose qui nous surprend.
21:00 Parce qu'au début, moi, quand j'ai commencé, on me disait,
21:02 si on veut faire du traitement du langage naturel,
21:05 il faut mettre de la syntaxe, de la grammaire, du vocabulaire, etc.
21:08 Et là, on ne met plus rien de tout ça,
21:10 on met juste des données.
21:12 Alors ça, ça nous surprend.
21:13 Et puis la deuxième chose, c'est que ça nous montre que
21:15 dans le langage, il y a juste la capacité à parler,
21:19 et ça, on peut l'assimiler,
21:21 et puis il y a autre chose qui est la capacité à raisonner.
21:23 Et ça, bien sûr, on n'est pas capable d'articuler l'un à l'autre.
21:26 Et c'est ça le défi, je crois, pour le futur.
21:28 - Il y a Libre Audio qui demande,
21:30 je pense que Libre Audio parle surtout du métavers,
21:33 et qui dit "un tuteur virtuel pourra-t-il se substituer à un professeur ?"
21:37 - Moi, je ne pense pas.
21:39 En fait, le métavers, d'abord, on n'est pas sûr
21:42 qu'il y ait un métavers qui apparaisse vraiment.
21:44 On aura des métavers particuliers,
21:46 enfin moi, je l'imagine très bien pour des pathologies,
21:48 ou dans des cadres très spécifiques,
21:50 mais le métavers qui serait les réseaux sociaux,
21:52 globalement, où on vivrait une vie parallèle, virtuellement,
21:56 est à mon avis d'un grand danger.
21:58 Parce que, autant, en étant extérieur,
22:00 on peut juger d'un chat GPT et dire "ben là, il fait une bêtise", etc.
22:03 Mais le jour où vous êtes à l'intérieur, avec des capteurs partout,
22:06 on va jouer beaucoup sur les émotions,
22:08 et je ne suis pas sûre qu'on ne soit pas très vulnérables tous,
22:11 par rapport à ces machines,
22:13 et qu'on soit très très influencés.
22:16 Donc, demain, un tuteur dans le métavers,
22:19 si c'est le cas, il faut que ça reste très calibré, très vérifié.
22:23 Et tout à l'heure, j'ai parlé de normalisation.
22:25 Moi, je me suis impliquée sur la normalisation.
22:28 Je pense que c'est, en ce moment, la guerre des normes,
22:31 entre les Etats-Unis, la Chine, l'Europe.
22:33 Il faut penser, quand même, qu'il y a là une voie
22:36 pour mieux comprendre ce qu'on espère faire avec ces machines.
22:39 Et dans tous les métiers, il n'y a pas des mots "il est méchant",
22:42 il faut arrêter. L'industrie veut avant tout faire des systèmes qu'elle vend.
22:45 Bon, maintenant, il faut qu'elle les vende en ayant conscience
22:48 qu'on ne veut pas aller dans certains sujets, parce que c'est pas éthique.
22:52 Et c'est cela qu'on essaie de faire passer à travers les normes, aussi,
22:55 c'est de prendre conscience qu'il faut raison garder.
22:59 Si ça influence trop, si ça va vers pousser des gens au suicide,
23:02 à du harcèlement, etc., on est obligés de normaliser.
23:05 Sinon, vous allez dans la rue, il y a un code de la route,
23:08 les voitures s'arrêtent, il y a des passages piétons, il y a des règles.
23:12 Pourquoi, sur ces autoroutes de l'information,
23:15 il n'y aurait pas des règles, également, pour éviter l'anarchie,
23:18 pour éviter des troubles pour les plus vulnérables ?
23:21 - Jean-Gabriel, est-ce que la France devrait, par exemple,
23:25 se doter d'un chat GPT français ?
23:28 - Alors, ce dont parle Laurence, c'est que ce chat GPT français
23:34 est en train d'être fabriqué.
23:36 Il y a un ordinateur, justement, sur le plateau de Saclay,
23:38 l'ordinateur Janset, avec un système qui est Bloom,
23:41 - Autant pour moi. - C'est ça, c'est ça.
23:44 - 176 millions, 59 ans. - Mais je crois qu'il faut bien comprendre
23:48 que ce chat GPT nous pose un certain nombre de questions,
23:51 nous fascine en même temps, mais en même temps,
23:54 je crois, à un moment un peu particulier avec les technologies de l'information.
23:59 Et le chat GPT, il est un peu un révélateur,
24:01 c'est-à-dire qu'il traumatise tout le monde, tout le monde en parle.
24:03 - Ou il exalte les gens. - Voilà, il exalte les gens.
24:07 Mais vous êtes certainement trop jeune.
24:10 Il y a longtemps, il y a eu une expérience traumatisante
24:14 pour les Français, c'était Amandine.
24:16 Alors, je ne sais pas si vous savez, Amandine, qui c'était ?
24:18 - Moi, j'ai eu le joueur de Go, en expérience traumatisante.
24:21 - Le premier, c'était bien avant. - C'est quand ça ?
24:25 - C'était il y a très longtemps, parce que moi non plus, j'étais tout enfant.
24:28 C'est le premier bébé éprouvette, Amandine.
24:31 - Mais ce n'était pas Elisa ? - Ah non, Elisa, ce n'est pas un bébé éprouvette.
24:34 - C'est quoi ton bébé éprouvette ?
24:37 - C'est bien Amandine, mais c'était en 82.
24:40 - Voilà, en 82. - Donc je n'étais effectivement pas née.
24:43 - Et c'est important parce que c'est à partir de la naissance d'Amandine
24:48 qu'on a créé le Comité Consultatif National d'Éthique.
24:51 Parce qu'on s'est rendu compte que les progrès dans les sciences de la vie
24:54 rendaient nécessaire ce type de choses.
24:57 Et je crois qu'aujourd'hui, avec chaque GPT,
25:00 on est un peu dans le même contexte.
25:02 C'est-à-dire qu'il y a cette expérience traumatisante.
25:04 Et c'est amusant parce qu'il se trouve qu'il y a très longtemps,
25:06 quelqu'un qui s'appelle le professeur Hurrier, qui est un sénateur,
25:09 qui est à l'origine des lois bioéthiques, m'avait dit
25:12 "Effectivement, les questions d'éthique de l'intelligence radiale sont importantes."
25:15 Il me dit "Mais tant que vous n'aurez pas une expérience aussi traumatisante
25:18 que celle qu'on a eue, vous n'arriverez pas à mettre en place ces réflexions."
25:22 Aujourd'hui, je crois qu'elles sont là parce que tout le monde est convaincu
25:25 qu'effectivement... - On est vraiment convaincu.
25:27 Et on le voit à travers l'école.
25:28 - Oui, Laurence de Villers, je vous donne le mot de la fin,
25:30 comme ça après on se dit au revoir, parce qu'on a nos collègues de France Télé
25:33 qui arrivent tout doucement pour leur émission.
25:36 - Je pense qu'il faut vraiment qu'on arrête de penser
25:40 qu'on est juste des cobayes devant ces machines.
25:42 On a toute l'attitude de comprendre leurs limites
25:45 et d'aider les enfants à les comprendre.
25:47 Les enfants, demain, vont créer d'autres machines
25:49 qui auront d'autres capacités.
25:50 Et vraiment, il faut absolument qu'à l'école,
25:52 ce ne soit pas la formation des professeurs qui va prendre du temps,
25:56 même si maintenant on a un CAPES en informatique.
25:59 Il faut absolument que ce soit une transition directe, agile,
26:04 où les élèves et les professeurs apprennent à débattre autour de l'IA.
26:09 L'IA, c'est des objets sociotechniques.
26:11 Le GPT, on le voit très bien.
26:13 On anthropomorphise, on projette sur ces machines.
26:15 On a de l'affectif vis-à-vis de ces machines.
26:18 Donc tous ces sujets de données privées, d'attention prise,
26:21 de manipulation doivent être débattus à l'école,
26:24 dès le cycle 1, là où on en prend les fondamentaux.
26:27 Et c'est une matière interdisciplinaire qui n'est pas tech,
26:30 qui n'est pas philo, qui est les deux.
26:32 Et qui rejoint aussi l'idée que science de la vie,
26:35 ou science de la physique, c'est ce qu'on vit dans le réel.
26:38 Science des données et du numérique,
26:40 c'est ce qu'on doit voir en même temps.
26:42 - Et on peut se dire quand même que, en tout cas pour le moment,
26:44 en termes d'éducation, en tout cas si on voit la réaction de Sciences Po
26:48 d'interdire cet outil-là, sans en parler, on n'y est peut-être pas encore.
26:53 Merci beaucoup.
26:54 Merci Laurence De Villers, professeure en intelligence artificielle
26:57 à l'Université Paris-Sorbonne.
26:59 Merci Jean-Gabriel Ganassia, informaticien, philosophe,
27:03 professeur à la faculté des sciences de la Sorbonne
27:05 et président du comité d'éthique du CNRS.
27:08 Voilà, il est 18h53.
27:11 Alors dans le tchat on nous disait déjà "attention Samuel Etienne arrive".
27:15 Samuel Etienne et Christelle Méral d'ailleurs,
27:17 qui reçoivent Olivier Véran, le porte-parole du gouvernement,
27:20 sur Twitch dès 19h.
27:22 Merci à vous, merci de nous avoir éclairés.
27:25 C'est vite passé quand même 55 minutes,
27:27 mais c'était hyper intéressant, merci à vous.
27:30 Demain au menu du Talk, faut-il arrêter de manger de la viande ?
27:33 Rendez-vous à 18h demain sur Twitch,
27:35 ou un peu plus tard dans la soirée en podcast.
27:38 Merci à toutes et à tous, à demain.
27:40 On lance la petite boucle d'attente
27:42 et nos collègues de France Télé arrivent juste après.
27:45 Salut, merci à vous.
27:46 Merci à vous.
27:48 [Musique]
27:51 [Musique]
27:55 [Musique]
27:58 [Musique]
28:04 [Musique]
28:10 [Musique]
28:16 [Musique]
28:22 [Musique]
28:25 ♪ ♪ ♪
Recommandations
54:40
17:24
16:50
17:11
12:23
21:55
52:38
22:23
7:13