Passer au playerPasser au contenu principalPasser au pied de page
  • hier

Catégorie

📚
Éducation
Transcription
00:00Un des boulots aussi menacés, c'est les psychologues.
00:03On va jusqu'à l'extrême.
00:06C'est-à-dire qu'on va avoir des robots psychologues payés à comment ne pas payer du tout.
00:12La Banque Corée du Sud, il y a des caméras tous les côtés, même dans la campagne.
00:17Les magasins, il y a certains magasins qui sont avec des robots.
00:20Vous pensez vraiment qu'une IA pourrait me remplacer, moi, vraiment ?
00:24Pourrait faire ce que je fais, vraiment, honnêtement ?
00:26Non, pas vous, parce que vous êtes une IA.
00:29C'est fini, toi, mais bon.
00:37Bienvenue dans cette nouvelle interview du Média en 442.
00:41Aujourd'hui, j'ai le plaisir de recevoir Christophe Tricard.
00:44Bonjour, Christophe.
00:45Oui, bonjour, Kate.
00:48Merci d'avoir accepté mon invitation.
00:51Christophe Tricard, vous êtes scénariste, formateur indépendant en entreprise sur l'humour positif et l'optimisme.
00:58Et vous êtes auteur de 42 ouvrages.
01:01Vous venez ici nous présenter votre bande dessinée qui s'intitule « L'intelligence artificielle s'amuse ».
01:08Elle est sortie en mars 2025, donc tout récemment, aux éditions « Les mots se réveillent ».
01:15Alors, moi, ma première question, c'était pourquoi vous êtes intéressé à l'intelligence artificielle ?
01:23Et pourquoi lui consacrer une BD ?
01:26Oui.
01:26Alors, en fait, j'étais un petit peu comme tout le monde.
01:28C'est-à-dire que, bon, je pensais naïvement que c'était une technologie qui pouvait vraiment bien nous aider.
01:36Je ne voyais pas trop les travers, les dangers.
01:38Et puis, un jour, j'ai entendu, à commencer une radio, tout ce qui est plus officielle, un scientifique qui parlait des dangers de l'intelligence artificielle.
01:51Et je me dis « Waouh ! » Et donc, bon, c'est quand même quelque chose que je ne connaissais pas.
01:56Donc, je me suis documenté.
01:57Et puis, je me suis aperçu qu'il y avait beaucoup plus d'inconvénients, je trouve, avec l'intelligence artificielle que de bénéfices.
02:07Que tout allait trop vite, quoi.
02:08Qu'il fallait au moins faire un moratoire, quoi.
02:10Et puis, à partir de là, je me suis dit « Tiens, bon, comme j'ai un petit talent, quoi, de scénariste, je vais créer des dégags, donc, avec des petits personnages, quoi, sur l'intelligence artificielle pour faire passer des messages. »
02:27Et puis, donc, résultat, quoi.
02:29Alors, ce qu'il faut savoir aussi, c'est qu'à ma grande surprise, j'ai présenté, bon, avec Gérard Clam, le dessinateur, on a présenté, donc, le projet à tous les...
02:40Éditeur, comment ils ont retenu, quoi.
02:45Et puis, ben, ils nous ont tous refusés, quoi.
02:48Et puis, pour certains, bon, ils n'ont pas hésité de nous dire « Oh non, ce n'est pas vraiment politiquement correct. »
02:55Alors, sous-entendu, effectivement, on ne se moque pas, quoi, de quelque chose, on ne révèle pas de quelque chose qui peut faire gagner des milliards,
03:03qui peut aussi nous embricader un petit peu plus.
03:06C'est intéressant ce que vous êtes en train de nous raconter, parce que, somme toute, moi, j'ai lu votre bande dessinée,
03:15c'est très marrant, enfin, c'est très gentil, on va dire, ce n'est pas du tout de l'humour incisive.
03:23Et là, vous êtes en train de nous expliquer que, finalement, des maisons d'édition ont refusé de prendre ce projet,
03:30parce que c'était politiquement incorrect.
03:33Oui.
03:33Et pourtant, vous ne parlez pas de santé, forcément.
03:36Il y a des sujets qui sont un peu plus controversés, je vais dire.
03:41Là, l'intelligence artificielle, on peut quand même s'en moquer.
03:46Oui et non, parce qu'en fait, c'est un petit peu, justement, là, tu avais bien mis le doigt sur la question.
03:53C'est un petit peu comme les médicaments ou les vaccins, c'est-à-dire qu'il ne faut pas creuser, creuser, quoi.
04:02Parce que, dès qu'on creuse, on s'aperçoit que, par exemple, pour entrer dans le vif du sujet,
04:07qu'il y a de l'esclavage pratiquement humain, quoi, de pauvres types qui, en Afrique de l'Ouest ou en Asie de l'Est,
04:16travaillent pour 3 dollars, quoi, rentrer des millions de données tous les jours, quoi,
04:21c'est aussi que, au niveau énergétique, c'est une catastrophe, c'est une catastrophe, quoi, ça.
04:28C'est une technologie qui consomme vraiment énormément, quoi, d'énergie, quoi,
04:34et puis qui aussi va nous resserrer un petit peu plus nos libertés, c'est évident, quoi.
04:42Eh bien, ça, on va en parler.
04:44Mais tout d'abord, moi, il y a un point sur lequel j'aimerais insister.
04:48Thédric Sauvia, qui est le cofondateur et le président de l'Association française contre l'intelligence artificielle,
04:56a signé la préface de cette BD.
04:59Pour quelles raisons ?
05:00Et est-ce que c'était aussi une manière de faire passer,
05:05de dire qu'il y a des craintes vis-à-vis de l'IA, aussi ?
05:09Eh bien, oui, ça, c'est évident, quoi.
05:11C'est-à-dire que, pour la petite histoire, je fais partie de cette association-là,
05:14aussi, quoi.
05:15Et puis, c'est des gens qui m'ont beaucoup aidé,
05:17parce qu'il n'y a pas beaucoup d'informations, quoi.
05:21C'est-à-dire que, lorsqu'on va sur le net, quoi,
05:26toutes les premières pages sont plutôt consensuelles, quoi.
05:31Donc, il n'y a pas vraiment, on ne creuse pas, quoi.
05:33Des bouquins sur, critiques un petit peu sur l'IA,
05:37bon, il n'y a pas beaucoup, quoi.
05:38Donc, effectivement, Cédric m'a aidé, quoi, dans la réalisation de cette BDI.
05:49Et pourquoi alors en faire, pourquoi avoir créé une association,
05:53une structure, finalement, pour dire non à l'intelligence artificielle ?
05:59Est-ce que les craintes, elles sont vraiment avérées ?
06:02Oh, ben oui, c'est net, quoi.
06:04C'est-à-dire que, déjà, la première crainte, c'est que ça va trop vite, quoi.
06:07C'est-à-dire que, même, je ne suis pas le seul à le dire,
06:10il y a même un ancien prix Nobel, quoi, dont j'oublie le nom, quoi,
06:15qui a justement travaillé sur l'IA, qui est un des concepteurs,
06:19qui dit qu'il faudrait avoir un moratoire, quoi.
06:21Il y a des tas de gens qui se disent, voilà, que ça va beaucoup trop vite,
06:25parce qu'on joue un petit peu à l'apprenti sorcier, quoi.
06:28Par exemple, pour la petite anecdote, quoi, et ça date déjà de 2018,
06:34il y a, ce sont des scientifiques qui se sont rendus compte
06:37qu'il y avait deux NIA qui avaient imaginé une langue, quoi,
06:42et ils dialoguaient entre eux, quoi,
06:45alors que c'était une langue complètement inconnue,
06:48complètement incompréhensible pour l'humain, quoi.
06:53Et donc, ça peut être aussi à ce niveau-là, quoi.
06:55Ça veut dire qu'on va trop vite, quoi,
06:57et donc, bon, voilà, il faut au minimum stopper tout ça, quoi.
07:01Alors, Christophe, vous avez aussi choisi l'humour
07:03pour aborder les dérives de l'intelligence artificielle.
07:07Pourquoi l'humour ?
07:08Parce qu'en fait, l'humour, ça fait…
07:12On peut pas se faire passer des messages
07:13d'une manière comme ça, insidieuse.
07:16D'ailleurs, ce qui embêtait, je pense,
07:18ces gens qui travaillent et qui sont trop au IA, quoi,
07:22c'est que par l'humour, on peut rien faire, quoi.
07:26Surtout, j'ai choisi le côté gentiment caustique,
07:30c'est-à-dire que je les attaque pas d'une manière directe, quoi.
07:34Donc, tout à fait gentil, quoi.
07:36Donc, on peut rien me critiquer, quoi.
07:39Et en plus, j'ai l'impression que je lis des évidents, quoi.
07:43Alors, vous abordez effectivement dans cette BD
07:48plusieurs aspects, finalement, de la vie quotidienne.
07:53C'est un peu, qu'est-ce que l'IA donne dans notre vie au quotidien ?
08:00Mais vous mettez quand même l'accent sur, finalement,
08:06le manque d'humanité, le manque d'humanisme,
08:09de l'intelligence artificielle, ce que ne pourra jamais,
08:12en fait, le robot ne pourra jamais remplacer l'humain.
08:17Et donc, les aspects, bah, oui, il y a l'écologie,
08:21parce que vous dites que l'IA est complètement contre-productive
08:25sur l'écologie.
08:27Alors, vous nous en avez dit quelques mots tout à l'heure
08:29en début d'émission.
08:32Mais alors, pour aller un peu plus dans le sujet,
08:35qu'est-ce que, pourquoi l'IA est contre-productive sur l'écologie ?
08:40C'est-à-dire que, d'une part, elle utilise beaucoup d'énergie, quoi.
08:45Un data center utilise, par exemple,
08:49l'équivalent d'une ville de 50 000 habitants,
08:52quoi, en énergie, quoi, en électricité, quoi,
08:54et en refroidissement, quoi.
08:56C'est aussi au niveau des minéraux rares, quoi.
08:59C'est-à-dire qu'il y a trop de lithium et autres.
09:05Il est extrait en, bah, comment, c'est pour ça, d'ailleurs,
09:08que d'un pays comme le Congo est très covoité, quoi,
09:13parce qu'en fait, il vient de là-bas.
09:14Donc, il y a, on va en train de puiser, quoi,
09:18donc, les réserves de minéraux rares par cette,
09:23à cause de cette technologie, entre autres.
09:27Bon, il y a aussi, bien sûr, les téléphones et tout,
09:29tout ce qui est informatique,
09:30mais, donc, ça rajoute un petit peu plus, même beaucoup, quoi.
09:35Les téléphones, les voitures électriques, aussi.
09:37Oui, oui, tout à fait, oui, bah, ça, ça va dans tout le sens, quoi.
09:40C'est-à-dire qu'en fait, l'IA est un petit peu la, comment,
09:44la résultante de toutes les technologies,
09:46l'aboutissement de toutes les technologies actuelles,
09:49concentrées pour, soi-disant, aller plus vite.
09:52Effectivement, ça va beaucoup plus vite
09:54pour robotiser un petit peu plus, quoi.
09:58Alors, vous parlez aussi du chômage de masse à venir,
10:02que l'IA, donc, serait un risque pour nos emplois, finalement.
10:08Est-ce que c'est un risque qui est avéré, vraiment ?
10:10Vous citez, enfin, c'est pas que vous...
10:12Oui, vous citez quelques métiers
10:15qui pourraient, par exemple, disparaître
10:19dans un avenir proche, vous dites.
10:21Les secrétaires, employés bureaucratiques,
10:24les traducteurs, les doubleurs dans les films,
10:28peut-être les journalistes, les auteurs de livres.
10:31Ah bon ?
10:32Ah bon ?
10:32Oui, oui, tout à fait.
10:35Effectivement, tous ces métiers-là, déjà, le subissent.
10:38Moi, j'ai des copains qui sont graphistes,
10:41par exemple, indépendants,
10:43qui ont dû diminuer de 40% leur chiffre d'affaires, quoi.
10:47Donc, les traducteurs, c'est pareil, quoi.
10:49Donc, il y a des tas de métiers, quoi,
10:51qui sont même dans le domaine de la santé,
10:53c'est-à-dire que j'étais en contact récemment
10:57avec une infirmière, quoi,
11:00qui me disait que les cours étaient programmés
11:06avec de l'IA, quoi.
11:08Donc, voilà, distanciel, on faisait ça, quoi.
11:11Et puis aussi, au lieu de mettre une aide,
11:15une aide, on va mettre un robot, quoi.
11:19Donc, voilà, tout ça, c'est sans cours, quoi, en fait.
11:24Donc, soi-disant, pour faire gagner du temps.
11:26Mais ça, c'est pour, globalement,
11:28pour réduire la masse salariale, quoi.
11:31Ça fait 8 ans.
11:32Mais franchement, vous pensez vraiment
11:36qu'une IA pourrait me remplacer, moi, vraiment,
11:38pourrait faire ce que je fais, vraiment, honnêtement.
11:41Non, non, pas vous, parce que vous êtes unique, toi.
11:45Mais bon, non, non, non, mais il y a des tonnes de journalistes
11:49qui déutilisent déjà l'IA.
11:50Alors, là où ça fonctionne vraiment pas trop bien,
11:53c'est que, globalement, à part d'être un béné, quoi,
11:57mais on sent tout de suite un texte
11:59qui a été généré par un IA.
12:00Parce que, effectivement, techniquement, c'est bien,
12:05il y a toutes les données, quoi.
12:06Par contre, ce qui manque, c'est l'émotion,
12:09comment, la sensibilité, quoi, l'humain, quoi.
12:12Donc, ça, alors là, l'IA est un petit peu incapable
12:15de, même beaucoup, de le faire, quoi, hein.
12:17Donc, voilà.
12:18Donc, rassurez-vous, les journalistes ont encore, quoi,
12:21s'ils sont éveillés, quoi, s'ils donnent pas leur âme
12:24et leur cerveau à l'IA, il y a encore des beaux jours
12:27pour les, ah, comment, pour les, vraiment, pour les journalistes.
12:31Mais bon, c'est dit, il y a quand même le syndicat national des journalistes
12:36qui a fait, ah, comment, tout un topo et qui se plaint
12:41et puis qui a peur, quand même, hein.
12:44Donc, c'est pas un fantasme de...
12:48Non, mais vous avez bien rancé, non, c'est pas un fantasme.
12:51En réalité, le danger...
12:52Alors, on l'a vu, il y a quelques années, en Chine,
12:54ils avaient créé des robots présentateurs de JT.
12:58Je me souviens très bien de ces robots qui présentaient le JT.
13:02Je pense que c'est en Chine, hein, il me semble.
13:03Et on voit bien, bon, on va dire, si vous voulez,
13:07le présentateur JT, bon, c'est pas vraiment un journaliste.
13:10Allez, on va faire une petite critique,
13:12un petit tacle comme ça au présentateur JT.
13:16Mais en ce qui concerne, effectivement, les articles de presse,
13:20en tout cas sur la presse écrite,
13:22on se rend compte que l'IA peut, effectivement,
13:25développer des articles si vous mettez plusieurs détails,
13:29parce qu'apparemment, il y a certaines personnes
13:30qui savent s'en servir, et ça, c'est un vrai danger.
13:33C'est un vrai danger, c'est ce que vous disiez à la fois
13:36pour les auteurs de livres, pour les journalistes,
13:38pour tous ceux qui écrivent.
13:40Et on retrouve aussi cet aspect-là dans l'éducation,
13:44ce que vous dites d'ailleurs à l'école,
13:46parce qu'on s'aperçoit que de plus en plus d'élèves
13:49utilisent l'intelligence artificielle via tchat GPT
13:55pour disserter, pour faire des devoirs.
13:58Et maintenant, dans les écoles, c'est vrai
14:00qu'il y a certains professeurs qui font même signer
14:03une charte aux élèves pour attester
14:07qu'ils n'utiliseront jamais l'intelligence artificielle.
14:11Oui, alors, en fait, il y a comme une petite tendance
14:14qui grossit, c'est-à-dire que les profs ou les instituts
14:18ne donnent plus de devoirs à la maison.
14:21Donc, effectivement, là, les gamins sont embarrassés,
14:26parce qu'à moins d'être super doués en manipulation,
14:30ils ne font pas à comment tricher.
14:32Parce qu'en fait, le problème, il est là.
14:35Pour l'éducation, c'est la triche.
14:37Et puis aussi, un autre gros problème,
14:40c'est le manque de sens critique que peuvent avoir les élèves.
14:44C'est-à-dire qu'ils prennent un argent comptant,
14:47parce qu'ils sont tout contents.
14:48En fait, en quelques secondes, ils auront leur devoir fini.
14:52Par contre, effectivement, ils ne vont pas les piocher
14:56comme un livre ou un article de presse,
15:00qui est normalement à plusieurs,
15:02normalement pour les articles de presse,
15:05pas pour vous, mais à, comment dire,
15:08ont des aspects différents.
15:11Donc, voilà.
15:12Et que là, effectivement, techniquement, c'est bien.
15:15Mais bon, voilà.
15:15Donc, c'est vraiment un gros risque aussi.
15:17C'est le coup.
15:19C'est ce que vous montrez aussi dans votre BD,
15:22justement, par l'humour, quoi, finalement.
15:26Les élèves qui sont, enfin, oui, les jeunes qui sont scotchés
15:29à leur outil, à leur téléphone,
15:33les formations qui se font en distanciel aussi.
15:36Et puis, il y a cette maman qui a trouvé un lycée
15:39pour son fils et à lycée où on n'utilise pas
15:43ni les tablettes, ni l'intelligence artificielle,
15:47ni rien du tout, quoi.
15:48Le gamin n'est pas forcément très content.
15:51Alors, en fait, c'est le propre de ma BD,
15:54c'est que globalement, je n'ai rien inventé, quoi.
15:56Donc, c'est-à-dire que j'ai pioché, quoi.
15:59Il y avait des têtes, de toute façon,
16:00des tas d'aberrations, quoi.
16:01Et puis, effectivement, j'ai un gag
16:04où il y a, donc, cette mère qui a trouvé
16:07un super collège à côté de chez elle et tout,
16:12sauf que le gamin, il est complètement à comment révolter
16:15en disant, mais ça ne va pas, non,
16:17et on ne va même pas pouvoir utiliser
16:18l'intelligence artificielle,
16:20on ne va pas revenir au Moyen-Âge, quand même.
16:22Donc, voilà, parce que pour eux, c'est normal, quoi.
16:24Donc, c'est ça qui est aussi.
16:27Il y a aussi un gag que j'ai mis,
16:30même en dernière de couverture,
16:32où, justement, parce que, bon,
16:35j'ai mis aussi le pendant, quoi,
16:36des gens qui sont pour et contre, quoi,
16:38et puis qui ont du bon sens, tout simplement,
16:41parce que, bon, voilà, c'est un petit peu
16:43comme c'était auparavant,
16:45même encore pour la médecine, quoi.
16:47Bien, il y a des aberrations
16:49sans citer les poisons.
16:50On a essayé, on a essayé toujours
16:52de nous ingurgiter, quoi.
16:55Ben, voilà, donc, le, comment dire,
16:58elle amène, donc, l'héroïne amène
17:01notre, mon personnage pro à 100%
17:05il y a, quoi, et puis elle est devant un neurologue
17:08et puis le neurologue dit, bon,
17:10on va vous enlever votre cerveau, quoi,
17:11il ne sert plus à rien.
17:13Mais non, non, non.
17:15Et puis, il y a un côté qui dit,
17:16si, si, si, comme ça,
17:17je le rends encore plus entre les mains, quoi.
17:20Voilà, c'est un petit côté de ça, quoi.
17:22C'est-à-dire qu'on est en train
17:23de décérébrer, quoi, les gens un petit peu plus, quoi.
17:26Donc, déjà, le contenu des films
17:28ou des émissions n'était pas toujours génial, quoi.
17:31Alors là, bon, avec l'IA,
17:33ça va être en pire, quoi.
17:34C'était vraiment un gros risque, quoi.
17:36Donc, à travers l'humour,
17:37on peut faire passer, quoi.
17:38J'espère avoir fait passer, je pense,
17:40oui, parce que tous les décos sont là, quoi.
17:43Bon, certains messages, quoi,
17:44et certaines réflexions.
17:47Alors, le comble de l'aberration,
17:48quand même, pour moi,
17:49ça a été au niveau des relations amoureuses.
17:52Alors ça, je ne m'y attendais pas,
17:54je ne connaissais pas.
17:55Et là, vous nous racontez l'histoire
17:57d'une jeune femme, en plus,
17:59qui est assez jeune.
18:01Elle a 36 ans, je pense,
18:02c'est aux États-Unis.
18:03Oui, dans le Bronx.
18:04Aux États-Unis.
18:05Alors, vous dites qu'elle a épousé
18:07virtuellement un chatbot IA
18:09après l'avoir créée
18:10sur l'application Replica AI.
18:13Je suis allée voir, hein,
18:17qu'est-ce que c'était cette application.
18:18Effectivement, elle existe,
18:20elle est bien réelle.
18:21Je me suis dit, wow !
18:21Elle glande des millions de personnes.
18:25Alors, pour l'instant,
18:26c'est un petit peu marginal,
18:27mais bon, ça va vite arriver, quoi.
18:29Mais aux États-Unis, en Angleterre,
18:32ça a pris des proportions, quoi.
18:33Alors ça, c'est le côté positif,
18:35c'est-à-dire qu'effectivement,
18:37on pourrait se dire,
18:37bon, voilà, c'est sympathique,
18:40sauf qu'il y a une dépendance affective
18:44puis technologique.
18:46Et ça a été aussi beaucoup plus loin.
18:47C'est-à-dire qu'il y a eu des cas de suicide,
18:50de, comment dire,
18:52de filles,
18:54bon, je pense qu'il y a aussi de mecs, quoi,
18:56qui, parce qu'effectivement,
18:58l'IA ne correspondait plus,
19:00à un moment donné,
19:00à leur volonté,
19:02ou c'était une prise en code,
19:07comment, un réveil, quoi.
19:09Donc, ça peut aller très loin.
19:10C'est-à-dire que, d'une part,
19:12on y, comme à tous les relations humaines,
19:15et en plus, on peut créer, quoi,
19:17au milieu des dépressions,
19:19et au pire, donc des suicides, quoi.
19:23Mais complètement, complètement.
19:26Est-ce que vous pensez aussi
19:28qu'il y a quand même des avantages
19:30à utiliser l'intelligence artificielle,
19:32au-delà de décrire tous les côtés négatifs ?
19:37Est-ce qu'il y a quand même des choses
19:38qu'on peut en tirer,
19:39on peut servir quand même
19:41de l'intelligence artificielle au quotidien
19:44pour les bons aspects ?
19:46Ben oui, pour les recherches d'informations,
19:48bon, pourquoi pas, effectivement,
19:49ça fait un gain de temps, quoi,
19:51bon, même si, effectivement,
19:52ben là, on remet en cause aussi
19:54tout le petit thème,
19:55toute la rapidité,
19:56toute la frénédie du temps qui passe, quoi.
19:59Bon, il y a ça.
19:59Il y a éventuellement aussi
20:01pour la médecine, quoi,
20:04donc, bon, c'est-à-dire qu'effectivement,
20:06pour certains radiologues,
20:08vous devez gagner du temps aussi, quoi,
20:10donc, il peut y avoir d'autres aussi.
20:12Bon, pour tout l'aspect aussi,
20:14je ne sais pas, admettons,
20:15pour toutes les voitures
20:16qui sont de plus en plus automatisées,
20:19ben, c'est vrai que ça aussi,
20:20bon, pour la sécurité,
20:22ça peut être pas mal, quoi, hein, en fait.
20:23Donc, il y a quelques points
20:26qui sont positifs,
20:28il ne faut pas te remettre en cause, quoi,
20:30mais, bon, si c'est dit,
20:32ben, comme ça va trop vite, quoi,
20:33ben, on a pu,
20:35c'est un petit peu l'apprenti sorcier
20:36qui a réussi à, comment,
20:38à régler et puis à arrêter, quoi,
20:41le deux temps, quoi, hein,
20:42donc, c'était ça aussi, quoi,
20:43c'est-à-dire qu'il faudrait vraiment,
20:45je me répète un petit peu,
20:47mais un moratoire en se disant,
20:49bon, allez, on stoppe tout
20:50et puis on réfléchit, quoi,
20:51ce qui est positif,
20:53et non, quoi.
20:56Alors, est-ce que vous pensez,
20:57justement, qu'en France,
20:58on va trop vite ?
21:01Ah oui, c'est indéniable, quoi, hein,
21:03donc, puis,
21:04c'est avec moi qui le dit, quoi,
21:05donc, c'est vrai que, tu sais,
21:07je crois qu'il y a un moratoire
21:09qui a été demandé par une,
21:11plus de mille scientifiques
21:13comme économistes
21:15pour, justement, faire un arrêt,
21:18quoi, dans cette technologie, quoi,
21:20c'est, voilà, c'est,
21:22parce que, ben, oui,
21:23on a, ce que je disais en off,
21:25un petit peu,
21:26c'est qu'au niveau
21:27de la technologie,
21:29oui, de l'énergie,
21:30il faudrait construire
21:31des, comment,
21:33des dizaines,
21:34comment, de,
21:35voire peut-être,
21:36peut-être des centaines
21:37au niveau mondial,
21:38de centrales nucléaires,
21:39quoi, pour pouvoir,
21:40si on continue comme ça,
21:41tourner de l'électricité
21:46et qu'on met d'énergie
21:47à tous ces data centers,
21:48à toutes ces technologies,
21:49quoi, donc,
21:50c'est-à-dire que,
21:51comme si on allait,
21:52bon, d'ailleurs,
21:53pour, après,
21:54prendre une note positive,
21:56comme si on allait pouvoir
21:57construire une centrale nucléaire,
21:59là,
22:00en 5-7, quoi,
22:02non, non,
22:03déjà, on a du mal,
22:04en fait,
22:04avec les notes
22:05qui sont déjà,
22:06bon,
22:06complètement à ous,
22:08quoi,
22:08à dire qu'on n'imagine même pas
22:10quoi en construire d'autres,
22:11oui.
22:13Alors,
22:13en France,
22:14on a quand même la CNIL,
22:15la Commission nationale informatique
22:17et liberté,
22:18qui est censée veiller
22:20sur,
22:22justement,
22:22de liberté
22:23et les dérives
22:25de l'intelligence artificielle.
22:28J'ai regardé juste un court extrait,
22:29je n'ai pas encore regardé
22:30l'intégralité de l'émission
22:32qui a été diffusée
22:34sur France Télévisions,
22:36Cache Investigation
22:37par Élise Lucet,
22:38menée par Élise Lucet,
22:40et j'ai regardé un court extrait,
22:41il montrait,
22:42justement,
22:43comment les entreprises
22:45recrutent à distance
22:46avec l'intelligence artificielle,
22:49et donc,
22:51le directeur juridique
22:52de la CNIL,
22:53il est intervenu
22:54à ce moment-là,
22:56et l'Élysée lui rappelle
22:57que dans l'IA Act,
23:00c'est la réglementation européenne
23:01sur l'intelligence artificielle
23:03qui est entrée en vigueur
23:04le 2 février 2025,
23:07elle lui rappelle
23:08que l'analyse d'émotions
23:09sur le lieu de travail
23:10est interdite,
23:12comme par exemple
23:12pendant les entretiens
23:13d'embauche.
23:15Et ce monsieur explique,
23:17donc le directeur juridique
23:18de la CNIL explique
23:18que par exemple,
23:19pendant les entretiens
23:20d'embauche,
23:21effectivement,
23:21ils se sont rendus compte
23:22que c'est quand même
23:23un moment de stress
23:24et que le dispositif
23:28de reconnaissance faciale,
23:30je le cite,
23:31dans ce genre de cas,
23:32n'est pas objectif.
23:34Et là,
23:34il parle en fait
23:35des dangers
23:36que ça peut apporter.
23:38Donc,
23:38on voit quand même
23:38qu'il y a une prise
23:39de conscience finalement
23:41sur les dérives potentielles.
23:46Oui,
23:46je pense qu'il y a des gens
23:48même trop placés
23:49qui réfléchissent
23:50qui réfléchissent
23:51que comme tout va trop vite
23:53et qu'il n'y a pas vraiment
23:55de règles très précises
23:58et qu'il y a évolué
23:59aussi très rapidement,
24:00c'est-à-dire que la technologie
24:01a toujours un pas d'avance
24:05sur la réglementation.
24:07C'est ça aussi.
24:08C'est ce que la journaliste
24:10soulevait d'ailleurs comme point,
24:12c'est ce qu'Élise Nussé
24:13soulevait comme point
24:14en disant qu'il y a
24:15beaucoup d'entreprises,
24:16de grandes entreprises
24:17qui utilisent justement
24:18l'intelligence artificielle
24:20même s'il y a
24:22cette réglementation.
24:23Oui,
24:23c'est ça.
24:24Ça ne les empêche pas en fait.
24:25Oui,
24:25il y a tout le côté caché.
24:27Donc,
24:27voilà,
24:27de toute façon,
24:29comme ils savent que globalement
24:31ils n'ont pas beaucoup de risques,
24:32il n'y a pas un gendarme
24:33derrière.
24:35Mais ça aussi,
24:36je pense que c'est un point.
24:37Ça veut dire qu'il y a
24:38peu de gens formés
24:39pour la réglementation
24:41et l'éthique aussi.
24:42Donc,
24:42on a formé
24:43des tas de gens
24:44au niveau de la technologie.
24:46Ça,
24:46ok,
24:47il y en a plein.
24:47Par contre,
24:49au niveau de l'éthique,
24:50ça ne suit pas.
24:51Ça t'est sûr.
24:53Et ce serait quoi alors ?
24:54Ce serait à chacun d'entre nous,
24:56par exemple,
24:56si,
24:57donc je conserve
24:59cet exemple
24:59d'entretien,
25:01d'embauche,
25:02ce serait à chacun d'entre nous
25:03finalement
25:03de refuser
25:04de faire
25:06un entretien
25:07avec une IA ?
25:08Oui,
25:08mais alors…
25:08Si on est dans une démarche
25:10de recherche d'emploi,
25:11eh bien,
25:11je refuse.
25:12Oui,
25:13mais il faut déjà le savoir
25:14qu'en fait,
25:14qu'on n'est pas en face
25:15d'une IA,
25:16parce qu'effectivement,
25:17tout est subtil,
25:18quoi,
25:18en fait.
25:19Moi,
25:19je pense que moi…
25:20Alors là,
25:20il y avait l'exemple,
25:21il y avait l'exemple,
25:23on voit bien que c'est une IA,
25:24parce que vous avez l'image
25:26de quelqu'un,
25:27mais vous voyez bien
25:27que ce n'est pas une vraie personne.
25:28Et puis,
25:30je ne sais pas si c'est une journaliste
25:32qui a testé
25:32ou elle disait
25:34à des moments,
25:35je me sentais pas bien
25:37parce qu'en face,
25:38il y avait un discours froid
25:39un peu automatique,
25:40un peu…
25:41Et oui,
25:43alors ça me rappelle
25:44dans cet exemple-là,
25:45l'IA analyse
25:46les émotions
25:48du candidat.
25:50Donc,
25:51on est dans un espèce
25:52de psylogramme comme ça
25:54et ça fait
25:55comme un électroencéphalogramme.
25:57Et ils ont comparé ça
25:59avec le détecteur de mensonges,
26:01justement,
26:01c'était assez bien fait d'ailleurs.
26:05Et donc,
26:05l'IA analyse vraiment
26:07si la personne est stressée,
26:09si là,
26:10elle est honnête,
26:11si elle est à l'aise.
26:14Oui,
26:14oui,
26:14non mais c'est dramatique,
26:16c'est-à-dire que
26:17comme effectivement
26:18toutes ces techniques existaient,
26:20donc le détecteur de mensonges,
26:22l'analyse et tout,
26:23de la psychologie existait,
26:25mais là,
26:26ça va très vite quoi.
26:27C'est-à-dire que
26:27en quelques secondes,
26:30la technologie
26:31fait le travail
26:32d'un psychologue
26:36en fait,
26:37en une heure quoi.
26:39Donc,
26:39ça va.
26:39Donc,
26:40comment savoir
26:41effectivement ?
26:42Et puis ça,
26:43il y a la partie visible même.
26:45Mais il y a aussi
26:46tout en amont quoi aussi.
26:48C'est-à-dire que
26:49là,
26:49il y a l'image encore quoi.
26:51Mais la détection
26:52au niveau de l'écrit,
26:54là,
26:54pour un candidat,
26:55il ne peut pas savoir quoi.
26:56Si au téléphone,
26:58je veux dire,
26:58il ne peut pas savoir non plus quoi.
27:00Donc,
27:01voilà,
27:01il y a tout ce côté
27:03vraiment très caché
27:04qui est utilisé
27:05par les entreprises.
27:07Alors bon,
27:08c'est vrai que
27:08pour rassurer
27:10quand même
27:10les auditeurs,
27:11je pense que
27:13c'est pas,
27:13c'est surtout
27:14pour les grosses boîtes
27:15que c'est utilisé quoi.
27:16Parce que bon,
27:16je ne vois pas
27:17dans une PME
27:18comment je vois
27:19j'ai travaillé
27:19pendant un domaine
27:20dans une PME,
27:21ils ne m'ont pas
27:22utilisé l'IA.
27:23Parce qu'en plus,
27:24ils savent que
27:25ça peut leur porter
27:26préjudice.
27:27C'est-à-dire que
27:28d'une part
27:29au niveau législatif,
27:31loi,
27:32mais aussi,
27:33comment dire,
27:34d'avoir le travers
27:35parce que l'IA
27:36aura été
27:37trop pointue
27:39et puis que
27:39tout l'aspect humain
27:40aura été
27:41gommé.
27:43Donc,
27:43je pense qu'il y a ça aussi.
27:44mais bon,
27:46c'est une tendance
27:47qui est comme en clean.
27:49Donc voilà,
27:49un des boulots
27:51aussi menacés,
27:52c'est les psychologues
27:53qui en va
27:54jusqu'à l'extrême.
27:56C'est-à-dire que
27:57on va avoir
27:57des robots psychologues
27:59payés
28:00à comment
28:01pas payer du tout.
28:03Ça aussi,
28:03c'est intéressant.
28:05Alors,
28:06en tout cas,
28:07la France
28:08semble très impliquée
28:10dans ce courant
28:12vers l'exploitation
28:14de l'intelligence artificielle.
28:16Selon le ministère
28:17chargé de l'enseignement
28:18supérieur et de la recherche
28:19dans le cadre
28:20du plan France 2030,
28:22la France est le premier
28:23écosystème
28:24pour l'IA
28:24en Europe
28:25avec plus de 600
28:27start-up
28:27en IA créées
28:29et 2,5 milliards
28:31d'euros
28:31mobilisés
28:32en faveur
28:33de l'intelligence
28:34artificielle
28:35dans le cadre
28:36de,
28:36encore une fois,
28:37de France 2030.
28:39Donc ça,
28:39c'est un objectif
28:40en réalité,
28:41France 2030.
28:43On voit que
28:43cette date
28:44se réapparaît
28:44dans plusieurs...
28:46Oui,
28:47oui,
28:47mais ce qui est
28:49assez aussi
28:50tragique,
28:51c'est que d'une part,
28:52c'est des fonds publics,
28:53donc on ne nous demande
28:53pas de notre avis.
28:55Et puis d'autre part,
28:57dès qu'une start-up
28:58fonctionne bien,
28:59elle va être
29:00rachetée
29:01avec le financement
29:03de nos données publiques,
29:04de nos impôts,
29:05par un mastodon
29:06américain
29:07ou bien asiatique.
29:08C'est-à-dire
29:09qu'à mon avis,
29:10une start-up
29:11française
29:12qui va développer
29:13l'IA,
29:14a peu de chance
29:15d'arriver
29:16à maturité.
29:17C'est-à-dire que
29:18tant qu'elle est
29:19dans les balbutiements,
29:21en train de chercher,
29:22vous dire,
29:22bon,
29:23voilà,
29:23pour les mastodon,
29:25ce n'est pas grave.
29:26Par contre,
29:26dès qu'elle commence
29:27à être opérative
29:29et puis être ingéniose,
29:31parce que je pense
29:32qu'il y a
29:33des scientifiques,
29:35des chercheurs
29:35qui sont
29:36effectivement géniaux,
29:37et bien elle va être
29:38vite rachetée.
29:39Donc,
29:40nos milliards investis,
29:41ils vont aller
29:42aux États-Unis
29:42ou en Chine.
29:44Ça,
29:44c'est évident.
29:46Parce qu'il y a
29:47tous ces fonds aussi
29:48qui sont financés
29:49par l'Arabie Saoudite,
29:51tous les pays
29:52émirats arabes.
29:53Donc,
29:53c'est vrai que,
29:54bon,
29:55avec toutes ces
29:55grandes déclarations,
29:57dire,
29:57voilà,
29:57on met des milliards
29:58et tout,
29:59qu'on creuse un petit peu,
30:00il y a beaucoup
30:01de financements aussi
30:02étrangers.
30:03C'est sûr.
30:05Est-ce que vous pensez
30:06que cette expansion
30:08de l'intelligence artificielle
30:10et notamment
30:10ce but de 2030
30:14entre dans une démarche
30:16de globalisme
30:17via le transhumanisme ?
30:21Est-ce que c'est vers ça
30:23que ça tend ?
30:24Évidemment,
30:25oui.
30:25C'est sûr qu'effectivement,
30:27comme c'est une technologie
30:29qui est super efficace
30:32pour eux,
30:33c'est une accélération aussi.
30:35je pense que le mot,
30:37il est là.
30:37C'est-à-dire qu'on accélère
30:40grâce à l'IA
30:40le processus
30:42de faire une société
30:44complètement robotisée,
30:47vraiment déshumanisée.
30:48C'est un petit peu plus
30:49que pour l'anecdote
30:50qui m'a été contesté,
30:52c'est que là,
30:53nous,
30:53on a encore
30:53au balbutiement,
30:55mais alors que
30:55les paysiers asiatiques,
30:57je vois,
30:57j'ai un copain
30:57de l'association
30:59qui revient
31:00de Corée du Sud,
31:01mais là,
31:01ça fait peur.
31:02c'est-à-dire que là-bas,
31:04en Corée du Sud,
31:05il y a des caméras
31:05tous les côtés,
31:06même dans la campagne.
31:08Les magasins,
31:09il y a,
31:09certains magasins
31:10qui sont avec des robots,
31:12donc vous payez un robot,
31:15avec un robot
31:16qui vous choisit.
31:17En Chine,
31:18par exemple,
31:18aussi,
31:19ils se sont rendus compte
31:20que la reconnaissance spatiale
31:23avec le Covid
31:25et les masques,
31:25ce qui est un petit peu
31:26plus difficile,
31:26c'est-à-dire qu'ils ont pris
31:28la reconnaissance planétaire,
31:30c'est-à-dire que les chambres,
31:31quand ils marchent,
31:33je ne sais pas comment
31:33technologiquement
31:34ils vont arriver,
31:35ils sont reconnus
31:36avec leurs pieds.
31:40Donc,
31:40voilà,
31:40tout ça pour dire
31:42qu'il n'y a plus du tout
31:43d'argent liquide
31:45dans ces pays-là,
31:46tout est payé par carte,
31:47même les SDF,
31:49en fait,
31:49ont un smartphone
31:50et puis on leur donne
31:51du cash numérique,
31:56donc voilà,
31:57c'est vrai que
31:58c'est une grosse tendance,
32:00c'est-à-dire qu'on a encore
32:01une toute petite liberté
32:02et nous ici en Europe,
32:03mais si on ne fait pas gaffe,
32:05on va retrouver
32:06ce système asiatique
32:09à vitesse grand V.
32:12Donc après,
32:13je pense que
32:14il faut,
32:15moi qui suis
32:16comme un super optimiste,
32:19je pense que
32:20ce que je vous disais en off,
32:21c'est que
32:22ils n'ont pas
32:23les moyens
32:26de leurs ambitions,
32:27c'est-à-dire que,
32:27par exemple,
32:28tout bête,
32:29c'est que
32:30de construire
32:31des centrales nucléaires,
32:34déjà,
32:34il faudrait que
32:35la technologie
32:35soit encore
32:36en point,
32:38on voit bien
32:38ici en France,
32:39le PR
32:40qui est de nouveau
32:41en panne,
32:41parce qu'il y a
32:42un manque de savoir-faire
32:43qui s'est perdu,
32:44quand même,
32:45puis en construire
32:46des centaines,
32:48je ne sais pas
32:49comment,
32:49dans le meilleur des cas,
32:50ça se fera
32:51dans huit ans,
32:52donc on sera
32:53loin
32:53des 2000,
32:55des 2030,
32:56et puis ici,
32:58par exemple,
32:58pour un domaine
32:59qui me tient à cœur,
33:02c'est une côté artistique,
33:03c'est-à-dire que,
33:04pour l'instant,
33:05on est vraiment
33:06dans l'œil,
33:06je trouve,
33:07dans l'œil du cyclone,
33:08c'est-à-dire qu'effectivement,
33:09un IA peut programmer
33:12et puis vous faire
33:13un livre
33:14ou un roman
33:16ou voir un film,
33:18par contre,
33:18qu'est-ce qui va se passer
33:19d'ici deux ou trois ans,
33:21c'est-à-dire qu'un petit peu plus,
33:23c'est que tous les livres
33:24ou tous les films
33:26vont se ressembler,
33:27quoi,
33:27alors pourquoi aller mettre
33:2918 euros
33:31dans un roman
33:32ou aller,
33:33comment dire,
33:34de sortir,
33:35d'aller voir un film,
33:36comment,
33:37à l'autre bout de Paris
33:38ou ailleurs,
33:39pour aller voir quelque chose
33:41qui va ressembler,
33:42en fait,
33:43à ce qu'on a déjà vu,
33:44quoi,
33:44donc ça,
33:44c'est aussi ça,
33:45c'est-à-dire qu'on est.
33:48Alors,
33:49je voudrais faire une parenthèse
33:51quand même sur la Chine
33:52parce qu'il y a quelques,
33:54peut-être quelques mois,
33:55quelques semaines,
33:56je ne sais plus,
33:57j'ai reçu un de mes invités,
34:00Laurent Michelon,
34:01que je salue,
34:02qui vit en Chine
34:03depuis plus de 20 ans
34:05et justement,
34:06je lui avais posé la question
34:07sur la reconnaissance faciale
34:09et notamment
34:09tout ce débat
34:11qu'il y a eu
34:11pendant cette crise du Covid
34:13et lui m'a dit
34:15que ce n'est pas quelque chose
34:17qui était d'actualité,
34:18c'est-à-dire que c'était
34:19quelque chose
34:20qui était en test,
34:21mais ce n'est pas
34:22la reconnaissance faciale
34:23ou le crédit social
34:25n'est pas appliqué,
34:26en fait,
34:26en Chine.
34:27C'est ce qu'il a dit.
34:29Alors,
34:29moi,
34:29je ne sais pas,
34:30je ne suis jamais allée en Chine
34:31et il faudrait que j'aille vérifier
34:33par moi-même,
34:34effectivement,
34:35mais en tout cas,
34:37c'est ce qu'il a affirmé
34:38sur notre antenne.
34:40Oui,
34:40alors,
34:40je pense que dans les…
34:42Ah bon,
34:43alors la Chine,
34:43effectivement,
34:44est tellement grande
34:45que,
34:45bon,
34:45je vais dire,
34:46je ne sais plus combien
34:47de fait le F1
34:48et qui sont quand même
34:49plus d'un milliard d'eux,
34:51je crois,
34:51à comment dire,
34:53de populations.
34:54Sauf si c'est dit,
34:55dans les grandes villes,
34:56moi,
34:56les gens que j'ai rencontrés
34:58qui y vivent aussi,
34:59je vais dire,
35:00la reconnaissance plantaire,
35:03quoi,
35:03qui est là à Shanghai,
35:04par exemple,
35:04la personne que j'ai lue
35:05a comme on me disait,
35:07donc c'est déjà il y a deux ans,
35:08quoi,
35:08et que c'était quand même
35:09quelque cheveu de palpable,
35:11c'est-à-dire qu'on ne pouvait pas
35:12faire deux pas,
35:13quoi,
35:13sans être propérés,
35:14quoi,
35:15donc,
35:15oui,
35:16non,
35:16et puis,
35:17comme on me disait aussi
35:19mon interlocuteur,
35:20c'est que,
35:21ben,
35:21les Asiatiques,
35:23ou les Coréens,
35:23par exemple,
35:24du Sud,
35:24ils sont tout contents,
35:26quoi,
35:26d'avoir cette technologie
35:27de l'IA
35:28parce que ça leur facilite
35:29de la vie,
35:30quoi,
35:30donc,
35:31ben,
35:31voilà,
35:31il n'y a plus un gain de temps
35:33et tout,
35:33donc,
35:34et puis,
35:35comme,
35:35ben,
35:36ils ont aussi un côté
35:38notamment
35:39obéissance un petit peu plus
35:41que nous,
35:42quoi,
35:42donc,
35:42ça les satisfait,
35:44quoi,
35:44d'avoir ce système-là,
35:45quoi,
35:45pour l'instant,
35:46quoi.
35:48Et vous pensez qu'en France,
35:49on serait aussi docile
35:50avec ce qu'on a vécu
35:51pendant le Covid,
35:52par exemple,
35:53quand la majorité des gens
35:55ont accepté
35:55le pass sanitaire ?
35:57Ben,
35:58le problème,
35:58c'est que,
35:59comment il y a
36:00le matraquage,
36:00quoi,
36:01on voit bien,
36:01comment dire,
36:02on a vu,
36:03effectivement,
36:04pour les Bac 5,
36:05quoi,
36:06c'est qu'il y avait très peu
36:07de contre-pouloir,
36:10de débats vraiment
36:12contradictoires,
36:13quoi,
36:13et là,
36:14on assiste à ça aussi
36:15avec l'IA,
36:16c'est-à-dire que,
36:16bon,
36:17surtout pour les télévisions
36:21ou les radios officielles,
36:24vous avez très peu
36:25de débats contradictoires,
36:27c'est-à-dire que,
36:28vous avez un débat,
36:30c'est,
36:30bon,
36:31c'est un ému net,
36:32puis c'est un ému
36:33qui est tempéré,
36:34quoi,
36:34mais c'est la même chose,
36:35quoi,
36:36donc,
36:36le bourrage de crâne,
36:37et puis,
36:38moi,
36:39je suis toujours
36:39ultéré,
36:40quoi,
36:41sur certains ordres,
36:42que là,
36:43on vous sort
36:44de l'intelligence artificielle
36:45à toutes les émissions,
36:47quoi,
36:47c'est vraiment,
36:48et il n'y a pas du tout
36:49de contradiction,
36:50quoi,
36:50donc,
36:51ben,
36:51finalement,
36:52ça,
36:52ça finit par rentrer
36:54dans le crâne des gens,
36:55quoi,
36:55donc,
36:56même si,
36:57à la base,
36:58comment ils avaient
36:59un petit soupçon,
37:00mais à force de leur dire,
37:01mais non,
37:01c'est l'avenir,
37:03c'est,
37:04à commencer bien,
37:05en fait,
37:05vous allez gagner du temps,
37:06en fait,
37:06il n'y a pas de,
37:07il n'y a pas de problème,
37:08ben oui,
37:09on accepte,
37:10quoi,
37:10donc,
37:11par contre,
37:11ben,
37:11il faut aller dans des bouquins
37:13comme le mien,
37:14pour avoir,
37:15je ne sais pas,
37:16en basse,
37:17comment,
37:18pour avoir une information
37:19un petit peu contradictoire,
37:20évidemment,
37:21il y en a quand même,
37:21et puis il y a des médias
37:22comme le vôtre aussi,
37:23qui donnent la parole
37:24aussi à la contradiction,
37:26à la critique,
37:26mais bon,
37:28à comment vous allez,
37:29on est même dans les journaux
37:30officiels,
37:31comment,
37:32ils sont reconnus,
37:33je veux dire,
37:34dans le monde
37:35ou libération,
37:36vous n'allez pas avoir
37:37beaucoup d'articles
37:39comment contradictoires
37:40sur l'intelligence
37:41artificielle,
37:42ou alors,
37:43bon,
37:43on va effectivement
37:44vous faire pointer
37:45un petit peu
37:46du doigt,
37:47effectivement,
37:47tout le côté
37:48un petit peu éthique,
37:49comme pour le recrutement
37:52et tout,
37:53quoi,
37:53mais bon,
37:54on ne va pas creuser
37:54l'éclat,
37:55voilà,
37:56de toute façon,
37:57comme tous ces médias
37:59sont tellement subventionnés
38:01par,
38:01comment,
38:02par tous ces gros business,
38:04je veux dire,
38:04ils n'ont pas allé…
38:05Par les milliardaires,
38:06par des milliardaires,
38:08tout simplement.
38:08Voilà,
38:09ils ne vont pas aller chercher
38:10la fonction,
38:10parce que c'est sûr.
38:13Et l'intelligence artificielle,
38:15justement,
38:15sur votre couverture,
38:17vous la représentez
38:18comme tirant les ficelles
38:20de ces deux citoyens,
38:22c'est un peu
38:22les protagonistes principaux,
38:24d'ailleurs,
38:24de cette bande dessinée,
38:27donc on deviendrait
38:28un peu les marionnettes
38:29de cette intelligence artificielle.
38:33N'empêche que tout à l'heure,
38:34vous parliez
38:35de tout ce qui est art,
38:37livres,
38:38et je pense que
38:40l'intelligence artificielle
38:41ne pourra jamais
38:42remplacer la sensibilité
38:44humaine,
38:45voilà,
38:45même si…
38:46C'est évident,
38:47pas heureusement d'ailleurs…
38:48Même si c'est un livre
38:50écrit par l'IA,
38:53on sentira tout de suite
38:54qu'il y a…
38:55qu'il y a un remèdeux…
38:56On n'aura pas de,
38:58comment dire,
38:59de Charlie Chaplin,
39:01on n'aura pas de Victor Hugo,
39:03on n'aura pas de Jacques Brel,
39:06quoi,
39:06donc,
39:06voilà,
39:07donc ça,
39:07c'est évident que,
39:08comment dire,
39:10là,
39:10je pense que c'est
39:10le gros écueil,
39:11c'est-à-dire que,
39:12comment techniquement,
39:13et puis au niveau,
39:14le gain de rapidité,
39:15bon,
39:16ça va,
39:16ils sont efficaces,
39:17par contre,
39:18mais c'est normal,
39:18c'est une machine,
39:20quoi,
39:20c'est en fait,
39:20un ramassis,
39:21de données,
39:23alors qu'on ne sait pas,
39:24mais d'ailleurs,
39:25le mot intelligente,
39:26en fait,
39:26est complètement erroné,
39:28quoi,
39:28c'est-à-dire que,
39:29ce n'est pas une intelligente,
39:30quoi,
39:30c'est un brassage de données
39:33qu'on a mis,
39:34parce que,
39:35ben,
39:35voilà,
39:35technologiquement,
39:37on a évolué,
39:38quoi,
39:38mais,
39:39bon,
39:39voilà,
39:39c'est tout,
39:40quoi,
39:41donc,
39:41au niveau artistique,
39:43effectivement,
39:44ça sera toujours
39:44pin-up,
39:45bon.
39:47Et puis,
39:48nous,
39:48en France,
39:49on est quand même un peu,
39:50on est quand même un peu,
39:52même si là,
39:53les chiffres nous disent,
39:55les statistiques nous disent
39:57que la France est numéro un en Europe,
39:59mais au niveau mondial,
40:00on est encore loin,
40:02loin,
40:02loin de toute cette technologie
40:04qui sont développées à la fois en Asie
40:06ou à la fois aux États-Unis aussi,
40:08et là,
40:08c'est peut-être pour parler d'Elon Musk,
40:10qui lui,
40:10est quand même très,
40:12très en avance.
40:13Est-ce que d'ailleurs,
40:14ce serait une crainte,
40:15Elon Musk,
40:16qui développe tous ses robots,
40:18ses envies de partir dans l'espace,
40:21les prénoms qu'il attribue à ses enfants,
40:24d'ailleurs,
40:24qui font penser à des robots ?
40:27Est-ce qu'il est une menace pour nous ?
40:30Est-ce qu'il serait une menace ?
40:31En fait,
40:31le problème,
40:32il est là,
40:33c'est-à-dire que,
40:34j'allais dire que,
40:36c'est lui et non,
40:37c'est-à-dire qu'effectivement,
40:38il est une menace,
40:39mais en fait,
40:40comme il y a une censure,
40:42une manipulation de l'information,
40:44on le voit bien au niveau international,
40:46au niveau économique,
40:47qu'en fait,
40:48on ne sait pas trop quoi,
40:49quelle vision ces gens-là,
40:52parce qu'entre la dépêche qui arrive à l'AFP
40:59ou bien sur une grande agence comme ça,
41:04et la manipulation ou l'omission qu'on va faire,
41:07la déformation qu'on va faire derrière,
41:10on ne sait pas en fait,
41:11donc tout est tellement manipulé au niveau de l'information
41:14qu'on peut douter de tout quoi,
41:16c'est que bon,
41:17bon après,
41:18il ne faut pas se leurrer,
41:19effectivement,
41:19ces gens-là sont,
41:20comment on ne sait pas,
41:21nous altruistes,
41:22bon,
41:23ils ne font pas,
41:23bon,
41:24ils font leur business aussi et tout,
41:26mais,
41:26je veux dire,
41:27est-ce que c'est aussi dramatique,
41:29on peut le dire,
41:30en fait,
41:31ou pas,
41:31est-ce que,
41:32est-ce que ce n'est pas aussi hyper exagéré,
41:35quoi,
41:35donc voilà,
41:36moi,
41:36c'est la question que je me pose vraiment aussi,
41:38dans notre pays,
41:40en fait,
41:41soi-disant des libertés,
41:42je veux dire,
41:43heureusement qu'il y a des médias comme le vote,
41:45quoi,
41:45parce que,
41:46ben,
41:46si on n'avait que la version officielle,
41:50quoi,
41:50des médias classiques,
41:52moi,
41:53ou de nos députés,
41:54ou de nos politiciens,
41:57je veux dire,
41:58il y a des doutes aussi,
42:00donc,
42:00voilà,
42:00c'est ça,
42:01sans être un super contestataire,
42:03mais voilà,
42:03c'est de dire,
42:04voilà,
42:05il y a les faits,
42:06quoi,
42:06de voir ce qu'on me dit.
42:08Alors,
42:08pour terminer,
42:09Christophe,
42:10qu'est-ce que vous aimeriez dire aux gens
42:11pour,
42:14pas lutter contre l'IA,
42:16mais en fait,
42:16empêcher qu'elle envahisse,
42:18peut-être qu'elle prenne le dessus sur nos vies,
42:22et nos libertés aussi.
42:23Déjà,
42:23en fait,
42:24un truc qui est plaisir,
42:25c'est de prendre un bon bouquin,
42:27quoi,
42:27donc,
42:28ou un bon film,
42:29quoi,
42:29déjà ça,
42:30quoi,
42:30de ralentir aussi,
42:31quoi,
42:32je pense qu'au lieu de,
42:33qu'est-ce que,
42:35de gagner,
42:35en fait,
42:37comme une minute ou deux,
42:38quoi,
42:38au lieu de faire une recherche,
42:40par exemple,
42:41avec,
42:42comment dire,
42:43avec l'IA,
42:44mais tout simplement,
42:45ben voilà,
42:46à comment sens,
42:47être un retour en arrière,
42:48quoi,
42:49dire,
42:49on va plus,
42:49effectivement,
42:50on va pas aller dans le dictionnaire,
42:51quoi,
42:51mais bon,
42:52de faire avec Google,
42:53tout simplement,
42:54quoi,
42:54bon,
42:54voilà,
42:54donc,
42:55il y a des choses,
42:56quoi,
42:56toutes simples,
42:57quoi,
42:57c'est-à-dire que,
42:57bon,
42:58je pense que,
42:59une des choses,
43:00les plus importantes,
43:01je crois,
43:02c'est de se poser,
43:03quoi,
43:03ça,
43:04moi,
43:04c'est un,
43:04je,
43:05par ailleurs,
43:05comme je suis formateur aussi,
43:07en niveau positif,
43:08quoi,
43:08je leur dis toujours,
43:09vous savez,
43:10il y a quelque chose qui devrait être remboursé par la sécurité sociale,
43:13un mot magique,
43:14c'est de se poser,
43:14quoi,
43:15c'est-à-dire qu'à un moment donné,
43:16on réfléchit,
43:17quoi,
43:18on se fait,
43:20on,
43:20comment dire,
43:21on ralentit,
43:22on ralentit,
43:23quoi,
43:23et puis,
43:24ben,
43:24à partir de là,
43:25voilà,
43:25on voit,
43:26et puis aussi,
43:27peut-être aussi,
43:28utiliser son intuition,
43:29c'est-à-dire que son intuition,
43:31elle vous dit,
43:32ouais,
43:32ben non,
43:33il y a une,
43:33il y a une bonne,
43:35une bonne action à faire,
43:37quoi,
43:38et puis,
43:38voilà,
43:39donc,
43:39voilà,
43:40donc,
43:40c'est un truc tout bête,
43:41c'est-à-dire que je pense que,
43:42en nous,
43:43on a toute cette vérité,
43:44quoi,
43:44mais le tout,
43:45c'est de l'écouter,
43:46quoi,
43:46pas de la nier,
43:47puis aussi,
43:48d'avoir,
43:49d'utiliser son sens critique,
43:51quoi,
43:51donc,
43:51avec son livre arbitre,
43:53quoi,
43:53donc,
43:53voilà,
43:53tout simplement,
43:54quoi,
43:54alors déjà,
43:55si ça,
43:56on pouvait le mettre en place,
43:57déjà dans nos unis,
43:59on aurait peut-être moins,
44:01et quand on fait pas mal de domaines,
44:03la,
44:03la dictature,
44:05quoi,
44:05de certains,
44:06certaines technologies,
44:08eh bien,
44:11écoutez,
44:11le message est passé,
44:13moi,
44:13je retiens sens critique,
44:15libre arbitre,
44:16et intuition,
44:17très important,
44:18c'est ça,
44:18c'est ça,
44:19c'est ça,
44:20c'est ça,
44:20c'est ça,
44:21c'est ça,
44:21c'est ça,
44:21c'est ça,
44:21c'est ça,
44:22c'est ça,
44:22c'est ça,
44:23c'est ça,
44:23c'est ça,
44:23ça vous aidera beaucoup dans votre quotidien,
44:26voilà,
44:26oui,
44:26c'est ça,
44:27Christophe qui vous l'a dit,
44:28il y a des problèmes,
44:29merci beaucoup Christophe,
44:33je rappelle le titre de votre bande dessinée,
44:35l'intelligence artificielle s'amuse,
44:38aux éditions,
44:39les mots se réveillent,
44:41voilà,
44:41je voulais faire une petite précision,
44:44comment c'est une auto-édition,
44:46c'est-à-dire que ce n'est pas une grande maison d'édition,
44:49c'est mon édition à moi,
44:50et je peux vous dire que ce n'est pas du tout du business,
44:54c'est surtout avoir une structure juridique,
44:57administrative,
44:57qu'on retrouve alors sur votre site internet,
45:01Christophe ?
45:02Oui,
45:02alors moi,
45:03effectivement,
45:04pour l'acheter,
45:04comme j'étais censuré de tous les côtés,
45:06et puis qu'actuellement,
45:08il y a une super crise dans l'édition et dans l'élévairie,
45:11on ne retrouve que le lien,
45:13donc,
45:14qui va certainement apparaître,
45:16sur l'écran,
45:17pour activer...
45:18On le mettra en description,
45:21on le mettra en description de cette vidéo.
45:24Voilà.
45:26Et puis,
45:26il y aura une belle dédicace,
45:28toute personnalisée,
45:29pas du tout où il y a,
45:31ou alors intuitivement authentique,
45:34ça va être ça.
45:35Ah ben,
45:36ça c'est sympa,
45:37ça c'est très sympa pour les spectateurs.
45:40Bon,
45:40en tout cas,
45:41j'ai eu la mienne.
45:42Merci beaucoup,
45:43merci beaucoup Christophe.
45:45Merci.
45:46Merci à tous.
45:47À bientôt.
45:48Sous-titrage Société Radio-Canada
45:52Sous-titrage Société Radio-Canada
45:57Sous-titrage Société Radio-Canada
46:01Sous-titrage Société Radio-Canada
46:06Sous-titrage Société Radio-Canada
46:10Sous-titrage Société Radio-Canada
46:10Sous-titrage Société Radio-Canada
46:14Sous-titrage Société Radio-Canada
46:19Sous-titrage Société Radio-Canada