Passer au playerPasser au contenu principalPasser au pied de page
  • hier
GRAND DÉBAT / Santé mentale des jeunes : les réseaux sociaux dans le viseur

« Le récap » par Bruno Donnet

Le 10 juin 2025, le président de la République, Emmanuel Macron, a déclaré que la France interdirait les réseaux sociaux aux enfants de moins de quinze ans si, d'ici « quelques mois », si cela n'était pas fait au niveau européen. Cette déclaration intervient dans un contexte de préoccupation croissante face à l'impact des réseaux sociaux sur la santé mentale des jeunes. Le lendemain, la fondation KidsRights, spécialisée dans les droits de l'enfant, publiait une étude évoquant une « corrélation troublante » entre la dégradation de la santé mentale des enfants et une utilisation « problématique » des réseaux sociaux. Quelques mois auparavant, en septembre 2024, sept familles assignaient le réseau social TikTok devant le tribunal de Créteil, jugeant que la plateforme était responsable de la dégradation de la santé mentale de leurs enfants : deux suicides à l'âge de 15 ans, quatre tentatives, et un cas grave d'anorexie. Ces événements avaient notamment conduit les parlementaires à se saisir du sujet et à lancer une commission d'enquête sur les effets psychologiques de TikTok sur les mineurs. Si la vérification de l'âge lors de création de comptes sur les réseaux sociaux est érigée comme remède, sa mise en place questionne tant sur l'aspect technique que juridique. Comment la France peut-elle concilier impératif de protection des mineurs et respect des libertés numériques et individuelles ?

Invités :
- Arthur Delaporte, député socialiste du Calvados, Président de la commission d'enquête sur les effets psychologiques de TikTok sur les mineurs,
- Anna Baldy alias « Grande Bavardeuse », créatrice de contenus,
- Jean Cattan, secrétaire général du Conseil national du numérique,
- Olivier Bonnot, psychiatre d'enfants et d'adolescents.

INTERVIEW FRANC-PARLER / Simon-Pierre Sangayrac : gilets jaunes, quand l'IA compile la parole des citoyens

En 2019, à la suite du mouvement des « gilets jaunes », une grande consultation publique est lancée. Ce « Grand débat national », qui s'est étendu sur trois mois a recueilli près de deux millions de contributions citoyennes sur une plateforme en ligne. Cependant, ces données n'ont jamais totalement été étudiées, faute d'outil suffisamment puissant pour les analyser en intégralité. En 2023, un outil d'intelligence artificielle -Arlequin AI - est mis au point et utilisé par la Fondation Jean-Jaurès pour étudier les réponses des citoyens. Parmi les demandes de citoyens qui reviennent le plus, le souhait de pouvoir plus participer à la vie politique. Les voeux des citoyens concernent aussi des réformes des institutions et des scrutins comme l'introduction « d'une dose de proportionnelle lors des élections législatives », ou encore une réorganisation du Parlement en faveur d'un système monocamériste. Enfin, un constat commun à plusieurs citoyens sur la défaillance des services publics : « les Franç

Catégorie

🗞
News
Transcription
00:00Bonsoir à tous et bienvenue dans Savourgarde à la Une.
00:09Ce soir, cette question, faut-il interdire les réseaux sociaux aux moins de 15 ans ?
00:12Emmanuel Macron le souhaite, mais est-ce vraiment faisable ?
00:15Et dans quel but ? Ces réseaux sont-ils toxiques pour notre santé mentale et pour celle des plus jeunes ?
00:20On en débat avec nos invités.
00:22C'était il y a 6 ans, dans la foulée du mouvement des Gilets jaunes.
00:25Deux millions de Français ont livré leur regard sur nos institutions, leurs espoirs et leur colère également.
00:30Grâce à l'intelligence artificielle, une étude a réussi à compiler toutes ces contributions,
00:35où vous en révélera ses principales conclusions.
00:38Enfin, des manifestants face à la Garde nationale.
00:40Que se passe-t-il en Californie ?
00:43Jusqu'où ira Donald Trump dans son bras de fer avec le gouverneur de cet État sur sa politique migratoire ?
00:48Ce sera notre grand angle à la fin de l'émission.
00:51C'est tout pour le sommaire, c'est parti pour Savourgarde.
00:55Ils sont nés avec les écrans, ils ont grandi avec les réseaux sociaux.
01:08C'est même souvent devenu le principal moyen de communication entre ados.
01:12Mais à quel prix ? Sur ces réseaux, on trouve de tout.
01:15Le meilleur, mais aussi le pire, des contenus violents, dégradants, du harcèlement, des défis idiots.
01:20Alors, faut-il interdire les réseaux sociaux aux moins de 15 ans ?
01:22On en débat avec Arthur Delaporte.
01:25Bonsoir.
01:25Bonsoir.
01:26Vous êtes député socialiste du Calvados et vous présidez la commission d'enquête parlementaire
01:29sur les effets psychologiques de TikTok sur les mineurs.
01:32C'est une commission d'enquête dont les travaux sont encore en cours et dont vous allez nous parler.
01:36Olivier Bonneau, bonsoir.
01:37Bonsoir.
01:38Vous êtes professeur de psychiatrie de l'enfant et de l'adolescent.
01:43Anna Baldi.
01:44Bonsoir.
01:44Bonsoir.
01:45Vous êtes plus connue sur TikTok sous le nom de Grande Bavardeuse.
01:48C'est votre pseudo.
01:49Et vous êtes une tiktokeuse, une créatrice de contenu, on dit aussi, qui est spécialisée
01:53sur les contenus politiques.
01:55Enfin, Jean Catan, bonsoir.
01:56Bonsoir.
01:57Vous êtes le secrétaire général du Conseil national du numérique.
02:00Et puis, vous êtes également chargé d'enseignement en régulation du numérique à Sciences Po Paris
02:04et à Panthéon, à Sass.
02:07Et pour commencer, le récap de Bruno Donnet.
02:09Bonsoir Bruno.
02:20Bonsoir Clément, bonsoir à tous.
02:21Et dans votre récap, on revient sur une déclaration, mais aussi sur des solutions qui sont difficiles
02:26à mettre en œuvre.
02:27Oui, la déclaration, c'est Emmanuel Macron qui l'a faite hier soir à propos de la régulation
02:32des espaces numériques.
02:33On a lancé la mobilisation, moi je porte, l'interdiction des réseaux sociaux pour les
02:37moins de 15 ans.
02:38Et on peut le faire.
02:39Le président de la République veut interdire les réseaux sociaux aux moins de 15 ans.
02:44Pourquoi ? Eh bien d'abord parce que les faits sont absolument terrifiants.
02:48Si l'on en croit le rapport qui a rendu public aujourd'hui le groupe de droit des enfants
02:51Kids Right, il y aurait une corrélation entre la détérioration de la santé mentale des
02:57enfants et l'utilisation problématique des réseaux sociaux.
03:00Alors voilà pour le rapport quant à la commission d'enquête parlementaire sur TikTok qui travaille
03:05depuis plusieurs mois ici même à l'Assemblée nationale, les témoignages que l'on a pu y
03:10entendre confirment ce constat absolument accablant.
03:13Écoutez par exemple ce qu'a raconté cette mère de famille dont la fille s'est suicidée
03:17dans sa salle de bain.
03:18Est-ce normal de trouver des tutos pour se suicider ? Mais est-ce que vous en tant que
03:24parent vous iriez dire à vos enfants, regardez tiens j'ai un livre pour te dire comment faire
03:28un nœud et te pendre dans la salle de bain à la pater ? Je ne savais même pas que ça
03:32pouvait exister moi.
03:33Pourtant Bruno, la volonté affichée hier soir par le Président de la République vous
03:37a laissé un peu dubitatif.
03:38Oui d'abord Clément parce qu'elle n'est pas neuve, regardez ce que j'ai trouvé en fouillant
03:42dans mon grand placard archives politiques, cette déclaration-là date d'avril 2024.
03:47C'était il y a 14 mois et Emmanuel Macron affichait donc quasiment les mêmes ambitions
04:04qu'aujourd'hui.
04:04Alors que s'est-il passé depuis ? Rien, mieux que ça, une loi pour interdire les réseaux
04:09sociaux aux moins de 15 ans, on en a déjà une.
04:12Elle a été adoptée par l'Assemblée nationale et par le Sénat il y a deux ans.
04:16Jean-Noël Barraud, alors ministre chargé du Numérix, on était d'ailleurs publiquement
04:20félicité dans ce tweet et pourtant, regardez ce que j'ai découvert cet après-midi, en
04:25consultant le site de l'Assemblée nationale, 0% des décrets nécessaires à l'application
04:31de cette loi-là ont été publiés à ce jour.
04:34Alors pourquoi est-ce que rien n'a bougé depuis ?
04:36Alors tout simplement Clément, parce que rien n'est possible en restant au seul et strict
04:40niveau français.
04:42TikTok, Instagram et consorts, tous les réseaux sociaux sont basés en Irlande pour
04:46des raisons fiscales.
04:48Résultat, la France n'a pas le plus petit pouvoir de régulation.
04:52Enfin, il y a aussi des limites un peu plus technologiques.
04:55Vous vous souvenez que la semaine dernière, la ministre du Numérique a banni de l'Hexagone
04:59trois sites pornographiques qui refusent de demander leur âge à leurs utilisateurs.
05:04Je leur dis bon vent, bon vent, parce qu'en fait, personne n'est au-dessus des lois, personne.
05:10Et si ces sites internet, ils préfèrent se retirer de France que de protéger nos enfants,
05:15ils n'ont rien à faire chez nous.
05:17Bon vent, mais figurez-vous que quelques heures, à peine, après la suspension de ces
05:21sites pornographiques plus consultables depuis la France, les ventes de VPN, ce sont ces
05:26petits logiciels qui sont capables de faire croire que l'adresse IP de votre ordinateur
05:31n'est pas située en France, mais dans un autre pays, eh bien, ces ventes ont bondi
05:34chez certains opérateurs, tenez-vous bien, de parfois 1000%.
05:38Démonstration, Clément, qu'en matière numérique, une simple volonté politique hexagonale
05:43risque d'être un peu courte.
05:45Merci beaucoup, Bruno Donnet.
05:47Bruno, il vient de soulever plein de questions.
05:49Alors, on va les prendre une par une, mais avant cela, j'aimerais quand même qu'on se penche
05:53sur le fonctionnement des algorithmes, parce que pour bien comprendre les effets des réseaux
05:57sociaux sur la santé mentale, il faut comprendre comment ça marche.
05:59Jean Catton, on reproche à ces algorithmes de rechercher l'engagement à n'importe
06:04quel prix.
06:05Ça veut dire quoi et quel est le risque derrière ça ?
06:08L'algorithme, c'est la clé de répartition des contenus, en gros, qui permet au réseau
06:12social de dire ce que vous allez voir.
06:14Et comme le disait récemment une dirigeante d'un réseau social très connu, ce que nous
06:18ne recommanderons pas, vous ne le voyez pas.
06:20Donc, en gros, derrière ce mot technique, il y a juste l'idée que le réseau social décide
06:24ce que vous voyez.
06:25Et quand on fait les études en rétro-ingénierie, on voit bien qu'en réalité, on voit
06:290,0001% des contenus qui seront diffusés, parce que l'algorithme est précisément la
06:35clé qui permet au réseau social de maîtriser ce que vous voyez.
06:38Et donc, à partir du moment où ce réseau social fonctionne sur un modèle économique
06:41qui est celui de l'économie de l'attention, son but est de valoriser votre exposition
06:45à la publicité.
06:46L'économie de l'attention, c'est-à-dire garder l'utilisateur le plus longtemps
06:49possible devant son écran.
06:50Exactement.
06:50Et donc, pour ça, à un moment, il y a une solution, c'est de l'exposer à du contenu
06:54qui est de plus en plus engageant.
06:55Donc, comme on dit, qui va de plus en plus le faire réagir, qui va le faire rester.
06:59Et il se trouve, malheureusement, que très souvent, en fait, ce contenu-là soit du
07:01contenu négatif.
07:03Et donc, c'est du contenu négatif tourné contre soi-même.
07:05On l'a vu, c'est tragique.
07:07Contenu tourné contre les autres, c'est tout autant tragique quand on voit les événements
07:11qui peuvent prendre place dans la société.
07:13Anna Baldi, vous êtes donc vous-même sur TikTok, dans le domaine de la politique.
07:17Alors, chez vous, il n'y a pas de défi skinny-talk ou legging-legs.
07:21Moi, j'ai fait un tour sur votre compte.
07:23Vous parlez de Karl Popper, philosophe.
07:25Vous parlez du bonheur en politique.
07:27Et vous vous êtes interrogée ouvertement, dans le cadre de la commission d'enquête
07:31parlementaire, sur ces algorithmes, justement, sur l'algorithme de TikTok.
07:34Ça vous préoccupe vous-même ?
07:35Tout à fait.
07:36Comme je l'ai expliqué pendant la commission d'enquête, ces algorithmes sont totalement
07:39opaques.
07:40Il y a une volonté de TikTok derrière cela.
07:43J'ai moi-même rencontré du personnel de TikTok France qui n'est pas en capacité
07:47de nous expliquer certains rouages de l'algorithme.
07:49Pas en capacité ou qui ne souhaite pas révéler des secrets industriels quelque part ?
07:52Alors, en fait, ce qu'on m'a expliqué, c'est que le staff de TikTok France, en tout
07:56cas, n'a lui-même pas conscience du fonctionnement des rouages de cet algorithme.
08:02Alors, l'objectif, c'est que nous ne puissions pas jouer de ces paramètres pour mettre en
08:06avant notre contenu par rapport aux autres.
08:11Mais en fait, ça vient nous faire nous poser beaucoup de questions quant aux informations
08:14qu'on consomme et à l'opinion qu'on vient construire derrière, surtout quand ce sont
08:17des mineurs qui viennent consommer ces informations.
08:20Mais en quoi ça vous inquiète, du coup, concrètement ? Les questions qui se posent,
08:23c'est quoi ?
08:24Moi, ce qui m'inquiète, c'est de voir que lorsque je mentionne certains mots dans
08:28une vidéo, une vidéo à titre éducatif, cette vidéo ne sera pas référencée, n'apparaîtra
08:33pas sur la page des Pour Toi, parce qu'elle traite d'un sujet que la plateforme joue trop
08:39tabou ou trop sensible, l'éducation sexuelle par exemple, quand en comparaison, un autre
08:45contenu ayant une visée raciste ou transphobe sera mis en avant parce qu'il aura su déjouer
08:53ces règles de déréférencement.
08:55Arthur Delaporte, on a bien compris que l'algorithme, c'est ce qui fait le succès d'un réseau
08:59social.
09:00Qu'est-ce que vous, député, législateur, vous pouvez faire ? À quoi est-ce que vous
09:02avez accès ? Parce qu'on est un peu dans le secret des affaires.
09:05Donc, est-ce que vous pouvez réguler ça ?
09:06Alors, nous, non.
09:07Nous, on n'a pas plus accès que les citoyens, même si on a demain l'occasion d'auditionner
09:12TikTok et qu'on leur posera des questions justement sur la fabrique de l'algorithme.
09:16On leur a posé déjà par écrit quelques questions.
09:18Ce n'est pas totalement satisfaisant.
09:20Mais ceux qui ont accès au moins à une partie de l'algorithme, c'est la Commission
09:23européenne.
09:24C'est dans ce qu'on appelle le Digital Services Act, le DSA, qui est un règlement qui est
09:29rentré en application il y a en gros un an et qui permet à la Commission européenne
09:33d'avoir des moyens d'investigation quand ils se posent des questions et de demander
09:37à la plateforme de justifier un certain nombre de choses.
09:39Donc ça, c'est des enquêtes qui ont lieu en ce moment.
09:42Mais c'est vrai qu'il y a tout un business model derrière l'algorithme parce que l'algorithme
09:46de TikTok, notamment, il est vu comme le plus efficace.
09:48Il est vu comme celui qui parvient le mieux à détecter l'état d'esprit, l'humeur
09:52du jour de l'utilisateur parce qu'il, nous disent les spécialistes, est extrêmement
09:57rafraîchi fréquemment.
10:00Ça veut dire que, en gros, vous changez d'avis, vous restez un peu plus sur...
10:03Pendant ce soir, vous êtes un peu triste en rentrant parce que l'émission ne s'est
10:06pas bien passée.
10:06Et bien, pof, il va se mettre à vous bombarder de contenus qui vont vous renforcer aussi.
10:10Donc, c'est ce qui est problématique, c'est ce qui a été dénoncé par un certain
10:13nombre de personnes dans la commission.
10:14Mais bon, si vous rentrez joyeux, là, par contre, ça va aussi renforcer votre bonne
10:19humeur parce que cette émission sera bien passée.
10:21Olivier Bonneau, l'un des premiers effets à la fois des algorithmes et puis de l'architecture
10:26globale de ces réseaux sociaux, c'est de créer une forme de dépendance, de créer
10:29une addiction à ces réseaux sociaux.
10:33On a l'impression qu'en fait, les concepteurs de ces réseaux sociaux, ils ont lu tout ce qui
10:36a été écrit en la matière dans le domaine des sciences cognitives.
10:39Ils appliquent à la lettre tout ce qui a été mis à jour ces dernières années.
10:44Ils sont très forts, mais c'est un peu normal.
10:46C'est-à-dire, d'une certaine manière, ils ont à vendre du contenu.
10:48Donc, il faut que ce contenu soit vu et qu'il soit vu pendant très longtemps.
10:51Donc, ils appliquent ce qui se faisait déjà dans les supermarchés et autres, c'est-à-dire
10:54qu'on est attiré par ce qui bouge, par ce qui est coloré, la rapidité, le fait
10:58de scroller comme ça à son éclan.
10:59D'avoir la lecture automatique des vidéos.
11:01Bien sûr, la lecture automatique qui a plus grand chose, c'est très passif.
11:04Ça bouge énormément, ça se modifie en permanence devant vos yeux et ça stimule le circuit
11:10de la récompense, toute cette dopamine.
11:11Et donc, du coup, ça rend nécessairement un peu addict.
11:14Donc, c'est conçu comme ça.
11:16Après, c'est la question de l'impact.
11:18Quel impact ça peut avoir à long terme ?
11:20Sur les enfants, on est certain.
11:22L'impact, il est très mauvais.
11:23Il est très mauvais parce qu'en fait, passer du temps comme ça, c'est autant de temps
11:26qu'on ne passe pas à converser.
11:27Et converser, arriver à élaborer un peu ces relations, c'est quand même quelque chose
11:31qui s'apprend.
11:32Sur les adolescents, c'est aussi avec un impact fort parce qu'aujourd'hui, les adolescents
11:36que moi, je vois, mais la littérature le montre très bien, ils préfèrent très
11:40clairement discuter avec Instagram ou autre.
11:43C'est-à-dire, en fait, pas directement, plutôt que de voir les gens.
11:46Ils sont plus à l'aise dans ce type de relation, donc moins à l'aise dans les relations
11:49humaines.
11:50Or, c'est quand même les relations humaines qui nous font aussi grandir et se développer.
11:53C'est-à-dire qu'il y a un prisme quand même spécifique aux adolescents ? Parce que
11:55j'allais vous dire, mais cet impact, est-ce qu'il n'est pas le même pour tout le
11:57monde, y compris pour les adultes qui sont exposés à ces vidéos-là, bombardés de vidéos
12:01sans fin et puis qui scrollent, qui scrollent ?
12:03Alors, il est le même pour tout le monde, c'est sûr, mais il se trouve que nous, on
12:06est adultes et comme on est adultes, on a quand même un développement qui est plus
12:09avancé.
12:10Quand on est adolescent, on fait son développement de relations humaines, de relations sociales,
12:14de compétences sociales.
12:16On le continue, j'allais dire, on le peaufine.
12:18Et donc, c'est un moment où on a vraiment besoin d'en avoir.
12:20Et là, ça peut être un problème avec effectivement cet impact majeur.
12:24On le voit très bien dans les études.
12:26Les adolescents, naturellement, sont toujours un peu, vous savez, solitaires, souffrent
12:31de solitude.
12:32Et d'isolement, c'est en gros, globalement, un tiers des adolescents.
12:35Et c'est normal puisqu'ils aiment être intégrés dans un groupe.
12:38Là, qu'est-ce qui se passe ? Ce chiffre a globalement doublé.
12:40Et donc, ça veut dire qu'ils ont un vrai sentiment d'isolement.
12:43C'est pas simplement un sentiment, c'est un isolement.
12:45Et donc, ils sont moins en relation avec l'autre.
12:47Évidemment, puisqu'on est moins à l'aise dans la relation, quand on a l'occasion d'avoir
12:51une relation, finalement, elle se passe pas très bien.
12:54Et donc, on en a encore moins envie.
12:55Et ça fait tout un cycle comme ça.
12:57Arthur Delaporte, vous avez déjà mené beaucoup d'auditions dans le cadre de votre
13:00commission d'enquête parlementaire.
13:03Comment vous analysez, vous, les effets sur la santé mentale des jeunes ?
13:06Alors, en l'occurrence de TikTok, c'est vraiment l'objet de votre commission d'enquête.
13:09Et est-ce que vous avez le sentiment que ça produit peut-être des effets différents
13:13sur les jeunes garçons et les jeunes filles ?
13:17Alors, ça, c'est sûr.
13:17C'est ce que montrent les enquêtes.
13:19C'est que les filles sont plus exposées, par exemple, à des sujets de harcèlement.
13:23Elles sont aussi plus exposées à des risques de troubles du comportement alimentaire.
13:27Et donc, ça, c'est des phénomènes très spécifiques.
13:29Et c'est vrai que quand on est une fille sur les réseaux sociaux, autour de 15-16 ans,
13:34on va être beaucoup plus bombardé de contenus qui vont inciter, par exemple, à la maigreur excessive, etc.
13:40Ce qui ne sera pas forcément le cas des garçons.
13:42Donc, en fait, on peut aussi avoir des effets d'amplification, en fait, de mal-être
13:46qui peuvent être liés à des difficultés dans la vie réelle,
13:50mais que le réseau social va accroître.
13:52Et ça, il y a vraiment une forme de consensus chez les acteurs,
13:56même s'il y a des débats sur la scientificité,
14:00c'est-à-dire, en gros, la capacité à prouver, parce qu'on manque de donner certains effets.
14:04Mais globalement, tout le monde s'accorde à dire qu'il y a des effets de captation de l'attention
14:10qui font qu'on va rester de plus en plus souvent sur les écrans,
14:13qu'on va moins dormir, que ça crée des troubles, évidemment,
14:16quand on dort moins, notamment dans la construction des enfants.
14:19Et ça, je veux dire, personne n'est là pour le nier.
14:21Et il suffit de regarder des études empiriques
14:23qui montrent l'augmentation du temps d'écran passé,
14:26qui sont menées par Médiamétrie, de façon très objective,
14:28sur les jeunes à partir de 11 ans.
14:30Et on voit que plus ça va, plus on avance,
14:32plus les jeunes passent du temps sur les réseaux et sur leurs écrans,
14:34et sur TikTok en particulier,
14:36parce que les études montrent que c'est globalement un jeune sur deux,
14:40à l'entrée au collège, globalement, qui a un compte TikTok.
14:42– Quels sont les contenus problématiques ?
14:44Parce que les parents, ils n'ont peut-être pas conscience
14:46de ce qui se passe entre leur ado et son téléphone
14:49quand il est dans sa chambre, par exemple.
14:51– Alors, je le dis parce qu'il y a peut-être des parents
14:53qui nous regardent et qui s'inquiètent.
14:54Et c'est vrai que les parents, parfois, se sentent démunis ou inquiets.
14:57Et qu'on s'était dit que les enfants étaient parfois
14:59plus en sécurité dans leur chambre que dans la rue,
15:01alors qu'ils peuvent se retrouver face, parfois, à des pervers sexuels
15:05qui viennent leur demander des contenus intimes,
15:07soit face à des algorithmes qui les exposent,
15:10on le voyait tout à l'heure, à des techniques pour se suicider,
15:13si ça ne va vraiment pas bien,
15:14face à la manière de cacher ces scarifications,
15:19parce que ça, c'est ce qui se passe aussi.
15:20Il y a des jeunes qui se scarifient, il y a une petite mode là-dessus.
15:23Donc voilà, ça, c'est des choses qui…
15:24– Il y avait la mode, les défis, skinny talk, c'est ça ?
15:27– Skinny talk, c'était, en gros, la mode de la minceur.
15:30Mais la minceur extrême avec des jeunes filles qui se faisaient vomir, etc.,
15:33et qui donnaient les techniques pour se faire vomir discrètement aussi.
15:36Et je le dis à ses parents,
15:37si vous voulez discuter avec vos enfants, c'est très important,
15:39il faut le faire.
15:40Il faut parler avec les enfants de ce qu'ils voient,
15:42des influenceurs qu'ils connaissent, des contenus qui les choquent,
15:44éventuellement, regarder avec eux ce qu'ils voient
15:46comme contenu suggéré sur le pour-toi,
15:48parce que finalement, l'application connaît les préférences,
15:51mais surtout connaît les habitudes passées.
15:52Donc si on défile le pour-toi,
15:53on verra globalement ce que l'enfant voit.
15:55Parfois, c'est anodin,
15:56parfois, c'est du contenu de grande qualité,
15:58et il ne faut pas non plus tout mettre dans le même panier.
16:01Parfois, on peut regarder
16:02Grande Bavardeuse, Hugo Décrypte,
16:04Monsieur Lechat, qui est un prof de physique chimique,
16:07qu'on a reçu.
16:07Voilà, il y a plein de contenus qui sont intéressants
16:10ou distrayants, et pas méchants.
16:12Mais il y a aussi des contenus qui sont problématiques,
16:14et c'est là qu'il faut agir.
16:15Anna Baldi, comment vous vous appréhendez ce débat, vous ?
16:19Vous êtes plutôt présentée comme productrice de contenus positifs,
16:23on va dire, et est-ce que vous-même,
16:24il vous arrive de faire de la prévention auprès de votre communauté ?
16:28Alors, j'ai travaillé pour une association de protection de l'enfance,
16:31donc il m'arrivait parfois d'utiliser ma plateforme
16:34pour sensibiliser sur des sujets auxquels j'étais familière.
16:39Maintenant, la façon dont j'appréhende ce débat,
16:41j'ai été étonnée de la portée médiatique des coups de buzz
16:46de certains des influenceurs qui ont été entendus hier.
16:51On va en parler dans un instant.
16:52Ce qui me peine un petit peu, le fait que...
16:55J'ai le sentiment que beaucoup des médias aussi jouent le jeu
16:59de mettre en avant des créateurs de contenus
17:00qui se nourrissent de cette visibilité
17:02sur laquelle reposent leur modèle économique.
17:07Olivier Bonneau, est-ce que vous avez, vous,
17:09beaucoup de jeunes patients qui viennent vous voir
17:12en lien à des problématiques d'addiction,
17:14à des problèmes de santé mentale liés à un usage peut-être excessif
17:19des réseaux sociaux ?
17:20Alors, on a, nous, beaucoup de jeunes
17:22qui ont des problèmes de cyberharcèlement.
17:24Le cyberharcèlement a explosé.
17:26Il a pris la place du harcèlement qui est déjà important
17:28dans les écoles, et donc on a un nombre de jeunes
17:31comme ça qui ont ces difficultés,
17:33avec des parents qui sont souvent extrêmement désemparés,
17:36qui ne savent pas, qui découvrent, qui ne sont pas très familiers
17:39avec les réseaux sociaux.
17:41Et des jeunes qui, malgré tout, et malgré leur jeune âge,
17:43et parfois le côté digital naïf, enfin, natif, comme on dit,
17:47c'est-à-dire qu'ils sont au courant un peu des réseaux sociaux,
17:49se sont laissés avoir dans des systèmes
17:52où des prédateurs, où ils ont répondu,
17:55là, ils n'auraient pas dû répondre
17:56pour laisser partir un peu le système du harcèlement.
17:59Donc, on fait beaucoup de prévention.
18:02Je dois dire, peut-être si je peux dire comme ça un mot,
18:05parce que j'ai quand même pas mal travaillé,
18:06rencontré notamment des collègues de l'association E-Enfance,
18:10et moi, je trouve tout de même que, ce qui est très étonnant,
18:13je suis d'accord pour l'interdiction à 15 ans,
18:16enfin, elle était à 13 ans, pourquoi pas,
18:18mais ce qui me semble quand même très important,
18:20c'est d'arriver à former un peu les jeunes.
18:22D'une certaine façon, personne ne trouverait normal
18:25qu'on puisse conduire sans avoir un permis de conduire.
18:26Je ne comprends pas pourquoi on ne met pas en place
18:28un permis de réseaux sociaux
18:29avec quelque chose qu'on obtiendrait réellement,
18:32et plutôt que la carte d'identité à mettre
18:34pour pouvoir se connecter,
18:35c'est ce permis qu'il faudrait avoir,
18:37savoir comment ça fonctionne,
18:38connaître ces histoires d'algorithmes,
18:39parce que qui est au courant ?
18:41Là, tout le monde a l'air très au courant,
18:43mais ce que les parents sont au courant,
18:44qu'on pousse des informations comme ça
18:45qui sont si négatives,
18:47et je trouve qu'il faut de toute façon
18:48essayer d'éduquer et de monter le niveau d'information
18:50et d'éducation d'un certain nombre d'enfants
18:53et de parents surtout.
18:54Jean Catan, sur ce que vient de dire Olivier Bonneau,
18:56en même temps, on a l'impression
18:57qu'on est vraiment en train de découvrir
18:59petit à petit quelque chose,
19:00on n'a pas beaucoup de recul sur tout ça,
19:02donc c'est compliqué aussi de...
19:04Ça fait quelques années quand même
19:05que le problème pointe le bout de son nez
19:07et vraiment de manière assez massive.
19:09Les études sont suffisamment précises et abouties.
19:12La première étude du CCDH,
19:14le Centre for Contouring Digital Hate,
19:16le Centre de la lutte contre la haine en ligne,
19:18qui est établi au Royaume-Uni,
19:19le premier rapport sur TikTok
19:20et ce problème de Skinny Talk,
19:22ça date de 2023 quand même.
19:24Donc ça veut dire que déjà on a deux ans.
19:25Le dernier rapport sur le même sujet
19:27porte sur YouTube.
19:29Il y a quelques mois,
19:29on ne parle pas encore de YouTube,
19:31mais quand vous créez dix comptes
19:32d'adolescentes fictives,
19:34nécessairement puisque ces plateformes
19:35ne donnent pas accès aux chercheurs
19:36pour établir ces recherches
19:37de manière correcte,
19:39vous avez 30% du contenu
19:40recommandé à ces dix comptes
19:41de jeunes filles
19:42qui sont des contenus
19:43en promotion de l'anorexie quand même.
19:45Donc on a un problème systémique
19:46qui est connu depuis très longtemps,
19:47c'est d'ailleurs ce qui a donné naissance
19:48à la réflexion sur le règlement,
19:50sur les services numériques.
19:51Aujourd'hui, le problème,
19:52c'est qu'en effet,
19:53on a un problème institutionnel
19:55qui fait que la Commission
19:56s'est accaparé l'ensemble
19:57des pouvoirs de recherche,
19:59d'enquête sur les algorithmes,
20:01que les autorités nationales
20:02se trouvent en second rideau,
20:03la sphère associative
20:04en troisième rideau,
20:06et du coup,
20:06on ne peut pas faire valoir
20:07les forces de la société
20:08contre une poignée de dirigeants
20:10qui forment un oligopole
20:11sur tout ce que nous voyons
20:12dans la sphère médiatique.
20:13– On va revenir à présent
20:15sur le travail de votre commission
20:16d'enquête parlementaire
20:17à Arthur Delaporte
20:18et sur ces auditions
20:18qui ont eu lieu hier,
20:19auditions de plusieurs influenceurs
20:21qui ont été jugées problématiques.
20:22Alors, ce n'est pas par vous,
20:24le président de cette commission,
20:25mais je crois que c'est par
20:25les 30 000 citoyens
20:27que vous avez consultés.
20:28Ils vous ont désigné,
20:29entre guillemets,
20:30ces influenceurs,
20:31c'est bien ça ?
20:31– Oui, alors,
20:32ils en ont désigné
20:32beaucoup plus que ça
20:33et en fait, nous,
20:34on a aussi sélectionné
20:35parmi ceux qui revenaient le plus,
20:37on a aussi essayé
20:38d'avoir différents profils
20:39parce qu'on n'aurait pu avoir
20:41que des profils,
20:42par exemple,
20:43masculinistes, misogynes.
20:44On a fait le choix
20:45d'essayer d'un peu varier
20:47et surtout aussi
20:49de tenir compte
20:49des auditions qu'on avait eues
20:50où un certain nombre aussi
20:51de noms sont revenus
20:52dans ces auditions.
20:53Donc voilà,
20:53on a un peu mixé tout ça
20:55pour avoir ce panel
20:57d'influenceurs,
20:58oui,
20:59un peu problématique pour certains.
21:00– On a choisi, nous,
21:01de nous focaliser
21:02sur l'audition de l'un d'entre eux.
21:03Il s'agit d'Adé Laurent
21:04dont le compte TikTok
21:05a d'ailleurs été supprimé
21:06à la demande
21:07de la ministre Aurore Berger.
21:09Retour sur son audition
21:10avec Maïté Frémont.
21:12– Dans des écoles primaires,
21:13votre nom est en effet
21:14bien connu par les jeunes.
21:15– Adé Laurent,
21:16ce créateur de contenu,
21:18acteur porno
21:19et convoqué par les députés.
21:22Banni de TikTok
21:23à la demande
21:23de la ministre Aurore Berger
21:25pour ses vidéos
21:26à caractère sexuel,
21:27il était suivi
21:28par près de 2 millions d'abonnés.
21:30Parmi eux,
21:31des mineurs.
21:32– On vous auditionne
21:33pour comprendre
21:33comment vous vérifiez l'âge,
21:36comment ça peut être
21:37bien contrôlé.
21:39– Avez-vous une seule seconde ?
21:40Mesurez l'impact
21:42que peuvent avoir
21:43vos contenus
21:43sur un enfant de 13 ans,
21:45un adolescent en construction.
21:47– Réponse de l'intéressé.
21:48– Si des élèves de CM2
21:49qui ont entre 10 et 11 ans
21:51accèdent à cette plateforme,
21:53c'est un problème
21:53de contrôle parental
21:54et de responsabilité
21:56de TikTok,
21:56pas de la mienne.
21:57Donc je refuse
21:58d'endosser une responsabilité
21:59qui ne m'appartient pas
22:00et être comptable
22:01d'un contrôle
22:02qui n'est pas à ma portée.
22:04Pourtant,
22:04les créateurs de contenu
22:05ont des solutions
22:06pour interdire
22:07certaines vidéos aux mineurs.
22:09– Est-ce que vous savez
22:10que sur cette plateforme,
22:11il y a des outils
22:12qui vous permettent
22:12de restreindre votre audience
22:14et d'en exclure
22:15toutes les personnes
22:15qui sont identifiées
22:16comme étant mineurs
22:17de moins de 18 ans ?
22:18– Est-ce que vous,
22:19quand vous créez un live,
22:20vous appuyez sur le bouton
22:21« Restrictions » ou pas ?
22:23– Non,
22:24parce que la plupart du temps,
22:26mes lives sont
22:26bon enfants
22:27sur un ton léger,
22:28humoristique.
22:28– Ça veut dire
22:29que les lives
22:29sont accessibles aux mineurs
22:30sauf restrictions
22:31que vous ne faites pas.
22:32– Si vous pensez
22:33qu'il faudrait monter
22:36l'âge d'accessibilité
22:37à TikTok,
22:37je suis totalement avec vous.
22:40– Je répète,
22:40moi, mon contenu,
22:42c'est pour les gens majeurs
22:42donc je vise
22:43un public majeur.
22:44– TikTok réunit
22:45plus de 20 millions
22:46d'utilisateurs en France.
22:4870% ont moins de 24 ans.
22:51– Arthur Delaporte,
22:52on a bien compris
22:53le message d'Adé Laurent,
22:54il ne se sent pas du tout
22:55responsable de qui regarde
22:56les contenus
22:57qu'il propose sur TikTok.
22:59Vous faites quoi
23:00de quelqu'un comme lui ?
23:02– En fait, déjà,
23:03on l'écoute
23:03parce que l'idée
23:04de cette commission d'enquête,
23:05alors on a beaucoup parlé
23:06de ces auditions
23:07qui font le buzz hier
23:08et moi je le regrette un peu
23:09parce que, vous voyez,
23:10on a eu des victimes
23:11et heureusement qu'il y a
23:12le CP pour le rappeler,
23:13c'est qu'on a fait
23:13cette commission aussi
23:14parce qu'il y a des gens
23:15qui sont morts en fait.
23:16C'est extrêmement grave.
23:17On a eu des chercheurs
23:18extrêmement sérieux,
23:21on a mené un travail
23:22qui est le plus complet possible
23:24pour donner la parole
23:25à l'ensemble des acteurs
23:26de l'écosystème.
23:26Et si on n'avait pas entendu
23:27l'ensemble aussi
23:29des créateurs de contenus
23:30et uniquement des créateurs
23:31qui font de la pédagogie,
23:33etc., on nous aurait dit
23:34qu'avez-vous fait
23:35de ceux qui produisent
23:36des contenus problématiques ?
23:37Donc c'est aussi pour ça
23:37qu'on a fait ce choix hier.
23:39Et maintenant,
23:39pour répondre sur cette question
23:40d'Adé Laurent,
23:42moi je retiens une chose,
23:44c'est que ces gens
23:46ont un sentiment
23:46d'impunité totale.
23:48Ils viennent devant
23:49la représentation nationale
23:50dans un cadre
23:50où ils prêtent serment,
23:53où ils se comportent
23:54de façon désinvolte,
23:55voire agressive.
23:57Et en fait,
23:57moi j'ai cherché
23:58à ce qu'on garde
23:59le plus possible,
24:01sérénité,
24:02calme dans les débats,
24:03mais il y a des moments
24:04où en fait,
24:05ils nous disent des choses
24:05qui sont fausses.
24:06Donc on est obligé
24:07d'apporter cette contradiction
24:08parce que soit ils ne le savent pas,
24:12soit ils jouent la naïveté.
24:13Je ne peux pas le savoir.
24:15Mais en tout cas,
24:16Adé Laurent nous a expliqué
24:17qu'au départ,
24:17avant de reconnaître
24:18qu'il n'activait pas
24:19les fonctions de protection
24:19des mineurs,
24:20que en gros,
24:21c'était interdit aux mineurs
24:21les lives dans lesquels
24:22il dit des choses
24:24assez sexuelles.
24:25Il en était convaincu
24:26personnellement,
24:27vous pensez ?
24:27Non, mais il nous a même ressorti,
24:28cet avocat lui prépare une liste
24:29en disant,
24:30regardez,
24:30si on lit les conditions de TikTok,
24:31les lives,
24:32donc les diffusions de vidéos en direct
24:33ne sont pas accessibles
24:34aux mineurs officiellement.
24:36On lui dit,
24:36ben si en fait,
24:37sauf si vous avez activé
24:38la restriction.
24:38Est-ce que vous avez la restriction ?
24:40La réponse est non.
24:40Donc en fait,
24:41il dit à la fois
24:42je produis un contenu pour adultes,
24:43mais en même temps
24:43je ne protège pas les mineurs.
24:44Donc il y a vraiment ici
24:45une forme d'hypocrisie
24:46qui, à mon sens,
24:49n'est pas que feinte.
24:51Mais alors la conclusion,
24:52c'est quoi ?
24:52Comment on agit ?
24:53Qu'est-ce que vous préconisez ?
24:54Alors vous n'avez pas fini
24:55votre travail,
24:56mais bon.
24:56Ce qu'on préconisera,
24:57je l'espère,
24:58ce que madame la rapporteure
24:59mettra dans son rapport,
25:00c'est d'abord,
25:00est-ce qu'on demandera demain
25:02à TikTok
25:02d'avoir des mécanismes
25:03en amont ?
25:03Parce que vous allez entendre
25:04demain, effectivement,
25:06les responsables de TikTok en France.
25:07Demain après-midi,
25:08par exemple,
25:08on aura la représentante
25:09de TikTok Europe,
25:10la big boss,
25:11on va dire,
25:11de TikTok Europe.
25:13Et on aura l'occasion
25:14de lui poser des questions,
25:15notamment par rapport
25:16aux auditions qu'on a eues hier.
25:18Les influenceurs problématiques
25:19disent que c'est votre faute,
25:20vous ne faites pas votre travail
25:21de vérification d'âge.
25:22Donc la question,
25:23c'est comment est-ce qu'on peut avoir
25:24des mécanismes
25:24de vérification d'âge
25:25effectifs,
25:26qu'un gamin de 8 ans
25:27n'ait pas officiellement
25:2819 ans sur TikTok ?
25:30Comment est-ce qu'on fait
25:31pour, plus largement,
25:33modérer les contenus problématiques
25:34en amont,
25:35avant même qu'ils soient produits ?
25:37Comment on fait
25:38pour que quand on a
25:38des influenceurs
25:39qui sont repérés
25:40par une communauté
25:41comme problématique,
25:42ils soient effectivement bannis ?
25:43Vous voyez,
25:43Alexis Chenz,
25:45il a...
25:46C'est un autre TikToker.
25:48Lui, il a décidé
25:48d'arrêter, de couper,
25:50parce qu'il était en visio,
25:51il a coupé l'écran,
25:52il est parti au bout de 20 minutes.
25:53Une chose qui est totalement illégale,
25:54c'est qu'il a arrêté
25:55sa déposition,
25:56parce que quand on est
25:57dans une commission de enquête,
25:58on dépose comme si on allait
25:59dans un commission de enquête.
25:59Il a arrêté sa déposition,
26:01c'est illégal.
26:02Vous allez faire quoi ?
26:02Vous allez le reconvoquer ?
26:03On réfléchit aux suites à donner,
26:05mais ce qui est sûr,
26:06c'est que cet influenceur-là
26:08a des propos misogynes caractérisés,
26:11sexistes caractérisés,
26:12que tout ceci est interdit
26:13dans les conditions même
26:14d'utilisation de la plateforme TikTok.
26:16Qu'est-ce qui se passe ?
26:17Il nous explique
26:18qu'il a 43 comptes sur TikTok.
26:20Donc voilà, il y a un problème
26:21et on va demander demain
26:22des explications à la plateforme.
26:23Alors, tout ça pose la question
26:24justement de la régulation,
26:26mais avant de ça,
26:26je voudrais quand même
26:26avoir votre point de vue à vous,
26:28Anna Baldi,
26:28parce que là,
26:29on parle beaucoup
26:29des contenus négatifs.
26:32Je disais,
26:33vous êtes loin de tout cela
26:34dans ce que vous postez.
26:34Est-ce que vous avez peur
26:35qu'on ne retienne
26:35que la dimension négative
26:37des réseaux sociaux ?
26:38Et quels sont les aspects positifs
26:40pour vous ?
26:40Qu'est-ce que ça peut apporter
26:41aujourd'hui aux ados ?
26:43Alors, c'est ce que j'ai essayé
26:44de démontrer
26:46dans mon propos liminaire.
26:47C'est-à-dire qu'il y a aussi
26:48du bon sur cette plateforme.
26:50Moi-même, j'apprends beaucoup.
26:52C'est aussi un espace public
26:54dans lequel les jeunes
26:55peuvent prendre la parole.
26:56Des jeunes qui viennent aussi
26:57de milieux moins favorisés,
26:59qui ont moins facilement la parole
27:00dans l'espace démocratique,
27:01à la télé.
27:02Je pense que c'est un vrai outil
27:05de notre pluralisme aujourd'hui.
27:08Maintenant, je me questionne beaucoup
27:12sur, effectivement,
27:13comme vous le mentionnez,
27:14l'argument de la déresponsabilisation
27:16qui est amenée
27:16par chacun des acteurs.
27:17Je pense que tout le monde
27:18est responsable.
27:19Je pense que les utilisateurs majeurs
27:22ont la responsabilité
27:23de cesser de visibiliser
27:25des créateurs de contenu
27:27qui jouent de cet effet de choc.
27:29Je pense que les médias
27:30ont le même job.
27:31Je pense que les institutions
27:32doivent continuer
27:33ce bras de fer
27:34avec les plateformes.
27:35Je pense que les plateformes
27:36doivent cesser de se déresponsabiliser
27:38sur le dos
27:39d'un droit international flou
27:40pour ne pas prendre des mesures.
27:43Et je pense que ces créateurs
27:44de contenu
27:45doivent aussi prendre
27:46la responsabilité
27:46du contenu illégal
27:47qu'ils produisent
27:48puisque les propos racistes
27:50sont interdits
27:51dans la vraie vie aussi.
27:54On ne peut pas dire
27:56des choses misogynes
27:57sur Internet
27:57comme on ne peut pas
27:58les dire dans la vraie vie.
27:59Et donc, je pense
28:00qu'il est essentiel
28:01de commencer à responsabiliser
28:02ces acteurs-là,
28:03mais surtout pas les enfants
28:05parce que ce qui me choque
28:06profondément,
28:07c'est ce discours
28:08de responsabilisation
28:09qui est de dire
28:09on doit apprendre aux enfants
28:11de contrôler leur algorithme.
28:13Bien sûr,
28:13on doit éduquer les enfants
28:14au contrôle de l'information,
28:16à sa compréhension,
28:17mais on ne doit pas
28:18se dénouer
28:18de toute responsabilité
28:19en pensant que c'est aux enfants
28:21de faire le job
28:22quand les adultes
28:23qui sont supposés
28:24les protéger
28:25ne sont pas capables
28:26de le faire.
28:27Jean Catton,
28:27sur la question
28:28de la régulation
28:29et cette interdiction
28:30que veut mettre en œuvre
28:31Emmanuel Macron
28:31pour les réseaux sociaux
28:32pour les moins de 15 ans,
28:33est-ce que c'est vraiment
28:34faisable techniquement
28:36et comment assurer
28:39la vérification de l'âge
28:40sans passer par
28:41une identification numérique
28:43de tous les internautes ?
28:45Est-ce qu'on peut éviter ça ?
28:46Oui, techniquement,
28:47il y a tout un panel
28:47de solutions,
28:49disons,
28:49qui vont un petit peu
28:51de la plus respectueuse,
28:53disons,
28:53de la vie privée,
28:54de la personne
28:55jusqu'à celle
28:56qui est peut-être
28:57un petit peu plus attentatoire
28:58selon certains systèmes.
28:59Ça peut être,
29:00comme le rappelait d'ailleurs
29:01la ministre à de nombreuses occasions,
29:03donc de la reconnaissance faciale,
29:04ça peut être
29:05de la carte bancaire,
29:06mais c'est aussi,
29:06et c'est ça qui est
29:07un petit peu moins évoqué
29:08dans le débat,
29:09c'est des mécanismes
29:10de double anonymisation,
29:11c'est-à-dire que vous chiffrez
29:12l'information qui remonte
29:13à une entité
29:14qui va permettre
29:15de vous identifier
29:16de façon totalement anonyme
29:18auprès d'un tiers,
29:19donc la plateforme en question.
29:21Ce qui fait que,
29:21dans le dispositif,
29:23personne n'est censé savoir,
29:24personne,
29:25je dis bien n'est censé,
29:26parce que dans le numérique,
29:27bon,
29:27il y a toujours un risque
29:28que finalement,
29:28n'importe quel système
29:29puisse être piraté demain
29:31ou dans 10 ans,
29:32peut-être,
29:32selon les capacités de calcul
29:33dont on décidera.
29:34Et quand vous présentez
29:36ce système,
29:36ça concernerait donc
29:37tous les internautes,
29:38parce que pour établir
29:39qu'on a moins de 15 ans
29:41ou plus de 15 ans,
29:42n'importe...
29:43Qui irait sur un certain contenu,
29:45ou sinon...
29:45Et tout le monde
29:45devrait s'identifier.
29:46Ou sinon,
29:47c'est ce que font
29:47les réseaux sociaux
29:49comme Meta aujourd'hui,
29:50qui viennent dire,
29:51en fait,
29:51ce n'est pas à moi
29:51de faire ce contrôle-là,
29:53c'est au contrôleur
29:55du téléphone portable,
29:56si vous voulez,
29:56donc au système d'exploitation.
29:58Et donc là,
29:59c'est de se dire,
29:59ce n'est même pas
30:00toutes les personnes
30:00qui vont sur la réseau,
30:01c'est toutes les personnes
30:02qui ont un téléphone
30:03qui fournissent
30:04une clé d'identité
30:05à laquelle le réseau social
30:06a ensuite accès.
30:08Maintenant,
30:08la question du contrôle de l'âge
30:10ne doit pas nous déposséder
30:12du débat
30:12sur les sujets
30:13que vous évoquiez tout à l'heure,
30:15c'est-à-dire,
30:16finalement,
30:16la relation à l'autre,
30:17ces espaces publics
30:18où l'on peut être ensemble,
30:19peut-être,
30:20créer d'autres formes
30:22de relations.
30:23C'est le secrétaire général
30:24du Conseil national du numérique
30:25qui le dit.
30:26Exactement,
30:26et c'est ce qu'on a dit aussi
30:27à la mission Écran Enfant,
30:29et c'est ce qui est d'ailleurs
30:29aujourd'hui dans leur texte.
30:31Il y avait un très bel article
30:31du Monde qui disait
30:32où sont passés
30:33les enfants des villes ?
30:34C'est-à-dire,
30:35comment est-ce qu'on perçoit
30:36l'espace public aujourd'hui ?
30:37Comment est-ce qu'on laisse
30:38l'enfant en groupe
30:39ou tout seul
30:40évoluer dans un espace donné ?
30:42Comment est-ce qu'on consacre
30:43du temps à son enfant aujourd'hui ?
30:45Comment est-ce que le parent
30:46a une relation à son enfant
30:47avec ce que l'on appelle
30:48une forme de technoférence,
30:50c'est-à-dire un téléphone
30:51ou un ordinateur
30:51qui se met en travers d'eux ?
30:53Tant qu'on n'a pas abordé
30:54tous ces problèmes-là,
30:55qui sont des problèmes
30:55éminemment sociétaux,
30:57des problèmes éminemment collectifs,
30:58on va passer à côté du sujet.
31:00Donc, OK pour mettre
31:01un pied dans la porte,
31:02OK pour mener le combat
31:03contre les plateformes
31:04et surtout leur modèle économique
31:05et leur enfermement
31:06des utilisateurs,
31:08mais n'oublions pas
31:09d'aborder toutes ces questions
31:10éminemment sociétales.
31:11Olivier Bonneau,
31:12sur cette question
31:13de l'interdiction des...
31:14Je dois dire
31:15que je suis complètement d'accord,
31:16c'est-à-dire qu'à la fois
31:16il faut effectivement être ferme,
31:20vérifier, utiliser tous les systèmes
31:21qui peuvent permettre
31:22de vérifier qu'on ne dit pas
31:24interdit au moins de 13 ans
31:25ou de 15 ans,
31:25mais qu'au fond,
31:26tout le monde peut passer
31:27par derrière,
31:28surtout qu'il s'agit d'adolescents
31:29qui ont l'habitude
31:30et le désir
31:31de pouvoir un peu transgresser
31:33et en même temps,
31:34effectivement,
31:35ne pas se sentir
31:36complètement dédouané
31:37par un système
31:37trop répressif
31:38en disant,
31:39écoutez, il faut quand même
31:40aussi éduquer, expliquer
31:42et moi, j'insiste sur le fait
31:43qu'on voulait éduquer les enfants.
31:43À l'origine,
31:44c'était quand même
31:44un immense espace de liberté.
31:46C'était l'idée
31:47d'avoir un endroit sympathique
31:49où on pouvait échanger
31:50des informations
31:51et rencontrer des gens.
31:52Donc, l'idée de départ,
31:53elle est bonne
31:53et d'ailleurs,
31:54elle est bonne pour plein de gens
31:55parce qu'il ne se passe pas
31:56que des choses affreuses,
31:57mais je crois qu'il faut éduquer
31:58et on a quand même besoin
31:59d'éduquer surtout aussi
32:00les parents.
32:01Si on ne se concentre
32:02que sur les enfants,
32:02il va y avoir un problème.
32:03Les parents doivent être éduqués
32:04et ils ne sont pas toujours au courant.
32:05Arthur Delaporte,
32:06vous voulez intervenir ?
32:07Moi, j'ai aussi une question
32:07parce que Bruno Donnet,
32:09il a quand même soulevé
32:10un point sensible,
32:11c'est la question des VPN
32:12qui permettent
32:13de contourner
32:13les interdictions
32:14jusqu'à présent.
32:16Juste pour rebondir,
32:17parce que ce que vous dites
32:17est essentiel.
32:18Nous, on voit bien
32:19que l'une des meilleures solutions
32:20pour éviter
32:22les effets négatifs
32:22de la santé mentale
32:23des jeunes sur TikTok,
32:25c'est d'éviter
32:25que les jeunes soient enfermés
32:27sur les réseaux sociaux.
32:28Mais pourquoi est-ce
32:28qu'ils vont sur les réseaux ?
32:29Parce qu'ils s'ennuient,
32:30parce qu'ils ont perdu
32:32du contact
32:32avec leur entourage proche
32:34et notamment leurs parents.
32:35Certains passent plus de temps
32:36sur le téléphone
32:37qu'à discuter
32:38avec leurs enfants.
32:39Donc, il y a aussi
32:39un questionnement à avoir
32:41du côté des adultes,
32:42du rapport qu'ils ont
32:42à leurs enfants
32:43et du rapport, en effet,
32:44qu'ils ont à l'ennui.
32:45C'est-à-dire qu'il faut accepter
32:46de s'ennuyer,
32:47pas d'être tout le temps
32:47stimulé, etc.
32:48Enfin, voilà,
32:49c'est une autre manière
32:50de faire et de sortir.
32:52Voilà.
32:52Sortir, sortir dans la rue.
32:54Et ça, je veux dire,
32:55c'est quelque chose
32:56qui doit se réinventer.
32:56Sur la question des VPN.
32:58Ça me permet de répondre aussi
32:59au sujet qui est posé
33:00par le président de la République
33:01sur l'interdiction à 15 ans.
33:03Moi, je ne suis pas forcément
33:04favorable à cette interdiction.
33:05Pourquoi ?
33:06Pour deux raisons.
33:07La première,
33:07c'est que technologiquement,
33:08aujourd'hui,
33:09on n'est pas encore prêt.
33:10Donc, c'est un peu
33:11comme si on disait
33:12on va faire quelque chose.
33:12– Jean Caton avait l'air
33:13de dire que si.
33:14– On n'est pas encore
33:15totalement prêt.
33:16Voilà, ça va arriver.
33:18Maintenant, deuxième sujet,
33:19une fois qu'on sera prêt,
33:19peut-être dans un an,
33:20un an et demi, deux ans,
33:21c'est à peu près ça
33:22l'horizon temporel.
33:23Qu'est-ce qu'on fait ?
33:24Est-ce qu'on dit,
33:25ben voilà, à 15 ans,
33:26c'est ce qu'on disait tout à l'heure,
33:27on rentre dans le monde numérique,
33:29ce n'est pas plus dangereux à 16 ans ?
33:31Ben si, en fait,
33:31des enfants de 16 ans
33:32se sont suicidés
33:33alors qu'ils n'avaient jamais
33:34eu de réseaux sociaux.
33:34On en a eu dans la commission
33:35avant l'âge de 15 ans.
33:37On a offert son premier téléphone
33:38à une jeune fille,
33:40voilà, elle avait 15 ans
33:40et elle s'est suicidée
33:41un an plus tard.
33:42Enfin, elle a installé TikTok
33:43et un an plus tard,
33:44elle s'était suicidée.
33:44Donc, en fait,
33:45il ne faut pas voir ça
33:45comme une solution
33:46qui va tout régler.
33:48Et moi, ce que je reproche
33:49à cette idée
33:50de la majorité numérique
33:51à 15 ans
33:52ou l'interdiction
33:52à moins de 15 ans,
33:53c'est qu'on croirait
33:54que c'est la solution miracle
33:55alors que ce n'est pas ça
33:56qui réglera le problème.
33:57Et il y aura toujours,
33:58parce qu'il y aura un interdit,
33:59une volonté de le contourner
34:00et des moyens de le contourner.
34:02Donc, voilà,
34:03moi, je pense que l'enjeu,
34:04c'est plutôt comment la société
34:05prend conscience d'elle-même,
34:06prend conscience des risques,
34:07comment on s'attaque
34:08à l'algorithme
34:08et il ne faudrait pas
34:09que parce qu'on a mis
34:11une mesure symbolique et choc,
34:12on oublie tout le reste
34:13et le reste,
34:14c'est d'abord la responsabilité
34:15des acteurs,
34:16TikTok,
34:17les influenceurs
34:18et la responsabilité
34:19de la société
34:20qui ne doit pas
34:21sur-responsabiliser les enfants.
34:22D'un mot quand même aussi
34:23sur cette question,
34:24cet enjeu européen.
34:25On peut agir,
34:26nous, Français,
34:26seuls,
34:27sans l'Europe aujourd'hui
34:28parce qu'on voit
34:28le sort qui a été réservé
34:30à la loi Marc Angeli.
34:31Elle n'a aucun décret d'application.
34:33On peut agir
34:33si on n'est pas
34:35dans une forme
34:35de populisme législatif,
34:37si on ne donne pas
34:38l'impression
34:38que la loi qu'on va faire
34:39va régler à elle seule
34:40de tous les problèmes.
34:41On peut agir,
34:41par exemple,
34:42au niveau de la justice.
34:43Aujourd'hui,
34:44un juge a un pouvoir
34:45d'injonction sur les plateformes.
34:46Il faut pouvoir le renforcer,
34:47peut-être,
34:47c'est un des sujets
34:48qu'on verra
34:49sur la commission d'enquête,
34:50mais quand on va
34:51à la commission européenne,
34:52elle nous dit
34:52saisissez-vous
34:53de votre droit existant.
34:54Vous constatez
34:54qu'un contenu est illégal
34:55en droit national,
34:56sexiste,
34:57misogyne,
34:57raciste,
34:58etc.
34:59On dit à TikTok,
35:00tac, tu retires.
35:01Et objectivement,
35:02quand on leur dit
35:02des contenus terroristes,
35:03etc.
35:04Quand on parle
35:04de dizaines de milliers
35:05de contenus
35:05qui posent problème,
35:07ça devient ingérable.
35:08Oui, mais il faut
35:08qu'on se donne les moyens.
35:09Il faut qu'on se donne
35:10les moyens
35:10de faire retirer
35:11aux plateformes
35:12des contenus
35:12avec des injonctions légales.
35:13Pour moi,
35:14le sujet,
35:14il est là.
35:15Et évidemment,
35:15c'est à l'échelle européenne
35:16qu'on est assez fort
35:17pour pouvoir lutter
35:17contre ces géants du numérique
35:19qui, sinon,
35:20se croient impunis.
35:21Ce n'est pas le Royaume-Uni seul
35:23qui va réussir
35:23à réguler TikTok,
35:24c'est l'Europe.
35:25C'est l'Europe
35:25et c'est le bonne échelle,
35:27même s'il y a peut-être
35:28encore beaucoup de choses
35:28à améliorer,
35:29mais ça,
35:29ça prend un peu de temps.
35:30Merci à tous les quatre
35:31d'être venus débattre
35:32dans sa Vourgade.
35:33On attend donc les conclusions
35:34de votre commission d'enquête
35:35pour quand ?
35:35Début septembre.
35:36Début septembre.
35:36On va patienter un peu.
35:37Merci beaucoup.
35:39C'était il y a six ans,
35:41dans la foulée des Gilets jaunes,
35:42près de deux millions
35:43de Français
35:44avaient pris le temps
35:45de rédiger
35:46une contribution
35:47pour exprimer
35:48pour les uns
35:49leur colère,
35:50pour les autres
35:50leurs attentes.
35:51Six ans après,
35:52on a enfin pu exploiter
35:53cette base de données phénoménale
35:55grâce à l'intelligence artificielle.
35:57Bonsoir,
35:57Simon-Pierre Sanguerac.
35:59Bonsoir.
36:00Vous êtes l'un des auteurs
36:00de cette vaste étude
36:01qui est publiée
36:02par la Fondation Jean Jaurès.
36:04Clément Perrault
36:04nous en livre
36:05les principaux enseignements.
36:09Si on vous invite,
36:10Simon-Pierre Sanguerac,
36:11c'est pour évoquer
36:12un trésor national,
36:14une mine d'informations
36:15sans équivalence
36:16sur notre société,
36:18les doléances
36:19du grand débat.
36:20Début 2019,
36:21en réponse
36:22à la crise
36:22des Gilets jaunes,
36:23Emmanuel Macron
36:24propose aux Français
36:25de rédiger par écrit
36:27leurs critiques
36:28et leurs souhaits.
36:29Le succès
36:30est phénoménal.
36:3120 000 cahiers de doléances
36:32sont remplis
36:33à travers le pays,
36:34soit 200 000 contributions écrites,
36:37auxquelles s'ajoutent
36:37près de 2 millions
36:38de contributions numériques.
36:41Le seul exemple
36:41d'une telle base de données
36:42datait de 1789
36:44et des 60 000 cahiers de doléances
36:47remplis par le peuple
36:48juste avant
36:49la Révolution française.
36:51Simon-Pierre Sanguerac,
36:52vous êtes économiste
36:53à la Fondation Jean Jaurès,
36:55vous avez passé
36:55cette montagne de doléances
36:57au scanner
36:57de l'intelligence artificielle
36:59en vous concentrant
37:00sur un thème,
37:01la fiscalité.
37:03Première conclusion
37:04que vous en tirez,
37:05non,
37:06il n'y a pas
37:06de ras-le-bol fiscal
37:08en France.
37:09La plupart des contributeurs
37:10ne veulent évidemment
37:11pas payer plus d'impôts,
37:13mais exigent rarement
37:14d'en payer moins.
37:15En revanche,
37:16ils en veulent pour leur argent
37:17et demandent massivement
37:18une meilleure efficacité
37:20des services publics.
37:21Vous citez ainsi
37:21ce contributeur
37:22qui écrit
37:23« Ce que j'aimerais,
37:24c'est ne pas payer
37:24plus d'impôts
37:25et ne pas entendre
37:26à la radio
37:26des infirmières me dire
37:28qu'il n'y a plus
37:28de savon dans leur service. »
37:30Les participants
37:30au grand débat
37:31jugent aussi
37:32le système fiscal
37:33trop complexe
37:34et pas assez transparent.
37:35Autre point important,
37:37la soif de justice fiscale,
37:38l'idée que chacun
37:39doit contribuer
37:40à l'effort national,
37:41les plus riches bien sûr,
37:42mais aussi les plus modestes.
37:44Vous citez
37:44ce contributeur
37:45qui écrit
37:46que tous les Français
37:46paient l'impôt
37:47sur le revenu
37:48à la hauteur
37:48de leur capacité.
37:50Les moins aisés
37:50pourraient contribuer
37:51à hauteur
37:52de quelques euros.
37:53Il s'agit d'universalité
37:54et de responsabilisation.
37:57Votre rapport,
37:58Simon-Pierre Sanguerac,
37:59montre que le civisme fiscal
38:01se porte étonnamment bien
38:02en France.
38:03Bonsoir,
38:05Simon-Pierre Sanguerac.
38:06Bonsoir.
38:07Les données que vous avez pu compiler,
38:08enfin pas vous personnellement,
38:09tout seul dans votre coin,
38:10sont impressionnantes.
38:112 millions de contributions
38:12sur cette plateforme
38:14du grand débat national.
38:15Est-ce qu'on a déjà mené
38:15en France une étude
38:16d'une telle ampleur ?
38:18Non.
38:18C'est une première.
38:20C'est totalement inédit.
38:21Et pour cause,
38:22c'est la première fois,
38:23grâce à ce grand débat national,
38:24qu'on a pu collecter
38:25en un seul endroit
38:26autant de contributions
38:28d'autant de personnes différentes.
38:30On est un peu
38:31à l'aube
38:31d'une révolution
38:32dans la recherche
38:33parce que si vous avez réussi
38:34à faire ça,
38:35c'est grâce à un outil
38:36qui a été élaboré
38:37par deux des co-auteurs
38:38de l'étude,
38:39un outil d'intelligence artificielle.
38:40Expliquez-nous un peu.
38:41Tout à fait.
38:42En réalité,
38:43le problème,
38:43pourquoi depuis 2019
38:44on n'avait pas exploité
38:46ces données ?
38:47Certains disaient
38:47que c'était pour des raisons politiques.
38:49Nous, on pense
38:49que c'est essentiellement
38:50pour des raisons techniques.
38:51Vous l'avez dit,
38:522 millions de contributions,
38:53ça demande à des humains
38:54un travail dantesque.
38:56Mais là,
38:56grâce à un outil
38:57d'intelligence artificielle
38:58qui finalement a lu
38:59l'ensemble
38:59de ces contributions
39:00et a fait elle-même
39:01l'intelligence artificielle
39:03des regroupements,
39:04des nuages de mots,
39:06des thématiques,
39:07eh bien,
39:07ça a permis de simplifier,
39:09si vous voulez,
39:09et de catégoriser
39:10et de hiérarchiser
39:11la lecture.
39:12Et donc,
39:12ça nous a permis
39:13à nous,
39:13experts de la Fondation
39:14de Jean Jaurès,
39:15de pouvoir les rendre lisibles
39:16et de pouvoir en tirer,
39:17si vous voulez,
39:18des conclusions.
39:19Alors,
39:19cet outil d'intelligence artificielle,
39:20il a un nom.
39:21Arlequin AI,
39:22c'est ça.
39:23Comment est-ce qu'il a été
39:24élaboré,
39:25cet outil ?
39:26Parce qu'on a l'impression
39:27qu'il faut des très gros moyens
39:28pour développer ChatGPT,
39:30etc.
39:31Et comment est-ce qu'il a été
39:32calibré,
39:33cadré,
39:34pour éviter les biais
39:35qu'on prête
39:36à l'intelligence artificielle ?
39:37Alors,
39:38pour rentrer dans le détail,
39:39peut-être vous pourriez
39:40interroger les fondateurs.
39:41Ce que je peux vous dire,
39:42moi, ce soir,
39:43c'est que c'est un outil
39:44qui, effectivement,
39:44est assez différent
39:45des ChatGPT,
39:46des Gemini,
39:47qu'on utilise maintenant
39:48de plus en plus
39:49dans le quotidien.
39:50Premièrement,
39:50ce n'est pas un outil
39:51qui a besoin d'être nourri
39:52constamment pour pouvoir
39:53dialoguer avec l'utilisateur.
39:55C'est un outil
39:56qui prend finalement
39:57la nourriture
39:58des contributions
39:59au Grand Débat National
40:00et, par une lecture
40:01de ces données,
40:02arrive à en faire
40:03des conclusions.
40:04Donc, ça consomme
40:04beaucoup moins de temps,
40:06beaucoup moins d'énergie
40:06et ce n'est pas
40:08un jeu de ping-pong
40:09permanent
40:09entre l'utilisateur
40:11et, finalement,
40:11la machine.
40:13Alors, cet outil,
40:14vous l'avez dit,
40:14il a établi
40:14des catégories de français.
40:16Il y en a quatre.
40:17Alors, il y a
40:18les éco-focalisés,
40:19les conservateurs
40:20et puis les deux
40:20plus importantes,
40:21les civiques
40:22et les pessimistes
40:23qui représentent ensemble,
40:25réunis,
40:25à peu près deux tiers
40:26des français.
40:27C'est quoi les civiques ?
40:28C'est quoi les pessimistes ?
40:29Alors, déjà,
40:30ce qui est intéressant
40:30avec ces catégories,
40:31c'est que ce ne sont pas
40:32nous qui les avons choisis.
40:33C'est la machine.
40:34Ils en sont remis
40:34à la machine.
40:35On s'en est remis
40:36à la machine
40:36et la machine a considéré
40:37qu'il y avait quatre
40:38grandes catégories.
40:39Ça aurait pu être cinq,
40:39ça aurait pu être deux
40:40et donc, ce sont effectivement
40:42ces termes que vous avez choisis.
40:44Les pessimistes,
40:45ce sont les personnes
40:46qui manifestent
40:46une grande défiance,
40:48une méfiance,
40:48que ce soit vis-à-vis
40:49des institutions,
40:51vis-à-vis
40:51des autres concitoyens,
40:54des personnes
40:54qui manifestent
40:55des pensées négatives
40:57sur ce que je viens de dire,
40:58à la fois leur quotidien
40:59mais aussi les institutions,
41:00le monde dans son ensemble.
41:02Et les civiques,
41:03à l'inverse,
41:03c'est ceux qui,
41:04un peu par miroir,
41:05par opposé,
41:06placent énormément
41:07de confiance
41:07dans la représentation
41:09des individus,
41:10dans la confiance
41:11vis-à-vis des élus locales.
41:12C'est-à-dire qu'ils ne sont pas
41:13forcément satisfaits
41:13mais ils ont encore
41:14des attentes.
41:15Exactement.
41:15Et ils les expriment
41:16avec précision.
41:17Alors justement,
41:18les attentes,
41:19on va se pencher
41:19sur les principaux
41:20enseignements de votre étude.
41:21D'abord,
41:22en matière d'impôts
41:22et de dépenses publiques,
41:24il y a des attentes élevées
41:25en matière d'équité fiscale
41:26et en matière d'efficacité
41:28de la dépense publique.
41:30Est-ce qu'on peut parler
41:32pour autant
41:32d'un ras-le-bol fiscal
41:33en 2019 ?
41:34Je précise,
41:34il y a six ans.
41:35Eh bien non,
41:35c'est ça la grande nouvelle,
41:37c'est la chose
41:37qu'on a découverte
41:38en analysant ces réponses,
41:40c'est que depuis 2013,
41:41cette fameuse phrase
41:42de Pierre Moscovici,
41:43les Français ont un ras-le-bol fiscal,
41:45on imaginait
41:46qu'il y avait
41:46une grosse demande
41:47de baisser les impôts.
41:48Ce n'est pas le cas.
41:49Évidemment,
41:49il y a beaucoup de réponses.
41:51Sur les questions de fiscalité,
41:52il y a 90 000 réponses,
41:53donc évidemment,
41:54vous trouvez des personnes
41:55qui demandent
41:55à baisser les impôts.
41:56Mais ce qui ressort massivement,
41:58c'est que les Français
41:58préfèrent payer beaucoup d'impôts
42:00et le reconnaissent
42:01pour vivre dans une société égalitaire
42:03avec des services publics
42:04plutôt qu'on leur baisse
42:05leurs impôts
42:06et qu'ils perdent cela.
42:07Alors, en revanche,
42:08ils attendent tous
42:09une réforme fiscale,
42:12c'est un chiffre élevé
42:14avec une préoccupation majeure,
42:16c'est l'impôt sur le revenu.
42:20Ça revient.
42:20C'est quelque chose qui revient.
42:21On aurait pu imaginer
42:22que c'est allant taxer les plus riches
42:24et finalement,
42:24c'est presque l'inverse
42:25qui est ressorti.
42:26Il y a les deux qui sont ressortis.
42:28En fait,
42:28cette grande réforme fiscale
42:30porte effectivement
42:31sur l'impôt sur le revenu,
42:32mais il y a aussi
42:32un petit problème de compréhension
42:34sur ce qu'on appelle l'impôt.
42:35Il y a un peu un amalgame
42:36sur l'impôt sur le revenu
42:37et la fiscalité dans son ensemble.
42:39Mais ce qui ressort
42:39sur l'impôt sur le revenu,
42:40c'est au fond que tout le monde doit payer
42:42et tout le monde doit payer
42:43à sa juste valeur.
42:45Les plus modestes
42:46doivent payer l'impôt sur le revenu
42:47même s'ils ne payent
42:48que quelques euros
42:49et les plus riches,
42:50ceux qui ont les plus gros revenus,
42:52ne peuvent pas avoir
42:53un taux d'impôt
42:54qui soit inférieur
42:55aux classes moyennes.
42:56Le système fiscal
42:57ne peut pas être régressif.
42:58Ça, c'est vraiment inconditionnel
43:00de la part des Français.
43:01Donc, il faut une progressivité
43:03des plus pauvres aux plus riches.
43:05On parle beaucoup
43:05des niches fiscales en ce moment
43:06avec ce budget difficile
43:08qui se prépare.
43:09Est-ce que c'est un sujet
43:10qui revenait déjà
43:11dans la bouche des Français ?
43:11Oui, énormément.
43:12Les deux autres sujets
43:13dont vous l'avez évoqué
43:14sur le revenu,
43:15les deux autres grandes idées
43:16porteuses pour les Français
43:18qui ont répondu,
43:19c'est effectivement
43:20lutter contre les niches
43:21parce que les niches
43:22sont inéquitables
43:23puisqu'elles favorisent
43:24des catégories.
43:25Parfois, même si c'est justifié,
43:27mais néanmoins,
43:27lorsqu'on n'est pas dans cette catégorie,
43:28on ne bénéficie pas de la niche
43:29et ça, c'est injuste.
43:31Et la deuxième chose,
43:32c'est la lutte contre la fraude.
43:33Fraude prise au sens large,
43:34c'est-à-dire qu'on inclut
43:35ceux qui trichent,
43:40ceux qui évadent
43:41un petit peu subtilement.
43:42Et là, on pense aux entreprises
43:42et on pense également
43:43aux grandes fortunes.
43:44Il y a deux thèmes
43:45qui reviennent souvent aujourd'hui
43:46dans le débat public
43:46et qui sont, en tout cas,
43:48peut-être pas absents,
43:49mais en tout cas,
43:50j'ai l'impression,
43:50peu présents
43:51dans les dépositions
43:53des Français.
43:54C'est la baisse
43:55des dépenses publiques
43:55et l'assistanat.
43:57Oui, tout à fait.
43:57Comment est-ce que vous expliquez ça ?
43:58C'est la conséquence
43:59de ce qu'on vient de se dire,
44:00c'est-à-dire que les Français,
44:02dans ces réponses,
44:03sont finalement assez fiers
44:04de notre modèle
44:05de protection sociale
44:06et de services publics.
44:07Et donc,
44:08ils pensent que les personnes
44:09qui sont vulnérables,
44:10qui sont modestes,
44:11qui sont exclues,
44:12doivent pouvoir bénéficier
44:13de ces aides,
44:14qu'elles soient financières
44:15ou qu'elles soient physiques,
44:16avec l'hôpital gratuit,
44:18l'école gratuite, etc.
44:19Donc, pas forcément
44:20de dépenses publiques
44:20parce qu'on chérit ce modèle
44:22et on a peur
44:22que si on baisse...
44:23Et sur cette question...
44:24Pardon, allez-y.
44:25On a peur que si les dépenses
44:26baissent,
44:27on perdrait cela.
44:29Et sur la question
44:29de l'assistanat,
44:30parce que c'est quand même
44:30un thème récurrent
44:31dans les prises de parole
44:32des hommes politiques
44:33aujourd'hui,
44:34ça ne répond à rien
44:35pour vous ?
44:36Ah si, si,
44:36on trouve évidemment
44:37des dizaines et des dizaines
44:38de réponses de personnes
44:39qui pensent qu'effectivement
44:40on dilapide l'argent,
44:41qu'il y a du gaspillage
44:42et qu'il y a des personnes
44:43qui en bénéficient.
44:44Mais, si vous voulez,
44:46c'est un signal faible.
44:47Ce n'est pas quelque chose
44:47qui ressort fortement.
44:48Ce qui ressort fortement,
44:50c'est protégeons
44:51les plus vulnérables,
44:52protégeons ceux
44:52qui en ont besoin
44:53et peut-être voyons
44:54comment essayer
44:55de mieux cibler
44:56pour limiter le gaspillage
44:58et l'assistanat.
44:59Mais, si vous voulez,
44:59c'est un second rang
45:00qui apparaît dans l'héritage.
45:01Alors, il y a un autre domaine
45:02dans l'étude
45:03qui n'est pas forcément
45:04celui sur lequel
45:04vous avez le plus travaillé
45:05mais c'est les attentes
45:06en matière de démocratie
45:07et les rapports
45:07aux institutions.
45:08Qu'est-ce qui ressort
45:09du rapport des Français
45:10à leurs institutions
45:11en 2019 ?
45:13Alors, la première chose
45:14que l'on peut dire
45:15c'est qu'il y a
45:16une grosse attente
45:17et il y avait
45:18un gros espoir
45:19de ce grand débat national
45:21d'être enfin écouté.
45:23On peut penser,
45:24par exemple,
45:25et c'est Mme Brous-encher
45:26qui en parlait ce matin
45:27sur France Info,
45:28un couple de Français
45:31qui s'était endimanché,
45:33qui s'était bien habillé
45:34pour aller en préfecture,
45:35aller remplir
45:36le carnet de doléances
45:37en disant
45:38cette fois-ci
45:38je sais que ça va changer
45:39parce que je sais
45:40que je vais être écouté.
45:41Donc, ça transpire
45:42effectivement dans les réponses.
45:44On veut davantage
45:44être pris en compte,
45:46on veut davantage
45:46de référendum,
45:47davantage de démocratie directe
45:49et petite précision,
45:50on le veut
45:51à l'échelon local.
45:53Il y a une grande confiance
45:54dans le fait
45:54que si je décide
45:56de ce que fait ma mairie
45:57ou de ce que fait mon département,
45:59ce sera davantage pris en compte
46:00et j'en verrai davantage
46:01les résultats
46:02que les grands référendums nationaux.
46:04Il y a aussi
46:04une grande confiance
46:05dans les élus locaux
46:06comparés aux élus nationaux.
46:08Et qu'est-ce qu'ils disent
46:08les Français
46:09de l'Assemblée nationale
46:10justement
46:10et plus globalement
46:11du Parlement ?
46:12Alors,
46:13l'image qui relève
46:14des institutions nationales
46:16dans leur ensemble
46:16et en particulier
46:17de l'Assemblée nationale,
46:19c'est un grand flou.
46:20C'est un petit peu,
46:21je ne vais pas employer
46:22le terme de bordel
46:23qui est arrivé beaucoup plus tard,
46:24qui est arrivé depuis 2022,
46:25mais c'est néanmoins
46:26des gens qui parlent beaucoup,
46:28qui légifèrent beaucoup
46:29mais qui finalement
46:30le font de manière
46:31assez déconnectée
46:32de ce que moi je vis au quotidien,
46:34de mes préoccupations personnelles
46:35et donc il y a une forme
46:36de déconnexion
46:38entre ce qui se passe
46:40à l'Assemblée nationale,
46:41ce qui se passe au Parlement
46:41d'une part
46:42et le quotidien des Français.
46:44Et on est six ans après,
46:45après ce grand débat national,
46:47qu'est-ce qu'elles valent
46:47ces contributions six ans après ?
46:49Est-ce qu'elles reflètent encore,
46:51selon vous,
46:51les principales préoccupations ?
46:52Est-ce qu'il y a des thématiques
46:53qui sont apparues depuis
46:54et qui sont montées ?
46:57Alors, effectivement,
46:582019, c'était il y a presque six ans.
47:00Entre-temps, il y a eu le Covid,
47:01il y a eu effectivement
47:01la dissolution,
47:02la guerre en Ukraine,
47:03l'inflation,
47:03enfin passons,
47:04il y a eu énormément
47:05de chamboulements
47:05qui n'apparaissent pas.
47:06Donc en ce sens,
47:07il faudrait sûrement
47:08réactualiser l'exercice.
47:10Mais c'est en cela
47:11qu'on a nommé ce rapport
47:13l'IA au service de la démocratie.
47:15C'est que par ce type d'exercice
47:17et par l'aide
47:18de l'intelligence artificielle,
47:19on est peut-être face
47:20à une nouvelle forme
47:21d'expression démocratique
47:23qui n'est pas exactement le vote,
47:24qui n'est pas exactement
47:25le référendum,
47:27mais qui est quelque chose
47:27d'hybride
47:28qui permettrait peut-être
47:29à échéance régulière
47:30de prendre le pouls
47:31de la démocratie,
47:32prendre le pouls des Français
47:33et s'assurer que les décisions
47:35qui sont prises
47:35correspondent bien
47:37à ces aspirations.
47:38Et du côté de la classe politique,
47:39est-ce qu'ils sont vraiment saisis
47:41de tout ce qui était présent
47:42dans ces cahiers de doléances ?
47:43Est-ce qu'ils sont passés
47:44à côté de certaines choses,
47:45selon vous ?
47:46Et si oui, lesquelles ?
47:47Alors, à mon avis,
47:48ça n'a pas du tout
47:49été suffisamment traité.
47:50On l'a vu avec la gronde
47:52sur ces fameux cahiers de doléances
47:54qui sont stockés
47:54dans les archives
47:55et qui ne sont pas exploités.
47:59Néanmoins, je pense
48:00qu'il y avait cette frontière technique
48:02qui les bloquait.
48:03Si on arrive à faire tomber
48:04cette frontière technique
48:05et que des organismes
48:07comme la Fondation Jean Jaurès
48:08s'emparent
48:08ou des start-up
48:09comme Arlequin s'emparent,
48:10peut-être que finalement
48:11c'est le maillon manquant
48:12pour permettre de reconnecter
48:15l'opinion publique
48:16avec les hommes politiques
48:17qui sont très friands de sondages.
48:19C'est-à-dire que
48:20le ou la candidate
48:22à la prochaine présidentielle
48:23qui veut l'emporter,
48:24il faut qu'elle utilise Arlequin
48:26pour compulser cette base de données
48:28et elle aura son programme ?
48:30Alors, c'est peut-être
48:31l'un des leviers.
48:32À mon avis,
48:32c'est un levier un peu excessif
48:33parce que, par exemple,
48:35on n'a pas d'informations
48:36sur le profil.
48:37C'est l'une des grandes limites
48:38de l'exercice.
48:38On n'a pas d'informations
48:39sur le profil des répondants.
48:41Et je ne sais pas si demain,
48:43avec le respect des réglementations
48:45RGPD et de la CNIL,
48:46on aurait le droit
48:46de pouvoir rentrer vraiment
48:48dans le profil socio-démographique
48:50des répondants.
48:51Néanmoins,
48:52c'est vrai que,
48:53d'un point de vue
48:53à la fois de confiance générale
48:54et de santé de nos institutions,
48:57de santé démocratique,
48:58ça pourrait être
48:59une nouvelle solution
49:00pour finalement reconnecter
49:01les élus,
49:03la classe politique
49:04avec les personnes
49:05qui souhaitent s'exprimer.
49:06Et visiblement,
49:06elles sont très nombreuses
49:07puisque,
49:07vous le rappelez en introduction,
49:09il y a eu 2 millions de contributions.
49:09Merci beaucoup Simon-Pierre Sanguérac
49:11d'être venu nous détailler
49:12les résultats de cette étude
49:13sur le plateau de Savourgarde.
49:16On passe à notre grand angle
49:17à présent.
49:26Bonsoir messieurs,
49:28installez-vous.
49:29Notre grand angle,
49:30il est consacré ce soir
49:30à ce bras de fer engagé
49:32par Donald Trump
49:33avec le gouverneur de Californie
49:35sur fond de contestation
49:36de sa politique migratoire
49:38par des milliers de manifestants.
49:40Vincent Hugeux,
49:41vous êtes journaliste indépendant,
49:43essayiste et enseignant
49:44à Sciences Po.
49:44Gallagher Fenwick,
49:45vous êtes grand reporter
49:47et vous êtes tous les deux
49:48de fins connaisseurs
49:48des Etats-Unis.
49:50On va peut-être commencer
49:50par voir et essayer
49:52de comprendre
49:53ce qui se passe exactement
49:54à Los Angeles,
49:55mais pas seulement
49:55dans une grande partie
49:57des Etats-Unis.
49:58Qu'est-ce qui se joue
49:58derrière ce bras de fer ?
50:00Élément de réponse
50:00avec Baptiste Gargui-Chartier.
50:03Depuis plusieurs jours
50:04aux Etats-Unis,
50:05des scènes de protestation
50:06ont d'une grande ampleur.
50:07Ici à Los Angeles,
50:09les manifestations
50:09pour dénoncer
50:10les arrestations
50:11de migrants clandestins
50:12se poursuivent.
50:14Voitures brûlées,
50:15infrastructures saccagées,
50:17détentions qui ne cessent
50:18de s'intensifier
50:19ces dernières heures
50:19avec des heures
50:20d'une rare violence
50:21entre forces de l'ordre
50:22et manifestants
50:23dont certains sont encore
50:25totalement déboussolés.
50:28Ce qui se passe
50:29à Los Angeles
50:30ne profite à personne.
50:32On ressent beaucoup de peur
50:33de l'appréhension
50:34dans les rues.
50:38Il y a des voitures incendiées,
50:40il se passe beaucoup de choses
50:40en ce moment.
50:41C'est tout simplement incroyable,
50:43je n'avais jamais vu ça
50:43de ma vie.
50:45Après une nouvelle nuit
50:46sous tension,
50:47700 soldats de la marine
50:48ont été déployés
50:49en Californie
50:50sous décision
50:51de Donald Trump
50:52pour prêter main forte
50:53aux 2000 membres
50:54de la guerre nationale.
50:55Depuis la Corline du Nord,
50:57déclaration sans appel
50:58du président américain.
51:00Ce sont des animaux.
51:02Ils portent fièrement
51:03les drapeaux d'autres pays,
51:04mais ils ne portent pas
51:05le drapeau américain.
51:08Très simplement,
51:09nous allons libérer
51:10Los Angeles
51:11et rendre la ville
51:12à nouveau libre,
51:13propre et sûre.
51:13Cela va se passer très vite.
51:15À Los Angeles,
51:17réaction de la maire
51:17de la ville
51:18qui condamne
51:19avec fermeté
51:20ces propos.
51:22Nous devons mettre
51:23un terme aux raids.
51:24Cela ne devrait pas
51:25se produire dans notre ville.
51:26Ce n'est pas justifié.
51:27La seule chose
51:28que cela fait,
51:29c'est contribuer au chaos.
51:32Dans le sillage
51:33des émeutes
51:33de Los Angeles,
51:35des milliers de personnes
51:35se sont réunies
51:36à des kilomètres
51:37de là, à New York,
51:38en plein cœur
51:39de Manhattan.
51:40Même revendication,
51:42même slogan à l'affiche.
51:43Ici, la marine
51:44n'est pas encore intervenue,
51:46mais le gouverneur
51:46de Californie
51:47donne l'alerte.
51:50La Californie
51:51est peut-être
51:51la première,
51:52mais d'autres États
51:53suivront.
51:54La démocratie
51:55est attaquée
51:56sous nos yeux.
51:56Ce moment
51:57que nous redoutions
51:58est arrivé.
52:00Des manifestations
52:02ont été aussi recensées
52:03à Austin
52:03et à Dallas.
52:05De quoi faire crainte,
52:06selon l'ONU,
52:07une militarisation
52:08de la situation.
52:10Gallagher-Fanwix
52:11qui met en colère
52:12ces milliers
52:13de manifestants.
52:13Ce sont les conditions
52:14dans lesquelles sont arrêtées
52:15les sans-papiers
52:16sur ordre de Donald Trump.
52:18Est-ce qu'on sait
52:18comment ça se passe
52:19concrètement ?
52:20Oui, il y a des témoignages
52:21très précis,
52:22notamment qui émanent
52:23de Paramount.
52:24C'est la petite banlieue
52:25au sud de Los Angeles
52:26où ont commencé
52:27ces heures
52:28avec des officiers
52:30de cette fameuse police
52:31de la douanée des frontières,
52:32ICE,
52:33l'acronyme ICE,
52:35qui débarquent
52:36dans des vannes
52:36aux vitres teintées.
52:37Les portes coulissantes
52:38s'ouvrent,
52:39ils sortent
52:39et puis en gros,
52:40ils arrêtent,
52:41notamment,
52:41ils attrapent
52:42sur le parking
52:43de magasins
52:46d'outillages
52:47ou dans des usines
52:48de manufactures textiles,
52:50à peu près
52:50tout ce qui est basané
52:51et qui bouge.
52:52Pourquoi ?
52:53Parce que quelques jours
52:54plus tôt,
52:55Stephen Miller,
52:55qui est l'un des plus proches
52:56conseillers de Donald Trump
52:57et son architecte
52:58de sa politique migratoire,
53:00convoque l'état-major
53:01de cette police
53:02et leur dit
53:02vous êtes nuls,
53:03on veut 3000 arrestations
53:05par jour.
53:06Ils n'ont pas tenu
53:06les chiffres promis
53:07par Donald Trump.
53:08C'était très très loin.
53:09D'ailleurs, au passage,
53:09pourquoi 3000 par jour ?
53:11Faites le calcul,
53:11en un an,
53:12ça vous fait à peu près
53:12un million.
53:13C'est le genre de chiffres
53:16et donc ça donne
53:17des méthodes
53:18très peu discriminantes
53:19avec des gens
53:20qui se font attraper,
53:21qui parfois présentent
53:22même un passeport américain
53:24quand ils se font attraper
53:24mais la réponse
53:25des policiers du ICE
53:26c'est de dire
53:27c'est probablement
53:27un faux passeport,
53:28on vous embarque quand même.
53:29Là, ça crée de la friction
53:31et à partir de là,
53:32on a cette escalade
53:33pour avoir un reportage.
53:34Vincent Hugeot,
53:35on a l'impression
53:35que Donald Trump
53:36a choisi la Californie
53:37comme terrain d'affrontement
53:38avec ceux qui s'opposent
53:39à sa politique migratoire.
53:41Quel est son objectif politique ?
53:43D'abord,
53:43pour les trumpistes
53:44de stricte obédience,
53:46la Californie,
53:46c'est Sodome et Gomorre,
53:47Empire.
53:48Expliquez peut-être pourquoi.
53:49C'est à la fois un État
53:50qui se veut
53:51une sorte de fief
53:52de l'accueil raisonné
53:54des migrants,
53:55c'est un État
53:56qui est extrêmement libéral
53:57par rapport
53:58à ce fameux wokisme
54:00que détestent tant
54:01Trump ou Vance
54:03et c'est ce qui conduit
54:04à mon sens
54:05Trump à endosser
54:07l'uniforme
54:08du pompier pyromane.
54:10Il est important pour lui
54:11de faire diversion
54:12par rapport
54:12à ses autres échecs
54:14sur le plan économique,
54:15sur le plan diplomatique,
54:17cette fracture grotesque
54:19avec Elon Musk.
54:20Il veut montrer
54:21à son socle électoral,
54:23à sa base,
54:24que sur la promesse
54:25des migrants,
54:26qui de fait
54:27est une préoccupation
54:28très largement partagée,
54:29soyons clairs,
54:30aux États-Unis,
54:31là, il tient parole,
54:33quitte, encore une fois,
54:34à sombrer dans l'hyperbole,
54:36dans l'outrance, etc.
54:37Vous parlez de pompier pyromane,
54:39c'est-à-dire que les images
54:40qu'on voit,
54:41voilà,
54:42quelle est la réalité
54:43sur le terrain ?
54:44Est-ce que Los Angeles
54:44est en pleine insurrection ?
54:46Je vais prendre
54:46un exemple très simple
54:48pour voir les deux bornes
54:49de cette réalité.
54:51Trump a dit
54:52que s'il n'y avait pas eu
54:53ces interventions,
54:54la ville de Los Angeles
54:55aurait été rayée de la carte,
54:56je le cite.
54:58Et les autorités locales,
55:00judiciaires, policières,
55:02etc.,
55:02ont dit
55:02mais absolument pas.
55:04C'est aussi la raison
55:05pour laquelle il menace
55:07de recourir
55:08à des lois d'exception,
55:10ce qu'on appelle par exemple
55:10l'Insurrection Act,
55:12qui permet de déroger
55:14à la règle
55:14qui est quasiment
55:16de toute éternité aux États-Unis,
55:17c'est-à-dire que
55:18les tâches de police,
55:20de maintien de l'ordre
55:21vis-à-vis des citoyens américains
55:23ne doivent pas,
55:24ne peuvent pas
55:24être confiées
55:25à des forces armées,
55:27sauf en cas
55:28d'invasion étrangère,
55:29et vous avez remarqué comme moi
55:30la référence aux ennemis
55:31venus d'ailleurs,
55:33et sauf en cas
55:34de rébellion
55:35qui en viendrait
55:36à contester
55:37de manière fondamentale
55:38l'autorité
55:38de l'État fédéral.
55:39Donc on ne coche
55:41aucune de ces cases,
55:42mais c'est la raison
55:43pour laquelle
55:44j'estime moi
55:44que c'est une stratégie
55:46de diversion.
55:46Gallagher-Fendwick,
55:47est-ce que ça veut dire
55:48qu'on a un point de bascule
55:49sur ce qu'est le régime
55:50aujourd'hui politique
55:52aux États-Unis ?
55:53Est-ce qu'on va vers
55:53une dérive autocratique ?
55:55Est-ce que la démocratie
55:56est attaquée sous nos yeux
55:57comme l'affirme
55:57le gouverneur de Californie ?
55:59Effectivement,
56:00c'est ce qu'on peut penser.
56:02Tout ça est en train
56:03d'être testé.
56:04C'est-à-dire que c'est
56:05très difficile
56:05de se prononcer
56:06sur l'état
56:08de la démocratie américaine
56:09dans l'instant présent.
56:10Je vais enfoncer
56:11une porte ouverte
56:12dans 4-5 ans.
56:12On se retournera
56:13sur ce moment.
56:14On verra l'état
56:15alors du pays.
56:16On pourra dire,
56:17peut-être qu'on pourra dire
56:18que c'est là
56:18que ça a commencé.
56:19Parce qu'effectivement,
56:20comme le disait très bien
56:20Vincent à l'instant,
56:23Donald Trump
56:24est en train
56:24de se servir,
56:26j'allais dire,
56:26de petits morceaux
56:28du code
56:29de loi
56:30des Etats-Unis
56:31qui l'exploite
56:33en proposant
56:34des interprétations
56:35probablement abusives
56:37et excessives
56:37de certaines situations.
56:39Je vous donne
56:40trois exemples.
56:41Vous voyez,
56:42vous, peut-être,
56:43une manifestation.
56:44Lui, il vous dit
56:44non, ce n'est pas
56:45une manifestation,
56:46c'est une insurrection.
56:47Là où vous voyez,
56:48par exemple,
56:49des importations,
56:50lui, il dit
56:50non, ce sont
56:51des agressions commerciales.
56:54Là où vous voyez,
56:56par exemple,
56:57de l'immigration,
56:58lui, il dit
56:59non, ce n'est pas
56:59d'immigration,
57:00c'est une invasion
57:01et à situation exceptionnelle,
57:03pouvoir exceptionnel
57:05et effectivement,
57:06il y a cette crainte
57:07qu'ils sont en train
57:07de glisser
57:08vers une forme
57:09d'autoritarisme compétitif.
57:11Alors, face à Donald Trump,
57:13il y a ce gouverneur démocrate,
57:14Gavin Newsom.
57:16On le présente
57:16comme une fille
57:16du montant
57:17du côté démocrate,
57:18un des rares
57:19qui soit un peu populaire.
57:20Est-ce qu'il représente
57:21une menace politique
57:21pour Donald Trump ?
57:22Alors, il va finir
57:23par le devenir
57:24si Trump s'obstine
57:25sans tête
57:26dans cette stratégie
57:27de ciblage
57:28de ce personnage
57:29qui, là encore,
57:30incarne tout ce que
57:31Trump peut exécrire.
57:32Ce qui est vrai,
57:33c'est que,
57:34soyons clairs,
57:35Newsom,
57:35qui est un ancien maire
57:36de San Francisco,
57:38est une figure
57:38qui est à la tête
57:39de l'État
57:39depuis 2019
57:41et il a un agenda politique,
57:43horizon 2028.
57:45Mais, d'une certaine manière,
57:46c'est une sorte
57:47de providence
57:48tombée du ciel
57:49pour les démocrates.
57:50Il peuple un peu
57:51le grand désert
57:52de l'après-cao
57:54Kamala Harris
57:55et, simplement,
57:57il doit se méfier
57:58de deux périls,
57:59à mon sens.
58:00La voie est étroite
58:01pour lui.
58:01C'est-à-dire,
58:01s'il apparaît
58:02comme l'allié
58:03des fauteurs de troubles,
58:04sa popularité
58:05ne décollera jamais
58:06au contraire.
58:07Bon, y compris,
58:08d'ailleurs,
58:09chez les démocrates.
58:10Et puis,
58:10le deuxième élément,
58:11c'est qu'on lui reproche
58:12dans les rangs du parti
58:13parfois d'être
58:14un peu trop bienveillant
58:15vis-à-vis
58:15de certains conservateurs.
58:16Il participe
58:17à des podcasts
58:18qui sont animés
58:18par Charlie Kirk,
58:19par exemple,
58:19qui est une sorte
58:20de figure conservatrice.
58:21Mais c'est vrai,
58:22vous avez raison,
58:23c'est une figure montante
58:24et, simplement,
58:25il faut qu'il joue serré.
58:26D'un mot,
58:27parce qu'il nous reste peu de temps,
58:28est-ce qu'il y a un risque
58:28de propagation ?
58:29Parce qu'on a vu
58:30que le gouverneur du Texas
58:30a mobilisé la garde républicaine.
58:32Oui,
58:33il y a un risque de propagation,
58:35c'est déjà le cas.
58:36On voit qu'il y a
58:36des manifestations
58:37à New York,
58:38à San Francisco,
58:39à Seattle,
58:39à Austin,
58:40au Texas.
58:41La propagation,
58:41c'est exactement
58:42ce que Donald Trump
58:43veut et recherche.
58:44Il est possible
58:45que la rue américaine
58:46le lui donne.
58:46Merci beaucoup
58:48à tous les deux.
58:49C'est la fin de cette émission.
58:50Merci à vous,
58:51chers téléspectateurs,
58:52pour votre fidélité.
58:53Je vous souhaite
58:54une bonne soirée
58:55sur LCP
58:55et à demain.

Recommandations