Passer au playerPasser au contenu principalPasser au pied de page
  • 19/06/2025
La commission d'enquête relative aux effets psychologiques de TikTok sur les mineurs organise une table ronde réunissant les représentants France des plateformes Meta, X et YouTube. La commission d'enquête, créée le 13 mars dernier, est présidée par le député socialiste Arthur Delaporte et a pour rapporteure la députée du socle commun Laure Miller.

Catégorie

🗞
News
Transcription
00:00:00Générique
00:00:00Bonjour à tous, ravis de vous retrouver sur LCP.
00:00:10Les députés poursuivent leurs auditions pour mesurer l'impact de TikTok sur les mineurs.
00:00:16Après les influenceurs, ils auditionnent les responsables de Meta, X et YouTube France.
00:00:21Avec une question majeure, comment ces plateformes arrivent-elles à modérer les contenus critiques,
00:00:26notamment ceux qui portent sur le suicide ou la scarification ?
00:00:29Quelle est la responsabilité des plateformes ?
00:00:31Direction tout de suite la salle Lamartine pour écouter ces auditions.
00:00:35Lorsqu'on a auditionné des jeunes, notamment, qui ont été victimes des réseaux sociaux,
00:00:42certains évoquaient TikTok, un jeune nous évoquait les soucis qu'il avait eus avec Instagram
00:00:47sur des contenus qui prônaient ou en tout cas qui évoquaient l'automutilation
00:00:53et en particulier la scarification et qu'il avait été un peu enfermé dans ces contenus.
00:00:59Il avait eu du mal à s'en sortir, alors quand on l'a vu, il allait mieux et c'est une bonne chose.
00:01:04Mais est-ce que vous, ces sujets, que ce soit automutilation et puis promotion du suicide,
00:01:09ne sont pas des sujets nouveaux ? Je sais que vous en êtes saisi.
00:01:12Est-ce que vous pourriez peut-être nous dire comment vous arrivez à gérer la modération de ces contenus ?
00:01:16Comment vous avez évolué là-dessus ?
00:01:18Et comment vous arrivez peut-être à gérer la modération de ces contenus qui sont parfois détournés ?
00:01:23Enfin, en tout cas, qui utilisent parfois des hashtags ou des mots détournés
00:01:25pour que finalement on arrive à faire émerger ces contenus ?
00:01:28Voilà, peut-être une question qui est peut-être plus ciblée sur Meta, du coup.
00:01:31Oui, merci beaucoup, madame la députée.
00:01:35Je pense que ce serait intéressant de connaître à quelle époque il a vécu ces choses terribles.
00:01:40Je pense qu'on ne peut que reconnaître que dans ce cas, il y a quelque chose qui ne va pas.
00:01:47On fait de notre mieux et on doit faire plus que notre mieux.
00:01:51Donc j'entends aussi que notre travail d'expliquer ce qui marche,
00:01:55mais j'ai envie de dire que c'est aussi de reconnaître quand ça ne va pas.
00:01:57Bon, à l'évidence, il y a un problème.
00:02:00Maintenant qu'on a dit ça, qu'est-ce qu'on fait ?
00:02:01Donc la logique des comptes pour adolescents que j'ai mentionnés en ouverture de l'audition aujourd'hui,
00:02:07c'est justement d'adresser le point des contenus.
00:02:11Pas que, il y a le temps passé, il y a les contacts, mais la question des contenus.
00:02:16Donc j'ai revu mes notes et donc effectivement, l'idée c'est que ces publics,
00:02:21aujourd'hui, ne soient plus exposés à des contenus du type promotion de la chirurgie esthétique,
00:02:25des questions de violence, de mutilation, etc.
00:02:28Donc justement, c'est d'avoir une expérience avec des contenus adaptés à l'âge.
00:02:34Et qu'on arrive, même si ce n'est pas à 100%, mais il faut viser les 100% toujours,
00:02:39à ce que ces choses ne soient plus vues par ces jeunes.
00:02:44Je crois que le DSA est très exigeant dans le domaine de la protection des mineurs,
00:02:48mais au-delà des questions de réglementation, nous le sommes tous, qu'on soit parents ou pas parents.
00:02:52Donc aujourd'hui, je dirais que dans ces domaines, les comptes adolescents sont l'expression,
00:02:58je dirais, pratique, produit même quelque part de l'idée qu'il faut offrir un cadre adapté à ces publics
00:03:07et d'adresser notamment ces contenus.
00:03:09On vous en verra les détails de comment ça fonctionne.
00:03:11Mais aujourd'hui, en tout cas, tous les jeunes éligibles aux comptes ados,
00:03:15c'était mentionné par Aurore, sont dans ces comptes ados,
00:03:18qu'ils soient déjà inscrits sur la plateforme ou qu'ils souhaitent s'y inscrire.
00:03:23Oui, donc effectivement, il y a des restrictions sur le contenu sensible,
00:03:26ce qui inclut les contenus relatifs au suicide, l'automutilation, chirurgie esthétique,
00:03:30enfin toutes ces choses-là.
00:03:33Et j'ajouterai en plus des comptes ados la question de la supervision parentale
00:03:37qui permet, couplé au compte ados, aux parents d'essayer de se co-saisir du sujet,
00:03:43parce qu'évidemment que les plateformes sont acteurs, actrices de ces problématiques fondamentales.
00:03:50Mais du coup, pour que les parents puissent aussi voir les comptes que les ados suivent,
00:03:54les sujets qu'ils consultent, pour pouvoir également engager la discussion sur ces sujets-là.
00:04:01Évidemment, encore une fois, ça ne se substitue pas au rôle des plateformes,
00:04:04mais au compte ados et à notre obligation de restreindre la visibilité de ces contenus.
00:04:10C'est juste un outil supplémentaire.
00:04:11Juste un point, pardon.
00:04:14J'ai oublié que nos partenaires comme IEnfance, Point de Contact,
00:04:16qui, souvent, pour répondre à votre question, nous disent
00:04:17« Attention, il y a une nouvelle pratique d'eux. »
00:04:20Parce qu'on l'a vu dans d'autres domaines, dans le discours de haine, dans l'antisémite, etc.
00:04:23Il y a des mots qui sont détournés dans ces domaines aussi.
00:04:26Et c'est là où, je veux dire, saluer leur travail,
00:04:28parce que sans eux, on n'arriverait pas à détecter certaines tendances.
00:04:32Et donc, le Trusted Flaguer, le 3018, tout ce qui a été mis en place avec IEnfance, notamment,
00:04:37ou Génération Numérique, pour l'éducation numérique.
00:04:39Il y a beaucoup, il y a un écosystème français remarquable aussi dans la prévention
00:04:43et l'action dans ces domaines du numérique, sur lesquels il est normal que l'on travaille.
00:04:49Donc, ça, c'est plus la partie, je dirais, stratégique et évaluation du quotidien.
00:04:57Oui, donc, pour compliquer ce qui a été dit par Meta,
00:05:02en fait, il y a deux aspects de ce problème-là.
00:05:04Il y a la question de l'exposition, effectivement, à des contenus qui font la promotion du suicide
00:05:07ou de l'automutilation qui appelle à une modération de ce point de vue-là.
00:05:11Mais il y a aussi la question, en fait, de comment on protège les gens qui ont ce type de comportement sur la plateforme.
00:05:16Et ça, c'est un autre volet qui est un volet également tout aussi important.
00:05:20Et en fait, ce qu'on peut mettre en face, par exemple, c'est que quand les gens recherchent ces termes de façon consciente,
00:05:27en fait, sur le réseau, par exemple, qui vont rechercher des termes de type,
00:05:30je ne sais pas comment se faire, lui, au suicide ou à l'automutilation, en tout cas,
00:05:33en fait, chez nous, ça va les renvoyer vers notre partenaire qui est SOS Amitié.
00:05:36Et en fait, SOS Amitié est une hotline qui peut leur apporter de l'aide et un soutien, en fait, de ce moment-là.
00:05:42Parce qu'en fait, l'idée, évidemment, par rapport à ce type d'utilisateur,
00:05:44c'est aussi qu'ils puissent trouver de l'aide par rapport au fait qu'ils vont sur un réseau social
00:05:48pour faire des recherches par rapport à ce type de pratique.
00:05:51Il faut voir aussi que dans toute la coopération qu'on a en France avec les forces de l'ordre,
00:05:55notamment Pharos, ça fait partie de leur mandat.
00:05:58Et donc, nous, ils nous ont contactés de temps en temps.
00:05:59Parce qu'en fait, un utilisateur sur le réseau n'avait pas, en fait, forcément posté un contenu illégal,
00:06:04mais avait posté un contenu, en fait, où il pouvait porter atteinte à ses jours ou mettre sa vie en danger.
00:06:09Et à ce moment-là, en fait, nous, on donne notre ligne directe à Pharos.
00:06:12Enfin, ils ont mon numéro de téléphone personnel, mais entre autres.
00:06:15Et en fait, ils peuvent nous appeler puisqu'on puisse, en fait, agir rapidement
00:06:17et notamment remonter à l'utilisateur.
00:06:19Parce que nous, dans ces cas-là, on va partager les données utilisateurs à Pharos
00:06:23pour qu'en fait, ils remontent à la personne, mais pour protéger cette personne en l'occurrence.
00:06:27Merci.
00:06:28Alors, vous dites que, en effet, si demain, je tape Scarification,
00:06:32je vais tomber sur un contenu qui va m'orienter vers une plateforme,
00:06:38vers SOS Amitié ou autre.
00:06:40Est-ce que les mots détournés, vous arrivez à les inclure aussi
00:06:42et à faire en sorte qu'ils bénéficient aussi ?
00:06:44Lorsque je tape, par exemple, Scarification et que le A, je mets un 4 à la place,
00:06:49ce qui est quelque chose qui revient souvent, par exemple.
00:06:51Est-ce que vous arrivez à vous adapter, finalement, à des mots-clés détournés
00:06:55par, notamment, le jeune public ?
00:06:57Est-ce que ça, par exemple, si je tape sur Instagram, là, Scarification,
00:07:02mais en n'utilisant pas forcément les bonnes lettres,
00:07:04est-ce que vous arrivez à détecter ça aujourd'hui ?
00:07:06Alors, oui, évidemment, on pourrait faire le test,
00:07:12mais vous n'avez pas, j'imagine, un compte adolescent.
00:07:15Non, mais même un compte âgeur, bon.
00:07:18Mais parfois, blague à part, c'est pour dire non,
00:07:21mais on pourrait faire les tests.
00:07:22Mais l'autre chose aussi, c'est que, oui,
00:07:24les variantes de lettres sont prises en compte,
00:07:27mais il faut aussi reconnaître que les jeunes ont beaucoup plus d'imagination.
00:07:31Donc, ce n'est pas toujours évident.
00:07:33C'est pour ça qu'après, c'est là où les partenaires sont quand même importants dans ces domaines.
00:07:39Et ça, c'est quelque chose qui nous est beaucoup remonté par iEnfant,
00:07:42justement, cette question des mots détournés.
00:07:44C'est M. Sautère, tout à l'heure, qui parlait du reportage
00:07:46qu'il y avait eu sur l'œil du 20 heures de France 2.
00:07:49Effectivement, il parlait de ça, notamment,
00:07:51sur toutes les problématiques de pédopornographie.
00:07:54Et ça, évidemment, c'est des choses sur lesquelles on travaille,
00:07:56notamment avec les trossy-plagueurs,
00:07:57pour pouvoir identifier, justement, ces nouvelles orthographes, notamment.
00:08:02YouTube.
00:08:03Oui, je précise juste que les contenus incitant au suicide, à l'automutilation
00:08:10ou aux troubles alimentaires,
00:08:11qui sont destinés à choquer ou à susciter du dégoût
00:08:14ou qui vont présenter un risque particulièrement important pour les spectateurs,
00:08:18ne sont pas autorisés sur la plateforme.
00:08:20Le deuxième élément, c'est qu'on met en place des panels
00:08:24et notamment des fenêtres interstitielles entre la requête tapée par quelqu'un
00:08:30en relation avec l'automutilation, le suicide, les troubles alimentaires,
00:08:35et les résultats de recherche.
00:08:36Très concrètement, c'est le travail de nos équipes de YouTube Santé,
00:08:40qui travaillent avec les établissements de santé en France,
00:08:43et avec des partenaires comme le 3114, numéro national de prévention du suicide,
00:08:47et la Fédération française d'anorexie boulimie.
00:08:50C'est le travail de ces équipes-là d'aller aider ces partenaires santé
00:08:55à mieux mettre en valeur, en réponse à certaines requêtes,
00:08:59des contenus qui font autorité,
00:09:00donc des contenus qui proviennent d'établissements de santé,
00:09:02des CHU, des médecins qui sont par ailleurs aussi créateurs.
00:09:06On a d'ailleurs reçu des influences de la santé ici.
00:09:10Exactement, le Conseil national de l'ordre des médecins fait un gros travail
00:09:14pour essayer de cadrer les choses avec une charte du médecin créateur,
00:09:17et on les a beaucoup aidés sur le sujet.
00:09:20Mais donc typiquement, si vous tapez des mots-clés,
00:09:22certains mots-clés relatifs aux sujets dont on vient de parler sur YouTube,
00:09:24vous ne verrez pas de résultats de recherche s'afficher,
00:09:27vous verrez une page qui vous redirige vers le foie de 3114,
00:09:30soit la Fédération française d'anorexie boulimie,
00:09:33et qui vous demandera, si vous souhaitez quand même,
00:09:36accéder à ces pages de résultats de recherche.
00:09:39Et puis, pour information, on essaie de développer énormément,
00:09:42nos équipes YouTube Santé,
00:09:44essaient de développer énormément le contenu relatif
00:09:47à la préservation de la santé mentale sur la plateforme,
00:09:51et à ce jour, on évalue, parce que c'est quelque chose qu'on quantifie
00:09:53et qui est disponible sur le site de l'organisation YouTube Health,
00:09:57on quantifie à environ 35 000 des contenus relatifs à la santé mentale
00:10:01pour la France, qui totalisent 180 millions d'eux.
00:10:03Donc ce n'est pas du tout anecdotique,
00:10:04et c'est quelque chose sur lequel on veut accélérer.
00:10:08Merci.
00:10:08Alors juste, je me suis livré un petit exercice,
00:10:11j'ai tapé Skinny sur X,
00:10:13et je tombe immédiatement, enfin très rapidement,
00:10:15sur un contenu avec près de 50 000 vues,
00:10:184 000 likes, 200 retweets,
00:10:20avec quelqu'un qui se mesure avec une carte bleue l'épaisseur du ventre,
00:10:29et l'autre, un ventre un peu plus épais et des traces de scarification.
00:10:34Vous voyez, ça, c'est dans les premiers résultats qui ressortent.
00:10:37Je prends X, mais on a la même chose en termes de signalement
00:10:42qu'on a pu recevoir, par exemple, sur des réels, sur Insta,
00:10:50avec, voilà, notamment autour de la communauté d'Ophénia.
00:10:55Je ne sais pas si vous connaissez cette influenceuse.
00:10:58Et donc, on pourra vous montrer, si vous voulez, les screens,
00:11:03mais globalement, des scarifications assez récurrentes sur les réels.
00:11:10Donc, voilà, soit des rechutés en silence avec des marques de sang
00:11:14sur des mouchoirs, soit vraiment des scarifications avec du sang
00:11:16qui coulent des plaies chez ces jeunes, en fait,
00:11:21très jeunes en général, qui suivent cette influenceuse particulièrement
00:11:24et qui gagnent beaucoup d'argent avec ces jeunes qui ont un mal-être certain.
00:11:30Voilà, donc, comment vous faites pour modérer, a priori, ces contenus ?
00:11:34Enfin, voilà, ou dès la publication ?
00:11:36Enfin, je ne sais pas, parce que là, c'est plutôt du visuel,
00:11:38même si, voilà, c'est marqué, c'est rien qu'une petite entaille.
00:11:40Donc, voilà, par exemple.
00:11:42Enfin, je vous montrerai après, est-ce qu'on ne va pas les diffuser à l'écran,
00:11:45ces contenus, mais voilà, c'est assez choquant et ça existe.
00:11:48Même si, je tiens à le dire, il peut arriver,
00:11:52plus souvent que ce qu'on repère sur TikTok, par exemple,
00:11:56on tombe sur des zèbres, on ne tombe pas sur des scarifications.
00:11:59Non, mais je tiens à le dire.
00:12:01Voilà, en tout cas, sur Insta.
00:12:04Non, bien sûr, on est prenant de ces contenus
00:12:06et aussi, si ça peut nous être remonté encore une fois par les signaleurs de confiance,
00:12:10c'est toujours un excellent levier pour nous pour aller agir plus rapidement.
00:12:16Et comment vous expliquez que ça passe entre les mailles ?
00:12:19Enfin, est-ce que vous avez mis des dispositifs spécifiques de détection ?
00:12:23Enfin, comment ?
00:12:24Je pense aussi à la question qui est posée, c'est est-ce que les mineurs voient ce contenu ?
00:12:27Non, en l'occurrence, ce sont des mineurs.
00:12:30Et qui le voient ou qui le publient ?
00:12:33Les deux.
00:12:34Bon, donc effectivement, oui, il y a un problème.
00:12:37Donc, il faut qu'on voit ce point-là.
00:12:39Je veux bien qu'après, vous me parlez de ça.
00:12:41Et ça, globalement, c'est le sujet qu'on a avec TikTok de manière très importante.
00:12:47Mais l'intérêt de cette audition aussi, c'est de dire que ces problématiques-là
00:12:51ne sont pas spécifiques ou isolées et qu'on les observe partout.
00:12:54Alors, j'ai pris X parce que j'ai X et méta physiquement.
00:12:58Mais par exemple, sur YouTube, alors, on n'a pas forcément observé ce type de choses-là.
00:13:03Mais on a d'autres types de contenus qui sont pas moins problématiques.
00:13:06On parlait tout à l'heure de la désinformation en santé.
00:13:10Et j'avais eu l'occasion, voilà, une rencontre organisée par YouTube, justement,
00:13:13qui visait à évoquer cette charte de l'ordre des médecins.
00:13:17Peut-être que M. Quirbois s'en souvient de dire, OK, très bien,
00:13:20mais on a le compte de M. Kazatnovas, 2 millions d'abonnés,
00:13:22qui fait la promotion du crudivorisme et dont les pratiques ne sont pas non plus sans danger.
00:13:29Voilà, donc comment est-ce qu'on peut mieux réguler ça ?
00:13:33Est-ce que vous avez des suggestions d'évolution de la base légale ?
00:13:35Parce que peut-être qu'il y a aussi une question de droit,
00:13:38enfin, voilà, il y a toujours cette question de la liberté d'expression du droit.
00:13:41Et dans ce cas-là, puisque nous, notre rôle, c'est aussi d'éventuellement faire évoluer le droit.
00:13:44Si vous avez des suggestions, ici, on est preneur.
00:13:48Je peux peut-être répondre sur ce point.
00:13:50Effectivement, nous, aujourd'hui, on n'a pas de base pour pouvoir prendre une action
00:13:55sur les contenus que vous avez mentionnés,
00:13:57que ce soit en vertu du droit ou de nos conditions d'utilisation.
00:14:01Ce qui est particulièrement regrettable,
00:14:03parce que je crois que ce monsieur, il a fait l'objet de dizaines de signalements à la Mivilude.
00:14:06Et on travaille aussi avec la Mivilude sur ces questions-là.
00:14:09Une condamnation peut-être pour, je ne sais plus,
00:14:12je ne sais pas, exercice illégal de la médecine ou des choses comme ça,
00:14:14mais qui ne tient pas vraiment à ses propos, aux propos qu'il tient.
00:14:18Et cette personne n'a pas été condamnée en raison des propos qu'il tient.
00:14:23Donc, peut-être qu'il y a un vide juridique à combler.
00:14:25En tout cas, soyez rassurés.
00:14:26On travaille avec les autorités sur ces questions
00:14:29et on essaye d'échanger le maximum d'informations
00:14:31sur des créateurs ou des créatrices problématiques sur la plateforme.
00:14:36Parfois, on n'a pas nécessairement la base pour le faire.
00:14:37Et vous le savez, c'est une question qui est extrêmement importante pour nous,
00:14:40notamment au regard du règlement sur les services numériques,
00:14:44qui nous oblige à prendre des actions en vertu de critères extrêmement précis.
00:14:49Et donc, soit le droit dans un pays donné, soit nos conditions d'utilisation.
00:14:55Sans cela, on est ensuite susceptible d'être poursuivi par ces personnes-là
00:14:59si on prend une action sur leur compte, sur leur chaîne, sur un de leurs contenus
00:15:02qui n'étaient pas appropriés et ça arrive de manière assez régulière.
00:15:08Donc, c'est vrai qu'il y a des contenus qu'on ne souhaite pas avoir sur la plateforme.
00:15:12En l'état actuel du droit, c'est un peu compliqué
00:15:14d'avoir une base juridique solide pour le faire.
00:15:17Donc, ce que vous dites, c'est que vous nous incitez à revoir peut-être le droit en la matière
00:15:23sur des zones qu'on appelle des zones grises, qu'il s'agisse des propos que vous évoquez,
00:15:27ou peut-être la question du sexisme, du masculinisme,
00:15:31puisque ça a fait l'objet d'une actualité récente, continue et subsistante.
00:15:36Vous vous diriez que vous avez besoin que le droit soit plus clair sur ces sujets-là
00:15:42pour que vous puissiez vous-même retirer le contenu.
00:15:44En d'autres termes, est-ce que vous ne pourriez pas vous-même durcir vos conditions,
00:15:48votre règlement interne, parce que vous seriez finalement poursuivi par les créateurs de contenu
00:15:54dès lors que le droit, lui, n'interdit pas ce genre de propos ?
00:15:58Alors, je pense qu'il y a deux éléments.
00:16:01D'une part, le fait que ces gens ne soient pas condamnés pour ces propos
00:16:05par un magistrat ou par un tribunal pose problème.
00:16:10Et si on avait ce genre de décision de condamnation,
00:16:12ce serait évidemment beaucoup plus simple pour nous de prendre une action sur ces contenus.
00:16:17Et je pense que vous avez tout à fait raison, madame la rapporteure,
00:16:19sur des propos sexistes ou sur des propos misogynes.
00:16:26Et on a encore fait faire une analyse juridique cette semaine,
00:16:29parce qu'on est extrêmement diligents dès qu'on a reçu certains signalements
00:16:33par un avocat spécialisé en droit de la presse
00:16:36et qui nous a rendu dix pages sur pourquoi est-ce que ces contenus,
00:16:42en l'état actuel du droit, ne violent pas la législation française.
00:16:45Ce qui, je pense, est un problème.
00:16:47Et cet avocat spécialisé en droit de la presse nous expliquait
00:16:50que ces contenus pouvaient être vus comme choquants ou nauséabonds,
00:16:54mais qu'en l'état actuel du droit, ils ne franchissaient pas la ligne.
00:16:57Quant à la différence avec nos conditions d'utilisation,
00:17:01je pense que si ces propos ou si ces comportements,
00:17:05bien que potentiellement choquants, ne franchissent pas…
00:17:09Enfin, s'ils ne sont pas réprimés en l'état actuel du droit
00:17:12et si le législateur n'a pas jugé utile de les réprimer,
00:17:14c'est un peu compliqué pour nous de dire que nous allons le faire
00:17:17par le biais de nos conditions d'utilisation.
00:17:18Mais évidemment, elles ont vocation à évoluer dans un sens comme dans un autre.
00:17:23Donc, si le droit français vient à réprimer certaines choses,
00:17:27nos conditions d'utilisation peuvent aussi avoir vocation à évoluer.
00:17:30Mais j'aimerais bien, parce que peut-être de manière générale,
00:17:32c'est des questions qu'on se pose.
00:17:34Par exemple, dans les conditions générales d'utilisation de YouTube,
00:17:36nous ne autorisons pas les contenus qui incitent à la violence ou à la haine
00:17:39envers certains individus ou groupes d'individus
00:17:40en fonction de caractéristiques suivantes, sexe, etc.
00:17:43Ça, on le retrouve globalement dans toutes les conditions générales d'utilisation.
00:17:47Comment ça se fait que vous ne pouvez pas être parfois mieux disant
00:17:50que le droit en vigueur ?
00:17:52Est-ce que vous ne pouvez pas vous-même avoir une part de libre arbitre ?
00:17:56Enfin, si, de libre arbitre, d'une certaine manière,
00:17:58et avoir des conditions générales d'utilisation plus protectrices
00:18:01que celles qui régissent l'espace social en général ?
00:18:06Je peux répondre pour ce qui est du tube,
00:18:09mais c'est toujours une mise en balance assez délicate
00:18:11entre liberté d'expression et suppression de contenus potentiellement choquants.
00:18:19Encore une fois, je pourrais vous faire parvenir à cette confinantielle
00:18:22l'analyse de cet avocat, mais qui me semble extrêmement précise.
00:18:26Vous savez qu'on a des jurisprudences assez claires dans l'Union européenne
00:18:30sur la liberté d'expression, y compris quand elle concerne des contenus choquants,
00:18:33et je pense qu'on peut s'en féliciter parfois.
00:18:35Je pense que c'est des décisions qui ont permis de faire en sorte
00:18:39que des journaux satiriques qu'on connaît parfaitement
00:18:43puissent encore exercer librement dans notre pays.
00:18:45Donc, c'est une mise en balance particulièrement compliquée
00:18:49entre liberté d'expression et suppression de contenus choquants.
00:18:55Après, encore une fois, si le droit doit évoluer,
00:18:57je pense qu'il n'y a pas de raison que nos conditions d'utilisation n'évoluent pas.
00:19:00Peut-être que Meta et X, vous pouvez réagir là-dessus,
00:19:07sur le fait que, pourquoi est-ce que vous n'avez pas des conditions générales
00:19:10d'utilisation qui, finalement, soient plus vertueuses aujourd'hui que le droit
00:19:13et qui vous permettraient, finalement, d'avoir des personnes
00:19:16qui viennent sur votre plateforme, qui doivent accepter
00:19:18les conditions générales d'utilisation, et qui, donc, acceptent,
00:19:21évidemment, par exemple, en l'occurrence, de ne pas tenir de propos sexistes.
00:19:25Ça peut paraître évident. Vous pourriez être mieux disant, on va dire.
00:19:28Je pense que, en fait, je pense qu'on doit regarder l'intention et l'impact.
00:19:37L'intention, on peut la partager.
00:19:40Mais peut-être pour rebondir un peu sur ce que dit Thibault,
00:19:44il ne faut pas toujours regarder le DSA un peu comme quelque chose d'intouchable.
00:19:50Je pense que le DSA a le mérite de créer un cadre général
00:19:53qui dit que vous devez mettre en place des moyens de modération
00:19:56et expliquer comment ça marche.
00:19:58Mais aujourd'hui, la question qui se pose à nous, ce que je vois à la pratique,
00:20:03c'est que, état membre par état membre, situation par situation,
00:20:06cas particulier par situation, c'est-à-dire le quotidien,
00:20:09les mêmes questions se reposent aujourd'hui.
00:20:12Être mieux disant, je pense que, parfois, on l'a été.
00:20:19Je mentionnais tout à l'heure le cas du déni de l'Holocauste.
00:20:24C'est même aujourd'hui modéré, même dans des pays où ces propos sont autorisés
00:20:28au titre de la liberté d'expression.
00:20:30Mais, mon message de ça, c'est de dire,
00:20:36on peut faire évoluer ces conditions,
00:20:39mais on ne devrait pas nous laisser décider seul de le faire.
00:20:42Et donc, je pense qu'il faut créer un système dans lequel,
00:20:45avec des parties prenantes, avec l'ARCOM, avec vous,
00:20:50il faut que ce soit...
00:20:51Parce qu'il faut quand même un minimum de consensus.
00:20:54Parce qu'on pourrait prendre des décisions pour bien faire
00:20:57qui ne correspondraient pas, finalement, en termes d'impact.
00:21:00Ou même, on pourrait être critiqué dans notre légitimité à le faire.
00:21:03Après tout, qui êtes-vous pour dire ce que je peux dire ou ne pas dire ?
00:21:06C'est un débat sur lequel on est confronté au quotidien.
00:21:10Donc, mon message aujourd'hui, c'est de dire,
00:21:11il y a la régulation, elle est là, on ne peut pas faire sans aujourd'hui.
00:21:16Ce cadre est quand même précis.
00:21:18Il a été spécifiquement créé pour nous.
00:21:21Mais dans le quotidien de tout ça,
00:21:23je pense que c'est important que ces engagements multiacteurs se poursuivent.
00:21:27L'observateur de la haine créé par la loi d'Itavia à l'ARCOM,
00:21:32il doit vivre.
00:21:33Le groupe de contact permanent du ministère de l'Intérieur
00:21:35n'a pas été réuni depuis plusieurs mois.
00:21:38Il avait été créé pour réunir les plateformes et l'État
00:21:40pour parler précisément de ces sujets,
00:21:42notamment de terrorisme, mais pas que.
00:21:43Aujourd'hui, on pourrait l'étendre.
00:21:45Donc, je pense que...
00:21:46J'entends ce que vous dites,
00:21:48mais mon point de vigilance, c'est de dire,
00:21:51on n'a pas vocation à décider seul de ce qu'on peut dire ou ne pas dire.
00:21:54Parce que, quelque part, vous nous donnez un pouvoir aussi
00:21:56qui, parfois, peut être critiqué dans l'autre sens,
00:22:00que j'ai connu.
00:22:00Donc, ce n'est pas une manière de me cacher pour dire
00:22:02je ne veux rien faire.
00:22:03Je dis, moi, je ne peux rien faire personnellement.
00:22:05Mais c'est plutôt de dire,
00:22:07c'est important de maintenir cette approche multiacteurs
00:22:10et qu'on soit bien d'accord.
00:22:11On a signé, par exemple, à l'ARCOM la charte alimentaire.
00:22:14Donc, c'est un sujet.
00:22:16Donc, de dire, mais comment on est plus vertueux dans ces domaines ?
00:22:18Comment on peut aller plus loin ?
00:22:19Donc, on y travaille avec l'ARPP.
00:22:21Donc, c'est un exemple récent que j'ai en tête.
00:22:23Voilà.
00:22:24Donc, il y a des zones sur lesquelles on peut avancer.
00:22:25Mais ce qui est bien dans ce processus, par exemple,
00:22:27c'est que vous avez une autorité publique,
00:22:29vous avez les entreprises, vous avez, bref, l'ARPP.
00:22:32Vous avez des instances.
00:22:33Et après, au terme de ce processus, on peut dire,
00:22:35OK, on avance ensemble.
00:22:37Mais quand la plateforme décide seule,
00:22:39et j'entends vos intentions,
00:22:41j'ai vu des cas où on se plaignait aussi dans l'autre sens.
00:22:45Donc, en fait, il faut juste qu'on...
00:22:47Si, au terme de ces processus, on peut se dire,
00:22:49ben voilà, il y a certes le DSA qui est un peu tout là-haut à Bruxelles
00:22:52et qui existe et qu'on doit appliquer.
00:22:54Mais à l'échelle de notre pays,
00:22:55dans le cas de notre consensus démocratique, social,
00:22:58de ce qu'on considère être acceptable ou pas acceptable,
00:23:01comment on fait pour que ça s'applique de manière beaucoup plus au quotidien
00:23:05sur des cas en plus nouveaux ?
00:23:06Parce que ce que vous décrivez, il y a des choses qui sont nouvelles pour nous.
00:23:09On n'a pas... Voilà, donc je ne suis peut-être pas assez clair dans ma réponse,
00:23:12mais je pense qu'on ne doit pas s'éliciter seul.
00:23:15Ce serait mon message que je voudrais dire aujourd'hui,
00:23:17même avec les meilleures intentions du monde.
00:23:19Et je sais que ce n'est pas facile à entendre, parfois.
00:23:21C'est même difficile à entendre, parce que je vais prendre un seul exemple.
00:23:25Oui, mais je m'attends à votre réaction.
00:23:28La politique sur la nudité, par exemple.
00:23:30Oui.
00:23:32Pourquoi vous avez une politique très proactive sur la nudité
00:23:35et pas sur le sexisme dans les propos ?
00:23:38Est-ce que ce n'est pas presque plus choquant d'entendre un homme
00:23:41qui appelle à battre les femmes que de voir un bout de téton ?
00:23:44Alors, soyons très clairs.
00:23:46Déjà, sur la nudité, je pense qu'on parle beaucoup des mineurs.
00:23:53Oui, avoir une politique stricte sur la nudité, même très stricte,
00:23:57empêche que des mineurs consultent des images,
00:24:00même à caractère pornographique, sur lesquelles ils n'ont évidemment rien à faire.
00:24:05Deuxième point, il y a ce qu'on appelle le revenge porn.
00:24:07Par exemple, quand vous avez des photos qui sont prises d'une ex-petite amie
00:24:11et qui sont mises sur les réseaux, quand vous avez une politique de nudité très stricte,
00:24:14normalement, grâce à un algorithme, vous pouvez arriver à bloquer ce type de contenu.
00:24:17Donc moi, j'assume totalement une politique de nudité hyper stricte.
00:24:21Certains la qualifient de puritaine, mais elle a le mérite d'être efficace.
00:24:24Et je vais répondre à vos dernières questions.
00:24:27Après, si des paroles sont tenues pour dire qu'il faut taper ou attaquer telle ou telle personne,
00:24:33ce sont des propos qui doivent être modérés.
00:24:35Donc là, on ne parle pas de sexisme un peu du café du commerce.
00:24:38Et j'entends bien, on parle de propos qui incitent à la violence.
00:24:41Tout à fait, la violence envers les femmes, par exemple.
00:24:45Donc ça doit faire l'objet d'une modération.
00:24:47Et si nous ne modérons pas, nous avons des comptes à rendre.
00:24:49Moi, je n'ai pas là-dessus de désaccord de principe, heureusement d'ailleurs.
00:24:52Mais je ne vois pas le...
00:24:56Non, si, si, on va revenir, parce que c'est au cœur de la question.
00:25:00Vous nous dites, on ne peut pas être vraiment plus dur que le droit
00:25:02parce que liberté d'expression, dans les propos.
00:25:06Mais finalement, la publication d'une image est en soi une expression.
00:25:09On est d'accord.
00:25:10L'expression d'une image avec de la nudité, vous censurez,
00:25:13alors qu'en fait, rien dans le droit n'interdit en soi d'avoir des gens...
00:25:19Aujourd'hui, vous avez un peu amélioré,
00:25:20mais avant, quand on mettait une photo d'une statue grecque,
00:25:23elle était censurée sur...
00:25:25C'est la meilleure, oui.
00:25:26Aujourd'hui, les statues grecques, non.
00:25:28Par contre, parfois, on a des sportifs ou des gens qui nous ont dit,
00:25:31moi, j'ai mis...
00:25:33Voilà, j'étais un peu...
00:25:34J'ai revenu de ma séance de sport.
00:25:35Je crois qu'on l'a dit dans une audition.
00:25:37Et hop, mon contenu a été banni.
00:25:38Donc, vous voyez bien qu'il y a l'impression d'un deux poids, deux mesures.
00:25:44Pour être très clair, déjà, on peut faire appel.
00:25:47Donc, on fait des erreurs de modération.
00:25:49Et l'idée, c'est d'ailleurs ce que la réglementation demande.
00:25:51On doit pouvoir faire appel.
00:25:52Donc, quelqu'un qui a été fait l'objet d'une surmodération peut faire appel.
00:25:56Et heureusement, normalement, son contenu doit être rétabli.
00:25:59Mais je réitère, on ne parle pas que de nudité un peu topless,
00:26:02façon émission du grand cabaret.
00:26:05Parfois, on parle de nudité que des mineurs ne doivent pas regarder.
00:26:09Là, pour le coup, on est d'accord avec vous, en fait.
00:26:11Attention, je veux dire, tout ce qui est contenu portographique...
00:26:15C'est le prix à payer, ça, je veux dire.
00:26:18Oui, oui.
00:26:18Mais du coup, ça veut dire qu'on va moins tolérer le contenu portographique,
00:26:25et encore, on ne vous demande pas de le tolérer,
00:26:27que du contenu qui pourrait être, selon vous,
00:26:32conforme à une liberté d'expression, mais sexiste,
00:26:35est-ce que ça ne pose pas un problème ?
00:26:37Puisque là, on parle des effets que ça peut avoir,
00:26:40notamment sur des personnes qui sont vulnérables, comme les mineurs.
00:26:42Quand on a des influenceurs qui promeuvent, en fait, des normes de genre inégalitaires,
00:26:48c'est quand même contraire à, par exemple, la devise républicaine.
00:26:53Non, mais à ce moment-là, un, il faut les condamner.
00:26:56Deuxièmement, il y a, je réitère, il y a des contenus qui peuvent être de l'ordre du sexisme,
00:27:00du café, du commerce, que l'on entend à la télévision,
00:27:03ou dans des produits disponibles, si on prend une émission comme Frenchy Shore,
00:27:07sur Paramount+,
00:27:08ce sont des choses qui peuvent choquer,
00:27:10et qui sont peut-être visibles par des mineurs.
00:27:12Donc, on ne parle pas de réseaux sociaux.
00:27:13Donc, on est dans un environnement, malheureusement,
00:27:15où le sexisme existe encore partout et en tous lieux.
00:27:19Il existe aussi, malheureusement, sur les réseaux sociaux,
00:27:22parce qu'il n'y a pas aujourd'hui une loi qui le condamne,
00:27:25Ubi et Torbi.
00:27:27Maintenant, pour être très clair, là où les règles doivent se focaliser,
00:27:29c'est sur les attaques, les appels à la violence,
00:27:32qui vont bien au-delà de ce qu'on peut appeler,
00:27:35et ce qui peut nous choquer ici,
00:27:36d'un sexisme, du café, du commerce,
00:27:38mais qui sont là de l'appel à la violence,
00:27:41et qui portent atteinte à la sécurité des personnes.
00:27:43Et dans ce cas, il est évident que les règles doivent s'appliquer.
00:27:46Si elles ne sont pas appliquées, à ce moment-là,
00:27:47on a des comptes à rendre.
00:27:48Mais je vous alerte juste sur le fait
00:27:51qu'on n'éradiquera pas, malheureusement, nous,
00:27:57le seul sujet du sexisme en l'éliminant.
00:28:00D'ailleurs, il faudrait le définir,
00:28:01parce que parfois, on ne parle pas de choses d'appel à la violence,
00:28:06on parle du sexisme un peu d'atmosphère, si on peut dire.
00:28:09Il faudrait pouvoir le définir,
00:28:10et après, comment on agit sur ces contenus.
00:28:12Alors, pourquoi les réseaux sociaux,
00:28:15et pas sur d'autres types de contenus numériques,
00:28:17que l'on peut voir, et librement accessibles par le grand public ?
00:28:20Je pense que là encore, il faut avoir une perspective assez 360.
00:28:26Pour rebondir sur ce qu'Arthur Delaporte vous expliquait,
00:28:31c'est qu'on a le sentiment, du coup,
00:28:32que vous arrivez à appliquer une forme de principe de précaution,
00:28:35notamment sur le sujet de la nudité,
00:28:37pour en effet éviter que les mineurs qui peuvent se promener sur la plateforme
00:28:41puissent être confrontés à ce type d'image,
00:28:43mais qu'en revanche, ce principe de précaution,
00:28:46vous décidez de ne pas le mettre en œuvre sur d'autres formes de contenus problématiques.
00:28:50– Parce qu'on ne peut pas, c'est difficile, je pense,
00:28:53de censurer une parole a priori.
00:28:56Les gens s'expriment sur une plateforme.
00:28:58Si ça tombe sous le coup de la loi ou des règles de la plateforme,
00:29:00à ce moment-là, ils sont sanctionnés a posteriori.
00:29:03C'est la règle générale, je dirais,
00:29:05en matière d'expression, si j'ai bien compris le droit applicable.
00:29:10Donc, il est quand même difficile
00:29:11de prendre des décisions un peu huit-huit-huit,
00:29:14c'est-à-dire, je supprime le sexisme.
00:29:17Imaginons qu'on arrive même à définir très précisément
00:29:19de quoi on parle, parce qu'il faudrait être précis sur les critères,
00:29:22et après dire, bon, on y va.
00:29:24Et puis, par ailleurs, le sexisme prospère partout
00:29:27et en tout lieu dans la société.
00:29:28Bon, voilà, OK, ça peut être un choix,
00:29:31mais une fois de plus, je pense que ce n'est pas un choix
00:29:34qu'on devrait faire seul, voilà, sincèrement.
00:29:36Donc, j'invite toutes les parties prenantes
00:29:39à vraiment avancer ensemble et pas juste
00:29:41nous laisser cette responsabilité,
00:29:43et notamment dans la définition de ce qui est vraiment attendu
00:29:46et le type de contenu que vous souhaitez que l'on retire.
00:29:49Mais les choses peuvent évoluer,
00:29:51mais voilà, soyons bien au clair,
00:29:53tout sur la méthode, je dirais.
00:29:55Très bien. On aura ce débat, je pense,
00:29:57sur la question de la vérification de l'âge,
00:29:58mais personnellement, j'ai du mal à comprendre l'argument
00:30:00qui est de dire qu'il faut qu'on avance groupé
00:30:02et personne ne doit prendre la décision avant les autres.
00:30:05Mais vous êtes des entreprises privées,
00:30:07on est dans une société, une économie de marché,
00:30:08vous pourriez aussi considérer que le fait d'être en avance
00:30:12sur les autres en termes de pratiques vertueuses
00:30:16pourrait vous donner un avantage concurrentiel
00:30:18sur les autres plateformes.
00:30:19Donc, vous pourriez aussi faire ce choix inverse
00:30:21de dire, nous, on va être meilleur que les autres
00:30:23et on va pratiquer une modération,
00:30:25peut-être un peu plus, comme je le disais,
00:30:28principe de précaution que les autres.
00:30:29Ça vous rendrait peut-être plus attractif
00:30:32que les autres plateformes.
00:30:33Oui, mais là aussi, le paradoxe,
00:30:35c'est que vous confiez à une entreprise privée
00:30:36une présatisation complète de la liberté d'expression
00:30:39qui n'est pas totalement, je pense,
00:30:40le sens de ce qu'a voulu le législateur ces dernières années,
00:30:43puisqu'il nous demande de rendre des comptes
00:30:44en termes d'absence de modération,
00:30:46mais aussi en matière de surmodération.
00:30:48Si on regarde ce que dit le Conseil constitutionnel
00:30:50sur la loi Avia, c'était frappant.
00:30:52On nous a dit, on ne peut pas laisser des plateformes
00:30:53décider en 24 heures de ce qui est illégal ou pas illégal,
00:30:56contraire à la Constitution.
00:30:57Bon, pas de chance.
00:30:58Le DSA aussi pose ses jalons.
00:31:01Donc, une fois de plus, je pense qu'on ne souhaite pas
00:31:05aller vers ce système d'ultra-privatisation
00:31:07de la liberté d'expression.
00:31:09Et donc, j'invite vraiment à avoir plutôt
00:31:10une logique multi-acteur.
00:31:12Je ne dis pas que les sujets posés sur le fond
00:31:14ne sont pas pertinents.
00:31:14Bien au contraire, j'en ai connu des dizaines
00:31:16et celui-là est évidemment important.
00:31:18Mais je pense qu'il faut être juste de la manière
00:31:19dont on décide sur des sujets extraordinairement sensibles,
00:31:22en fait, dès qu'il s'agit de retirer du contenu
00:31:23ou des comptes, même si ce sont des choses
00:31:25que l'on n'aime pas, sincèrement.
00:31:26Mme Didier ?
00:31:29Oui, merci beaucoup.
00:31:29Peut-être que je voulais réagir sur cette question.
00:31:31Merci, madame la rapportrice.
00:31:32Non, je suis très sensible à votre question.
00:31:34Ça fait partie des sujets sur lesquels on réfléchit
00:31:36de façon tout à fait permanente
00:31:37quand on pense à la question de la modération.
00:31:39Effectivement, c'est vraiment toujours une question d'équilibre.
00:31:42En soi, ce que vous disiez par rapport au sexisme,
00:31:44chez nous, en fait, et franchement,
00:31:46je pense que ce sera aussi le cas des autres plateformes,
00:31:48mais je vais quand même parler pour X,
00:31:49en fait, on va interdire la conduite haineuse
00:31:52sur base de catégories protégées.
00:31:53Et donc, le genre et l'orientation sexuelle
00:31:57sont des catégories protégées.
00:31:58Après, ce qui est compliqué, c'est qu'une fois
00:31:59qu'on a dit ça, si vous voulez,
00:32:02en fait, il y a certains contenus où ça va être...
00:32:04On va pouvoir clairement déterminer cette attaque
00:32:05et il y a d'autres, en fait, où la façon
00:32:08dont c'est tourné, etc., c'est pas vraiment clair.
00:32:10Et pour nous, c'est un peu ça qui est toute la difficulté,
00:32:12c'est-à-dire sur certains types de contenus,
00:32:14c'est assez clair.
00:32:15Sur d'autres, c'est pas clair.
00:32:16Mais en soi, si vous voulez, sur ces sujets-là,
00:32:18potentiellement, par rapport à ce qui est reconnu
00:32:20dans la LCEN, sur ce qui se constitue de la haine,
00:32:22on peut aller plus loin,
00:32:23mais c'est la question, en fait,
00:32:24de par rapport à ce qu'on voit,
00:32:26quelle décision on va prendre.
00:32:27Et honnêtement, c'est vraiment pas évident.
00:32:31Ça a l'air, mais c'est vraiment pas évident.
00:32:32Et sur certains cas, c'est vrai qu'on va se dire,
00:32:34OK, là, on prend la décision, on modère.
00:32:37Et sur d'autres cas, c'est vrai qu'on a franchement un doute.
00:32:39Et en fait, souvent, dans le doute,
00:32:40on va plutôt avoir tendance à laisser en ligne
00:32:42qu'à modérer, dans le sens où on va se dire,
00:32:43voilà, dans le doute, on préfère privilégier
00:32:45la caisse des gens à s'exprimer.
00:32:47Après, ce que vous disiez aussi par rapport aux termes détournés,
00:32:50etc., c'est vrai que nous, là-dessus,
00:32:52et je rejoins Antoine sur ce sujet-là,
00:32:54c'est vrai qu'il y a ce que la loi peut faire
00:32:55en termes de ce qu'on retire avec la loi
00:32:57ou avec nos règles, il y a forcément une approche
00:32:59toujours un tout petit peu binaire, je veux dire,
00:33:01c'est toujours un peu qu'est-ce qu'on va appliquer.
00:33:03Mais après, il y a la question, en fait,
00:33:04de recueillir de l'information par, en fait,
00:33:07des associations qui vont avoir une expertise sur le sujet.
00:33:10Nous, en tant que plateforme, on va quand même traiter
00:33:11d'un ensemble de sujets qui est assez large.
00:33:13Et en fait, pouvoir travailler avec des associations
00:33:14qui ont une expertise particulière,
00:33:17très intéressantes pour nous, on en avait discuté
00:33:19un petit peu avec l'ARCOM dans le cadre
00:33:20de ce qu'ils vont faire avec les signaleurs de confiance,
00:33:22c'est vrai que nous pouvoir nourrir cette discussion,
00:33:25je pense que ça nous permettrait de mieux appréhender
00:33:27des phénomènes et, en fait, de savoir
00:33:29où placer le curseur. Je reviens sur l'exemple
00:33:31qu'a pris M. le Président sur la maigreur.
00:33:34C'est vrai que, moi, de temps en temps,
00:33:35ça m'interpelle aussi quand je vois, par exemple,
00:33:38des campagnes pour des marques de mode,
00:33:40en fait, avec des mannequins très maigres.
00:33:42Et, en fait, je veux dire, nous,
00:33:44c'est toujours une question de curseur,
00:33:46c'est-à-dire que, vu que c'est autorisé
00:33:50dans l'espace public, on va toujours un petit peu
00:33:52regarder ce qui se fait ailleurs pour appliquer
00:33:53de la modération sur notre service.
00:33:56Et donc, en soi, la question
00:33:58de l'apologie de la maigreur, c'est compliqué
00:34:00à savoir ce qui peut faire de l'apologie.
00:34:01Est-ce qu'une campagne de publicité fait de l'apologie de la maigreur ?
00:34:05Franchement, ça se discute.
00:34:06Est-ce qu'effectivement, le poste qu'évoquait
00:34:08M. Delaporte peut
00:34:10correspondre à quelque chose
00:34:13qui est interdit chez nous ou quelque chose
00:34:15où, en fait, c'est un peu contestable,
00:34:17mais, ma foi, ce n'est pas interdit.
00:34:18Donc, tout ça, c'est vraiment des réflexions assez compliquées,
00:34:21mais tout à fait à disposition là-dessus
00:34:25pour vous faire part de nos réflexions.
00:34:27Et pour X, s'agissant de votre plateforme,
00:34:30les contenus pornographiques, aujourd'hui, sont acceptés ?
00:34:34Alors, oui, il y a une particularité
00:34:37par rapport aux contenus pour adultes.
00:34:39Alors, ce n'est pas une décision qui tient de X.
00:34:42En fait, c'est une décision qui est antérieure
00:34:44au rachat de la plateforme.
00:34:47Les contenus pour adultes, en fait,
00:34:49alors, si vous voulez, il n'y a pas forcément
00:34:51une décision par rapport à ce type de contenu
00:34:53de manière particulière.
00:34:55En fait, c'est plus, en fait, une question
00:34:57qui s'inscrit, en fait, dans la question
00:34:59de la liberté d'expression par principe
00:35:01et dans la mesure où c'est des contenus
00:35:03qui ne sont pas des contenus illégaux.
00:35:05Après, c'est des contenus qui sont restreints,
00:35:07notamment pour les publics mineurs,
00:35:09mais pas seulement.
00:35:11En fait, de manière générale,
00:35:12la règle sur la plateforme,
00:35:13c'est que les comptes qui produisent ce type de contenu
00:35:17doivent être derrière un filtre de visibilité sur le compte.
00:35:20Ça veut dire qu'en fait, le compte n'est pas visible,
00:35:22sauf si on clique dessus.
00:35:23Ils ne sont pas à des zones à haute visibilité de la plateforme.
00:35:28Ils ne peuvent pas être...
00:35:30Enfin, les gens ne doivent pas pouvoir tomber dessus,
00:35:32sauf s'ils le cherchent de façon active.
00:35:34Et pour les situations mineures,
00:35:35ils sont dans un système de edge-gating par rapport à ça.
00:35:37Mais vous avez raison,
00:35:38ce n'est pas interdit pour autant.
00:35:39C'est restreint.
00:35:42Merci.
00:35:42Mais pour aller plus loin,
00:35:45parce que c'est vrai que,
00:35:48bon, au-delà de son nom, X,
00:35:50il y a beaucoup de contenus X.
00:35:51On est d'accord ?
00:35:53Ça, c'est ma première question.
00:35:57Ça dépend ce que vous entendez par beaucoup.
00:35:59Après, en soi,
00:36:00c'est un contenu qu'on restreint,
00:36:02on n'interdit pas,
00:36:03mais on le restreint après.
00:36:06Vous voyez aussi éventuellement,
00:36:07parce que c'est une discussion que j'avais eue
00:36:08dans une autre instance,
00:36:09mais il faut voir que certains contenus,
00:36:11en fait, c'est des liens vers des sites tiers
00:36:12ou du spam.
00:36:13Oui, mais c'est les deux.
00:36:13Du coup, on modère.
00:36:14Pour le coup, ce serait là,
00:36:15même si on avait interdit.
00:36:16Parce que, par exemple,
00:36:19quand on dit,
00:36:20voilà un extrait,
00:36:21l'intégralité sur mon compte OnlyFans,
00:36:24vous modérez ou vous ne modérez pas ?
00:36:27Ça, normalement,
00:36:28si c'est un contenu
00:36:33qui renvoie vers un autre compte
00:36:34et qu'on considère que le compte est malveillant,
00:36:37on va modérer en bloquant le compte.
00:36:39Ma question, c'est si je suis acteur porno,
00:36:42que j'utilise X pour poster des extraits
00:36:46de mes vidéos
00:36:48et que derrière,
00:36:51je renvoie vers mon compte OnlyFans,
00:36:53c'est autorisé ou ce n'est pas autorisé ?
00:36:54C'est restreint.
00:36:55Du coup, vous allez être derrière un filtre de visibilité.
00:36:58Mais c'est autorisé.
00:36:59Alors oui, comme j'expliquais,
00:37:00le contenu pour adultes, c'est autorisé.
00:37:01Après, il faut voir au contenu spécifique
00:37:02parce que tout n'est pas autorisé.
00:37:04C'est vraiment de l'annulité pour adultes
00:37:06qui est consentie.
00:37:07Donc, il y a certains types de contenus
00:37:08qui vont être interdits.
00:37:10Donc, c'est vraiment très granulaire
00:37:11l'application de cette politique.
00:37:13Et ça va dépendre, en l'occurrence,
00:37:15de ce que vous...
00:37:16Par exemple, si je mets une vidéo,
00:37:18nouvelle vidéo avec machin,
00:37:21la vidéo en exclusivité sur son compte MIM,
00:37:24paf, le compte MIM.
00:37:25Ça, c'est autorisé.
00:37:27Honnêtement, c'est compliqué pour moi de vous répondre
00:37:29parce que je ne suis pas à la modération.
00:37:31Mais si c'est consenti derrière un fil de visibilité
00:37:34et sur un compte restreint,
00:37:35à priori, ce n'est pas interdit.
00:37:37Si c'est du contenu qui est légal
00:37:38et du contenu pour adultes,
00:37:39mais si ce n'est pas ça, c'est interdit.
00:37:40Voilà, donc c'est du contenu pour adultes.
00:37:42Je n'ai jamais mis à aucun moment
00:37:44ma pièce d'identité
00:37:46pour avoir accès à ce contenu.
00:37:50C'est normal ou ce n'est pas normal ?
00:37:53Pardon, je ne suis pas sûre de comprendre votre question.
00:37:55En fait, là, je vais sur la page X d'un influenceur.
00:38:00Je viens de vous lire un bout de son post X,
00:38:02un dernier, je viens de l'ouvrir comme ça.
00:38:03et qui renvoie par ailleurs vers son compte MIM
00:38:07pour avoir l'intégralité.
00:38:09Donc, il y a une stratégie de monétisation.
00:38:11C'est-à-dire que X sert d'appart,
00:38:13en fait, un peu de teasing.
00:38:16Et pour avoir accès à ce bout de vidéo porno,
00:38:20je n'ai mis aucun dispositif.
00:38:24Moi, je n'ai jamais mis ma pièce d'identité
00:38:26pour avoir accès à ça.
00:38:28C'est normal ou ce n'est pas normal ?
00:38:30Là, en l'occurrence, le contenu n'est pas sur X
00:38:32vu qu'il est sur MIM.
00:38:33Donc, en fait, en l'occurrence, nous, ce qu'on va faire,
00:38:35c'est bloquer le lien.
00:38:36Non, je vous parle de non, c'est sur X.
00:38:37Là, je vous lis un X
00:38:38Un contenu qui est sur X, ok, d'accord.
00:38:39qui me renvoie vers un compte MIM
00:38:40avec un bout de vidéo porno.
00:38:43Écoutez, là, je pense qu'on rejoint la question
00:38:45de la vérification de l'âge qu'on évoquait,
00:38:47c'est-à-dire pour les mineurs,
00:38:50parce que je pense que l'idée,
00:38:51ce n'est pas de vérifier l'âge des utilisateurs.
00:38:52Oui, et moi, par exemple, je suis majeur,
00:38:54mais je pourrais être mineur,
00:38:57puisqu'on ne m'a jamais demandé mon âge.
00:39:00Oui, oui, mais justement,
00:39:01c'est toute la question autour de la vérification de l'âge
00:39:03et donc de ce qu'on va mettre en place
00:39:05pour vérifier l'âge des utilisateurs.
00:39:08Vous allez mettre ce que vous avez mis ?
00:39:10Nous, on a des obligations juridiques
00:39:11à mettre en place une solution à partir de l'été
00:39:14dans le cadre de l'Online Safety Code européen
00:39:16qui va donc toucher les utilisateurs français.
00:39:18Donc, on doit mettre en place, en fait,
00:39:19des systèmes de vérification de l'âge,
00:39:23comme ça qu'on le traduit, je pense en français,
00:39:24Edge Assurance,
00:39:25permettant de savoir avec une certitude très importante
00:39:28l'âge des utilisateurs.
00:39:30La question de la carte d'identité est évidemment sensible,
00:39:32comme vous le savez,
00:39:33c'est partie des données personnelles.
00:39:35Et donc, du coup, nous, on va regarder un petit peu
00:39:37ce qui est au niveau de ce qui est recommandé,
00:39:39notamment par le régulateur irlandais,
00:39:41par rapport à ce qu'on peut mettre en place.
00:39:43Et a priori, c'est plutôt un système
00:39:45qui fonctionne avec un tiers des confiances.
00:39:47Nous, en fait, on n'a pas forcément l'information
00:39:49sur l'utilisateur.
00:39:51Enfin, l'idée, c'est de ne pas d'avoir d'informations
00:39:52par rapport à l'utilisateur
00:39:53pour limiter, en fait,
00:39:54l'échange de données personnelles.
00:39:57Et en fait, de juste savoir
00:39:58si l'utilisateur auquel on a affaire
00:40:00est un mineur ou un majeur.
00:40:01C'est un sujet sur lequel on a beaucoup travaillé.
00:40:03Et je pense que mes homologues en témoigneront
00:40:05au cours des derniers mois au niveau français,
00:40:08mais également au niveau européen.
00:40:10Et donc, dans le cadre, en fait,
00:40:11à la fois pour nous de l'Online Safety Code irlandais,
00:40:14mais également dans le cadre du DSA et de l'article 28,
00:40:16on a en fait toute une checklist de ce qu'on doit mettre en place
00:40:19pour protéger les mineurs, en fait,
00:40:20qui intègre la question de la vérification de l'âge.
00:40:22Et donc, aujourd'hui, c'est un sujet
00:40:24qu'on prend très au sérieux,
00:40:25ce que vous avez complètement raison
00:40:26et je rejoins totalement là-dessus.
00:40:28C'est la pierre angulaire, en fait,
00:40:29d'un dispositif efficace pour protéger les mineurs.
00:40:32Tant qu'on ne sait pas l'âge de la personne
00:40:34qui est face à nous,
00:40:35on ne peut pas le protéger efficacement.
00:40:37Et donc, en fait, il faut qu'on puisse mettre
00:40:38un système en place qui est à la fois respectueux
00:40:40de la vie privée,
00:40:41mais à la fois qui vérifie l'âge de la personne
00:40:42avec une forte certitude,
00:40:44sans avoir la personne face à nous.
00:40:46De ce point de vue-là,
00:40:46il y a les initiatives qui avaient été mentionnées
00:40:50par Thibault,
00:40:51d'un point de vue de ce que peut mettre Google en place
00:40:53pour nous transmettre des informations.
00:40:56Mais nous, notre point de vue, en fait,
00:40:57c'est que la plateforme doit faire sa part du travail,
00:41:00mais qu'en fait, si on a un écosystème
00:41:01qui, sur toute la chaîne de valeur,
00:41:04en fait, du téléphone jusqu'à l'opérateur,
00:41:07jusqu'à la plateforme,
00:41:08s'échangent les signaux pour savoir
00:41:10si la personne est mineure ou majeure,
00:41:12on protège mieux les enfants en ligne.
00:41:14Je pense qu'il y a un vrai momentum là-dessus
00:41:15au niveau international,
00:41:16et donc on doit y arriver.
00:41:18Ce serait facile s'il n'y avait pas des enjeux
00:41:20d'un point de vue de la vie privée.
00:41:22En fait, il y a quand même un équilibre
00:41:24à trouver d'un point de vue du respect
00:41:25des différents droits
00:41:26et à mettre en place un système proportionné,
00:41:28et c'est ce à quoi on travaille actuellement.
00:41:31En tout cas, une chose est sûre,
00:41:32c'est qu'aujourd'hui,
00:41:33vous n'avez aucun dispositif de vérification de l'âge.
00:41:35Vous pouvez créer un compte sur X
00:41:37sans qu'on vous demande de justifier votre âge,
00:41:39et donc vous pouvez accéder directement
00:41:40à du contenu pornographique.
00:41:42C'est une réalité aujourd'hui.
00:41:44J'entends le besoin d'équilibre
00:41:45entre différents droits,
00:41:46mais le droit à protéger nos jeunes
00:41:49n'est pas respecté de toute évidence aujourd'hui.
00:41:51J'avais une question, peut-être pour vous tous,
00:41:53qui porte sur le fait qu'on a été beaucoup
00:41:56sollicités sur le sujet de votre rôle
00:42:01en tant qu'espèce de plateforme intermédiaire.
00:42:03Je m'explique.
00:42:04Beaucoup de contenu problématique
00:42:07peut être diffusé sur Snapchat
00:42:09et puis finalement relayé sur peut-être Instagram,
00:42:12peut-être X,
00:42:14et ensuite renvoyé vers des plateformes
00:42:17un peu plus obscures comme Meme
00:42:19ou encore, j'ai oublié le nom de l'autre,
00:42:22OnlyFans, merci.
00:42:23Comment est-ce que vous arrivez
00:42:24à gérer votre rôle d'espèce d'intermédiaire,
00:42:28mais qui de toute évidence quand même
00:42:29sert à un contenu qui n'est pas un contenu acceptable ?
00:42:33Est-ce que vous arrivez à identifier ces comptes ?
00:42:35Je pense notamment qu'on a reçu un influenceur
00:42:38la semaine dernière
00:42:39qui était beaucoup plus présent sur Snapchat finalement,
00:42:42mais dont les contenus étaient massivement reproduits
00:42:47sur TikTok ou peut-être,
00:42:49je ne sais pas exactement si celui-ci était sur Instagram,
00:42:51mais sur plusieurs plateformes.
00:42:52Comment est-ce que vous gérez ça ?
00:42:55Je vais être sûr de bien répondre à votre question.
00:42:59Après, le fait qu'il y ait des gens présents
00:43:01sur différentes plateformes aujourd'hui,
00:43:02c'est une réalité.
00:43:03Après, je crois quand même que les formats techniques
00:43:05sont un peu différents,
00:43:06parce que Snap, c'est du contenu de disparition,
00:43:10on est en éphémère au bout de 24 heures.
00:43:13YouTube, c'est beaucoup de la vidéo.
00:43:15Enfin voilà, nous, c'est vrai qu'Instagram,
00:43:17c'est très photo maintenant,
00:43:18ou les Reels, ce genre de choses.
00:43:21Donc le sujet, je ne sais pas,
00:43:24je pense qu'ils sont présents,
00:43:25ils adaptent leur contenu.
00:43:25Je ne sais pas s'il y a un sujet problématique
00:43:27en tant que tel.
00:43:28Là où je veux être très clair aussi,
00:43:29par contre, c'est que si,
00:43:31et ça nous arrive de recevoir des demandes,
00:43:33mais bon, c'est comme ça,
00:43:34telle ou telle personne a mis des liens
00:43:36vers OnlyFans ou des sites pornographiques,
00:43:38là par contre, son compte Instagram
00:43:40peut être retiré.
00:43:41Parce qu'on n'autorise pas le contenu porno
00:43:43sur la plateforme,
00:43:44mais si vous renvoyez vers du porno
00:43:46en dehors de la plateforme,
00:43:47en disant, viens voir mon compte OnlyFans,
00:43:49là aussi, on est susceptible
00:43:50de prendre une action de modération
00:43:51qui peut vous conduire à la fermeture
00:43:52de votre compte.
00:43:53et c'est déjà arrivé
00:43:54et certains et certaines s'en plaignent.
00:43:56Bon, voilà.
00:43:57Mais j'espère avoir répondu à notre question
00:43:58parce que je...
00:44:00Voilà.
00:44:04Vous voulez compléter ?
00:44:06Non, mais je pense qu'il y a un point
00:44:08qui est effectivement assez important,
00:44:09c'est qu'on nous dit souvent ça,
00:44:13qu'en gros, on a l'impression
00:44:14que c'est les mêmes contenus
00:44:15qui sont sur toutes les plateformes,
00:44:16mais en fait, il y a aussi ce sujet-là.
00:44:17Et les personnes qui diffusent
00:44:20ce genre de contenu
00:44:20sont souvent assez intelligentes
00:44:23pour vraiment être à la limite
00:44:25et ne pas diffuser,
00:44:27en tous les cas sur Insta,
00:44:29c'est quand même ça le sujet,
00:44:30des contenus qui seraient...
00:44:34qui ne passeraient pas
00:44:35le fil de la modération.
00:44:37Donc, on a bien conscience
00:44:38que c'est des influenceurs
00:44:40ou des créateurs de contenu,
00:44:41peu importe,
00:44:42qui sont sur des plateformes
00:44:43et qui, sur certaines plateformes,
00:44:45postent du contenu problématique
00:44:46et que du coup, ça leur fait aussi
00:44:47un relais.
00:44:48Mais il se trouve que sur Instagram
00:44:50spécifiquement,
00:44:51ils ne publient pas le même contenu.
00:44:52Nous, on a quand même pas mal
00:44:53de témoignages
00:44:54de liens vers des comptes MIM
00:44:55depuis Insta.
00:44:57Mais ça, on est preneurs typiquement
00:44:59parce que ça, comme le dit Antoine,
00:45:00ce n'est pas autorisé.
00:45:01Donc ça, on est preneurs
00:45:01de ces retours-là
00:45:02parce que juste,
00:45:03ça ne devrait pas être sur la plateformes.
00:45:05Pardonnez mon ignorance,
00:45:06MIM, c'est quoi ?
00:45:06C'est comme OnlyFan
00:45:07et tous ces trucs ?
00:45:08Oui.
00:45:09D'ailleurs, on a même eu l'occasion
00:45:10de faire des tables rondes
00:45:12avec MIM
00:45:12et des équipes de Méta.
00:45:15Donc, vous les avez sans doute
00:45:17assez proactifs en termes d'affaires publiques.
00:45:19Je ne suis pas expert
00:45:19dans ces domaines.
00:45:21Mais si c'est comparable à l'OnlyFan,
00:45:24il y a une difficulté
00:45:25qui doit être réglée, évidemment.
00:45:27Voilà.
00:45:28C'est la même chose
00:45:29et c'est vrai que ça,
00:45:30c'est très, très fréquent.
00:45:31Mais pour le coup,
00:45:32vous dites que vous vous fixez
00:45:34pour objectif de modérité de contenu,
00:45:37ce qui n'est pas du tout
00:45:38le cas pour X, pour le coup.
00:45:43Alors, comme je le disais tout à l'heure,
00:45:44tout dépend un petit peu du contenu.
00:45:46En fait, si c'est des liens
00:45:48vers du contenu
00:45:49qu'on considère
00:45:51comme étant interdit
00:45:52sur la plateforme,
00:45:54on va le modérer.
00:45:55C'est un peu compliqué
00:45:55sans avoir d'exemple.
00:45:56Oui, mais comme vous autorisez
00:45:57la pornographie
00:45:57et que par ailleurs,
00:45:59c'est des systèmes de vidéos
00:46:00à la demande,
00:46:00vous n'avez pas accès
00:46:01au type de contenu.
00:46:03Sur MIM,
00:46:03vous n'allez pas aller consulter
00:46:04le contenu qu'il y a sur MIM.
00:46:06C'est du contenu de charme
00:46:08ou du contenu pornographique.
00:46:10Vous autorisez des liens
00:46:11vers cette plateforme.
00:46:12Vous n'avez aucune capacité
00:46:13de contrôler
00:46:13ce que contient le lien.
00:46:15Par contre,
00:46:15vous laissez les liens.
00:46:16Honnêtement,
00:46:16je n'en suis pas sûre
00:46:17qu'on les autorise.
00:46:18Je ne suis pas absolument certaine
00:46:20que c'est quelque chose
00:46:20qu'on autorise.
00:46:21Après, ce n'est pas parce
00:46:22que vous le trouvez
00:46:22que ça veut dire
00:46:23qu'on l'autorise par ailleurs
00:46:24si ça n'a pas forcément
00:46:25été signalé, etc.
00:46:27Ça peut aussi être du spam.
00:46:29Il y a une grosse partie
00:46:29de ces liens
00:46:30qui peuvent être du spam.
00:46:3070 000 vues.
00:46:33Je vais vous montrer.
00:46:36Je viendrai vous voir.
00:46:37Après, vous verrez.
00:46:38C'est que du porno.
00:46:39C'est des vidéos porno
00:46:40par ailleurs.
00:46:42C'est des vidéos porno
00:46:43avec un lien vers MIM.
00:46:44Ce n'est pas compliqué.
00:46:48On a même reçu
00:46:48un influenceur
00:46:49qui fait ça
00:46:49dans cette commission.
00:46:51Après, ce que je peux
00:46:51vous proposer éventuellement,
00:46:52c'est que vous m'envoyez
00:46:53les liens en particulier
00:46:54comme ça,
00:46:54on peut regarder
00:46:55ce qu'on appliquerait
00:46:56côté modération
00:46:57et comme ça,
00:46:57on vous dit
00:46:57spécifiquement sur tel contenu
00:46:59on va appliquer ci,
00:47:00on va appliquer ça.
00:47:01Après, pour répondre
00:47:01à la question
00:47:02de est-ce qu'il y a
00:47:03certains contenus
00:47:03qui seraient retirés
00:47:06sur certaines plateformes
00:47:07mettons,
00:47:08on les absent toujours
00:47:08sur Snapchat,
00:47:09qui seraient sur Snapchat
00:47:10et qu'en fait,
00:47:12on retirait sur X
00:47:13en soi,
00:47:14il y a quand même
00:47:15des dispositifs
00:47:15dans lesquels on peut
00:47:16les faire
00:47:17et je pense notamment
00:47:17à la nullité non consentie.
00:47:19En fait,
00:47:19il y a des dispositifs
00:47:20typiquement comme
00:47:21Stop NCII
00:47:21où on partage
00:47:23ce qu'on appelle
00:47:24des bases de hash.
00:47:27C'est un mécanisme
00:47:28technique
00:47:29qui permet de...
00:47:30Ça donne en fait
00:47:31une carte d'identité
00:47:32au contenu,
00:47:33une empreinte au contenu
00:47:34et en fait,
00:47:34s'il y a par exemple
00:47:36du contenu
00:47:37intime non consenti
00:47:39qui est partagé
00:47:40sur Snapchat,
00:47:40Snapchat peut nous l'envoyer
00:47:41en disant
00:47:42attention,
00:47:42on a eu un signalement
00:47:43sur ce type de contenu,
00:47:45retirez-le également
00:47:45sur X,
00:47:46également sur les autres
00:47:47plateformes.
00:47:48Donc ça,
00:47:49ça marche sur ce type
00:47:49de contenu,
00:47:50également sur tout ce
00:47:51qui est la question
00:47:52de l'exploitation sexuelle
00:47:53des enfants,
00:47:53on fait partie
00:47:53de pas mal de dispositifs
00:47:55comme la Tech Coalition,
00:47:56Internet Watch Foundation
00:47:57qui ont en fait
00:47:59ce type de dispositif
00:48:00et le Zéroïs.
00:48:01Donc je veux dire,
00:48:01potentiellement là-dessus,
00:48:02il peut y avoir
00:48:03des réflexions
00:48:04autour de ce type
00:48:05de dispositif également
00:48:07parce que ça existe
00:48:09et qu'on le fait déjà
00:48:09sur certains contenus.
00:48:14Vas-y, vas-y.
00:48:18Ah oui, pardon.
00:48:19Anne-Jean-Dé
00:48:19et Thierry Sautère,
00:48:21on avait deux questions.
00:48:23Mais on était lancé
00:48:25dans notre phase X
00:48:27mais je ne sais pas
00:48:28si vous souhaitez
00:48:29poursuivre sur cette lancée.
00:48:30Parce qu'en fait,
00:48:31pendant ce temps-là,
00:48:31les conversations s'enchaînent
00:48:32et du coup,
00:48:32on n'arrive pas forcément
00:48:33à réagir sur...
00:48:34Oui, allez-y.
00:48:35Bon, donc je vais d'abord
00:48:36réagir au propos
00:48:37de M. Battesti tout à l'heure
00:48:39qui était tout à fait intéressant.
00:48:40La question,
00:48:40c'est de savoir
00:48:41comment modérer
00:48:42les contenus
00:48:43pour pouvoir protéger
00:48:44notamment
00:48:45nos enfants mineurs.
00:48:48Donc j'ai bien compris
00:48:48que c'était compliqué pour vous
00:48:49mais vous avez mis le doigt
00:48:50sur quelque chose
00:48:51qui me semble extrêmement important
00:48:52pour lequel j'ai une différence
00:48:53d'appréciation
00:48:53avec Mme la rapporteure.
00:48:55Je crois que vous avez souligné
00:48:56et je vous rejoins
00:48:57sur ce point,
00:48:58pour modérer un contenu.
00:49:01Si nous laissons
00:49:02les grandes plateformes
00:49:03que vous êtes,
00:49:04qui aident de grands acteurs commerciaux,
00:49:05qui avaient une puissance commerciale
00:49:07de frappe absolument énorme,
00:49:10il faut le dire.
00:49:11Moi, vous êtes uniquement au départ
00:49:14des sites commerciaux, marchands.
00:49:18Vous avez un modèle économique.
00:49:19Vous n'êtes pas des élus.
00:49:20Vous n'avez pas été choisi
00:49:21par la population.
00:49:22Par conséquent,
00:49:23vous laissez à vous
00:49:24et à vous seuls
00:49:25la responsabilité
00:49:26de choisir
00:49:27ce qui doit être modéré.
00:49:29C'est le risque
00:49:29d'une dérive
00:49:30qui, à mon sens,
00:49:33menace notre démocratie.
00:49:34Donc je ne suis pas d'accord
00:49:35avec cette approche-là.
00:49:36Et je pense que c'est...
00:49:37Vous nous renvoyez finalement
00:49:38à nous, législateurs,
00:49:39la responsabilité
00:49:40de définir
00:49:41ce que doit être un contenu
00:49:43que vous devrez après
00:49:44modérer et exécuter
00:49:46selon les indications
00:49:47que nous portons.
00:49:49Et du coup,
00:49:49je trouve cette approche...
00:49:50Moi, je vous rejoins
00:49:51sur ce point.
00:49:52je n'ai pas envie
00:49:52que le choix
00:49:53de dire ce qui est bien,
00:49:54ce qui est mal,
00:49:55ce qui est bon,
00:49:56ce qui est mauvais,
00:49:57revienne à des personnes
00:49:58qui n'ont pas été élues
00:49:59et dont les choix
00:50:00n'ont pas été définis
00:50:01par la représentation nationale
00:50:03que nous incarnons aujourd'hui.
00:50:05Donc ma question,
00:50:06d'abord,
00:50:06c'est de savoir
00:50:07est-ce qu'il serait...
00:50:08Vous avez parlé
00:50:09de groupes de contact
00:50:10avec le ministère de l'Intérieur
00:50:11tout à l'heure,
00:50:11mais peut-être
00:50:12est-ce que ça,
00:50:13ça ne serait pas utile
00:50:13pour faire évoluer constamment
00:50:15parce qu'on peut entendre
00:50:16que nous, législateurs,
00:50:18fassions ou sous la forme
00:50:19d'un acte
00:50:21défini par le ministre en charge,
00:50:23nous puissions faire évoluer
00:50:24au fur et à mesure
00:50:25les règles
00:50:26et les réglementations
00:50:26pour que vous puissiez
00:50:27vous y conformer ?
00:50:28Ça, ça sera ma première question.
00:50:30Et sur le sujet
00:50:31des liens qui ont été évoqués,
00:50:32le renvoi vers des liens,
00:50:34ma question,
00:50:34c'est existe-t-il
00:50:34des moyens techniques
00:50:35pour couper automatiquement
00:50:37tout lien vers ces sites
00:50:38dès lors que c'est un mineur
00:50:40qui cherche à activer
00:50:41ce lien ?
00:50:43Voilà,
00:50:43Fétez mes deux questions.
00:50:46Alors évidemment,
00:50:47oui,
00:50:47sur le processus de dialogue,
00:50:49je trouve
00:50:50ce qui est intéressant,
00:50:52c'est que
00:50:53il ne faut pas se mentir,
00:50:54le DSA
00:50:55et les règles européennes
00:50:57laissent très peu de marge
00:50:59finalement
00:50:59aux législateurs nationaux.
00:51:01Quand on parle
00:51:01de réguler les plateformes,
00:51:03j'ai ici
00:51:03une lettre de la Commission européenne
00:51:05de août 2023
00:51:07adressée à la France
00:51:08sur les PPL
00:51:09dites majorité numérique
00:51:11qui est l'autre influenceur
00:51:12et qui est en fait
00:51:13atteint un cours de droit européen.
00:51:14Il vous dit
00:51:14il y a le principe
00:51:15du pays d'origine,
00:51:16puis il y a le DSA
00:51:16et puis il y a la notification
00:51:17donc au final,
00:51:18bon,
00:51:18vous ne pouvez rien faire.
00:51:21Mais c'est ainsi
00:51:24et donc je pense
00:51:24qu'il faut regarder
00:51:25cette réalité.
00:51:26Maintenant,
00:51:26une fois qu'on a dit ça,
00:51:27je vous rejoins,
00:51:29c'est comment on le rend vivant
00:51:30quelque part ?
00:51:32C'est-à-dire que ces règles,
00:51:33elles sont macro
00:51:34mais comment on rentre
00:51:35un peu plus dans le micro ?
00:51:36Aujourd'hui,
00:51:37il y a beaucoup trop d'instances
00:51:38avec lesquelles
00:51:38nous sommes en interaction.
00:51:39nous avons notamment
00:51:41l'ARCOM,
00:51:41c'est normal,
00:51:42qui est notre coordinateur national.
00:51:44Nous avons hérité
00:51:45du groupe de contact permanent
00:51:46mais qui n'est plus réuni
00:51:47ou si ce n'est
00:51:47quand il y a des crises
00:51:48et c'est plutôt piloté
00:51:50côté ministère de l'Intérieur.
00:51:53Et puis de crise en crise
00:51:54ou de ça,
00:51:54nous avons tel ou tel ministre
00:51:57qui souhaite nous convoquer
00:51:58pour nous demander des comptes
00:52:00et nous dire
00:52:01de retirer tel ou tel contenu
00:52:02en dehors des cadres
00:52:03d'ailleurs que je viens de décrire.
00:52:05Vous voyez ce que je veux dire ?
00:52:06Donc on a une démultiplication
00:52:08des instances
00:52:09dans lesquelles ces questions
00:52:10se posent
00:52:10et sur lesquelles
00:52:11on cherche collectivement
00:52:12à agir.
00:52:12Je ne dis pas que j'ai la réponse
00:52:13magique à ce problème
00:52:15mais je pense que nous
00:52:16qui avons quand même
00:52:16une culture pour le coup française
00:52:18de la centralisation
00:52:19de l'efficacité administrative,
00:52:22essayons de trouver
00:52:23quelque chose
00:52:23qui fonctionne
00:52:24dans l'appareil d'État
00:52:25et l'ARCOM semble être
00:52:27le premier choix
00:52:28le plus évident
00:52:30mais surtout
00:52:30évitons une démultiplication
00:52:32ou les convocations
00:52:34un peu
00:52:35sur le moment
00:52:37en fonction de l'actualité
00:52:38parce que ces choses
00:52:39demandent une constance
00:52:40en fait
00:52:41et un dialogue
00:52:42permanent.
00:52:44Je ne parle pas
00:52:44de cette commission
00:52:44aujourd'hui
00:52:45qui participe
00:52:46à cette réflexion
00:52:46et très utile
00:52:47mais je parle plus
00:52:48d'autres dépifs phénomènes
00:52:49que j'ai pu constater
00:52:50et il faut aujourd'hui
00:52:51qu'on ait un cadre
00:52:52de dialogue
00:52:52et d'action
00:52:53qui soit réel
00:52:54et surtout
00:52:55qui soit réuni
00:52:57sur une base régulière
00:52:58et pas seulement
00:52:59en fonction
00:53:00des situations.
00:53:02Je ne voulais pas
00:53:02être trop long sur ça
00:53:03mais d'expérience
00:53:04je sais que ça a permis
00:53:05quand même
00:53:05de faire avancer
00:53:05pas mal de choses
00:53:07et on a tous les outils
00:53:08en place
00:53:08on a toutes les intelligences
00:53:10pour le faire
00:53:10donc faisons-le
00:53:12et ça peut être
00:53:13évidemment
00:53:14une avancée
00:53:15très importante.
00:53:17L'autre point
00:53:18sur les liens
00:53:19sur les mineurs
00:53:20écoute de toute façon
00:53:22l'avantage
00:53:22de ces liens là
00:53:23c'est qu'ils ne sont pas
00:53:24autorisés
00:53:25de manière générale
00:53:26donc ce n'est pas
00:53:27que la question des mineurs
00:53:28donc les liens
00:53:29OnlyFans
00:53:29sur Instagram
00:53:30que vous soyez majeur
00:53:31ou mineur
00:53:31on ne vous autorise pas
00:53:32enfin ces liens
00:53:33ne sont pas autorisés
00:53:34ne doivent pas être proposés
00:53:36donc ils font l'objet
00:53:37d'une modération
00:53:37l'idée c'est d'avoir
00:53:39des automatismes
00:53:40qui permettent
00:53:41évidemment d'agir
00:53:41à grande échelle
00:53:42aussi dans ces domaines
00:53:43c'est des choses
00:53:44qu'on retrouve aussi
00:53:44dans le domaine
00:53:45de la protection
00:53:45des droits d'auteur
00:53:46si je comprends bien
00:53:47donc oui
00:53:48ces technologies existent
00:53:49j'en ai pas le détail
00:53:50disons technique
00:53:50aujourd'hui
00:53:51mais en tout cas
00:53:52oui
00:53:52c'est évidemment
00:53:54les automatismes
00:53:56permettent d'agir
00:53:56à grande échelle
00:53:58technique de comment ça marche
00:53:59mais évidemment
00:54:01voilà
00:54:02donc trouvons
00:54:02je dirais les marges
00:54:03que le DSA
00:54:04le droit européen
00:54:04nous permettent
00:54:05et elles existent
00:54:05mais elles sont surtout
00:54:06en fait dans la mise en oeuvre
00:54:07plus que dans la réglementation
00:54:08ça veut donc dire
00:54:10que le jour
00:54:11où là
00:54:12dans les semaines qui viennent
00:54:13vous allez être obligé
00:54:14de contrôler l'âge
00:54:14de manière efficace
00:54:16on vous le souhaite
00:54:16vous aurez donc déjà
00:54:17en place les outils
00:54:18qui vous permettront
00:54:19immédiatement
00:54:20d'empêcher
00:54:21toute redirection
00:54:22vers un lien
00:54:23de ce type là
00:54:24en tout cas
00:54:26ces liens
00:54:26ne sont pas autorisés
00:54:27quel que soit
00:54:28l'âge d'utilisateur
00:54:28donc quelque part là
00:54:29c'est pas le cas
00:54:29le plus difficile
00:54:30que vous présentez
00:54:31puisque ces liens
00:54:31ne sont pas autorisés
00:54:33si je peux permettre
00:54:33madame Jolte
00:54:34on avait dit
00:54:34qu'on reviendrait
00:54:35sur le contrôle de l'âge
00:54:36dans la dernière partie
00:54:37voilà
00:54:38mais pour être clair
00:54:39voilà
00:54:39c'est de toute façon
00:54:40l'avantage
00:54:40c'est que ces contenus
00:54:41ne sont pas autorisés
00:54:41donc allons-y
00:54:43tout à fait
00:54:43monsieur Sauter
00:54:45merci monsieur le présent
00:54:48de nombreuses questions
00:54:49pour venir
00:54:50je vais essayer
00:54:51uniquement
00:54:51de me cantonner
00:54:52à deux
00:54:53si vous me le permettez
00:54:54la première pour revenir
00:54:55sur la question
00:54:57de la modération
00:54:58est-ce qu'il y a
00:54:59une hiérarchisation
00:55:01qui existe
00:55:02dans les types
00:55:03de contenus
00:55:03qui vous sont signalés
00:55:05est-ce que certains contenus
00:55:06suivant le type
00:55:07de signalement
00:55:08car parfois
00:55:09quand on regarde
00:55:09sur vos plateformes
00:55:11les motifs
00:55:11de signalement
00:55:12appelant à modération
00:55:14il y a une priorisation
00:55:15si oui
00:55:17quelle est cette priorisation
00:55:18dans le traitement
00:55:19de la modération
00:55:20et des signalements
00:55:21qui vous est fait
00:55:22ça c'est ma première question
00:55:24ma seconde question
00:55:25vient sur
00:55:27le process
00:55:28de modération
00:55:30est-ce que vous pourriez
00:55:31nous détailler
00:55:32à partir du moment
00:55:33où il y a
00:55:34intervention
00:55:35d'un acteur
00:55:36physique et humain
00:55:38en dehors
00:55:39de l'IA
00:55:40pour le contrôle
00:55:41de la modération
00:55:42quel est le process
00:55:43dans chacune
00:55:44de vos
00:55:44de vos plateformes
00:55:46pour cette modération
00:55:47en termes
00:55:47de contrôle
00:55:48d'action
00:55:49de
00:55:50contradictoire
00:55:51contradictoire
00:55:51s'il y a
00:55:52s'il n'y a pas
00:55:52de contradictoire
00:55:53à ce niveau-là
00:55:54et est-ce que
00:55:55ce process
00:55:55change
00:55:56suivant
00:55:57qui vous interpelle
00:55:58car là aussi
00:55:59dans les auditions
00:55:59on a eu
00:56:00parfois différents retours
00:56:02suivant
00:56:02si ce sont
00:56:03des utilisateurs
00:56:04permettez-moi
00:56:05du terme
00:56:05lambda
00:56:06qui vous fait
00:56:07un signalement
00:56:08si ce sont
00:56:08des partenaires
00:56:10associatifs
00:56:14ou de structures
00:56:15qui font
00:56:16le signalement
00:56:17ou si c'est
00:56:18l'ARCOM
00:56:18est-ce qu'il y a
00:56:19des prises
00:56:20en compte
00:56:20différenciées
00:56:21de ces
00:56:22signaleurs
00:56:22de confiance
00:56:23ou de ces
00:56:24partenaires
00:56:24avec qui
00:56:24vous travaillez
00:56:25sur la modération
00:56:25je tâcherais
00:56:29d'être
00:56:30bref
00:56:31mais évidemment
00:56:32c'est un sujet
00:56:33pas complexe
00:56:36mais du moins
00:56:36étendu
00:56:37déjà
00:56:39est-ce qu'il y a
00:56:40des différences
00:56:41oui
00:56:41quand on lit
00:56:42les règles
00:56:43c'est normal
00:56:44il y a des types
00:56:45de contenu
00:56:45dès qu'il s'agit
00:56:47de porter atteinte
00:56:48à l'intégrité
00:56:50des personnes
00:56:51évidemment
00:56:52ce sont des contenus
00:56:53qui doivent
00:56:53être modérés
00:56:55en priorité
00:56:55dès qu'on parle
00:56:56de menaces
00:56:56ou de choses
00:56:58de ce genre
00:56:59donc je vous rassure
00:56:59sur ce point
00:57:00il y a des précisions
00:57:01assez détaillées
00:57:02les contenus rouges
00:57:03ce que vous pouvez
00:57:04jamais dire
00:57:05et puis d'autres
00:57:06ça dépend un peu
00:57:06du contexte
00:57:07bon
00:57:07voilà
00:57:08le cyber harcèlement
00:57:11la menace
00:57:12la violence
00:57:12les propos haineux
00:57:13tout ce que l'humanité
00:57:14malheureusement
00:57:15peut produire de pire
00:57:16vous voyez ce que je veux dire
00:57:16et qui peut s'exprimer
00:57:18sur ces réseaux
00:57:19donc des choses
00:57:20qui ne sont pas
00:57:20bordères
00:57:21qui sont vraiment
00:57:21une menace de mort
00:57:23des choses
00:57:25voilà
00:57:25je pense que vous avez
00:57:27une vision
00:57:28de ce que je veux dire
00:57:29mais la liste
00:57:30est assez précise
00:57:31mais vous comprenez
00:57:32ce que je souhaite
00:57:34exprimer
00:57:34pour les signaleurs
00:57:36effectivement
00:57:37on a
00:57:38déjà tout un chacun
00:57:40peut signaler
00:57:41et peut tout signaler
00:57:42d'ailleurs
00:57:42donc c'est important
00:57:43de le rappeler
00:57:43aussi bien un commentaire
00:57:44qu'une publication
00:57:45etc
00:57:46donc on invite
00:57:47chacune et chacun
00:57:48à le faire
00:57:49c'est évidemment
00:57:50très utile
00:57:52bon après
00:57:53il y a aussi du bruit
00:57:54dans les signalements
00:57:55c'est à dire que
00:57:56on a remarqué aussi
00:57:57que parfois
00:57:57les gens signalent
00:57:58juste ce qu'ils n'aiment pas
00:57:59ce qui n'est pas forcément
00:58:00on peut faire l'objet
00:58:01d'une modération
00:58:01mais les soirs de match de foot
00:58:03ou de tel ou tel artiste
00:58:04je vous garantis
00:58:05qu'il y a du bruit
00:58:06en plus
00:58:07mais parce que
00:58:08à partir du moment
00:58:08on accepte tout signalement
00:58:09c'est normal
00:58:10les gens signalent tout
00:58:11et ce n'est pas toujours
00:58:12pertinent
00:58:13mais c'est mieux comme ça
00:58:14c'est mieux qu'on puisse
00:58:15tout signaler
00:58:16et avec des catégories
00:58:17adaptées
00:58:18dans les outils
00:58:19de signalement
00:58:20c'est très important
00:58:21dans ces catégories
00:58:22parce qu'après
00:58:22ça permet d'aller
00:58:23vers des équipes
00:58:23de modération
00:58:24que ce soit
00:58:25harcèlement
00:58:26c'est une équipe
00:58:27discours de haine
00:58:27c'est une équipe
00:58:28donc il y a des spécialités
00:58:29aussi
00:58:29et c'est important
00:58:30que ces canaux
00:58:30puissent s'exprimer
00:58:32ensuite on a les deux types
00:58:34de signaleurs de fond confiance
00:58:35je veux dire
00:58:35l'État
00:58:36en premier lieu
00:58:36c'est Faros
00:58:38on y revient toujours
00:58:39mais on a une excellente
00:58:40collaboration avec eux
00:58:41H24
00:58:41donc c'est très important
00:58:43on parlait de process
00:58:44tout à l'heure
00:58:45que quand l'État
00:58:46en gros veut nous signaler
00:58:47des choses
00:58:47passe par Faros
00:58:48parce qu'il y a une qualification
00:58:49juridique
00:58:50il y a des garanties
00:58:51je dirais autour de ça
00:58:52du fait de l'État de droit
00:58:54mais avec des process efficaces
00:58:55donc j'invite vraiment
00:58:56à ce que ça soit fait
00:58:57dans ce cadre là
00:58:58et puis nous avons
00:58:59des signaleurs de confiance
00:59:00comme
00:59:01iEnfance
00:59:02au point de contact
00:59:03qui sont reconnus
00:59:04par le DSA
00:59:06slash l'ARCOM
00:59:07pour faire ce travail
00:59:08et donc un accès direct
00:59:09à nos équipes de modération
00:59:10vous voyez c'est multiforme
00:59:12donc c'est tout à chacun
00:59:13l'État
00:59:14et aussi des entités
00:59:16je dirais privées
00:59:16pas entreprises
00:59:17mais privées
00:59:18qui peuvent nous signaler
00:59:19et donc voilà
00:59:21malgré tout ça
00:59:22il peut rester encore
00:59:22des difficultés
00:59:23on est là pour en parler
00:59:24mais c'est aujourd'hui
00:59:25quand même quelque chose
00:59:26d'assez robuste
00:59:27et qui produit des résultats
00:59:29je ne voulais pas être trop long
00:59:30parce que peut-être
00:59:30que mes confrères
00:59:31ont des choses à dire
00:59:31j'ai l'impression
00:59:34que monsieur Guirroy
00:59:34est là depuis longtemps
00:59:36et qu'il n'a pas pris la parole
00:59:37donc si vous souhaitez
00:59:38réagir à ces éléments
00:59:39et à ce qui a été dit précédemment
00:59:41vous êtes évidemment
00:59:41le bienvenu
00:59:42avec plaisir
00:59:44je ne veux pas répéter
00:59:46ce qu'a très bien dit Anton
00:59:47parce qu'on fonctionne
00:59:48à peu près de la même manière
00:59:49côté Youtube
00:59:49sur la question
00:59:50de la hiérarchisation
00:59:51selon le type de signalement
00:59:53c'est évident
00:59:54vous constaterez
00:59:56si vous lisez
00:59:56nos rapports de transparence
00:59:58disponibles
00:59:59à la fois
00:59:59sur le site de Youtube
01:00:02et sur le site
01:00:03de la Commission européenne
01:00:04qu'on retire
01:00:05énormément de spam
01:00:06tous les trimestres
01:00:08plusieurs millions de vidéos
01:00:09sont avant tout du spam
01:00:11des contenus
01:00:11qui visent
01:00:12à rediriger
01:00:12les utilisateurs
01:00:13hors plateforme
01:00:14pour les faire cliquer
01:00:16sur des contenus
01:00:17ou de manière générale
01:00:18leur faire dépenser de l'argent
01:00:20ou les emmener
01:00:21sur des sites
01:00:22de faible qualité
01:00:22ça c'est des choses
01:00:23qu'on peut appréhender
01:00:24extrêmement facilement
01:00:24avec l'intelligence artificielle
01:00:25c'est des schémas
01:00:27la machine va se nourrir
01:00:29des actions précédentes
01:00:31de ce que vont ajouter
01:00:33également
01:00:33des modérateurs humains
01:00:34et in fine
01:00:36on aboutira
01:00:36à un score
01:00:37de pertinence
01:00:38lorsqu'on prendra
01:00:40des actions de modération
01:00:41qui sera extrêmement élevée
01:00:42et qui nous permettra
01:00:45d'opérer à grande échelle
01:00:46et de supprimer massivement
01:00:47ce type de contenu
01:00:47il y a des contenus
01:00:49qui sont assez faciles
01:00:50à appréhender
01:00:51parce que comme
01:00:51ça a été rappelé
01:00:52à plusieurs reprises
01:00:53certaines de nos plateformes
01:00:55n'autorisent pas la nudité
01:00:56et bon ben là
01:00:56typiquement
01:00:57un algorithme
01:00:58qui va tourner
01:00:59et qui va pouvoir détecter
01:01:00un pourcentage de chair
01:01:01devrait être aussi
01:01:03assez efficace
01:01:04et comme le disait Anton
01:01:06il y a d'autres contenus
01:01:08qui vont être plus compliqués
01:01:09à modérer
01:01:10parce qu'il va falloir
01:01:11se poser la question
01:01:12plusieurs fois
01:01:13de si ça relève
01:01:14de la liberté d'expression
01:01:14ou si ça franchit
01:01:15clairement la ligne
01:01:16et parfois
01:01:17je pense qu'il ne faut pas
01:01:20s'en cacher
01:01:20parfois
01:01:21nos modérateurs
01:01:22prennent des mauvaises décisions
01:01:23c'est pour ça
01:01:24qu'on a des mécanismes
01:01:25d'appel
01:01:25qui permettent
01:01:26de faire appel
01:01:27quand on est créateur
01:01:28et qu'on a vu sa vidéo retirée
01:01:30et qu'on pense
01:01:30que c'est injuste
01:01:31et de voir son contenu
01:01:32revu par une autre personne
01:01:34qui peut-être
01:01:35aura un avis inverse
01:01:36et peut-être
01:01:37un bon exemple de ça
01:01:37pour être totalement transparent
01:01:39c'est ce qui s'est passé
01:01:40pendant le Covid
01:01:41nos modérateurs
01:01:42ne pouvaient plus effectuer
01:01:43leur métier correctement
01:01:45puisqu'ils étaient confinés
01:01:46et pour protéger
01:01:49leur famille
01:01:50l'idée
01:01:51c'était quand même pas
01:01:52qu'ils soient au milieu
01:01:53du salon
01:01:53en train de modérer
01:01:54les contenus potentiellement
01:01:55extrêmement choquants
01:01:56au milieu de leur famille
01:01:57et donc on s'est beaucoup
01:01:59plus reposé
01:02:00sur le machine learning
01:02:01et sur l'intelligence artificielle
01:02:02pendant cette période
01:02:03et en fait
01:02:03ce qu'on a constaté
01:02:04c'est qu'on surmodérait
01:02:06en fait
01:02:06donc la possibilité
01:02:09qui était offerte
01:02:09aux gens qui avaient vu
01:02:10leur contenu retiré
01:02:11de faire appel
01:02:11a été extrêmement importante
01:02:13pendant cette période-là
01:02:14et on a constaté
01:02:15un taux de remise en ligne
01:02:16post-appel
01:02:17qu'on n'avait jamais atteint
01:02:18justement parce qu'on ne peut pas
01:02:21uniquement se reposer
01:02:21sur la machine
01:02:22sur le fait que
01:02:25sur votre question
01:02:26monsieur le député
01:02:28sur est-ce que la prise en compte
01:02:30du signalement
01:02:30est différenciée
01:02:31selon le type de signalant
01:02:33à part pour les signaleurs
01:02:34de confiance
01:02:35absolument pas
01:02:35on revoit à peu près
01:02:38on revoit tout signalement
01:02:39peu importe
01:02:40la personne dont il émane
01:02:43et je dirais même
01:02:44qu'on est assez maximaliste
01:02:45parce qu'on revoit
01:02:47si vous nous faites
01:02:47un signalement
01:02:48sur un contenu
01:02:50pour pédopornographie
01:02:51et qu'en fait
01:02:52il doit être retiré
01:02:53en vertu de l'incitation
01:02:54à la haine
01:02:55on revoit tout contenu
01:02:56à l'aune de toutes nos politiques
01:02:57au cas où un signalement
01:02:59aurait été mal effectué
01:03:00pas forcément volontairement
01:03:02mais involontairement
01:03:03de la part d'un signaleur
01:03:04juste une petite question
01:03:06sur l'appel
01:03:07ça peut être un algorithme
01:03:09qui juge en appel
01:03:10non ?
01:03:11t'es pas forcément
01:03:11un modérateur humain ?
01:03:13je veux pas vous dire
01:03:14de bêtises
01:03:15monsieur le président
01:03:16mais je crois que chez nous
01:03:17c'est revu par un modérateur humain
01:03:18systématiquement
01:03:19je vérifie ça
01:03:22et je vous fais un tour
01:03:23mais je le reviens
01:03:24merci
01:03:24parce que j'ai l'impression
01:03:26que chez TikTok
01:03:27c'est aussi une revue algorithmique
01:03:29donc peut-être
01:03:30que ce qui explique
01:03:31que le taux d'appel
01:03:32soit
01:03:32que le taux de réponse positive
01:03:35en appel
01:03:35soit plus faible
01:03:36pour méta
01:03:38je peux confirmer
01:03:38on fournira le schéma
01:03:39aux équipes
01:03:40mais que c'est un appel humain
01:03:42et qui plus est
01:03:43la possibilité de faire un vrai appel
01:03:47est aujourd'hui demandé par la législation
01:03:48donc c'est un truc à prendre très au sérieux
01:03:50c'est pas juste un gadget
01:03:51donc soyons clairs
01:03:52oui et juste pour compléter sur l'appel
01:03:55c'est trois niveaux différents
01:03:56une première vérification
01:03:57si on n'est pas d'accord
01:03:58une deuxième vérification
01:03:59et enfin une troisième vérification
01:04:00à chaque fois humaine
01:04:01qui vient faire tomber les deux premières
01:04:03sans compter la possibilité
01:04:04d'avoir aussi recours
01:04:06au conseil de surveillance
01:04:07qui est un organe indépendant
01:04:08pour également faire un dernier appel
01:04:11et chez X c'est pareil
01:04:16oui tout à fait
01:04:17c'est toujours une modération humaine
01:04:19au niveau des appels
01:04:20je peux peut-être également compléter
01:04:22parce que c'est un petit peu la même chose
01:04:23chez notre plateforme
01:04:25par rapport à ce qu'évoquait
01:04:27Meta et Youtube
01:04:28mais plus sur votre question
01:04:28sur comment s'effectue la modération
01:04:30disons un petit peu
01:04:31dans le process
01:04:34en fait
01:04:35quand c'est de la détection
01:04:36c'est de la machine
01:04:37donc la machine va automatiquement le faire
01:04:38quand c'est un modérateur humain
01:04:40en fait
01:04:41donc la personne va faire un signalement
01:04:43du coup sur X
01:04:44sachez qu'aujourd'hui
01:04:45pour la France
01:04:45il y a deux types de signalement
01:04:47il y a le signalement
01:04:47sous les règles
01:04:48il y a le signalement
01:04:49dans le cadre du DSA
01:04:50donc je vais commencer par le signalement
01:04:51dans le cadre des règles
01:04:52donc vous signalez
01:04:53il y a un petit parcours de signalement
01:04:55on essaye de le rendre
01:04:55à la fois simple
01:04:56mais aussi
01:04:57quand même avec plusieurs questions
01:04:58parce que nous ça nous permet
01:04:59en fait
01:04:59par rapport aux questions
01:05:01à laquelle la personne répond
01:05:02ça nous donne des informations
01:05:03par rapport au signalement
01:05:04que la personne effectue
01:05:05ensuite en fait
01:05:06le contenu
01:05:07va être
01:05:08entre guillemets
01:05:09envoyé
01:05:10à la personne en charge
01:05:12de la modération
01:05:12qui évalue le contenu
01:05:14si c'est assez clair
01:05:16au niveau de
01:05:17la violation
01:05:18de nos règles
01:05:19du coup on va appliquer
01:05:20la décision de modération
01:05:21en conséquence
01:05:22donc il y en a plusieurs
01:05:23donc suspendre le compte
01:05:24suspendre le contenu
01:05:25placer le contenu
01:05:26derrière un filtre
01:05:26etc.
01:05:27en fonction
01:05:27de la règle qui s'applique
01:05:29ça arrive en fait
01:05:30qu'il y a des cas
01:05:31où il y a besoin
01:05:32de faire appel
01:05:32à d'autres équipes
01:05:33plus spécialisées
01:05:34et donc par exemple
01:05:35on peut avoir un contenu
01:05:37où la personne
01:05:38qui révise
01:05:38n'est pas forcément
01:05:40certaine en fait
01:05:42de la modération
01:05:42importée
01:05:43et en fait
01:05:43quand c'est comme ça
01:05:44en fait
01:05:44on va travailler
01:05:45avec différentes équipes
01:05:46en interne
01:05:47pour essayer en fait
01:05:48de faire la meilleure
01:05:49évaluation possible
01:05:50par rapport au contenu
01:05:50et d'appliquer la règle
01:05:51évidemment
01:05:52comme l'a très bien dit Thibault
01:05:54il y a des moments
01:05:54où on fait aussi des erreurs
01:05:55ça peut arriver
01:05:56et donc dans ces cas là
01:05:57on peut
01:05:58enfin la personne a aussi
01:05:59la possibilité de faire appel
01:06:00mais en gros
01:06:00c'est comme ça
01:06:00que ça se passe
01:06:01donc tout ça signifie en fait
01:06:02que dans le moment
01:06:03où nous on fait notre révision
01:06:04et notre analyse
01:06:05le contenu reste en ligne
01:06:06et donc en fait
01:06:07pendant ce laps de temps
01:06:08le contenu en fait
01:06:10reste en ligne
01:06:11du temps qu'on n'a pas
01:06:13déterminé nous
01:06:14une violation
01:06:15une violation potentielle
01:06:16mais grossièrement
01:06:16c'est comme ça
01:06:17que ça fonctionne
01:06:17je ne sais pas si
01:06:22vous souhaitez rajouter
01:06:24quelque chose
01:06:25côté Youtube
01:06:25ou si c'est bon pour vous
01:06:26Madame la rapporteure
01:06:29alors avant peut-être
01:06:31de passer à la question
01:06:31de la vérification de l'âge
01:06:33j'avais une question
01:06:33peut-être à vous poser
01:06:34sur votre
01:06:36la vision que vous avez
01:06:38de la modération
01:06:39chez TikTok
01:06:39vous avez forcément
01:06:42un avis
01:06:42j'imagine que vous observez
01:06:44tous vos concurrents
01:06:46et que chaque plateforme
01:06:47finalement observe
01:06:48la façon dont les règles
01:06:50sont appliquées
01:06:51sur les autres
01:06:52et donc si vous pouvez
01:06:53nous dire un mot
01:06:54sans langue de bois
01:06:54ce sera par contre vous
01:06:56je pense
01:06:56dans tous les cas
01:06:57donc ça serait pertinent
01:06:58voilà
01:06:59de façon franche
01:07:00c'est la première fois
01:07:03qu'on me demande
01:07:03de m'exprimer
01:07:04sur une plateforme
01:07:05concurrente
01:07:06la réponse simple
01:07:08serait de dire
01:07:08je ne le fais pas
01:07:09mais je sens
01:07:10que vous serez
01:07:11un peu déçus
01:07:11alors je vais essayer
01:07:13de formaliser
01:07:14une réponse quand même
01:07:15déjà je parle
01:07:19un peu d'expérience
01:07:20mais ça va vous étonner
01:07:21ce que je vais dire
01:07:22je pense qu'il ne peut pas
01:07:23y avoir
01:07:24il n'y a pas excès
01:07:25d'honneur
01:07:25ou d'indignité
01:07:26je sais qu'il y a
01:07:28beaucoup d'anciens
01:07:29de méta
01:07:30qui sont partis
01:07:31chez TikTok
01:07:31pour faire de la sécurité
01:07:33de la safety
01:07:34dans notre langage
01:07:35de la modération
01:07:36et tout ça
01:07:36et on ne peut pas
01:07:38douter
01:07:38je pense
01:07:39du fait
01:07:40qu'ils veulent bien faire
01:07:41donc je voudrais
01:07:44souligner ce point
01:07:45l'autre point aussi
01:07:46c'est
01:07:47qu'on est dans
01:07:48une logique
01:07:49j'irais presque
01:07:50de secteur
01:07:50aujourd'hui
01:07:51et qu'on a tous
01:07:52intérêt
01:07:53à progresser
01:07:54collectivement
01:07:55moi j'entends
01:07:56beaucoup
01:07:56les réseaux sociaux
01:07:57en fait
01:07:57parfois
01:07:58entre quatre murs
01:07:59on me dit
01:08:00c'est un peu mieux
01:08:01avec vous
01:08:02que chez les autres
01:08:02ou alors
01:08:03ça va être l'inverse
01:08:04vous voyez ce que je veux dire
01:08:05mais quand on est
01:08:06dans l'espace public
01:08:07j'entends
01:08:07les réseaux sociaux
01:08:08mais pourquoi
01:08:09parce que
01:08:09c'est ce que vous
01:08:10m'ensoignez tout à l'heure
01:08:10quand une loi
01:08:11se fait
01:08:12c'est pour les réseaux sociaux
01:08:14voilà
01:08:15et donc
01:08:16ce que je pense
01:08:17c'est plutôt un commentaire
01:08:18pour TikTok
01:08:19mais aussi pour nous tous
01:08:20c'est d'ailleurs
01:08:21de toute façon
01:08:22il y a des domaines
01:08:22commerciaux
01:08:23ou techniques
01:08:24dans lesquels
01:08:24nous sommes concurrents
01:08:26mais dans les domaines
01:08:27de la modération
01:08:28des contenus
01:08:29de la safety
01:08:29des jeunes
01:08:30on n'a pas vocation
01:08:31à l'être
01:08:31d'ailleurs
01:08:31on travaille
01:08:33très bien ensemble
01:08:34on se voit
01:08:34on est souvent
01:08:35dans les mêmes bureaux
01:08:36les mêmes commissions
01:08:37enfin voilà
01:08:37moi mon intuition
01:08:39aujourd'hui c'est ça
01:08:40donc c'est de dire
01:08:41quelles que soient
01:08:42les difficultés
01:08:43des uns des autres
01:08:44elles existent sur TikTok
01:08:45vous avez mentionné
01:08:46chez Instagram
01:08:46je ne vais pas faire
01:08:47de langue de bois
01:08:48chacun a ses problèmes
01:08:49mais in fine
01:08:50c'est tout le secteur
01:08:52qui est impacté
01:08:53par tel ou tel problème
01:08:54chez l'un et chez l'autre
01:08:54et donc on ne peut que
01:08:56s'inviter collectivement
01:08:57à progresser
01:08:59dans ces domaines
01:08:59voilà
01:08:59donc c'est un message
01:09:01pour nous-mêmes
01:09:02pour les autres
01:09:03pour soi-même
01:09:03voilà
01:09:03sans donner de leçon
01:09:04à qui que ce soit
01:09:05parce que c'est pas simple
01:09:06mais voilà ce que j'aurais
01:09:09à dire
01:09:09j'improvise un peu
01:09:10ma réponse
01:09:10parce que j'avoue
01:09:11qu'on ne me la pose jamais
01:09:12mais j'essaye de me dire
01:09:15ben voilà
01:09:15au lieu de dire quelque chose
01:09:16de pratiquer sur quelqu'un
01:09:17et qui fera un peu
01:09:18une ligne dans la presse
01:09:19c'est pas ce que je souhaite
01:09:21ce que je souhaite
01:09:21c'est de dire
01:09:22bon ben
01:09:22si on fait un zoom arrière
01:09:24on s'est dit
01:09:24ok
01:09:25il faut que ce secteur
01:09:26de toute façon progresse
01:09:27voilà
01:09:28et il faut reconnaître
01:09:29que en fait
01:09:31on n'a pas d'intérêt individuel
01:09:32à laisser filer des problèmes
01:09:34pour soi-même
01:09:36mais aussi parce qu'au final
01:09:37ça suscite des régulations
01:09:38qui nous touchent tous
01:09:39et moi j'ai pas
01:09:39intérêt
01:09:41à regarder un peu
01:09:42de l'autre côté de la rue
01:09:44en disant
01:09:44ha ha ha
01:09:44aujourd'hui on parle d'un tel
01:09:46on parle pas de moi
01:09:47et c'est très bien
01:09:47parce qu'au final
01:09:49quand il y a une régulation
01:09:50ben c'est aussi pour nous
01:09:51je parle d'expérience
01:09:52voilà
01:09:52donc voilà ce que j'aurais
01:09:54à dire sur le sujet
01:09:55mais en toute humilité
01:09:56oui donc merci pour cette question
01:10:04on n'a pas l'habitude
01:10:04d'y répondre
01:10:05je rejoins assez bien
01:10:06ce que disait Antoine
01:10:08en plus j'ai un avis
01:10:08très mal informé
01:10:09sur la question
01:10:09parce que je ne suis
01:10:10moi même pas utilisatrice
01:10:10de TikTok
01:10:11mais en tout cas
01:10:12ce qu'on observe
01:10:13c'est vrai
01:10:13donc à la fois
01:10:14je pense sur les règles
01:10:15de modération
01:10:15il y a aussi une réalité
01:10:16c'est que c'est toujours
01:10:17un petit peu adapté
01:10:17à la réalité d'un service
01:10:18en particulier
01:10:19je pense qu'on a tous
01:10:20un petit peu en fonction
01:10:21de la façon dont on travaille
01:10:22dont fonctionne
01:10:23pardon notre produit
01:10:24une modération
01:10:25qui est adaptée
01:10:25par rapport à ça
01:10:26après c'est vrai
01:10:26ce qu'on observe
01:10:27à la faveur
01:10:28de ce type de réunion
01:10:29et d'autres
01:10:29c'est qu'en fait
01:10:29il y a une forme
01:10:30de standardisation
01:10:31de la façon
01:10:32dont on approche
01:10:33ces problèmes-là
01:10:34mais aussi à la faveur
01:10:35de la régulation
01:10:36parce que finalement
01:10:36le DSA nous offre
01:10:38un cadre formalisé
01:10:39on est tous
01:10:40très grandes plateformes
01:10:40au sens du DSA
01:10:41et donc dans ce sens-là
01:10:42on tire un petit peu plus
01:10:43dans le même sens
01:10:44c'est vrai que
01:10:44même si le DSA
01:10:46s'applique au niveau européen
01:10:47on voit qu'il y a quand même
01:10:48un effet d'influence
01:10:50en fait à la fois
01:10:51sur d'autres juridictions
01:10:52mais aussi sur l'évolution
01:10:53en interne
01:10:53de nos réseaux
01:10:55parce que c'est vrai que
01:10:55ça peut arriver
01:10:56de temps en temps
01:10:57qu'on mette en place
01:10:57quelque chose
01:10:58qu'on doit mettre en place
01:10:59dans le cadre du DSA
01:10:59puis qu'en fait on se dit
01:11:00voilà on va l'étendre
01:11:01parce que finalement
01:11:01ça a du sens etc
01:11:02donc je pense que
01:11:03voilà dans ce sens-là
01:11:04c'est vrai qu'on voit
01:11:05qu'il y a une forme
01:11:06de standardisation
01:11:08et après c'est vrai
01:11:09qu'aujourd'hui
01:11:09on est un certain nombre
01:11:10de réseaux sociaux
01:11:10mais qui sait demain
01:11:11il peut aussi y en avoir
01:11:12d'autres qui apparaissent
01:11:13et qui émergent
01:11:14et que je veux dire
01:11:14c'est pas forcément
01:11:15un espace qui est totalement figé
01:11:22Je ne sais pas si vous souhaitez
01:11:27Oui peut-être
01:11:29de mon côté
01:11:30juste je pense
01:11:31que je serai la personne
01:11:31la même placée
01:11:32pour parler de TikTok
01:11:33parce que j'utilise moi-même
01:11:33pas l'application
01:11:34ce que je veux juste préciser
01:11:36et ça a été rappelé
01:11:37par Aurore
01:11:38côté méta
01:11:38précédemment
01:11:40c'est que la plupart du temps
01:11:41on nous dit
01:11:42cette personne a vu son compte
01:11:44sur telle plateforme supprimée
01:11:45pourquoi ne faites-vous
01:11:47pas de même
01:11:47malheureusement
01:11:49les créateurs
01:11:51vont poster des contenus
01:11:52extrêmement différents
01:11:53selon qu'ils postent
01:11:55sur un réseau social
01:11:55ou sur une plateforme
01:11:56de partage de vidéos
01:11:57ou de streaming
01:11:58comme on est qualifié
01:12:00côté YouTube
01:12:01et donc
01:12:02c'est pas parce qu'une plateforme
01:12:03a pris
01:12:04en vertu de ses conditions
01:12:06d'utilisation
01:12:07une action
01:12:08sur un contenu
01:12:09ou sur un créateur
01:12:11ou un influenceur
01:12:12qu'on pourrait
01:12:13unilatéralement
01:12:14faire de même
01:12:15donc
01:12:17je voulais juste rappeler
01:12:18ce point-là
01:12:19parce que parfois
01:12:20on nous oppose
01:12:20ou alors il y a une forme
01:12:21de course
01:12:22en disant
01:12:23attendez
01:12:23puisque vous pouvez m'expliquer
01:12:25on l'a vu il n'y a pas très longtemps
01:12:26dans une réunion
01:12:27où toutes les plateformes
01:12:28étaient présentes
01:12:29pourquoi tel acteur
01:12:30est plus vertueux
01:12:30que tel autre
01:12:31parce qu'il a supprimé
01:12:32ce compte
01:12:32et vous
01:12:32vous ne l'avez pas fait
01:12:33donc je pense
01:12:34qu'il faut
01:12:35se méfier un peu
01:12:37des décisions
01:12:37de modération
01:12:38et madame la députée
01:12:40je vous rejoins
01:12:42sur ce point
01:12:42des décisions
01:12:44de modération
01:12:44qui seraient prises
01:12:45de manière concertée
01:12:46par l'ensemble
01:12:46des plateformes
01:12:47en se disant
01:12:48bon bah en fait
01:12:48on se concerte
01:12:49ça s'appelle une entente
01:12:50pour couper les comptes
01:12:52unilatéralement
01:12:53de telles personnes
01:12:54peu importe
01:12:55si on a bien constaté
01:12:56une matérialité
01:12:57d'infraction
01:12:57sur chacune des plateformes
01:13:00alors merci beaucoup
01:13:02pour vos réponses
01:13:03franches
01:13:04et spontanées
01:13:04mais vous
01:13:05vous pourriez
01:13:07vous auriez pu peut-être
01:13:08si on met de côté
01:13:09la question de la modération
01:13:10vous avez
01:13:11est-ce que vous diriez
01:13:12que quand même
01:13:13TikTok
01:13:13de la part
01:13:14de
01:13:15par rapport
01:13:16à son algorithme
01:13:17qui est
01:13:18assez redoutable
01:13:19est une source
01:13:21d'inspiration
01:13:22non je sais pas
01:13:28je pense que
01:13:31il n'y a pas
01:13:33d'inspiration
01:13:34dans ce sens là
01:13:34je pense que
01:13:35nous avons
01:13:36notre propre identité
01:13:36Facebook
01:13:38existe depuis
01:13:39quand même
01:13:392004
01:13:40puis il y a eu
01:13:41Instagram
01:13:41puis il y a eu
01:13:42WhatsApp
01:13:42qui ont leur propre
01:13:43identité
01:13:43et je pense que
01:13:45les gens cherchent
01:13:46sur un produit
01:13:47ce qu'ils attendent
01:13:49et ils n'ont pas forcément
01:13:50envie qu'un stade
01:13:50soit comme TikTok
01:13:51ça a été mentionné
01:13:52que parfois
01:13:53il y a des tendances
01:13:55quand tout le monde
01:13:56fait de la vidéo
01:13:57on retrouve un peu
01:13:57de la vidéo partout
01:13:58etc etc
01:13:59mais je pense qu'il faut
01:14:00être très attentif
01:14:01à ça
01:14:02chacun est comme il est
01:14:03mais je pourrais parler
01:14:04d'autres types
01:14:05de sources de contenu
01:14:06voilà
01:14:07il y a l'identité
01:14:08du service
01:14:08du visuel public
01:14:09c'est pas celui
01:14:10de la chaîne privée
01:14:12etc
01:14:13donc voilà
01:14:15il faut rester
01:14:15dans cette idée
01:14:16donc je ne crois pas
01:14:17qu'il y ait une source
01:14:18d'inspiration
01:14:18en tant que telle
01:14:20mais peut-être
01:14:21une petite parenthèse
01:14:22on en revient
01:14:23au sujet du jour
01:14:24c'est pas mal
01:14:27de s'inspirer
01:14:27les uns des autres
01:14:28des protections
01:14:29des mineurs
01:14:30qui fonctionnent
01:14:31ça c'est une saine émulation
01:14:33je pense que
01:14:34les pouvoirs publics
01:14:36peuvent encourager
01:14:37on parlait de standardisation
01:14:39tout à l'heure
01:14:40on est dans le champ
01:14:42à la fois de la conformité
01:14:43à la loi
01:14:44mais parfois
01:14:45c'est aussi des choses
01:14:46qui sont développées
01:14:47par pure
01:14:48ce que vous disiez
01:14:49madame là
01:14:49depuis tout à l'heure
01:14:50bonne volonté
01:14:51au sens
01:14:51je décide
01:14:52moi je prends
01:14:53l'histoire des comptes
01:14:53ados d'Instagram
01:14:54au hasard
01:14:54mais c'est un peu le cas
01:14:56c'est notre dernière création
01:14:57voilà
01:14:58et pour Facebook
01:14:59et toutes nos plateformes
01:15:00bon
01:15:00si le législateur
01:15:01pense qu'il faut
01:15:02créer un système
01:15:03dans lequel demain
01:15:03c'est un peu la clause
01:15:05du mieux disant
01:15:05quelque chose
01:15:06que vous estimez
01:15:07être intéressant
01:15:08sur une plateforme
01:15:08devrait être obligatoire
01:15:10chez tout le monde
01:15:11c'est là où l'état
01:15:13joue son rôle
01:15:14à mon avis
01:15:14si je peux me permettre
01:15:15c'est un peu l'objet
01:15:16de cette commission
01:15:16c'est à dire que
01:15:17on doit faire des préconisations
01:15:20et l'idée
01:15:20c'est d'essayer de prendre
01:15:22le meilleur
01:15:22de ce qui existe partout
01:15:23sans absoudre personne
01:15:25puisque c'est pas notre rôle
01:15:26ben c'est parfait
01:15:27très bien
01:15:28mais avec une interrogation
01:15:30néanmoins
01:15:31c'est que
01:15:32nous dans notre idéal
01:15:34il faudrait le meilleur
01:15:34et le plus protecteur
01:15:35et ça se trouve
01:15:35chez aucun d'entre vous
01:15:37finalement
01:15:37mais chez d'autres réseaux
01:15:40éthiques
01:15:41qui n'ont pas forcément
01:15:41le même modèle économique
01:15:42et qui ne cherchent pas
01:15:44forcément la viralité
01:15:45mais parfois
01:15:46la qualité
01:15:47ou même ce qu'on pouvait
01:15:49retrouver au départ
01:15:50chez X
01:15:51c'est à dire
01:15:51des flux chronologiques
01:15:52ou chez Facebook
01:15:54quand on avait un mur
01:15:56qui défilait
01:15:56sans qu'il y ait
01:15:57une logique de présentation
01:15:58du contenu
01:15:59qui soit différente
01:16:00de celle de la pure chronologie
01:16:01bref
01:16:02on pourrait dire
01:16:03qu'on revient à ça
01:16:04mais sauf qu'en fait
01:16:05on nous dirait
01:16:05vous vous immiscer
01:16:06dans notre modèle économique
01:16:07alors qu'en fait
01:16:08c'est ce modèle économique
01:16:10qui en soi
01:16:10est problématique
01:16:11et donc
01:16:13en fait
01:16:14jusqu'où est-ce
01:16:15qu'on peut aller
01:16:16jusqu'où
01:16:17le droit national
01:16:18peut aller
01:16:19et vous l'évoquiez
01:16:20tout à l'heure
01:16:20on est quand même
01:16:21confronté à tout ça
01:16:21c'est à dire
01:16:22qu'on peut souhaiter
01:16:23une amélioration
01:16:24par le haut
01:16:24une uniformisation
01:16:25par le haut
01:16:25mais en fait
01:16:26à un moment
01:16:26vous êtes les mêmes
01:16:27à nous dire
01:16:28attendez
01:16:28c'est pas conforme
01:16:29aux droits européens
01:16:31ce qui n'est pas un paradoxe
01:16:32oui mais nous n'avons pas
01:16:34ni voulu
01:16:34ni souhaité
01:16:35d'organiser
01:16:35l'union européenne
01:16:36et le droit européen
01:16:37c'est
01:16:37là aussi dans un paradoxe
01:16:39on est dans des méga plateformes
01:16:41qui ont des échelles continentales
01:16:42il était plutôt logique
01:16:43de les réguler
01:16:44à l'échelle continentale
01:16:45donc je pense que
01:16:46c'est plutôt
01:16:47je pense qu'on est d'accord
01:16:47là-dessus
01:16:47voilà on est d'accord là-dessus
01:16:48mais ce que je veux dire par là
01:16:50c'est que rien n'empêche
01:16:51une forme de mise en oeuvre nationale
01:16:53dans la marge
01:16:55que les législateurs
01:16:56se sont donnés eux-mêmes
01:16:57donc aujourd'hui
01:16:58on en est là
01:17:00mais là encore je pense que
01:17:02sincèrement un modèle économique
01:17:03slash mineur
01:17:04aujourd'hui on l'a dit
01:17:04il n'y a pas de publicité
01:17:05pour les mineurs
01:17:06donc il faut aller un peu
01:17:08au-delà de ça
01:17:08et on est plutôt aujourd'hui
01:17:09dans des produits
01:17:09qui sont quoi ?
01:17:11les contenus sont-ils
01:17:12ou pas adaptés aux mineurs
01:17:13le temps passé
01:17:14quand on parle
01:17:15d'addiction
01:17:17c'est à définir
01:17:20mais ces phénomènes
01:17:20peuvent exister
01:17:21donc il y a la question
01:17:22du temps passé
01:17:22il y a la question
01:17:24de qui contacte qui
01:17:25sur les réseaux sociaux
01:17:25et il y a la question
01:17:27de la supervision
01:17:27du contrôle parental
01:17:28dans tous ces domaines
01:17:29en fait
01:17:30il peut y avoir
01:17:31des outils
01:17:31à développer
01:17:33que ça soit
01:17:33ce que les entreprises
01:17:35font d'elles-mêmes
01:17:36et ce que les régulateurs
01:17:38ou l'état
01:17:39leur demanderait de faire
01:17:41mais vous parlez
01:17:42de réseaux sociaux
01:17:43éthiques
01:17:43je ne sais pas
01:17:44de quoi on parle exactement
01:17:45on m'a souvent mentionné
01:17:46mastodont
01:17:47mais une étude de Stanford
01:17:48a montré qu'il y avait
01:17:49aussi beaucoup de problèmes
01:17:50avec mastodont
01:17:51donc il faut qu'on se mette
01:17:53aussi d'accord
01:17:54sur ces notions
01:17:54c'est pas small et beautiful
01:17:57c'est de se dire
01:17:58sur ces plateformes
01:17:58il y a des outils
01:17:59et je pense que le rôle
01:18:02de la standardisation
01:18:03aujourd'hui
01:18:03me paraît tout à fait
01:18:04important
01:18:05mais comme d'autres domaines
01:18:05finalement de la vie économique
01:18:06quand on parle de sécurité
01:18:07des personnes
01:18:08et des biens
01:18:09donc il faut aller vers ça
01:18:11mais je pense qu'il y a une marge
01:18:13il faut la trouver
01:18:14on ne peut pas juste dire
01:18:15on ne fait rien
01:18:16ou il y a le DSA
01:18:16bon voilà
01:18:17il y a une marge
01:18:17entre les deux
01:18:18merci beaucoup
01:18:21je suis un peu frustrée
01:18:22parce que vous auriez pu
01:18:23admettre quand même
01:18:24que TikTok
01:18:25vous a tous un peu inspiré
01:18:26le flux continu
01:18:29de vidéos très courtes
01:18:31c'est quand même
01:18:32et vertical
01:18:33c'est quand même
01:18:33une forme de marque
01:18:35de fabrique TikTok
01:18:35et j'ai un peu le sentiment
01:18:38je ne pense pas être la seule
01:18:39que finalement
01:18:40vous avez quand même
01:18:41tous un peu
01:18:42pris ce qui fonctionne
01:18:44effectivement très bien
01:18:45en termes de captation
01:18:45de l'attention
01:18:46voilà ce dispositif
01:18:48qui est né sur TikTok
01:18:49peut-être qu'on peut
01:18:51donc n'hésitez pas
01:18:52si vous avez envie
01:18:52de réagir
01:18:53et de me dire
01:18:54qu'en effet c'est le cas
01:18:54mais si on se concentre
01:18:56sur la vérification
01:18:57de l'âge
01:18:57parce qu'en fait
01:18:58en effet
01:18:58s'il existait aujourd'hui
01:19:00un dispositif efficace
01:19:01de vérification de l'âge
01:19:02on vous embêterait
01:19:05entre guillemets
01:19:06beaucoup moins
01:19:07parce que voilà
01:19:08si on avait la certitude
01:19:09absolue
01:19:09qu'un enfant
01:19:10de moins de 13 ans
01:19:11ne peut pas arriver
01:19:12sur votre plateforme
01:19:13et ne peut pas voir
01:19:14le contenu disponible
01:19:14sur votre plateforme
01:19:15ce serait quand même
01:19:16une avancée évidemment
01:19:17énorme
01:19:19et ça n'est pas le cas
01:19:21aujourd'hui
01:19:21la publicité
01:19:24qui existe
01:19:25de votre part
01:19:26que j'entends régulièrement
01:19:27sur les ondes
01:19:28qui est de dire
01:19:29allez-y
01:19:30mettez en place
01:19:31une réglementation européenne
01:19:32ce serait vraiment super
01:19:33et ça nous aiderait énormément
01:19:35elle peut quand même
01:19:36faire sourire
01:19:38voire
01:19:39je veux dire
01:19:39faites-le
01:19:41vous avez la capacité technique
01:19:43aujourd'hui
01:19:43n'importe quelle plateforme
01:19:44a la capacité technique
01:19:45de mettre en place
01:19:46une forme de dispositif
01:19:48de vérification
01:19:48de l'âge
01:19:49et vous
01:19:50ma question c'est
01:19:51est-ce que vous comprenez
01:19:52quand même
01:19:52qu'on soit
01:19:53un peu énervé
01:19:55en tout cas
01:19:56dans notre objectif
01:19:57nous de protection efficace
01:19:58des mineurs
01:19:58en vous entendant
01:19:59vous renvoyer la balle
01:20:00finalement
01:20:00non moi je le ferai pas
01:20:02j'attends que les autres
01:20:03le fassent
01:20:04non je le ferai pas
01:20:05il faut que ça vienne
01:20:06de tout le monde
01:20:06et finalement
01:20:07on en est encore
01:20:08à être aujourd'hui
01:20:09en train de discuter
01:20:10de contenus
01:20:12nocifs
01:20:13pour les plus jeunes
01:20:14discussions
01:20:16qu'on aurait
01:20:16beaucoup moins
01:20:17si on était
01:20:17garantis
01:20:18qu'un enfant
01:20:19de moins de 13 ans
01:20:20ne peut pas
01:20:21aller sur la plateforme
01:20:21donc pourquoi
01:20:23vous ne mettez
01:20:23la question simple
01:20:25c'est pourquoi
01:20:25est-ce que vous ne mettez
01:20:26pas avant tous les autres
01:20:27un dispositif
01:20:28de vérification
01:20:29de l'âge efficace
01:20:30qui pourrait vous permettre
01:20:31de sortir
01:20:32voilà plus vertueux
01:20:34que les autres
01:20:35quand vous avez un compte
01:20:36aujourd'hui
01:20:37adolescent
01:20:38sur Instagram
01:20:40on doit quand même
01:20:42connaître votre âge
01:20:43on ne fait pas rien
01:20:44dans ces domaines
01:20:45on vous demande
01:20:46de déclarer votre âge
01:20:48nous avons aussi
01:20:49des signaux
01:20:50qui permettent
01:20:50de douter de votre âge
01:20:51grâce à de l'IA
01:20:52ou à des signalements
01:20:54qui peuvent être faits
01:20:54par des proches
01:20:55et si vous avez menti
01:20:56si vous avez moins de 13 ans
01:20:56votre compte peut être
01:20:57supprimé
01:20:59tout de suite
01:21:00bon
01:21:00ensuite
01:21:03si vous avez ce compte
01:21:04adolescent
01:21:04et que ça vous embête
01:21:05un peu
01:21:06et que vous voulez dire
01:21:06en fait
01:21:06j'ai pas 14 ans
01:21:08j'ai 19 ans
01:21:09là sur le passage
01:21:11vers la majorité
01:21:11on va vous vérifier
01:21:13ceinture et bretelles
01:21:14qui est
01:21:15de la reconnaissance
01:21:17de la morphologie
01:21:17du visage
01:21:18ou d'autres types
01:21:19de dispositifs
01:21:20qui sont très efficaces
01:21:21et qui ont fait leur preuve
01:21:22et que j'aurais pas pu
01:21:22vous parler de ça
01:21:23même il y a 2-3 ans
01:21:24voilà
01:21:24qu'est-ce qui reste en fait
01:21:26c'est ce que vous mentionnez
01:21:26c'est est-ce que Kevin
01:21:28a 13 ans ou pas
01:21:29bon
01:21:30sauf que le comment
01:21:32vérifier l'âge de Kevin
01:21:33à l'âge de 13 ans
01:21:33ne se pose pas
01:21:34de la même manière
01:21:34pour un majeur de 18 ans
01:21:35parce qu'on n'a pas forcément
01:21:36les
01:21:37il y a des vérificateurs tiers
01:21:41je sais qu'il y a
01:21:41beaucoup de choses
01:21:41qui se développent
01:21:42aujourd'hui
01:21:42mais
01:21:43même dans la communauté
01:21:46d'experts
01:21:47on sent bien
01:21:47qu'il y a une difficulté
01:21:48qui n'est pas la même
01:21:48que est-ce que j'ai 18 ans
01:21:49pas 18 ans
01:21:50est-ce que j'ai une carte bancaire
01:21:51ou pas
01:21:52est-ce que j'ai une carte
01:21:52d'identité ou pas
01:21:53voilà à 13 ans
01:21:53c'est pas le cas
01:21:54donc la première brique de ça
01:21:56et c'est aussi le sens
01:21:57de la campagne
01:21:57mais je vais m'en expliquer
01:21:58c'est de dire
01:21:59quand on a
01:22:0013 ans
01:22:0112 ans au moins
01:22:02le téléphone
01:22:03il n'est pas arrivé
01:22:04par magie
01:22:05dans vos mains
01:22:05la ligne
01:22:06elle n'a pas été créée
01:22:07par magie non plus
01:22:08c'est-à-dire qu'il y a
01:22:09un rôle quand même
01:22:10du parent
01:22:11qui est réel
01:22:12voilà
01:22:13qui comme dans tout autre
01:22:15acte d'éducation
01:22:16j'ai envie de dire
01:22:17et la meilleure source
01:22:18d'information
01:22:19pour savoir si Kevin
01:22:20a 13 ans ou pas
01:22:20ce sont quand même
01:22:21ses parents
01:22:21voilà
01:22:22alors cela étant dit
01:22:23parce qu'on ne vit pas
01:22:24dans le monde idéal
01:22:24dans lequel Kevin
01:22:26fait ce que ses parents
01:22:27lui disent
01:22:27il reste donc la question
01:22:30de cette vérification
01:22:32d'âge
01:22:32nous cette campagne
01:22:33elle est simplement
01:22:34de dire une chose simple
01:22:34c'est-à-dire que
01:22:35la solution
01:22:37elle ne peut être
01:22:38que industrielle
01:22:40parce que ce que dit
01:22:40cette campagne
01:22:41c'est de dire
01:22:42nous devons faire
01:22:43plus et mieux
01:22:43en matière de vérification
01:22:44d'âge
01:22:45nous-mêmes
01:22:46donc il n'y a pas
01:22:47un défaut de responsabilité
01:22:48d'ailleurs on le dit
01:22:49dans notre contribution
01:22:50pour le DSA
01:22:51mais que
01:22:52dans la vie de Kevin
01:22:54il n'y a pas que
01:22:54les réseaux sociaux
01:22:55il y a les sites
01:22:56il y a les jeux vidéo
01:22:57il y a tout ça
01:22:58dans son expérience numérique
01:22:59et donc si on centralisait
01:23:00ce contrôle de l'âge
01:23:01pour que toute son expérience
01:23:02numérique après
01:23:03découle de cette information
01:23:04qu'elle soit dans la carte SIM
01:23:06peut-être dans l'App Store
01:23:07etc
01:23:07ça peut être la solution
01:23:09et donc je peux même saluer
01:23:10les efforts aussi
01:23:11de Google
01:23:12qui ouvre des API
01:23:13sur son App Store
01:23:14pour qu'il y ait
01:23:15une meilleure communication
01:23:16entre
01:23:17les plateformes
01:23:19et cet App Store
01:23:20pour voir comment
01:23:21on peut
01:23:22faire ceinture
01:23:23et bretelles
01:23:24j'ai envie de dire par là
01:23:24et pour avoir une meilleure
01:23:26vérification de l'âge
01:23:27franchement la réflexion
01:23:28elle est exactement la même
01:23:29que pour un méthane
01:23:31on doit mettre en place
01:23:32de la vérification de l'âge
01:23:33pour protéger les utilisateurs mineurs
01:23:34tout autant
01:23:35et peut-être davantage
01:23:36d'ailleurs par rapport au fait
01:23:37qu'on autorise le contenu
01:23:39pour adultes en l'occurrence
01:23:40mais donc effectivement
01:23:42tout l'enjeu derrière tout ça
01:23:43c'est arriver à savoir
01:23:45quel âge a la personne
01:23:46sans avoir la personne
01:23:47face à soi
01:23:48ce qui est en fait
01:23:48notre cas
01:23:49parce que c'est vrai que
01:23:50l'utilisateur en fait
01:23:52qui est sur le réseau
01:23:53en fait effectivement
01:23:54il a acheté son téléphone
01:23:55auprès de l'opérateur téléphonique
01:23:56et nous en fait
01:23:57on ne sait pas qui on a
01:23:59il faut faire aussi
01:24:00un petit peu attention
01:24:01sur le fait de
01:24:02vérifier ses utilisateurs
01:24:04avec une grande certitude
01:24:05parce qu'en fait
01:24:06si on travaille avec
01:24:08un système qui n'est pas parfait
01:24:10et qui fait des erreurs
01:24:11et bien du coup
01:24:11ça met un coup de pied
01:24:13dans l'édifice
01:24:14donc nous on avait rencontré
01:24:16un certain nombre
01:24:16de tiers de confiance
01:24:18en fait
01:24:18qui pourraient nous aider
01:24:19sur ce plan
01:24:20de la vérification de l'âge
01:24:21et je suis d'accord avec Antoine
01:24:22je pense qu'on va y arriver
01:24:23je pense qu'on va un vrai momentum
01:24:24même au niveau mondial
01:24:25parce qu'il n'y a pas la France
01:24:26qui se pose ce type de questions
01:24:27il y a les Etats-Unis
01:24:28il y a l'Angleterre
01:24:30où on va avoir des vérifications
01:24:31qui vont s'imposer
01:24:32à partir de juin 2025
01:24:33dans le cadre de l'OSA
01:24:34il y a l'Irlande
01:24:35c'est quoi les vérifications
01:24:36qui seront mises en Angleterre ?
01:24:38donc en Angleterre
01:24:39on doit mettre en place
01:24:39un highly effective
01:24:41edge assurance
01:24:42en particulier
01:24:42c'est comme ça que la loi le dit
01:24:43donc en fait
01:24:44il faudrait travailler
01:24:45avec un tiers
01:24:46en l'occurrence
01:24:47en fait
01:24:47qui permettent d'estimer l'âge
01:24:48avec un haut niveau de certitude
01:24:49quand on parle de la biométrie
01:24:51c'est le cas
01:24:52la biométrie n'est pas
01:24:53forcément infaillible
01:24:55mais l'idée
01:24:55c'est que ça fasse
01:24:56le moins d'erreurs possibles
01:24:57en gros c'est ça l'idée
01:24:57il y a une erreur quand même
01:24:58qui est conséquente
01:24:58qui peut être de plusieurs années
01:25:00alors oui
01:25:01et c'est pour ça que
01:25:02donc parmi les vérificateurs
01:25:05qu'on avait rencontrés
01:25:06on avait certains doutes
01:25:08parce que notamment
01:25:09il y avait des erreurs
01:25:09qui étaient faites
01:25:10par rapport au genre de la personne
01:25:11et par rapport à la couleur de sa peau
01:25:13donc c'est pas idéal
01:25:15si vous voulez
01:25:15c'est potentiellement discriminatoire
01:25:17si on travaille avec un tiers
01:25:18qui fait des erreurs
01:25:20par rapport au fait
01:25:21si la personne en face
01:25:21est une fille ou un garçon
01:25:22etc etc
01:25:23donc en fait
01:25:24ce qu'il faut voir
01:25:25en fait
01:25:25et je comprends vraiment
01:25:27votre frustration
01:25:27par rapport au fait
01:25:28que ça avance pas assez vite
01:25:29etc
01:25:29parce que ça on l'entend tout à fait
01:25:31mais il faut qu'on puisse
01:25:32mettre en place un système
01:25:33qui quand même
01:25:34à la fin fonctionne
01:25:35enfin donc c'est un petit peu
01:25:36ça l'idée
01:25:37après il y a quand même
01:25:38effectivement l'application
01:25:39qui est développée en ce moment
01:25:40au niveau européen
01:25:40et qui est son identité européenne
01:25:42donc nous on voit que
01:25:42franchement ça va être
01:25:44à brève ou moyenne échéance
01:25:45que le système va fonctionner
01:25:47mais c'est vrai que
01:25:48si on avait la solution
01:25:48technique parfaite devant nous
01:25:50on se poserait pas
01:25:51toutes ces questions là
01:25:52le truc c'est qu'effectivement
01:25:53c'est un ensemble de signaux
01:25:55et c'est un ensemble
01:25:55d'indications
01:25:56qui nous apportent
01:25:57une grande certitude
01:25:58et effectivement
01:25:59c'est toujours plus facile
01:26:00si vous avez la personne
01:26:01face à vous
01:26:01parce que si vous collectez
01:26:02pas des données
01:26:03je pense que
01:26:04les citoyens français
01:26:04ne seraient pas d'accord
01:26:05avec le fait que X
01:26:06collecte toutes les cartes
01:26:08d'identité
01:26:08de tous les utilisateurs
01:26:09en France
01:26:09pour protéger
01:26:10un nombre de mineurs
01:26:13qui est plus faible
01:26:13sur la plateforme
01:26:14et donc il faut trouver
01:26:15une solution
01:26:16qui coche un peu
01:26:17toutes les cases
01:26:18de protection de la vie privée
01:26:19efficacité
01:26:20et proportionnalité
01:26:21et donc c'est là-dessus
01:26:23qu'on travaille
01:26:23mais encore une fois
01:26:24je pense que
01:26:25si on ne sort pas
01:26:25dans six mois
01:26:26il y aura des vraies avancées
01:26:27qui ont été faites
01:26:27voilà pour cet extrait
01:26:29de la table ronde
01:26:30avec les représentants
01:26:31en France
01:26:32des plateformes
01:26:33Meta, X et Youtube
01:26:35audition devant la commission
01:26:36d'enquête
01:26:37de l'Assemblée nationale
01:26:38sur les effets psychologiques
01:26:39de TikTok
01:26:40sur les mineurs
01:26:41on a compris que
01:26:41contrôler l'âge
01:26:42sur les réseaux
01:26:43ce n'est pas si facile
01:26:44au-delà de la déclaration
01:26:46de bonne intention
01:26:46encore faut-il avoir
01:26:47les moyens
01:26:48de rendre cette mesure
01:26:49effective
01:26:50c'est la fin de cet épisode
01:26:51à bientôt sur LCP

Recommandations