La commission d'enquête relative aux effets psychologiques de TikTok sur les mineurs auditionne les responsables de TikTok France. Parmi les personnes interrogées : Marlène Masure, responsable du contenu dans les États d'Europe, du Moyen-Orient et d'Afrique, directrice exécutive du développement commercial et marketing, et Marie Hugon, responsable des enquêtes réglementaires européennes. La commission d'enquête, créée le 13 mars dernier, est présidée par le député socialiste Arthur Delaporte et a pour rapporteure la députée du socle commun Laure Miller.
Catégorie
🗞
NewsTranscription
00:00:00Générique
00:00:00Bonjour et bienvenue sur LCP.
00:00:10Dans cet épisode, on parle d'une commission d'enquête qui fait du bruit, la commission TikTok.
00:00:14Les députés tentent de mesurer les effets nocifs de ce réseau social sur la santé mentale des mineurs.
00:00:20Ils ont entendu des influenceurs, Nasdaq, Adé Laurent ou encore Axel Hitchin
00:00:26qui leur a tout simplement raccroché au nez du jamais vu en commission.
00:00:30Place tout de suite aux responsables de TikTok.
00:00:33Je souhaitais dans un premier temps vous préciser mon périmètre d'action chez TikTok.
00:00:38Avec le support de mon équipe, mon rôle est d'accompagner une sélection de partenaires,
00:00:44de créateurs, de personnalités publiques dans leur stratégie de contenu sur la plateforme.
00:00:49Nous travaillons également à l'élaboration de partenariats avec des acteurs de la culture, du sport, des médias
00:00:57et notre objectif est d'encourager la création de contenus créatifs, éducatifs, divertissants, de qualité
00:01:04au service d'une communauté très engagée de 25 millions d'utilisateurs chaque mois en France.
00:01:10Dans le cadre de mes fonctions, j'accompagne des partenaires comme les médias par exemple
00:01:16et dans leur stratégie de création de contenu sur TikTok.
00:01:20On a plus de 250 médias aujourd'hui présents sur la plateforme
00:01:24parmi lesquels Le Monde, France Info, France Télévisions, Le Figaro, Le Parisien, Arte, l'AFP ou encore Brut.
00:01:33Notre mission consiste à les aider à développer leur audience en favorisant l'interaction avec de nouveaux publics.
00:01:41Nous avons par exemple récemment travaillé avec Le Masque et la Plume,
00:01:44qui est une émission emblématique de critiques cinématographiques, théâtrales et littéraires
00:01:48diffusées sur France Inter, en permettant à ces intervenants de partager leurs impressions à chaud
00:01:53à la sortie des projections du Festival de Cannes.
00:01:57Et ce dispositif leur a permis de toucher une toute nouvelle audience grâce à un format innovant et immersif.
00:02:03Dans le domaine sportif, nous sommes partenaires du Tour de France
00:02:06pour la troisième année consécutive, avec un objectif commun
00:02:09qui est d'amplifier la ferveur et la liesse populaire autour de cet événement mythique.
00:02:15Nous pourrions également citer notre soutien à la promotion des films comme L'Amour Ouf,
00:02:19Le Comte de Montecristo, notre dispositif exceptionnel pour les Jeux olympiques et paralympiques de Paris 2024,
00:02:25ou encore notre partenariat avec l'Institut national de l'audiovisuel.
00:02:29Nous sommes particulièrement fiers de ces initiatives qui favorisent la diffusion de contenus culturels de qualité
00:02:36et mobilisent une diversité d'acteurs à travers l'ensemble du territoire.
00:02:40Mes équipes accompagnent également les créateurs de contenus.
00:02:43TikTok est aujourd'hui un véritable tremplin pour des milliers de créateurs et professionnels
00:02:47qui vivent aujourd'hui de leur passion et de leur créativité,
00:02:51et dans tous les domaines, la musique, le cinéma, la danse, l'agriculture ou encore l'enseignement.
00:02:58Des créateurs partagent quotidiennement des contenus inspirants et pédagogiques,
00:03:02permettant aux utilisateurs de découvrir de nouveaux univers.
00:03:06Par exemple, une trentaine de créateurs enrichissent notre fil STEM.
00:03:11Ce nouveau flux que nous avons lancé en avril 2024
00:03:13propose une sélection de contenus pédagogiques et éducatifs autour de quatre domaines
00:03:17qui en anglais forment l'acronyme STEM, les sciences, les technologies, l'ingénierie et les mathématiques.
00:03:23Pour inciter les plus jeunes à découvrir ces sujets,
00:03:26les utilisateurs âgés de moins de 18 ans voient le fil STEM par défaut.
00:03:30En France, 27% des utilisateurs de moins de 18 ans le consultent une fois par semaine.
00:03:36Nous créons également des programmes qui facilitent la découverte de contenus utiles à notre communauté.
00:03:42J'aimerais citer par exemple le programme Apprendre sur TikTok,
00:03:44dont l'ambition est de valoriser toutes les formes de savoir
00:03:47qui permettent à des scientifiques, des experts, des professeurs, des acteurs culturels
00:03:52de partager leur savoir auprès d'une très grande communauté.
00:03:55Ce programme a rencontré un vif succès
00:03:58et a généré à travers ses 250 000 vidéos éducatives
00:04:02plus de 5 milliards de vues depuis son lancement en 2023.
00:04:06En quelques années, TikTok est devenu une véritable vitrine sur le monde.
00:04:10Chaque mois, plus de 175 millions de personnes à travers l'Europe
00:04:13se rendent sur TikTok.
00:04:16Le foisonnement créatif de sa communauté
00:04:17et la liberté d'expression qu'elle y trouve
00:04:19façonnent une nouvelle culture populaire.
00:04:23Conscient que les tendances et les sujets sociétaux
00:04:25qui émergent sur TikTok comme sur l'ensemble des plateformes numériques
00:04:28résonnent dans la vie réelle,
00:04:30nous nous engageons à agir en responsabilité.
00:04:34En accompagnant les utilisateurs, créateurs, entreprises, partenaires et institutions,
00:04:39en soutenant les contenus utiles et positifs
00:04:41et en veillant à la sécurité et au bien-être de notre communauté.
00:04:45Cet engagement guide chacune de nos actions au service d'un espace numérique inclusif,
00:04:50encadré et porteur de sens.
00:04:52Cet engagement s'inscrit bien entendu dans le strict respect des réglementations en vigueur,
00:04:56à commencer par le Règlement européen sur les services numériques, DSA,
00:05:00un texte pionnier qui couvre notamment des enjeux cruciaux en matière de protection des mineurs.
00:05:05Et sur ce point essentiel, je laisse la parole à ma collègue Marie
00:05:08qui pilote ces sujets au sein de TikTok.
00:05:10Je vous remercie de votre attention et me tiens à votre disposition
00:05:13pour répondre à toutes les questions relatives à la stratégie de contenu de TikTok en France.
00:05:19Je travaille donc au sein de l'équipe juridique de TikTok
00:05:21pour laquelle je suis responsable des enquêtes réglementaires européennes,
00:05:25notamment dans le cadre du Règlement européen sur les services numériques,
00:05:29le Digital Services Act ou DSA.
00:05:32Mon rôle est entre autres de faciliter un dialogue constructif et transparent
00:05:36avec les autorités réglementaires.
00:05:39Garantir la sécurité de notre communauté est une priorité essentielle pour TikTok.
00:05:44C'est sur la sécurité que repose la confiance des utilisateurs
00:05:46qui font vivre la plateforme en créant quotidiennement du contenu positif et inspirant.
00:05:52TikTok s'engage pleinement à respecter les cadres réglementaires en vigueur
00:05:56dans tous les pays où nous opérons.
00:05:58Nous cultivons une collaboration étroite et proactive avec les régulateurs,
00:06:03en plaçant la transparence, la responsabilité et l'intégrité au cœur de nos interactions.
00:06:10Cette approche nous permet non seulement de protéger nos utilisateurs,
00:06:13mais aussi de participer activement à l'évolution des meilleures pratiques du secteur.
00:06:19Dans ce cadre, TikTok a été désigné en tant que très grande plateforme,
00:06:22ou VILOP, par la Commission européenne le 28 avril 2023 en application du DSA.
00:06:30TikTok est convaincu que ce nouveau cadre juridique à niveau européen
00:06:33constitue une avancée majeure pour l'ensemble des plateformes numériques
00:06:37en établissant de nouvelles exigences en matière de transparence,
00:06:41de responsabilité et d'atténuation des risques.
00:06:45TikTok a toujours soutenu ses progrès et continuera à s'adapter à mesure que le droit évolue.
00:06:49En plus des paramètres de sécurité et de confidentialité pour nos utilisateurs
00:06:55entre 13 et 17 ans, qui existaient avant août 2023,
00:06:59TikTok a pris de nombreuses mesures pour se conformer au DSA,
00:07:04notamment la réalisation d'évaluations détaillées des risques systémiques
00:07:08et précisément les risques liés à la protection des mineurs,
00:07:12ainsi que la mise en œuvre de mesures d'atténuation raisonnable,
00:07:15proportionnées et efficaces, dont l'ajustement des conditions d'utilisation
00:07:20et des fonctionnalités de la plateforme,
00:07:22le renforcement des politiques de modération,
00:07:25la modification des systèmes de recommandation
00:07:28ou encore la promotion de l'éducation aux médias.
00:07:32De plus, TikTok établit annuellement des audits externes et indépendants
00:07:37publiés sur son site.
00:07:38Conformément au DSA, TikTok publie également des rapports de transparence
00:07:43portant sur ces efforts de modération de contenu
00:07:45dans les 27 membres de l'Union européenne.
00:07:48Et ces rapports sont détaillés et exhaustifs.
00:07:50Ils sont aussi disponibles en ligne.
00:07:52Ils incluent notamment le nombre d'utilisateurs actifs mensuels
00:07:55dans chaque État membre de l'Union européenne
00:07:57ou encore le nombre de suppressions proactives
00:08:00et des signalements de contenus illégaux
00:08:01qui enfreignent nos règles communautaires.
00:08:03Par exemple, aujourd'hui en France,
00:08:0691% des contenus problématiques sont supprimés
00:08:09avant même que les contenus aient été vus sur TikTok.
00:08:12Et en plus des technologies de modération que nous avons,
00:08:15des milliers de collaborateurs en Europe
00:08:16œuvrent à la sécurité de la plateforme,
00:08:18dont 509 modérateurs en langue française.
00:08:21Et il a déjà été évoqué ce matin,
00:08:23seuls 1% des contenus publiés sont retirés
00:08:25car ils enfreignent les règles communautaires.
00:08:29Notre engagement en matière de transparence
00:08:31s'applique également au fonctionnement
00:08:32de notre système de recommandation.
00:08:34Nous expliquons de manière claire
00:08:35comment les contenus sont sélectionnés
00:08:37et proposés dans le fil de nos utilisateurs,
00:08:40mais également comment ils peuvent personnaliser
00:08:42et gérer eux-mêmes leur expérience.
00:08:45En ce qui concerne la sécurité des mineurs,
00:08:47notre approche se pose sur un engagement ferme et global
00:08:49combinant des politiques de tolérance zéro,
00:08:53des technologies innovantes,
00:08:55des fonctionnalités de contrôle intégrées à l'application,
00:08:58ainsi que des ressources pédagogiques
00:08:59destinées à sensibiliser et à accompagner
00:09:02les jeunes utilisateurs et leurs parents.
00:09:05Face à l'évolution rapide du paysage numérique
00:09:07et à la complexité croissante des enjeux
00:09:10liés à la protection des mineurs,
00:09:12nous continuons à nous adapter.
00:09:14C'est tout l'objet du travail que TikTok mène
00:09:16en collaboration avec d'autres acteurs du secteur,
00:09:18avec des associations, des chercheurs,
00:09:20les régulateurs, les gouvernements,
00:09:23afin de mettre en œuvre des solutions
00:09:24pour me protéger les mineurs sur Internet.
00:09:26C'est dans le cadre du DSA que TikTok a notamment participé
00:09:30aux réunions de travail organisées par la Commission européenne
00:09:33avec l'ensemble des très grandes plateformes
00:09:34pour la préparation des lignes directrices
00:09:36relatives à la protection des mineurs
00:09:39qui viennent d'être publiées.
00:09:41Et TikTok rendra ses observations
00:09:42concernant ces lignes directrices d'ici quelques jours.
00:09:45Je vous remercie.
00:09:46Je me tiens à votre entière disposition
00:09:48pour répondre à vos questions
00:09:49concernant ces enjeux réglementaires
00:09:51et en particulier le DSA.
00:09:53J'ai d'ailleurs apporté nos rapports de transparence,
00:09:55nos rapports aussi de risque.
00:09:59Très bien.
00:09:59On a tout lu.
00:10:00Ah, très bien.
00:10:00Voilà.
00:10:01Vous avez tout, on est en double.
00:10:03Voilà.
00:10:03Ils sont aussi sur nos bureaux.
00:10:06Je vous en fais pas.
00:10:06Très bien.
00:10:08Merci.
00:10:08Merci pour votre attention
00:10:09et nous répondrons à vos questions.
00:10:18Merci beaucoup.
00:10:19Merci, mesdames, pour votre présence.
00:10:21Peut-être une première question.
00:10:22Arthur, vous vous a demandé
00:10:23si vous aviez écouté les auditions ce matin.
00:10:26Est-ce que vous avez suivi
00:10:28ou vos équipes ont-elles suivi les auditions
00:10:29depuis le début de cette commission d'enquête ?
00:10:32Et si oui, peut-être, voilà,
00:10:34est-ce que vous avez eu une réaction ?
00:10:35Qu'est-ce que ça vous a inspiré ?
00:10:36Est-ce que ça a potentiellement
00:10:37vous a inspiré des pistes d'évolution ?
00:10:40Je peux commencer.
00:10:45Je pense que c'est un peu tôt
00:10:46pour effectivement avoir une analyse
00:10:48parce que je crois que vous avez auditionné
00:10:49une centaine de personnes.
00:10:52Donc, bien entendu que, évidemment,
00:10:53nos équipes sont mobilisées
00:10:54pour écouter toutes les auditions,
00:10:57pour écouter le retour.
00:10:59Et on a une vraie culture
00:11:00au sein de cette entreprise
00:11:02d'écouter le feedback, comme on dit,
00:11:04et d'écouter effectivement les avis,
00:11:09les expériences.
00:11:10Et on a cette humilité de penser
00:11:13qu'on peut toujours faire mieux.
00:11:16L'application a été lancée en France en 2018
00:11:19et plus largement à l'échelle mondiale.
00:11:22Donc, on a aujourd'hui une communauté
00:11:25très importante d'un milliard d'utilisateurs
00:11:27avec évidemment un enjeu de sécurité
00:11:32qui est au cœur de nos actions.
00:11:34On a des équipes qui sont mobilisées.
00:11:36Les équipes en ont parlé ce matin.
00:11:38Donc, c'est une obsession du quotidien
00:11:42de toujours faire mieux,
00:11:43d'apporter le plus de sécurité possible
00:11:45à ses utilisateurs.
00:11:47On est évidemment...
00:11:49On grandit avec, on va dire,
00:11:52le support aussi de tous les partenaires
00:11:53qui nous accompagnent.
00:11:55On en a parlé ce matin,
00:11:56des signaleurs de confiance,
00:11:57des partenaires, des experts,
00:11:58des associations qui sont engagées
00:12:00à nos côtés en matière
00:12:02de sécurité.
00:12:04Et donc, on est évidemment très à l'écoute
00:12:07de voir quelles sont les recommandations
00:12:10qui peuvent émerger
00:12:11de cette commission d'enquête
00:12:13qui peuvent être utiles pour nous,
00:12:16mais je pense plus largement
00:12:17pour l'ensemble des plateformes numériques.
00:12:19Merci beaucoup.
00:12:24Vous avez dit, vous l'avez déjà dit
00:12:26dans votre propos au liminaire,
00:12:27mais vous l'aviez dit il y a maintenant
00:12:29presque deux ans, ou un peu plus de deux ans même,
00:12:31devant nos collègues sénateurs,
00:12:33que vos contenus, je cite,
00:12:34contribuent au dynamisme de notre société
00:12:36et que vous avez la responsabilité
00:12:37d'offrir le meilleur contenu possible
00:12:39dans un espace sûr et inclusif.
00:12:41On a encore entendu en effet ces mots ce matin.
00:12:44Est-ce que vous confirmez ces propos
00:12:46et est-ce que vous estimez
00:12:47qu'ils sont conformes à la réalité
00:12:48des contenus de TikTok ?
00:12:51Alors aujourd'hui, TikTok est une plateforme
00:12:56qui rassemble un milliard d'utilisateurs.
00:12:59Et donc, le principe de cette plateforme
00:13:01est de permettre à chacun
00:13:02de pouvoir s'exprimer.
00:13:03s'exprimer, c'est formidable
00:13:07parce que ça permet effectivement
00:13:08d'apporter une liberté d'expression
00:13:11à des minorités,
00:13:12à des personnalités qui sont peut-être isolées
00:13:15et qui ont besoin de soutien.
00:13:17Et la force de TikTok,
00:13:18c'est d'être finalement cette somme
00:13:19de micro-communautés
00:13:20qui vont se rassembler autour de sujets
00:13:22qui les passionnent.
00:13:24Qu'on soit passionné de natation,
00:13:26qu'on soit passionné de comics,
00:13:29qu'on soit passionné de différents sujets,
00:13:31de livres,
00:13:32on va pouvoir trouver une communauté
00:13:34qui nous ressemble
00:13:35et avec laquelle on va pouvoir échanger
00:13:38et communiquer.
00:13:40Donc je dirais que l'enjeu pour nous,
00:13:42il est à travers tous les efforts
00:13:43dont on a parlé ce matin,
00:13:46d'apporter un maximum de sécurité
00:13:48pour encadrer l'usage de la création
00:13:53sur la plateforme.
00:13:55Donc chacun a le droit de s'exprimer
00:13:57sur cette plateforme
00:13:58et notre responsabilité effectivement
00:14:00est de mettre en place
00:14:00des règles communautaires
00:14:04qui vont encadrer le travail de modération.
00:14:06Le travail à mon échelle,
00:14:08avec mon équipe,
00:14:08quand on parle de contenu
00:14:09et du travail qu'on fait,
00:14:11c'est de travailler
00:14:12avec une sélection de partenaires
00:14:13et de créateurs.
00:14:15Donc pour vous illustrer,
00:14:16par exemple,
00:14:17à l'échelle de la France,
00:14:18j'ai une équipe qui travaille
00:14:20avec une sélection de créateurs.
00:14:22Donc on a environ 1000 créateurs
00:14:23que l'on suit
00:14:25parce qu'ils nous intéressent
00:14:26particulièrement,
00:14:27parce qu'ils parlent de sujets
00:14:28qui sont éducatifs,
00:14:29qui sont utiles.
00:14:31On travaille avec 400 partenaires.
00:14:32J'en ai parlé un petit peu
00:14:33dans mon propos liminaire
00:14:34et je peux détailler un petit peu
00:14:35la collaboration avec ces partenaires.
00:14:38Et notre enjeu
00:14:39est de créer des programmes
00:14:41qui vont ensuite
00:14:42créer un engouement,
00:14:45un intérêt
00:14:45sur des sujets
00:14:47qui nous semblent importants,
00:14:49comme l'information,
00:14:49avec un programme
00:14:50qui s'appelle
00:14:50S'informer sur TikTok
00:14:51ou un programme
00:14:53comme Apprendre sur TikTok
00:14:54autour des contenus éducatifs.
00:14:56Donc ça,
00:14:56c'est le rôle
00:14:57qu'on va jouer
00:14:57à l'échelle locale.
00:15:02Mais est-ce que vous affirmeriez
00:15:04aujourd'hui
00:15:04que TikTok est un espace
00:15:06sûr et sécurisé ?
00:15:10Écoutez,
00:15:11entre guillemets,
00:15:12qui je suis,
00:15:13pour vous l'affirmer,
00:15:14je suis une salariée,
00:15:16une collaboratrice
00:15:16d'une très grande entreprise.
00:15:19Ce que je peux vous dire,
00:15:19c'est que nos équipes
00:15:20Trust and Safety,
00:15:22donc nos équipes de sécurité
00:15:24qui sont dédiées
00:15:24à la sécurité
00:15:25des utilisateurs,
00:15:27sont mobilisées.
00:15:29On a des outils technologiques
00:15:30extrêmement puissants.
00:15:32On a la possibilité aussi
00:15:33de vous montrer
00:15:33la façon dont on travaille.
00:15:35On vous invite,
00:15:35bien entendu,
00:15:36je ne suis pas sûr
00:15:37que mes collègues
00:15:38vous l'aient proposé,
00:15:39mais à venir à Dublin
00:15:40visiter notre centre de transparence
00:15:43pour voir effectivement
00:15:44la façon dont on modère
00:15:45les contenus.
00:15:46On a 6 000 personnes
00:15:47qui sont dédiées
00:15:48à la modération des contenus.
00:15:50Donc, en tout cas,
00:15:51les procédures sont en place.
00:15:53Je ne peux pas vous dire
00:15:53que le système est infaillible.
00:15:55Probablement qu'aucune plateforme
00:15:58ne pourrait avoir la prétention
00:15:59de vous dire
00:16:00que les systèmes de modération
00:16:01sont infaillibles.
00:16:02En tout cas,
00:16:02on a des procédures
00:16:03qui sont extrêmement solides,
00:16:04qu'on continue de faire évoluer.
00:16:06Et on est évidemment
00:16:08preneurs de retours
00:16:09et de conseils
00:16:10et de recommandations
00:16:11si vous pensez
00:16:11qu'on peut faire mieux.
00:16:13Je comprends que vous n'êtes pas
00:16:19en capacité de me dire
00:16:20que c'est un espace sûr
00:16:21et inclusif.
00:16:22Et si on a bien en tête
00:16:23ce que vous nous disiez
00:16:25qui était que TikTok
00:16:26était contribué
00:16:27au dynamisme
00:16:28de notre société,
00:16:29je me permets,
00:16:30je vais essayer d'être très rapide,
00:16:31mais de vous lire
00:16:31un certain nombre
00:16:31de témoignages
00:16:32qu'on a reçus,
00:16:33vraiment un flot
00:16:35de témoignages
00:16:35qu'on a reçus
00:16:36sur notre adresse mail
00:16:37dédiée à la commission d'enquête.
00:16:39Donc, il y en a beaucoup,
00:16:39mais j'ai essayé
00:16:40d'en capturer quelques-uns.
00:16:43Donc, j'ai changé
00:16:43les prénoms, évidemment.
00:16:44Mais donc, Thibaut,
00:16:45qui a 20 ans aujourd'hui,
00:16:46nous explique
00:16:47« J'ai moi-même été pris
00:16:48dans la spirale de TikTok
00:16:49à partir de 2020,
00:16:50donc lorsqu'il avait 15 ans.
00:16:51Je suis tombée dedans
00:16:52comme beaucoup d'autres,
00:16:53d'abord par curiosité,
00:16:54puis par habitude,
00:16:55puis par automatisme.
00:16:57Ce swipe infini
00:16:58a été plus addictif
00:16:59que tout ce que j'avais connu
00:16:59auparavant.
00:17:00Pendant plus d'un an et demi,
00:17:01j'ai été pris dans ce flux.
00:17:03Ce n'est qu'en entrant
00:17:04dans une période de dépression
00:17:05que j'ai pleinement mesuré
00:17:06la violence de ce système.
00:17:07L'algorithme a amplifié mon état
00:17:09en m'inondant de contenus
00:17:10en lien avec ma détresse.
00:17:12Il savait exactement
00:17:13ce que je ressentais
00:17:13et il me le servait en boucle.
00:17:15Ce qui était un divertissement
00:17:16est devenu un piège
00:17:17et j'ai mis des mois
00:17:18à m'en sortir.
00:17:20Manon, qui a 20 ans aujourd'hui,
00:17:21a commencé à se rendre
00:17:22sur TikTok à 15 ans.
00:17:23Elle dit, je cite,
00:17:24« Lorsque j'ai découvert TikTok,
00:17:25c'était une application
00:17:25pleine de bonne humeur,
00:17:27de créativité,
00:17:28d'humour, de bienveillance.
00:17:29C'était un endroit
00:17:30où on se sentait léger,
00:17:31compris, parfois inspiré.
00:17:33Mais au fil des années,
00:17:34cette atmosphère
00:17:34s'est peu à peu dégradée.
00:17:36Aujourd'hui, TikTok est saturé
00:17:37de contenus violents,
00:17:38dégradants, sexualisés
00:17:40ou tout simplement toxiques.
00:17:41On y voit des vidéos
00:17:42où des personnes sont dénudées,
00:17:44des propos racistes,
00:17:45sexistes, discriminants,
00:17:46des violences verbales
00:17:47ou physiques,
00:17:47souvent tournées en redirision,
00:17:49des tendances qui prônent
00:17:50des standards irréalistes
00:17:51de beauté.
00:17:52Personnellement,
00:17:53le flot constant de contenus
00:17:54centré sur le corps,
00:17:55l'apparence,
00:17:56la compétition sociale
00:17:57m'a profondément affectée.
00:17:58J'ai développé des complexes,
00:17:59une mauvaise image de moi-même
00:18:00et même des idées noires.
00:18:02Ce n'est pas une influence positive,
00:18:03c'est devenu une pression constante.
00:18:05Pierre, qui est aujourd'hui
00:18:07père de deux adolescentes,
00:18:09nous explique
00:18:09« Je vois bien comment TikTok
00:18:10et son écosystème
00:18:11sape la motivation,
00:18:12l'ambition,
00:18:13l'esprit critique de nos filles.
00:18:14Tout est lié.
00:18:15Les publicités pour les vapoteuses,
00:18:16l'hyperconsommation avec Chine,
00:18:18le langage appauvri,
00:18:19les comportements violents,
00:18:20le désintérêt pour l'effort.
00:18:21Elles finissent par vivre
00:18:23par procuration
00:18:23à travers des mises en scène
00:18:25déconnectées du réel.
00:18:27Cela les rend profondément malheureuses.
00:18:28Ce sont, dit-il,
00:18:30des modèles de vie toxiques
00:18:31qui colonisent l'imaginaire de nos enfants.
00:18:33Aurore, elle a 20 ans
00:18:34et voilà ce qu'elle nous raconte.
00:18:35« Je suis passée par une période compliquée
00:18:36après ma cagne, mon hippocagne.
00:18:38TikTok est devenu un endroit
00:18:39où je pouvais éteindre mon cerveau.
00:18:41Je ne voulais pas penser, réfléchir
00:18:42et donc j'avais constamment TikTok
00:18:44devant les yeux.
00:18:45J'ai même des amis
00:18:45qui mettent le défilement automatique
00:18:47pendant qu'ils se brossent les dents. »
00:18:48Sylvie, qui est enseignante
00:18:49dans un collège,
00:18:50explique
00:18:50« Comme mes collègues,
00:18:51je voulais juste faire entendre
00:18:53notre voix pour signaler
00:18:54qu'il est urgent
00:18:55de protéger nos enfants
00:18:56de cette addiction,
00:18:57leurs parents n'étant pas toujours
00:18:58au courant ou conscients
00:18:59de l'emprise de TikTok
00:19:00sur leur façon de penser
00:19:01ou de ne plus penser
00:19:03par eux-mêmes. »
00:19:05Jeanne explique
00:19:05« TikTok a détruit
00:19:06une partie de ma vie.
00:19:08Voir toutes ces filles si belles
00:19:09me faisaient tellement complexier.
00:19:11Voir les jeunes de mon âge sortir,
00:19:12faire tant de choses,
00:19:13je les enviais tellement.
00:19:14Je passais ma nuit dessus,
00:19:16beaucoup, beaucoup de temps.
00:19:17La prise de conscience
00:19:18est difficile,
00:19:18cela requiert de la maturité.
00:19:20Maintenant, j'ai 17 ans,
00:19:21je passe moins de temps
00:19:22dessus la nuit,
00:19:23je me sens mieux dans mon corps.
00:19:24Alors, avec beaucoup de recul,
00:19:25je pense que TikTok
00:19:26devrait être limité
00:19:27à ceux ayant plus de 14 ans,
00:19:30par exemple,
00:19:30mais avec des sessions
00:19:31de discussion en classe
00:19:32à ce propos
00:19:32pour voir leur ressenti,
00:19:34pour leur faire prendre conscience
00:19:35des risques de TikTok.
00:19:37Mathieu a 15 ans.
00:19:39Il explique « Mon avis,
00:19:39je pense que TikTok
00:19:40devrait être supprimé
00:19:41ou limité
00:19:42au moins de 16 ans en France.
00:19:43Tous les jeunes sont sur TikTok,
00:19:44ils sont influencés
00:19:45par ce réseau social.
00:19:46Ils perdent tout leur potentiel
00:19:47à scroller des heures et des heures.
00:19:49Cela nous rend
00:19:49complètement faibles mentalement.
00:19:51Nos relations sociales
00:19:52sont impactées
00:19:53car nos discussions
00:19:53sont fondées sur TikTok
00:19:54grâce au REF.
00:19:56Donc, si tu n'as pas TikTok,
00:19:57ça reste difficile
00:19:58de sociabiliser avec les autres.
00:19:59Aujourd'hui,
00:20:00je vous demande
00:20:00de faire quelque chose
00:20:01de concret
00:20:02sur l'accès limité de TikTok.
00:20:04Nadege,
00:20:04qui est tiktokeuse,
00:20:05elle dit
00:20:06qu'elle est tiktokeuse
00:20:08depuis 5 ans.
00:20:09Elle dit jusqu'à l'il y a 3 ans,
00:20:10TikTok était une plateforme
00:20:11plutôt sympathique,
00:20:12mais depuis 2 ans
00:20:12que l'argent a pris le contrôle,
00:20:14il se passe des choses graves.
00:20:16Blanchiment d'argent,
00:20:17prostitution,
00:20:17doxing,
00:20:18harcèlement,
00:20:19intimidation.
00:20:20Et enfin,
00:20:20Émilie,
00:20:21qui est professeure au collège,
00:20:22nous dit
00:20:22« Nous sommes sur le point
00:20:23de former une génération d'adultes
00:20:24dont la réflexion est réduite à néant.
00:20:27Actuellement,
00:20:27nous ne sommes plus en capacité
00:20:28de former des citoyens
00:20:29face à l'ensemble de ces réseaux.
00:20:31Ils ne deviennent
00:20:31que de simples consommateurs
00:20:32qui, par ailleurs,
00:20:33se dirigent de plus en plus
00:20:34vers des extrêmes
00:20:35tant ils sont influençables
00:20:36et en quête de sens.
00:20:37N'oublions pas
00:20:38que ce sont eux
00:20:39qui feront le monde de demain. »
00:20:42C'est un petit florilège,
00:20:43mais je voulais savoir
00:20:43si vous considériez toujours
00:20:44que votre contenu
00:20:46contribuait au dynamisme
00:20:47de notre société.
00:20:48Bien sûr que ces témoignages
00:20:54sont importants
00:20:55et qu'évidemment,
00:20:57j'imagine qu'ils vont nourrir
00:20:59l'ensemble des recommandations
00:21:01de cette commission.
00:21:04Encore une fois,
00:21:04je pense que le sujet
00:21:06est au-delà du sujet TikTok.
00:21:08Il est sur le sujet
00:21:09de l'usage du digital
00:21:11et du numérique au sens large.
00:21:14Le sujet de la santé mentale
00:21:15est aussi bien au-delà
00:21:16des plateformes,
00:21:16je crois, aujourd'hui.
00:21:19Maintenant,
00:21:20je pense que vous avez reçu
00:21:22ces témoignages
00:21:23et je pense que c'est le rôle
00:21:25aussi de cette commission d'enquête.
00:21:27On a tous les jours
00:21:29des témoignages formidables
00:21:31de créateurs
00:21:33qui nous disent
00:21:34à quel point TikTok les a aidés
00:21:35à justement trouver
00:21:37des communautés pour les soutenir.
00:21:39Comment TikTok les a aidés
00:21:41aussi à créer des business.
00:21:43Et on en a parlé un peu ce matin.
00:21:45La valeur économique,
00:21:46les emplois qui ont été créés
00:21:47grâce à la plateforme,
00:21:49tous les programmes éducatifs.
00:21:51Vous avez eu des créateurs
00:21:52aussi très intéressants.
00:21:55Je pense à M. Lechat
00:21:56qui vous a expliqué aussi
00:21:57comment on pouvait éduquer
00:21:58à travers la plateforme.
00:21:59Donc, je crois qu'il n'y a pas
00:22:01de réponse binaire.
00:22:04Je crois que la réponse
00:22:05est probablement plus complexe.
00:22:07En tout cas, ce que je peux vous dire,
00:22:08c'est que nos équipes
00:22:09sont mobilisées
00:22:10pour créer des contenus
00:22:11qui sont les plus intéressants
00:22:12et ludiques possibles.
00:22:13on a, entre guillemets,
00:22:16un portefeuille de 400 partenaires
00:22:20et 1 000 créateurs
00:22:20qu'on active à l'échelle du pays
00:22:22pour créer un contenu intéressant.
00:22:24C'est ça tout à l'heure,
00:22:25les 1 000 créateurs.
00:22:25Pardon ?
00:22:26Vous nous l'avez déjà dit,
00:22:26les 1 000 créateurs.
00:22:28Je me permets de dire
00:22:29que je vous laisse.
00:22:31Je comprends bien.
00:22:32C'est très intéressant
00:22:33de nous dire ce qui fonctionne.
00:22:35Et en effet, sans doute,
00:22:36beaucoup de choses fonctionnent
00:22:37et il y a des contenus positifs.
00:22:38Nous, ce qui nous intéresse,
00:22:39c'est pourquoi il subsiste
00:22:40autant de contenus négatifs.
00:22:42Et donc, ma question, clairement,
00:22:43c'est est-ce que vous assumez
00:22:45d'avoir une partie de la jeunesse
00:22:47sacrifiée au bénéfice de jeunes
00:22:49qui, eux, vivent en effet bien
00:22:50ce dispositif et cette plateforme ?
00:22:52Remettez votre micro.
00:22:56Merci.
00:22:58Alors, jeunesse sacrifiée,
00:23:00personnellement, je n'y crois pas.
00:23:01Mais encore une fois,
00:23:02je dirais qu'on peut débattre
00:23:05et je pense que ça mérite probablement
00:23:06de longues heures de conversation.
00:23:09On a 25 millions d'utilisateurs
00:23:11en France qui sont engagés
00:23:13chaque mois sur la plateforme.
00:23:15Je pense que, voilà,
00:23:17beaucoup d'entre eux,
00:23:17ils trouvent du divertissement
00:23:20et du plaisir.
00:23:21On a développé beaucoup d'outils.
00:23:23C'est-à-dire que je rappelais tout à l'heure
00:23:25que la plateforme a été lancée
00:23:26en France en 2018.
00:23:27On a développé beaucoup d'outils
00:23:28sur la base d'études.
00:23:31On a travaillé avec des associations,
00:23:33des ONG,
00:23:34qui nous ont permis de faire évoluer
00:23:35les outils qui sont disponibles
00:23:38sur la plateforme
00:23:39pour être plus en maîtrise
00:23:40de son expérience.
00:23:42Donc, TikTok a été la première plateforme
00:23:44à proposer cette limite de 60 minutes
00:23:46de temps d'écran pour les mineurs.
00:23:47On a développé aussi,
00:23:49on a fait évoluer...
00:23:50Désolée, je voulais...
00:23:55Si, je ne suis pas très intéressante.
00:23:57On a développé aussi
00:23:59une adaptation des notifications push.
00:24:05On a sophistiqué les outils
00:24:08de contrôle parental.
00:24:09Aujourd'hui, un parent peut contrôler
00:24:12quasiment absolument toute l'expérience
00:24:15de son enfant, du temps d'écran,
00:24:17au type de personne
00:24:18qui va pouvoir interagir
00:24:19sur ses contenus,
00:24:20laisser des commentaires,
00:24:22personnaliser au jour le jour,
00:24:25les heures,
00:24:25créer des blockouts,
00:24:27bloquer des heures
00:24:28sur lesquelles l'enfant
00:24:30ne pourra absolument pas venir
00:24:31sur la plateforme.
00:24:32Donc, je pense que l'enjeu,
00:24:33il est probablement
00:24:34de continuer à faire savoir
00:24:37et probablement qu'on a la possibilité
00:24:42d'aller plus loin,
00:24:42de continuer à faire savoir
00:24:44et faire connaître
00:24:45ces outils de contrôle parental
00:24:46pour aller plus loin.
00:24:49Merci.
00:24:49Juste une petite...
00:24:50Oui, pardon.
00:24:51Je voulais compléter peut-être
00:24:53pour...
00:24:54Et je vous remercie
00:24:56de nous avoir partagé
00:24:58ces témoignages.
00:25:01Comme disait ma collègue,
00:25:04nous prenons tout témoignage
00:25:05et tout ressenti
00:25:06et nous éduquons aussi
00:25:09parce qu'on est quand même
00:25:10une entreprise relativement jeune.
00:25:12Ce qui s'est passé depuis 2020,
00:25:15on est quand même maintenant
00:25:16dans un cadre juridique
00:25:17vraiment totalement différent
00:25:20grâce au Digital Services Act,
00:25:23donc au DSA,
00:25:24qui est un règlement européen
00:25:26qui est directement applicable
00:25:27en France
00:25:27et dont la France a fait énormément...
00:25:30Enfin, partie de la construction
00:25:31de ce cadre juridique,
00:25:34notamment aussi grâce
00:25:35à M. le commissaire Breton,
00:25:38nous avons mis en place
00:25:39pour l'ensemble du secteur,
00:25:41nous avons des nouvelles règles
00:25:42avec l'ensemble du secteur
00:25:44et nous sommes identifiés
00:25:45comme très grandes plateformes en ligne
00:25:47et dans ce cadre-là,
00:25:49il y a une responsabilité
00:25:50et des obligations
00:25:51assez importantes.
00:25:53Donc, on est plus de 1 000 personnes
00:25:55au sein de la société
00:25:56qui travaillons sur le DSA
00:25:58et nous nous engageons
00:26:00sur l'analyse de risques
00:26:02dits systémiques
00:26:03et sur l'atténuation
00:26:05de ces risques-là.
00:26:06Nous sommes en dialogue permanent
00:26:08avec notre autorité de tutelle
00:26:09qui est la Commission européenne
00:26:10et aussi avec l'autorité des médias
00:26:12Commission Naman
00:26:13qui est en Irlande.
00:26:15Nous travaillons,
00:26:15nous avons des échanges
00:26:16quasiment hebdomadaires
00:26:18avec ces autorités.
00:26:19Donc, en fait,
00:26:20aujourd'hui, on a un cadre
00:26:21et vous le savez très bien
00:26:23et je ne pense rien divulguer,
00:26:25mais il y a des enquêtes en cours aussi
00:26:26qui font qu'il faut laisser
00:26:29un petit peu de temps au droit
00:26:31pour s'adapter,
00:26:32pour s'établir
00:26:33et on n'oublie en aucun cas
00:26:34ces témoignages.
00:26:36Et je ne vais pas répéter
00:26:38les sujets qui ont été établis,
00:26:40mais pour vous donner
00:26:41quelques indications,
00:26:43il n'y a plus de publicité personnalisée
00:26:46pour les personnes âgées
00:26:47entre 13 et 17 ans, par exemple.
00:26:49Donc, ça, c'est vraiment
00:26:50une grande avancée.
00:26:52Donc, on continue
00:26:52et on continuera
00:26:54parce que ces lignes directrices
00:26:55concernant la protection
00:26:56des mineurs
00:26:56qui viennent juste
00:26:57d'être publiées
00:26:58où toute l'industrie
00:27:01oeuvre à ensemble
00:27:03et à établir un cadre
00:27:05et un standard
00:27:06pour l'Europe entière.
00:27:07Donc, c'est très important,
00:27:08en fait,
00:27:09de laisser, en fait,
00:27:10le droit s'appliquer.
00:27:14Alors, je me permets,
00:27:15en effet,
00:27:15de vous évoquer le DSA.
00:27:17Madame Mazur,
00:27:17vous aviez dit
00:27:18lors de votre audition au Sénat,
00:27:20bien entendu,
00:27:20on ne prendra pas de risque
00:27:21sur le respect du RGPD
00:27:23ni du DSA.
00:27:23Tous ces sujets ont forcément
00:27:24été pris en compte.
00:27:25Je vous cite encore,
00:27:26des équipes travaillent
00:27:27depuis plus d'un an
00:27:28sur le sujet du DSA.
00:27:28Nous sommes donc confiants
00:27:30quant à notre capacité
00:27:31à nous conformer
00:27:31à ce règlement
00:27:32au mois d'août.
00:27:33Nous n'avons,
00:27:33à ma connaissance,
00:27:34aucune inquiétude
00:27:35sur la question.
00:27:37Malgré tout,
00:27:38il semble que,
00:27:39deux ans après,
00:27:40vous avez été doublement épinglé
00:27:41le mois dernier
00:27:42pour non-respect du RGPD
00:27:43par l'autorité de protection irlandaise
00:27:45et pour non-respect du DSA
00:27:46par la Commission européenne.
00:27:46J'ai pleinement conscience
00:27:48que ce sont des procédures en cours
00:27:50donc que vous avez évidemment
00:27:51un droit de réponse
00:27:52mais finalement,
00:27:53ça avait l'air si simple
00:27:54en juin 2023,
00:27:56ça ne l'est pas
00:27:57et puis par ailleurs,
00:27:57vous dites à l'instant
00:27:58laisser du temps au droit
00:27:59pour s'adapter.
00:28:00Moi,
00:28:00quand une nouvelle règle
00:28:01est votée,
00:28:03je dois l'appliquer,
00:28:04on ne me donne pas deux ans
00:28:05pour respecter une règle
00:28:06de limitation de vitesse
00:28:07sur l'autoroute par exemple,
00:28:08je dois la mettre en oeuvre,
00:28:09je n'ai pas un temps d'adaptation.
00:28:10Donc comment vous expliquez
00:28:11finalement ce delta
00:28:12entre l'optimisme
00:28:13qui était le vote
00:28:14il y a deux ans
00:28:14et puis la situation aujourd'hui.
00:28:21Effectivement,
00:28:21on a tout mis en oeuvre
00:28:23et on a mis des moyens,
00:28:25on a mis des ressources humaines
00:28:28et on s'est vraiment adapté.
00:28:32On n'est pas les seuls
00:28:33à s'être,
00:28:34comme vous dites,
00:28:35on ne va peut-être pas utiliser
00:28:36le mot se faire épingler
00:28:38parce que les enquêtes
00:28:39sont quand même encore en cours
00:28:40et l'instruction est encore en cours
00:28:41mais effectivement,
00:28:43il y a cette possibilité
00:28:44par la Commission européenne
00:28:45de poser des questions,
00:28:47d'avoir la possibilité
00:28:48d'ouvrir des enquêtes
00:28:49pour avoir davantage
00:28:50de transparence,
00:28:51d'avoir davantage de collaboration.
00:28:52Et en fait,
00:28:53c'est dans ce cadre-là
00:28:54que vraiment,
00:28:55la pleine application
00:28:57du DSA se fait
00:28:58et je crois que
00:29:00M. Breton l'a dit
00:29:01dans son édition,
00:29:02il faut laisser un petit peu
00:29:03de temps aussi
00:29:03pour que ces enquêtes
00:29:05se fassent
00:29:06et ce sont des sujets
00:29:07complexes.
00:29:10Ce ne sont pas seulement
00:29:12des juristes
00:29:12qui travaillent dessus,
00:29:13il y a des personnes,
00:29:15des ingénieurs,
00:29:16des personnes en charge
00:29:17de Trust and Safety,
00:29:18des personnes en charge
00:29:19des politiques internes.
00:29:20Donc,
00:29:21il faut un petit peu de temps
00:29:22pour laisser aussi
00:29:24la Commission européenne
00:29:25faire son travail
00:29:26et appliquer ce règlement.
00:29:28Ce qu'on nous disait,
00:29:29c'est aussi qu'il fallait
00:29:30des procédures les plus solides
00:29:31parce que vous avez
00:29:31des camions d'avocats
00:29:32et donc,
00:29:33il faut être solide
00:29:34en face.
00:29:37Je ne suis pas sûre
00:29:37qu'on soit des camions entiers.
00:29:39Je ne sais pas.
00:29:39Je suis toute seule
00:29:40sur le sujet à Paris.
00:29:42J'ai une petite équipe
00:29:43mais pas sûre
00:29:44qu'on soit des camions.
00:29:45Peut-être que vos équipes
00:29:46ne sont pas suffisantes,
00:29:46je n'en sais rien.
00:29:48On s'adapte.
00:29:56Sur l'amende
00:29:56à laquelle vous avez été
00:29:57condamnée à 530 millions d'euros,
00:30:00sur votre impossibilité
00:30:01de démontrer
00:30:02que les données
00:30:02personnelles des Européens
00:30:03n'étaient pas
00:30:04captées ailleurs
00:30:06et en Chine
00:30:07avec un niveau
00:30:07de protection équivalent,
00:30:09est-ce que vous allez
00:30:10payer l'amende ?
00:30:13Je ne travaille pas
00:30:18sur cette procédure
00:30:19spécifique
00:30:19qui est une procédure
00:30:21dont mes collègues
00:30:22en charge
00:30:22de la protection
00:30:23des données personnelles
00:30:24travaillent sur cette procédure.
00:30:25Je sais que nous avons
00:30:26fait appel
00:30:27de la décision.
00:30:28C'est en cours.
00:30:28C'est encore une instruction
00:30:29en cours.
00:30:30En tout cas,
00:30:31dans le cadre
00:30:32du projet Clover,
00:30:33nous avons mis en place
00:30:34des mesures
00:30:36significatives
00:30:38sur justement
00:30:39la sécurité
00:30:40des données
00:30:40et que ces données
00:30:42soient bien en Europe.
00:30:44Donc,
00:30:44nous continuons
00:30:45à œuvrer
00:30:46dans ce cadre-là.
00:30:50Je me permets,
00:30:51est-ce que le projet Clover
00:30:52vous a été expliqué
00:30:53ou vous souhaitez
00:30:54qu'on vous redonne
00:30:55les grandes lignes ?
00:30:58Vous pouvez développer.
00:31:05En fait,
00:31:05le principe
00:31:06de ce projet
00:31:07qui porte le nom
00:31:08de projet Clover,
00:31:09c'est un principe
00:31:10de souveraineté numérique.
00:31:11C'est-à-dire,
00:31:12l'idée
00:31:12est de créer
00:31:14une enclave numérique
00:31:15avec les données
00:31:17personnelles
00:31:18des utilisateurs.
00:31:19Donc,
00:31:19le même projet,
00:31:21vous l'avez probablement
00:31:21vu dans la presse,
00:31:22aux États-Unis,
00:31:24le projet portait
00:31:25le nom de projet
00:31:25de Texas
00:31:26avec en fait
00:31:28une sécurisation
00:31:29des données
00:31:30sur le territoire américain.
00:31:32En Europe,
00:31:33la même ambition
00:31:34a été portée
00:31:35avec un budget
00:31:35qui a été validé
00:31:38de 12 milliards
00:31:39d'investissements
00:31:39pour sécuriser
00:31:41ces données.
00:31:42Donc,
00:31:42ça veut dire
00:31:42concrètement
00:31:43ouvrir des data centers
00:31:44en Europe
00:31:45pour localiser
00:31:47les données personnelles
00:31:48en Europe.
00:31:49Donc,
00:31:49le travail est en cours.
00:31:50Un certain nombre
00:31:50de data centers
00:31:51ont été ouverts
00:31:52à Dublin,
00:31:52en Finlande,
00:31:54en Norvège.
00:31:56Et donc,
00:31:57ce travail est fait
00:31:57évidemment
00:31:58en toute transparence.
00:32:00On l'a discuté
00:32:01avec toutes les autorités
00:32:03compétentes
00:32:03et on est
00:32:04entre guillemets
00:32:05très innovants
00:32:07en la matière
00:32:07puisque
00:32:07aucune autre plateforme
00:32:10n'est allée aussi loin.
00:32:12Et pour prouver
00:32:12notre bonne foi,
00:32:13on travaille
00:32:13avec un tiers de confiance
00:32:14qui s'appelle
00:32:15NCC
00:32:15NCC
00:32:16qui valide
00:32:18toutes les procédures
00:32:19de transfert
00:32:21de données.
00:32:22Donc,
00:32:22c'est un projet
00:32:23extrêmement ambitieux
00:32:24qui montre
00:32:25notre engagement
00:32:26et notre volonté
00:32:27d'aller encore plus loin
00:32:29et plus loin
00:32:30que la référence
00:32:32du marché
00:32:32entre guillemets
00:32:33en termes de sécurisation
00:32:34des données.
00:32:34C'est une forme
00:32:35de reconnaissance implicite
00:32:36qu'aujourd'hui
00:32:37les données
00:32:37ne sont pas encore
00:32:38assez sécurisées
00:32:38et pas assez
00:32:39souveraines
00:32:40au sens localisé
00:32:42sur le continent européen.
00:32:45Ce projet
00:32:45n'est pas abouti.
00:32:48Aujourd'hui,
00:32:49à l'heure actuelle,
00:32:50ce projet
00:32:50n'est pas encore abouti.
00:32:52On peut considérer
00:32:53qu'il y a encore
00:32:55un sujet
00:32:55sur la protection
00:32:56des données.
00:32:56Non,
00:32:57en fait,
00:32:58les données
00:32:59aujourd'hui
00:32:59NCC,
00:33:00le contrat
00:33:00est en place.
00:33:01Donc,
00:33:01le contrat
00:33:02aujourd'hui
00:33:03est opéré
00:33:04ce qui se passe
00:33:06c'est que
00:33:06les données
00:33:07sont hébergées
00:33:08dans des pays
00:33:10avec lesquels
00:33:11l'Europe
00:33:12a des accords.
00:33:14En l'occurrence,
00:33:15on a les Etats-Unis,
00:33:18Singapour
00:33:19et donc
00:33:21les données
00:33:22sont sécurisées
00:33:23dans des pays
00:33:24qui ont des accords
00:33:26avec la Commission européenne.
00:33:27Maintenant,
00:33:28une grosse partie
00:33:29des données
00:33:30ont été transférées
00:33:31vers ces nouveaux
00:33:32data centers.
00:33:33maintenant,
00:33:34le transfert
00:33:34prend du temps
00:33:35et sera
00:33:37probablement
00:33:37finalisé bientôt.
00:33:38Mais si vous souhaitez
00:33:39qu'on rentre
00:33:40dans le détail,
00:33:41c'est extrêmement technique,
00:33:42donc pardonnez-moi,
00:33:43je ne suis pas forcément
00:33:45la meilleure experte,
00:33:45mais on peut tout à fait
00:33:47organiser
00:33:48une session d'échange
00:33:50où vous transférez
00:33:51des éléments
00:33:52par écrit
00:33:52sur la mise en œuvre
00:33:55du projet Clover
00:33:57et son exécution.
00:33:58Mais en tout cas,
00:33:59sachez qu'il va plus loin
00:34:00que ce que nous impose
00:34:02la norme.
00:34:06Merci beaucoup.
00:34:07Peut-être qu'on peut passer,
00:34:09on a beaucoup,
00:34:09vous savez,
00:34:10des questions à vous poser
00:34:11et qui reflètent finalement
00:34:12beaucoup les témoignages
00:34:13que je vous ai lus tout à l'heure.
00:34:14Le sujet qui revient,
00:34:15c'est le sujet
00:34:16de l'algorithme
00:34:17très spécifique à TikTok,
00:34:18l'algorithme de recommandation.
00:34:20Est-ce que vous pourriez
00:34:21peut-être
00:34:21nous le décrire
00:34:23et évoquer peut-être
00:34:24ce que des jeunes évoquent,
00:34:25c'est-à-dire l'enfermement
00:34:26un peu dans une espèce
00:34:27de bulle avec des contenus
00:34:29qui sont parfois favorables ?
00:34:30En effet,
00:34:31lorsqu'on est passionné
00:34:32de voile ou de football,
00:34:33on peut tomber
00:34:33sur beaucoup de contenus
00:34:34liés à ça.
00:34:35Mais lorsque malheureusement
00:34:36on s'est arrêté un peu
00:34:37sur une vidéo triste
00:34:38qui évoquait
00:34:40une peine amoureuse
00:34:42ou quelque chose comme ça,
00:34:42on est très vite
00:34:43enfermé là-dedans
00:34:44et dans des vidéos
00:34:44qui démontrent ça.
00:34:45Est-ce que vous pouvez
00:34:46nous expliquer
00:34:46et peut-être nous dire
00:34:47s'il y a une spécificité
00:34:48pour les mineurs ?
00:34:51Alors,
00:34:52le principe,
00:34:52effectivement,
00:34:53de TikTok,
00:34:54c'est d'être
00:34:54une plateforme
00:34:55qui propose du contenu
00:34:58basé sur des centres
00:34:59d'intérêt.
00:35:00Donc effectivement,
00:35:01la différence peut-être
00:35:02avec d'autres plateformes
00:35:03qui seraient plus connues
00:35:06ou en tout cas
00:35:07sur le marché
00:35:07depuis plus longtemps,
00:35:08c'est qu'on ne va pas
00:35:10vous proposer
00:35:11des contenus
00:35:12sur la base
00:35:13de vos connexions
00:35:15ou de vos amis.
00:35:16On vous propose
00:35:16des contenus
00:35:17sur la base
00:35:17de ce que vous consommez
00:35:19sur la plateforme.
00:35:20Donc par exemple,
00:35:21un utilisateur A
00:35:24qui aimerait
00:35:25un contenu
00:35:261 et 2
00:35:28et un utilisateur B
00:35:33qui aimerait
00:35:34un contenu
00:35:351 et 2,
00:35:36si l'utilisateur 2,
00:35:37il aime aussi
00:35:38le troisième contenu,
00:35:40on va se dire
00:35:41que peut-être
00:35:41le premier utilisateur,
00:35:43parce qu'il a aimé
00:35:44deux contenus
00:35:45comme l'utilisateur 2,
00:35:48pardon,
00:35:48je ne suis peut-être
00:35:49pas très claire,
00:35:49mais en tout cas,
00:35:50si deux utilisateurs
00:35:51ont regardé
00:35:53des contenus similaires
00:35:54et si le deuxième
00:35:56utilisateur regarde
00:35:57un troisième contenu,
00:35:58on va pouvoir suggérer
00:35:59au premier utilisateur
00:36:00ce même contenu
00:36:01parce qu'on va assumer
00:36:02le fait qu'ils ont
00:36:03les mêmes centres d'intérêt.
00:36:05Donc en fait,
00:36:05l'algorithme,
00:36:06il est basé
00:36:06sur une préférence
00:36:07de contenu
00:36:08et donc,
00:36:10c'est sur cette base-là
00:36:11qu'on va vous recommander
00:36:12du contenu.
00:36:14Donc,
00:36:14je regarde
00:36:15un contenu
00:36:16cinéma
00:36:17et foot
00:36:18et un contenu
00:36:19livre.
00:36:20Si Marie
00:36:21a regardé
00:36:22un contenu
00:36:23cinéma
00:36:23et foot,
00:36:25on va se dire
00:36:25peut-être
00:36:26qu'elle est aussi
00:36:26intéressée
00:36:27par le contenu
00:36:27livre.
00:36:28Donc ça,
00:36:28c'est le principe
00:36:29du fonctionnement
00:36:30de l'algorithme,
00:36:31c'est de vous proposer
00:36:32des contenus
00:36:33qui, a priori,
00:36:34vous intéressent.
00:36:36On a évidemment
00:36:38ensuite
00:36:39des enjeux
00:36:40sur des contenus
00:36:41que l'on va considérer
00:36:42comme sensibles
00:36:43qui peuvent être
00:36:44classifiés
00:36:45comme matures,
00:36:46par exemple.
00:36:48Ces contenus
00:36:48vont bénéficier
00:36:51d'une règle
00:36:51de classification
00:36:52qui va faire
00:36:54que ces contenus
00:36:54ne seront pas
00:36:55proposés aux mineurs.
00:36:56Donc,
00:36:57ils peuvent être
00:36:58classés
00:36:59comme non recommandés,
00:37:01donc ils ne seront
00:37:01pas proposés aux mineurs
00:37:02et ils peuvent
00:37:03ne pas apparaître
00:37:04aussi dans des flux
00:37:04pour toi
00:37:05qui est le flux
00:37:06qui est le plus consommé
00:37:07sur la plateforme.
00:37:09Donc ça,
00:37:09c'est un point
00:37:09extrêmement important.
00:37:11Et puis ensuite,
00:37:11on a un principe
00:37:12de dispersion des contenus,
00:37:14c'est-à-dire que
00:37:14des contenus
00:37:15que l'on peut considérer
00:37:15comme sensibles,
00:37:18on va s'assurer
00:37:19que dans l'expérience
00:37:20du flux pour toi,
00:37:21ces contenus
00:37:22ne sont pas répétés
00:37:23à la suite
00:37:23de façon
00:37:25à ne pas créer
00:37:25de bulles
00:37:26et de ne pas créer
00:37:28d'enfermements.
00:37:31Je vais compléter
00:37:32sur les mesures
00:37:33de sécurité
00:37:34qui ont été renforcées
00:37:36pour les jeunes utilisateurs
00:37:37notamment.
00:37:38Donc effectivement,
00:37:39il y a beaucoup
00:37:39de contenus
00:37:40qui ne sont visibles
00:37:41que par des adultes
00:37:42et qui est donc
00:37:44lorsqu'on est
00:37:45un mineur,
00:37:46on ne verra
00:37:46que des contenus
00:37:47qui sont visionnables
00:37:51pour tous.
00:37:52Et le contenu
00:37:53créé par des personnes
00:37:54de moins de 16 ans
00:37:54n'est pas éligible
00:37:55aux recommandations
00:37:56du système
00:37:57de classification.
00:37:58Donc ils ne vont pas être
00:38:00dans le fil
00:38:02pour toi.
00:38:03Et donc on oeuvre
00:38:05à avoir énormément
00:38:06de transparence
00:38:07en termes
00:38:08de notre système
00:38:09de recommandation.
00:38:10d'ailleurs,
00:38:11pour revenir au DSA,
00:38:12il y a une obligation
00:38:13de transparence.
00:38:14Donc en fait,
00:38:14tous les signaux,
00:38:17tout ce qui compte,
00:38:19donc combien de temps
00:38:19passé sur une certaine vidéo,
00:38:21si on a aimé une vidéo,
00:38:23pourquoi est-ce qu'on voit
00:38:24une vidéo,
00:38:24tout ça,
00:38:24il y a beaucoup
00:38:25de transparence
00:38:25qui sont disponibles
00:38:27sur notre site
00:38:28et sur comment ces signaux
00:38:30peuvent être intégrés
00:38:31dans les algorithmes
00:38:33derrière les systèmes
00:38:34de recommandation.
00:38:35Donc on essaye
00:38:36d'avoir de plus en plus
00:38:36de transparence là-dessus
00:38:38et de plus en plus aussi
00:38:39d'éducation effectivement.
00:38:41Mais il y a vraiment
00:38:42des pare-feux
00:38:43concernant les mineurs.
00:38:48Si je peux me permettre
00:38:49d'ajouter aussi,
00:38:51il y a des outils
00:38:52sur la plateforme,
00:38:53notamment un mode
00:38:54qui s'appelle
00:38:54le mode restreint
00:38:55qui permet de s'assurer
00:38:56qu'effectivement,
00:38:58on n'est pas exposé
00:38:59aux contenus
00:38:59peut-être les plus complexes.
00:39:03Donc on peut utiliser
00:39:03aussi cette fonctionnalité.
00:39:05On peut aussi filtrer
00:39:06les contenus
00:39:07qu'on souhaite voir
00:39:08on a la possibilité
00:39:09sur la plateforme
00:39:10d'expliquer
00:39:13le type de contenu
00:39:14qu'on a le plus envie
00:39:15de voir.
00:39:16Donc vous pouvez gérer
00:39:16dans vos préférences
00:39:17de contenu
00:39:18si vous avez envie
00:39:19de voir plus de sport,
00:39:20si vous avez envie
00:39:21de voir plus de sujets
00:39:22culturels.
00:39:23Vous avez aussi
00:39:23la possibilité
00:39:24de changer les paramètres
00:39:25au sein de l'application.
00:39:27Donc aujourd'hui,
00:39:28beaucoup de fonctionnalités
00:39:29sont disponibles
00:39:29pour, entre guillemets,
00:39:31personnaliser son expérience.
00:39:33Alors on va parler
00:39:34un peu de mise en avant
00:39:35par l'algorithme
00:39:36avec des règles éditoriales.
00:39:39Madame Taillepoyant
00:39:40a une question là-dessus.
00:39:41Merci Monsieur le Président.
00:39:42Merci Mesdames.
00:39:44C'est vrai qu'on est toujours
00:39:44dans cette espèce
00:39:45de paradoxe
00:39:46entre ce que vous dites
00:39:48de TikTok,
00:39:50un lieu sûr
00:39:50où la créativité
00:39:52s'épanouit
00:39:52et puis ce qu'on voit
00:39:53quand on allume
00:39:55l'application.
00:39:56On n'a pas l'impression
00:39:56forcément d'être
00:39:57toujours en sûreté
00:39:58dans un lieu
00:39:59où la créativité
00:40:00s'épanouit.
00:40:01Mais en tout état de coup,
00:40:02je suis très attentive
00:40:03à ce que vous dites
00:40:03sur la question
00:40:04des recommandations
00:40:05et notamment
00:40:06de la classification
00:40:06non recommandée,
00:40:08ce qui fait que ça n'arrive
00:40:09pas dans le fil
00:40:10pour toi.
00:40:11Mais est-ce que
00:40:12ce ne serait pas logique
00:40:15d'inverser justement
00:40:16cette logique ?
00:40:18Vous avez parlé Madame
00:40:19de partenariats
00:40:20avec notamment
00:40:21des médias,
00:40:21Le Monde, etc.
00:40:22Ce sont très nombreux
00:40:23à essayer de trouver
00:40:25des formats
00:40:25qui puissent correspondre
00:40:27à TikTok
00:40:28et aux utilisateurs
00:40:30et utilisatrices
00:40:30de TikTok.
00:40:31Mais pour la jeunesse
00:40:32spécifiquement,
00:40:33ne serait-il pas
00:40:34de bonne alloi ?
00:40:36Ne serait-il pas
00:40:37pour arriver
00:40:38à cet environnement sûr
00:40:39de faire des recommandations
00:40:41éducatives ?
00:40:42Vous avez même parlé
00:40:43de certains programmes
00:40:44qui finalement relèvent
00:40:45quasiment de l'éditorialisation.
00:40:48Mais pour les jeunes,
00:40:50afin d'éviter justement
00:40:51la boucle
00:40:52des centres d'intérêt
00:40:54qui finit par être
00:40:56toujours les mêmes,
00:40:57d'avoir une visée éducative
00:40:59avec un certain nombre
00:41:00de contenus
00:41:01qui peuvent être labellisés.
00:41:03Et là, je pense
00:41:04à la proposition
00:41:05de Reporteurs sans frontières
00:41:06sur le GTI
00:41:07pour dire,
00:41:08il y a des labels
00:41:09où certains médias
00:41:11offrent des garanties
00:41:12de sécurité
00:41:13et d'information.
00:41:14Et ceux-là,
00:41:15quand ils sont adaptés
00:41:15à la jeunesse,
00:41:16on va les proposer
00:41:18dans les fils
00:41:19pour toi aux jeunes,
00:41:20même s'ils n'ont jamais
00:41:21finalement regardé
00:41:24un contenu
00:41:25qui pourrait correspondre.
00:41:26Est-ce que là,
00:41:27on sort un peu du défensif,
00:41:29mais l'avenir
00:41:30de ces plateformes,
00:41:31c'est peut-être aussi
00:41:32justement d'être
00:41:33en proposition
00:41:34avec des partenaires
00:41:35qui soient fiables
00:41:37et dont on se les n'est sûrs
00:41:40sans avoir besoin
00:41:40de passer par mille machines
00:41:42de vérification
00:41:43de sûreté des contenus
00:41:44que ce qu'ils vont proposer
00:41:46est intéressant,
00:41:50intelligent
00:41:50et sécure
00:41:52pour nos enfants
00:41:53et nos jeunes.
00:41:55Absolument.
00:41:56Je pense que c'est
00:41:57effectivement
00:41:58entre guillemets
00:41:58le sens de l'histoire.
00:42:00On a aujourd'hui,
00:42:01je vous parlais
00:42:02du programme
00:42:02Apprendre sur TikTok,
00:42:03on a 70 ambassadeurs
00:42:05qui créent du programme
00:42:07éducatif
00:42:08en utilisant ce hashtag
00:42:10Apprendre sur TikTok
00:42:11et qui nous permet
00:42:12entre guillemets
00:42:13de faire émerger
00:42:14ce contenu éducatif
00:42:15plus facilement.
00:42:16Je ne sais pas
00:42:16si vous l'avez vu,
00:42:17mais ces contenus
00:42:18portent pour certains
00:42:19le label officiel
00:42:20qui leur permet
00:42:21de leur donner
00:42:23une forme de caution
00:42:23supplémentaire.
00:42:25Donc, c'est aussi
00:42:27tout le travail éditorial
00:42:28qu'on peut faire
00:42:29aujourd'hui.
00:42:30Je parlais d'Apprendre
00:42:31sur TikTok,
00:42:32on a avec 70 ambassadeurs
00:42:34parmi évidemment
00:42:35les plus grands médias
00:42:35en France,
00:42:36on a S'informer
00:42:38sur TikTok
00:42:38avec lesquels
00:42:39on travaille avec
00:42:40tout un tas de partenaires,
00:42:42évidemment la FP,
00:42:43mais le Monde
00:42:44et tant d'autres
00:42:45qui vont aussi aider
00:42:47à développer
00:42:48l'esprit critique.
00:42:49et aujourd'hui
00:42:51on a évidemment
00:42:53nécessairement
00:42:54parce que même si
00:42:55la raison d'être
00:42:57de la plateforme
00:42:58est divertir,
00:42:59on a une réalité
00:43:00qui est que
00:43:01les événements
00:43:05que l'on vit
00:43:06dans notre société
00:43:07sont commentés
00:43:08sur la plateforme.
00:43:10Donc, cela veut dire
00:43:11qu'on doit
00:43:12collectivement,
00:43:13je pense,
00:43:14toutes les plateformes,
00:43:15travailler à éduquer
00:43:16à cet esprit critique.
00:43:17C'est ce qu'on a fait
00:43:19avec l'AFP,
00:43:20on a travaillé
00:43:21une campagne
00:43:21là-dessus
00:43:22au mois de novembre 2024
00:43:23pour créer des ressources
00:43:25pour expliquer
00:43:26effectivement
00:43:27comment on décode
00:43:28des vidéos
00:43:29d'intelligence artificielle,
00:43:30comment on décode
00:43:32des fake news,
00:43:33comment voilà.
00:43:33Donc, on a cet enjeu
00:43:35de continuer
00:43:35à travailler là-dessus
00:43:36et puis de continuer
00:43:37effectivement
00:43:38à faire émerger
00:43:39sur les sujets
00:43:40d'actualité
00:43:41plutôt les partenaires
00:43:43reconnus.
00:43:45Donc, c'est la direction
00:43:46évidemment
00:43:47que l'on prend
00:43:48et pour ça,
00:43:50on a besoin
00:43:50que les médias
00:43:51s'engagent.
00:43:52Aujourd'hui,
00:43:52on a une base solide
00:43:53de 250 médias
00:43:54et notre travail
00:43:55au quotidien
00:43:56est de leur expliquer
00:43:57qu'effectivement,
00:43:57c'est une audience
00:43:58intéressante,
00:43:59utile
00:43:59et que collectivement,
00:44:00on a une responsabilité
00:44:01à créer du contenu
00:44:02intéressant,
00:44:04utile
00:44:04et véridique.
00:44:08Je vais juste compléter
00:44:10peut-être
00:44:10avec une expérience
00:44:11personnelle.
00:44:13Il y a une,
00:44:13on va dire,
00:44:14une trend sur TikTok
00:44:15qui s'appelle BookTok
00:44:16où il y a des,
00:44:19en fait,
00:44:19c'est beaucoup
00:44:21de critiques littéraires
00:44:22qui parlent de littérature
00:44:24qui est excellent
00:44:25et qui a été repris
00:44:26partout en Europe.
00:44:29Voilà,
00:44:29donc c'est ce genre
00:44:30de trend positives
00:44:31qui sont mises en avant,
00:44:34qui sont vraiment positives
00:44:36et culturellement
00:44:38très intéressantes.
00:44:39La question,
00:44:41c'était,
00:44:41est-ce que vous les
00:44:42recommandez,
00:44:44même si l'algorithme
00:44:45qui définit
00:44:47les centres d'intérêt
00:44:48ne le ferait pas ?
00:44:51Vous voyez,
00:44:51c'est-à-dire,
00:44:52est-ce que vous les poussez
00:44:53ou est-ce que vous attendez
00:44:54qu'ils soient poussés
00:44:55par...
00:44:56Parce que si tel est le cas,
00:44:58ça restera toujours aux marges.
00:44:59La question,
00:45:00c'est comment les faire
00:45:01émerger
00:45:02par directement
00:45:03l'algorithme
00:45:04qui les fait émerger
00:45:07dans les fils.
00:45:09Vous avez différents outils
00:45:12et effectivement,
00:45:14là on va rentrer
00:45:14en être un peu plus technique
00:45:15sur les outils
00:45:17que l'on a à disposition
00:45:18au sein de l'application.
00:45:20On a,
00:45:20je peux prendre l'exemple
00:45:21de Roland-Garros
00:45:24par exemple
00:45:24ou alors l'exemple
00:45:25de Paris 2024
00:45:26ou même du Festival de Cannes.
00:45:29Quand on travaille
00:45:29en fait sur des événements
00:45:30de cette ampleur,
00:45:32on développe
00:45:33ce qu'on appelle
00:45:33un search hub.
00:45:35Ce search hub
00:45:36permet d'adresser
00:45:37en fait de façon qualitative
00:45:38toutes les requêtes
00:45:40qui vont être faites
00:45:40au sein de l'application
00:45:42sur une thématique
00:45:43en particulier.
00:45:45Sur le Festival de Cannes,
00:45:45on avait un search hub
00:45:46Festival de Cannes
00:45:47qui permettait
00:45:48de faire émerger
00:45:48de façon très structurée
00:45:50sur une page
00:45:51très bien construite
00:45:55les contenus officiels.
00:45:56donc les contenus du Festival,
00:45:58les contenus du diffuseur,
00:46:01les contenus des studios
00:46:02et ça,
00:46:03cela permet d'adresser
00:46:04un certain nombre
00:46:05de requêtes
00:46:05spécifiquement
00:46:07sur des grands événements
00:46:09qui nous paraissent importants
00:46:10et qui sont
00:46:10des grands carrefours
00:46:11d'audience.
00:46:12Donc,
00:46:13on le met en place
00:46:14en général
00:46:14pour les grands événements
00:46:16culturels
00:46:17et sportifs.
00:46:19Dans le cadre
00:46:19d'Apprendre sur TikTok,
00:46:20vous avez,
00:46:22si vous faites
00:46:22la requête
00:46:23du hashtag
00:46:23Apprendre sur TikTok
00:46:24sur la plateforme,
00:46:26vous avez
00:46:26une page dédiée
00:46:28où vous allez voir
00:46:29apparaître
00:46:29des contenus
00:46:30qui sont labellisés
00:46:31officiels.
00:46:32Le fait qu'ils soient
00:46:33labellisés officiels
00:46:34leur donne cette caution
00:46:35qui permet
00:46:35un meilleur engagement
00:46:36naturel
00:46:37et qui permet
00:46:37de les faire émerger
00:46:38sur la plateforme.
00:46:40On a aussi
00:46:40tout le travail
00:46:41des partenaires.
00:46:42Quand on a 70 partenaires
00:46:43qui sont engagés
00:46:43sur Apprendre sur TikTok,
00:46:46ça veut dire
00:46:46que ces partenaires,
00:46:47ils travaillent
00:46:47à créer du contenu éducatif
00:46:48qui est intéressant
00:46:50et qui crée
00:46:51de l'engagement.
00:46:52Il n'y a pas
00:46:53entre guillemets
00:46:53de façon
00:46:54d'abuser
00:46:58du système.
00:46:59C'est-à-dire
00:46:59qu'en fait,
00:46:59nos utilisateurs
00:47:01sont très intelligents
00:47:02et ils vont
00:47:02regarder les contenus
00:47:04qu'ils trouvent
00:47:05engageants.
00:47:06Donc en fait,
00:47:07on est toujours
00:47:07dans une recherche
00:47:09de qualité,
00:47:10d'histoire.
00:47:10Il faut que le contenu
00:47:11soit intéressant.
00:47:12Si le contenu
00:47:12n'est pas intéressant,
00:47:14il n'est pas vu.
00:47:15Donc je dirais
00:47:16que notre enjeu
00:47:16n'est pas de pousser
00:47:18des contenus
00:47:19pour des contenus.
00:47:19Notre enjeu
00:47:20est d'utiliser
00:47:22ces carrefours
00:47:22d'audience
00:47:23pour pousser
00:47:23des contenus utiles.
00:47:25Je peux vous donner
00:47:25un exemple.
00:47:26On a travaillé
00:47:26avec France Inter
00:47:27par exemple
00:47:27sur le sujet
00:47:29de l'astronomie
00:47:30et on a créé
00:47:31la rencontre
00:47:32entre un créateur
00:47:33qui s'appelle
00:47:33Zebrolos
00:47:34qui a créé un contenu
00:47:36hyper intéressant
00:47:36qui est allé visiter
00:47:37la radio
00:47:39de France Inter
00:47:40et qui a créé
00:47:41un contenu
00:47:41sur l'astronomie
00:47:42hyper intéressant
00:47:43qui a fait
00:47:44quasiment
00:47:44un million de vues.
00:47:46Et c'est ça
00:47:47notre travail.
00:47:48C'est nous assurer
00:47:48que sur des sujets
00:47:49un peu complexes
00:47:51on travaille
00:47:53avec les médias
00:47:54mais on travaille
00:47:54aussi avec des créateurs
00:47:55qui peuvent raconter
00:47:57cette histoire
00:47:57de façon
00:47:58je dirais
00:47:58adaptée
00:48:00à l'audience.
00:48:02Et voilà
00:48:03on a un travail
00:48:04aussi
00:48:04d'éducation
00:48:06en permanence
00:48:06des créateurs
00:48:07des personnalités publiques.
00:48:08Je parlais
00:48:09de l'astronomie
00:48:09Thomas Pesquet
00:48:10est venu
00:48:11sur la plateforme
00:48:12les équipes
00:48:13l'ont
00:48:13dans notre jargon
00:48:14unboardé
00:48:15donc lui ont
00:48:16présenté la plateforme
00:48:17lui ont présenté
00:48:18les bonnes pratiques
00:48:19et aujourd'hui
00:48:20il publie un contenu
00:48:21qui est absolument
00:48:22passionnant
00:48:22sur la plateforme
00:48:23pour tous
00:48:24les passionnés
00:48:25d'astronomie.
00:48:27Donc
00:48:27on n'aura jamais fini
00:48:29évidemment
00:48:29on peut toujours
00:48:31aller plus loin
00:48:31on peut toujours
00:48:32faire mieux
00:48:32mais il y a
00:48:34effectivement
00:48:34un travail colossal
00:48:35des équipes
00:48:36dans chaque pays
00:48:37pour créer
00:48:38des contenus
00:48:39qui nous paraissent
00:48:41utiles
00:48:41sérieux
00:48:42et qualitatifs.
00:48:43Je me permets
00:48:44de rebondir
00:48:44sur BookTok
00:48:45il y a eu
00:48:47un certain nombre
00:48:47d'articles
00:48:49d'enquêtes
00:48:50sur BookTok
00:48:52et notamment
00:48:53sur le fait
00:48:54je vous cite
00:48:54un témoignage
00:48:55d'une créatrice
00:48:57très active
00:48:58sur la tendance
00:48:58aujourd'hui
00:49:00on ne trouve
00:49:01quasiment
00:49:02tout le temps
00:49:02des triggers
00:49:03and warnings
00:49:03on prévient les gens
00:49:04qu'il y a des thèmes
00:49:04compliqués
00:49:05BookTok a évolué
00:49:07je vois clairement
00:49:08la différence
00:49:08et notamment
00:49:10sur le fait
00:49:10que c'est
00:49:11beaucoup
00:49:12de dark romance
00:49:12qui serait
00:49:14sur ce type
00:49:15de contenu
00:49:16BookTok
00:49:16qui mettrait
00:49:18en scène
00:49:18des relations
00:49:19hyper sexualisées
00:49:21parfois
00:49:21des rapports
00:49:22d'inceste
00:49:23etc
00:49:23voilà
00:49:25est-ce que c'est
00:49:26ça le BookTok
00:49:27dont vous parlez ?
00:49:30alors
00:49:30absolument pas
00:49:32absolument pas
00:49:34c'est une
00:49:34alors BookTok
00:49:35c'est une histoire
00:49:36qui est née
00:49:36de la plateforme
00:49:37en 2020
00:49:38comme l'a dit
00:49:39Marie tout à l'heure
00:49:40c'est une tendance
00:49:41alors
00:49:41on n'a pas nous
00:49:42la capacité
00:49:43à influencer
00:49:43des tendances
00:49:44c'est-à-dire
00:49:44la communauté
00:49:45va décider
00:49:45de quels sont
00:49:46les sujets
00:49:46dont ils ont envie
00:49:47de s'emparer
00:49:47la communauté
00:49:49BookTok
00:49:49est née
00:49:49naturellement
00:49:50sur la plateforme
00:49:51des passionnés
00:49:52de livres
00:49:52et comme je l'expliquais
00:49:53tout à l'heure
00:49:54la plateforme
00:49:55c'est une somme
00:49:55de micro communautés
00:49:56qui se passionnent
00:49:57pour des sujets
00:49:57la communauté
00:49:58BookTok
00:49:59a accru
00:49:59de façon exponentielle
00:50:01extrêmement vite
00:50:02pour partager
00:50:03effectivement
00:50:03des moments
00:50:05de lecture
00:50:05des extraits
00:50:07des façons
00:50:09de vivre
00:50:10ou d'exprimer
00:50:11sa passion
00:50:11pour tel ou tel
00:50:12environnement
00:50:12aujourd'hui
00:50:14je vous invite
00:50:14à interroger
00:50:16les maisons d'édition
00:50:16qui peuvent témoigner
00:50:20de l'impact
00:50:20de BookTok
00:50:21sur le succès
00:50:23en librairie
00:50:23c'est-à-dire
00:50:24qu'aujourd'hui
00:50:25BookTok
00:50:25ça permet
00:50:25de donner
00:50:26une deuxième vie
00:50:27à certains titres
00:50:28ça permet
00:50:29effectivement
00:50:30parce que les auteurs
00:50:32vont raconter
00:50:33aussi l'histoire
00:50:33vont donner
00:50:34des coulisses
00:50:34vont expliquer
00:50:35l'intention
00:50:36derrière chaque livre
00:50:36vont donner envie
00:50:38de découvrir
00:50:39cette oeuvre
00:50:41au même titre
00:50:43qu'aujourd'hui
00:50:43dans le monde
00:50:43de la musique
00:50:44c'est absolument
00:50:45le cas
00:50:46c'est-à-dire
00:50:46qu'en fait
00:50:47les artistes
00:50:48utilisent la plateforme
00:50:49pour raconter
00:50:50leur univers
00:50:51pour donner
00:50:51à comprendre
00:50:52l'histoire
00:50:53derrière une oeuvre
00:50:55donc BookTok
00:50:56c'est ça
00:50:56BookTok
00:50:57c'est une communauté
00:50:58de passionnés de livres
00:50:59qui partagent
00:51:00ces moments de lecture
00:51:01sur des oeuvres
00:51:03littéraires
00:51:03classiques
00:51:04comme plus modernes
00:51:04Vous analysez
00:51:05ces tendances
00:51:06et l'évolution
00:51:06parce que les utilisateurs
00:51:08eux-mêmes le perçoivent
00:51:08il y a quand même
00:51:09beaucoup d'articles
00:51:10c'est quoi pour vous
00:51:11les tendances
00:51:12les trending tendances
00:51:13parce que vous avez
00:51:13l'IA
00:51:14qui on nous l'a dit ce matin
00:51:16permet d'analyser
00:51:17un peu les évolutions
00:51:18et d'orienter
00:51:18peut-être les maisons d'édition
00:51:19sur ce qui marche
00:51:20ou ce qui ne marche pas
00:51:20est-ce que la dark romance
00:51:22fait partie de ce qui cartonne ?
00:51:24La dark romance fonctionne
00:51:25bien sûr
00:51:25mais aujourd'hui
00:51:26par exemple
00:51:27ce qui est intéressant
00:51:28c'est
00:51:28et encore une fois
00:51:30je ne suis pas directrice
00:51:31d'édition
00:51:31mais ce que nous expliquent
00:51:34les directeurs d'édition
00:51:35c'est que ce qui les intéresse
00:51:36c'est d'identifier
00:51:37des créateurs
00:51:38qui performent
00:51:39sur TikTok
00:51:41et pour développer
00:51:43leur contenu
00:51:44et leurs livres
00:51:44vous avez
00:51:45Polo le Sportix
00:51:46qui est un expert
00:51:48de sport
00:51:49qui fait des contenus
00:51:49hyper intéressants
00:51:50autour du sport
00:51:51qui décode
00:51:51les grands événements
00:51:52qui a été publié récemment
00:51:54vous avez des chefs
00:51:56qui effectivement
00:51:57grâce au succès
00:51:58rencontré sur la plateforme
00:51:59aujourd'hui
00:52:00qui remplissent leurs restaurants
00:52:01ont des listes d'attentes
00:52:02et qui sont
00:52:03dont les recettes
00:52:04sont éditées en livre
00:52:06c'est juste
00:52:07que
00:52:08évidemment il y a ces communautés
00:52:10et attention
00:52:10nous on ne nie pas
00:52:11qu'il y a
00:52:12du positif
00:52:14on est
00:52:14en fait
00:52:14vous l'avez bien vu
00:52:15dans la manière
00:52:15dont on mène
00:52:16cette commission d'enquête
00:52:17on n'est absolument pas
00:52:18manichéen
00:52:18on n'a pas nié
00:52:20disons qu'il puisse y avoir
00:52:23des effets positifs
00:52:23en termes d'accès à l'information
00:52:24en termes d'accès à la culture
00:52:26du réseau
00:52:27mais en fait nous là
00:52:28on est en train d'essayer
00:52:29de voir ce qui peut avoir
00:52:30des effets négatifs
00:52:32sur les mineurs
00:52:32et là en l'occurrence
00:52:34il y a des jeunes
00:52:34qui peuvent être choqués
00:52:36par certains contenus
00:52:37extrêmement explicites
00:52:38qui peuvent se trouver
00:52:39mis en valeur
00:52:40dans cette tendance
00:52:41book talk
00:52:41dont vous disiez
00:52:42tant de bien tout à l'heure
00:52:43je ne sais pas
00:52:44je vous invite à regarder
00:52:45le compte de Valentine
00:52:46et son compte
00:52:47c'est en toutes lettres
00:52:48vous prenez des exemples
00:52:50est-ce que vous reconnaissez
00:52:52qu'il peut y avoir
00:52:52aussi ça à côté
00:52:54franchement
00:52:56sur ce sujet book talk
00:52:57je veux bien prendre
00:52:59toutes les critiques possibles
00:53:00mais sur ce sujet book talk
00:53:02c'est tellement une belle histoire
00:53:03c'est une histoire formidable
00:53:05où les maisons d'édition
00:53:06sont très heureuses
00:53:08de ce qui s'est passé
00:53:08sur la plateforme
00:53:09vous avez des créateurs
00:53:11qui créent des moments de lecture
00:53:15qui vont créer des moments
00:53:17de rencontres avec leur communauté
00:53:19qui vont donner envie
00:53:21de relire des grands classiques
00:53:23donc je crois qu'il ne faut pas
00:53:24opposer les mondes
00:53:25je crois qu'aujourd'hui
00:53:26l'audience sur TikTok
00:53:27elle permet de recréer du lien
00:53:29et on a aussi
00:53:31grâce au phénomène book talk
00:53:34des retours
00:53:35des créations aussi
00:53:37d'expérience cinéma
00:53:39du book to screen
00:53:40vous avez plein d'histoires
00:53:42autour de ça
00:53:42de succès book talk
00:53:44qui font des succès
00:53:46de cinéma
00:53:48et de séries
00:53:48donc je crois que c'est
00:53:50plutôt globalement
00:53:51une très belle communauté
00:53:52et voilà
00:53:55sur book talk
00:53:56je trouve que c'est
00:53:59une très belle histoire
00:53:59alors je prends un article
00:54:01du temps par exemple
00:54:02les dark romances
00:54:03remportent un grand succès
00:54:04en librairie
00:54:04tout comme en ligne
00:54:05sur TikTok en particulier
00:54:07l'engouement pour ces histoires
00:54:08de la part de jeunes filles
00:54:08entre 12 et 15 ans
00:54:09interpelle en raison
00:54:11de leur contenu sexuellement
00:54:11explicité et violent
00:54:12les récits mettent en scène
00:54:13des relations amoureuses toxiques
00:54:14mais majoritairement
00:54:15hétérosexuelles
00:54:16et souvent situées
00:54:17dans l'univers interlope
00:54:18du crime organisé
00:54:19la soumission
00:54:19à l'emprise
00:54:20de nos viols
00:54:20sont des termes
00:54:21récurrents
00:54:23voilà
00:54:23donc c'est de ça
00:54:25dont je parle
00:54:26et ça c'est présent
00:54:27donc est-ce que vous avez
00:54:27une action
00:54:28via l'algorithme
00:54:30pour essayer
00:54:30de rendre un peu
00:54:32moins visible
00:54:33ces sujets là
00:54:34est-ce que vous agissez
00:54:36en fait sur l'algorithme
00:54:37vous avez aussi
00:54:37des succès
00:54:38comme
00:54:38femme de ménage
00:54:40vous avez des succès
00:54:41de poèmes
00:54:42vous avez des succès
00:54:43c'est-à-dire qu'en fait
00:54:43la dark romance
00:54:44n'est pas exclusive
00:54:45en fait sur la plateforme
00:54:46et non on ne manipule pas
00:54:48l'algorithme sur booktok
00:54:49c'est la communauté
00:54:50qui va effectivement décider
00:54:52de quels sont les sujets
00:54:53et les thématiques de livres
00:54:54qui sont intéressantes
00:54:57mais du coup ça pose
00:54:59enfin cet algorithme là
00:55:01pose un vrai sujet
00:55:02parce que finalement
00:55:03quand on vous entend
00:55:03et quand on va sur tiktok
00:55:05ce qui est
00:55:06ce qui fonctionne
00:55:07avec l'algorithme
00:55:08ça n'est pas
00:55:09nos intentions profondes
00:55:11c'est ce qui capte
00:55:12notre attention
00:55:13et c'est quand même
00:55:14une différence majeure
00:55:15c'est-à-dire
00:55:16je me promène
00:55:17pour reprendre
00:55:17la métaphore de la voiture
00:55:18je roule sur l'autoroute
00:55:20il y a un accident
00:55:20qui s'est produit
00:55:21je vais regarder
00:55:23comme n'importe qui
00:55:25qu'on soit enfant ou adulte
00:55:26parce qu'en fait
00:55:26notre curiosité
00:55:27sur le moment
00:55:28nous pousse à regarder
00:55:28ça n'est pas du tout
00:55:29mon intention profonde
00:55:31je ne suis pas intéressée
00:55:32par voir un accident
00:55:34en revanche
00:55:34voilà mon attention
00:55:36va être captée
00:55:37parce qu'il y a
00:55:37un carambolage
00:55:38et parce que
00:55:38je vais regarder
00:55:39et donc l'algorithme
00:55:41tient compte de ça
00:55:42et ne tient pas compte
00:55:42de notre véritable intention
00:55:44est-ce qu'il n'y a pas
00:55:44quand même
00:55:45un sujet évident
00:55:47sur cet algorithme
00:55:48qui pousse en effet
00:55:49peut-être certains
00:55:51à être entourés
00:55:52de contenus
00:55:52qu'ils aiment
00:55:53mais qui pousse aussi
00:55:54beaucoup d'autres
00:55:55à être finalement pris
00:55:56dans une boucle
00:55:57de contenus
00:55:58qu'ils n'apprécient
00:55:59finalement pas au fond
00:56:00et qui peut nuire
00:56:01à leur santé mentale
00:56:02puisque c'est le cœur
00:56:03de notre sujet
00:56:03je vous remercie
00:56:06pour votre question
00:56:07et c'est une question
00:56:08clé justement
00:56:09que la commission européenne
00:56:12est en train de regarder
00:56:12dans le cadre
00:56:13des enquêtes en cours
00:56:14la question des systèmes
00:56:18de recommandation
00:56:19est une question
00:56:20relativement nouvelle
00:56:20on est sur un point
00:56:22où les algorithmes
00:56:24et c'est de l'intelligence
00:56:25artificielle
00:56:26cela
00:56:26a une évolution
00:56:29assez rapide
00:56:30donc nous on a vraiment
00:56:32une politique de transparence
00:56:33comme je vous ai expliqué
00:56:34de ces systèmes
00:56:35de recommandation
00:56:35et aussi
00:56:36alors à la fois
00:56:37on peut
00:56:38l'utilisateur
00:56:40peut ne pas avoir
00:56:41de personnalisation
00:56:42du tout
00:56:42donc c'est un fil
00:56:44très générique
00:56:45avec du contenu général
00:56:47donc ça va être
00:56:48sur ce qui se passe
00:56:49en France aujourd'hui
00:56:52donc on a parlé
00:56:52de Roland-Garros
00:56:53du festival de Cannes
00:56:55ça peut être
00:56:56la fête de la musique aussi
00:56:57par contre
00:56:58si on veut vraiment
00:56:59personnaliser
00:57:00son flux
00:57:01on peut le réactualiser
00:57:03par exemple
00:57:04donc si je vois
00:57:05des choses
00:57:06qui sont
00:57:06par exemple
00:57:07beaucoup de tennis
00:57:08je veux regarder
00:57:09autre chose
00:57:10à un moment donné
00:57:10je retape sur
00:57:12une fonction
00:57:13c'est réinitialiser
00:57:15son flux
00:57:15et ça réinitialise
00:57:17en fait
00:57:17l'algorithme
00:57:18vous avez parlé
00:57:19de cette notion
00:57:20d'avoir du contenu
00:57:22répétitif
00:57:22on a des systèmes
00:57:23de dispersion
00:57:24précis
00:57:25et je ne vais pas
00:57:27rentrer dans les détails
00:57:28de nos systèmes
00:57:29de dispersion
00:57:30mais il y a des systèmes
00:57:31de dispersion
00:57:31qui existent
00:57:32pour qu'effectivement
00:57:34on ne voit pas
00:57:35le même contenu
00:57:36à répétition
00:57:37et qu'on ne tombe pas
00:57:38dans cette bulle
00:57:39et spécifiquement
00:57:40pour justement
00:57:41les personnes
00:57:43en dessous de 18 ans
00:57:44donc
00:57:45et je
00:57:46pour recadrer
00:57:47tout ça
00:57:48dans le
00:57:48digital service
00:57:49dans le
00:57:50DSA
00:57:50je pense qu'on peut
00:57:52continuer à évoluer
00:57:54et d'ailleurs
00:57:55les lignes directrices
00:57:56de la protection
00:57:59des mineurs
00:57:59il y a
00:58:00toute une partie
00:58:01sur ces systèmes
00:58:02de recommandations
00:58:02sur cette transparence
00:58:03de systèmes
00:58:04de recommandations
00:58:04on a envoyé
00:58:05nos observations
00:58:06je pense qu'on peut
00:58:07aller encore plus loin
00:58:07et
00:58:08effectivement
00:58:10c'est un effort
00:58:12de secteur
00:58:14voilà
00:58:15est-ce qu'il y aura
00:58:16plus de standards
00:58:17est-ce qu'il y aura
00:58:18encore plus de transparence
00:58:19nous on oeuvre à ça
00:58:21avec les autorités
00:58:22européennes
00:58:23mais alors juste
00:58:27pour aller dans votre sens
00:58:28on a eu
00:58:29enfin pour aller dans votre sens
00:58:29pour continuer sur ce sujet là
00:58:31un jeune est venu
00:58:32à témoigner
00:58:33il y a quelques semaines
00:58:34et il nous expliquait
00:58:35qu'en fait
00:58:36il passait toutes ses soirées
00:58:37il était un peu plus âgé
00:58:39qu'il était mineur
00:58:39mais il était plus âgé
00:58:40que sa petite soeur
00:58:41à toutes ses soirées
00:58:42à nettoyer le fil
00:58:44de sa petite soeur
00:58:45en mettant
00:58:45pas intéressé
00:58:46pas intéressé
00:58:46sur le contenu
00:58:47qu'il estimait problématique
00:58:48pour sa soeur
00:58:48et qu'il était obligé
00:58:49de renouveler l'opération
00:58:50le lendemain
00:58:51et le surlendemain
00:58:52est-ce à dire
00:58:53finalement que
00:58:54la mise à jour
00:58:57finalement
00:58:58des contenus
00:58:58ne fonctionne pas
00:59:01c'est à dire
00:59:01est-ce que
00:59:02du jour au lendemain
00:59:03on est obligé de refaire
00:59:03la même chose
00:59:04alors que normalement
00:59:04l'algorithme est censé
00:59:05quand même s'adapter
00:59:06à ce qu'on lui dit
00:59:07et à ce qu'on lui fait sentir
00:59:08comme centre d'intérêt
00:59:09je pense
00:59:12je ne connais pas
00:59:13cet exemple
00:59:13en particulier
00:59:14ça mériterait probablement
00:59:15qu'on regarde
00:59:17en détail
00:59:18mais en tout cas
00:59:19ce qui est intéressant
00:59:20c'est qu'aujourd'hui
00:59:21à travers le mode
00:59:22connexion famille
00:59:23vous avez la possibilité
00:59:25de filtrer des mots-clés
00:59:26et ces mots-clés
00:59:27restent
00:59:27c'est à dire que
00:59:28si vous supprimez
00:59:29un certain nombre de mots-clés
00:59:30parce que vous jugez
00:59:30que ces mots
00:59:31appellent des contenus
00:59:33qui vous paraissent inappropriés
00:59:34vous pouvez les inscrire
00:59:35vous pouvez inscrire
00:59:36les mêmes mots-clés
00:59:37dans les commentaires
00:59:37vous pouvez activer
00:59:38le mode restreint
00:59:39vous pouvez faire
00:59:40vraiment tout un tas de choses
00:59:42dans le mode connexion famille
00:59:43donc je dirais
00:59:44qu'au-delà
00:59:44de faire un refresh
00:59:46et de réadapter
00:59:47entre guillemets
00:59:49de réannuler
00:59:50cette personnalisation
00:59:51de contenu
00:59:52ça me semble plus pertinent
00:59:54d'utiliser
00:59:54le mode connexion famille
00:59:55en détail
00:59:57ce matin
00:59:59on a entendu
01:00:00le nombre de modérateurs
01:00:01un peu la façon
01:00:01dont ça fonctionnait
01:00:03donc on va pas
01:00:04vous reposer
01:00:04les mêmes questions
01:00:05puisqu'on a eu
01:00:06en partie
01:00:07en tout cas des réponses
01:00:08la question c'est que
01:00:10vous le savez forcément
01:00:11aujourd'hui
01:00:12malgré la modération
01:00:13il y a
01:00:14beaucoup de moyens
01:00:15contournés
01:00:16avec des mots-clés
01:00:17qui arrivent
01:00:18et qui ne permettent pas
01:00:19forcément
01:00:20de modérer
01:00:21parfaitement
01:00:21tous les contenus
01:00:22je voulais donc savoir
01:00:24si vous avez
01:00:24conscience de ça
01:00:26et si vous mettiez
01:00:26à votre avis
01:00:27les moyens nécessaires
01:00:29pour pouvoir
01:00:29parer
01:00:30à toutes ces façons
01:00:32dont notamment
01:00:33les jeunes
01:00:33détournent finalement
01:00:35avec des hashtags
01:00:35avec des lettres en moins
01:00:36qui sont remplacées
01:00:37par des émoticônes
01:00:38etc
01:00:39comment vous réagissez
01:00:40est-ce que vous pensez
01:00:41que votre modération
01:00:42elle est à la hauteur
01:00:43aussi de tous ces moyens
01:00:44qui sont effectués
01:00:45pour contourner
01:00:46je vais prendre
01:00:49effectivement vous avez
01:00:51vous avez entendu
01:00:52déjà beaucoup de réponses
01:00:53de nos collègues
01:00:54ce matin
01:00:54donc comme vous savez
01:00:55on supprime tous les contenus
01:00:56légaux en vertu
01:00:57de la loi locale
01:00:57mais aussi de notre
01:00:58de nos règles communautaires
01:01:01lorsqu'ils nous sont signalés
01:01:02mais aussi par des méthodes
01:01:03donc d'algorithmes
01:01:05et tous les contenus
01:01:07sont modérés
01:01:09donc lorsque les contenus
01:01:11sont
01:01:11enfreignent nos règles
01:01:13nous les
01:01:14nous les enlevons
01:01:15et effectivement
01:01:16alors là vous avez
01:01:18un point particulier
01:01:19sur ce sujet
01:01:20de détournement
01:01:21de certains hashtags
01:01:23de certaines notions
01:01:24je crois que parfois
01:01:25ça peut s'appeler
01:01:26l'algo speak
01:01:26on met des hashtags
01:01:28à la place de
01:01:29ou des zéros
01:01:30à la place du haut
01:01:31on est en permanence
01:01:33en train de rééduquer
01:01:34on va dire
01:01:35nos algorithmes
01:01:37sur ce sujet
01:01:38avec les nouveaux éléments
01:01:40que nous avons
01:01:41et donc on est
01:01:43tout le temps en train
01:01:43de modérer la plateforme
01:01:45de scruter la plateforme
01:01:46et avec
01:01:47avec ces éléments
01:01:49que nous intégrons
01:01:50à l'algorithme
01:01:50mais dans ce cas
01:01:54comment est-ce que
01:01:54vous expliquez
01:01:55par exemple
01:01:55qu'aujourd'hui
01:01:56si je tape
01:01:57dans la recherche
01:01:57scarification
01:01:58en mettant un C
01:01:59au lieu du T
01:01:59à la fin
01:02:00j'obtienne
01:02:01des éléments
01:02:02de scarification
01:02:03comment
01:02:03madame a fait le test
01:02:05tout à l'heure
01:02:05ma collègue
01:02:06comment vous expliquez
01:02:06que par exemple
01:02:07alors qu'on le sait
01:02:08maintenant
01:02:08depuis pas mal de temps
01:02:10que le zèbre
01:02:10nous conduise
01:02:12en mettant un petit zèbre
01:02:13ça vous conduit
01:02:13vers des contenus
01:02:14de scarification
01:02:14que malgré
01:02:15la connaissance
01:02:16assez générale
01:02:17de cela
01:02:18on tombe encore dessus
01:02:19pour ne prendre
01:02:20que ces deux exemples
01:02:21écoutez
01:02:25c'est un travail
01:02:26continu
01:02:26et je pense
01:02:27que c'est des éléments
01:02:28sur lesquels
01:02:28on va
01:02:29on va en reparler
01:02:30avec nos équipes
01:02:31et on va
01:02:32on va ramener
01:02:33ces sujets
01:02:33bien évidemment
01:02:34et pour le zèbre
01:02:36par exemple
01:02:36est-ce que c'est
01:02:37vous aviez
01:02:38entendu parler
01:02:38de ce zèbre
01:02:40oui alors
01:02:44je ne voudrais pas
01:02:46parler à la place
01:02:46de nos équipes
01:02:47modération
01:02:48mais je dirais
01:02:50que plus largement
01:02:52peut-être
01:02:52ce qui est
01:02:53en tout cas
01:02:54ce qu'on a compris
01:02:55de la façon
01:02:56dont on opère
01:02:57cette modération
01:02:58c'est qu'on réagit
01:02:59aussi à la création
01:03:01à la taille
01:03:01de la communauté
01:03:02qui va publier
01:03:03sur un hashtag
01:03:04un hashtag
01:03:04entre guillemets
01:03:05il ne veut rien dire
01:03:06si on n'a pas
01:03:07un certain nombre
01:03:07de contenus
01:03:08et de vues associées
01:03:09donc en fait
01:03:10quand on voit
01:03:11un hashtag
01:03:11qui commence
01:03:12à devenir
01:03:13quelque chose
01:03:13une communauté
01:03:14qui grandit
01:03:15sur une thématique
01:03:16qui potentiellement
01:03:17peut être problématique
01:03:18c'est là
01:03:19où on va aller
01:03:20aussi loin
01:03:21que supprimer
01:03:21le hashtag
01:03:22le zèbre
01:03:23en tant que tel
01:03:23vous avez des contenus
01:03:26et je imagine
01:03:26que vous alliez y venir
01:03:28sur du skinny talk
01:03:29par exemple
01:03:29vous avez aussi
01:03:31des personnes
01:03:32et qui nous ont
01:03:33des créateurs
01:03:34qui nous ont contacté
01:03:35en nous disant
01:03:36c'est un vrai sujet
01:03:37on a envie de faire
01:03:38des contenus éducatifs
01:03:38là dessus
01:03:39et que quand
01:03:39on cherche
01:03:41un contenu skinny talk
01:03:43on trouve des contenus
01:03:44positifs
01:03:45qui expliquent
01:03:46qu'il faut
01:03:47faire attention
01:03:48le fait de supprimer
01:03:49le hashtag
01:03:50ça veut dire
01:03:50que toutes les ressources
01:03:51entre guillemets
01:03:52et les vidéos
01:03:52bienveillantes
01:03:53qui permettent
01:03:54d'éveiller les consciences
01:03:55on ne peut plus les trouver
01:03:56sauf si
01:03:57on supprime
01:03:58les vidéos problématiques
01:03:58et on ne laisse
01:03:59que les bonnes vidéos
01:04:00oui
01:04:01sauf qu'à un moment donné
01:04:02c'est ce que je vous dis
01:04:03quand la taille
01:04:03de la communauté
01:04:04et c'est ce qui est arrivé
01:04:05sur skinny talk
01:04:05où il a fallu
01:04:06effectivement
01:04:07supprimer le hashtag
01:04:08pour qu'aucune recherche
01:04:09ne soit possible
01:04:10parce qu'effectivement
01:04:11la communauté
01:04:12grandissait autour
01:04:12de cette problématique
01:04:13et qu'en discussion
01:04:15avec les associations
01:04:16les ONG
01:04:17etc.
01:04:17on a décidé
01:04:18d'aller aussi loin
01:04:19que ça
01:04:19en réalité
01:04:21ce qu'il faut regarder
01:04:23c'est le nombre
01:04:23de publications
01:04:24sur un hashtag
01:04:25le nombre de vues
01:04:25sur un hashtag
01:04:26pour définir
01:04:27si il est réellement
01:04:28problématique
01:04:29maintenant le terme
01:04:30scarification
01:04:31il n'y a pas de débat
01:04:31il est problématique
01:04:32et d'ailleurs
01:04:33il est interdit
01:04:34dans nos règles
01:04:34et alors le zèbre
01:04:35nous on nous l'a signalé
01:04:37il y a un mois
01:04:37à peu près
01:04:38dans les auditions
01:04:39et je crois même
01:04:41que j'avais dit
01:04:42si vous nous regardez
01:04:43TikTok
01:04:43pensez à supprimer
01:04:44enfin en tout cas
01:04:45voilà
01:04:46et aujourd'hui
01:04:47quand on cherche le zèbre
01:04:48on trouve
01:04:49des contenus
01:04:51des contenus
01:04:53problématiques
01:04:53donc c'est vrai que
01:04:55on va reparler
01:04:57tout à l'heure
01:04:57mais on va vous montrer
01:04:59les contenus
01:04:59on les a signalés
01:05:00ils nous ont pas été
01:05:03on n'a pas obtenu
01:05:04gain de cause
01:05:05sur la modération
01:05:06voilà
01:05:06donc
01:05:07je me permets
01:05:11de compléter
01:05:11toujours sur ce même thème
01:05:12vous indiquez
01:05:12vous avez indiqué
01:05:13dans les réponses
01:05:14à notre questionnaire
01:05:15que lorsqu'un utilisateur
01:05:16recherche
01:05:17des contenus liés
01:05:18au suicide
01:05:18ou à l'automutilation
01:05:19les résultats de recherche
01:05:20sont bloqués
01:05:21et des numéros
01:05:22d'appel d'urgence
01:05:22sont indiqués
01:05:23c'est effectivement
01:05:24ce qu'on remarque
01:05:25pour les recherches
01:05:25suicides
01:05:26ou scarifications
01:05:27voilà
01:05:28on vous a
01:05:29enfin vous le savez
01:05:30mais on vous montre
01:05:31quand même
01:05:32cependant
01:05:32comment est-ce que vous justifiez
01:05:34que pour la recherche
01:05:35je veux mourir
01:05:36elle ne donne lieu
01:05:37à aucun blocage
01:05:38ni aucun message
01:05:38de prévention
01:05:39vous le voyez
01:05:41pareil
01:05:42comment justifiez-vous
01:05:43que la recherche
01:05:43j'ai envie de mourir
01:05:45ne donne lieu
01:05:45à aucun blocage
01:05:46aucun message
01:05:46de prévention
01:05:47comment vous justifiez
01:05:48que la recherche
01:05:49je veux me pendre
01:05:50ne donne lieu
01:05:50à aucun blocage
01:05:51et aucun message
01:05:52de prévention
01:05:53et comment vous justifiez
01:05:55par ailleurs
01:05:55que la recherche
01:05:56comment se pendre
01:05:57ne donne lieu
01:05:57à aucun blocage
01:05:58et puis dans un autre style
01:05:59dirons-nous comment juste-y-vous que la recherche
01:06:01« Mes parents me battent » ne donne lieu à aucun blocage
01:06:03ou aucun message de prévention.
01:06:10Pardon. Alors,
01:06:12je n'ai pas de réponse à vous donner
01:06:13aujourd'hui sur ces points.
01:06:16Si vous voulez bien, on reprend
01:06:17ces points en détail, peut-être dans un questionnaire
01:06:19par écrit, et on revient vers vous
01:06:21sur ces éléments,
01:06:23et sur ces points avec nos équipes de modération.
01:06:27Voilà, non...
01:06:29Si je peux me permettre de compléter,
01:06:32ce qui est
01:06:34important, c'est effectivement de regarder
01:06:36la nature même du contenu.
01:06:38C'est-à-dire qu'en fait,
01:06:39ces mots sont problématiques, et
01:06:41probablement qu'on peut
01:06:43évidemment faire cette recommandation
01:06:46et remonter cette recommandation qu'une ressource
01:06:48soit affichée
01:06:49avant les vidéos.
01:06:52Maintenant, la façon dont l'équipe de
01:06:53modération travaille, c'est contenu par
01:06:55contenu. Donc parfois,
01:06:57vous avez aussi des vidéos
01:06:59qui apparaissent
01:07:01suite à une recherche qui est
01:07:03potentiellement problématique, mais le contenu en lui-même
01:07:05ne l'est pas. Donc je pense que
01:07:07ça nécessite de regarder ces quatre vidéos
01:07:09et de regarder
01:07:11si ça parle réellement du sujet
01:07:13lié à la recherche.
01:07:16Je crois que là, la question était...
01:07:18Par exemple,
01:07:19mes parents me battent.
01:07:22Premier truc, c'est de l'humour,
01:07:24etc. Bon, on pourrait dire que c'est de l'humour,
01:07:26mais mes parents me battent. C'est aussi un appel
01:07:28à l'aide. Là, quand je tape sur Google,
01:07:30comment se pendre ? Premier résultat,
01:07:32être disponible, numéro national de prévention
01:07:34du suicide. Donc en fait,
01:07:35vous êtes capables de le faire. On l'a vu
01:07:38pour Skinitalk. Pourquoi vous le faites
01:07:40pas ? Puisqu'on sait que TikTok devient notamment
01:07:42pour des jeunes un moteur de recherche
01:07:43pour toutes ces questions liées
01:07:46au mal-être ?
01:07:50Je pense que c'est...
01:07:52Entre guillemets...
01:07:53Enfin, encore une fois, ça n'engage que moi.
01:07:56Je prends le point. Je pense que c'est un bon point
01:07:57de discussion, de se dire effectivement
01:07:59comment on peut continuer à aller plus loin
01:08:01sur les ressources
01:08:03liées aux requêtes.
01:08:07Voilà. Je pense que c'est hyper important
01:08:09quand même de remettre dans le contexte
01:08:10que les contenus potentiellement
01:08:12ne sont pas problématiques.
01:08:13Et s'ils n'ont pas été modérés,
01:08:14c'est qu'a priori, ils ne le sont pas.
01:08:18Et je pense que, voilà,
01:08:19il faut regarder vidéo par vidéo
01:08:23et le cas échéant, les signaler.
01:08:27Mais ces ressources existent.
01:08:28Donc effectivement, c'est assez facile
01:08:29de les lier à ces requêtes.
01:08:31Et vous voyez là, par exemple,
01:08:33sur les quatre qui sont affichées,
01:08:34il y en a une, c'est marqué
01:08:35trois manières de se suicider
01:08:37avec un dollar remplaçant le S de suicide,
01:08:39sans douleur.
01:08:41Vous voyez, c'est quand même problématique.
01:08:44Et ça, on n'a pas non plus
01:08:45fait beaucoup de recherches pour ça.
01:08:48Enfin, c'est les premiers résultats
01:08:50qui ressortent.
01:08:50C'est le top.
01:08:51C'est ce que vous mettez en avant.
01:08:52J'ai très envie de prendre mon téléphone
01:08:53et de regarder.
01:08:55Allez-y.
01:08:55Mais je vais vous faire confiance.
01:08:56Non, mais allez-y.
01:08:57Allez-y.
01:08:57Parce que nous, on a fait ça.
01:08:59Et peut-être que vous n'avez pas
01:09:01le même algorithme,
01:09:01mais ça serait intéressant.
01:09:04Nous, on l'a fait.
01:09:05Ces captures-là,
01:09:05c'était avec un compte mineur
01:09:06ou pas, c'est celle-là ?
01:09:08Non ?
01:09:08Non, c'est pas mal.
01:09:09Avec un compte mineur classique.
01:09:12Déjà, moi, je n'ai pas le
01:09:14comment se pendre
01:09:14qui apparaît sur mon flux.
01:09:17J'ai comment se pendre
01:09:18les cheveux sans gants,
01:09:19comment se pendre la barbe,
01:09:21comment se pendre ce...
01:09:22Comment se pendre sur Spiderman.
01:09:26Donc, en fait,
01:09:27je pense qu'en fait,
01:09:28il y a nécessité peut-être
01:09:29de re-regarder encore une fois
01:09:32vidéo par vidéo
01:09:33à ce qui apparaît
01:09:35sur les interfaces.
01:09:45Oui, oui, mais en effet,
01:09:46il y a les suggestions,
01:09:47mais on vous demandait juste
01:09:48de taper la phrase
01:09:49in extenso,
01:09:50comment se pendre ?
01:09:51Point.
01:09:52Vous voyez ce que je veux dire ?
01:09:52Parce qu'en effet,
01:09:53sinon, ça peut suggérer autre chose.
01:09:54Mais je voulais juste vous montrer
01:09:55parce que tout à l'heure,
01:09:56je vous ai évoqué
01:09:58la question de la scarification
01:09:59lorsqu'on change une lettre.
01:10:00Je voulais juste...
01:10:01Je pense que ça peut arriver après.
01:10:02Je voulais juste vous montrer
01:10:03les sujets scarification.
01:10:06Vous les verrez ?
01:10:07Voilà.
01:10:08Donc, scarification,
01:10:09quand on met un C,
01:10:11même chose,
01:10:12voilà, difficile de justifier.
01:10:14J'imagine que la recherche
01:10:15scarification,
01:10:16si vous remplacez les A
01:10:17par un 4,
01:10:18qui est similaire,
01:10:19aucun blocage
01:10:20et pas de message de prévention.
01:10:22Et puis, sur le zèbre,
01:10:24en effet,
01:10:24on tombe sur des contenus
01:10:25de scarification.
01:10:28C'est ce qu'on a déjà signalé,
01:10:29en effet,
01:10:30lorsqu'on a reçu
01:10:31les membres du collectif
01:10:31Algos Victima,
01:10:32il y a maintenant un mois
01:10:34et qui ne fait toujours pas
01:10:36aujourd'hui l'objet
01:10:37d'une modération
01:10:39ou d'un message
01:10:40de sensibilisation.
01:10:41Et autre question,
01:10:43peut-être,
01:10:43comment vous expliquez
01:10:44qu'après quelques recherches
01:10:45sur le thème de la santé mentale,
01:10:47lorsqu'on tape comment,
01:10:48pour le coup,
01:10:49ça rejoint ce que vous avez
01:10:49essayé de faire.
01:10:50Donc, on a tapé santé mentale,
01:10:52on est tombé sur des contenus
01:10:53sur la santé mentale.
01:10:54quand on cherche comment,
01:10:55dans la barre de recherche,
01:10:56les suggestions,
01:10:57les premières,
01:10:57c'est comment se scarifier.
01:10:58Je n'ai pas de réponse
01:11:11à cette question.
01:11:14Encore une fois,
01:11:15je pense que ça mérite
01:11:16qu'on regarde ça en détail.
01:11:19Maintenant,
01:11:20ce qui est certain,
01:11:20c'est que le sujet
01:11:21de la scarification
01:11:22est interdit
01:11:24dans nos règles communautaires,
01:11:25donc est modéré
01:11:26par les contenus.
01:11:27les premiers éléments,
01:11:28d'ailleurs,
01:11:28les premières vidéos
01:11:28que vous avez montrées
01:11:29sur la scarification,
01:11:31me semblaient être
01:11:31plutôt des contenus positifs
01:11:32pour sensibiliser.
01:11:34En tout cas,
01:11:34dans la nature,
01:11:35dans les messages
01:11:35qui étaient portés,
01:11:37ça semblait plutôt être des...
01:11:38Tu veux dire qu'il peut y avoir
01:11:39quand même une volonté
01:11:39de mise en avant
01:11:40de certains contenus ?
01:11:41Non, ce que je dis,
01:11:43c'est que les contenus
01:11:43qui étaient montrés
01:11:45semblaient justement expliquer
01:11:47pourquoi ce n'était pas
01:11:48une bonne chose.
01:11:49Donc, je dirais
01:11:49qu'un mot-clé en lui-même
01:11:51ne présage pas
01:11:52de la négativité absolue
01:11:56de l'ensemble
01:11:56des contenus
01:11:57qui y sont liés.
01:12:00Et c'est la raison
01:12:00pour laquelle
01:12:01nos règles communautaires
01:12:02s'appliquent contenu
01:12:03par contenu.
01:12:07Dans ce cas-là,
01:12:07si un mot-clé
01:12:08en tant que tel,
01:12:09vous dites,
01:12:09bon, ça dépend un peu
01:12:10de ce qu'on peut y trouver,
01:12:11pourquoi vous avez
01:12:11censuré suicide ?
01:12:16Scarification l'est aussi
01:12:17à ma connaissance.
01:12:18Donc, là, on est sur des mots
01:12:22qui...
01:12:22Là, vous avez scarification ici.
01:12:23Ah non, c'est
01:12:24sacrification, par exemple.
01:12:26Sacrification.
01:12:28Aide de changer.
01:12:31Donc, en fait,
01:12:31il faut effectivement,
01:12:33on doit continuer
01:12:34à faire évoluer
01:12:34à faire évoluer
01:12:36effectivement
01:12:36le...
01:12:37je dirais,
01:12:39le travail de modération
01:12:40sur chacun des hashtags.
01:12:41et les outils
01:12:43nous permettent
01:12:44d'identifier
01:12:45quand les communautés
01:12:46autour d'un hashtag
01:12:47commencent à devenir
01:12:48des communautés significatives
01:12:50et qui présentent un problème.
01:12:51Et vous avez, par exemple,
01:12:52je ne sais pas
01:12:53combien de contenus
01:12:53sont associés
01:12:54à scarification.
01:12:58Voilà,
01:12:59potentiellement,
01:12:59vous en avez quatre
01:13:00et potentiellement,
01:13:00les contenus en eux-mêmes
01:13:01ne sont pas problématiques.
01:13:03Donc, c'est compliqué pour moi
01:13:05de vous répondre
01:13:05sans regarder les vidéos, en fait.
01:13:08Est-ce que ce n'est pas
01:13:08quatre de trous ?
01:13:09Encore une fois,
01:13:11je ne sais pas
01:13:11si ces vidéos sont...
01:13:12Il faut que ça devienne
01:13:13significatif.
01:13:15Est-ce que...
01:13:17On peut peut-être
01:13:18y aller tout de suite.
01:13:19Nous, on a pris
01:13:20Emoticône Zèbre.
01:13:24Voilà.
01:13:25Emoticône Zèbre.
01:13:28C'est la vidéo.
01:13:39Voilà.
01:13:48Est-ce qu'on en a...
01:13:49Donc là, vous voyez,
01:13:50sur cette vidéo,
01:13:51c'est la première fois
01:13:52que je me suis Emoticône Zèbre,
01:13:53ce qui veut dire
01:13:53scarifier.
01:13:55Donc, voilà.
01:13:57C'est vrai que ça a l'air
01:13:58comme ça, rien.
01:14:00Mais ça veut dire
01:14:01qu'on a commencé
01:14:02et puis après,
01:14:03on n'a jamais arrêté.
01:14:05Et ça,
01:14:06cette vidéo-là,
01:14:07on l'a signalée.
01:14:10Elle n'a pas été retirée
01:14:12parce qu'elle n'a pas été vue
01:14:13comme problématique.
01:14:15Mais nous,
01:14:15on le voit bien.
01:14:17Voilà.
01:14:18On peut passer...
01:14:19Enfin, je ne sais pas
01:14:19si vous voulez réagir,
01:14:20sinon on passe
01:14:20à la suivante.
01:14:21Je pense que ça mérite
01:14:24qu'on échange
01:14:25avec nos équipes de modération
01:14:26pour avoir leur retour.
01:14:28Je ne sais pas
01:14:29combien de fois
01:14:29elle a été vue,
01:14:30cette vidéo.
01:14:31Donc, je ne sais pas
01:14:32si elle a été vue
01:14:35beaucoup de fois,
01:14:35peu de fois.
01:14:36Est-ce qu'elle a été supprimée
01:14:37du fil pour toi ?
01:14:39Est-ce qu'elle a été définie
01:14:41comme non-recommended ?
01:14:43Je crois que Marie en parlait.
01:14:44On a des graduations aussi.
01:14:46Et puis,
01:14:46Niki et Brie
01:14:47en ont parlé ce matin.
01:14:48On a des graduations
01:14:50dans la modération.
01:14:53Et c'est un peu tout l'enjeu.
01:14:56C'est-à-dire que derrière une vidéo,
01:14:57on ne sait pas nécessairement
01:14:57son niveau d'exposition.
01:14:59C'est ça qu'il faut regarder.
01:15:03Même si c'est faible
01:15:04niveau d'exposition,
01:15:05on peut considérer
01:15:05que c'est quand même
01:15:06déjà problématique en soi.
01:15:08Et qu'en fait,
01:15:08comme nous,
01:15:09on a fait une recherche
01:15:09par mot-clé,
01:15:10que ce mot-clé était signalé,
01:15:12il y aurait pu y avoir
01:15:12quand même une recherche proactive.
01:15:14Nous, ce qui nous intéressait,
01:15:15c'était aussi de comprendre
01:15:15quels moyens vous mettez
01:15:17sur de la recherche proactive
01:15:18de contenu problématique.
01:15:20Et même quand ils ne sont pas encore
01:15:22sur des immenses tendances.
01:15:23Parce qu'avant qu'ils viennent
01:15:24d'une immense tendance,
01:15:25peut-être que c'est bien
01:15:26d'arrêter quand c'est au départ.
01:15:28Et surtout,
01:15:28sur ces questions
01:15:29identifiées par Google,
01:15:31alors je veux bien
01:15:31que Google soit
01:15:32bien plus fort que TikTok,
01:15:34mais vous êtes quand même
01:15:35assez fort en algorithme.
01:15:36Le petit numéro
01:15:37SOS suicide,
01:15:38même si tu as besoin d'aide,
01:15:41vous avez su le faire
01:15:41pour Skinny Talk,
01:15:42comment se pendre,
01:15:43ça devrait être possible.
01:15:45Même Zèbre,
01:15:45ça devrait être possible.
01:15:46On peut peut-être regarder
01:15:47cette vidéo.
01:15:58Là, on voit une femme
01:15:59qui pleure
01:16:00et c'est écrit à l'écran
01:16:01quand tu te rends encore compte
01:16:02que tu rechutes
01:16:03quand tu pensais
01:16:03d'en être sortie.
01:16:04Voilà.
01:16:05On va passer
01:16:06à la troisième vidéo.
01:16:12Donc là, toujours Zèbre.
01:16:13Cet été,
01:16:13tu vas devoir assumer
01:16:14des traces.
01:16:15Tu es prête.
01:16:16Donc des traces
01:16:17de scarification.
01:16:19C'est aussi
01:16:19une Zèbre.
01:16:21Et donc voilà,
01:16:22quand on a dévoilé l'été,
01:16:24ça veut dire
01:16:24qu'on a retiré
01:16:24ses vêtements
01:16:25et donc du coup,
01:16:26on a des vêtements
01:16:27plus courts
01:16:27et donc on voit
01:16:28les marques
01:16:28de scarification
01:16:29sur les bras.
01:16:30Et donc je le dis,
01:16:31toutes ces vidéos
01:16:32ont été signalées
01:16:33et on a reçu
01:16:34une réponse négative
01:16:35de la modération.
01:16:35On a fait appel
01:16:37et on a reçu
01:16:38une réponse négative
01:16:39de l'appel.
01:16:41On a fait ça récemment.
01:16:43Et je peux me permettre
01:16:44de vous demander
01:16:45les raisons,
01:16:46en fait,
01:16:46qui vous ont été opposées ?
01:16:49Fiche à l'écran.
01:16:52Elle s'est marquée,
01:16:53voilà,
01:16:53donc 5 juin,
01:16:55signalement de la vidéo
01:16:56pour cause de règles
01:16:57d'infraction.
01:16:585 juin,
01:16:5813h18,
01:16:59nous étudions ton signalement.
01:17:005 juin,
01:17:0113h48,
01:17:02aucune infraction
01:17:02trouvée.
01:17:03Donc là,
01:17:03on fait appel.
01:17:046 juin,
01:17:0412h12,
01:17:05nous t'enverrons
01:17:06une notification.
01:17:076 juin,
01:17:0712h32,
01:17:08donc c'est assez rapide,
01:17:08aucune infraction trouvée.
01:17:10Cette règle
01:17:11n'enfreint pas
01:17:11nos règles de communauté.
01:17:14Pardon,
01:17:14je peux vous poser
01:17:15la question
01:17:15sur la manière
01:17:16dont vous avez signalé.
01:17:17Est-ce que vous avez
01:17:17eu la possibilité
01:17:18d'avoir une explication ?
01:17:21Parce que parfois,
01:17:21il y a des encadrés
01:17:22où on peut un petit peu
01:17:22plus expliquer
01:17:23le contexte aussi
01:17:25de la vidéo.
01:17:26Est-ce qu'on avait
01:17:29expliqué le contexte
01:17:30de la vidéo ?
01:17:31Léopold l'avait fait ?
01:17:33Il avait dit
01:17:33suicide ?
01:17:35Non.
01:17:35Mais d'un autre côté,
01:17:36les termes sont
01:17:37quand même assez...
01:17:37Parce que dans le contexte,
01:17:40effectivement,
01:17:40et comme disait Marlène,
01:17:42il y a aussi
01:17:43ces sujets difficiles.
01:17:46Il y a certaines personnes
01:17:47qui trouvent aussi
01:17:50moyen de parler
01:17:52à d'autres personnes
01:17:52sur ce sujet
01:17:53parce qu'elles ne peuvent
01:17:54pas en parler
01:17:54dans un environnement
01:17:55potentiellement familial.
01:17:57Je ne connais pas la vidéo,
01:17:59je ne l'ai pas vue.
01:18:00C'est juste que,
01:18:01effectivement,
01:18:02et comme on a expliqué
01:18:03dans le cadre
01:18:04de Skinny Tux,
01:18:05parce qu'on pense
01:18:06que vous avez potentiellement
01:18:07posé des questions
01:18:08sur ce sujet,
01:18:09il y a aussi
01:18:10des explications
01:18:10sur certaines notions
01:18:13qui sont potentiellement
01:18:15taboues.
01:18:16Mais effectivement,
01:18:16merci de nous avoir...
01:18:18Et je précise
01:18:19que toutes ces vidéos
01:18:19étaient visibles
01:18:20depuis un compte mineur.
01:18:21On s'est écrit
01:18:22un compte mineur.
01:18:23Pour le coup,
01:18:23on a respecté les règles.
01:18:24On n'a pas cherché
01:18:25à tricher sur l'âge.
01:18:26Au contraire,
01:18:27on a triché dans l'autre sens.
01:18:28Mais sur la vidéo 4,
01:18:31on n'avait pas...
01:18:32Enfin, on ne l'avait pas
01:18:33si c'est celle
01:18:34qu'on a regardée.
01:18:36Maintenant,
01:18:36on a fait la même chose
01:18:37avec Suicide.
01:18:37On va passer rapidement dessus.
01:18:39Mais vous voyez,
01:18:40on a tapé le drapeau
01:18:41de la Suisse.
01:18:41Pareil,
01:18:41c'est quelque chose
01:18:42qui nous a été indiqué.
01:18:44Drapeau de la Suisse,
01:18:44Suisse, Suicide.
01:18:46Lors de l'audition
01:18:48d'Algos Victima,
01:18:50donc il y a un mois.
01:18:51Et donc,
01:18:51voilà,
01:18:52je me disais,
01:18:53il y a des équipes
01:18:53de TikTok
01:18:53qui regardent,
01:18:54forcément.
01:18:54et en fait,
01:18:57ça ne vous a pas été remonté.
01:18:59Mais je suppose
01:18:59que ça vous a été signalé
01:19:00par ailleurs,
01:19:01par d'autres moyens.
01:19:03Donc, voilà,
01:19:04c'est connu.
01:19:05Donc, voilà,
01:19:06si on peut passer
01:19:06la première vidéo Suisse.
01:19:08Je ne sais pas
01:19:09si ça marche.
01:19:09car à qui je manquerai
01:19:12si je m'en vais ?
01:19:14Petit drapeau Suisse.
01:19:15Il n'y a pas grand-chose
01:19:16à voir avec
01:19:16les glaciers et les vêtements.
01:19:19Deuxième vidéo.
01:19:21Je crois que c'est le bleu.
01:19:24C'est la seule solution.
01:19:32Fin du chapitre.
01:19:33J'ai de nouveau
01:19:34des idées de Suisse.
01:19:38Suivant.
01:19:39Profite bien de moi.
01:19:41Ma date de Suisse
01:19:42arrive bientôt.
01:19:44Suivant.
01:19:46Pourquoi pleurer
01:19:47quand j'ai juste envie
01:19:48de me Suisse ?
01:19:49Suivant.
01:19:53Le Suisse
01:19:54est le chemin
01:19:55le plus court.
01:19:57Là, vous voyez,
01:19:58on n'a pris que deux exemples.
01:20:00Deux exemples
01:20:01parmi Zèbre et Suisse.
01:20:04Parmi tous ceux
01:20:04qu'on nous a transmis,
01:20:05parmi tous les mots-clés,
01:20:06parmi toutes les manières
01:20:08de contourner.
01:20:08Et en fait,
01:20:10ce qui n'est pas normal,
01:20:12c'est que là,
01:20:12peut-être qu'il va y avoir
01:20:13une action sur ces contenus,
01:20:15tout comme il y a eu
01:20:15une action sur Skinny Talk
01:20:16parce qu'il y a eu
01:20:17une mobilisation aussi politique
01:20:18en France, il faut le dire.
01:20:21Mais pourquoi avoir attendu
01:20:22d'en arriver jusque-là ?
01:20:24Alors même que,
01:20:25par exemple,
01:20:26des témoignages de jeunes
01:20:27qui se suicidaient
01:20:28sont arrivés
01:20:29il y a
01:20:30au moins un an de cela.
01:20:33pourquoi n'avoir pas cherché
01:20:34à discuter
01:20:35avec les jeunes
01:20:36pour savoir
01:20:37quels étaient
01:20:38de façon proactive
01:20:39les contenus
01:20:40quand ils n'allaient pas bien,
01:20:43quels étaient
01:20:43les hashtags
01:20:44qu'ils tapaient
01:20:44parce qu'en fait,
01:20:46ils ont des stratégies,
01:20:47ils nous l'ont expliqué,
01:20:48ils nous ont dit
01:20:48ce qu'ils faisaient,
01:20:49ils nous ont raconté
01:20:51comment finalement
01:20:52ça marchait tout ça.
01:20:54Et donc,
01:20:54quand on ne va pas bien,
01:20:55quand on est dans
01:20:56une communauté pro-ana,
01:20:57on se refile
01:20:58les recettes,
01:20:59on se refile
01:20:59les hashtags.
01:21:01Donc,
01:21:01en fait,
01:21:02là,
01:21:02ce n'est pas simplement
01:21:02une question de volume,
01:21:04c'est une question
01:21:04d'une petite communauté
01:21:05et vous savez très bien
01:21:06que les petites communautés,
01:21:07ça marche,
01:21:08mais qu'il y a des codes
01:21:09et sur lesquels
01:21:11vous,
01:21:11vous devriez agir
01:21:12de façon proactive,
01:21:13je crois.
01:21:17Je mesure
01:21:19l'importance du sujet
01:21:20et les équipes
01:21:21sont mobilisées
01:21:22évidemment dessus.
01:21:24On ne peut pas dire
01:21:25que rien n'est fait.
01:21:26On a plus de 6 millions
01:21:27de vidéos
01:21:28qui ont été supprimées
01:21:29en France
01:21:29sur l'année 2024
01:21:31signant 6.
01:21:32Donc,
01:21:33ça veut dire
01:21:33qu'il y a un vrai travail
01:21:35de modération
01:21:36qui est effectué
01:21:37par les équipes.
01:21:39On a aussi
01:21:39des signaleurs
01:21:41de confiance
01:21:42qui nous aident
01:21:43à identifier
01:21:44ces tendances
01:21:44et ces risques
01:21:45des partenaires.
01:21:47On travaille aussi
01:21:47avec Faros,
01:21:50on travaille
01:21:50avec beaucoup
01:21:51de partenaires
01:21:54qui nous aident
01:21:54à aller
01:21:55le plus vite possible.
01:21:57Donc,
01:21:57vous avez raison,
01:21:58ces nouvelles tendances
01:21:59émergent
01:21:59trop vite
01:22:00et trop souvent
01:22:01et je pense
01:22:02qu'on a
01:22:03collectivement
01:22:05l'envie
01:22:06de faire
01:22:07toujours mieux.
01:22:08Mais en tout cas,
01:22:10on ne peut pas dire
01:22:10que rien n'est fait.
01:22:11On ne peut pas dire
01:22:12que rien n'est fait,
01:22:13mais là,
01:22:14vous dites trop vite
01:22:14des jeunes qui sont morts
01:22:16de ces tendances,
01:22:18c'était déjà
01:22:18il y a un an,
01:22:19il y a deux ans.
01:22:20Donc,
01:22:20on ne peut pas dire
01:22:21non plus
01:22:21que ce soit
01:22:22une tendance
01:22:23qui date
01:22:24d'il y a une semaine.
01:22:26Et en fait,
01:22:27compte tenu
01:22:27de l'impact
01:22:28sur les vies
01:22:29des gens,
01:22:30sur les vies
01:22:31des gens,
01:22:31ce n'est pas simplement
01:22:32qu'on va être exposé
01:22:34à un contenu
01:22:35d'un chaton
01:22:37et encore,
01:22:37ça peut traumatiser
01:22:38dans un mixeur.
01:22:40Et ça,
01:22:41on peut avoir
01:22:41les images
01:22:41pendant longtemps
01:22:42parce que ça,
01:22:42c'est ce que les jeunes
01:22:43racontent
01:22:43quand ils ont
01:22:46des gens
01:22:47qui viennent les voir
01:22:48pour discuter avec eux
01:22:49des contenus
01:22:49qui déchopent
01:22:49sur les réseaux sociaux.
01:22:50Mais au-delà
01:22:50du chaton
01:22:51dans le mixeur,
01:22:52là,
01:22:52il y a des jeunes
01:22:53qui sont morts.
01:22:53Et donc,
01:22:53en fait,
01:22:54pourquoi ne vous êtes-vous
01:22:55pas donné une obligation
01:22:56de moyens illimités
01:22:57et de résultats ?
01:23:01Parce qu'en fait,
01:23:02vous avez une responsabilité
01:23:03sur la vie des gens,
01:23:04là.
01:23:05Ce n'est pas simplement
01:23:06une histoire de
01:23:08« Ah,
01:23:08il y a une marge
01:23:09d'erreur
01:23:09de certains contenus ».
01:23:11Enfin,
01:23:12si,
01:23:13enfin,
01:23:13voilà,
01:23:14c'est pour le coup,
01:23:15en tout cas,
01:23:16nous,
01:23:17c'est pour ça
01:23:17qu'on a créé
01:23:18cette commission aussi.
01:23:19C'est ça,
01:23:19la cause originelle.
01:23:21Et aujourd'hui,
01:23:22on a l'impression
01:23:23que vous parlez statistique,
01:23:24vous dites,
01:23:25on a 6 millions
01:23:26de contenus retirés,
01:23:2721 millions
01:23:28à l'échelle de l'Europe.
01:23:30OK,
01:23:3121 millions
01:23:31sur les six derniers mois,
01:23:33mais même s'il reste
01:23:341 million
01:23:35de contenus problématiques,
01:23:37c'est toujours
01:23:371 million de trop.
01:23:38Même si c'est
01:23:38100 000 contenus problématiques,
01:23:40parce qu'on,
01:23:40voilà,
01:23:40peut-être 1%,
01:23:41c'est toujours 100 000
01:23:42contenus problématiques
01:23:42de trop.
01:23:43Et nous,
01:23:43il nous suffit juste
01:23:44de nous pencher
01:23:44pour en retrouver.
01:23:46Donc,
01:23:46pourquoi vous ne le faites pas,
01:23:48en fait ?
01:23:49En fait,
01:23:50je pense qu'on vous a,
01:23:51enfin,
01:23:51effectivement,
01:23:52on est,
01:23:52encore une fois,
01:23:55collectivement
01:23:55et personnellement
01:23:57sensibles au sujet.
01:23:59Maintenant,
01:24:00on vous explique
01:24:02depuis plus de deux heures
01:24:03tous les éléments
01:24:04et depuis ce matin,
01:24:05tous les éléments
01:24:06de modération,
01:24:08de mise à jour
01:24:09de nos algorithmes,
01:24:10du fait qu'on soit,
01:24:12qu'on fasse partie
01:24:12d'un collectif,
01:24:13du fait qu'il y ait
01:24:14une réglementation européenne
01:24:15et que tout ça
01:24:16sont des enjeux
01:24:19extrêmement importants
01:24:20pour nous,
01:24:21sur lesquels
01:24:21nous continuons
01:24:22à oeuvrer.
01:24:23On est ici
01:24:24aussi pour discuter
01:24:26avec vous
01:24:26de potentiel,
01:24:28aussi,
01:24:28solution
01:24:29et comme expliquait
01:24:30ma collègue
01:24:31Marlène,
01:24:33on travaille
01:24:34avec des associations,
01:24:36on travaille
01:24:36avec les pouvoirs publics,
01:24:38on est en contact
01:24:39permanent,
01:24:40vraiment,
01:24:41on est en contact
01:24:42avec
01:24:42les autorités,
01:24:44nos autorités
01:24:45de tutelle,
01:24:45mais on est aussi
01:24:46en contact direct
01:24:47avec, par exemple,
01:24:48l'ARCOM,
01:24:48qui n'est pas
01:24:48notre autorité de tutelle
01:24:50et néanmoins,
01:24:50je sais que monsieur
01:24:51Al-Jarri était ici
01:24:53pour son audition
01:24:55et qui a expliqué
01:24:57qu'on est en contact.
01:24:58Il y a aussi,
01:24:59il y a des systèmes,
01:25:00il y a des process,
01:25:01il y a des systèmes
01:25:01de signalement
01:25:02et effectivement,
01:25:03il y a des moyens
01:25:04de contournement.
01:25:05Aujourd'hui,
01:25:06c'est l'émoticône zèbre
01:25:08ou suisse,
01:25:09j'étais au courant
01:25:10de cet émoticône suisse,
01:25:11demain,
01:25:14ça sera peut-être
01:25:14un autre émoticône
01:25:16avec un autre moyen
01:25:18de détournement.
01:25:19Si je fais un parallèle,
01:25:21c'est peut-être
01:25:21un parallèle
01:25:22un peu tiré par les cheveux,
01:25:24en termes de cybersécurité,
01:25:26les attaques
01:25:26ou les systèmes
01:25:28de détournement,
01:25:31ça vient en permanence.
01:25:33Vous êtes une autorité publique,
01:25:35vous êtes une autorité
01:25:36de l'État,
01:25:36il y a énormément
01:25:37d'hôpitaux en France
01:25:38qui se font continuellement
01:25:39attaquer,
01:25:40il y a des failles.
01:25:41On est pareil,
01:25:42on est une entité privée,
01:25:45on a des systèmes
01:25:46que nous mettons
01:25:46en permanence
01:25:47à jour
01:25:48et nous sommes
01:25:50en discussion continuelle
01:25:55avec les pouvoirs publics
01:25:56et j'entends
01:25:58qu'on met des moyens
01:26:00en permanence à jour.
01:26:01Maintenant,
01:26:01vraiment,
01:26:02on a besoin aussi
01:26:03des régulateurs,
01:26:04on a besoin
01:26:04de cette communauté
01:26:05pour nous expliquer aussi,
01:26:07enfin,
01:26:07pas pour nous expliquer,
01:26:08mais en tout cas
01:26:09pour communiquer avec nous
01:26:11sur ces traînes,
01:26:12sur ces mêmes,
01:26:13aussi petites qu'elles soient
01:26:14et les communautés
01:26:15aussi petites qu'elles soient.
01:26:16donc c'est vraiment,
01:26:17on espère qu'on peut
01:26:19continuer le dialogue
01:26:20et ne pas être
01:26:22en permanence
01:26:23en position un peu
01:26:24d'accusé
01:26:25parce qu'on n'est pas
01:26:26au tribunal ici
01:26:27mais on se sent un peu
01:26:28dans ce contexte-là
01:26:29et travailler ensemble
01:26:32sur ces sujets
01:26:33qui sont vraiment
01:26:34très importants.
01:26:36Les responsables
01:26:37de TikTok France
01:26:38devant la commission d'enquête
01:26:39de l'Assemblée nationale
01:26:40qui tente d'étudier
01:26:42les effets psychologiques
01:26:43de la plateforme
01:26:44sur les plus jeunes,
01:26:45sur les mineurs.
01:26:46Rapport de cette commission d'enquête
01:26:48attendu à la mi-septembre.
01:26:50On le suivra sur LCP.
01:26:51Ciao, ciao !
01:26:51Sous-titrage Société Radio-Canada
01:26:56Sous-titrage Société Radio-Canada