- avant-hier
Les députés enquêtent sur Tiktok et ses effets psychologiques sur les mineurs.
Lancé en 2016, TikTok est un réseau social particulièrement populaire chez les jeunes. Son interface propose des vidéos courtes et addictives. 70% de ses 15 millions d'utilisateurs mensuels en France ont moins de 24 ans.
L'application, en principe interdite aux moins de 13 ans, est utilisée quotidiennement par 40% des jeunes qui ont entre 16 et 25 ans.
Onze familles françaises ont porté plainte contre le réseau social, accusé d'être en partie responsable de la dégradation de la santé mentale et physique de leurs enfants. Selon les plaignants, TikTok promouvrait, par le biais de son algorithme personnalisé de recommandation de contenus, de nombreuses vidéos encourageant les troubles alimentaires, l'automutilation et le suicide, notamment auprès des plus jeunes utilisateurs.
Alors comment Tiktok contrôlent-il l'âge de ses utilisateurs ? comment régule t'il ses contenus ? comment lutter contre l'addiction à ce réseau social ? et comment protéger la santé mentale des jeunes?
C'est pour répondre à toutes ces questions, que la commission d'enquête donne la parole à des médecins, des influenceurs, des représentants de Tiktok en France et aussi des parents, brisés, pour certains, par la perte de leurs enfants.
Lancé en 2016, TikTok est un réseau social particulièrement populaire chez les jeunes. Son interface propose des vidéos courtes et addictives. 70% de ses 15 millions d'utilisateurs mensuels en France ont moins de 24 ans.
L'application, en principe interdite aux moins de 13 ans, est utilisée quotidiennement par 40% des jeunes qui ont entre 16 et 25 ans.
Onze familles françaises ont porté plainte contre le réseau social, accusé d'être en partie responsable de la dégradation de la santé mentale et physique de leurs enfants. Selon les plaignants, TikTok promouvrait, par le biais de son algorithme personnalisé de recommandation de contenus, de nombreuses vidéos encourageant les troubles alimentaires, l'automutilation et le suicide, notamment auprès des plus jeunes utilisateurs.
Alors comment Tiktok contrôlent-il l'âge de ses utilisateurs ? comment régule t'il ses contenus ? comment lutter contre l'addiction à ce réseau social ? et comment protéger la santé mentale des jeunes?
C'est pour répondre à toutes ces questions, que la commission d'enquête donne la parole à des médecins, des influenceurs, des représentants de Tiktok en France et aussi des parents, brisés, pour certains, par la perte de leurs enfants.
Catégorie
🗞
NewsTranscription
00:00...
00:00Nous débutons aujourd'hui les auditions de la commission d'enquête sur les effets psychologiques de TikTok sur les mineurs.
00:17L'objet de cette commission d'enquête, c'est évidemment de proposer des outils, de réfléchir à des outils législatifs
00:25et de montrer que le Parlement est aussi en lien et à l'écoute de cette demande sociale.
00:31Bonjour à tous, bienvenue dans ce nouveau numéro des Grands Débats consacré à TikTok et à ses effets psychologiques sur les mineurs.
00:39TikTok contrôle-t-il l'âge de ses utilisateurs ? Faut-il interdire l'accès aux réseaux sociaux aux moins de 15 ans ?
00:45Comment lutter contre l'addiction aux réseaux sociaux et surtout comment protéger la santé mentale des jeunes ?
00:52C'est pour répondre à toutes ces questions que la commission d'enquête va interroger des médecins, des influenceurs,
00:58des représentants de TikTok en France, mais aussi des parents.
01:02Des parents en colère face à ce réseau social accusé de pousser au suicide.
01:07Des parents désespérés, brisés pour certains après la perte de leur enfant.
01:11Alors nous allons consacrer la table ronde de cet après-midi pour recueillir le témoignage de familles victimes de l'algorithme de TikTok.
01:25Et notamment, je tiens à remercier Maître Boutron-Marmion pour avoir accepté de venir avec un certain nombre de familles du collectif
01:35« Algos Victima » et d'autres familles témoignées auprès de la représentation nationale cet après-midi.
01:41Notre sujet, c'est de chercher les manières de faire évoluer notamment le droit,
01:47de faire évoluer aussi la capacité d'action des pouvoirs publics,
01:51et plus largement de sensibiliser la société à ces dangers qui peuvent être présents sur les réseaux sociaux.
01:59Il s'agit d'avoir le courage de reconnaître que les réseaux sociaux tels qu'ils sont conçus aujourd'hui tuent nos jeunes.
02:07Plutôt que de les unir, ils les isolent.
02:10Plutôt que de les faire grandir, ils les abîment irrémédiablement.
02:14Je vis dans un monde où des parents se lèvent quatre fois par nuit pour vérifier que leur progéniture respire toujours dans leur chambre.
02:21Je vis dans un monde où les parents mettent sous clé tous leurs médicaments et les comptent à la pilule près.
02:26Je vis dans un monde où des parents doivent retirer le corps sans vie de leur enfant,
02:31suspendu à la porte d'armoires de chambre ou de salle de bain.
02:36Je vis dans un monde où des parents doivent enterrer leur enfant de douze ans,
02:40qui a choisi, à cause de l'algorithme TikTok et des réseaux sociaux,
02:45de ne plus aimer la vie à l'âge où ils ne la connaissent pas encore.
02:48Marie est une jeune fille solaire, pleine de vie, qui aimait chanter, danser, s'amuser, profiter de la vie,
03:01avec une personnalité imposante.
03:03Et arrivée vers ses 13-14 ans, elle a subi du harcèlement scolaire.
03:10Du harcèlement scolaire qui était traité par le collège,
03:14avec une évolution au niveau de son corps, des attributs féminins.
03:19Donc, c'était compliqué pour elle, mais c'était géré.
03:22Et du coup, Marie se sentait épaulée.
03:25Arrivée en seconde, Marie est tombée sur des harceleurs avérés,
03:31qui avaient déjà harcelé pas mal de personnes.
03:35Et ils se sont attaqués à Marie.
03:38Elle nous en a beaucoup parlé.
03:39Et on a fait notre maximum.
03:43Et en fait, c'était un ressenti...
03:46En fait, Marie n'est pas retournée à l'école.
03:49Ils ne l'ont pas reprise.
03:50Elle a demandé un entretien avec la directrice.
03:53Ils ne l'ont pas reprise.
03:53Et ils ont repris les harceleurs.
03:57Pour elle, c'était monstrueux.
04:00C'était un échec.
04:01Elle ne comprenait pas pourquoi elle était mise de côté.
04:05Et j'ai envie de vous dire que, pour elle,
04:08c'était comme un abandon du monde des adultes
04:11qui ne la soutenait pas.
04:13À côté de ça, c'était la période du confinement,
04:16elle a pu accéder aux réseaux sociaux.
04:18Et je tiens à vous dire et à préciser qu'il y a 4 ans,
04:23en fait, je ne me doutais absolument pas.
04:26Je crois qu'il y a un grand nombre de personnes,
04:28il y a 4 ans, qui ne se doutaient absolument pas
04:30de ce que pouvait contenir comme genre de contenu TikTok.
04:34Et en fait, c'est au départ de Marie,
04:38quand j'ai réussi à pouvoir accéder à son téléphone,
04:41dans le sens où c'était trop dur pour moi avant,
04:43avant, là, j'ai vu les contenus que ma fille regardait.
04:48Et des contenus mortifères, des façons de se scarifier,
04:54de lui montrer comment faire un nœud pour se pendre,
04:59des chansons qui prônent le suicide comme une libération.
05:03En fait, suicide-toi, tu iras beaucoup mieux derrière.
05:06Et en même temps, cet enfermement dans cette espèce
05:11de communauté dépressive, pour une enfant reconnue
05:16par un test neuropsy, le Wix, hypersensible et empathique.
05:21Donc du coup, en fait, en plus de ces problèmes à elle,
05:25à gérer de harcèlement et de contenu qu'elle peut voir
05:30sur les réseaux, en même temps, elle prend sur elle
05:33la charge de cette communauté en souffrance.
05:36Et c'est là que je trouve que l'algorithme et que TikTok
05:41a vraiment sa part de responsabilité dans le mal-être de ma fille.
05:47Pourquoi ? Parce que cette puissance de l'algorithme
05:50qui est déjà définie dès le départ par la bulle de filtre.
05:55La bulle de filtre, c'est une personnification,
05:58en fait, une personnalisation supposée des centres d'intérêt de l'enfant.
06:04Donc déjà, c'est une façon de s'immiscer dans la vie privée.
06:08On va aller chercher des contenus pour pouvoir envoyer à l'enfant
06:13dans son fil d'actualité tous les contenus qui pourraient l'attirer.
06:20Et à partir de là, on l'accroche.
06:22Ma fille était harcelée sur son poids.
06:24La seule chose qu'elle a été cherchée, parce qu'elle me l'a dit,
06:27sur TikTok, enfin, entre autres, parce qu'on en avait parlé,
06:31c'était les problèmes de troubles alimentaires.
06:34Mais troubles alimentaires ne veut pas dire problèmes de santé mentale.
06:39Pourquoi, au cas où, si Marie est en surpoids,
06:42ne pas lui proposer des contenus positifs,
06:45comme un programme sportif ou un régime alimentaire,
06:49aller voir ses amis ?
06:50Mais à côté de ça, la seule chose qu'on a proposée à ma fille,
06:54c'est clairement le suicide, l'automutilation,
06:59avec la scarification,
07:00ou alors se libérer de tout son poids en partant.
07:05Je me suis rendue compte, sur le contrôle parental de Apple,
07:10qu'elle a trouvé, et c'est écrit sur YouTube ou sur TikTok,
07:16comment, en fait, faire sauter le contrôle parental ?
07:19Et ça s'appelle Screen, Time and Lock.
07:22Donc, en fait, comment vous dire que même si on voulait les protéger,
07:27on ne peut pas ?
07:28Ce que je souhaiterais, c'est une espèce de coalition,
07:32un travail en synergie entre les pouvoirs publics,
07:36les plateformes, les opérateurs, les parents,
07:39ainsi que les constructeurs de téléphones,
07:43pour qu'on soit tous ensemble,
07:46pour faire en sorte qu'il y ait une protection de nos enfants.
07:50Et mon souhait le plus cher serait, quelque part,
07:53notre souhait, je pense, le plus cher,
07:56serait que les réseaux soient interdits jusqu'à l'âge de 16 ans.
07:59La parole est désormais à Delphine et Jérémy, les parents de Charlize.
08:04Pendant cette année de cinquième, en fait,
08:07on a commencé, ses résultats scolaires ont baissé,
08:10elle faisait des crises d'angoisse,
08:11elle ne voulait plus aller à l'école,
08:14elle a développé une phobie scolaire,
08:16elle a commencé à tomber dans l'anorexie,
08:19et à se scarifier.
08:20C'est notre psychologue qui nous a avertis pour les scarifications.
08:23Donc, du coup, elle nous a conseillé de prendre,
08:28de faire un rendez-vous avec des psychiatres
08:29pour s'ensuyer de l'anorexie.
08:34On pensait qu'avec l'été, ça allait se remettre en place.
08:38À son entrée en quatrième,
08:40elle retombe avec sa copine dans la même classe.
08:45Les professeurs voient très bien qu'elle ne va plus,
08:47puisqu'ils nous en parlent.
08:49Et son état se dégrade énormément.
08:51Et jusqu'à faire sa première tentative de suicide
08:55en janvier, qui a suivi.
08:58Son état n'a fait qu'empirer.
09:00Elle s'est réfugiée de plus en plus sur les téléphones.
09:03Sur son téléphone, qu'elle a eu tardivement aussi,
09:05sur lequel on avait mis un contrôle parental.
09:08Mais étant donné, à l'école,
09:11tout se fait sur le téléphone.
09:13Il y a le NT,
09:15je ne sais pas comment ça s'appelle dans les autres collèges.
09:17Bref, pour le suivi des devoirs sur le téléphone,
09:20il y a certains quand même des tablettes.
09:22Et il y a des groupes de classe aussi.
09:23Donc en fait, son téléphone,
09:25il fallait toujours qu'elle ait avec elle.
09:26Donc on a dû faire sauter quelques contrôles,
09:29parce qu'on contrôlait en fait
09:31les applications qu'elle voulait télécharger.
09:34Et c'est en communiquant avec ses copines,
09:36en fait, qu'elle a commencé à tomber,
09:38à vouloir TikTok, du coup.
09:40Nous, on ne savait pas en fait ce que c'était.
09:41On pensait que c'était juste
09:42un moyen de se divertir,
09:45puisque souvent, malgré qu'elle soit mal,
09:47on la voyait souvent sur son téléphone
09:49en train de sourire.
09:50Donc on s'est dit, bon,
09:51c'est comme un refuge en fait.
09:53Elle trouve des choses rigolotes
09:55pour la changer un peu de ses idées noires.
09:58Et son état ne faisait toujours qu'empirer.
10:02Elle a fait encore trois autres tentatives de suicide,
10:05jusqu'à celle qui a été fatale.
10:09Et c'est lors de la réunion le lendemain de sa mort
10:11avec ses meilleures copines et les parents
10:15qu'on nous a annoncées, en fait,
10:17qu'elle avait republié la veille
10:19un post qui montrait une jeune fille
10:22toute souriante avec des mots écrits
10:26qui disaient
10:27« La nuit porte conseil,
10:29moi, elle m'a conseillé
10:29de prendre un tabouret et une corde. »
10:32Son téléphone a été pris, du coup,
10:33par la police pour l'enquête.
10:36C'est par l'intermédiaire, du coup,
10:38de ses copines et des parents de ses copines
10:40qui avaient pris des captures d'écran
10:41de ce qu'elles repostaient
10:42et qui nous les ont envoyés.
10:44Et là, voilà, que dire ?
10:48C'était des contenus où on lui proposait
10:51pour se faire du mal
10:53sans que ça se voie de se prendre des doux bouillantes.
10:55La limitation de l'âge
10:56n'enlève en aucun cas la responsabilité
11:00du contenu qu'il propose.
11:03Parce que ce genre de contenu,
11:05qu'on soit mineur ou majeur,
11:06on n'a pas à le voir,
11:08on n'a pas à le subir.
11:08Donc, c'est eux qui hébergent ça,
11:13c'est eux qui autorisent ça.
11:16Il n'y a pas d'âge pour ça.
11:19La parole est à Christina,
11:23la mère d'Emma.
11:27Notre fille Emma est partie en quatre mois.
11:30La violence qui est à l'école,
11:31elle a toujours existé.
11:33On sait très bien que les adolescents,
11:34les enfants sont cruels.
11:37On a tous entendu
11:39« t'es grosse », etc.
11:41Ce que Emma a entendu.
11:43Ce que la grosse différence aujourd'hui,
11:46c'est que, un, c'est relayé
11:47par les réseaux sociaux.
11:50C'est l'utilisation
11:51que TikTok fait
11:53de ce spleen et de ce mal-être
11:55qui existe.
11:56Tous nos enfants qui sont partis
11:59n'étaient pas malades.
12:00Par contre,
12:02ils ont traversé
12:03des difficultés à l'école.
12:05Ils ont parfois été isolés.
12:06Encore une fois,
12:07ça nous est tous arrivé.
12:09Mais qu'est-ce qui change aujourd'hui ?
12:10Ce qui change aujourd'hui,
12:12c'est qu'aujourd'hui,
12:13effectivement,
12:14ils ont accès
12:15à des contenus
12:17qui les confortent
12:18et qui les entraînent plus loin.
12:21Et effectivement,
12:21ces algorithmes
12:22qu'ils mettent en place
12:23imposent à nos enfants
12:25des choses
12:26qu'ils ne devraient pas voir.
12:27est-ce normal
12:29de trouver des tutos
12:30pour se suicider ?
12:32Mais est-ce que vous,
12:32en tant que parent,
12:33vous iriez dire à vos enfants
12:34« Regardez, tiens,
12:35j'ai un livre
12:36pour te dire comment faire un nœud
12:37et te pendre dans la salle de bain
12:39à la paterne ? »
12:40Je ne savais même pas
12:41que ça pouvait exister, moi.
12:42La façon dont ma fille
12:43est partie.
12:45Je ne savais pas
12:45que ça existait.
12:47Elle ne l'a pas appris
12:47toute seule ?
12:49On lui a donné.
12:50On lui a donné l'arme
12:51pour se suicider.
12:54Qui accepte ça ?
12:55Qui accepterait ça ?
12:56Qui dans cette salle ?
12:57Et pour autant,
13:00alors on va dire,
13:00mais il y a de plus en plus
13:02d'enfants qui ont
13:02le téléphone à 10 ans.
13:05Mais pourquoi ?
13:06Parce que les parents
13:07n'ont pas conscience
13:08de ce qui s'y passe.
13:09Et je suis là pour dire,
13:10mais prenons conscience
13:11de tout ça,
13:12arrêtons ça,
13:13on est en train
13:13de tuer nos enfants,
13:14on est en train
13:15de tuer une génération.
13:17Parce qu'on ne le sait pas.
13:19Mais certains,
13:20croyez-moi que,
13:21et vous le savez tous,
13:23les gens de la Silicon Valley
13:24et les gens de TikTok,
13:25le savent parfaitement
13:28et étonnamment,
13:30les personnes qui sont
13:31dans ces sociétés,
13:32leurs enfants n'ont pas
13:33de téléphone.
13:34La parole est à madame
13:36Denis.
13:37Donc il y a la première
13:37tentative de suicide,
13:39le psy nous renvoie
13:40à la maison en nous disant
13:41la pression est retombée,
13:43rentrez chez vous.
13:44Et j'irai au mieux.
13:46Et là,
13:46c'est la descente aux enfers
13:47parce que les mutilations
13:49sont quasi quotidiennes.
13:50quotidiennes.
13:51Donc,
13:53le psychiatre me dit,
13:55quoi qu'il en soit,
13:57il trouvera la solution
13:58pour se scarifier
13:59ou pour se donner la mort.
14:03Vous n'empêcherez rien.
14:05Donc,
14:06je mets en place
14:07avec la corde d'Edouard
14:08donc des mutilations
14:10un peu encadrées.
14:12Je récupère
14:12ces lames de rasoir.
14:15Je dors avec ces lames de rasoir.
14:16Et quand ça ne va pas,
14:18il me demande ces lames.
14:19et j'attends derrière
14:20la porte de sa chambre
14:21et il se scarifie
14:23avec des chansons
14:24qui prônent
14:25l'automutilation,
14:27le suicide.
14:29Lorsqu'il a terminé,
14:30il m'appelait,
14:31je rentrais dans la chambre,
14:33je le consolais,
14:34je le désinfectais.
14:36Il me dit,
14:37maman,
14:38tu ne m'empêcheras pas.
14:40Si je veux mourir,
14:41je sais comment me couper
14:42la carotide,
14:43je sais où couper.
14:46Donc là,
14:46je dis à mon mari,
14:47on ne peut plus le laisser,
14:49on va le perdre,
14:50on n'y arrivera plus.
14:51On arrive malgré tout
14:52à avoir une place
14:53au centre d'évaluation
14:55et d'adolescence
14:56que l'on a
14:57sur notre hôpital
14:58à Toulon.
14:59Il y a 10 places
15:00pour le VAR.
15:00donc 10 places
15:02pour le VAR.
15:03Et là,
15:04le professeur en psychiatrie
15:06qui le suit
15:07arrive à faire le lien
15:08entre les réseaux sociaux
15:10et le mal-être
15:12de notre fils.
15:13Donc,
15:14il est hospitalisé,
15:17donc plus de téléphone,
15:19plus de lien avec les parents.
15:20On avait la possibilité
15:21d'appeler
15:22pour prendre ses nouvelles,
15:23mais on ne l'avait plus en ligne,
15:25ça pendant une dizaine
15:27de jours,
15:28le temps qu'il puisse
15:29aller un petit peu mieux
15:33et faire redescendre
15:35la pression.
15:37Donc,
15:37pendant ce temps,
15:37on a pris le téléphone
15:38d'Edouard
15:39et là,
15:39on a vu les contenus
15:40auxquels il était confronté
15:42de façon quotidienne.
15:43donc ces chansons
15:44qui prônent le suicide,
15:48l'automutilation.
15:51La vie n'a pas d'importance.
15:55La mort n'est que la seule solution
15:57pour alléger tes souffrances.
16:01Et là,
16:02c'est le choc.
16:03Et donc,
16:03la parole est maintenant
16:05à Géraldine et Arnaud,
16:07les parents de Pénélope.
16:09Face à nous,
16:10on a un algorithme.
16:12et l'algorithme,
16:14il est bien plus fort
16:15que nous.
16:16Il est plus fort
16:17que les parents.
16:17Il est plus fort
16:18que l'accompagnement
16:19qu'on pourrait donner
16:20à nos enfants.
16:23Cet algorithme,
16:24il lui renvoyait
16:24jour à jour
16:25sa douleur.
16:27Et il creusait encore
16:28de plus en plus
16:29le trou
16:30dans lequel elle tombait.
16:32Et nous,
16:34ces parents,
16:35on n'a jamais pu
16:37contrôler les contenus.
16:40Parce que,
16:40d'une part,
16:41quand un enfant,
16:41on l'a abordé
16:43tout à l'heure,
16:43mais un enfant
16:44qui est en souffrance
16:46psychologique,
16:47si vous lui dites
16:48je vais t'enlever
16:48le téléphone,
16:49mais vous mettez le feu
16:53à la forêt.
16:56C'est-à-dire
16:56qu'on vivait
16:58dans une peur
16:59qu'elle se suicide.
17:02Elle a fait
17:03quatre tentatives.
17:05Elle a ingurgité
17:08des doliprane,
17:0815 doliprane,
17:09donc 15 doliprane,
17:11parce qu'elle avait vu
17:11des contenus
17:12qu'il fallait faire comme ça.
17:12Ça a été sa première tentative.
17:14Elle est partie
17:15avec les pompiers
17:15plusieurs fois.
17:17Et même dans le camion
17:18des pompiers,
17:19elle se filmait
17:19un peu comme un trophée
17:22en disant
17:23« je ne suis pas morte ».
17:24Et ça,
17:24ça alimente les réseaux.
17:26Ça alimente le TikTok.
17:28C'est ça,
17:28le TikTok.
17:29Il ne faut pas aller
17:30chercher plus loin.
17:31Vous êtes tous des parents.
17:32C'est ça, le TikTok.
17:34Pour vous montrer
17:34l'hypocrisie
17:35quand même
17:36de TikTok,
17:37c'est que
17:38si vous allez
17:40dans vos emojis,
17:41vous allez chercher
17:42le drapeau de la Suisse,
17:43donc une croix blanche
17:44sur un fond rouge,
17:46c'est le mot
17:47dans le langage TikTok
17:48pour parler de suicide.
17:50Donc là,
17:51vous avez
17:51toutes les vidéos
17:53de suicide qui arrivent.
17:53Et là,
17:54il n'y a pas de censure.
17:55Pourtant,
17:56l'algorithme,
17:57il a compris ça.
17:58Il a compris
17:59qu'on parle de suicide.
18:00L'IA,
18:01aujourd'hui,
18:02il comprend,
18:02lit les vidéos.
18:04On le sait
18:04qu'on parle de suicide.
18:06Il n'y a jamais eu ça.
18:07Si vous voulez parler
18:08de scarification,
18:09vous ne tapez pas
18:10« scarification »,
18:11vous tapez « zèbre ».
18:12Ah oui,
18:13« zèbre ».
18:14Et là,
18:14vous avez à vous
18:15des vidéos qui arrivent.
18:17Vous voulez parler
18:18de troubles
18:19de...
18:21Enfin,
18:21de l'anorexie,
18:22vous tapez
18:23« hashtag skinny talk ».
18:26Voilà.
18:27Donc bon,
18:27vous avez un lexique
18:28qui est à votre disposition
18:29sur Google.
18:30Il y a tout un...
18:31un environnement
18:33pour que l'enfant
18:35soit addict
18:36à tout ça.
18:37Il rentre
18:37dans cette communauté,
18:38dans cette spirale
18:40néfaste,
18:42délétère.
18:42et il est pris
18:44au piège.
18:45On parle
18:45d'addiction.
18:48TikTok,
18:48c'est un prédateur.
18:49Il faut
18:50urgemment
18:52faire quelque chose.
18:54Il faut légiférer,
18:55il faut interdire.
18:56Il faut condamner
18:57financièrement TikTok
18:58s'il y a des contenus
19:00inappropriés
19:01qui sont envoyés
19:02à nos enfants mineurs.
19:03Voilà.
19:03Touchez-les
19:04au portefeuille
19:04et interdisez
19:06à des enfants
19:07de 13 ans
19:08de pouvoir y aller.
19:09faites passer
19:10des spots
19:11à la télé
19:11pour mettre
19:12en éveil
19:15les parents
19:15sur les dangers
19:16de...
19:17Mais prenez
19:17des bons exemples.
19:20Il y a urgence.
19:23Que pensent
19:23les médecins
19:24de TikTok
19:25et des réseaux sociaux
19:26en général ?
19:27Quelles sont
19:27les conséquences
19:28physiques
19:28et psychiques
19:29de ce temps passé
19:30devant les écrans ?
19:31En ce qui concerne
19:34TikTok,
19:37nous souhaitions
19:38avec Amine
19:39et il le redira après,
19:40vraiment dire
19:40que bien sûr,
19:41nous savons
19:42que votre commission
19:42se concentre
19:43sur TikTok,
19:43mais les réseaux sociaux
19:45posent globalement
19:46aujourd'hui tous
19:47les mêmes problèmes
19:48de design
19:49non éthique
19:52et que si TikTok
19:54est peut-être
19:54particulièrement efficace
19:56pour capter
19:57et retenir
19:58l'attention
19:58des usagers,
20:00les autres réseaux sociaux
20:02massivement employés
20:03ne sont pas
20:03exemplaires
20:05et pas exempts
20:06de ces problèmes.
20:07au-delà
20:08de la discussion
20:08qu'il peut y avoir
20:09sur les éventuels
20:10bénéfices
20:11de l'usage
20:12des réseaux sociaux
20:12en termes
20:13de connexion sociale
20:14et de mise en lien
20:17les uns avec les autres,
20:18de lutte contre
20:18l'isolement
20:19dans certains endroits
20:20et pour certains individus,
20:23il nous semble
20:24vraiment essentiel
20:24d'arriver
20:26aux fondamentaux
20:27du problème
20:28qui sont
20:29la conception,
20:31le design
20:32de TikTok
20:33et des réseaux sociaux
20:34qui étant basés
20:35sur l'économie
20:36de l'attention,
20:37la captation
20:37des données
20:38qui vont ensuite
20:39être monnayées
20:40à des fins
20:40de publicité
20:41ciblées.
20:43Le problème
20:43est posé
20:44puisque l'objectif
20:45sera de maintenir
20:45les usagers en ligne
20:46le plus longtemps possible,
20:48de les faire venir
20:49en ligne
20:49le plus souvent possible
20:50et également
20:51de leur faire faire
20:52des achats en ligne
20:52aux microtransactions
20:54ou aux transactions
20:54plus importantes
20:55et c'est là-dessus
20:57que repose
20:57le modèle économique.
20:59Or,
20:59nous savons aujourd'hui,
21:01sans parler
21:02de la santé mentale,
21:03mais ne serait-ce
21:04que de la santé physique,
21:05en particulier
21:05de celle des plus jeunes,
21:07les activités
21:08sur les réseaux sociaux
21:09ou les activités
21:10sur écran en général
21:11sont source
21:12d'activités sédentaires,
21:14risque d'empiéter
21:16sur la sédentarité
21:18qui est un facteur
21:18de risque cardiovasculaire
21:19favorisant
21:20les infarctus myocardes,
21:21les AVC,
21:22les maladies
21:22des artères des jambes,
21:24favorisant aussi
21:24le surpoids,
21:25l'obésité,
21:26le diabète de type 2
21:27qui sont aussi
21:27des facteurs de risque
21:28cardiovasculaire.
21:30Lorsqu'ils empiètent
21:31sur les heures de sommeil
21:32ou qu'ils interrompent
21:34le sommeil
21:34parce que certains
21:35adolescents
21:36mettent des réveils
21:37pour participer
21:38à certains défis,
21:39certains challenges
21:39par exemple,
21:40cela va donc compromettre
21:41la qualité
21:42et la quantité du sommeil,
21:43le sommeil qui est
21:44un fondamental
21:45de la santé globale
21:47et j'ajoute aussi
21:49que la dette chronique
21:50de sommeil
21:51favorise l'anxiété
21:52et la dépression,
21:53donc ne serait-ce
21:54que par ce biais,
21:55encore une fois,
21:55sans parler des contenus
21:56éventuellement mortifères,
21:57ils peuvent avoir
21:58un effet délétère
21:58sur la santé mentale.
21:59Est-ce que particulièrement
22:00un zoom sur les professionnels
22:01de santé,
22:02est-ce que vous pensez
22:03qu'ils sont tous
22:04suffisamment sensibles
22:05au sujet ?
22:06Et je vous parle de ça
22:06parce que la semaine dernière,
22:07on a auditionné
22:08les familles de victimes,
22:09donc de jeunes filles
22:11particulièrement,
22:12mais pas que,
22:12mais qui pour certaines
22:14se sont données la mort
22:15et donc qui sont
22:16devant la justice
22:17aujourd'hui
22:17pour engager
22:18la responsabilité
22:19de TikTok
22:19dans ce suicide.
22:21et toutes les familles
22:22quasiment nous disaient
22:23qu'en fait,
22:23elles avaient,
22:24donc leur enfant,
22:25avant,
22:26dans le cadre de ce processus,
22:28avait été suivi
22:29par des professionnels
22:30de santé,
22:30mais qu'ils avaient eu
22:31le sentiment en fait
22:32que il y avait une,
22:35enfin voilà,
22:35que c'était l'éléphant
22:36au milieu de la pièce,
22:37TikTok,
22:37et qu'en fait,
22:38personne ne les avait
22:39interrogés
22:39et n'avait interrogé
22:40leur enfant sur le lien
22:42qu'ils avaient
22:42avec les réseaux sociaux,
22:43l'usage qu'ils faisaient
22:44de TikTok.
22:44En vérité,
22:46c'est un monde
22:47dans lequel les adultes
22:48ne se sont pas toujours,
22:49ne se sont pas toujours,
22:52ne sont ni invités
22:53ni intéressés.
22:54Donc là,
22:54là-dessus,
22:55je pense que,
22:56et puis plus encore
22:57lorsqu'on a affaire
22:58à des parents
22:58qui ont témoigné
22:59devant votre commission
23:00et qui ont perdu
23:01leurs enfants,
23:02qui ont fait le lien
23:03entre la perte
23:05et cet objet
23:06qui finalement
23:07est un objet
23:08de captation
23:09et même un objet
23:10qui broie,
23:11qui broie nos enfants,
23:12qui a broyé
23:14et leurs enfants.
23:15TikTok remplit
23:16finalement tous les critères
23:17du diable
23:18et tant mieux
23:18parce qu'il le porte bien.
23:20Il y a la manière
23:21avec laquelle
23:22ce produit est construit
23:23qui est un algorithme
23:24très puissant
23:25de captation
23:26disant que TikTok
23:27ne se cache pas
23:29par rapport aux autres.
23:31Finalement,
23:33le but ultime
23:35c'est avoir
23:36un maximum
23:36de jeunes et de moins jeunes,
23:38vendre du temps,
23:39vendre de l'attention,
23:41vendre de la captation
23:42et puis il y a
23:43à l'intérieur
23:44de ce TikTok.
23:47Aucune éthique
23:47évidemment n'est convoquée
23:49puisqu'on a des contenus
23:50absolument scandaleux,
23:52on a des thématiques
23:54suicidaires,
23:54des thématiques
23:55communautaires
23:57sordides,
23:58on le sait parfaitement.
24:00Clairement,
24:02c'est la technologie
24:03au service du mal.
24:04En gros,
24:04c'est un peu ça.
24:05La raison pour laquelle
24:06les réseaux sociaux
24:07ont été développés
24:09au départ,
24:11dans mon souvenir,
24:11Facebook,
24:12c'était en effet
24:12de mettre en lien
24:13des étudiants
24:14qui avaient perdu contact.
24:16Mais en fait,
24:17aujourd'hui,
24:17on n'en est plus du tout là.
24:18L'objectif n'est plus du tout
24:20de mettre en lien les gens,
24:22ce sont devenus
24:22des machines à sous,
24:23réellement.
24:24Et peut-être que TikTok
24:25est particulièrement efficace,
24:28c'est qu'il a un modèle
24:28de recherche et développement,
24:31un fonctionnement
24:32de recherche et développement
24:33qui est extrêmement investi
24:34et extrêmement actif,
24:35qui le fait évoluer
24:36en permanence
24:37en proposant des nouveautés,
24:38des nouvelles fonctionnalités,
24:39des nouvelles applications,
24:40au sein de l'application
24:42et de nouvelles diversifications
24:44en fait de l'offre commerciale,
24:45clairement c'est ça,
24:46permanente,
24:47qui en fait un support
24:49publicitaire
24:50extrêmement puissant.
24:52Et comme les vidéos
24:52sont très courtes,
24:5410-15 secondes
24:56et souvent elles sont abrégées
24:57par ceux qui la visualisent
24:59jusqu'à 10 minutes,
25:00c'est vraiment le maximum
25:00et je crois qu'il n'y en a
25:01vraiment pas beaucoup
25:01de cette longueur-là,
25:04on sait très vite,
25:06l'algorithme sait très vite
25:07proposer des contenus
25:08très personnalisés
25:09puisqu'en 10 minutes
25:11on en a déjà vu
25:1210 secondes
25:13fois une minute,
25:15c'est déjà 6
25:16et puis au bout d'une heure
25:17on en a vu,
25:19c'est exponentiel,
25:21donc c'est un très très
25:22grand nombre de vidéos
25:23qui permet de personnaliser
25:24les contenus.
25:24J'avais une petite question
25:25sur l'âge,
25:26dans le cadre
25:27de vos recommandations,
25:28vous évoquez l'idée
25:29que les réseaux sociaux
25:31ne soient accessibles
25:32qu'à partir de 15 ans,
25:33je voulais vous interroger
25:34sur les 15 ans,
25:35est-ce que vous
25:36ne considérez pas
25:38qu'une espèce
25:39de principe de précaution
25:40si on le poussait
25:41jusqu'au bout
25:42pourrait nous conduire
25:44à aller peut-être
25:44un petit peu au-delà,
25:45peut-être à l'entrée
25:46au lycée à 16 ans,
25:47est-ce que,
25:48enfin comment vous vous êtes
25:49arrivé à cet âge
25:51de 15 ans
25:51parmi les familles
25:53de victimes
25:53qu'on a auditionnées,
25:54certaines nous disaient
25:56en marge des auditions
25:57que 15 ans finalement
25:59c'était encore
25:59un peu fragile,
26:00on était encore au cœur
26:02de l'adolescence,
26:02encore vulnérable
26:04et que peut-être
26:05qu'on pourrait imaginer
26:06aller au-delà
26:07de 15 ans.
26:08On a choisi 15 ans
26:10et en mettant
26:10pour les réseaux sociaux
26:11HETI,
26:12c'est pour se caler
26:12sur la majorité sexuelle
26:14qui, je ne dis pas
26:14de bêtises
26:15à cet âge-là,
26:16qui donnait la majorité
26:17numérique à 15 ans,
26:18donc il y avait
26:19une certaine cohérence
26:19par rapport à ça.
26:21On sait très bien
26:22que nous avons
26:23une majorité numérique
26:25à 15 ans
26:25qui existe partout
26:26dans le monde,
26:27elle peut parfaitement
26:28être appliquée,
26:29applicable,
26:29il y a,
26:30sur le plan technique,
26:31il y a des possibilités.
26:32En fait,
26:32notre recommandation,
26:33elle est écrite
26:33dans un monde merveilleux
26:34où la vérification
26:35de l'âge
26:36est efficace,
26:38respectueuse
26:38de la vie privée,
26:39mais aussi
26:40de la démocratie,
26:41d'expression,
26:41etc.,
26:42où les réseaux sociaux
26:43sont devenus éthiques
26:44grâce au DSA
26:45et à ses renforcements.
26:46Ce n'est pas aujourd'hui.
26:51Après les médecins,
26:52place aux influenceurs
26:53très présents
26:54sur les réseaux
26:55avec notamment
26:56Hugo Travert,
26:57plus connu sous le nom
26:58d'Hugo Décrypte
26:59et Anna Baldi
27:00alias Grande Bavardeuse.
27:03On est présent
27:04en tant que média
27:05aujourd'hui sur TikTok.
27:06On réalise aujourd'hui
27:07des contenus d'actualité
27:08avec un traitement journalistique
27:10de l'actualité
27:10directement sur le réseau social.
27:13On produit entre 3 à 10 vidéos
27:15par jour, je dirais,
27:16en moyenne,
27:16sur ce réseau social-là.
27:18Dans votre audience,
27:19quelle était la part ?
27:20Est-ce que vous arriviez
27:20à voir la part des mineurs,
27:22peut-être même des très jeunes
27:23dans votre audience ?
27:25Et puis après,
27:26une question un petit peu globale,
27:27mais sur le rôle
27:28de l'algorithme.
27:29Comment est-ce que
27:30vous voyez ce rôle ?
27:31Comment est-ce que
27:31vous utilisez peut-être
27:32vous l'algorithme
27:33pour mettre en avant
27:33vos contenus ?
27:34Et est-ce que vous avez
27:35le sentiment que cet algorithme
27:36de TikTok en particulier,
27:38il met davantage en avant
27:39des contenus plus problématiques
27:40qu'informationnels ?
27:41La vraie difficulté qu'on a,
27:43c'est que quand on accède
27:44aux statistiques sur TikTok,
27:47la tranche d'âge de mineurs
27:49n'est pas indiquée.
27:50Donc en fait,
27:51on sait qu'on a essentiellement
27:53des 18-24 ans qui nous suivent.
27:55Après, on a les 25-34 ans
27:56qui sont présents.
27:57Mais encore une fois,
27:58comme je vous le dis,
27:58on n'a pas les chiffres
27:59sur les mineurs.
28:01Donc forcément,
28:01ça biaise légèrement les chiffres.
28:03On sait forcément
28:04qu'on est suivi par des mineurs
28:05sur ce réseau social-là
28:06parce qu'on le voit
28:08dans les retours,
28:08on le voit dans les questions
28:09qui sont posées
28:10par ceux qui nous suivent.
28:11On a beaucoup de questions
28:12sur typiquement
28:13la question des examens,
28:15du bac, du brevet.
28:16C'est peut-être l'exemple
28:17le plus parlant
28:17et forcément,
28:19c'est très souvent
28:19des personnes mineures.
28:21Et sur ensuite,
28:21l'évolution des contenus.
28:23Nous, on est arrivé en 2020
28:24à une période
28:25où c'était essentiellement
28:26du contenu de divertissement
28:27qui était présent.
28:28C'était même surtout
28:28de la musique
28:29ou des challenges
28:31comme c'est appelé
28:32de danse
28:32qui était présents
28:33sur la plateforme.
28:34Nous, on s'est dit
28:35et ça a toujours été l'objectif
28:36avec mon équipe
28:37sur la chaîne
28:38qu'il y avait
28:39dans notre mission
28:40de rendre l'actualité
28:41accessible au plus grand nombre,
28:42il y avait un enjeu
28:43à être présent
28:43sur toutes les plateformes,
28:45y compris sur une plateforme
28:46qui propose essentiellement
28:49du divertissement
28:50au moment où on se lance.
28:51On sait qu'il y a
28:52certains sujets
28:53qui sont jugés
28:53plus sensibles par TikTok
28:55et qui ne seront pas
28:55mis en avant.
28:56On a des contenus
28:57qu'on publie,
28:58sauf qu'ils ne sont
28:59jamais réellement publiés.
29:00Soit ils restent à zéro vue,
29:01soit on voit
29:01qu'ils sont en attente,
29:02ils ne sont pas publiés.
29:03Et les fois où ça est arrivé,
29:05à notre connaissance
29:06et avec encore une fois
29:07le peu d'informations
29:08qu'on a sur l'algorithme,
29:09on a le sentiment
29:10que c'est lié au fait
29:10que c'est parfois
29:11des sujets sensibles
29:12et donc il y a des mots-clés
29:14ou il y a des choses
29:14qui sont signalées
29:16automatiquement
29:17par l'algorithme.
29:18Et donc ça peut être
29:18sur des sujets de drogue,
29:20alors là on parle de cigarette,
29:21comme ça peut être
29:21sur le sujet du cannabis
29:23ou autre,
29:23il y a une forme
29:24de modération automatique
29:26ou de suppression automatique
29:27ou d'invisibilisation automatique
29:28de certains contenus.
29:30La façon dont on répond
29:31à cela aujourd'hui,
29:32c'est d'essayer de contourner
29:34en quelque sorte
29:35ces processus
29:36de vérification automatique
29:38par l'algorithme
29:39pour diffuser
29:40certains contenus
29:40d'informations.
29:42La chose la plus visible
29:43ou la plus connue,
29:43c'est le fait
29:44de ne pas mettre
29:45noir sur blanc
29:45certains mots.
29:46Quand on a fait typiquement
29:47un certain nombre
29:49de contenus
29:49la semaine dernière
29:50sur les changements
29:50à venir
29:52en matière de restrictions
29:53sur le droit à fumer
29:54dans les espaces publics,
29:55etc.,
29:56on n'a pas mis le mot
29:57cigarette tel quel,
29:58on a mis soit un astérisque,
30:00soit on a changé une lettre
30:01pour que le contenu
30:02puisse être visible.
30:04Dans le débat public,
30:05il y a une idée
30:07qui est
30:07est-ce qu'il faut
30:10empêcher les réseaux sociaux
30:11pour les moins de 15 ans ?
30:13Quel est votre point de vue
30:14sur ce sujet ?
30:15Je ne suis pas super à l'aise
30:16avec l'idée.
30:17En fait,
30:17c'est pour deux raisons.
30:20Déjà,
30:21j'ai des questions
30:22sur leur pratique
30:23et la façon
30:23pratique et technique
30:25de le faire.
30:27Je ne sais pas,
30:27je ne sais pas,
30:27c'est réellement envisageable.
30:29Je ne sais pas
30:29même si demain,
30:30on arrive à avoir
30:30un système
30:31qui fonctionne
30:31sur une plateforme,
30:33s'il n'y a pas un risque
30:33que des personnes
30:34aillent sur d'autres
30:35plateformes directement.
30:37Pour tout un tas de raisons,
30:38j'ai du mal
30:39à voir la chose
30:40d'un point de vue technique.
30:42D'un point de vue
30:42de principe aussi,
30:44je comprends
30:45comment on peut voir ça
30:46comme une façon
30:46de minimiser les risques
30:50chez les mineurs.
30:52En même temps,
30:53j'ai le sentiment
30:53que ce serait aussi
30:55se détourner
30:55d'un sujet plus large.
30:57Et quand on parle
30:58de la santé mentale
30:59ou de l'impact psychologique
31:00ou de la question
31:01des fausses informations,
31:02ce n'est pas que
31:02chez les jeunes.
31:03C'est même d'ailleurs
31:04parfois,
31:04si on parle
31:04de la question
31:05des fausses informations
31:05encore plus présentes
31:07chez d'autres tranches
31:08d'âge dans certains cas
31:08et selon les sujets.
31:10Pour toutes ces raisons-là,
31:12c'est strictement personnel,
31:14pas quelque chose
31:14qui me paraît forcément
31:16le plus efficace.
31:17Je ne ferai pas
31:19l'éloge de TikTok
31:20sans évoquer
31:21mes réelles inquiétudes.
31:23Je me questionne
31:23quant à la propagation
31:25d'informations
31:25fausses ou simplifiées,
31:27sorties de leur contexte,
31:28souvent clivantes
31:29et détournées
31:30pour faire peur.
31:30Je m'inquiète
31:31du fait que des enfants
31:32de 13 ans
31:33aient accès
31:33à une telle information.
31:35Je m'inquiète
31:35des bulles algorithmiques
31:36qui peuvent nous amener
31:38à nous enfoncer
31:38dans une spirale de pensée
31:39mauvaise pour nous-mêmes,
31:41mauvaise pour les autres.
31:43Et puis surtout,
31:44dans cette cour de récré virtuel,
31:45je m'inquiète
31:46de la totale impunité
31:48qui entoure
31:49des contenus vidéos
31:50et des commentaires
31:51relevant d'un racisme
31:52qui n'a rien de tacite
31:53et d'une misogynie rampante.
31:55Voici trois des commentaires
31:56reçus sous une de mes vidéos
31:58dans laquelle j'évoque
31:59la statistique
32:01inquiétante mais vraie,
32:02selon laquelle 82%
32:05des personnes mises en cause
32:06pour des actes violents,
32:07d'après l'INSEE,
32:08sont des hommes.
32:09Certains de ces commentaires
32:10étant notamment rédigés
32:11par un utilisateur
32:13dont le pseudonyme
32:13est
32:14« Missile Pétainiste ».
32:16T, un torchon à foutre inculte,
32:18reste dans le domaine
32:19des gorges profondes,
32:20réservoir à foutre lobotomisé
32:22et c'est plutôt
32:23d'apparaître
32:23dans un fait divers
32:24le vide-couille du tiers-monde.
32:26Ce qui m'inquiète,
32:28c'est que ces commentaires
32:29ont probablement été écrits
32:30par des personnes mineures,
32:32c'est que ces commentaires
32:32sont probablement écrits
32:34tous les jours
32:34sous des vidéos
32:35de personnes mineures,
32:36c'est que ces commentaires
32:37sont probablement
32:38le témoignage
32:38d'une violence ignoble,
32:40certes,
32:40mais largement inférieure
32:42à celle subie
32:42par d'autres jeunes femmes
32:43dont l'identité pose
32:45encore plus de problèmes
32:45que la mienne
32:46pour ces personnes,
32:47des jeunes femmes
32:47qui ne sont pas blanches,
32:49qui se trouvent
32:49à la croisée
32:49de toutes les discriminations.
32:50Vous essayez quand même
32:51de jouer avec cet algorithme
32:53pour faire en sorte
32:54que votre contenu
32:55soit plus visible
32:56et comment vous le faites ?
32:57L'algorithme est très opaque,
32:58on n'a pas véritablement connaissance
33:00de la façon dont il fonctionne.
33:02De plus en plus
33:02de créateurs de contenu
33:04vont tenter de remplacer
33:05des buzzwords,
33:07c'est-à-dire des mots
33:07qui vont être repérés
33:08par l'algorithme
33:09et provoquer
33:10le déréférencement des vidéos.
33:13On va tenter
33:14de les remplacer
33:15par des mots compréhensibles
33:19des utilisateurs
33:20adeptes de ces plateformes.
33:22Par exemple,
33:24on ne dira pas
33:25un viol,
33:26mais on dira un V.
33:27Ou on ne dira pas
33:28une agression sexuelle,
33:30on dira une AS
33:31ou une SA.
33:32Ce sont des expressions
33:33qui sont utilisées
33:34pour tenter
33:35de ne pas être,
33:36je ne sais pas
33:37si on peut dire censurées,
33:38mais du moins
33:39déréférencées
33:40sur la plateforme.
33:43D'autres influenceurs
33:44ont des contenus
33:44beaucoup plus controversés.
33:46Accusés de masculinisme,
33:48de misogynie
33:48ou encore de sexisme,
33:50comment protéger
33:51les mineurs
33:52face à de tels propos ?
33:53Alex Hitchens,
33:54le premier auditionné,
33:56va stupéfier l'Assemblée
33:57en quittant brutalement
33:59l'audition.
34:01Nous recevons
34:02cet après-midi
34:03M. Isaac Mayembo
34:04qui est créateur
34:05de contenu
34:06sous le pseudonyme
34:07Alex Hitchens.
34:09Si je gagne
34:09de l'argent sur TikTok,
34:11j'ai envie d'être
34:11100% honnête aujourd'hui
34:12et je pense
34:13que cette plateforme,
34:14de manière générale,
34:15est néfaste.
34:17Déprime à bord
34:18lorsque TikTok est sorti,
34:19c'était quelque chose
34:20d'intéressant.
34:21Ok ?
34:21Ah oui,
34:22vous pouvez rigoler,
34:22je suis très honnête.
34:23Vous savez,
34:24même si je gagne de l'argent
34:24avec cela,
34:25je vais être honnête aujourd'hui.
34:26J'ai juré malheureusement,
34:27je n'ai pas le choix.
34:29De prime à bord,
34:30c'était intéressant.
34:31Ça permettait de condenser
34:32un peu les informations,
34:34regarder une vidéo
34:34de 1 minute,
34:352 minutes,
34:36pour pouvoir ainsi
34:37apprendre tout un tas de choses.
34:38Mais le gros problème maintenant,
34:40c'est qu'en l'espace
34:41de 1 à 2 minutes,
34:43il est dur d'avoir
34:43toutes les informations.
34:45Et cette particularité-là,
34:47justement,
34:48a créé énormément de problèmes,
34:49notamment énormément
34:50de désinformations.
34:52Je peux aussi être victime
34:53par moment.
34:54C'est-à-dire qu'on va
34:54isoler un propos,
34:56par exemple,
34:56on va prendre une vidéo
34:57de 10 minutes,
34:58on va isoler 30 secondes
34:59ou une minute bien choisie
35:01pour manipuler l'information.
35:02Donc, vraiment,
35:05je vais résumer
35:06toute mon introduction.
35:07TikTok est à bannir
35:09bien entendu,
35:09selon moi.
35:10Et je pense que cette plateforme
35:12est néfaste
35:13pour les jeunes.
35:14Est-ce qu'il y a eu
35:14une première vidéo
35:15qui a beaucoup pris,
35:16qui a eu beaucoup de vues
35:17et qui vous a permis,
35:18finalement,
35:19d'avoir la communauté
35:19que vous avez aujourd'hui ?
35:21Et si oui,
35:22est-ce que depuis le début,
35:23c'est le même contenu ?
35:24Est-ce qu'il y a un contenu
35:24qui a fait que vous avez
35:25eu plus de succès ?
35:27Voilà.
35:28De manière générale,
35:29est-ce que vous pouvez
35:29déjà commencer par nous dire
35:30tout ça ?
35:32Intéressant.
35:33Donc, j'ai commencé en 2021.
35:35Si je ne me trompe pas,
35:36c'était 2021.
35:38Fin d'année 2021,
35:40début d'année 2022.
35:41Et bien entendu,
35:42je m'en suis vite rendu compte.
35:43Ce qui fonctionne le mieux,
35:45c'est le contenu,
35:45on va dire très clairement,
35:47le contenu qui choque.
35:48C'est généralement celui
35:49qui va attirer
35:50le plus d'attention.
35:51C'est celui qui va générer
35:52le plus de ventes,
35:53le plus de traction.
35:54Bref,
35:55c'est une plateforme,
35:56selon moi,
35:56où tout se base
35:57sur les premières secondes.
35:58Je pense que vous le savez.
36:00Peut-être que ça a déjà été dit.
36:01Ça sera répété sûrement.
36:03Les premières secondes
36:03sont primordiales.
36:04Et c'est à celui
36:05qui arrive le mieux
36:06à captiver son audience
36:07au bout de 5-10 secondes.
36:10Donc, bien entendu,
36:10le début de la vidéo
36:11est primordial.
36:12Ce n'est pas comme sur YouTube
36:13où le format est un peu différent.
36:15On va plus s'attirer
36:16avec une miniature.
36:17Sur TikTok,
36:17c'est vraiment
36:18les 5 premières secondes.
36:19Plus c'est tranchant,
36:21plus c'est cache,
36:21plus c'est clair
36:22et plus ça fonctionne.
36:24Oui, vous disiez
36:24que vous aviez,
36:25finalement,
36:26si on peut parler
36:26de communauté en tout cas,
36:273-4 millions
36:28de personnes qui vous suivent.
36:30Qu'en effet,
36:30dans ces 4 millions,
36:32il y a de toute évidence,
36:33même si vous ne savez pas
36:34le quantifier,
36:35des jeunes,
36:35des mineurs.
36:36Vous savez que nous,
36:37notre commission d'enquête,
36:38elle est ciblée
36:39sur l'impact
36:39sur la santé mentale
36:41des jeunes de TikTok
36:42et donc des contenus
36:43diffusés sur TikTok.
36:45Comment vous réagissez
36:45par rapport
36:46aux critiques
36:47qui existent
36:48sur vos contenus ?
36:49Et est-ce que
36:50vous êtes vous-même
36:51conscient
36:52sur les jeunes ?
36:53Je vous dis ça
36:53parce qu'on est tous
36:55députés ici,
36:56on va tous dans des collèges,
36:57parfois même
36:58dans des écoles primaires
36:59et on entend quand même
37:00votre nom qui revient
37:01très souvent,
37:01ce qui veut dire
37:01que des enfants
37:02de 9 ans,
37:0310 ans,
37:0411 ans,
37:0412 ans
37:04peuvent voir vos contenus,
37:07voir la diffusion
37:07des messages
37:09que vous faites passer,
37:09notamment sur les femmes.
37:12Est-ce que vous avez conscience
37:13quand même
37:13que vos contenus
37:14qui sont en effet contestables
37:16sont vus
37:16par de très jeunes enfants ?
37:20Contestables,
37:20écoutez,
37:21c'est une question
37:22de point de vue,
37:22on pourrait juger
37:23mes contenus
37:23de problématique,
37:25après le thème problématique
37:26c'est quelque chose
37:27de très subjectif
37:28et flou,
37:29donc pour le coup
37:30il ne correspond
37:30à aucune infraction,
37:31il n'y a aucune
37:32qualification juridique,
37:33donc ça dépend
37:35de la perception
37:35de chacun,
37:36je ne trouve pas
37:37que mes propos
37:37sont problématiques,
37:38même si,
37:39voilà,
37:40problématique
37:40ça ne veut tout
37:41rien dire,
37:42et je pense qu'un jeune
37:42homme de 13,
37:4314 ans,
37:4415 ans
37:44devrait suivre mes conseils,
37:46je pense que je donne
37:46de bons conseils
37:47pour la jeunesse,
37:48après encore une fois,
37:49peut-être que vous n'allez
37:50pas être d'accord
37:51avec moi,
37:51j'imagine.
37:52Vous disiez tout à l'heure
37:53que vous aviez déjà
37:54été banni de TikTok,
37:55donc ce qui veut bien dire
37:55que certains contenus
37:56ont été plus que problématiques
37:58comme vous disiez,
37:59mais en tout cas
38:00ont été considérés
38:01par la plateforme
38:02comme ne pouvant y figurer,
38:04est-ce que vous pouvez
38:04nous dire exactement
38:05à quel moment
38:06vous avez été banni ?
38:07Exact,
38:08c'est une petite erreur
38:08de votre part justement,
38:10les femmes justement
38:11qui ne sont pas d'accord
38:12avec moi,
38:13un peu comme vous
38:13j'imagine,
38:14signalent les vidéos,
38:16ça peut être aussi
38:17des hommes bien entendu
38:18s'ils ne sont pas d'accord
38:18avec moi,
38:19et forcément au bout
38:20d'un certain nombre
38:21de signalements,
38:22et bien que se passe-t-il ?
38:23La vidéo saute.
38:24Donc TikTok m'a autorisé
38:25à poster la vidéo,
38:26d'ailleurs la même vidéo
38:28postée sur un autre compte
38:29peut ne pas être bannie,
38:30mais forcément il peut arriver
38:31des fois qu'après 100,
38:33200, 300,
38:35400 signalements,
38:36je ne connais pas
38:37le nombre exact,
38:38et bien la vidéo saute,
38:39malheureusement.
38:39par exemple quand vous dites
38:42vous prenez son téléphone
38:44si elle refuse
38:45c'est une pute
38:45fin de relation,
38:47ou encore la majorité
38:48des femmes,
38:48énormément de P-U-T-E-S,
38:51peu de filles,
38:51bien,
38:52ça c'est des choses
38:52que vous avez dites,
38:54déjà vous vous remplacez
38:56pute par P-U-T-E-S
38:57et pour échapper
38:58à la modération,
38:59est-ce que les propos
39:00que je viens de citer
39:01vous semblent contrevenir
39:02aux conditions générales
39:03d'utilisation de la plateforme
39:04et plus largement à la loi ?
39:06Alors,
39:07les propos comme P-U-T-E-S
39:09sur TikTok,
39:10c'est fort possible,
39:11maintenant si vous trouvez
39:12un extrait vidéo
39:13où je le fais,
39:13c'est avec plaisir,
39:14mais en l'occurrence
39:15les propos que vous venez
39:16de citer,
39:16je me rappelle très bien,
39:17c'était sur un live YouTube,
39:19donc il faut faire quand même
39:20la différenciation
39:20entre TikTok et YouTube.
39:22On demandera à YouTube,
39:23et par exemple,
39:24je le dis souvent,
39:25une femme après 22 heures,
39:26qu'est-ce qu'elle fout dehors,
39:26je ne sais pas sur quelle plateforme c'est,
39:29ça c'est des choses
39:30que vous avez dites
39:30sur quelle plateforme ?
39:32Encore une fois,
39:33ça c'est sur YouTube monsieur,
39:34mais j'aurais très bien pu
39:36tenir ces propos sur TikTok,
39:37bien entendu,
39:38maintenant il aurait fallu
39:39peut-être conserver
39:40la vidéo originale,
39:42le gros problème justement
39:43de TikTok,
39:44j'en parlais au début,
39:44et vous êtes en train
39:45de tomber dans le pied,
39:46je pense,
39:46c'est la désinformation,
39:48vous êtes en train
39:48d'isoler mon propos,
39:49donc vous avez pris
39:5010 secondes d'un propos
39:51de 8-10 minutes,
39:53où j'expliquais justement,
39:55parce qu'on va rentrer
39:55en détail,
39:56parce qu'apparemment
39:56on est en train d'en parler,
39:57donc pourquoi pas,
39:58j'expliquais que le gouvernement
39:59était responsable
40:00de la sécurité,
40:01j'expliquais qu'il n'était pas normal
40:02qu'une femme en 2025
40:03ne puisse pas sortir dehors
40:05le soir,
40:06très tard,
40:07sur Paris,
40:08et justement après,
40:10je parlais du fait
40:11que dans ce monde,
40:11dans ce monde qui est dur,
40:13que fait une femme dehors
40:14après 22h,
40:15et je poursuivais ensuite,
40:16il est préférable
40:17de sortir avec une amie,
40:19ou avec deux amis,
40:20ou avec un homme,
40:22vous,
40:22vous avez pris
40:2310 secondes de mon propos,
40:24vous l'avez isolé,
40:25et vous venez de me le balancer
40:26à la gueule,
40:27c'est pas une étic-tac ?
40:27Balancer à la gueule,
40:28excusez-moi,
40:28mais vous prenez son téléphone
40:29si elle refuse,
40:30c'est une pute fin de relation,
40:31c'est pas moins problématique,
40:33sur TikTok
40:33et sur YouTube,
40:34les conditions,
40:35excusez-moi,
40:35je vais finir,
40:36laissez-moi finir s'il vous plaît,
40:38je vous demande
40:39de me laisser finir,
40:40c'est moi qui mène l'audition,
40:41je suis président
40:41de la commission d'enquête,
40:42je vous demande
40:42de me laisser finir,
40:44non je vous lis,
40:45je suis président,
40:46excusez-moi,
40:47excusez-moi,
40:47on va couper le son
40:48de monsieur Hitchin,
40:49s'il vous plaît,
40:49si vous continuez,
40:51voilà,
40:51donc je finis mon propos
40:53s'il vous plaît,
40:54je vous disais,
40:55voilà,
40:56je finis mon propos,
40:58bon,
41:04donc il est 16h24,
41:06l'audience est suspendue,
41:08le temps de recontacter
41:09monsieur Hitchin
41:09pour l'informer
41:10qu'on ne peut pas quitter
41:11une audition
41:11sans qu'on lui ait suggéré.
41:14La réalité,
41:15la réalité aujourd'hui
41:16sur TikTok,
41:17c'est que vous avez
41:17évidemment beaucoup de jeunes
41:19qui ont moins de 13 ans,
41:21un jeune sur deux de 11 ans
41:22et sur la plateforme TikTok
41:23aujourd'hui,
41:24et donc c'est une réalité
41:25et cette réalité,
41:26voilà,
41:26vous devez y faire face
41:28et peut-être réagir
41:29d'une façon ou d'une autre.
41:31Vous voyez ce que je veux dire
41:31et c'est pour ça que nous,
41:32ça ne nous intéresse pas
41:33sous l'angle moral
41:34mais de comprendre,
41:36voilà,
41:36pourquoi vous êtes allé sur TikTok,
41:38ça sera ma première question d'ailleurs.
41:40Ensuite,
41:40comment vous gérez vos contenus,
41:42voilà,
41:42notamment vis-à-vis de cette communauté
41:44qui en partie
41:45est une communauté très jeune.
41:46Il faut que tout le monde
41:47comprenne ici,
41:49je fais du contenu pour adultes
41:50mais j'ai 10 ans
41:51de télé-réalité derrière,
41:52c'est-à-dire que
41:52sur les 2 millions de personnes
41:53qui me suivent,
41:54il n'y a pas 2 millions de personnes
41:56qui me suivent
41:56par rapport au contenu pour adultes.
41:58Il y a des gens
41:58qui me suivent
41:59pour la télé-réalité,
42:00il y a des gens
42:00qui me suivent
42:01parce qu'ils adorent
42:02mes lives le soir
42:03parce que c'est quelque chose
42:04de positif pour eux,
42:05on arrive à rigoler,
42:06j'arrive à rester
42:07dans la bienveillance
42:07avec mes abonnés
42:09et il y a des gens
42:10qui me suivent
42:12parce que
42:12je fais du contenu pour adultes
42:14et je répète,
42:15mon contenu pour adultes
42:16est uniquement
42:16sur des plateformes privées,
42:18réservées aux majeurs.
42:19Donc moi,
42:20je me dis,
42:20bon,
42:21j'arrive à attraper
42:221,8 million d'abonnés
42:24en un an et demi.
42:26C'est que mon contenu plaît.
42:28Évidemment que j'ai
42:29une responsabilité
42:30sur les personnes
42:33qui sont sur TikTok
42:34mais je ne peux pas
42:35être responsable de tout.
42:37On va dans les classes
42:38de CM2.
42:39En fait,
42:39moi je demande toujours
42:40quels sont les influenceurs
42:41qu'ils connaissent
42:41et souvent c'est,
42:44ils en sortent
42:45un palanqué
42:45et puis ils disent
42:46« Allez Laurent ! »
42:47Comme ça en rigolant.
42:48Vous voyez ce que je veux dire ?
42:49Il y a le sentiment,
42:49la petite gêne, etc.
42:50Enfin voilà,
42:51ils savent qu'ils ne seraient
42:52pas censés connaître
42:52tout comme ils disent
42:53iChains ou autre.
42:55Vous voyez ?
42:56Et sans faire de comparaison
42:58par ailleurs...
42:59Je peux en faire.
43:00Non mais moi,
43:00si vous voulez,
43:01allez-y.
43:02Mais vous pouvez faire
43:02une distinction
43:03entre vous et iChains.
43:04Mais je vous dis,
43:06ça vient dans un ensemble.
43:08Voilà,
43:08c'est spontané.
43:10Je ne veux surtout pas
43:11qu'on me compare
43:12parce que je crois
43:13qu'il était...
43:14Vous faisiez l'objet
43:15d'Alexis iChains
43:16juste avant.
43:17Je suis totalement
43:19mais surtout
43:20les points
43:20opposés
43:21à ce monsieur.
43:22je ne suis ni sexiste,
43:24ni misogyne,
43:25ni masculiniste.
43:26Je répète
43:27dans tous mes contenus,
43:28alors ce n'est pas
43:28parce qu'on me voit
43:29avec plusieurs filles
43:29qu'il faut tout de suite
43:30se dire,
43:31attends,
43:31l'acteur porno,
43:33c'est un détraqué sexuel.
43:34Non,
43:34j'arrive à être acteur porno,
43:36de bosser avec une équipe
43:37très professionnelle
43:38et je n'ai jamais dit
43:39qu'une fille qui sort
43:40après 22 heures,
43:41c'est une fille facile,
43:42une fille qui met des jupes
43:43courtes,
43:43c'est une fille facile.
43:44Au contraire,
43:45je prône la liberté sexuelle
43:46à égalité
43:46à longueur de journée
43:48et je mets la femme
43:49sur un piédestal
43:50tout le temps.
43:51En l'occurrence,
43:52mon contenu pour adultes,
43:53c'est un contenu
43:53avec des filles consentantes,
43:56majeures
43:57et qui elles-mêmes
43:57ont commencé le porno
43:59avant moi.
44:00Qu'est-ce qui a fait
44:00que vous avez peut-être
44:02fait évoluer vos contenus
44:03et que vous vous êtes reporté
44:04sur d'autres plateformes
44:05et est-ce que vous pouvez
44:06me confirmer
44:06que vous ne renvoyez pas
44:08la communauté TikTok
44:10vers les autres plateformes ?
44:13Quand je fais des lives TikTok,
44:16donc uniquement pour des majeures,
44:19parce que je le répète,
44:20en théorie,
44:22mais encore une fois,
44:23si un petit de 14 ans
44:24contourne la règle,
44:26je ne peux pas,
44:26je suis désolé,
44:27madame la rapporteure,
44:28il faut le savoir.
44:29Mais c'est pour ça
44:30que je ne veux pas
44:30qu'on me sur-responsabilise
44:32dans cette histoire.
44:34Dans un magasin,
44:35dans une épicerie,
44:37il y a de l'alcool
44:38qui est vendu,
44:39à deux mètres,
44:39il y a des bonbons.
44:41C'est-à-dire qu'un petit
44:42de 15 ans
44:42n'a pas le droit
44:43d'acheter de l'alcool.
44:44En revanche,
44:44on ne va pas interdire
44:46le magasin
44:47de vendre de l'alcool.
44:48C'est la même chose.
44:48Moi, je suis un simple usager
44:49de la plateforme
44:50qui respecte les règles.
44:51En l'occurrence,
44:52pour la question de
44:52est-ce que je renvoie
44:53des gens de TikTok
44:54sur d'autres plateformes ?
44:56TikTok,
44:57c'est l'application
44:59où j'ai 1,8 million d'abonnés.
45:00Donc,
45:00quand on pose la question
45:01« Adé,
45:02où on peut voir tes films ? »
45:04Adé,
45:04tu as un Snap ?
45:05Adé,
45:06tu as un Twitch ?
45:06Ton YouTube,
45:07c'est quoi ? »
45:07Donc,
45:08de temps en temps,
45:09évidemment,
45:10pour alimenter
45:11mes autres plateformes,
45:14les gens peuvent me retrouver
45:15sur Twitch
45:16pour me retrouver
45:16sur d'autres plateformes.
45:18Et ça,
45:18c'est l'essence même
45:19d'un influenceur,
45:21d'essayer d'être
45:22sur toutes les plateformes possibles.
45:23Après vos études,
45:24si vous trouvez
45:25qu'il y a des effets psychologiques
45:26sur les mineurs
45:28sur TikTok
45:28et qu'il faut,
45:29par exemple,
45:31augmenter l'âge
45:31d'accessibilité,
45:33je serai le premier
45:34à être de votre côté.
45:36Mais pour l'instant,
45:37quelqu'un de 13 à 18 ans
45:39a accès à TikTok.
45:40Donc,
45:41moi,
45:41je suis un simple usager
45:42qui essaie
45:42de respecter
45:43les règles de TikTok.
45:45Ont-ils conscience
45:46des ravages
45:47que provoque
45:47cette application ?
45:49Comment protègent-ils
45:50les mineurs
45:50face aux contenus dangereux ?
45:52Devant les députés,
45:53les représentants
45:54de TikTok France
45:55défendent leur position.
45:58En fait,
45:59ce que tout le monde
46:00vous demande,
46:00vraiment,
46:00ce que la société
46:01vous demande,
46:02c'est pourquoi
46:03est-ce que vous ne protégez
46:04pas concrètement
46:04les mineurs
46:05sur cette plateforme ?
46:06Pourquoi est-ce qu'on a,
46:07nous,
46:08vraiment,
46:08pourquoi est-ce qu'on a
46:09des tonnes de mails
46:11qu'on reçoit,
46:11des témoignages,
46:12mais tout le temps
46:12dans les écoles
46:13de gamins
46:14qui viennent nous voir
46:15pour nous dire
46:15qu'ils voient des contenus
46:16inappropriés
46:17de scarification ?
46:18Ma nièce,
46:18elle m'a dit,
46:19elle ne me demandait pas
46:19du tout ça,
46:20elle a vu des contenus
46:20de scarification,
46:21de suicide.
46:22C'est pas acceptable,
46:23en fait.
46:24Et donc,
46:25vous n'avez pas
46:25une obligation de moyens,
46:26vous avez une obligation
46:27de résultats.
46:28c'est la protection de nos enfants
46:29et je suis désolée,
46:30je m'énerve,
46:31mais parce que moi,
46:31je trouve ça insupportable,
46:33en fait,
46:33de se dire,
46:34on met tous les moyens
46:35en œuvre,
46:36on met en place des outils,
46:37on fait vraiment notre maximum,
46:39il y a le DSA qui va arriver,
46:40vraiment,
46:40on est de bonne volonté.
46:42D'accord,
46:42mais enfin,
46:43aujourd'hui,
46:43voilà,
46:44on est au mois de juin 2025,
46:45il y a encore des contenus
46:47en grande quantité
46:48qui sont inacceptables
46:50pour les enfants.
46:50On vous a expliqué
46:53les systèmes d'algorithmes,
46:55il y a des systèmes
46:56de dispersion,
46:57de variété,
46:59de contrôle,
47:00etc.
47:01On œuvre et on continue
47:03ensuite à travailler
47:05sur une évolution
47:06et que les algorithmes
47:07soient meilleurs
47:08et en plus,
47:11on a des modérations
47:12de contenu
47:12et on continue à travailler.
47:14Alors maintenant,
47:14je sais que la réponse
47:16du DSA
47:17et des lignes directrices
47:19au niveau européen
47:20visiblement
47:21ne répondent pas
47:23aux attentes.
47:26Néanmoins,
47:26le cadre,
47:27il existe aujourd'hui
47:28et on contribue
47:30à œuvrer dans ce sens
47:31pour la protection
47:32des mineurs.
47:32Mais est-ce que ça vous touche
47:34quand même un peu
47:35les témoignages
47:36qu'on reçoit ?
47:37Je suppose que vous en avez
47:38vu passer aussi
47:39dans la presse.
47:40C'est quand même
47:40assez glaçant
47:41ce que nous décrivent
47:42ces jeunes.
47:42Je suis humaine.
47:45Pour ma part,
47:45je n'ai pas d'enfant
47:46mais évidemment
47:48que je suis touchée.
47:49On ne peut être que touchée
47:50par des drames.
47:51Bien évidemment.
47:52Est-ce que vous ne dites pas
47:53que c'est des drames évitables ?
47:54Que c'est des suicides évitables ?
47:56Que c'est des jeunes...
47:58Moi, je me souviens
47:59de cette maman
48:00qui nous a raconté
48:01dans une audition
48:03que son fils
48:04se scarifiait
48:05derrière la porte
48:06et qu'elle attendait,
48:08elle ouvrait les sarmoires
48:11pour aller chercher
48:11les lames de rasoir,
48:12les filer à son fils,
48:13elle attendait
48:13et qu'en fait,
48:15elle n'arrivait pas
48:16à le priver de TikTok
48:17et il était obsédé par ça.
48:19Elle n'arrivait pas
48:19à le contrôler,
48:20que c'était plus fort que lui.
48:23Ça, je veux dire,
48:25vous pouvez agir pour ça.
48:28Vous pourriez.
48:31On continue à agir.
48:33Il y a certains mots,
48:34comme vous le savez,
48:35comme suicide,
48:36qui sont interdits
48:37dans le moteur de recherche.
48:39Beaucoup de vidéos
48:40sont évidemment...
48:41Ces vidéos sont retirées.
48:43On a une politique
48:44très précise
48:45dans nos règles communautaires.
48:49Et en plus,
48:50vous savez bien
48:50qu'il y a certains éléments
48:51sur lesquels je ne peux pas prononcer
48:52parce qu'il y a eu
48:53une procédure en cours
48:54en France.
48:56Là,
48:58ce que j'évoque,
48:59ce n'est pas forcément
49:00que dans la procédure.
49:03Ces jeunes qui se scarifient...
49:04Moi, j'ai rencontré
49:07des parents de jeunes
49:08qui se scarifient
49:08parce que sur TikTok...
49:10Et les parents,
49:10ils disent TikTok.
49:11Ils ne disent pas Insta.
49:12Ils disent TikTok.
49:14Donc voilà,
49:15c'est votre application,
49:16pour le coup,
49:16qui est mise en cause
49:17sur ce sujet-là.
49:18Si le contrôle parental
49:19est activé,
49:21le mot de passe
49:22est renouvelé chaque jour.
49:25Et donc,
49:25seul le parent
49:26peut permettre
49:26d'aller au-delà
49:28des 60 minutes.
49:29Si le contrôle parental
49:31n'est pas activé,
49:32l'enfant a la possibilité
49:34de prolonger
49:35cette expérience,
49:36il aura un deuxième rappel
49:38après 100 minutes
49:41passées sur la plateforme.
49:43Est-ce que vous pensez
49:44vraiment qu'un enfant
49:45tout seul
49:46est capable de se dire
49:47tiens,
49:47je vais activer
49:49un certain nombre
49:49de dispositifs
49:50que vous avez mis en place
49:51pour m'empêcher
49:52d'aller longtemps
49:53sur la plateforme ?
49:54Vous avez probablement
49:54des enfants,
49:55peut-être que...
49:57Elles sont grandes.
50:00Mais je pense que...
50:03Je laisserai Marie compléter,
50:04mais le 60 minutes,
50:06en fait,
50:07il a...
50:08Et encore une fois,
50:09c'est une question
50:09de posture.
50:10Est-ce qu'on interdit
50:11ou est-ce qu'on accompagne
50:12et on éduque
50:13à l'usage ?
50:15Moi, personnellement,
50:16mais encore une fois,
50:17ça n'a ni valeur d'étude
50:18ni...
50:18C'est très intéressant,
50:19mais je pense qu'on a
50:21un enjeu
50:21à toujours mieux communiquer
50:23ses fonctionnalités,
50:24ses outils.
50:25L'outil de contrôle parental,
50:26il est extrêmement simple.
50:28Il est extrêmement facile
50:29à utiliser.
50:30Donc,
50:31il y a un enjeu,
50:32effectivement,
50:32de le faire connaître
50:33et d'encourager,
50:35effectivement,
50:35toutes les familles
50:36à l'utiliser.
50:36Il y a quelques années,
50:37le patron de Netflix
50:38expliquait,
50:39c'est une citation,
50:40nous sommes en compétition
50:41avec le sommeil
50:42et nous sommes en train
50:43de gagner.
50:44Et je mets ça en lien
50:45avec des témoignages
50:45que je vous ai déjà évoqués,
50:47mais un autre
50:48qu'on a sous les yeux
50:49d'un enfant
50:49qui est désormais au lycée
50:51et qui nous explique
50:52tout le cheminement
50:52et tout ce qui s'est passé
50:53avec son usage de TikTok
50:55lorsqu'elle était au collège.
50:56Et elle explique,
50:57en fait,
50:57j'ai ressenti
50:58une sorte de désintérêt général
50:59pour tout ce qui ne relevait pas
51:01de TikTok,
51:02troubles du sommeil,
51:04fatigue chronique.
51:05L'utilisation de TikTok
51:06a également eu un impact
51:07majeur sur mon sommeil.
51:08Malgré les consignes
51:09de mes parents
51:09de ne plus utiliser
51:10mon téléphone
51:11après 21 heures,
51:12j'avais beaucoup de mal
51:12à résister.
51:13Je me disais toujours
51:14juste une vidéo de plus
51:15et je me retrouvais
51:15à regarder l'application
51:16jusqu'à 1h ou 2h du matin.
51:18Cette privation de sommeil
51:19se répercutait directement
51:20sur ma journée.
51:21J'étais fatiguée en cours,
51:22j'avais du mal
51:23à me concentrer,
51:23et j'étais souvent irritable.
51:25Mes résultats scolaires
51:26ont commencé
51:26à baisser significativement.
51:27Je ne me permettrais pas
51:28de faire un commentaire
51:29sur les troubles du sommeil
51:30parce que je ne suis absolument
51:31pas en compétence,
51:33en capacité
51:35de vous donner un avis
51:36sur le sujet.
51:38Ce que je peux vous dire,
51:39c'est que moi,
51:40j'ai le sentiment
51:41que, encore une fois,
51:42c'est un sujet sectoriel.
51:44C'est un sujet
51:44de consommation digitale
51:47au sens large
51:48qui n'est pas spécifique
51:49à TikTok
51:49et on a pour habitude
51:51de se conformer à la loi.
51:52Donc, encore une fois,
51:55si la loi évolue,
51:57on s'y adaptera.
51:59Effectivement,
52:00il y a des contrôles parentales
52:01qui se font au niveau
52:02du téléphone
52:02et qui sont aussi
52:03au niveau de l'application.
52:05Et il y a les deux.
52:07Donc, je pense que,
52:07collectivement,
52:09on va œuvrer
52:10à ce que les choses
52:12aillent dans le bon sens.
52:14Cet algorithme-là
52:15pose un vrai sujet
52:15parce que, finalement,
52:16quand on vous entend
52:17et quand on va sur TikTok,
52:19ce qui fonctionne
52:21avec l'algorithme,
52:22ce n'est pas
52:22nos intentions profondes,
52:24c'est ce qui capte
52:25notre attention.
52:27Et c'est quand même
52:27une différence majeure.
52:29C'est-à-dire,
52:30je me promène
52:30pour reprendre
52:31la métaphore de la voiture,
52:32je roule sur l'autoroute,
52:33il y a un accident
52:34qui s'est produit,
52:35je vais regarder
52:37comme n'importe qui,
52:38qu'on soit enfant ou adulte,
52:39parce qu'en fait,
52:40notre curiosité
52:41sur le moment
52:41nous pousse à regarder.
52:42ce n'est pas du tout
52:43mon intention profonde,
52:44je ne suis pas intéressée
52:45par voir un accident.
52:47En revanche,
52:49mon attention va être captée
52:50parce qu'il y a un carambolage
52:52et parce que je vais regarder.
52:53Et donc,
52:54l'algorithme
52:54tient compte de ça,
52:55il ne tient pas compte
52:56de notre véritable intention.
52:57Est-ce qu'il n'y a pas
52:58quand même
52:58un sujet évident
53:00sur cet algorithme
53:02qui pousse,
53:03en effet,
53:03peut-être certains
53:04à être entourés
53:05de contenus
53:06qu'ils aiment,
53:07mais qui pousse aussi
53:08beaucoup d'autres
53:08à être finalement pris
53:10dans une boucle de contenus
53:11qu'ils n'apprécient
53:13finalement pas au fond
53:14et qui peut nuire
53:15à leur santé mentale
53:16puisque c'est le cœur
53:16de notre sujet.
53:19Je vous remercie
53:20pour votre question
53:20et c'est une question clé
53:22justement
53:23que la Commission européenne
53:25est en train de regarder
53:26dans le cadre
53:26des enquêtes en cours.
53:30La question
53:31des systèmes de recommandation
53:32est une question
53:33relativement nouvelle.
53:34On est sur un point
53:36où les algorithmes,
53:38et c'est de l'intelligence artificielle,
53:39cela a une évolution
53:43assez rapide.
53:44Nous, on a vraiment
53:45une politique de transparence,
53:47comme je vous ai expliqué,
53:48de ces systèmes
53:48de recommandation
53:49et aussi,
53:50alors à la fois,
53:51l'utilisateur peut
53:54ne pas avoir
53:55de personnalisation du tout.
53:57Donc c'est un fil
53:57très générique
53:58avec du contenu général.
54:01Donc ça va être
54:02sur ce qui se passe
54:03en France aujourd'hui.
54:05Donc on a parlé
54:06de Roland-Garros,
54:08du Festival de Cannes,
54:09ça peut être
54:09la fête de la musique aussi.
54:11Par contre,
54:12si on veut vraiment
54:12personnaliser son flux,
54:15on peut le réactualiser,
54:17par exemple.
54:17Donc si je vois
54:18des choses
54:19qui sont,
54:20par exemple,
54:21beaucoup de tennis,
54:22je veux regarder
54:23autre chose
54:23à un moment donné,
54:24je retape sur
54:25une fonction,
54:27c'est réinitialiser son flux
54:29et ça réinitialise
54:30en fait l'algorithme.
54:32Vous avez parlé
54:32de cette notion
54:34d'avoir du contenu répétitif.
54:36on a des systèmes
54:37de dispersion précis
54:39et je ne vais pas rentrer
54:41dans les détails
54:42de nos systèmes
54:42de dispersion,
54:43mais il y a des systèmes
54:44de dispersion
54:45qui existent
54:46pour qu'effectivement
54:47on ne voit pas
54:49le même contenu
54:50à répétition
54:51et qu'on ne tombe pas
54:52dans cette bulle
54:53et spécifiquement
54:54pour justement
54:55les personnes
54:57en dessous de 18 ans.
54:58Les influenceurs
54:59qu'on a pu auditionner
55:00de manière générale,
55:01que ce soit
55:02cette semaine
55:03parce qu'ils nous avaient
55:04été signés comme problématiques
55:04ou la semaine précédente
55:07parce qu'on pensait
55:08qu'ils produisaient
55:09un contenu de qualité
55:10pédagogique, etc.
55:11Nous ont tous dit
55:12la même chose.
55:13Pour performer,
55:15il faut être clash,
55:16il faut être hyper
55:18dans la recherche
55:21du choc
55:21dès les premières secondes
55:23pour capter l'attention.
55:25Est-ce que vous ne croyez pas
55:26qu'il y a un problème
55:27intrinsèque
55:29à la construction
55:31de l'algorithme
55:31qui va valoriser
55:32la radicalité
55:34au détriment
55:35de la raison,
55:36de la culture,
55:38de l'émancipation,
55:41on va dire ?
55:41C'est plus quelque chose
55:42qui va viser
55:43à capter l'émotion
55:44plutôt que la raison.
55:48Je vais me permettre
55:49un pas de côté.
55:50Vous allez peut-être
55:51me dire que je suis
55:51complètement hors sujet.
55:52Vous aurez le droit.
55:53Je n'hésiterai pas
55:53à vous couper.
55:54Mais j'ai travaillé
55:56dans l'industrie
55:57du cinéma auparavant
55:58et je travaillais
55:58sur des bandes-annonces
55:59de films.
56:00On avait le même enjeu
56:02de créer de l'intérêt.
56:04C'est-à-dire que
56:05si vous voulez effectivement
56:06faire découvrir
56:07la bande-annonce
56:08d'un film,
56:09il faut que l'histoire
56:10que vous racontiez
56:10tienne debout
56:11et qu'elle soit intéressante.
56:12Si vous êtes super ennuyeux
56:15sur les trois points
56:15en la seconde,
56:16vous n'avez aucune chance
56:17d'être vu.
56:17Ces gens vont fabriquer
56:18du drama
56:18parce que ça fait de la vue
56:19parce que derrière,
56:20il y a aussi un modèle
56:21qui va fonctionner.
56:22Vous avez aussi Brut
56:23qui a 12 millions
56:24d'abonnés aujourd'hui
56:25et qui fait des cartons
56:26d'audience
56:26parce qu'il raconte
56:27ce qui se passe
56:27dans la société.
56:28Hugo Décrypte
56:29que vous avez interrogé
56:30qui a 7 millions d'abonnés
56:31et ses contenus
56:32sont hyper intéressants,
56:33éducatifs, éclairants
56:34et qui cartonnent
56:36sur la plateforme.
56:37Donc je dirais
56:37que je vais reprendre
56:39l'exemple effectivement
56:40de notre directeur créatif
56:42qui accompagne les marques
56:44sur la création
56:45des formats publicitaires
56:46et globalement,
56:46il dit effectivement
56:47il faut entre guillemets
56:48faire son intéressant.
56:49Il faut être intéressant,
56:50il faut avoir une histoire
56:51à raconter.
56:53C'est la fin
56:54de ce grand débat
56:55consacré à TikTok
56:56et à ses effets psychologiques
56:57sur les mineurs.
56:59Les députés présenteront
57:00les conclusions
57:01de leurs rapports
57:02ainsi que leurs recommandations
57:03en septembre.
57:05Merci à tous
57:05de nous avoir suivis
57:07et à très bientôt
57:07sur LCP.
57:08Sous-titrage Société Radio-Canada
Recommandations
5:03