Passer au playerPasser au contenu principalPasser au pied de page
  • 28/05/2025
Effets psychologiques de TikTok sur les mineurs : Représentants de l’Association Addictions France

Catégorie

🗞
News
Transcription
14:42les addictions, qu'il s'agisse du numérique, de l'alcool, du tabac, etc.
14:46Donc, pas de conflit d'intérêts.
14:49Parfait.
14:49Écoutez, vous avez la parole pour une dizaine de minutes
14:52en vous organisant comme bon tout semble.
14:56Alors, je vais introduire parce que, comme vous pouvez le remarquer,
14:58je suis le plus ancien dans cette réunion.
15:01Et donc, évidemment, il y a un effet générationnel sur les réseaux sociaux.
15:05Mais comme vous le savez, monsieur le député,
15:07on est assez actif sur les réseaux sociaux,
15:09sur la surveillance des réseaux sociaux
15:11et sur les addictions qu'ils peuvent générer.
15:15Alors, c'est à la fois les addictions liées, je dirais, à l'outil numérique
15:22et aux algorithmes qui sont employés par rapport aux utilisateurs,
15:29mais aussi par rapport aux produits ou aux comportements addictifs
15:34qu'ils peuvent générer, en particulier la promotion de l'alcool,
15:36la promotion des jeux, des paris sportifs, etc.
15:38Donc, on est intéressé à plusieurs titres par votre commission d'enquête.
15:46Alors, pour nous, la manière dont on aborde le sujet,
15:52je l'ai dit, c'est d'abord, je dirais, les algorithmes
15:56et en particulier le fait que les algorithmes des réseaux sociaux
16:02sont basés sur la préférence et le renforcement de la préférence.
16:08Or, on le sait, à la base des addictions, il y a la recherche de plaisir.
16:14Et donc, renforcer les préférences et renforcer la recherche itérative de préférence,
16:19c'est en soi-même renforcer les mécanismes d'addiction possibles.
16:23Alors, il y a d'autres effets, c'est vrai que ces algorithmes qui renforcent la préférence
16:34enferment dans une bulle informationnelle,
16:39puisque l'algorithme se recentre sur les centres d'intérêt
16:46de la personne qui utilise la plateforme.
16:52Donc, utiliser la plateforme et s'enfermer dans une bulle informationnelle,
16:58c'est à la fois, je dirais, tomber dans une addiction avec le mécanisme que j'ai décrit,
17:05mais c'est aussi limiter la curiosité intellectuelle,
17:12puisque le réseau ne renforce pas l'ouverture.
17:14Au contraire, il focalise l'attention et la réitération de l'attention.
17:21Donc, c'est vrai que pour nous, les plateformes, que ce soit TikTok ou d'autres,
17:30présentent des dangers en eux-mêmes.
17:32Et le fait que les algorithmes renforcent des préférences
17:34et enferment dans une sorte d'entonnoir sur ces préférences
17:38sont particulièrement, pour nous, dangereux
17:42en matière de création d'un mécanisme addictif.
17:47Franck ?
17:48Je ne vais pas l'élever la main.
17:50Je pense qu'il faut couper le haut-parleur du micro de M. Basset,
18:07enfin le haut-parleur de l'ordine de M. Basset,
18:08pour éviter les boucles d'interférences.
18:14Voilà, c'est bon.
18:20Alors, on a la parole. C'est bon ?
18:22Oui, c'est bon.
18:22OK.
18:23C'est ce mécanisme qui est décrit par M. Basset
18:27et on le retrouve dans le mécanisme publicitaire
18:31qu'on a sur les réseaux sociaux.
18:33Alors, ce n'est pas le cas de TikTok, puisqu'il y a moins de publicité.
18:36Mais en tout cas, sur les autres plateformes, notamment Meta,
18:40il y a cette notion de recueil de cookies.
18:44Et effectivement, les publicités identifiées comme ciblant une population,
18:53recueil des cookies,
18:54et donc vont permettre de cibler encore davantage cette population,
18:59et ainsi de suite.
19:00C'est un site, par exemple, pour les paris sportifs,
19:04les offres de gratification sont particulièrement destinées
19:11aux personnes qui utilisent les plateformes des opérateurs de jeux,
19:19identifiées comme telles.
19:21Ça, c'était pour rebondir sur le propos de M. Basset.
19:24Sur notre travail sur les réseaux sociaux,
19:29M. et Mme la députée,
19:31nous avons des projets qui nous permettent d'avoir une observation
19:34effectivement sur les contenus promouvant ou exposant
19:38des produits dangereux, que sont l'alcool et les paris sportifs.
19:43Notre activité, donc, consiste à essayer de faire supprimer
19:48un certain nombre d'entre eux,
19:49et à plus forte raison dès lors qu'ils sont permanents,
19:53donc les contenus TikTok sont, pour l'essentiel, permanents,
19:56mais il y en a dorénavant une catégorie de contenus
20:01qui ne le sont plus,
20:02qui sont aussi des contenus éphémères.
20:05Les catégories « pour toi », par exemple,
20:08ne font pas partie des contenus permanents.
20:11Et donc, ce qu'on observe,
20:13c'est qu'on a eu des difficultés
20:17à faire retirer les contenus à une période.
20:20Cette difficulté s'est légèrement atténuée au fur et à mesure du temps.
20:29Je vous parle d'un temps relativement long,
20:31c'est sur une période de 3 ans, 3-4 ans.
20:34On a commencé nos observations et nos travaux en 2021.
20:37Et nous, ce qu'on a remarqué,
20:39c'est que le fait d'agir en justice nous a permis d'avoir des...
20:43sur le côté alcool et sur l'application de la loi F1
20:47nous a permis d'avoir des améliorations
20:50sur la capacité à retirer certains contenus par les plateformes.
20:55Alors, pour ce qui est de TikTok,
20:56nous avons eu accès à une trustee procédure,
20:59l'équivalent de la préfiguration de la procédure prévue par le DSA.
21:05Et pour ce qui est de bêta,
21:11nous avons, à partir du moment où on a assigné
21:15et fait condamner la plateforme,
21:17eu davantage de taux de retrait de contenu
21:21pour aboutir aujourd'hui à un taux qui est critiquable encore,
21:26mais beaucoup mieux qu'au démarrage.
21:27On est à peu près à 70% de taux de retrait.
21:30Ce qui ne veut pas dire que tout est rose,
21:32au contraire,
21:34puisqu'on observe quand même un certain nombre d'aléas
21:39qui ne nous permettent pas de comprendre
21:43toujours les mécanismes qui font qu'on a un retrait ou non.
21:48Des fois, on essuie des refus aussi,
21:51quand je parle de méta particulièrement,
21:53des refus sans qu'on comprenne pourquoi
21:55et qui nous renvoient vers la justice,
21:57ce qui nous oblige encore à saisir la justice.
22:00Par rapport à la détermination de contenu illégaux ou pas.
22:06Et puis, par ailleurs,
22:08toute cette réalité de contenu retiré ou pas retiré
22:11occulte le fait qu'il y a un certain nombre de contenus
22:14qui passent entre les radars ou sous les radars plutôt.
22:18Ce sont les contenus éphémères, les stories.
22:20Et ça, c'est quelque chose qui, de toute façon,
22:23quelle que soit la régulation qui soit mise en place,
22:26de même que les lives d'ailleurs,
22:28extrêmement difficile à contrôler,
22:30et ce qu'on peut remarquer dans tout ça,
22:34c'est que, certes, les modalités de contrôle a posteriori
22:37semblent s'améliorer,
22:40mais quid des contrôles a priori
22:43et de l'anticipation des infractions ?
22:45Donc là, qu'est-ce qui se passe ?
22:46Qu'est-ce qu'on fait ?
22:47Là, je vous avoue qu'on n'a pas de réponse,
22:52on n'a pas de solution,
22:53et en tout cas, on constate qu'on est sans cesse obligé
22:56d'avoir une veille pour faire supprimer des contenus
22:58toujours aussi nombreux,
23:01et ça ne baisse pas avec le temps.
23:03Merci.
23:09Donc, pas de...
23:10Madame Lefebvre-Petit ?
23:12Oui.
23:15Il y a des problèmes d'écho.
23:16Oui, mais c'est que, dès que M. Leca...
23:18Est-ce que vous entendez bien ?
23:19C'est parfait, oui.
23:20Non, mais juste pour résumer les propos
23:23de M. Leca et de M. Basset,
23:26pour Addiction France,
23:27les algorithmes sont finalement le cœur du problème,
23:31aussi bien lorsqu'on parle de l'addiction
23:34aux réseaux sociaux, à TikTok,
23:37à l'outil en tant que tel,
23:38que lorsqu'on parle de l'addiction
23:40aux produits qui vont être valorisés
23:42sur ces mêmes réseaux sociaux.
23:45Et donc, c'est pour ça que l'important pour nous,
23:49c'est de responsabiliser d'abord
23:50les plateformes, les acteurs numériques,
23:54plutôt que de responsabiliser les parents.
23:58On passe plutôt sur la responsabilisation des acteurs.
24:01Voilà.
24:06Merci.
24:07Donc, peut-être, Madame la rapporteure,
24:09pour vos questions.
24:10Oui, merci beaucoup.
24:12Merci à tous les trois d'avoir répondu favorablement
24:14à notre convocation.
24:17Peut-être plusieurs questions, en effet,
24:19déjà sur le sujet de l'addiction en tant que telle.
24:23Certaines de nos auditions,
24:24qui portaient notamment sur ce sujet,
24:28nous laissaient penser que finalement,
24:29la question de la dépendance aux écrans
24:31restait quand même relativement controversée,
24:34en tout cas dans le milieu scientifique.
24:35Et donc, je voulais savoir ce qui vous,
24:37sur quoi, alors vous en avez un peu parlé,
24:39vous parliez plutôt de l'algorithme,
24:41mais moi, je parlais plus généralement là des écrans.
24:46Est-ce que vous pourriez peut-être nous expliquer
24:47en quoi vous considérez que, voilà, l'écran,
24:51et si on va plus dans le détail, les réseaux sociaux,
24:54pouvaient relever d'une addiction aujourd'hui ?
24:56Ça, c'était ma première question.
24:58Ensuite, savoir si vous, vous voyez,
25:01de votre point de vue, une exception,
25:04ou en tout cas une particularité,
25:06s'agissant de TikTok.
25:07Est-ce que vous considérez,
25:08notamment l'algorithme,
25:09mais peut-être pas que,
25:11que, voilà, le fonctionnement de TikTok
25:12rend particulièrement dépendant ?
25:15En tout cas, est-ce que vous voyez
25:16une spécificité là-dessus ?
25:18Et puis peut-être, si vous pouviez,
25:20enfin, après, on pourra,
25:22avec les échanges, on pourra peut-être poursuivre,
25:24mais est-ce que vous pourriez peut-être aussi détailler,
25:29vous nous disiez que le système de signalement
25:33des contenus problématiques,
25:36et le fait qu'il soit aujourd'hui plus facilement retiré,
25:39enfin, vous aviez vu une évolution ces quelques années,
25:42est-ce que vous pouvez nous préciser
25:43sur quelle plateforme, précisément,
25:45vous avez parlé de méta,
25:47mais est-ce que sur TikTok,
25:48vous avez un taux de retrait qui est,
25:50est-ce que vous avez, voilà, un chiffre
25:52s'agissant du taux de retrait sur TikTok,
25:54et est-ce que les choses vont en s'améliorant ou pas ?
25:58Sur TikTok, et puis peut-être un dernier mot aussi,
26:00je voulais vous entendre sur les politiques de prévention
26:03que vous mettez en œuvre,
26:04peut-être que vous pouvez nous les détailler.
26:07Je vous remercie.
26:12Dans l'ordre que vous souhaitez.
26:17Monsieur Basset, on n'a pas votre micro.
26:18On a un peu de gymnastique,
26:25il faudra juste penser à activer le micro de celui qui parle
26:28et couper le haut-parleur des autres.
26:30Oui, c'est bon.
26:31Là, ça va, je pense.
26:32C'est bon.
26:33Alors, effectivement, le sujet de l'addiction aux écrans
26:36fait encore l'objet de débats.
26:38De débats entre est-ce que c'est l'addiction aux écrans
26:42ou est-ce que c'est l'addiction au contenu porté, véhiculé par les écrans.
26:47Alors, c'est vrai que les écrans sont partout dans notre société.
26:52Nous, on a tendance à plutôt considérer
26:54que c'est une addiction au contenu de ces écrans.
26:58et c'est pour ça qu'on est assez attentif
26:59au fonctionnement des plateformes et à ce qu'elles proposent.
27:05Et il y a deux points, comme on l'a dit.
27:08Il y a le premier, c'est les algorithmes qui enferment.
27:14Et le deuxième, c'est les contenus qu'ils portent.
27:16Alors, c'est vrai que s'ils portent des contenus valorisant l'alcool
27:21en infraction à la loi Evin
27:24ou les jeux, les paris sportifs en infraction
27:27aux recommandations de l'autorité nationale des jeux.
27:32C'est un autre facteur d'addiction spécifique
27:35qui est porté par les plateformes
27:38indépendamment du caractère addictif lié aux algorithmes.
27:44Alors, il faut savoir qu'on est encore, je dirais,
27:48dans la réflexion.
27:52Vous avez entendu la semaine dernière Amine Benyamina
27:54qui était président de la commission
27:57avec Servan de Mouton.
28:00Ils ont pris, devant ce débat théorique,
28:04une position très pragmatique.
28:08Voilà, on constate tels effets
28:09et on essaye d'y remédier.
28:12Mais ils n'ont pas pris position sur le plan théorique.
28:15Dire qu'il y a des addictions aux écrans
28:16ou ces addictions à des écrans,
28:19finalement, c'est l'addiction au contenu.
28:21Enfin, on ne trouve pas une ligne théorique
28:26aussi affirmée par rapport, je dirais,
28:30à la question que vous posez.
28:32Nous, on a plutôt, comme je vous l'ai dit,
28:35une option pragmatique,
28:36c'est-à-dire qu'on est addict au contenu
28:40et avec un facteur favorisant
28:42qui est l'algorithme.
28:46On a aussi, il faut le reconnaître,
28:50un facteur qui a été évoqué
28:53en passant par Franck Lequin,
28:55c'est-à-dire le caractère rapide
28:58et éphémère des contenus.
29:01Et quand on a un contenu court, éphémère
29:06qui produit un certain plaisir,
29:10on a tendance à le renouveler.
29:11C'est ce que je décrivais.
29:14Donc, effectivement,
29:16on est dans un environnement
29:19favorisant les comportements addictifs
29:23par rapport à ce que proposent les plateformes
29:26avec différents mécanismes,
29:28soit par l'algorithme,
29:29soit par la vitesse,
29:30soit par le contenu et le produit
29:32qu'ils promeuvent.
29:34Alors, les infractions à la loi Evin,
29:41en particulier,
29:42c'est ce qu'on surveille le plus,
29:46on a pratiquement plus de réponses positives
29:49de retrait quand on fait un signalement
29:52à TikTok que sur Meta.
29:54Meta, je dirais que TikTok retire
29:57c'est les contenus qu'on lui signale
30:02comme illégaux dans 70% des cas.
30:04Et Meta, c'est combien ? 50% ?
30:07Non, on est arrivé à 76 sur Meta
30:14et 95 sur TikTok.
30:16D'accord.
30:16Mais ça cache les contenus éphémères.
30:21Voilà.
30:21Alors, le problème de ces contenus,
30:26c'est que souvent, c'est les stories,
30:28c'est très éphémère, c'est très labile
30:29et qu'en cas d'infraction,
30:31même caractérisée,
30:33on ne peut pas se retourner devant le juge
30:35parce qu'on n'a pas le temps
30:35de les faire constater
30:37par un commissaire de justice.
30:39Et devant le juge,
30:40évidemment, il faut produire une preuve.
30:41et quand c'est un contenu
30:43qui disparaît très rapidement,
30:45on n'a pas le temps
30:45de produire un constat
30:46qui est présentable devant le juge.
30:49Franck, tu voulais compléter ?
30:59Le temps de procéder aux modifications
31:02de changement de durateur.
31:04La prochaine fois,
31:05vous saurez qu'il est plus simple
31:08de se tenir dans les CP ensemble
31:10à une même audition.
31:10Alors, on est bon là ?
31:13C'est bon, on est bon.
31:16Effectivement,
31:16alors,
31:17malgré tout,
31:19malgré,
31:19alors effectivement,
31:20je ne veux pas faire passer,
31:21il ne s'agit pas de faire passer TikTok
31:22comme un bon élève,
31:23mais il s'avère que pour ce qui est des retraits,
31:26c'est quand même plus satisfaisant
31:28qu'avec Meta.
31:29Alors, dernièrement,
31:30on a quand même la problématique
31:32avec TikTok
31:32de...
31:34de...
31:37mince.
31:39on a les problématiques
31:41des contenus restreints,
31:43c'est ça.
31:44Alors,
31:44on utilise une procédure spécifique
31:46avec TikTok
31:47qui nous dit que certains contenus
31:48sont restreints,
31:50mais on ne comprend pas
31:51à qui ils sont restreints.
31:52si on nous disait
31:54qu'ils étaient
31:54restreints au territoire...
31:59enfin,
31:59qu'ils ne permettaient pas
32:01d'être vus en France,
32:01on comprendrait,
32:02mais là, restreints,
32:03on n'a pas compris exactement
32:04de quoi il s'agissait.
32:06Il ne s'agit pas
32:06d'édiés au blocage
32:07et qu'il est limité
32:08pour certains,
32:09certaines formes.
32:10Ça veut dire,
32:11si j'ai bien compris
32:12que certains contenus
32:13seraient restreints
32:14et seraient pu utiliser
32:17dans l'algorithme
32:18pour toi,
32:20c'est-à-dire
32:20ciblant une population.
32:22Pour autant,
32:24si ce n'est pas légal,
32:25ce n'est pas forcément
32:25une réponse satisfaisante.
32:26Pour l'instant,
32:27on est en discussion
32:27avec TikTok
32:28pour savoir
32:29de quoi il s'agit exactement.
32:34Effectivement,
32:35le gros problème
32:35reste pour les plateformes
32:37la question
32:38des stories éphémères,
32:39mais on l'a déjà dit
32:40plusieurs fois.
32:44La nécessité
32:45de devoir saisir la justice.
32:46Il y a peut-être
32:47quelque chose
32:47qui vous intéresserait.
32:49L'amélioration
32:50des délais de retrait
32:51sur TikTok,
32:52au tout démarrage,
32:54je crois qu'on était
32:55sur une dizaine
32:56de jours
32:56et aujourd'hui,
32:57on n'est plus
32:57sur entre 1 et 5 jours.
32:59Il y a quand même
33:00un effort qui est fait
33:00également
33:01avec cette réserve
33:03que pour certains
33:06créateurs de contenus,
33:09le fait d'avoir
33:10des sanctions,
33:11un retrait
33:11n'est pas forcément
33:13synonyme
33:14de retrait
33:14de suppression
33:15de compte.
33:16Il n'y a pas
33:16de sanction
33:17plus globale.
33:18Et si c'est le cas,
33:19s'il y a une suppression
33:20de compte,
33:21ça n'empêche pas
33:22aux créateurs
33:23de contenus
33:24contrevenants
33:25à la loi,
33:26en l'occurrence,
33:27mais aussi aux règles
33:28de TikTok,
33:30puisque c'est une distinction
33:31qu'ils font,
33:33peut recréer
33:35un compte
33:35ou bien aller
33:37sur une autre plateforme.
33:39C'est des limites
33:40de nos actions
33:40et effectivement,
33:42il y a quand même
33:42un sujet là-dessus
33:43puisque c'est le cas.
33:45très concrètement,
33:46on l'a observé.
33:48Est-ce que vous m'entendez ?
33:50Est-ce qu'on nous oblige
33:50à multiplier des actions,
33:52donc multiplier du temps
33:53et de la surveillance
33:54et de la perte
33:57d'efficience
33:57dans notre fonctionnement
33:59et aussi
34:00de la perte de temps.
34:02C'est très concrètement,
34:03c'est ça,
34:04et de l'argent aussi public.
34:07Voilà un peu
34:08ce que je voulais compléter.
34:10Est-ce que vous m'entendez
34:11ou est-ce que personne
34:12ne m'entend ?
34:14Je crois qu'il faut réactiver
34:15un haut-parleur.
34:17Je pense qu'ils vont finir
34:18par l'entendre.
34:19Est-ce que quelqu'un,
34:20est-ce que vous m'entendez ?
34:25Allô,
34:26est-ce que vous m'entendez ?
34:27Si vous m'entendez,
34:27faites-moi un petit signe.
34:29Moi, je t'entends.
34:30Voilà, toi,
34:30tu m'entends,
34:31mais peut-être qu'à distance,
34:32j'ai l'impression
34:33que maintenant, oui.
34:34Voilà,
34:35vous aviez coupé tout
34:36au haut-parleur,
34:37donc c'était difficile
34:37de rebondir.
34:40Je me paierai,
34:41madame la rapporteure,
34:42de continuer
34:42sur ce sujet
34:44dont on parle là,
34:45c'est-à-dire la modération
34:46et les transferts
34:46d'une plateforme à l'autre.
34:48Est-ce que vous n'avez pas
34:49eu l'impression
34:49qu'un certain nombre
34:50d'influenceurs problématiques
34:52sur d'autres plateformes
34:53type Insta,
34:54c'était à un moment
34:56reporté sur TikTok ?
35:01Quand on évoque
35:01ces changements
35:02d'une plateforme à l'autre.
35:03Je pourrais activer le micro
35:08parce que là,
35:08le micro n'est pas réactivé.
35:15Désolé pour ces difficultés
35:17techniques,
35:18c'est les limites
35:20d'être dans la même pièce
35:21ensemble.
35:23Très concrètement,
35:25et comme on prête serment,
35:26je ne vais pas inventer,
35:27c'est l'inverse
35:28qu'on a remarqué
35:28des TikTokers
35:31qui ont pu être bannis
35:33sur TikTok
35:33qui se sont retrouvés
35:34sur Meta.
35:35Alors, il y en a un,
35:36je vais le dire,
35:37il s'appelle Zaki.
35:40Tant pis,
35:40je le dénonce.
35:42Mais il a
35:43plusieurs comptes
35:46bannis sur TikTok,
35:47il en recrée un.
35:49Et là, c'est vrai
35:49qu'on a un peu de mal
35:51à comprendre aussi
35:52comment fonctionne TikTok,
35:53c'est-à-dire que
35:54malgré
35:54le fait qu'on signale,
35:58ça ne l'empêche pas
35:59de recréer un nouveau compte.
36:00Peut-être qu'il y aurait
36:01des solutions à trouver
36:02du côté
36:03d'identifier.
36:04Quel est le contenu ?
36:05Quelle est la nature
36:07du problème ?
36:08Ce monsieur
36:09créait des cocktails
36:10avec des alcools,
36:15différents alcools
36:15et avec des friandises.
36:18Souvent,
36:19ça arrive souvent
36:19avec du Kinder Bueno,
36:21des Barbapapa
36:23ou des trucs comme ça.
36:24C'est un peu tendancieux
36:25du point de vue
36:26du ciblage.
36:28Et puis,
36:29c'est ludique surtout.
36:31C'est une consommation
36:32d'alcool ludique
36:33au-delà du fait
36:33que ça puisse éventuellement
36:34cibler une certaine
36:36population jeune.
36:38C'est illégal.
36:39En gros,
36:40c'est illégal.
36:41Il n'y a pas vraiment
36:41de débat là-dessus.
36:42TikTok supprime,
36:43mais il a recréé,
36:44en plus,
36:45ils sont en vente.
36:45Il y a marqué
36:45dans son palmarès
36:47trois comptes bannis
36:48sur TikTok.
36:51C'est assez cynique
36:52ou irrévérencieux,
36:54je ne sais pas
36:55comment le formuler.
36:56En tout cas,
36:56lui,
36:57il a maintenant
36:57un compte sur Instagram
36:58aussi,
36:59au cas où.
37:01Mais ça,
37:01du coup,
37:02on n'a pas de…
37:05Voilà,
37:05à part re-signaler,
37:06re-signaler,
37:06re-signaler,
37:07ce n'est pas très efficace.
37:08Donc,
37:08on a peut-être
37:08d'autres…
37:09Est-ce que vous l'avez ?
37:10Parce que quand vous dites
37:11qu'on a un canal de…
37:12C'est lui qui a coupé,
37:16là, je crois.
37:17Oui,
37:17on ne t'entend plus,
37:17Arthur.
37:23Il y a…
37:24L'image fixe.
37:27Il y a une image fixe.
37:28Et je n'ai pas compris
37:28où il voulait en venir
37:29dans sa question,
37:30il a juste commencé.
37:32Eh oui,
37:32vous ne pouvez pas
37:32prendre le relais.
37:33Je ne peux pas prendre
37:34le relais de sa question,
37:35en tout cas.
37:36C'était trop prématuré,
37:37même si vous vous connaissez bien.
37:38C'est ça.
37:40Je ne suis pas encore
37:40dans sa tête.
37:44Non,
37:44mais le temps
37:44qui se reconnecte,
37:45moi,
37:45je voulais…
37:46J'aurais bien aimé
37:47vous entendre
37:47sur les politiques
37:48de prévention.
37:48Vous ne les avez pas
37:49forcément détaillées.
37:50Si vous pouviez en dire
37:51quelques mots
37:52en attendant qu'ils reviennent.
37:56C'est…
37:57C'est…
37:57C'est plutôt
37:58le PCPS
37:59et tout ça,
38:00mais c'est pas…
38:01On n'a pas…
38:01Alors,
38:03si vous voulez,
38:03on a des politiques
38:04de prévention
38:05globales
38:06envers les jeunes
38:08et en particulier
38:08avec ce qu'on appelle
38:10des programmes pro-bord,
38:11c'est-à-dire certifiés
38:12par Santé publique France,
38:14par la CHAS
38:14ou d'autres,
38:15sur leur efficacité.
38:17Alors,
38:17auprès des jeunes,
38:18c'est les programmes
38:21qui visent à renforcer
38:22ce qu'on appelle
38:23les compétences psychosociales.
38:25En gros,
38:26la capacité pour un jeune
38:28à dire non
38:28à une sollicitation,
38:29une sollicitation
38:30qu'il ne souhaite pas vraiment
38:32ou à dire non
38:33à des effets de groupe
38:35de plaire
38:36qui l'incite à consommer.
38:38Donc,
38:38on a des programmes
38:41qui sont déployés
38:42auprès de ces populations scolaires
38:44et qui sont financés
38:45par le Fonds national
38:46de lutte contre les addictions.
38:48Et puis,
38:48par ailleurs,
38:49effectivement,
38:50on a des…
38:53ce qui joue aussi
38:56sur la prévention,
38:57c'est d'avertir
39:00les plateformes
39:01quand ils proposent
39:03des contenus illégaux
39:04et de faire de la pédagogie
39:05pour qu'ils les retirent
39:06s'ils sont déjà en ligne
39:08ou pour qu'ils ne le recommencent pas.
39:09Alors,
39:09ça,
39:09évidemment,
39:10c'est un peu plus difficile.
39:11Vous avez eu un aperçu
39:13de la difficulté de ça.
39:18Nous,
39:19on avait milité
39:21au moment de la loi
39:22sur les influenceurs
39:23pour que les influenceurs
39:25ne puissent pas faire
39:26de publicité
39:27en aucune manière
39:30sur les alcools.
39:31Qu'elles soient directes
39:32ou indirectes.
39:33Qu'elles soient directes
39:34ou indirectes.
39:35Donc,
39:35ça n'a pas été accepté
39:37par le gouvernement,
39:39mais c'est vrai
39:40que ce serait
39:42une solution structurelle,
39:44en tout cas,
39:45pour la promotion
39:46des boissons alcooliques
39:48par les plateformes.
39:49Sinon,
39:53on participe évidemment
39:54à des opérations
39:55de prévention générale
39:56sur les paris sportifs,
40:04etc.
40:04Enfin,
40:05bon,
40:05comme d'autres,
40:06on n'a pas l'exclusivité
40:07de ces actions
40:09et souvent,
40:10c'est en relation,
40:12évidemment,
40:13avec Santé publique France,
40:15avec les services
40:18du ministère de la Santé
40:19et autres.
40:22Si vous m'entendez,
40:23parce que j'ai eu
40:23moi-même
40:23un petit sujet de question.
40:25Voilà.
40:26Donc,
40:26peut-être que Laure
40:27avait embrayé.
40:28J'avais embrayé,
40:29mais si tu veux revenir
40:30en arrière,
40:30parce qu'on avait eu
40:31le début de ta question
40:31qui ne nous permettait
40:32pas vraiment
40:33d'en connaître l'orientation.
40:37Pourtant,
40:37c'était une super question.
40:39Non,
40:40c'était...
40:41Non,
40:42je ne sais plus
40:42si c'est celle-là
40:43que j'avais posée
40:43parce que j'ai l'impression
40:44que vous aviez répondu.
40:45Mais oui,
40:46je vous demandais
40:46si vous aviez,
40:47parce que du coup,
40:48vous avez un canal
40:49de signalement privilégié
40:50et que vous avez
40:51un taux de retrait
40:51de 94%.
40:52Est-ce que vous avez
40:53des contacts directs
40:55et identifiés
40:56pour remonter,
40:57par exemple,
40:57des recréations de comptes,
40:59etc.
41:00Des individus vus,
41:01des numéros ?
41:05C'est bon là,
41:07du coup ?
41:07Oui, oui, c'est bon.
41:09Effectivement,
41:09c'est ce qu'il y a
41:10de plus laborieux
41:11de notre côté.
41:13Ça nécessite
41:14à nouveau
41:14une démarche.
41:16Les collaborateurs
41:17de TikTok
41:17évoluent aussi,
41:18très fréquemment,
41:19ça change assez souvent.
41:22A priori,
41:23la modération,
41:23elle se ferait plutôt
41:24en Irlande,
41:25d'après ce que j'ai suivi.
41:27Mais en ce moment,
41:28on a un contact
41:28français
41:31qui évolue.
41:32Je ne sais pas exactement
41:33où il se situe
41:33dans l'institution TikTok.
41:36En tout cas,
41:37on a de moyens,
41:38on a possibilité
41:39de communiquer
41:40avec eux directement,
41:40effectivement.
41:41d'accord.
41:42C'est pas le cas
41:43du code.
41:44Donc là,
41:45le compte que vous évoquiez
41:46à l'instant,
41:47par exemple,
41:47vous leur avez dit
41:48de manière explicite
41:50et pas simplement
41:51par un formulaire,
41:52lui,
41:52il s'est recréé trois fois.
41:53Exactement.
41:55Alors,
41:55on l'a fait
41:56jusqu'à la deuxième.
41:58Là,
41:58on envisage
41:58d'autres solutions
41:59plus contraignantes
42:05vis-à-vis de cet influenceur.
42:07Du coup,
42:08en espérant
42:09que ça le dissuade
42:09un peu plus,
42:10je vous avais compris,
42:11on va faire probablement
42:12une action contentieuse.
42:15Et donc,
42:16on a mis de côté
42:19à cet influenceur
42:23puisqu'on a bien compris
42:24que les actions préventives
42:25ne fonctionnaient pas
42:26avec lui.
42:29Le bâton,
42:31effectivement,
42:32il ne nous laisse pas
42:33vraiment le choix,
42:34d'autant plus
42:34qu'il a été
42:35pas particulièrement sympathique
42:37à notre égard
42:38sur une vidéo
42:40qui nous a
42:40partiellement dénigrés.
42:43Et donc,
42:44ce qui me permet
42:45d'aller au-delà,
42:45c'est-à-dire que là,
42:46on parle beaucoup
42:46de la modération
42:47par les plateformes,
42:48mais en l'occurrence,
42:49là,
42:49il s'agit de propos
42:50clairement,
42:52de contenu
42:53carrément illicite.
42:54Et donc,
42:55du coup,
42:56se pose la question
42:56de la judiciarisation.
42:59Est-ce que vous pouvez
42:59nous en dire
43:00un peu plus aussi
43:01sur ce plan-là,
43:02sur l'effectivité
43:03ou pas
43:04des actions judiciaires,
43:06sur la rapidité,
43:07sur les moyens ?
43:08Enfin, voilà,
43:08on voit un peu...
43:10Alors,
43:11effectivement,
43:11je peux en dire davantage.
43:14Comme je vous l'expliquais
43:15au tout démarrage,
43:16le fait d'agir en justice
43:17nous a permis
43:17de débloquer
43:18la situation
43:18avec TikTok.
43:19Mais est-ce que vous avez
43:23la porte
43:24d'une procédure
43:25spécifique
43:26pour nous permettre
43:28d'agir ?
43:29Ça n'a pas été le cas
43:29pour META.
43:31Mais là,
43:31je parle plus
43:32au niveau des moyens
43:32de l'État
43:33et de la procédure judiciaire
43:35au-delà de la question
43:35des liens
43:36que vous pouvez avoir
43:36avec les plateformes.
43:37Alors,
43:38la procédure judiciaire
43:40apporte des résultats
43:42qui peuvent être rapides
43:44puisqu'on a la procédure
43:45accélérée au fond
43:46prévue par la loi
43:47confiance en économie numérique
43:49et qui nous permet
43:50d'agir vite
43:51et de citer rapidement.
43:54Nous,
43:55on ne cite pas...
43:57on ne fait pas
43:58une action
43:59par contenu,
44:01on en rajoute
44:02quelques-uns,
44:04donc on attend
44:04d'en avoir assez
44:05pour avoir une action
44:07rentable et efficiente.
44:08On a des moyens
44:09d'association,
44:10on n'est pas non plus
44:10très riches
44:11et puis en plus,
44:12on ne souhaite pas
44:12encombrer les tribunaux
44:14sur ces problématiques-là
44:16outre mesure
44:17parce que de peur
44:19de créer une saturation
44:21et de gêner le juge
44:24et d'aboutir
44:25à une décision défavorable.
44:27Donc,
44:27du coup,
44:27on fait quand même
44:27très attention
44:28à ne pas trop en user,
44:31on fait attention,
44:32mais c'est vraiment
44:33une stratégie
44:34qu'on réfléchit
44:35et on y va
44:38avec parcimonie
44:39et sur des contenus
44:39vraiment
44:40qui ne posent pas
44:42de difficultés juridiques
44:44selon nous,
44:44en tout cas.
44:46Et donc,
44:46par contre,
44:47la contrepartie,
44:48c'est que même
44:49si c'est efficace,
44:49c'est assez long.
44:51Dans notre rapport
44:52Far West,
44:55les réseaux sociaux,
44:56le nouveau Far West,
44:57on a le délai précis,
44:59ça s'étale
44:59entre deux ans
45:00et plus.
45:02Ça dépend
45:02à quel moment
45:03de la procédure
45:03on se situe,
45:04mais c'est quand même
45:05assez long.
45:06En moyenne,
45:07c'est assez long.
45:09Malgré tout.
45:12Et de la même manière
45:14que c'est assez long,
45:15sur les liens
45:16que vous avez avec l'ARCOM,
45:17je n'ai pas l'impression
45:17qu'on en avait beaucoup parlé.
45:19On n'en a pas parlé,
45:20effectivement.
45:22Et donc,
45:23du coup,
45:24c'est de quelle nature,
45:26qu'est-ce que vous faites
45:27comme type de signalement,
45:28éventuellement ?
45:29Alors,
45:30un ARCOM,
45:32il faut distinguer,
45:33j'ai vu dans vos questions
45:34que vous liez l'ARCOM
45:35au DSA.
45:37Alors,
45:37effectivement,
45:37il y a un lien
45:37puisque c'est l'ARCOM
45:38qui a donné à Addiction France
45:41le statut de signaleur de confiance
45:43dans les termes prévus
45:44par le DSA,
45:46puisque c'est l'autorité
45:48qui est prévue
45:48pour cela en France.
45:50Donc,
45:50on a ce statut
45:51et on l'a depuis avril
45:52et sur ce statut
45:53et sur l'efficience
45:54ou l'efficacité,
45:56pour l'instant,
45:56je ne vous en dirai pas
45:57beaucoup plus
45:58puisqu'on ne l'a pas mis en œuvre
45:59pour deux raisons.
46:01Déjà,
46:02parce qu'il faut
46:02qu'on s'organise en interne
46:03pour savoir ce qu'on signale
46:04et dans quel contexte,
46:06finalement,
46:07quel protocole on applique.
46:09Et la deuxième,
46:10c'est qu'on n'a pas forcément
46:12les clés d'utilisation
46:14pour toutes les plateformes,
46:15y compris pour TikTok,
46:17pour laquelle on a
46:18une procédure spécifique
46:20qui est en place,
46:21mais on n'a pas bien compris
46:22exactement comment elle fonctionnait
46:25à ce stade.
46:27Pour l'instant,
46:27on n'a pas réussi
46:28à la mettre en place,
46:29très concrètement.
46:30Il y a un blocage
46:31à un endroit.
46:32Contrairement à leur ancienne procédure,
46:34trustee-procédures,
46:37qui est toujours en cours d'ailleurs.
46:38Ils vont faire cohabiter
46:39les deux procédures.
46:42Je pense que vous êtes au courant
46:43si vous les avez déjà auditionnées.
46:47Pour ce qui est des autres,
46:48en revanche,
46:49on n'a pas réussi
46:50à le mettre en place,
46:51que ce que soit pour YouTube,
46:54méta, pas de réponse.
46:55Certaines plateformes
46:58nous ont communiqué,
47:00sont venues vers nous
47:01pour nous en joindre
47:02à utiliser cette procédure
47:05et à nous donner des clés.
47:08Mais ces clés,
47:09pour l'instant,
47:10on n'a pas réussi
47:10à les faire fonctionner.
47:11On n'a pas trouvé la serrure,
47:12si vous voulez.
47:13Donc, pour l'instant,
47:15ce n'est pas encore utilisé,
47:18mais c'est tout frais aussi
47:19et on va le faire dans l'année.
47:22On expérimentera aussi,
47:23on fera des comparaisons
47:24entre un signalement classique,
47:26un signalement DSA,
47:28l'efficacité,
47:28l'efficience, etc.
47:30Donc, on vous fera régulièrement
47:32des comptes rendus,
47:33en tout cas,
47:34à qui voudra l'entendre,
47:36sur ce sujet-là.
47:38Quant à l'ARCOM,
47:39des signalements,
47:40on peut toujours en faire.
47:41Chaque citoyen peut en faire également.
47:42Donc, nous, on le fait
47:43avec notre président.
47:46On fait des signalements
47:47sur certains contenus
47:48qu'on peut trouver effectivement
47:50aussi sur les réseaux sociaux.
47:51dont YouTube,
47:54par exemple,
47:55puisque nous,
47:55on a choisi d'utiliser l'ARCOM,
47:57enfin, de saisir l'ARCOM
47:59pour des signalements YouTube.
48:00On l'a fait plusieurs fois.
48:02On l'a fait, par exemple,
48:04alors, je vous laisserai juger
48:05de la pertinence,
48:06sur un clip de SCH
48:07qui est présent sur YouTube.
48:09Un rappeur.
48:10Un rappeur SCH
48:11que les Marseillais connaissent encore mieux,
48:15mais maintenant,
48:15c'est la France entière.
48:16et du coup,
48:18ils ont simplement flouté,
48:20ils ont demandé à flouter
48:23les éléments
48:24où il y avait de la publicité
48:25pour l'alcool.
48:27Voilà, ce qui est une petite,
48:29ce n'est pas une grosse sanction.
48:30Il n'y avait pas de sanction contraignante.
48:33Au-delà de ça,
48:35et de mémoire,
48:35sur un autre signalement,
48:37c'était également le cas.
48:38Ils nous ont demandé
48:38de couper les éléments
48:39qui étaient problématiques.
48:41Donc, ça n'allait pas au-delà de...
48:43C'est une sanction relativement douce.
48:44Il n'y a pas de sanction plus forte
48:46de la part de l'ARCOM
48:48à ce que nous sachions pour l'instant.
48:52Le rapporteur.
48:56Oui, moi, j'étais plutôt ensuite
48:57sur le fait de pouvoir éventuellement
48:59vous entendre sur qu'est-ce qu'on fait
49:01par rapport à ce que vous voyez au quotidien.
49:04Est-ce que vous avez des recommandations
49:09ou des aspirations
49:10en termes de politique de santé publique,
49:11peut-être,
49:12que vous pourriez partager avec nous ?
49:17Alors, en ce qui concerne,
49:19on a commencé par l'effet pervers
49:22de l'algorithme.
49:24Et l'effet pervers de...
49:26Alors, il y a...
49:27Alors, on ne veut pas faire de la publicité,
49:29mais enfin,
49:30le Dailymotion,
49:31un algorithme différent
49:33qui propose des contenus
49:34en dehors des préférences.
49:36Effectivement, je veux dire,
49:37c'est plutôt meilleur
49:39pour la simulation intellectuelle
49:41de ne pas être enfermé
49:42dans un entonnoir de préférences
49:45qui se renforce à chaque fois
49:46qu'on clique sur un contenu.
49:49D'autre part,
49:51c'est vrai qu'il y a le temps d'exposition
49:53au contenu des écrans.
49:57Alors, il peut y avoir une solution technique,
49:59c'est de passer en noir et blanc,
50:02c'est-à-dire un visuel moins attractif
50:06au bout d'un temps d'exposition.
50:11Alors, je ne sais pas,
50:1230 minutes, une heure,
50:13enfin, pour déterminer,
50:14mais de faire en sorte que, justement,
50:16le fait de rester sur l'écran
50:17devienne moins attractif
50:18au fur et à mesure
50:20que le temps s'écoule.
50:23Et puis, pour nous,
50:25ce qui nous préoccupait,
50:26c'est-à-dire le non-respect
50:29de la loi Evin sur les réseaux sociaux
50:31et en particulier chez les influenceurs,
50:33par les influenceurs,
50:35on ne voit pas d'autre solution
50:37que d'interdire la promotion de l'alcool
50:41par les influenceurs.
50:43Alors, il faut savoir
50:46que c'est quand même
50:46un des moteurs les plus puissants
50:51parce que les jeunes s'identifient
50:54à un jeune comme eux
50:55qui est en situation valorisante,
50:58et donc,
51:01en s'identifiant avec ce jeune
51:04qui a réussi et qui leur ressemble,
51:06auquel ils veulent s'identifier,
51:08ils s'identifient aussi
51:09à son comportement
51:10et à ce qu'il promeut,
51:12que ce soit des vêtements
51:13ou que ce soit de l'alcool.
51:14Donc,
51:15pour les produits dangereux,
51:20en particulier pour la jeunesse,
51:21et on sait que l'alcool,
51:22c'est dangereux pour le cerveau des jeunes,
51:24à notre avis,
51:27il n'y a pas d'autre solution
51:28que d'interdire la promotion de l'alcool
51:31sur les réseaux sociaux
51:33par les influenceurs.
51:34Alors, c'est une mesure assez radicale,
51:36mais on n'en a pas d'autre.
51:39Franck, tu vois là, j'explique.
51:41Non, c'est ça.
51:42Alors, il y a des problèmes
51:47qui ne sont pas simples à résoudre,
51:50mais le problème de vérification de l'âge
51:54et de contrôle de l'âge,
51:56évidemment, sur certains contenus.
51:59Bon, alors, c'est des mesures techniques
52:00sur lesquelles je ne me prendrai pas
52:01parce que je ne suis pas compétent
52:03sur le plan technique,
52:04mais simplement sur le principe.
52:07C'est vrai qu'on doit avoir
52:09un contrôle efficient de l'âge
52:11et d'accès à ces plateformes
52:15et à leur contenu
52:15en fonction, évidemment,
52:18de ce qu'ils promèvent.
52:21D'accord, merci.
52:23Merci.
52:24Madame Rapporteur,
52:24vous avez encore d'autres questions ?
52:25Non, non, non.
52:27Je vois qu'il y a M. Sauter
52:28qui est connecté.
52:29Je ne sais pas s'il a une question.
52:33Non, merci, ça va, M. le Président.
52:36On arrive au terme du créneau
52:38prévu pour l'édition.
52:39Je ne sais pas s'il y a des éléments
52:41supplémentaires que vous souhaitiez porter
52:43à notre connaissance
52:44et que vous n'avez pas pu évoquer jusque-là.
52:51Oui.
52:53Oui, vous m'entendez ?
52:55Très bien.
52:56Non, juste sur l'ensemble
52:58des revendications,
53:00rappelez que, enfin, voilà,
53:03M. Basset a parlé de l'âge.
53:05Enfin, l'important, c'est aussi
53:06que les plateformes,
53:07les acteurs du numérique
53:10prennent en charge réellement
53:12cette vérification de l'âge.
53:16Donc, par exemple,
53:16en demandant les justificatifs,
53:18idem pour passer en noir et blanc,
53:21pour tout ce qui est limite du temps,
53:23que ce soit vraiment les plateformes
53:24qui prennent en charge ces mesures,
53:27qui les mettent en œuvre
53:28et qu'elles soient proposées
53:30de manière claire et accessible
53:32à tous les utilisateurs,
53:33utilisateurs mineurs,
53:35mais aussi adultes,
53:36parce que les adultes
53:36peuvent être concernés
53:37par ces formes d'addiction.
53:39Voilà, mais donc,
53:40juste, l'important aussi
53:41pour Addiction France,
53:41c'est de faire savoir
53:43que ce sont aux plateformes,
53:47ces plateformes doivent
53:48prendre en charge ces mesures
53:50et ce n'est pas juste
53:50les parents qui doivent
53:51penser à mettre
53:54le contrôle parental,
53:55penser à vérifier
53:56ce que font les enfants.
53:57Voilà, pour résumer.
53:58Il ne s'agit pas
54:01de culpabiliser les parents
54:02qui font face
54:04à des réseaux sociaux
54:05et des plateformes
54:06qui sont redoutables.
54:08Donc, je veux dire,
54:09ces plateformes ont les moyens
54:11d'être régulées,
54:13de mettre en place
54:14le respect de la loi.
54:19Merci.
54:23Merci.
54:24Eh bien, il me reste
54:25donc à vous remercier,
54:26vous dire également
54:28si c'est bon pour vous,
54:30que nous restons
54:32la commission,
54:33Madame la rapporteure,
54:34et même à votre entière
54:35disposition
54:35pour tout
54:36propos
54:39complémentaires.
54:43Et cela par mail,
54:44si vous souhaitez
54:45nous communiquer
54:45des éléments,
54:46notamment pour répondre
54:48aux questions
54:48de Madame la rapporteure.
54:49Je crois que M. Basset,
54:49vous vouliez.
54:50Oui, on va vous...
54:52On a reçu
54:53le questionnaire vendredi,
54:54donc on va le remplir,
54:56on va vous le retourner,
54:57évidemment.
54:58Merci beaucoup.
54:59Merci à vous,
55:00et voilà,
55:00donc tout élément complémentaire,
55:01on prend aussi.
55:04Et donc,
55:05chers collègues,
55:06nous allons suspendre
55:07nos auditions
55:08pour aujourd'hui,
55:10et nous reprendrons demain
55:11à 14h20,
55:15voilà,
55:16précisément.
55:17donc chaque minute
55:19étant comptée
55:20pour cette commission
55:21qui mène ses auditions
55:22tambour battant,
55:23voilà,
55:24qui est déjà auditionnée
55:25à vue d'œil
55:25en plus d'une centaine
55:27de personnes
55:27à ce stade.
55:29Voilà,
55:29la séance est levée.
55:32Merci beaucoup.
55:33Merci,
55:33au revoir.
55:34Au revoir.
55:35Sous-titrage Société Radio-Canada
55:35Sous-titrage Société Radio-Canada
55:36Sous-titrage Société Radio-Canada
55:37Sous-titrage Société Radio-Canada
56:07Sous-titrage Société Radio-Canada

Recommandations