TikTok annonce fin 2025 des mesures pour contrer la désinformation et protéger les mineurs
Dès septembre 2025, TikTok lance une simplification de ses règles communautaires grâce à une section « Aperçu des règles » plus accessible, facilitant la compréhension de sa communauté. Cette nouveauté s’accompagne d’un renforcement des mesures de sécurité sur la messagerie directe, les commentaires et les diffusions en direct (lives), des espaces fréquemment pointés comme vecteurs de contenus problématiques.
La plateforme place au cœur de ses priorités la lutte contre la viralité des vidéos diffusant de fausses informations, en particulier celles amplifiées par l’intelligence artificielle (IA) qui intensifie la complexité du phénomène.
En parallèle, TikTok affine ses règles pour combattre le cyberharcèlement, combinant une formation plus poussée de ses modérateurs humains et une modération automatisée par IA, même si cette transition implique une suppression de certains postes de modérateurs, notamment en Allemagne.
Ces annonces sont une réponse directe au contexte critique de forte exposition à la désinformation et aux inquiétudes grandissantes sur l’impact psychologique de la plateforme, en particulier auprès des mineurs.
La désinformation sur TikTok exacerbe la manipulation via un algorithme opaque et viral
Un tiers des contenus publics sont problématiques
Selon le projet SIMODS mené par Science Feedback, entre 20 % et 34 % des vidéos sur des sujets d’intérêt public sur TikTok contiennent des informations fausses, trompeuses ou abusives. Cette proportion atteint un tiers une fois intégrés les contenus complotistes dits « borderline », un chiffre alarmant qui traduit une exposition massive à une désinformation structurante pour la perception du monde.
Un algorithme qui favorise la viralité sans hiérarchisation
TikTok repose sur un algorithme ultrapersonnalisé qui maximise l’engagement sans hiérarchiser les contenus selon leur véracité, ni labelliser clairement les informations fiables. Contrairement à Facebook ou Twitter où le partage manuel limite la viralité, TikTok promeut automatiquement ses contenus à un vaste public. Cette absence d’un filtre humain ou d’alerte visible accentue la propagation rapide des contenus trompeurs.
Des bulles de filtre renforçant les croyances
Ce modèle algorithmique cloisonne les utilisateurs dans des bulles informationnelles homogènes, où les croyances se renforcent sans confrontation ni débat contradictoire. Cette dynamique favorise la radicalisation et limite la diversité des opinions, un terreau fertile au développement de fausses informations.
Une opacité dénoncée au cœur de la critique
Les observateurs critiquent cette transparence déficiente des algorithmes, pointant que la promotion automatique des contenus trompeurs amplifie leur diffusion. Dans le contexte d’une audience particulièrement jeune, cette situation soulève des enjeux éthiques et sanitaires majeurs.
Pressions réglementaires européennes sous l'impulsion du Digital Services Act (DSA) sur TikTok
Le DSA impose de nouvelles obligations strictes
Le Digital Services Act impose à TikTok des obligations accrues concernant la transparence des algorithmes et la protection des utilisateurs, avec des sanctions financières pouvant atteindre 6 % du chiffre d’affaires mondial pour non-respect. Cette législation européenne marque un tournant dans le contrôle des plateformes numériques.
Une procédure formelle contre TikTok
La Commission européenne a ouvert début 2024 une procédure formelle contre TikTok, pointant des manquements sur la protection des mineurs et la transparence publicitaire. Cette action souligne l’intensification de la surveillance réglementaire sur la plateforme.
Mesures 2025 en lien avec cette dynamique réglementaire
Les nouvelles mesures annoncées par TikTok s’inscrivent dans cette dynamique européenne visant un équilibre entre protection des utilisateurs, lutte contre la désinformation et respect des libertés numériques. La plateforme adapte ainsi sa stratégie pour se conformer aux exigences légales tout en maintenant un environnement attractif et sécurisé.
Le rôle clé du DSA pour l’efficacité des mesures
L’application rigoureuse du Digital Services Act est jugée déterminante pour la réussite des efforts de modération et de transparence de TikTok. Elle constitue un levier essentiel afin de responsabiliser la plateforme sur la qualité et la véracité des contenus diffusés.
Impact psychologique sur les mineurs : rapport parlementaire et recommandations en septembre 2025
TikTok qualifié d’« engrenage mortel » pour les jeunes
Un rapport de la commission d’enquête parlementaire française décrit TikTok comme un « engrenage mortel », en raison des effets toxiques et addictifs observés chez ses 28 millions d’utilisateurs mineurs en France, dont près d’un enfant sur deux entre 11 et 12 ans possédant un compte malgré l’âge légal fixé à 13 ans.
Diffusion de contenus dangereux et fausses informations
Les députés dénoncent la diffusion sciemment tolérée de contenus racistes, sexistes ou antisémites, ainsi que la circulation massive de fausses informations, contribuant à la dégradation de la santé mentale chez les utilisateurs les plus vulnérables.
Recommandations fortes pour la protection des jeunes
Le rapport parlementaire préconise d’interdire l’accès aux réseaux sociaux aux moins de 15 ans et d’instaurer un couvre-feu numérique de 22h à 8h pour les 15-18 ans. Ces mesures visent à réduire l’exposition aux cyber-risques et limiter l’empreinte du « piège algorithmique ».
Constat d’une modération insuffisante
L’enquête révèle que la baisse de modérateurs humains combinée à une modération automatisée encore perfectible permet la persistance des contenus nocifs, malgré les efforts annoncés par TikTok. Ces failles intensifient les risques liés à la santé mentale et à la désinformation chez les jeunes.
TikTok modernise sa modération en combinant intelligence artificielle et formation renforcée des modérateurs
TikTok opère depuis fin 2025 un virage stratégique vers une modération largement automatisée par IA. La suppression de 150 postes de modérateurs en Allemagne illustre ce choix controversé, qui suscite un débat sur l’efficacité réelle et l’éthique de la délégation de la modération à des systèmes algorithmiques.
Simultanément, la plateforme augmente la formation de ses modérateurs restants, renforçant leur capacité à identifier précisément la désinformation et le cyberharcèlement, avec un outil plus performant pour détecter avant viralisation les contenus problématiques.
Pour accompagner cette évolution, TikTok a rendu plus lisible l’accès à ses règles via une nouvelle section « Aperçu des règles » et améliore la sécurité sur les messageries, commentaires et lives afin d’informer les utilisateurs et faciliter leur responsabilisation.
- Consultez régulièrement la section « Aperçu des règles » pour bien comprendre les conditions et restrictions.
- Utilisez les outils de contrôle parental et paramètres de sécurité pour limiter les contacts indésirables et protéger les jeunes utilisateurs.
- Sensibilisez votre entourage aux risques liés à la consommation de contenus toxiques ou trompeurs.
- Restez vigilant face aux contenus viraux, en croisant systématiquement les informations avec des sources fiables.
- Favorisez une utilisation raisonnée de TikTok, en particulier chez les mineurs, en tenant compte des recommandations parlementaires récentes.
