0.8
Menu

TikTok renforce sa lutte contre la désinformation avec de nouvelles mesures en 2025

dimanche 7 décembre 2025 Par Lina M 6 min de lecture
TikTok renforce sa lutte contre la désinformation avec de nouvelles mesures en 2025
TikTok annonce la mise en place, dès septembre 2025, de nouvelles mesures destinées à renforcer la lutte contre la désinformation et à protéger particulièrement les mineurs. Ces actions incluent une simplification des règles communautaires via une section « Aperçu des règles » plus accessible, un renforcement de la sécurité sur les messageries, commentaires et lives, ainsi qu’une modération combinant intelligence artificielle et formation accrue des modérateurs humains. Face à la viralité croissante des fausses informations, notamment amplifiées par l’IA, et sous la pression du cadre réglementaire européen, TikTok adapte sa stratégie pour limiter les contenus toxiques et prévenir les risques psychologiques chez les jeunes utilisateurs.

TikTok annonce fin 2025 des mesures pour contrer la désinformation et protéger les mineurs

Dès septembre 2025, TikTok lance une simplification de ses règles communautaires grâce à une section « Aperçu des règles » plus accessible, facilitant la compréhension de sa communauté. Cette nouveauté s’accompagne d’un renforcement des mesures de sécurité sur la messagerie directe, les commentaires et les diffusions en direct (lives), des espaces fréquemment pointés comme vecteurs de contenus problématiques.

La plateforme place au cœur de ses priorités la lutte contre la viralité des vidéos diffusant de fausses informations, en particulier celles amplifiées par l’intelligence artificielle (IA) qui intensifie la complexité du phénomène.

En parallèle, TikTok affine ses règles pour combattre le cyberharcèlement, combinant une formation plus poussée de ses modérateurs humains et une modération automatisée par IA, même si cette transition implique une suppression de certains postes de modérateurs, notamment en Allemagne.

Ces annonces sont une réponse directe au contexte critique de forte exposition à la désinformation et aux inquiétudes grandissantes sur l’impact psychologique de la plateforme, en particulier auprès des mineurs.

La désinformation sur TikTok exacerbe la manipulation via un algorithme opaque et viral

Un tiers des contenus publics sont problématiques

Selon le projet SIMODS mené par Science Feedback, entre 20 % et 34 % des vidéos sur des sujets d’intérêt public sur TikTok contiennent des informations fausses, trompeuses ou abusives. Cette proportion atteint un tiers une fois intégrés les contenus complotistes dits « borderline », un chiffre alarmant qui traduit une exposition massive à une désinformation structurante pour la perception du monde.

Un algorithme qui favorise la viralité sans hiérarchisation

TikTok repose sur un algorithme ultrapersonnalisé qui maximise l’engagement sans hiérarchiser les contenus selon leur véracité, ni labelliser clairement les informations fiables. Contrairement à Facebook ou Twitter où le partage manuel limite la viralité, TikTok promeut automatiquement ses contenus à un vaste public. Cette absence d’un filtre humain ou d’alerte visible accentue la propagation rapide des contenus trompeurs.

Des bulles de filtre renforçant les croyances

Ce modèle algorithmique cloisonne les utilisateurs dans des bulles informationnelles homogènes, où les croyances se renforcent sans confrontation ni débat contradictoire. Cette dynamique favorise la radicalisation et limite la diversité des opinions, un terreau fertile au développement de fausses informations.

Une opacité dénoncée au cœur de la critique

Les observateurs critiquent cette transparence déficiente des algorithmes, pointant que la promotion automatique des contenus trompeurs amplifie leur diffusion. Dans le contexte d’une audience particulièrement jeune, cette situation soulève des enjeux éthiques et sanitaires majeurs.

Pressions réglementaires européennes sous l'impulsion du Digital Services Act (DSA) sur TikTok

Le DSA impose de nouvelles obligations strictes

Le Digital Services Act impose à TikTok des obligations accrues concernant la transparence des algorithmes et la protection des utilisateurs, avec des sanctions financières pouvant atteindre 6 % du chiffre d’affaires mondial pour non-respect. Cette législation européenne marque un tournant dans le contrôle des plateformes numériques.

Une procédure formelle contre TikTok

La Commission européenne a ouvert début 2024 une procédure formelle contre TikTok, pointant des manquements sur la protection des mineurs et la transparence publicitaire. Cette action souligne l’intensification de la surveillance réglementaire sur la plateforme.

Mesures 2025 en lien avec cette dynamique réglementaire

Les nouvelles mesures annoncées par TikTok s’inscrivent dans cette dynamique européenne visant un équilibre entre protection des utilisateurs, lutte contre la désinformation et respect des libertés numériques. La plateforme adapte ainsi sa stratégie pour se conformer aux exigences légales tout en maintenant un environnement attractif et sécurisé.

Le rôle clé du DSA pour l’efficacité des mesures

L’application rigoureuse du Digital Services Act est jugée déterminante pour la réussite des efforts de modération et de transparence de TikTok. Elle constitue un levier essentiel afin de responsabiliser la plateforme sur la qualité et la véracité des contenus diffusés.

Impact psychologique sur les mineurs : rapport parlementaire et recommandations en septembre 2025

TikTok qualifié d’« engrenage mortel » pour les jeunes

Un rapport de la commission d’enquête parlementaire française décrit TikTok comme un « engrenage mortel », en raison des effets toxiques et addictifs observés chez ses 28 millions d’utilisateurs mineurs en France, dont près d’un enfant sur deux entre 11 et 12 ans possédant un compte malgré l’âge légal fixé à 13 ans.

Diffusion de contenus dangereux et fausses informations

Les députés dénoncent la diffusion sciemment tolérée de contenus racistes, sexistes ou antisémites, ainsi que la circulation massive de fausses informations, contribuant à la dégradation de la santé mentale chez les utilisateurs les plus vulnérables.

Recommandations fortes pour la protection des jeunes

Le rapport parlementaire préconise d’interdire l’accès aux réseaux sociaux aux moins de 15 ans et d’instaurer un couvre-feu numérique de 22h à 8h pour les 15-18 ans. Ces mesures visent à réduire l’exposition aux cyber-risques et limiter l’empreinte du « piège algorithmique ».

Constat d’une modération insuffisante

L’enquête révèle que la baisse de modérateurs humains combinée à une modération automatisée encore perfectible permet la persistance des contenus nocifs, malgré les efforts annoncés par TikTok. Ces failles intensifient les risques liés à la santé mentale et à la désinformation chez les jeunes.

TikTok modernise sa modération en combinant intelligence artificielle et formation renforcée des modérateurs

TikTok opère depuis fin 2025 un virage stratégique vers une modération largement automatisée par IA. La suppression de 150 postes de modérateurs en Allemagne illustre ce choix controversé, qui suscite un débat sur l’efficacité réelle et l’éthique de la délégation de la modération à des systèmes algorithmiques.

Simultanément, la plateforme augmente la formation de ses modérateurs restants, renforçant leur capacité à identifier précisément la désinformation et le cyberharcèlement, avec un outil plus performant pour détecter avant viralisation les contenus problématiques.

Pour accompagner cette évolution, TikTok a rendu plus lisible l’accès à ses règles via une nouvelle section « Aperçu des règles » et améliore la sécurité sur les messageries, commentaires et lives afin d’informer les utilisateurs et faciliter leur responsabilisation.

  • Consultez régulièrement la section « Aperçu des règles » pour bien comprendre les conditions et restrictions.
  • Utilisez les outils de contrôle parental et paramètres de sécurité pour limiter les contacts indésirables et protéger les jeunes utilisateurs.
  • Sensibilisez votre entourage aux risques liés à la consommation de contenus toxiques ou trompeurs.
  • Restez vigilant face aux contenus viraux, en croisant systématiquement les informations avec des sources fiables.
  • Favorisez une utilisation raisonnée de TikTok, en particulier chez les mineurs, en tenant compte des recommandations parlementaires récentes.
Interface de modération sur TikTok illustrant la nouvelle section “Aperçu des règles” pour renforcer la sécurité sur les réseaux sociaux.
Interface de modération sur TikTok illustrant la nouvelle section “Aperçu des règles” pour renforcer la sécurité sur les réseaux sociaux.

Articles connexes