Contexte et objet de l'enquête
Le 24 octobre 2025, la Commission européenne a publié des conclusions préliminaires selon lesquelles Meta (propriétaire de Facebook et Instagram) et TikTok ne respecteraient pas plusieurs obligations prévues par le règlement sur les services numériques (Digital Services Act, DSA). Ces conclusions portent sur l'accès des chercheurs aux données, les mécanismes de signalement et les procédures de recours liées à la modération des contenus.
Accès des chercheurs aux données
La Commission reproche aux deux plateformes de ne pas fournir un accès adéquat aux données internes destiné aux chercheurs indépendants, comme l'exige le DSA. Selon l'exécutif européen, les procédures d'accès seraient longues et complexes, et les jeux de données fournis limiteraient la capacité des chercheurs à étudier des questions d'intérêt public, notamment la protection des mineurs, la désinformation et les effets des plateformes sur la santé mentale.
TikTok a indiqué examiner les conclusions et a affirmé que certaines exigences du DSA pourraient entrer en conflit avec le règlement général sur la protection des données (RGPD). Meta a déclaré avoir modifié ses outils d'accès aux données au sein de l'Union européenne et considère ces adaptations conformes aux exigences légales.
Signalement des contenus et interfaces utilisateur (Meta)
La Commission reproche à Meta de ne pas proposer des mécanismes de signalement et de traitement des contenus illégaux sur Facebook et Instagram qui soient aisément accessibles et simples d'utilisation, conformément au DSA. Les enquêteurs estiment que la procédure imposerait plusieurs étapes et pourrait intégrer des interfaces dites « dark patterns » susceptibles de décourager le signalement par les utilisateurs.
Le DSA prévoit que toute personne ou entité puisse demander la suppression de contenus présumés illicites (par exemple, propos haineux, apologie du terrorisme, images à caractère pédopornographique) et que les plateformes disposent de dispositifs accessibles pour recevoir et traiter ces signalements.
Procédures de recours et droit de contester
La Commission relève des limites dans les outils de recours mis à disposition des utilisateurs de Facebook et Instagram. Elle indique que la procédure d'appel ne permettrait pas de joindre des documents justificatifs ou d'expliquer de manière satisfaisante la contestation d'une décision de modération, ce qui restreindrait le droit des utilisateurs à contester le retrait de leurs contenus.
La Commission a rappelé le rôle du DSA dans l'encadrement des obligations de modération: les plateformes ne sont pas responsables a priori des contenus publiés par des tiers, mais elles doivent agir lorsqu'un contenu est signalé.
Données chiffrées sur la modération (déclarations rapportées)
La Commission a présenté des chiffres relatifs aux décisions de modération prises par Meta en Europe depuis avril 2024: environ 918 millions de décisions de modération, dont environ 68 millions ont été contestées par des internautes européens, et environ 21 millions de recours ont été accueillis, soit un taux de succès déclaré de l'ordre de 31 % pour les appelants. Ces éléments ont été mentionnés par les enquêteurs pour illustrer l'ampleur des décisions de modération et l'importance des dispositifs de recours.
Positions des plateformes
Meta a contesté toute allégation de violation du DSA et a indiqué poursuivre les échanges avec la Commission. Le groupe affirme avoir adapté ses options de signalement, sa procédure de recours et ses outils d'accès aux données en Europe.
TikTok a déclaré s'engager pour la transparence et valoriser la contribution des chercheurs, tout en soulignant un possible conflit entre les exigences d'accès prévues par le DSA et les obligations de protection des données du RGPD.
Procédure en cours et sanctions potentielles
Les conclusions publiées par la Commission sont qualifiées de préliminaires. Dans le cadre de la procédure européenne, Meta et TikTok disposent d'un droit de réponse et peuvent accéder au dossier d'instruction. Les plateformes doivent proposer des mesures pour remédier aux manquements relevés; si les réponses et actions proposées sont jugées insuffisantes, la Commission pourrait engager des sanctions.
Le DSA prévoit des amendes pouvant atteindre 6 % du chiffre d'affaires mondial annuel en cas de violation grave et avérée. À la date des conclusions préliminaires, aucune sanction n'avait été prononcée.
Prochaines étapes
La Commission attend les réponses formelles de Meta et TikTok et la présentation de mesures correctives éventuelles. La décision finale dépendra de l'analyse des éléments fournis par les plateformes et de l'évaluation par les autorités compétentes au regard des obligations du DSA.








