Mesure et date d'entrée en vigueur
Le gouvernement australien a rendu obligatoire, à compter du 10 décembre 2025, l’interdiction d’accès à plusieurs réseaux sociaux pour les personnes âgées de moins de 16 ans. La loi impose aux plateformes de vérifier l’âge des utilisateurs et confère à la commissaire à la sécurité en ligne (eSafety) des pouvoirs de contrôle et de sanction.
Plateformes visées et exclusions
La réglementation vise des services majeurs de partage et de diffusion de contenu. Sont concernés, selon les listes gouvernementales et les annonces des entreprises : Facebook, Instagram, Threads, X, TikTok, Snapchat, YouTube, Reddit, Twitch et Kick. Certaines catégories de services et d’applications ont été explicitement exclues ou restent accessibles sans compte : services de messagerie, plateformes éducatives, certaines applications de jeux en ligne et des versions spécifiques pour enfants (par exemple WhatsApp, certains outils éducatifs, Roblox, Pinterest, YouTube Kids), sous réserve d’évolutions ultérieures des listes.
Modalités de vérification de l’âge
La loi laisse aux plateformes la responsabilité de mettre en place des « mesures raisonnables » de vérification de l’âge. Les méthodes annoncées ou utilisées comprennent le croisement des données renseignées lors de l’inscription, des vérifications par des services tiers, l’estimation de l’âge par des outils automatisés à partir de photographies (estimation algorithmique à partir de selfies), l’utilisation de comptes bancaires ou d’autres attestations tierces, et la consultation de données comportementales. Le gouvernement a demandé que la demande d’une pièce d’identité ne soit pas le seul moyen de vérification et a recommandé l’emploi d’une combinaison d’outils.
Sanctions et mise en application
La nouvelle réglementation prévoit des sanctions financières à l’encontre des plateformes qui ne prendraient pas de « mesures raisonnables » pour faire respecter l’interdiction. Les montants annoncés incluent des amendes pouvant atteindre plusieurs dizaines de millions de dollars australiens : la loi prévoit notamment des montants maximaux exprimés en dollars australiens, communiqués par les autorités. L’eSafety est chargée de surveiller la conformité et d’appliquer les dispositions prévues par l’Online Safety Act.
Réactions des plateformes et procédures judiciaires
Plusieurs entreprises technologiques ont déclaré qu’elles respecteraient les obligations légales tout en exprimant des réserves sur l’impact de la mesure sur la sécurité des adolescents et sur le risque de migration des usages vers des services moins réglementés. Certaines plateformes ont commencé à suspendre ou supprimer des comptes identifiés comme appartenant à des utilisateurs de moins de 16 ans. Des recours judiciaires ont été engagés devant les juridictions compétentes pour contester la loi.
Réactions d’acteurs sociaux et usagers
La décision a suscité des réactions diverses : des responsables politiques ont présenté la mesure comme une réponse aux risques liés aux contenus et aux mécanismes algorithmiques ; des parents et associations ont exprimé leur soutien en invoquant la protection des mineurs ; des adolescents et des chercheurs ont émis des réserves sur l’efficacité pratique de l’interdiction et sur le besoin d’un encadrement éducatif et d’un accompagnement.
Difficultés d’application et contournements attendus
Les autorités et les opérateurs reconnaissent des limites opérationnelles : des utilisateurs peuvent tenter de contourner les contrôles par l’utilisation de comptes d’adultes, de services d’anonymisation (VPN) ou d’applications alternatives. Les techniques de vérification automatisée soulèvent des questions d’exactitude, en particulier pour les personnes proches du seuil d’âge, et des questions de protection et de traitement des données personnelles.
Réponses internationales et comparaisons
La décision australienne est présentée par plusieurs gouvernements et observateurs comme une mesure de grande ampleur. D’autres pays et instances examinent des approches comparables ou distinctes. En Europe, la notion d’âge numérique varie entre 13 et 16 ans selon les États membres ; des expérimentations d’identités numériques (eID) sont programmées dans certains pays pour faciliter la vérification d’identité. Aux États-Unis, des initiatives se développent au niveau des États, avec des approches divergentes et des contestations liées aux protections constitutionnelles de la liberté d’expression. En Asie, des régimes de limitation du temps de connexion et d’accès nocturne pour les mineurs existent déjà dans certains pays.
Initiatives et débats en France
Plusieurs propositions et rapports en France abordent la question de l’accès des mineurs aux réseaux sociaux. Une proposition de loi visant à interdire l’accès aux moins de 15 ans a été déposée par une députée et doit être débattue selon le calendrier parlementaire évoqué par les acteurs politiques. D’autres propositions évoquent des mesures complémentaires, telles qu’un « couvre-feu numérique » pour les 15-18 ans, des obligations de vérification et un renforcement de l’éducation aux usages numériques.
Enjeux identifiés
Les débats portent sur plusieurs enjeux distincts mais liés : la protection de la santé mentale et de la sécurité des mineurs, la mise en œuvre technique et juridique de la vérification d’âge, la protection des données personnelles, l’effet de déplacement des usages vers des services non régulés, la cohérence des approches nationales au niveau international, et l’articulation entre interdiction réglementaire et actions éducatives.
Perspectives d’évaluation
Étant donné le caractère inédit de l’ampleur de la mesure, les autorités et les chercheurs soulignent la nécessité de suivre et d’évaluer ses effets sur l’exposition des mineurs aux contenus en ligne, sur les pratiques d’utilisation et sur les marchés numériques. Des éléments de suivi incluront la conformité des plateformes, l’évolution des usages, les recours judiciaires et les adaptations réglementaires éventuelles dans d’autres juridictions.








