Contexte
Une vidéo générée par intelligence artificielle et diffusée sur un réseau social a présenté une scène simulant un coup d’État en France. La séquence a été mise en ligne le 10 décembre 2025 et largement partagée internationalement. Le président de la République a évoqué publiquement cette diffusion lors d’un échange avec les lecteurs du journal La Provence le 16 décembre 2025.
Description de la vidéo
La séquence met en scène une personne présentée comme une journaliste, en duplex dans une rue parisienne proche de la Tour Eiffel, tenant un micro portant le sigle « Live 24 ». Elle annonce des « informations non officielles » faisant état d’un coup d’État militaire conduit par « un colonel » et évoque la « possible chute » du président. L’image inclut des passants, un hélicoptère et des militaires ; le montage adopte les codes visuels d’une chaîne d’information en continu.
Éléments indiquant une falsification
- Le sigle « Live 24 » utilisé sur le micro ne correspond pas à une chaîne d’information en continu existante en France.
- Des désynchronisations entre le mouvement des lèvres et la bande-son sont observables, indice fréquent de procédés de synthèse audio‑vidéo.
- Le rendu du visage apparaît lissé et légèrement flou, caractéristique de certains deepfakes.
- Le comportement des personnes en arrière-plan (postures calmes, absence de panique cohérente) est incohérent avec un événement violent réel, ce qui signale un montage.
- L’absence de couverture simultanée par les principaux organismes d’information (agences de presse et chaînes d’information) ou par d’autres sources établies renforce l’hypothèse d’une falsification.
Réaction officielle et demande de retrait
Selon les éléments communiqués par la présidence, un chef d’État étranger a signalé la vidéo au président français, qui a demandé aux services compétents d’intervenir. Le dispositif national de signalement Pharos a contacté le réseau social concerné pour demander la suppression du contenu. La plateforme a refusé la demande, estimant que la vidéo ne violait pas ses règles d’utilisation.
Le président a exprimé sa préoccupation concernant la diffusion de contenus « manifestement faux » susceptibles de déstabiliser l’espace public et la souveraineté démocratique. Il a appelé à des mesures nationales et européennes visant à faciliter la suppression rapide de contenus truqués susceptibles de mettre en danger la sécurité publique.
Enjeux et actions possibles
Les fichiers audiovisuels générés par intelligence artificielle peuvent reproduire des codes journalistiques et favoriser la viralité, rendant la vérification plus difficile. Les règles d’usage des plateformes peuvent limiter l’application immédiate de retraits, soulevant des questions sur l’efficacité des mécanismes actuels de modération.
Les débats publics portent sur la nécessité d’outils réglementaires et de sanctions dissuasives pour inciter les plateformes à retirer rapidement les contenus manipulatoires, ainsi que sur la transparence des comptes et des algorithmes. Des réponses techniques (détections automatisées, filigranes d’authenticité) et juridiques sont envisagées au niveau national et européen.
Cas comparables et contexte international
Des procédés similaires ont déjà ciblé des responsables politiques dans d’autres pays par le biais de deepfakes audio ou vidéo. Les autorités nationales et européennes étudient différents dispositifs de réponse, juridiques ou techniques, pour limiter la diffusion de contenus falsifiés et identifier les réseaux à l’origine de campagnes coordonnées.
Conseils pour repérer ce type de contenu
- Vérifier l’existence et la réputation du média ou de la chaîne mentionnée.
- Croiser l’information avec les agences de presse et plusieurs médias établis.
- Observer la synchronisation labiale, la qualité du rendu facial et les incohérences dans l’arrière‑plan.
- Signaler le contenu aux plateformes et, si nécessaire, aux dispositifs officiels de signalement nationaux.
Conclusion
La séquence en question a été identifiée comme une production générée par intelligence artificielle et dépourvue de fait réel sous‑jacent. Sa diffusion a entraîné une réaction officielle et relancé les discussions sur l’encadrement des contenus manipulés en ligne et sur la responsabilité des plateformes de diffusion.








