Contexte et appel
Le 22 octobre 2025, le Future of Life Institute, organisme à but non lucratif basé aux États-Unis, a publié un appel demandant la suspension des travaux visant à développer une intelligence artificielle capable de surpasser les capacités humaines. Le texte de l'initiative indique : « Nous appelons à l’arrêt du développement d’une superintelligence, tant qu’il n’y a pas un consensus scientifique que cela peut être construit de façon contrôlée et sécurisée et tant qu’il n’existe pas un soutien de la part de la population. »
Signataires
L'appel a été signé par plus de 700 personnes issues de milieux variés. Parmi elles figurent des chercheurs en intelligence artificielle tels que Geoffrey Hinton (chercheur en IA), Stuart Russell (professeur d'informatique à l'université de Californie à Berkeley) et Yoshua Bengio (professeur à l'Université de Montréal). La liste inclut également des acteurs du secteur technologique, des responsables politiques, des représentants religieux et des personnalités publiques, notamment des noms tels que Richard Branson, Steve Wozniak, Steve Bannon, Susan Rice, Paolo Benanti, will.i.am, le prince Harry et Meghan Markle.
Définition des objectifs technologiques et préoccupations exprimées
Le texte distingue l'intelligence artificielle générale (AGI), définie comme le stade où une IA égalerait l'ensemble des capacités intellectuelles humaines, et la superintelligence, définie comme un niveau dépassant ces capacités. Le document et plusieurs signataires soulignent que des systèmes d'IA avancés pourraient surpasser la plupart des individus sur la plupart des tâches cognitives dans un horizon de quelques années, tout en notant que ces progrès comportent des risques.
Yoshua Bengio est cité en expliquant la nécessité de « déterminer scientifiquement comment concevoir des systèmes d’IA qui soient fondamentalement incapables de nuire aux individus, que ce soit en raison d’un problème d’alignement ou d’une utilisation malveillante. »
Sam Altman, dirigeant d'OpenAI, a déclaré en septembre lors d'un événement du groupe Axel Springer que le cap de la superintelligence pourrait être atteint « d'ici cinq ans ». Max Tegmark, président du Future of Life Institute, a déclaré à l'AFP : « Peu importe que ce soit dans 2 ou 15 ans, construire une telle chose est inacceptable », ajoutant que des entreprises ne devraient pas travailler sur ce type de projets « sans aucun cadre réglementaire ». Il a aussi indiqué qu'il était possible d'appuyer le développement d'outils d'IA plus puissants pour des usages spécifiques tout en s'opposant au développement de la superintelligence.
Lien avec d'autres initiatives internationales
L'appel du Future of Life Institute fait écho à une lettre signée par des chercheurs et des cadres du secteur de l'IA, publiée un mois plus tôt lors de l'assemblée générale des Nations unies, qui réclamait l'instauration d'accords internationaux établissant des « lignes rouges » pour prévenir des conséquences potentiellement graves pour l'humanité.
Organisation des demandes
Le document demande que le développement de systèmes visant la superintelligence soit suspendu jusqu'à l'obtention d'un consensus scientifique sur la possibilité de les construire de façon contrôlée et sécurisée, et jusqu'à ce qu'il existe un soutien public pour de tels travaux. Il appelle également à l'élaboration de cadres réglementaires et à des accords internationaux pour encadrer les recherches et applications susceptibles de conduire à des systèmes plus puissants.








