La prochaine grande menace biologique ne commencera peut-être pas dans un marché humide, une jungle ou suite à un accident de laboratoire. Elle pourrait émerger sur un ordinateur, grâce à un modèle d’intelligence artificielle commercialement disponible.
En octobre 2025, des chercheurs en IA chez Microsoft ont signalé que les outils d’intelligence artificielle générative pouvaient concevoir des protéines dangereuses, capables d’échapper aux dispositifs de biosécurité et, de manière alarmante, de contourner les systèmes de contrôle utilisés par les fabricants d’ADN.
En février 2025, l’Arc Institute a lancé Evo 2, un modèle d’IA entraîné sur 128 000 génomes, capable de concevoir des organismes entièrement nouveaux. Ce modèle atteint 90 % de précision dans la prédiction des mutations génétiques pathogènes. Quelques semaines après la sortie de son prédécesseur en 2024, des utilisateurs ont déjà réussi à contourner les mesures de biosécurité en réintroduisant des données virales volontairement exclues par les développeurs. Dans le même temps, Anthropic a rapporté que son modèle Claude Opus 4 pouvait considérablement améliorer la capacité de novices à planifier la production d’armes biologiques, déclenchant ainsi les protocoles de sécurité les plus stricts de l’entreprise. OpenAI, avec son modèle o3 sorti en avril 2025, assiste des experts dans la planification d’opérations visant à reproduire des menaces biologiques connues.
Ces avancées ne relèvent pas de la science-fiction : elles correspondent aux capacités actuelles des systèmes commercialement accessibles. Pourtant, la stratégie américaine de biodéfense repose toujours sur une approche unifiée dite « tous risques », qui traite les menaces biologiques naturelles et intentionnelles comme des défis similaires, servis par des capacités communes. Cette logique avait du sens lorsque les menaces pathogènes, naturelles ou militarisées, suivaient des contraintes évolutives proches. La convergence entre IA et biologie synthétique remet en cause cette approche.
Les adversaires peuvent désormais concevoir informatiquement des menaces spécifiquement pensées pour échapper aux systèmes de surveillance conçus pour les pathogènes naturels, résister aux traitements existants et exploiter les hypothèses duales ayant permis l’efficacité de la biodéfense intégrée. La question n’est pas tant de savoir si l’intégration était une erreur — elle était adaptée à l’environnement des menaces de l’époque — mais si cet environnement existe encore aujourd’hui.
Une stratégie sans véritable intégration
La cohérence stratégique demande de relier les actions tactiques aux objectifs politiques via une théorie intégrée de la victoire. Or, la biodéfense moderne reflète exactement l’erreur que les stratèges dénoncent : des institutions fragmentées, optimisant des mandats étroits sans but global. La preuve en est la stratégie nationale de biodéfense 2022, qui présente cinq objectifs couvrant la préparation pandémique, la défense contre les armes biologiques, la biosécurité agricole et la sécurité des laboratoires, répartis sur quinze agences fédérales aux compétences parfois chevauchantes. Le département de la Santé gère la réponse pandémique, le Défense s’occupe des menaces liées aux armes biologiques, et l’Agriculture protège les cultures et le bétail. Aucun acteur unique ne coordonne ces missions sous une stratégie cohérente, distinguant les menaces nécessitant des réponses fondamentalement différentes.
Ce point est essentiel, car l’analyse du Dr Michelle Bentley sur le caractère « tabou » des armes biologiques — la répulsion viscérale et les normes internationales qui ont empêché jusqu’ici leur usage étatique malgré leur possession — reste partiellement valide tout en devenant obsolète sur certains aspects cruciaux. Son idée principale tient toujours : les armes biologiques suscitent le dégoût, comportent un effet boomerang décourageant les acteurs rationnels et demeurent encadrées par la convention internationale sur les armes biologiques. Même l’imposant programme Biopreparat de l’Union soviétique n’a jamais vu de déploiement opérationnel de telles armes. Plus récemment, la pandémie de COVID-19 a renforcé cette norme en montrant l’impact dévastateur d’une maladie sur la société.
Ce cadre est désormais dépassé dans trois domaines précis transformés par la convergence IA-biologie synthétique depuis 2022 :
- Le seuil de connaissances nécessaire au développement d’armes biologiques s’est effondré, rendant inopérantes les barrières étatiques que le tabou réglementait.
- La rupture entre conception informatique et synthèse physique s’est atténuée, l’automatisation supprimant le jugement humain dans le processus.
- L’idée que la difficulté technique limite la prolifération ne tient plus : les outils d’IA intègrent des décennies d’expertise virologique de haut niveau, accessibles à des acteurs non étatiques et étrangers aux normes du tabou.
Un changement majeur dans les capacités
Entre décembre 2024 et mai 2025, plusieurs entreprises d’IA ayant développé des modèles de langage ont franchi des seuils internes de risque biologiques. Les tests d’Anthropic ont montré que Claude Opus 4 outperformait largement Google Search et les anciens modèles pour conseiller des novices en production d’armes biologiques. Le directeur scientifique de la société a déclaré : « On pourrait essayer de synthétiser quelque chose comme la COVID ou une version plus dangereuse de la grippe — et fondamentalement, nos modélisations indiquent que cela pourrait être possible. » Anthropic a alors déployé ses protocoles de sécurité les plus rigoureux, craignant de « promouvoir un terroriste novice, à l’image de Timothy McVeigh, capable de créer une arme bien plus destructrice que ce qui était auparavant envisageable ».
En juin 2025, OpenAI a annoncé que ses futurs modèles atteindraient un niveau de compétence « élevé » en biologie ; son modèle o3, sorti en avril, assiste déjà des experts dans la planification de menaces biologiques. Une étude de décembre 2024 menée par SecureBio, le MIT et le Center for AI Safety a conclu que le modèle o3 surpassait 94 % des virologues experts dans la résolution de protocoles complexes de laboratoire. Ces résultats reflètent des capacités techniques mesurées sur des tâches concrètes, non des projections.
Cependant, des limites importantes subsistent. Les outils de conception biologique actuels ne peuvent pas encore créer de pathogènes pandémiques autonomes de toutes pièces. Un rapport des académies nationales américaines de mars 2025 note que ces systèmes « n’ont pas encore la compréhension requise des interactions complexes des systèmes biologiques » pour concevoir des pathogènes auto-réplicatifs de novo. Le génome bactérien conçu par Evo 2 manquait d’éléments critiques et ne fonctionnerait probablement pas s’il était synthétisé, selon les chercheurs de l’Arc Institute. Le principal goulot d’étranglement est le manque de données virales dans l’entraînement : les développeurs ont exclu les virus eucaryotes pour limiter les risques, ce qui, ironiquement, restreint la capacité de conception de pathogènes.
Les experts divergent sur les échéances. Dario Amodei, PDG d’Anthropic, a prédit en 2023 que l’IA pourrait fournir des instructions détaillées pour créer des pathogènes mortels dans deux à trois ans, une prévision réaffirmée en janvier 2025. Un rapport d’août 2024 de chercheurs de Johns Hopkins et Stanford avançait que les composants clés pour développer des modèles biologiques avancés existaient ou seraient prochainement disponibles, soulignant la nécessité d’une régulation immédiate. Les académies nationales restent plus prudentes, estimant en mars 2025 que les limitations actuelles excluent la conception de pathogènes pandémiques à court terme.
Ce qui est incontestable, c’est l’échec des systèmes de contrôle de synthèse face aux capacités actuelles de l’IA. Une étude récente publiée dans Science en octobre 2025 a démontré que les outils d’IA pour la conception protéique pouvaient générer des variantes de toxines connues contournant les logiciels de filtrage commerciaux. Les chercheurs ont produit 76 000 plans pour 72 protéines toxiques, incluant la ricine et la toxine botulique. Plusieurs systèmes de détection, y compris ceux des grands fournisseurs d’acides nucléiques, ont échoué à identifier ces variantes refondues par IA, laissant jusqu’à 100 % de certaines protéines non détectées. Bien que des méthodes de détection basées sur l’IA améliorée aient repéré 97 % de ces variantes, les chercheurs préviennent que les approches basées uniquement sur les séquences ne suffiront pas, car les futures générateurs d’IA pourraient produire des séquences entièrement nouvelles.
Il ne s’agit pas d’un risque hypothétique, mais d’un constat d’échec actif des défenses actuelles face aux outils disponibles.
Une confusion institutionnelle majeure
La politique américaine de biodéfense mélange systématiquement deux défis distincts : la préparation face aux pandémies naturelles et la défense contre les agents biologiques délibérément conçus. Cette confusion est visible dans les budgets, les mandats organisationnels et les doctrines stratégiques.
Elle commence au niveau conceptuel. Par exemple, la National Biodefense Strategy 2022 considère « les menaces biologiques — qu’elles soient naturelles, accidentelles ou délibérées » comme une catégorie unifiée nécessitant une réponse coordonnée. Le cadre fixe des objectifs ambitieux pour développer un vaccin en moins de 100 jours, déployer des tests spécifiques dans les 30 jours et réaffecter des traitements en 90 jours. Ces capacités reposent sur l’hypothèse d’une évolution naturelle des pathogènes, non sur des adversaires utilisant l’IA pour créer des agents capables d’échapper aux systèmes de détection ou aux traitements.
L’intégration de ces concepts conduit aussi à des erreurs d’allocation. Un modèle de biodéfense combinant ces menaces, certes logique pour les capacités duales, échoue face à la convergence IA-biologie synthétique sur des points précis et mesurables. Par exemple, le Centre de Contrôle et de Prévention des Maladies (CDC) investit plus de 500 millions de dollars dans une surveillance génomique des pathogènes, conçue pour détecter des variants naturels via des prélèvements cliniques. Ce dispositif ne peut pas repérer des séquences synthétiques conçues par IA, sans homologie aux organismes connus. De même, les investissements pandémiques, comme les programmes de surveillance hospitalière ou l’extension du stock stratégique national (près de 10 milliards de dollars), se concentrent sur des antiviraux à large spectre prévisibles, en détournant les fonds indispensables à des capacités plus spécifiques de biodéfense : suivi des achats d’équipements inhabituels, surveillance des commandes de synthèse génétique, ou analyses génomiques médico-légales pour l’attribution. Cette approche intégrée favorise les enquêtes épidémiologiques (notamment le traçage des contacts), mais néglige la surveillance des chaînes logistiques nécessaire pour détecter une attaque délibérée. Ce n’est pas un simple chevauchement, mais une lacune structurelle où les priorités pandémiques entravent activement les investissements biodéfense indispensables.
Trois distinctions critiques du cadre actuel sont ainsi occultées :
Architecture de détection
Les pandémies naturelles émergent généralement d’un franchissement zoonotique dans des interfaces écologiques prévisibles. Le réseau de surveillance génomique du CDC analyse des échantillons cliniques à la recherche de variants relevant de familles pathogènes connues suivant des évolutions naturelles. Ce système est incapable de détecter des pathogènes synthétiques d’origine IA, conçus pour échapper à la surveillance génomique. La détection nécessiterait des réseaux de capteurs fondamentalement différents, surveillant les commandes de synthèse d’ADN, la vente de matériel de laboratoire et le contenu des publications scientifiques — des capacités extérieures au mandat de surveillance pandémique et quasi sans financement fédéral.
Contre-mesures médicales
La réponse pandémique privilégie le développement rapide de vaccins, l’augmentation de la production thérapeutique et les stocks d’antiviraux à large spectre. L’opération Warp Speed a investi 18 milliards de dollars pour accélérer la vaccination contre la COVID-19, tandis que le stock national stratégique conserve équipements médicaux et médicaments pour les épidémies. Cette stratégie suppose que les adversaires n’ont pas adapté les protéines virales pour contourner les vaccins existants ni conçu de résistances thérapeutiques. Le cadre de contrôle de 2023 du département de la Santé reconnaît que la biotechnologie pourrait permettre la création de protéines pathogènes inédites, mais ne propose aucune mesure spécifique pour contrer cette menace, se contentant d’encourager les fournisseurs de synthèse à adopter des meilleures pratiques.
Attribution et dissuasion
Les pandémies naturelles ne nécessitent pas d’attribution, la réponse relevant de la santé publique et non de l’intention de l’ennemi. Les armes biologiques délibérément libérées exigent une attribution claire pour permettre une réponse proportionnée et la dissuasion. Pourtant, la National Biodefense Strategy 2022 ne traite pas des capacités d’attribution, malgré la reconnaissance de programmes étatiques d’armes biologiques en Russie, Corée du Nord, Chine et Iran.
Cette confusion institutionnelle produit trois échecs politiques concrets :
Mauvaises allocations
En 2024, environ 20 milliards de dollars ont été alloués à la préparation pandémique entre Santé et Services sociaux, CDC et Instituts nationaux de la santé, ciblant plates-formes vaccinales, infrastructures d’essais cliniques et surveillance des maladies. Par contraste, le Centre sur les normes et l’innovation en IA du National Institute of Standards and Technology (NIST), principal acteur fédéral dans l’évaluation des risques biologiques des IA de pointe, fait face à une réduction budgétaire proposée de 35 % en 2026. Les fonds pour la préparation aux urgences du CDC s’élèvent à 735 millions, soit moins de 3 % de l’ensemble du budget pandémique. Cette répartition a du sens si la menace est avant tout pandémique naturelle, mais devient incompréhensible si le vrai danger vient d’adversaires exploitant l’IA pour créer des agents pathogènes que les systèmes pandémiques actuels ne peuvent gérer.
Occasions manquées
Aucun programme fédéral n’évalue systématiquement les outils de conception biologique pour leurs risques d’usage dual avant leur diffusion publique. Le plan d’action IA de juillet 2025 du gouvernement Trump charge le NIST d’évaluer les IA de pointe dans le domaine biologique (appelées Biological Development Technologies), sans néanmoins prévoir de financement, de protocoles de test ou d’obligation réglementaire. L’Arc Institute a diffusé Evo 2 en open source sans examen préalable, malgré sa capacité à concevoir des génomes inédits. Google DeepMind a publié AlphaFold 3 avec des consultations volontaires sur la biosécurité, mais sans contrôle réglementaire. La tendance est donc à la prolifération non régulée d’outils bioconception puissants, tandis que les agences dédiées à la pandémie manquent du mandat ou des compétences pour intervenir.
Zones d’ombre dangereuses
Le contrôle des synthèses d’ADN, point clé pour empêcher la fabrication d’armes biologiques, demeure volontaire, morcelé et insuffisant. Le cadre de contrôle du département de la Santé 2023 encourage les fournisseurs à vérifier les commandes par rapport à une liste de 63 agents pathogènes réglementés, mais sans obligation légale. Seuls les receveurs de financements fédéraux doivent recourir à des fournisseurs contrôlés, laissant les clients commerciaux libres d’acheter à l’international. Aucun mécanisme ne permet aux entreprises d’échanger des informations sur des commandes suspectes. Le Consortium international de synthèse génétique (IGSC), qui représente 80 % des capacités mondiales, fonctionne sur un partage volontaire des données, sans vérification ni contrainte. Ce système ne vise pas à stopper l’accès à des armes biologiques conçues par IA. Il s’agit d’un héritage fragmenté des protocoles de biosécurité pandémique, inadéquat par construction face aux menaces émergentes.
Quelles évolutions indispensables ?
Gérer la convergence IA-biologie synthétique tout en la dissociant de la préparation pandémique exige des réformes institutionnelles, pas des ajustements budgétaires mineurs.
Quatre mesures devraient être engagées sans délai :
- Rassembler la biodéfense fragmentée par la réforme des entités existantes. Le Department of Homeland Security possède déjà le National Biosurveillance Integration Center et le Countering Weapons of Mass Destruction Office, mais ceux-ci manquent d’autorité et de capacités pour contrer les menaces IA-biologie. Leur mandat légal actuel ne prévoit ni évaluation pré-déploiement des technologies, ni expertise en génomique computationnelle. Il faudrait répartir la mission entre deux entités : la Defense Advanced Research Projects Agency (DARPA) pour l’évaluation des outils biologiques avant diffusion, tirant parti de son expertise IA, et le Countering Weapons of Mass Destruction Office pour faire respecter de manière obligatoire les contrôles de synthèse. Ce recentrage doit s’accompagner d’une consolidation budgétaire, éliminant redondances et inefficacités parmi les quinze agences concernées.
- Promulguer un décret présidentiel instituant une infrastructure de contrôle des synthèses d’ADN assistée par IA, favorisant l’adoption industrielle. Ce décret devrait demander au NIST de développer une interface logicielle centralisée que les fournisseurs interrogent en temps réel à l’aide d’IA fonctionnelle pour évaluer les risques, au-delà de la simple comparaison de séquences. Des incitations, comme des obligations d’utilisation pour les marchés publics, protections légales contre les procédures, accélération des validations FDA et certifications publiques, pourraient garantir l’adhésion du secteur. Les fournisseurs refusant de participer seraient tenus d’en informer leurs clients et de signaler les commandes à haut risque au Department of Homeland Security, créant ainsi une pression commerciale forte.
- Imposer une évaluation de sécurité pré-déploiement pour tout outil biologique dépassant un seuil computing défini. Tout modèle IA entraîné sur des données biologiques nécessitant une puissance informatique comparable ou supérieure à celle d’Evo 2 ou AlphaFold 3 devrait être examiné par le Centre de normalisation IA du NIST. L’évaluation porterait sur (1) la capacité à concevoir des pathogènes inédits, (2) la facilité de contourner les garde-fous intégrés, et (3) le potentiel de mésusage par des acteurs peu qualifiés. Plus qu’un blocage, elle exigerait la mise en œuvre de mesures précises (exclusion de certains jeux de données, filtrage des requêtes, journalisation d’usage, signalement des abus). Ce processus s’inspirerait du règlement européen sur l’IA adapté aux risques biologiques. Les chercheurs académiques pourraient recevoir un soutien pour ces évaluations, garantissant que la science ouverte ne soit pas pénalisée.
- Financer le NIST et son Centre de normalisation IA au niveau correspondant à l’ampleur de la menace. Les coupes budgétaires envisagées sont en contradiction avec les priorités de biosécurité de l’administration actuelle. Le Congrès devrait écouter les experts, notamment le Johns Hopkins Center for Health Security, qui recommande un financement annuel d’au moins 8 à 10 millions de dollars pour les branches IA du NIST, nécessaires aux initiatives de sécurité IA-biologie : développement de normes, exercices de tests agressifs sur les voies d’armes biologiques et coordination internationale via des réseaux spécialisés. Ces travaux ne doivent pas dépendre uniquement des équipes internes des entreprises d’IA, soumises à des pressions commerciales pour accélérer les sorties de produits.
Le temps presse
La convergence entre IA et biologie synthétique représente une menace immédiate : des systèmes d’IA commerciaux sont déjà capables de développement expert d’armes biologiques, en contournant les contrôles actuels de synthèse d’ADN. Pourtant, la stratégie américaine confond cette menace délibérée avec la préparation aux pandémies naturelles, créant de graves zones d’ombre et privilégiant des investissements inefficaces.
Les réformes proposées rencontreront des obstacles politiques dans une administration axée sur la dérégulation, mais elles visent à consolider des efforts fragmentés plutôt qu’à étendre la taille de l’État. Quinze agences aux compétences chevauchantes engendrent des redondances, non de la force. Le cadre volontaire de contrôle des synthèses cadre avec la philosophie dérégulatrice, mais démontre ses limites : l’étude publiée en octobre 2025 dans Science montre que les systèmes ratent des menaces générées par l’IA. La surveillance obligatoire ne touche que les fournisseurs de synthèse et les développeurs d’IA de pointe, pas l’ensemble de la recherche biotechnologique. Ce débat dépasse la philosophie réglementaire : ce qui compte, c’est l’efficacité réelle. Même les administrations dérégulatrices financent les priorités de défense lorsque la sécurité nationale est menacée. Les armes biologiques augmentées par l’IA exigent cette reconnaissance. Il n’est plus temps d’attendre qu’un test de pénétration révèle nos vulnérabilités. Ce test est en cours, et nos défenses actuelles échouent déjà.
Junaid Nabi, M.D., MPH, est médecin-scientifique spécialisé dans la stratégie numérique en santé, la réforme des systèmes de santé et la sécurité nationale. Il a récemment mis en lumière des vulnérabilités critiques en cybersécurité dans des systèmes de surveillance à distance basés sur l’IA. Il est senior fellow à l’Aspen Institute et Millennium fellow au Atlantic Council.