Article de 2010 mots ⏱️ 10 min de lecture

La course au développement de l’intelligence artificielle générale s’accélère, mais la stratégie américaine pour la sécuriser demeure dangereusement insuffisante. Alors que Washington célèbre son nouveau « plan d’action pour l’IA », qui privilégie une régulation légère pour stimuler l’innovation, les services de renseignement chinois mènent très probablement des opérations d’espionnage sophistiquées ciblant les laboratoires américains d’IA. Cette approche officielle de contrôle minimal fait fi d’une réalité inquiétante : les recherches américaines les plus avancées en IA — technologie appelée à façonner le siècle à venir en termes de puissance mondiale — restent extrêmement vulnérables au vol et au sabotage.

Le constat est sévère : la mise en place de centres de données sécurisés, la protection des chaînes d’approvisionnement, ainsi que l’application de mesures de sécurité de niveau militaire capables de résister à des acteurs étatiques déterminés, demandent des années. Or, les modèles d’IA les plus performants progressent vers des capacités proches de l’intelligence humaine en quelques mois, et non en plusieurs années. Chaque jour de retard dans le déploiement de mesures de sécurité rigoureuses expose ces recherches stratégiques au risque de vol, de sabotage, voire de conséquences plus graves.

Les partisans d’une régulation minimaliste — comprenant certains laboratoires, lobbyistes, décideurs politiques axés sur l’innovation, ainsi que des conservateurs — estiment que les entreprises ont déjà tout intérêt à agir de manière responsable. Pas besoin selon eux de réglementations lourdes, les sociétés souhaitant éviter une domination chinoise et les catastrophes technologiques potentielles (comme une superintelligence non alignée). Associé à des contrôles à l’export pour ralentir la progression chinoise, ce modèle promettrait de laisser les États-Unis innover plus vite et empêcher Beijing de s’approprier les systèmes les plus puissants.

Le PDG d’Anthropic, Dario Amodei, a récemment proposé un compromis : des obligations de transparence contraignantes qui forceraient les laboratoires à divulguer leurs évaluations de sécurité et plans d’atténuation, tout en préservant leur liberté d’innover. Une norme fédérale serait selon lui une solution simple, car elle « codifierait ce que la plupart des grands développeurs pratiquent déjà. » Ce compromis représente une position médiane raisonnable dans un contexte politique contraint. Cependant, la seule transparence ne résout pas le problème fondamental : les laboratoires développant des systèmes potentiellement superintelligents fonctionnent encore comme des entreprises technologiques commerciales, alors qu’ils devraient être considérés comme des actifs stratégiques nationaux. Dans cette course, la demi-mesure rime avec échec stratégique.

Amodei a raison d’appeler à plus de divulgation et de contrôle, mais son raisonnement repose sur une hypothèse erronée : la transparence seule ne peut pas gérer les menaces posées par des systèmes d’IA susceptibles un jour de dépasser l’intelligence humaine. En tant qu’auteur ayant traité longuement des dangers du secret excessif au sein du gouvernement, je comprends bien l’importance de la transparence, mais aussi ses limites face aux risques urgents de sécurité nationale auxquels nous sommes confrontés. Ces risques incluent non seulement le contrôle et l’alignement des systèmes, ainsi que les menaces d’acteurs malveillants évoquées par Amodei, mais aussi la possibilité concrète que la Chine développe une intelligence artificielle générale avancée avant les États-Unis. Ce scénario offrirait à Beijing une supériorité militaire et économique, lui conférant un monopole stratégique sur la puissance mondiale. Cette supériorité pourrait être acquise de manière autonome ou via l’espionnage et le sabotage. Les preuves sont nombreuses concernant la persistance des efforts chinois pour voler la propriété intellectuelle, notamment auprès des entreprises américaines travaillant sur les modèles de pointe en IA.

Actuellement, les laboratoires d’IA les plus avancés sont « l’équivalent en matière de sécurité de gruyère ». Le rapport d’avril 2025 de Gladstone AI, étayé par un accès privilégié probablement lié à des relations avec le gouvernement fédéral, révèle des vulnérabilités à tous les niveaux du développement des modèles : des attaques capables de paralyser des centres de données pour moins de 20 000 dollars ; des composants chinois offrant des portes dérobées et des opportunités de sabotage, sans alternatives à cause de la prévalence chinoise dans la chaîne d’approvisionnement matérielle ; ainsi que des capacités d’espionnage humain et électronique probablement déjà utilisées pour accéder à des biens intellectuels essentiels, y compris les poids et architectures des modèles.

Parmi les exemples du rapport figure « une attaque permettant à des hackers de reconstruire l’architecture d’un petit modèle IA en analysant uniquement le profil de consommation électrique du matériel exécutant le modèle. » Des attaques d’extraction d’information plus poussées utilisant les signaux électromagnétiques, sonores ou vibratoires sont également possibles. Au-delà du cauchemar stratégique que représenterait un monopole chinois sur une IA générale avancée, les conséquences immédiates d’une telle faille de sécurité pourraient être catastrophiques, ciblant tout, des marchés financiers aux infrastructures critiques. Si la Chine demeure le principal compétiteur des États-Unis sur le plan de l’IA et d’autres secteurs, les services de renseignement russes, eux aussi très performants, pourraient aussi dérober des secrets et perturber pour prendre l’avantage.

Comme l’a publiquement indiqué Amodei, la menace de l’espionnage industriel chinois est une préoccupation majeure pour les laboratoires d’IA. Ce n’est pas une menace lointaine mais bien un siège actif. Depuis des années, le FBI tire la sonnette d’alarme. L’ancien directeur Chris Wray a averti que la campagne de vol chinoise est « plus effrontée, plus destructrice que jamais », obligeant le bureau à ouvrir une nouvelle enquête contre-espionnage liée à la Chine toutes les 12 heures. Malgré des succès notables, à l’image de l’inculpation récente d’un ressortissant chinois pour tentative de vol d’une technologie IA propriétaire chez Google, ces mesures sont essentiellement réactives. Elles illustrent une stratégie consistant à arrêter les espions une fois la brèche faite, ce qui est insuffisant lorsque l’enjeu est la prévention du vol d’une technologie déterminante pour une nation.

La proposition d’Amodei peut être politiquement acceptable à court terme. Dans un contexte où les Républicains sceptiques face à la régulation contrôlent la Maison-Blanche et le Congrès, des obligations limitées de transparence apparaissent comme un compromis raisonnable, « la meilleure manière d’équilibrer les différents enjeux ». Mais la transparence ne protège pas contre l’espionnage et le sabotage chinois. Les laboratoires visés par le développement d’une IA générale avancée ne sont pas de simples entités commerciales, comme l’industrie pharmaceutique où la sécurité produit et la divulgation sont centrales. Ces sites relèvent davantage de l’équivalent privé d’installations nucléaires ou de laboratoires d’armes biologiques, donc d’enjeux stratégiques nationaux. Le simple respect des normes de divulgation et un contrôle ex post sont largement insuffisants. Le problème n’est pas uniquement que les laboratoires sont peu sécurisés, mais qu’ils sont traités comme des entreprises commerciales alors qu’ils constituent déjà des sites stratégiques sous la cible des services de renseignement rivaux. Un modèle de régulation « léger », avec ou sans exigences de transparence, est inadapté aux risques nationaux. Laisser ces entreprises se défendre seules contre un adversaire étatique déterminé est voué à l’échec.

Sans qu’un « projet Manhattan » complet soit nécessaire, la trajectoire actuelle est intenable. Ce qu’il faut désormais, c’est un cadre de gouvernance à niveaux de risques différenciés, distinguant les degrés de dangerosité et modulant les exigences réglementaires en conséquence. Les modèles à faible risque resteraient non régulés, avec une divulgation publique minimale, suffisante à la surveillance de la société civile. Les modèles à risque intermédiaire opéreraient sous un régime d’obligations de transparence, d’évaluations de sécurité, et de secret d’État appliqué aux éléments sensibles (comme les poids des modèles, algorithmes et architectures innovants). Les modèles à haut risque nécessiteraient une gouvernance proche de celle d’un système militaire, incluant non seulement des dispositifs techniques tels que des centres de données sécurisés audités par les autorités, ainsi qu’un nouveau système de classification traitant les modèles et leurs méthodes comme des secrets d’État, mais aussi des protocoles stricts de sécurité du personnel : vérification fédérale, habilitations, formation continue, programmes de sensibilisation aux menaces internes et une culture de la sécurité renforcée. Les seuils d’application reposeraient sur des critères tels que la capacité de décision autonome, la planification stratégique, la persistance des objectifs en conditions adverses, et le potentiel à double usage. Pour établir ces distinctions, la Maison-Blanche devrait réunir un groupe de travail composé des dirigeants de laboratoires, d’informaticiens indépendants, et de professionnels de la sécurité nationale issus du renseignement, du ministère de la Défense, du Département de l’Énergie et de la Cybersecurity and Infrastructure Security Agency (CISA).

Le passage d’une approche légère à un cadre de gouvernance à risques différenciés rencontrera une résistance politique, particulièrement dans le climat actuel. Cependant, la présentation du sujet sous l’angle de la sécurité nationale pourrait rassembler suffisamment d’appuis parmi les élus soucieux de défense pour faire avancer le dossier, d’autant que le Congrès examine déjà cette menace grandissante lors d’auditions sur le vol systématique de technologies américaines par la Chine. Cette approche permettrait de requalifier les dépenses de sécurité non comme un fardeau réglementaire, mais comme un investissement stratégique commun entre gouvernement et laboratoires d’IA, renforçant financièrement les principaux acteurs grâce à des partenariats publics tout en laissant la vaste majorité du développement d’IA sans régulation.

Ces propositions ne sont pas radicales. Nous appliquons déjà ce type de précautions aux installations nucléaires et aux armes cyber. Les enjeux stratégiques liés à l’intelligence artificielle avancée sont au moins aussi majeurs, et le moment d’agir est maintenant. La loi bipartite Advanced AI Security Readiness Act constitue une première étape essentielle. Bien que ce texte charge à juste titre le Centre de sécurité IA de la NSA de concevoir un « manuel de sécurité IA » traitant des vulnérabilités, de la détection des menaces, des stratégies de cybersécurité et de protection physique, ainsi que de plans de contingence pour les systèmes IA sensibles, son succès dépendra de la coopération active avec la division anti-espionnage du FBI, chargée de contrer les espions ciblant les laboratoires sur le sol américain. L’adoption de cette loi serait un engagement capital vers une architecture de sécurité robuste indispensable aux États-Unis.

Jason Ross Arnold est professeur et directeur du département de sciences politiques à la Virginia Commonwealth University, avec une nomination associée au département d’informatique. Il est l’auteur de plusieurs ouvrages, dont Secrecy in the Sunshine Era: The Promise and Failures of U.S. Open Government Laws (2014), Whistleblowers, Leakers, and Their Networks, from Snowden to Samizdat (2019), et Uncertain Threats: The FBI, the New Left, and Cold War Intelligence (à paraître en 2025).