Article de 1625 mots ⏱️ 8 min de lecture

Alors que le Congrès s’affaire à finaliser les détails de la loi d’autorisation de la défense nationale, l’attention se concentre principalement sur des débats tactiques. Si les négociations autour du texte final et du financement des programmes liés à l’intelligence artificielle (IA) sont importantes, elles négligent souvent un fait incontournable de la politique de défense : les décisions prises tôt ont tendance à se figer rapidement.

Comme le rappelait l’icône de l’US Air Force John Boyd, « ce qui devient doctrine le premier jour se transforme en dogme à jamais ». Cette année, la loi ne déterminera pas seulement les montants alloués au Pentagone pour des démonstrations de systèmes en essaim ; elle tracera également la trajectoire initiale de la politique d’IA de la défense pour les vingt-cinq prochaines années.

Il est compréhensible que le Congrès se focalise sur les détails immédiats. Le débat public aux États-Unis sur l’IA et la sécurité nationale, au-delà des discussions théoriques sur l’éthique des armes autonomes létales ou l’appui de l’IA aux opérations de renseignement, reste étonnamment limité. La plupart des gros titres évoquent soit les « robots tueurs », soit une hypothétique « course aux armements IA ». De plus, le processus complexe de planification, programmation, budgétisation et exécution du Pentagone aggrave cette tendance à s’attacher aux lignes budgétaires spécifiques ou aux dispositions législatives. En somme, réfléchir en profondeur aux grandes questions s’oppose souvent au système même censé y répondre.

Malgré ces défis structurels, les décideurs doivent impérativement aborder ces questions capitales avant que des orientations figées ne s’imposent. À l’heure où le Congrès finalise la loi de défense et que le Pentagone prépare ses propositions IA pour l’année prochaine, quatre interrogations essentielles appellent un débat approfondi et des réponses claires. À défaut, les prochaines lois d’autorisation risquent de pérenniser des choix regrettables pour l’avenir.

Qui définit la notion de « fiabilité » au Pentagone ?

Le récent Plan d’action pour l’IA de l’administration Trump a demandé au département de la Défense de développer une « IA responsable », et l’idée d’une « IA digne de confiance » fait largement consensus. Pourtant, ni ce plan ni le débat public n’ont précisément défini ce que cela signifie ni, surtout, qui doit en avoir la charge.

Si ce sont les experts techniques et gestionnaires de programmes du Bureau du Sous-secrétaire à la Recherche et à l’Ingénierie ou des forces armées qui définissent la fiabilité, la priorité sera mise sur la sécurité technique (protection contre la falsification de données, validation, etc.). Cela supposera d’énormes investissements dans des processus de vérification qui amélioreront de façon incrémentale l’IA afin de satisfaire la communauté d’évaluation et test.

Si ce sont les opérateurs sur le terrain, la confiance sera basée sur l’adoption et l’intégration pratiques. Les investissements viseront alors les interfaces utilisateurs, la rapidité d’intégration dans les tâches répétitives et la robustesse opérationnelle, critère qui reste difficile à atteindre aujourd’hui.

Enfin, si ce sont les spécialistes politiques ou juridiques du cabinet du Secrétaire à la Défense qui imposent la définition, l’accent sera mis sur l’explicabilité des décisions, le contrôle humain et l’interopérabilité au sein des coalitions.

Ces approches ne s’excluent pas mutuellement mais peuvent s’opposer en matière de priorités d’investissement, de programmes de recherche et de doctrine. Plus encore, il se pourrait que les trois définitions soient nécessaires pour une adoption complète de l’IA dans l’armée américaine. Qui alors aura la mission de définir la stratégie globale et d’en prioriser les axes ?

Quel rôle pour l’IA en dehors du champ militaire ?

Si la discussion actuelle centre l’IA sur la guerre, son usage dépasse largement ce cadre. Comment et dans quelle mesure l’IA s’intègre aux autres leviers du pouvoir national reste encore largement inexploré, tant par l’administration que par le Congrès. Compte tenu de la nature duale de l’IA, son impact pourrait certes être plus marqué dans la compétition constante en « zone grise » plutôt que dans un conflit armé ouvert.

Quel rôle pour l’IA dans les opérations informationnelles, la diplomatie économique, les campagnes cyber ou la coercition diplomatique ? Quand la frontière entre guerre et paix s’efface volontairement et que des acteurs multiples participent à ces dynamiques, qui déterminera si l’IA doit être employée comme un nouvel outil d’influence ou contraire, soigneusement limitée pour éviter toute escalation non voulue ? Les opérations cyber posent des questions similaires depuis une décennie, et les responsables de la défense n’en ont pas encore trouvé toutes les réponses. Adopter l’IA dans les conflits en zone grise pourrait renforcer la compétition entre grandes puissances, tandis que la freiner pourrait amoindrir la montée des tensions mais au prix d’une perte d’influence globale pour les États-Unis. Ces choix institutionnaliseraient des habitudes difficiles à défaire ensuite.

L’IA doit-elle augmenter les forces armées ou les redéfinir ?

Faut-il envisager l’IA dans l’évolution des forces armées ou comme une révolution ? Cette question va au cœur de la manière dont les services militaires recrutent, forment et équipent leurs forces.

Si l’IA est un outil évolutif, alors les systèmes d’armes actuels et les organisations deviendront plus performantes mais sans rupture majeure. Jusqu’ici, le Pentagone semble suivre cette logique, en utilisant l’IA pour affiner le renseignement, rationaliser l’administration, améliorer le ciblage et optimiser la logistique globale. Ce rôle d’amplificateur de puissance est utile, mais que se passera-t-il si les adversaires américains voient plus grand ? Imaginons qu’ils développent des tactiques d’essaim, des flottes de sous-marins autonomes durables ou des opérations cyber offensives menaçant soldats et civils.

Si le Pentagone poursuit cette approche, il risque d’être dépassé par les changements doctrinaux adverses. S’il embrasse la révolution IA, il devra repenser en profondeur ses structures et doctrines, mettant à mal des identités de service bien ancrées. Ce choix orientera pour des décennies les priorités d’acquisition, le recrutement et la planification des alliances.

Qui exercera le pouvoir sur l’IA militaire ?

À l’ère nucléaire, l’État détenait le monopole de la production et gestion des armes. Cette situation unique a permis aux États-Unis de maîtriser la diffusion et la régulation de cette technologie. Aujourd’hui, la situation est inversée.

Le développement et la formation des modèles d’IA de pointe sont presque exclusivement maîtrisés par quelques acteurs commerciaux, tandis que le gouvernement américain est plutôt un utilisateur. Startups, fournisseurs cloud et communautés open source avancent plus vite que la capacité du gouvernement à réguler. Le Pentagone doit donc se demander dans quelle mesure il doit s’appuyer sur ces acteurs privés pour fournir, personnaliser et même exploiter les systèmes d’IA à l’avenir. En misant lourdement sur ces laboratoires privés, il risque de reproduire les mécanismes du complexe militaro-industriel existant.

Une telle dépendance accélère l’adoption mais crée des vulnérabilités vis-à-vis d’intérêts parfois divergents des priorités de sécurité nationale. Rapatrier une partie du développement IA au sein des forces armées ralentirait les progrès, le Pentagone manquant encore du talent, des infrastructures et des moyens financiers pour rivaliser avec les laboratoires privés. Des modèles hybrides de gouvernance, associant partenariats publics-privés ou cadres open source spécifiques à la défense, sont possibles, mais chaque décision façonnera durablement les rapports de force technologiques dans les futurs conflits dotés d’IA.

Des réponses exigeant une réflexion approfondie

Bien que le Congrès ait engagé la dernière phase d’examen de la loi d’autorisation de la défense, il est encore temps d’aborder ces questions délicates, et d’aligner les dispositions législatives sur des réponses claires. Ces enjeux sont complexes et suscitent légitimement des désaccords. Mais leur ignorance comporte des risques trop grands. L’histoire de la politique de défense enseigne que les dilemmes évités aujourd’hui deviennent les contraintes incontournables demain.

Une fois la loi adoptée, l’ensemble de la communauté de la sécurité nationale devra s’engager dans un débat réfléchi, inclusif et robuste autour de ces questions. Malheureusement, la tentation est forte pour les branches législative et exécutive de se focaliser rapidement sur l’agenda budgétaire et législatif de l’année suivante.

Il serait erroné de réduire l’IA à un simple poste budgétaire, un sujet de plus à traiter dans la multitude de dossiers de défense. Au cours des prochains mois, Congrès, think tanks, ONG, équipes politiques et hauts responsables doivent prendre le temps de s’arrêter, réfléchir et débattre. Cette fois, la priorité n’est pas d’aller plus vite, mais de poser les bonnes questions avant que les États-Unis ne s’enferment dans de mauvais choix.