Lors de conférences médiatiques de type TED, suivies par des millions de spectateurs en ligne, des PDG de la tech charismatiques présentent leurs dernières innovations. Lors de ces présentations dynamiques et bien rodées, ils dénoncent les cycles lents et dépassés de l’innovation et des acquisitions militaires traditionnelles. Ils décrivent des scénarios de guerre futurs où les adversaires sont agiles, experts en technologies, et équipés de systèmes autonomes, sous-entendant que seule la technologie de pointe peut permettre de l’emporter. Sans surprise, la solution à ces menaces imminentes correspond parfaitement aux produits qu’ils commercialisent. Les décideurs politiques, souvent peu familiers avec la complexité de l’intelligence artificielle (IA) et des technologies émergentes, ainsi que les hauts responsables militaires et acteurs influents de l’industrie de défense, se laissent convaincre par l’urgence et la clarté du message. De retour dans leurs sphères, ils justifient sans hésiter aux autres la nécessité d’investir immédiatement dans ces solutions high-tech pour se préparer à des essaims de drones tueurs et à des adversaires équipés d’IA.
Cependant, un écart notable existe entre les capacités souvent vantées par l’industrie de la défense — à travers des systèmes comme Gotham de Palantir, Nexus d’Avalor ou Altra de Helsing — et celles réellement atteignables dans des environnements opérationnels militaires complexes. Dans nos travaux académiques sur la planification de mission de plateformes militaires, nous faisons fréquemment face à des défis mathématiques complexes liés à l’optimisation des interactions homme-machine, dans un cadre réaliste, pratique et responsable. Répondre à ces enjeux nécessite souvent des méthodes innovantes pour rendre les systèmes plus intelligents et adaptatifs.
Une de ces méthodes est l’optimisation bayésienne, une technique mathématique utilisée pour améliorer des systèmes complexes par essais et erreurs. En imaginant ajuster un système selon le retour de ses utilisateurs, tester une approche, observer ses performances, puis utiliser ce résultat pour prendre une meilleure décision ensuite, on comprend le principe. L’optimisation bayésienne aide un système à apprendre, progressivement, à faire de meilleurs choix, même lorsque les informations sont limitées ou incertaines. Cette approche repose souvent sur le processus gaussien, une méthode statistique qui émet des hypothèses éclairées sur des préférences ou comportements basées sur les données disponibles.
Cependant, ces modèles sont difficiles à interpréter et reposent sur certaines hypothèses. L’une des principales est que les relations dans les données sont « lisses », c’est-à-dire que de petites variations d’entrée entraînent des changements faibles et prévisibles en sortie. Le système suppose ainsi que le monde évolue graduellement et de façon continue. Cette hypothèse de « lissage » peut poser problème dans des environnements militaires réels, souvent complexes et dynamiques, où les évolutions sont abruptes, les relations non linéaires, et les données bruyantes ou incomplètes. Pour appliquer ces techniques en pratique, il faut plus que de simples algorithmes intelligents. Il faut des modèles capables de gérer l’incertitude, de s’adapter rapidement, de fonctionner avec des données partielles ou bruitées, tout en restant transparents, explicables et compréhensibles par les utilisateurs humains. Concevoir de tels systèmes exige une innovation technique poussée, des tests rigoureux et de nombreuses itérations.
Le dilemme est que les entreprises disposant des moyens pour développer ces systèmes avancés font face à deux options. Soit elles choisissent de ne pas adapter leurs méthodes pour les rendre transparentes et explicables, soit elles le font mais conservent leurs procédés en secret, par crainte de perdre leur avantage concurrentiel. Si cette attitude se comprend commercialement, elle pose un vrai problème aux organisations de défense, qui doivent comprendre clairement ce qui se passe « sous le capot » pour garantir une utilisation sûre, éthique et conforme à leurs objectifs stratégiques.
L’industrie joue un rôle crucial et doit faire partie de la solution, mais ses priorités — rapidité, évolutivité, domination du marché — ne correspondent pas toujours à l’intérêt public. Les États doivent avancer avec prudence et transparence, privilégiant une adoption responsable de l’IA plutôt que des déploiements hâtifs. La collaboration entre secteur public et privé est indispensable, mais elle doit être guidée par des valeurs démocratiques, la responsabilité et les exigences spécifiques de la sécurité publique et de l’éthique, et non par la seule logique commerciale. Une voie possible consiste en des arrangements hybrides où des systèmes propriétaires restent fermés au marché général, mais deviennent ouverts et vérifiables pour des partenaires gouvernementaux de confiance, sous des garanties contractuelles strictes. Cette idée n’est pas nouvelle, mais ce qui l’est, c’est la difficulté croissante à comprendre et vérifier le comportement des systèmes d’IA modernes, à cause de leur nature « boîte noire » ou « boîte grise ». Même dans des domaines relativement limités comme la détection d’objets (par exemple pour l’identification de cibles), la capacité d’explicabilité dépend fortement de l’architecture du modèle, des données d’entraînement et du contexte d’utilisation, et se dégrade souvent face à un changement de données ou d’environnement.
Dans le domaine spécifique de la prise de décision pour les essaims de drones en condition d’adversité, où ces drones doivent explorer leur environnement et allouer des tâches de manière dynamique, les chercheurs du Centre d’Excellence en Data Science du ministère néerlandais de la Défense font face à des défis complexes, relevant de la théorie des jeux, sans solutions optimales à ce jour. Nous travaillons activement à relever ces défis en partenariat avec la recherche, l’armée et l’industrie. Ainsi, développer, valider, maintenir et déployer des systèmes d’IA robustes et utilisables en opération est bien plus compliqué que ne le suggèrent les discours commerciaux actuels. Cela exige une expertise technique approfondie, des tests rigoureux et une supervision continue.
Alors que les armées s’appuient de plus en plus sur l’industrie pour leurs capacités en IA, les gouvernements doivent se prémunir non seulement contre le risque de verrouillage stratégique, mais surtout contre des attentes excessives et un manque de contrôle. Ces facteurs peuvent conduire à des échecs tactiques et stratégiques. L’IA n’est pas une solution clé en main pour la supériorité militaire. C’est une capacité complexe, en rapide évolution, qui exige patience stratégique, expertise institutionnelle, surveillance rigoureuse et une compréhension approfondie de ses mécanismes internes. Il peut être tentant de consacrer les budgets de défense en forte hausse de l’OTAN à des solutions IA toutes faites, mais une dépendance excessive à ce modèle pourrait devenir un handicap stratégique.
Cela ne signifie pas que les armées doivent éviter la collaboration avec l’industrie. Au contraire, développer efficacement l’IA militaire requiert un engagement durable dans des écosystèmes incluant aussi bien le monde industriel que le monde universitaire civil, notamment compte tenu des défis d’échelle actuels et de la nature duale de l’IA. Cependant, la participation à ces écosystèmes ne doit pas se réduire à l’achat de produits standardisés.
Une véritable collaboration impose que l’armée développe une expertise interne solide en IA (littératie en intelligence artificielle) à tous les niveaux, afin d’accroître son niveau de préparation humaine. Cela est particulièrement crucial pour évaluer des plateformes IA avancées, car les responsables publics doivent pouvoir juger de manière critique leurs capacités, leurs limites, et dans quelles conditions elles peuvent être utilisées de manière responsable. Parallèlement, de nombreux partenaires de l’industrie et du monde académique — mais pas tous — manquent de connaissances approfondies sur les réalités militaires. Leur culture de défense doit également être renforcée. Ainsi, avancer dans l’IA militaire ne consiste pas seulement à construire de meilleurs systèmes, mais à cultiver de meilleurs écosystèmes.
Si l’industrie et la recherche académique peuvent accélérer les avancées technologiques en IA, l’armée possède une expertise indispensable sur les réalités et besoins des environnements opérationnels. Cette expertise est essentielle non seulement pour évaluer la performance des systèmes d’IA dans des conditions souvent complexes et ambiguës, mais aussi pour s’assurer que leur emploi respecte les principes d’un déploiement responsable et légal.
Considérons par exemple l’usage d’essaims de drones aériens autonomes pour le renseignement militaire. Les technologies permettant l’évitement de collisions autonomes ou la navigation autonome en environnement contraint sont importantes, mais ne représentent qu’une partie du problème. Quelle est la performance réelle des modèles de détection d’objets utilisés pour l’identification des cibles face aux variations des données ? Quel niveau et type d’explicabilité ces modèles doivent-ils offrir pour être compris par l’utilisateur final ou le commandant, en tenant compte du contexte opérationnel et légal ? Quelle stratégie de recherche est efficace pour un essaim hétérogène, notamment avec des contraintes d’endurance de vol limitée et la présence possible de contre-mesures adverses ?
Ces questions ne sont pas seulement techniques, elles sont aussi opérationnelles et nécessitent une expertise militaire pointue. Cette dernière est indispensable non seulement pour mener des recherches appliquées, mais aussi pour poser les bonnes questions de recherche dès le départ. Ce processus révèle souvent un décalage entre l’état réel de l’art en IA et les discours ambitieux de l’industrie. Les entreprises vendent des idées, prototypes et concepts, mais rarement des solutions intégrées, validées et prêtes pour les missions. Ce n’est pas un problème en soi, mais ces solutions « prêtes à l’emploi » ne remplacent pas un développement éclairé et centré sur les missions. Les armées ne doivent pas confondre ces offres avec des capacités complètes et clés en main car, à ce jour, ces solutions n’existent pas.
Pour progresser vers ces objectifs, les armées doivent aller au-delà de la simple acquisition de systèmes : elles doivent bâtir une base d’expertise interne qui permette une collaboration fructueuse avec les partenaires externes. Sans cette capacité interne, même les meilleurs partenariats avec l’industrie et le monde académique risquent d’être insuffisants.
Quelles perspectives ?
Premièrement, les armées doivent investir dans la construction d’une solide culture interne en science des données et IA, ancrée dans les réalités opérationnelles. Ce travail ne doit pas être mené en vase clos, mais s’inscrire dans des écosystèmes dynamiques associant industrie et milieu académique civil. Il ne s’agit pas de se passer totalement de partenaires extérieurs, mais de mettre en garde contre une dépendance excessive et une approche naïve des acquisitions.
Deuxièmement, compte tenu de l’état actuel de la recherche en IA, les organisations de défense doivent résister à la tentation d’accélérer les déploiements par peur de perdre du terrain face aux autres États. La peur obscurcit le jugement. Les armées ont à la fois la possibilité et la responsabilité d’agir avec mesure. Se précipiter dans l’adoption de l’IA sans compréhension claire, sans mécanismes de contrôle et de responsabilité, menace à la fois l’efficacité des missions et la confiance du public.
Développer une IA militaire efficace, robuste et responsable nécessite l’implication active d’experts militaires et du temps. Cela impose un niveau de littératie en IA au sein des forces armées, ainsi qu’une culture de défense chez les partenaires industriels et universitaires. Sans familiarité simultanée avec l’IA et les exigences militaires, responsabilité et efficacité risquent d’apparaître en opposition. Au contraire, l’usage responsable de l’IA est une condition préalable à son efficacité. Sur le long terme, un déploiement irresponsable sera non seulement contraire à l’éthique, mais aussi contre-productif sur le plan opérationnel.
Enfin, un usage à la fois efficace et responsable de l’IA repose sur une compréhension claire et éclairée de la conception, du développement et du déploiement des systèmes. La bonne nouvelle : investir dans la littératie en IA au sein des forces armées et renforcer la culture de défense chez les acteurs externes servent ces deux objectifs. La véritable maîtrise de ce domaine émergent ne sera pas l’apanage des plus rapides ou des plus spectaculaires, mais de ceux qui portent le fardeau de la compréhension, et ont le courage de l’utiliser avec discernement.
Roy Lindelauf, PhD, est professeur titulaire en science des données appliquées aux opérations militaires au département d’études de guerre de l’Académie de Défense des Pays-Bas. Il occupe également une chaire en science des données pour la sécurité au département de sciences cognitives et intelligence artificielle de l’Université de Tilburg. Il dirige le Centre d’Excellence en science des données du ministère néerlandais de la Défense.
Herwin Meerveld est officier dans la Force aérienne et spatiale royale des Pays-Bas. Il coordonne le Centre d’Excellence en science des données du ministère néerlandais de la Défense. Il est doctorant externe à l’Université de Tilburg.