En juillet dernier, le Commandement de la défense aérospatiale de l’Amérique du Nord (NORAD) et le Commandement du Nord des États-Unis (NORTHCOM) ont mené une troisième série de tests appelés Global Information Dominance Experiments (GIDE 3). La première et la seconde série de tests avaient eu lieu respectivement en décembre 2020 et en mars dernier.
Chaque test avait pour objectif de mesurer les performances de trois outils d’IA interconnectés appelés Cosmos, Lattice et Gaia. Le premier fournit une connaissance de la situation en temps réel pour n’importe quel emplacement géographique, à partir d’énormes volumes de données : images satellites, communication, rapports de renseignement, données de capteurs…
Les objectifs de l’expérience GIDE 2, avec notamment Lattice, étaient d’acquérir une compréhension et une image communes de la menace pour chacun des commandements et de mener une coordination des actions de réponse. Basé sur le cloud, Cosmos permet une collaboration stratégique entre différents commandements.
Le KGB et la STASI et les risques de guerre nucléaire
En travaillant conjointement, ces trois solutions reposant sur l’IA et le machine learning sont censées anticiper les actions des adversaires et éviter ainsi un conflit armé. Un objectif également retenu par le KGB dans les années 1980.
Quelques années avant la fin de la guerre froide, le principal service de renseignements de l’URSS et la STASI (ministère de la Sécurité de l’État de l’Allemagne de l’Est) s’étaient associés dans le cadre du « Projet RYaN ».
Il s’agissait de prédire le début d’une guerre nucléaire de six mois à un an à partir de différents indicateurs : emplacement physique des ogives nucléaires américaines, surveillance des ambassades américaines, déplacements imprévus de hauts fonctionnaires, exercices et alertes militaires, entretien programmé des armes…
Toutes ces informations avaient été introduites dans un modèle informatique pour « calculer et surveiller la corrélation des forces, y compris les facteurs militaires, économiques et psychologiques, afin d’attribuer des chiffres et des poids relatifs ». Les résultats de RYaN ont contribué à la paranoïa soviétique concernant une attaque nucléaire américaine imminente en 1983 et ont presque conduit les dirigeants soviétiques à déclencher une guerre nucléaire.
Mais, quel que soit le type de données analysées, prédire l’avenir avec certitude reste encore un défi pour l’IA. Les solutions basées sur l’IA sont toujours susceptibles de se comporter de manière inattendue. Et s’il est très difficile aux militaires d’expliquer la logique de « raisonnement » d’un algorithme qui annonce une action éminente, il sera certainement difficile aux hommes politiques d’être convaincus…
Tirer parti d’outils basés sur l’IA pour prendre de meilleures décisions est une chose, mais les utiliser pour prédire des actions adverses afin de les prévenir en est une autre. « Si vous ne pouvez pas expliquer quelque chose en termes simples, c’est que vous ne le comprenez pas », déclarait le physicien américain Richard Feynman…
Dans l'actualité
- Hackathon IA4AI : l’intelligence artificielle pour des applications industrielles
- L’Europe se rêve leader de l’intelligence artificielle « digne de confiance »
- Grâce à l’intelligence artificielle, les formations deviennent plus personnalisées
- L’Intelligence artificielle n’est pas objective !
- L’intelligence artificielle : entre excitation et éthique