Le paysage militaire est sur le point de se transformer à mesure que les technologies avancées et l’intelligence artificielle (IA) prennent de plus en plus d’importance. L’ancien chef d’état-major interarmées, le général de l’armée Mark Milley, a exprimé d’importantes inquiétudes et prévisions quant à l’impact de ces technologies sur le caractère de la guerre. Dans une récente interview pour l’émission 60 Minutes de CBS, Milley a souligné l’urgence de se préparer à ce paradigme en évolution. Cet article explore les principaux enseignements de ses réflexions, le rôle de l’IA dans les opérations militaires et les implications éthiques et juridiques qui accompagnent cette évolution technologique.
L'IA accélère la prise de décision
L’analyse de Milley porte sur l’impact profond que l’IA aura sur les processus de prise de décision dans les opérations militaires. Il pointe en particulier la boucle OODA (observer, orienter, diriger et agir) comme étant le cycle de décision qui subira une transformation radicale. Par le passé, cette stratégie impliquait que les commandants prennent des décisions rapides, comme Napoléon qui donnait des ordres la nuit. Cependant, l’IA est sur le point d’automatiser cette boucle, ce qui permettrait potentiellement aux ordinateurs d’analyser de vastes quantités d’informations et d’aider à déterminer les mouvements et les horaires des troupes.
Les prévisions du général Milley suggèrent que l’optimisation de l’IA pour le commandement et le contrôle des opérations militaires pourrait se concrétiser d’ici dix à quinze ans. Si ce calendrier peut surprendre, il souligne le rythme rapide du développement de l’IA dans divers secteurs, notamment celui de la défense. Les implications sont vastes, car l’IA pourrait modifier radicalement la dynamique du pouvoir sur la scène militaire mondiale.
La surveillance humaine reste essentielle
Malgré l’intégration imminente de l’IA dans la prise de décision militaire, le ministère de la Défense (DoD) maintient une position ferme sur la supervision humaine. Les normes actuelles du DoD stipulent que toutes les décisions impliquant le recours à la force doivent impliquer un humain dans la boucle OODA. La secrétaire adjointe à la Défense Kathleen Hicks réitère cet engagement, soulignant que l’autonomie des systèmes d’armes devrait toujours avoir un humain responsable de l’utilisation de la force.
Le programme « Réplicateur »
Le département de la Défense a lancé le programme « Replicator » pour contrebalancer l’expansion des capacités militaires de la Chine. Ce projet ambitieux vise à créer des milliers de systèmes d’armes autonomes alimentés par l’intelligence artificielle. Le secrétaire adjoint Hicks assure que le programme s’alignera sur la politique établie de surveillance humaine dans le recours à la force. Cette initiative souligne la détermination des États-Unis à maintenir leur avantage militaire malgré les avancées technologiques.
Préoccupations et dilemmes éthiques
Le Comité international de la Croix-Rouge met en évidence les risques potentiels des armes autonomes, notamment celles qui utilisent l’IA. Les inquiétudes s’étendent aux conséquences imprévues, telles que les pertes civiles et la possibilité d’aggraver les conflits. À mesure que l’utilisation de l’IA dans les guerres s’intensifie, les considérations éthiques et juridiques deviennent primordiales. Le général Milley reconnaît les défis multidimensionnels de ces avancées, qui englobent les dimensions juridiques, éthiques et morales.
La trajectoire de la guerre est indéniablement en train de changer, à mesure que les technologies avancées et l’intelligence artificielle deviennent partie intégrante des opérations militaires. Les observations du général Milley sur l’accélération de la prise de décision grâce à l’IA offrent un aperçu de l’avenir des conflits. Cependant, l’engagement ferme du ministère de la Défense en faveur de la surveillance humaine et les préoccupations éthiques soulevées par des organisations comme le Comité international de la Croix-Rouge nous rappellent la nécessité d’une réflexion approfondie dans cette ère de transformation de la guerre.
Dans un monde où l’intelligence artificielle et la technologie façonnent de plus en plus le champ de bataille, les États-Unis et d’autres pays doivent trouver un équilibre entre efficacité militaire et responsabilité éthique. Les implications sont vastes et le calendrier incertain, mais l’importance de relever ces défis ne peut être surestimée. L’avenir de la guerre, porté par l’intelligence artificielle, exige de la vigilance, une élaboration prudente des politiques et une coopération mondiale pour assurer une évolution sûre et éthique des capacités militaires.
Dans un monde en évolution rapide, où les frontières de la technologie et de la guerre convergent, la capacité des nations à s’adapter et à relever ces défis déterminera en fin de compte le cours des conflits futurs.

