Il panorama della guerra è sull’orlo della trasformazione poiché le tecnologie avanzate e l’intelligenza artificiale (AI) diventano sempre più importanti. L'ex presidente dei capi di stato maggiore congiunti, generale dell'esercito Mark Milley, ha sollevato preoccupazioni e previsioni significative sull'impatto di queste tecnologie sul carattere della guerra. In una recente intervista per 60 Minutes della CBS, Milley ha sottolineato l’urgenza di prepararsi per questo paradigma in evoluzione. Questo articolo esplora i principali punti salienti delle sue intuizioni, il ruolo dell'intelligenza artificiale nelle operazioni militari e le implicazioni etiche e legali che accompagnano questa evoluzione tecnologica.

L’intelligenza artificiale accelera il processo decisionale

La valutazione di Milley si concentra sul profondo impatto che l’intelligenza artificiale avrà sui processi decisionali nelle operazioni militari. Indica specificamente il ciclo OODA – osservare, orientare, dirigere e agire – come il ciclo decisionale che subirà una trasformazione radicale. In passato, questa strategia prevedeva che i comandanti prendessero decisioni rapide, come Napoleone impartiva ordini di notte. Tuttavia, l’intelligenza artificiale è impostata per automatizzare questo ciclo, consentendo potenzialmente ai computer di analizzare grandi quantità di informazioni e aiutare a determinare i movimenti e i tempi delle truppe.

Le previsioni del generale Milley suggeriscono che l’ottimizzazione dell’intelligenza artificiale per il comando e il controllo delle operazioni militari potrebbe concretizzarsi entro i prossimi dieci-quindici anni. Anche se questa sequenza temporale può sollevare qualche sopracciglio, sottolinea il rapido ritmo dello sviluppo dell’intelligenza artificiale in vari settori, compresa la difesa. Le implicazioni sono vaste, poiché l’intelligenza artificiale potrebbe alterare drasticamente le dinamiche di potere sulla scena militare globale.

La supervisione umana rimane essenziale

Nonostante l’imminente integrazione dell’intelligenza artificiale nel processo decisionale militare, il Dipartimento della Difesa (DoD) mantiene una posizione ferma sul controllo umano. Gli attuali standard del Dipartimento della Difesa impongono che tutte le decisioni che comportano l’uso della forza debbano coinvolgere un essere umano nel circuito OODA. Il vice segretario alla Difesa Kathleen Hicks ribadisce questo impegno, sottolineando che l’autonomia nei sistemi d’arma dovrebbe sempre avere un essere umano responsabile dell’uso della forza.

Il programma “Replicatore”.

Il Dipartimento della Difesa ha avviato il programma “Replicator” per controbilanciare le capacità militari in espansione della Cina. Questo ambizioso progetto mira a creare migliaia di sistemi d’arma autonomi alimentati dall’intelligenza artificiale. Il vice segretario Hicks rassicura che il programma si allineerà alla politica consolidata di controllo umano sull’uso della forza. Questa iniziativa sottolinea la determinazione degli Stati Uniti a mantenere il proprio vantaggio militare nonostante i progressi tecnologici.

Preoccupazioni e dilemmi etici

Il Comitato Internazionale della Croce Rossa evidenzia le potenziali insidie ​​delle armi autonome, comprese quelle che impiegano l’intelligenza artificiale. Le preoccupazioni si estendono alle conseguenze indesiderate, come le vittime civili e la possibilità di esacerbare i conflitti. Con l’intensificarsi dell’utilizzo dell’intelligenza artificiale in guerra, le considerazioni etiche e legali diventano fondamentali. Il generale Milley riconosce le molteplici sfide di questi progressi, che comprendono dimensioni legali, etiche e morali.

La traiettoria della guerra sta innegabilmente cambiando man mano che le tecnologie avanzate e l’intelligenza artificiale diventano parte integrante delle operazioni militari. Le intuizioni del generale Milley sull’accelerazione del processo decisionale attraverso l’intelligenza artificiale offrono uno sguardo sul futuro del conflitto. Tuttavia, il fermo impegno per il controllo umano nel Dipartimento della Difesa e le preoccupazioni etiche sollevate da organizzazioni come il Comitato Internazionale della Croce Rossa ci ricordano la necessità di un’attenta considerazione in questa era di trasformazione della guerra.

In un mondo in cui l’intelligenza artificiale e la tecnologia modellano sempre più il campo di battaglia, gli Stati Uniti e le altre nazioni devono percorrere un percorso che bilanci l’efficacia militare con la responsabilità etica. Le implicazioni sono vaste e la tempistica incerta, ma l’importanza di affrontare queste sfide frontalmente non può essere sopravvalutata. Il futuro della guerra, guidato dall’intelligenza artificiale, richiede vigilanza, attento sviluppo di politiche e cooperazione globale per garantire un’evoluzione sicura ed etica delle capacità militari.

In un mondo in rapido cambiamento, dove i confini della tecnologia e della guerra convergono, la disponibilità delle nazioni ad adattarsi e ad affrontare queste sfide determinerà in ultima analisi il corso dei conflitti futuri.