Il militare statunitense ha utilizzato Anthropic durante un'importante offensiva aerea sull'Iran, solo poche ore dopo che il presidente Donald Trump ha ordinato alle agenzie federali di fermare l'uso dei sistemi dell'azienda.
Comandi militari, compreso il Comando Centrale degli Stati Uniti (CENTCOM) in Medio Oriente, hanno utilizzato il modello di intelligenza artificiale Claude di Anthropic per supporto operativo, secondo fonti familiari con la questione citate dal The Wall Street Journal. Lo strumento ha assistito, secondo quanto riportato, nell'analisi dell'intelligence, identificando potenziali obiettivi e conducendo simulazioni di battaglia.
L'incidente mostra quanto profondamente i sistemi di intelligenza artificiale avanzati siano diventati parte integrante delle operazioni di difesa. Anche mentre l'amministrazione si muoveva per interrompere i legami con l'azienda, Claude rimaneva integrato nei flussi di lavoro militari.
Venerdì, l'amministrazione Trump ha istruito le agenzie a smettere di lavorare con l'azienda e ha diretto il Dipartimento della Difesa a trattarla come un potenziale rischio per la sicurezza. L'ordine è arrivato dopo che i colloqui per il contratto sono falliti, con Anthropic che si è rifiutata di concedere l'uso militare illimitato della sua intelligenza artificiale per qualsiasi scenario legittimo richiesto dai funzionari della difesa.
Correlati: Crypto VC Paradigm si espande in AI, robotica con un fondo da 1,5 miliardi di dollari: WSJ
L'intelligenza artificiale Claude di Anthropic utilizzata per operazioni classificate
Anthropic aveva precedentemente assicurato un contratto pluriennale con il Pentagono del valore di fino a 200 milioni di dollari insieme a diversi importanti laboratori di intelligenza artificiale. Attraverso partnership che coinvolgono Palantir e Amazon Web Services, Claude è diventato approvato per flussi di lavoro di intelligence e operativi classificati. Il sistema è stato riportato come coinvolto anche in operazioni precedenti, inclusa una missione di gennaio in Venezuela che ha portato alla cattura del presidente Nicolás Maduro.
Le tensioni si sono intensificate dopo che il Segretario alla Difesa Pete Hegseth ha chiesto all'azienda di consentire l'uso militare illimitato dei suoi modelli. Il CEO di Anthropic Dario Amodei ha respinto la richiesta, descrivendo certe applicazioni come confini etici che l'azienda non avrebbe oltrepassato, anche se ciò significava perdere affari con il governo.
In risposta, il Pentagono ha iniziato a mettere in fila fornitori sostitutivi, raggiungendo un accordo con OpenAI per implementare i suoi modelli di intelligenza artificiale su reti militari classificate.
Correlati: Pantera, Franklin Templeton si uniscono a Sentient Arena per testare agenti AI
Il CEO di Anthropic si oppone al divieto del Pentagono
Durante un'intervista sabato, il CEO di Anthropic Dario Amodei ha dichiarato che l'azienda si oppone all'uso dei suoi modelli di intelligenza artificiale per la sorveglianza domestica di massa e le armi completamente autonome, rispondendo a una direttiva del governo degli Stati Uniti che ha etichettato l'azienda come un "rischio per la catena di approvvigionamento" della difesa e ha vietato ai contrattisti di utilizzare i suoi prodotti.
Ha sostenuto che certe applicazioni superano confini fondamentali, sottolineando che le decisioni militari dovrebbero rimanere sotto il controllo umano piuttosto che essere delegate interamente alle macchine.
Rivista: Bitcoin potrebbe richiedere 7 anni per aggiornarsi al post-quantum — co-autore BIP-360
