IA e guerra, crescono le critiche agli Stati Uniti per l’uso nei teatri militari

(ASI)Recentemente gli Stati Uniti sono stati oggetto di critiche multilaterali per l’impiego crescente dell’intelligenza artificiale in ambito militare, e in dettaglio nell’ambito di operazioni con attacco mirato.

Le critiche trovano basi in un un contesto più ampio, che vede l’evoluzione tecnologica dei conflitti, in cui sistemi automatizzati e analisi algoritmiche, rivestono un ruolo sempre più decisivo.

Ma l’uso dell’intelligenza artificiale nelle operazioni belliche statunitensi tuttavia non è così recente come possa sembrare: secondo quanto riportato da fonti come The New York Times, Washington Post, Reuters e anche da organizzazioni come Human Rights Watch, gli Stati Uniti utilizzano da anni sistemi basati su IA come supporto attivo per le operazioni militari, in particolare riguardo l’individuazione e identificazione degli obiettivi. Si tratta di strumenti che elaborano grandi quantità di dati per individuare possibili bersagli, attraverso modelli predittivi, ossia basati sull’analisi di dati statistici e probabilità per stimare o anticipare eventi futuri.

La questione tuttavia è emersa con maggiore intensità tra il 2023 e il 2025, quando diversi report giornalistici e rapporti di ONG hanno evidenziato l’uso crescente di tali tecnologie nei teatri operativi, in particolare in Medio Oriente. In queste aree, gli Stati Uniti hanno condotto operazioni contro gruppi armati attraverso droni e attacchi mirati, spesso basati su sistemi di analisi automatizzata dei dati di intelligence. 

Le critiche si concentrano su due aspetti fondamentali: il primo riguarda l’affidabilità dei sistemi, il secondo la responsabilità. Gli algoritmi predittivi possono generare errori di classificazione degli obiettivi, aumentando il rischio di colpire obiettivi che non sono corretti. Inoltre l’uso dell’intelligenza artificiale nelle decisioni militari solleva interrogativi su chi sia responsabile in caso di errori o vittime civili; l’utilizzo dell’intelligenza artificiale infatti, può rendere meno chiara la catena decisionale, soprattutto quando l’intervento umano è fortemente limitato o mitigato dai sistemi tecnologici.

Il tema è stato anche affrontato dalle Nazioni Unite, dove diversi Stati hanno chiesto regolamentazioni più stringenti sull’uso delle cosiddette armi autonome; tuttavia, non esiste ancora un quadro normativo condiviso a livello globale.

Carlo Armanni - Agenzia Stampa Italia 

Foto AI Sora su input Carlo Armanni

ASI precisa: la pubblicazione di un articolo e/o di un'intervista scritta o video in tutte le sezioni del giornale non significa necessariamente la condivisione parziale o integrale dei contenuti in esso espressi. Gli elaborati possono rappresentare pareri, interpretazioni e ricostruzioni storiche anche soggettive. Pertanto, le responsabilità delle dichiarazioni sono dell'autore e/o dell'intervistato che ci ha fornito il contenuto. L'intento della testata è quello di fare informazione a 360 gradi e di divulgare notizie di interesse pubblico. Naturalmente, sull'argomento trattato, il giornale ASI è a disposizione degli interessati e a pubblicare loro i comunicati o/e le repliche che ci invieranno. Infine, invitiamo i lettori ad approfondire sempre gli argomenti trattati, a consultare più fonti e lasciamo a ciascuno di loro la libertà d'interpretazione

Continua a leggere