(ASI)Recentemente gli Stati Uniti sono stati oggetto di critiche multilaterali per l’impiego crescente dell’intelligenza artificiale in ambito militare, e in dettaglio nell’ambito di operazioni con attacco mirato.
Le critiche trovano basi in un un contesto più ampio, che vede l’evoluzione tecnologica dei conflitti, in cui sistemi automatizzati e analisi algoritmiche, rivestono un ruolo sempre più decisivo.
Ma l’uso dell’intelligenza artificiale nelle operazioni belliche statunitensi tuttavia non è così recente come possa sembrare: secondo quanto riportato da fonti come The New York Times, Washington Post, Reuters e anche da organizzazioni come Human Rights Watch, gli Stati Uniti utilizzano da anni sistemi basati su IA come supporto attivo per le operazioni militari, in particolare riguardo l’individuazione e identificazione degli obiettivi. Si tratta di strumenti che elaborano grandi quantità di dati per individuare possibili bersagli, attraverso modelli predittivi, ossia basati sull’analisi di dati statistici e probabilità per stimare o anticipare eventi futuri.
La questione tuttavia è emersa con maggiore intensità tra il 2023 e il 2025, quando diversi report giornalistici e rapporti di ONG hanno evidenziato l’uso crescente di tali tecnologie nei teatri operativi, in particolare in Medio Oriente. In queste aree, gli Stati Uniti hanno condotto operazioni contro gruppi armati attraverso droni e attacchi mirati, spesso basati su sistemi di analisi automatizzata dei dati di intelligence.
Le critiche si concentrano su due aspetti fondamentali: il primo riguarda l’affidabilità dei sistemi, il secondo la responsabilità. Gli algoritmi predittivi possono generare errori di classificazione degli obiettivi, aumentando il rischio di colpire obiettivi che non sono corretti. Inoltre l’uso dell’intelligenza artificiale nelle decisioni militari solleva interrogativi su chi sia responsabile in caso di errori o vittime civili; l’utilizzo dell’intelligenza artificiale infatti, può rendere meno chiara la catena decisionale, soprattutto quando l’intervento umano è fortemente limitato o mitigato dai sistemi tecnologici.
Il tema è stato anche affrontato dalle Nazioni Unite, dove diversi Stati hanno chiesto regolamentazioni più stringenti sull’uso delle cosiddette armi autonome; tuttavia, non esiste ancora un quadro normativo condiviso a livello globale.
Carlo Armanni - Agenzia Stampa Italia
Foto AI Sora su input Carlo Armanni



.svg.png)