L’intelligenza artificiale (IA) sta trasformando rapidamente numerosi settori, dalla medicina al commercio, ma uno degli ambiti più critici e controversi è quello militare. L’utilizzo dell’IA nei conflitti solleva questioni che vanno ben oltre l’efficienza operativa: rischi di escalation incontrollata, violazioni del diritto internazionale umanitario, delega delle decisioni di vita e di morte a sistemi automatizzati e, in ultima analisi, la prospettiva inquietante di escludere del tutto gli esseri umani dalle catene di comando e controllo militare.
Attualmente, molte tecnologie militari basate sull’IA sono concepite come strumenti di supporto alla decisione, non come sistemi completamente autonomi che scelgono da soli quando e chi colpire. L’intelligenza artificiale viene impiegata soprattutto per analizzare enormi quantità di dati, individuare possibili obiettivi, supportare la logistica e accelerare processi decisionali che un essere umano, da solo, non riuscirebbe a gestire con la stessa velocità.
Tuttavia, quanto sta emergendo nel conflitto tra Iran, Israele e Stati Uniti mostra quanto questa distinzione stia diventando sempre più sottile e potenzialmente pericolosa. Il caso della scuola di Minab, colpita da un missile Tomahawk con centinaia di vittime civili, dimostra come l’integrazione tra sistemi di analisi automatica e decisioni operative possa amplificare errori già presenti nei dati. Secondo le ricostruzioni, il comando militare avrebbe utilizzato informazioni di intelligence obsolete, forse integrate o processate da sistemi di analisi basati su IA per accelerare l’operazione militare. In uno scenario in cui l’IA aiuta a generare, filtrare o classificare obiettivi, la velocità del processo decisionale aumenta, ma allo stesso tempo si riduce il tempo per la verifica umana.
Il problema non è quindi soltanto tecnico ma sistemico. L’IA non decide formalmente di colpire un bersaglio, ma influenza la catena decisionale che porta a quella scelta. Strumenti come il Maven Smart System, che aggregano dati da satelliti, sensori e comunicazioni, permettono di identificare pattern e suggerire target con una rapidità senza precedenti. Ma se i dati di partenza sono errati o incompleti, l’IA rischia di amplificare l’errore su scala industriale, rendendo più probabili tragedie come quella di Minab.
L’aspetto più allarmante è che tutto questo sta avvenendo mentre si sta consolidando un complesso militare-industriale centrato sull’intelligenza artificiale, in cui governi e grandi aziende tecnologiche competono per la supremazia strategica. Sistemi sviluppati da aziende come Anthropic o OpenAI, integrati in piattaforme di analisi dati di società come Palantir Technologies, vengono sempre più utilizzati per intelligence, pianificazione militare e simulazioni operative. Anche se ufficialmente restano strumenti di supporto, il confine tra “assistere” e “determinare” una decisione militare diventa rapidamente sfumato quando l’IA è quella che filtra e organizza le informazioni su cui si basa l’attacco.
