Primo, la guerra in Ucraina sta mostrando l’importanza dei droni e delle decisioni basati su analisi di dati che vengono da varie fonti (truppe sul campo, satelliti, open source intelligence). Tutti ambiti dove l’AI può dare un supporto importante, per guidare i droni, rilevarli in automatico, analizzare i dati. La velocità delle decisioni militari cresce, così come, con i droni, la quantità di minacce in azione. L’AI serve al tempo stesso come causa di questo fenomeno sia come antidoto, in un circolo vizioso che favorisce l’escalation del suo utilizzo militare.
Un altro fattore è geopolitico. Cina e Russia sono minacce crescenti contro cui il Governo Usa sente il bisogno di attrezzarsi sfruttando i vantaggi tecnologici di cui dispone, tra i quali anche la supremazia in ambito di AI ottenuta grazie alle aziende della Silicon Valley. Per altro, la stessa Cina si serve sempre più spesso di AI (anche del modello Llama di Meta) in ambito militare: un fattore diretto di escalation, che spinge gli Usa a seguire la stessa via.
Pure le aziende AI si sentono spinte, o giustificate, dalla situazione geopolitica ad aiutare il Governo americano.
Ma c’è in gioco anche un fattore economico
Negli anni scorsi la Silicon Valley considerava poco interessante il Governo come cliente: troppo lento e burocratico negli acquisti tecnologici, in un settore che si innova molto rapidamente. Il procurement pubblico negli Usa sta però accelerando in ambito militare, per gli stessi motivi geopolitici di cui sopra. Al tempo stesso le aziende AI sentono di non poter rinunciare a una fonte di ricavi importanti, per sostenere i forti costi dell’AI. OpenAI quest’anno perderà 5 miliardi di dollari secondo varie stime https://www.ilsole24ore.com/art/openai-non-solo-round-6-miliardi-arrivano-tanti-soldi-anche-banche-AGmILpM.
Le implicazioni
Le ricadute etiche e politiche sono numerose. La possibilità di sistemi autonomi o semi-autonomi in grado di prendere decisioni critiche in situazioni di conflitto pone interrogativi sulla responsabilità e sul controllo umano. Si teme che quanto avviene ora sia solo un passo verso il temuto futuro dei robot killer, armi in grado di decidere in autonomia chi e quando uccidere. È l’allarme di una storica campagna internazionale, Stop Killer Robots. Questa, come altre associazioni per i diritti umani, premono sulle nazioni unite per un ban sulle armi autonome.