L’intelligenza artificiale va alla guerra

È noto come molti progressi tecnologici abbiano preso spunto da innovazioni in campo militare che poi sono state estese anche a impieghi civili.

Internet nacque a seguito di ricerche compiute nel clima della guerra fredda per assicurare le comunicazioni in caso di attacco nucleare; non è questo il caso dell’Intelligenza artificiale, sviluppatasi al di fuori dell’ambito militare ma che ora trova in esso proficue quanto inquietanti applicazioni.

Sia la guerra in Ucraina che l’offensiva scatenata dopo il 7 ottobre 2023 dall’esercito israeliano sono una tragica riprova di questa affermazione e si può addirittura affermare che queste due situazioni di conflitti aperti costituiscano prove generali per le guerre che verranno. La stessa logica “sperimentale” che produsse il 26 aprile 1937 durante la guerra di Spagna il tagico bombardamento di Guernica, condotto dall’aviazione tedesca con il supporto italiano.

“È stato una vicenda spiacevole, d’accordo. Ma non potevamo fare altrimenti perché non avevamo un altro posto per sperimentare i nostri aeroplani” ammise cinicamente il generale tedesco Göring, comandante dell’aviazione tedesca durante il processo di Norimberga che ne avrebbe la condanna a morte come criminale di guerra.

Sul fronte ucraino si assiste attualmente sia da parte russa che da parte ucraina all’impiego massiccio di droni forniti di microscopici chip in grado di colpire reciproci obiettivi con scarso dispendio di risorse.

Sempre sul fronte ucraino si diffonde sempre di più l’uso di robot da combattimento; nello scorso dicembre l’esercito ucraino ha compiuto la prima offensiva affidata esclusivamente a robot.

L’utilizzo poi dell’intelligenza generativa consente di riconoscere oggetti e di risolvere situazioni che richiedono una complessa e rapida elaborazione di dati.

Per quanto riguarda il Medio Oriente, l’esercito e i servizi segreti israeliani dimostrano in misura sempre maggiore di aver messo a punto nel tempo quella che il Washington Post definisce “una fabbrica dell’intelligenza artificiale” che sta trovando piena applicazione con l’operazione militare iniziata a Gaza dopo il 7 ottobre 2023. A partire da quella data l’esercito israeliano ha fatto ampio uso di software basati sull’IA per individuare e colpire veri o presunti combattenti di Hamas con poco riguardo agli “effetti collaterali” sui civili.

 Un’indagine indipendente condotta da +972, una rivista no profit israeliano-palestinese e Local Call, sito di d’informazione in lingua ebraica, ha permesso di rivelare, tramite informazioni provenienti da ambienti militari israeliani, le modalità di utilizzo del cosiddetto    programma Lavender. Attraverso l’uso di software basati sull’IA l’esercito israeliano è stato in grado non solo di individuare ben 37.000 obiettivi umani ma anche di localizzare geograficamente. I presunti combattenti di Hamas e di altri gruppi di armati che sono stati   colpiti spesso al momento del a loro rientro a casa, senza particolari scrupoli per il fatto che in questo modo sono stati uccisi anche familiari del “bersaglio” e altre persone innocenti presenti nello stesso edificio; i è sotto gli occhi del mondo l’altissimo numero di vittime civili massacrate in questo modo.

La scelta degli obiettivi da colpire viene oltretutto compiuta dall’IA secondo criteri difficili da controllare e con margini di errore ampi e  sostanzialmente accettati dai suoi utilizzatori. La decisione ultima sull’azione è presa da esseri umani ma in tempi estremamente rapidi che di fatto rendono impossibile un’attenta valutazione della situazione e un controllo sui dati elaborati dall’IA.  La crescente utilizzazione in modo quasi automatico degli strumenti dell’IA  finisce per deresponsabilizzare  chi deve prendere decisioni cruciali nel corso di un conflitto e aumenta i rischi per la popolazione civile, sempre più la vittima maggiore dei conflitti moderni                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                     

Su scala ala più ampia si prevede che in futuro i controlli sull’uso delle armi atomiche possano essere sempre più affidate all’IA, eliminando dunque quel controllo umano che può risultare decisivo per evitare errori fatali.

Eppure, un’esperienza precedente dovrebbe dimostrare quanto possa essere pericoloso rinunciare completamente all’intervento umano in situazioni militari critiche.

Il 25 ottobre del 1983 al  tenente colonnello sovietico Stanislav Petrov  parve di individuare  sul suo schermo, secondo dati trasmessi dal satellite, cinque missili intercontinentali statunitensi diretti verso il territorio sovietico,

Petrov in quel momento sapeva che la segnalazione di questo dato ai suoi superiori avrebbe comportato in pochissimo tempo una risposta sovietica con conseguente immediato innesco di un conflitto atomico dagli esiti letali per l’intera umanità.

Petrov interpretò correttamente l’immagine che aveva visto sul suo schermo come un errore del satellite e non diede l’avvio alla reazione russa salvando l’umanità da una probabile distruzione.

Difficile oggi   tornare indietro dalla strada intrapresa con l’utilizzo militare dell’IA, illudendosi che le forze in campo rinuncino ai progressi acquisiti e al loro utilizzo. Come per le bombe atomiche il compito di affrontare e risolvere i problemi spetta alla politica e al residuo buon senso degli esseri umani e dei dirigenti dei singoli Paese nel controllo e nell’utilizzo di questi nuovi strumenti  che magari sfoci in qualche credibile accordo internazionale.

In un mondo sempre più frammentato e privo di nazioni guida fornite di classi dirigenti all’altezza della situazione questa sembra più una speranza che una prospettiva concreta. Una speranza a cui tuttavia non possiamo rinunciare magari alimentandola  facendo sentire la nostra voce.

Seguici

Cerca nel blog

Cerca

Chi siamo

Questo blog nasce dall’incontro di tre persone emigrate volontariamente in età adulta dall’Italia in Svizzera e che in questo Paese hanno realizzato esperienze diverse in vari ambiti lavorativi e culturali. 

Ultimi post

Nascere a Gaza

Si dice spesso che per provare veramente empatia verso le vittime di situazioni tragiche bisogna dare loro un volto e un nome. Lamis Qasim e

Leggi Tutto »