Israele ha schierato l’Intelligenza Artificiale a Gaza – si apre una nuova era del warfare

Nel caos dei recenti eventi nella Striscia di Gaza, una tendenza emergente si fa strada nel panorama militare: l’utilizzo crescente dell’intelligenza artificiale per la selezione e l’identificazione dei bersagli. Secondo quanto riportato da NPR, le forze israeliane hanno colpito oltre 22.000 obiettivi all’interno della Striscia di Gaza, dal momento degli attacchi condotti dai militanti guidati da Hamas il 7 ottobre. E, dall’insorgere della tregua temporanea il 1° dicembre, l’Aeronautica israeliana ha colpito più di 3.500 siti.

L’esercito israeliano sostiene di utilizzare l’intelligenza artificiale per selezionare molti di questi obiettivi in tempo reale, affermando che il sistema di intelligenza artificiale, chiamato “il Vangelo”, ha contribuito a identificare rapidamente combattenti nemici ed equipaggiamento, riducendo al contempo le vittime civili.

Tuttavia, i critici avvertono che il sistema è al meglio non provato – e al peggio, fornisce una giustificazione tecnologica per l’uccisione di migliaia di civili palestinesi.

Secondo il rapporto, “Il Vangelo” è uno dei molti programmi di intelligenza artificiale utilizzati dai servizi segreti israeliani, sviluppato dalla branca di intelligence delle comunicazioni di Israele, nota come Unità 8200. Il sistema è relativamente nuovo: una delle prime menzioni è stata un premio per l’innovazione ottenuto nel 2020.

Il sistema è in grado di generare obiettivi a un ritmo rapido, con il potenziale di fornire un enorme vantaggio ai comandanti. Ma, nonostante le potenziali promesse dell’IA nell’ambito militare, sorgono dubbi sulla sua effettiva affidabilità e precisione.

L’uso dell’Intelligenza Artificiale pone il tema della responsabilità in presenza di errori

Esperti come Heidy Khlaaf, Direttore di Ingegneria dell’Assicurazione IA presso Trail of Bits, sottolineano che gli algoritmi di intelligenza artificiale sono notoriamente soggetti a errori, con alte percentuali di errore osservate in molte applicazioni che richiedono precisione, accuratezza e sicurezza. La questione della responsabilità è altrettanto problematica: se il sistema di targeting fallisce, chi ne è responsabile?

Nonostante le critiche, l’uso dell’IA da parte di Israele per generare obiettivi potrebbe rappresentare solo l’inizio di una nuova fase nell’uso di tale tecnologia nella guerra moderna. Algoritmi in grado di analizzare enormi quantità di dati di intelligence più velocemente degli analisti umani potrebbero diventare sempre più comuni nel campo della sicurezza e della difesa.

Ciò solleva importanti questioni etiche e pratiche sul futuro dell’IA nella guerra: come possiamo garantire che i sistemi di intelligenza artificiale siano affidabili ed etici? E chi è responsabile in caso di errori o abusi?

Il caso dell’IA nell’attuale conflitto tra Israele e Palestina è solo uno dei molti che solleveranno interrogativi critici sul futuro della guerra e della tecnologia. Con un numero sempre maggiore di nazioni che abbracciano l’IA per scopi militari, è fondamentale affrontare queste domande ora, prima che diventino ancora più urgenti nel futuro sempre più tecnologico e complesso dei conflitti globali.