AI
Thunderforge, i nuovi agenti AI del Pentagono

L’Intelligenza Artificiale continua a espandere la sua influenza nel settore militare. Il Pentagono ha recentemente siglato un accordo con Scale AI per sviluppare “Thunderforge”, un programma che sfrutterà agenti AI per la pianificazione e le operazioni militari. Questo progetto rappresenta una svolta significativa nell’integrazione dell’AI nella difesa, sollevando interrogativi sulla sicurezza e l’etica dell’uso della tecnologia in ambito bellico.
L’AI nel settore militare: un trend in crescita
L’adozione dell’Intelligenza Artificiale nelle operazioni militari non è una novità, ma il ritmo con cui si sta sviluppando è sorprendente. Silicon Valley sta progressivamente eliminando le restrizioni sull’uso della propria tecnologia da parte delle forze armate. Colossi come Google e OpenAI hanno rivisto le proprie politiche, aprendo la strada all’impiego dell’AI per sorveglianza e sviluppo di armamenti.
Solo il mese scorso, un alto funzionario del Pentagono ha dichiarato a Defense One che l’esercito statunitense sta spostando l’attenzione dalla ricerca sui robot autonomi alla realizzazione concreta di armi potenziate dall’AI. Inoltre, OpenAI ha recentemente stretto un accordo con Anduril, l’azienda di Palmer Luckey, per migliorare i sistemi di difesa aerea contro droni ostili.
Thunderforge: come l’AI cambierà la strategia militare
Il programma Thunderforge, definito un “flagship program” dalla Defense Innovation Unit (DIU), mira a migliorare la capacità delle forze armate statunitensi di analizzare e rispondere rapidamente alle minacce. Secondo il comunicato della DIU, la tecnologia di Scale AI permetterà ai pianificatori militari di sintetizzare grandi quantità di dati, generare scenari di azione multipli e simulare strategie di guerra basate su AI.
Il CEO di Scale AI, Alexandr Wang, ha sottolineato come le loro soluzioni di Intelligenza Artificiale trasformeranno il processo operativo militare americano, modernizzando la difesa e rendendo le decisioni più rapide e precise.
Sfide e rischi dell’AI nella difesa
Nonostante le promesse di maggiore efficienza e sicurezza, l’uso dell’AI nel settore militare solleva preoccupazioni. Un recente studio condotto da Stanford ha rivelato che modelli AI avanzati, come GPT-4, possono reagire in modo imprevedibile quando inseriti in scenari di guerra simulata. Alcuni test hanno mostrato risposte aggressive e azzardate, suggerendo un possibile rischio nell’affidare all’AI decisioni critiche in ambito bellico.
Inoltre, il passaggio da modelli linguistici avanzati a veri e propri sistemi decisionali autonomi rappresenta un salto significativo che potrebbe avere implicazioni profonde nella strategia militare globale. Se da un lato l’AI promette di migliorare la velocità di reazione delle forze armate, dall’altro la possibilità di errori o “allucinazioni” nei processi decisionali non è da sottovalutare.