L’intelligenza artificiale (AI) e l’intelligenza artificiale generativa (Gen AI) stanno rapidamente trasformando il panorama della cybersecurity per molte organizzazioni.
Secondo il nuovo report del Capgemini Research Institute, “New defenses, new threats: What AI and Gen AI bring to cybersecurity”, sebbene emergano nuovi rischi derivanti dalla proliferazione dell’AI e della Gen AI, queste tecnologie rappresentano una rivoluzione nelle difese informatiche. Le organizzazioni stanno sfruttando queste tecnologie per anticipare, rilevare e rispondere alle minacce, migliorando l’efficacia delle strategie di difesa a lungo termine. Tuttavia, la Gen AI introduce anche vulnerabilità, con il rischio che le organizzazioni subiscano nuove forme di attacchi e perdite di dati
Nuove minacce e vulnerabilità con l’adozione della Gen AI
Nonostante il grande potenziale della Gen AI, la sua diffusione porta con sé nuove preoccupazioni legate alla sicurezza. La tecnologia consente di generare attacchi più sofisticati e mirati, grazie a un numero maggiore di avversari in grado di sfruttare vulnerabilità nell’infrastruttura digitale. La Gen AI amplia inoltre la superficie di attacco, rendendo i sistemi informatici più esposti. Le soluzioni personalizzate di AI generativa, pur essendo utili, introducono rischi in tutto il loro ciclo di vita, e l’uso improprio da parte dei dipendenti può esporre l’azienda a violazioni dei dati.
Un altro rischio significativo è legato agli “hallucinations” dell’AI, che possono generare contenuti distorti, dannosi o fuorvianti. Inoltre, l’uso della Gen AI aumenta il pericolo di attacchi come il prompt injection, che manipola l’input dell’AI per ottenere risultati indesiderati. La proliferazione di deepfake, contenuti sintetici realizzati da AI, ha portato a perdite finanziarie dirette per molte aziende, con oltre il 40% delle organizzazioni intervistate che ha riportato danni economici derivanti dall’uso improprio di queste tecnologie.
L’AI e la Gen AI come strumenti di difesa e rilevamento delle minacce
Nonostante i rischi, la maggior parte delle organizzazioni intervistate considera l’AI e la Gen AI strumenti essenziali per rafforzare la cybersecurity. Grazie alla loro capacità di analizzare grandi volumi di dati, queste tecnologie sono fondamentali per identificare pattern di attacco e rilevare potenziali violazioni. Il 60% delle aziende ha visto una riduzione dei tempi di rilevamento delle minacce di almeno il 5% dopo aver implementato l’AI nei propri centri operativi di sicurezza (SOC). Quasi il 40% ha riportato una riduzione del tempo di ripristino grazie all’uso dell’AI, un risultato che dimostra come queste tecnologie possano migliorare la velocità e l’efficacia delle risposte agli incidenti di sicurezza.
L’intelligenza artificiale è anche cruciale per supportare la gestione di minacce sempre più sofisticate, permettendo alle organizzazioni di attuare strategie di sicurezza proattive. Più della metà delle aziende ritiene che la Gen AI potrà migliorare significativamente le difese a lungo termine, rendendo il rilevamento delle minacce più rapido e preciso. Inoltre, questa tecnologia consente agli analisti di concentrarsi su minacce complesse, migliorando l’efficienza complessiva delle operazioni di cybersecurity.
La dichiarazione di Monica Ferrari, CEO di Capgemini in Italia
Monica Ferrari, Amministratore Delato di Capgemini in Italia ha dichiarato: “L’uso dell’AI e della Gen AI si è finora rivelato un’arma a doppio taglio. Se da un lato introduce rischi senza precedenti, dall’altro le organizzazioni si stanno affidando sempre più all’AI per un rilevamento più rapido e accurato degli incidenti informatici. L’AI e l’AI generativa forniscono ai team di sicurezza nuovi e potenti strumenti per limitare questi incidenti e trasformare le loro strategie di difesa. Per garantire che rappresentino un vantaggio significativo di fronte a minacce sempre più sofisticate, le organizzazioni devono mantenere e dare priorità al monitoraggio continuo dell’evoluzione delle minacce informatiche, costruire in modo adeguato l’infrastruttura di gestione dei dati, i framework per l’adozione dell’AI e le relative linee guida etiche e introdurre validi programmi di formazione e sensibilizzazione dei dipendenti”
Preoccupazioni per l’esposizione alle minacce e l’inquinamento dei dati
Nonostante i benefici, le organizzazioni sono consapevoli dell’incremento delle minacce derivanti dall’adozione dell’AI e della Gen AI. Il 67% delle organizzazioni temono un aumento dell’esposizione ai rischi, inclusa la possibilità di fuga di dati sensibili attraverso dataset usati per addestrare i modelli di intelligenza artificiale generativa. Questo fenomeno, noto come inquinamento dei dati, rappresenta una preoccupazione crescente per la sicurezza dei dati aziendali e personali.
Inoltre, le capacità della Gen AI di generare contenuti altamente realistici, come i deepfake, stanno creando ulteriori sfide per le organizzazioni. Circa il 43% delle aziende intervistate ha dichiarato di aver subito perdite finanziarie dovute a questi attacchi, un dato che evidenzia l’impatto diretto che queste tecnologie possono avere sulle finanze aziendali. Le preoccupazioni per la sicurezza e la protezione dei dati sono ora una priorità, con molte aziende che ritengono necessario aumentare i budget destinati alla cybersecurity per affrontare queste nuove sfide.
Investimento nella Cybersecurity, nel monitoraggio e formazione continuo
Le organizzazioni stanno aumentando gli investimenti nella cybersecurity per rafforzare le loro difese. Circa il 60% delle organizzazioni intervistate ritiene che dovranno aumentare il budget destinato alla sicurezza informatica per rispondere adeguatamente ai nuovi rischi derivanti dall’AI e dalla Gen AI. L’importanza di monitorare continuamente l’evoluzione delle minacce informatiche è essenziale per mantenere un vantaggio nelle difese contro attacchi sempre più sofisticati.
Le aziende devono inoltre costruire un’infrastruttura solida per la gestione dei dati, creando framework di adozione dell’AI ben definiti e linee guida etiche per garantire un utilizzo sicuro ed efficace di queste tecnologie. Inoltre, è fondamentale l’introduzione di programmi di formazione e sensibilizzazione per i dipendenti, per prevenire l’uso improprio delle tecnologie AI e ridurre i rischi di violazioni di sicurezza.