Deepfake e disinformazione: L’utilizzo illecito degli Avatar AI

deepfake e AI

L’avvento delle tecnologie di intelligenza artificiale ha rivoluzionato molti settori, dal marketing alla creazione di contenuti digitali, ma ha anche portato alla nascita di fenomeni preoccupanti. Uno dei casi più controversi riguarda l’uso degli avatar digitali creati con strumenti come Synthesia, una startup londinese che ha attirato investimenti fino a raggiungere lo status di “unicorno”, con una valutazione superiore a un miliardo di sterline. Tuttavia, la sua tecnologia è stata utilizzata impropriamente per creare deepfake, sollevando questioni etiche e legali.

Volti digitali utilizzati per la propaganda politica globale

Un esempio di queste implicazioni è emerso all’inizio del 2023, quando una serie di video propagandistici ha iniziato a circolare sui social media, promuovendo il leader della giunta militare del Burkina Faso, Ibrahim Traoré. Gli avatar utilizzati nei video mostravano persone ben curate che sembravano sostenere Traoré, ripetendo slogan a favore del dittatore, nonostante molti degli attori dietro quei volti non fossero nemmeno a conoscenza di essere stati coinvolti in tali operazioni.

Modelli come Mark Torres e Connor Yeates sono rimasti scioccati nel scoprire che i loro volti erano stati utilizzati per propaganda politica. Torres, direttore creativo di Londra, si è sentito violato e temeva che il pubblico potesse pensare che avesse sostenuto un regime autoritario in un paese sconosciuto. Anche Yeates, che aveva lavorato con Synthesia per necessità economiche, ha condiviso lo stesso senso di vulnerabilità e tradimento.

Questi casi sottolineano un problema più ampio: la tecnologia di AI, pensata per usi leciti come la creazione di contenuti aziendali o marketing, può facilmente essere sfruttata per finalità disoneste e manipolatorie. Gli avatar creati da Synthesia possono essere programmati per leggere qualsiasi script in più di 120 lingue, il che li rende strumenti ideali per campagne di disinformazione e propaganda politica. Questo è esattamente ciò che è accaduto nel caso dei video pro-Traoré e in altre campagne legate a stati ostili, come Russia e Cina.

Deepfake e danni alla reputazione dei modelli

Per i modelli coinvolti, l’impatto di questi video ha avuto gravi conseguenze personali e professionali. Dan Dewhirst, un attore londinese, ha raccontato come l’uso della sua immagine in un video di propaganda per il Venezuela abbia portato a una significativa ansia e preoccupazioni per la sua reputazione. La preoccupazione principale di questi individui è che il pubblico possa associarli a idee politiche o governi che non sostengono, compromettendo le loro carriere e vite personali.

Nonostante Synthesia abbia adottato misure per bannare gli account che hanno creato i video incriminati, il danno era ormai fatto. Gli avatar dei modelli erano già stati utilizzati in modo indebito e la società non ha potuto annullare l’impatto di quei deepfake. La stessa Synthesia ha ammesso di non poter cancellare completamente i dati raccolti dai modelli attraverso i loro movimenti e linguaggi del corpo.

Vuoto giuridico nell’uso dell’AI creativa

Questi eventi mettono in luce un vuoto giuridico nell’uso delle tecnologie di intelligenza artificiale, specialmente nel settore creativo. Sebbene negli Stati Uniti sia stato presentato il NO FAKES Act, una proposta di legge per tutelare i diritti degli artisti riguardo all’uso non consensuale delle loro immagini, a livello globale manca una legislazione che possa affrontare completamente il problema.

I modelli che hanno prestato il loro volto per avatar AI si trovano ora in una situazione paradossale: pur avendo firmato contratti e ricevuto compensi, non avevano immaginato che la loro immagine potesse essere utilizzata per scopi di propaganda o disinformazione. Sebbene possano teoricamente richiedere la rimozione dei loro dati in base al GDPR, in pratica l’AI non può “disimparare” ciò che ha acquisito dai loro comportamenti.

Regolamentare il deepfake: un’urgenza necessaria

L’uso di tecnologie avanzate come l’intelligenza artificiale per creare avatar digitali apre molte opportunità, ma porta con sé anche grandi rischi, soprattutto se non regolamentato adeguatamente. La storia di Synthesia e dei modelli coinvolti nei video di propaganda dimostra quanto sia facile per strumenti innovativi cadere nelle mani sbagliate e causare danni difficili da riparare. L’urgenza di normative che proteggano i diritti individuali e garantiscano un uso etico di queste tecnologie è più forte che mai.