OpenAI e la sfida per la trasparenza

OpenAI ha sviluppato un metodo avanzato per rilevare quando qualcuno utilizza ChatGPT per scrivere saggi o ricerche. Sebbene sia uno strumento necessario alla trasparenza, l’azienda non ha ancora deciso di renderlo pubblico. Nonostante sia pronto da circa un anno, rimane intrappolato in dibattiti interni sulla morale che durano da circa due anni. Secondo fonti familiari con la questione e documenti interni visionati dal Wall Street Journal, la tecnologia sarebbe pronta per il rilascio, ma la decisione finale resta in sospeso.

Gli impiegati di OpenAI oscillano tra l’impegno dichiarato per la trasparenza e il desiderio di attrarre e mantenere gli utenti. Un sondaggio condotto tra gli utenti fedeli di ChatGPT ha rivelato che quasi un terzo di loro sarebbe scoraggiato dall’uso della tecnologia anti-cheating. Inoltre, una portavoce di OpenAI ha espresso preoccupazioni riguardo ai rischi che il metodo di watermarking del testo potrebbe avere su gruppi specifici, come i non madrelingua inglesi. “Il metodo di watermarking che stiamo sviluppando è tecnicamente promettente, ma presenta rischi significativi che stiamo valutando mentre esploriamo alternative”, ha dichiarato la portavoce.

Il metodo di Watermarking

Il metodo di rilevamento sviluppato da OpenAI utilizza un sistema di watermarking del testo. Questo processo modifica leggermente la selezione dei token durante la generazione del testo, creando un pattern invisibile all’occhio umano, ma rilevabile dalla tecnologia di OpenAI. Secondo i documenti interni, i watermark sono efficaci al 99,9% quando il testo viene generato da ChatGPT. Tuttavia, ci sono preoccupazioni che questi watermark possano essere rimossi con tecniche semplici, come la traduzione del testo tramite Google Translate o l’aggiunta e successiva rimozione di emoji.

Il metodo di watermarking non è l’unico tentativo di rilevare l’uso di AI nel lavoro scritto. Alcuni strumenti sviluppati da aziende esterne e ricercatori cercano di individuare testi generati da modelli di linguaggio avanzati, ma possono produrre risultati inaccurati o falsi positivi. Un algoritmo precedente di OpenAI per rilevare testi generati da AI ha avuto successo solo nel 26% dei casi e è stato ritirato dopo sette mesi.

Prospettive di trasparenza per OpenAI

La decisione su quando e come rilasciare il nuovo strumento di rilevamento resta incerta. I dirigenti di OpenAI, tra cui il CEO Sam Altman e il CTO Mira Murati, hanno partecipato alle discussioni. Nessuno, però, tra i personaggi coinvolti ha fatto ulteriori pressioni per il rilascio immediato. A partire da un sondaggio commissionato ad aprile 2023, c’è un ampio sostegno globale per uno strumento di rilevamento dell’AI. Esiste anche una grande preoccupazione che la tecnologia possa portare a false accuse di utilizzo di AI.

Il dibattito interno su quando e se rilasciare lo strumento di rilevamento di OpenAI continua a essere complesso. Sebbene la tecnologia prometta di essere altamente efficace, le preoccupazioni relative restano alte. I dubbi riguardo la sua implementazione, gli effetti collaterali sulla qualità del servizio e la percezione degli utenti rimangono significativi. La sfida per OpenAI sarà trovare un equilibrio tra la trasparenza e la protezione della privacy degli utenti, mentre continua a sviluppare e perfezionare le sue tecnologie anti-cheating.