AI
Allarme rientrato, ChatGPT consuma il 90% di energia in meno del previsto

ChatGPT, la famosa piattaforma di chatbot sviluppata da OpenAI, potrebbe non essere così affamata di energia come si pensava inizialmente. Recentemente, uno studio condotto da Epoch AI ha messo in discussione le stime precedenti sul consumo energetico di ChatGPT, offrendo un quadro più preciso e aggiornato. L’analisi ha rivelato che l’intelligenza artificiale, pur richiedendo energia per rispondere alle query, consuma meno di quanto precedentemente ipotizzato. Tuttavia, l’uso dell’IA continua ad avere implicazioni importanti sul piano ambientale, soprattutto in vista dell’espansione infrastrutturale dei data center.
Il consumo energetico di ChatGPT: nuove scoperte
Secondo Epoch AI, l’energia richiesta per rispondere a una singola query di ChatGPT è molto inferiore rispetto alla stima comunemente accettata di 3 wattora. L’analisi dell’istituto, basata sul modello GPT-4, ha rivelato che ogni interazione consuma circa 0,3 wattora, ovvero meno di quanto consumano molti elettrodomestici. Joshua You, l’analista di dati di Epoch, ha sottolineato che questo consumo è paragonabile a quello di attività quotidiane come il riscaldamento domestico o la guida di un’auto.
L’evoluzione dell’IA e l’impatto energetico
Nonostante le nuove stime più basse, l’analisi di Epoch ha anche messo in evidenza che l’intelligenza artificiale, in futuro, richiederà sempre più energia. Con l’adozione crescente di modelli avanzati, come quelli utilizzati per la generazione di immagini o l’elaborazione di input complessi, l’energia necessaria per alimentare l’IA potrebbe aumentare significativamente. Inoltre, l’introduzione di modelli di ragionamento, che richiedono più elaborazione e tempo per “pensare”, potrebbe comportare un ulteriore aumento del consumo energetico.
Preoccupazioni ambientali e soluzioni possibili
L’aumento della domanda di energia da parte dei data center sta suscitando preoccupazioni, soprattutto per quanto riguarda l’impatto ambientale. Recentemente, un gruppo di oltre 100 organizzazioni ha sollecitato il settore dell’IA a prestare maggiore attenzione alla sostenibilità, in particolare riguardo all’uso di fonti di energia non rinnovabili. OpenAI ha risposto a queste preoccupazioni sviluppando modelli più efficienti dal punto di vista energetico, come o3-mini, ma la crescente diffusione dell’IA su larga scala renderà inevitabilmente necessarie enormi risorse.
Cosa possiamo fare per ridurre l’impatto energetico dell’IA?
Per coloro che sono preoccupati per l’impatto energetico, ci sono diverse soluzioni pratiche. Una delle raccomandazioni è quella di utilizzare i modelli di intelligenza artificiale in modo più parsimonioso, optando per versioni più piccole e meno esigenti come GPT-4o-mini. Inoltre, limitare la frequenza di utilizzo delle applicazioni IA potrebbe ridurre significativamente il consumo energetico personale. La consapevolezza del consumo energetico dei sistemi IA, unita a un utilizzo responsabile, può contribuire a mitigare l’impatto sull’ambiente.