Connect with us

AI

Nvidia si complimenta con DeepSeek per il progresso sull’IA

Published

on

Nvidia

Nonostante il debutto del modello R1 della startup cinese DeepSeek abbia causato un calo del 17% nel valore delle azioni di Nvidia lunedì scorso, il gigante dei chip ha definito il modello un “eccellente progresso nell’intelligenza artificiale”. Le dichiarazioni di Nvidia arrivano dopo che DeepSeek ha lanciato il suo modello open-source R1, che avrebbe superato i migliori modelli delle aziende statunitensi, come OpenAI, in termini di performance.

Un’innovazione promettente con costi contenuti

Secondo Nvidia, DeepSeek rappresenta un esempio perfetto della tecnica di “Test Time Scaling” nell’ambito dell’intelligenza artificiale. Un portavoce dell’azienda ha dichiarato a CNBC che il lavoro di DeepSeek dimostra come nuovi modelli possano essere creati sfruttando modelli ampiamente disponibili e risorse computazionali pienamente conformi alle normative di controllo delle esportazioni. La particolarità del modello R1 risiede nel suo costo di addestramento: meno di 6 milioni di dollari, una cifra nettamente inferiore ai miliardi di dollari investiti dalle aziende della Silicon Valley nello sviluppo dei propri modelli di IA.

Le implicazioni per Nvidia

Nonostante il crollo del valore delle sue azioni, Nvidia vede nel progresso di DeepSeek una grande opportunità per le sue unità di elaborazione grafica (GPU). Il portavoce ha infatti sottolineato che l’inferenza, cioè il processo di utilizzo del modello per fare previsioni, richiede un gran numero di GPU Nvidia e reti ad alte prestazioni. In altre parole, Nvidia ritiene che l’avanzamento di DeepSeek genererà un aumento della domanda di GPU, continuando a sostenere la crescita della compagnia nel settore dell’IA.

Conformità e polemiche sulle GPU Nvidia

Una questione controversa è emersa riguardo all’uso delle GPU Nvidia da parte di DeepSeek. Mentre alcuni, come il CEO di Scale AI, Alexandr Wang, avevano affermato che DeepSeek stesse utilizzando modelli di GPU Nvidia vietati in Cina, DeepSeek ha ribattuto dichiarando di aver utilizzato versioni speciali delle GPU destinate al mercato cinese, pienamente conformi alle normative di esportazione.

La sfida per i colossi tecnologici

La crescente concorrenza di DeepSeek ha sollevato interrogativi tra gli analisti sul fatto che gli investimenti multimiliardari di aziende come Microsoft, Google e Meta in infrastrutture AI basate su Nvidia possano essere sprecati, considerando che i risultati possano essere ottenuti a costi molto inferiori. Ad esempio, Microsoft ha annunciato una spesa di 80 miliardi di dollari per l’infrastruttura AI nel 2025, mentre Meta prevede di investire tra i 60 e i 65 miliardi di dollari nello stesso anno.

Secondo l’analista di BofA Securities, Justin Post, se i costi di addestramento dei modelli dovessero risultare significativamente più bassi, ci sarebbe un beneficio immediato per le aziende che utilizzano i servizi AI nel cloud, con effetti positivi anche sui costi e sui ricavi a lungo termine legati all’IA.

Nuove prospettive sulla “scalabilità dei modelli”

Il commento di Nvidia rispecchia anche un tema più ampio che ha recentemente coinvolto i leader di OpenAI, Nvidia e Microsoft. La “scalabilità dei modelli”, un concetto sviluppato dai ricercatori di OpenAI nel 2020, suggerisce che modelli di IA più avanzati possano essere creati espandendo enormemente la quantità di calcolo e dati necessari per costruirli. Tuttavia, a partire da novembre, il CEO di Nvidia Jensen Huang e il CEO di OpenAI Sam Altman hanno posto l’attenzione su una nuova evoluzione della scalabilità: il “test-time scaling”.

Questo concetto suggerisce che se un modello di IA completamente addestrato impiega più tempo per fare previsioni o generare contenuti, utilizzando potenza computazionale aggiuntiva, fornirà risposte più accurate rispetto a se fosse eseguito in meno tempo. Questo approccio è stato applicato con successo anche nei modelli di OpenAI, come o1, e nel modello R1 di DeepSeek, segnando un ulteriore passo avanti nella ricerca sull’intelligenza artificiale.

Con il continuo sviluppo di nuove tecniche come il “test-time scaling”, l’industria dell’IA si prepara a una fase di crescita e innovazione che potrebbe ridurre significativamente i costi, portando a un futuro dove l’intelligenza artificiale diventa sempre più accessibile e potente.

Copyright © 2025 Justmedia srl