I chip AI di Nvidia superano la legge di Moore

Paul Grieselhuber

Paul Grieselhuber

Jan 12, 2025

Jensen Huang, CEO di Nvidia, ha fatto un'affermazione audace: le prestazioni dei chip AI di Nvidia stanno avanzando a un ritmo che supera il benchmark storico fissato dalla Legge di Moore. La dichiarazione, rilasciata durante un'intervista a TechCrunch al CES 2025, pone Nvidia al centro di quella che Huang definisce una nuova era "iper Legge di Moore", in cui i progressi dell'hardware AI superano di gran lunga il ritmo tradizionale dell'innovazione informatica.

La Legge di Moore, coniata dal co-fondatore di Intel Gordon Moore nel 1965, prevedeva che il numero di transistor su un chip sarebbe raddoppiato all'incirca ogni due anni, raddoppiando di fatto le prestazioni. Questa previsione è rimasta valida per decenni, portando a un aumento esponenziale della potenza di calcolo a costi sempre più bassi. Negli ultimi anni, però, la legge di Moore ha subito un rallentamento, facendo sorgere in molti il dubbio che il ritmo dell'innovazione stesse diminuendo. Secondo Huang, tuttavia, i progressi di Nvidia nei chip di intelligenza artificiale stanno accelerando su una traiettoria completamente diversa.

Huang sostiene che la capacità unica dell'azienda di innovare attraverso l'intero stack tecnologico, dall'architettura dei chip agli algoritmi, consente a Nvidia di superare i tradizionali limiti di scalabilità dell'hardware. Durante il suo keynote al CES, ha presentato l'ultimo superchip per data center di Nvidia, il GB200 NVL72, affermando che è da 30 a 40 volte più veloce nell'esecuzione di carichi di lavoro di inferenza AI rispetto al suo predecessore, l'H100.

Questo focus sull'inferenza è fondamentale. L'industria dell'intelligenza artificiale sta passando dall'addestramento di modelli linguistici massicci all'ottimizzazione delle loro prestazioni durante l'uso reale, noto come inferenza. Eseguire modelli di IA in modo efficiente su scala è costoso e molti si sono chiesti se il costo dell'inferenza ne soffocherà l'adozione. Il modello o3 di OpenAI, che impiega un processo di "test-time compute" pesante dal punto di vista computazionale durante l'inferenza, ha sollevato preoccupazioni sull'accessibilità a causa degli alti costi operativi.

Huang, tuttavia, ritiene che i chip di Nvidia risolveranno questo problema. "I nostri sistemi stanno progredendo molto più velocemente della legge di Moore", ha dichiarato. "La soluzione diretta e immediata per il calcolo in tempo di prova, sia in termini di prestazioni che di convenienza economica, consiste nell'aumentare la nostra capacità di calcolo". A suo avviso, i chip più veloci ridurranno il costo dell'inferenza nel tempo, rendendo i modelli avanzati di IA più accessibili e scalabili.

Questa visione è in linea con la più ampia strategia aziendale di Nvidia. Poiché aziende come OpenAI, Google e Anthropic si affidano pesantemente ai chip Nvidia per alimentare i loro modelli, il dominio di Nvidia nell'hardware dell'IA l'ha resa una delle aziende di maggior valore al mondo. Il messaggio di Huang è chiaro: Nvidia è posizionata non solo per tenere il passo con i progressi dell'IA, ma per guidarli.

Nonostante l'ottimismo, rimane un certo scetticismo. I modelli di IA che si basano pesantemente sul calcolo in tempo di prova sono attualmente costosi da gestire. Ad esempio, OpenAI ha riferito di aver speso quasi 20 dollari per ogni task utilizzando o3 per ottenere punteggi di livello umano in un test di intelligenza generale - un netto contrasto con i 20 dollari di abbonamento mensile per ChatGPT Plus. Tuttavia, Huang insiste sul fatto che i progressi in termini di prestazioni, come quelli visti negli ultimi chip di Nvidia, renderanno questi modelli più accessibili nel tempo.

Non è la prima volta che Huang suggerisce che Nvidia sta superando la Legge di Moore. In un podcast dello scorso novembre ha descritto i rapidi progressi dell'hardware AI come una forma di "iper legge di Moore". Al CES ha ribadito questo messaggio, sottolineando le tre leggi di scalabilità dell'IA che, a suo avviso, caratterizzeranno il futuro dello sviluppo dell'IA: il pre-training (in cui i modelli imparano da vasti set di dati), il post-training (la messa a punto dei modelli per compiti specifici) e il test-time compute (in cui i modelli di IA elaborano i compiti in tempo reale).

Per Nvidia, l'attenzione per l'elaborazione in tempo di test non si limita a rendere l'IA più efficiente, ma riguarda la riorganizzazione fondamentale dell'economia dell'IA. "La stessa cosa che la legge di Moore ha fatto per i costi di calcolo si verificherà con l'inferenza", ha detto Huang. Il messaggio di fondo è che, con il miglioramento dei chip per l'IA, l'esecuzione di modelli complessi come l'o3 diventerà sempre più conveniente, aprendo nuove possibilità per l'adozione dell'IA sia nelle applicazioni consumer che in quelle aziendali.

Guardando al passato, Huang ha osservato che i chip per l'IA di Nvidia sono oggi 1.000 volte più potenti rispetto a dieci anni fa. Si tratta di un'affermazione sbalorditiva, che illustra il ritmo del cambiamento nell'hardware dell'IA. La sfida di Nvidia è ora quella di garantire che le sue innovazioni non rimangano solo nel regno delle aziende tecnologiche di fascia alta, ma diventino accessibili a imprese e privati.

A Rendr, questa evoluzione dell'hardware per l'intelligenza artificiale colpisce nel segno. Nell'ultimo anno abbiamo visto in prima persona come i progressi degli strumenti e delle infrastrutture di IA abbiano trasformato il modo in cui costruiamo il software. Quello che all'inizio era scetticismo nei confronti del potenziale dell'IA nello sviluppo, si è rapidamente modificato con l'integrazione dell'IA nel nostro flusso di lavoro. I risultati parlano da soli: MVP più veloci, soluzioni più complete e, soprattutto, risultati migliori per i nostri clienti.

Quella che Huang descrive come "iper legge di Moore" è qualcosa che abbiamo sperimentato direttamente. Gli strumenti disponibili oggi, alimentati da chip come quelli di Nvidia, consentono ai membri dei team non ingegneri di costruire soluzioni complesse con l'intelligenza artificiale, con gli sviluppatori che agiscono più come allenatori che come codificatori tradizionali. Questo spostamento verso lo sviluppo potenziato dall'intelligenza artificiale non fa che accelerare.

La promessa delle ultime scoperte di Nvidia - riduzione del costo dell'inferenza e aumento delle prestazioni - suggerisce che le barriere all'adozione dell'IA continueranno a diminuire. Se la visione di Huang è vera, ci aspetta un futuro in cui le soluzioni guidate dall'IA diventeranno più onnipresenti e accessibili che mai. È un futuro per il quale ci stiamo preparando attivamente in Rendr, dove l'IA non è più solo uno strumento, ma una parte fondamentale del nostro modo di costruire, creare e innovare.

Riferimenti

  • Maxwell Zeff (2025). L'amministratore delegato di Nvidia afferma che i suoi chip di intelligenza artificiale migliorano più velocemente della legge di Moore. TechCrunch. Available online. Accesso al 12 gennaio 2025.
  • Isaak Kamau (2024). Test-Time Compute Scaling: Come far "pensare più a lungo" un LLM su problemi più difficili come il modello o1 di OpenAI. Media. Available online. Accesso al 12 gennaio 2025.
  • Kif Leswing (2024). Nvidia quasi raddoppia i ricavi grazie alla forte domanda di AI. CNBC. Available online. Accesso al 12 gennaio 2025.
Paul Grieselhuber

Paul Grieselhuber

Founder, President

Paul has extensive background in software development and product design. Currently he runs rendr.

Prenotate una telefonata di scoperta con i nostri esperti di prodotto.

Il nostro team di esperti di applicazioni web e mobili sarà lieto di discutere con voi il vostro prossimo progetto.

Prenota una chiamata 👋