ARTIFICIAL INTELLIGENCE

Huang, il Ceo di Nvidia: “Penso che abbiamo raggiunto l’AGI”



Indirizzo copiato

Il Ceo di Nvidia Jensen Huang ha detto che l’intelligenza artificiale generale è già una realtà, scatenando diverse reazioni e un dibattito che rivela quanto il termine AGI sia diventato ormai un campo di battaglia semantico e strategico. Ma Huang ha parlato anche delle scaling laws e del futuro del lavoro…

Pubblicato il 24 mar 2026



Huang_Nvidia_Mar2026



Nel podcast di Lex Fridman pubblicato il 22 marzo, Jensen Huang ha risposto senza esitazione a una domanda sull’orizzonte temporale dell’AGI – l’intelligenza artificiale generale, cioè un’AI capace di eguagliare o superare le capacità intellettuali umane: “Penso che sia adesso. Penso che abbiamo raggiunto l’AGI”. La clip ha fatto il giro del settore in poche ore e ha fatto salire il titolo Nvidia dell’1,5% nella giornata del 23 marzo.

Ma il contesto della dichiarazione è fondamentale per capirne la portata reale.

Una definizione operativa, non filosofica

La domanda di Fridman non era astratta: il conduttore aveva definito l’AGI come un sistema AI in grado di avviare, far crescere e gestire un’azienda tecnologica del valore di oltre un miliardo di dollari. Su questa base, Huang ha risposto che la soglia è già stata superata. Poi ha però aggiunto immediatamente un caveat significativo: “Hai detto un miliardo, ma non hai detto per quanto tempo”. E ancora: “La probabilità che 100.000 agenti AI costruiscano una Nvidia è zero per cento”.

Come esempio concreto, Huang ha citato OpenClaw, una piattaforma open-source di agenti AI che ha ottenuto una diffusione virale tra gli sviluppatori. “Non mi sorprenderebbe se qualcosa di social accadesse, o se qualcuno creasse un influencer digitale… o un’applicazione social che di punto in bianco diventasse un successo istantaneo”. Nella sua lettura questo già soddisfa il criterio di Fridman.

Si tratta dunque di una definizione commerciale e circoscritta di AGI – non quella dello scenario in cui un sistema artificiale raggiunge un’intelligenza pari a quella umana in senso pieno e duraturo.

Le quattro leggi dello scaling: il motore del progresso

Al di là della dichiarazione sull’AGI, il podcast offre una delle analisi più articolate mai rese pubbliche da Huang sulle leggi di scala dell’AI – i principi empirici secondo cui aumentare le risorse computazionali, i dati e la dimensione dei modelli produce sistemi più capaci.

Huang identifica quattro dimensioni di scaling attive in parallelo.

La prima è il pre-training: addestrare modelli sempre più grandi su volumi crescenti di dati. Quando Ilya Sutskever, co-fondatore di OpenAI, dichiarò che i dati disponibili si stavano esaurendo, il settore reagì con allarme. Huang ritiene quella preoccupazione mal posta: gran parte dei dati su cui i modelli vengono addestrati è già oggi sintetica – generata, cioè, da altri modelli – e quella tendenza è destinata ad accelerare, non a invertirsi.

La seconda dimensione è il post-training, che affina i modelli dopo l’addestramento iniziale attraverso tecniche di reinforcement learning con feedback umano.

La terza è il test-time compute, cioè la possibilità di usare più potenza di calcolo al momento dell’inferenza – quando il modello risponde – per migliorare la qualità delle risposte su compiti complessi.

La quarta, e più recente, è lo scaling agentico: sistemi di agenti AI che operano in modo autonomo e in parallelo, moltiplicando la capacità di eseguire compiti nel tempo.

La tesi complessiva di Huang è che chi dà per esaurite le leggi di scala sbaglia l’analisi: le leggi non si sono fermate, si sono moltiplicate. E Nvidia, che produce l’infrastruttura su cui tutto questo gira, si trova in una posizione di vantaggio strutturale rispetto a qualsiasi punto dell’orizzonte.

Un dibattito che divide il settore

La dichiarazione di Huang non è isolata ma si inserisce in un confronto acceso tra i vertici dell’industria, con posizioni molto diverse. Sam Altman di OpenAI ha dichiarato lo scorso mese che la sua azienda ha “sostanzialmente costruito l’AGI, o qualcosa di molto vicino”, salvo poi precisare che si trattava di un senso “spirituale” e che il traguardo richiede ancora “numerose scoperte di media portata”.

Satya Nadella di Microsoft si è mostrato molto più cauto, affermando che il settore “non è nemmeno lontanamente vicino” all’obiettivo e che dichiarare l’AGI raggiunta “non spetta a Sam o a me”.

Andrej Karpathy, ex responsabile dell’AI di Tesla, stima che manchino ancora dieci anni.

La divergenza non è solo intellettuale: la definizione di AGI ha implicazioni contrattuali dirette. Accordi come quello tra OpenAI e Microsoft prevedono clausole specifiche legate al raggiungimento dell’AGI, con effetti sulla governance e sull’accesso alle tecnologie sviluppate.

Lo stesso Huang aveva usato parametri diversi in passato. Al DealBook Summit del New York Times nel 2023 aveva definito l’AGI come un software capace di superare test che richiedono intelligenza di livello umano, stimando il traguardo a cinque anni di distanza. Sul podcast di Fridman ha usato una soglia molto più bassa.

Perché le parole di Huang pesano

Nvidia controlla circa l’80% dell’infrastruttura hardware su cui viene addestrata e distribuita l’AI globale. I chip Blackwell e Vera Rubin, presentati all’evento GTC all’inizio di marzo, hanno generato un portafoglio ordini che Huang ha stimato superiore al trilione di dollari entro il 2027 – circa 500 miliardi in più rispetto alle stime di ottobre 2025. La società è oggi valutata circa 4.000 miliardi di dollari.

Quando il CEO di Nvidia si esprime sull’AGI sta modellando la narrativa attorno all’infrastruttura che rende commercialmente praticabile qualsiasi definizione di intelligenza artificiale avanzata. Il fatto che la dichiarazione abbia immediatamente influenzato i mercati delle previsioni – su Polymarket la probabilità che OpenAI annunci l’AGI entro il 2027 è salita dal 15% al 30% – dice molto su quanto il confine tra visione tecnologica e comunicazione strategica sia ormai sottile.

AI e lavoro: la visione di Huang

Sul rapporto tra AI e occupazione, Huang ha assunto una posizione nettamente ottimista. La sintesi che Nvidia ha scelto di diffondere dai propri canali è una frase pronunciata nel podcast: “Every carpenter, every accountant, every student, will use AI to build” – ogni falegname, ogni contabile, ogni studente userà l’AI per costruire. Non sostituzione, dunque, ma amplificazione: l’AI come strumento che estende le capacità di chiunque, indipendentemente dal background tecnico.

Huang sviluppa questa tesi in modo controintuitivo a proposito del software. Anziché ridurre la domanda di sviluppo, sostiene, gli agenti AI ne diventano i clienti più voraci: più sistemi autonomi esistono, più software serve per farli funzionare, integrarli e governarli. La crescita dell’AI non erode il mercato del software, lo espande.

Coerente con questa visione è la proposta concreta che Huang aveva avanzato pochi giorni prima, al GTC di San Jose: remunerare gli ingegneri con un budget di token AI in aggiunta allo stipendio base, trasformando l’accesso agli agenti artificiali in un benefit competitivo per attrarre talenti. L’idea è che i token – le unità di elaborazione con cui i sistemi AI eseguono compiti – stiano diventando una risorsa produttiva paragonabile al tempo macchina o alla banda larga, e che darli in dotazione ai lavoratori significhi moltiplicarne la capacità operativa. Nvidia stessa, ha detto Huang, immagina di impiegare un giorno centinaia di migliaia di agenti AI a fianco dei suoi 42.000 dipendenti umani.

Articoli correlati