Storie Web domenica, Gennaio 18
Nvidia accelera: i chip Rubin entrano in produzione

LAS VEGAS (Usa). Dopo un’ora e venti di keynote, Jensen Haung in giacca di pelle di nera dopo avere disegnato il futuro della guida autonoma e della robotica si concentra sull’annuncio più atteso dai mercati: la prossima generazione di chip per l’intelligenza artificiale. Come da attese dal palco del Ces di Las Vegas ha lanciato ufficialmente la nuova architettura di elaborazione Rubin, che ha descritto come lo stato dell’arte dell’hardware per l’intelligenza artificiale. La nuova architettura è attualmente in produzione, si prevede che verrà ulteriormente potenziata nella seconda metà dell’anno e promette di avere prestazioni superiori. Era quello che volevano sentire i mercati.

«Vera Rubin è progettata per affrontare questa sfida fondamentale che ci troviamo ad affrontare: la quantità di elaborazione necessaria per l’intelligenza artificiale sta aumentando vertiginosamente», ha detto Huang al pubblico. “Oggi posso dirvi che Vera Rubin è in piena produzione”.

L’architettura Rubin, annunciata per la prima volta nel 2024 , è l’ultimo risultato dell’incessante ciclo di sviluppo hardware di Nvidia, che ha trasformato Nvidia nell’azienda più preziosa al mondo. L’architettura Rubin sostituirà l’architettura Blackwell, che a sua volta ha sostituito le architetture Hopper e Lovelace.

Meno di due settimane fa, l’azienda ha fatto incetta di talenti e tecnologie per chip dalla startup Groq, includendo dirigenti che sono stati determinanti nell’aiutare Alphabet-Google a progettare i propri chip per l’intelligenza artificiale. Sebbene Google sia uno dei principali clienti di Nvidia, i suoi chip interni si sono trasformati in una delle minacce più serie per il gruppo di Jensen Huang, soprattutto mentre Google lavora a stretto contatto con Meta Platforms e altri partner per erodere il predominio di Nvidia nell’AI.

Come viene descritto Rubin .

Rubin non è un singolo chip. È un ecosistema: sei nuovi componenti progettati insieme — CPU, GPU, interconnessioni, storage AI-native e networking — che dialogano come una squadra ben allenata. L’obiettivo dichiarato da Jensen Huang, fondatore e CEO di NVIDIA, è abbattere il costo per token di inferenza fino a 10 volte e ridurre di quattro volte il numero di GPU necessarie per addestrare modelli complessi di tipo MoE rispetto alla piattaforma precedente, Blackwell.

Condividere.