Battezzata in onore della matematica, militare e pioniera dell’informatica statunitense Grace Murray Hopper, la nuova architettura di NVIDIA applicata in ambito di acceleratori di datacenter per HPC (ovvero per calcoli ad alte prestazioni) e di intelligenza artificiale, utilizzerà il modello Megatron 530B con un throughput fino a 30 volte superiore alla generazione precedente.
Hopper, appunto: è la nuova architettura presentata da NVIDIA che promette di stravolgere il campo degli HPC degli acceleratori di datacenter ed il campo dell’intelligenza artificiale, garantendo prestazioni mai raggiunte fino ad ora ed anche senza paragoni rispetto all’architettura precedente di Ampere.
La prima GPU basata su Hopper è la NVIDIA GH100, con 80 miliardi di transistor ed un core in grado di raggiungere 18432 CUDA FP32, abbinata a memoria HBM3 e con supporto PCI Express 5.0. I core, inoltre, sono assistiti da 576 Tensor e 60 MB di cache L2, con 12 controller a 512 bit e 6 stack di HBM3 che portano la capacità della memoria ad un totale di 96 GB.
Per intenderci in termini di potenza, NVIDIA ha dichiarato che “venti GPU GH100 possono sostenere l’intero traffico Internet mondiale” e, entrando ancor più nello specifico, ha affermato che consentono “ai clienti di fornire sistemi di raccomandazione avanzati e modelli linguistici di grandi dimensioni, in grado di eseguire inferenze sui dati in tempo reale”.
Trasformer Engine, Intelligenza Artificiale e periodo di lancio
E’ il Transformer Engine la novità più importante di questo modello di acceleratore: si tratta di una soluzione hardware estremamente duttile che utilizza i Tensor core ed è dedicata al processo di linguaggio naturale. Le sue prestaioni sono talmente elevate da consentire di raggiungere un aumento di velocità fino a sei volte superiore rispetto alla generazione precedente. Il tutto senza perdere alcunché in termini di accuratezza e precisione di calcolo e processione.
“Oggi i modelli più grandi di intelligenza artificiale arrivano a richiedere mesi per l’addestramento sulle piattaforme di calcolo”, ha annunciato NVIDIA. “Grazie al Transformer Engine, le prestazioni e le capacità relative a questi modelli verranno velocizzate in maniera estremamente significativa, e con l’architettura Hopper il motore di trasformazione potrà addestrare grandi modelli non più in settimane e settimane, ma in giorni e addirittura in ore”.
Il chip, come ha reso noto NVIDIA, è ora in fase di produzione e la società ha annunciato che il suo debutto è previsto nel terzo trimestre di quest’anno.