NVIDIA Olympus: il modello di scheduling per CPU Vera integrato in LLVM 22

NVIDIA integra il modello di scheduling Olympus per le CPU ARM64 in LLVM 22, ottimizzando la generazione di codice per i core custom del processore Vera.

Contenuto

NVIDIA Olympus: il modello di scheduling per CPU Vera integrato in LLVM 22

Scopri anche

NVIDIA Olympus: il modello di scheduling per CPU Vera integrato in LLVM 22

NVIDIA Olympus: il modello di scheduling per CPU Vera integrato in LLVM 22

In questo articolo:

L'infrastruttura di compilazione LLVM ha incorporato il supporto per il modello di scheduling Olympus di NVIDIA, un passo significativo per le ambizioni della società nell'ecosistema ARM64. Questo sviluppo consente agli sviluppatori di ottimizzare la generazione di codice specificamente per i nuovi core Olympus, che equipaggeranno la CPU Vera di prossima uscita.

L'integrazione di Olympus in LLVM 22

⬆ Torna su

La versione 22 di LLVM, progetto open-source fondamentale per lo sviluppo cross-platform, include ora il modello di scheduling Olympus progettato da NVIDIA. Questa integrazione permette al compilatore di prendere decisioni più intelligenti sull'ordinamento delle istruzioni quando genera codice per le CPU ARM64 basate sull'architettura Olympus.

Il modello affronta le complessità del pipelining delle istruzioni e dell'allocazione delle risorse in ambienti multi-core. Modellando la latenza e il throughput di varie operazioni, riduce gli stalli e massimizza il parallelismo, aspetto particolarmente cruciale per carichi di lavoro che coinvolgono dataset massivi come l'addestramento di grandi modelli linguistici o la simulazione di fisica complessa.

Le specifiche della CPU Vera con core Olympus

⬆ Torna su

Il processore Vera, presentato da NVIDIA, monta 88 core CPU personalizzati di tipo Olympus e consuma soli 50 W di energia. Secondo le dichiarazioni di Jensen Huang, CEO di NVIDIA, Vera offre il doppio delle prestazioni rispetto alla precedente architettura Grace, che utilizzava core Neoverse V2 standard di Arm invece di un design custom.

Grace dispone di 72 core CPU, mentre Vera ne integra 88, il che suggerisce un miglioramento significativo dell'efficienza per core grazie alla progettazione personalizzata Olympus. Vera è destinato a far parte della piattaforma di calcolo AI Vera Rubin, accoppiandosi con la GPU Rubin per creare un'architettura unificata che sfrutta il calcolo eterogeneo.

Sinergie CPU-GPU e benefici prestazionali

⬆ Torna su

L'abbinamento tra CPU Vera e GPU Rubin mira a semplificare il movimento dei dati tra CPU e GPU, minimizzando i colli di bottiglia nelle pipeline di inference e training AI. Il modello di scheduling in LLVM garantisce che il codice compilato per Vera possa sfruttare queste sinergie.

Benchmark preliminari condivisi nei forum degli sviluppatori indicano potenziali miglioramenti dell'efficienza complessiva del sistema fino al 20% in carichi di lavoro misti. Questa ottimizzazione è particolarmente rilevante per applicazioni AI agentiche che richiedono decisioni in tempo reale e potrebbero beneficiare dell'integrazione con modelli come Nemotron di NVIDIA.

Il contesto strategico di NVIDIA

⬆ Torna su

L'integrazione di Olympus in LLVM coincide con l'acquisizione di SchedMD, gli sviluppatori dello Slurm workload manager. Questo movimento consolida l'ecosistema software di NVIDIA per l'high-performance computing, allineando la schedulazione a livello di job con ottimizzazioni CPU a basso livello come Olympus.

Mentre Slurm gestisce l'allocazione delle risorse a livello di cluster, il modello Olympus perfeziona l'esecuzione sui singoli core. Tale approccio olistico fa parte della strategia di NVIDIA per controllare una porzione maggiore dello stack AI, in un contesto competitivo dove anche AMD avanza con le proprie CPU ARM.

Impatto sull'efficienza energetica

⬆ Torna su

La modellazione precisa delle risorse del modello Olympus contribuisce a minimizzare i cicli di calcolo sprecati, un fattore cruciale per i data center sotto pressione per ridurre il consumo energetico. Guadagni simili sono stati osservati nella schedulazione GPU, suggerendo un effetto a catena attraverso il portafoglio prodotti NVIDIA.

Per gli utenti di high-performance computing, come quelli impegnati in simulazioni scientifiche o modellazione finanziaria, una schedulazione efficiente può ridurre significativamente i tempi di esecuzione. L'integrazione di modelli specializzati in LLVM potrebbe inoltre aprire la strada a funzionalità più avanzate nelle versioni future, come il supporto per la schedulazione dinamica in ambienti virtualizzati.

Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.

Fonti

⬆ Torna su

In breve

  • nvidia
  • vera
  • cpu
  • arm

Link utili

Apri l'articolo su DeafNews