NVIDIA Olympus: il modello di scheduling integrato in LLVM 22 per il processore Vera
Analisi tecnica dell'integrazione del modello di scheduling Olympus di NVIDIA in LLVM 22, progettato per ottimizzare le prestazioni del futuro processore Vera…
Contenuto

Scopri anche
- Portable AI Infrastructure Solution Unites Ridger MIMO Storage and xFusion FusionXpark
- Nvidia Vera Rubin: le nuove chip AI che riducono il bisogno di raffreddamento nei data center
- AMD Prevede Crescita del Ricavo Grazie all'Aumento della Produzione di CPU per Server
- AMD RDNA 5: primo supporto LLVM per GFX13 conferma sviluppo architettura
- NVIDIA Olympus: il modello di scheduling per CPU Vera integrato in LLVM 22
- L'impatto dei Capex Big Tech sull'ecosistema AI e i risultati trimestrali di Nvidia
- AMD: performance azionaria sotto pressione prima degli earnings nonostante la forza dei server CPU
- Strategie e Investimenti AI 2026: Nvidia, Tesla, Apple e le Tendenze dal CES
- AMD: la transizione strategica verso la leadership AI e data center
- Analisi della correzione del mercato AI: il calo dell'11% di AMD e il cambiamento di fase del settore
- NVIDIA Vera Rubin: la piattaforma AI in produzione per l'era dell'AI Agente
- La strategia di AMD nel mercato AI: tecnologia, software e sfida a Nvidia
- Microsoft Azure già pronta per NVIDIA Rubin: infrastruttura progettata anni prima
- SynthSmith: addestramento AI con dati sintetici e nuove architetture chip
- NVIDIA Corporation (NVDA): Analisi Tecnica e Dati di Mercato
- AMD Instinct MI400 e MI500: la roadmap 2026-2027 per sfidare Nvidia nel mercato AI
- La strategia AI di AMD: obiettivi di crescita e roadmap tecnologica
- SiFive integra NVIDIA NVLink Fusion per i data center AI RISC-V di nuova generazione
- SiFive integra NVIDIA NVLink Fusion per i data center AI RISC-V di prossima generazione
- ByteDance: investimento da 14 miliardi di dollari in chip AI Nvidia per il 2026
NVIDIA Olympus: il modello di scheduling integrato in LLVM 22 per il processore Vera
NVIDIA ha integrato il proprio modello di scheduling Olympus nell'infrastruttura del compilatore LLVM versione 22. Questo sviluppo tecnico rappresenta un avanzamento significativo per le ambizioni dell'azienda nell'ecosistema ARM64.
L'architettura Olympus per i core del processore Vera
⬆ Torna suIl processore Vera, destinato a far parte della piattaforma di calcolo AI Vera Rubin, utilizza core CPU ARM personalizzati denominati Olympus. Questo rappresenta un cambiamento rispetto al precedente design NVIDIA Grace, che impiegava core Neoverse V2 standard di ARM.
Secondo le dichiarazioni di Jensen Huang, CEO di NVIDIA, Vera dispone di 88 core CPU con un consumo energetico di soli 50 W. Il design Olympus è quindi la prima CPU core personalizzata sviluppata da NVIDIA dopo l'esperienza con Project Denver e i chip Tegra.
L'integrazione del modello Olympus in LLVM 22 permette agli sviluppatori di ottimizzare la generazione del codice specificamente per questi nuovi core.
Il modello di scheduling per l'ottimizzazione delle prestazioni
⬆ Torna suIl modello di scheduling Olympus affronta le complessità del pipelining delle istruzioni e dell'allocazione delle risorse in ambienti multi-core. Modellando la latenza e il throughput di varie operazioni, permette al compilatore di prendere decisioni più intelligenti sull'ordinamento delle istruzioni.
Questa ottimizzazione mira a ridurre gli stalli e massimizzare il parallelismo, aspetto particolarmente cruciale per carichi di lavoro che coinvolgono dataset massivi come l'addestramento di grandi modelli linguistici o la simulazione di fisica complessa.
Benchmark preliminari condivisi nei forum di sviluppo indicano potenziali miglioramenti dell'efficienza complessiva del sistema fino al 20% in carichi di lavoro misti.
L'integrazione con l'ecosistema NVIDIA Rubin
⬆ Torna suVera è progettato per complementare la GPU Rubin, creando un'architettura unificata che sfrutta il computing eterogeneo. L'obiettivo di questo accoppiamento è semplificare il movimento dei dati tra CPU e GPU, minimizzando i colli di bottiglia nelle pipeline di inference e training AI.
Il modello di scheduling in LLVM garantisce che il codice compilato per Vera possa sfruttare queste sinergie. L'acquisizione di SchedMD, sviluppatori delloSlurm workload manager, completa questo approccio olistico alla gestione delle risorse.
Implicazioni per il mercato CPU ARM
⬆ Torna suL'integrazione di Olympus in LLVM posiziona NVIDIA per catturare l'attenzione degli sviluppatori in un momento in cui i processori ARM-based stanno guadagnando trazione in server e dispositivi edge. Questo sviluppo potrebbe rappresentare una sfida per giocatori consolidati come AMD e Intel.
Per gli utenti di high-performance computing, i benefici includono tempi di esecuzione ridotti in scenari come simulazioni scientifiche o modellizzazione finanziaria. L'efficienza energetica rappresenta un ulteriore vantaggio, con il modeling preciso delle risorse che aiuta a minimizzare i cicli sprecati.
Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.
Fonti
⬆ Torna su- https://www.phoronix.com/news/NVIDIA-Olympus-Sched-Model
- https://www.webpronews.com/nvidia-integrates-olympus-scheduler-into-llvm-22-for-vera-cpu-boost/
- https://www.pcgamer.com/hardware/processors/nvidia-reveals-vera-a-new-cpu-with-custom-cores-which-could-be-very-exciting-for-its-upcoming-premium-pc-processor/
In breve
- nvidia
- vera
- cpu
- llvm