CIQ lancia Rocky Linux Pro AI con kernel ottimizzato per infrastrutture GPU
La nuova distribuzione Enterprise Linux combina il CIQ Linux Kernel con driver pre-integrati e ottimizzazioni specifiche per workload di intelligenza artificia…
Contenuto

Scopri anche
- L'IA entra nei programmi dei licei: le nuove indicazioni nazionali
- Nove vulnerabilità CrackArmor in Linux AppArmor espongono oltre 12 milioni di sistemi enterprise
- NVIDIA dona il DRA Driver per GPU al CNCF e potenzia l'orchestrazione Kubernetes per l'AI
- AMD definisce le "Agent Computer" come nuova frontiera dell'AI PC
- Chatbot sanitari e diagnosi: i rischi dell'affidarsi all'intelligenza artificiale per la salute
- Google e Back Market lanciano una chiavetta USB da 3 dollari per installare ChromeOS Flex sui PC obsoleti
- L'efficienza energetica dei chip Nvidia: il nuovo imperativo per l'infrastruttura AI
- NVIDIA rilascia Nemotron-Cascade 2: modello MoE da 30B con soli 3B parametri attivi per reasoning avanzato
- Samsung e AMD firmano MOU per HBM4: accordo strategico su memoria e potenziale foundry
- L'intelligenza artificiale tra opportunità di investimento e sfide etiche: un quadro del settore
- Valve conferma Steam Machine, Steam Frame e Steam Controller per il 2026 nonostante la crisi dei componenti
- Corea del Sud lancia la "AI Squid Game" per competere con USA e Cina
- Intel 18A e la strategia di recupero: produzione USA, partnership AI e sfide nel foundry
- Nvidia domina il mercato GPU per data center mentre AMD guadagna terreno con accordi strategici e nuove sfide geopolitiche
- Evo 2 e longevità: l'IA progetta genomi ma la vita richiede più del 70% di precisione
- Michael Larabel e Phoronix: vent'anni di documentazione sull'hardware Linux
- Samsung e Nvidia consolidano l'alleanza AI: dal chip Groq 3 LPU all'AI Megafactory con oltre 50.000 GPU
- L'ascesa delle CPU nei data center AI: il nuovo ruolo dell'infrastruttura di calcolo
- NVIDIA GTC 2026: Annunciate Vera Rubin, OpenClaw e la piattaforma per l'IA agentica
- Calibre 9.4 e LibreOffice 26.2.1: aggiornamenti per software open source
CIQ lancia Rocky Linux Pro AI con kernel ottimizzato per infrastrutture GPU
- Il sistema operativo come vincolo per le workload GPU
- CIQ Linux Kernel: la base tecnica
- RLC Pro AI: caratteristiche e ottimizzazioni
- Stack software pre-integrato e configurazioni
- Collaborazione con AMD per Rocky Linux ottimizzato
- La famiglia RLC Pro e le opzioni di sottoscrizione
- Deployment multi-ambiente e sovranità
- Implicazioni e scenari
- Cosa monitorare
- Fonti
CIQ ha annunciato la disponibilità generale di Rocky Linux from CIQ Pro AI (RLC Pro AI), una distribuzione Enterprise Linux progettata per massimizzare le prestazioni delle infrastrutture GPU in produzione. Il prodotto rappresenta la quarta versione nella linea commerciale di Rocky Linux basata su CIQ e si posiziona come sistema operativo ottimizzato per workload di intelligenza artificiale e calcolo ad alte prestazioni (HPC).
L'annuncio arriva contestualmente alla presentazione del CIQ Linux Kernel (CLK), un kernel enterprise-grade costruito direttamente sui Long Term kernel upstream mantenuti su kernel.org. CLK traccia i branch Long Term upstream e fornisce hardware enablement continuo, ottimizzazioni delle prestazioni e correzioni di sicurezza agli ambienti di produzione enterprise.
Il sistema operativo come vincolo per le workload GPU
⬆ Torna suCIQ identifica nel sistema operativo un collo di bottiglia per l'utilizzo efficace delle risorse GPU. Le organizzazioni stanno trasferendo in produzione workload accelerati tramite GPU, e il sistema operativo sottostante determina quante prestazioni l'hardware effettivamente consegna. Per la maggior parte delle imprese, secondo CIQ, questa prestazione è stata lasciata sul tavolo.
Gregory Kurtzer, CEO di CIQ e fondatore di Rocky Linux, ha dichiarato che il sistema operativo è il punto in cui il ROI delle GPU viene vinto o perso, e l'industria lo ha ignorato troppo a lungo. Le organizzazioni stanno investendo centinaia di milioni di dollari in infrastrutture GPU e le eseguono su sistemi operativi mai progettati per questo scopo.
Bjorn Hovland, presidente di CIQ, ha sottolineato che il calcolo GPU rappresenta la risorsa più vincolata e costosa nell'infrastruttura AI attuale. RLC Pro AI consente alle organizzazioni di ottenere di più dall'infrastruttura che hanno già pagato, con economie valide sia per startup con un singolo nodo GPU che per enterprise che gestiscono migliaia di istanze.
CIQ Linux Kernel: la base tecnica
⬆ Torna suCLK è attualmente basato su Linux 6.12 LT, con supporto per 6.18 LT in sviluppo attivo. I branch Long Term upstream ricevono un set sostanziale di patch dalla comunità kernel, coprendo correzioni di sicurezza, abilitazione hardware, miglioramenti delle prestazioni e aggiornamenti driver. Greg Kroah-Hartman, manutentore dei kernel stable e Long Term upstream, ha affermato che chi non utilizza l'ultimo kernel stable o Long Term ha un sistema insicuro.
CLK consegna quella base con il supporto enterprise e le garanzie di stabilità richieste dalle organizzazioni IT professionali. Gli ingegneri CIQ contribuiscono direttamente alla comunità kernel upstream con report di bug, correzioni e miglioramenti. I problemi scoperti dai clienti CLK vengono risolti alla fonte upstream e beneficiano l'ecosistema più ampio.
CIQ fornisce supporto long-term pluriennale per le release CLK, allineato con le designazioni LT upstream. CLK è il kernel incluso in RLC Pro AI, il primo prodotto del portfolio RLC Pro a spedire con CLK.
RLC Pro AI: caratteristiche e ottimizzazioni
⬆ Torna suRLC Pro AI utilizza Rocky Linux come base Enterprise Linux e applica un kernel ottimizzato e miglioramenti user-space che migliorano le prestazioni mantenendo compatibilità, stabilità e sicurezza. Il kernel RLC-AI parte dalla release Long Term stabile di kernel.org e la migliora specificamente per applicazioni AI.
Le caratteristiche chiave includono configurazioni di build ottimizzate per AI, supporto per Confidential Computing con Intel TDX, AMD SEV-SNP e soluzioni NVIDIA, oltre a compatibilità con gli acceleratori AI più recenti da NVIDIA, AMD, Intel e altri fornitori. Il prodotto include supporto per Secure Boot su architetture x86_64 e ARM emergenti come NVIDIA Grace Hopper e Blackwell.
RLC Pro AI viene fornito con driver GPU, librerie e framework pre-sintonizzati e validati per workload AI. La distribuzione è progettata per supportare deployment da bare metal a Kubernetes e infrastrutture on-premises, con supporto immediato per gli acceleratori GPU NVIDIA attuali.
Stack software pre-integrato e configurazioni
⬆ Torna suIl prodotto bundle PyTorch con CUDA e lo stack software DOCA OFED di NVIDIA. CIQ ha indicato che la distribuzione viene fornita con impostazioni kernel pre-ottimizzate, flag PyTorch e configurazioni CUDA per ridurre la sintonizzazione manuale e limitare il drift di configurazione dopo gli aggiornamenti.
Lo stack AI pre-integrato include framework pronti all'uso come TensorFlow, PyTorch e formato ONNX, insieme a librerie e strumenti che funzionano insieme senza configurazione aggiuntiva. Le ottimizzazioni specifiche per AI nel kernel coprono memoria, I/O e CPU oltre le capacità dei container.
RLC Pro AI include sia moduli proprietari che out-of-tree insieme ai driver standard, eliminando la configurazione post-installazione e assicurando che gli utenti possano sfruttare al massimo il nuovo hardware. Per le organizzazioni che deployano migliaia di istanze giornaliere, questo riduce significativamente i costi operativi e il tempo rimuovendo l'overhead di installazione driver per istanza, prevenendo problemi di compatibilità ed evitando la necessità di immagini personalizzate.
Collaborazione con AMD per Rocky Linux ottimizzato
⬆ Torna suCIQ ha annunciato una collaborazione con AMD che inizia con una versione di Rocky Linux ottimizzata per i prodotti datacenter AMD. La prima fase si concentra su una build Rocky Linux con driver AMD validati e supporto per la piattaforma software ROCm utilizzata con i prodotti datacenter AMD.
L'immagine è destinata a workload AI e HPC su GPU AMD Instinct e sistemi correlati. La mossa riflette la crescente domanda di aziende che spostano progetti AI dal testing alla produzione, dove versioni software, driver e librerie di supporto devono allinearsi su grandi numeri di macchine. Mismatch possono rallentare il deployment e complicare la manutenzione.
Chuck Gilbert, Senior Director of System Design Engineering presso AMD, ha dichiarato che le GPU AMD Instinct sono progettate per fornire prestazioni di punta per workload AI e HPC. Per realizzare pienamente queste prestazioni in ambienti di produzione, i clienti necessitano di una base software validata e scalabile. La collaborazione con CIQ riduce il time-to-deployment, semplifica le operazioni su scala e rafforza l'ecosistema enterprise attorno alla piattaforma AI AMD.
CIQ prevede di estendere le ottimizzazioni specifiche AMD ad altre parti del suo portfolio software, includendo Warewulf Pro per gestione cluster, Ascender Pro per automazione IT, Apptainer per containerizzazione e Fuzzball per orchestrazione workload.
La famiglia RLC Pro e le opzioni di sottoscrizione
⬆ Torna suRLC Pro AI fa parte della famiglia di prodotti Rocky Linux from CIQ Pro, che include anche RLC+ NVIDIA per team che desiderano Rocky Linux GPU-ready senza sottoscrizione a pagamento, RLC+ AMD per Rocky Linux ottimizzato AMD senza sottoscrizione a pagamento (in arrivo), e RLC Pro Hardened. RLC Pro è disponibile con sottoscrizione Standard o Premium.
La sottoscrizione RLC Pro include Long Term Support con patching di sicurezza fino a 4 anni per le versioni minori con numero pari, pacchetti validati FIPS 140-3 per agenzie governative e industrie regolamentate, bug fixes diretti con patch spedite direttamente dagli ingegneri CIQ, indennità legale per componenti Rocky Linux, e supporto enterprise con tempi di risposta garantiti.
L'architettura supporta x86_64 e aarch64, con accelerazione GPU NVIDIA CUDA e stack di networking RDMA e InfiniBand incluso. I repository sono ospitati in datacenter statunitensi con mirror multi-regione, con disponibilità su AWS, Azure, GCP e OCI tramite immagini ISO, KVM, cloud e container OCI.
Deployment multi-ambiente e sovranità
⬆ Torna suCIQ indica che RLC Pro AI fornisce uno stack consistente e profilo prestazionale attraverso cloud pubblici e ambienti on-premises, includendo AWS, Google Cloud Platform e Microsoft Azure, oltre a infrastrutture bare metal e sovrane on-premises. L'annuncio riflette l'attività continuativa attorno a infrastrutture "sovrane", deployment che priorizzano controllo locale, residenza dei dati e conformità alle policy.
Le organizzazioni che eseguono inference su scala possono ottenere throughput più elevato su deployment GPU esistenti dal primo giorno. CIQ non ha fornito dati benchmark specifici, ma indica di aver validato miglioramenti prestazionali contro casi d'uso concreti. L'azienda sottolinea anche le economie di scala, argomentando che throughput più elevato da hardware esistente può ridurre le risorse necessarie per raggiungere target di output, impattando i requisiti infrastrutturali attraverso nodi, cluster e flotte.
Rocky Linux ha già una vasta base installata in enterprise e computing di ricerca, con dati telemetrici Fedora EPEL che mostrano decine di milioni di sistemi Rocky Linux in uso globalmente. CIQ aggiunge che il numero reale è probabilmente più alto perché la telemetria non cattura tutti i deployment air-gapped ed enterprise.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suL'ingresso di CIQ nel segmento dei sistemi operativi ottimizzati per GPU evidenzia un cambio di prospettiva: il sistema operativo viene ora considerato un fattore determinante per il ritorno sugli investimenti in infrastrutture costose. La strategia di pre-integrare driver e configurazioni potrebbe ridurre l'overhead operativo, specialmente per chi gestisce deployment su larga scala.
- Scenario 1: Le organizzazioni con cluster GPU esistenti potrebbero adottare RLC Pro AI per massimizzare le prestazioni senza sostituire l'hardware, puntando sul ROI.
- Scenario 2: La collaborazione con AMD potrebbe estendersi ad altri vendor hardware, consolidando un ecosistema multipiattaforma.
- Scenario 3: La standardizzazione delle configurazioni kernel potrebbe diventare un differenziale competitivo rispetto ad altre distribuzioni Enterprise Linux.
Cosa monitorare
⬆ Torna su- L'adozione effettiva da parte di enterprise con infrastrutture GPU NVIDIA e AMD già in produzione.
- L'estensione del supporto a nuovi acceleratori e architetture emergenti oltre quelle attualmente annunciate.
- L'impatto sui costi operativi nelle organizzazioni che deployano migliaia di istanze giornaliere.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://itbrief.asia/story/ciq-amd-unveil-tuned-rocky-linux-for-ai-clusters
- https://ciq.com/products/rocky-linux/pro/
- https://fossforce.com/2026/03/ciq-ships-rlc-pro-ai-a-gpu-first-take-on-rocky-linux/
- https://itbrief.news/story/ciq-unveils-rocky-linux-pro-ai-for-gpu-inference-at-scale
- https://www.prnewswire.com/news-releases/ciq-introduces-the-ciq-linux-kernel-built-to-unlock-the-full-performance-of-modern-ai-hardware-in-enterprise-production-302705273.html
- https://www.devopsdigest.com/rocky-linux-from-ciq-for-ai-introduced
- https://www.computerweekly.com/blog/Open-Source-Insider/CIQ-chips-out-Rocky-Linux-for-AI
In breve
- ai
- linux
- gpu
- nvidia