La fine delle configurazioni multi-GPU: da SLI e CrossFire all'obsolescenza
Analisi tecnica del declino delle configurazioni dual GPU per gaming, dalle tecnologie SLI e CrossFire alle cause dell'abbandono da parte di NVIDIA e AMD.
Contenuto

Scopri anche
- Intel Panther Lake: il processore Core Ultra Series 3 segna il ritorno alla produzione interna
- AMD accelera sulla strategia AI con il data center come motore di crescita
- Phil Spencer lascia Microsoft dopo 38 anni: Asha Sharma nuova CEO di Microsoft Gaming
- Nvidia vs Broadcom: lo scontro tra giganti nel mercato dei chip AI
- AMD: risultati record e crescita del 60% annuo attesa per il segmento Data Center
- Pokémon FireRed e LeafGreen arrivano su Nintendo Switch e Switch 2
- Nvidia e Broadcom a confronto: chi dominerà il mercato dei chip AI entro il 2036
- Intel conferma il commitment verso le GPU: nuova roadmap focus su data center e AI
- PlayStation Plus febbraio 2026: quattro titoli tra boxe, esplorazione sottomarina e combattimenti aerei
- Il mercato dei data center accelerator verso i 130 miliardi di dollari entro il 2032
- Analisi dei movimenti azionari e dati finanziari nel settore semiconductor
- Pokémon FireRed e LeafGreen arrivano su Nintendo Switch per il 30° anniversario
- Meta e Nvidia stringono accordo pluriennale per milioni di chip AI nei data center
- AMD: risultati Q4 2025 oltre le attese, ma le previsioni Q1 2026 frenano gli investitori
- Animal Crossing: il merchandising tra peluche e abbigliamento per bambini
- Meta e Nvidia stringono partnership pluriennale per infrastruttura AI su larga scala
- AMD nomina Ariel Kelman come nuovo Chief Marketing Officer per rafforzare la strategia AI
- Netflix cessa il supporto su PlayStation 3: la data definitiva è il 2 marzo 2026
- NVIDIA Blackwell Ultra GB300 NVL72: prestazioni e efficienza per l'inferenza AI
- AMD archivia il Q4 2025 con ricordi record nel Data Center, le azioni calano nonostante la crescita
La fine delle configurazioni multi-GPU: da SLI e CrossFire all'obsolescenza
Fino alla metà degli anni 2010, i PC gaming con schede grafiche multiple rappresentavano l'aspirazione di ogni appassionato. Tecnologie come SLI di NVIDIA e CrossFire di AMD permettevano di collegare fino a quattro GPU per ottenere prestazioni video superiori. Oggi, queste configurazioni sono diventate una reliquia del passato, con entrambi i produttori che hanno cessato il supporto ufficiale e gli sviluppatori che hanno smesso di ottimizzare i giochi per architetture multi-GPU.
L'ascesa delle tecnologie multi-GPU
⬆ Torna suNVIDIA ha introdotto la tecnologia SLI (Scalable Link Interface) nel 2004, mentre ATI ha presentato CrossFire nel 2005. Entrambe le soluzioni permettevano ai giocatori di combinare due o più schede grafiche identiche in un sistema di elaborazione unificato. Per funzionare correttamente, l'SLI richiedeva due GPU compatibili della stessa serie, collegate fisicamente tramite un piccolo adattatore chiamato SLI bridge, oltre a due slot PCIe sulla scheda madre e un alimentatore di adeguata capacità.
La logica sottostante era semplice: se una singola GPU poteva eseguire i giochi in modo decente, due o più GPU collegate avrebbero dovuto sbloccare prestazioni senza pari. Entrambi i produttori promettevano incrementi significativi nei frame rate a risoluzioni più alte, caratteristiche molto ricercate dai gamer dell'epoca. La strategia di rendering predominante era l'Alternate Frame Rendering (AFR), dove ogni scheda video si alternava nella elaborazione dei frame per distribuire il carico grafico.
Problemi tecnici e limitazioni strutturali
⬆ Torna suNonostante le premesse promettenti, le configurazioni multi-GPU presentavano problemi significativi fin dall'inizio. L'implementazione dell'SLI non funzionava sempre come previsto e spesso mostrava stuttering dovuto alla desincronizzazione tra le due schede. Questo significava che l'investimento per l'acquisto di due GPU specifiche per l'SLI non garantiva un ritorno adeguato in termini di prestazioni.
Uno dei problemi più diffusi era il micro-stuttering, un difetto che rendeva il gameplay irregolare nonostante frame rate teoricamente più alti. Come segnalato nelle fonti, molti giocatori preferivano un gameplay costante a 30 FPS piuttosto che 60 FPS con micro-stuttering. Il fenomeno si manifestava quando si spingevano le impostazioni grafiche oltre ciò che anche due schede potevano gestire in modo affidabile, e l'overhead di sincronizzazione tra le schede interferiva con il frame rate complessivo in modo percettibile.
I miglioramenti delle prestazioni dipendevano dagli aggiornamenti driver di NVIDIA e i giochi dell'epoca dovevano essere progettati specificamente per sfruttare la potenza extra. Tuttavia, trovare giochi ottimizzati che utilizzassero efficacemente le GPU multiple era raro. Molti titoli teoricamente compatibili offrivano frame rate migliori ma erano noti per problemi di micro-stuttering che compromettevano l'esperienza complessiva.
Il calo del rapporto costo-prestazioni
⬆ Torna suIl principale motore del declino delle configurazioni dual GPU è stato il pessimo ritorno sull'investimento. Utilizzare due GPU in sincronia non raddoppiava le prestazioni, ma costava certamente il doppio di una singola GPU. Nel migliore dei casi, una configurazione dual GPU poteva offrire fino al 50% di prestazioni in più rispetto a una singola scheda nei giochi meglio ottimizzati, con guadagni progressivamente inferiori aggiungendo più di due GPU.
Le moderne GPU di fascia alta, come NVIDIA RTX 4090 o AMD 7900 XTX, sono in grado di gestire il gaming a 4K autonomamente, eliminando la necessità di una GPU aggiuntiva. La RTX 4090 ha un prezzo di listino di circa 1.599 dollari e può consumare fino a 450 watt. Raddoppiare queste cifre per un incremento prestazionale parziale ha progressivamente perso senso economico.
Stackare più GPU affamate di energia richiedeva alimentatori molto potenti, con conseguenti bollette elettriche più elevate. Inoltre, le configurazioni multi-GPU generavano una quantità significativa di calore, richiedendo soluzioni di raffreddamento più efficaci che aumentavano ulteriormente i costi complessivi del sistema. Due RTX 4090 richiederebbero un alimentatore da oltre 1300 watt.
La fine del supporto ufficiale
⬆ Torna suIl colpo finale è arrivato con le decisioni di NVIDIA e AMD di abbandonare queste tecnologie. AMD ha chiuso CrossFire nel 2017, mentre NVIDIA ha terminato il supporto SLI nel 2021, annunciando che non sarebbero stati aggiunti nuovi profili di gioco SLI negli aggiornamenti software. Successivamente, con la rimozione della connessione NVLink SLI nella serie RTX 40, il destino della tecnologia è stato segnato definitivamente.
DirectX 12 ha spostato l'onere del supporto direttamente sugli sviluppatori di giochi, eliminando il supporto diretto da parte di AMD e NVIDIA e rendendo l'ottimizzazione ancora più complessa. Gli sviluppatori avevano poco incentivo a ottimizzare per un mercato multi-GPU in continua contrazione. Il lavoro extra per un payoff minimo non valeva lo sforzo.
Casi d'uso residui per GPU multiple
⬆ Torna suNonostante l'obsolescenza per il gaming, esistono ancora scenari in cui configurazioni multi-GPU trovano applicazione. Training di modelli AI, esecuzione di inferenza AI, rendering 3D offline per animazioni CG, simulazioni fisiche e altri carichi di lavoro non in tempo reale possono scalare su due o più GPU con buona efficienza. In questi ambiti, avere quasi il doppio delle prestazioni aggiungendo una GPU extra giustifica l'investimento rispetto alle alternative.
Una funzionalità interessante è il memory pooling, reso possibile da tecnologie come NVLink di NVIDIA. In una configurazione multi-GPU standard, ogni GPU mantiene una copia degli stessi dati nella propria VRAM, quindi due schede con 24GB di VRAM fornirebbero comunque solo 24GB totali. Con NVLink e modelli compatibili, è possibile combinare la memoria in un pool condiviso, aggirando i limiti massimi di VRAM o i problemi di costo delle schede high-end con memoria massiccia.
È inoltre possibile dedicare ogni scheda a compiti diversi: una può gestire un modello AI locale mentre l'altra si occupa delle grafica standard. Per gli streamer, una seconda GPU può gestire l'encoding video live o le applicazioni del secondo schermo senza impattare sulla GPU principale che esegue il gioco. Con le macchine virtuali, è possibile dedicare GPU fisiche a specifiche VM, permettendo a ciascuna di sfruttare pienamente la potenza di quella scheda.
Recentemente, con la rimozione del supporto PhysX a 32-bit nelle schede serie 50 e successive di NVIDIA, alcuni giocatori hanno installato schede NVIDIA più vecchie che supportano ancora questa funzionalità come processore PhysX dedicato per titoli più datati.
Le ragioni di un declino inevitabile
⬆ Torna suLa direzione dell'hardware e del software gaming ha decretato la fine delle configurazioni multi-GPU. Non si potevano mescolare schede di generazioni o modelli diversi per prestazioni ottimali: la GPU meno potente poteva limitare le prestazioni di quella più potente, portando a sottoutilizzo della scheda di fascia alta. Servivano schede identiche, con tutti i problemi di compatibilità e costo che questo comportava.
I giochi senza supporto multi-GPU sprecavano completamente la seconda scheda. Titoli come Grand Theft Auto V funzionavano correttamente, mentre altri come Forza Horizon 5 non collaboravano con i sistemi multi-GPU. Anche quando i giochi supportavano la tecnologia, le configurazioni erano complesse e i problemi di prestazioni come i cali di frame erano frequenti.
Con ogni nuova introduzione di schede video, la prestazione della nuova scheda equivaleva circa a quella di due schede della generazione precedente lavorando insieme. Le efficienze nella parallelizzazione su un singolo die GPU superavano quelle ottenibili attraverso due schede video distinte collegate tramite bus PCI.
Una singola scheda video veloce è sempre stata la soluzione più semplice, più facile ed economica. Oggi, questa opzione è anche l'unica praticabile per la stragrande maggioranza degli utenti, con le configurazioni multi-GPU relegate a nicchie specifiche lontane dal gaming consumer.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa scomparsa delle configurazioni multi-GPU per il gaming lascia emergere sviluppi rilevanti per appassionati e professionisti.
- Scenario 1: I carichi di lavoro AI e il rendering 3D offline potrebbero mantenere vivo l'interesse per configurazioni multi-GPU, sfruttando il memory pooling tramite NVLink per superare i limiti di VRAM.
- Scenario 2: L'obsolescenza dello SLI potrebbe spingere verso il mercato dell'usato le GPU di generazioni precedenti, rendendole accessibili per soluzioni dedicate come l'encoding video o PhysX.
- Scenario 3: La tendenza verso GPU singole sempre più potenti potrebbe consolidarsi, con produttori focalizzati sull'efficienza energetica piuttosto che su architetture parallele.
Cosa monitorare
⬆ Torna su- L'evoluzione del supporto software per multi-GPU nei carichi di lavoro professionali.
- Le iniziative della community per estendere la vita di tecnologie legacy su hardware datato.
- Lo sviluppo di soluzioni alternative per aumentare la memoria video disponibile senza ricorrere a configurazioni multi-GPU.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.bgr.com/2097997/why-no-one-uses-dual-graphics-cards-anymore/
- https://www.howtogeek.com/some-people-still-put-two-gpus-in-their-pcsbut-why/
- https://www.slashgear.com/1906405/why-are-dual-gpus-not-used-anymore/
- https://blog.codinghorror.com/multiple-video-cards/
- https://forums.tomshardware.com/threads/dual-graphics-cards.3876672/
- https://www.xda-developers.com/when-it-makes-sense-to-have-two-gpus/
- https://blog.acer.com/en/discussion/1208/why-dual-and-multi-gpu-pc-are-dying
In breve
- gpu
- nvidia
- amd
- gaming