Evoluzione delle schede grafiche: da VGA a GPU e il loro impatto su Windows e sui giochi

  • Dagli adattatori MDA/CGA/EGA/VGA alle GPU con RT e AI, l'evoluzione è stata tecnica e costante.
  • Windows e le sue API DirectX/DXR hanno dettato il ritmo del gaming su PC insieme a OpenGL e Vulkan.
  • Punti salienti attuali: più shader, cache di grandi dimensioni, VRAM veloce, core specializzati ed elevata efficienza.
  • Per fare una scelta corretta è necessario bilanciare CPU/GPU, conoscere bus/porte e adattare l'esperienza in base alla risoluzione e alle impostazioni.

Evoluzione delle schede grafiche e il loro impatto su Windows e sui giochi

Da quando accendiamo il computer e appare il logo Windows finché non iniziamo un gioco caricato con luci, ombre e texture, tutto passa attraverso lo stesso pezzo: il Carta graficaQuesto componente può essere integrato nel processore o avere un fattore di forma dedicato e la sua missione è trasformare i dati in immagini con fluidità, precisione e, negli ultimi anni, con un tocco di intelligenza artificiale.

In questo viaggio passiamo in rassegna, con una lente d'ingrandimento, il Evoluzione delle schede grafiche "da VGA a GPU", il passaggio dai primi adattatori monocromatici al ray tracing in tempo reale e come tutto ciò ha avuto un impatto sull'esperienza all'interno di Windows e giocoParleremo di storia, tecnologie chiave, API, produttori, bus, memoria, consigli per l'acquisto e persino come controllare la scheda grafica in Windows in due clic con dXDiag.

Cos'è una scheda grafica e come interagisce con la CPU?

Una scheda grafica (o GPU in senso stretto) è un processore specializzato in operazioni in virgola mobile, progettato per eseguire migliaia di calcoli in parallelo che modellano i pixel. La versione integrata è integrata nel CPU (iGPU/APU), mentre quella dedicata è posizionata sulla scheda madre tramite PCI Express e ha la sua memoria VRAM, potenza e raffreddamento.

Il flusso tipico su un PC Windows e sui giochi è: CPU prepara la geometria (vertici), gli ordini e la fisica; la GPU organizza la scena (ordinamento spaziale e ritaglio), quindi esegue l' shader pixel/frammento che forniscono colore, materiali, effetti e post-elaborazione. Il segnale viene quindi trasmesso tramite VGA, DVI, HDMI, USB-C o DisplayPort al monitor, che lo visualizza a una frequenza di aggiornamento specifica (50/60/120/144Hz...).

Quelli dedicati sono solitamente molto più potenti di quelli integrati, quindi per l'editing, gioco o l'intelligenza artificiale oggi dà priorità ai modelli con VRAM veloce e larghezza di banda elevata. Nei laptop da gioco, i chip Max-Q ottimizzano potenza e temperatura per avvicinare le prestazioni desktop a quelle meno watt.

Asus VGA

Da MDA e CGA a HGC, EGA, VGA e SVGA: le basi

Il punto di partenza per il PC furono gli adattatori IBM nei primi anni '80. MDA (Monochrome Display Adapter) visualizzava solo testo alfanumerico (80x25) con 4 KB di memoria e monitor monocromatici. Il controller leggeva i valori ASCII, il generatore di caratteri componeva un matrice raster per segno, e il monitor lo riproduceva a circa 50 Hz.

Nel 1981 arrivarono le prime grafiche a colori con la CGA (Color Graphics Adapter), che inaugurò il mondo RGB sui PC: fino a 16 colori (8 con due intensità) e risoluzioni come 320x200 (4 colori) o 640x200 (2 colori). Non era perfetto, ma portò il colore sulla mappa domestica.

Parallelamente, nel 1982 il Scheda grafica Hercules (HGC): Monocromatico, sì, ma con risoluzione 720x348 e 64 KB di memoria. Permetteva di visualizzare testi nitidi (matrice 14x9) e una modalità grafica notevole per l'epoca.

Il passo successivo è stato il EGA (Enhanced Graphics Adapter) di IBM, compatibile con MDA e CGA, con 256 KB di memoria e 16 colori a 640x350 scelti da una tavolozza di 64. Inoltre, rendeva fluidi i cambi di schermata, riducendo il fastidioso lampeggiare tipico della CGA.

Nel 1987 l'industria ha abbracciato l' VGA (Video Graphics Array): 640×480 in modalità grafica, 720×350 in testo, 256 colori scelti da una tavolozza di 262.144 e la grande differenza: il segnale analogico al monitor. Ecco perché i VGA incorporavano il famoso RAMDAC (memoria di conversione digitale-analogica), che nei modelli successivi funzionava fino a 450 MHz. VGA includeva anche frequenze di aggiornamento di 800×600, 1024×768 e 50/60/70 Hz.

Dal 2D al 3D: bus, chip e la prima grande rivoluzione

Gli anni '90 hanno portato due rivoluzioni: la autobus e il salto al 3D. Lo standard del bus locale VESA ha lasciato il posto a PCI nel 1993, con schede più compatte di marchi come Matrox, Creative o 3dfx (Voodoo). Poco dopo arrivò la AGP (x2, x4, x8) per accelerare il traffico delle texture, con picchi teorici fino a 2,1 GB/s, un preludio all'attuale PCI Express 16 corsie.

Sul lato chip, emersero produttori come S3 (Trio, ViRGE), Rendition, Matrox, 3dfx, NEC PowerVR, ATI e l'allora nascente NVIDIA (RIVA TNT/TNT2). Le prime API 3D sui PC furono stabilite con OpenGL (da Silicon Graphics), Planata (proprietario di 3dfx) e Direct3D all'interno Microsoft DirectX, che su Windows finirebbe per dominare il gioco su PC.

La vera svolta è stata l' GeForce 256 (1999), il primo chip con T&L (Transform & Lighting) hardware, che unifica l'accelerazione 3D poligonale e scarica i calcoli geometrici dalla CPU. Da allora in poi, ATI ha chiamato la sua famiglia "Radeon», dando origine alla moderna rivalità.

directx 12

Shader unificati, shader a caldo e il passaggio a DirectX 11

NVIDIA ha sperimentato il cosiddetto «shader caldi», eseguendo shader a MHz più alti rispetto al resto della GPU (ad esempio 600 MHz per la GPU e 1.500 MHz per gli shader sulla 8800 GT). Nel frattempo, la VRAM è diventata popolare 1 GB e la larghezza di banda è stata aumentata per evitare colli di bottiglia.

La fase GeForce GTX 400/500 e Radeon HD 5000/6000 ha portato DirectX 11, più shader, più larghezza di banda ed edizioni che per la prima volta hanno raggiunto il 3 GB di VRAM (nella gamma NVIDIA di fascia alta, anche se in misura limitata). Era la regola: aggiungere unità di elaborazione e memoria per aumentare la potenza grezza.

GCN, elaborazione asincrona e la fine degli hot shader

AMD ha risposto con GCN 1.0 (Radeon HD 7950/7970), un'architettura all'avanguardia per i suoi tempi che favoriva DirectX 12 e calcolo asincrono. Ha anche standardizzato una VRAM più generosa (3 GB contro i 2 GB delle soluzioni equivalenti NVIDIA), una decisione che sarebbe stata evidente nei giochi più pesanti.

NVIDIA, con Keplero (GTX 600/700), ha detto addio agli shader a caldo, ha triplicato gli shader tra le generazioni (da GTX 580 a GTX 680) e ha guadagnato slancio in DX11, sebbene il suo supporto iniziale a DX12 fosse tiepido. Tuttavia, con 780 GTX Ti (2013) ha raddoppiato gli shader ed è riuscito a eseguire giochi 4K su PC Windows con sorprendente facilità.

Il grande salto è arrivato con Maxwell (GTX 900): molto più efficiente e performante per watt; una GTX 970 con 1.664 shader ha superato la GTX 780 Ti con 2.880, oltre ad aggiungere VRAM (4 GB) e ad andare d'accordo meglio con DX12Era una delle grafiche più amate per il suo equilibrio e la sua longevità.

Con Pascal (GTX 10), NVIDIA ha abbracciato completamente DX12 e Vulkan; una GTX 1070 (1.920 shader, 8 GB) ha superato la GTX 980 Ti. La GTX Ti 1080 È diventato una leggenda con prestazioni 4K ancora valide nella rasterizzazione classica.

DLSS NVIDIA

Turing, RT Core e Tensor: Ray Tracing e AI in Windows e nei giochi

La successiva grande pietra miliare arrivò con Turing (RTX 20), che ha aggiunto due blocchi specializzati: Nuclei RT (ray-tracing) e nuclei tensoriali (IA e inferenza). Da quel momento in poi, una GPU ha smesso di essere "solo shader + texture + raster" e poteva gestire effetti che in precedenza erano proibitivi a causa dei costi delle prestazioni, integrandosi con DirectX Raytracing e Windows.

Per compensare l'impatto del ray tracing, NVIDIA ha lanciato DLSS, un upscaling dell'IA che ha fallito nella sua prima versione ma ha avuto successo con DLSS 2 grazie al suo ricostruzione temporanea dell'immagine. AMD ha risposto con FSR/FSR 2, che non utilizza l'intelligenza artificiale ma offre un buon equilibrio multipiattaforma.

Ampere e Ada (RTX 30/40), RDNA2 e RDNA3: efficienza, cache e chiplet

Con Ampere (RTX 30), NVIDIA ha aumentato notevolmente gli shader per SM; una RTX 3060 (3.584 shader) ha raddoppiato il numero di core della 2060, migliorato RT/tensor e aumentato la velocità di clock. Successivamente, Ada Lovelace (RTX 40) ha fatto un enorme balzo in avanti in termini di efficienza: una RTX 4060 da 110 W supera di circa il 20% le prestazioni di una 3060 da 170 W in termini di raster.

La RTX 4090 È circa il 40% più avanti della 3090 in termini di raster ed è l'unica che esegue senza problemi la modalità Overdrive di Cyberpunk 2077 (path tracing). Inoltre, DLSS-3 introduce la generazione di frame, alleviando i colli di bottiglia della CPU su Windows mediante l'“interlacciamento” di frame sintetizzati sulla GPU.

Sul lato rosso, RDNA2 Ha raddoppiato gli shader rispetto a RDNA, standardizzato su 16 GB nella fascia alta, aumentato le frequenze e aggiunto un grande blocco di cache di tipo L3 «Infinito Cache» per ridurre la dipendenza dalla banda esterna. Arrivarono anche i primi unità di ray tracing su AMD per il gaming DXR.

Con RDNA3, AMD ha migliorato l'efficienza, ha aggiunto core RT di seconda generazione, ha incorporato acceleratori AI e, cosa più importante, ha introdotto un design multi-chiplet innovativo: ha mantenuto un die monolitico per la GPU ed esternalizzato la cache L3 su chiplet. Ciò riduce la superficie del silicio, migliora dare la precedenza e costi più bassi.

Guardando al futuro, tutto punta verso GPUS MCM (modulo multi-chip) con più GPU interconnesse. È solo questione di tempo: l'area di un singolo die non è più scalabile bene in termini di costi e complessità quando si parla di decine di migliaia di shaders.

VRAM

Componenti essenziali: GPU, VRAM, RAMDAC, VRM e raffreddamento

La piastra coesiste con GPU (core di calcolo con cache L1/L2), la memoria VRAM (texture, framebuffer, buffer intermedi), il VRM (fasi di potenza con MOSFET, induttori e condensatori) e il sistema di refrigerazioneQuelli dedicati solitamente utilizzano connettori a 6+2 pin perché lo slot PCIe eroga solo fino a 75 W.

Lo storico RAMDAC Converte i dati digitali in un segnale analogico per monitor VGA/CRT. Sebbene oggi tutto sia digitale (HDMI/DP), è fondamentale comprenderne il ruolo nella transizione: la sua frequenza ha determinato la stabilità dell'immagine; i modelli avanzati hanno raggiunto 450 MHz.

Nella dissipazione, i progetti di turbine coesistono (ventilatore, che espellono l'aria calda dalla scatola) e a flusso assiale (diverse ventole che spingono l'aria su un radiatore alettato). I ventilatori sono compatti ma rumorosi e meno efficienti; assiale Sono lo standard nei modelli personalizzati grazie alle loro migliori prestazioni termiche.

Memorie video: da EDO/SGRAM/VRAM/WRAM a GDDR6 e HBM2

Prima dell'era moderna, le schede grafiche utilizzavano la RAM EDO e SDRAM, quindi SGRAM (SDRAM ottimizzata per la grafica), VRAM (doppia porta per lettura e scrittura simultanea) e WRAM (più veloce della VRAM e con funzioni di accelerazione a blocchi, ideale per Windows in Windows). Ciò ha segnato il passaggio da 300-800 Mbps a larghezze di banda molto più grandi.

Oggi dominano GDDR6 e GDDR6X: memorie "DDR" con frequenze effettive molto elevate (14–21 Gbps) e bus da 128 a 384 bit, che consentono di raggiungere larghezze di banda enormi. AMD ha utilizzato HBM2 (bus fino a 2048 bit con stacking 3D), meno MHz ma una larghezza brutale, utile in scenari di larghezza di banda estrema.

Rapporto memoria-risoluzione classico (era 2D): con 512 KB, 1024x768 a 16 colori; con 1 MB, 1280x1024 a 16 colori o 1024x768 a 256; con 2 MB, 1280x1024 a 256 e 1024x768 a 65.536; con 4 MB, erano già popolari: 16,7 milioni di colori a 800×600 e oltre. Oggi, per i giochi moderni, 4–8 GB sono un minimo ragionevole. 1080p–1440p.

Porte video: VGA, DVI, HDMI, DisplayPort e USB‑C

Il segnale VGA analogico è un ricordo del passato, ma vale la pena saperlo DVI: DVI-D (solo digitale), DVI-A (solo analogico) e DVI-I (entrambi). HDMI 2.1 gestisce fino a 4K a 120 e 8K a 60; la versione 2.0 si ferma a 4K a 60 (8 bit). DisplayPort 1.4 consente 4K@120 e 8K@60 con DSC; DP è l'interfaccia preferita per i monitor ad alta frequenza di aggiornamento sui PC.

USB-C con DP/Thunderbolt 3 Alt Mode può riprodurre video 4K a 60 Hz e combinare dati e alimentazione. Sui moderni computer Windows, è comune vedere DP e HDMI coesistenti e, sui laptop, USB‑C come uscita multiuso.

OpenGL

API 3D su Windows: OpenGL, Glide, DirectX e Vulkan

Le API sono il "linguaggio" che il gioco comunica alla GPU. OpenGL (industriale e molto capace) e Glide (sottoinsieme ottimizzato per 3dfx) hanno segnato gli anni '90. Microsoft ha integrato la famiglia in Windows DirectX (Direct3D), che all'inizio era un po' lento, ma da DX8/DX11 in poi è diventato lo standard dominante su PC.

Inoltre, lì Vulcano (Khronos), un gioco multipiattaforma di basso livello con radici in Mantle di AMD. In pratica, la maggior parte dei principali giochi su Windows utilizza DirectX 11 settembre, con DXR per il ray tracing; OpenGL/Vulkan coesistono in motori e porte specifici.

Bus: PCI, AGP e PCI Express

Il bus definisce il percorso dati tra la GPU e il sistema. PCI è stato il ponte degli anni '90. AGP ha aumentato la larghezza di banda e ha consentito di prelevare la RAM dal sistema (a scapito della latenza). PCIe x16 (3.0, 4.0 e 5.0), le GPU comunicano direttamente con il CPU da 16 corsie dedicate. PCIe 3.0 x16 offre circa 15,8 GB/s bidirezionali; 4.0 la raddoppia; 5.0 la raddoppia ancora. Oggi, nei giochi, raramente si satura.

Prestazioni e metriche: FPS, TFLOPS, TMU/ROP e overclocking

I FPS Determinano la fluidità: FPS più alti, sensazione più fluida, limitata dalla frequenza di aggiornamento del monitor (sincronizzazione verticale tramite V-Sync/G-Sync/FreeSync). Per vedere il "tetto" della tua GPU, disattiva la sincronizzazione e controlla il frametime negli strumenti di test.

I TFLOPS Misurano le operazioni in virgola mobile al secondo, un riferimento di potenza grezza, ma non definitivo: architettura, cache, compressione del colore, larghezza di banda e i driver pesano molto. Le TMU (texture mapping/filtering) e le ROP (rasterizzazione, fusione, z-buffer, antialiasing) determinano la produttività effettiva di pixel e texture.

El overclock Le velocità della GPU si aggirano solitamente intorno ai +100-150 MHz e sulla VRAM GDDR6 anche a +900-1000 MHz effettivi, con apprezzabili guadagni in FPS se la GPU non è limitata dalla CPU. Strumenti popolari: MSI Afterburner, EVGA Precision X1 o AMD Adrenalin (WattMan).

DGPU e IGPU

Scegliere la scheda grafica giusta, abbinarla alla CPU ed evitare colli di bottiglia

Per il lavoro d'ufficio e la multimedialità, una iGPU moderna (Intel UHD/ARC integrata o AMD Radeon Vega su APU) è sufficiente; investire in una dedicata non vale la pena. Per il gaming 1080p, una GPU di fascia media con 6–8 GB e una CPU a 6 core offrono un ottimo rapporto prezzo/prestazioni.

A 1440p/4K, pensa a un gamut elevato (più shader, RT migliorato e VRAM con margine). Ricorda: il CPU Determina la quantità di dati geometrici/fisici forniti alla GPU; abbassando la risoluzione si alleggerisce il carico della GPU, ma si riduce di poco il carico della CPU. Impostazioni che "colpiscono" la CPU: densità degli oggetti, PNG, simulazione, fisica; quelle che "colpiscono" la GPU: risoluzione, texture, AA, occlusione ambientale, tassellazione e ovviamente ray tracing.

Fattori di forma e dissipazione sono importanti: misura il tuo case e scegli tra design a due o tre ventole, o persino AIO a liquido nei modelli più estremi. I produttori (ASUS, MSI, Gigabyte, ecc.) spesso overcloccano i clock di fabbrica e installano VRM più robusto.

Laptop da gioco e Max-Q

Sui laptop, la GPU è saldata e ottimizzata (serie RTX/GTX) Max-Q) con un consumo energetico inferiore e prestazioni leggermente inferiori rispetto al desktop. Condividono VRAM GDDR6, driver unificati per Windows e supporto per tecnologie come DLSS e RT, dando priorità a temperature contenute e autonomia, e opzioni come la interruttore mux per migliorare le prestazioni.

Come scoprire quale scheda grafica hai in Windows (dxdiag)

Se vuoi identificare la tua scheda in pochi secondi da Windows, usa lo strumento di diagnostica DirectX:

  1. Clicca su Inizio.
  2. Apri "Esegui" dal menu Inizio.
  3. Scrivere dXDiag e fare clic su OK.
  4. Quando si apre l'utilità, andare alla scheda Schermo.
  5. Controlla sotto "Dispositivo" il nome della tua GPU e il memoria disponibile.

Produttori ed ecosistema: NVIDIA, AMD, Intel e assemblatori

Oggi il mercato è guidato da NVIDIA (GeForce RTX) e AMD (Radeon RX). Intel torna in gioco con Inchinarsi in soluzioni dedicate e integra la grafica nella maggior parte delle CPU. Nel 2006, AMD ha acquisito ATI; da allora, ha unito CPU e GPU (APU) e compete testa a testa nei settori gaming e PC desktop.

Gli assemblatori (ASUS, MSI, Gigabyte, ecc.) acquistano GPU/memoria e progettano i propri PCB, VRM e dissipatori. Alcuni aggiungono RGB, doppio BIOS, sensori e profili "OC". Nel 2004, NVIDIA ha reintrodotto SLI (multi-GPU) per aggiungere prestazioni, e ci sono state soluzioni di cloud computing come quelle di GRID che spostano la grafica da server remoti, prima dell'attuale streaming di gioco.

Osservando l'intero percorso, dal segnale analogico di un VGA al tracciamento del percorso e alla generazione di frame AI, è chiaro che Le schede grafiche si sono evolute da semplici adattatori a processori massivamente paralleli. Con un impatto diretto su Windows, motori e giochi, il futuro vedrà una maggiore specializzazione (RT/AI), design dei chiplet ed efficienza, con la promessa di una maggiore fedeltà e FPS più elevati senza aumentare il consumo energetico.