Tutorial per installare CUDA su Windows

  • Compatibilità: versioni di Windows supportate, driver compatibili e modelli WDDM/TCC correttamente configurati.
  • Installazione flessibile: Toolkit grafico o silenzioso, Conda e Wheels, con verifica tramite campioni.
  • Ambienti ibridi: supporto WSL con kernel minimo, Docker e framework AI all'interno di Linux su Windows.

CUDA su Windows

Installazione di CUDA su Windows Non sarà un problema seguire un percorso chiaro e convalidato dalle guide ufficiali. In questa guida pratica e tecnica, tratteremo tutto il necessario per ottimizzare il Toolkit, i driver e gli strumenti di verifica, sia in Windows nativo che in WSL. L'obiettivo è ottenere un'installazione funzionante e testata., pronto ad accelerare i flussi di lavoro della GPU.

Oltre ai passaggi classici, tratteremo la compatibilità con Visual Studio, l'installazione silenziosa, i pacchetti Conda e NVIDIA Wheels, la verifica con esempi CUDA, le peculiarità di WSL e le note di rilascio principali (come la rimozione del driver dal programma di installazione in CUDA 13). Vedrai anche come diagnosticare problemi comuni (incluso un caso reale con un Lenovo Ideapad e 526.56 driver) e requisiti specifici per scenari specifici come Model Builder con CUDA 10.1 e cuDNN 7.6.4.

Che cos'è CUDA?

CUDA è la piattaforma e il modello di programmazione parallela di NVIDIA che consente l'accelerazione delle applicazioni ad alta intensità di calcolo sulla GPU. Con CUDA C/C++ e le sue estensioni È possibile concentrarsi sulla parallelizzazione dell'algoritmo, mentre il runtime CUDA gestisce l'esecuzione e la memoria tra CPU e GPU. Dividendo il lavoro seriale (CPU) da quello parallelo (GPU), È possibile scalare le prestazioni sfruttando migliaia di thread e memoria condivisa su chip.

Questa guida si concentra su come ottimizzare l'ambiente in Windows (nativo e WSL), installare il Toolkit, compilare esempi e verificare che il sistema rilevi correttamente la GPU. Verifica con campioni come deviceQuery e bandwidthTest Si tratta di un aspetto fondamentale che spesso viene trascurato e che qui affrontiamo in modo esplicito.

CUDA

Requisiti di sistema e versioni di Windows supportate

Per utilizzare CUDA è necessaria una GPU NVIDIA compatibile e un sistema operativo Windows supportato. Le versioni supportate del sistema operativo includonoWindows 11 24H2, 23H2 e 22H2-SV2; Windows 10 22H2; Windows Server 2022 e Windows Server 2025. Controlla in Gestione dispositivi che la tua scheda compaia in Schede video e verificane la compatibilità nell'elenco ufficiale delle GPU compatibili con CUDA (pagina NVIDIA).

A livello di compilatore, il Toolkit supporta MSVC 193x in Visual Studio 2022 17.x (C++11/14/17/20) e MSVC 192x in Visual Studio 2019 16.x (C++11/14/17). Il supporto per Visual Studio 2015 è stato deprecato nella versione 11.1Per VS 2017, è stato deprecato nella versione 12.5 e rimosso nella 13.0. Si noti che la compilazione a 32 bit è stata rimossa a partire da CUDA 12.0 (nativa e cross-compilation); se è necessario il supporto a 32 bit, sarà necessario utilizzare toolkit più vecchi.

Sebbene il driver NVIDIA continuerà a consentire l'esecuzione di binari a 32 bit sulle GPU GeForce fino all'architettura Ada, Ada sarà l'ultima ad avere quel supportoHopper non supporta più le applicazioni a 32 bit. Questo è fondamentale se si mantiene software legacy in produzione e si devono pianificare gli aggiornamenti.

In Windows 10 e versioni successive, il driver NVIDIA può funzionare con due modelli: WDDM (per dispositivi di visualizzazione) e TCC (Tesla Compute Cluster) per GPU senza uscita video, come Tesla o alcuni modelli Titan. Con nvidia-smi È possibile controllare la modalità corrente e, se supportata, passare da una all'altra. Sui PC desktop con GPU da gioco, WDDM sarà la norma; sulle workstation con schede di elaborazione, Di solito, TCC è abilitato per impostazione predefinita..

Installazione del Toolkit su Windows: passo dopo passo

  1. Verifica di disporre di una GPU compatibile con CUDA e di una versione di Windows supportata.Da Gestione dispositivi (Schede video) puoi vedere il produttore e il modello.
  2. Scarica NVIDIA CUDA Toolkit dalla pagina ufficiale dei download. Sono disponibili due formati: Network Installer (scarica solo ciò che è selezionato durante l'installazione) e Full Installer (include tutti i componenti, utile offline o per la distribuzione aziendale).
  3. Eseguire il programma di installazione e seguire la procedura guidata grafica. per installare Toolkit, esempi e integrazione con Visual Studio, se necessario.
  4. Nelle installazioni automatizzate è possibile utilizzare la modalità silenziosa con -se aggiungere parametri per scegliere sotto-pacchetti specifici. Il flag -n Evitare il riavvio automatico se necessario.
  5. Completa e riavvia se richiesto.
  6. Aprire un prompt dei comandi ed eseguire nvcc -V per vedere la versione del compilatore CUDA installata.

Installa CUDA su Windows

Installazione silenziosa e sotto-pacchetti del Toolkit

Il programma di installazione consente di distribuire componenti specifici del Toolkit, il che è utile negli ambienti gestiti o CI. Alcuni sotto-pacchetti rappresentativi in ​​CUDA 13.0 (percorso predefinito C:\Programmi\NVIDIA GPU Computing Toolkit\CUDA\v13.0) sono:

  • cublas_13.0 / cublas_dev_13.0: librerie di runtime cuBLAS.
  • crt_13.0: compilatore per applicazioni CUDA.
  • ctadvisor_13.0Analisi delle tracce NVCC/NVRTC per ridurre i tempi di compilazione.
  • cuda_profiler_api_13.0 y cuadrt_13.0: API runtime e profiler CUDA.
  • cufft_13.0 / cufft_dev_13.0: cuFFT.
  • cuobjdump_13.0 y nvdisasm_13.0: utilità per l'ispezione dei cubini.
  • cupti_13.0: interfaccia degli strumenti di profilazione.
  • curando_13.0 / curando_dev_13.0: CURAND.
  • cusolver_13.0 / cusolver_dev_13.0 y cusparse_13.0 / cusparse_dev_13.0: librerie di algebra lineare.
  • cuxxfilt_13.0: filtro demangler cu++.
  • documentazione_13.0: Guide HTML e PDF (programmazione, best practice, ecc.).
  • nsight_compute_13.0, sistemi_nsight_13.0 y nsight_vse_13.0Strumenti Nsight.
  • npp_13.0 / npp_dev_13.0: Centrale nucleare.
  • nvcc_13.0Compilatore CUDA.
  • nvfatbin_13.0, nvjitlink_13.0, nvtx_13.0, nvvm_13.0, nvptxcompiler_13.0: toolchain e strumenti/librerie di tracciamento.
  • nvjpeg_13.0 / nvjpeg_dev_13.0: nvJPEG.
  • nvml_dev_13.0Intestazioni e librerie NVML.
  • nvprune_13.0: potatura di oggetti/statistiche da parte dei target del dispositivo.
  • calcolatore_di_occupazione_13.0: foglio di calcolo dell'occupazione.
  • opencl_13.0: Libreria OpenCL.
  • disinfettante_13.0API Compute Sanitizer.
  • spinta_13.0 y visual_studio_integration_13.0Spinta e integrazione VS.

Se è necessario ispezionare il contenuto prima dell'installazione, è possibile estrarre il programma di installazione completo utilizzando uno strumento compatibile con LZMA (ad esempio, 7-Zip). I file del Toolkit si trovano nella cartella CUDAToolkit Dopo aver estratto i file, troverete al loro interno i file .dll e .nvi, che potete ignorare se desiderate solo visualizzare l'albero di installazione. La disinstallazione si effettua tramite Pannello di controllo > Programmi e funzionalità.

Installazione con pip (NVIDIA Wheels)

Per gli ambienti incentrati su Python, NVIDIA offre Wheels che installano il runtime CUDA e le librerie tramite pip. Questi pacchetti sono destinati all'uso in fase di esecuzione. e non includono strumenti di sviluppo (è possibile installarli separatamente se necessario). Nota: l'ambiente CUDA è gestito all'interno dell'ambiente pip, quindi sarà necessario modificare l'ambiente host se si intende utilizzare CUDA al di fuori di esso.

Per prima cosa, installa nvidia-pyindex in modo che pip possa risolvere i moduli dal repository NVIDIA NGC. Se necessario, aggiorna pip e setuptools per evitare errori successivi. Puoi anche aggiungere la riga di nvidia-pyindex al tuo requirements.txt se lavori con quella convenzione.

Verificare l'installazione: campioni e test

Controllare la versione del compilatore con nvcc -V da un CMD. Clona i campioni CUDA da github.com/nvidia/cuda-samplesCompilarli ed eseguirli come indicato nel repository. Si consiglia vivamente di compilare ed eseguire deviceQuery per confermare che la GPU è stata rilevata e che la configurazione è corretta.

Il test bandwidthTest convalida le prestazioni e la comunicazione tra host e dispositivo. In entrambi i casi, l'importante è che il dispositivo appaia.Corrisponde al tuo hardware e supera i test. Se deviceQuery GPU non rilevata, verificare l'installazione del driver e che il dispositivo sia operativo nel sistema.

CUDA e WSL in Windows 11 e Windows 10 21H2+

Windows 11 e le versioni recenti di Windows 10 (21H2 e successive) supportano l'esecuzione di strumenti di apprendimento automatico accelerati dalla GPU tramite WSL. Potrai utilizzare TensorFlow, PyTorch, Docker e NVIDIA Container Toolkit all'interno di una distribuzione Linux basata su glibc (Ubuntu, Debian, ecc.).

Passaggi chiave: installare il driver NVIDIA abilitato per CUDA in WSL, abilitare WSL e aggiungere una distribuzione di tipo Ubuntu/Debian. Assicurati di avere la versione più recente del kernel WSL. (minimo 5.10.43.3). Puoi verificarlo in PowerShell con: wsl cat /proc/versionSuccessivamente, segui la guida utente CUDA in WSL di NVIDIA per lavorare con NVIDIA Docker o installa PyTorch/TensorFlow nella distribuzione.

Controlli e diagnostica in Windows

Per scoprire quale GPU hai: in Impostazioni > Sistema > Schermo > Impostazioni avanzate, troverai la marca e il modello in "Informazioni sullo schermo". In Task Manager, scheda PrestazioniSeleziona GPU per visualizzare utilizzo, modello e memoria. Se non viene visualizzato, seleziona Gestione dispositivi > Schede video e installa il driver appropriato per la scheda.

Per vedere la versione CUDA "riportata" dal tuo driver, esegui nvidia-smi. Per scoprire la versione del compilatore Toolkit installato, utilizza nvcc --version. Tieni presente che nvidia-smi Visualizza la versione massima dell'API CUDA supportata dal driver, non quella del Toolkit presente sul disco.

Utilizzo del cloud: esempio di istanze con GPU

Se hai bisogno di potenza on-demand, i provider cloud offrono istanze con GPU come NVIDIA A100, RTX 4090 o A6000. Questo approccio consente un pagamento in base al consumo, una distribuzione quasi istantanea e modelli già pronti. per framework popolari (PyTorch, TensorFlow). Per carichi di lavoro elevati o picchi temporanei, rappresenta un'alternativa efficiente che non richiede investimenti in hardware proprietario e supporta le ultime versioni di CUDA.

Note legali e marchi

La documentazione e il software NVIDIA vengono forniti "così come sono", con tutti i diritti riservati e senza alcuna garanzia implicita di commerciabilità o idoneità per uno scopo particolare. NVIDIA può modificare le specifiche e i documenti senza preavvisoVerificare sempre le informazioni più recenti e rispettare i termini di vendita e licenza di terze parti. OpenCL è un marchio registrato di Apple Inc. concesso in licenza a Khronos; NVIDIA e il suo logo sono marchi registrati negli Stati Uniti e in altri Paesi.

Con tutto quanto sopra, ora hai gli elementi per installare, configurare e convalidare CUDA su Windows (e anche su WSL o Linux quando ne hai bisogno). Dai requisiti e driver all'integrazione con Visual Studio e alla verifica con campioniLa chiave è allineare la versione del driver, il toolkit e l'ambiente e fare affidamento su strumenti come nvidia-smi, nvcc e i campioni per confermare che l'intera catena funzioni come previsto.