Qual è la differenza di prestazioni tra workstation e GPU desktop per i calcoli CUDA?


3

Confrontando le schede GPU per workstation e desktop, non è chiaro cosa sia effettivamente diverso tra i due. Capisco che una scheda workstation è migliore per l'uso professionale e una scheda desktop per i giochi, ma cosa significa questo per i calcoli CUDA? I post che ho visto sembrano concentrarsi sul CAD e sul rendering 3D. Sono interessato a eseguire codice c / c ++ scritto per essere eseguito su core CUDA da un sistema Linux.

Confrontando 2 schede simili, la scheda desktop fornisce il doppio dei core CUDA e il 50% di memoria in più.

  1. Quadro K4200 è attualmente orgoglioso di 789 $
    • 1344 CUDA Core
    • GDDR5 a 256 bit da 4 GB
  2. GeForce GTX 980 Ti attualmente al prezzo di 699 $
    • 2816 core CUDA
    • GDDR5 a 384 bit da 6 GB

Ci sono altre differenze da considerare?

Risposte:


3

Entrambe le carte hanno i loro pro e contro:

La GTX è molto più performante:
http://gpu.userbenchmark.com/Compare/Nvidia-Quadro-K4200-vs-Nvidia-GTX-980/2838vs2576

La GTX 980 si basa sulla nuova architettura Maxwell di seconda generazione, il che significa che probabilmente supporterà tecnologie più recenti rispetto alla Quadro K4200 (che è ancora basata sull'architettura Kepler di prima generazione nonostante faccia parte della più recente gamma Quadro).

Informazioni sul Quadro:

Quindi stavo per acquistare la Nvidia Quadro K4200, perché mi era stato detto che i suoi driver supportavano migliori prestazioni del viewport. Tuttavia, ho visto molti utenti su vari forum affermare di non essere rimasti colpiti dal bump delle prestazioni del viewport fornito e che era trascurabile. Erano nel campo "GTX-ha-molto-migliori-specifiche-per-il-prezzo". "Team GTX"

Ho quindi visto persone con il punto di vista che le specifiche non contano affatto e che è "tutto nei driver". ("Team Quadro") Proclamano che i driver superiori di Quadro fanno la differenza nel flusso di lavoro Max, e vale assolutamente il prezzo elevato. Dicono anche che ci sono anche importanti differenze hardware, che non si tratta solo di driver GTX Quadro / throttled ottimizzati.

Il "Team GTX" quindi ribatte che questo USATO è vero, ma che Quadro e GTX sono convergenti negli ultimi anni. Danno aneddoti su come molti dei loro benchmark e discussioni online siano obsoleti (serie Quadro NON-Kepler rispetto, ad esempio), o semplicemente confrontino solo le schede di gioco / workstation senza crossover. Ho usato siti di riferimento testa a testa che mostrano che la GTX 980 è superiore con un ampio margine. Ma ancora una volta, i benchmark sembrano essere rivolti ai giocatori.

Ulteriori complicazioni sono la GTX 970/980 contro la Titan. Sembra che ci sia poco vantaggio offerto dal Titano per giustificare il prezzo per me.

fonte

Guarda anche:

Le schede grafiche serie GTX 900 per ora non sono supportate dagli sviluppatori ADOBE per ottenere driver nvidia e per certificarle come DRIVER GTX 900 FIRMATI ADOBE come fanno Nvidia con Microsoft per Windows (WHQL-Windows Hardware Quality Labs) ... per ora GPU GTX 900 lavorare praticamente Basato sull'API CUDA e la GPU GM204 isnide di GTX 980 funziona senza Maxwell Improvements ma reagisce come una vecchia Fermi o Kepler.

Ora per il momento tutte le bestie come HP Z840, Precision T7810, Celsius R940, Thinkstation P900 sono basate su schede Quadro perché i driver firmati per queste GPU hanno certificazioni ISV per tutti i media, compresi qui e Decoder ed Encoder su VIDEO per AE e PR.

Non è importante selezionare una GPU che abbia molti Gpixel / so Gtexel / se molta larghezza di banda di memoria (ok sono importati ...) ... Seleziona una GPU certificata come la prima Like Quadro 2000/4000 / 5000/6000 Low Budget ora e Quadro K 2000/2200/4000/4200/5000/5200 o GPU di giochi speciali certificati per AE e PR, GTX 780, GTX Titan e GTX 780 Ti e che vedono le specifiche.

fonte

C'è una spiegazione molto più dettagliata in una domanda simile:

In generale:

  1. Se hai bisogno di molta memoria di quanto tu abbia bisogno di Tesla o Quadro. Le carte di consumo ATM hanno un massimo di 1,5 Gb (GTX 480) mentre Teslas e Quadros fino a 6 Gb.

  2. Le schede della serie GF10x hanno prestazioni a doppia precisione (FP64) limitate a 1/8 delle prestazioni a precisione singola (FP32), mentre l'architettura è in grado di 1/2. Ancora un altro trucco di segmentazione del mercato, molto popolare al giorno d'oggi tra i produttori di hardware. Paralizzare la linea GeForce ha lo scopo di dare alla linea Tesla un vantaggio in HPC; La GTX 480 è infatti più veloce di Tesla 20x0 - 1,34TFlops contro 1,03 TFlops, 177,4 Gb contro 144 Gb / sec (picco).

  3. Tesla e Quadro sono (presumibilmente) testati più a fondo e quindi meno inclini a produrre errori che sono praticamente irrilevanti nei giochi, ma quando si tratta di informatica scientifica, solo un singolo bit può rovinare i risultati. NVIDIA afferma che le schede Tesla sono QC-d per l'uso 24/7.

Un recente articolo (Haque e Pande, dati concreti su errori soft: una valutazione su larga scala dei tassi di errore del mondo reale nella GPGPU) suggerisce che Tesla è effettivamente meno soggetta a errori.

  1. La mia esperienza è che le schede GeForce tendono ad essere meno affidabili, specialmente a carico elevato costante. Un raffreddamento adeguato è molto importante, oltre a evitare le schede overcloccate, inclusi i modelli overclokced di fabbrica

fonte

C'è anche una discussione al riguardo nella sezione commenti in questo post

Esiste una chiara differenza di prestazioni nel calcolo GPU generico che utilizza CUDA. Mentre GeForces supporta l'aritmetica a doppia precisione, le loro prestazioni sembrano essere limitate artificialmente a prestazioni a precisione singola 1/8, mentre Quadros ottiene 1/2 delle prestazioni a precisione singola, come ci si aspetterebbe. Disclaimer: questa è conoscenza di seconda mano, non faccio CUDA da solo. In OpenGL, d'altra parte, sia Quadros che GeForces usano solo l'aritmetica a precisione singola. Questo si basa sull'osservazione della nostra CAVE, in cui i Quadros che eseguono i nodi di rendering mostrano esattamente gli stessi problemi di arrotondamento quando lavorano con dati di modello su larga scala come fanno le normali GeForces. Fortunatamente, esistono soluzioni alternative.

Un altro link utile che stvn66 ha trovato e riassumerà le cose:
https://www.pugetsystems.com/labs/articles/GTX-980-Ti-Linux-CUDA-performance-vs-Titan-X-and-GTX-980- 659 /


Grazie per la rapida risposta e tutti i diversi collegamenti. Ho trovato utile anche questo che documenta le prestazioni della GTX 980 Ti CUDA .
Steven C. Howell,

@ stvn66 vuoi che includa questo nella mia risposta in modo che possa aiutare gli altri spettatori? Inoltre, potresti decidere quale suite soddisfa meglio o hai bisogno di maggiori informazioni?
Divin3

Benvenuto a. Ho intenzione di fare calcoli scientifici simili a quello che ha fatto. Leggere ciò che hai condiviso sull'1 / ottava precisione singola contro 1/2 mi ha reso incline ad andare con i Quadros, ma dopo aver visto quanto fosse soddisfatto (e sapendo che abbiamo GPU HPC per una volta che collaudo e so che le cose funzionano bene sulla mia workstation) Mi sto sporgendo verso la scheda GTX.
Steven C. Howell,

@ stvn66 Non volevo aggiungere la mia opinione personale su questo, ma sono d'accordo con te.
Divin3
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.