Quanto dell'utilizzo elettrico di una GPU viene probabilmente trasformato in un aumento della temperatura dell'aria?


20

Sto cercando di trovare una buona stima approssimativa di quanto del massimo consumo di potenza di una scheda grafica viene trasformato in aria calda.

Supponiamo che una scheda grafica sia classificata per l'utilizzo di X watt al massimo utilizzo. Quanto viene rilasciato come calore nell'aria tramite la configurazione del raffreddamento e quanto non lo è (se non dove va? A terra?)

Sì, so che ci sono molte variabili qui, sto solo cercando una stima da qualcuno che capisca meglio di me. Sto usando specificamente questa GPU come esempio (Radeon 6990 375 watt max)


22
Tutto, alla fine.
Ignacio Vazquez-Abrams,

2
+1 perché una volta ero in riunione per progettare un nuovo laboratorio informatico e strutture le persone hanno discusso contro i miei requisiti di raffreddamento perché "non tutta l'elettricità si trasforma in calore".
Ben Jackson,

Utilizzerai solo 375 watt quando il tuo programma lavora molto duramente la scheda ...
Cucchiaio

L'unica parte che sfugge davvero è la RFI, e anche una parte di ciò scalderà le cose localmente.
Chris Stratton,

Risposte:


24

I miei numeri potrebbero non essere esattamente precisi, ma direi che

Il 99,99% dell'energia che entra nella GPU e persino la CPU viene convertita in calore.

L'altro 0,01% è il segnale effettivo in uscita dalla GPU sul display.

Il compito della GPU è raccogliere molti dati ed elaborarli, richiedendo molti calcoli. Questi calcoli consumano energia, producono calore e infine un risultato.


Ora è importante notare che, sebbene ciò affermi che si tratta di una scheda da 375 W, non assorbirà 375 W per tutto il tempo in cui è in funzione. Proprio come la tua CPU, la tua GPU farà tutto il necessario e potrebbe scendere <100 W.

Basta sfogliare il desktop di Windows, la scheda non fa nulla e disegna quasi nulla; ma avvia Crysis e il tuo mulino di frequenza si alza e la scheda inizierà a disegnare il suo punteggio massimo.


7
E a sua volta, quello 0,01% di energia nel segnale viene consumato dal display - viene anche trasformato in calore, proprio in un posto diverso.
Li-aung Yip,

Una parte di essa si trasforma in luce, però!
rjp,

10
@RJP L'energia che arriva al pannello? No non lo fa. Si dissiperà nelle resistenze di terminazione nel chip del ricevitore HDMI o DVI. Da lì, il segnale viene decodificato, memorizzato in un buffer e infine inviato ai driver del pannello dove viene espulso sulla matrice del pannello. Tuttavia, la potenza originale della scheda grafica viene sostanzialmente persa nei resistori di terminazione e quel poco che rimane non lascia i circuiti del ricevitore TMDS.
alex.forencich,

4
Sì, in qualche modo sono riuscito a dimenticare che il display non è alimentato dalla scheda grafica. Sarebbe un design davvero terribile.
rjp,

12
Anche la / luce / alla fine si trasforma in calore, quando colpisce un oggetto in casa e lo riscalda un po '. L'universo sta marciando verso la massima entropia, che di solito implica che tutte le forme di energia vengano dissipate come calore ... alla fine .
Li-aung Yip,

11

Fondamentalmente tutto va al calore. All'interno del chip ci sono miliardi di minuscoli transistor, ognuno dei quali agisce come un interruttore davvero minuscolo. Questi transistor sono collegati per formare varie funzioni logiche. A causa della geometria dei transistor, tutti hanno piccole capacità parisitiche. Ogni volta che la logica cambia stato, che è in media la stessa frequenza del clock, queste capacità devono essere caricate e scaricate. La corrente per farlo deve passare attraverso i transistor, che hanno una certa resistenza. Resistenza e flusso di corrente significano caduta di tensione, e volt volt volte amp è potenza. Ogni volta che l'orologio cicla, si consuma energia caricando e scaricando questi condensatori. Questo accade in ogni circuito integrato: GPU, CPU, RAM, controller del disco rigido, cellulare, ecc. Ecco perché quando si overclocca la CPU o la GPU, utilizza più energia e genera più calore. Questo è anche il motivo per cui il tuo laptop varierà la sua velocità di clock al volo per risparmiare energia invece di lasciare la CPU inattiva.

In termini di quanto non va a scaldare, non è molto. Un watt o due per il fan. Può essere. Forse cento milliwatt per i LED, se la carta ha un mazzo. Un paio di milliwat vengono spostati sul bus PCI Express, per essere assorbiti dalle terminazioni sull'altra estremità del bus. Un altro paio di milliwat vengono inviati tramite la porta DVI o HDMI per essere assorbiti dalle terminazioni all'altra estremità. Tutto sommato, con un TDP di 375 watt, meno dello 0,1 percento della potenza proveniente dall'alimentatore non viene dissipato direttamente come calore.


E il resto viene dissipato indirettamente come calore, poiché i fotoni e i fononi vengono assorbiti da altri materiali.
Ignacio Vazquez-Abrams,

1
Bene, probabilmente potresti argomentare su molta elettricità che consumiamo in generale. Lampadine, fornelli, microonde, scaldabagno, frigorifero, stereo, tv, ecc. La lavatrice e l'asciugatrice potrebbero essere una storia leggermente diversa.
alex.forencich,

1

Tutto viene trasformato in aria calda, ad eccezione della piccola quantità di luce generata da qualsiasi LED. Non c'è altro posto dove andare l'energia.


1
@BumSkeeter: tutta l'energia elettrica consumata da un circuito integrato viene rilasciata come calore.
Ignacio Vazquez-Abrams,

1
Tutta l'energia elettrica fornita alla GPU viene "consumata". La domanda è: quale forma di energia diventa. Praticamente tutto si trasforma in calore. Naturalmente, una GPU valutata a 375 W può consumare in genere molto meno di questo.
Joe Hass,

1
Nel contesto che sto cercando di utilizzare questo valore per la GPU si sta esaurendo (mining bitcoin). Sto cercando di capire (per divertimento) la fattibilità del riscaldamento di una casa con schede grafiche.
KDecker,

2
@BumSkeeter, usare un circuito per riscaldare una stanza è efficiente quanto una stufa elettrica. Detto questo, se il tuo scopo era quello di estrarre invece di riscaldare una stanza, la GPU non è più praticabile. Devi usare FPGA o ASIC per fare soldi con la bolletta della luce. O meglio ancora, non innamorarti affatto della truffa.
Travisbartley,

1
@ trav1s Ne sono ben consapevole. Inoltre non è una truffa.
KDecker,
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.