¿Qué parte del uso eléctrico de una GPU probablemente se convierta en un aumento de la temperatura del aire?

20

Estoy tratando de encontrar una buena aproximación aproximada de cuánto del consumo máximo de vatios de una tarjeta gráfica se convierte en aire caliente.

Supongamos que una tarjeta gráfica está clasificada para usar X vatios en uso máximo. ¿Cuánto de eso se libera como calor en el aire a través de la configuración de enfriamiento, y cuánto no (en caso contrario, a tierra?)

Sí, sé que hay muchas variables aquí, solo busco una estimación de alguien que entendería mejor que yo. Estoy utilizando específicamente esta GPU como ejemplo (Radeon 6990 375 watts max)

    
pregunta KDecker

3 respuestas

24

Es posible que mis números no sean exactamente exactos, pero diría que sobre

99.99% de la energía que ingresa a la GPU, e incluso la CPU se convierte en calor.

El otro .01% , es la señal real que sale de la GPU a su pantalla.

El trabajo de la GPU es captar una gran cantidad de datos y procesarlos, lo que requiere una gran cantidad de cálculos. Estos cálculos consumen energía, producen calor y, finalmente, un resultado.

Ahora es importante tener en cuenta que si bien esto dice que es una tarjeta de 375W, no se consumirá 375W todo el tiempo que esté en funcionamiento. Al igual que su CPU, su GPU solo hará tanto como lo necesite, y puede reducir < 100W.

Simplemente navega por el escritorio de Windows, la tarjeta no hace casi nada y casi no dibuja; pero lance Crysis, y su molino de frecuencia se agotará al máximo y la tarjeta comenzará a obtener su calificación máxima.

    
respondido por el Matt Clark
11

Básicamente todo se va a calentar. Dentro del chip hay miles de millones de pequeños transistores, cada uno actúa como un interruptor realmente pequeño. Estos transistores están conectados para formar varias funciones lógicas. Debido a la geometría de los transistores, todos tienen pequeñas capacitancias parisíticas. Cada vez que la lógica cambia de estado, que en promedio es la misma velocidad que el reloj, estas capacidades deben cargarse y descargarse. La corriente para hacer esto tiene que pasar a través de los transistores, que tienen cierta resistencia. La resistencia y el flujo de corriente significan una caída de voltaje, y los voltios en amperios son la potencia. Cada vez que el reloj se enciende, la energía se consume cargando y descargando estos condensadores. Esto sucede en todos los circuitos integrados: su GPU, su CPU, su RAM, su controlador de disco duro, su teléfono celular, etc. Es por eso que cuando hace overclocking su CPU o GPU, consume más energía y genera más calor. Esta es la razón por la que su computadora portátil variará su velocidad de reloj sobre la marcha para ahorrar energía, en lugar de simplemente dejar que la CPU se quede inactiva.

En términos de cuánto no se calienta, no es mucho. Un vatio o dos para el ventilador. Tal vez. Quizás cien milivatios para los LED, si la tarjeta tiene un montón. Un par de milivatios se mueven sobre el bus PCI Express, para ser absorbidos en las terminaciones en el otro extremo del bus. Un par de milliwats más se envían a través del puerto DVI o HDMI para ser absorbidos en las terminaciones en el otro extremo. En general, con un TDP de 375 vatios, menos del 0.1 por ciento de la energía que proviene de la PSU no se disipa directamente como calor.

    
respondido por el alex.forencich
1

Todo se convierte en aire caliente, a excepción de la pequeña cantidad de luz generada por cualquier LED. No hay otro lugar para la energía para ir.

    
respondido por el Joe Hass

Lea otras preguntas en las etiquetas