Disipación de potencia en el chip frente a sobre disipación de potencia

1

Estaba leyendo este pdf con respecto a la computación del software a cielo abierto de MIT y en la p.8 a través de una oscura manipulación matemática, básicamente llegan a la conclusión de que cuanto más frío haga sus fichas, menos calor se disipará y mayor será la densidad de integración máxima puede conseguir Esto me parece lógicamente intuitivo, pero su última declaración despertó mi interés:

  

A temperaturas más bajas, la disipación de potencia en el chip disminuye, pero la potencia general   la disipación en realidad aumenta debido al requisito de refrigeración.

Para su cálculo real, utilizaron la temperatura ambiente, por lo que supongo que significan que si intentamos enfriar el chip (a cualquier temperatura inferior a la temperatura ambiente), sería obsoleto porque el enfriamiento en sí aumentaría la potencia general disipación.

Pero no entiendo este argumento. Se podría decir lo mismo de los refrigeradores. ¿Qué importa que aumente la disipación general de potencia? Si enfría los chips, puede aumentar la densidad de integración, lo que conduciría a computadoras más fuertes. ¿Qué importa que aumente el calor en otras partes del sistema? Podría estar equivocado acerca de esto, pero así es como funcionan los refrigeradores, ¿no? Solo está en las leyes de la termodinámica ...

Entonces, una respuesta a esta pregunta aclararía la afirmación anterior (o diría que es realmente estúpido). ¿Por qué no deberíamos enfriar los chips a bajas temperaturas para aumentar la densidad de integración máxima?

    
pregunta Phaptitude

2 respuestas

1

El enfriamiento es una parte vital de la mayoría del diseño de sistemas informáticos.

El aire a temperatura ambiente es el refrigerante habitual, porque está disponible en todas partes * y puede moverlo fácilmente con un ventilador pequeño.

Algunos entusiastas y grandes sistemas son refrigerados por líquido. Todos los sistemas de plomería y bombeo no pueden ser miniaturizados, y agregan costos, por lo que esto generalmente se hace solo en sistemas de tamaño "torre": enlace

El extremo es el enfriamiento con nitrógeno líquido: enlace , que es aún más caro y poco práctico. Casi siempre es más fácil seguir con el enfriamiento convencional y comprar más computadoras para lograr el mismo rendimiento computacional.

(También hay problemas con la temporización de espera cuando se ejecuta con un frío extremo: las señales pueden llegar demasiado pronto si el chip no ha sido diseñado para funcionar a esa temperatura. Si baja la temperatura de diseño mínima a -200 que puede obligarle a bajar también la temperatura máxima , lo que le deja un producto que requiere un suministro de aire líquido y, por lo tanto, un mercado muy limitado)

  • Excepto en el espacio, donde finalmente todo su enfriamiento debe ser radiativo
respondido por el pjc50
0

Realmente depende de los objetivos de diseño. Si un objetivo es maximizar las instrucciones por unidad de energía, entonces la refrigeración puede no valer la pena. Si un objetivo es maximizar las instrucciones por unidad de tiempo sin tener en cuenta el costo de la energía, entonces la refrigeración puede ser una opción valiosa.     

respondido por el markt

Lea otras preguntas en las etiquetas