Estaba leyendo este pdf con respecto a la computación del software a cielo abierto de MIT y en la p.8 a través de una oscura manipulación matemática, básicamente llegan a la conclusión de que cuanto más frío haga sus fichas, menos calor se disipará y mayor será la densidad de integración máxima puede conseguir Esto me parece lógicamente intuitivo, pero su última declaración despertó mi interés:
A temperaturas más bajas, la disipación de potencia en el chip disminuye, pero la potencia general la disipación en realidad aumenta debido al requisito de refrigeración.
Para su cálculo real, utilizaron la temperatura ambiente, por lo que supongo que significan que si intentamos enfriar el chip (a cualquier temperatura inferior a la temperatura ambiente), sería obsoleto porque el enfriamiento en sí aumentaría la potencia general disipación.
Pero no entiendo este argumento. Se podría decir lo mismo de los refrigeradores. ¿Qué importa que aumente la disipación general de potencia? Si enfría los chips, puede aumentar la densidad de integración, lo que conduciría a computadoras más fuertes. ¿Qué importa que aumente el calor en otras partes del sistema? Podría estar equivocado acerca de esto, pero así es como funcionan los refrigeradores, ¿no? Solo está en las leyes de la termodinámica ...
Entonces, una respuesta a esta pregunta aclararía la afirmación anterior (o diría que es realmente estúpido). ¿Por qué no deberíamos enfriar los chips a bajas temperaturas para aumentar la densidad de integración máxima?