Me temía si publicar esto aquí o Math.SE, así que siéntete libre de moverlo según corresponda.
Hace poco conseguí un monitor de uso de energía para calcular cuánto cuesta mi PC ejecutar una tarea determinada durante una hora, pero antes de hacerlo, quiero saber cómo hacer el cálculo "en papel" y use el monitor de uso de energía para determinar qué tan preciso es.
Dicho esto, esta pregunta tiene esencialmente dos partes.
En primer lugar, la fuente de alimentación de mi PC tiene una salida máxima de 550W, pero me han informado que es probable que use mucho menos que eso incluso cuando se ejecuta. Con ese fin, ¿es el uso de la CPU en el Administrador de tareas de Windows una métrica lo suficientemente confiable para usar para este propósito?
En otras palabras, si mi CPU muestra constantemente un 25% (o 100%) de uso de forma consistente para realizar una tarea específica, ¿puedo suponer que un 25% (o 100%) de 550W es ¿Un buen punto de partida para calcular el costo?
En segundo lugar, ¿cuál es el cálculo para determinar el costo de ejecutar una PC durante una hora?
Tengo un punto de partida en el que sé que la fórmula:
Uso de energía (en vatios) * horas de uso / 1000 * costo por kWh
... se puede usar para determinar el costo de ejecutar una PC por la cantidad dada de horas.
Sabiendo eso, es averiguar el costo por una sola hora, tan simple como omitir las horas de uso de la fórmula, de este modo:
Consumo de energía (en vatios) / 1000 * costo por kWh
... ¿o es más complicado que eso?
Estas pueden parecer preguntas estúpidas, pero mis habilidades matemáticas en particular son realmente deficientes, y me he estado frustrando durante los últimos días tratando de resolverlo, así que agradecería la ayuda. Gracias.