Bueno, es el sensor el que tiene que mejorar su polling-rate, para registrar con más precisión un dato determinado, el software por si solo no tiene la capacidad de leer temperatura. Con un programa puedes elegir diferentes niveles de polling-rate, pero claro, siempre que el hardware tenga esa capacidad. Dudo mucho que los sensores actuales que usan AMD y Nvidia, tengan la sensibilidad necesaria para registrar todos los picos de temperatura que se producen en sus gráficas.
Cuando aumentas el polling-rate del hardware, bajas la latencia del envio de datos y es lo que se necesita aquí. Tema de rendimiento no debería ser, porque los ratones mismamente usan polling-rates altísimos y no supone una gran carga para la CPU.
Y todo esto me lleva a preguntarme por qué Nvidia ha eliminado el sensor de Hotspot en sus RTX 50, ¿estará relacionado con esto?




Citar
