PDA

Ver la versión completa : ¿Cómo está el panorama con ATi y FurMark?



Vecix
04/03/2009, 19:29
Hace tiempo se descubrió que FurMark bajaba de rendimiento con las nuevas ATi para evitar que se sobrecalentaran, de hecho quien lo hacía eran los drivers que detectaban la aplicación y limitaban su rendimiento. Creo que esto ocurrió desde los Catalyst 8.8 o algo así, en pleno verano.

Recuerdo que comprobé eso y vi como ciertamente si renombraba el exe de furMark el rendimiento aumentaba y también su calor... Ahora realizando pruebas para un artículo de un sistema de refrigeración para las HD 4870 me he encontrado que cambie o no el nombre del exe el rendimiento es el mismo y las temperaturas también... ¿Han dejado de hacer este "truco" desde cierta versión de los Catalyst? o ¿alguien sabe qué ha ocurrido?.

Gracias.

Demka
04/03/2009, 19:56
Yo he probado la HD4850 con los Catalyst 9.2 y tanto las temperaturas como el rendimiento son iguales antes y después de renombrar el exe.

Vecix
04/03/2009, 20:35
Pues hay dos alternativas o ya no hacen "trampas" o detectan a FurMark de otra forma, como no tengo pruebas de referencia para comparar resultados...

alx_Spain
04/03/2009, 21:10
Pues hay dos alternativas o ya no hacen "trampas" o detectan a FurMark de otra forma, como no tengo pruebas de referencia para comparar resultados...
prueba a bajarte los 8.7 ferran a ver que hace el furmark
salu2

Vecix
04/03/2009, 21:13
Es una alternativa, pero hasta mañana que entre al despacho esto no puedo hacerlo y claro yo preguntaba para ir avanzando dudas y tal, ya que supuse que alguien habría comentado algo al respecto si había habido algún cambio...

fmvictor
05/03/2009, 21:58
Yo por lo que habia leido sobre el tema del furmark, era que en su diseño los ingenieros de ati sabian que la gpu en condiciones reales nunca iban a estar funcionando todos los streams procesos a la vez y de forma continuada (por el tema de ir en grupos de 4+1 (=5)).
El tdp que dan es para el caso de uso real (aunque sea intensivo), mientras que el furmark no tiene ninguna "utilidad" real mas que estresar la grafica por que si. Y claro en ese caso si que conseguian usar "casi todos los transistores" de la gpu a la vez, y claro, las temperaturas se les iban de madre. (Todo esto lo digo para que no parezca una estafa por parte de ati, sino que sus ingenieros desarrollaron una solucion para un problema real, y con las hipotesis de uso que manejaban).
Como por lo todo lo que he dicho el tema parece "estructural" imagino que seguira capado el programa y lo detectara de otra manera. Pero pura especulacion casi todo el post. xD