PDA

Ver la versión completa : Review vgas en STALKER Cear sky



Uruk-hai
15/09/2008, 15:43
En guru3d han publicado una pequeña comparativa de rendimiento de varias vgas con este juego. Como se puede ver, con todo al maximo este clear sky es casi mas exigente que el crysis,
http://www.guru3d.com/article/stalker-clear-sky-graphics-card--vga-performance-roundup/4

Boogie el aceitoso
15/09/2008, 15:55
Pues esta pesimamente optimizado ya que esta basado en el anterior al cual podia jugar a 1920*1200 con una 8800GT y el rendimiento duplicaba, minimamente, los FPS que aparecen en el link.

Cynik
15/09/2008, 15:56
Otro juego que aprovecha una mierda pinchá en un palo el Crossfire de ATI..

en fin...resignación toca XD.

además es que manda huevos que tire mas la HD4870 que la HD4870 x2 ....


sl2!

ZaRMaN
15/09/2008, 16:01
Supongo que lo estaré interpretanto mal porque no puede ser, ¿cómo es posible que la 4870 rinda mejor que la 4870x2? o_O

fmvictor
15/09/2008, 16:03
Esperemos que ati arregle la chapuza de los desarrolladores y con los proximos drivers vaya bien.

Cynik
15/09/2008, 16:07
Esperemos que ati arregle la chapuza de los desarrolladores y con los proximos drivers vaya bien.


Yo creo que lo único que puede hacer es soltar Panoja a las empresas de software. El STALKER es "nvidia powered" ...

Esto es una lucha como la exclusividades de PS3 y xbox360 , ..quien suelta mas pasta ..gana.

sl2

Estoyencrysis
15/09/2008, 16:12
Buena demostración de la igualdad entre una 4850 y una 9800 GTX+

Nintendork
15/09/2008, 16:15
Felicidades, otro juego que hace parecer tu super gráfica de la muerte una vodoo. Sólo esperen, que Windows Seven covertirá tu quad core en un MMX.

Según eso la mejor gráfica para correrlo sin caer en el ridículo es la 4870. La X2 y GTX280 apenas aumentan como para justificarse. ¿No les dan ganas de pasarse a consolas?

Darnie
15/09/2008, 16:26
Pero como puede ser que una X2 de menos resultado que una 4870?? Es que lo mire por donde lo mire no me entra en la cabeza. Una X2 no son 2 GPUs 4870?
Estoy alucinando con la incompetencia, no sé de quien o de que, pero ahí está.

saludos!

zorranco
15/09/2008, 16:30
¿Que version? Porque al parecer los parches aumentan bastante el rendimiento.

txemote83
15/09/2008, 17:14
¿Como es posible que los sinverguenzas de Guru3d usen para esta grafica los drivers Forceware 175.19?

Esos drivers salieron antes de estar las GT200 a la venta e incluso no me acuerdo muy bien pero me parece que ni si quiera estaban especializados en ellas.http://foro.noticias3d.com/vbulletin/images/icons/icon8.gif


En lo referente al juego simplemente se me ocurre una palabra, "patetico".

1saludo.

Cynik
15/09/2008, 17:23
No te estrañe que sean estragias de mercado " pagadas " para que parezca que si no te montas un SLi o CF de lo mas béstia no vas a poder jugar..

todo sea por vender..

Jonh Doe
15/09/2008, 17:27
en mi PC va mucho mejor que el crysis... de hecho puedo jugarlo a 1440x900 en dx10 con todo al máximo y aniso poniendo los rayos de sol en medio y parche 1.504

si pongo crysis así juego a 15 frames

yo no lo veo tan mal optimizado después del parche lo que pasa es que estos efectos (ambient occlusion, luz volumétrica, rayos de sol...) joden el rendimiento una barbaridad. Y no olvideis que el deferred rendering también come lo suyo. A nivel poligonal es bastante bueno pero la iluminación del juego es simplemente brutal

y si no usad dx9 sin ssao y rayos y vereis como os va como un tiro. A 1280x1024 sin los efectos estos se puede jugar en una 4670 con todo alto




Buena demostración de la igualdad entre una 4850 y una 9800 GTX+

hasta que pones el modo dx10 y subes la resolución, que una va a 9 frames y otra a 14 :mrgreen:

Farinorco
15/09/2008, 17:37
En cuanto a la cuestión sobre cómo puede ser que una X2 rinda menos que una "single", hay muchas maneras. Y la mayoría (aunque no todas, quede claro) no son "culpa" de los juegos, si no del AFR.

Ejemplo: hago un juego optimizado para una GPU. En dicho juego uso paralelamente CPU y GPU para obtener rendimiento máximo, y para no desperdiciar recursos hago tanto uso de CPU como de GPU (tardan los dos lo mismo en hacer su trabajo). Si consigo esto, que para mi es óptimo, añadir una 2ª tarjeta con AFR representaría un incremento de rendimiento CERO. Es más el overhead del propio AFR podría hacer que rindiera MENOS.

Ejemplo 2: Diseño un juego en el que de alguna manera se impida adelantar (pre-calcular) la parte de CPU de los frames o forzándola de alguna manera a hacerse de forma secuencial, porque interese hacerlo por algún motivo. Con un diseño así, el AFR no puede funcionar (necesita adelantar el cálculo de CPU de un frame por cada GPU para poder funcionar).

Estos son ejemplos en los que para que el juego soportara bien el multi-GPU por AFR, habría que des-optimizarlos para usuarios de una única GPU... y yo por ejemplo, poniéndome en el papel de un desarrollador, simplemente por principios (y porque la mayoría de usuarios usa una sola tarjeta) me negaría a hacerlo. Si no molesta para el de mono-GPU, vale, pero si no...

Y luego por supuesto, puede haber problemas de drivers, bugs de juego no premeditados o de mil cosas que quizás sí puedan corregirse y termine yendo bien. No sería la primera ni la última vez que pasa.

En cuanto al rendimiento del juego, jeje... parece que se han clavado con los algoritmos de iluminación para hacer una iluminación hiper-realista... pero al menos parece que se puede configurar para si tu tarjeta no puede con semejante iluminación, relajarla un poco... ;) Tened en cuenta que ahí los dos aspectos que muestran son con la iluminación en Full Dynamic Lighting a todo trapo, y la segunda, el Enhaced Full Dynamic Lighting usando DX10. Si la gráfica no llega, pues no se cantea uno y ya está...

txemote83
15/09/2008, 17:42
En cuanto a la cuestión sobre cómo puede ser que una X2 rinda menos que una "single", hay muchas maneras.



La cuestion es facil, el analisis de Guru3d como ya comentaba mas arriba es una autentica mierda.

Aqui os dejo otro con drivers mas actuales y bastante mejor donde la HD4870x2 rinde una barbaridad y las GTX280/GTX260 rinden lo que deben.


http://www.computerbase.de/artikel/software/2008/test_stalker_clear_sky/3/

1saludo.

Uruk-hai
15/09/2008, 17:46
Pues si que va bien esa comparativa de computerbase, con la 4850 rindiendo como una 9600gt a 1280x1024 LOL
Que pasa que ya no sabe nadie hacer reviews decentes??

txemote83
15/09/2008, 17:49
Pues si que va bien esa comparativa de computerbase con la 4850 indiendo como una 9600gt a 1280x1024 LOL
Que pasa que ya no sabe nadie hacer reviews decentes??

Por lo menos es una review donde se molestan en actualizar drivers (el ejemplo lo tienes con la HD4870x2 que tira como Dios manda), en guru3d les han faltado testar las GT200 con los "Detonator" de la era de las GF4 Titanium.

1saludo.

Jonh Doe
15/09/2008, 17:56
home, pero no puede ser que en una 4850 se mueva mejor con mi equipo que con el equipo de reviews de computerbase.de

grifers
15/09/2008, 18:00
Txemote, la de Computerbase esta corriendo bajo "Directx9" XDD (creo), ya la había visto yo esta mañana...La del Guru ese esta bajo Directx10...Un saludo!!

txemote83
15/09/2008, 18:04
Txemote, la de Computerbase esta corriendo bajo "Directx9" XDD, ya la había visto yo esta mañana...La del Guru ese esta bajo Directx10...Un saludo!!


¿Y eso del DX9 de donde lo sacas? Seria un poco extraño que la GTX280 en DX9 a 1280x1024 diera 34FPS o que la GTX260 y la HD4870 se movieran en torno a los 28FPS, no crees?

Mmmm... no se ni papa de aleman pero por lo que se intulle, cuando hablan de los benchs , hablan de DX10.

1saludo.

Jonh Doe
15/09/2008, 18:10
ojo a la parte en dx9 donde la 9600gt da mínimos de 28 y la 4850 de 11 frames. A mí la 4850 no me ha bajado en dx10 de 20 frames con todo al máximo (ilum dx10, ssao alto , rayos altos y demás...)

txemote83
15/09/2008, 18:20
ojo a la parte en dx9 donde la 9600gt da mínimos de 28 y la 4850 de 11 frames. A mí la 4850 no me ha bajado en dx10 de 20 frames con todo al máximo (ilum dx10, ssao alto , rayos altos y demás...)


Tambien es posible que hayan tenido algun tipo de problema con la HD4850, o que simlemente la configuracion o parche que uses sea diferente al de la review.

1saludo.

Brego
15/09/2008, 19:40
La cuestion es facil, el analisis de Guru3d como ya comentaba mas arriba es una autentica mierda.

Aqui os dejo otro con drivers mas actuales y bastante mejor donde la HD4870x2 rinde una barbaridad y las GTX280/GTX260 rinden lo que deben.


http://www.computerbase.de/artikel/software/2008/test_stalker_clear_sky/3/

1saludo.

51FPS de média en 1200x1020 me parece de risa oye.

txemote83
15/09/2008, 21:27
51FPS de média en 1200x1020 me parece de risa oye.


Me referia a una barbaridad en relacion a las demas,sobretodo a la HD4870 donde en Guru3d ponia que rendia mas http://foro.noticias3d.com/vbulletin/images/icons/icon10.gif.

Raven_X
16/09/2008, 12:38
51FPS de média en 1200x1020 me parece de risa oye.

No se si has probado el juego o no pero si lo pruebas ya veras lo que te vas a reir. Me refiero dx10 enhaced light, max setings

fontycr7
16/09/2008, 15:37
hola gente! pues estaba a punto de comprarme en app la ati hd4850 con el glaciator de asus, pero viendo los reviews y eso he visto que rinde mas la 9800gtx+, entonces no se si cambiar de desicion y pillarme esa grafica que tambien trae el glaciator de asus en app y sale 10€ mas, ¿que me recomnedais?. un saludo y gracias