PDA

Ver la versión completa : La importancia del min FPS que no se tiene tan en cuenta (salvo por algunos)



V for Vendetta
03/03/2009, 17:07
Buenas, antes de nada.


Queria abrir este post porque me he fijado que ultimamente se lleva la moda de "un I7 no rinde más en juegos que un DUAL", "mi QUAD se come a tu dual", "mi DUAL se come a tu quad y ocea más", etc ... y en muy pocos usuarios he visto darle importancia a la consistencia de FPS y no tener tan en cuenta que haya puntos donde llegues a 200 fps con el equipo que sea.

Por qué comento esto? pues mira, os voy a poner un ejemplo. Yo personalmente he jugado al TF2 muchas horas en diversos equipos (3 personales mios) y de amigos hasta a 4ghz y como todos sabrán en los momentos de mitad de mapa (que suele ser los espacios más abiertos) y donde más tiros hay (porque más gente hay en ese momento pq todo el mundo está vivo al empezar la batalla) he notado una diferencia brutal de tener el QUAD a jugarlo con duals de 3'6 o 4ghz.

Con esto no me quiero basar unicamente en el TF2 o en QUADs, etc ... pero ultimamente me vengo dando cuenta de que se mide mucho el rendimiento de los juegos porque haya puntos donde se llega a 350 fps y otros a tan solo 300 y tal cuando en puntos con poca carga gráfica desde luego ... cualquiera puede tener un rendimiento soberbio por muchos 180 fps que sean frente a otro que llegue a 350 fps.

Pienso que esto es un error y que deberia darse más importancia a la consistencia de los mismos que a sus maximos puntos porque lo unico que se consigue asi es afirmarse en un error basándose en algo que no tiene consistencia (los sitios con poca carga o momentos oportunos).

Es bastante más importante el min de fps que cualquier otro tipo de consistencia en una prueba de framerate. Por qué ni el average sirve? pues porque si tienes topes de 400 fps con una gráfica y mins de 20 y con otra mins de 40 y topes de 300 te seguirá dando más averege la primera cuando es mucho más consistente la segunda opción.

oskargasteiz
03/03/2009, 17:13
Me parece que has enfocado correctamente el tema. Yo me compre un e8500, y estuve dudando por el q6600. Pero como el e8500 era mas moderno me cogi ese.
Sinceramente me parece que has dado en el clavo con este tema.
De que me vale 250 fps si luego los minimos haga que me vaya a tirones?
Seguire muy de cerca este post y sus comentarios.
Yo antes me rallaba mas con si esto rinde mas que lo otro, ahora lo que hago es DISFRUTAR de los juegos
Saludos.

Estoyencrysis
03/03/2009, 17:18
Totalmente de acuerdo con el tema, de hecho es hay donde una GTX260 supera a una ATI4870 y esto es muy claro al ver por ejemplo los FPS mínimos donde se aprecia la gran diferencia de estabilidad de una gráfica a otra. Respecto al micro no es importante a menos que comparemos un mononucleo antiguo con un doble o cuadruple actual, o bien juguemos a 800x600 claro.

alber_recas
03/03/2009, 17:20
Lo importante es que a lo que jueges no te baje de 30fps porque a partir de ahi para abajo es cuando se empiezan a notar los tironcillos y esas cosas aunque claro hay gente que dice que a 60fps lo ven mas fluido.

Otra cosa es para que quieres 300fps por segundo si un monitor tft normalmente no puede con mas de 75 o 60.

concabeza
03/03/2009, 17:25
Estoy de acuerdo pero¿de vedad hay gente que para decidirse entre una gráfica y otra en los review solo mira los máximos?me parece algo un poco de ,,,,,,,,,cuando lo más lógico es mirar la media

somasan
03/03/2009, 17:30
Totalmente de acuerdo con el tema, de hecho es hay donde una GTX260 supera a una ATI4870 y esto es muy claro al ver por ejemplo los FPS mínimos donde se aprecia la gran diferencia de estabilidad de una gráfica a otra. Respecto al micro no es importante a menos que comparemos un mononucleo antiguo con un doble o cuadruple actual, o bien juguemos a 800x600 claro.

:ugly: cada loco con su tema

Stevenson
03/03/2009, 17:32
Pues gente totlamente deacuerdo, pero una cosa que me esta pasando ahora es cuando juego y va a mas de 200fps, ya que tengo una 4850 y juego a 1024 co un monitor de 17, y me baja a uno 40 lo noto un monton. hay algo para quitar esa sensacion o algo?? Sobre todo en el left 4 dead cuando viene la horda

Unr3al^
03/03/2009, 17:42
aunque claro hay gente que dice que a 60fps lo ven mas fluido.


tú no notas diferencia entre 30 y 60fps? que suerte...

Nintendork
03/03/2009, 17:58
Pues gente totlamente deacuerdo, pero una cosa que me esta pasando ahora es cuando juego y va a mas de 200fps, ya que tengo una 4850 y juego a 1024 co un monitor de 17, y me baja a uno 40 lo noto un monton. hay algo para quitar esa sensacion o algo?? Sobre todo en el left 4 dead cuando viene la horda

Usa el vertical sync. ¿Qué sentido tiene jugar a más fps de los que tu monitor puede soportar? Encima ver ese horrible tearing y 200 es una cantidad de cuadros por segundo que el ojo no puede detectar.

Si es un CRT debe ir max a 85fps debido a los 85hz del monitor.

V for Vendetta
03/03/2009, 17:59
Estoy de acuerdo pero¿de vedad hay gente que para decidirse entre una gráfica y otra en los review solo mira los máximos?me parece algo un poco de ,,,,,,,,,cuando lo más lógico es mirar la media


Gracias por tu comentario porque me he dado cuenta que en el primer post habia cometido un error. El average tampoco es la solución y lo he resaltado en negrita en el primer post el por qué.

elsargento
03/03/2009, 18:10
buff en el css con 30 fps vas a churros,es practicamente imposible apuntar,puedes tener practica si pero uno con fps normales te empieza a saltar y a dar vueltas y te zarandea por todo y no le vas a dar...

Tote
03/03/2009, 18:20
Usa el vertical sync. ¿Qué sentido tiene jugar a más fps de los que tu monitor puede soportar? Encima ver ese horrible tearing y 200 es una cantidad de cuadros por segundo que el ojo no puede detectar.

Si es un CRT debe ir max a 85fps debido a los 85hz del monitor.


creo q te equivocas entre los FPS i los mhz de refresco , sino pon el fraps i veras q supera tu tasa de refresco de tu monitor, asi la gente q tiene TFT solo le llega a 60FPS segun tu


saludos

alber_recas
03/03/2009, 18:25
tú no notas diferencia entre 30 y 60fps? que suerte...
uff pues yo no lo se porque con el PC que tengo no juego a nada desde hace 1 año casi jaja mañana me llega el nuevo asi que ya podre decirte si lo noto o no jajaja
ahora que leo bien mi post esta mal propuesto porque queria hacer referencia entre 60 a mas, porque a mas de 60 o algunos tft's a 75 los monitores hacen un efecto como dice nintendork que se descuadra la imagen en algunos casos y para mi eso resulta muy molesto.

MaLDo
03/03/2009, 18:28
creo q te equivocas entre los FPS i los mhz de refresco , sino pon el fraps i veras q supera tu tasa de refresco de tu monitor, asi la gente q tiene TFT solo le llega a 60FPS segun tu


saludos

Pues por supuesto. Si tu monitor refresca 60 hz no puedes ver más fotogramas completos por más que pongas una vela a la virgen.

Yo cuando miro reviews de hardware solo miro los mínimos. En realidad, es lo único que me importa. No juego a ningún juego que baje de 60 fps, me ha costado conseguir el equipo que mantenga esa tasa en crysis, que es al único que le perdonaba bajar hasta los 40 por la buena sensación de suavidad que consigue en esas cifras.

Mirar máximos es engañoso, pero es que mirar medias también lo es si el bench se hizo con el vsync off.

Mi opinión; si no hay opción a actualizar el equipo, hay muchísimos juegos para mantenerse entretenido con los que te van 60 fps constantes. Y siempre jugar con vsync on a excepción de los cheaters en multis.

alber_recas
03/03/2009, 18:29
creo q te equivocas entre los FPS i los mhz de refresco , sino pon el fraps i veras q supera tu tasa de refresco de tu monitor, asi la gente q tiene TFT solo le llega a 60FPS segun tu


saludos

Creo que el equivocado eres tu, sin querer entrar en polemica.
Un monitor que tiene 60Hz lo ideal es mandarle una señal de 60fps porque si le mandas mas te producira el efecto tearing y no es no haya mas de 60 fps sino que el fraps te indica los que es capaz de sacar tu PC si son 100 como 200 y lo que el quiere decir es que tu monitor no podra reproducir mas de esos 60fps

zorranco
03/03/2009, 18:54
El vSync es muy bonito sobre el papel, pero en la practica es infumable.
Introduce input lag y el rendimiento muchas veces se ve afectado. Eso si, quita el tearing, pero ya es una cuestión personal (a mi no me molesta).

wilhelm
03/03/2009, 19:50
Creo que el equivocado eres tu, sin querer entrar en polemica.
Un monitor que tiene 60Hz lo ideal es mandarle una señal de 60fps porque si le mandas mas te producira el efecto tearing y no es no haya mas de 60 fps sino que el fraps te indica los que es capaz de sacar tu PC si son 100 como 200 y lo que el quiere decir es que tu monitor no podra reproducir mas de esos 60fps

Una cosa es lo que tú veas en pantalla, que no pasará de la capacidad de refresco del monitor, y otra muy diferente es a qué velocidad corre el juego y tú interactúas con él.

El vsync off tiene muchas ventajas en cuanto a tu velocidad de respuesta, porque no se trata de lo que tú veas sino de la velocidad a la que está corriendo el juego en sí (no capado por el vsync) y por tanto a la velocidad con que respondes en online.

Lo anterior es un hecho. Por eso en shooters es tan recomendable desactivar el vsync. Ganas velocidad de respuesta y eliminas lag. Date cuenta de que el vsync elimina frames del juego para igualar la tasa a la de refresco del monitor. En algunos casos eso es muy perjudicial para la experiencia online, como muchos sabemos.

Saludos

suferbicho
03/03/2009, 19:58
Esto de los minimos es mas importante de lo que suele parecer a la mayoria de la peña. En este sentido creo que es mejor opción una gtx280/285 que una gtx295, y esta será la causa de su pronta caida en desgracia. (Es solo una apreciación personal, no sin una pizca de envidia, jejeje)

V for Vendetta
03/03/2009, 20:01
Esto de los minimos es mas importante de lo que suele parecer a la mayoria de la peña. En este sentido creo que es mejor opción una gtx280/285 que una gtx295, y esta será la causa de su pronta caida en desgracia. (Es solo una apreciación personal, no sin una pizca de envidia, jejeje)


Con un poco de nvidia dirás, no? :pacman::pacman::pacman:

suferbicho
03/03/2009, 20:02
si si, pero una pizquilla nada mas:)

by_ACD
03/03/2009, 20:04
no es que sean importantes, es que es lo mas importante.
tendras que bajar detalles, resolucion o filtros en funcion de los minimos que tengas, de poco sirve tener una media de 90fps y maximos de 240fps si cada 3x4 tienes una caida a 20fps.
luego tambien hay juegos donde 20fps pueden ser aceptables.

Aguafiestas
03/03/2009, 20:07
http://img174.imageshack.us/img174/9433/sinttulo3yb7.gif

nada nuevo bajo el sol... no hemos descubierto América...

suferbicho
03/03/2009, 20:14
Aguafiestas te has cargado el hilo....sobre todo por ese letrero tan porculero, jajaja

DCO
03/03/2009, 20:14
Lo mas importante es el average, que como indica es la media.
Y luego el bajo, que aunque no deja de ser una valor aislado te da el minimo.
Al maximo no le veo ningun interes.

V for Vendetta
03/03/2009, 20:40
Lo mas importante es el average, que como indica es la media.
Y luego el bajo, que aunque no deja de ser una valor aislado te da el minimo.
Al maximo no le veo ningun interes.


El average puede ser completamente manipulado. Como ya he dicho en el post principal puedes tener 300 fps máx y 20 de min y por lo tanto darte mayor average que una solución que te diera 40 de min y 100 de max.

El average no aporta nada.

macumba
03/03/2009, 20:49
El average puede ser completamente manipulado. Como ya he dicho en el post principal puedes tener 300 fps máx y 20 de min y por lo tanto darte mayor average que una solución que te diera 40 de min y 100 de max.

El average no aporta nada.

+1, lo mas importante son los minimos, unos minimos robustos cerca del average aportan fluidez y una buena sensacion en juegos, yo lo que mas note del paso de mi 9800GX2 a mi GTX280 fue los tan famosos minimos robustos, el GT200 tiene los minimos mas elevados, y en los juegos que mas exige maquina como FC2, Crysis y Warhead los minimos estan de la mano del average y eso se agradece.

Un saludo.

MaLDo
03/03/2009, 20:50
El average puede ser completamente manipulado. Como ya he dicho en el post principal puedes tener 300 fps máx y 20 de min y por lo tanto darte mayor average que una solución que te diera 40 de min y 100 de max.

El average no aporta nada.

La media solamente es válida si el test se hizo con el vsync activado (y el TB también, claro).

vivallo
03/03/2009, 20:51
Yo apuntaria otra factor a tener en cuenta aparte del tema de los frames minimos en lo que parece que estamos todos de acuerdo.
Y es la caida de frames, es decir, si estas tan ricamente jugando a 100/150 fps y de golpe caen a 40/50 tambien es algo que resulta muy molesto. Por desgracia esto es algo que no se puede apreciar en ninguna de las pruebas de rendimiento que se leen .

zorranco
03/03/2009, 20:56
¿Pero como que los average no aportan nada??

¿Pero vosotros sabeis lo que es un timedemo? Pues facil, va cogiendo valores a intervalos regulares y luego da una media. O sea que si va a 300 frames el 99% del tiempo y sufre un bajon a 30 en un 1%, tienes una media de 290 frames y ese valor tiene todo el significado del mundo ¿o es que el juego está mal optimizado porque en un momento dado tenga un bajón?

Ademas, ahora es la moda de los mínimos, que ni es moda ni es nada, porque de toda la vida a + potencia de VGA mejores medias y mejores minimos, ¿o es que hay alguna VGA que sea globalmente superior a otra y de peores minimos? ¿Desde cuando? ¿Alguien me puede dar alguna prueba? Y no me vale comparar singles con duals que las duals ya sabemos que tienen MSs y parones injustificados en ciertos momentos.

En un juego con una media de 60 pero un bajon a 10 ese el minimo no tiene ningun significado.

DCO
03/03/2009, 20:58
El average puede ser completamente manipulado. Como ya he dicho en el post principal puedes tener 300 fps máx y 20 de min y por lo tanto darte mayor average que una solución que te diera 40 de min y 100 de max.

El average no aporta nada.
Aporta el valor promedio. Casi nada.
Lo que tu dices no sabes, porque igual da 300 y 20 en una ocasion y luego esta constantemente dando mas frames, ese valor si que puede estar manipulado o fuera de lugar. Es el problema de coger valores aislados, por algo se usan las medias.

V for Vendetta
03/03/2009, 21:01
¿Pero como que los average no aportan nada??

¿Pero vosotros sabeis lo que es un timedemo? Pues facil, va cogiendo valores a intervalos regulares y luego da una media. O sea que si va a 300 frames el 99% del tiempo y sufre un bajon a 30 en un 1%, tienes una media de 290 frames y ese valor tiene todo el significado del mundo ¿o es que el juego está mal optimizado porque en un momento dado tenga un bajón?

Ademas, ahora es la moda de los mínimos, que ni es moda ni es nada, porque de toda la vida a + potencia de VGA mejores medias y mejores minimos, ¿o es que hay alguna VGA que sea globalmente superior a otra y de peores minimos? ¿Desde cuando? ¿Alguien me puede dar alguna prueba? Y no me vale comparar singles con duals que las duals ya sabemos que tienen MSs y parones injustificados en ciertos momentos.

En un juego con una media de 60 pero un bajon a 10 ese el minimo no tiene ningun significado.


Eso es basándote en tu ejemplo y claro, si todos nos ponemos el ejemplo que queramos pues esa es nuestra realidad. Está claro que si es un 1% del juego pues te da igual pero mucho me temo que no es la realidad presente en la mayoria de los casos.

Y aqui no estamos hablando de generaciones venideras o de las presentes pensando en las pasadas sino de que te compensa más un sistema que de minimos muchos más costantes que otro que tenga mucho max fps y tenga unos sube-baja de morirse.

zorranco
03/03/2009, 21:07
+1, lo mas importante son los minimos, unos minimos robustos cerca del average aportan fluidez y una buena sensacion en juegos, yo lo que mas note del paso de mi 9800GX2 a mi GTX280 fue los tan famosos minimos robustos, el GT200 tiene los minimos mas elevados, y en los juegos que mas exige maquina como FC2, Crysis y Warhead los minimos estan de la mano del average y eso se agradece.

Un saludo.

Pero es que tener un mínimo cerca de un average no indica nada!

Minimo = average = 20 FPS -> juego mal optimizado.

Minimo = average = 60 FPS -> juego bien optimizado.

Entonces alguien me puede decir que valor tiene el mínimo si, además, es un valor unitario, ¿frente al averge que es una media?
Además, si tan importante son los mínimos segun vosotros, si son puntuales son puntuales, y si son habituales ya se verán reflejados en la media!!!

Yo es que creo que quereis reinventar la rueda.

LoRk
03/03/2009, 21:11
el tf2 solo usa 1 core a menos que actives el comando mat_qeque_mode 2 (el nombre es muy parecido pero no me lo se de memoria xD) y es inestable con el comando puesto, en poco tiempo valve ya dara soporte a varios cores como lo tiene el l4d, y de 1 core a 4 el tf2 pasa de 80-90fps a 200min xDD eso si super inestables con congelamientos y salidas al escritorio, no se como sera cuando lo consigan hacer estable

y la verdad es un poco jodienda pero con un equipo "normalito" como el mio (el de la firma) en 1280x1024 aax8 afx16 con comandos para mejorar los graficos en partidos (que es donde me importa sacar fps buenos) no me baja de 59fps y nunca sube de 60 que es como lo tengo bloqueado con el comando fps max y en publicos, pues los tipicos de 28 personas super caoticos pues a ojo me van regular, pero vamos, en este juego 40fps me parecen horribles xD

como dato, un quad a 3,2ghz saca algo mas de rendimiento que un dual a 3,2 y con un solo core, (musica de expediente x sonando de fondo)

xD

sobre el hilo en si, la verdad es que jugando al crysis a 25-30 fps me parece que tiraba mejor que el ep2 que lo intente jugar con filtros con mi vieja 8600gt a 30-45

DCO
03/03/2009, 21:19
Yo es que creo que quereis reinventar la rueda.
Ya te digo.

V for Vendetta
03/03/2009, 21:23
Pero es que tener un mínimo cerca de un average no indica nada!

Minimo = average = 20 FPS -> juego mal optimizado.

Minimo = average = 60 FPS -> juego bien optimizado.

Entonces alguien me puede decir que valor tiene el mínimo si, además, es un valor unitario, ¿frente al averge que es una media?
Además, si tan importante son los mínimos segun vosotros, si son puntuales son puntuales, y si son habituales ya se verán reflejados en la media!!!

Yo es que creo que quereis reinventar la rueda.



Eso de juegos bien optimizados hay mucho pero mucho que hablar. Puede haber un juego que pida cojón de pato y medio y estar optimizadisimo e ir como el culo con el hardware actual y un juego rular a 4000000000 fps y estar hecho como el culo pero sobrarle hardware por todos los lados.

Como ya te he dicho antes el AVERAGE no significa gran cosa porque puede ser una falacia total segun el caso.

V for Vendetta
03/03/2009, 21:27
el tf2 solo usa 1 core a menos que actives el comando mat_qeque_mode 2 (el nombre es muy parecido pero no me lo se de memoria xD) y es inestable con el comando puesto, en poco tiempo valve ya dara soporte a varios cores como lo tiene el l4d, y de 1 core a 4 el tf2 pasa de 80-90fps a 200min xDD eso si super inestables con congelamientos y salidas al escritorio, no se como sera cuando lo consigan hacer estable

y la verdad es un poco jodienda pero con un equipo "normalito" como el mio (el de la firma) en 1280x1024 aax8 afx16 con comandos para mejorar los graficos en partidos (que es donde me importa sacar fps buenos) no me baja de 59fps y nunca sube de 60 que es como lo tengo bloqueado con el comando fps max y en publicos, pues los tipicos de 28 personas super caoticos pues a ojo me van regular, pero vamos, en este juego 40fps me parecen horribles xD

como dato, un quad a 3,2ghz saca algo mas de rendimiento que un dual a 3,2 y con un solo core, (musica de expediente x sonando de fondo)

xD

sobre el hilo en si, la verdad es que jugando al crysis a 25-30 fps me parece que tiraba mejor que el ep2 que lo intente jugar con filtros con mi vieja 8600gt a 30-45


Conozco lo de activar el math_queue_mode pero te aseguro que sin activarlo los frames minimos me han subido una barbaridad en estabilidad al pasar de un E2180@3'2 a un Q6600@3'6ghz. Lo irónico del tema es que tengo amigos con un E8400@4ghz que presentan esos bajones que comentas.

Es más, activando todos los comandos que comentas jamás he llegado a 200fps ni de broma. Es cierto que sube una media de 20fps o asi y en algunas zonas un poco más pero jamás llegando a 200 como comentas.

Sobre el expediente X que comentas ya te lo digo yo puesto que he vivido el cambio del dual core al quad e incluso de un 5600+ a un E2180 ambos a 3'2 (cuando eran mis dos equipos) y ya habia diferencia, minima, pero algo si a favor del intel.

suferbicho
03/03/2009, 21:31
Zorranco tiene razon en parte, creo.

Esta claro es que es preferible tener min-30 med-60 max-120 que 15-105-240 aunque esos 15´s se den en solo 60 frames de 3000 por ejemplo en un timedemo.

Ahora si ese minimo se da un par de veces solamente, pues en ese caso puede pasar despercibido perfectamente, anuque hay mucho tiquismiquis por ahi...a mi me jodería tener un puto 15 cada x segundos aunque la media me salga un 100.

bueno me voy ha instalar el "Drakensang: the dark eye", rol del duro, que ya me lo han traido. yeeeeee

V for Vendetta
03/03/2009, 21:35
Zorranco tiene razon en parte, creo.

Esta claro es que es preferible tener min-30 med-60 max-120 que 15-105-240 aunque esos 15´s se den en solo 60 frames de 3000 por ejemplo en un timedemo.

Ahora si ese minimo se da un par de veces solamente, pues en ese caso puede pasar despercibido perfectamente, anuque hay mucho tiquismiquis por ahi...a mi me jodería tener un puto 15 cada x segundos aunque la media me salga un 100.


Es que ese es el problema. Si un juego te da un minimo bajito no va a ser medio segundo del juego. Si coges el panorama desde su punto de vista pues claro que tiene razón pero es que eso no ocurre en la realidad.

Un juego que da malos minimos es que por norma general te va a ir bastante pero que bastante mal.

danko9696
03/03/2009, 22:06
Ahora si ese minimo se da un par de veces solamente, pues en ese caso puede pasar despercibido perfectamente, anuque hay mucho tiquismiquis por ahi...a mi me jodería tener un puto 15 cada x segundos aunque la media me salga un 100.Es que lo suyo sería, como pasa en algunos juegos, tener una pequeña tabla de rangos de frames, con el porcentaje que ha habido de cada uno, del estilo de:
<25: 5%
>25<35: 20%
>35<50: 30%
>50: 45%

O una gráfica con frames y tiempo en ambos ejes, como si se hace en algunos benchs.


Saludos.

Lammoth
03/03/2009, 22:25
El vSync es muy bonito sobre el papel, pero en la practica es infumable.
Introduce input lag y el rendimiento muchas veces se ve afectado. Eso si, quita el tearing, pero ya es una cuestión personal (a mi no me molesta).

Hay juegos en los que si no activas el vsync el tearing te producen ganas de potar.
Depende del juego.

DarKelP
03/03/2009, 23:33
Yo apuntaria otra factor a tener en cuenta aparte del tema de los frames minimos en lo que parece que estamos todos de acuerdo.
Y es la caida de frames, es decir, si estas tan ricamente jugando a 100/150 fps y de golpe caen a 40/50 tambien es algo que resulta muy molesto. Por desgracia esto es algo que no se puede apreciar en ninguna de las pruebas de rendimiento que se leen .

Yo meditando hace tiempo en este aspecto que comentas, llegué a la conclusión de que el problema es que medimos los frames por segundo (por ejemplo con el FRAPS obtenemos el número total de frames en un segundo) pero no como están distribuidos en ese segundo.

Para el ojo humano una sucesión constante de 30 imágenes por segundo es ya completamente fluida. El que haya gente que dice que distingue entre 30 y 60 es por lo que comento arriba. Voy a intentar explicarlo:

Una sucesión de imágenes a razón de 30 por segundo serán completamente fluidas siempre que estén a intervalos regulares de 33 milisegundos cada una (1segundo/30). En el caso que comentas de jugar a 100 y bajar de golpe a 40, una bajón tan drástico tiene toda la probabilidad de dar por ejemplo en los primeros 500 milisegundos 6 imágenes y en los otros 500ms se recupera y da 34. De resultado te dará que bajaste un momento a 40fps, pero tú vas a notar un rascón pues en los primeros 500ms es como si fueras a 12fps.

Si tuvieramos garantizados al 100% un frame cada 33 milisegundos (30FPS) no ibamos a notar diferencia por muchos más frames que tuviéramos o por muchas oscilaciones en el número de estos, siempre que no bajara de 30 con ese intervalo de 33milisegundos. Esto nunca es así.

EDITO: No quiero decir que el ojo humano no sea capaz de enviar al cerebro más de 30 imágenes por segundo, sino que a 30 ya es completamente fluido, y con los bajones a 40 que comenta Vivallo, el juego rasca, y es por lo ya comentado.



Es que lo suyo sería, como pasa en algunos juegos, tener una pequeña tabla de rangos de frames, con el porcentaje que ha habido de cada uno, del estilo de:
<25: 5%
>25<35: 20%
>35<50: 30%
>50: 45%

O una gráfica con frames y tiempo en ambos ejes, como si se hace en algunos benchs.


Saludos.


Esto creo que sólo lo vi en la prueba de rendimiento del F.E.A.R. 1, xD. Bueno en el Far Cry 2 también hay un gráfico por el que guiarte.

Patagonico
04/03/2009, 00:00
Hablando del fraps, alguien conoce algun otro programa para calcular fps, dado que estoy por cambiar la grafica y quiero ver como realmente mejora la maquina por ahora la que he realizado es con el assasins creed en 1920x1080 DX10 y los resultados fueron MIN 14 - Max 25 y AVGE 18,88 es evidente que se nota en cierto momento un poco pesado el juego y tambien concuerdo que el mas importante es el minimo.-

asdvlnet
04/03/2009, 00:08
pues a mi se me hace imposible jugar al cs con 30 fps y si me apurais ni con 80..
y por no mencionar la fluidez que hay con 99 (mi máximo)

DarKelP
04/03/2009, 00:16
pues a mi se me hace imposible jugar al cs con 30 fps y si me apurais ni con 80..
y por no mencionar la fluidez que hay con 99 (mi máximo)

Si no puedes jugar con 30, y nisiquiera con 80, entonces 100% seguro que es lo que he comentado. Debes tener una oscilación entre los intervalos de las imágenes impresionante. Se te genera una imagen, la siguiente a los 50 ms, las 5 siguientes cada 5ms, luego otra vez 50ms...etc.

Piensa que si tuvieras las imágenes a intervalos regulares y aun así notaras falta de fluidez. Con una película de acción a 24fps echarías la pota.

grobeto
04/03/2009, 00:19
Eso no es del todo así, DarkelP. Da una vuelta sobre ti mismo todo lo rápido que puedas (sí, a estilo Bisbal). Verás que mientras giras ves todo borroso. Esto no ocurre en la mayoría de los shooters, por lo que disponer de más frames/segundo sí supone una ventaja sobre tu oponente.

Viper_Scull
04/03/2009, 00:22
Da una vuelta sobre ti mismo todo lo rápido que puedas (sí, a estilo Bisbal).


juas juas, que grande

danko9696
04/03/2009, 00:24
Esto creo que sólo lo vi en la prueba de rendimiento del F.E.A.R. 1, xD. Bueno en el Far Cry 2 también hay un gráfico por el que guiarte.Otro mas es el CoH, pero era solo un ejemplo. Las estadísticas que se hacen con fraps en numerosos benchmarks en comparaciones por internet, también podrían incorporarlo sin problemas. No hay nada que lo dificulte.


Para el ojo humano una sucesión constante de 30 imágenes por segundo es ya completamente fluidaEso es incorrecto y se basa únicamente en que el cine funciona a unos 30fps, pero las imágenes se visualizan de forma muy diferente en el cine que en un videojuego. Este es un comentario que ha salido muchas veces y hay varios posts donde se comenta este tema, así que no me extenderé mas. Pero para que te hagas una idea, cifras tales como 300fps son perceptibles, y en esa onda van los nuevos monitores sony 240Hz.

El ´complétamente fluido´ aplicado en juegos es muy relativo. Un juego puede ser perféctamente fluido con 20fps y otro no serlo con 100. Y como ejemplo muy simple, piensa que un CRT a 60Hz tiene 120 transiciones por segundo, y se nota el parpadeo (no debería, según tu). Y en cambio es ya bastante mas dificil percibirlo a 120-150Hz (el doble de transiciones de color->negro, negro->color).


Piensa que si tuvieras las imágenes a intervalos regulares y aun así notaras falta de fluidez. Con una película de acción a 24fps echarías la pota.Es curioso que lo digas, porque 23.97 fps es un formato nada infrecuente de muchos avis, los cuales son perféctamente fluidos (sean o no de acción).


Saludos.

ogrenix
04/03/2009, 00:28
Yo apuntaria otra factor a tener en cuenta aparte del tema de los frames minimos en lo que parece que estamos todos de acuerdo.
Y es la caida de frames, es decir, si estas tan ricamente jugando a 100/150 fps y de golpe caen a 40/50 tambien es algo que resulta muy molesto. Por desgracia esto es algo que no se puede apreciar en ninguna de las pruebas de rendimiento que se leen .


yo opino como vivallo os pongo por ej. el overlord va a 30fps todo el rato sin bajones ni parones y la jugabilidad es muy buena y luego tenemos juegos como el oblivion que me llegan a dar mas de 200fps y en algunas zonas baja a 60 ,50 y ahi se nota bastante llegando a ser molesto. ultimamente dejamos de lado lo importante jugar y poder jugar decentemente ,muchos de los que estamos aqui no hemos jugado al crysis porque tuvimos que bajar opciones graficas y ya no nos gustaba tanto ,dejando de lado si era un juego entretenido, ya que aunque quites sombras y etc.. el juego es el mismo la misma historia mismas armas etc...,estamo empezando a darle mas importancia a graficos y tasa de refersco y demas chorradas cuando deberiamos jugar y punto, como hacen algunos que copn su 8600gt lo ponen todo en minimo o medio y juegan y no se rompen la cabeza ni agujerean su bolsillo.os lo dice uno que lo hace ya que llega un momento en el que se hac inevitable muchos juegos buenos los dejas de lado po graficos o mala optimizacion, cuando en realidad de mejor o peor manera con un pc normalito se pude jugar a todo.

saludos.

DarKelP
04/03/2009, 00:33
Eso no es del todo así, DarkelP. Da una vuelta sobre ti mismo todo lo rápido que puedas (sí, a estilo Bisbal). Verás que mientras giras ves todo borroso. Esto no ocurre en la mayoría de los shooters, por lo que disponer de más frames/segundo sí supone una ventaja sobre tu oponente.

Jajajaja, mejor no, malas experiencias con hacer la vuelta a lo bisbal yendo con el puntillo.

Lo que comentas te lo explico fácilmente:

- Si giras ves todo borroso: Exacto
- Si te quedas quieto y lo que girara fuera la habitación a la misma velocidad que tú: Lo verias perfecto, esto es lo que sucede en los shooters, tus ojos están fijos.

Mientras mueves los ojos estás ciego, es la mejor manera de explicarlo. Si colocas las pupilas a la izquierda y las mueves rápidamente a la derecha lo que hay en medio mientras dura el movimiento no lo ves. Por lo menos eso decía el profesor de oftalmología.

Cuando das una vuelta tus ojos están dando saltos de un punto a otro, si miras la pantalla dejas los ojos fijos y mueves el ratón lo ves todo, al igual que si lo que gira es la habitación

Sendai
04/03/2009, 00:42
¿Pero como que los average no aportan nada??

¿Pero vosotros sabeis lo que es un timedemo? Pues facil, va cogiendo valores a intervalos regulares y luego da una media. O sea que si va a 300 frames el 99% del tiempo y sufre un bajon a 30 en un 1%, tienes una media de 290 frames y ese valor tiene todo el significado del mundo ¿o es que el juego está mal optimizado porque en un momento dado tenga un bajón?

Ademas, ahora es la moda de los mínimos, que ni es moda ni es nada, porque de toda la vida a + potencia de VGA mejores medias y mejores minimos, ¿o es que hay alguna VGA que sea globalmente superior a otra y de peores minimos? ¿Desde cuando? ¿Alguien me puede dar alguna prueba? Y no me vale comparar singles con duals que las duals ya sabemos que tienen MSs y parones injustificados en ciertos momentos.

En un juego con una media de 60 pero un bajon a 10 ese el minimo no tiene ningun significado.

+1 :)

danko9696
04/03/2009, 00:44
Eso no es del todo así, DarkelP. Da una vuelta sobre ti mismo todo lo rápido que puedas (sí, a estilo Bisbal). Verás que mientras giras ves todo borroso. Esto no ocurre en la mayoría de los shooters, por lo que disponer de más frames/segundo sí supone una ventaja sobre tu oponenteEn esto si tiene razón darkeip. El ojo hace microsaltos, pasando de fijarse en un punto a fijarse en otro contínuamente.

Pero mirando al frente, si cruzase una moto a 300km por hora cruzando tu vista, con 60fps en un juego es posible que ni un solo frame llegase a mostrar nada, pero en la realizad y en el cine (por el motion blur ´integrado´ que este tiene) verías un borrón, que no solamente te informa de que ha pasado algo rápidamente, sino ademas la dirección y velocidad aproximada. Esto es lo que se intenta con los juegos, porque es mucho mas ´barato´ en rendimiento añadir artificialmente el blur que intentar mostrar varias veces mas frames.

Si coges un simulador de vuelo, te pones, pongamos a 800km/hora a ras del mar, podras ver como la zona central de la pantalla se ve totalmente fluida, pero no la zona inferior de la pantalla, donde está el mar. En cambio a gran altura, 20fps pueden ser mas que suficiente para fluidez total, pues esta depende todavía mas de la cámara.

Incluso 2fps pueden ser perféctamente fluidos si el movimiento relativo es lo suficiéntemente lento.


Saludos.

Viper_Scull
04/03/2009, 00:46
Eso es incorrecto y se basa únicamente en que el cine funciona a unos 30fps, pero las imágenes se visualizan de forma muy diferente en el cine que en un videojuego. Este es un comentario que ha salido muchas veces y hay varios posts donde se comenta este tema, así que no me extenderé mas. Pero para que te hagas una idea, cifras tales como 300fps son perceptibles, y en esa onda van los nuevos monitores sony 240Hz.

Incorrecto, no puedes percibir 300 fps y si quieres hablamos todo lo que quieras y más de esto. Percibir, viene de percepción y se aplica a los sentidos. El sentido de la vista no puede percibir 300fps. Otra cosa es que los 300 fps sean inteligibles.
Es como en el caso del audio...superaudiocd, dvd-audio y formatos así y los amplificadores que llegan a amplificar mas de 100khz. Trabajan a más frecuencia que un Cd, no porque el oído humano pueda percibirlo, que no puede(el oído humano por el filtro paso bajo que produce no puede llegar a escuchar frecuencias superiores a 20khz, de ahí que el Cd se muestree a 44,1 khz ...el doble de la frecuencia de corte), sino porque son sonidos inteligibles, esto es, hacen que aporte algo más de información al cerebro que lo estrictamente recibido por el oído.

Así que es correcto que se note diferencia entre jugar a 30 y a 60 y a 120fps (dependiendo del juego), pero es incorrecto que tu ojo humano pueda percibir 300 fps.

DarKelP
04/03/2009, 00:46
Eso es incorrecto y se basa únicamente en que el cine funciona a unos 30fps, pero las imágenes se visualizan de forma muy diferente en el cine que en un videojuego. Este es un comentario que ha salido muchas veces y hay varios posts donde se comenta este tema, así que no me extenderé mas. Pero para que te hagas una idea, cifras tales como 300fps son perceptibles, y en esa onda van los nuevos monitores sony 240Hz.


Por eso dije que podemos procesar más de 30 imágenes por segundo, muchas más. Hasta incluso puede que 300fps sean perceptibles, más lo dudo, pues no daría tiempo fisico para completar el ciclo despolarización-repolarización de los fotorreceptores de la retina.

Otra cosa muy distinta es sensación subjetiva de fluidez, y si los juegos fueran a 30fps regulares sería igual que en el cine, pero como dices, las imágenes se visualizan de forma diferente, no son regulares en los juegos, por eso necesitamos más frames para garantizarnos ese intervalo mínimo de milisegundos.

Lo que comentas de los CRTs, pues la mayoría de la gente no nota parpadeos a 60Hz a no ser que te pegues mucho, pero precisamente el cerebro sí los nota, de ahí la fatiga visual en estos monitores en contraposición con la sensación subjetiva de ver una imagen fija.

grobeto
04/03/2009, 00:56
En el shooter (ej: Counter Strike), si giras el personaje súbitamente, no ves borroso como verías en realidad. Supongamos que haces un giro de 180º en 100ms. Si el juego va a 30fps sólo ves 4 frames en todo el giro. Seguro que te perderías algo.
Si metes el efecto motion blur (como en Crysis), esto no se nota tanto.

***Edito***
He dicho más o menos lo mismo que Danko9696. Estoy de acuerdo con él.

Pero mirando al frente, si cruzase una moto a 300km por hora cruzando tu vista, con 60fps en un juego es posible que ni un solo frame llegase a mostrar nada, pero en la realizad y en el cine (por el motion blur ´integrado´ que este tiene) verías un borrón, que no solamente te informa de que ha pasado algo rápidamente, sino ademas la dirección y velocidad aproximada. Esto es lo que se intenta con los juegos, porque es mucho mas ´barato´ en rendimiento añadir artificialmente el blur que intentar mostrar varias veces mas frames.

Si coges un simulador de vuelo, te pones, pongamos a 800km/hora a ras del mar, podras ver como la zona central de la pantalla se ve totalmente fluida, pero no la zona inferior de la pantalla, donde está el mar. En cambio a gran altura, 20fps pueden ser mas que suficiente para fluidez total, pues esta depende todavía mas de la cámara.

Incluso 2fps pueden ser perféctamente fluidos si el movimiento relativo es lo suficiéntemente lento.

danko9696
04/03/2009, 01:07
Incorrecto, no puedes percibir 300 fps. Percibir, viene de percepción y se aplica a los sentidos. El sentido de la visa no puede percibir 300fps. Otra cosa es que los 300 fps sean inteligibles.Naturalmente cuando me refería a que se pueden percibir 300fps me refería a que se pueden percibir 300 frames. ¿o que otro significado pensabas que le estaba dando a la palabra ´percepción´?


Otra cosa muy distinta es sensación subjetiva de fluidez, y si los juegos fueran a 30fps regulares sería igual que en el cine, pero como dices, las imágenes se visualizan de forma diferente, no son regulares en los juegos, por eso necesitamos más frames para garantizarnos ese intervalo mínimo de milisegundos.Sin querer dejarte mal, prueba a buscar un poco de información y no solo decir lo que te parece razonable y lógico, y veras que estas equivocado.


Hasta incluso puede que 300fps sean perceptibles, más lo dudo, pues no daría tiempo fisico para completar el ciclo despolarización-repolarización de los fotorreceptores de la retina.Resumiendo, te diré que el ojo no funciona en frames sino en diferentes funciones a distinta velocidad. Por ej, lo mas rápido en detectarse es el movimiento, y lo mas lento los contornos. Y parte de ello es preprocesado y resumido por el propio ojo antes de enviarlo al cerebro (optimización de ancho de banda).


Lo que comentas de los CRTs, pues la mayoría de la gente no nota parpadeos a 60Hz a no ser que te pegues mucho, pero precisamente el cerebro sí los nota, de ahí la fatiga visual en estos monitores en contraposición con la sensación subjetiva de ver una imagen fija.Los 60Hz, con apartar ligéramente la vista de la pantalla se notan muchísimo, y diréctamente se nota también, aunque menos. Es como si me dices que 15fps eran suficientes porque hay gente (yo he conocido casos) que decían que esta bien (hasta que prueban a mas fps).

Si el cerebro nota el parpadeo, será que lo está percibiendo, igual que también el cerebro percibe en la mitad de esos cambios se está mostrando una imágen (y no todo negro), ¿no?, al fin y al cabo no es nada del otro mundo: es símplemente una pantalla de color blanco (por ej) pasa a negro y luego otra vez a rojo y así muchas veces. De 120 cambios (60fps) a 240 cambios (120hz) se nota.


Repito lo de antes, esto se ha aclarado bastantes veces. Tiene su explicación y no hace falta inventarse nada (como lo de que no da tiempo a cambiar de color los fotoreceptores).


Saludos.

DarKelP
04/03/2009, 01:10
Pero mirando al frente, si cruzase una moto a 300km por hora cruzando tu vista, con 60fps en un juego es posible que ni un solo frame llegase a mostrar nada, pero en la realizad y en el cine (por el motion blur ´integrado´ que este tiene) verías un borrón, que no solamente te informa de que ha pasado algo rápidamente, sino ademas la dirección y velocidad aproximada. Esto es lo que se intenta con los juegos, porque es mucho mas ´barato´ en rendimiento añadir artificialmente el blur que intentar mostrar varias veces mas frames.
Saludos.

Para estos casos si te doy la razón que 30fps no serían suficiente, y hace falta el motion blur. Si una moto pasara tan rápido en un videojuego, de 60fps, igual ves la moto en 2. El problema no está en que sólo aparezca en 2 frames, el problema es que aparece sin estela, aparece la moto perfectamente definida en un extremo de la pantalla y a la siguiente imagen en el lado contrario (en la realidad al percibir muchas más imágenes por segundo se produce la borrosidad que dices). Si en esos 2 frames hubiera una estela detrás de la moto ya verías que algo ha pasado.

DarKelP
04/03/2009, 01:15
Repito lo de antes, esto se ha aclarado bastantes veces. Tiene su explicación y no hace falta inventarse nada (como lo de que no da tiempo a cambiar de color los fotoreceptores).
Saludos.

Lo siento, pero no me invento nada, si tarda 1 milisegundo en despolarizarse y 2-3 en repolarizarse por muchos estimulos más luminosos que generes no vas a producir un nuevo potencial de acción.

ivanjmg
04/03/2009, 02:13
Para estos casos si te doy la razón que 30fps no serían suficiente, y hace falta el motion blur. Si una moto pasara tan rápido en un videojuego, de 60fps, igual ves la moto en 2. El problema no está en que sólo aparezca en 2 frames, el problema es que aparece sin estela, aparece la moto perfectamente definida en un extremo de la pantalla y a la siguiente imagen en el lado contrario (en la realidad al percibir muchas más imágenes por segundo se produce la borrosidad que dices). Si en esos 2 frames hubiera una estela detrás de la moto ya verías que algo ha pasado.

Muy interesante, nunca me lo había planteado... incluso veía como "efecto tonto" el blur en los juegos hasta ahora :)

SanamArcar
04/03/2009, 02:55
Yo solo digo 60 Hz, se grafican las pruebas con avg min max para que no haya dudas. Y lo del input lag a 60 fps debe estar cerca de las respuestas neuronales, como mucho son 16 ms y 8 ms de media, y eso en el caso que el engine dependa de la representación que seguramente sea así al despreciar los procesadores con varios cores.

Los juegos que andan leyendo del disco mientras juegas si que son un peligro xD, aun teniendo RAM para parar a un tren.

Nintendork
04/03/2009, 04:15
En ese caso sería bueno tener montada un disco i-ram.

NeoGigabyte®
04/03/2009, 05:13
xDDD Diossss, aqui hay temas cíclicos!

Yo he leido varias veces estos temas aqui, y siempre concluyo lo mismo (conclusión de mi propia cosecha ;)):

- El ojo humano perciba más de 30fps, también percibe más de 60 y también muchos más allá de 100, de hecho he leido que percibe más de 200fps.

- Para aquellos que no crean que el ojo humano percibe fps (es que he visto estas necedades), preguntense porque vemos tal efecto en un rin de un neumático, como si diera vueltas en dirección contraria.

- Los fps depende de lo que se esté proyectando, una pelicula necesita sólo 24, los juegos muchos les basta 30fps el punto es que el ojo lo perciba fluido, después de todo lo que vemos son secuencias que la gpu grafica n veces por segundo.

Mas info, aqui mismo dentro del foro:

http://foro.noticias3d.com/vbulletin/showthread.php?t=16889

aporellos
04/03/2009, 07:49
Lo que comentas de los CRTs, pues la mayoría de la gente no nota parpadeos a 60Hz a no ser que te pegues mucho, pero precisamente el cerebro sí los nota, de ahí la fatiga visual en estos monitores en contraposición con la sensación subjetiva de ver una imagen fija.


Si que se nota, y bastante. Tu coje un monitor y ponte a trabajar a 100Hz al cabo de un tiempo (dias meses o lo que quieras...) ponlo a 60Hz ya veras como lo notas.

Conste que yo era de los que pensaba que no se notaba (siempre lo tenía a 100Hz porque puedo), hasta que despues de instalar un driver me puso la frecuencia a 60Hz y pensaba que se me estaba empezando a estropear el monitor hasta que vi que era la frecuencia que estaba a 60Hz...

Lammoth
04/03/2009, 10:26
Si que se nota, y bastante. Tu coje un monitor y ponte a trabajar a 100Hz al cabo de un tiempo (dias meses o lo que quieras...) ponlo a 60Hz ya veras como lo notas.

Conste que yo era de los que pensaba que no se notaba (siempre lo tenía a 100Hz porque puedo), hasta que despues de instalar un driver me puso la frecuencia a 60Hz y pensaba que se me estaba empezando a estropear el monitor hasta que vi que era la frecuencia que estaba a 60Hz...

Yo lo mantengo a 75Hz porque a más de 85Hz (pudiendo poner hasta 100Hz), noto menos nitidez de contornos, no se el motivo la verdad.

MaLDo
04/03/2009, 11:32
Yo lo mantengo a 75Hz porque a más de 85Hz noto menos nitidez de contornos, no se el motivo la verdad.


La explicación lógica es que los componentes de tu CRT están al límite a 85 hz y con el tiempo han perdido la precisión que garantizaba una visualización correcta en esa frecuencia.



24 fps son suficientes para que el cerebro capte continuidad de movimiento. Pero por encima de esa cifra sí se puede notar aumento de suavidad. Recuerdo un experimento que hicimos en la universidad que consistía en aumentar la frecuencia de encendido/apagado de un led para determinar a que frecuencia se nos antojaba ver el led siempre encendido. El experimento resultaba en unos aproximados 35 hz, pero el truco está en que ese dato está más relacionado con el tiempo de respuesta del led que con el del ojo.

Por encima de 100 fps ya es más difícil detectar la diferencia de suavidad. Depende de la persona, además. Sin embargo es fácil fijar la vista en un fluorescente y notar la vibración de la luz, y eso son 50 hz.

El ojo es capaz de captar un fotograma suelto en secuencias a 200 imágenes por segundo. Por lo que a esa frecuencia todavía vemos cada uno de los frames.

Las películas funcionan a 24 fps (en cine y HD) o 25 fps (dvd pal) pero incluyen un motion blur añadido en postproceso que hace que la sensación de suavidad aumente.

Las grabaciones domésticas funcionan a 50 fps (PAL) y es por eso que se ven más fluidas y más fieles a la realidad que las películas. Y por el mismo motivo cuando se activa el duplicador de frames en las teles modernas algunos dicen que se pierde el 'efecto cine', porque consiguen el framerate de las grabaciones domésticas.

En las películas no se pueden hacer determinados movimientos de cámara porque están limitados por los 24 fps. Cuando se intentan hacer escenas demasiado bruscas (y ya no te digo con la nueva moda de tembleques y shackycam) los 24 fps pasan factura y producen nauseas en algunas personas. En el futuro las películas irán a 50 o 60 fps.

Los proyectores de cine duplican cada fotograma para reducir la sensación de parpadeo con el mismo framerate. Una película a 24 fps es normal que se reproduzca a 48 hz.

LOS VIDEOJUEGOS PUEDEN INCLUIR MOTION BLUR, PERO NUNCA TENDRÁN LAS LIMITACIONES DE MOVIMIENTO DE CÁMARA DEL CINE. Esto es el punto importante, el framerate del videojuego debe poder absorver las variaciones del punto de vista a gusto del usuario.

El método de control que más choca con el punto anterior, es el ratón. Es un interfaz totalmente libre ya que permite variar no sólo la dirección del movimiento sino también la velocidad sin restricciones.

Por ese motivo, los juegos en consola controlados con gamepad (con unos analógicos que limitan la velocidad máxima a la que se puede mover la cámara: 'pitch' y 'yaw') no acusan tanto un framerate de 30 fps como un juego controlado con ratón. Para más inri, es normal que un televisor LCD estándar tenga mayor tiempo de respuesta de pixel (BTB o GTG) que un monitor, por lo que los 30 fps (independientemente del postproceso que incluya el juego) se llevan un ligero motion blur de regalo debido a la tecnología del panel cuando se visualiza en un televisor.

Cuando visualizamos algo, nunca podemos mostrar más frames completos que lo que nos diga la frecuencia del visualizador. Sí se pueden mostrar más frames incompletos: en un monitor a 60 hz se pueden visualizar 120 medios-fotogramas. Aún así, para ver exactamente 120 medios-fotogramas habría que sincronizar la fuente con el monitor, y eso es inviable. Por lo que en la práctica, desactivar la sincronización vertical (vsync) se traduce en que del primer fotograma se ve un cuarto por abajo, del segundo la mitad, del tercero un trozo de arriba, etc. Provocando que la línea que separa el frame anterior con el actual aparezca como una partición en la pantalla que se va moviendo por la pantalla.

¿Aumenta el input lag activar el vsync? Sí internamente. Pero en realidad solo nos basaremos en una parte de lo que vemos y sólo veremos una parte de nuestros actos. Es decir, sí es posible que veamos la mitad de nuestro oponente (quizá los pies) en el fotograma número 37 cuando con vsync activado solo lo veríamos aparecer entero en el 38, pero eso no me parece una ventaja significativa. Al final nuestro monitor solo ofrece 60 fotos en un segundo, y ver un trocito de la siguiente no es determinante.

¿Cuánto aumenta el input lag? Pues en el peor de los casos, 0.016 segundos y solo con una parte de la información.

También hay que tener en cuenta que si basamos nuestros actos en lo que vemos, tener el vsync off puede despistar, porque el fotograma partido de nuestra pantalla estará mostrando dos instantes diferentes de tiempo. Los pies del oponente pueden ser los actuales y la cabeza es la de hace 0.016 segundos. ¿A dónde disparamos? Si no importa porque están cerquísima en el tiempo, entonces apliquemos eso al vsync y jugemos sin tearing.

Hay mucha gente que no conoce el Triple buffer. Sin entrar en tecnicismos, es lo que evita que al tener el vsync activado el framerate salte de 60 a 30 fps. Yo siempre aconsejo jugar con vysnc on y el triple buffer activado. Para tal cosa en Direct3D se requiere del DXOverrider que viene incluido con el rivatuner.

Es cierto que hay algunos juegos multijugador que (debido a bugs internos de programación) añaden ventajas al jugador con determinados framerates (el Quake o el Call of Duty). Si bien beneficiarse de estas ventajas implica jugar con el Vsync desactivado, hay que dejar claro que es una forma consentidad de cheto y que habrá que aguantar el molesto tearing.


Respecto al tema del hilo, lo más importante para valorar el rendimiento son los mínimos. Pero también hay una cosa cierta, el cerebro es adaptable. Yo no juego a nada que baje de 60 fps, pero si tuviera que jugar a algo que oscila entre 60 y 25 preferiría fijarlo a 25. Cuando nuestro cerebro capta de forma continuada un framerate ajustado, se adapta y mantiene un cálculo más estable de movimiento basado en la interpolación. Si una vez adaptado le pegamos un subidón a la fluidez, el propio cerebro pierde la 'sincronización' con el framerate bajo y debe reajustarse cuando el framerate baje. Por eso siempre es mejor mantenerse en 30 que moverse entre los 30 y 60. Y eso no quita que sea MUCHO MEJOR jugar a 60 que a 30. Mi bolsillo sabe bien de lo que hablo porque precisamente estos motivos son los que hacen que actualice mis componentes cada pocos meses.

Farinorco
04/03/2009, 12:08
La mayoría de la gente piensa que la medida de framerate mínimo proporciona información sobre si el framerate es más o menos estable o tiende a caer/ralentizarse con más frecuencia o notoriedad. Esto es falso:

-¿Se está sugiriendo que un valor que representa el tiempo que ha tardado en renderizarse UN frame específico escogido arbitrariamente (el más lento de todos los renderizados a lo largo de la prueba) puede ser una medida de estabilidad de nada? Por lo menos la media tiene en cuenta todos los frames de la muestra...

-Aunque UN frame tarde mucho en renderizarse (a no ser que sea una parada taaaan larga que sea un tiempo claramente perceptible), no lo vamos a notar. Es necesario que ocurra en varios frames, o que la salida de varios de estos sea irregular, etc, para que nos moleste. Esa información no nos la da la medida de los mínimos.

-En un espacio muestral tan grande como la cuenta de TODOS los frames renderizados a lo largo de la prueba, es casi seguro que va a haber datos atípicos (números que no se corresponden ni representan al perfil de la práctica totalidad del conjunto de datos, y que normalmente son producto no de lo que se quiere saber, sino de otros elementos externos que afectan al estudio). Normalmente los datos atípicos se suelen eliminar del espacio muestral antes de hacer ningún tipo de análisis estadístico, porque en vez de aportar información útil, desvirtúan el estudio. Algunos, en vez de eliminarlos, pretenden darles la importancia mayor del estudio (porque naturalmente, de existir datos atípicos, estos serán los mínimos/máximos, evidentemente).

Estoy de acuerdo con el autor del hilo en que el framerate promedio no da toda la información necesaria por los motivos que expone, y es que si bien son una buena medida del rendimiento en general, pueden ocultar hechos (y es que al no contarlo todo, si creemos que nos lo dice todo, podemos creer que son iguales cosas que no lo son...). Sin embargo los mínimos no aportan ninguna información interesante adicional. Sólo quería remarcar este hecho.

Los mínimos/máximos tienen un cierto valor por curiosidad estadística, más que nada. Pero aplicación práctica... poquita.

¿Cómo podría estudiarse esto? No sé, gráficas de tiempos de renderización frame por frame (estilo las de [H]ard|OCP, aunque no me gustan mucho cómo las hacen ellos y menos aún sus patateras interpretaciones de los datos), aunque es la solución más engorrosa posible, y prácticamente inviable si quieres comparar más de 2 ó 3 piezas de hw distintas. O quizás dar la desviación típica y demás, pero eso no está tan claro que todo el mundo vaya a saber interpretarlo bien. En cualquier caso, por el bien de cualquier análisis, yo ocultaría los mínimos y máximos para evitar que la gente los use de forma inadecuada para obtener conclusiones ficticias, que es principalmente para lo que pueden valer...

MaLDo
04/03/2009, 12:22
La mayoría de la gente piensa que la medida de framerate mínimo proporciona información sobre si el framerate es más o menos estable o tiende a caer/ralentizarse con más frecuencia o notoriedad. Esto es falso:

-¿Se está sugiriendo que un valor que representa el tiempo que ha tardado en renderizarse UN frame específico escogido arbitrariamente (el más lento de todos los renderizados a lo largo de la prueba) puede ser una medida de estabilidad de nada? Por lo menos la media tiene en cuenta todos los frames de la muestra...

-Aunque UN frame tarde mucho en renderizarse (a no ser que sea una parada taaaan larga que sea un tiempo claramente perceptible), no lo vamos a notar. Es necesario que ocurra en varios frames, o que la salida de varios de estos sea irregular, etc, para que nos moleste. Esa información no nos la da la medida de los mínimos.

-En un espacio muestral tan grande como la cuenta de TODOS los frames renderizados a lo largo de la prueba, es casi seguro que va a haber datos atípicos (números que no se corresponden ni representan al perfil de la práctica totalidad del conjunto de datos, y que normalmente son producto no de lo que se quiere saber, sino de otros elementos externos que afectan al estudio). Normalmente los datos atípicos se suelen eliminar del espacio muestral antes de hacer ningún tipo de análisis estadístico, porque en vez de aportar información útil, desvirtúan el estudio. Algunos, en vez de eliminarlos, pretenden darles la importancia mayor del estudio (porque naturalmente, de existir datos atípicos, estos serán los mínimos/máximos, evidentemente).

Estoy de acuerdo con el autor del hilo en que el framerate promedio no da toda la información necesaria por los motivos que expone, y es que si bien son una buena medida del rendimiento en general, pueden ocultar hechos (y es que al no contarlo todo, si creemos que nos lo dice todo, podemos creer que son iguales cosas que no lo son...). Sin embargo los mínimos no aportan ninguna información interesante adicional. Sólo quería remarcar este hecho.

Los mínimos/máximos tienen un cierto valor por curiosidad estadística, más que nada. Pero aplicación práctica... poquita.

¿Cómo podría estudiarse esto? No sé, gráficas de tiempos de renderización frame por frame (estilo las de [H]ard|OCP, aunque no me gustan mucho cómo las hacen ellos y menos aún sus patateras interpretaciones de los datos), aunque es la solución más engorrosa posible, y prácticamente inviable si quieres comparar más de 2 ó 3 piezas de hw distintas. O quizás dar la desviación típica y demás, pero eso no está tan claro que todo el mundo vaya a saber interpretarlo bien. En cualquier caso, por el bien de cualquier análisis, yo ocultaría los mínimos y máximos para evitar que la gente los use de forma inadecuada para obtener conclusiones ficticias, que es principalmente para lo que pueden valer...

No estoy de acuerdo EN ABSOLUTO. Como teoría de estadísitica, absolutamente brillante y real. Pero en el caso que nos ocupa, el entretenimiento, no puede aplicarse.

Te voy a poner ejemplos:

- Imagina un juego donde cada vez que hacemos un disparo se produjera un bajón a los 3 fps. Ahora hacemos una prueba de rendimiento que dura 5 minutos. Eso son muchísimos fotogramas, y quizá hayamos pegado solo 20 tiros. En un estudio habitual de estadística es posible que los 20 tiros se fueran de la gráfica como 'ruido' o como 'anormalmente alejados de la media' o por culpa de los percentiles tolerados.

Ahora bien, ¿es jugable un juego donde tenemos una reducción radical del framerate CADA VEZ QUE HACEMOS USO DE NUESTRO ARMA (léase, herramienta que nos conecta con el mundo virtual) ??? PUES NO.

- Imagina ir al cine y que durante las 2 horas y media que dura la película aparecieran algunos fotogramas en negro o con imágenes no relacionadas con la película. La película son 216.000 fotogramas. 500 fotogramas anómalos son una miseria dentro de esa cantidad, pero serían suficientes para arruinarte la película.

- Imagina escuchar un disco de música y que cada varios minutos hubiera un pitido agudo de menos de un segundo. ¿Te parecería correcto?

En conclusión y en mi opinión, en el caso del entretenimiento hay que aplicar unos criterios más esctrictos a la hora de valorar lo que es permisible y lo que no. Y fijarse únicamente en los mínimos me parece, en estos casos, lo mejor que podemos hacer. Me he encontrado muchísimas veces con gente que al jugar en mi pc suelta cosas como 'pero es que parece otro juego', 'hombre, si yo lo viera así en mi casa jugaría más', 'tenías razón, es un juego de la leche, pero es que a mi me iba como una mierda y no se disfruta lo mismo'. Una película se puede ver más grande o más pequeña (que también se disfruta más cuanto más grande), pero al fin y al cabo es la misma película en cualquier tele. Los juegos se miden o deberían medirse por su parte jugable, parte intrínsecamente relacionada con el framerate y con los mínimos.

Farinorco
04/03/2009, 12:34
No estoy de acuerdo EN ABSOLUTO. Como teoría de estadísitica, absolutamente brillante y real. Pero en el caso que nos ocupa, el entretenimiento, no puede aplicarse.

Te voy a poner ejemplos:

- Imagina un juego donde cada vez que hacemos un disparo se produjera un bajón a los 3 fps. Ahora hacemos una prueba de rendimiento que dura 5 minutos. Eso son muchísimos fotogramas, y quizá hayamos pegado solo 20 tiros. En un estudio habitual de estadística es posible que los 20 tiros se fueran de la gráfica como 'ruido' o como 'anormalmente alejados de la media' o por culpa de los percentiles tolerados.

Ahora bien, ¿es jugable un juego donde tenemos una reducción radical del framerate CADA VEZ QUE HACEMOS USO DE NUESTRO ARMA (léase, herramienta que nos conecta con el mundo virtual) ??? PUES NO.

- Imagina ir al cine y que durante las 2 horas y media que dura la película aparecieran algunos fotogramas en negro o con imágenes no relacionadas con la película. La película son 216.000 fotogramas. 500 fotogramas anómalos son una miseria dentro de esa cantidad, pero serían suficientes para arruinarte la película.

- Imagina escuchar un disco de música y que cada varios minutos hubiera un pitido agudo de menos de un segundo. ¿Te parecería correcto?

En conclusión y en mi opinión, en el caso del entretenimiento hay que aplicar unos criterios más esctrictos a la hora de valorar lo que es permisible y lo que no.

Creo haber dicho en mi post, pero si no es así ahora es buen momento, que estoy completamente de acuerdo en que la media NO nos lo dice todo. El ejemplo que pones ES un ejemplo de esto: la media no nos dice que en realidad en el que cada vez que disparas se cae es menos jugable que el que no se cae. Jamás he discutido esto, y repito, creo haberlo mencionado específicamente.

Mi punto es: ¿y los mínimos? ¿nos dicen esto? No. Vamos a extender tu ejemplo: tenemos un equipo A en el que tenemos unas medias de 60, bajones a 18 cada vez que disparas tu arma, y un equipo B en el que tenemos unas medias de 40, los bajones no bajan de 30 al disparar el arma, PERO en el primer frame de toda la comparativa la velocidad es de 12 porque tiene que cargar un dato extra del disco duro. ¿Es más estable o jugable el primero? Porque sí que tiene los mínimos un 50% más altos...

La cuestión no es si con la media es suficiente, la cuestión es si el mínimo mejora esto en algo. Y la respuesta, insisto, es no.

Es más, tiene el grave defecto de que como la gente se piensa que sí, lo usa para eso, y se lía...

Lu
04/03/2009, 12:56
Hay mucha gente que no conoce el Triple buffer. Sin entrar en tecnicismos, es lo que evita que al tener el vsync activado el framerate salte de 60 a 30 fps. Yo siempre aconsejo jugar con vysnc on y el triple buffer activado. Para tal cosa en Direct3D se requiere del DXOverrider que viene incluido con el rivatuner.
Y no se puede hacer directamente desde el perfil de juego???? Ya que esas opciones vienen.

Salu2.

MaLDo
04/03/2009, 13:11
Y no se puede hacer directamente desde el perfil de juego???? Ya que esas opciones vienen.

Salu2.

No vienen. Lo que sí viene en el perfil es el TripleBuffer PARA OPENGL. Y eso es lo único activable por drivers. Para direct3D no sirve por culpa de las especificaciones de microsoft. Que es lo que fuerza y se salta el DXOverrider.

MaLDo
04/03/2009, 13:19
Creo haber dicho en mi post, pero si no es así ahora es buen momento, que estoy completamente de acuerdo en que la media NO nos lo dice todo. El ejemplo que pones ES un ejemplo de esto: la media no nos dice que en realidad en el que cada vez que disparas se cae es menos jugable que el que no se cae. Jamás he discutido esto, y repito, creo haberlo mencionado específicamente.

Mi punto es: ¿y los mínimos? ¿nos dicen esto? No. Vamos a extender tu ejemplo: tenemos un equipo A en el que tenemos unas medias de 60, bajones a 18 cada vez que disparas tu arma, y un equipo B en el que tenemos unas medias de 40, los bajones no bajan de 30 al disparar el arma, PERO en el primer frame de toda la comparativa la velocidad es de 12 porque tiene que cargar un dato extra del disco duro. ¿Es más estable o jugable el primero? Porque sí que tiene los mínimos un 50% más altos...

La cuestión no es si con la media es suficiente, la cuestión es si el mínimo mejora esto en algo. Y la respuesta, insisto, es no.

Es más, tiene el grave defecto de que como la gente se piensa que sí, lo usa para eso, y se lía...

En el caso B me parecería coherente que los rendimientos empezaran a captarse después del primer frame. Eso siempre que las lecturas a disco no se repitieran durante la partida.

Porque me parece igual de injugable un juego que tiene bajadas de rendimiento por falta de potencia como el que tiene parones por lecturas/escrituras a disco. No me compro el FEAR 2 hasta que un parche permita desactivar el autosave o escriban una rutina de guardado asíncrona. Y no si no lo hacen nunca no jugaré el juego y tan contento.


En las carátulas de los DVD viene especificado que 'la transición entre capas puede producir una ligera pausa' aunque yo no he sido capaz en mi vida de encontrar un reproductor que sufra de dicha pausa.

Sin embargo con los juegos la gente se baja los pantalones y si el juego guarda cada minuto produciendo un parón, resulta que es 'normal'. ¿Qué pasaría si compramos una película y cada minuto hubiera un parón? La devolveríamos.

Muy permisiva se ha vuelto la gente con el tema del rendimiento en los videojuegos. Mientras vamos aumentando polígonos y efectos nos van limitando framerate y libertad jugable (aquí incluyo también, y en mayor medida, las consolas). Y muchos tan contentos.

wilhelm
04/03/2009, 13:25
No olvidéis decir que activando el triple buffer, también estamos consumiendo más memoria en el proceso gráfico. Y por otra parte, no siempre activar el triple buffer en OpenGL elimina el problema de frames fijos de 60 a 30 sin muchos valores intermedios. Depende del juego. Por ejemplo, en IL-2 es habitual con Vsync on y triple buffer (está programado en API OpenGL) que los frames caigan a 30 en tracks donde sin vsync puedes ver 45 frames perfectamente.

Saludos

Willow
04/03/2009, 13:30
Yo siempre juego con el vsync activado, limitando los fps a 60. De esta manera he notado que me funciona mucho mejor, ya que las bajadas a 30 o 20 fps cuando entro en un espacio abierto o cuando hay muchos efectos en un juego no se notan tanto que una bajada de 120 fps a 20. A parte me ahorro las linias que te salen en el monitor ...

MaLDo
04/03/2009, 13:35
Yo siempre juego con el vsync activado, limitando los fps a 60. De esta manera he notado que me funciona mucho mejor, ya que las bajadas a 30 o 20 fps cuando entro en un espacio abierto o cuando hay muchos efectos en un juego no se notan tanto que una bajada de 120 fps a 20. A parte me ahorro las linias que te salen en el monitor ...

Como ya he dicho, deberías activar el Triple buffer. Notarás una mejoría espectacular.

sergio93
04/03/2009, 13:59
Totalmente de acuerdo con el tema, de hecho es hay donde una GTX260 supera a una ATI4870 y esto es muy claro al ver por ejemplo los FPS mínimos donde se aprecia la gran diferencia de estabilidad de una gráfica a otra. Respecto al micro no es importante a menos que comparemos un mononucleo antiguo con un doble o cuadruple actual, o bien juguemos a 800x600 claro.

Si que se nota... Por ejemplo, GTA IV con mi Q6600 a 2,4GHz daba tirones en muchos momentos y ahora con el procesador a 3,2GHz no noto nada, funciona fluido a todo momento, y no juego a 800x600, juego a 1680x1050..

Farinorco
04/03/2009, 14:03
En el caso B me parecería coherente que los rendimientos empezaran a captarse después del primer frame. Eso siempre que las lecturas a disco no se repitieran durante la partida.

Porque me parece igual de injugable un juego que tiene bajadas de rendimiento por falta de potencia como el que tiene parones por lecturas/escrituras a disco. No me compro el FEAR 2 hasta que un parche permita desactivar el autosave o escriban una rutina de guardado asíncrona. Y no si no lo hacen nunca no jugaré el juego y tan contento.


En las carátulas de los DVD viene especificado que 'la transición entre capas puede producir una ligera pausa' aunque yo no he sido capaz en mi vida de encontrar un reproductor que sufra de dicha pausa.

Sin embargo con los juegos la gente se baja los pantalones y si el juego guarda cada minuto produciendo un parón, resulta que es 'normal'. ¿Qué pasaría si compramos una película y cada minuto hubiera un parón? La devolveríamos.

Muy permisiva se ha vuelto la gente con el tema del rendimiento en los videojuegos. Mientras vamos aumentando polígonos y efectos nos van limitando framerate y libertad jugable (aquí incluyo también, y en mayor medida, las consolas). Y muchos tan contentos.

Otro ejemplo. Sabrás que aunque se intente, es imposible sacar del estudio todas las variables externas. Se cerrará toda aplicación ajena al juego para que no interfiera, se configurará de forma que el hardware que no es de interés en la prueba no interfiera, etc. Pero el mismo SO tiene un montón de servicios y conjuntos de instrucciones varios corriendo en background, por ejemplo. Así que pongamos por ejemplo que estamos comparando, qué se yo, con qué CPU van mejor los juegos.

Estamos de acuerdo en que aunque no influya en el framerate medio pues la casi totalidad de los frames quedan determinados por el tiempo que tarde la GPU, influye mucho en el resultado subjetivo pues en los pocos frames que le toquen puede, como tu has explicado (y muy bien), arruinarnos la experiencia de juego. Así que, adelante con ello...

Tenemos una CPU A que aún no lo sabemos, pero es más rápida en todo que la otra CPU, llamada B. Esa CPU A nos va a permitir jugar mejor ya que tardará menos en resolver los frames en los que la carga de CPU sea mayor que la de GPU.

Sin embargo, los mínimos en el juego que vamos a usar para comprobar esto quedan determinados por sendos puntos en los que se hacen lecturas a disco que hacen cuello de botella a los micros (en ambos micros, porque las lecturas son demasiado largas). Como a pesar de estar leyendo el mismo dato el tiempo de lectura será variable (dependiendo de la región física de disco donde esté almacenado ese conjunto de datos temporales que estamos leyendo en esa ejecución, de que ocurra o no un fallo de caché del disco dependiendo de lo que hubiera previamente antes de correr el bench en dicha caché, etc) resulta que el mínimo lo que va a ser es un voleo, totalmente aleatorio, ni más ni menos.

Así que, dándole importancia a los mínimos, tenemos que nuestra rigurosa prueba va a decidir a volea (como el que tira un dado) cuál de las dos CPUs es más rápida. Y lo peor es que encima lo mismo sale más lenta la que es más rápida en todos los casos XDDDDDD.

Lo peor de todo es que esto no es una situación excepcional que haga sospechar de los resultados de los mínimos por falta de seguridad, es que es la situación normal. Si se hace un test con una muestra de un simple minutito, esto son 60000ms. Si contamos con una media de ~50fps, significaría un promedio de 20ms por frame. En total tenemos unos 3000 tiempos de renderización en nuestra triste prueba de 1 minuto. Que de esos 3000 haya unos pocos, aunque sean muy pocos, decididos por factores externos, ajenos a lo que se prueba, o simplemente aleatorios, es casi seguro. Que estos valores raros sigan el mismo orden de tiempos que los de la prueba en sí (que sí están relacionados entre sí y por tanto es más lógico que compartan características y coincidan algo) sería sólo casualidad. Por lo tanto es normal que estos sean muy diferentes a los normales, y por tanto ocupen el puesto en la muestra de, precisamente, los mínimos y máximos según sean menores o mayores de lo normal.

Además no se puede calcular porque al tener tantos factores interactuando y afectando al resultado, el comportamiento se vuelve no determinista en la práctica (simplemente porque no podemos nunca controlar todos los factores implicados). Por ejemplo si en nuestro ejemplo la lectura no es originada por el juego si no por un servicio del SO, que puede activarse en una sí y en otra no, por azar y nada más.

Es por eso que me esfuerzo por desacreditar los mínimos como una medida de nada útil. "Con esta tarjeta/CPU/loquesea tengo un mínimo más elevado". Respuesta mía "¿Y bien? ¿Sabes lo que eso significa? ¿Lo sabe alguien?". Nuop. No significa nada de nada, no mide nada, y no nos está dando ningún dato práctico sobre nuestra tarjeta/CPU/loquesea.

Estoy de acuerdo con casi todo lo que has explicado, y me parece que has usado buenos ejemplos para defender lo que dices, que es que los casos minoritarios tienen un efecto demasiado importante en la apreciación subjetiva como para ignorarlos, que es lo que se hace cuando sólo se hace caso al framerate medio.

Pero yo no estoy defendiendo lo contrario, ni mucho menos. Es más, constantemente digo a los 4 vientos lo mismo que tú, porque estoy totalmente de acuerdo. Pero esto no nos debe hacer caer en el error de creer que conocer el dato del tiempo que ha tardado en renderizarse el frame más lento de la comparativa nos deja en ninguna situación mejor que conocer la media. Habrá que pensar otra cosa, no lo sé, pero los mínimos no valen para medir esto.

Perdón por el leñaco XDDDD

Sendai
04/03/2009, 15:09
No vienen. Lo que sí viene en el perfil es el TripleBuffer PARA OPENGL. Y eso es lo único activable por drivers. Para direct3D no sirve por culpa de las especificaciones de microsoft. Que es lo que fuerza y se salta el DXOverrider.

En algunos juegos si se puede desde el propio juego, como Left 4 Dead.

uchihas
04/03/2009, 15:33
Si que se nota... Por ejemplo, GTA IV con mi Q6600 a 2,4GHz daba tirones en muchos momentos y ahora con el procesador a 3,2GHz no noto nada, funciona fluido a todo momento, y no juego a 800x600, juego a 1680x1050..

El GTA IV es uno de los juegos que tira mucho del procesador, sea la resolucion que sea.

Uruk-hai
04/03/2009, 15:48
A mi los minimos o los maximos, asi sin una grafica o unos porcentajes que den mas informacion, no me dicen absolutamente nada. Son un numero de fps que no se si se han dado durante un minimo instante o son bajones que se producen con frecuencia. Y ahora que las duales son cada vez mas populares, tampoco se si hay stuttering con esos datos.
Los benches deberian tener todos una grafica, como en el world in conflict o el farcry 2, o al menos porcentajes como el betusto FEAR. Eso si es util.

Estoyencrysis
04/03/2009, 16:52
Si que se nota... Por ejemplo, GTA IV con mi Q6600 a 2,4GHz daba tirones en muchos momentos y ahora con el procesador a 3,2GHz no noto nada, funciona fluido a todo momento, y no juego a 800x600, juego a 1680x1050..

Recuerdo un análisis en el que comparaban micros a partir de 2,6 GHz y 1280x1024 la difencia era simplemente ridícula. No obstante si es cierto que como todo excepciones las abra, indudablemente, pero hay que generalizar teniendo en cuenta el 99% de los juegos y no el 1% para tener unas referencias adecuadas, mucha caña está dando el GTA IV en este sentido, parece haberse convertido en el abanderado de los cuatro núcleos, cuando simplemente es un caso muy pero que muy excepcional y que además tiene fama de estar optimizado con el culo...

MaLDo
04/03/2009, 16:53
Otro ejemplo. Sabrás que aunque se intente, es imposible sacar del estudio todas las variables externas. Se cerrará toda aplicación ajena al juego para que no interfiera, se configurará de forma que el hardware que no es de interés en la prueba no interfiera, etc. Pero el mismo SO tiene un montón de servicios y conjuntos de instrucciones varios corriendo en background, por ejemplo. Así que pongamos por ejemplo que estamos comparando, qué se yo, con qué CPU van mejor los juegos.

Estamos de acuerdo en que aunque no influya en el framerate medio pues la casi totalidad de los frames quedan determinados por el tiempo que tarde la GPU, influye mucho en el resultado subjetivo pues en los pocos frames que le toquen puede, como tu has explicado (y muy bien), arruinarnos la experiencia de juego. Así que, adelante con ello...

Tenemos una CPU A que aún no lo sabemos, pero es más rápida en todo que la otra CPU, llamada B. Esa CPU A nos va a permitir jugar mejor ya que tardará menos en resolver los frames en los que la carga de CPU sea mayor que la de GPU.

Sin embargo, los mínimos en el juego que vamos a usar para comprobar esto quedan determinados por sendos puntos en los que se hacen lecturas a disco que hacen cuello de botella a los micros (en ambos micros, porque las lecturas son demasiado largas). Como a pesar de estar leyendo el mismo dato el tiempo de lectura será variable (dependiendo de la región física de disco donde esté almacenado ese conjunto de datos temporales que estamos leyendo en esa ejecución, de que ocurra o no un fallo de caché del disco dependiendo de lo que hubiera previamente antes de correr el bench en dicha caché, etc) resulta que el mínimo lo que va a ser es un voleo, totalmente aleatorio, ni más ni menos.

Así que, dándole importancia a los mínimos, tenemos que nuestra rigurosa prueba va a decidir a volea (como el que tira un dado) cuál de las dos CPUs es más rápida. Y lo peor es que encima lo mismo sale más lenta la que es más rápida en todos los casos XDDDDDD.

Lo peor de todo es que esto no es una situación excepcional que haga sospechar de los resultados de los mínimos por falta de seguridad, es que es la situación normal. Si se hace un test con una muestra de un simple minutito, esto son 60000ms. Si contamos con una media de ~50fps, significaría un promedio de 20ms por frame. En total tenemos unos 3000 tiempos de renderización en nuestra triste prueba de 1 minuto. Que de esos 3000 haya unos pocos, aunque sean muy pocos, decididos por factores externos, ajenos a lo que se prueba, o simplemente aleatorios, es casi seguro. Que estos valores raros sigan el mismo orden de tiempos que los de la prueba en sí (que sí están relacionados entre sí y por tanto es más lógico que compartan características y coincidan algo) sería sólo casualidad. Por lo tanto es normal que estos sean muy diferentes a los normales, y por tanto ocupen el puesto en la muestra de, precisamente, los mínimos y máximos según sean menores o mayores de lo normal.

Además no se puede calcular porque al tener tantos factores interactuando y afectando al resultado, el comportamiento se vuelve no determinista en la práctica (simplemente porque no podemos nunca controlar todos los factores implicados). Por ejemplo si en nuestro ejemplo la lectura no es originada por el juego si no por un servicio del SO, que puede activarse en una sí y en otra no, por azar y nada más.

Es por eso que me esfuerzo por desacreditar los mínimos como una medida de nada útil. "Con esta tarjeta/CPU/loquesea tengo un mínimo más elevado". Respuesta mía "¿Y bien? ¿Sabes lo que eso significa? ¿Lo sabe alguien?". Nuop. No significa nada de nada, no mide nada, y no nos está dando ningún dato práctico sobre nuestra tarjeta/CPU/loquesea.

Estoy de acuerdo con casi todo lo que has explicado, y me parece que has usado buenos ejemplos para defender lo que dices, que es que los casos minoritarios tienen un efecto demasiado importante en la apreciación subjetiva como para ignorarlos, que es lo que se hace cuando sólo se hace caso al framerate medio.

Pero yo no estoy defendiendo lo contrario, ni mucho menos. Es más, constantemente digo a los 4 vientos lo mismo que tú, porque estoy totalmente de acuerdo. Pero esto no nos debe hacer caer en el error de creer que conocer el dato del tiempo que ha tardado en renderizarse el frame más lento de la comparativa nos deja en ninguna situación mejor que conocer la media. Habrá que pensar otra cosa, no lo sé, pero los mínimos no valen para medir esto.

Perdón por el leñaco XDDDD

No te preocupes, debatir así da gusto.

Dicho esto, sigo sin estar de acuerdo... jijiji. Qué pesado soy.

Entendida tu argumentación, te pregunto ¿porqué debemos suponer que sabremos configurar / optimizar el sistema operativo mejor que los que hagan la review?.

La respuesta obvia, y con la que estoy de acuerdo, es que los que hacen reviews, pocas veces saben con exactitud lo que hacen. Y para colmo, dedican unos minutos a hacer el bench mientras se comen una pizza y juegan a otro pc (o más habitualmente con una consola) y luego cambian los componentes a benchear en 5 minutos, reinstalan drivers y otra vez al fifa (por decir algo).

Pero cuando me refiero a la importancia de los mínimos, estoy haciendo referencia a LA EXPERIENCIA PERSONAL. Es decir, que si yo pongo un juego EN MI PC y CON MI CONFIGURACIÓN (de componentes, drivers, SO, servicios activos, periféricos conectados, etc) lo que me importa y determina si termino el juego o lo dejo aparcado (hasta futuros parches o actualización de componentes) SON LOS MÍNIMOS.

Es decir, que lo me hace pensar, o expresar en un foro, si el juego funciona bien o funciona mal son los mínimos. Como comentaba, la demo del FEAR 2 funcionaba el 98% a 60 fps limitados (por encima de 150 sin limitar) con las opciones gráficas al máximo. Y sin embargo yo no pagaré por él porque tenía pausas en los autoguardados. Mínimas, pero tocacojones. Por eso si alguien me pregunta ¿cómo te va el FEAR 2? Contestaré con sinceridad: no podría ir mejor (porque no hay manera posible de hacerlo) pero aún así, va como una mierda.

Por eso estoy de acuerdo en que valorar solo los mínimos de un bench que publique un site de internet es peligroso porque pueden tener el PC como unos zorros. Pero es que esto es aplicable a fijarse en los medios y en los máximos y cualquier cosa que se les ocurra medir.

Dicho esto, sigo opinando que los mínimos son los que determinan si un juego va bien o no. Esten causados por H o por B o se den mucho o se den poco.

zorranco
04/03/2009, 17:29
Todas vuestras reflexiones, que están muy bien, vienen a parar a lo mismo, y es que:

1.- Las reviews de las revistitas electrónicas no deberían ser tomadas más que como lo que son, orientativas, no como la Biblia o la torá que algunos parece que se las toman

2.- Que los datos se presentan de manera simplificada hasta el absurdo, porque estamos de acuerdo que una media es solo eso, una media, pero que en ese tiempo puede haber pasado de todo xD. Las gráficas de HardOCP están bien para ver los bajones que pueda tener una VGA y poco más, pero como comentan por aquí cuando hay mas de 3 lineas en pantalla no hay quien interprete los datos. Evidentmente las variancias, desviaciones y demás fauna estadística no te las van a tener en cuenta, que sufiente trabajo tienen con pasar el timedemo en configuraciones diferentes, que no es poco.

¿Como explicarías tu estadísticamente efectos como "lag", "atragantón", "petardeo"? xDDDDD

Zoltelder
04/03/2009, 18:13
Porque me parece igual de injugable un juego que tiene bajadas de rendimiento por falta de potencia como el que tiene parones por lecturas/escrituras a disco. No me compro el FEAR 2 hasta que un parche permita desactivar el autosave o escriban una rutina de guardado asíncrona. Y no si no lo hacen nunca no jugaré el juego y tan contento.


Te aconsejo que pruebas el FEAR 2 completo, porque los parones de autosaves que se daban en la demo no tiene nada que ver con el juego completo.

De hecho somo ya muchos los que hemos dicho que los parones que se daban en la demo no se dan en el juego completo; en este hace un pausa como cualquier juego cuando auto-guarda, saliendo el mensaje de auto-save, pero ya te digo que esto si es lo normal y no lo que habia en le demo que era bastante molesto

MaLDo
04/03/2009, 18:29
Te aconsejo que pruebas el FEAR 2 completo, porque los parones de autosaves que se daban en la demo no tiene nada que ver con el juego completo.

De hecho somo ya muchos los que hemos dicho que los parones que se daban en la demo no se dan en el juego completo; en este hace un pausa como cualquier juego cuando auto-guarda, saliendo el mensaje de auto-save, pero ya te digo que esto si es lo normal y no lo que habia en le demo que era bastante molesto


Me demuestras lo que digo, que te parece normal que se pare cuando guarda.

Yo no hablo de los problemas de stutter continuo que tenía mucha gente con la demo. No he tenido esos problemas. A mi se me paraba una décima de segundo cada vez que guardaba la partida. Pero no soporto que yo tenga que notar si el juego está guardando o no (yo no le he dicho que guarde) y muchos menos si el juego guarda en checkpoints cada 10 metros.

Y de normal no tiene nada, muchísimos juegos guardan la partida de forma transparente para el usuario. Lo del FEAR 2 es una chapuza.

Zoltelder
04/03/2009, 18:38
No digo que sea normal el parado del autosave que se daba en la demo, y ya te digo que pruebas el juego completo porque no tiene nada que ver. Pasate por el hilo del FEAR 2 y podrás ver comentarios de algunos respecto a esto.

Mi PC no es el más recomendado para valorarlo, pero ya te digo que no tiene nada que ver con la demo. Pruebalo y valóralo tu mismo.
El problema de la demo es que además son copy y paste de distintas partes del juego, no tiene nada que ver con una seccion completa (relativa a la duracion de la demo) que transcurra asi en el juego completo

Farinorco
04/03/2009, 18:44
No te preocupes, debatir así da gusto.

Dicho esto, sigo sin estar de acuerdo... jijiji. Qué pesado soy.

Entendida tu argumentación, te pregunto ¿porqué debemos suponer que sabremos configurar / optimizar el sistema operativo mejor que los que hagan la review?.

La respuesta obvia, y con la que estoy de acuerdo, es que los que hacen reviews, pocas veces saben con exactitud lo que hacen. Y para colmo, dedican unos minutos a hacer el bench mientras se comen una pizza y juegan a otro pc (o más habitualmente con una consola) y luego cambian los componentes a benchear en 5 minutos, reinstalan drivers y otra vez al fifa (por decir algo).

Pero cuando me refiero a la importancia de los mínimos, estoy haciendo referencia a LA EXPERIENCIA PERSONAL. Es decir, que si yo pongo un juego EN MI PC y CON MI CONFIGURACIÓN (de componentes, drivers, SO, servicios activos, periféricos conectados, etc) lo que me importa y determina si termino el juego o lo dejo aparcado (hasta futuros parches o actualización de componentes) SON LOS MÍNIMOS.

Es decir, que lo me hace pensar, o expresar en un foro, si el juego funciona bien o funciona mal son los mínimos. Como comentaba, la demo del FEAR 2 funcionaba el 98% a 60 fps limitados (por encima de 150 sin limitar) con las opciones gráficas al máximo. Y sin embargo yo no pagaré por él porque tenía pausas en los autoguardados. Mínimas, pero tocacojones. Por eso si alguien me pregunta ¿cómo te va el FEAR 2? Contestaré con sinceridad: no podría ir mejor (porque no hay manera posible de hacerlo) pero aún así, va como una mierda.

Por eso estoy de acuerdo en que valorar solo los mínimos de un bench que publique un site de internet es peligroso porque pueden tener el PC como unos zorros. Pero es que esto es aplicable a fijarse en los medios y en los máximos y cualquier cosa que se les ocurra medir.

Dicho esto, sigo opinando que los mínimos son los que determinan si un juego va bien o no. Esten causados por H o por B o se den mucho o se den poco.

Cuidado, no me refería a que el mínimo no sirva porque las mediciones sean imprecisas o malas, es el mismo concepto de mínimo el que no sirve. Pero creo que empiezo a entender de dónde salen nuestras diferencias cuando en el fondo pensamos básicamente igual:

Creo (creo) que cuando hablas de mínimos, más que de mínimos estás hablando de caídas de framerate, bajones, irregularidades. Yo al hablar de mínimo, me refiero al mínimo literal, que es el dato que se da cuando se pone el "mínimo" y el "máximo". Es decir, de todos los miles de valores que has cosechado, el más bajito. Fíjate que no es lo mismo una cosa que la otra, las caídas no tienen porqué ser mínimos, de hecho caídas habrá las que sea, y mínimos, sólo hay uno por cada conjunto de datos.

Estamos de acuerdo en que las caídas e irregularidades son las que determinan en gran medida la jugabilidad y/o fluidez. A partir de ahí, el problema con el dato de "framerate mínimo", es que se ha extendido la idea de que sirve como una forma de medir si hay caídas e irregularidades o no. Como una forma de comparar en qué hw se producen más y mayores caídas que en el resto. Y eso es lo que discuto, pues es una forma tan extrema de simplificación del problema (que sería que no todos los resultados se ven representados en la media), que casi deja peor el análisis de los datos supuestamente objetivos que si no se analiza este dato...


Todas vuestras reflexiones, que están muy bien, vienen a parar a lo mismo, y es que:

1.- Las reviews de las revistitas electrónicas no deberían ser tomadas más que como lo que son, orientativas, no como la Biblia o la torá que algunos parece que se las toman

2.- Que los datos se presentan de manera simplificada hasta el absurdo, porque estamos de acuerdo que una media es solo eso, una media, pero que en ese tiempo puede haber pasado de todo xD. Las gráficas de HardOCP están bien para ver los bajones que pueda tener una VGA y poco más, pero como comentan por aquí cuando hay mas de 3 lineas en pantalla no hay quien interprete los datos. Evidentmente las variancias, desviaciones y demás fauna estadística no te las van a tener en cuenta, que sufiente trabajo tienen con pasar el timedemo en configuraciones diferentes, que no es poco.

¿Como explicarías tu estadísticamente efectos como "lag", "atragantón", "petardeo"? xDDDDD

Yep, también yo lo veo así. A veces pienso que la mejor forma de comprobar la estabilidad y demás de los resultados es simplemente mediante una valoración subjetiva, además de las medias de framerate que suelen darse. Comparar con una frasecita o dos cómo se ven de fluidos los juegos con un hardware u otro, por ejemplo ("Matamás the Gueim: tarjeta Pepa tiene una media superior a tarjeta Paqui, pero sin embargo veo que se atranca por momentos y a la otra no le pasa. Saltaysaltasinparar 3: en este veo igual de fluido el juego con ambas tarjetas"). El problema de esto, es que como subjetiva que sería, es bastante fácilmente influenciable, incluso sin querer. ¿Ve el reviewer las diferencias que pone, o las cree ver porque tiene ideas previas que le influyen?

Probablemente para hacerse una mejor idea de todo esto, lo mejor sería acompañar las medias de las varianzas (que viene a ser una media de las desviaciones de cada dato con respecto a la media, más o menos, para el que no le preste mucha atención a la estadística XDDD) correspondientes, e incluso el porcentaje de frames que caen por debajo de un límite decidido arbitrariamente (y que puede ser incluso relativo a la propia media). Con todo esto seguiríamos sin tener nada definitivo, seguiría siendo una visión simplificada y que se come detalles por todos lados y que por tanto engaña y oculta cosas, y encima sería mucho más complicado de interpretar para todo el mundo, pero sería algo más precisa y daría más juego para interpretación.

Más probablemente, lo mejor es hacer lo que tú dices, tener bien claro que las reviews son reviews, que los datos que dan son orientativos pero no nos dan nada absoluto ni definitivo, porque son una forma de simplificar algo muy complejo para encuadrarlo en un par de números. Contar con ellas, con valoraciones de los usuarios, con la experiencia personal... pero sin olvidar que esos números son sólo simplificaciones y redondeos y no nos cuentan todo lo que nos gustaría (y deberíamos...) saber.

En cualquier caso, se haga como se haga, yo suprimiría el dato de "mínimo" (muestra más baja entre todas, o sea, de entre todos los frames renderizados, cuánto tiempo ha tardado el que más) y el de "máximo" (la más alta) de toda review, porque en un 99% de los casos confunde y conduce a conclusiones erróneas a los lectores (e incluso a los mismos reviewers), y aporta poca información útil, si es que aporta alguna...

7HUND3RS
04/03/2009, 20:14
Yo apuntaria otra factor a tener en cuenta aparte del tema de los frames minimos en lo que parece que estamos todos de acuerdo.
Y es la caida de frames, es decir, si estas tan ricamente jugando a 100/150 fps y de golpe caen a 40/50 tambien es algo que resulta muy molesto. Por desgracia esto es algo que no se puede apreciar en ninguna de las pruebas de rendimiento que se leen .

Si pero eso de los mínimos FPS tiene que ver mas con la optimizacion del juego que del propio potencial del hardware,el hardware solo ayuda en mayor o menor medida eso también depende del motor gráfico del juego. Acordaros de oblivion, solo con dos arboles a la vista los fps caían en picado, yo tengo caídas en picado de fps por el cpu por que el sli no se nota gran cosa cuando hay carga de texturas y demás en pantalla. Bueno si se nota por que los fps mínimos son mas altos que con single gpu y se mantienen mas estables pero juegos como crysis la cosa flaquea mucho cuando hay carga. CPU ayuda en todo pero que nuevamente depende del motor gráfico del juego.

cosvel
04/03/2009, 20:22
claro...totalmente de acuerdo...
mirar el Mirrors Edge, a mi me va a 60fps constantes, como mucho eh visto con el fraps bajones a 52-53 frames...a 1680x1050...
claro, yo no pongo nada absurdo estilo AA a 8x .... pero vamos, que para lo que es mi equipo, hay juegos que salen hoy, que van mejor, y practicamente se ven mejor que juegos de hace un año..

Patagonico
04/03/2009, 21:32
Con que programas miden los FPS?

CapitanTrueno
04/03/2009, 21:34
Con que programas miden los FPS?

Por ejemplo con el FRAPS

concabeza
04/03/2009, 22:02
yo solo es por apuntar pero empezamos hablando de los bench de que tenía mas importancia y acabamos hablando de lo que el ojo es capaz de ver y no ver....

Patagonico
04/03/2009, 22:05
Por ejemplo con el FRAPS

Y ademas del fraps hay otro programa?

cosvel
04/03/2009, 22:23
Con que programas miden los FPS?

fraps...y rivatuner...
son los que uso yo vamos..XDD

porcierto, que veo que aqui se trata que picar él uno al otro.....has leido mi post....yo no necesito 8x de AA a 1680x1050....sin AA a 1680x050 ya soy feliz....pero que muy feliz...XDD

salu2

concabeza
04/03/2009, 22:56
pues yo estoy contigo no es que note yo mucha diferencia de poner AA y no ponerlo,sera que todavía no soy un buen gamer o algo

Patagonico
04/03/2009, 23:02
fraps...y rivatuner...
son los que uso yo vamos..XDD

porcierto, que veo que aqui se trata que picar él uno al otro.....has leido mi post....yo no necesito 8x de AA a 1680x1050....sin AA a 1680x050 ya soy feliz....pero que muy feliz...XDD

salu2

el fraps lo uso, el rivatuner no tenia idea lo probare, lo unico que estoy haciendo son unas pruebas a ver cuantos FPS me da la GT8600 para comparar con la placa nueva cuando la cambie por ahora nada de AA.-

Gracias.-

V for Vendetta
04/03/2009, 23:27
pues yo estoy contigo no es que note yo mucha diferencia de poner AA y no ponerlo,sera que todavía no soy un buen gamer o algo


A mi antes me pasaba igual pero una vez te acostumbras a jugar con AA te das cuenta de que los perfiles y en general todo está muchisimo más definido.

cosvel
05/03/2009, 18:50
el fraps lo uso, el rivatuner no tenia idea lo probare, lo unico que estoy haciendo son unas pruebas a ver cuantos FPS me da la GT8600 para comparar con la placa nueva cuando la cambie por ahora nada de AA.-

Gracias.-

si el rivatuner tambien te pone en la pantalla del juego, en plan fraps, la temperatura, las velocidades de gpu, memos etc.....y los frames...incluso puedes configurarlo para ver, tambien en plan fraps, las temps del procesador..
pero como esta ingles ni me acuerdo como configurarlo para explicarte... XDD

lo vi en algun tuto por hay por google..

salu2

y respecto al AA, claro que se nota...pero de donde no hay no se puede sacar XDD ... y si la grafica no aguanta bien todo en alto, 1680 y AA a la vez, solo con ir a 1680x1050 sin AA ya se ve bastante bien...lo importante es no tener bajones de la ostia en los frames cada 2 por 3...

<<=Aquiles=>>
05/03/2009, 19:02
Totalmente de acuerdo con el tema, de hecho es hay donde una GTX260 supera a una ATI4870 y esto es muy claro al ver por ejemplo los FPS mínimos donde se aprecia la gran diferencia de estabilidad de una gráfica a otra. Respecto al micro no es importante a menos que comparemos un mononucleo antiguo con un doble o cuadruple actual, o bien juguemos a 800x600 claro.
Exacto...

kertsz
05/03/2009, 20:50
Pero es que tener un mínimo cerca de un average no indica nada!

Minimo = average = 20 FPS -> juego mal optimizado.

Minimo = average = 60 FPS -> juego bien optimizado.

Entonces alguien me puede decir que valor tiene el mínimo si, además, es un valor unitario, ¿frente al averge que es una media?
Además, si tan importante son los mínimos segun vosotros, si son puntuales son puntuales, y si son habituales ya se verán reflejados en la media!!!

Yo es que creo que quereis reinventar la rueda.

Yo si crysis me da un average de :

50fps

la verdad que prefiero que vaya todo el testa a ....

50 fps

a que vaya la mitad del test a ....

25fps

y la otra mitad a .....


75 fps

¿ no estas con migo ?

Patagonico
05/03/2009, 22:21
si el rivatuner tambien te pone en la pantalla del juego, en plan fraps, la temperatura, las velocidades de gpu, memos etc.....y los frames...incluso puedes configurarlo para ver, tambien en plan fraps, las temps del procesador..
pero como esta ingles ni me acuerdo como configurarlo para explicarte... XDD

lo vi en algun tuto por hay por google..

salu2

y respecto al AA, claro que se nota...pero de donde no hay no se puede sacar XDD ... y si la grafica no aguanta bien todo en alto, 1680 y AA a la vez, solo con ir a 1680x1050 sin AA ya se ve bastante bien...lo importante es no tener bajones de la ostia en los frames cada 2 por 3...

La verdad que ya tenia instalado el rivatuner pero nunca me habia fijado los Fps, bastante interesante puedes ver en la grafica como reacciona el juego y marcar el Mnimo y el maximo, pero no el AVG, gracias por el aporte.-