PDA

Ver la versión completa : Core i7 ha salido rana (también sufren del TLB bug)



Nintendork
01/12/2008, 14:16
http://forums.vr-zone.com/showthread.php?t=359809


It looks like that Intel's Core i7 has got a TLB-Bug like the first AMD-Phenom-Generation. Intel writes in an official document:

"In rare instances, improper TLB invalidation may result in unpredictable system behavior, such as system hangs or incorrect data. Developers of operating systems should take this documentation into account when designing TLB invalidation algorithms. For the processors affected, Intel has provided a recommended update to system and BIOS vendors to incorporate into their BIOS to resolve this issue."

http://www.hardware-infos.com/news.php?news=2553
http://download.intel.com/design/processor/specupdt/320836.pdf

Anlupa
01/12/2008, 14:21
Me arriesgaré a ser insultado:
Pero a Intel se le perdonará. Y alguno tendrá que tragarse sus palabras para con AMD.
Pese a que a los Phenom no les afecta en el quehacer de su vida diaria, se les dió muchos palos por ello. Seguramente se quede en lo mismo.
Más grave veo lo del voltaje del controlador de memoria que impide subir para adaptar a frecuencias superiores.

bender80
01/12/2008, 14:29
Si eso es verdad a ver ahora los que criticaban tanto a amd con esto van a disculpar a la todopoderosa intel o la van a echar mierda por todos sitios como paso con amd.

El TLB en la practica los usuarios rara vez iban a darse cuenta del problema, es un fallo importante pero dificil de reproducir como luego quedo demostrado. Para que se vea que hacer un quad monolito no es tan facil, se critico mucho a amd por querer ir demasiado deprisa y no seguir el modelo de intel con sus quad, ahora que intel hace monolito le pasa lo mismo que a amd, de confirmarse esto claro.

OnagroDeAsedio
01/12/2008, 14:34
Si eso es verdad a ver ahora los que criticaban tanto a amd con esto van a disculpar a la todopoderosa intel o la van a echar mierda por todos sitios como paso con amd.

El TLB en la practica los usuarios rara vez iban a darse cuenta del problema, es un fallo importante pero dificil de reproducir como luego quedo demostrado. Para que se vea que hacer un quad monolito no es tan facil, se critico mucho a amd por querer ir demasiado deprisa y no seguir el modelo de intel con sus quad, ahora que intel hace monolito le pasa lo mismo que a amd, de confirmarse esto claro.

me hacen gracia los FanBoys!!!


Precisamente cuanto más enfrentado este el Oligopolio mejor para nosotros, recorsar que las GTX bajaron 200 € gracias a la caña que le metió ATI

alber_recas
01/12/2008, 14:35
Perdonar por mi ignorancia pero que es el TLB.
Es que voy a comprar un PC y estaba totalmente decidido por el core i7.
Es muy grave?¿

GraxaS
01/12/2008, 14:37
a quien hierro mata...

OnagroDeAsedio
01/12/2008, 14:40
Perdonar por mi ignorancia pero que es el TLB.
Es que voy a comprar un PC y estaba totalmente decidido por el core i7.
Es muy grave?¿

si esperas ganaras mejoras de revisiones y mejores precios, espera hasta depsues de reye so febrero

bender80
01/12/2008, 14:44
me hacen gracia los FanBoys!!!


Precisamente cuanto más enfrentado este el Oligopolio mejor para nosotros, recorsar que las GTX bajaron 200 € gracias a la caña que le metió ATI


fanboy de que?acaso los llamados "fanboys" de intel no metieron palos y palos a amd por el tema?.

Solo estoy diciendo que si esto es verdad y lo pongo bien claro si es verdad si les va a caer a intel la misma somanta de palos de los que le cayeron hace un añito a amd o no va a pasar nada.

Ademas pongo mas abajo que el TLB en la practica por lo menos en el caso de amd fue muy dificil de reproducir y me imagino que pasara lo mismo.

Ademas mas abajo pongo que hace un quad por lo que parece no es tan sencillo, que se critico mucho a amd por no hacer un quad como intel y ahora que ellos hacen un monolito paso lo mismo.

No veo yo el fanboy como tu dices por ningun sitio, a mi me da igual que el core 7 tenga fallos o no, preferiria que no ya que no creo que les haga gracia a los que se hayan comprado esta plataforma despues de lo que se han gastado por pagar por la novedad vean esto, no creo que les haga gracia.
Me compro lo que mejor me viene me da igual las marcas

Ivanuko
01/12/2008, 14:55
Huyyyyy...cuidadin con intel porque se, que a intel no le va a caer la misma mierda que le cayo a AMD, vamos sera un mal menor. En cambio a AMD.. bueno el procesador ni le comprases, que tenia el bug TLB y no te iva a abrir ni el msn..se hizo de un grano una montaña pero bue.. Tan solo me sentare a esperar lo que les va a pasar a intel. No estaria nada mal que se comieran la misma mierda, asi vereis i7 a bajo precio.

ARRAIDAN
01/12/2008, 15:01
Perdonar por mi ignorancia pero que es el TLB.
Es que voy a comprar un PC y estaba totalmente decidido por el core i7.
Es muy grave?¿

Yo sigo diciendote lo mismo, esperaría a una nueva revisión, te vas a ahorrar pasta por un tubo, y tendrás mejores componentes.

En todo caso el error TLB en AMD, era casi imposible de reproducir en ámbito doméstico, claro que no sabemos como se comportará el intel...

Rumil
01/12/2008, 15:01
Uy a ver si aparece 7hunders por aqui, que va a ser divertido leerle.

_Takatalvi_
01/12/2008, 15:06
Perdonar por mi ignorancia pero que es el TLB.
Es que voy a comprar un PC y estaba totalmente decidido por el core i7.
Es muy grave?¿

La paginación de memoria es un tema un poco complicado para explicarlo así por encima, pero a grandes rasgos podríamos decir que los procesos son divididos en fragmentos llamados páginas a la hora de ser ejecutados. Algunas de esas páginas se cargan en memoria ram ocupando huecos del mismo tamaño llamados marcos. Es decir, cada página del proceso cargada en memoria se ubica dentro de un marco. Para saber cuál es la dirección de ese marco el gestor de memoria del Sistema Operativo posee unas tablas de conversión llamadas tablas de páginas que también se almacenan en memoria. Por norma general, para leer un dato hay que realizar dos accesos a memoria, el primero a la tabla de páginas para obtener la dirección física del marco, y el segundo para leer el marco en sí. Para evitar esto se usa el TLB, que es a grosso modo una cache donde se guarda parte de la tabla de páginas. Cuando se quiera encontrar la dirección de un marco se mirará primero en el TLB; si está ya podemos ir hasta el dato con un solo acceso a memoria. Si no está habrá que buscarlo en la tabla de páginas y el proceso será más lento pues habrá que acceder más veces a memoria.

La función del TLB es importante y sus fallos pueden provocar serios problemas al SO, incluso cuelgues aleatorios. No sé en qué consiste el bug de los i7, pero desde luego yo esperaría.

bart0n
01/12/2008, 15:07
Uy a ver si aparece 7hunders por aqui, que va a ser divertido leerle.

alguna pag traductora 7hunders-castellano ???? :mrgreen:

Rumil
01/12/2008, 15:13
alguna pag traductora 7hunders-castellano ???? :mrgreen:


JAJAJAJAJA, Google esta a punto de implementarlo

OnagroDeAsedio
01/12/2008, 15:25
fanboy de que?acaso los llamados "fanboys" de intel no metieron palos y palos a amd por el tema?.

Solo estoy diciendo que si esto es verdad y lo pongo bien claro si es verdad si les va a caer a intel la misma somanta de palos de los que le cayeron hace un añito a amd o no va a pasar nada.

Ademas pongo mas abajo que el TLB en la practica por lo menos en el caso de amd fue muy dificil de reproducir y me imagino que pasara lo mismo.

Ademas mas abajo pongo que hace un quad por lo que parece no es tan sencillo, que se critico mucho a amd por no hacer un quad como intel y ahora que ellos hacen un monolito paso lo mismo.

No veo yo el fanboy como tu dices por ningun sitio, a mi me da igual que el core 7 tenga fallos o no, preferiria que no ya que no creo que les haga gracia a los que se hayan comprado esta plataforma despues de lo que se han gastado por pagar por la novedad vean esto, no creo que les haga gracia.
Me compro lo que mejor me viene me da igual las marcas

pancho :D no te quoteaba refiriendome a tí, sino a que Los Fanboys solo hablan la boca para reirse los palos del contrario peor que no tiran piedras a su propio tejado

Lamento la malinterpretacion!!

Un saludooo

Anlupa
01/12/2008, 15:27
En el AMD el error se producía en escenarios de virtualización con elevado uso de CPU y memoria. Ninguno de mis Phenom 9600 me ha dado errores (salvo, claro está, en pruebas de OC con cambios en multiplicadores y HTT...) ni cuelgues, se comportan a la perfección en cualquier ámbito.
Habrá que ver cuando se reproducen los supuestos errores de los I7.

Jordi M.C
01/12/2008, 15:46
Yo ya lo dije, estos i7 seran un fracaso absoluto, y mas aun, si se confirma esta noticia.
Yo siempre he sido de Intel, nunca me he comprado ningun AMD, pero estoy deseando que AMD despierte y se coma a Intel con muy buenos micros, porque entonces, me pasare a AMD.
Ostoy harto de ver a Intel que se esta riendo de nosotros, incorporar una tecnologia antigua como el HT en unos nuevos procesadores, me parece que Intel esta intentando aprovechar varios P4 que tenian por ahi obsoletos, y nos lo estan intentando vender como la ultima tecnologia (todo esto, es mi opinion, puede y seguro, que estoy equivocado, pero estoy cansado de Intel al ver que estan dormidos).

Bueno, pues si se confirma esto, yo les criticare igual o mas que cuando critique a AMD.

Yo no soy fanboy de nadie, no me caso con nadie, solo quiero que los componentes esten bien, para eso los pago, y me da igual AMD, Intel o quien sea, mientras sea buena tecnologia.

Yo desde luego, de momento paso de los i7, creo que seran como los Pentium D.

Un saludo.

bender80
01/12/2008, 16:44
pancho :D no te quoteaba refiriendome a tí, sino a que Los Fanboys solo hablan la boca para reirse los palos del contrario peor que no tiran piedras a su propio tejado

Lamento la malinterpretacion!!

Un saludooo

Nada hombre, pero me estraño bastante sino habia dicho nada. ;)

Me gustaria ver si va a pasar igual con que con adm, como decian mas arriba era motivo de mofa incluso, que si no suben una mierda y no deberian vender ni uno, que vaya mierda de micros, etc etc.

Ahora que parece que tienen el mismo error veremos que pasa pero sinceramente dudo que tenga tanta repercusion negativa, deberia tener exactamente la misma y mas no porque sea intel sino pq ya le paso antes a amd, esto es deberian haberlo previsto, hacer mas testeos precisamente por esto ya que les paso a los otros sin embargo el fallo esta ahi a pesar de que le costo bastante mala reputacion.

Yo lo siento por los que se han comprado el i7 por este motivo, ya que te dejas la pasta con esto y con lo que sea quieres que no pasen estas cosas y encima la plataforma es cara, lo mismo paso con phenom que los vendian como la revolucion y luego quedo la cosa como quedo, aunque en la practica seguro que quienes lo tengan como paso con phenom no se den ni cuenta.

Pues a ver como evoluciona el tema

lordraiden
01/12/2008, 17:14
Bueno es un "Zas en toda la boca" para intel pero tampoco es para tanto ya han dicho (http://www.theinquirer.es/2008/12/01/15937.html) que se puede arreglar con una actualización de la BIOS. De todos modos es un fallo que rara vez se va a producir, puede ser que en la vida de un i7 le pase 1, 2 veces o ninguna.

lordraiden
01/12/2008, 17:32
Yo ya lo dije, estos i7 seran un fracaso absoluto, y mas aun, si se confirma esta noticia.
Yo siempre he sido de Intel, nunca me he comprado ningun AMD, pero estoy deseando que AMD despierte y se coma a Intel con muy buenos micros, porque entonces, me pasare a AMD.
Ostoy harto de ver a Intel que se esta riendo de nosotros, incorporar una tecnologia antigua como el HT en unos nuevos procesadores, me parece que Intel esta intentando aprovechar varios P4 que tenian por ahi obsoletos, y nos lo estan intentando vender como la ultima tecnologia (todo esto, es mi opinion, puede y seguro, que estoy equivocado, pero estoy cansado de Intel al ver que estan dormidos).

Un saludo.

Si intel esta dormido no digamos que es lo que esta haciendo AMD.
HT no es hardware, no es mas que una implementacion a nivel de código, se quito porque no daba el resultado que esperaban, ahora la han mejorado y la han vuelto a implementar resultado "8 cores" (virtuales) con el consiguiente aumento de rendimiento en aplicaciones multicore.
Yo tambien deseo que AMD despierte pero mas que nada para que haya una alternativa real, y para comprarse un AMD no haya que ser fanboy porque a niveles de proces baratos ambos estan igual.

Por cierto quiero recordar que AMD no es barato, el Q6600 (2.4) se come con patatas al phenon de cuatro nucleos a (2.6), lo que ocurre es que tienen que poner esos precios para poder vender algo, y pillar a algun despistado que solo se fije en los megahercios.

Moiquintanillas
01/12/2008, 17:33
No se si recordareis que tambien los E6600 le salio en su dia su bug. Nunca mas se volvio a hablar de tema, creo que con una actualizacion de bios o algun update de windows se llegaba a solucionar la cosa.

Todo lo nuevo, hasta que no se exprime bien da errores, nada es perfecto. Le pasa a las placas base y a las memorias. Se solventa con revisiones.

Coger ya de buenas a primeras un pack i7 (placa y micro) es hacer de conejillo de indias. Creo que es mejor que los expriman bien los betatesters y esperar unos meses para quien lo quiera pillar.

Punto_rojo
01/12/2008, 17:33
Pues como el arreglo sea la misma chapuza que hizo AMD, modificar la bios reduciendo el rendimiento un 30%, estos i7 van a ser una basura muy cara.

Nando_
01/12/2008, 17:33
La pregunta es, ese parche de la BIOS, hace disminuir el rendimiento como pasaba con AMD? creo que eso era lo grave del asunto.

Jordi M.C
01/12/2008, 17:39
Bueno es un "Zas en toda la boca" para intel pero tampoco es para tanto ya han dicho (http://www.theinquirer.es/2008/12/01/15937.html) que se puede arreglar con una actualización de la BIOS. De todos modos es un fallo que rara vez se va a producir, puede ser que en la vida de un i7 le pase 1, 2 veces o ninguna.
Para empezar, ya mienten, cuando una pieza de hardware sale con un fallo fisico, no hay nada que lo solucione, ni actualizando la bios, ya que hay un fallo fisico, con lo cual, ya empiezan a engañar (siempre y cuando esa noticia sea cierta).
Y a lo que respeta que puede fallar 1, 2 veces y ninguna, para mi, sigue estando el fallo, con lo cual, podria ser, que algun dia sacasen algun juego y diese con ese fallo, ¿que haces entonces?.

Yo sigo diciendo, da igual AMD o Intel, es IMPERDONABLE que ha dia de hoy, en la epoca que estamos, hagan hardware con fallos asi, y sobretodo, que se lo callen, y ademas intenten vender CPU´s caras, con fallos graves, puede que no lo notes, pero ¿y si un dia sale software que pueda fallar con esas CPU´s?

Yo lo siento, pero para mi, es una gran tomadura de pelo al usuario.

Un saludo.

Jordi M.C
01/12/2008, 17:46
Si intel esta dormido no digamos que es lo que esta haciendo AMD.
HT no es hardware, no es mas que una implementacion a nivel de código, se quito porque no daba el resultado que esperaban, ahora la han mejorado y la han vuelto a implementar resultado "8 cores" (virtuales) con el consiguiente aumento de rendimiento en aplicaciones multicore.
Yo tambien deseo que AMD despierte pero mas que nada para que haya una alternativa real, y para comprarse un AMD no haya que ser fanboy porque a niveles de proces baratos ambos estan igual.

Por cierto quiero recordar que AMD no es barato, el Q6600 (2.4) se come con patatas al phenon de cuatro nucleos a (2.6), lo que ocurre es que tienen que poner esos precios para poder vender algo, y pillar a algun despistado que solo se fije en los megahercios.

Si es cierto que el HT es lo que dices tu, pero es un error decir que ahora el HT proporciona 8 cores virtuales con el conseguiente aumento de rendimiento, lo que hace HT es emular (virtualizar) el doble de nucleos, es decir, en P4, cuando solo era monocore, el HT hacia como si fuera 2 cores, y estos i7 son 4 cores, que con el HT da como 8 cores, pero ya se aplico el HT en su dia y fracaso, y a que viene implementarlo ahora?, que lo han mejorado?, no me lo creo, puede ser, pero me suena a que no se han tomado el tiempo para invertir en tecnologia y han querido aprovechar una tecnologia atrasada que en su tiempo fallo, y ahora nos lo quieren colar como algo revolucionario.

Un saludo.

PGM
01/12/2008, 17:50
De toda la vida los procesadores han tenido ciertos fallos (erratas) solucionables con microcódigo nuevo, ya sea a través de la BIOS o de un controlador del sistema operativo que lo actualiza, update.sys en Windows. Por ejemplo, el microcódigo más nuevo para un Conroe B2 es el CB.

vanpopel
01/12/2008, 18:10
Lo veo igual de poco grave que cuando le pasó a AMD, aunque a ésta última se le dió bastante desde todos los sitios.

Estos fallos son casi imposibles de reproducir y no afectan al usuario de a pie. Sólo se detectan y reproducen bajo condiciones de laboratorio.

Aunque ya les vale tanto a AMD como a Intel, ya podrían esperar a lanzar sus novedades un poco más y sin bugs. Si ya el hardware está por delante del software, con esta política de sacar micros con tan poco tiempo entre unas remesas y otras (y encima con bugs), la diferencia va a ir en aumento.

danko9696
01/12/2008, 18:17
el HT hacia como si fuera 2 cores, y estos i7 son 4 cores, que con el HT da como 8 cores, pero ya se aplico el HT en su dia y fracaso, y a que viene implementarlo ahora?, que lo han mejorado?Fracasó porque en la mayor parte de los casos el rendimiento bajaba, pero no en todos, y en los que no (típicamente aplicaciones que manejan muchos hilos, como bases de datos por ej), ese plus de rendimiento extra es bienvenido.

Otra cosa es que se promocionó el HT como algo útil para todo y casi ´mágico´ XD, pero aunque tenga sus pegas, habrá a quien le venga bastante bien tenerlo como opción (si no te sirve lo desactivas en la bios y listo).


Saludos.

valhuma7
01/12/2008, 18:20
Lo veo igual de poco grave que cuando le pasó a AMD, aunque a ésta última se le dió bastante desde todos los sitios.

Estos fallos son casi imposibles de reproducir y no afectan al usuario de a pie. Sólo se detectan y reproducen bajo condiciones de laboratorio.

Aunque ya les vale tanto a AMD como a Intel, ya podrían esperar a lanzar sus novedades un poco más y sin bugs. Si ya el hardware está por delante del software, con esta política de sacar micros con tan poco tiempo entre unas remesas y otras (y encima con bugs), la diferencia va a ir en aumento.
Como dices eso???En que piensas???? No ves que si no sacan novedades no pueden vender cosas nuevas y sacarnos el dinero y tomarnos el pelo , siempre que nosotros seamos tan tontos y nosotros compremos.

Nintendork
01/12/2008, 18:25
Yo me acuerdo cuando se daba por argumento a favor del P4:

Tu tienes un Athlon 64 pero tengo un Pentium 4 HT, HT oye!

*Aunque ni sabían en que consistía sólo que sonaba cool y high tech.

Moiquintanillas
01/12/2008, 18:28
Creo que de una nimiedad hacemos una enormidad.

Mas problematico es el tema de las baterias de los portatiles que se incendian ellas solas o algunas de telefono portatil que llegaron a estallar. Ahi no hay microcodigos que valgan.

Cuantas veces, determinada produccion de coches tiene que pasar por el quirofano del taller por una pieza defectuosa.

Es imposible hacer algo a la perfeccion y yo creo que para lo que llevan los procesadores dentro de la pastilla, lo que hacen y a la velocidad con que lo hacen, eso ralla la perfeccion. Si el bug tiene solucion.....

Lo que pasa, es lo de simpre. Le paso a Amd y relucio la guerra. Ahora lo mismo con intel.

vanpopel
01/12/2008, 18:37
Lo veo igual de poco grave que cuando le pasó a AMD, aunque a ésta última se le dió bastante desde todos los sitios.

Estos fallos son casi imposibles de reproducir y no afectan al usuario de a pie. Sólo se detectan y reproducen bajo condiciones de laboratorio.

Aunque ya les vale tanto a AMD como a Intel, ya podrían esperar a lanzar sus novedades un poco más y sin bugs. Si ya el hardware está por delante del software, con esta política de sacar micros con tan poco tiempo entre unas remesas y otras (y encima con bugs), la diferencia va a ir en aumento.


Como dices eso???En que piensas???? No ves que si no sacan novedades no pueden vender cosas nuevas y sacarnos el dinero y tomarnos el pelo , siempre que nosotros seamos tan tontos y nosotros compremos.


xD. Es cierto, retiro lo dicho.

Seguiré con mis pensamientos: "debo-comprar-quad, debo-comprar-quad, debo-comprar-quad..."

DrDre
01/12/2008, 18:38
No si lo publicaron antes pero aquí (http://www.microsoft.com/downloads/details.aspx?familyid=2690495F-C21E-45BC-AE0F-5452B75283D0&displaylang=es) está el parche de MS que soluciona el bug, "sin perdida de rendimiento" y "sin necesidad de actualizar bios"

ivanjmg
01/12/2008, 18:41
xDDDDDDDDDDDDDDDD esta noticia es la bomba jajajajajajjajajajajajjajajaja

No haré comentarios por que pienso igual que la mayoría de ustedes, nosotros sabemos lo que pasó con Phenom y lo que pasará con los intocables i7.

BT69
01/12/2008, 19:28
No si lo publicaron antes pero aquí (http://www.microsoft.com/downloads/details.aspx?familyid=2690495F-C21E-45BC-AE0F-5452B75283D0&displaylang=es) está el parche de MS que soluciona el bug, "sin perdida de rendimiento" y "sin necesidad de actualizar bios"


Pero si eso es un parche que salió hace mas de un año....

"Nombre del archivo:WindowsXP-KB936357-v2-x86-ESN.exe
Versión:936357
Artículos de Knowledge Base (KB):KB936357 (http://www.microsoft.com/downloads/info.aspx?na=49&p=1&SrcDisplayLang=es&SrcCategoryId=&SrcFamilyId=2690495f-c21e-45bc-ae0f-5452b75283d0&u=http%3a%2f%2fsupport.microsoft.com%2f%3fkbid%3d9 36357)
Fecha de publicación:23/10/2007"

lordraiden
01/12/2008, 22:13
En cuanto alguien sepa si se pierde rendimiento o no parcheando el fallo le ruego que lo postee xD

OCEANO
01/12/2008, 22:50
Nada procesadores nuevos historias nuevas...como en todos los que han salido desde hace mucho ni mas ni menos....

En mi caso particular ya veré para mediados del próximo año el panorama para una renovacion general de mi equipo...de momento no me compensa nada de lo actual en relación a los benéficos que obtendría...y esto con un E6600 a 3200 del 2006...que si que fue un salto sustantivo y cuantitativo con todo lo anterior.

saludos

ElKeBusk
02/12/2008, 01:57
Cogido del análisis que ha hecho N3D del i7:

En esta batería de pruebas también hemos analizado el impacto de dejar activado el Hyper-Threading o desactivarlo por BIOS. Hace escasos días una noticia se hacía eco (http://www.noticias3d.com/articulo.asp?idarticulo=950&pag=23) de que en algunos casos, como por ejemplo juegos, se podía perder hasta un 5% de rendimiento. Nosotros no hemos probado dicho juego: Far Cry 2, pero en los juegos que hemos probado las diferencias entre tener o no tener HT activado son prácticamente nulas, perder 0,2 FPS de 86 no es algo que merezca la pena destacar y en cambio en otros tests que aprovechan la capacidad multihilo de estos procesadores como son Cinebench R10, 3DMark 06 o sobre todo WinRAR las diferencias son más que notables. El único test que nos ha arrojado resultados que no comprendemos es X264 HD dando resultados dispares con HT y sin HT dependiendo de la primera o la segunda pasada.
En definitiva parece que el Hyper-Threading tiene un impacto positivo en el rendimiento general del equipo y sólo si nos vamos a centrar mucho en una aplicación que se pelee con esta opción recomendaremos que se desactive desde la BIOS.Vamos, que como no te metas con multihilo a saco presumir de HT es una soberana estupidez.
Hoy por hoy un i7 es tirar el dinero (excepto para entornos profesionales en los que es mas habitual encontrar programas que aprovechan el multihilo).
Lo mismo les pasa a los phenom que las pasan canutas con aplicaciones monohilo pero en cuanto los pones a trabajar con aplicaciones multihilo el rendimiento sube como la espuma.


Salu2 :)

jdeleca
02/12/2008, 02:14
no he leido mucho acerca de esta noticia pero sera que ese bug es causado por el controlador de memoria??

WIDOWIDO
02/12/2008, 03:08
Como dije desde que salio el Corei7, no lo pienso tener hasta que salgan las nuevas revisiones de chipsets y procesadores, por otro lado hay personas que ni les importara el TLB y menos ni que saben que es, igualito se lo compran, ese error en un bug con solucion, que se reproduzca a uso domestico 99,9% imposible que baja un 30% de rendimiento pues me pregunto que aplicaciones de uso comun cotidiano no profesional hace llegar al 100% a esos bichos.
Salu2

DrDre
02/12/2008, 07:27
Pero si eso es un parche que salió hace mas de un año....

"Nombre del archivo:WindowsXP-KB936357-v2-x86-ESN.exe
Versión:936357
Artículos de Knowledge Base (KB):KB936357 (http://www.microsoft.com/downloads/info.aspx?na=49&p=1&SrcDisplayLang=es&SrcCategoryId=&SrcFamilyId=2690495f-c21e-45bc-ae0f-5452b75283d0&u=http%3a%2f%2fsupport.microsoft.com%2f%3fkbid%3d9 36357)
Fecha de publicación:23/10/2007"

Pues si no me había fijado, lo postee de otro foro sin mirarlo, de todas maneras Intel acaba de aclararlo, no hay bug TLB en el i7:


This is simply a pointer to a previous document written in April 2007. This document is an application note (advises on programming techniques) that programmers have had since April of 2007. This item in the Nehalem spec sheet is a web pointer, under the heading "spec clarification". The reporter who wrote this did not contact us and we will try to clarify this with him

http://techreport.com/discussions.x/15979

Al parecer todo fue un invento de Fudzilla, hasta se permitió el lujo de decir que la próxima versión de i7 vendría sin el bug TLB y tendría un 10% más de rendimiento heheeh.

Saludos

dracul
02/12/2008, 07:40
Nada procesadores nuevos historias nuevas...como en todos los que han salido desde hace mucho ni mas ni menos....

En mi caso particular ya veré para mediados del próximo año el panorama para una renovacion general de mi equipo...de momento no me compensa nada de lo actual en relación a los benéficos que obtendría...y esto con un E6600 a 3200 del 2006...que si que fue un salto sustantivo y cuantitativo con todo lo anterior.

saludos

Tio, tienes un pepino...

Normal que no tengas intencion de renovar !!!


Saludos

MaLDo
02/12/2008, 07:54
Pues si no me había fijado, lo postee de otro foro sin mirarlo, de todas maneras Intel acaba de aclararlo, no hay bug TLB en el i7:



http://techreport.com/discussions.x/15979

Al parecer todo fue un invento de Fudzilla, hasta se permitió el lujo de decir que la próxima versión de i7 vendría sin el bug TLB y tendría un 10% más de rendimiento heheeh.

Saludos

Muchas gracias por la información. La auténtica ironía es que el fallo de información en este caso es muy similar a bug TLB.

Jordi M.C
02/12/2008, 08:59
Cogido del análisis que ha hecho N3D del i7:
Vamos, que como no te metas con multihilo a saco presumir de HT es una soberana estupidez.
Hoy por hoy un i7 es tirar el dinero (excepto para entornos profesionales en los que es mas habitual encontrar programas que aprovechan el multihilo).
Lo mismo les pasa a los phenom que las pasan canutas con aplicaciones monohilo pero en cuanto los pones a trabajar con aplicaciones multihilo el rendimiento sube como la espuma.


Salu2 :)
Yo ya lo dije, nos quieren colar una tecnologia antigua como una revolucion, y no es asi, el HT fracaso en su dia y vuelve a fracasar ahora, Intel se esta riendo de nosostros, no han hecho investigaciones para sacar nueva tecnologia, solo han cogido una tecnologia antigua y desfasada, y nos la quieren vender como la revolucion, lo siento, pero estoy esperando que Intel fracase estrepitosamente con estos i7, para mi, son P4 que se quieren sacarse de encima.
Un saludo.

Jordi M.C
02/12/2008, 09:02
Pues si no me había fijado, lo postee de otro foro sin mirarlo, de todas maneras Intel acaba de aclararlo, no hay bug TLB en el i7:



http://techreport.com/discussions.x/15979

Al parecer todo fue un invento de Fudzilla, hasta se permitió el lujo de decir que la próxima versión de i7 vendría sin el bug TLB y tendría un 10% más de rendimiento heheeh.

Saludos
Gran noticia, veremos al final, quien tiene razon.

Un saludo.

Zoltelder
02/12/2008, 09:06
Pues si no me había fijado, lo postee de otro foro sin mirarlo, de todas maneras Intel acaba de aclararlo, no hay bug TLB en el i7:



http://techreport.com/discussions.x/15979

Al parecer todo fue un invento de Fudzilla, hasta se permitió el lujo de decir que la próxima versión de i7 vendría sin el bug TLB y tendría un 10% más de rendimiento heheeh.

Saludos

Sinceramente, no se a ciencia cierta si será cierto o no, solo digo que siendo Fudzilla, ya sabemos lo que nos podemos esperar

mk_dir
02/12/2008, 09:09
Yo ya lo dije, nos quieren colar una tecnologia antigua como una revolucion, y no es asi, el HT fracaso en su dia y vuelve a fracasar ahora, Intel se esta riendo de nosostros, no han hecho investigaciones para sacar nueva tecnologia, solo han cogido una tecnologia antigua y desfasada, y nos la quieren vender como la revolucion

El uso de HT tenía un motivo para su implatación en NetBurst y lo sigue teniendo ahora en Nehalem. En arquitecturas segmentadas (sobre todo Netburst) ayuda a reutilizar ciclos de reloj cuando se produce un error de predicción en la pipeline. Al menos ese es el argumento a nivel de arquitectura, lo que está claro es que en un entorno real los resultados no fuesen precisamente los esperados, anque hay que reconocer que en ocasiones sí mejora el rendimiento.

Saludos

Jordi M.C
02/12/2008, 09:19
El uso de HT tenía un motivo para su implatación en NetBurst y lo sigue teniendo ahora en Nehalem. En arquitecturas segmentadas (sobre todo Netburst) ayuda a reutilizar ciclos de reloj cuando se produce un error de predicción en la pipeline. Al menos ese es el argumento a nivel de arquitectura, lo que está claro es que en un entorno real los resultados no fuesen precisamente los esperados, anque hay que reconocer que en ocasiones sí mejora el rendimiento.

Saludos
La teoria es muy buena, pero en donde se tiene que notar, es en la realidad, y ahora los resultados tampoco son los esperados, sigo diciendo, que en vez de haber puesto el HT, Intel ha tenido suficiente tiempo para sacar una nueva tecnologia que si diese resultados reales, pero no, es mejor coger una tecnologia atrasada que ya esta hecha, y no necesita estudio, para intentar colar como algo revolucionario, argumentando que antes no funciono, pero ahora si por la nueva arquitectura, pero si en la realidad, sigue sin verse los resultados esperados, sigue siendo otro fracaso (todo esto, es mi punto de vista, puedo estar equivocado, o puede que si se vea resultados satisfactorios, pero eso es lo que me huele a mi).

Un saludo.

ROXR
02/12/2008, 09:41
La teoria es muy buena, pero en donde se tiene que notar, es en la realidad, y ahora los resultados tampoco son los esperados, sigo diciendo, que en vez de haber puesto el HT, Intel ha tenido suficiente tiempo para sacar una nueva tecnologia que si diese resultados reales, pero no, es mejor coger una tecnologia atrasada que ya esta hecha, y no necesita estudio, para intentar colar como algo revolucionario, argumentando que antes no funciono, pero ahora si por la nueva arquitectura, pero si en la realidad, sigue sin verse los resultados esperados, sigue siendo otro fracaso (todo esto, es mi punto de vista, puedo estar equivocado, o puede que si se vea resultados satisfactorios, pero eso es lo que me huele a mi).

Un saludo.

Hombre a intel le bastaria con subir un 1% el rendimiento a un micro, que será mucho mas en situaciones puntuales, para incluir una tecnología que ya la tienen hecha y depurada.
Desde luego es un poco exagerado, si quieres, poner HT a un quad core con ya de por si una potencia de multiproceso considerable, y que estaba muchísimo mas justificada en un monocore, pero de ahí a decir que el aprovechamiento de ciclos muertos en otro cpu virtual es inútil va un trecho.
Yo tengo por aquí un par de ordenadores basados en P4 con HT y van de coña.

saludos

bart0n
02/12/2008, 10:42
http://www.hwbox.gr/images/imagehosting/54909ab8209cd7.jpg

http://translate.google.com/translate?u=http://www.hwbox.gr/showthread.php%3Ft%3D2700&hl=en&ie=UTF-8&sl=el&tl=en

yo creo que viendo como el mas bajo de los i7 "pulveriza" al mas alto de las qx en tareas multi-hilo ( donde los hilos extras a procesar que aporta el HT si puenden notarse ) pues no diria que los i7 sean "una castaña"....

aunque ya sabemos todos que los ordenadores son para jugar y que el que se puedan hacer otras cosas en ellos ( como trabajar ) es indiferente...

si un procesador no mejora el rendimiento en juegos ( las aplicaciones mas importantes y las unicas utilizadas ) a su antecesor pues es una mierda de procesador destinado al fracaso....

Farinorco
02/12/2008, 10:44
No es por hacer de abogado del diablo, pero (aparte de que no parece muy confirmado que todo esto sea cierto, es más, si se ha comprobado que proviene de Fudzilla, es casi como demostrar que es falso) si no se conocen las consecuencias del bug... ¿cómo demonios podéis ponerles tan a caldo? A mi me dicen que tiene el bug, pero que poniendo un parche se quita y como si no estuviera, y me importa un pimiento que tenga bug físicamente o no...

Con AMD el problema no era el bug en sí mismo, si no la pérdida de rendimiento que daba lugar la corrección provisional del mismo mientras no lo quitaran de raíz en futuras revisiones del chip. Si su rendimiento ya era de por sí bastante inferior a los C2Q de Intel, esto ya les dejaba compitiendo en 2ª división (o 3ª regional...). ¿Sabemos acaso que esto sea el caso ahora con Ci7?

Cierto es que, de ser verdad (parece que no) es bastante triste que se cometa un error idéntico (o similar) a otro de la competencia que se hizo mundialmente famoso hace poco al pasar a una arquitectura similar, pero no deja de ser una anécdota hasta que se sepan los efectos que pueda tener en la práctica.

++++++++++++++++++++++++++

Sobre lo del Simultaneous Multi Threading, aunque no viene realmente muy a cuento porque esto va del presunto TLB bug:

a) ¿Cómo que no es hardware? A ver si ahora van a sacarnos también unos drivers (vale, venga, bios) actualizada para Core 2 con la que podamos activar el SMT. Y ya puestos, en los Phenom (I y II)

b) Insisto, inventada hoy o no, es una tecnología que cuando se usó por primera vez en Netburst, no aportaba lo que aporta ahora. Se eliminó porque no era útil. Ahora se ha reintroducido porque ahora sí es útil.

c) Los que prefieran no tener SMT porque es demasiado antiguo, y no les importa perder el sensible incremento de rendimiento que produce, lo pueden desactivar... así que tampoco hay problema si se desea un chip que de la sensación de ser más "moderno", aunque vaya más lento.

http://www.hardware.fr/medias/photos_news/00/24/IMG0024729.gif

El SMT produce un incremento del rendimiento de ~25% en aplicaciones bien paralelizadas (olvidémonos de juegos donde el grado de paralelización aún es bajo, y donde el rendimiento del micro no afecta ni en un 5% al framerate, pero los PC sirven para más cosas aparte de jugar), ¡25%! Un 25% extra para un PC de 4 núcleos, es como un núcleo más, o sea que en aplicaciones bien paralelizadas, rinde como si tuviera 5 núcleos gracias al SMT.

Yo no sé vosotros, pero a mi si me regalan un núcleo, no lo voy a desactivar por ser muy antiguo. ;)

Jordi M.C
02/12/2008, 10:53
http://www.hwbox.gr/images/imagehosting/54909ab8209cd7.jpg

http://translate.google.com/translate?u=http://www.hwbox.gr/showthread.php%3Ft%3D2700&hl=en&ie=UTF-8&sl=el&tl=en

yo creo que viendo como el mas bajo de los i7 "pulveriza" al mas alto de las qx en tareas multi-hilo ( donde los hilos extras a procesar que aporta el HT si puenden notarse ) pues no diria que los i7 sean "una castaña"....

aunque ya sabemos todos que los ordenadores son para jugar y que el que se puedan hacer otras cosas en ellos ( como trabajar ) es indiferente...

si un procesador no mejora el rendimiento en juegos ( las aplicaciones mas importantes y las unicas utilizadas ) a su antecesor pues es una mierda de procesador destinado al fracaso....
Vamos a ver Bart0n, el i7 estara bien para profesionales, donde le sacaran mucho mas rendimiento que los qx, ahi estoy deacuerdo, porque un profesional utiliza herramientas que necesita mucho de CPU, pero dime una cosa, ¿un usuario normal, utiliza estas herramientas?, quiero decir ¿para retocar una foto se necesita photoshop y otras aplicaciones profesionales? ¿para editar un video del cumpleaños de tu hijo, esposa, (familiar o amigos) necesitas herramientas profesionales que cuestan un ojo de la cara? pero espera, si la gente utiliza de nuestra amiga la mula XDDDDDD.

La gente normal, utiliza el PC para navegar, ver pelis, msn, jugar, y editar algunos videos y fotos, asi que dime ¿un usuario normal, necesita o aprovechara estos i7?, yo creo que no.

A mi me da lo mismo que pulverizen los i7 a los qx en entornos profesionales, porque no soy un profesional
Tambien te digo, que antes de comprar estos i7, si fuera un profesional, me iria a por la plataforma de 2 CPU´s y 16Gb de DDR2 ECC (creo que se llama skulltrair o como se escriba).

Un saludo.

Zoltelder
02/12/2008, 10:58
Jordi M.C pero ten en cuenta que estos i7 son la gama alta, el mercado mainstream ya sabemos que llegarán a mediados de 2009.
Es igual que cuando salieron los primeros Quad a precio de oro. Logicamente no eran buena compra en ese momento, al igual que no lo son estos por precio rendimiento.

Habra que esperar a que lleguen los componentes que abarcará el mercado principal y además con todo mucho más pulido y sin pagar el hecho de ser conejillos de indias ahora



PD. te lo digo a ti pero igualmente va para los demas ;)

Rumil
02/12/2008, 11:00
Vamos a ver Bart0n, el i7 estara bien para profesionales, donde le sacaran mucho mas rendimiento que los qx, ahi estoy deacuerdo, porque un profesional utiliza herramientas que necesita mucho de CPU, pero dime una cosa, ¿un usuario normal, utiliza estas herramientas?, quiero decir ¿para retocar una foto se necesita photoshop y otras aplicaciones profesionales? ¿para editar un video del cumpleaños de tu hijo, esposa, (familiar o amigos) necesitas herramientas profesionales que cuestan un ojo de la cara? pero espra, si la gente utiliza de nuestra amiga la mula XDDDDDD.

La gente normal, utiliza el PC para navegar, ver pelis, msn, jugar, y editar algunos videos y fotos, asi que dime ¿un usuario normal, necesita o aprovechara estos i7?, yo creo que no.

A mi me da lo mismo que pulverizen los i7 a los qx .
en entornos profesionales, porque no soy un profesional
Tambien te digo, que antes de comprar estos i7, si fuera un profesional, me iria a por la plataforma de 2 CPU´s y 16Gb de DDR2 ECC (creo que se llama skulltrair o como se escriba).

Un saludo.

Claro que los usuarios son como tu que solo usas el ordenador para tres cosas, te olvidas que hay gente que ripea BR o HDDVD... por ejemplo, y no es un uso profesional y ahi el bicho este tiene que ser una maquina.

Y ya lo de que si fueras profesional usarias una Skulltrail .... sin palabras, si no sabes ni lo que es, pero tu lo usarias.

Jordi M.C
02/12/2008, 11:03
Jordi M.C pero ten en cuenta que estos i7 son la gama alta, el mercado mainstream ya sabemos que llegarán a mediados de 2009.
Es igual que cuando salieron los primeros Quad a precio de oro. Logicamente no eran buena compra en ese momento, al igual que no lo son estos por precio rendimiento.

Habra que esperar a que lleguen los componentes que abarcará el mercado principal y además con todo mucho más pulido y sin pagar el hecho de ser conejillos de indias ahora



PD. te lo digo a ti pero igualmente va para los demas ;)
En esto si que estoy deacuerdo, yo ya dije que de momento no comprare estos i7, esperare, y si dentro de unos meses sacan nuevas versiones, en donde si se note en los juegos, pues entonces si que los comprare, pero ahora no, porque yo utilizo el PC para: escuchar musica, ver pelis, navegar, editar algo de video y algo de retocacion de foto (muy poco), pero sobretodo para jugar, dime ¿a mi, y mucha mas gente que tenga el pc para hacer mas o menos lo mismo, salen a cuenta estos i7?.

Un saludo.

Jordi M.C
02/12/2008, 11:04
Claro que los usuarios son como tu que solo usas el ordenador para tres cosas, te olvidas que hay gente que ripea BR o HDDVD... por ejemplo, y no es un uso profesional y ahi el bicho este tiene que ser una maquina.

Y ya lo de que si fueras profesional usarias una Skulltrail .... sin palabras, si no sabes ni lo que es, pero tu lo usarias.
Hombre Rumil, no se ni lo que es, no, vamos hombre, sino, dime tu que es?.
http://www.noticias3d.com/noticia.asp?idnoticia=21090
Que comodo es insultar e intentar hacer quedar a alguien como un tonto, verdad?
Un saludo.
PD: Si ripeas BR o HDDVD, alomejor si que te interesa estos i7, pero dime una cosa, si no lo haces profesionalmente ¿te sale a cuenta gastarte una pasta en ahorrarte algo de tiempo, no se, unas 2 horas?
Insisto, estos i7, para profesionales, puede que si que sirvan (en donde ganan dinero, con lo cual, les sacaran rendimiento y ganaran pasta, porque para un profesional, su tiempo es oro)

Un saludo

bart0n
02/12/2008, 11:07
¿un usuario normal, utiliza estas herramientas?,

un usuario normal necesita un quad-core ????

NO ... hasta con un dual core le sobra procesador por todos los lados....


La gente normal, utiliza el PC para navegar, ver pelis, msn, jugar, y editar algunos videos y fotos, asi que dime ¿un usuario normal, necesita o aprovechara estos i7?, yo creo que no.

la misma respuesta que lo anterior....


Tambien te digo, que antes de comprar estos i7, si fuera un profesional, me iria a por la plataforma de 2 CPU´s y 16Gb de DDR2 ECC (creo que se llama skulltrair o como se escriba).

te tienes que ir a la gama Xeon que son los unicos procesadores de INTEL desarrollados para trabajar en multi-cpu....

cuando veas el precio de la memoria FBdimm ( y el resto de la plataforma )quizas se te quite las ganas de utilizar una plataforma que probablemente "te venga grande"....

hay gente que "solo" necesita un quadcore y el rendimiento extra que le proporcionan los nuevos i7 puede que les sea interesante

pero "degradar" estos micros "porque no van bien pa jugá" ( dado que no mejoran sustantivamente a los procesadores precedentes ) cuando realmente los juegos son otros de los tantos programas que no saben utilizar mas de un hilo de ejecución ( bueno , con suerte 2 o 4... hasta los 8 capaces de manejar por estos micros... hay un trecho ) suena simplemte "a cachondeo"....

Rumil
02/12/2008, 11:12
Hombre Rumil, no se ni lo que es, no, vamos hombre, sino, dime tu que es?.
http://www.noticias3d.com/noticia.asp?idnoticia=21090
Que comodo es insultar e intentar hacer quedar a alguien como un tonto, verdad?
Un saludo.
PD: Si ripeas BR o HDDVD, alomejor si que te interesa estos i7, pero dime una cosa, si no lo haces profesionalmente ¿te sale a cuento gastarte una pasta en ahorrate algo de tiempo, no se, unas 2 horas?
Insisto, estos i7, para profesionales, puede que si que sirvan (en donde ganan dinero, con lo cual, les sacarn rendimiento y ganaran pasta, porque para un profesional, su tiempo es oro)

Un saludo

Sigo diciendote lo mismo, no sabes ni lo que, pero es lo que usarias.

Y sobre si lo de si te sale rentable... pues si te vas a comprar un ordenador, que prefieres, gastarte lo mismo y obtener un procesador mas moderno y con mas posiblidades de ampliación, que rinde igual que uno antiguo y rinde una brutalidad en multihilo o un procesador del que te quedas sin posiblidad de ampliación con el mismo rendimiento?

Moiquintanillas
02/12/2008, 11:13
Toda plataforma nueva, de estreno, es cara. Para quien tiene pensado hacerse un pc nuevo que le dure unos años y que entre sus aplicaciones se encuentren programas multihilo, pues si, es una buena compra.

Para quien lo usa en regimen general (lo que tu pones que usas), pues no. Con un 8600 u 8400 ira sobradisimo. Mas dado como suben....

Personalmente hago bastante de edicion de video, casero, preparar los videos familiares de los colegas.... El mio es un maquinon. Mas que uso el Premiere Pro, que es una pasada como gestiona los nucleos. Me gustaria verlo con un i7 trabajando con 8 nucleos ficticios.

El coger un video comprimido (2 horas de duracion) y hacer con el un dvd de salon, con el nero mismo y que me lleve 30 minutos (grabacion incluida en unidad sata) aparte de poder hacer otras muchas cosas. No tiene precio.

Y yo he tenido en estos "nuevos" micros, E6600-Q6600 y el actual.... y no descarto para el año tener un i7. Pero sin prisas, primero hay que esperar revisiones de placas y micros.

Farinorco
02/12/2008, 11:15
Vamos a ver Bart0n, el i7 estara bien para profesionales, donde le sacaran mucho mas rendimiento que los qx, ahi estoy deacuerdo, porque un profesional utiliza herramientas que necesita mucho de CPU, pero dime una cosa, ¿un usuario normal, utiliza estas herramientas?, quiero decir ¿para retocar una foto se necesita photoshop y otras aplicaciones profesionales? ¿para editar un video del cumpleaños de tu hijo, esposa, (familiar o amigos) necesitas herramientas profesionales que cuestan un ojo de la cara? pero espera, si la gente utiliza de nuestra amiga la mula XDDDDDD.

La gente normal, utiliza el PC para navegar, ver pelis, msn, jugar, y editar algunos videos y fotos, asi que dime ¿un usuario normal, necesita o aprovechara estos i7?, yo creo que no.

A mi me da lo mismo que pulverizen los i7 a los qx en entornos profesionales, porque no soy un profesional
Tambien te digo, que antes de comprar estos i7, si fuera un profesional, me iria a por la plataforma de 2 CPU´s y 16Gb de DDR2 ECC (creo que se llama skulltrair o como se escriba).

Un saludo.

Jordi M.C., eso no es un problema de Intel, eso es un problema de los usuarios. Core i7 es un procesador de alto rendimiento.

Lo que me estás diciendo es que un usuario doméstico medio como puede ser mi madre no necesita un PC con un procesador de alto rendimiento... noticias frescas.

Yo sería el primero en recomendar no comprar hardware de ese nivel de rendimiento, consumo y precio para navegar por Internet, ver alguna película que otra en DVD, oír música, y escribir en Word un documento para el curro. Es como decirme que una GTX 280 es una mierda de tarjeta porque tampoco aporta nada útil a pesar de la inversión económica y el consumo para estas cosas...

Un procesador potente (y caro) se compra cuando haces algo que requiera de un procesador potente (y caro). Yo no usaría el buscaminas para comparar entre procesadores de gama alta, principalmente porque si lo que voy a hacer es jugar al buscaminas, lo mejor es empezar a mirarme placas Mini-ITX con un VIA de esos que te consumen 15W contando con micro, placa, tarjeta gráfica y tarjeta de sonido a carga máxima, por menos de 200€. Probablemente fuese mejor idea...

Y por último, no sólo los profesionales pueden hacer tareas pesadas para un micro. Por no mencionar que hay profesionales que curran (en parte) también en su casa. Edición de imagen, edición de vídeo, render 3D, programación (compilación), transcodificación de vídeos (muy frecuente para muchos usuarios)... eso son cosas que hago yo en mi PC (salvo lo del render 3D, aunque tengo que empezar con ello en breve). Ninguna de ellas con caracter profesional, por cierto.

Jordi M.C
02/12/2008, 11:16
Sigo diciendote lo mismo, no sabes ni lo que, pero es lo que usarias.

Y sobre si lo de si te sale rentable... pues si te vas a comprar un ordenador, que prefieres, gastarte lo mismo y obtener un procesador mas moderno y con mas posiblidades de ampliación, que rinde igual que uno antiguo y rinde una brutalidad en multihilo o un procesador del que te quedas sin posiblidad de ampliación con el mismo rendimiento?

Sigo diciendote lo mismo, no sabes ni lo que, pero es lo que usarias.
Ya que vas de sobrado, dime lo que es.

Y sobre si lo de si te sale rentable... pues si te vas a comprar un ordenador, que prefieres, gastarte lo mismo y obtener un procesador mas moderno y con mas posiblidades de ampliación, que rinde igual que uno antiguo y rinde una brutalidad en multihilo o un procesador del que te quedas sin posiblidad de ampliación con el mismo rendimiento?
Eso de mas posibilidad de ampliacion, no lo sabes, puede que en 1 o 2 años intel saque nueva plataforma y deje el 1366, asi que dime, sabes si el 1366 durara lo que ha durado y esta durando el 775?
Que facil es hablar por hablar, yo sigo diciendo que los i7 para el 90% de los usuarios, no merece la pena, y solo merece la pena, si eres profesional o haces cosas profesionales, y aun asi, no me arriesgaria ahora a comprar ninguno de estos i7.

Un saludo.

Rumil
02/12/2008, 11:20
Ya que vas de sobrado, dime lo que es.

Eso de mas posibilidad de ampliacion, no lo sabes, puede que en 1 o 2 años intel saque nueva plataforma y deje el 1366, asi que dime, sabes si el 1366 durara lo que ha durado y esta durando el 775?
Que facil es hablar por hablar, yo sigo diciendo que los i7 para el 90% de los usuarios, no merece la pena, y solo merece la pena, si eres profesional o haces cosas profesionales, y aun asi, no me arriesgaria ahora a comprar ninguno de estos i7.

Un saludo.

www.google.es es tu sitio para buscar la información, pero trata de no buscar en la wikipedia por favor.

Claro intel se pasa a un nuevo socket para dos meses, para marzo abandona este socket y te quedas colgado... Rappel tiembla que viene Jordi.

bart0n
02/12/2008, 11:20
Que facil es hablar por hablar, yo sigo diciendo que los i7 para el 90% de los usuarios, no merece la pena

yo sigo diciendo que un phenom 9550 (@125€ ) , para el 90% de los usuarios no merece la pena....

y que con un x2 4600+ (@50€ ) o menos... les sobra procesador por todos los lados....

Jordi M.C
02/12/2008, 11:23
www.google.es (http://www.google.es) es tu sitio para buscar la información, pero trata de no buscar en la wikipedia por favor.

Claro intel se pasa a un nuevo socket para dos meses, para marzo abandona este socket y te quedas colgado... Rappel tiembla que viene Jordi.
Pero vamos a ver Rumil, que quieres probocar? yo he puesto un enlace sobre el skultrail de N3D, por favor, no vengas predicando cuando yo te estoy preguntando que me expliques lo que es, decir miralo en google es como decir, no tengo ni idea, pero te digo que no sabes, ya que dices que no se, ilustrame divino profesor XDDDDDDD.

Rumil
02/12/2008, 11:24
yo sigo diciendo que un phenom 9550 (@125€ ) , para el 90% de los usuarios no merece la pena....

y que con un x2 4600+ (@50€ ) o menos... les sobra procesador por todos los lados....

Desde luego para un linuxero pulgoso seguro, pero con ese x2 4600+ pierdes medio fps en el crysis 33 1/4. :P

Jordi M.C
02/12/2008, 11:24
yo sigo diciendo que un phenom 9550 (@125€ ) , para el 90% de los usuarios no merece la pena....

y que con un x2 4600+ (@50€ ) o menos... les sobra procesador por todos los lados....
Ahi si que te doy la razon, para la gran mayoria de gente, no necesita procesadores potentes.

Un saludo.

Jordi M.C
02/12/2008, 11:25
Desde luego para un linuxero pulgoso seguro, pero con ese x2 4600+ pierdes medio fps en el crysis 33 1/4. :P
Uyyyyy Rumil, ahora veo que hoy tienes el dia agresivo, ya veo:

Desde luego para un linuxero pulgoso
Porque te pones a insultar asi?
PD: A ver si te dan un toque los moderadores, porque no es normal esto.

Zoltelder
02/12/2008, 11:25
Eso de mas posibilidad de ampliacion, no lo sabes, puede que en 1 o 2 años intel saque nueva plataforma y deje el 1366, asi que dime, sabes si el 1366 durara lo que ha durado y esta durando el 775?

Un saludo.

A esto te contesto yo (mera opinión mia) que seguramente no, más que nada porque ya con los i7 Mainstream el socket es 1156, con lo que podria haber continuacion con este socket y dejar el otro (1366) como otra gama o socket destinado a servidores

Farinorco
02/12/2008, 11:26
yo sigo diciendo que un phenom 9550 (@125€ ) , para el 90% de los usuarios no merece la pena....

y que con un x2 4600+ (@50€ ) o menos... les sobra procesador por todos los lados....

Es que es eso.

A un 90% de los usuarios, que son usuarios domésticos que escriben algún documento en Word para el curro, escuchan música de vez en cuando y navegan por Internet, no les merece la pena un procesador de alto rendimiento. Llámalo Core i7, Core 2 Quad, Phenom (I o II), y cuidado que si me apuras meto en el saco los Core 2 y los Athlon X2, que a mi para esas cosas con el P4 3GHz me sobra.

No se puede considerar que un micro de gama alta sea un fracaso porque no es necesario para navegar por Internet... ostia, es que más vale que sea así...

Unr3al^
02/12/2008, 11:26
si un procesador no mejora el rendimiento en juegos ( las aplicaciones mas importantes y las unicas utilizadas ) a su antecesor pues es una mierda de procesador destinado al fracaso....

Claro que si, si total, el que se compra un Q9770 seguro que sólo lo usa para jugar :_D

Rumil
02/12/2008, 11:26
Uyyyyy Rumil, ahora veo que hoy tienes el dia agresivo, ya veo:

Porque te pones a insultar asi?

Te has dejado el detector de ironia en el traje de los domingos no?

Jordi M.C
02/12/2008, 11:27
Te has dejado el detector de ironia en el traje de los domingos no?
Sigo preguntandote, que me expliques que es el Skulltrail.
Porfavor ilustrame un poco con tu sabiduria XDDDDDDDDD.

bart0n
02/12/2008, 11:28
Desde luego para un linuxero pulgoso seguro, pero con ese x2 4600+ pierdes medio fps en el crysis 33 1/4. :P

ya sabes que las faltas de respeto no estan aceptadas en este foro,...

un Señor linuxero pulgoso hubiese sido mas adecuado :mrgreen:

y lo del crysis te pasará a ti.. yo desde que cambie la grafica a una mx200 de 32Mb muevo todo a 800FPS....( me limita el procesador, que solo lo tengo subido a 7GHz... el athlon1200 no da pa mas... :( )



Ahi si que te doy la razon, para la gran mayoria de gente, no necesita procesadores potentes.

entonces ¿¿¿ que problema hay en que el i7 tambien se les quede grande al 90% de los usuarios ????

Jordi M.C
02/12/2008, 11:30
entonces ¿¿¿ que problema hay en que el i7 tambien se les quede grande al 90% de los usuarios ????
En que es una plataforma cara para lo que ofrece a la gran mayoria de gente, que por cierto, esos errores del TLB, aun estan por ver si son ciertos o no, viniendo de Fudilla, ya sabemos lo que hay, pero si son ciertos, usando aplicaciones de render que aprovechen los 8 nucleos (4 virtuales), no podria probocar dicho error?.
Un saludo.

Rumil
02/12/2008, 11:33
Un ordenador completo con un i7 y el equivalente C2Q, sale a precio parecido. Asi que ese argumento no es valido.

bart0n
02/12/2008, 11:33
En que es una plataforma cara para lo que ofrece a la gran mayoria de gente,

pero si a esa gran mayoria le sobra con un x2 3800+ ( o menos ) ¿¿ que importa que sea caro ?????

quien necesite "ordenador" se comprará eso...

quien no necesite "ordenador" y sepa ( o tenga alguien que sepa a su lado ) no se comprará eso...

quien no necesite ordenador y se lo compre... pues que se jo** por no haberse informado....

Farinorco
02/12/2008, 11:35
En que es una plataforma cara para lo que ofrece a la gran mayoria de gente, que por cierto, esos errores del TLB, aun estan por ver si son ciertos o no, viniendo de Fudilla, ya sabemos lo que hay, pero si son ciertos, usando aplicaciones de render que aprovechen los 8 nucleos (4 virtuales), no podria probocar dicho error?.
Un saludo.

Vamos a ver, evidentemente es caro para lo que le ofrece a la mayoría de la gente. ¿Y una HD4850? ¿No te parece cara para lo que le ofrece a la mayoría de la gente? Por ejemplo, como tarjeta gráfica para el PC de mi madre, me parece cara. Y como mi madre hay muchos usuarios en el mundo...

¿Es entonces la HD4850 un mal producto? ¿Tiene una mala relación rendimiento/precio? ¿Es un fracaso de tarjeta gráfica?

PD: También Core 2 Quad y Phenom son caros para la mayoría de la gente. Los micros de 4 núcleos creo que NO son lo ideal para la mayoría de la gente.

MaLDo
02/12/2008, 11:36
El ferrari enzo es una mierda porque en las autopistas españolas no lo puedes hacer correr a mas de 120 km/h. Y si lo haces te pueden crujir.

Y ahora en serio y con respecto a los juegos, como comenté en otro hilo, actualmente hay opciones en gráficas que necesitan más procesador que un QXXX. Ahí es donde los i7 sí son útiles en juegos. El que no vea esto es que no se ha encontrado con el escenario adecuado, pero hay juegos en los que la limitación la pone la CPU (aunque sea un QX9770 a 4 ghz). Y si los juegos no usan bien los 4 cores, más motivo para elegir la tecnología que ofrece más rendimiento por hz y core.

Moiquintanillas
02/12/2008, 11:58
No empecemos que por sea caro no sea bueno.

Caro es porque es de estreno. Caro es porque tiene mucho mas que sus antecesores Q9550 por ejemplo.

Jordi, que a ti no te haga falta no quiere decir que sea por eso una Mierda. O que vaya a serlo.

Yo estoy de acuerdo con el Sr. aveLinux, a la mayor parte de los mortales con un simple procesador (ni te quiero contar cuantos amigos mios tienen todavia en uso su PIII) les llega y les sobra, si quieren jugar (sus hijos y nietos) piden consolas. El pc para hacer trabajos del cole o para los P2P.

Compras una consola y ciertamente pagas un paston, pero el que se monta un pc para jugar a tope, se gasta el doble de la consola.

Para mi el pc es una herramienta, esta, cuanto mas me facilite el trabajo mejor. Como tu lo has dicho el tiempo es ORO.

Ciertamente que yo puedo poner un video a comprimir-descomprimir con un Sempron 3000 y gano 2 horitas de siesta. Pero no es el caso.

ElKeBusk
02/12/2008, 12:04
Y ahora en serio y con respecto a los juegos, como comenté en otro hilo, actualmente hay opciones en gráficas que necesitan más procesador que un QXXX. Ahí es donde los i7 sí son útiles en juegos. El que no vea esto es que no se ha encontrado con el escenario adecuado, pero hay juegos en los que la limitación la pone la CPU (aunque sea un QX9770 a 4 ghz). Y si los juegos no usan bien los 4 cores, más motivo para elegir la tecnología que ofrece más rendimiento por hz y core.
Lo siento MaLDo pèro me lo has puesto a huevo.
Sacado de las conclusiones de N3D probando una HIS HD4850 IceQ4 TurboX con un X2 5600+ y un QX9770 tratando de encontrar el famoso cuello de botella; cito:

Por lo que podemos ver en las anteriores páginas en el 90% de los juegos si utilizamos resoluciones elevadas (1600x1200 o más) y activamos filtros, las diferencias entre ambos procesadores se reduce de una forma muy notable y en los casos que sigue habiendo diferencia pasar de tener 100 FPS a 120 FPS tampoco importa demasiado. Las dudas o curiosidad nos entra al preguntarnos hasta dónde podríamos haber bajado de procesador para encontrarnos con las mismas conclusiones... Se supone que con un AMD 5200+ tampoco habría mucha diferencia, ¿pero con un X2 4200+?... ¿Un San Diego 3500+ de un único núcleo o un Pentium 4 (http://www.noticias3d.com/articulo.asp?idarticulo=937&pag=18#) a 3Ghz sería suficiente? Sentimos que ni materialmente ni en términos de tiempo hayamos podido contestar a alguna de estas hipotéticas preguntas.
Por otro lado hay un motivo de estos resultados y está en que la VGA Radeon HD (http://www.noticias3d.com/articulo.asp?idarticulo=937&pag=18#) 4850 no es lo más potente que existe y por lo tanto no puede dar más aún disponiendo de un procesador tan potente como un QX9770. No nos engañemos una Radeon HD 4850 es un tarjetón, pero hay aún tarjetas mejores y soluciones duales, quizá con una GTX 280 o una HD 4870 X2 veríamos más diferencias entre los dos procesadores que con esta VGA, o quizá no, lo dejamos en quizá ya que no nos gusta decir cosas sin poder demostrarlo.
Parece pues, que ese miedo a que el procesador, o procesador + memoria, nos haga de cuello de botella no es ni mucho menos tan preocupante para muchos usuarios por lo menos con esta tarjeta gráfica, tarjetas similares y tarjetas menos potentes. Y naturalmente con los juegos que hemos probado, ya que no sabemos qué pasa con juegos muy exigentes de última generación como Stalker: Clear Sky, Far Cry 2, GTA IV, etc, etc... Habría que estar al tanto de qué CPU piden estos juegos más nuevos, porque quizá estamos en las mismas o quizá alguno pide más.
Queda claro que si nos regalan un QX9770 nos vamos a quedar más contentos que un niño con zapatos nuevos, y tendremos un equipo de bandera para todos los usos, incluido los juegos y tardaremos más en que el equipo se nos quede anticuado, por lo menos en procesador. Sin embargo, en el momento de rascarse el bolsillo no hace falta gastarse ni mucho menos tanto ya que, aún con tarjetas muy punteras hoy en día, podemos utilizar procesadores relativamente modestos y no habrá grandes diferencias... Por lo menos tendríamos que relajarnos un poco y dejar de tener tanto miedo a estar sufriendo el efecto cuello de botella que tanto abunda en nuestro foro, incluso en situaciones absurdas donde se pregunta si una CPU bastante moderna hace de cuello de botella a tarjetas gráficas (http://www.noticias3d.com/articulo.asp?idarticulo=937&pag=18#) que ahora no valen ni 50€ en el mercado de segunda mano.¿Dónde está el cuello de botella? Porque los de N3D lo han buscado y no lo han encontrado :)


Salu2 :)


P.D.: ¿Quién quiere un i7 teniendo un supeferolítico BE-2300? :razz:

JRA
02/12/2008, 12:06
Vamos a ver, evidentemente es caro para lo que le ofrece a la mayoría de la gente. ¿Y una HD4850? ¿No te parece cara para lo que le ofrece a la mayoría de la gente? Por ejemplo, como tarjeta gráfica para el PC de mi madre, me parece cara. Y como mi madre hay muchos usuarios en el mundo...

¿Es entonces la HD4850 un mal producto? ¿Tiene una mala relación rendimiento/precio? ¿Es un fracaso de tarjeta gráfica?

PD: También Core 2 Quad y Phenom son caros para la mayoría de la gente. Los micros de 4 núcleos creo que NO son lo ideal para la mayoría de la gente.

Mas claro imposible.

Saludos

Farinorco
02/12/2008, 12:10
Lo siento MaLDo pèro me lo has puesto a huevo.
Sacado de las conclusiones de N3D probando una HIS HD4850 IceQ4 TurboX con un X2 5600+ y un QX9770 tratando de encontrar el famoso cuello de botella; cito:
¿Dónde está el cuello de botella? Porque los de N3D lo han buscado y no lo han encontrado :)


Salu2 :)


P.D.: ¿Quién quiere un i7 teniendo un supeferolítico BE-2300? :razz:

Con configuraciones 3-way SLI de GTX280 y Quad CrossFireX con HD4870X2 parece que se puede apreciar de forma sensible el impacto del micro en el framerate, y en este escenario los Core i7 ganaban con solvencia.

Ahora, no me preguntes para qué puede querer nadie un PC gamer semejante, aparte de aquellos que le tengan una especial manía a los ecologistas y quieran fastidiarles (por el consumo energético lo digo, principalmente).

MaLDo
02/12/2008, 12:10
Lo siento MaLDo pèro me lo has puesto a huevo.
Sacado de las conclusiones de N3D probando una HIS HD4850 IceQ4 TurboX con un X2 5600+ y un QX9770 tratando de encontrar el famoso cuello de botella; cito:
¿Dónde está el cuello de botella? Porque los de N3D lo han buscado y no lo han encontrado :)


Salu2 :)


P.D.: ¿Quién quiere un i7 teniendo un supeferolítico BE-2300? :razz:

Te lo explico con garbanzos.

Cuando he dicho que HAY SOLUCIONES GRÁFICAS que se quedan cojas con un QXXX, me refería por supuesto a las soluciones de GAMA ALTA. Una 4850, probablemente será el cuello de botella del equipo a partir de 3 ghz. Ese análisis que has posteado me parece hecho por alguien que no tiene mucha idea de hardware. ¿Qué ventajas puede ofrecer dar más potencia al procesador si la gráfica va ahogada?.

EDITO y añado: quizá te ha confundido que la tarjeta se llame 4850 Icecubo con turbomegamix, pero sigue siendo una tarjeta de gama media/baja.

fjavi
02/12/2008, 12:11
Me arriesgaré a ser insultado:
Pero a Intel se le perdonará. Y alguno tendrá que tragarse sus palabras para con AMD.
Pese a que a los Phenom no les afecta en el quehacer de su vida diaria, se les dió muchos palos por ello. Seguramente se quede en lo mismo.
Más grave veo lo del voltaje del controlador de memoria que impide subir para adaptar a frecuencias superiores.
Pues como eso sea verdad yo desde luego no se lo voy a perdonar,aunque tampoco critique a AMD en su momento,pues se arriesgo a sacar algo verdaderamente avanzado,de todas formas yo me temia que podian aparecer bug y hace tiempo que digo que AMD debe ir por delante de intel en procesadores Quad nativos,pero que yo algo me temia y habra que ver si se confirma,pero como sea cierto desde luego no se merece ninguna disculpa.
saludos

danko9696
02/12/2008, 12:15
es una plataforma cara para lo que ofrece a la gran mayoria de genteEstamos en un foro donde hay gente con gráficas de 400€, SLIs de esas mismas gráficas, velociraptors, ssds, ratones de 60€, volantes de 200€, ¿y se critica una cpu por ser cara para la mayoría? ¿no sería mas apropiada la afirmación de que es cara para lo que ofrece para la mayoría de los gamers (ya que lo de que no es adecuada para la mayoría de gente es algo obvio?

Muchas veces se cae en el error de pensar que si algo no nos sirve a nosotros o a nadie que conozcamos es inútil por necesidad.


Claro que si, si total, el que se compra un Q9770 seguro que sólo lo usa para jugar :_DNo se que me da que lo decía en tono irónico.


Lo siento MaLDo pèro me lo has puesto a huevo.
Sacado de las conclusiones de N3D probando una HIS HD4850 IceQ4 TurboX con un X2 5600+ y un QX9770 tratando de encontrar el famoso cuello de botella; cito:[...]No se donde te lo ha puesto a huevo, porque lo que te dice es totalmente cierto. Hay juegos en los que la cpu limita aunque tengas el mejor procesador del mercado. Que en ese artículo no sean capaces de encontrar el cuello de botella no significa que no esté.


Saludos.

Unr3al^
02/12/2008, 12:20
Hay juegos en los que la cpu limita aunque tengas el mejor procesador del mercado. Que en ese artículo no sean capaces de encontrar el cuello de botella no significa que no esté.


Cualquier juego que use el motor Source, yo a 1680x1050 AAx4 aún puedo sacar unos cuantos fps más si subo el micro de 3.2Ghz, cosa impensable en otros juegos...

MaLDo
02/12/2008, 12:25
Cualquier juego que use el motor Source, yo a 1680x1050 AAx4 aún puedo sacar unos cuantos fps más si subo el micro de 3.2Ghz, cosa impensable en otros juegos...

O el crysis, el warhead y cualquiera que saquen con el CryEngine. El Colin Dirt, Grid o cualquiera que saquen con ese motor, por ejemplo el Operation Flashpoint 2. El Assassin Creed, el Farcry 2 y muy probablemente el Prince of Persia nuevo. El HL2, el episodio 1, el 2, el Team Fortress 2 o el Left 4 Dead. El Rainbow Six Vegas o el UT 3.

Luego la gente pone sus benchmarks del farcry 2 y no se extrañan que los mínimos vengan determinados impepinablemente por la CPU.

Farinorco
02/12/2008, 12:29
Te lo explico con garbanzos.

Cuando he dicho que HAY SOLUCIONES GRÁFICAS que se quedan cojas con un QXXX, me refería por supuesto a las soluciones de GAMA ALTA. Una 4850, probablemente será el cuello de botella del equipo a partir de 3 ghz. Ese análisis que has posteado me parece hecho por alguien que no tiene mucha idea de hardware. ¿Qué ventajas puede ofrecer dar más potencia al procesador si la gráfica va ahogada?.

EDITO y añado: quizá te ha confundido que la tarjeta se llame 4850 Icecubo con turbomegamix, pero sigue siendo una tarjeta de gama media/baja.

De acuerdo con lo dicho salvo la catalogación de la HD4850 como gama media/baja. Creo que se está perdiendo un poco la perspectiva con las tarjetas gráficas. La 4850 es una gráfica de gama alta, lo más asequible y orientado al valor prestaciones/precio de las soluciones propuestas por ATi para dicha gama en su última generación, pero gama alta al fin y al cabo. Como la 4870. Estamos hablando de un chip gráfico con una potencia según ATi (y sabrán lo que dicen dado que hacen los chips de la 360) muy superior a la potencia de cálculo sumada de todas las videoconsolas que han salido al mercado a lo largo de la historia de estas (incluidas claro está 360 y PS3).

Dentro de la gama alta se pueden encontrar productos más orientados al valor (como la 4850), más orientados al rendimiento puro (como la 4870), y más orientados para los entusiastas extremistas que pagan lo que sea por tener lo más de lo más (como la 4870X2 o las soluciones multi-GPU de gama alta), pero no por ello dejan de ser gama alta.

Una gama media se podría considerar la HD4670 por ejemplo (la 4830 es una especie de híbrido raro que a saber donde ubicar). Las de gama baja son las integradas y tarjetas de bajo costo como las 3400 (no sé si hay un equivalente en la serie HD4000, me suena que no, pero la verdad, no ando muy pendiente de la gama baja).

A este paso vamos a terminar llamándole gama media a una GTX260/HD4870 (bueno, en realidad es lo que ya haces, ya que si la 4850 es media/baja...)

fjavi
02/12/2008, 12:34
Hombre a mi personalmente no me parece nada caro el i7 inferior,es un pepino por ese precio,lo unico malo que veo es que se bncesita cambiar todo para poder tener uno,pero desde luego hay muchisima gente que le sacara mucho provecho a estos nuevos procesadores,tambien deben ir mejorando segun saquen revisiones,ahora mismo si dependiera solo de cambiar el procesador un i7 dejaria a la altura del betun a un Q9550 en rendimiento/ precio,vale que de momento para jugar no haga falta mas procesador pero desde luego estos nuevos son impresionantes,ofrecen practicamente el doble de ancho de banda,en tareas profesionales multihilo van a arrasar comparada a lo anterior,lo peor ya digo es arquitectura nueva socket nuevo y se debe cambiar todo,es por eso precisamente por lo que yo de momento no me lo pillo,pues para el uso que yo doy al pc tengo de sobra con lo que tengo,pero quien necesite mas potencia de calculo y mas ancho de banda desde luego le va a interesar mucho esa arquitectura,tambien ahora sale casi a lo mismo comprar uno bueno 775 que un i7 osea que si tuviera un equipo antiguo y necesitara comprar algo desde luego esos i7 serian mi primera opcion.
saludos

MaLDo
02/12/2008, 12:36
De acuerdo con lo dicho salvo la catalogación de la HD4850 como gama media/baja. Creo que se está perdiendo un poco la perspectiva con las tarjetas gráficas. La 4850 es una gráfica de gama alta, lo más asequible y orientado al valor prestaciones/precio de las soluciones propuestas por ATi para dicha gama en su última generación, pero gama alta al fin y al cabo. Como la 4870. Estamos hablando de un chip gráfico con una potencia según ATi (y sabrán lo que dicen dado que hacen los chips de la 360) muy superior a la potencia de cálculo sumada de todas las videoconsolas que han salido al mercado a lo largo de la historia de estas (incluidas claro está 360 y PS3).

Dentro de la gama alta se pueden encontrar productos más orientados al valor (como la 4850), más orientados al rendimiento puro (como la 4870), y más orientados para los entusiastas extremistas que pagan lo que sea por tener lo más de lo más (como la 4870X2 o las soluciones multi-GPU de gama alta), pero no por ello dejan de ser gama alta.

Una gama media se podría considerar la HD4670 por ejemplo (la 4830 es una especie de híbrido raro que a saber donde ubicar). Las de gama baja son las integradas y tarjetas de bajo costo como las 3400 (no sé si hay un equivalente en la serie HD4000, me suena que no, pero la verdad, no ando muy pendiente de la gama baja).

A este paso vamos a terminar llamándole gama media a una GTX260/HD4870 (bueno, en realidad es lo que ya haces, ya que si la 4850 es media/baja...)

Supongo que ambos tenemos razón a nuestra manera. Para mi que algo sea gama baja no quiere decir que sea malo, ni mucho menos. Pero es que yo prefiero llamar gama media/baja a una 4850, media a una 4870 y alta a una 4870x2. Y así me queda el super alta para un crossfire de 4870x2.

Es que sino se hace así entramos en que la 4850 es alta, la 4870 es muy alta, la 4870x2 es ultra alta, y un crossfire es megaultraalta extreme. Y esa terminología no me gusta nada. Hay que adecuar los términos a las opciones disponibles, y si te puedes gastar 1000 euros en una solución SLI, y eso es lo máximo, una tarjeta de 100 euros no puede ser gama alta. Pero ya te digo que es mi opinión y no altera la visión que tengo de la 4850, una muy buena tarjeta.

Zoltelder
02/12/2008, 12:45
Supongo que ambos tenemos razón a nuestra manera. Para mi que algo sea gama baja no quiere decir que sea malo, ni mucho menos. Pero es que yo prefiero llamar gama media/baja a una 4850, media a una 4870 y alta a una 4870x2. Y así me queda el super alta para un crossfire de 4870x2.

Es que sino se hace así entramos en que la 4850 es alta, la 4870 es muy alta, la 4870x2 es ultra alta, y un crossfire es megaultraalta extreme. Y esa terminología no me gusta nada. Hay que adecuar los términos a las opciones disponibles, y si te puedes gastar 1000 euros en una solución SLI, y eso es lo máximo, una tarjeta de 100 euros no puede ser gama alta. Pero ya te digo que es mi opinión y no altera la visión que tengo de la 4850, una muy buena tarjeta.

Pero efectivamente eso es como tu quieres nombrarlo, no porque sea asi.
Siempre será gama alta, media-alta, media, media-baja y baja.
No existe un very high-end por categoria.
Que tu quieres hacer más distinciones de acuerdo, pero cada una sale en en un ambito de mercado barajado entre esas opciones.

Ya se ha dicho muchas veces y es que hoy en dia la diferencia de gama alta con el resto no es tan grande y puede haber confusión de donde encasillar algun modelo.


PD. no desvirtuemos el hilo

Farinorco
02/12/2008, 12:54
Supongo que ambos tenemos razón a nuestra manera. Para mi que algo sea gama baja no quiere decir que sea malo, ni mucho menos. Pero es que yo prefiero llamar gama media/baja a una 4850, media a una 4870 y alta a una 4870x2. Y así me queda el super alta para un crossfire de 4870x2.

Es que sino se hace así entramos en que la 4850 es alta, la 4870 es muy alta, la 4870x2 es ultra alta, y un crossfire es megaultraalta extreme. Y esa terminología no me gusta nada. Hay que adecuar los términos a las opciones disponibles, y si te puedes gastar 1000 euros en una solución SLI, y eso es lo máximo, una tarjeta de 100 euros no puede ser gama alta. Pero ya te digo que es mi opinión y no altera la visión que tengo de la 4850, una muy buena tarjeta.

No se trata de ser buena ni mala, si no de las gamas en sí. No es que la 4850 sea alta, la 4870 muy alta y la X2 mega-muy alta. Las 3 son gama alta. Productos diferentes con objetivos diferentes y precios diferentes dentro de la gama alta, pero con más cosas en común entre sí que con las que son de gama media y baja.

Si eliminas de la ecuación todas las tarjetas de categoría inferior a una HD4850, entonces sí. Pero la cuestión es que esas tarjetas no sólo existen, sino que representan la mayoría del volumen de ventas de chips gráficos en el mundo. Y claro, quedarse sólo con lo minoritario y despreciar lo mayoritario a la hora de hacer la clasificación...

Una 4850 tiene más en común con una 4870, y si me apuras con una 4850X2 o una 4870X2, que con una 4670. Y eso que la 4670, para ser una gama media, ha salido pepino. Ni te digo si la comparamos con una integrada. Eso ya las empieza a englobar más o menos juntas.

Lo que sí es cierto que cada vez se está implantando como una gama independiente por derecho propio la gama entusiasta como una gama más allá de la gama alta (y ahí podríamos meter las X2 y SLIs/CFs), la cuál materializa la filosofía "No reparar en gastos", y conseguir el máximo rendimiento posible, cueste lo que cueste, sea realmente necesario o no.

Pero no es necesario llegar a ese nivel para considerarse gama alta. Gama alta quiere decir que es algo de alto rendimiento (o más bien de grandes prestaciones) y no precisamente barato, pero no implica necesariamente el concepto de presupuesto ilimitado. Por ejemplo, no creo que haga falta llegar al nivel de un modelo puntero de Ferrari para considerar que un coche es de gama alta. Yo un modelo puntero de Ferrari lo considero más allá de la gama alta.

No hay más que verse cómo catalogan las mismas ATi y NVIDIA sus propias tarjetas tras los estudios de mercado pertinentes, los objetivos para los que ellos las han diseñado, y con los precios que ellos les ponen.

EDITO: Sorry por el off-topic, yo dejo ya de hablar de gamas, al fin y al cabo mi opinión está expuesta y se entiende, y no tiene por qué ser necesariamente compartida :D

danko9696
02/12/2008, 13:00
Cualquier juego que use el motor Source, yo a 1680x1050 AAx4 aún puedo sacar unos cuantos fps más si subo el micro de 3.2Ghz, cosa impensable en otros juegos...
Pero aun así seguramente te irá perféctamente jugable a pesar de estar limitado por cpu. Yo me iba a casos mas extremos, tipo Flight Simulator X y otros todavía mas específicos, como comentaba un forero en otro hilo sobre el Company of Heroes, donde la cpu limita hasta hacerse prácticamente injugable (10fps por ej) a partir de cierta cantidad de unidades en juego controladas por la cpu.


Saludos.

Nintendork
02/12/2008, 13:01
También te puedes sacar 1600 en un crossfire de 4 4870X2.

4850 --> gama alta asequible
4870/GTX260 216 --> gama alta
4870X2 --> entusiasta
demás opciones --> latengomáslarguitisquetú.


Farinorco
Usaste el mismo término de entusiasta mientras escribía xD

Alarcarr
02/12/2008, 16:29
Lo del Flight Simulator X la verdad era bochornoso se ahogaba por CPU en un dual core (de portatil vale , pero coño son 2 ) hasta que lo actualizaron y sacaron todos los SPs, jamas vi cosa igual.

WIDOWIDO
02/12/2008, 16:33
Pero aun así seguramente te irá perféctamente jugable a pesar de estar limitado por cpu. Yo me iba a casos mas extremos, tipo Flight Simulator X y otros todavía mas específicos, como comentaba un forero en otro hilo sobre el Company of Heroes, donde la cpu limita hasta hacerse prácticamente injugable (10fps por ej) a partir de cierta cantidad de unidades en juego controladas por la cpu.


Saludos.

Tienes razon pero aqui ya hay otro tema que es si el juego esta bien optimizado depurado y/o pulido por que es una tremenda estupides soltar un juego (la novedad) que ni con el procesador mas potente ni la grafica ultra super mega archi poderosa pueda mover con solvencia, ¿juegos pensados para procesadores y graficas cuanticas? jejeje, por otro lado esta el tema de los drivers y un sin fin de cosas mas pero si a 3.0ghz te da una media de 80fps y a 3.2ghz te 85fps, ni cuenta te vas a dar.

El corei7 no es malo, el problema es que sale caro el conjunto placa+proce +memorias, cuando se estabilicen los precios y de eso depende mucho que tal salieron los verdes sera mas rapido el descenso de precio.

Por otro lado la duracion de la pltaforma de intel 1366 esta ligado directamente a la evolucion de la memoria lo mismo que le paso a AMD y que fue tan criticado por eso de cambiar a cada nada el socket (es el inconveniente por llevar el controlador de memoria integrado), AMD encontro una forma de metertela con vaselina pa que no duela pero vale la intencion.

Salu2

ElKeBusk
02/12/2008, 22:01
Te lo explico con garbanzos.

Cuando he dicho que HAY SOLUCIONES GRÁFICAS que se quedan cojas con un QXXX, me refería por supuesto a las soluciones de GAMA ALTA. Una 4850, probablemente será el cuello de botella del equipo a partir de 3 ghz. Ese análisis que has posteado me parece hecho por alguien que no tiene mucha idea de hardware. ¿Qué ventajas puede ofrecer dar más potencia al procesador si la gráfica va ahogada?.

EDITO y añado: quizá te ha confundido que la tarjeta se llame 4850 Icecubo con turbomegamix, pero sigue siendo una tarjeta de gama media/baja.
Tranquilo que no me dejé llevar por el nombre, aunque considerar gama media/baja una 4850 como que no cuando en tiendas como pccomponentes se vende a unos 150€. A menos que los de ATI hayan perdido la chaveta ese precio es mas bien para una tarjeta de gama alta (hoy día).
Pero ya sabía yo que me ibas a coger el rábano por las hojas :) Probablemente culpa mía por no hber destacado mas lo que me interesaba de esa cita, pero tampoco quería que me acusases de no hacer la cita completa :)
La cuestion es que:

Queda claro que si nos regalan un QX9770 nos vamos a quedar más contentos que un niño con zapatos nuevos, y tendremos un equipo de bandera para todos los usos, incluido los juegos y tardaremos más en que el equipo se nos quede anticuado, por lo menos en procesador. Sin embargo, en el momento de rascarse el bolsillo no hace falta gastarse ni mucho menos tanto ya que, aún con tarjetas muy punteras hoy en día, podemos utilizar procesadores relativamente modestos y no habrá grandes diferencias...Por eso dije que me lo pusiste a huevo.

Justificar un i7 por un teórico cuello de botella (que no niego exista, ojo) porque con una gráfica tope gama (o un triple SLI o la burrada que se te ocurra) no se puede pasar de 350fps me parece un soberana tontería.

Yo no niego que el i7 sea un gran procesador o que lo vaya a ser en las sucesivas revisiones, pero tratar de vender al moto de que los juegos van a ir mejor con un i7 que con cualquier otro cuando hoy lo que manda es la gráfica (como se ha demostrado en más de un análisis, no sólo en este) es querer justificar un gasto injustificado.

Si alguien quiere comprarse un i7 para presumir de máquina me parece perfecto, cada uno gasta su dinero como le dá la gana, y se autohalaga como quiere, pero que no venga con la milonga de que va sacar 10 fps mas que yo con un doble núcleo en el crysis (por mencionar la bestia parda) cuando con mi "patético" procesador (nota: es una referencia genérica, no hablo del de la firma) yo le saco 40 ó 50 fps y juego y lo disfruto exactamente igual que él porque mi gráfica es igual de potente que la suya y tira del juego exactamente igual. Sobre todo, porque para lo que es el uso general del ordenador (mula, internet, ofimática, multimedia, etc) incluso un doble núcleo de 3GHz está injustificado.

Salu2 :)

MaLDo
03/12/2008, 08:02
Justificar un i7 por un teórico cuello de botella (que no niego exista, ojo) porque con una gráfica tope gama (o un triple SLI o la burrada que se te ocurra) no se puede pasar de 350fps me parece un soberana tontería.

No, perdona, en algunos casos hablo de pasar de 35 a 50 fps. Nada de 350 fps.



Yo no niego que el i7 sea un gran procesador o que lo vaya a ser en las sucesivas revisiones, pero tratar de vender al moto de que los juegos van a ir mejor con un i7 que con cualquier otro cuando hoy lo que manda es la gráfica (como se ha demostrado en más de un análisis, no sólo en este) es querer justificar un gasto injustificado.

Si alguien quiere comprarse un i7 para presumir de máquina me parece perfecto, cada uno gasta su dinero como le dá la gana, y se autohalaga como quiere, pero que no venga con la milonga de que va sacar 10 fps mas que yo con un doble núcleo en el crysis (por mencionar la bestia parda) cuando con mi "patético" procesador (nota: es una referencia genérica, no hablo del de la firma) yo le saco 40 ó 50 fps y juego y lo disfruto exactamente igual que él porque mi gráfica es igual de potente que la suya y tira del juego exactamente igual. Sobre todo, porque para lo que es el uso general del ordenador (mula, internet, ofimática, multimedia, etc) incluso un doble núcleo de 3GHz está injustificado.

Salu2 :)

Estás muy equivocado. ¿Qué procesador tienes? Dudo muchísimo que si pones crysis en Very High tengas esos framerates a NINGUNA resolución. Cuando digo ninguna es que ni a 640x480 en veryhigh vas a tener esos framerates. Tendrás lugares donde vayas bien (que ahora eres capaz de sacarme una captura mirando al sol y a una palmera con 100 fps pero no demostrarías nada) y otros donde irás a 30 fps COMO MUCHO. Y eso es culpa de tu CPU. Si tienes un 3 ghz entonces tendrás mínimos de 25. Y como se te ocurra cambiar la distancia de aparición de los objetos a través de la consola, tu CPU hará un cuello de botella tan grande que el juego se arrastrará.

Un momento, que acabo de ver tu firma
AMD BE-2300 (X2 3800+ core Brisbane)
4x1GB DDR2 800MHz Kingston HyperX 4-4-4-12
Asus M2N-E SLI (chipset nForce 500)
nVidia GeForce 7300GT 256MB

¿de verdad quieres que te tome en serio? ¿50 fps en crysis? Tú juegas en calidad mínima y estás viendo un juego que no tiene nada que ver con crysis.

La propia intel cataloga la actual gama de i7 como "entusiasta". Algo que está por encima de la gama alta. Estamos hablando de unos procesadores que si fueran coches serían los ferrari. Y aquí parece que sean procesadores que tienen que ofrecer algo a todo el mundo. No, los i7 1366 son para muy poquita gente y es así por la propia definición de dicha plataforma.

ARRAIDAN
03/12/2008, 08:22
Un momento, que acabo de ver tu firma
AMD BE-2300 (X2 3800+ core Brisbane)
4x1GB DDR2 800MHz Kingston HyperX 4-4-4-12
Asus M2N-E SLI (chipset nForce 500)
nVidia GeForce 7300GT 256MB
¿de verdad quieres que te tome en serio? ¿50 fps en crysis? Tú juegas en calidad mínima y estás viendo un juego que no tiene nada que ver con crysis.



Ese no es su equipo, fíjate.



ElKeBusk
cuando con mi "patético" procesador (nota: es una referencia genérica, no hablo del de la firma) yo le saco 40 ó 50 fps y juego y lo disfruto exactamente igual que él porque mi gráfica es igual de potente que la suya y tira del juego exactamente igual.


No, perdona, en algunos casos hablo de pasar de 35 a 50 fps. Nada de 350 fps.
¿En que juego? ¿contra que micro lo comparas? con un i7 no vas a sacar 25 fps mas que con un Q9xxx al Crysis.

Edito, me había quedado un poco borde la cosa

MaLDo
03/12/2008, 08:37
¿En que juego? ¿contra que micro lo comparas? con un i7 no vas a sacar 25 fps mas que con un Q9xxx al Crysis.

Edito, me había quedado un poco borde la cosa

http://www.guru3d.com/article/core-i7-multigpu-sli-crossfire-game-performance-review/19

De un QX9770 a un i7-965 no son 25, pero son 13 fps más. Y estamos hablando del QX más potente que hay que incluso es más caro que ese i7.

Y antes de que me digas "es que es un tri-sli" te diré "vale, si no fuera un tri-sli entonces los rendimientos serían AUN MENORES". Así que no cuela eso de que un QX ya va sobrado en todas las circunstancias. Va sobrado en muchas, quizá en la mayoría, pero no en todas.

En este caso usar un tri-sli solo sirve para descartar la gráfica como cuello de botella. Es decir, es pasarle la pelota totalmente a la CPU a ver cómo se comporta para valorar realmente la diferencia entre una cpu y otra. Es una prueba similar a comparar los juegos a resoluciones mínimas. Y en esas tablas se aprecia esta mejora en cuanto a rendimiento de cpu:

Comparando un QX9770 con un i7-965

En brothers in arms HH -> 59 % de incremento
En Call of duty 4 -> 13 %
En Farcry 2 -> 45 %
En Crysis Warhead -> 31 %

¿Te parecen pocas diferencias?

Estoy un poco harto de tener que defender unas cpus que valen un pastizal, pero es que parece que la gente no sabe lo que significa un i7 hoy. Son mucho más potentes que cualquier otra cpu que existe, pero cada uno tiene que conocer los límites de su máquina y saber si realmente el componente que está sufriendo es la cpu o no. Si tu cpu no sufre o no quieres exigirle más, un i7 es una tontería. En caso contrario, es la mejor opción.

Zoltelder
03/12/2008, 08:40
Tendrás lugares donde vayas bien (que ahora eres capaz de sacarme una captura mirando al sol y a una palmera con 100 fps pero no demostrarías nada) y otros donde irás a 30 fps COMO MUCHO. Y eso es culpa de tu CPU. Si tienes un 3 ghz entonces tendrás mínimos de 25. Y como se te ocurra cambiar la distancia de aparición de los objetos a través de la consola, tu CPU hará un cuello de botella tan grande que el juego se arrastrará.


Teniendo en cuenta esto http://www.tweaktown.com/articles/1669/4/core_i7_920_core_disabling_performance_analysis/index.html donde se ve que el warhead no hace uso practicamente de más de 2 nucleos, diria que si esto funcionase como tiene que ser, usando el numero de nucleos por completo o por lo menos de mejor forma como lo hacen otros juegos, no habria tantos problemas de fps

MaLDo
03/12/2008, 08:58
Teniendo en cuenta esto http://www.tweaktown.com/articles/1669/4/core_i7_920_core_disabling_performance_analysis/index.html donde se ve que el warhead no hace uso practicamente de más de 2 nucleos, diria que si esto funcionase como tiene que ser, usando el numero de nucleos por completo o por lo menos de mejor forma como lo hacen otros juegos, no habria tantos problemas de fps

Depende. Lo primero es que estás ya hablando de supuestos y futuribles. Y segundo que el uso de varios cores, o lo que es lo mismo, la programación multihilo no es como poner más gente a coser camisetas. Hay muchas partes de un videojuego que son más como prepararse un bocadillo. Por más que pongas cuatro personas a hacer un bocadillo, no lo van a hacer mucho más rápido. La segunda puede estar esperando con el jamón en la mano a que la primera corte el pan y así ganar unos segundos. Pero la tercera se estará rascando los cataplines.

¿Qué juego según tú hace mejor uso que crysis de los varios cores?

ARRAIDAN
03/12/2008, 09:02
Y antes de que me digas "es que es un tri-sli" te diré "vale, si no fuera un tri-sli entonces los rendimientos serían AUN MENORES". Así que no cuela eso de que un QX ya va sobrado en todas las circunstancias. Va sobrado en muchas, quizá en la mayoría, pero no en todas.
.

Te equivocas de pleno. Con una gráfica simple hoy en dia no existe ninguna diferencia de rendimiento entre uno y otro.
http://www.overclockersclub.com/reviews/intel_core_i7/9.htm

De hecho si te fijas un poco en el test de Guru3d, a medida que va aumentando la resolución la CPU va dejando de ser importante, llegando en 2500X1600 (cuando lo que da el límite de FPS es la gráfica) a dar el mismo rendimiento que los Q9xxx.
Si la prueba se hace con una sola gráfica esta va aser el factor limitante, no la CPU.



En este caso usar un tri-sli solo sirve para descartar la gráfica como cuello de botella. Es decir, es pasarle la pelota totalmente a la CPU a ver cómo se comporta para valorar realmente la diferencia entre una cpu y otra. Es una prueba similar a comparar los juegos a resoluciones mínimas. Y en esas tablas se aprecia esta mejora en cuanto a rendimiento de cpu:

Nadie duda que la CPU sea muy potente, la cuestión es que con una sola gráfica los I7 de momento no suponen ninguna diferencia, por que las CPU actuales van sobradas.
Y si alguien tiene pasta para un Tri SLI de GTX 280 (1200€) la tendrá para pillarse lo último y lo mas chachi y potente, la cuestión es si ese gasto merece la pena o no.

Por otro lado comprarse un I7 para jugar hoy en dia me parece absurdo, es una CPU potentísima pero que se aprovecha mejor en otras tareas, hoy en dia en una configuración de una gráfica las CPU actuales van sobradas.



En brothers in arms HH -> 59 % de incremento
En Call of duty 4 -> 13 %
En Farcry 2 -> 45 %
En Crysis Warhead -> 31 %

¿Te parecen pocas diferencias?

Con un Tri SLI, ahora búscate comaprativas con una sola gráfica y veras como las diferencias son nímas, ya que hoy por hoy las CPU actuales sobran en esa configuración, el factor limitante es la gráfica.

Te pongo yo de nuevo otra comparativa http://www.overclockersclub.com/reviews/intel_core_i7/9.htm


Estoy un poco harto de tener que defender unas cpus que valen un pastizal, pero es que parece que la gente no sabe lo que significa un i7 hoy. Son mucho más potentes que cualquier otra cpu que existe, pero cada uno tiene que conocer los límites de su máquina y saber si realmente el componente que está sufriendo es la cpu o no. Si tu cpu no sufre o no quieres exigirle más, un i7 es una tontería. En caso contrario, es la mejor opción.
Y vuelvo a decir lo mismo, comprarse un I7 para jugar ahora mismo es absurdo a menso que uno se haya gastado 1200 en un tri Sli, otra cosa es dentro de uno o dos años, que es cuando estas CPU serán mas interesantes para jugar.

ARRAIDAN
03/12/2008, 09:04
Depende. Lo primero es que estás ya hablando de supuestos y futuribles. Y segundo que el uso de varios cores, o lo que es lo mismo, la programación multihilo no es como poner más gente a coser camisetas. Hay muchas partes de un videojuego que son más como prepararse un bocadillo. Por más que pongas cuatro personas a hacer un bocadillo, no lo van a hacer mucho más rápido. La segunda puede estar esperando con el jamón en la mano a que la primera corte el pan y así ganar unos segundos. Pero la tercera se estará rascando los cataplines.

¿Qué juego según tú hace mejor uso que crysis de los varios cores?

Fallout 3, Warhammer 40.000 Dawn of war...

lordraiden
03/12/2008, 09:11
A ver, esto es así de sencillo, el que tiene pasta se compra un Ferrari y lo disfruta, luego llega el que no tiene pasta y como no se puede comprar un Ferrari se compra un Seat Leon y se dice asi mismo que no le vale la pena pillarse un Ferrari porque no va a correr tanto en carrera.
Pues resulta que el que tiene pasta se ya tiene su Ferrari (y tendrá coche casi de por "vida") y se la suda lo que piensen los demas, total de comprarse un ferrari a comprarse un leon le van 200€ euros de diferencia (contando placa y mirco).

Pues eso que cada uno se compre lo que le salga del capullo, lo que es indudable que el core i7 se merienda a los anteriores en todo lo que aproveche multinucleo, y los juegos cada dia estan mas preparados para ello, por cierto no todo en la vida es jugar. Dentro de 1 año el corei7 920 sera un bestia y el e8500 sera una mierda.
De AMD no hablo porque lleva casi 1 año de retraso con intel, a ver si sacan de una vez un proce que pueda competir con el Q6600.

Otra cosa es que a la mayoria de gente le sobre con un ibiza.

MaLDo
03/12/2008, 09:12
Te equivocas de pleno. Con una gráfica simple hoy en dia no existe ninguna diferencia de rendimiento entre uno y otro.

Aunque te puedes repasar el hilo entero, me basta con el último mensaje de esta página

http://foro.noticias3d.com/vbulletin/showthread.php?p=2510673#post2510673


Tú insistes en que con una sola gráfica no se nota la mejora pero no es cierto. Lo que sí es cierto es que si con una sola gráfica, intentas jugar a una resolución en que la gráfica esté ahogada, no notarás las mejoras de una mejor CPU. Pero es que estarás jugando MAL.

En el momento en que dejes la resolución a la medida de la potencia de tu gráfica, será la CPU la que limite. Es un mito eso de que si bajas la resolución tendrás más rendimiento siempre. Eso solo pasa a veces, y sino fíjate la que se va a liar con el GTA IV. Al tiempo.

Al respecto de las comparativas que puedas ver con una sola gráfica: Hacer pruebas con un tri-sli a resoluciones normales descarta el cuello de botella de la gráfica para ver mejor las diferencias entre cpus. Si lo haces con una gráfica es peligroso, porque en estos análisis suelen poner las medias de test que se pasan con el Vsync desactivado. Por ello es normal que en algún punto del test no haya casi carga de cpu y la gráfica dispare los fps a 200 o más y esos picos desvirtúan la media. La potencia requerida de cpu es bastante desigual a lo largo de los test y es en los momentos comprometidos (los mínimos) donde ha de valorarse su eficacia. En una media de un test pesa más si durante 10 segundos estuvo el marcador a 200 que si durante 10 segundos estuvo a 10 si la media se va a quedar en los 40. Pasar el mismo test con otra gráfica más potente convertirá el pico de 200 en uno de 400 y la media saldrá quizá de 60 aunque la zona crítica se haya quedado igual a 10 fps por culpa de la cpu. Por eso yo siempre me fijo únicamente en los mínimos, los medios serían válidos si todos los test se pasaran con el vsync activado.

ARRAIDAN
03/12/2008, 09:17
Tú insistes en que con una sola gráfica no se nota la mejora pero no es cierto. Lo que sí es cierto es que si con una sola gráfica, intentas jugar a una resolución en que la gráfica esté ahogada, no notarás las mejoras de una mejor CPU. Pero es que estarás jugando MAL.


Claro que estoy jugando mal, por que no puedo comprar un TRI SLI de 1200€ como la mayoría de los mortales, y prefiero mas resolución, a mas FPS. juego con una gráfica a la resolución nativa de mi monitor, a unos 30/40 fps.


Repito.
http://www.overclockersclub.com/reviews/intel_core_i7/9.htm



En el momento en que dejes la resolución a la medida de la potencia de tu gráfica, será la CPU la que limite.
Pues si con mi gráfica y a resolución nativa tengo 30/40 fps, siendo esta el factor limitante y me estás diciendo que estoy jugando mal, por que esoy por encima de las posibilidades de mi gráfica, si bajo resolución llegaré a 60fps, y seguirá siendo innecesario gastar dinero en este micro.

Zoltelder
03/12/2008, 09:19
¿Qué juego según tú hace mejor uso que crysis de los varios cores?

Pues que lo utilicen mejor que Crysis unos cuantos hay, pero uno que se me viene a la cabeza es el UT3, el cual, su rendimiento varía bastante según el numero de cores.

MaLDo
03/12/2008, 09:27
Claro que estoy jugando mal, por que no puedo comprar un TRI SLI de 1200€ como la mayoría de los mortales, y prefiero mas resolución, a mas FPS. juego con una gráfica a la resolución nativa de mi monitor, a unos 30/40 fps.


Repito.
http://www.overclockersclub.com/reviews/intel_core_i7/9.htm


Pues si con mi gráfica y a resolución nativa tengo 30/40 fps, siendo esta el factor limitante y me estás diciendo que estoy jugando mal, por que esoy por encima de las posibilidades de mi gráfica, si bajo resolución llegaré a 60fps, y seguirá siendo innecesario gastar dinero en este micro.

Qué no carallo. Que no puedes jugar a 60 fps al crysis en very high aunque le bajes la resolución. Que parece que no me explico bien. Es igual, cedo, esta discusión la estoy teniendo ya demasiadas veces cada semana.

Zoltelder, aprovechar más los cores no significa solo multiplicar el rendimiento por cada core. También significa sacar el máximo provecho de cada uno. Entonces un juego que mostrara 10 polígonos con un core, 20 con 2 y 30 con 3 ¿sería el ganador en tu opinión? O sería otro que mostrara 200 con 1, 250 con 2 y 252 con 3. Cryengine exprime la cpu como el UE3 no podrá hacer NUNCA.

EDITO: a toda la gente que dice que la cpu es secundaria en juegos les repito, no compreis entonces el GTA IV.

ARRAIDAN
03/12/2008, 09:41
Qué no carallo. Que no puedes jugar a 60 fps al crysis en very high aunque le bajes la resolución.
Pero... ¿Por que tu lo dices?



EDITO: a toda la gente que dice que la cpu es secundaria en juegos les repito, no compreis entonces el GTA IV.

Juego tremendamente limitado por la VRAM es decir, gráfica.

MaLDo
03/12/2008, 09:45
Pero... ¿Por que tu lo dices?

Hombre, yo lo he probado y he hecho pruebas con todas las configuraciones posibles. ¿Tú en que te basas? Podrías probarlo y verlo con tus propios ojos. Bajarás la resolución al mínimo y verás un incremento de fps cuando no haya nada en pantalla, te meterás en algún lugar crítico y tus fps bajarán IGUAL que bajaban a la resolución máxima.



Juego tremendamente limitado por la VRAM es decir, gráfica.

Si si, no lo tienes ¿verdad?
Si excedes la vram de tu gráfica tienes un bajón en el rendimiento pero si no te excedes, tu cpu marcará la pauta.

ARRAIDAN
03/12/2008, 09:55
Hombre, yo lo he probado y he hecho pruebas con todas las configuraciones posibles. ¿Tú en que te basas?.
En lo mismo.



Podrías probarlo y verlo con tus propios ojos

Probado está.



Bajarás la resolución al mínimo y verás un incremento de fps cuando no haya nada en pantalla, te meterás en algún lugar crítico y tus fps bajarán IGUAL que bajaban a la resolución máxima.
NO, no bajan igual.



Si si, no lo tienes ¿verdad?


¿Le tienes tú?



Si excedes la vram de tu gráfica tienes un bajón en el rendimiento pero si no te excedes, tu cpu marcará la pauta
Ergo, ¿el principal factor limitante cual eeeees?

MaLDo
03/12/2008, 10:01
En lo mismo.
Probado está.
NO, no bajan igual.


Qué va, se quedan en 60 fps ¿verdad?


Ergo, ¿el principal factor limitante cual eeeees?

El latín muy bien, pero las matemáticas regulín. El juego de Rockstar detecta cuanta memoria tenemos y en función de eso no deja subir los parámetros que provocarían que sobrepasaramos nuestra VRAM. ERGO, si no tocas parámetros ocultos del juego (como el norestrict), solo podremos elegir las opciones ADECUADAS a nuestra cantidad de VRAM y el factor limitante será.... LA CPU. Aunque si quieres te pongo también un bonito array de ees como haces tú. El factor limitante será la cpueeeeeee.

El juego sí lo tengo, lo que no tengo son los gigas libres y el tiempo que requiere instalarlo.

Vaya, veo que tu CPU también te está limitando en el NFS :)

Blaizer
03/12/2008, 10:10
La programación gráfica para multihilos es de las cosas catalogadas de las más complejas en la programación. En los juegos se podrían repartir los procesos de fisica, sonido, y demas entre los distintos cores, pero que jamás que un procesador calcule los 10 polígonos de un modelo y otro los otros tantos que faltan.

Por algo la mayoría de juegos sólo usan 1 core, y bueno, yo no se cómo crysis usará los 2 cores esos que dicen que usa. Lo que sí que se es que usando 2 o 1, va igual con la misma tarjeta gráfica, y esto es algo que lo tengo más que requetecomprobado.

Según han comentado, hasta el Dx11 no se verá nada verdaderamente de multihilo, si es que la cosa no acaba en un tremendo Hype. Son cosas muy complicadas de las que hablar en este foro, y más cuando lo conozco así de lejos por parte de programadores gráficos.

La potencia gráfica, la da la tarjeta gráfica. La CPU repercute para tareas como la IA y demás procesos, pero en lo que a representación gráfica se refiere, al renderizado en pantalla y a todos los efectos que vemos, eso lo hace la tarjeta gráfica. Para jugar bien, tarjeta para entusiastas.

Los core i7 son un bicharracho para tareas que se aprovechen del multihilo, como edición de video o render por ejemplo, pero para lo demás, como jugar, con tener 2 cores o 4, uno va servido de sobra. La diferencia respecto a un i7 o un quad no son 200 euros... es mucho más dinero, y quien piense que se está comprando un "ferrari", hace mal porque tira el dinero, osea hace el primo. Yo tambien tengo dinero para comprarme un pc de estos de 2000 euros para jugar y no lo hago, porque con menos tienes pc para jugar a lo de ahora y para dentro de 2 años o menos dar el cambiazo. PC nuevo cada poco tiempo. Ir a lo grande como que no, y más para que? para jugar?

El Gta IV lo tienes en consola y va dabuten, pero ahora que pasa, que en el PC tienes que tener mucha más potencia? y gastarte más dinero para jugar lo mismo?... enga por dios, para eso una consola que vale menos que una Grafica como una X2 o una 280.

Me hace gracia leer como aquí la gente se pone a discutir de engines de juegos cuando es super seguro que ni saben nada del engine ni nada. Lo que sí que hace el Cryengine (el motor para llorar de asco), es tirar de máquina y no aprovechar el ordenador como dios manda.

La CPU se diga lo que se diga es secundaria, si fuera lo principal, no nos tendríamos que gastar más de 400 euros para poder jugar bien con un pc. Porque por mucha cpu que tengas, por muchos mhz que tengas, si un juego sólo usa una parte, si no tienes una GPU que te mueva con soltura el 3d... vas apañado. La gráfica manda, la gráfica manda. Que te gusta discutir y pensar lo contrario? pues muy bien, pierdes el tiempo tontamente, está claro. Que hay juegos que usan muchos mhz, pues sí, sólo tienes que ver los de simulación como los de vuelo en los que se manejan 10000 variables y se hacen cálculos a mogollón, pero a final de cuentas, lo más importante es la GPU, osea la gráfica, se diga lo que se diga, y se ponga quien sea como sea.

Hay motores gráficos mejor optimizados que otros.

un saludo

ARRAIDAN
03/12/2008, 10:17
Qué va, se quedan en 60 fps ¿verdad?


Baja, pero bastante menos que con elevadas resoluciones, es decir, la gráfica sigue siendo el factor limitante cuando hay efectos complicados de por medio.



El latín muy bien, pero las matemáticas regulín.
Y tu de educación cojonudo.



El juego de Rockstar detecta cuanta memoria tenemos y en función de eso no deja subir los parámetros que provocarían que sobrepasaramos nuestra VRAM. ERGO, si no tocas parámetros ocultos del juego (como el norestrict), solo podremos elegir las opciones ADECUADAS a nuestra cantidad de VRAM y el factor limitante será.... LA CPU.

1ºHas hecho alguna prueba que así lo corrobore ¿tienes el juego, para hacer tales afirmaciones?
Incluso comprandote que en el GTA IV la CPU sea importante cuando el juego no rebasa la Vram de la gráfica, esa característica concreta en ese juego, NO es extrapolable a todo el catálogo existente, dodne la mayoría (con excepciones como el Source) dependen sobre todo de la gráfica.
Vamos, que si te agarras al clavo ardiendo de turno, tu mismo...

Repito, hoy por hoy gastar dinero en un core I7 PARA JUGAR es absurdo, dentro de uno o dos años, cuando las gráficas avancen mas, la compra será lógica.

MaLDo
03/12/2008, 10:22
La programación gráfica para multihilos es de las cosas catalogadas de las más complejas en la programación. En los juegos se podrían repartir los procesos de fisica, sonido, y demas entre los distintos cores, pero que jamás que un procesador calcule los 10 polígonos de un modelo y otro los otros tantos que faltan.

Por algo la mayoría de juegos sólo usan 1 core, y bueno, yo no se cómo crysis usará los 2 cores esos que dicen que usa. Lo que sí que se es que usando 2 o 1, va igual con la misma tarjeta gráfica, y esto es algo que lo tengo más que requetecomprobado.

Según han comentado, hasta el Dx11 no se verá nada verdaderamente de multihilo, si es que la cosa no acaba en un tremendo Hype. Son cosas muy complicadas de las que hablar en este foro, y más cuando lo conozco así de lejos por parte de programadores gráficos.

La potencia gráfica, la da la tarjeta gráfica. La CPU repercute para tareas como la IA y demás procesos, pero en lo que a representación gráfica se refiere, al renderizado en pantalla y a todos los efectos que vemos, eso lo hace la tarjeta gráfica. Para jugar bien, tarjeta para entusiastas.

Los core i7 son un bicharracho para tareas que se aprovechen del multihilo, como edición de video o render por ejemplo, pero para lo demás, como jugar, con tener 2 cores o 4, uno va servido de sobra. La diferencia respecto a un i7 o un quad no son 200 euros... es mucho más dinero, y quien piense que se está comprando un "ferrari", hace mal porque tira el dinero, osea el primo.

Me hace gracia leer como aquí la gente se pone a discutir de engines de juegos cuando es super seguro que ni saben nada del engine ni nada. Lo que sí que hace el Cryengine (el motor para llorar de asco), es tirar de máquina y no aprovechar el ordenador como dios manda.

La CPU se diga lo que se diga es secundaria, si fuera lo principal, no nos tendríamos que gastar más de 400 euros para poder jugar bien con un pc. Porque por mucha cpu que tengas, por muchos mhz que tengas, si un juego sólo usa una parte, si no tienes una GPU que te mueva con soltura el 3d... vas apañado. La gráfica manda, la gráfica manda. Que te gusta discutir y pensar lo contrario? pues muy bien, pierdes el tiempo tontamente, está claro. Que hay juegos que usan muchos mhz, pues sí, sólo tienes que ver los de simulación como los de vuelo en los que se manejan 10000 variables y se hacen cálculos a mogollón, pero a final de cuentas, lo más importante es la GPU, osea la gráfica, se diga lo que se diga, y se ponga quien sea como sea.

Hay motores gráficos mejor optimizados que otros.

un saludo

Soy programador y sé de lo que hablo. No estoy soltando tonterías sin sentido. No vamos a ponernos técnicos en este hilo pero te lo voy a resumir de una manera poco exacta pero que sirve de referencia:

todos los polígonos que pinta la gráfica pasan de algún modo por la CPU. La física (a excepción de la que use la librería physx sobre gpu), la IA y los cálculos de sombras recaen sobre la CPU.

Si un motor no cambia el número de polígonos mostrados según la resolución, dicha resolución afecta únicamente a la potencia gráfica.

Por lo tanto, la resolución y los efectos sobre texturas que se apliquen via shaders no afectarán en ninguna proporción a la cpu. Pero el número de polígonos SI AFECTA a la cpu. Por eso los juegos que usen mucha maya (caso crysis) al mismo tiempo que físicas complejas y sombras detalladas, tendrán un impacto directo sobre la cpu.

Los monitores actuales parten de nativas que son resoluciones muy bestias, siempre por encima del estándar de 720p. Para moverse con soltura en esas resoluciones se requieren gráficas potentes, pero la cpu también tiene su parte del pastel y tan o más importante ya que sobre ella debe apoyarse la gráfica.

danko9696
03/12/2008, 10:31
En los juegos se podrían repartir los procesos de fisica, sonido, y demas entre los distintos cores, pero que jamás que un procesador calcule los 10 polígonos de un modelo y otro los otros tantos que faltan.
Realmente si que se puede, aunque nadie dice que sea fácil. Por ejemplo, en Team Fortress 2 se aprovecha multihilo para gestionar las animaciones faciales, o sea básicamente calcular polígonos antes de enviarselos a la gráfica.


La potencia gráfica, la da la tarjeta gráfica. La CPU repercute para tareas como la IA y demás procesos, pero en lo que a representación gráfica se refiere, al renderizado en pantalla y a todos los efectos que vemos, eso lo hace la tarjeta gráfica
La cpu es realmente la que gestiona los polígonos en su mayoría. Salvo uso de vertex shaders, en los cuales la gráfica ´mueve´ los polígonos y efectos como mapas de desplazamiento, en los cuales la propia gráfica genera polígonos (al contrario de otros efectos como mapas normales y bumpmapping), la gestión del renderizado la realiza principalmente la cpu, que no quita que poco a poco el peso de dicha gestión vaya pasando a la gráfica. Luego la gráfica aplica esos efectos y renderiza la escena, bien con órdenes directas de la cpu, bien con programas ejecutados en la propia gráfica (shaders).

Si, la gráfica es lo que mas cuenta generalmente, pero no siempre. Para un pc equilibrado, lo lógico es tener una gráfica mas potente que cpu, pero eso no quita que quien quiera tener el rendimiento máximo en TODO, pues le interese tener también una cpu potente, para los casos que se salgan de la norma.


Saludos.

DCO
03/12/2008, 11:51
Pues si no me había fijado, lo postee de otro foro sin mirarlo, de todas maneras Intel acaba de aclararlo, no hay bug TLB en el i7:
http://techreport.com/discussions.x/15979
Al parecer todo fue un invento de Fudzilla, hasta se permitió el lujo de decir que la próxima versión de i7 vendría sin el bug TLB y tendría un 10% más de rendimiento heheeh.
Saludos
Falso, solo hay que leer el documento, el que lo haga vera que Fudzilla no miente, solo indica algo que esta ahi escrito por Intel y que imagino lo habra escrito por alguna razon.
Esta parte ya es la tipica inventada de Fudzilla: "hasta se permitió el lujo de decir que la próxima versión de i7 vendría sin el bug TLB y tendría un 10% más de rendimiento heheeh"

DCO
03/12/2008, 12:00
Vamos a ver, evidentemente es caro para lo que le ofrece a la mayoría de la gente. ¿Y una HD4850? ¿No te parece cara para lo que le ofrece a la mayoría de la gente? Por ejemplo, como tarjeta gráfica para el PC de mi madre, me parece cara. Y como mi madre hay muchos usuarios en el mundo...

¿Es entonces la HD4850 un mal producto? ¿Tiene una mala relación rendimiento/precio? ¿Es un fracaso de tarjeta gráfica?

PD: También Core 2 Quad y Phenom son caros para la mayoría de la gente. Los micros de 4 núcleos creo que NO son lo ideal para la mayoría de la gente.
Depende de que producto mires exactamente, el 965 rendimiento/precio no me dice nada.

Blaizer
03/12/2008, 12:42
Maldo, eres programador no? pero gráfico? trabajas de ello? te lo pregunto si no es mucha indiscreción.

El que se dependa de la CPU, es cosa de la aplicación que uses. Para los juegos lo más importante es la tarjeta gráfica. Donde crees que se aloja toda esa informacion de geometria, shaders, texturas, etc que manejan las tarjetas gráficas en los juegos? en la VRAM o en la RAM? http://es.wikipedia.org/wiki/VRAM

Si tanto con la cpu, por qué va el Crysis high quality igual de bien con la cpu más barata? Te pongo una gráfica con overclocks... ya me explicarás lo importante que es la CPU a día de hoy, porque a mi que me lo expliquen, yo no lo entiendo ¬¬.
http://www.blog.whiteblaizer.com/wp-content/uploads/2008/09/017.gif
http://www.blog.whiteblaizer.com/wp-content/uploads/2008/09/018.gif

La tarjeta gráfica la puedes ver en esta tabla, es una 9800...
http://www.blog.whiteblaizer.com/wp-content/uploads/2008/09/014.gif

Ni a grandes resoluciones la CPU sirve para algo. No por más mhz que se tengan va a servir para mejorar el rendimiento. Son simplemente ganas de discutir cuando es un tema que se ha tratado infinidad de veces.

Creo que es una tonteria lo que has dicho de los monitores, porque mucho antes que hubieran tfts panoramicos con sus 1920x1280, estaban los CRT de 24" en los que se podía jugaba a 1600x1200 y a mayor resolución. Y no digamos las resoluciones de escritorio que se manejaban, tan bestias como las de un 30" panorámico de los de ahora. Yo he jugado a juegos como Giants a 1600x1200 y de "bestia" nada, encima en un p3 600mhz y con una Gforce 2, ahh vale, donde están esos mhz?. En la ps3 tienes juegos como el gran turismo nuevo que va muy muy rapido a 1080p, nada de 720p, y es una consola que cuesta menos que una gráfica necesaria para jugar lo de ahora bien en un 24". Ganas de discutir.

danko9696, Eso del Team fortress es algo que desconozco totalmente, pero yo a lo que me he referido es a que un solo modelo sea representado por varios cores, es decir, que un procesador procese n triangulos, otro n y otro n. Eso hasta el punto que se, es imposible de hacer en directx. Y por qué? pues porque yo programo en direct3d y pese a que no sea un guru (ni me llamo a mi mismo programador), es algo que no se puede y lo se perfectamente. No viene ni en la referencia del SDK del Directx 10, si alguien sabe donde viene, que me lo diga porque me interesa :).

Dónde has leido que usa multihilos para los blend shapes de las animaciones? me gustaría verlo.

Yo juego el team fortress con un q9550@3,8ghz con una 8400GS y me va lento como el culo en los juegos, me lo explicas? la suma son 15,2 ghz de procesamiento, una cantidad buenísima y una barbaridad! para lo que se usan los pcs. Fijate que es importante... que ni con tanto ghz inutil me sirve de mucho.

Con el Directx 11 lo único que uno va a poder hacer es multi rendering. A día de hoy solo se le puede crear 1 thread para el proceso de render. Entiendase render como todo lo que vemos en la pantalla (con sus cargas, efectos y todo). Ten en cuenta que 1 core = 1 Thread o hilo (los i7 son 2 hilos por core, pero como todo esto es nuevo, tardará años en usarse. El HT ni se usó), y que lo que gestiona los hilos es el sistema operativo.


La cpu es realmente la que gestiona los polígonos en su mayoría.

Eso no pasa en juegos, como mucho en programas como Zbrush que sí utilizan la CPU.

Si de verdad los gestionara en su "mayoria" como dices no necesitaríamos una tarjeta gráfica, digo yo. Cuando yo compro una tarjeta de trabajo, lo primero que miro son cuantos millones de polígonos mueve por segundo. Y si fuera así lo que dices, no harían falta tarjetas con tanta capacidad de procesado gráfico. Cada vez los juegos tienen modelos con más polígonos, mas shaders, más tamaño de textura, etc. Todo eso es algo sobre lo que trabaja una GPU o me equivoco?

Está demostrado que por muchos cores que se tengan, no se van a aprovechar. Si con 2 ya uno va sobrado para jugar...

No si al final, cuando salgan nuevos micros con 32 cores y 2 hilos cada uno, se dirá que para jugar, un i7 no vale y ni interesa XDD.

En fin...

MaLDo
03/12/2008, 13:07
Maldo, eres programador no? pero gráfico? trabajas de ello? te lo pregunto si no es mucha indiscreción.

El que se dependa de la CPU, es cosa de la aplicación que uses. Para los juegos lo más importante es la tarjeta gráfica. Donde crees que se aloja toda esa informacion de geometria, shaders, texturas, etc que manejan las tarjetas gráficas en los juegos? en la VRAM o en la RAM? http://es.wikipedia.org/wiki/VRAM

Si tanto con la cpu, por qué va el Crysis high quality igual de bien con la cpu más barata? Te pongo una gráfica con overclocks... ya me explicarás lo importante que es la CPU a día de hoy, porque a mi que me lo expliquen, yo no lo entiendo ¬¬.
http://www.blog.whiteblaizer.com/wp-content/uploads/2008/09/017.gif
http://www.blog.whiteblaizer.com/wp-content/uploads/2008/09/018.gif

La tarjeta gráfica la puedes ver en esta tabla, es una 9800...
http://www.blog.whiteblaizer.com/wp-content/uploads/2008/09/014.gif

Ni a grandes resoluciones la CPU sirve para algo. No por más mhz que se tengan va a servir para mejorar el rendimiento. Son simplemente ganas de discutir cuando es un tema que se ha tratado infinidad de veces.

Creo que es una tonteria lo que has dicho de los monitores, porque mucho antes que hubieran tfts panoramicos con sus 1920x1280, estaban los CRT de 24" en los que se podía jugaba a 1600x1200 y a mayor resolución. Y no digamos las resoluciones de escritorio que se manejaban, tan bestias como las de un 30" panorámico de los de ahora. Yo he jugado a juegos como Giants a 1600x1200 y de "bestia" nada, encima en un p3 600mhz y con una Gforce 2, ahh vale, donde están esos mhz?. En la ps3 tienes juegos como el gran turismo nuevo que va muy muy rapido a 1080p, nada de 720p, y es una consola que cuesta menos que una gráfica necesaria para jugar lo de ahora bien en un 24". Ganas de discutir.

danko9696, Eso del Team fortress es algo que desconozco totalmente, pero yo a lo que me he referido es a que un solo modelo sea representado por varios cores, es decir, que un procesador procese n triangulos, otro n y otro n. Eso hasta el punto que se, es imposible de hacer en directx. Y por qué? pues porque yo programo en direct3d y pese a que no sea un guru (ni me llamo a mi mismo programador), es algo que no se puede y lo se perfectamente. No viene ni en la referencia del SDK del Directx 10, si alguien sabe donde viene, que me lo diga porque me interesa :).

Dónde has leido que usa multihilos para los blend shapes de las animaciones? me gustaría verlo.

Yo juego el team fortress con un q9550@3,8ghz con una 8400GS y me va lento como el culo en los juegos, me lo explicas? la suma son 15,2 ghz de procesamiento, una cantidad buenísima y una barbaridad! para lo que se usan los pcs. Fijate que es importante... que ni con tanto ghz inutil me sirve de mucho.

Con el Directx 11 lo único que uno va a poder hacer es multi rendering. A día de hoy solo se le puede crear 1 thread para el proceso de render. Entiendase render como todo lo que vemos en la pantalla (con sus cargas, efectos y todo). Ten en cuenta que 1 core = 1 Thread o hilo (los i7 son 2 hilos por core, pero como todo esto es nuevo, tardará años en usarse. El HT ni se usó), y que lo que gestiona los hilos es el sistema operativo.



Eso no pasa en juegos, como mucho en programas como Zbrush que sí utilizan la CPU.

Si de verdad los gestionara en su "mayoria" como dices no necesitaríamos una tarjeta gráfica, digo yo. Cuando yo compro una tarjeta de trabajo, lo primero que miro son cuantos millones de polígonos mueve por segundo. Y si fuera así lo que dices, no harían falta tarjetas con tanta capacidad de procesado gráfico. Cada vez los juegos tienen modelos con más polígonos, mas shaders, más tamaño de textura, etc. Todo eso es algo sobre lo que trabaja una GPU o me equivoco?

Está demostrado que por muchos cores que se tengan, no se van a aprovechar. Si con 2 ya uno va sobrado para jugar...

No si al final, cuando salgan nuevos micros con 32 cores y 2 hilos cada uno, se dirá que para jugar, un i7 no vale y ni interesa XDD.

En fin...

En serio, que me da mucha pereza contestarte a todo... creo que no has acertado ni una. A ver si luego por la tarde tengo más ganas y lo miro con más calma, pero a ojo ya te digo, ni una.

ivanjmg
03/12/2008, 13:17
Ufff pues ver el punto de vista de Blaizer contra el de MaLDo será interesante... ¿experiencia vs teoría?

Blaizer
03/12/2008, 13:43
vaya, si no pensaba acertar en nada :D, solo he dicho y he hablado de hechos demostrados, y sólo he lanzado preguntas principalmente, lo unico que he afirmado es que la "gráfica manda" por decirlo de ese modo y que por mucha cpu que tengas, de nada sirve si la gráfica ofrece poco rendimiento.

Para simplificar pues reúno las preguntas:

1.-¿Por qué Crysis va igual de bien con una cpu barata hasta con un tremendo overclock?
2.-¿Por qué me va el Team fortress 2 lento con semejante bicho de procesador? lo principal y cosa más importante no era la CPU, el procesador? qué es lo que pasa entonces?

Respondeme tú a esas 2 únicas preguntas si no tienes mucho tiempo, que yo soy muy tonto para estas cosas y no lo tengo nada claro.

Me veo ya la típica respuesta "quote por frase" XDD.

Ains que lastima me ha dado no haber acertado ni una, es como si un profesor me hubieran suspendido con un 0 XDDD

Uruk-hai
03/12/2008, 14:21
El corei7 solo va a dar ventajas en soluciones multigpu bestias del estilo de tri-sli y demas(que por otra parte es logico, pues testear 3 gtx280 a 1680 o 1920, es como testear una sola a 1024x768, te va a frenar la cpu)
En un pc con una sola gpu y jugando a resoluciones acordes al equipo, lo unico que va a cambiar teniendo el corei7 es el logo al abrir el cpu-z. No tiene mucho sentido discutir algo tan obvio y mas que probado.

mk_dir
03/12/2008, 14:29
Si tanto con la cpu, por qué va el Crysis high quality igual de bien con la cpu más barata? Te pongo una gráfica con overclocks... ya me explicarás lo importante que es la CPU a día de hoy, porque a mi que me lo expliquen, yo no lo entiendo ¬¬.

Hombre, normalmente ese comportamiento ocurre porque cuando la carga gráfica aumenta, es la GPU la que limita el índice de frames por segundo. Fíjate que a más baja resolución se aprecian diferencias... por que? Pues por que es la CPU el elemento limitante y no la GPU.

Saludos

KugXel
03/12/2008, 14:33
Para quitaros las dudas buscad Cuello de botella en el buscador del foro anda....

Farinorco
03/12/2008, 14:33
Me gustaría comentar un par de cosas del comentario de Blaizer. Contesto cosas específicas en rojo y me cargo las imágenes para ahorrar algo de espacio, ¿OK?


Maldo, eres programador no? pero gráfico? trabajas de ello? te lo pregunto si no es mucha indiscreción.

El que se dependa de la CPU, es cosa de la aplicación que uses. Para los juegos lo más importante es la tarjeta gráfica.

Depende de la aplicación que uses, como dices, y cada juego es una distinta. No hay ningún problema para hacer juegos que dependan más de la CPU que de la GPU. Es muy simple: prueba a meter efectos de física en mayor cantidad y fidelidad, hasta hacer cuello de botella a cualquier gráfica. Verás como funciona. Por supuesto, es cierto lo que dices para la mayoría de los juegos, cosa que deberías matizar. Hay excepciones, y gente a la que le gustan dichas excepciones

Donde crees que se aloja toda esa informacion de geometria, shaders, texturas, etc que manejan las tarjetas gráficas en los juegos? en la VRAM o en la RAM? http://es.wikipedia.org/wiki/VRAM

Hasta donde yo sé, en ambas. A diferencia de las consolas, tengo entendido que toda la información almacenada en la VRAM se duplica en la RAM entre otras cosas porque los datos enviados a la tarjeta para ser almacenados en la VRAM, se mandan desde ahí y luego no se borran porque la memoria VRAM es muy volátil en una máquina multitarea como un PC (prueba a hacer Alt-Tab estando en un juego e imagina qué ha ocurrido con toda la información que estuviese almacenada en la VRAM...).

Si tanto con la cpu, por qué va el Crysis high quality igual de bien con la cpu más barata? Te pongo una gráfica con overclocks... ya me explicarás lo importante que es la CPU a día de hoy, porque a mi que me lo expliquen, yo no lo entiendo ¬¬.

¿Porque Crysis es un juego extremadamente estresante para la gráfica?

Ni a grandes resoluciones la CPU sirve para algo. No por más mhz que se tengan va a servir para mejorar el rendimiento. Son simplemente ganas de discutir cuando es un tema que se ha tratado infinidad de veces.

Cuanto mayor sea la resolución, menos influye la CPU, no al revés... la cuestión aquí es que CPU y GPU actúan paralelamente el 99% de los casos, por lo que el rendimiento es cuestión de cuellos de botella. El más lento marca el paso, el más rápido no influye para nada (a cada frame, claro está, y depende del frame la situación puede invertirse, aunque sea de vez en cuando, de ahí que la CPU sí suela influir bastante en los mínimos y en bajones de rendimiento a pesar de no tener prácticamente efecto en las medias en la mayoría de los juegos, coincidiendo con momentos de carga especialmente grande de trabajo de la CPU).

Creo que es una tonteria lo que has dicho de los monitores, porque mucho antes que hubieran tfts panoramicos con sus 1920x1280, estaban los CRT de 24" en los que se podía jugaba a 1600x1200 y a mayor resolución. Y no digamos las resoluciones de escritorio que se manejaban, tan bestias como las de un 30" panorámico de los de ahora. Yo he jugado a juegos como Giants a 1600x1200 y de "bestia" nada, encima en un p3 600mhz y con una Gforce 2, ahh vale, donde están esos mhz?. En la ps3 tienes juegos como el gran turismo nuevo que va muy muy rapido a 1080p, nada de 720p, y es una consola que cuesta menos que una gráfica necesaria para jugar lo de ahora bien en un 24". Ganas de discutir.

Yo no lo veo ninguna tontería. En PS3 y XBox 360 la inmensa mayoría de los juegos son 1280x720. Si la/s consola/s soportan resoluciones más elevadas, que el juego se viera a 1920x1080 tiene un coste en tiempo de desarrollo/implementación CERO, no pone las cosas en ningún sentido más difíciles que con 1280x720 ni obliga a llevar a cabo ningún trabajo adicional. Así que yo sacaría como conclusión que al menos la mayoría de los juegos que están a 720p (que son la mayoría del total), están a esa resolución simple y llánamente porque la consola NO puede moverlos a 1080p. Que haya algún juego que vaya mucho mejor que los demás, y pueda hacerlo, es normal. Para PC también salen juegos de vez en cuando que aún a la misma resolución que los demás, y con todo al máximo, van a 100-200FPS...

<<CORTO UN CACHO>>

Yo juego el team fortress con un q9550@3,8ghz con una 8400GS y me va lento como el culo en los juegos, me lo explicas? la suma son 15,2 ghz de procesamiento, una cantidad buenísima y una barbaridad! para lo que se usan los pcs. Fijate que es importante... que ni con tanto ghz inutil me sirve de mucho.

Te lo explico: con una tarjeta gráfica tan floja, ésta va a hacer cuello de botella sí o sí. SIEMPRE uno de los dos hace cuello de botella al otro. Y efectivamente, si pones una tarjeta gráfica que sea incapaz de pintar los frames a una velocidad aceptable, difícilmente una CPU no antediluviana va a tardar más aún en hacer su tarea.

Con el Directx 11 lo único que uno va a poder hacer es multi rendering. A día de hoy solo se le puede crear 1 thread para el proceso de render. Entiendase render como todo lo que vemos en la pantalla (con sus cargas, efectos y todo). Ten en cuenta que 1 core = 1 Thread o hilo (los i7 son 2 hilos por core, pero como todo esto es nuevo, tardará años en usarse. El HT ni se usó), y que lo que gestiona los hilos es el sistema operativo.

¿Usarse? El HT (SMT en Core i7) no se "usa" explícitamente. Se supone que actúa a nivel de hw, el SO ve el micro como de 8 núcleos y luego la tecnología SMT se las ingenia para sacarle algo de partido a eso a pesar de tener 4. El SO (o el programador) gestiona los hilos de la forma habitual, y cualquier aplicación multi-hilo que exceda los 4 hilos funcionando en paralelo estará aprovechando el SMT...

Y sinceramente, una vez pasada la etapa de "aprovechar que los micros de hoy en día a veces tienen 2 núcleos para hacer en background algunas cosillas como carga de recursos y demás", que fueron los primeros movimientos que se hicieron con la salida de los micros de doble núcleo, el paso lógico no es "programar en 4 hilos específicamente", sino pasar a un esquema de diseño de aplicación multi-hilo para N hilos, o como mínimo, lo más paralelizado posible.


Eso no pasa en juegos, como mucho en programas como Zbrush que sí utilizan la CPU.

Si de verdad los gestionara en su "mayoria" como dices no necesitaríamos una tarjeta gráfica, digo yo. Cuando yo compro una tarjeta de trabajo, lo primero que miro son cuantos millones de polígonos mueve por segundo. Y si fuera así lo que dices, no harían falta tarjetas con tanta capacidad de procesado gráfico. Cada vez los juegos tienen modelos con más polígonos, mas shaders, más tamaño de textura, etc. Todo eso es algo sobre lo que trabaja una GPU o me equivoco?

Una cosa es que la tarjeta trabaje sobre eso, y otra que la CPU no haga nada. Los shaders por ejemplo son programas que se envían a la GPU y se ejecutan allí, por lo que su complejidad computacional no afecta a la CPU. La resolución afecta fundamentalmente al tamaño y densidad de procesamiento de la formación de la imagen, aplicación de filtros, mapeado de texturas, cálculos a nivel de píxeles... pero nada a cosas que lleve a cabo la CPU. Sin embargo la cantidad de polígonos sí que afecta a la CPU entre otras cosas porque los gestiona y envía a la gráfica la CPU, y de hecho una forma de minimizar esto es hacer cuantos menos batches de cuantos más polígonos se pueda mejor.

Está demostrado que por muchos cores que se tengan, no se van a aprovechar. Si con 2 ya uno va sobrado para jugar...

Está demostrado que en la mayoría de los juegos existentes actualmente tener 4 cores no merece la pena.

Parece la misma frase pero en realidad cambia mucho. Porque para empezar, ya digo que es muy fácil hacer un juego que sólo pueda ir medio fluido si tienes un Core i7 con OC y con SMT habilitado... luego "aprovechar" es un término muy relativo: hay bastantes juegos que hacen uso de más de 2 hilos, lo que ocurre es que el impacto de la CPU en las medias de framerate en la mayoría de éstos es despreciable. Sin embargo si el juego tiene bajones de framerate ocasionados por cargas altas puntuales en la CPU, estas serán más suaves cuanto mayor sea la potencia de cálculo, lo cuál puede incluir perfectamente el número de núcleos. Muchos te dirían que eso ya hace que se estén aprovechando esos núcleos de más.

No si al final, cuando salgan nuevos micros con 32 cores y 2 hilos cada uno, se dirá que para jugar, un i7 no vale y ni interesa XDD.

Pues probablemente, porque para ese momento (si es que llega a existir, pues no termino de verle sentido a un procesador con tanto hilo para hilos principales, sí puedo entender una unidad de cálculo como una GPU totalmente paralelizada para realizar cálculos en paralelo a toda pastilla cuando haya que calcular bloques de datos o algo así, sin estructuras de control de flujo de ejecución de por medio) las aplicaciones (juegos incluidos) se habrán buscado las castañas para sacarle partido a disponer de capacidad para ejecutar 64 hilos en paralelo, y con una máquina que sólo pueda hacerlo con 8 probablemente no haya ni para empezar.

En fin...

Todo esto no es por decir que un Core i7 sea la opción más recomendable para jugar (a mi no me lo parece), ni que no sea perfectamente suficiente con mucho menos, que al menos por ahora yo es lo que creo. PERO estás tocando bastantes puntos con los que no estoy de acuerdo en esas apreciaciones. Una cosa no quita la otra.

Si actualmente no hace falta mucha CPU para jugar a la mayoría de los juegos, es principalmente porque los desarrolladores de estos lo quieren así. Cosas como que el 90% de los juegos tengan que funcionar también en una consola, que del otro 10% buena parte sean de las mismas compañías (y tampoco interesa que canibalicen a los que salen para consola también) o use los mismos engines, y que el ritmo habitual de actualización de hw gamer sea mucho mayor para gráficas que para CPUs (lo que hace más complicado de afinar una especificación de requisitos de hw relativa a la CPU que a la gráfica) seguramente tengan bastante que ver.

Buf, que jartá a escribir... :lol:

fjavi
03/12/2008, 14:42
Hombre, normalmente ese comportamiento ocurre porque cuando la carga gráfica aumenta, es la GPU la que limita el índice de frames por segundo. Fíjate que a más baja resolución se aprecian diferencias... por que? Pues por que es la CPU el elemento limitante y no la GPU.

Saludos
pero yo ese enfrentamiento lo veo injusto,el triSLI con el 8400 va en una 680¡ el QX9770 va con el 790i y el i7 como es normal con el X58 yo estoy de acuerdo que quiza en determinadas circustancias el i7 deba sacar ventaja a 3 graficas gracias a su cerca de doble ancho de banda comparandolo con un 775,pero en esa comparativa veo muy injusto que el dual y el TriSLI en una 680 es poco menos que una mierda,por lo menos deberian comparar en equipos similares,por lo menos los 775 se deberian probar en el mismo equipo,el i7 quiza solo saca la ventaja por rebajar enormemente su latencia en nanosegundos y gracias a ellos sacar casi el doble de ancho de banda,pero no por que el procesador hoy dia este ofreciendo todo su pontencial,osea aprovechar los 4 cores mas los 4 virtuales,aunque si me parece que el i7 mejora mucho lo que es la comunicacion entre procesador memorias y chipset,aunque no se si el x58 pintara mucho en ese aspecto,pero un equipo 775 da 60ns de latencia eso estando bien y esos i7 veo que dan 28ns,osea que quiza esa sea la mejora para el TriSLI.
saludos

DCO
03/12/2008, 15:08
¿Me estais diciendo que recomendariais a una persona que quiere el ordenador para jugar que se gastase mas en la CPU que en la grafica?
O es que no estoy cogiendo la esencia del debate.

ElKeBusk
03/12/2008, 15:19
La has pillado perfectamente :)
Uno puede comprarse un ferrari por muchas razones: porque es la ilusión de su vida, porque le guste fardar de cavalino rampante, porque quiera correr aunque no pueda ir a mas de 120 en la autopista, porque le guste como suena cuando acelera, por todo lo anterior..., y me parece perfecto. Pero parece que aquí hay muchos que justificarían comprarse un ferrari para ir al supermercado de la esquina :rofl:

Salu2 :)

prava
03/12/2008, 15:21
Cuanto mayor sea la resolución, menos influye la CPU, no al revés... la cuestión aquí es que CPU y GPU actúan paralelamente el 99% de los casos, por lo que el rendimiento es cuestión de cuellos de botella. El más lento marca el paso, el más rápido no influye para nada (a cada frame, claro está, y depende del frame la situación puede invertirse, aunque sea de vez en cuando, de ahí que la CPU sí suela influir bastante en los mínimos y en bajones de rendimiento a pesar de no tener prácticamente efecto en las medias en la mayoría de los juegos, coincidiendo con momentos de carga especialmente grande de trabajo de la CPU).


¿No se supone que la cpu hace exactamente el mismo trabajo a alta resolución que a baja? Es decir, estamos de acuerdo en que a alta resolución el limitante será la gráfica y en baja la cpu, pero eso no quita que la cpu haga lo mismo en ambos casos: quien tiene más o menos trabajo es la vga, que pinta más o menos cosas, mientras que la cpu siempre hace lo mismo (IA, físicas, etc).

Blaizer
03/12/2008, 15:57
Cuello de botella no creo tener ninguno, como mucho es que la tarjeta se me queda corta para lo que pide el juego para ir a tope (va bien a menos resolución). Actualmente el nuevo pc lo uso de soporte para modelar cuando tengo los xeons renderizando (consumen menos), y claramente la 8400GS es una buena tarjeta para lo que la uso, pero para JUEGOS es un mierda así de claro, no es nada potente. Si digo que me he pasado el Dead Space con ella y en calidad media-baja para que fuera jugable...

Las gráficas las puse para que se viera como las tarjetas trabajan más desahogadamente a menores resoluciones. Solo tenéis que comparar los fps que se sacan de diferencia entre las distintas resoluciones y como a más mhz, y a menos resolución, se nota menos carga para el sistema. Se obtiene un pequeño rendimiento pero insignificante de 4-5 fps en bajas resoluciones (comparad las 2 gráficas que he puesto de GPU vs CPU). Hoy día es raro que alguien juegue en 4:3 a 1024x768, ya que la mayoria tenemos 22" o 24" panoramicas. Y además, se juegan con las resoluciones nativas y filtros por un tubo.

Y bueno, ya todos sabemos que crysis tiene unas exigencias gráficas muy altas, mi 8400GS no cumple bien las del Team Fortress 2 :D. La resolución de pantalla es factor muy limitante en los fps que marca un juego, y a las videoconsolas les pasa igual. En ps3 la mayoria de juegos son 720p, y otros tantos son 1080p, han optimizado lo suficientemente bien el programa para que corra a esa resolución sin problemas.

La gestion de la CPU no es tanta carga como muchos se piensa. Los polígonos hoy día no significan nada, está comprobado que por muchos polígonos que se metan, lo que mata son los shaders y los cálculos para textura, filtros y demás. Tan solo hay que ver los programas de 3d, sin texturas va todo muy rápido, y con texturas y shaders DX HLSL va todo como el peo.

Farinorco
03/12/2008, 16:25
[/COLOR]

¿No se supone que la cpu hace exactamente el mismo trabajo a alta resolución que a baja? Es decir, estamos de acuerdo en que a alta resolución el limitante será la gráfica y en baja la cpu, pero eso no quita que la cpu haga lo mismo en ambos casos: quien tiene más o menos trabajo es la vga, que pinta más o menos cosas, mientras que la cpu siempre hace lo mismo (IA, físicas, etc).

Precisamente. La CPU hace exactamente lo mismo independientemente de la resolución. Por eso, y dado que lo que haga la GPU sí varía enormemente con la resolución, el grado de influencia de la CPU en el resultado final varía conforme a la resolución... por la GPU.

Si tu por ejemplo tienes que a 1920x1200 tardas en procesar el frame N 30ms en la gráfica y 20ms en la CPU, el tiempo de ese frame será de 30ms (en realidad el que se está calculando en CPU es el siguiente que saldrá en la GPU, pero para el caso es lo mismo). Por lo tanto te da igual que la CPU en vez de 20 tarde 15 o 25.

Ahora bajamos la resolución a 960x600, y pongamos que con esto se reduce el tiempo que tarda la GPU a 15ms. Ahora lo que tardamos son los 20ms que tarda la CPU. Ahora la CPU está marcando el ritmo, por lo que si en vez de 20 tardásemos 15 o 25ms, el framerate se vería afectado.

Cuanto más baja sea la carga de trabajo de la GPU, más frames quedarán determinados por el tiempo de procesamiento en CPU, por lo que el framerate medio, los mínimos y bajones, etc, estarán más influenciados por el rendimiento de la CPU.


Cuello de botella no creo tener ninguno, como mucho es que la tarjeta se me queda corta para la que pide el juego (va bien a menos resolución). Actualmente el nuevo pc lo uso de soporte para modelar cuando tengo los xeons renderizando (consumen menos), y claramente la 8400GS es una buena tarjeta para lo que la uso, pero para JUEGOS es un mierda así de claro, no es nada potente. Si digo que me he pasado el Dead Space con ella y en calidad media-baja para que fuera jugable...

Las gráficas las puse para que se viera como las tarjetas trabajan más desahogadamente a menores resoluciones. Solo tenéis que comparar los fps que se sacan de diferencia entre las distintas resoluciones y como a más mhz, y a menos resolución, se nota menos carga para el sistema. Se obtiene un pequeño rendimiento pero insignificante de 4-5 fps en bajas resoluciones (comparad las 2 gráficas que he puesto de GPU vs CPU). Hoy día es raro que alguien juegue en 4:3 a 1024x768, ya que la mayoria tenemos 22" o 24" panoramicas. Y además, se juegan con las resoluciones nativas y filtros por un tubo.

Y bueno, ya todos sabemos que crysis tiene una exigencias gráficas muy altas, mi 8400GS no cumple bien las del Team Fortress 2 :D. La resolución de pantalla es factor muy limitante en los fps que marca un juego, y a las videoconsolas les pasa igual. En ps3 la mayoria son 720p, y otros tantos son 1080p, han optimizado lo suficientemente bien el programa para que corra a esa resolución sin problemas.

La gestion de la CPU no es tanta carga como muchos se piensa. Los polígonos hoy día no significan nada, está comprobado que por muchos polígonos que se metan, lo que mata son los shaders y los cálculos para textura, filtros y demás. Tan solo hay que ver los programas de 3d, sin texturas va todo muy rápido, y con texturas y shaders DX HLSL va todo como el peo.

Teniendo en cuenta el funcionamiento por defecto de DirectX (o mejor dicho, de las tarjetas gráficas con DirectX) que adelanta el procesado en CPU de 1+ frames mientras la GPU curra en el frame actual, haciendo que la CPU y la GPU trabajen simultáneamente en paralelo, el rendimiento de los juegos se basa en un sistema de cuellos de botella. Un cuello de botella no quiere decir más que en un momento determinado, el rendimiento quede determinado por el más lento en acabar su tarea de entre varios componentes/sistemas actuando en paralelo. Por lo que frame a frame, o la CPU le hace cuello de botella a la GPU, o al revés.

Por lo demás estoy bastante de acuerdo con lo que dices, incluso el último párrafo. Es evidente que (al menos con la tecnología que tenemos actualmente) la forma de optimizar la relación riqueza visual / rendimiento es utilizar modelos de bajo nº de polígonos y utilizar texturas y shaders a saco (y entre otras cosas disimular -bastante bien- la falta de detalle en la geometría). Es más, incluso las texturas tienen un límite asociado a la resolución objetivo (para una determinada resolución, la diferencia entre aumentar la calidad de las texturas y no hacerlo va siendo progresivamente menor conforme aumenta la calidad de las mismas, llegándose a un punto en el que empiezo a no verlo óptimo ni rentable), cosa que no ocurre con los shaders, que pueden utilizarse de forma únicamente limitada por la potencia de cálculo disponible para aumentar la riqueza visual de la imagen.

Pero eso no quita que a diferencia de la calidad de las texturas, los shaders o la resolución, el número de polígonos sí tenga un impacto (pequeño) en la CPU. Si se hace un juego con modelos de un alto número de polígonos, la carga de trabajo de la CPU aumenta. Pero efectivamente, como dices, ni es rentable, ni se hace. Era una cuestión más conceptual que otra cosa.

EDITO: Me he dado cuenta así a última hora (de ahí lo de editar jeje) que más bien lo que sugieres es que el número de polígonos da lo mismo y lo que mata son shaders y texturas. Esto no es así exactamente. Ocurre así por la forma de diseñar los juegos, pero en todos los juegos se usan modelos de bajo nº de polígonos y se "restaura" buena parte del detalle perdido de esta forma mediante truquitos varios con shaders y otros mecanismos similares, como el mapeado de normales (incluyendo derivados como bump mapping, parallax mapping y demás), o la tesselation esa de la 360, que ATi integró infructuosamente en sus tarjetas y que ahora forma parte del estándar DX11... ¿por qué crees que se hacen estas cosas si utilizar modelos con miríadas de polígonos no fuese una ruína?


¿Me estais diciendo que recomendariais a una persona que quiere el ordenador para jugar que se gastase mas en la CPU que en la grafica?
O es que no estoy cogiendo la esencia del debate.

No sé el resto, pero yo no. Lo digo por aclararlo más que nada, aunque ya lo haya dicho, pero también como era un tochaco... :D

MaLDo
03/12/2008, 16:31
vaya, si no pensaba acertar en nada :D, solo he dicho y he hablado de hechos demostrados, y sólo he lanzado preguntas principalmente, lo unico que he afirmado es que la "gráfica manda" por decirlo de ese modo y que por mucha cpu que tengas, de nada sirve si la gráfica ofrece poco rendimiento.

Para simplificar pues reúno las preguntas:

1.-¿Por qué Crysis va igual de bien con una cpu barata hasta con un tremendo overclock?
2.-¿Por qué me va el Team fortress 2 lento con semejante bicho de procesador? lo principal y cosa más importante no era la CPU, el procesador? qué es lo que pasa entonces?

Respondeme tú a esas 2 únicas preguntas si no tienes mucho tiempo, que yo soy muy tonto para estas cosas y no lo tengo nada claro.

Me veo ya la típica respuesta "quote por frase" XDD.

Ains que lastima me ha dado no haber acertado ni una, es como si un profesor me hubieran suspendido con un 0 XDDD

Aunque ya te han contestado a casi todas las barbaridades que has dicho, concreto sobre el resumen que has hecho.

Respecto a qué programo... a un buen paleta cómo le sentaría la pregunta ¿tú qué sabes construir?. Se puede tener más experiencia en una cosa que en otra, pero un programador debe saber programar cualquier cosa; desde un juego chorra para móviles hasta los robots que ensamblan un coche. Y desde luego debe de tener la capacidad de decidir qué se puede hacer e intuir el cómo.



1.-¿Por qué Crysis va igual de bien con una cpu barata hasta con un tremendo overclock?

Sencillamente eso no es cierto. Lo que ocurre es que podemos encontrar casos en los que lo parezca, como esas barras que has posteado y que explico ahora; intentar ver el "poder" de una cpu overclockeada a 4 ghz y utilizar para ello una 9800 es como querer ver la diferencia de aceleración entre un seat ibiza y un porsche 911 haciendo una prueba en un garaje. Esas cpus no son capaces de sentirse forzadas en ningún momento.

Analiza conmigo esas barras, a 1600x1200 todas las barras se paran en 33.3 fps menos la de la cpu chusquera. Eso significa que la 9800 está muerta y no puede con su culo. Las cpus se han ido a por un pincho de morcilla al bar y les importa poco si han ido al bar a 3 ghz o a 4.

A 1280x1024 se paran 45.5 fps. La 9800 vuelve a ahogarse pero su límite a menos resolución es evidente que sea más alto. Las cpus vuelven a estar en el bar.

Bajamos a 1024x768 para ver si la 9800 levanta cabeza. Podemos apreciar que el límite de la tarjeta en este caso ronda los 65 fps. Sin embargo, hay procesadores (los más lentos) que no son capaces de ir lo suficientemente rápidos como para llegar a esos 65 fps, por lo que algunos se quedan 55 y otros en 60.

Lo que se tiene que concluir con estas barras es:

1- Si quisieramos mejorar el rendimiento a 1600x1200, necesitamos cambiar de tarjeta gráfica

2- Si tenemos de cpu un E7200 (barra rosa), aunque nos cambiemos de gráfica NUNCA podríamos jugar a 60 fps constantes porque nuestro límite será siempre 55 fps. Y si nuestra CPU es el E5200 aunque nos cambiemos de gráfica, no subiremos nunca de 39 fps. En ambos casos, si queremos aumentar el rendimiento DESPUÉS de comprar la gráfica, deberemos cambiar la CPU. Y digo después porque lo primero que se debe actualizar en un PC es el componente descompensado (y no la gráfica si o si) y en el pc de ESAS pruebas, la gráfica canta por bulerías.



2.-¿Por qué me va el Team fortress 2 lento con semejante bicho de procesador? lo principal y cosa más importante no era la CPU, el procesador? qué es lo que pasa entonces?

Pueden ser dos cosas también:

1- Estás jugando a una resolución inviable para tu tarjeta gráfica. Si cambias la gráfica puedes jugar medio decente a una mayor resolución. Para jugar perfecto, 60 fps constantes, necesitas una cpu potente.

2- No sabes como activar el uso de más de un core con ese juego. El comando es mat_queue_mode=2, que viene desactivado por defecto. Ya de paso te contesto a algo que has dicho antes de la renderización multihilo; para el Team Fortress 2 en concreto es con el comando r_threaded_renderables=1, que también viene desactivado por defecto y que para activarlo requiere que el queue_mode de antes esté a 2.

danko9696
03/12/2008, 16:41
danko9696, Eso del Team fortress es algo que desconozco totalmente, pero yo a lo que me he referido es a que un solo modelo sea representado por varios coresYo nunca he dicho lo contrario. He dicho que la gestión de animaciones faciales puede ser gestionado por mas de un core, lo que no implica necesariamente que una animación concreta pueda ser gestinada por mas de un core. Podrías tener un hilo por cada modelo a repartir entre los distintos cores.

No he encontrado la fuente donde lo vi en su momento, pero si la veo mas tarde, la postearé.


Yo juego el team fortress con un q9550@3,8ghz con una 8400GS y me va lento como el culo en los juegos, me lo explicas? la suma son 15,2 ghz de procesamiento, una cantidad buenísima y una barbaridad! para lo que se usan los pcs. Fijate que es importante... que ni con tanto ghz inutil me sirve de mucho.Yo tenía un 3800x2 / 8800gts320, pasé a una ultra y los frames se subieron, sobre todo en cuanto a filtros, pero los frames mínimos seguían siendo los mismos hasta que pasé a un q6600.


Eso no pasa en juegos, como mucho en programas como Zbrush que sí utilizan la CPU.

Si de verdad los gestionara en su "mayoria" como dices no necesitaríamos una tarjeta gráfica, digo yo¿como que no pasa?, si hace falta gráfica es porque gestionar polígonos es solo parte del proceso. Se ha pasado del ´cuantos mas polígonos mejor´ a tener menos polígonos pero teniendo mas efectos, varios de los mas notables sirven precísamente para simular polígonos extra. Vamos, que es mas rentable, en cuanto a juegos en tiempo real, simular muchos polígonos que realmente manejar muchos polígonos.

Y no solo los polígonos, las propias órdenes que la cpu manda a la gpu para el proceso de renderizado y que esta última ejecuta, suponen una carga para la cpu . La reducción de esta carga era el supuesto beneficio de DX10


Cada vez los juegos tienen modelos con más polígonos, mas shaders, más tamaño de textura, etc. Todo eso es algo sobre lo que trabaja una GPU o me equivoco?Efectívamente, y casi todo recae sobre la gráfica, pero no todo. Ahora la gráfica puede crear polígonos con el ´displacement mapping´, pero si no se usa dicho efecto, todos los polígonos le vienen ya desde la cpu. Puede ´moverlos´ gracias a vertex shaders, pero sin ellos, todo está gestionado por la cpu (sobre todo si son procesos interactivos).


¿No se supone que la cpu hace exactamente el mismo trabajo a alta resolución que a baja? Es decir, estamos de acuerdo en que a alta resolución el limitante será la gráfica y en baja la cpu, pero eso no quita que la cpu haga lo mismo en ambos casos: quien tiene más o menos trabajo es la vga, que pinta más o menos cosas, mientras que la cpu siempre hace lo mismo (IA, físicas, etc).Si a baja resolución la cpu hace el mismo trabajo que a alta, pero en alta la gpu hace mas trabajo --> a alta resolución la cpu importa menos.

Esto antes ya ha sido comentado por maldo:
todos los polígonos que pinta la gráfica pasan de algún modo por la CPU. La física (a excepción de la que use la librería physx sobre gpu), la IA y los cálculos de sombras recaen sobre la CPU.

Si un motor no cambia el número de polígonos mostrados según la resolución, dicha resolución afecta únicamente a la potencia gráfica.

Por lo tanto, la resolución y los efectos sobre texturas que se apliquen via shaders no afectarán en ninguna proporción a la cpu. Pero el número de polígonos SI AFECTA a la cpu. Por eso los juegos que usen mucha maya (caso crysis) al mismo tiempo que físicas complejas y sombras detalladas, tendrán un impacto directo sobre la cpu.


Por lo que frame a frame, o la CPU le hace cuello de botella a la GPU, o al revés.
Eso es, SIEMPRE hay cuello de botella, SIEMPRE. Puede variar según el juego, e incluso dentro del juego, o como dices, en un frame limitar la gráfica y al siguiente la cpu.


¿Me estais diciendo que recomendariais a una persona que quiere el ordenador para jugar que se gastase mas en la CPU que en la grafica?
O es que no estoy cogiendo la esencia del debate.Realmente no se si alguien ha dicho algo semejante. Lo único que se está diciendo es que la cpu, a pesar de tener hoy en día un rol secundario, sigue teniendo su importancia, sigue siendo básica para el proceso de renderizado y puede ser el factor limitante en algunos casos (una minoría, pero están ahí).


Saludos.

prava
03/12/2008, 17:41
A lo que me refería es que no es que la cpu tenga "menos papel" a altas resoluciones, sino que el componente que se ahoga es otro. Es decir, si jugamos jugables a 1920x1200, jugaremos igual de sobrados a menos resolución, por mucho que la cpu nos cape. Porque de caparnos la cpu, nos capará tanto a 640 como a 1920, de ahí que en mi opinión eso de que "uno va sobrado a altas resoluciones con poca cpu pero no en bajas" no tiene ningún sentido: una cpu que vaya bien en altas irá igual de bien en bajas.

El tema está en que siempre se habla de que la cpu hace cuello de botella en bajas y todo eso. Técnicamente es cierto, pero si hablamos de frames rates mínimos de 60 o más, para mí es estúpido hablar de cuello de botella: está ahí, pero jugaremos igual de bien. No sé, igual es que no termino de entender las cosas o no lo sé...

MaLDo
03/12/2008, 17:52
A lo que me refería es que no es que la cpu tenga "menos papel" a altas resoluciones, sino que el componente que se ahoga es otro. Es decir, si jugamos jugables a 1920x1200, jugaremos igual de sobrados a menos resolución, por mucho que la cpu nos cape. Porque de caparnos la cpu, nos capará tanto a 640 como a 1920, de ahí que en mi opinión eso de que "uno va sobrado a altas resoluciones con poca cpu pero no en bajas" no tiene ningún sentido: una cpu que vaya bien en altas irá igual de bien en bajas.

El tema está en que siempre se habla de que la cpu hace cuello de botella en bajas y todo eso. Técnicamente es cierto, pero si hablamos de frames rates mínimos de 60 o más, para mí es estúpido hablar de cuello de botella: está ahí, pero jugaremos igual de bien. No sé, igual es que no termino de entender las cosas o no lo sé...


Es un poco confuso lo que escribes, pero si lo que quieres decir es que la limitación de la cpu está siempre por encima de 60 fps, ESO ES FALSO. El mismo Team Fortress 2, con un quad a 2,4 Ghz vas a tener bajones de framerate cerca de los 40 fps. Para jugar a 60 constantes (y eso quiere decir que cuando esté lleno de gente tirando misiles con varias torretas disparando se mantenga a 60 ) necesitas un procesador (2 cores o 4 cores, da igual) a 3 ghz mínimo, y eso independientemente de la resolución de pantalla. Si quisieras jugar a 60 fps constantes en crysis warhead, necesitas independientemente de la resolución que uses, un quad a 4.6 ghz o un i7 a 4.2 ghz (y aun en esos casos tendrías algún bajón a 50 fps, totalmente perdonable en un juego así).

Y es lo que mucha gente no entiende respecto a la limitación de la CPU, que se piensan que el crysis en veryhigh les va a ir sobrado si lo ponen a 640x480 y resulta que no. Y es porque tiene muchísimos polígonos y muchas sombras que saturan la cpu a la resolución que sea. O el GTA4, que en cuanto a efectos gráficos es pobrísimo, pero tienen una carga poligonal muy grande y hace que el limitador sea la cpu. En el caso diametralmente opuesto está Devil May Cry 4, que es todo efectos gráficos de shader y nada de física ni de sombras detalladas. En ese juego la gráfica lo es TODO.

prava
03/12/2008, 18:22
Es un poco confuso lo que escribes, pero si lo que quieres decir es que la limitación de la cpu está siempre por encima de 60 fps, ESO ES FALSO. El mismo Team Fortress 2, con un quad a 2,4 Ghz vas a tener bajones de framerate cerca de los 40 fps. Para jugar a 60 constantes (y eso quiere decir que cuando esté lleno de gente tirando misiles con varias torretas disparando se mantenga a 60 ) necesitas un procesador (2 cores o 4 cores, da igual) a 3 ghz mínimo, y eso independientemente de la resolución de pantalla. Si quisieras jugar a 60 fps constantes en crysis warhead, necesitas independientemente de la resolución que uses, un quad a 4.6 ghz o un i7 a 4.2 ghz (y aun en esos casos tendrías algún bajón a 50 fps, totalmente perdonable en un juego así).

Y es lo que mucha gente no entiende respecto a la limitación de la CPU, que se piensan que el crysis en veryhigh les va a ir sobrado si lo ponen a 640x480 y resulta que no. Y es porque tiene muchísimos polígonos y muchas sombras que saturan la cpu a la resolución que sea. O el GTA4, que en cuanto a efectos gráficos es pobrísimo, pero tienen una carga poligonal muy grande y hace que el limitador sea la cpu. En el caso diametralmente opuesto está Devil May Cry 4, que es todo efectos gráficos de shader y nada de física ni de sombras detalladas. En ese juego la gráfica lo es TODO.

No, parece que has entendido justamente lo contrario. A lo que me refería es que la CPU llega hasta X fps más o menos fijos mientras que los de la VGA van variando en función de resolución, filtros, calidad y demás...entonces, a bajas resolución los fps que nos puede dar la VGA son superiores a los X que nos da la cpu, así que nos quedamos en X. A alta resolución, la vga seguramente saque menos fps que los X de la cpu, así que nos quedamos en los que nos de la vga. Da igual si X son 20, 40 o 80...

Lo que sí quería decir es que si hablamos de que con la cpu X tenemos 100fps a 640 y al pasar a un i7 tenemos 150fps pues vale, hay cuello de botella, hay diferencia, pero a efectos prácticos puedes jugar igual de bien con ambos, así que yo ni siquiera lo consideraría "cuello de botella".

MaLDo
03/12/2008, 18:27
No, parece que has entendido justamente lo contrario. A lo que me refería es que la CPU llega hasta X fps más o menos fijos mientras que los de la VGA van variando en función de resolución, filtros, calidad y demás...entonces, a bajas resolución los fps que nos puede dar la VGA son superiores a los X que nos da la cpu, así que nos quedamos en X. A alta resolución, la vga seguramente saque menos fps que los X de la cpu, así que nos quedamos en los que nos de la vga. Da igual si X son 20, 40 o 80...

Lo que sí quería decir es que si hablamos de que con la cpu X tenemos 100fps a 640 y al pasar a un i7 tenemos 150fps pues vale, hay cuello de botella, hay diferencia, pero a efectos prácticos puedes jugar igual de bien con ambos, así que yo ni siquiera lo consideraría "cuello de botella".

Has vuelto a decir otra vez lo mismo que ya te he contestado antes. Resulta que a día de hoy no existe esa cpu x de la que hablas que da 100 fps en crysis ni en el GTA IV y por tanto ese ejemplo no es válido porque no es realista. Y una cpu no da un rendimiento estable porque su carga tampoco lo es. El número de polígonos en pantalla, por ejemplo, no es una constante y afecta directamente a la carga en la cpu. El número de elementos afectados por la física tampoco es una constante. La cantidad de sombras tampoco. Ni la cantidad de personajes que maneja la IA. ¿Realmente has leído lo que te he explicado antes?

Blaizer
03/12/2008, 18:49
Del mismo modo que tú piensas que yo he dicho barbaridades, a mi también me pasa lo mismo con lo que comentas.

Según tú, si un programador deber saber programar cualquier cosa, entonces también debe conocer el api directx 10?

Mira programadores hay muchos, y al igual que artistas, los hay de muchos tipos y que abarcan distintos campos. No hay programador que lo domine todo, y eso es algo que tengo más que comprobado por mucho que se me diga, pero bueno no es el caso. Por lo visto hoy día todo el que tiene ordenador y postea en foros ya es un completo informatico en toda regla, y no es algo que diga por nadie en especial, pero me cuesta muchísimo creer muchas de las cosas que se "opinan" en un foro.

que no es cierto que crysis no va bien en un E7300? eso SÍ que es una barbaridad cuando son muchos los que teniendo ese micro y una buena tarjeta lo juegan sin problemas y sin tener que gastarse un pastón. Es que hasta el overclock no sirve para nada, y es un hecho, no es nada sobre lo que opinar porque no hay ni blancos ni negros.

Sobre las tablas que puse, no se si te habrás fijado, pero una es para CPU y otra para GPU. Las diferencias las tienes que ver comparando ambas tablas.


Si tenemos de cpu un E7200 (barra rosa), aunque nos cambiemos de gráfica NUNCA podríamos jugar a 60 fps constantes porque nuestro límite será siempre 55 fps

Esto es otra barbaridad como la copa de un pino. Pienso que no sabes interpretar las gráficas, porque de lo que depende el limite, es de la potencia que tenga la gráfica que montemos. Todos los procesadores están parejos a partir de 1280x1024, y con esta gráfica se puede ver que para jugar bien a crysis hace falta tener como minimo un E7200. Lo puse para que quedara claro pero por lo visto es algo que no se ha visto, o bien porque no se quiere entender o vete tú a saber...


1- Estás jugando a una resolución inviable para tu tarjeta gráfica. Si cambias la gráfica puedes jugar medio decente a una mayor resolución. Para jugar perfecto, 60 fps constantes, necesitas una cpu potente.

Otra burrada más, cuando ya he dicho que tengo un quadcore a 3,8ghz por dios. Necesito cpu más potente para el team fortress??, venga hombre si se perfectamente porque no va bien a grandes resoluciones, y es porque la tarjeta no es lo suficientemente potente... sera por falta de mhz... que tengo hasta para regalar ¬¬

Para tu información, uso 2 de los 4 cores en el TF2 y también tengo el r_threaded_particles, y fijate por donde, aun va lento por mucho 3,8 ghz que tenga por cada core. Es la gráfica, y lo demás son solo ganas de discutir como bien he dicho. Para jugar, no hacen falta tantos mhz para la mayoria de juegos de ahora, con 2 cores uno va sobradísimo. A quien le vendan un nehalem y pague la novedad, pues se la clavan si sólo va a jugar. Yo ni lo recomiendo.

El dead space no me iba ni a 800x600 en calidad media.


Se ha pasado del ´cuantos mas polígonos mejor´ a tener menos polígonos pero teniendo mas efectos, varios de los mas notables sirven precísamente para simular polígonos extra.

No confundamos que se ha pasado de tener cuanto menos poligonos mejor, porque no es así, Crysis tira de mapas de normales y shaders ultra costosos de calcular para las gráficas, y los modelos derrochan poligonos como ningun otro juego. Hay modelos con 25000+ poligonos cuando en el gears of war usan entre 4000-6000, y los del TF2 por el estilo. El numero de poligonos se ha ido aumentando progresivamente, y en juegos como Alone in the Dark, eso ya no es una cantidad enorme como la del Crysis, es pasmosa. Encima se usan mapas de normales, especulares, cubicos, mapas de transparecia, y más mapas que no voy a nombrar.

La simulación por mapas de normales ya no se usa como antes con pocos polígonos, porque se tira de maquina a lo bestia (la tarjetas rompieron la barrera en rendimiento que nos metio juegos como doom3 en su día), a tope de poligonos, mapas de normales y mogollon de mapas para un mismo modelo entre 2048-4096px de resolución. Con el doom3 podías tener un modelo con 3500 poligonos con mapas de normales, y cuando salio, lo que hacia el juego lento eran las gráficas y no el procesador. Las tarjetas de entonces te movian perfectamente los poligonos, pero no calculaban tan rapido los mapas de normales con un simple especular y el diffuse. El procesador apenas tiene trabajo comparado con el de la GPU en un juego como un shooter.


Ahora la gráfica puede crear polígonos con el ´displacement mapping´, pero si no se usa dicho efecto, todos los polígonos le vienen ya desde la cpu.

El displacement mapping no se usa en tiempo real hoy día en los juegos, ya que es muy costoso. Hay otras tecnicas de renderizado de geometria, que tampoco se usan y tambien se basan en mapas de desplazamiento, pero + mapas de normales + superficies de subdivision. También hay motores que representan con iluminación global y tampoco se usan.

Y es que a fin de cuentas, en cualquier juego o software, la CPU tiene un papel y va a estar haciendo lo mismo haya o no más resolución. Esto lo decimos todos. Si se cumplen los requisitos en mhz, lo que marca la diferencia es exclusivamente la GPU.

No entiendo tanta tonteria con la CPU... de verdad


Realmente no se si alguien ha dicho algo semejante. Lo único que se está diciendo es que la cpu, a pesar de tener hoy en día un rol secundario, sigue teniendo su importancia, sigue siendo básica para el proceso de renderizado y puede ser el factor limitante en algunos casos

Se ha dicho mucho, pero no que sea "secundaria", eso que dices ahora es nuevo, si no... no habrian preguntado la pregunta esa. Estais liando la marrana y ya está, y al final sólo se crea confusión. Yo llevo diciendo todo el rato que lo importante es la grafica, la GPU, y ahora me saltais con esta? en qué quedamos?

No os confundais con lo que dicen en el hilo, que lo que en verdad importa en los juegos es la gráfica. Podeis tener tropocientos gigahercios y cores, que si un juego necesita 500mhz de procesador, no va a necesitar más. Lo demás son patrañas que se sacan para vender y crear una necesidad donde en verdad no la hay. Consumismo puro y duro.

Y dale con lo del crysis, que no... El directx es dependiente de la gpu, el calculo de las sombras recae en la gpu, que no te lo crees? te suena stencil shadows? stencil buffer? pues mírate la referencia de programacion del directx10 ya que eres programador Maldo, yo no voy a poner a discutir más contingo cuando estas totalmente equivocado y discutes por discutir, y por lo que veo sin saber, para colmo interpretando mal unas gráficas. Lo malo del asunto es que el personal se esta confundiendo y pensando que va a "necesitar" mucha cpu, va a tirar el dinero tontamente. Es triste.

El gta va lento por la cantidad de entidades en pantalla, la ia no se acelera con la gpu... Mientras tengas procesador suficiente para ia, físicas y tareas del procesador, se tiene de sobra. Todos los edificios que se ven en el juego son practicamente cajones y no tiene apenas detalle poligonal comparado con los modelos que usaran hasta lods.

Ahh y si nos ponemos a hablar de ppus.... la cpu se arrasca aun más los huevos. Si hoy día no hace practicamente nada en comparación con la gpu... pues menos con una ppu y una tarjeta de sonido como una x-fi con memoria dedicada (acelerador).

Ya no escribo más :D, que cada uno saque su conclusión.

Para los enteraillos, o los que le guste el tema, aquí podeis ver como va todo esto de la aceleración por hardware bajo directx, y más cosillas. Mirad el pipeline... http://en.wikipedia.org/wiki/Direct3D

MaLDo
03/12/2008, 19:41
Del mismo modo que tú piensas que yo he dicho barbaridades, a mi también me pasa lo mismo con lo que comentas.

Según tú, si un programador deber saber programar cualquier cosa, entonces también debe conocer el api directx 10?

Mira programadores hay muchos, y al igual que artistas, los hay de muchos tipos y que abarcan distintos campos. No hay programador que lo domine todo, y eso es algo que tengo más que comprobado por mucho que se me diga, pero bueno no es el caso. Por lo visto hoy día todo el que tiene ordenador y postea en foros ya es un completo informatico en toda regla, y no es algo que diga por nadie en especial, pero me cuesta muchísimo creer muchas de las cosas que se "opinan" en un foro.

que no es cierto que crysis no va bien en un E7300? eso SÍ que es una barbaridad cuando son muchos los que teniendo ese micro y una buena tarjeta lo juegan sin problemas y sin tener que gastarse un pastón. Es que hasta el overclock no sirve para nada, y es un hecho, no es nada sobre lo que opinar porque no hay ni blancos ni negros.

Sobre las tablas que puse, no se si te habrás fijado, pero una es para CPU y otra para GPU. Las diferencias las tienes que ver comparando ambas tablas.



Esto es otra barbaridad como la copa de un pino. Pienso que no sabes interpretar las gráficas, porque de lo que depende el limite, es de la potencia que tenga la gráfica que montemos. Todos los procesadores están parejos a partir de 1280x1024, y con esta gráfica se puede ver que para jugar bien a crysis hace falta tener como minimo un E7200. Lo puse para que quedara claro pero por lo visto es algo que no se ha visto, o bien porque no se quiere entender o vete tú a saber...



Otra burrada más, cuando ya he dicho que tengo un quadcore a 3,8ghz por dios. Necesito cpu más potente para el team fortress??, venga hombre si se perfectamente porque no va bien a grandes resoluciones, y es porque la tarjeta no es lo suficientemente potente... sera por falta de mhz... que tengo hasta para regalar ¬¬

Para tu información, uso 2 de los 4 cores en el TF2 y también tengo el r_threaded_particles, y fijate por donde, aun va lento por mucho 3,8 ghz que tenga por cada core. Es la gráfica, y lo demás son solo ganas de discutir como bien he dicho. Para jugar, no hacen falta tantos mhz para la mayoria de juegos de ahora, con 2 cores uno va sobradísimo. A quien le vendan un nehalem y pague la novedad, pues se la clavan si sólo va a jugar. Yo ni lo recomiendo.

El dead space no me iba ni a 800x600 en calidad media.



No confundamos que se ha pasado de tener cuanto menos poligonos mejor, porque no es así, Crysis tira de mapas de normales y shaders ultra costosos de calcular para las gráficas, y los modelos derrochan poligonos como ningun otro juego. Hay modelos con 25000+ poligonos cuando en el gears of war usan entre 4000-6000, y los del TF2 por el estilo. El numero de poligonos se ha ido aumentando progresivamente, y en juegos como Alone in the Dark, eso ya no es una cantidad enorme como la del Crysis, es pasmosa. Encima se usan mapas de normales, especulares, cubicos, mapas de transparecia, y más mapas que no voy a nombrar.

La simulación por mapas de normales ya no se usa como antes con pocos polígonos, porque se tira de maquina a lo bestia (la tarjetas rompieron la barrera en rendimiento que nos metio juegos como doom3 en su día), a tope de poligonos, mapas de normales y mogollon de mapas para un mismo modelo entre 2048-4096px de resolución. Con el doom3 podías tener un modelo con 3500 poligonos con mapas de normales, y cuando salio, lo que hacia el juego lento eran las gráficas y no el procesador. Las tarjetas de entonces te movian perfectamente los poligonos, pero no calculaban tan rapido los mapas de normales con un simple especular y el diffuse. El procesador apenas tiene trabajo comparado con el de la GPU en un juego como un shooter.



El displacement mapping no se usa en tiempo real hoy día en los juegos, ya que es muy costoso. Hay otras tecnicas de renderizado de geometria, que tampoco se usan y tambien se basan en mapas de desplazamiento, pero + mapas de normales + superficies de subdivision. También hay motores que representan con iluminación global y tampoco se usan.

Y es que a fin de cuentas, en cualquier juego o software, la CPU tiene un papel y va a estar haciendo lo mismo haya o no más resolución. Esto lo decimos todos. Si se cumplen los requisitos en mhz, lo que marca la diferencia es exclusivamente la GPU.

No entiendo tanta tonteria con la CPU... de verdad



Se ha dicho mucho, pero no que sea "secundaria", eso que dices ahora es nuevo, si no... no habrian preguntado la pregunta esa. Estais liando la marrana y ya está, y al final sólo se crea confusión. Yo llevo diciendo todo el rato que lo importante es la grafica, la GPU, y ahora me saltais con esta? en qué quedamos?

No os confundais con lo que dicen en el hilo, que lo que en verdad importa en los juegos es la gráfica. Podeis tener tropocientos gigahercios y cores, que si un juego necesita 500mhz de procesador, no va a necesitar más. Lo demás son patrañas que se sacan para vender y crear una necesidad donde en verdad no la hay. Consumismo puro y duro.

Y dale con lo del crysis, que no... El directx es dependiente de la gpu, el calculo de las sombras recae en la gpu, que no te lo crees? te suena stencil shadows? stencil buffer? pues mírate la referencia de programacion del directx10 ya que eres programador Maldo, yo no voy a poner a discutir más contingo cuando estas totalmente equivocado y discutes por discutir, y por lo que veo sin saber, para colmo interpretando mal unas gráficas. Lo malo del asunto es que el personal se esta confundiendo y pensando que va a "necesitar" mucha cpu, va a tirar el dinero tontamente. Es triste.

El gta va lento por la cantidad de entidades en pantalla, la ia no se acelera con la gpu... Mientras tengas procesador suficiente para ia, físicas y tareas del procesador, se tiene de sobra. Todos los edificios que se ven en el juego son practicamente cajones y no tiene apenas detalle poligonal comparado con los modelos que usaran hasta lods.

Ahh y si nos ponemos a hablar de ppus.... la cpu se arrasca aun más los huevos. Si hoy día no hace practicamente nada en comparación con la gpu... pues menos con una ppu y una tarjeta de sonido como una x-fi con memoria dedicada (acelerador).

Ya no escribo más :D, que cada uno saque su conclusión.

Para los enteraillos, o los que le guste el tema, aquí podeis ver como va todo esto de la aceleración por hardware bajo directx, y más cosillas. Mirad el pipeline... http://en.wikipedia.org/wiki/Direct3D


Metes términos técnicos en medio de un montón de paja no fundamentada y, lo que es peor, falsa. Igual que tú me hiciste únicamente dos preguntas que respondí BIEN; si contesté que había dos posibles causas de que el Team Fortress 2 te fuera mal, es porque había dos causas posibles. Ahora no me vengas diciendo que una no es cierta, es que precisamente por eso puse DOS. Si no es la dos, es la uno.

Te voy a proponer una prueba MUY SENCILLA que hasta tú podrás hacer y con la cual te demostraré que estás equivocado. Luego ya es cosa tuya reconocer los resultados:

Arranca crysis, ponlo en Very High, luego baja las texturas para que no saturen la memoria de tu gráfica y lo pones a 640x480. Ahora pásate un nivel con el fraps calculando la media de framerate y guardando los mínimos. Según tú no debería bajar de 60 fps y según mi opinión, aun con un procesador de la ostia a 3.8 ghz tendrás bajadas importantes. ¿Será culpa todavía de tu gráfica? Pues con r_width y r_height aun puedes bajar más la resolución.

somasan
03/12/2008, 20:13
De verdad blaizer lee despacio las respuestas porque me da vergüenza ajena. Tu problemas es la grafica que tienes un equipo descompensao a saco.Tu mismo has dicho que quitas filtros o bajas resolucion y sube el rendimiento. Pues ya esta macho no se donde vas con esa combinacion tan rara, yo bajo la resolucion o quito filtros y no me sube el rendimiento, me lo puedes explicar?sera que mi "grafica" no da pa mas o sera el micro? y hablo de fps entre 30y 40 en muchos juegos no de 150.

Jordi M.C
03/12/2008, 20:21
Yo no quiero entrar en polemicas, pero yo tambien discuti con MaLDo de este tema, hasta que al final me demostro, que es cierto, que hoy dia, el limitante es la CPU, MaLDo me hizo la prueba con su Q6600 a 3Ghz y a 3.6Ghz, y en el crysis ganaba 7 fps (solo con 600Mhz de diferencia), con lo cual, es verdad que el limitante es la CPU.
Pero tambien quiero decir, que para un PC para juegos con una sola grafica, no merece la pena estos i7, a no ser, que quieras hacer un triSLI o un quad Crosffire, entonces, estos i7, pueden ser la solucion.

Por lo que veo, Intel o AMD, tendrian que sacar CPU´s no como el i7, sino de solo 4 nucleos pero subidos a 4.5 o 5Ghz, ¿como? pues con otra tecnologia, Intel esta utilizando una tecnologia que ya no da mas de si en cuanto a Mhz, y solo sabe hacer cosas como el QDI o el HT, pero sigue siendo una tecnologia que la veo desfasada, no digo que los i7 sean malos, simplemente digo, que tendrian que evolucionar en la tecnologia ¿de que nos sirve CPU´s de 4 nucles (8 con HT) y el software no esta optimizado para mas 2?, es mejor tener menos nucleos, pero a mas Mhz.

Un saludo.

bart0n
03/12/2008, 20:46
nu me gustan este tipo de discusiones...pero me voy a mojar.......

habrá juegos que tiren y mucho de procesador ( con grandes cargas de fisica , IA etc ), los cuales, aun con unos graficos "patateros" se atrancarán a todas horas ( por ejemplo los de estrategia con miles de unidades???? ) y los habrá que tiren mas de grafica ( los de graficos hiperrealista en los cuales cada hoja de hierba es renderizada una a una y se le ve al monigote hasta los pelos de la barba)

a dia de hoy (y bajo mi punto de vista ) sigue siendo mas importante la grafica que el micro...

que falte micro solo lo notas cuando la grafica va sobrada ... lo que suele ocurrir menos veces que el que "sobre" micro....

a bajas resoluciones la grafica va "mas desaogada" y por tanto, la diferencia de rendimiento entre micros es mayor que a altas resoluciones donde el limite lo pone la grafica...

el componente que antes "se ahoga" es la grafica en la gran mayoria de los casos....

pero lo mas importante es que no se puede catalogar una u otra opinion como "mas valida" tomando como referencia un unico juego....


¿de que nos sirve CPU´s de 4 nucles (8 con HT) y el software no esta optimizado para mas 2?, es mejor tener menos nucleos, pero a mas Mhz.

y no seria mejor que el soft se optimice para multi-hilo dado que añadir cores y mas cores es "sencillo" de realizar mientras que segir subiendo de MHz es una utopia porque en no demasiado tiempo se llega al limite de los materiales empleados ????

nadie se ha preguntado porque de serie es raro ver procesadores de mas de 4GHz ( ibm tiene uno a 5 GHz, el power6 ) ...

pues porque realizar transistores de silicio que conmuten a esa velocidad es dificilisimo ....

danko9696
03/12/2008, 21:28
y no seria mejor que el soft se optimice para multi-hilo dado que añadir cores y mas cores es "sencillo" de realizar mientras que segir subiendo de MHz es una utopia porque en no demasiado tiempo se llega al limite de los materiales empleados ????Porque en un juego hay tareas que no se pueden paralelizar, y dentro de las que si, es bastante complejo sincronizar los hilos, ya que no basta con que estos realicen una tarea así sin mas, sino que estos hilos deben comunicarse con el hilo principal y otros, pasarse información regularmente de la mejor forma posible.

Leí una vez que en juegos (precísamente por ser poco paralelizables) la gestión en un par de hilos es complicada pero ya poco a poco se va dominando, y eso con solo dos. Con cuatro hilos, la complejidad de gestión de los hilos aumenta de forma espectacular, y que ahora mismo no hay ninguna forma clara de hacerlo bien. Diversas compañías están en ello, pero no hay solución todavía.

Y ademas no es solo cosa de mas o menos hilos. Si tienes tres hilos y uno de ellos supone el 95% del trabajo real de la cpu, no te sirven de mucho los cores adicionales. FSX por ej, tiene dos hilos, pero prácticamente funciona como si tuviese solo uno, porque el segundo solo se encargaba de la precarga de escenarios en tiempo real, cosa que no está mal, pero que por si solo no hace prácticamente nada.


Saludos.

MaLDo
03/12/2008, 21:53
Sobre las tablas que puse, no se si te habrás fijado, pero una es para CPU y otra para GPU. Las diferencias las tienes que ver comparando ambas tablas.

Perdona pero es que me olvidé de esto. Qué, pero ¿qué me estás contando?

Esas dos tablas son el resultado de las dos pruebas de rendimiento que trae el crysis. Son del mismo juego y miden los mismo. La única diferencia es que se supone que uno de los test estresa más la GPU poniendo más efectos y el otro estresa más a la CPU porque hace un intensivo de la física. Es por eso que lo primero que choca es ver que dan resultados similares, porque el pc de las pruebas está descompensado. A ver si por un momento los foros se convirtieran en un lugar donde cada uno aporta LO QUE SABE y los demás pueden aprender de ello y todos salen ganando. Y dejara, por un momento, de ser el lugar donde la mayoría habla de oídas como si fuera un experto, cuando lo único que sabe es tirar de google o de la wikipedia.

lordraiden
03/12/2008, 23:01
http://resources.vr-zone.com/image_deposit/up2/12283173003668c9ffac.jpg

http://resources.vr-zone.com/image_deposit/up2/1228317435c013466fa9.jpg

http://www.donanimhaber.com/Nehalem_in_detayli_oyun_testleri__Core_i7_920%2094 0_vs__Core_2_ailesi-11919.htm

Aquro2
04/12/2008, 05:44
Ahora un poco de marketing y tener el bug ese TLB será una gozada

Blaizer
04/12/2008, 07:41
Somasan, a mi si que me da verguenza ajena que se digan tantas burradas, y que se diga que hacen falta tantísimos mhz cuando no es así, de crear la necesidad de tener un i7 cuando para jugar ni hacen falta. Es como si os la hubieran metido dobla y os hubieran comido el coco o quisierais hacer que la gente se gaste el dinero haciéndoles pensar que van a necesitar muchos mhz y cores, ni que hiciera falta el pc de la nasa... Os paga Intel o que? porque vamos... esto ya manda cojones, y encima para jugar! :D. Que se diga pc para trabajar, para video o render, pues vale, pero jugar?

Yo ya se que el problema que tengo es la gráfica, la compre provisional y sabia a lo que me atenia porque es una tarjeta que no da mucho de si en juegos. Tiene un potencial gráfico y más de si no va a dar por mucho mhz que tenga, eso queda claro no?. Me han dicho "cuello de botella" cuando es algo típico que se argumenta como problema sin ser el verdadero problema (Suena muy bien eso del cuello de botella..).


yo bajo la resolucion o quito filtros y no me sube el rendimiento, me lo puedes explicar?sera que mi "grafica" no da pa mas o sera el micro? y hablo de fps entre 30y 40 en muchos juegos no de 150.
Eso no te lo crees ni tú, ya me gustaría verte bajar de verdad la calidad del juego. Y por cierto, con una 4850... qué puedes esperar de crysis? si no hay tarjeta con ese juego que no trabaje con soltura en high quality.

Si quitas filtros anisotropicos, y usas los bilineales, y no se mete antialias, crysis va más desahogado, las tarjetas gráficas van más sueltas. Por algo los juegos son escalables en gráficos y ahora que me digan que no que me voy a hartar de reir a base de bien. Venga hombre... si me lo he pasado en very high dx9 a 1204x768, sin antialias y con filtro trilinear, y me iba super bien (ninguna bajada de fps visible) en una quadro fx 3500 (que ni es precisamente una tarjeta gamer y esta ultra desfasada) y con un core de 3ghz en XP sp2...

Cada juego son unos requisitos, y lo que más demandan es precisamente potencia gráfica. Que no pensáis lo mismo? vale, pues muy bien, no bajaros del burro.

Maldo, pero has visto la diferencia de fps al estresar a la cpu? pero es que no te das cuenta? pero si la cpu no influye casi nada.. mira los fps a partir del E7200, y como aun con tremendos overclocks de 1+ghz, no sirve de nada ¬¬

Que no hacen falta tantos mhz, como lo voy a decir... no se ni porque pierdo el tiempo cuando ahí están todas esas tablas y comparativas. No gano ni nada diciéndolo...

Si os crean la necesidad de comprar procesadores con los mismos mhz de siempre (incluso menos) con más cores que ni se usan, pues muy bien por vosotros. Ya lo decimos muchos, para jugar, con 2 cores vas sobrado y no tienes ni que dejarte un sueldo en un pc que se te va a quedar anticuado en meses por mucho que sea el máximo en mhz y el top de la gama.

Haced lo que queráis con vuestro dinero, y pensad lo que os de la gana ya, porque si para jugar pagais la novedad de un i7 y encima con TLB bug... para mi y muchos hacéis el primo tirando el dinero (y encima con esto de la crisis). Con gente así que solo ve lo que quiere ver, es mejor desistir y tirar la toalla. Es chocarse contra un muro.

Hacéis muy mal si apuntáis al "i7" como recomendación si alguien quiere pc para jugar. La diferencia de dinero entre componentes (nuevas memorias, y placa base) está mejor invertido en una gráfica potente.

un saludo

MaLDo
04/12/2008, 07:50
Somasan, a mi si que me da verguenza ajena que se digan tantas burradas, y que se diga que hacen falta tantísimos mhz cuando no es así, de crear la necesidad de tener un i7 cuando para jugar ni hacen falta. Es como si os la hubieran metido dobla y os hubieran comido el coco o quisierais hacer que la gente se gaste el dinero haciéndoles pensar que van a necesitar muchos mhz y cores, ni que hiciera falta el pc de la nasa... Os paga Intel o que? porque vamos... esto ya manda cojones, y encima para jugar! :D. Que se diga pc para trabajar, para video o render, pues vale, pero jugar?

Yo ya se que el problema que tengo es la gráfica, la compre provisional y sabia a lo que me atenia porque es una tarjeta que no da mucho de si en juegos. Tiene un potencial gráfico y más de si no va a dar por mucho mhz que tenga, eso queda claro no?. Me han dicho "cuello de botella" cuando es algo típico que se argumenta como problema sin ser el verdadero problema (Suena muy bien eso del cuello de botella..).


Eso no te lo crees ni tú, ya me gustaría verte bajar de verdad la calidad del juego. Y por cierto, con una 4850... qué puedes esperar de crysis? si no hay tarjeta con ese juego que no trabaje con soltura en high quality.

Si quitas filtros anisotropicos, y usas los bilineales, y no se mete antialias, crysis va más desahogado, las tarjetas gráficas van más sueltas. Por algo los juegos son escalables en gráficos y ahora que me digan que no que me voy a hartar de reir a base de bien. Venga hombre... si me lo he pasado en very high dx9 a 1204x768, sin antialias y con filtro trilinear, y me iba super bien (ninguna bajada de fps visible) en una quadro fx 3500 (que ni es precisamente una tarjeta gamer y esta ultra desfasada) y con un core de 3ghz en XP sp2...

Cada juego son unos requisitos, y lo que más demandan es precisamente potencia gráfica. Que no pensáis lo mismo? vale, pues muy bien, no bajaros del burro.

Maldo, pero has visto la diferencia de fps al estresar a la cpu? pero es que no te das cuenta? pero si la cpu no influye casi nada.. mira los fps a partir del E7200, y como aun con tremendos overclocks de 1+ghz, no sirve de nada ¬¬

Que no hacen falta tantos mhz, como lo voy a decir... no se ni porque pierdo el tiempo cuando ahí están todas esas tablas y comparativas. No gano ni nada diciéndolo...

Si os crean la necesidad de comprar procesadores con los mismos mhz de siempre (incluso menos) con más cores que ni se usan, pues muy bien por vosotros. Ya lo decimos muchos, para jugar, con 2 cores vas sobrado y no tienes ni que dejarte un sueldo en un pc que se te va a quedar anticuado en meses por mucho que sea el máximo en mhz y el top de la gama.

Haced lo que queráis con vuestro dinero, y pensad lo que os de la gana ya, porque si para jugar pagais la novedad de un i7 y encima con TLB bug... para mi y muchos hacéis el primo tirando el dinero (y encima con esto de la crisis). Con gente así que solo ve lo que quiere ver, es mejor desistir y tirar la toalla. Es chocarse contra un muro.

Hacéis muy mal si apuntáis al "i7" como recomendación si alguien quiere pc para jugar. La diferencia de dinero entre componentes (nuevas memorias, y placa base) está mejor invertido en una gráfica potente.

un saludo



Así que ¿todavía no has entendido nada de lo que te he dicho, verdad? y las tablas las interpretas como te da la gana también. Esta será la última vez que yo te responda a cualquier cosa que digas en adelante porque has demostrado 3 veces que no lees (o no entiendes) las cosas que la gente se molesta en escribirte. Al menos has quedado en completa evidencia, que no es poco.

Blaizer
04/12/2008, 09:24
Así que ¿todavía no has entendido nada de lo que te he dicho, verdad? y las tablas las interpretas como te da la gana también. Esta será la última vez que yo te responda a cualquier cosa que digas en adelante porque has demostrado 3 veces que no lees (o no entiendes) las cosas que la gente se molesta en escribirte. Al menos has quedado en completa evidencia, que no es poco.

Y mira quien lo dice... mejor deja las cosas como están y no las compliques más de lo que lo ya has hecho, diciendo burradas y barbaridades sin tener mucho conocimiento.

Yo no he interpretado las tablas como me ha dado la gana, en todo caso, has sido tú. Lo que faltaba ya por leer, vaya por dios... cuando interpretas las cosas y ni lees lo que se te dice (digo que tengo un 9550@3,8 y te lo tengo que repetir, luego yo no leo... ¬¬, anda, anda, y anda..). Yo me he limitado a dar una información verídica y comprobada hasta la médula.


Tu mismo tio, sigue en tus 13, no te voy convecer y ni voy a entrar más en tu juego. Los que son inteligentes no acabarán gastándose un pastón en una CPU para jugar cuando lo que manda hoy día es la gráfica.

Yo no se quien habrá quedado en evidencia... su tú que dices ser "programador" y que de "todo entiendes" o yo que digo que lo que manda es la gpu XDDDD.

Estamos apañados ehh, encima vas de listillo cuando ni tienes razón... es triste ver todo esto. La gracia de todo, al menos está en que preguntan:

¿Me estais diciendo que recomendariais a una persona que quiere el ordenador para jugar que se gastase mas en la CPU que en la grafica?

viva la cpu ¬¬

EDIT: como se nota que te gusta mucho discutir, no me habia leido el hilo y discutes con casi todos. Creo que hasta he hecho el gili respondiente para aclarar un tema que tengo más que comprobado XDDD. Mira que soy tonto, esto es lo que me pasa por pasarme por un foro :D

MaLDo
04/12/2008, 17:29
Prometí que no volvería a contestar y de hecho voy a mantenerlo porque no diré nada, sólo usaré citas de otro hilo de estos foros, el del GTA IV (como avisé ;))


"Me da los mismos FPS a 800x600 que a 1920x1200 (de hecho, en el test incluso da menos puntuación a 800x600, aunque haya sido casualidad, vamos)."

joder asi seria el primer juego de la historia de los videojuegos q consigue hacer eso!!
po ya como q paso del juego...Que juego mas raro oiga!!


Bueno ahora solo hay que cambiarse el procesador por un q6600 y ocearlo a 4ghz.

Lo que son las cosas, jamás pensé que tardariamos tan poco en aprovechar más de 3 ghz xD


lo que manda hoy día es la gráfica.


Yo tengo el procesador a 4ghz, y jugando (segun veo en la pantallita del g15) la cpu suele ir casi siempre al maximo, asi que parece que tira bastante de la CPU.


Poniendo afinidad a un solo núcleo los FPS se desploman, en la misma escena, de 19 a 11. Va a ser entonces que sí usa más de un núcleo, ahora que use 4... no lo tengo claro.


lo que manda hoy día es la gráfica.


Cada vez tengo mas claro que este juego tira de cpu a lo bruto y se la resbala la grafica que tengas.


hombre quiere decir que aunque tengas una 280GTX da igual y afecta mas al rendimiento un procesador Quad o i7 bien overclockeado que cualquier grafica existente,cuando eso nunca deberia ser asi y verdaderamente la grafica es la que deberia marcar la diferencia,pues una vez que se tenga un procesador que no haga cuello botella no deberia influir tanto la frecuencia


lo que manda hoy día es la gráfica.


Vamos, consecuencias lógicas del esfuerzo irracional de meterle a la gente en la cabeza que la gráfica es la que manda. Cuando la verdad es que depende. Ahora lo ven raro y no entienden nada. Es un juego raro... jejeje. Qué casualidad que es un juego sin casi shaders ni mapas de relieve pero con mucha maya, mucha física y mucha IA.

No tengo más que decir señoría.

Zoltelder
04/12/2008, 17:35
Maldo la norma es que los juegos tiren más de GPU que de CPU. Al igual que nombras eso del GTA4, esto mismo pasa con el WIC, que es un juego que tira más de lo normal de CPU, pero no es la norma.
No por ello digo que estés equivocado en lo que dices, si no solo quiero dejar ese apunte.

A parte está el tema de la optimización, no todo es hardware. Si el software no está bien optimizado, por mucho hardware que tengamos no dará más de si, y el GTA4 ya se ha visto la optimización se les ha olvidado.
Capturas que han puesto algunos donde pedía 1500MB de VRAM es de locos

MaLDo
04/12/2008, 17:41
Maldo la norma es que los juegos tiren más de GPU que de CPU. Al igual que nombras eso del GTA4, esto mismo pasa con el WIC, que es un juego que tira más de lo normal de CPU, pero no es la norma.
No por ello digo que estés equivocado en lo que dices, si no solo quiero dejar ese apunte.

A parte está el tema de la optimización, no todo es hardware. Si el software no está bien optimizado, por mucho hardware que tengamos no dará más de si, y el GTA4 ya se ha visto la optimización se les ha olvidado.
Capturas que han puesto algunos donde pedía 1500MB de VRAM es de locos

Claro, ¿sabes una cosa que me ha hecho MUCHA GRACIA? ver ahora gente quejándose del GTA IV con comentarios del tipo "Mi pc no tiene la culpa porque tira de puta madre con el crysis", JA, ¿el crysis que hace unos meses era el summun de la mala optimización?

Los pcs deben estar compensados porque DEPENDE del tipo de juego tirará más de una cosa que de otra. Ya lo he explicado tropecientas veces. Si te compras una gráfica de la ostia y una cpu normalita y puedes correr el Devil May Cry 4 a 100 fps no te creas que tu pc es un cañón, que ya vendrá el GTA IV a recordarte que tu cpu no está a la altura. O eso, o te fijas muy bien en cómo utiliza los recursos un juego antes de comprarlo.

Si quieres un pc todoterreno necesitas BUENA GRÁFICA y BUENA CPU. Nada de a partir de 3 ghz ya basta, eso es la misma chorrada que decir que a partir de 256 megas de video ya es una gráfica suficiente. Suficiente ¿para qué?. Si vas a jugar solo al PES 2009 pues si. Pero luego no vengan abriendo hilos de que tal juego no está bien optimizado cuando muestra 10 veces más polígonos y solo te va 3 veces peor.

Cachis, si yo ya me había despedido....

Uruk-hai
04/12/2008, 18:00
Veras tu, si al final no es que el gta 4 sea una chapuza, sino que no hay equipos suficientemente potentes para manejar semejante despliegue grafico. Hoy toca festival del humor no?

ShadoW®
04/12/2008, 18:23
que ya vendrá el GTA IV a recordarte que tu cpu no está a la altura.

Más bien nos recuerda la mala optimización de los cutreports.

Salu2.-

dracul
04/12/2008, 18:38
Veras tu, si al final no es que el gta 4 sea una chapuza, sino que no hay equipos suficientemente potentes para manejar semejante despliegue grafico. Hoy toca festival del humor no?

+1

Yo paso de estos hilos


Saludos

Zoltelder
04/12/2008, 18:43
Maldo, yo lo que no se es, ¿para ti entonces hay algún juego que esté mal optimizado o el problema es que las CPU no son suficiente potentes?


+1

Yo paso de estos hilos


Saludos

Y yo tambien, que me he callado mucho aqui por no entrar en disputas

MaLDo
04/12/2008, 18:44
Veras tu, si al final no es que el gta 4 sea una chapuza, sino que no hay equipos suficientemente potentes para manejar semejante despliegue grafico. Hoy toca festival del humor no?

El festival de humor es sentarse en un taburete y decir que el i7 no va a aportar nada a los juegos. Que solo sirve para hacer renders o codificar películas.

El festival de humor es gastarse 500 euros en una 280GTX y 60 en un dualcore porque sube a 3 ghz y con eso ya basta y luego ver que un juego con gráficos regulares pero con mucha carga de cpu como el GTAIV se te arrastra.

Festival del humor es decir que si un juego va bien a 720p pero mal a 1080p, el año que viene nos tendremos que cambiar de gráfica, pero si a 720p va de culo es porque está mal optimizado sin tener en cuenta que quizá a 1080p va EXACTAMENTE IGUAL.

Festival del humor es restarle importancia a la CPU dentro de un PC.

Yo no he hablado de optimización. Para mi el juego más optimizado que existe es el Crysis/Warhead, y sin embargo sobra la gente que echa pestes sobre su optimización.

ShadoW®
04/12/2008, 18:53
El festival de humor es gastarse 500 euros en una 280GTX y 60 en un dualcore porque sube a 3 ghz

Dios que me salen las lágrimas, porfavor cuentas mas chistes. :kiffer:

Salu2.-

MaLDo
04/12/2008, 18:58
Dios que me salen las lágrimas, porfavor cuentas mas chistes. :kiffer:

Salu2.-

Si lo dices porque he exagerado los precios y no has pillado el sentido de la frase, you fail.

Tolden
04/12/2008, 19:02
Prometí que no volvería a contestar y de hecho voy a mantenerlo porque no diré nada, sólo usaré citas de otro hilo de estos foros, el del GTA IV (como avisé ;))

[...]

Vamos, consecuencias lógicas del esfuerzo irracional de meterle a la gente en la cabeza que la gráfica es la que manda. Cuando la verdad es que depende. Ahora lo ven raro y no entienden nada. Es un juego raro... jejeje. Qué casualidad que es un juego sin casi shaders ni mapas de relieve pero con mucha maya, mucha física y mucha IA.

No tengo más que decir señoría.

Creo que eliges un pésimo ejemplo para hablar de cuello de botella, cuando un juego se ve así de mal:

http://img258.imageshack.us/img258/3218/800ajb6.jpg

y encima da tan pocos FPS, es que hay algo que falla. Y no estamos hablando de un gran despliegue de físicas o IA, sobre todo cuando en partidas multijugador (sin peatones) la tasa de cuadros sigue siendo igual de baja.

De hecho yo no lo llamaría cuello de botella, si no que simplemente este juego usa sobre todo la CPU. Es como hablar de que la CPU es un cuello de botella en un juego de Ajedrez, que no necesita mostrar nada más que un tablero.

A mi me da la sensación de que con el GTAIV simplemente han hecho una conversión desde las consolas apoyándose simplemente en la CPU y dejando de lado la gráfica (que es la parte floja de las consolas), y la verdad es que a mi personalmente no me vale de ejemplo válido para demostrar ningún cuello de botella, simplemente es un juego dependiente de la CPU.

Si hacemos un juego de ajedrez en CUDA, no tocaría el procesador para nada, y por esa regla de tres podríamos usarlo de ejemplo para decir que el procesador es irrelevante.

Lo que yo creo es que no hay "cuellos de botella", lo que hay son programadores que saben aprovechar mejor o peor los recursos. No es que sea la gráfica o la CPU la que manda... manda lo que el programador quiere que mande.

Geran
04/12/2008, 19:02
Yo no he hablado de optimización. Para mi el juego más optimizado que existe es el Crysis/Warhead, y sin embargo sobra la gente que echa pestes sobre su optimización.


Ummm, yo tenía entendido que el crysis brillaba por su no optimización (un juego que cuando salió no habia quien lo moviera bien en calidad alta o ultra alta (nunca me han ido los shooters y por lo tanto no lo tengo ni me he molestado en informarme a fondo)) y han tenido que pasar ¿2? años para que empezara a haber hardware (al menos de uso domestico) que pudiera con él.

ElKeBusk
04/12/2008, 19:22
El festival de humor es sentarse en un taburete y decir que el i7 no va a aportar nada a los juegos. Que solo sirve para hacer renders o codificar películas.
No en un taburete pero si en silla de ruedas :)
Y sí, a día de hoy no aporta nada, ABSOLUTAMENTE NADA, en tema juegos, como tampoco aportan nada los X3 ó X4, ni los actuales ni los que vengan. Puede que en un año o dos la cosa cambie, pero HOY son ganas de gastar dinero sin sentido, salvo el hecho de fardar de i7 o quad superferolítico (lo extriendo a los Phenom para que no me taches de AMDero).
Para el que juega con un dual core mediocre a 40 fps y lo disfruta igual de bien que si jugase con un i7 a 120, éste no le aporta nada, es más, le resta porque hay que dejarse un pastón para compensar un ordenador con un i7 ya que no creo que vayas a ponerle una 7300GT como la mía (me pregunto quién haría el cuello de botella :rofl:).

El i7 tiene muy buena pinta y apunta a ser un gran micro, pero de ahí a justificar dejarse un sueldo en él para JUGAR va un trecho :)
Por cierto, los test en juegos del i7, hasta la fecha, son mediocres cuando no decepcionantes, dándose casos de rendimiento inferior que algunos Quad.

Salu2 :)

MaLDo
04/12/2008, 19:44
No en un taburete pero sin en silla de ruedas :)
Y sí, a día de hoy no aporta nada, ABSOLUTAMENTE NADA, en tema juegos, como tampoco aportan nada los X3 ó X4, ni los actuales ni los que vengan. Puede que en un año o dos la cosa cambie, pero HOY son ganas de gastar dinero sin sentido, salvo el hecho de fardar de i7 o quad superferolítico (lo extriendo a los Phenom para que no me taches de AMDero).
Para el que juega con un dual core mediocre a 40 fps y lo disfruta igual de bien que si jugase con un i7 a 120, éste no le aporta nada, es más, le resta porque hay que dejarse un pastón para compensar un ordenador con un i7 ya que no creo que vayas a ponerle una 7300GT como la mía (me pregunto quién haría el cuello de botella :rofl:).

El i7 tiene muy buena pinta y apunta a ser un gran micro, pero de ahí a justificar dejarse un sueldo en él para JUGAR va un trecho :)
Por cierto, los test en juegos del i7, hasta la fecha, son mediocres cuando no decepcionantes, dándose casos de rendimiento inferior que algunos Quad.

Salu2 :)

Hombre, eso está claro, no todos tenemos el mismo sueldo. Yo nunca me dejaría mi sueldo en un ordenador ni loco. Pero vamos, eso de decir que lo mismo va un juego a 40 que a 120... claro, lo mismo que el que dice que se compra una tele de 32 pulgadas porque más pulgadas no aportan nada para lo que cuestan ... ¿quizá se deba a que su distancia sofá-televisor es de 2 metros?

Y ¿cúando he dicho yo que hay que comprarse un i7 para jugar? Quizá habré dicho que una cpu tiene tanta importancia como una gráfica dentro de un pc. O que un i7 sí afectará al rendimiento en los casos en los que el limitador sea la cpu (escenario más que posible en juegos). Disparates los justos.

ADDIER
04/12/2008, 19:48
Alucinante lo mal que se ve el GTA IV la verdad que no tenia ganas de comprarlo, pero un amigo me decia que si, estaba por pillarlo pero bahhh que KK

danko9696
04/12/2008, 20:03
Lo que yo creo es que no hay "cuellos de botella", lo que hay son programadores que saben aprovechar mejor o peor los recursos. No es que sea la gráfica o la CPU la que manda... manda lo que el programador quiere que mande.Si que hay cuellos de botella. Desde el momento en que el hardware de pc puede ser tan dispar, concentrándose la potencia (diferentes tipos de potencia, ademas) principalmente entre cpu y gráfica, y teniendo en cuenta que no es viable programar versiones específicas para todas las configuraciones posibles, los cuellos de botella son inevitables. Incluso en consola, siempre hay cuello de botella, aunque en este caso esté mas optimizado el software (tampoco mucho ahora en algunos casos debido a los juegos multiplataforma).


Si hacemos un juego de ajedrez en CUDA, no tocaría el procesador para nada, y por esa regla de tres podríamos usarlo de ejemplo para decir que el procesador es irrelevante.Claro que podríamos ponerlo para ejemplo de que el procesador es irrelevante (mas bien, de muy poca importancia) en ciertos casos. Otro ejemplo es que van a empezar a salir pcs de bajo consumo con cpu Atom (muy muy poca potencia), pero con gráficas dedicadas en lugar de integradas, gráficas de gama baja eso si, pero lo justo para acelerar la decodificación de video y poder ver contenido en alta definición.

En cuanto al GTA4 de acuerdo en que no es un buen juego para tomar como referencia.


Saludos.

DCO
04/12/2008, 21:02
Creia que estaba claro que lo mas importante es la grafica para jugar. Ademas no es por nada, es un componente de hardware bastante especifico con el proposito de realizar unas funciones bastante especificas, al contrario que una CPU que tiene un proposito mucho mas general.
Otra cosa ya son cuellos de botella, montar equipos desequilibrados e irse a los extremos.
La verdad sigo sin entender la discusion ni que tiene que ver con un bug en el TLB.

Tolden
04/12/2008, 21:03
Si que hay cuellos de botella. Desde el momento en que el hardware de pc puede ser tan dispar, concentrándose la potencia (diferentes tipos de potencia, ademas) principalmente entre cpu y gráfica, y teniendo en cuenta que no es viable programar versiones específicas para todas las configuraciones posibles, los cuellos de botella son inevitables.[...]

Pues sí, estoy de acuerdo contigo en eso. Más que nada me refería a que, a pesar de que el hardware puede ser muy dispar, hay que tener en cuenta aunque sea a grosso modo los componentes en los que va a correr nuestro software, y partiendo de la base de que tenemos un rango de CPUs y otro de gráficas, procurar que los programas estén compensados.

Digo esto suponiendo que habrá una gama baja, media y alta con componentes "compensados", y con compensados me refiero a precio no a potencia. Hoy en día lo más potente en un PC "gamer" es la gráfica, así que no es lógico programar un juego ignorando eso y tomando como base la CPU. Vamos que es más común encontrarse un C2D a 2GHz con una 8800 o GT200 que un i7 con una 8600 (hablando de máquinas dedicadas a los juegos).

Básicamente, que sabiendo a lo que se va a enfrentar, un programador debería poder predecir los cuellos de botella del hardware y minimizarlos. Que no digo que sea fácil, ojo...

Pakorro
04/12/2008, 21:19
Creia que estaba claro que lo mas importante es la grafica para jugar. Ademas no es por nada, es un componente de hardware bastante especifico con el proposito de realizar unas funciones bastante especificas, al contrario que una CPU que tiene un proposito mucho mas general.
Otra cosa ya son cuellos de botella, montar equipos desequilibrados e irse a los extremos.
La verdad sigo sin entender la discusion ni que tiene que ver con un bug en el TLB.


yo tampoco entiendo esto que tiene que ver con el fallo del TLB porque en principio este post era sobre eso

MaLDo
04/12/2008, 21:37
yo tampoco entiendo esto que tiene que ver con el fallo del TLB porque en principio este post era sobre eso

Si nos ponemos más papistas que el papa, entonces este hilo no tiene ningún sentido porque intel ya desmentido la existencia de dicho bug. ¿O quizá es que los hilos pueden ir más allá de sus títulos?

Pakorro
04/12/2008, 21:42
Si nos ponemos más papistas que el papa, entonces este hilo no tiene ningún sentido porque intel ya desmentido la existencia de dicho bug. ¿O quizá es que los hilos pueden ir más allá de sus títulos?

lo que tu digas chavalote, no voy a entrar al trapo contigo si es lo que buscas

Coloso
04/12/2008, 22:43
Si nos ponemos más papistas que el papa, entonces este hilo no tiene ningún sentido porque intel ya desmentido la existencia de dicho bug. ¿O quizá es que los hilos pueden ir más allá de sus títulos?

De la propia Intel ( en el enlace del primer post del hilo puedes comprobarlo tú mismo ) :

AAJ42. Incorrect TLB Translation May Occur After Exit From C6
Problem: Under certain conditions when C6 and two logical processors on the same core are enabled on a processor, an instruction fetch occurring after a logical processor exits from C6 may incorrectly use the translation lookaside buffer (TLB) address mapping belonging to the other logical processor in the processor core.
Implication: When this erratum occurs, unpredictable behavior may result.
Workaround: It is possible for the BIOS to contain a workaround for this erratum.
Status: For the steppings affected, see the Summary Tables of Changes.


La diferencia es que es un error documentado y, en el caso del Phenom, no lo estaba en ese momento. El famoso error de la TLB que tanto ha dado que hablar y en tan mal lugar dejó a las primeras versiones del Phenom. Error que, por otra parte, fue imposible de replicar hasta donde yo sé ( yo mismo he tenido un Phenom 9500 e intenté reproducirlo y no fui capaz ). Seguramente futuras revisiones de las BIOS y el trabajo del propio compilador de Intel se encarguen de subsanar este error, al igual que todos los que presenta este procesador. Hasta apostaría que es el mismo error de TLB presente en los C2D ( sí, los C2D también pueden presentar errores en la TLB y en mas sitios XD ) que Intel no ha sabido/querido corregir.

Veremos como evolucionan las cosas y qué errores son realmente preocupantes ( a mi me preocupa mucho más lo tiquismiquis que son con los voltajes de la memoria ) y cuáles no lo son. Los que se compren las primeras revisiones, como siempre, harán de conejillos de indias para los demás. Muchas gracias chicos, apreciamos vuestro esfuerzo :P

En cuanto a la discursión generada a posteriori sobre la aplicación de estos procesadores en juegos, pues poco voy a comentar. Mucho, muchísimo tienen que cambiar las cosas para que sean aprovechados tantos cores cuando es raro encontrar juegos que aprovechan más de uno ( sí, hay excepciones que usan uno y parte del otro pero aún ni son lo habitual )
Además, si no recuerdo mal, cuando salieron las primeras pruebas de rendimiento del Ci7 y las primeras decepciones porque no mejoraban los anteriores Q9 en Intel se apresuraron a decir que no se verían grandes diferencias con respecto a su anterior serie en el apartado lúdico pero si en otros campos ( siento no tener a mano el enlace de dónde lo leí ), cosa que resulto ser cierta en los análisis vistos después del lanzamiento en varias páginas.

Como comentario personal, para mi carece de sentido comprarse un quad para juegos a estas alturas. El Ci7 es una buena plataforma con un muy buen rendimiento pero solo tiene sentido para tareas que requieran un cálculo intensivo que les pueda sacar partido ( y del que se pueda sacar un beneficio económico hacer tal desembolso ). Para jugar cualquier dual core con una buena tarjeta gráfica va más que sobrado, todo lo que suba de eso es tirar el dinero si no se le va a dar otro uso.

Axon
04/12/2008, 23:12
justo de lo que hablais en cuanto a la importancia relativa de la cpu y la gpu en juegos, teneis una review aquí http://foro.noticias3d.com/vbulletin/showpost.php?p=2528406&postcount=10

somasan
05/12/2008, 03:00
yo bajo la resolucion o quito filtros y no me sube el rendimiento, me lo puedes explicar?sera que mi "grafica" no da pa mas o sera el micro? y hablo de fps entre 30y 40 en muchos juegos no de 150.



Eso no te lo crees ni tú

Lo que dije, en el Crysis no me pasa y en más juegos tampoco..me falta gráfica y cuando bajo la resolucion sube el rendimiento.. pero no siempre y nunca dije nada de crysis, en mi caso concreto la prueba me sale negatifa con The witcher splinter doble agente, trackmania , Gun y no se si más. Otros como Crysis o lineage 2 va como se espera...que bajes resolucion o quites AA y suban los fps.
He subido capturas del juego, hay sitios donde suben mucho los fps , pero he buscado unos sitios donde le cuesta mas y ahi lo he mirado, en movimientos bruscos o en accion la cosa baja mas.

1280x1024 a tope todo

http://img178.imageshack.us/img178/5141/1280fullya6.th.jpg (http://img178.imageshack.us/my.php?image=1280fullya6.jpg)

1024x768 a tope todo

http://img154.imageshack.us/img154/7086/1024fullet2.th.jpg (http://img154.imageshack.us/my.php?image=1024fullet2.jpg)

800x600 a tope todo

http://img214.imageshack.us/img214/5479/800fullxc4.th.png (http://img214.imageshack.us/my.php?image=800fullxc4.png)

1280x1024 a tope

http://img254.imageshack.us/img254/3138/fulleu1.th.jpg (http://img254.imageshack.us/my.php?image=fulleu1.jpg)

1280x1024 sin aa , textura bajo, luces bajo, sombras bajo.

http://img385.imageshack.us/img385/1882/bajodi3.th.jpg (http://img385.imageshack.us/my.php?image=bajodi3.jpg)

800x600 todo bajo sin aa

http://img301.imageshack.us/img301/7590/bajizp9.th.jpg (http://img301.imageshack.us/my.php?image=bajizp9.jpg)

Ahora me puedes decir que le pasa a mi grafica?, que con un 1ghz mas de micro subiria 10fps en esos puntos "criticos"? pues a Maldo en su caso sí, en el mio pues no lo se. Que el juego X sea una castaña sin optimizar pues noticia fresca pero es la realidad si en vez de esos 30 fps quiero 40 humanamente tiene que haber alguna forma aparte de dejar el juego hecho unos zorros a 800x600 todo pelao.Una grafica mas potente? pues no se yo eh... saludos.

Axon
05/12/2008, 07:14
Depende del motor gráfico del juego, crysis casi no se beneficia de CPU, es totalmente dependiente de GPU, con un procesador muy antiguo y pedazo de subsistema gráfico, se dispara el rendimiento, cosa que no ocurre con otros títulos. Todo eso viene bastante bien explicado en la mencionada review, la verdad es que en temas de software hay mucha 'fauna', cada uno hace un uso muy distinto del hardware.

MaLDo
05/12/2008, 07:19
De la propia Intel ( en el enlace del primer post del hilo puedes comprobarlo tú mismo ) :

AAJ42. Incorrect TLB Translation May Occur After Exit From C6
Problem: Under certain conditions when C6 and two logical processors on the same core are enabled on a processor, an instruction fetch occurring after a logical processor exits from C6 may incorrectly use the translation lookaside buffer (TLB) address mapping belonging to the other logical processor in the processor core.
Implication: When this erratum occurs, unpredictable behavior may result.
Workaround: It is possible for the BIOS to contain a workaround for this erratum.
Status: For the steppings affected, see the Summary Tables of Changes.


La diferencia es que es un error documentado y, en el caso del Phenom, no lo estaba en ese momento. El famoso error de la TLB que tanto ha dado que hablar y en tan mal lugar dejó a las primeras versiones del Phenom. Error que, por otra parte, fue imposible de replicar hasta donde yo sé ( yo mismo he tenido un Phenom 9500 e intenté reproducirlo y no fui capaz ). Seguramente futuras revisiones de las BIOS y el trabajo del propio compilador de Intel se encarguen de subsanar este error, al igual que todos los que presenta este procesador. Hasta apostaría que es el mismo error de TLB presente en los C2D ( sí, los C2D también pueden presentar errores en la TLB y en mas sitios XD ) que Intel no ha sabido/querido corregir.

Veremos como evolucionan las cosas y qué errores son realmente preocupantes ( a mi me preocupa mucho más lo tiquismiquis que son con los voltajes de la memoria ) y cuáles no lo son. Los que se compren las primeras revisiones, como siempre, harán de conejillos de indias para los demás. Muchas gracias chicos, apreciamos vuestro esfuerzo :P



¿Y no te parece raro que en esa documentación hablen de 'cuando hay dos cores en el mismo procesador' si el i7 tiene mínimo de 4? ;)

Entonces estos enlaces ¿qué significan?

http://www.atomicmpc.com.au/News/130007,intel-denies-core-i7-tlb-bug.aspx

http://insidehpc.com/2008/12/04/intel-denies-rumors-of-tlb-bug-on-core-i7/

http://www.theinquirer.net/gb/inquirer/news/2008/12/01/intel-denies-core-i7-tlb-bug

http://www.theregister.co.uk/2008/12/02/intel_denies_core_i7_tbl_issues/


En cuanto a la discursión generada a posteriori sobre la aplicación de estos procesadores en juegos, pues poco voy a comentar. Mucho, muchísimo tienen que cambiar las cosas para que sean aprovechados tantos cores cuando es raro encontrar juegos que aprovechan más de uno ( sí, hay excepciones que usan uno y parte del otro pero aún ni son lo habitual )
Además, si no recuerdo mal, cuando salieron las primeras pruebas de rendimiento del Ci7 y las primeras decepciones porque no mejoraban los anteriores Q9 en Intel se apresuraron a decir que no se verían grandes diferencias con respecto a su anterior serie en el apartado lúdico pero si en otros campos ( siento no tener a mano el enlace de dónde lo leí ), cosa que resulto ser cierta en los análisis vistos después del lanzamiento en varias páginas.

Como comentario personal, para mi carece de sentido comprarse un quad para juegos a estas alturas. El Ci7 es una buena plataforma con un muy buen rendimiento pero solo tiene sentido para tareas que requieran un cálculo intensivo que les pueda sacar partido ( y del que se pueda sacar un beneficio económico hacer tal desembolso ). Para jugar cualquier dual core con una buena tarjeta gráfica va más que sobrado, todo lo que suba de eso es tirar el dinero si no se le va a dar otro uso.

Vamos a ver, puede ser cierto que CASI NINGÚN juego mejore al pasar de 2 a 4 cores en la CPU. Bien. Pero lo importante del i7 es que gracias a su arquitectura es capaz de rendir más por cada mhz. Cada core del i7 es más potente que cada core de un QXXX y es por eso que aunque un juego NO SOPORTE ni 3 ni 4 cores, si la cpu está limitando, obtendremos una mejora con un i7.

Mucha gente tiene una gráfica normalita con una cpu potente. Básicamente porque en los últimos meses hubo una estabilización de la potencia de los procesadores. Eso ha hecho que mucha gente se crea la leyenda de que la gráfica es más importante. Ahora mismo, tras la salida de las 4850, 4870 y 260 sp216, las tarjetas potentes se han quedado en un rango asequible y las que se disparan de precio son solo 'un poco' más potentes que la serie mainstream. Y ¿qué va a pasar?, pues que la gente va a darse cuenta poco a poco que si tiene una tarjeta potente lo próximo que deberá cambiar ya no es la gráfica. El que tenga una 4870 o una 260 sp216 vería un incremento EN JUEGOS mucho mayor si cambia su procesador de 3ghz por un i7 oceado a 4ghz que si se compra la próxima gráfica de nvidia. Porque de hacerlo y seguir con su cpu no obtendría casi rendimiento. Que es lo que le pasa habitualmente ahora a la gente que tiene un SLI de 280GTX, que tiene que ir pensando en subir su cpu por encima de 4 ghz si quiere sacarle provecho sus gpus.

Los componentes del pc tienen que estar COMPENSADOS, esta es la clave. Y que ahora mismo salgamos de una estabilización de los procesadores no tiene que hacernos perder el norte.

MaLDo
05/12/2008, 07:21
Depende del motor gráfico del juego, crysis casi no se beneficia de CPU, es totalmente dependiente de GPU, con un procesador muy antiguo y pedazo de subsistema gráfico, se dispara el rendimiento, cosa que no ocurre con otros títulos. Todo eso viene bastante bien explicado en la mencionada review, la verdad es que en temas de software hay mucha 'fauna', cada uno hace un uso muy distinto del hardware.

Eso pasa únicamente mientras la GPU no está a la altura. Yo tengo un sli de 280 y en crysis solo tengo problemas de rendimiento por la cpu, un q6600 a 3.5 ghz. Todo oc por encima de eso que hago a la cpu me lo agradece el crysis (y otros juegos más). Pocos tienen ahora un sli de 280, pero la próxima tarjeta gráfica que salga será más o menos igual de potente y entonces los que se la compren ¿qué pensarán?

DCO
05/12/2008, 13:31
¿Y no te parece raro que en esa documentación hablen de 'cuando hay dos cores en el mismo procesador' si el i7 tiene mínimo de 4? ;).
No dice exactamente eso.

MaLDo
05/12/2008, 13:45
No dice exactamente eso.


Under certain conditions when C6 and two logical processors on the same core are enabled on a processor

Vamos, pues a mi me parece raro que el "supuesto error" solo esté relacionado cuando 2 cores están activos. ¿Cuando se activan 3 no ocurre?

Y lo que dice Intel ¿no tiene valor?

Viper_Scull
05/12/2008, 14:58
habla de cores logicos.....i7 tiene 4 cores fisicos + HT que puede poner HASTA 4 cores logicos más.....así pues no es correcto que hagas referencia a que i7 tiene 4 cores (todos lo sabemos) porque se refiere a cores lógicos.

MaLDo
05/12/2008, 15:08
habla de cores logicos.....i7 tiene 4 cores fisicos + HT que puede poner HASTA 4 cores logicos más.....así pues no es correcto que hagas referencia a que i7 tiene 4 cores (todos lo sabemos) porque se refiere a cores lógicos.

Toda la razón del mundo. He metido la pata hasta el fondo por no prestar atención. Pero estamos hablando de un gazapo "de documentación" que ya ha quedado aclarado. Digo yo que no se habrían atrevido a aclararlo tan rápido si les quedaran dudas de que el bug puede existir en la nueva tecnología.

pmonti80
05/12/2008, 15:33
Yo creo que podemos ir dejando el tema. Estamos haciendo una montaña de un grano de arena, no existe tal bug. Además los que habia han sido corregidos antes de salir a la venta el chip modiante actualización de la BIOS (si se pueden corregir bugs de una CPU por BIOS debido al "micro-code update", que se creo justamente para eso).

danko9696
05/12/2008, 16:31
Vamos, pues a mi me parece raro que el "supuesto error" solo esté relacionado cuando 2 cores están activos. ¿Cuando se activan 3 no ocurre?No puede haber tres porque se refiere a procesadores lógicos en un core. Si desactivamos HT (cosa recomendable si no lo vamos a aprovechar) ya no habría problema, al haber un solo procesador lógico por core.


Saludos.

MaLDo
05/12/2008, 16:32
No puede haber tres porque se refiere a procesadores lógicos en un core. Si desactivamos HT (cosa recomendable si no lo vamos a aprovechar) ya no habría problema, al haber un solo procesador lógico por core.


Saludos.

Si, quedó aclarado 2 mensajes más arriba... metí la zarpa.

ivanjmg
05/12/2008, 17:38
Resumen de todo este hilo:

El error de TLB es grabe según a quien afecte... en el caso de AMD era (pues los Phenom que se venden ahora no lo tienen) una cosa mala mala que evitaba que se vendan procesadores por que podrían dar problemas de estabilidad y tirar tu dinero a la basura, por BIOS se solventaba pero perdías mucho rendimiento. En el caso de Intel es un error menor sin apenas importancia que no va a reducir las ventas en ningún caso y que además está subsanado ya de una forma contundente desde la BIOS y sin ningún efecto adverso.

DCO
05/12/2008, 20:03
Bueno, no se sabe la perdida de rendimiento ni si es un error menor porque supuestamente ya ha salido solventado por bios segun Intel.
En AMD solo daba problemas en casos muy concretos de virtualizacion, que en un PC casero dificilmente se habra dado algun caso, por lo que eso de tirar el dinero a la basura... La perdida de rendimiento con el parche era importante en windows sobre todo, en linux otro cantar.
Y eso es todo, mola ver las reacciones que causa un bug parecido en uno u otro sistema.

ivanjmg
06/12/2008, 00:07
mola ver las reacciones que causa un bug parecido en uno u otro sistema.

Exacto DCO, de echo pretendía ser irónico, me hace una gracia que no veas la gente que se mata por una marca, a mí me da igual irme a Intel y luego ponerle los cuernos con AMD o viceversa :D saludos.

metalion
06/12/2008, 06:49
Si matas una persona eres un asesino.Si matas 8000000 de judios un genocid.Pero si matas 15000000 eres un conquistador.Que se dejen e gaitas y fanboys.
Venen el microprocesador mas aro el mercado con un fallo.Es lo que hay y punto.y no es que se vaya a colgar el messenger o se eje e ver la pagina porno de hamsters haciendoselo con renos.Eso d igual.Se vende un producto defectuoso y punto.Un core i7 920 vale 294 y es defectuoso.Y por no hablar el 940 (554 euros) o el 964 xe(unos mil leuitos de nada).
Yo poseo un Intel.y no soy un fanboy de NADA ni nadie.No tngo cciones e AMD ni nada por el estilo.Pero lo que ha hecho Intel me parece una POCA verguenza de cojones.
Su única suerte es que al ser procesdores jodidamente caros habran pocos cabreos.Pero por un mes habran tenido lo"mas potente " del mercado.Lo unico es que no quiero ni imaginar la cara de esa gente cuando intente vendr us procesadores de segunda mano cuando salga una revision sin dicho error.¿ o bien Intel le hara el cambio a pelo?.
En fin que al final el ususrio final es el que paga el pato.Y,lamentablemente en este foro y e la vida real yo soy usuario final...como casi todos vosotros.

MaLDo
06/12/2008, 08:38
Pero entonces ¿le dais más credibilidad a fudzilla que a intel?

Intel YA HA DICHO, y hace días, que NO EXISTE ese bug. Que todo lo que ha pasado es que uno de los documentos usaba links y anotaciones genéricos y fechados del 2007 y una de esas notas llevaba información del antiguo bug y no se había actualizado para el nehalem. Pero que la nota es vieja y no corresponde con el i7. QUE NO HAY BUG.

Y se puesto varias veces en este hilo, no entiendo como seguis echando leña al fuego. Otra cosa es que no os fieis de lo que dice intel, pero lo que han dicho está claro.

Jordi M.C
06/12/2008, 10:02
Pero entonces ¿le dais más credibilidad a fudzilla que a intel?

Intel YA HA DICHO, y hace días, que NO EXISTE ese bug. Que todo lo que ha pasado es que uno de los documentos usaba links y anotaciones genéricos y fechados del 2007 y una de esas notas llevaba información del antiguo bug y no se había actualizado para el nehalem. Pero que la nota es vieja y no corresponde con el i7. QUE NO HAY BUG.

Y se puesto varias veces en este hilo, no entiendo como seguis echando leña al fuego. Otra cosa es que no os fieis de lo que dice intel, pero lo que han dicho está claro.
Hombre, yo me creo mas el comunicado de Intel que de Fudilla, ahora bien, la pregunta es ¿quien tiene razon?¿intel dice que no hay el error del TLB para vender esos proces o es verdad que no existe el error TLB?, yo por si acaso, esperare que el conejillo sea otro.
Intel le interesa decir que no existe ese error para vender, pero ¿es cierto? yo no lo se, lo unico que se, que tecnicamente es mas fiable Intel que Fudilla.

Un saludo.

pmonti80
06/12/2008, 10:09
Vamos a aclarar algo, todos los procesadores salen al mercado con bugs, TODOS. Es casi imposible que no sea así, pero hay muchas formas de solucionar esos fallos y no tiene porque afectar al rendimiento. Hay un sistema que se invento específicamente para eso el "micro-code update" con este sistema se pueden solucionar esos bugs que todos los procesadores tienen (supongo que tendrá algunas limitaciones pero no sé cuales son).

No tengo ni idea de porque en el Phenom hubo tanto lio y no se pudo solucionar antes y sin perdida de rendimiento. Pero el caso es que con el Core i7 los fallos que haya habido se han corregido antes como suele ser el caso la mayoría de las veces con todos los procesadores de todas las marcas que suelen salir al mercado. Es imposible saber cuanto afecta al rendimiento porque todos los benchmarks ya han salido con los fallos solucionados. Según se puede leer en las respuesta de Intel a todas las webs el fallo principal que indica Fudzilla era del Core 2 Duo y se solucionó hace mucho tiempo y el Core i7 no está afectado.

Aquí ya no se trata de ser un "fanboy" de Intel o de AMD se trata de informarse un poco y usar la cabeza. Entiendo que cuando nadie sabía que la fuente original era Fudzilla todos los AMD fanboys se lanzasen a atacar a Intel y los Intel Fanboys a defender, ambos sin pruebas. Pero ahora ya ha habido explicaciones y aclaraciones suficientes para saber que ha pasado.

DCO
09/12/2008, 11:05
Pero entonces ¿le dais más credibilidad a fudzilla que a intel?
A ver, Fudzilla se basa en un documento de Intel de Noviembre 2008 en el que dice claramente que existe ese bug.
La cuestion es dar credibilidad a Intel o a Intel, a lo que dice en prensa o a lo que viene en sus documentos a fecha de noviembre del 2008. Meter a Fudzilla por medio es desviar la atencion.

pmonti80
09/12/2008, 11:19
De lo que duda la gente es de la interpretación que hace fudzilla de ese documento.
De todos modos si resulta que intel miente será peor para ellos al final, así que tengamos paciencia y veremos quien tenía razón al final.

Diego Rimar
09/12/2008, 11:24
yo creo firmemente en ese bug hasta que baje 100 euros el precio, luego, ya dejare de creer, si es necesario XD

Anlupa
09/12/2008, 12:56
Vamos a aclarar algo, todos los procesadores salen al mercado con bugs, TODOS. Es casi imposible que no sea así, pero hay muchas formas de solucionar esos fallos y no tiene porque afectar al rendimiento. Hay un sistema que se invento específicamente para eso el "micro-code update" con este sistema se pueden solucionar esos bugs que todos los procesadores tienen (supongo que tendrá algunas limitaciones pero no sé cuales son).

No tengo ni idea de porque en el Phenom hubo tanto lio y no se pudo solucionar antes y sin perdida de rendimiento. Pero el caso es que con el Core i7 los fallos que haya habido se han corregido antes como suele ser el caso la mayoría de las veces con todos los procesadores de todas las marcas que suelen salir al mercado. Es imposible saber cuanto afecta al rendimiento porque todos los benchmarks ya han salido con los fallos solucionados. Según se puede leer en las respuesta de Intel a todas las webs el fallo principal que indica Fudzilla era del Core 2 Duo y se solucionó hace mucho tiempo y el Core i7 no está afectado.

Aquí ya no se trata de ser un "fanboy" de Intel o de AMD se trata de informarse un poco y usar la cabeza. Entiendo que cuando nadie sabía que la fuente original era Fudzilla todos los AMD fanboys se lanzasen a atacar a Intel y los Intel Fanboys a defender, ambos sin pruebas. Pero ahora ya ha habido explicaciones y aclaraciones suficientes para saber que ha pasado.

El caso es que el famoso bug del phenom aún no lo he visto desde que los tengo.
El único bug que le veo es el parche que te instala microsoft en su SP1 sin preguntarte y que baja el rendimiento en ocasiones de manera brutal (latencia de memoria de 50ns pasa a 160ns en Everest entre otras)
Menos mal que existen maneras de solucionarlo.
Saludos!

g0su
09/12/2008, 13:18
SI esto hace bajar los precios de los intel pues de pm que queréis que os diga.

DCO
09/12/2008, 14:11
De lo que duda la gente es de la interpretación que hace fudzilla de ese documento.
De todos modos si resulta que intel miente será peor para ellos al final, así que tengamos paciencia y veremos quien tenía razón al final.
No hay que hacer ninguna interpretacion:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10707&Itemid=35
""In rare instances, improper TLB invalidation may result in unpredictable system behavior, such as system hangs or incorrect data. Developers of operating systems should take this documentation into account when designing TLB invalidation algorithms. For the processors affected, Intel has provided a recommended update to system and BIOS vendors to incorporate into their BIOS to resolve this issue."
Eso viene tal cual en el documento del que ponen ademas un link. Otra cosa es que sea importante, se haya equivocado intel en el documento, lo hayan arreglado, que se quiera creer una cosa u otra... pero meter al cartero por medio en la discusion del mensaje...

MaLDo
09/12/2008, 14:21
No hay que hacer ninguna interpretacion:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10707&Itemid=35
""In rare instances, improper TLB invalidation may result in unpredictable system behavior, such as system hangs or incorrect data. Developers of operating systems should take this documentation into account when designing TLB invalidation algorithms. For the processors affected, Intel has provided a recommended update to system and BIOS vendors to incorporate into their BIOS to resolve this issue."
Eso viene tal cual en el documento del que ponen ademas un link. Otra cosa es que sea importante, se haya equivocado intel en el documento, lo hayan arreglado, que se quiera creer una cosa u otra... pero meter al cartero por medio en la discusion del mensaje...

¿Pero te has leído la explicación de intel? es que parece que no...

DCO
09/12/2008, 14:40
Si, ¿y?
Solo digo que no es una cuestion de credibilidad sobre Fudzilla. Mas claro agua y en botella.

MaLDo
09/12/2008, 16:02
Si, ¿y?
Solo digo que no es una cuestion de credibilidad sobre Fudzilla. Mas claro agua y en botella.

Osea, que no lo has leído :)

DCO
09/12/2008, 19:36
Debes tener algun problema de comprension lectora.

pmonti80
09/12/2008, 20:03
No hay que hacer ninguna interpretacion:
"For the processors affected, Intel has provided a recommended update to system and BIOS vendors to incorporate into their BIOS to resolve this issue.".
Tienes razón, no hay que hacer ninguna interpretación.

DCO
10/12/2008, 11:06
Tienes razón, no hay que hacer ninguna interpretación.
Exactamente, pero vete a saber, como tambien ha informado Fudzilla igual no tiene validez para algunos. :D

ivanjmg
10/12/2008, 11:55
¿Pero entonces no hay perdida de rendimiento?

pmonti80
10/12/2008, 12:06
No hay ni una sola prueba de la perdida del rendimiento. En caso de haberla, nadie sabrá cual es tal porcentaje puesto que nadie ha podido hacer las pruebas sin esos parches.

MaLDo
10/12/2008, 12:15
¿Pero pérdida de rendimiento por qué?

Si no ha habido parche ni update de la bios.

De verdad que a veces alucino.. ¿comprensión lectora? ¿Pero tú has leído lo que ha dicho intel?

Que no hubo bug, que no ha habido parche ni corrección. Y por lo tanto no puede haber pérdida de rendimiento.

Que esa explicación del error y de su posterior solución es de un documento ANTIGUO que hacía referencia a un procesador ANTIGUO y que únicamente se despistaron en el momento de hacer las referencias en el documento nuevo. Pero que de lo que se hace eco fudzilla es de un texto ANTIGUO. El problema es que se podía acceder a ese documento desde el nuevo, pero ese era el error, la referencia a un documento ANTIGUO, nada de bug en el procesador.

Y si estoy equivocado corregidme, pero que a estas alturas se siga preguntando si afecta al rendimiento me sorprende.

pmonti80
10/12/2008, 12:25
Maldo, lo que tu has dicho es +/- lo que yo habia entendido sobre que el bug fuera el mismo que el del Phenom. Pero en caso de haber bugs (siempre los hay en TODOS los procesadores), Intel ha sacado correcciones antes de sacar el Core i7 a la venta.

Yo juraría haber visto dos comunicados (o dos partes de un mismo comunicado) diciendo eso. Que los bugs tipicos se han solventado antes de lanzar el producto; y que no hay ningun super bug tipo Phenom (dicho con otras palabras).

DCO
10/12/2008, 17:22
De verdad que a veces alucino.. ¿comprensión lectora? ¿Pero tú has leído lo que ha dicho intel?

Que no hubo bug, que no ha habido parche ni corrección. Y por lo tanto no puede haber pérdida de rendimiento.

Que esa explicación del error y de su posterior solución es de un documento ANTIGUO que hacía referencia a un procesador ANTIGUO y que únicamente se despistaron en el momento de hacer las referencias en el documento nuevo. Pero que de lo que se hace eco fudzilla es de un texto ANTIGUO. El problema es que se podía acceder a ese documento desde el nuevo, pero ese era el error, la referencia a un documento ANTIGUO, nada de bug en el procesador.

Y si estoy equivocado corregidme, pero que a estas alturas se siga preguntando si afecta al rendimiento me sorprende.
A ver, para aclararnos, la cuestion es que en un documento de Intel relativo a las especificaciones del Corei7 y con fecha de noviembre de 2008 aparece ese bug. Intel ha salido a desmentirlo exponiendo que es un bug de los core 2 resuelto en su momento y que se les ha debido de traspapelar en las especificaciones de la nueva arquitectura (o que lo meten ahi no se por que tal vez con el proposito de hacer la vida mas dificil a quienes lo usen).
Lo de la comprension lo digo porque no pareces comprender que todo esto no tiene nada que ver con Fudzilla porque es un simple mensajero, lo unico que ha hecho es informar de lo que viene en un determinado documento de Intel que esta al alcance del que lo quiera leer, por eso digo que no es una cuestion de creer a Fudzilla o a Intel, Fudzilla no pinta nada. Es mas, al de dos dias tambien publica la respuesta de Intel.
Aclarado esto luego que cada uno se crea lo que quiera sobre el bug.

ivanjmg
10/12/2008, 17:39
Y si estoy equivocado corregidme, pero que a estas alturas se siga preguntando si afecta al rendimiento me sorprende.

Veo que te sorprende y te molesta a partes iguales... vamos a hablar claro, yo leo sobre los i7 por este foro pero no me empapo hasta la cabeza por saberlo todo sobre ellos ya que no tengo pensado comprar uno por el elevado precio así que no me interesa...

La gracia del hilo es que un bug que causo estragos en las ventas del primer Phenom ahora en Intel pase como si nada... sería muy muy gracioso en caso de ser un bug que hace perder rendimiento y que entre Intel y los fanboys oculten la información, vamos para mear y no echar gota... yo preguntaba por eso mismo, por que no lo sabía hasta ahora... que no pierden rendimiento, pues mejor para todos, de verdad, así no habrá compradores mal informados y estafados, me da absolutamente igual el bug en si, lo que me cabrea es esa competencia absurda entre usuarios de AMD y de Intel, pero nada, olvidado, no existe el bug y punto ;)

¡¡¡Todo Aclarado pues!!!

Hasta luego

MaLDo
10/12/2008, 20:33
Veo que te sorprende y te molesta a partes iguales... vamos a hablar claro, yo leo sobre los i7 por este foro pero no me empapo hasta la cabeza por saberlo todo sobre ellos ya que no tengo pensado comprar uno por el elevado precio así que no me interesa...

La gracia del hilo es que un bug que causo estragos en las ventas del primer Phenom ahora en Intel pase como si nada... sería muy muy gracioso en caso de ser un bug que hace perder rendimiento y que entre Intel y los fanboys oculten la información, vamos para mear y no echar gota... yo preguntaba por eso mismo, por que no lo sabía hasta ahora... que no pierden rendimiento, pues mejor para todos, de verdad, así no habrá compradores mal informados y estafados, me da absolutamente igual el bug en si, lo que me cabrea es esa competencia absurda entre usuarios de AMD y de Intel, pero nada, olvidado, no existe el bug y punto ;)

¡¡¡Todo Aclarado pues!!!

Hasta luego


Sigue sin estar aclarado si todavía piensas que existió el bug. Intel dice que el bug NO EXISTIÓ NUNCA en el i7 y que no hay parche ni nada porque no hay bug.

LuT_FeN
10/12/2008, 21:35
Sigue sin estar aclarado si todavía piensas que existió el bug. Intel dice que el bug NO EXISTIÓ NUNCA en el i7 y que no hay parche ni nada porque no hay bug.

Claro que no macho.

En AMD existe(en su dia claro) y NO era un bug(si y no) - simplemente por ej. el core 1 no "sabe" que el core 2 ya tiene una copia de un archivo y core 1 hace otra copia.Es un "bug" para una cosa determinada.En este caso despue que la CPU hace un control en L1, L2 y L3 se entera de que tenemos 2 copias para determinada pagina.La CPU hace "machine check event" para "comentar" de error en L2 y ..... el PC + SO ya sabes - una pantalla azul oalgo asi ;) - comprate un AMD y 0 problemas.

Para i7 es totalmente distinto y para ti y practicamente para 99,9% de los usuarios de AMD/Intel esos "BUGS" no tiene importancia.Por si te fijas bien El tonto periodista de Fudzzila haecho un copy/paste y con todala segurida no sabe de na.


"We were told that Intel's Nehalem, the CPU that we know as Core i7 has TLB"

lolololo .Nada nuevo.Todoslos micros de Intel(y no solo de intel) desde Intel 80386 tiene "Translation Lookaside bufers"(lo que se yo)

1 ERROR:Errata - Defectos en CPU,Placa Base o mucho OverClock o algo parecido - con todo eso tenemos un error en TLB Buffers.En este caso la CPU "detecta y avisa" a la SO con Machine-Check Exception para un error en hardware.En XP sale pantalla azul - todo normal y la pantalla azul no tiene que ver nada con AAJ1.
El Problema - Toda la informacion en esta pantalla azul o todo guardado en crash dump puede ser incorrecto.Mejor dicho de un error en hardware el micro puede avisar para 5 errores - esta mal.

2 ERROR:Programadores que estan trabajando en programar Sistemas Operativos o Drivers(en general Software) por ej. no "LIMPIAN" Correcto los TLB Buffers en casos es Posible que el Sistema operativo por ej. se congela - datos erroneos.El problema no esta en los Micros.El problema esta en los programadores de Software.Intel esta en modificar las Guias(porlomenos eso dice ;) ) para que los trabajadores recuerdan que existen los TLB Buffers y la "conexion" entre los TLB Buffers y la estructura interna de los Micros.


Porsi te interesa mucho hay Documentos oficiales de Intel y AMD(los de AMD son muy pocos).Tu tambien puedes probarlo en casa ;) y telo digo que sin problema te compras un micro AMD o Intel y no notas nada de nada de los TLB y etc.

ivanjmg
10/12/2008, 23:01
Sigue sin estar aclarado si todavía piensas que existió el bug. Intel dice que el bug NO EXISTIÓ NUNCA en el i7 y que no hay parche ni nada porque no hay bug.

¡¡¡ Pero si dije que no existe !!! ¿que más quieres?, no he dicho que existe un parche y el bug gracias a ello haya desaparecido, he dicho que no existe... punto y final.