PDA

Ver la versión completa : el eterno dilema, Nvidia o AMD en gama alta?



al20
02/04/2014, 23:26
La verdad que me da un poco de verguenza abrir un tema como este, porque sé que está todo más que hablado en el foro, yo mismo llevo leyendo dias y dias en los hilos de las distintas tarjetas...pero al final no saco nada en claro por lo que pasa siempre, el que tiene Nvidia suele tirar por Nvidia y viceversa con AMD y cuanto más que leo, las dudas son mayores.

Estoy a punto (ahora si) de montar el pc nuevo, ya tengo todas las piezas menos la fuente que me llega mañana y la gráfica que la compraré el mes que viene, basicamente pq no me decido y de tener decidido desde hace un par de meses poner una gtx 760 he pasado a querer poner una r9 280x y ahora dudo entre gtx 780 o r9 290x (pa matarme, entre la 760 y la 290x "apenas" hay diferencia xDDD) mientras voy a tirar con la integrada.

Por si influye voy a montar un 4770K con Asus z87-a, 16gb de ram, ssd samsung evo 250gb, fuente enermax platimax +platinum, el monitor lo mantengo es un dell de 24" con resolucion máxima 1080p (estoy mirando un LG 27EA53VQ de 27" pero creo que sigue siendo 1080p máximo, y dudo mucho poner algo mayor que eso, por precio y espacio)

Como decia, ultimamente ya estaba mas o menos decidido por la 280x (donde la voy a comprar la diferencia de precio con la gtx 770 es elevada) a pesar de no gustarme mucho AMD por lo que se lee de temperaturas, drivers etc, pero leyendo por aqui empecé a mirar la gama superior y con el "y por un poco más" tan tipico valoré hacer un esfuerzo (no soy de cambiar de gráfica, ahora tengo una nvidia 8800 gts que ya tiene sus años y con la nueva será parecido en tiempo a mantenerla) por la gtx 780 y al mismo tiempo veia gente recomendando la r9 290x que viendo test en juegos en muchos casos superaba a la Titan...asi que el lio que tengo es tremendo no, lo siguiente.

Veo que en precio/rendimiento no tienen rival las AMD, por contra su elevado consumo y por lo que vi en las reviews las r9 290x llegaban a 90 y pico grados lo que me echa mucho para atras...

Las opciones son la r9 280x de MSI Twin frozr gaming o subir de escalon y entonces estaria entre la r9 290x de Sapphire con el BF4 y practicamente al mismo precio la Asus gtx 780 DC2OC (tambien puedo elegir la gtx 780 de Gigabyte por algo menos pero es la de referencia, creo)

Que hago???

PD: Disculpas por el tocho, pero asi ya queda todo explicado :D

jose_184
02/04/2014, 23:41
Cualquiera de las que barajas son buenas opciones, la 280x y la 770 rinden muy parecido así que no creo que te compense pagar mucho más por la nvidia como comentas. Yo elegiría la 780 de Asus pero la 290x es una gran opción y rinde algo más que la nvidia.

leftyman
02/04/2014, 23:43
¿Y es obligatorio que compres en ese sitio?. Mira qué precio:

http://xtremmedia.com/Msi_AMD_Radeon_R9_290_4Gb_Gddr5.html


Yo no subía ni a 290X ni a 780....esta ya rinde como una 780 (e incluso algo más), costando bastante menos.

oskargasteiz
03/04/2014, 14:29
Sinceramente, yo compre ati, por que suelen ofrecer mas prestaciones por el mismo dinero.
Si no me importase el dinero lo mas absoluto, creo que tendria una nvidia. He leido que suelen actualizar los drivers mas a menudo, suelen tener temperaturas algo mas bajas tambien.

Saludos.

Yoann
03/04/2014, 14:48
Sinceramente, yo compre ati, por que suelen ofrecer mas prestaciones por el mismo dinero.
Si no me importase el dinero lo mas absoluto, creo que tendria una nvidia. He leido que suelen actualizar los drivers mas a menudo, suelen tener temperaturas algo mas bajas tambien.

Saludos.

Mejores temps,mas frescas,menos ruidosas,sin betas raras,y una 280x vale hoy día igual o mas que la 770,no hay color

al20
03/04/2014, 14:52
la r9 290 solo puede ser la sapphire tri-x, me sale por aprox 390€
la r9 290x tengo para elegir la sapphire con bf4 por unos 460€ y la sapphire tri x por unos 487
De la gtx 780 puedo elegir la gigabyte OC por unos 475 euros, y la Asus DC2OC por unos 483 euros

lo de no dar el salto a la 780 o la 290x es por el monitor actual o futuro que como maximo es de 1080p? De cara al futuro lo puedo notar incluso a esa resolucion que me aguanten más las hermanas mayores que la 290?

leftyman
03/04/2014, 14:52
Mejores temps,mas frescas,menos ruidosas,sin betas raras,y una 280x vale hoy día igual o mas que la 770,no hay color

Una MSI 280X gaming vale 269€ en coolmod, es fresca, silenciosa, tiene 1gb mas de vram que la 770 y es algo mas potente. Sí que "hay color"...por cierto no hay obligación de instalar los drivers beta.

Enviado desde mi GT-I9100 mediante Tapatalk

Yoann
03/04/2014, 15:45
La PNY 770 esta a 274 con envio premium,yo juego a csgo,wow,asc4,btf4,crisis2,o el gpuz esta mal o mi grafica es la panacea porque nunca e visto que consuma 2gb de vram

leftyman
03/04/2014, 15:52
La PNY 770 esta a 274 con envio premium,yo juego a csgo,wow,asc4,btf4,crisis2,o el gpuz esta mal o mi grafica es la panacea porque nunca e visto que consuma 2gb de vram


Nunca lo has visto porque nunca ha pasado, ¿puedes garantizar que de aquí a un año no haya un "Crysis 4 "que consuma 2.12Gb de VRAM si no te pones a bajar settings a 1080p), me interesa tu opinión al respecto.


Edito: Si dentro de un año el forero se decide a comprar una gemela para su gráfica porque por fin se ha comprado el monitor 1440p, ¿es más interesante un crossfire de 280X con 3Gb de VRAM o un SLI de 770 con 2Gb de VRAM?, también me interesa esto.


Edito2: Y por si no lo sabías a 1080p están bastante igualadas, pero a 1440p una GTX770 ya se va quedando bastante por detrás de una 280X por su menor ancho de banda de memoria.

Yoann
03/04/2014, 16:03
Nadie puede garantizar nada,me extraña mucho que a 1080p se quede una grafica sin vram,lo veo casi imposible,lo de meter 3gb de vram es hacer un poco la cama para lo que se presenta en el futuro,monitores con mas resolucion,y que la gente vaya diciendo ufff en skyrim metiendole mods esto ya me peta...imaginate cuando me compre mi monitor de XXX resolucion,una locura!! venga vram ahi....merece la pena tener para 1080p hoy dia 3gb? claramente no,para el año que viene? me juego un trolleo a que tampoco,cuando se asiente las nuevas resoluciones a precios economicos entonces esto ya sera otra cosa

leftyman
03/04/2014, 16:10
Nadie puede garantizar nada,me extraña mucho que a 1080p se quede una grafica sin vram,lo veo casi imposible,lo de meter 3gb de vram es hacer un poco la cama para lo que se presenta en el futuro,monitores con mas resolucion,y que la gente vaya diciendo ufff en skyrim metiendole mods esto ya me peta...imaginate cuando me compre mi monitor de XXX resolucion,una locura!! venga vram ahi....merece la pena tener para 1080p hoy dia 3gb? claramente no,para el año que viene? me juego un trolleo a que tampoco,cuando se asiente las nuevas resoluciones a precios economicos entonces esto ya sera otra cosa

Perfecto...."te la juegas" a que no van a hacer falta a 1080p. Prefiero comprarme la MSI 280X Gaming, que cuesta menos, da los mismos FPS (o más casi siempre) y "no me la juego"....como ves sí que hay opciones válidas, eso de "no hay color"...pues qué quieres que te diga.

McToth
03/04/2014, 16:17
Perdón pero no podía aguantar al ver el título...

El tiempo no pasa para estas dos marcas, el que quiera leer sobre el tema que lo haga por su cuenta. No veo el porque de un tema nuevo, mas cuando no hay novedades recientes

Estoyencrysis
03/04/2014, 16:18
Una MSI 280X gaming vale 269€ en coolmod, es fresca, silenciosa, tiene 1gb mas de vram que la 770 y es algo mas potente. Sí que "hay color"...por cierto no hay obligación de instalar los drivers beta.

Enviado desde mi GT-I9100 mediante Tapatalk

Si no instalas los drivers beta, o no puedes como yo que uso Vista, olvidate del Mantle... aunque la peña que lo ha probado no habla muy bien de él precisamente, parece que es más humo que otra cosa.

Mi consejo, siempre Nvidia.

Además el compañero está pensando en una 780 con lo que el tema de la vram queda zanjado.

megadrive
03/04/2014, 16:25
Buenas tardes, yo no soy nadie para decirte si es mejor nvidia o amd , creo que ya hay muchos post y peleas sobre ello , yo te puedo hablar de mi experiencia personal

he tenido una amd y mucha nvidia 8800gts , gtx 295 , gtx 670evga ftw, y ahora me he dado el capricho , ( por que hoy en dia gastarse mas de 400e en una grafica es un lujo) de comprarme una gtx 780 oc gigabyte.

Que es lo que he sacado en conclusion? , pues que la amd no me dio ningun problema ni las nvidia tampoco excepto una, la gtx 295 que rendia como un cohete pero que murio prematuramente por calor , y es que su temp de trabajo era entre 80-90grados y en cuanto el disipador se ensuciaba la tenias a 95

por lo tanto quiero graficas frescas en VERANO , asi que si quieres coger una 290x que sea con refrigeracion mejorada
y mas si juegas online y te tiras horas sin parar jugando

es fresca la 780 , si , sin duda, trabaja entre 55 y 65 grados en la mayoria de los juegos , y eso es un lujo , por que a la vez tambien es silenciosa

si partimos de la base que la 780 oceandola tiene un rendimiento parecido, y en juegos la diferencia es despreciable
la 290 es buena compra?, si , por que rinde parecido y es algo mas barata ,

en 400e , 40 euros + o - es importante, para mi no,

ventajas de la nvidia , mejores drivers , physx y en el caso de la 780 una solidez de imagen que no tiene la 670 ni la 295

si fuese una 290 de turbina , yo no me la compraria ni loco ( opinion personal ) , pero las soluciones personalizadas si que son interesantes , la verdad es que es una decision dificil ,

un saludo

leftyman
03/04/2014, 16:26
Si no instalas los drivers beta, o no puedes como yo que uso Vista, olvidate del Mantle... aunque la peña que lo ha probado no habla muy bien de él precisamente, parece que es más humo que otra cosa.

Mi consejo, siempre Nvidia.

Además el compañero está pensando en una 780 con lo que el tema de la vram queda zanjado.

El compañero sigue sin decidirse que yo sepa, y en el comercio donde quiere comprar tiene:

La r9 290 Tri-X por 390€

La GTX780 por 475€

La GTX780 (que no es más potente) cuesta un 25% más (85€ dan para comprar un SSD del copón).

Y lo que yo digo es, me compraba la 290 de calle que rinde lo mismo o más por casi 100€ menos... eso sí vigila que quepa en tu caja, que mide más de 30cm.

Edito: ANtes de que me lo preguntes, el salto de precio de la 290 a la 290X por un 5% de rendimiento extra no vale la pena en mi opinión.

Estoyencrysis
03/04/2014, 16:30
Ya, ya se que lo está pensando, por lo que no lo ha decidido.

Yo a día de hoy ya sabes porque me gastaría casi 100€ más de calle... en una Nvidia.

Sl2

Golka
03/04/2014, 16:32
Hola, el tema de la Vram está más que hablado en el foro, no digáis que no hay juegos que no consumen 2 gigas, si que los hay, no muchos pero los hay, entre ellos Skyrim con mod, puede llegar a consumir 2,5 gigas.

Respecto a AMDvsNvidia, la decisión es del comprador, tendrá que evaluar los contras y pros de una u otra marca (vease mayor consumo/temperaturas en AMD, mayor precio, menor cantidad de Vram en Nvidia), al final, seguramente compre lo que compre quedará contento.-

Un saludo

DJSolid
03/04/2014, 16:33
El compañero sigue sin decidirse que yo sepa, y en el comercio donde quiere comprar tiene:

La r9 290 Tri-X por 390€

La GTX780 por 475€

La GTX780 (que no es más potente) cuesta un 25% más (85€ dan para comprar un SSD del copón).

Y lo que yo digo es, me compraba la 290 de calle que rinde lo mismo o más por casi 100€ menos... eso sí vigila que quepa en tu caja, que mide más de 30cm.

Edito: ANtes de que me lo preguntes, el salto de precio de la 290 a la 290X por un 5% de rendimiento extra no vale la pena en mi opinión.


Pues yo pagaria los 85€ de diferencia y me iria a por la 780.

Edito: Yo he tenido las 2, asi que se de lo que hablo...Es mi opinion personal, y antes de que salten proNvidia o proAMD (Llevo ya dos generaciones probando ambas...)

leftyman
03/04/2014, 16:37
Pues yo pagaria los 80€ de diferencia y me iria a por la 780.

Edito: Yo he tenido las 2, asi que se de lo que hablo...Es mi opinion personal, y antes de que salten proNvidia o proAMD (Llevo ya dos generaciones probando ambas...)

No hay porqué "saltar", hay opciones...afortunadamente. Tú pagarías 80€ más por la 780...yo me compraría la R9 R290 tri-X y un SSD Samsung evo de 120Gb y los dos acabaríamos contentísimos. Eso: Hay opciones.

evil
03/04/2014, 16:48
Para 1080p no compraría gama alta ;)

javict
03/04/2014, 16:57
Aprovechando lo de la gama alta estoy en un dilema entre estas dos
http://hardzone.es/2014/03/26/nvidia-anuncia-la-geforce-gtx-titan-z-grande-en-todos-los-sentidos/
http://hardzone.es/2014/04/03/amd-radeon-r9-295x2-especificaciones-finales-reveladas/

Para el usuario del hilo, me quedo con la gtx 780 (solo porque el verde hace juego con mi aseo) pero no la de 475€, si no esta :http://xtremmedia.com/Gigabyte_GeForce_GTX_780_OC_Windforce_3GB_GDDR5.ht ml

PD.- Lee mucho e indaga mas luego saca conclusiones por ti mismo...las dos son muy buenas graficas una con sus cosillas y la otra con sus cosas.

Saludos

bsod
04/04/2014, 08:54
Por estas fechas van a empezar a comercializarse monitores con tecnología G-Sync. Si vas a cambiar tu Dell es una baza para decantarse a favor de Nvidia. Lee algo sobre el tema, Anandtech, HardwareCanucks.

Saludos

Cosita_ES
04/04/2014, 11:50
Merece la pena pagar un poco mas e ir sobre seguro,por algo siempre se dice que cuando pagas de mas por alguna marca en algo se tiene que notar,

leftyman
04/04/2014, 12:08
Por estas fechas van a empezar a comercializarse monitores con tecnología G-Sync. Si vas a cambiar tu Dell es una baza para decantarse a favor de Nvidia. Lee algo sobre el tema, Anandtech, HardwareCanucks.

Saludos

No se me ocurre idea menos seductora que cerrarse a una determinada gama de gráficas de una determinada marca con una serie de monitores caros (más de 100€ más caros sólo por incorporar Gsync).

Napst
04/04/2014, 12:25
Yo me estoy planteando seriamente cambiar mi Apple led cinema display 27 por un monitor con g-sync pero tendría que ver si merece la pena realmente o sea humo de nuevo,

Qetz
04/04/2014, 12:36
Yo llevaba un par de años siguiendo series, precios, y avances de ambas marcas tanto en tarjetas graficas como en procesadores. Me decantaba claramente por AMD en ambos y a principios de año pille un 8320 que me ha dado bastante quebraderos de cabeza con sus temps y del que esperaba mas rendimiento despues de todos los bench y comparativas que habia visto. Aun no escarmentado hace unas semanas pille una 7970 que estaba de oferta en pcc y otra vez quebraderos de cabeza, se le fue la señal de video y cambie de placa base, y ahora con la nueva se le ha vuelto a ir, ademas tiene/ tenia otros fallos importantes. Total, que me estoy dando cabezazos contra la pared por no haberme decantado por la fiabilidad de la otra marca, la 7970 la voy a devolver para pillar una GTX770, y el 8320 en cuanto se me presente la oportunidad tambien ira fuera.

bsod
04/04/2014, 12:39
No se me ocurre idea menos seductora que cerrarse a una determinada gama de gráficas de una determinada marca con una serie de monitores caros (más de 100€ más caros sólo por incorporar Gsync).

Has redactado la frase como si un monitor G-Sync no funcionara pinchado a una gráfica AMD, cosa que me hace dudar. Si es así, te doy la razón; si no lo es, mi consejo sigue siendo válido para un equipo de gama alta que es de lo que se habla. El precio deja de ser el primer factor determinante.

leftyman
04/04/2014, 12:43
Yo me estoy planteando seriamente cambiar mi Apple led cinema display 27 por un monitor con g-sync pero tendría que ver si merece la pena realmente o sea humo de nuevo,


La gran "ventaja" del G-sync es que todos los fotogramas que la gráfica tiene lista se los pasa al monitor con sincronía vertical (sin pasarse de los máximos Hz del monitor claro).

Pongamos un ejemplo, tienes un equipo modesto que está dando 43FPS con un juego determinado sin VSYNC, cuando activas VSYNC como la gráfica tiene que perder algunos milisegundos esperando al barrido vertical, bajas hasta(por ejemplo) los 38FPS.

EN un monitor con G-sync, tienes sincronía vertical y mantienes los 43FPS originales.


En mi PC...yo juego prácticamente a todo a 1080p 60Hz con VSYNC, la diferencia que yo tengo usando un monitor GSYNC es 0. (si mis gráficas también fueran compatibles GSYNC).


Nvidia ha querido vendernos la teoría de que, cuando activas el VSYNC clásico tienes stutter (de alguna forma tienen que intentar venderme el GSYNC, ya que yo tengo 60FPS, toditos con su sincronía vertical)....con frametimes de 16ms no tienes stutter de ningún tipo porque el ojo humano no da para tanto, que Nvidia deje de intentar vendernos la moto.



Has redactado la frase como si un monitor G-Sync no funcionara pinchado a una gráfica AMD, cosa que me hace dudar. Si es así, te doy la razón; si no lo es, mi consejo sigue siendo válido para un equipo de gama alta que es de lo que se habla. El precio deja de ser el primer factor determinante.


funciona, pero sin Gsync, por lo que has tirado 100€ a la basura.

Napst
04/04/2014, 13:09
Veo mas atractivo la tecnologia G-syn que nos intentan vender que la tecnología 3D que ha sido para mi un truño bastante considerable :)

leftyman
04/04/2014, 13:20
Veo mas atractivo la tecnologia G-syn que nos intentan vender que la tecnología 3D que ha sido para mi un truño bastante considerable :)

Qué quieres que te diga, tener 80FPS en un monitor de 120Hz con VSYNC activado....si tienes GSYNC, vas a tener "5FPS más", que son los que ganarás por ahorrarte los pocos ms de espera en los barridos verticales...fin de las diferencias. Como dice el refrán: "para ese viaje no necesito alforjas".

Yoann
04/04/2014, 15:40
Un monitor de 120HZ aunque tu grafica de 70fps le da 20mil vueltas a un monitor 60HZ

megadrive
04/04/2014, 17:00
Veo mas atractivo la tecnologia G-syn que nos intentan vender que la tecnología 3D que ha sido para mi un truño bastante considerable :)



truño?
yo la tengo y me parece una maravilla ver un juego en 3d , para mi mejora la experiencia y la inmersion una barbaridad, un juego mediocre graficamente en 2d puede ser una delicia visual en 3d

juegos como metro last night o el mismo thief en 3d tendrias que verlos te dejarian maravillado a nivel visual

leftyman
04/04/2014, 17:11
Un monitor de 120HZ aunque tu grafica de 70fps le da 20mil vueltas a un monitor 60HZ

Nadie dice lo contrario, al menos yo no...estoy deseando pillar alguno que me guste a un precio decente.


Digo que igual que en el 3d si hay una diferencia notable, el Gsync es un timo en toda regla:

En un monitor de 120Hz en el que vayas con un juego a 70 FPS con vsync activado, tendrías 75FPS si tuvieras Gsync y los frametimes serían casi lo mismos....las matemáticas no mienten y son las que son. El sía que todos los monitores vengan con Gsync, pues mira ahí está y lo aprovechas si puedes (me da que no lo verán mis ojos), no me parece una tecnología en la que valga la pena invertir ni un céntimo.

Oliver91
04/04/2014, 17:20
Nadie dice lo contrario, al menos yo no...estoy deseando pillar alguno que me guste a un precio decente.


Digo que igual que en el 3d si hay una diferencia notable, el Gsync es un timo en toda regla:

En un monitor de 120Hz en el que vayas con un juego a 70 FPS con vsync activado, tendrías 75FPS si tuvieras Gsync y los frametimes serían casi lo mismos....las matemáticas no mienten y son las que son. El sía que todos los monitores vengan con Gsync, pues mira ahí está y lo aprovechas si puedes (me da que no lo verán mis ojos), no me parece una tecnología en la que valga la pena invertir ni un céntimo.

Yo no entiendo muy bien de donde sacas eso de que con G-Sync tienes 5 fps más. Hasta donde yo se, el G-SYNC sincroniza la frecuencia de actualización del monitor con el framerate de la GPU para evitar tener tearing, input lag y demás, es practicamente lo mejor que se puede hacer para dar la mejor experiencia de juego a cualquier tasa de frames. Por lo demás, yo personalmente prefiero un buen monitor IPS que uno de 120Hz tenga o no tenga G-Sync, pero bueno, eso al gusto del consumidor.

leftyman
04/04/2014, 17:25
Yo no entiendo muy bien de donde sacas eso de que con G-Sync tienes 5 fps más. Hasta donde yo se, el G-SYNC sincroniza la frecuencia de actualización del monitor con el framerate de la GPU para evitar tener tearing, input lag y demás, es practicamente lo mejor que se puede hacer para dar la mejor experiencia de juego a cualquier tasa de frames. Por lo demás, yo personalmente prefiero un buen monitor IPS que uno de 120Hz tenga o no tenga G-Sync, pero bueno, eso al gusto del consumidor.

Ya puse en el post anterior que son "5FPS por poner un ejemplo" Oliver, al evitar tener que esperar al siguiente barrido para sacar el siguiente frame ganarás unos pocos FPS con respecto al VSYNC tradicional. Estoy seguro de que atí no tengo que explicarte que al activar Vsync se pierden unos pocos FPS por esto y con GSYNC no se pierden. Tearing no tienes con Vsync tradicional, y el input lag pues cuéntame cuanto es en milisegundos con un monitor de 120Hz ¿en torno a los 8 en el peor de los casos?...me encanta cuando las empresas vienen a solucionar los problemas que no existen.


Edito: No es un tema sólo de Nvidia, lo hacen todas eso de "crear la necesidad" para venderte la hipotética solución.

icare4u
04/04/2014, 17:28
yo tengo un 120hz lcd, y ni de broma seria capaz de volver a 60hz, la fluidez con la que el monitor ofrece las imágenes es impresionante ya sea en juegos o en el mismo entorno windows al navegar

leftyman
04/04/2014, 17:30
yo tengo un 120hz lcd, y ni de broma seria capaz de volver a 60hz, la fluidez con la que el monitor ofrece las imágenes es impresionante ya sea en juegos o en el mismo entorno windows al navegar

Yo estaba pensando en comprarme un 120Hz lcd, pero si un chicharrero dice que mola...ya tengo que pensármelo mucho porque hay gato encerrado. :rofl:

Yoann
04/04/2014, 19:12
Yo no entiendo muy bien de donde sacas eso de que con G-Sync tienes 5 fps más. Hasta donde yo se, el G-SYNC sincroniza la frecuencia de actualización del monitor con el framerate de la GPU para evitar tener tearing, input lag y demás, es practicamente lo mejor que se puede hacer para dar la mejor experiencia de juego a cualquier tasa de frames. Por lo demás, yo personalmente prefiero un buen monitor IPS que uno de 120Hz tenga o no tenga G-Sync, pero bueno, eso al gusto del consumidor.

Una pregunta por curiosidad,as probado un 120hz? te lo digo porque yo tengo un monitor lcd 120hz y otro asus ips 60hz y que quieres que te diga...que el asus los colores se ven mas vivos?si,pero la jugabilidad que es lo que todo gamer quiere es infinitamente superior,abismal,otro mundo,juegas al cs go por ejemplo y dices que mierda es esto?

leftyman
04/04/2014, 19:20
Una pregunta por curiosidad,as probado un 120hz? te lo digo porque yo tengo un monitor lcd 120hz y otro asus ips 60hz y que quieres que te diga...que el asus los colores se ven mas vivos?si,pero la jugabilidad que es lo que todo gamer quiere es infinitamente superior,abismal,otro mundo,juegas al cs go por ejemplo y dices que mierda es esto?

Yo a partir de Junio que me recupere de unos gastos en casa, desde que vea en tienda física un Asus de esos 24" 120Hz por 300€ más o menos, me lo compro sí o sí...a mí me convencen absolutamente.

Oliver91
04/04/2014, 20:52
Ya puse en el post anterior que son "5FPS por poner un ejemplo" Oliver, al evitar tener que esperar al siguiente barrido para sacar el siguiente frame ganarás unos pocos FPS con respecto al VSYNC tradicional. Estoy seguro de que atí no tengo que explicarte que al activar Vsync se pierden unos pocos FPS por esto y con GSYNC no se pierden. Tearing no tienes con Vsync tradicional, y el input lag pues cuéntame cuanto es en milisegundos con un monitor de 120Hz ¿en torno a los 8 en el peor de los casos?...me encanta cuando las empresas vienen a solucionar los problemas que no existen.


Edito: No es un tema sólo de Nvidia, lo hacen todas eso de "crear la necesidad" para venderte la hipotética solución.

Al activar el V-Sync no se pierden fps directamente, solamente se limitan. Si solamente activas el V-Sync vas a estar limitado a 60 fps siempre que tu GPU los de, y en el momento en que bajen por debajo de 60 fps o algo menos pues pasas a 30 fps que es el siguiente múltiplo, en ese sentido si que se pierden fps (pero muchos, por querer que exista sincronía, si tu GPU da 56 fps vas a ir a 30 por temas de sincronía). Esto lo solucionas activando el triple buffer a costa de introducir input lag respecto a no tener el V-Sync activado (que yo no lo noto, pero hay gente que si, entiendo que también depende el juego en concreto). Con el G-Sync no pasa nada de eso, simplemente te ahorras el tearing de cuando usas V-Sync + TB y bajas de 60 fps, te ahorras el input lag, no bajas a 30 fps para ir sincronizado por que puedes sincronizar monitor y GPU a 56 fps por ejemplo y todas estas historias. No creo que sea una solución infalible ni nada, pero desde el punto de vista de la experiencia de juego en teoría es la mejor solución que hay.

leftyman
04/04/2014, 22:02
Al activar el V-Sync no se pierden fps directamente, solamente se limitan. Si solamente activas el V-Sync vas a estar limitado a 60 fps siempre que tu GPU los de, y en el momento en que bajen por debajo de 60 fps o algo menos pues pasas a 30 fps que es el siguiente múltiplo, en ese sentido si que se pierden fps (pero muchos, por querer que exista sincronía, si tu GPU da 56 fps vas a ir a 30 por temas de sincronía). Esto lo solucionas activando el triple buffer a costa de introducir input lag respecto a no tener el V-Sync activado (que yo no lo noto, pero hay gente que si, entiendo que también depende el juego en concreto). Con el G-Sync no pasa nada de eso, simplemente te ahorras el tearing de cuando usas V-Sync + TB y bajas de 60 fps, te ahorras el input lag, no bajas a 30 fps para ir sincronizado por que puedes sincronizar monitor y GPU a 56 fps por ejemplo y todas estas historias. No creo que sea una solución infalible ni nada, pero desde el punto de vista de la experiencia de juego en teoría es la mejor solución que hay.


Puff, oliver estás confundidísimo con como funciona el Vsync:

En el caso de un monitor de 60 HZ:

Cada vez que la gráfica tiene listo un fotograma debe esperar un barrido vertical del monitor para sincronizarlo con el, este tiempo de espera es variable entre 0 y 1/60 segundos (16,6ms). De aquí viene cifra mágica que buscan todas las reviews de latencias, que miden si una gráfica es capaz de tener un fotograma listo cada 16ms (en una resolución y juego determinados). Tener un fotograma listo cada 16ms implica tener un nuevo fotograma en cada barrido de sincronía de la pantalla.

Cuando bajas de 60FPS, te tienes que "saltar" algunos de esos barridos verticales sin refrescar con una imagen nueva porque no la tienes lista, pero no tienes porqué bajar a 30FPS. Puedes saltarte sólo 1 y tener 59FPs o saltarte 33 barridos y tener 27FPS. La cifra de FPS que puedes tener es cualquiera, con un máximo de 60. Yo con mi SLI de GTX570 tenía 50FPS con vsync activados en Crysis 3 todo al máximo (casi constantes).

El truco de desactivar el VSYNC para evitar que la gráfica espere por una señal de barrido vertical del monitor y así ganar unos pocos FPS es otro truco más viejo que el hambre por cierto.

Oliver91
04/04/2014, 22:23
Puff, oliver estás confundidísimo con como funciona el Vsync:

En el caso de un monitor de 60 HZ:

Cada vez que la gráfica tiene listo un fotograma debe esperar un barrido vertical del monitor para sincronizarlo con el, este tiempo de espera es variable entre 0 y 1/60 segundos (16,6ms). De aquí viene cifra mágica que buscan todas las reviews de latencias, que miden si una gráfica es capaz de tener un fotograma listo cada 16ms (en una resolución y juego determinados). Tener un fotograma listo cada 16ms implica tener un nuevo fotograma en cada barrido de sincronía de la pantalla.

Cuando bajas de 60FPS, te tienes que "saltar" algunos de esos barridos verticales sin refrescar con una imagen nueva porque no la tienes lista, pero no tienes porqué bajar a 30FPS. Puedes saltarte sólo 1 y tener 59FPs o saltarte 33 barridos y tener 27FPS. La cifra de FPS que puedes tener es cualquiera, con un máximo de 60. Yo con mi SLI de GTX570 tenía 50FPS con vsync activados en Crysis 3 todo al máximo (casi constantes).

El truco de desactivar el VSYNC para evitar que la gráfica espere por una señal de barrido vertical del monitor y así ganar unos pocos FPS es otro truco más viejo que el hambre por cierto.

No exactamente, digamos que tienes 3 o 4 posibilidades: Usar doble buffer sin V-Sync, usar doble buffer con V-Sync, usar triple buffer con V-Sync y usar render ahead que es lo que tiene DirectX (por que directX no soporta triple buffer, necesitas forzarlo aparte aunque no tengo claro si el render ahead funciona solo con el V-Sync activado, si funciona siempre, si depende del juego en concreto...). Si no activas el V-Sync es cuando vas al tope de frames, no haces caso a la frecuencia de sincronización del monitor y la GPU pinta los frames a máxima velocidad. Tendrás tearing y demás pero vas a tope de frames.

El aplicar el V-Sync sin triple buffer es lo que te he dicho arriba, lo puedes ver en estas diapositivas de nVidia:

http://international.download.nvidia.com/webassets/en_US/shared/images/articles/introducing-the-geforce-gtx-680-gpu/AdaptiveVSync-1.png

http://i.imgur.com/IoyOu.gif

Que de todas formas es así, si yo mismo lo he visto en muchos juegos, igual no baja cuando baja justo de 60 fps, puede ser por debajo de 59 fps pero vamos, que si, que funciona así. Lo que dices no es verdad, o vas a 59-60fps o vas a 28-30 fps (salvo que tu GPU no de para tanto claro), no hay más (al menos cuando no tienes activado el triple buffer externamente, por que el render ahead de DirectX entiendo que hace algo similar al triple buffer pero no es exactamente igual).

Lo que dices del Crysis 3 puede ser por que tuvieras triple buffer activado o quizás render ahead y no el clásico V-Sync con doble buffer que es el que provoca esta situación.

Contact
05/04/2014, 03:48
yo tengo monitor de 60hz y le he hecho overclock con el CRU a 75hz y mano de santo para el tearing, no te lo elimina completamente pero no es ni de lejos tan apreciable como a 60hz, todo esto sin vsync claro, vsync ni con un palo prefiero comerme tearing que tener input lag, por cierto los que hablais de que 3gb de vram es mucho para 1080 ami Arma 3 en ultra se me chupa 2.5gb de VRAM y el juego se ve bastante bien pero no es que sea una super revolucion grafica nextgen tampoco...... y los que decis que nvidia son mas frescas y menos ruidosas me entra risa floja al leeros, a ver si os enterais que eso depende del ensamblador que la monte, si te compras una de referencia con un solo fan pues claro que se te va a tostar y a sonar como un reactor

leftyman
05/04/2014, 13:39
No exactamente, digamos que tienes 3 o 4 posibilidades: Usar doble buffer sin V-Sync, usar doble buffer con V-Sync, usar triple buffer con V-Sync y usar render ahead que es lo que tiene DirectX (por que directX no soporta triple buffer, necesitas forzarlo aparte aunque no tengo claro si el render ahead funciona solo con el V-Sync activado, si funciona siempre, si depende del juego en concreto...). Si no activas el V-Sync es cuando vas al tope de frames, no haces caso a la frecuencia de sincronización del monitor y la GPU pinta los frames a máxima velocidad. Tendrás tearing y demás pero vas a tope de frames.

El aplicar el V-Sync sin triple buffer es lo que te he dicho arriba, lo puedes ver en estas diapositivas de nVidia:


http://international.download.nvidia.com/webassets/en_US/shared/images/articles/introducing-the-geforce-gtx-680-gpu/AdaptiveVSync-1.png

http://i.imgur.com/IoyOu.gif




Que de todas formas es así, si yo mismo lo he visto en muchos juegos, igual no baja cuando baja justo de 60 fps, puede ser por debajo de 59 fps pero vamos, que si, que funciona así. Lo que dices no es verdad, o vas a 59-60fps o vas a 28-30 fps (salvo que tu GPU no de para tanto claro), no hay más (al menos cuando no tienes activado el triple buffer externamente, por que el render ahead de DirectX entiendo que hace algo similar al triple buffer pero no es exactamente igual).

Lo que dices del Crysis 3 puede ser por que tuvieras triple buffer activado o quizás render ahead y no el clásico V-Sync con doble buffer que es el que provoca esta situación.


Nvidia qué va a decir, quieren venderte un producto a base de trolas. Me cuentan que ese tiempo de espera por el sincronicmo vertical causa stutter....me descojono de ese supuesto stutter.


Te lo digo y te lo repito, en un juego con Vsync, con monitor de 60Hz en el que tu gráfica es capaz de tener la mitad de los frames listos en menos de algo menos de 16,6 ms y la mitad de los frames en algo másd de 16,6 ms tienes 45FPS estables todo el rato, no necesitas ningún tipo buffer ni frames por adelantado. Si quieres aprovechar esta información para aprender un poco de algo que tengo muy estudiado me parece bien, si no...pues allá tú. Yo tenía unos 50FPS en el Crysis 3 sin triple buffer, ni frame ahead (flip queue en AMD). DEspués con Radeon pro activando triple buffer y flip queue size 1 (1 framepor adelantado) pasé a uno 55 FPS.

Edito: A ver si con un ejemplo más extremo lo ves. En un juego hipotético, (con vsync a 60Hz), tu GPU tiene listos los primeros 30 frames en 14ms, el número 31 en 20ms, y los siguientes 28 en 14ms. Adivina, advinanza....¿cuantos FPS has tenido sin ningún tipo de frame buffer?. Yo se la respuesta correcta, a ver si también la sabes tú.


yo tengo monitor de 60hz y le he hecho overclock con el CRU a 75hz y mano de santo para el tearing, no te lo elimina completamente pero no es ni de lejos tan apreciable como a 60hz, todo esto sin vsync claro, vsync ni con un palo prefiero comerme tearing que tener input lag, por cierto los que hablais de que 3gb de vram es mucho para 1080 ami Arma 3 en ultra se me chupa 2.5gb de VRAM y el juego se ve bastante bien pero no es que sea una super revolucion grafica nextgen tampoco...... y los que decis que nvidia son mas frescas y menos ruidosas me entra risa floja al leeros, a ver si os enterais que eso depende del ensamblador que la monte, si te compras una de referencia con un solo fan pues claro que se te va a tostar y a sonar como un reactor


Cada persona es un mundo, yo en cambio no toco un juego sin vsync ni con un palo (a mi el tearing me parece 100.000 veces más espantoso que el input lag). De hecho no quiero ni el Vsync dinámico....

Edito: en el mundo real hay retardos, cuando aprietas el gatillo de un revólver, el percutor debe moverse y golpear la base de la bala para causar una explosión y expulsar el proyectil....milisegundos de retardo. Es mucho más real, jugar como juego yo con milisegundos de retardo que como juegas tú, con postes de la luz "que se parten por la mitad" cuando caminas lateralmente.

Contact
05/04/2014, 15:51
estas desbariando y diciendo absurdeces, si te gusta jugar con lag juega, hay jugadores poco exigentes como tu pero no digas tonterias de que en la vida real me tiro un pedo y tarda en salir porque es absurdo, me gustaria verte jugar al csgo con vsync, ibas a saber lo que es el inputlag, pero claro para jugar al league of legends todo vale xD segun tu firma tienes un cross de 7970 y despues juegas con vsync y en un monitor de 60hz, velocidad y tocino en su maxima expresion

Oliver91
05/04/2014, 16:00
Nvidia qué va a decir, quieren venderte un producto a base de trolas. Me cuentan que ese tiempo de espera por el sincronicmo vertical causa stutter....me descojono de ese supuesto stutter.


Te lo digo y te lo repito, en un juego con Vsync, con monitor de 60Hz en el que tu gráfica es capaz de tener la mitad de los frames listos en menos de algo menos de 16,6 ms y la mitad de los frames en algo másd de 16,6 ms tienes 45FPS estables todo el rato, no necesitas ningún tipo buffer ni frames por adelantado. Si quieres aprovechar esta información para aprender un poco de algo que tengo muy estudiado me parece bien, si no...pues allá tú. Yo tenía unos 50FPS en el Crysis 3 sin triple buffer, ni frame ahead (flip queue en AMD). DEspués con Radeon pro activando triple buffer y flip queue size 1 (1 framepor adelantado) pasé a uno 55 FPS.

Edito: A ver si con un ejemplo más extremo lo ves. En un juego hipotético, (con vsync a 60Hz), tu GPU tiene listos los primeros 30 frames en 14ms, el número 31 en 20ms, y los siguientes 28 en 14ms. Adivina, advinanza....¿cuantos FPS has tenido sin ningún tipo de frame buffer?. Yo se la respuesta correcta, a ver si también la sabes tú.
.

Y dale la burra al monte :rofl3:, que no, que no se trata de que la GPU tenga listos los frames, que la GPU no envía los frames directamente al monitor sino los buffers que hay a su salida, buffer doble o buffer triple. Y el doble buffer lo tienes siempre, por que DirectX lo usa siempre, no lo puedes desactivar, siempre siempre tienes como mínimo doble buffer. Lo que dice nVidia es totalmente cierto, ¿Acaso no se produce sttutering cuando vas a 60 fps y de golpe baja a 30 fps? Si es que más claro no se puede ver:

http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/Crysis3_1920x1080_PLOT_1.png
http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/Crysis3_1920x1080_PLOT_2.png
http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/BF3_2560x1440_PLOT_0.png
http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/Crysis3_1920x1080_PLOT_3.png

Por supuesto que puede haber frames que tarden unos más que otros en llegar a los buffers por que la carga es totalmente cambiante a lo largo de un juego, pero te sigo diciendo que si activas el V-Sync con doble buffer o vas a 60 fps o vas a 30 fps o vas a 15 fps (no se si a 20fps también), es que es así. Y bueno, insisto en que esas cifras son "aproximaciones" por que en realidad no son 60 fps son 59 coma algo, pero es que es así leftyman, que no me lo estoy inventando yo: http://www.anandtech.com/show/2794/2


While enabling vsync does fix tearing, it also sets the internal framerate of the game to, at most, the refresh rate of the monitor (typically 60Hz for most LCD panels). This can hurt performance even if the game doesn't run at 60 frames per second as there will still be artificial delays added to effect synchronization. Performance can be cut nearly in half cases where every frame takes just a little longer than 16.67 ms (1/60th of a second). In such a case, frame rate would drop to 30 FPS despite the fact that the game should run at just under 60 FPS.

leftyman
05/04/2014, 16:02
Para tí la perra gorda... (y ya conocía ese estudio que NO te da la razón).

http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/Crysis3_1920x1080_FRAPSFPS_0.png


Ahí tienes Un SLI con Vsync moviendose en FPS que no son ni 60 ni 30 ni 20... pero igual es que tienen activado triplebuffer para falsear su propio estudio y además no lo dicen para engañarnos a todos ...Sí, debe ser eso.

Y por cierto: sí, se produce un stuttering inferior a 16,6ms en monitores de 60Hz e inferior a 8,3ms en monitor de 120Hz (stuttering del que me descojono "por delante y por detrás").

paso... a partir de ahora "lo que tú digas".

Contact
05/04/2014, 16:07
Para tí la perra gorda... (y ya conocía ese estudio que NO te da la razón).

http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/Crysis3_1920x1080_FRAPSFPS_0.png


Ahí tienes Un SLI con Vsync moviendose en FPS que no son ni 60 ni 30 ni 20... pero igual es que tienen activado triplebuffer para falsear su propio estudio y además no o dicen para engañarnos a todos ...Sí, debe ser eso.

si eres feliz moviendo el raton y que el muñeco tarde casi un segundo en reacionar bien por ti

leftyman
05/04/2014, 16:11
si eres feliz moviendo el raton y que el muñeco tarde casi un segundo en reacionar bien por ti


Vsync en 60Hz=máximo retardo de 0,0166 segundos, las matemáticas no mienten...ten mucho cuidado con el poder de la sugestión...crees que tienes mucho lag, pero tienes un lag ínfimo.



estas desbariando y diciendo absurdeces, si te gusta jugar con lag juega, hay jugadores poco exigentes como tu pero no digas tonterias de que en la vida real me tiro un pedo y tarda en salir porque es absurdo, me gustaria verte jugar al csgo con vsync, ibas a saber lo que es el inputlag, pero claro para jugar al league of legends todo vale xD segun tu firma tienes un cross de 7970 y despues juegas con vsync y en un monitor de 60hz, velocidad y tocino en su maxima expresion

Jajajaja, esa sí que es buena....me he gastado la pasta en un equipo para acabarme el Crysis 3 con absolutamente todo a tope y 1080p con 60FPS clavados el 99% del tiempo (con Vsync que es como se ve bien un juego, por cierto) y resulta que soy poco exigente...AFK secándome las lágrimas de la risa, chaval.

Oliver91
05/04/2014, 16:15
Para tí la perra gorda... (y ya conocía ese estudio que NO te da la razón).

http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/Crysis3_1920x1080_FRAPSFPS_0.png


Ahí tienes Un SLI con Vsync moviendose en FPS que no son ni 60 ni 30 ni 20... pero igual es que tienen activado triplebuffer para falsear su propio estudio y además no lo dicen para engañarnos a todos ...Sí, debe ser eso.

Y por cierto: sí, se produce un stuttering inferior a 16,6ms en monitores de 60Hz e inferior a 8,3ms en monitor de 120Hz (stuttering del que me descojono "por delante y por detrás").

paso... a partir de ahora "lo que tú digas".

Y justo debajo pone:

"Because the average frame rate per second graph averages out the frame times for a total of one second of time, the averages won’t quite be the straight lines you might have expected. Looking at the GTX 680 SLI Vsync enabled results the only key item is that the frame rate doesn’t go above 60 FPS like it does with Vsync disabled."

Es decir, que esa gráfica la han sacado en base a la media de sus resultados de frametimes, no directamente del juego, y precisamente por eso después de esa gráfica muestran las gráficas de frametimes así que dicen que el único "key item" de esa gráfica es ver que en ningún momento se sube de 60 fps.

No te enfades hombre, que tampoco se trata de eso.

Por cierto, incluso antes de esa gráfica te lo dicen:


So a 60 Hz monitor could only display frames at 16ms (60 FPS), 33ms (30 FPS), 50ms (20 FPS), and so on with a 120 Hz monitor could also being capable of 8ms (120 FPS), etc.

leftyman
05/04/2014, 16:25
Y justo debajo pone:

"Because the average frame rate per second graph averages out the frame times for a total of one second of time, the averages won’t quite be the straight lines you might have expected. Looking at the GTX 680 SLI Vsync enabled results the only key item is that the frame rate doesn’t go above 60 FPS like it does with Vsync disabled."

Es decir, que esa gráfica la han sacado en base a la media de sus resultados de frametimes, no directamente del juego, y precisamente por eso después de esa gráfica muestran las gráficas de frametimes así que dicen que el único "key item" de esa gráfica es ver que en ningún momento se sube de 60 fps.

No te enfades hombre, que tampoco se trata de eso.

Por cierto, incluso antes de esa gráfica te lo dicen:


NO

http://i57.tinypic.com/2vw79ub.jpg

Oliver91
05/04/2014, 16:28
NO

http://i60.tinypic.com/25gqd5d.jpg

Vaya si, ahí me llevo yo el OWNED. Se supone que eso se debe a que el FRAPS te hace la media aritmética de los frametimes dentro de 1 segundo, en realidad estás funcionando a multiplos de sincronía del monitor (por que el monitor se actualiza 60 veces por segundo, no una media aritmética de lo que pasa dentro de un segundo como la del fraps) pero dependiendo de cuantos frames tarden 16,7ms y cuantos tarden 33ms el fraps te hace la media y te salen esos valores. De hecho, creo que en el link de anand que te he puesto antes se dice también eso, que cuidadito con el fraps aunque ellos se refieren al triple buffer.

leftyman
05/04/2014, 16:56
Vaya si, ahí me llevo yo el OWNED. Se supone que eso se debe a que el FRAPS te hace la media aritmética de los frametimes dentro de 1 segundo, en realidad estás funcionando a multiplos de sincronía del monitor (por que el monitor se actualiza 60 veces por segundo, no una media aritmética de lo que pasa dentro de un segundo como la del fraps) pero dependiendo de cuantos frames tarden 16,7ms y cuantos tarden 33ms el fraps te hace la media y te salen esos valores. De hecho, creo que en el link de anand que te he puesto antes se dice también eso, que cuidadito con el fraps aunque ellos se refieren al triple buffer.

Por supuesto que funcionas a múltiplos de sincronía del monitor si tienes VSYNC activado, por supuesto que unos frames van a tardar 16,7ms y por supuesto que otros 33ms (al no ser que vayas "planchado" a 60FPS). Y por supuesto que los FPS son una media aritmética de los fotogramas dentro de cada segundo, no se qué te sorprende si es su definición...

Oliver91
05/04/2014, 17:02
Por supuesto que funcionas a múltiplos de sincronía del monitor si tienes VSYNC activado, por supuesto que unos frames van a tardar 16,7ms y por supuesto que otros 33ms (al no ser que vayas "planchado" a 60FPS). Y por supuesto que los FPS son una media aritmética de los fotogramas dentro de cada segundo, no se qué te sorprende si es su definición...

Me sorprende que me lleves la contraria, sencillamente, o que cuestiones las diapositivas de nVidia. Si entiendes eso y entiendes de donde saca el fraps sus resultados no se a que viene la discusión. Si dentro de un segundo tienes 30 frames que tardan 16,7ms y otros 30 que tardan 33ms para el fraps vas a 45fps, pero en realidad no vas a 45 fps, vas medio segundo a 60 fps y otro medio a 30 fps, sin más, si es una tontería en realidad y yo te aseguro que un entendido en la materia no soy, pero esto no se inventó ayer, tiene más años que el pedo.

leftyman
05/04/2014, 17:10
Me sorprende que me lleves la contraria, sencillamente, o que cuestiones las diapositivas de nVidia. Si entiendes eso y entiendes de donde saca el fraps sus resultados no se a que viene la discusión. Si dentro de un segundo tienes 30 frames que tardan 16,7ms y otros 30 que tardan 33ms para el fraps vas a 45fps, pero en realidad no vas a 45 fps, vas medio segundo a 60 fps y otro medio a 30 fps, sin más, si es una tontería en realidad y yo te aseguro que un entendido en la materia no soy, pero esto no se inventó ayer, tiene más años que el pedo.


Ya, pero cuando quieras te vienes a Gran Canaria, y de paso te la enseño ....y después nos sentamos voy underclockeando el 3770K para ir perdiendo FPS en Crysis 3 y verás que lo que tú dices no pasa. En el mundo realempiezas a saltarte 1 barrido de cada 20 y tienes 57 FPS, sigues bajando y te saltas un barrido de cada 10 y tienes 54 FPS, sigues bajando y te saltas 1 barrido de cada 5 y ya caes a los 48FPS (y ya yo personalmenta aquí dejo de soportarlo y cambio de hardware).

Oliver91
05/04/2014, 17:13
Ya, pero cuando quieras te vienes a Gran Canaria, y de paso te la enseño ....y después nos sentamos voy underclockeando el 3770K para ir perdiendo FPS en Crysis 3 y verás que lo que tú dices no pasa. En el mundo realempiezas a saltarte 1 barrido de cada 20 y tienes 57 FPS, sigues bajando y te saltas un barrido de cada 10 y tienes 54 FPS, sigues bajando y te saltas 1 barrido de cada 5 y ya caes a los 48FPS (y ya yo personalmenta aquí dejo de soportarlo y cambio de hardware).

Pues a mi me ocurre exactamente lo que te vengo diciendo y lo que se muestra y dicen todas las webs que te he puesto y que tu mismo has puesto incluso, por ejemplo el Crysis 3 o el Far Cry 3 son insoportables con el V-Sync activado, por que voy todo el tiempo o a 60 fps o a 30 fps. Lo soluciono activando el Triple Buffer desde el D3DOverrider.

leftyman
05/04/2014, 17:16
Pues a mi me ocurre exactamente lo que te vengo diciendo y lo que se muestra y dicen todas las webs que te he puesto y que tu mismo has puesto incluso, por ejemplo el Crysis 3 o el Far Cry 3 son insoportables con el V-Sync activado, por que voy todo el tiempo o a 60 fps o a 30 fps. Lo soluciono activando el Triple Buffer desde el D3DOverrider.


Crysis 3 con mi ex-2500K y vsync = 50FPS más o menos

Crsis 3 con mi ex-2500k y vsync+triple buffer = 55FPS más o menos.


Si miras mi hilo de RADEONPRO, verás como explico como sacarle un 10% más de FPS al Crysis 3 con respecto al Vsync normal aplicando triplebuffer.


Si bajas a a 30FPS clavados te está aplicando double VSYNC.


Edito: por cierto, aunque no esté directamente relacionado con el VSYNC, para eso son las famosas estadística de percentil de frametime por encima de los 16ms. Para ver si tienes una media de FPS engañosa con muchos fotográmas rápidos y muchos fotogramas lentos y una media que parece aceptable. En tu ejemplo tendríuamos 45 FPS, pero un percentil de 50% de frames por encima de los 16ms y el estudio de suavidad cantaría.

Oliver91
05/04/2014, 17:23
Crysis 3 con mi ex-2500K y vsync = 50FPS más o menos

Crsis 3 con mi ex-2500k y vsync+triple buffer = 55FPS más o menos.


Si miras mi hilo de RADEONPRO, verás como explico como sacarle un 10% más de FPS al Crysis 3 con respecto al Vsync normal aplicando triplebuffer.


Si bajas a a 30FPS clavados te está aplicando double VSYNC.

No, si hace mucho ya que no juego al Crysis 3, es un juego que no me gusta. No es que baje a 30 fps clavados, es que o voy a 60 fps o voy a 30 fps, y no hay más, eso activando el V-Sync normal del juego. Lo que hago es desactivarlo en el juego y activarlo con el D3DOverrider junto con el Triple Buffer. Si en el D3DOverrider activo solo el V-Sync pero no el triple buffer me va igual que activándolo en el propio juego, es decir, todo el rato o a 30 o a 60 fps. Tu siempre te mueves en configuraciones multiGPU, no se si eso tendrá alguna relación con lo que dices.

leftyman
05/04/2014, 17:33
No, si hace mucho ya que no juego al Crysis 3, es un juego que no me gusta. No es que baje a 30 fps clavados, es que o voy a 60 fps o voy a 30 fps, y no hay más, eso activando el V-Sync normal del juego. Lo que hago es desactivarlo en el juego y activarlo con el D3DOverrider junto con el Triple Buffer. Si en el D3DOverrider activo solo el V-Sync pero no el triple buffer me va igual que activándolo en el propio juego, es decir, todo el rato o a 30 o a 60 fps. Tu siempre te mueves en configuraciones multiGPU, no se si eso tendrá alguna relación con lo que dices.

No te preocupes, haré un estudio VSYNC vs VSYNC+triple buffer vs VSYNC off incluyendo frametimes y FPS con la 270X la semana que viene en Crysis 3 con el 8350 y la 270X

La cuestión es hacerle trabajar a uno :rofl:

Los de Steam tienen que tener un mosqueo con las veces que he redescargado el Crysis 3...

Oliver91
05/04/2014, 17:39
No te preocupes, haré un estudio VSYNC vs VSYNC+triple buffer vs VSYNC off incluyendo frametimes y FPS con la 270X la semana que viene en Crysis 3 con el 8350 y la 270X

La cuestión es hacerle trabajar a uno :rofl:

Los de Steam tienen que tener un mosqueo con las veces que he redescargado el Crysis 3...

Jaja vale, a mi si dejan de darme la lata intentaré hacer algo similar.

Contact
05/04/2014, 17:48
leftyman te crees que por hacer 2 cuentas matematicas tienes la verdad absoluta? a ver si puedes explicar por que en juegos como el CSGO tienes el triple de input lag al activar la vsync que en otros juegos, si se supone que a 60hz siempre son los mismos ms de retardo no? no seras tambien de los tipicos que se meten a wikipedia y despues dicen que el ojo humano no distingue mas de 24fps no?

mrkitorzzz
05/04/2014, 17:53
una cosa es que el ojo no sepa diferenciar fotogramas a mas de 24 por segundo, y otra la fluidez que pueda llegar la "imagen" y ya luego depende del motor del juego en este caso.

Oliver91
05/04/2014, 17:54
Edito: por cierto, aunque no esté directamente relacionado con el VSYNC, para eso son las famosas estadística de percentil de frametime por encima de los 16ms. Para ver si tienes una media de FPS engañosa con muchos fotográmas rápidos y muchos fotogramas lentos y una media que parece aceptable. En tu ejemplo tendríuamos 45 FPS, pero un percentil de 50% de frames por encima de los 16ms y el estudio de suavidad cantaría.

Si, y además ocurre, si en la review que ambos hemos citado se ve claramente:

http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/Crysis3_1920x1080_PER_0.png

http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/Crysis3_1920x1080_PER_2.png

http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/BF3_2560x1440_PER_0.png

http://www.pcper.com/files/imagecache/article_max_width/review/2013-03-25/Crysis3_1920x1080_PER_1.png

Pepuri
05/04/2014, 18:02
A ver la gtx 770 y la r9 280x rinden similar exceptuando en su propia cartera de juegos. Con juegos amd la r9 irá mejor que en juegos nvidia y viceversa. Final del asunto.
Respecto al fantasma que dice que la R9 290 rinde ligeramente mas que la GTX 780, no se que te has fumado pero macho menuda imparcialidad o poca objetividad.

La escala de rendimiento es así de simple (dejando la Titan de lado):
1. GTX 780Ti
2. R9 290X
3. GTX 780
4. R9 290
5. GTX770/R9 280X

Mejor ratio euro/rendimiento 780 y 770/R9 280X

leftyman
05/04/2014, 19:43
A ver la gtx 770 y la r9 280x rinden similar exceptuando en su propia cartera de juegos. Con juegos amd la r9 irá mejor que en juegos nvidia y viceversa. Final del asunto.
Respecto al fantasma que dice que la R9 290 rinde ligeramente mas que la GTX 780, no se que te has fumado pero macho menuda imparcialidad o poca objetividad.

La escala de rendimiento es así de simple (dejando la Titan de lado):
1. GTX 780Ti
2. R9 290X
3. GTX 780
4. R9 290
5. GTX770/R9 280X

Mejor ratio euro/rendimiento 780 y 770/R9 280X



Yo soy ese "fantasma", y siempre hablo e las R9 290 custom que vienen por encima del GHz de core:

Esta tarjeta que ves en esta review de abajo cuesta 385€, ¿escuchas esa explosión?...es tu teoría del ratio euro/rendimiento que acaba de saltar por los aires:

http://www.pccomponentes.com/sapphire_r9_290_tri_x_oc_uefi_4gb_gddr5.html?gclid =CKixm5iEyr0CFcvpwgod9GEA0Q



Me gustaría que supieras que eres un faltón, y que el respeto es muy bonito: Auí tienes tu ¡ZAS EN TODA LA BOCA!, necesitas toda una 780 lightning o una Windforece GHz para superar a una 290 Tri-x de stock (y no siempre lo consigues).

Resultado: "R9 290 tri-x" 16 "GTX 780" 0 ¡Ajustadito, ajustadito!




http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_3dmark11.png



http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_3dmark13.png



http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_avp1.png



http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_avp2.png



http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_binf1.png




http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_binf2.png




http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_bf41.png



http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_bf42.png



http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_ds1.png




http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_ds2.png




http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_mll1.png




http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_mll2.png





http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_sd1.png



http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_sd2.png



http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_tmb1.png




http://cdn.eteknix.com/wp-content/uploads/2013/12/sapphire_r9290_trix_tmb2.png

Kat
05/04/2014, 19:56
Joer! como os picais! XDDDD

A ver, si el dinero no es problema, quiero decir el presupuesto no esta justo, yo siempre recomiendo Nvidia. Hasta que se demuestre lo contrario, sus tarjetas cuentan con componentes de mejor calidad y los drivers hace ya tiempo son bastante impecables, con sus cagadas, pero mejor que la competencia.

Digamos que AMD es una compañía muy diversificada y quizas no cuida tanto las tarjetas gráficas como Nvidia. Es mi opinion, oiga!!!

Pepuri
05/04/2014, 20:24
A mí no me tienes que convencer de nada, no soy un faltón pero me pueden los que van de vacin.
¿Poniendo resultados sin mencionar la fuente? Encima todos los juegos patrocinados por AMD. Lo dicho; te estas retratando. No se puede ser mas imparcial.
¿Por qué no le echas un ojo a TPU! o Tom's? Verás como todo este tinglado que me has soltado cambia bastante.

De todas maneras, utilizando los resultados que has facilitado se puede observar claramente que en juegos que no son de la cartera de nvidia la 780 hace un papel mas que decente y poniéndose a la altura de la competencia. Justamente por eso la gente que se puede permitir una 780 suele tirar a por ella por capacidad de OC y temperaturas. Al contrario de lo que intentas vender.

Si en juegos AMD esta a la altura de una 290 no me quiero imaginar en juegos neutros o juegos de nvidia. Comentar también que el bus de las AMD hace que tengas que tener un buen CPU para aprovecharla.

Y por cierto lo del ratio precio/rendimiento no es una teoría mía, infórmate y veras como se menciona bastante. ¡Ah! y creo que la 770/280x sigue ganando por goleada.

Saludos.

leftyman
05/04/2014, 20:38
Elige la que quieras, en todas gana la R9 290 tri-x:

http://www.anandtech.com/show/7601/sapphire-radeon-r9-290-review-our-first-custom-cooled-290/3



¿Te gusta anandtech? , o no te parece lo bastante prestigiosa (Y a ver si metro LL que es un titulo con Physx va estar patrocinado por AMD para partirme la caja)
:

http://images.anandtech.com/graphs/graph7601/60545.png
http://images.anandtech.com/graphs/graph7601/60546.png
http://images.anandtech.com/graphs/graph7601/60547.png
http://images.anandtech.com/graphs/graph7601/60549.png
http://images.anandtech.com/graphs/graph7601/60551.png
http://images.anandtech.com/graphs/graph7601/60553.png
http://images.anandtech.com/graphs/graph7601/60556.png
http://images.anandtech.com/graphs/graph7601/60559.png
http://images.anandtech.com/graphs/graph7601/60563.png
http://images.anandtech.com/graphs/graph7601/60568.png


TOMSHARDWARE

http://i61.tinypic.com/fxxnwj.jpg

Kat
05/04/2014, 23:41
Si, si muy bonitas la gráficas, pero ¿alguien me puede explicar porque ha estado la gente esperando 3 meses a que salieran las R9 290 con disipador mejorado y ni el más tonto quería una de stock, tal cual te la daban los angelitos de AMD? ¿donde estaban los que criticaron duramente las GTX 480? cuando las 290 son incluso son peores en temperaturas y ruido...

Chupaita
06/04/2014, 00:45
Leftyman, que digas por activa y por pasiva que las 290 son mejores que las 780 esta muy bien, pero... Parece mentira que con lo listo que te haces ver... Des credibilidad a tablas de otros sitios que ni sabes como coño han recreado esas pruebas.... Aparte de que no indicar a qué frecuencias estan esas GPU.... O los drivers. ;-)

Quieres que te tomen en serio? Hazte unas pruebas ( tanto que te gusta trabajar... ) de una 290 contra una 780 TU MISMO.... Mismas condiciones, drivers, PC, resolución.....

leftyman
06/04/2014, 01:28
Leftyman, que digas por activa y por pasiva que las 290 son mejores que las 780 esta muy bien, pero... Parece mentira que con lo listo que te haces ver... Des credibilidad a tablas de otros sitios que ni sabes como coño han recreado esas pruebas.... Aparte de que no indicar a qué frecuencias estan esas GPU.... O los drivers. ;-)

Quieres que te tomen en serio? Hazte unas pruebas ( tanto que te gusta trabajar... ) de una 290 contra una 780 TU MISMO.... Mismas condiciones, drivers, PC, resolución.....


Ains, no voy a comprarme una 780 ni una 290, porque no las necesito....ya tengo algo más potente que la una y que la otra.


Chupaita, si no das credibilidad a tomshardware ni a anandtech, apaga y vámonos....cierro el kiosko porque son las dos páginas mas antiguas y prestigiosas que existen....que todo puede ser "en la viña del señor" y tu pienses que están compradas, pero en ese caso ya podemos olvidarnos de reviews para siempre...si no confiamos ni en las dos páginas "patanegra" vamos listos.


La review de Tomshardware hace un baremo con varios juegos y las tres contendientes que señalé con una flecha son estas exactamente:

http://www.tomshardware.com/reviews/radeon-r9-290-and-290x,3728-2.html

Sapphire R9 290 Tri-X OC (1000/1300) http://www.techpowerup.com/vgabios/151778/sapphire-r9290-4096-131211.html
Gigabyte GTX780 OC (954+ 1008 boost/1502) http://www.techpowerup.com/reviews/Gigabyte/GeForce_GTX_780_OC/
Nvidia GTX780 reference design (863+ 902 boost/1502) http://www.techpowerup.com/gpudb/1701/geforce-gtx-780.html

Mejor precio que he podido encontrar para la gigabyte http://xtremmedia.com/Gigabyte_GeForce_GTX_780_OC_Windforce_3GB_GDDR5.ht ml

A los que le moleste que una tarjeta de 385€ entregue más FPS que una tarjeta de 429,50€ nada más pincharla le notifico unas cuantas cosas:

1) Yo no tengo la culpa
2) La diferencia de FPS es escasa
3) La diferencia de precio no es tanta (más bien es bastante pequeña, 45€ o poco más de un 10% como más os guste mirarlo).
4) La Nvidia necesita menos fuente de alimentación y consume menos.
5) La Nvidia tiene el techo de OC mucho más alto que la AMD (siempre en casos típicos, el OC nunca es una ciencia exacta).

Así que el que crea que puede encontrar una review que enfrente a una R9 290 a 1GHz contra una GTX780 a 1GHz, en la que gane la GTX780 que la linkee...no perdais el tiempo buscándola (es más, si quereis os pongo un puñado más de ellas en las que pasa lo mismo que en anandtech o tomshardware).

Por cierto a 1125MHz de core en la tri-x ya vais necesitando más de 1250 de core en la GTX780 para empatar, la 290 escala mejor por su bus de 512 bits.


Si, si muy bonitas la gráficas, pero ¿alguien me puede explicar porque ha estado la gente esperando 3 meses a que salieran las R9 290 con disipador mejorado y ni el más tonto quería una de stock, tal cual te la daban los angelitos de AMD? ¿donde estaban los que criticaron duramente las GTX 480? cuando las 290 son incluso son peores en temperaturas y ruido...

No confundas churras con merinas, las R9 290 de referencia son calientes y ruidosas. R9 290 como la tri-x o Twin frozr gaming de MSI son frías y silenciosas:


http://www.anandtech.com/show/7601/sapphire-radeon-r9-290-review-our-first-custom-cooled-290/4



http://images.anandtech.com/graphs/graph7601/60573.png



http://images.anandtech.com/graphs/graph7601/60574.png



http://images.anandtech.com/graphs/graph7601/60576.png



http://images.anandtech.com/graphs/graph7601/60577.png


Si lo de no criticar las 290 de referencia lo dices por mí, aquí tienes un enlace a un hilo en el que yo digo que si me toca una R9 290 de referencia en un sorteo... lo primero que hago es venderla (en el contexto de una conversación a cerca del ruido y calor que generan).

http://foro.noticias3d.com/vbulletin/showthread.php?t=426482&page=37


Un abrazo a todos.

shep
06/04/2014, 01:51
Si, si muy bonitas la gráficas, pero ¿alguien me puede explicar porque ha estado la gente esperando 3 meses a que salieran las R9 290 con disipador mejorado y ni el más tonto quería una de stock, tal cual te la daban los angelitos de AMD? ¿donde estaban los que criticaron duramente las GTX 480? cuando las 290 son incluso son peores en temperaturas y ruido...

La 480 ponias el ventilador a tope y costaba mantener buenas temperaturas, la 290 pones el ventilador a tope y si bajan las temperaturas. Pero vamos... el disipador que trae las 290 de stock tambien es mejor que el que traia la 480, todo sea dicho.

Chupaita
06/04/2014, 09:58
Leftyman, si a mi no me tienes que convencer... Se perfectamente que los datos de esos benchmarks, son de hemeroteca....

No son datos recientes... Por eso decia de hacer una ahora, con drivers mas nuevos y demas.... Ojo, tampoco digo que vaya a ganar la 780, pero apoyarse en unos benchmarks cuyos datos no son recientes.... ;-)

Saludos

OutSider
06/04/2014, 10:32
Yo sinceramente me pregunto por qué a veces cuesta tanto entender las cosas y tachar a unos de credibilidad o no según los datos que uno quiera aceptar o no. El HARDWARE tiene una potencia bruta máxima, luego hay que evaluar si el SOFTWARE que empleamos en ese momento es capaz de sacar el provecho a todo el potencial que pueda dar el hardware.

A partir de ahí sólo hay que ver las especificaciones técnicas y mirar la capacidad de computo máximo a la hora de rasterizar que tienen una y otra (tanto Nvidia como AMD) y con simplemente ese dato se sabe cual es más potente. Yo personalmente no me voy a meter porque ya he vivido donde acaban estos hilos en la parte de procesadores y me parece lamentable que parezca que nos pagan las marcas para defender una y otra y se sea incapaz de poder hablar de rendimiento sin meter marcas por medio y defensas a ultranza.

Luego podemos tener en cuenta drivers, optimizaciones en el software o juegos para mejoras en suavidad, sensación de velocidad de fotogramas, etc ... pero eso siempre será culpa del software tanto a la hora del programa/juego a emplear como de drivers y sistemas operativos.

E igualmente, en procesadores, sabiendo los Gflops que son capaces de generar usando todos sus núcleos sabes cual es más potente a fuerza bruta. Es tan simple como eso. Que luego el software use 1-2 núcleos, satura 1 para dibujado o emplea bien 8 o 16? que utiliza todas las últimas instrucciones AVX y derivados o no? pues no es culpa del procesador sino del software que lo usa.

tartaloo
06/04/2014, 10:38
Es que a veces le damos mil vueltas a lo que para mi es una chorrada. Ocurre como con las 770 vs 280x que tienen practicamente el mismo rendimiento y le damos mil vueltas a si una da un 5% mas de frames en tal o aquel juego. A mi eso me la trae floja la verdad.
Con la 780 vs 290 ocurre algo parecido aunque aquí creo que la diferencia es mayor a favor de la 290. A mi que una de 70fps y la otra 62fps la verdad no me parece decisivo antes me fijo en otras cosas.

Por ejemplo en declaraciones como esta de Mr. Lu uno de los jefes de MSI:

Noticias3D: Una pregunta muy sencilla, ¿AMD o NVIDIA?
Mr. Lu: Como preferencia personal, opino que NVIDIA es superior en conjunto (diseño de ingenieria, control de calidad, estabilidad).
http://www.noticias3d.com/noticia.asp?idnoticia=60536

Algo que muchos foreros de por aquí llevan tiempo diciendo por cierto.

OutSider
06/04/2014, 10:45
Es que a veces le damos mil vueltas a lo que para mi es una chorrada. Ocurre como con las 770 vs 280x que tienen practicamente el mismo rendimiento y le damos mil vueltas a si una da un 5% mas de frames en tal o aquel juego. A mi eso me la trae floja la verdad.
Con la 780 vs 290 ocurre algo parecido aunque aquí creo que la diferencia es mayor a favor de la 290. A mi que una de 70fps y la otra 62fps la verdad no me parece decisivo antes me fijo en otras cosas.

Por ejemplo en declaraciones como esta de Mr. Lu uno de los jefes de MSI:

http://www.noticias3d.com/noticia.asp?idnoticia=60536

Algo que muchos foreros de por aquí llevan tiempo diciendo por cierto.



Las declaraciones de Mr. Lu que apuntas son acojonantes. Sin detallar el por qué, sin basarse en absolutamente en nada tangible ... llega, suelta eso y se queda tan pancho. Eso tiene la misma credibilidad que quien defiende sus marcas porque son las que compran. Sencillamente lamentables, y se supone que es un jefazo de MSI que encima monta para ambas plataformas tanto en placas como en gráficas.

Si la gente "supuestamente seria" (aunque claro, parece un puesto regalado a dedo porque visto lo que es capaz de ofrecer ...) ofrece eso ... que sentido tiene discutir nada? además, que los GFlops lo marcan todo, que todo es tan sencillo como eso. Todo lo demás, culpa del software que se usa. No hay más.

No me voy a cansar de decirlo porque por más vueltas que le demos no vamos a reinventar la rueda en el hardware: LA POTENCIA SE MIDE EN GFLOPs. (o TFLOPs)

h2omadrid
06/04/2014, 11:01
Las declaraciones de Mr. Lu que apuntas son acojonantes. Sin detallar el por qué, sin basarse en absolutamente en nada tangible ... llega, suelta eso y se queda tan pancho. Eso tiene la misma credibilidad que quien defiende sus marcas porque son las que compran. Sencillamente lamentables, y se supone que es un jefazo de MSI que encima monta para ambas plataformas tanto en placas como en gráficas.

Si la gente "supuestamente seria" (aunque claro, parece un puesto regalado a dedo porque visto lo que es capaz de ofrecer ...) ofrece eso ... que sentido tiene discutir nada? además, que los GFlops lo marcan todo, que todo es tan sencillo como eso. Todo lo demás, culpa del software que se usa. No hay más.

No me voy a cansar de decirlo porque por más vueltas que le demos no vamos a reinventar la rueda en el hardware: LA POTENCIA SE MIDE EN GFLOPs. (o TFLOPs)

Dependiendo. Por ejemplo Nvidia capa la capacidad de OpenCL de sus gráficas, resultando que una 280x por ejemplo da más GFlops que una Geforce Titan. ¿Entonces esto quiere decir que esa Radeon es más potente que la Titan?

OutSider
06/04/2014, 11:03
Dependiendo. Por ejemplo Nvidia capa la capacidad de OpenCL de sus gráficas, resultando que una 280x por ejemplo da más GFlops que una Geforce Titan. ¿Entonces esto quiere decir que esa Radeon es más potente que la Titan?


Ahi te estás saliendo del RASTERIZADO que es lo que interesa en este hilo. Hablamos de potencia en GFlops/TFlops en rasterizado. Si nos vamos al OpenCL ya no estamos renderizando un juego/aplicación gráfica sino aplicando cálculos para otras cosas.

h2omadrid
06/04/2014, 11:06
¿Dónde puedo encontrar esos datos?

OutSider
06/04/2014, 11:07
¿Dónde puedo encontrar esos datos?


Pues por norma general en las presentaciones de las gráficas suelen dejar bien claro el máximo de Gflops/Tflops que alcanzan. Repasa la presentación de la que te interese y fijo que encuentras el dato. Si no ... especifica cual quieres y entre todos intentamos ayudarte.

Un saludo!

h2omadrid
06/04/2014, 11:18
¿La tabla de esta página sería válida?

http://www.pcper.com/reviews/Graphics-Cards/NVIDIA-GeForce-GTX-780-Ti-3GB-Review-Full-GK110-Crashes-Hawaii

OutSider
06/04/2014, 11:21
¿Esta?

http://i.imgur.com/2m2Yh39.png



Perfectamente creible. A partir de ahí lo que los juegos (software), drivers (software) y Sistema Operativo (software) sean capaces de aprovechar del hardware. Todo lo demás son discusiones sin final y a mi parecer ... sin sentido.

h2omadrid
06/04/2014, 11:32
Entonces los de AMD son unos "negados" jajaja.

Saludos y lo de antes era broma, que nadie se lo tome a mal ;)

OutSider
06/04/2014, 11:35
Entonces los de AMD son unos "negados" jajaja.

Saludos y lo de antes era broma, que nadie se lo tome a mal ;)



Hombre, si examinas los datos se entiende bien:


La 780Ti corona rasterizando frente a la Titan y la 780 por debajo de la Titan (algo que todo el mundo sabe y quien lo ha probado más). Luego, por otro lado, tienes a la 290x coronando en computo (comprensible por sus 512 bit de bus), la 290 muy pegada a la 780Ti (pero sin llegarla y con menos bus que la 290). Por descontado luego tienes que tener en cuenta OCs (que suben la capacidad de computo, los TFlops) pero a partir de ahí el software manda (juego/aplicación, driver y sistema operativo).

Así que aquí podemos discutir a que tarjeta podemos sacar más provecho con nuestro software o a cual le saca más provecho el software/drivers/sistema-operativo pero hablar de cual es más potente no tiene sentido porque las matemáticas mandan y ellas ya hablan a traves de los TFlops.

Todo lo demás? ruedas de molinos. Lo que pasa es que siempre se habla como si el software aprovechara al 100% el hardware y eso no ha pasado nunca y no va a pasar ni hoy ni mañana. El software lastra al hardware desde el siglo pasado.


PD: Luego la gente habla de "drivers mágicos" y tal, pero no, lo que se está haciendo es ir aprovechando cada vez más la capacidad de computo de rasterizado total que tiene la tarjeta pero ni drivers mágicos ni nada sólo que las aprovechan como el culo y cada vez intentan acercarse más al total. De mágia nada, de ahí que las HD7xxx tuvieran un rendimiento de pena para sus especificaciones técnicas de salida y luego salieran "drivers mágicos" que lo más que hicieron fue aprovechar la tarjeta en su computo total pero de mágia nada, las estaban ahogando por software.

Quien no recuerda el caso de las HD7xxx? Rendian de pena de salida y no se correspondían en absoluto con su capacidad de computo real al que podía llegar el hardware que montaban. Y luego ya no hablemos de los motores gráficos, quien garantiza a nadie que están explotando al máximo de posibilidades el hardware? nadie! , en cambio las discusiones se tienen siempre teniendo en cuenta esa premisa, que si lo hacen. No puede haber mayor error que eso.

En la informática y hardware ... las matematicas mandan y esas no mienten ni tienen en cuenta marcas ni modelos.

Mulzani
06/04/2014, 12:08
El problema de los Teraflops, como medida de la potencia de cálculo, es que se habla de ellos sin tener en cuenta el resto de componentes, no se tiene en cuenta ni ancho de banda de la memoria, ni cuantas ROPs o TMUs tiene la GPU.

El cálculo es simple Shaders * Frecuencia * Nº Ops por ciclo en un shader.
780 Ti: 2880 * 875 * 2 = 5040000 MFlops = 5,04 TFlops
R9 290x: 2806 * 1000 * 2 = 5612000 MFlops = 5,61 TFlops

Es por eso que en OpenCL, o para minar, las AMD tienen mayor rendimiento, porque sólo importa el número de shaders y su frecuencia, pero luego para generar gráficos no sólo se depende de las operaciones de shader. Amén, a parte, del soporte en cuanto a drivers, software...

OutSider
06/04/2014, 12:12
El problema de los Teraflops, como medida de la potencia de cálculo, es que se habla de ellos sin tener en cuenta el resto de componentes, no se tiene en cuenta ni ancho de banda de la memoria, ni cuantas ROPs o TMUs tiene la GPU.

El cálculo es simple Shaders * Frecuencia * Nº Ops por ciclo en un shader.
780 Ti: 2880 * 875 * 2 = 5040000 MFlops = 5,04 TFlops
R9 290x: 2806 * 1000 * 2 = 5612000 MFlops = 5,61 TFlops

Es por eso que en OpenCL, o para minar, las AMD tienen mayor rendimiento, porque sólo importa el número de shaders y su frecuencia, pero luego para generar gráficos no sólo se depende de las operaciones de shader. Amén, a parte, del soporte en cuanto a drivers, software...



Si nos metemos en OpenCL, como le dije al compañero, estamos siendo injustos pues las NVIDIA están capadas en ese aspecto y se basan en rasterizar. Si la potencia bruta absoluta no se emplea siempre será culpa del software. En este caso la 290x se corona en todas las posiciones (por no estar capada en OpenCL también) pero es que a la hora de rasterizar también pues influye absolutamente la potencia bruta de cálculo de la tarjeta. Luego ya podemos hablar de que hace el software, pero a potencia bruta es indiscutible quien tiene la corona en Single-GPU hasta que salgan nuevas.

Si las NVIDIA no estuvieran capadas se codearían más de tú a tú en OpenCL, de hecho sólo hay que ver las tarjetas que no lo están de NVIDIA y que rendimiento dan. Si hablamos de anchos de banda de memoria (que claro que se tienen en cuenta) ya me dirás que podrían decir las NVIDIA montando GDDR5 (como las AMD) y menos bus. Claro que se tiene en cuenta, de hecho, si no se frenan a la hora de cálculo es porque la memoria no las está haciendo cuello de botella en ninguna parte, si no ... el resultado en TFlops sería menor al frenarlas las memorias (cuello de botella).

Las memorias GDDR5 ahí demuestran dar el ancho de banda que necesitan ambas marcas para sus chips (tanto en 384 bus para nvidia como en 512 en AMD). Mientras una tarjeta arroje más TFlops totales que otra siempre será más potente, aunque lo haga con GDDR3 mientras no la frene o le cree cuello de botella, el caso es que ambas usan GDDR5 porque lo necesitan y demuestra darles ancho de banda necesario para arrojar los Tflops totales en sus chips (que yo llamo encapsulados).

Mulzani
06/04/2014, 12:30
En operaciones matemáticas, las Nvidia tendrían las de perder, eso por potencia bruta, ya que sobre el papel las AMD son las realizarían más operaciones por segundo. Pero es eso, el resultado sobre el papel, que es el que se indica en las tablas y se realiza con la fórmula que te he indicado en el post anterior, y ahí no influye ni el ancho de banda de la memoria, ni los ROPs ni TMUs.

Eso sí, por supuesto que si no le das datos a la velocidad necesaria, por mucha potencia bruta la GPU que tenga no va a servir de nada.

Luego habría que ver, mediante un benchmark, cuántos FLOPS es capaz de operar, pero dicho benchmark vendrá ya influido, como todos, por el resto de componentes, del driver, del software o del mismo benchmark en sí.

OutSider
06/04/2014, 12:36
En operaciones matemáticas, las Nvidia tendrían las de perder, eso por potencia bruta, ya que sobre el papel las AMD son las realizarían más operaciones por segundo. Pero es eso, el resultado sobre el papel, que es el que se indica en las tablas y se realiza con la fórmula que te he indicado en el post anterior, y ahí no influye ni el ancho de banda de la memoria, ni los ROPs ni TMUs.

Eso sí, por supuesto que si no le das datos a la velocidad necesaria, por mucha potencia bruta la GPU que tenga no va a servir de nada.

Luego habría que ver, mediante un benchmark, cuántos FLOPS es capaz de operar, pero dicho benchmark vendrá ya influido, como todos, por el resto de componentes, del driver, del software o del mismo benchmark en sí.



Exactamente, sobre el papel son más potentes pero creo que te pierdes en el tema de las memorias. Ya te he comentado antes que si las memorias les crearan cuellos de botella directamente arrojarian menos TFlops y no lo hacen (entonces las memorias no frena al chip gráfico, le da el ancho de banda que necesita). Pero bueno, como bien indicas sobre el papel está todo bien claro, y si una 290x rinde menos que una 780Ti en alguna aplicación, juego, software del tipo que sea ES CULPA DEL SOFTWARE.

Todo es mucho más sencillo que discutir sobre lo que nos parece en el tema del hardware. Todo el hardware realiza operaciones matemáticas (y estas no engañan a nadie, de hecho son de lo poco que uno se puede fiar) y si estos se ven lastrados ya sabéis a quien mirar ... AL SOFTWARE (juegos/programas/drivers/sistemas operativos).Un saludo y me despido del hilo.


Aio!


PD: Me despido porque ya sé como acaban estos hilos, ya he pillado cacho discutiendo este tema en PROCESADORES. Por qué? porque en estos pasa lo mismo. Cuantos GFlops da tu micro con todos sus núcleos al máximo? pues esa es su potencia. Que los juegos usan 1-2 núcleos sólo? culpa del software, Que DX11 utiliza 1 solo núcleo y lo satura con las llamadas a DRAWCALL? culpa del software, Que utiliza 4-6-8 núcleos o más? culpa del software (esta vez para bien), Que mantle/dx12 rompen la saturación del único nucleo que llamaba a dibujo a las tarjetas? culpa del software (esta otra vez, también para bien), etc ...

Oliver91
06/04/2014, 13:25
Hombre, si examinas los datos se entiende bien:


La 780Ti corona rasterizando frente a la Titan y la 780 por debajo de la Titan (algo que todo el mundo sabe y quien lo ha probado más). Luego, por otro lado, tienes a la 290x coronando en computo (comprensible por sus 512 bit de bus), la 290 muy pegada a la 780Ti (pero sin llegarla y con menos bus que la 290). Por descontado luego tienes que tener en cuenta OCs (que suben la capacidad de computo, los TFlops) pero a partir de ahí el software manda (juego/aplicación, driver y sistema operativo).

Así que aquí podemos discutir a que tarjeta podemos sacar más provecho con nuestro software o a cual le saca más provecho el software/drivers/sistema-operativo pero hablar de cual es más potente no tiene sentido porque las matemáticas mandan y ellas ya hablan a traves de los TFlops.

Todo lo demás? ruedas de molinos. Lo que pasa es que siempre se habla como si el software aprovechara al 100% el hardware y eso no ha pasado nunca y no va a pasar ni hoy ni mañana. El software lastra al hardware desde el siglo pasado.


PD: Luego la gente habla de "drivers mágicos" y tal, pero no, lo que se está haciendo es ir aprovechando cada vez más la capacidad de computo de rasterizado total que tiene la tarjeta pero ni drivers mágicos ni nada sólo que las aprovechan como el culo y cada vez intentan acercarse más al total. De mágia nada, de ahí que las HD7xxx tuvieran un rendimiento de pena para sus especificaciones técnicas de salida y luego salieran "drivers mágicos" que lo más que hicieron fue aprovechar la tarjeta en su computo total pero de mágia nada, las estaban ahogando por software.

Quien no recuerda el caso de las HD7xxx? Rendian de pena de salida y no se correspondían en absoluto con su capacidad de computo real al que podía llegar el hardware que montaban. Y luego ya no hablemos de los motores gráficos, quien garantiza a nadie que están explotando al máximo de posibilidades el hardware? nadie! , en cambio las discusiones se tienen siempre teniendo en cuenta esa premisa, que si lo hacen. No puede haber mayor error que eso.

En la informática y hardware ... las matematicas mandan y esas no mienten ni tienen en cuenta marcas ni modelos.

Vaya, no dejas de sorprenderme, así que a esto te referías con las matemáticas, pues si usas las matemáticas para esto las tienes que usar bien, por que desde luego lo que dices no tiene ni pies ni cabeza como te ha dicho Mulzani. Los GFlops/TFlops miden la potencia de cálculo de los shaders en punto flotante, y nada más, y eso no es potencia de rasterización, que no se por que la llamas así. La potencia de rasterización en todo caso dependerá del número de rasterizadores que tengas o de el hardware entero según como interpretes eso, pero la potencia de los shaders unicamente no es potencia de rasterizacion. Además, si tomas la potencia de rasterización como la potencia de los rasterizadores, nVidia tiene una ventaja clara sobre las GPUs AMD, vamos, que si te basas solo en eso no te compras una GPU de AMD ni queriendo.

Así que no, las matemáticas no mandan ni en CPUs ni en GPUs tal y como tu lo planteas (planteado de otra forma, quizás si), que un programa use o no use las instrucciones AVX no significa que aproveche o no aproveche bien la CPU, significa que esa aplicación puede usarlas y punto, cualquier aplicación no puede usar instrucciones AVX siendo estas instrucciones FP. Si te basas solo en eso para medir el rendimiento de la CPU desde luego que no sabes para que sirven esas instrucciones, ¿Que pasa con el rendimiento de enteros? ¿Ese no cuenta cuando para un usuario doméstico es el más importante?.

En lo que dices de los drivers si que estoy de acuerdo.

DCO
06/04/2014, 13:33
A ver la gtx 770 y la r9 280x rinden similar exceptuando en su propia cartera de juegos. Con juegos amd la r9 irá mejor que en juegos nvidia y viceversa. Final del asunto.
Respecto al fantasma que dice que la R9 290 rinde ligeramente mas que la GTX 780, no se que te has fumado pero macho menuda imparcialidad o poca objetividad.
Para hablar de imparcialidad seria mejor que mirases un monton de reviews primero, porque estas equivocado si te refieres a las de referencia.

OutSider
06/04/2014, 13:47
Vaya, no dejas de sorprenderme, así que a esto te referías con las matemáticas, pues si usas las matemáticas para esto las tienes que usar bien, por que desde luego lo que dices no tiene ni pies ni cabeza como te ha dicho Mulzani. Los GFlops/TFlops miden la potencia de cálculo de los shaders en punto flotante, y nada más, y eso no es potencia de rasterización, que no se por que la llamas así. La potencia de rasterización en todo caso dependerá del número de rasterizadores que tengas o de el hardware entero según como interpretes eso, pero la potencia de los shaders unicamente no es potencia de rasterizacion. Además, si tomas la potencia de rasterización como la potencia de los rasterizadores, nVidia tiene una ventaja clara sobre las GPUs AMD, vamos, que si te basas solo en eso no te compras una GPU de AMD ni queriendo.

Así que no, las matemáticas no mandan ni en CPUs ni en GPUs tal y como tu lo planteas (planteado de otra forma, quizás si), que un programa use o no use las instrucciones AVX no significa que aproveche o no aproveche bien la CPU, significa que esa aplicación puede usarlas y punto, cualquier aplicación no puede usar instrucciones AVX siendo estas instrucciones FP. Si te basas solo en eso para medir el rendimiento de la CPU desde luego que no sabes para que sirven esas instrucciones, ¿Que pasa con el rendimiento de enteros? ¿Ese no cuenta cuando para un usuario doméstico es el más importante?.

En lo que dices de los drivers si que estoy de acuerdo.



Claro Oliver, no te voy a discutir nada. Tu sabes perfectamente todo del hardware, como se usa, como se emplea, como interpreta el software al hardware y sobretodo como funcionan la AVX y cuando se pueden implementar o no (cuando no hemos hablado nada de eso, pero bueno). Ya sabes, tienes razón en absolutamente todo. Indiscutible e impepinablemente. De hecho conoces los rasterizadores de ambas marcas al límite, etc...

A partir de ahora en vez de informarme, emplear hardware y desarrollar software y ser informático graduado superior desde hace más de 10 años lo que voy a hacer es leerte todo lo que escribas porque desde luego que es indiscutible todo lo que aportas y completamente imparcial y congruente.

Un saludo y gracias por existir!


PD: Lo dicho, abandono el hilo. Ahora tengo que pensar a que me dedico, toda la vida pensando que el hardware realiza cálculos matemáticos (y hasta estudiándolo) y ahora resulta que no sé ni de lo que hablo. Me voy a ir a forogranjero o algo así a cambiar mi vida, que desilusión ;( . Y por descontado tus comentarios siempre son imparciales, no me cabe ninguna duda de ello, siempre lo demuestras.

Oliver91
06/04/2014, 13:51
Claro Oliver, no te voy a discutir nada. Tu sabes perfectamente todo del hardware, como se usa, como se emplea, como interpreta el software al hardware y sobretodo como funcionan la AVX y cuando se pueden emplear y no (cuando no hemos hablado nada de eso, pero bueno). Ya sabes, tienes razón en absolutamente todo. Indiscutible e impepinablemente. De hecho conoces los rasterizadores de ambas marcas, etc...

A partir de ahora en vez de informarme, emplear y ser informático graduado superior desde hace más de 10 años lo que voy a hacer es leerte todo lo que escribas porque desde luego que es indiscutible todo lo que aportas y completamente imparcial y congruente.

Un saludo y gracias por existir!


PD: Lo dicho, abandono el hilo. Ahora tengo que pensar a que me dedico, toda la vida pensando que el hardware realiza cálculos matemáticos (y hasta estudiándolo) y ahora resulta que no sé ni de lo que hablo. Me voy a ir a forogranjero o algo así a cambiar mi vida, que desilusión ;( . Y por descontado tus comentarios siempre son imparciales, no me cabe ninguna duda de ello, siempre lo demuestras.

No entiendo tu comentario la verdad, pero haz lo que quieras, han debido de molestarte mucho mis posts durante el tiempo en que estuviste leyendolos antes de registrarte.

OutSider
06/04/2014, 13:53
No entiendo tu comentario la verdad, pero haz lo que quieras, han debido de molestarte mucho mis posts durante el tiempo en que estuviste leyendolos antes de registrarte.



No, te doy la razón absoluta en todo. Gracias por toda la info que aportas: imparcial y congruente al 100%.


Un saludo!

tartaloo
06/04/2014, 15:54
Es que a veces le damos mil vueltas a lo que para mi es una chorrada. Ocurre como con las 770 vs 280x que tienen practicamente el mismo rendimiento y le damos mil vueltas a si una da un 5% mas de frames en tal o aquel juego. A mi eso me la trae floja la verdad.
Con la 780 vs 290 ocurre algo parecido aunque aquí creo que la diferencia es mayor a favor de la 290. A mi que una de 70fps y la otra 62fps la verdad no me parece decisivo antes me fijo en otras cosas.

Por ejemplo en declaraciones como esta de Mr. Lu uno de los jefes de MSI:

http://www.noticias3d.com/noticia.asp?idnoticia=60536

Algo que muchos foreros de por aquí llevan tiempo diciendo por cierto.


Las declaraciones de Mr. Lu que apuntas son acojonantes. Sin detallar el por qué, sin basarse en absolutamente en nada tangible ... llega, suelta eso y se queda tan pancho. Eso tiene la misma credibilidad que quien defiende sus marcas porque son las que compran. Sencillamente lamentables, y se supone que es un jefazo de MSI que encima monta para ambas plataformas tanto en placas como en gráficas.

Si la gente "supuestamente seria" (aunque claro, parece un puesto regalado a dedo porque visto lo que es capaz de ofrecer ...) ofrece eso ... que sentido tiene discutir nada? además, que los GFlops lo marcan todo, que todo es tan sencillo como eso. Todo lo demás, culpa del software que se usa. No hay más.

No me voy a cansar de decirlo porque por más vueltas que le demos no vamos a reinventar la rueda en el hardware: LA POTENCIA SE MIDE EN GFLOPs. (o TFLOPs)

La potencia se mide en GFlops y la distancia en metros claro que si...
Pero parece que no has leído mi post, no digo que eso no sea así ;)

Para ti la opinión y experiencia de un ingeniero jefe de MSI tiene el mismo valor que la de mi madre que no sabe ni lo que es una tarjeta gráfica, pero a otros puede que les resulte interesante.
Y si no ves más allá del GFlop puede que otros si.

OutSider
06/04/2014, 16:21
La potencia se mide en GFlops y la distancia en metros claro que si...
Pero parece que no has leído mi post, no digo que eso no sea así ;)

Para ti la opinión y experiencia de un ingeniero jefe de MSI tiene el mismo valor que la de mi madre que no sabe ni lo que es una tarjeta gráfica, pero a otros puede que les resulte interesante.
Y si no ves más allá del GFlop puede que otros si.



¿Diseño e ingenieria? Las AMD actuales son más potentes sobre el papel asi que de ingeniería no deben andar mal. Sobre si son más feas o más bonitas ya no me meto porque compro una u otra sin mirar si son feas o bonitas.

¿Control de calidad? Quiero pruebas, no palabras, de que las pruebas de calidad a las que somete AMD a sus gráficas son menores que las de NVIDIA.

¿Estabilidad? Si, todo el mundo conoce que es pinchar una gráfica AMD en el PC y directamente cuelga.



Por favor, esa persona habla mucho y demuestra bien poco. Y sí, los GFlops/TFlops sólo hablan de potencia bruta, normal que en el hardware se tengan muy en cuenta.

darivo
06/04/2014, 17:39
Ains, no voy a comprarme una 780 ni una 290, porque no las necesito....ya tengo algo más potente que la una y que la otra.



Es que a veces le damos mil vueltas a lo que para mi es una chorrada. Ocurre como con las 770 vs 280x que tienen practicamente el mismo rendimiento y le damos mil vueltas a si una da un 5% mas de frames en tal o aquel juego. A mi eso me la trae floja la verdad.
Con la 780 vs 290 ocurre algo parecido aunque aquí creo que la diferencia es mayor a favor de la 290. A mi que una de 70fps y la otra 62fps la verdad no me parece decisivo antes me fijo en otras cosas.

Por ejemplo en declaraciones como esta de Mr. Lu uno de los jefes de MSI:

Noticias3D: Una pregunta muy sencilla, ¿AMD o NVIDIA?
Mr. Lu: Como preferencia personal, opino que NVIDIA es superior en conjunto (diseño de ingenieria, control de calidad, estabilidad).

http://www.noticias3d.com/noticia.asp?idnoticia=60536

Algo que muchos foreros de por aquí llevan tiempo diciendo por cierto.

A mí es que me parece ultra-acojonante que se estandarice la opinión de un forero, que repite por activa y por pasiva que ni tiene ni se va a comprar las 2 tarjetas de las que más pontifica en cada una de sus intervenciones (que habla con datos de terceros, de webs y todo lo demás que queráis llamarlo);
Y sin embargo se tache la opinión de uno de los jefes de gran marca de ensamblaje de componentes, como poco fundada o argumentada.

OutSider
06/04/2014, 17:45
A mí es que me parece ultra-acojonante que se estandarice la opinión de un forero, que repite por activa y por pasiva que ni tiene ni se va a comprar las 2 tarjetas de las que más pontifica en cada una de sus intervenciones (que habla con datos de terceros, de webs y todo lo demás que queráis llamarlo);
Y sin embargo se tache la opinión de uno de los jefes de gran marca de ensamblaje de componentes, como poco fundada o argumentada.



Yo, personalmente, no tengo nada contra él pero ha hecho unos comentarios bastante serios y demostrado bien poco sobre lo que decía. Yo no digo que no tenga razón, sólo pido que demuestre lo que dice. Menos lo de la ingeniería porque ahí poco puede demostrar porque las matemáticas ya han hablado.

Hace acusaciones serias que debe demostrar. Decir que una compañía de hardware es mediocre en sus pruebas de calidad sin demostrar absolutamente nada es mucho decir y una acusación muy seria.

Y ya lo de la estabilidad ...


PD: y su puesto no significa nada, le ha podido caer del cielo o de enchufe total y visto lo que dice sin demostrar nada casi me jugaría el cuello a que así ha sido.

Contact
06/04/2014, 19:47
Yo, personalmente, no tengo nada contra él pero ha hecho unos comentarios bastante serios y demostrado bien poco sobre lo que decía. Yo no digo que no tenga razón, sólo pido que demuestre lo que dice. Menos lo de la ingeniería porque ahí poco puede demostrar porque las matemáticas ya han hablado.

Hace acusaciones serias que debe demostrar. Decir que una compañía de hardware es mediocre en sus pruebas de calidad sin demostrar absolutamente nada es mucho decir y una acusación muy seria.

Y ya lo de la estabilidad ...


PD: y su puesto no significa nada, le ha podido caer del cielo o de enchufe total y visto lo que dice sin demostrar nada casi me jugaría el cuello a que así ha sido.

No hace falta trabajar ahi para saber si un ensamblador hace una mierda de prueba de calidad, sin ir mas lejos las 7950/70 de saphire, las que se ponian las VRM a 130º y se quemaban, crees que eso tuvo algun tipo de control de calidad? por que yo NO.

OutSider
06/04/2014, 19:52
No hace falta trabajar ahi para saber si un ensamblador hace una mierda de prueba de calidad, sin ir mas lejos las 7950/70 de saphire, las que se ponian las VRM a 130º y se quemaban, crees que eso tuvo algun tipo de control de calidad? por que yo NO.



Absolutamente de acuerdo pero quien incumplió ahí las pruebas de calidad? Sapphire, no AMD. De hecho seguro que AMD les dió un buen tirón de orejas por lo que hicieron. O por ejemplo la que montó sapphire con las hd7870 de primera hornada, todas rotas, pero eso no significó que el chip en sí 7870 estuviese mal sino que la implementación de hardware y pcb que hizo sapphire era malísimo como para que la gráfica petara. De ahí que las HD7870 de otras marcas fueran sin problemas, entre ellas, las de MSI.

Eso no es culpa de AMD sino de sapphire. Al cesar lo que es del cesar.

darivo
06/04/2014, 21:46
coño, pero si en la mayoría de los hilos recomendáis la 290 de MSI, y ahora decís que no tiene ni idea lo que dice el jefe de la compañía, que si enchufes.....

Yo creo que en una pregunta tan política podría haber dicho algo que no le metiera 'en líos' (aunque me imagino que le preocupa entre poco y nada) y sin embargo ha dicho lo que tantos usuarios vienen comentando de lejos, en la dualidad Nvidia-AMD

tartaloo
06/04/2014, 22:05
PD: y su puesto no significa nada, le ha podido caer del cielo o de enchufe total y visto lo que dice sin demostrar nada casi me jugaría el cuello a que así ha sido.


Noticias3D: En el momento de la fundación de MSI, ¿Cuál fue el objetivo inicial para destacar entre el resto de los fabricantes? y ¿Cuál fue su función para ayudar a MSI a conseguir estos objetivos?
Mr. Lu: Cuando fundamos la empresa, eramos 5 ex-ingenieros de Sony que al cerrar la división de terminales para mainframe (en esos momentos no se llamaban PCs), nos encontramos con la necesidad de trabajar, y decidimos crear nuestra propia empresa. Como es normal al principo todos hacíamos varias funciones, al no disponer de capital para invertir en contratar a más gente, yo hacía de ingeniero, jefe de compras y marketing de productos. Trabajábamos 16 horas al días los primeros 18 meses para levantar la empresa.

Noticias3D: A lo largo de los años, muchas empresas de componentes han cerrado y actualmente se mantienen abiertas tan solo unas pocas. ¿Cuál ha sido la clave para conseguir llegar hasta este momento manteniendo el éxito?
Mr. Lu: 28 años atrás, cuando nosotros empezamos, había más de 200 empresas que fabricaban componentes y ahora sólo hemos sobrevivido 5-6. La respuesta es complicada, una parte seguro que es suerte, y por otra saber tomarse las épocas malas no como un problema, sino un reto, sabiendo reaccionar. Nosotros después de tener éxito siempre invertimos gran parte del dinero en el futuro, y nos equivocamos pasando de 3 lineas de producción a 10. En dos años tuvimos un momento difícil, pero supimos reconocer los errores y rectificar. También ponemos mucho énfasis en el diseño de ingeniería, dado que nosotros lo éramos, y tenemos un gran número de personas que se dedican a ello, consiguiendo excelentes productos.

Pues va a ser que no has acertado ni una.
y eso está en la entrevista que supongo has leído, no me lo invento.

OutSider
06/04/2014, 22:14
Noticias3D: En el momento de la fundación de MSI, ¿Cuál fue el objetivo inicial para destacar entre el resto de los fabricantes? y ¿Cuál fue su función para ayudar a MSI a conseguir estos objetivos?
Mr. Lu: Cuando fundamos la empresa, eramos 5 ex-ingenieros de Sony que al cerrar la división de terminales para mainframe (en esos momentos no se llamaban PCs), nos encontramos con la necesidad de trabajar, y decidimos crear nuestra propia empresa. Como es normal al principo todos hacíamos varias funciones, al no disponer de capital para invertir en contratar a más gente, yo hacía de ingeniero, jefe de compras y marketing de productos. Trabajábamos 16 horas al días los primeros 18 meses para levantar la empresa.

Noticias3D: A lo largo de los años, muchas empresas de componentes han cerrado y actualmente se mantienen abiertas tan solo unas pocas. ¿Cuál ha sido la clave para conseguir llegar hasta este momento manteniendo el éxito?
Mr. Lu: 28 años atrás, cuando nosotros empezamos, había más de 200 empresas que fabricaban componentes y ahora sólo hemos sobrevivido 5-6. La respuesta es complicada, una parte seguro que es suerte, y por otra saber tomarse las épocas malas no como un problema, sino un reto, sabiendo reaccionar. Nosotros después de tener éxito siempre invertimos gran parte del dinero en el futuro, y nos equivocamos pasando de 3 lineas de producción a 10. En dos años tuvimos un momento difícil, pero supimos reconocer los errores y rectificar. También ponemos mucho énfasis en el diseño de ingeniería, dado que nosotros lo éramos, y tenemos un gran número de personas que se dedican a ello, consiguiendo excelentes productos.



Que hayas trabajado duro no significa que entiendas el puesto que representas, eh? Que te recuerdo que MSI españa ni mucho menos toma las decisiones importantes ni pone a los ingenieros que implementan el hardware y toma las decisiones. Qué no le han regalado el puesto? Bien, que no por eso significa que sepa de lo que habla? También. La verdad es que me gustaría ver que opinan los jefes de verdad de MSI sobre que haya dado explicaciones como "sus métodos de calidad son mejores en nvidia que amd" sobre uno de los partners con los que trabajan.

Tu crees que le iban a reir la gracia de la que no demuestra nada? Los jefes de MSI no van a ver nunca de buen agrado que un trabajador suyo hable mal sobre las compañias con las que trabajan y les dan trabajo (y por lo tanto dinero).Hablar de MSI españa es como si me hablas de google españa, donde ni deciden nada ni implican nada importante dentro de google, sólo representan sus intereses en España y lo que ha hecho esta persona es como si el de google alaba a telefónica y raja sobre jazztel para entrar a google.Pero vale aceptamos que la palabra del jefe de MSI españa va a misa. Luego le preguntaremos entonces por que siguen montando tarjetas con encapsulados AMD y hasta le sacan modelos lightning de altas prestaciones. Son tan tan malas que ahí siguen montándolas y hasta en modelos de alto-standing. Muy comprensible todo.

En fin...


PD: no, no te voy a mentir, no me la he leído porque me interesa entre 0 y nada lo que tenga que decir el jefe de MSI España. En todo caso me interesaría un comunicado oficial de MSI, no de MSI España.

PD2: si todo consiste en decir que AMD apesta por decir se dice, eh? AMD es una basura, ale, ya está dicho. Pero claro como yo no soy el presidente de MSI españa quizás me toméis menos en serio. Quizás me toméis menos en serio que quien raja de ellas pero se pone a venderlas como churros.

PD3: ya sabéis, no compréis MSI pues está dispuesto a montar integrados con encapsulados de segunda y hasta venderlos como lightnings inclusive.

PD4: en serio estamos discutiendo esto? Me resulta sencillamente increible.

al20
06/04/2014, 22:48
la virgen, he estado un par de dias montando el nuevo pc y me encuentro con 11 páginas jaja, no he leido nada pero deduzco que he vuelto a abrir la caja de pandora con el eterno debate, espero sacar algo en claro que aun me falta por comprar la gráfica.

Gracias a todos por participar tan activamente :D

Necrom
06/04/2014, 23:25
Simplemente ha dicho que desde su punto de vista (el de un ensamblador) prefiere Nvidia a AMD, no ha dicho que AMD sea una mierda ni nada por el estilo.

Los micros de Nvidia suelen consumir menos y ser algo más frescos, y quien sabe, pues igual les llegan menos unidades defectuosas o con mejor estabilidad (el sobre coste de Nvidia tiene que valer para algo), pues bueno, si esto es así es normal que prefiera trabajar con Nvidia, tampoco es para rasgarse las vestiduras. Pero ¿Esto nos afecta en algo? ¿Quiere decir que las gráficas Nvidia son superiores a las AMD? Pues no, una vez que MSI hace su trabajo ensamblando las gráficas (que por cierto lo hacen muy bien) estos inconvenientes son subsanados, el producto final que lanzan al mercado tiene la misma calidad en AMD que en Nvidia.

Ningún directivo es tan tonto cómo para echarse piedras a su propio tejado...

OutSider
06/04/2014, 23:29
Simplemente ha dicho que desde su punto de vista (el de un ensamblador) prefiere Nvidia a AMD, no ha dicho que AMD sea una mierda ni nada por el estilo.

Los micros de Nvidia suelen consumir menos y ser algo más frescos, y quien sabe, pues igual les llegan menos unidades defectuosas o con mejor estabilidad (el sobre coste de Nvidia tiene que valer para algo), pues bueno, si esto es así es normal que prefiera trabajar con Nvidia, tampoco es para rasgarse las vestiduras. Pero ¿Esto nos afecta en algo? ¿Quiere decir que las gráficas Nvidia son superiores a las AMD? Pues no, una vez que MSI hace su trabajo ensamblando las gráficas (que por cierto lo hacen muy bien) estos inconvenientes son subsanados, el producto final que lanzan al mercado tiene la misma calidad en AMD que en Nvidia.

Ningún directivo es tan tonto cómo para echarse piedras a su propio tejado...



Ahí ya presupones y presuponiendo podemos llegar a cualquier lado. Si nos quedamos exactamente en lo que ha dicho queda claro que asegura que las nvidia llevan procesos de calidad mejores y lo que es más ... Que son más estables.

No ha dicho poca cosa.



Un saludo!

tartaloo
06/04/2014, 23:34
Outsider no se si sigues sin leértelo o si no entiendes nada de lo que has leído.
Mr. Lu no es ningún directivo de Españistan, es uno de los 5 fundadores de MSI y si lees un poco lo que dice veras que tiene una larga trayectoria en MSI y en este mundillo.
Y en ningún momento dice que AMD sea una basura ni nada parecido.

Mira es este tipo:
http://br.msi.com/pic/news/090831_3.jpg
Parece que tiene poco de directivo Español no????

Y su puesto en MSI es de fundador y de vicepresidente. Alguna idea tendrá sobre todo esto digo yo...

OutSider
06/04/2014, 23:40
Outsider no se si sigues sin leértelo o si no entiendes nada de lo que has leído.
Mr. Lu no es ningún directivo de Españistan, es uno de los 5 fundadores de MSI y si lees un poco lo que dice veras que tiene una larga trayectoria en MSI y en este mundillo.
Y en ningún momento dice que AMD sea una basura ni nada parecido.



Ufff pues si es uno de los fundadores y jefazo de MSI en general ... Telita con la perlaza que ha soltado. Lo dicho, como no puedo saber lo que él sabe pero me demuestra estar dispuesto a montar encapsulados de segunda con pruebas de calidad mediocres y menos estables que otras marcas directamente dejo de comprar MSI.

Y sí, ya se que no le ha llamado basura, eso lo he dicho yo ejemplificando lo que dice. Y ahora revisaré lo que otros ensambladores tienen que decir sobre AMD y si dicen lo mismo no sólo dejaré de comprar MSI sino AMD. Eso sí, en el caso de no encontrar nada similar ... Para mi MSI ha muerto pero seguire contando con AMD como opción.

Un saludo!

Necrom
06/04/2014, 23:41
Ahí ya presupones y presuponiendo podemos llegar a cualquier lado. Si nos quedamos exactamente en lo que ha dicho queda claro que asegura que las nvidia llevan procesos de calidad mejores y lo que es más ... Que son más estables.

No ha dicho poca cosa.



Un saludo!

Yo lo interpreto así, ya te digo que ningún directivo va a echar piedras sobre su propio tejado, menos aún alguien que ha levantado personalmente el tejado XD. Evidentemente este tipo de declaraciones sobran, sobretodo en un sector cómo este tan "adulto" y propenso a las "fanboyadas".

OutSider
06/04/2014, 23:43
Yo lo interpreto así, ya te digo que ningún directivo va a echar piedras sobre su propio tejado, menos aún alguien que ha levantado personalmente el tejado XD. Evidentemente este tipo de declaraciones sobran, sobretodo en un sector cómo este tan "adulto" y propenso a las "fanboyadas".




Absolutamente de acuerdo.

DCO
07/04/2014, 00:18
Es su opinion personal con la que puedes estar de acuerdo o no, por otro lado no deja de ser una generalidad pues no se refiere a ninguna tarjeta en concreto ni ninguna gama ni nada, solo es pasto para las ovejas que suelen ir en rebaños, ademas muchos problemas vienen de los propios ensambladores, menuda castaña sacaron estos de MSI con la R9 280x que se sobrecalentaba y no dejaba de ser una nueva version de la 7970ghz que llevaba mas de un año en el mercado.

OutSider
07/04/2014, 00:20
Es su opinion personal con la que puedes estar de acuerdo o no, por otro lado no deja de ser una generalidad pues no se refiere a ninguna tarjeta en concreto ni ninguna gama ni nada, solo es pasto para las ovejas que suelen ir en rebaños, ademas muchos problemas vienen de los propios ensambladores, menuda castaña sacaron estos de MSI con la R9 280x que se sobrecalentaba y no dejaba de ser una nueva version de la 7970ghz que llevaba mas de un año en el mercado.



Sí, pero es una opinión de lo que comúnmente se llama peso pesado. Ni más ni menos que el maximo responsable de un esamblador reconociendo que monta encapsulados de productos de segunda. Yo ya no confío en esa marca (MSI) y mira que la he comprado, montado y recomendado a clientes y amigos.

Tela ...

al20
07/04/2014, 00:24
ya me he leido todo, y debates aparte, que ya sabia que era imposible poner a nadie de acuerdo, buscaba un consejo para mi perfil concreto, como dije yo tenia una geforce 8800 GTS ¿que quiere decir? Pues que esta gpu tiene 7 años recien cumplidos ¿que quiero decir? pues que busco algo ya no digo que me aguante 7 años porque la 8800 evidentemente no me daba para jugar bien a los ultimos juegos, pero si que aguante decentemente lo máximo posible.
Por eso dudo entre gtx 780 y r9 290x (780 ti se me va de las manos), ya que puestos a hacer un gran desembolso quisiera lo que más futuro tenga ya que no sé cuando podré hacer otro gran desembolso como el de ahora, sea la marca que sea a pesar de internamente preferir Nvidia, si me dijesen que en 2 años podia comprar otra tarjeta creo que no lo dudaria, me compraba la 780 con los ojos cerrados por temas de temperaturas y consumo y porque creo que confio más en Nvidia por decirlo de alguna manera.
Pero como una de las premisas es lograr el mayor rendimiento no solo ahora, que creo que es irrelevante ya que ambas dan para jugar a cualquier cosa de manera perfecta a dia de hoy entiendo yo, sino con vista a 2-3 años...si de verdad la 290x es claramente más potente que la 780 pues me decantaria por ella...

Ahí está mi dilema y por eso buscaba consejo, como dije en mi primer post, he leido muchos hilos enteros antes de abrir este tema y esto que planteo no me ha quedado claro...

javict
07/04/2014, 00:31
Tu imaginate que hubiera creado un hilo en un foro de futbol con este enunciado..."el eterno dilema, Real Madrid o Barcelona en 1ª division?

Pues esto es lo mismo xD...
Mi opinion, si has estado tantos años con la 8800....compra una GTX780 ....se te van a saltar las lagrimas de la emocion :rausch:

Saludos

DCO
07/04/2014, 00:32
Yo me lo plantearia antes una R9 290 que una R9 290x, precio rendimiento es superior. Lo mismo entre la 780 y la 780ti.
La realidad es que las que mas van a marcar el panorama de los proximos años son las consolas y cualquiera de todas esas tarjetas por no hablar de las gtx 770, gtx 760, r9 280, R9 270x van a ser suficientes para jugar perfectamente a tu resolucion los proximos 2-3 años, asi que cualquiera te vale.

OutSider
07/04/2014, 00:35
Si te gusta más nvidia y como bien te han dicho ... Todas te van a valer ... Compra la 780.

DCO
07/04/2014, 00:40
Pero que sepas que la 290x y la 290 son mas potentes, jaja.

leftyman
07/04/2014, 00:45
Pero que sepas que la 290x y la 290 son mas potentes, jaja.

Shhhhhhht!!!!!!! esa información debe permanecer oculta!!!!!!!, las reviews que lo demuestran deben ser silenciadas!!!!!!! :brakelam:

OutSider
07/04/2014, 00:47
Pero que sepas que la 290x y la 290 son mas potentes, jaja.


Otra verdad.

Racano
07/04/2014, 01:16
Si lo que quieres es que dure... yo creo que lo mejor es comprarte una gama media, guardarte 200 euros que te sobraran y en 3 años gastartelos en la gama media del futuro. tendras 6 años jugando bien en el 99% de los juegos, estaras en todo momento protegido por la garantia y tienes la opcion de rectificar lo que ahora son vaticinios con poco fundamento (que si se van a necesitar 2 3 4 gb de memoria, que si mantle, steamos, maxwell, next gen, g sync, 4k, etc etc). ahora tienes 760 pòr poco mas de 200 € y 270x por algo menos.

javict
07/04/2014, 01:18
Pero que sepas que la 290x y la 290 son mas potentes, jaja.

"La potencia sin control no sirve de nada" -Pirelli-

Bromas a parte xD, lo que tiene que hacer es leer los diferentes hilos de cada grafica (en este foro y en otros) y juzgar por si mismo...a unos nos gusta el pescado y a otros la carne.

agur
07/04/2014, 01:27
"La potencia sin control no sirve de nada" -Pirelli-

Bromas a parte xD, lo que tiene que hacer es leer los diferentes hilos de cada grafica (en este foro y en otros) y juzgar por si mismo...a unos nos gusta el pescado y a otros la carne.

y a algunos las 2 cosas :D , carne + pescado physx.

javict
07/04/2014, 02:07
y a algunos las 2 cosas :D , carne + pescado physx.

Cuanto vicio Dios mio!! ;)

DCO
07/04/2014, 10:56
"La potencia sin control no sirve de nada" -Pirelli-
Siempre puedes jugar con el preservativo puesto.

Cobra
07/04/2014, 11:30
Sí, pero es una opinión de lo que comúnmente se llama peso pesado. Ni más ni menos que el maximo responsable de un esamblador reconociendo que monta encapsulados de productos de segunda. Yo ya no confío en esa marca (MSI) y mira que la he comprado, montado y recomendado a clientes y amigos.

Tela ...
Resumiendo, que hasta hoy confiabas en MSI, pero como uno de los jefazos dice que personalmente prefiere NVIDIA, ahora no quieres una MSI ni regalada, aunque el producto de hoy sea exactamente igual al de ayer...

¿Lo dices en serio o estás trolleando?. Si el producto es igual de bueno, ¿qué más da lo que prefiera el jefazo?.

CHICHO1982
07/04/2014, 11:33
Simplemente ha dicho que desde su punto de vista (el de un ensamblador) prefiere Nvidia a AMD, no ha dicho que AMD sea una mierda ni nada por el estilo.

Los micros de Nvidia suelen consumir menos y ser algo más frescos, y quien sabe, pues igual les llegan menos unidades defectuosas o con mejor estabilidad (el sobre coste de Nvidia tiene que valer para algo), pues bueno, si esto es así es normal que prefiera trabajar con Nvidia, tampoco es para rasgarse las vestiduras. Pero ¿Esto nos afecta en algo? ¿Quiere decir que las gráficas Nvidia son superiores a las AMD? Pues no, una vez que MSI hace su trabajo ensamblando las gráficas (que por cierto lo hacen muy bien) estos inconvenientes son subsanados, el producto final que lanzan al mercado tiene la misma calidad en AMD que en Nvidia.

Ningún directivo es tan tonto cómo para echarse piedras a su propio tejado...

Yo también lo veo así, no veo el problema.

Enviado desde mi LT25i mediante Tapatalk

OutSider
07/04/2014, 11:39
Resumiendo, que hasta hoy confiabas en MSI, pero como uno de los jefazos dice que personalmente prefiere NVIDIA, ahora no quieres una MSI ni regalada, aunque el producto de hoy sea exactamente igual al de ayer...

¿Lo dices en serio o estás trolleando?. Si el producto es igual de bueno, ¿qué más da lo que prefiera el jefazo?.



Entiendo perfectamente lo que me dices pero también me entiendo perfectamente a mi, me explico:


Yo, cuando compro una marca y más afectando a amigos y clientes pues me dedico al sector, pongo mi confianza en ella. Si me llega el jefe jefazo de esa marca y me dice unas palabras completamente incomprensibles, incongruentes y a la vez me demuestra absolutamente 0 sobre lo que dice directamente me demuestra tener un caracter partidista y no me interesa porque yo no me guío por marcas sino por rendimiento/precio/prestaciones.

Que el producto puede ser bueno? no me cabe la menor duda pero ya me ha demostrado esa marca que no cuida los detalles sobre a quien tiene en plantilla y sobre las cosas que dicen. Decir que AMD tiene un proceso de calidad sobre sus productos mediocre es mucho decir y encima lo remata con algo como la fama que tenía APPLE (falsa, por cierto) de que no se colgaban y eran mucho más estables.

Lo siento, yo de una marca como MSI espero seriedad y lo que ha demostrado ese CEO o jefe (o jefazo) es no tener ni el más mínimo cuidado con las empresas que trabaja y que a su vez representa en sus productos.


Yo puedo comprender que otros no lo entiendan pero yo me entiendo perfectamente, ni mucho menos trollear. Si tu confias en una marca y le ves hacer o decir barbaridades ... vas a seguir apoyándola con tu dinero? yo no. Me gusta el trato serio y ese hombre con sus comentarios me ha demostrado tener la misma seriedad que pueda tener yo de fiesta con la familia o los amigos.

Que a ti te parece trollear? pues a mi lo que me parece trollear es lo que ha hecho él: hablar por hablar y demostrar 0 demostrando un caracter partidista que me gusta 0. Y como me gusta 0 pues dejaré de usarlo y montarlo para clientes y/o amigos.


Un saludo.



PD: Cuando eres jefe de algo se espera de ti seriedad y rigurosidad y más en empresas grandes e importantes. Él no ha demostrado ni seriedad en lo que dice (al no demostrar nada) ni rigurosidad porque directamente lo que dice es falso. AMD tiene un buen proceso de calidad (nunca me ha fallado nada de ellos en muchos años, ni de intel) y ni mucho menos tiene problemas de estabilidad frente a nvidia en gráficas porque ninguna de las dos me lo ha hecho jamás.

Si tienes un puesto que te da pasta gansa ... más te vale saberlo representar con seriedad y no con la perlaza que ha soltado y quedado tan pancho. Y es fácil, si no te considero una persona serie y me demuestras desconocer el propio sector en el que te mueves ... no me interesan productos de la marca que te mantiene en plantilla.

darivo
07/04/2014, 11:51
PD: Cuando eres jefe de algo se espera de ti seriedad y rigurosidad y más en empresas grandes e importantes. Él no ha demostrado ni seriedad en lo que dice (al no demostrar nada) ni rigurosidad porque directamente lo que dice es falso. AMD tiene un buen proceso de calidad (nunca me ha fallado nada de ellos en muchos años, ni de intel) y ni mucho menos tiene problemas de estabilidad frente a nvidia en gráficas porque ninguna de las dos me lo ha hecho jamás.


Pero por qué piensas que tus opiniones tienen más credibilidad que el jefe de MSI?

OutSider
07/04/2014, 11:57
Pero por qué piensas que tus opiniones tienen más credibilidad que el jefe de MSI?


No, yo no me doy más credibilidad que a él. El problema? que el me vende productos y yo a él no. Como no estoy en absoluto de acuerdo con lo que dice y me ha demostrado técnicamente 0 sobre lo dicho ... directamente su seriedad, para mi, tiende directamente a 0.

Está muy bien que lo diga, y más si es cierto, pero que lo demuestre. Entonces yo ahí no tendré nada que decir. El resto? pues tanto lo que él diga como lo que yo pueda decir sin demostrar nada ... vale 0.

Un saludo.


PD: Además no soy yo quien pone a parir a un partner con el que trabajo (AMD) y luego lo ensamblo y lo intento vender como rosquillas hasta en perfiles de muy alta gama (lightnings). Sus propias palabras y lo que luego hace (vender placas y gráfiacas AMD) es incongruente.

Si tanta diferencia hay con nvidia en ingenieria, procesos de calidad y estabilidad... que hacen vendiendo AMD? deberían de vender únicamente nvidia. O es que pretende engañar a sus usuarios y vender productos de segunda? y encima las intenta vender a precio de oro porque precisamente MSi en gráficas no es el más barato que uno se pueda topar.

Racano
07/04/2014, 12:43
que berrinche te has pillado.

Chupaita
07/04/2014, 12:45
Entonces por regla de 3, tampoco vas a usar el MSI Afterburner... no? :lol2:

OutSider
07/04/2014, 13:08
que berrinche te has pillado.


No te lo negaré, pero mi berrinche tiene sus razones. De un jefazo de MSI se espera bastante más seriedad que esas palabras porque en el mundo del hardware hay mucho fanboy que recomienda marcas, modelos, etc ... defendiendo sus marcas a ultranza, sin atender a datos técnicos (que es en lo que se basa el hardware en su totalidad) y que directamente dicen cosas como las que ha dicho esa persona sin demostrar nada.

Bastante tenemos ya con intentar tener charlas en las que se pueda discutir sin que parezca que nos vaya la vida en ello como para que los propios jefes que se encargan de esamblarlas y vendernoslas ... se comporten como ellos y sin aportar ningún dato que represente lo que está diciendo. De una persona como esa esperaba bastante más rigurosidad y no las mismas palabras que puede decir cualquier fanboy en cualquier foro/medio sobre su marca favorita.

Ojo! y no se lo digo por AMD porque llega a decir lo mismo de Nvidia o Intel y le digo exactamente lo mismo. Me parece muy poco serio por su parte y sobretodo parece tener ganas de retroalimentar a los fanboys o directamente comportarse como ellos sin dar ninguna explicación.

Un saludo.




Entonces por regla de 3, tampoco vas a usar el MSI Afterburner... no?


Pues es un buen apunte porque lo uso muchísimo y desde hace muchos años, quizás la misma cantidad de años que llevaba comprando productos MSi. No descarto pasarme al Trixx o derivados.

Un saludo.

leftyman
07/04/2014, 13:28
Bueno, entoces vamos resumiendo:

-Mirar reviews y benchmarks de gráficas está mal, los foreros debemos comprar todos los ensambladores, de todos los modelos de los dos fabricantes si queremos hablar de ellas (Unas 150 gráficas al año, más o menos). ¿Es esto extensible a todo el hardware?: para preferir un SSD Samsung EVO o un Crucial m500 ¿tambien debo comprarme los dos?¿todos los que hagan reviews comparándolos, están perdiendo su tiempo y el nuestro?...voy a necesitar unos cuantos trabajos más o cambiar de hobby.

-Que el Sr. LU (que merece todos mis respetos), haya sabido llevar a buen puerto la nave de MSI durante 25 años, le coloca por encima del resto de la humanidad y le exime de tener opiniones subjetivas. (Yo agradecería a los promotores de esta teoría, que si es posible vayan elaborando una lista de las personas que no necesitan demostrar nada que lo que digan y también un procedimiento claro de qué es lo que debemos pensar en caso de que dos de ellos se contradigan).

PD: Espero con los dedos cruzados que John Carmack no acabe en la lista, me dará mucha pena tener que dejar de echarme unas risas con muchos de sus comentarios y vaticinios.

Racano
07/04/2014, 14:23
joer leftyman, para una vez que sale uno que puede hablar con fundamento u ofrecer un punto de vista que para el resto de los mortales no es accesible y lo acribillan porque no les gusta lo que dice.
digo yo que su opinion es muchisimo mas objetiva que el de la gran mayoria de usuarios y personas interesadas en el mundillo. Que no haya dicho en que se basa esa opinion de forma exhaustiva no signficia que no existan, y por lo mismo tampoco hay que darle muchas mas vueltas. Por ejemplo, hecho conocio que las AMD consumen mas y por tanto generan mas calor que hay que disipar, ahi ya tienes un problema que un ingeniero tiene que resolver. o puesde ser que los diseños de referencia de amd sean un poco mas chapucillas y les cueste mas diseñar una mejora o sea mas dificil su produccion en serie... etc... pero eso no significa que el usuario final le vendan un producto malo, mal diseñado o mal fabricado.... simplemente esta un escalon por debajo en calidad XD

leftyman
07/04/2014, 14:29
joer leftyman, para una vez que sale uno que puede hablar con fundamento u ofrecer un punto de vista que para el resto de los mortales no es accesible y lo acribillan porque no les gusta lo que dice.
digo yo que su opinion es muchisimo mas objetiva que el de la gran mayoria de usuarios y personas interesadas en el mundillo. Que no haya dicho en que se basa esa opinion de forma exhaustiva no signficia que no existan, y por lo mismo tampoco hay que darle muchas mas vueltas. Por ejemplo, hecho conocio que las AMD consumen mas y por tanto generan mas calor que hay que disipar, ahi ya tienes un problema que un ingeniero tiene que resolver. o que los diseños de referencia de amd sean un poco mas chapucillas y les cueste mas diseñar una mejora o sea mas dificil su produccion en serie... etc... pero eso no significa que el usuario final le vendan un producto malo, mal diseñado o mal fabricado.... simplemente esta un escalon por debajo en calidad XD

Pues que diga que las AMD consumen más, o que generan más calor o que devueven 10 veces más integrados a AMD que a Nvidia y no hay nada que decir al respecto de ninguna de esas cosas. Lo que expresó en la entrevista fue una opinión subjetiva (que TODOS las tenemos) sí o sí....yo creo que la expresión que utilizó: "preferencia personal", lo deja bastante claro.

Edito: yo ahí no coincido con Outsider, a mí no me parece mal que el Sr Lu exprese su "preferencia personal", pero debemos tomarlo como lo que es.

hit72
07/04/2014, 14:45
¿Tanto revuelo por una opinión personal?
"Noticias3D: Una pregunta muy sencilla, ¿AMD o NVIDIA?
Mr. Lu: Como preferencia personal, opino que NVIDIA es superior en conjunto (diseño de ingenieria, control de calidad, estabilidad)."

No veo demasiado problema en que de su opinión personal, ni necesidad de mayor argumento. Así como tampoco mayor valor que cualquier otra.

Entiendo que como directivo, y por no pensar que producen componentes de escasa calidad (amd) a sabiendas, el hecho de no ser un partner exclusivo nvidia deja claro que su opinión personal no es compartida por los demás directivos ni por el mercado.

leftyman
07/04/2014, 14:50
¿Tanto revuelo por una opinión personal?
"Noticias3D: Una pregunta muy sencilla, ¿AMD o NVIDIA?
Mr. Lu: Como preferencia personal, opino que NVIDIA es superior en conjunto (diseño de ingenieria, control de calidad, estabilidad)."

No veo demasiado problema en que de su opinión personal, ni necesidad de mayor argumento. Así como tampoco mayor valor que cualquier otra.

Entiendo que como directivo, y por no pensar que producen componentes de escasa calidad (amd) a sabiendas, el hecho de no ser un partner exclusivo nvidia deja claro que su opinión personal no es compartida por los demás directivos ni por el mercado.

Pues sí, muy bien explicado.

Necrom
07/04/2014, 16:02
Si tanta diferencia hay con nvidia en ingenieria, procesos de calidad y estabilidad... que hacen vendiendo AMD? deberían de vender únicamente nvidia. O es que pretende engañar a sus usuarios y vender productos de segunda? y encima las intenta vender a precio de oro porque precisamente MSi en gráficas no es el más barato que uno se pueda topar.

¿En que parte de la entrevista ha dicho que AMD sea de segunda? ¿O que haya una diferencia abismal entre Nvidia y AMD?
Ahí ya estás presuponiendo, y presuponiendo podemos llegar a cualquier lado ;-)

¿Messi o Cristiano? Esta pregunta se la hacen continuamente a muchos entrenadores, y muchos de ellos se mojan al responder. Evidentemente, cuando uno responde Messi, no está diciendo que Cristiano sea de 2ª o que esté a años luz de Messi... Y estamos hablando de un puesto de responsabilidad, nunca se sabe si ese entrenador terminará o no entrenando a alguno de estos jugadores.

Saludos.

darivo
07/04/2014, 18:43
Bueno, entoces vamos resumiendo:

-Mirar reviews y benchmarks de gráficas está mal, los foreros debemos comprar todos los ensambladores, de todos los modelos de los dos fabricantes si queremos hablar de ellas (Unas 150 gráficas al año, más o menos). ¿Es esto extensible a todo el hardware?: para preferir un SSD Samsung EVO o un Crucial m500 ¿tambien debo comprarme los dos?¿todos los que hagan reviews comparándolos, están perdiendo su tiempo y el nuestro?...voy a necesitar unos cuantos trabajos más o cambiar de hobby.

-Que el Sr. LU (que merece todos mis respetos), haya sabido llevar a buen puerto la nave de MSI durante 25 años, le coloca por encima del resto de la humanidad y le exime de tener opiniones subjetivas. (Yo agradecería a los promotores de esta teoría, que si es posible vayan elaborando una lista de las personas que no necesitan demostrar nada que lo que digan y también un procedimiento claro de qué es lo que debemos pensar en caso de que dos de ellos se contradigan).

PD: Espero con los dedos cruzados que John Carmack no acabe en la lista, me dará mucha pena tener que dejar de echarme unas risas con muchos de sus comentarios y vaticinios.

reconoces que hablas y recomiendas de oídas (cosa que no me parece mal) y usas esas fuentes de oídas para rebatir argumentos de foreros que han probado esos productos de primera mano (eso si que me parece una bestiada, pero el internet es lo que tiene)

leftyman
07/04/2014, 18:56
reconoces que hablas y recomiendas de oídas (cosa que no me parece mal) y usas esas fuentes de oídas para rebatir argumentos de foreros que han probado esos productos de primera mano (eso si que me parece una bestiada, pero el internet es lo que tiene)


Y además me fío cincuentamil veces más de techreport que tienen un FCAT, que de cualquier forero que no lo tenga (o sea, todos). Aún así en mil discusiones (sobre todo las 770 vs 280x, las GTX780 vs R9 290 y la famosa de la suavidad), he pedido a los foreros que discrepaban sus reviews propias, (aunque fueran medianamente rigurosas en la metodología) y el resultado es que nadie me proporcionó un dato concreto jamás...


Los medios para "benchear" con los que cuentan webs como anandtech, tomshardware o techreport son infinitamente superiores a los que tenemos los foreros, por mucho interés que le pongamos.

agur
07/04/2014, 19:15
Y además me fío cincuentamil veces más de techreport que tienen un FCAT, que de cualquier forero que no lo tenga (o sea, todos). Aún así en mil discusiones (sobre todo las 770 vs 280x, las GTX780 vs R9 290 y la famosa de la suavidad), he pedido a los foreros que discrepaban sus reviews propias, (aunque fueran medianamente rigurosas en la metodología) y el resultado es que nadie me proporcionó un dato concreto jamás...


Los medios para "benchear" con los que cuentan webs como anandtech, tomshardware o techreport son infinitamente superiores a los que tenemos los foreros, por mucho interés que le pongamos.

pues yo me fio más de un forero, te explico.

me fio más de los foreros cuando miden rendimientos, no consumos, aquí entra el apartado técnico de medición.
y me fio más del forero (por que presupongo que lo hacen como yo) por que se acerca más a "real life", o sea, las webs, suelen usar instalaciones limpias, sin procesos que normalmente se tienen en 2º plano como puede ser antivirus, steam, Skype, msi AB, OneDrive, teamviewer....

yo busco resultados de uso reales, no resultados de maquinas "esteriles" de sala de hospital, busco resultados de o/c 24/7 no de 2 minutos y vale.

y respecto a
Si tanta diferencia hay con nvidia en ingenieria, procesos de calidad y estabilidad... que hacen vendiendo AMD?

todavía no he visto arder amds "en serie", nvidias si.

leftyman
07/04/2014, 19:19
Todo eso me parece muy bien, pero sigo fíandome más de un profesional y sigo fíandome más de una instalación limpia, alguien que tiene un conflicto entre algo que acaba de instalar y algo que tiene en segundo plano desde a saber cuando....devuelve ese hardware diciendo que funciona como el culo y resulta que el problema estaba en la instalación...

Así que yo seguiré con mis reviews mientras las tenga y usaré los benchs de foreros como complemento en los casos en los que no se disponga de reviews profesionales (es lo que hago ahora).

Yo mismo hice un 8350 vs 2500K (con 3 soluciones gráficas distintas), con juegos con 7 años de antiguedad hasta cryis3. Este bench lo hice para ver si la optimización multinúcleo a lo largo del tiempo estaba beneficiando más a las CPU de precio medio de AMD o de Intel. Hice el bench, porque no encontré esos datos por ningún lado, pero tened claro que si lo hubiera hecho un profesional yo no me hubiera tomado la molestia (me dan sopas con onda bencheando seguro).

OutSider
07/04/2014, 19:20
todavía no he visto arder amds "en serie", nvidias si.


Como detalle curioso, que me ha picado la curiosidad ... cómo pasó eso? @_@

Necrom
07/04/2014, 19:26
Como detalle curioso, que me ha picado la curiosidad ... cómo pasó eso? @_@

Pon en Google "drivers quema gráficas nvidia" y te enteras XDDDD

agur
07/04/2014, 19:30
Como detalle curioso, que me ha picado la curiosidad ... cómo pasó eso? @_@

tema de drivers que no hacen bien su curro a nivel protección...

https://www.youtube.com/watch?v=sRo-1VFMcbc

OutSider
07/04/2014, 19:50
Uffff el tema del drivers. Dió mucho revuelo, yo en ese momento me encontraba con un par de GTX460 bastante subiditas (900//1200) y tuve suerte porque no me hizo extraños. Recuerdo que encima pasó cerca del verano o cuando hacía algo de calor y estabamos todos extrujando para el Battlefield 3 lo máximo posible.

La verdad es que es un putadón para el usuario pero también es cierto que le pudo pasar a cualquiera y que no ocurrió a todos los usuarios, tampoco es para cerrarse en banda a Nvidia (no digo que lo hayáis hecho, sino que tampoco es para quemarles en la hoguera por 1 vez, o sí para algunos, claro). Yo por ejemplo no tuve problemas y vaya que si puse los drivers, la GTX460 ganaba bastante por cada driver que salía para el BF3. Viejos recuerdos :)

De hecho recuerdo el plantearme lo siguiente: "Hmmmm ... por ahí dicen que quema gráficas pero que van mejor en BF3 ..." y creo que tarde medio segundo en bajarlos xD. Jugar o morir :P

Chupaita
07/04/2014, 20:06
Uffff el tema del drivers. Dió mucho revuelo, yo en ese momento me encontraba con un par de GTX460 bastante subiditas (900//1200) y tuve suerte porque no me hizo extraños. Recuerdo que encima pasó cerca del verano o cuando hacía algo de calor y estabamos todos extrujando para el Battlefield 3 lo máximo posible.

La verdad es que es un putadón para el usuario pero también es cierto que le pudo pasar a cualquiera y que no ocurrió a todos los usuarios, tampoco es para cerrarse en banda a Nvidia (no digo que lo hayáis hecho, sino que tampoco es para quemarles en la hoguera por 1 vez, o sí para algunos, claro). Yo por ejemplo no tuve problemas y vaya que si puse los drivers, la GTX460 ganaba bastante por cada driver que salía para el BF3. Viejos recuerdos :)

De hecho recuerdo el plantearme lo siguiente: "Hmmmm ... por ahí dicen que quema gráficas pero que van mejor en BF3 ..." y creo que tarde medio segundo en bajarlos xD. Jugar o morir :P

El problema que hubo con las GTX590 no fue realmente por los drivers, fue, porque el codigo de protección para las 590, de que en caso de sobrevoltaje ( a la hora de hacer OC ), salte el driver diciendo que el controlador a fallado o apagando el ordenador.... Directamente no lo pusieron. Consecuencia? Pues eso.... GTX 590 recién estrenadas de uno o dos días, muertas ( literalmente ) de pisapapeles.... ;-)

Si ir más lejos, a Elp3 le pasó.....

Seguramente si lo buscas con el buscador del foro sale.

Saludos.

Contact
07/04/2014, 20:07
Tanta basura que tirais de los drivers de AMD y aun no han sacado ninguno que queme las graficas, NVIDIA si.

OutSider
07/04/2014, 20:13
El problema que hubo con las GTX590 no fue realmente por los drivers, fue, porque el codigo de protección para las 590, de que en caso de sobrevoltaje ( a la hora de hacer OC ), salte el driver diciendo que el controlador a fallado o apagando el ordenador.... Directamente no lo pusieron. Consecuencia? Pues eso.... GTX 590 recién estrenadas de uno o dos días, muertas ( literalmente ) de pisapapeles.... ;-)

Si ir más lejos, a Elp3 le pasó.....

Seguramente si lo buscas con el buscador del foro sale.

Saludos.


Cierto, leí también sobre ello. Una gran putada esa, gráfica nueva, bien cara en su momento y que te pase eso ... pero bueno, supongo que harian recambio ipsofacto. Aunque también recuerdo que sacaron unos drivers a toda leche que lo solucionaban pero las capaban mucho de OC. Me equivoco?

FERAL
07/04/2014, 20:26
pues yo me fio más de un forero, te explico.

me fio más de los foreros cuando miden rendimientos, no consumos, aquí entra el apartado técnico de medición.
y me fio más del forero (por que presupongo que lo hacen como yo) por que se acerca más a "real life", o sea, las webs, suelen usar instalaciones limpias, sin procesos que normalmente se tienen en 2º plano como puede ser antivirus, steam, Skype, msi AB, OneDrive, teamviewer....

yo busco resultados de uso reales, no resultados de maquinas "esteriles" de sala de hospital, busco resultados de o/c 24/7 no de 2 minutos y vale.

y respecto a

todavía no he visto arder amds "en serie", nvidias si.

También tenemos la cagada a gran escala de las gráficas de portátil defectuosas con los "famosos" chips 8400M y 8600M, chips que también petaban por exceso de calor. Aun hoy en día colea ese affaire.

Si será por sinvergonzonerias de los fabricantes...

leftyman
07/04/2014, 20:36
También tenemos la cagada a gran escala de las gráficas de portátil defectuosas con los "famosos" chips 8400M y 8600M, chips que también petaban por exceso de calor. Aun hoy en día colea ese affaire.

Si será por sinvergonzonerias de los fabricantes...

Yo tuve un Asus de 17 pulgadas con la 8600M al que le petó la gráfica con poco más de un año y siempre pensé que era culpa de Asus...

Enviado desde mi GT-I9100 mediante Tapatalk

Usuario30827
07/04/2014, 20:42
Y además me fío cincuentamil veces más de techreport que tienen un FCAT, que de cualquier forero que no lo tenga (o sea, todos). Aún así en mil discusiones (sobre todo las 770 vs 280x, las GTX780 vs R9 290 y la famosa de la suavidad), he pedido a los foreros que discrepaban sus reviews propias, (aunque fueran medianamente rigurosas en la metodología) y el resultado es que nadie me proporcionó un dato concreto jamás...


Los medios para "benchear" con los que cuentan webs como anandtech, tomshardware o techreport son infinitamente superiores a los que tenemos los foreros, por mucho interés que le pongamos.

Evidentemente que las webs especializadas tienen más medios, pero hay veces que lo que interesa es que uno quede satisfecho con el resultado. Puede haber mil variables por lo que no vaya igual que esas reviews. Plataforma distinta, drivers diferentes, niveles mal optimizados, etc....

En mi caso se me olvido comentar que en el farcry 3 me pasaba cuando iba por el mapa mundi con libre albedrio. Nada del inicio o en las misiones principales. Posiblemente tú y en las reviews no pasásteis el medidor de latencias en la misma zona. Concuerda con lo que dijo chicho1982. Dijo que había zonas de ese juego que iban mal y otras bien. Con los verdes, en las zonas "malas" iba bien. Para la próxima debería hacer vídeos, pero como es lógico, yo no esperaba mejora en el FC3, ni en los otros 3. Esperaba que fuera igual de mal. :laugh:

Un saludo.


Uffff el tema del drivers. Dió mucho revuelo, yo en ese momento me encontraba con un par de GTX460 bastante subiditas (900//1200) y tuve suerte porque no me hizo extraños. Recuerdo que encima pasó cerca del verano o cuando hacía algo de calor y estabamos todos extrujando para el Battlefield 3 lo máximo posible.

La verdad es que es un putadón para el usuario pero también es cierto que le pudo pasar a cualquiera y que no ocurrió a todos los usuarios, tampoco es para cerrarse en banda a Nvidia (no digo que lo hayáis hecho, sino que tampoco es para quemarles en la hoguera por 1 vez, o sí para algunos, claro). Yo por ejemplo no tuve problemas y vaya que si puse los drivers, la GTX460 ganaba bastante por cada driver que salía para el BF3. Viejos recuerdos :)

De hecho recuerdo el plantearme lo siguiente: "Hmmmm ... por ahí dicen que quema gráficas pero que van mejor en BF3 ..." y creo que tarde medio segundo en bajarlos xD. Jugar o morir :P

Bienvenido de nuevo, V for Vendetta. Saludos después de tanto tiempo. :bier:

josrob536
07/04/2014, 21:08
Evidentemente que las webs especializadas tienen más medios, pero hay veces que lo que interesa es que uno quede satisfecho con el resultado. Puede haber mil variables por lo que no vaya igual que esas reviews. Plataforma distinta, drivers diferentes, niveles mal optimizados, etc....

En mi caso se me olvido comentar que en el farcry 3 me pasaba cuando iba por el mapa mundi con libre albedrio. Nada del inicio o en las misiones principales. Posiblemente tú y en las reviews no pasásteis el medidor de latencias en la misma zona. Concuerda con lo que dijo chicho1982. Dijo que había zonas de ese juego que iban mal y otras bien. Con los verdes, en las zonas "malas" iba bien. Para la próxima debería hacer vídeos, pero como es lógico, yo no esperaba mejora en el FC3, ni en los otros 3. Esperaba que fuera igual de mal. :laugh:

Un saludo.



Bienvenido de nuevo, V for Vendetta. Saludos después de tanto tiempo. :bier:

no me acordaba del nombre , pero he pensado justo lo mismo que tù jajajaja...

Saludos..

Chupaita
07/04/2014, 22:07
Cierto, leí también sobre ello. Una gran putada esa, gráfica nueva, bien cara en su momento y que te pase eso ... pero bueno, supongo que harian recambio ipsofacto. Aunque también recuerdo que sacaron unos drivers a toda leche que lo solucionaban pero las capaban mucho de OC. Me equivoco?

No, no te has equivocado.... :lol2:

Edit:


Bienvenido de nuevo, V for Vendetta. Saludos después de tanto tiempo. :bier:


no me acordaba del nombre , pero he pensado justo lo mismo que tù jajajaja...

Saludos..

jojojojojo y os acordais después de vete a saber..... XDD

OutSider
08/04/2014, 08:54
Bienvenido de nuevo, V for Vendetta. Saludos después de tanto tiempo.



no me acordaba del nombre , pero he pensado justo lo mismo que tù jajajaja...

Saludos..



No, no te has equivocado....

Edit:





jojojojojo y os acordais después de vete a saber..... XDD



Me lo explicáis? porque si me estáis acusando de ser un ex-usuario problemático, insultón o troll de las cavernas a favor de alguna marca o tal me gustaría que lo recalcáseis abiertamente. Y lo de concretarlo por haber tenido un SLi de GTX460 a 900//1200 ya me deja sin palabras. Cuantos SLi de esos habrá habido.

Espero que me lo expliquéis y si no ... pues ya sé por donde váis y que tipo de personas sois.


Un saludo!


PD: Y lo peor es que investigas en el buscador y esa persona tenía una HD7850.

buenomjm
08/04/2014, 10:52
como para fiarte de los bench, segun los bench mi gtx 480 estaba perfecta, en cuanto te ponias a jugar petaba de lo lindo, ... anda que no tube que pelear para que me admitiesen el RMA por los jodidos bench de los cojones, menos mal que pccomponentes se porto perfecto y siguio mis instrucciones para reproducir el problema, jugando, y acepto finalmente el RMA ...

VAYA berrinche con Henry Lu, xd, simplemente a dado una opinion, y por cierto poco le van a decir sus jefes como tu dices cuando el es uno de los cargos maximos, se trata de un fundador y actualmente tiene el cargo de VicePresidente ...

Chupaita
08/04/2014, 11:22
Me lo explicáis? porque si me estáis acusando de ser un ex-usuario problemático, insultón o troll de las cavernas a favor de alguna marca o tal me gustaría que lo recalcáseis abiertamente. Y lo de concretarlo por haber tenido un SLi de GTX460 a 900//1200 ya me deja sin palabras. Cuantos SLi de esos habrá habido.

Espero que me lo expliquéis y si no ... pues ya sé por donde váis y que tipo de personas sois.


Un saludo!


PD: Y lo peor es que investigas en el buscador y esa persona tenía una HD7850.

Pues eso... Un ex-usuario problemático, insulton o troll y al decir eso, pues se vé que se pensaban que eras ( o eres ) ese ex-usuario.... ;-)

Saludos.

P.D: Lo eres de verdad? XDD

OutSider
08/04/2014, 11:33
Pues eso... Un ex-usuario problemático, insulton o troll y al decir eso, pues se vé que se pensaban que eras ( o eres ) ese ex-usuario.... ;-)

Saludos.

P.D: Lo eres de verdad? XDD



Creo que lo he dejado claro antes. No y no sé quien es, ni qué hizo ni que problemas os traéis con él y sinceramente ... visto lo visto me importa bastante poco.


Un saludo.

Chupaita
11/04/2014, 01:34
Cobra, perdóname el offtopic, pero viendo que OutSider, tiene la cuenta inhabilitada, es de suponer que era algún ex-usuario....

Joder Ismarub, das miedo.... :lol2:

CHICHO1982
11/04/2014, 07:48
Pero al final era V de Vendetta??

Enviado desde mi LT25i mediante Tapatalk

Cobra
11/04/2014, 11:01
Pues va a ser que sí ;)

CHICHO1982
11/04/2014, 11:02
Como controla Ismarub, jajajaja

Enviado desde mi LT25i mediante Tapatalk

Ryuji
11/04/2014, 15:08
Perdón por el Offtopic: Que era un ex usuario problemático? La verdad que yo me quede flipado porque normalmente los novatillos (Como yo), entramos poco a poco, vamos preguntando y tal y nos vamos haciendo al foro, pero esta persona con 2 post ya parecía que controlaba un montón al nivel de muchos que hay por aquí y llevan tiempo. Incluso en un hilo tuvo un cruce de post con Oliver (Creo que en el de Mantle) y Oliver le pregunto que si ya se conocían, porque le sonaba su forma de escribir y tal. Que curioso.

Saludos!

Usuario30827
11/04/2014, 16:32
Voy a resumir los hechos por los que posiblemente pensara que delara a oustsider como V for vendetta. Primero empezó liándola en un hilo de procesadores diciendo que un phenom II x6 era superior a un 2500k. Hechos que lo delatan:

Decir que x es mejor que y, pero nunca pone datos suyos reales. Pone captura de otros y se indigna si le dicen que eso no vale porque no es suya. Mismo caso que v for vendetta.
Cuando no sabe qué decir, escurre el bulto, cambia de tema o da la razón como a los tontos. Igual que v for vendetta
Aires de superioridad y creerse mejor que el resto. Igual que v for vendetta.
Amante de la calidad precio y de exprimir el hardware al máximo por cada euro invertido. Igual que V for Vendetta
Firma delatadora. Procesador igual que v for vendetta y mensaje suyo antiguo diciendo que compraría su segundo x6 cuando viera otro chollo. Gráficas calidad-precio oceadas bastante. Igual que la mentalidad de V for Vendetta.
Tuvo 2 gtx 460 muy oceadas antes. Igual que v for vendetta.
Trabaja en el sector y prueba mucho hardware. Igual que V for vendetta.
Habla mucho del software y de lo mal que está aprovechado el hardware. Igual que v for vendetta.

Las sospechas empiezan cuando oliver91 dice que le suena de haber hablado con él antes. El dijo que le conocía de haberle leído antes o de otros foros (mentira). Eso, unido a su firma y declaraciones, hizo que hicera el CSI y le pillé rápido. También josrob le sonaba que fuera él. Hemos sido 3 personas que dudábamos de un antiguo usuario.


´Perdón por el Offtopic: Que era un ex usuario problemático? La verdad que yo me quede flipado porque normalmente los novatillos (Como yo), entramos poco a poco, vamos preguntando y tal y nos vamos haciendo al foro, pero esta persona con 2 post ya parecía que controlaba un montón al nivel de muchos que hay por aquí y llevan tiempo. Incluso en un hilo tuvo un cruce de post con Oliver (Creo que en el de Mantle) y Oliver le pregunto que si ya se conocían, porque le sonaba su forma de escribir y tal. Que curioso.

Saludos!

Por mucho que supuestamente supiera, era muy problemático. Aquí tienes el culmen de sus actos:

http://foro.noticias3d.com/vbulletin/printthread.php?t=400441&pp=10&page=30

Empezó faltando el resto a muchos diciendo que una hd 7850 oceada era más potente que una gtx 580 a 1ghz. Luego nunca puso datos suyos, puso de una hd 7870 de otro foro. Por supuesto se le pilló y no duró mucho más en el foro. En este foro, si te vas no vuelves. Ya puedes ser el mismisimo anand o linus, que daría igual.

El caso, es que algunos que vuelven, con el tiempo si te acuerdas de algunos usuarios, con sus declaraciones se delatan. Es lo que tiene acabar pillando trolls con multicuentas en forocoches. Con esto queda todo aclarado, no es magia ni nada por el estilo.

Ryuji
11/04/2014, 17:59
Gracias por la aclaración Ismarub, a mi lo que se me hacia raro es ver a alguien que controlaba tanto del foro(parecía que llevaba escritos 5.000 mensajes), y con solo 2 mensajes escritos.

Fin del Offtopic.

darivo
11/04/2014, 18:26
Gracias por la aclaración Ismarub, a mi lo que se me hacia raro es ver a alguien que controlaba tanto del foro(parecía que llevaba escritos 5.000 mensajes), y con solo 2 mensajes escritos.

Fin del Offtopic.

que tampoco te engañen la cantidad de mensajes, que puede haber gente que pilote mucho y se acabe de registrar..

Ryuji
11/04/2014, 19:31
Si no te digo que no pueda ser, pero aunque controles mucho siempre que entras en un foro nuevo al principio vas viendo un poco el tema, escribes de cuando en cuando y le vas pillando el truco, etc. No entras a saco y contradiciendo a la gente con 3 mensajes.

agur
11/04/2014, 19:40
woow Ismarub, ¿me describirías a mi? aunque sea por mp.

en serio, me interesa mucho.

josrob536
11/04/2014, 20:03
hay algunos exforeros que se les nota a legua. no es lo que dicen , es como lo dicen y en este caso mucho antes de que ISMARUB pusiera ese mensaje sobre si era V for vendetta , ya yo lo pensaba tambien , de hay que dijera que yo pensaba lo mismo jajajajajajaja..

bueno lo importante es que ya esta fuera ...xD

Saludos.

fulgury
11/04/2014, 21:47
Me habéis dejado de piedra!!!! Aunque tal y como lo describís era normal que os sonase, a mi su nick me sonaba y eso que no estoy aquí cada día jajajaj.

Volviendo al hilo, lo que me doy cuenta que hago últimamente es directamente mirar las firmas de los foreros Gurús de por aquí cuando tengo que elegir algún componente, así no pregunto tanto.

_Saludos