PDA

Ver la versión completa : NVIDIA anuncia la arquitectura Pascal



Páginas : [1] 2 3 4 5 6 7 8 9 10 11

GF3
27/03/2014, 16:53
NVIDIA estuvo muy activa durante el día de ayer y anunció sus planes de futuro en muchos campos, ya hemos visto novedades en lo que a la intercomunicación entre tarjetas gráficas se refiere, respecto a su consola Shield y el nuevo producto estrella: GeForce Titan Z. Ahora dan los primeros datos de la siguiente generación gráfica bautizada como Pascal.

No sabemos exactamente porqué, pero NVIDIA ha hecho desaparecer el nombre de Volta en su hoja de ruta y ahora aparece el nombre de Pascal para 2016, en honor al conocido matemático Blaise Pascal. Antes de la llegada de Pascal toca disfrutar de la arquitectura Maxwell en todo su esplendor fabricada a 20 nm y tal y como hemos dicho NVIDIA planea lanzar Pascal en 2016, por lo que Maxwell campará a sus anchas durante todo el 2015 y suponemos que parte de 2014.

http://www.noticias3d.com/imagenes/noticias/201403/nvidia_GTC2014Pascal-3.jpg


Pascal llegará con las posibles GeForce GTX 1000 o cualquier nombre similar, lo que nos puede hacer pensar en unas GTX 800 para Maxwell y unas GTX 900 para la vuelta de tuerca de dicha arquitectura a finales de 2015, pero todo ello son simples suposiciones.

Sobre Pascal estamos con lo de siempre: mayor rendimiento gráfico y menor consumo, además de nuevas tecnologías para evitar los cuellos de botella. Con Pascal llegará la tecnología NVLink que ya hemos comentado en esta noticia y la memoria 3D o "Stacked Memory" lo que debería permitir mayor densidad de memoria y aumentar el ancho de banda disponible, algo que siempre ha sido el talón de aquiles de muchas gráficas, sin embargo la memoria 3D no está libre de retos tecnológicos y veremos si en 2016 resulta viable.

http://www.noticias3d.com/imagenes/noticias/201403/nvidia_GTC2014Pascal-2.jpg

Parece que Pascal ha sido diseñada, también, pensando en el mercado móvil y por lo tanto su tamaño y consumo debería ser controlado, como mínimo en las gamas no extremas. Pascal será la primera generación gráfica de NVIDIA 100% compatible con la API de Microsoft DirectX 12 que llegará en verano de 2015.

Mencionan algunos datos como que conseguirá cumplir la ley de Moore ofreciendo hasta 20 Teraflops de rendimiento. Para ponernos en situación nos dicen que en 2008 NVIDIA llegó al Teraflop con sus Tesla y que Maxwell alcanzará los 12 Teraflops.

Algunos medios ya bautizan la primera generación de Pascal como GeForce GP10x y la segunda generación de Pascal como GP11x, ya en 2017.

Las dos nuevas generaciones de tarjetas gráficas, de AMD y Nvidia, están siendo altamente esperadas por aquellos que llevan ya unos años con sus actuales tarjetas. Ambas compañías prometen mejoras enormes de consumo, no tanto de rendimiento, y los rumores apuntan a que en torno a junio o julio ya deberían estar en el mercado las generaciones Pascal y Polaris.

En el caso de Nvidia, los rumores apuntan a que en abril presentará la arquitectura en el GTC 2016 (GPU Technology Conference), y los nuevos rumores apuntan a que en mayo Nvidia pondría a la venta la GTX 1080 (o como se termine llamado). Sería el 27 de mayo en un evento previo al Computex para anunciar las tarjetas gráficas que se pondrán a la venta.

Hablan de que Nvidia no incluiría la memoria HBM2 en ese primer modelo de la tarjeta, sino 8 GB de GDDR5 o GDDR5X. Pero estos rumores hay que tratarlos como tal y no sacar conjeturas, si bien las compañías de memoria todavía no están produciendo la HBM2 en volumen y tamaño suficiente para que incluyan 8 GB en las tarjetas gráficas.

Destacaría el hecho que solo se necesitaría un único conector PCIe de ocho pines para suministrar energía a la tarjeta. Habría posteriormente modelos que usarían el chip GP104 fabricados por TSMC a 16 nm con esa memoria GDDR5, y otros modelos con un chip GP100 con 16 y 32 GB de HBM2 para el sector profesional y el equivalente a la Titan X.

Aquí iré poniendo las web con información sobre esta nueva arquitectura.

https://benchlife.info/gp104-aka-nvi...bm2-031112016/
http://www.guru3d.com/news-story/rum...pu-in-may.html
http://elchapuzasinformatico.com/201...garia-27-mayo/
http://wccftech.com/nvidia-pascal-ge...080-gp104-gpu/
http://videocardz.com/58462/rumor-nv...-gddr5x-memory
http://tweakers.net/nieuws/109207/ge...mt-in-mei.html
http://www.tomshardware.fr/articles/...0,1-58880.html
http://www.guru3d.com/news-story/nvidia-big-pascal-gp100-to-debut-in-april-mid-range-gtx-1080-in-june.html

Un saludo

GF3
31/03/2014, 08:27
En Fudzilla leemos más información acerca de la futura arquitectura Pascal de NVIDIA, prevista para 2016. Ya en su momento comentábamos que utilizarían memoria 3D o "Stacked Memory" para esta arquitectura y Fudzilla nos detalla algunos detalles sobre la misma.

Mencionan que la "Stacked RAM" permitirá una comunicación más rápida entre el chip y la memoria, así con las VGAs actuales de gama alta que cuentan con un bus de 384 bits implicaría alcanzar un ancho de banda de entre 800 y 1.000 GB/s. Recordemos que actualmente una Radeon R9 290X tiene un ancho de banda de 320 GB/s y una Geforce GTX 780 Ti de 336 GB/s, así que en este aspecto la mejora será muy notable.

También se atreven a especular sobre el posible rendimiento para cálculos científicos con una memoria permitiendo 1.024 GB/s: 4 TFlops en cálculos de doble precisión y de 12 TFlops en cálculos de precisión simple. Actualmente una R9 290X ofrece 0,7 y 5,6 TFlops y una GeForce Titan Black ofrece 1,3 y 5,1 TFlops.

Fudzilla asegura que para ver juegos con la eterna promesa, Ray Tracing en tiempo real, son necesarios esos 12 TFlops así que si aciertan en pocos años podríamos empezar a disfrutar de ello, pero de momento con calma que hasta 2016 queda mucho tiempo y otras novedades previas.

Un saludo

harl
31/03/2014, 10:54
Queda mucho para que la lancen y pueden cambiar muchas cosas, especialmente en el tema del nodo que usen para hacerlo y la Stacked RAM que son cosas que dependen de TSMC e Hynix respectivamente. Y ya veremos lo que llega al final y si llega en 2016 o más tarde.

En cuanto al Ray Tracing es normal que desde los fabricantes lo promuevan para echar más leña a la carrera del hardware, pero no creo que lo veamos en juegos por que las consolas serán el estandard para motores gráficos y no van a sacar juegos que se arrastren en esta generación.

En cuanto cine de animación ¿se utiliza ray tracing en la actualidad? ¿es frecuente su uso?

Por cierto una de las cosas interesantes del ray tracing es que al ser el calcula de cada rayo independiente de los demás cuando se usan varias hebras en paralelo la comunicación entre ellas es mínima, por lo que creo que escala muy bien en configuraciones multi GPU.

pirata2007
17/11/2015, 21:05
Se sabe algo de estas graficas?Pq voy a vender la mia y tenia pensado esperar hasta verano para pillarme una de estas Nvidia nuevas...Pero me da que no saldrán no?xD


Saludos.

Oliver91
17/11/2015, 21:17
Salen el año que viene, no se sabe muy bien cuando, Q1 o Q2 posiblemente.

pirata2007
17/11/2015, 21:22
Salen el año que viene, no se sabe muy bien cuando, Q1 o Q2 posiblemente.

Es que buscando encontré una noticia,que dicen que salen en 2017...Joder,no se si podre aguantar tanto con una 7750 de AMD que tengo por ahí xD

Esperemos que salgan en el segundo trimestre 2016..eso seria en junio como máximo jejeje.

Saludos y gracias por la info.

fmvictor
17/11/2015, 22:14
Es que una 7750 buf... es demasiado poco, prefiero una 6850 y probé las dos. Si aún fuese la 7770..., hay mucha más diferencia de la que se piensa, entre los shaders y la frecuencia. Para mi lo mínimo en amd (si queréis juegos nuevos) sería de un 260x para arriba, una estilo 6850 puede valerme a mi, pero porque voy con juegos viejos que tengo acumulados.

También depende de lo que vayas a jugar o si vas a dedicarte a otras cosas (épocas de estudio, etc...) Porque la vendes tan pronto? Por venderla a mejor precio, porque ahí igual te compensaba esperar y no venderla tan pronto, ya que no hay nada inminente. Luego suponemos que pascal empezaremos por las gráficas potentes y luego irán rellenando las gamas.

pirata2007
17/11/2015, 23:20
Es que tengo la oportunidad de vender a un amigo mi 7970 vapor X(con bios 280x) por 175 euros..
si no se la vendo yo, se pilla una nueva,y si la vendo de segunda mano en 2016(foro)...dudo mucho que saque 175 euros (a mi me costo 300 euros)jejeje.Ya se que una 7750 se me quedara algo corta(la tengo en un htpc) y es una versión Low profile...que de seguro que rinde menos que una estándar..

A una malas podría pillar alguna 970 de segunda mano(si la cosa se alarga)..pero quería dar un salto guapo como suelo hacer siempre cuando cambio de grafica ((.

Un saludo.

ScOrPiA
17/11/2015, 23:23
De verdad le vas a vender una 7970 por 175€ para comprar una gráfica que puede costar 700-900€? Por 160€ la tiene nueva con 1 año de garantía...

http://www.cdiscount.com/informatique/cartes-graphiques/sapphire-amd-radeon-r9-280x-3go-gddr5-oc/f-10767-112219490g.html#mpos=1|cd

Hasta pagando un posible RMA de 15-20€ más enviandola a Francia le compensa mas pillar esa que tu gráfica.

pirata2007
17/11/2015, 23:30
No me voy a comprar la top de Nvidia..la equivalente "series" a la 970/60..pondria unos 200 mas(375 euros) creo que es factible.
Y si no pillo una de estas,seguro que una 980 ti de segunda mano cae en esos rangos de precios..


PD;Dejemos de entrar en valoraciones personales, que entre para pedir información y no dar explicaciones de lo que hago y dejo de vender.


Aquí es donde leí la noticia de Pascal 2017;


http://hardzone.es/2015/06/09/nvidia-pascal-gp100/

Según la fuente, se especula que estos chips NVIDIA Pascal GP100 podrían tener entre 4.500 y 6.000 CUDA Cores, una barbaridad que se logra gracias a la nueva litografía de fabricación a 16 nanómetros de TSMC que tanto ha tardado en ser funcional. De todos modos no hay que hacerse ilusiones, pues no se espera que las primeras tarjetas gráficas de NVIDIA con arquitectura Pascal y memoria HBM v2 lleguen hasta por lo menos el segundo o tercer trimestre del año que viene. Y teniendo en cuenta que tenemos a TSMC de por medio bien podemos esperar que esto se retrase hasta primeros de 2017.
Tendremos sin embargo que esperar, para no perder la costumbre, a que NVIDIA se pronuncie de manera oficial (algo difícil teniendo en cuenta los precedentes), aunque de ser verdad esta información no sería de extrañar que en los próximos meses comiencen a sucederse las primeras filtraciones sobre Pascal y este chip GP100.

fuente original;

http://www.3dcenter.org/news/nvidias-gp100-chip-der-pascal-generation-hat-angeblich-seinen-tape-out-absolviert

fmvictor
17/11/2015, 23:35
Umm, si en principio podemos hacer las coñas de con amigos así para que queremos enemigos y similares :rofl:.

Pero ojo, que a veces a esos amigos, les hemos dado soporte informático, arreglado problemas, mirado, formateado el pc, quitado virus, recomendado, montado, cambiado... Así que porque lleve algo de sobreprecio en algo que les vendemos, sin ser tampoco una exageración o un timo como es el caso, pues no me parece mal.

Si acepta el precio, vende. xD

Luego... no creo que aguantes hasta pascal con la 7750, vete mirando de segunda mano, o una maxwell aunque sea 950 o 960, que supongo que tendrá buen valor de reventa. Comprarse la que dice scorpia sería mucho puteo ya. :lol2:

pirata2007
18/11/2015, 00:10
Edito;No quiero ensuciar el hilo con Off-topics jejeje.Gracias por vuestra opinión..


Un saludo y buenas noches.

Oliver91
18/11/2015, 06:39
Aquí es donde leí la noticia de Pascal 2017;


http://hardzone.es/2015/06/09/nvidia-pascal-gp100/

Según la fuente, se especula que estos chips NVIDIA Pascal GP100 podrían tener entre 4.500 y 6.000 CUDA Cores, una barbaridad que se logra gracias a la nueva litografía de fabricación a 16 nanómetros de TSMC que tanto ha tardado en ser funcional. De todos modos no hay que hacerse ilusiones, pues no se espera que las primeras tarjetas gráficas de NVIDIA con arquitectura Pascal y memoria HBM v2 lleguen hasta por lo menos el segundo o tercer trimestre del año que viene. Y teniendo en cuenta que tenemos a TSMC de por medio bien podemos esperar que esto se retrase hasta primeros de 2017.
Tendremos sin embargo que esperar, para no perder la costumbre, a que NVIDIA se pronuncie de manera oficial (algo difícil teniendo en cuenta los precedentes), aunque de ser verdad esta información no sería de extrañar que en los próximos meses comiencen a sucederse las primeras filtraciones sobre Pascal y este chip GP100.

fuente original;

http://www.3dcenter.org/news/nvidias-gp100-chip-der-pascal-generation-hat-angeblich-seinen-tape-out-absolviert

Creo que esa noticia es antigua ya, aquí hablaban de que ya hay dos chips de nVidia (Engineering Samples) yendo a sus instalaciónes de la india, lo cual indica que están en procesos de verificación:

http://wccftech.com/nvidia-gp100-pascal-gpu-spotted-shipping-manifest/

Probablemente un GP100 y un GP104. El GP104 yo quiero pensar que saldrá a precio de GTX980 que es a la que sustituye, el GP100 probablemente salga primero como Titan y luego lo bajen, en función de lo que AMD presione con las suyas.

harl
18/11/2015, 07:11
Sí según las filtraciones tienen dos chips basados en Pascal y podrian ser el GP100 y GP104 y a mi me da que el GP100 lo van vender primero para tarjetas Tesla
Ya vemos rumores de centros de computación encargando tarjetas pascal
http://www.kitguru.net/components/graphic-cards/jon-martindale/nvidia-pascal-gpus-to-be-used-to-help-model-future-hurricanes/

Teniendo en cuenta el pobre rendimiento en FP64 de Maxwell (que llevo a Nvidia a sacar un GK210), se cree que pascal estará más preparado para computación.

Tambien se dice que algunas de estas pascal llevarian GDDR5x yo creo que en principio la HBM2 sera solo para las tarjetas de computación y como mucho para las Titan.

chicledefresa
18/11/2015, 07:14
A ver que sale de aquí, pero teniendo en cuenta el salto en nm tan grande que hay deberían estar bastante por encima de la generación actual.

harl
18/11/2015, 09:40
http://bi9he1w7hz8qbnm2zl0hd171.wpengine.netdna-cdn.com/wp-content/uploads/2015/11/NVDA_GTCJapan_Pascal.png
http://www.noticias3d.com/noticia.asp?idnoticia=66394

En portada han puesto más datos de una conferencia en Japón (¿otra?)
Hablan de 16GB de HBM2 en la top (hasta 32 en los modelos profesionales) de rendimiento en FP32 de dos digitos (o sea que por lo menos 10 Tflops), de doble rendimiento por vatio, de precisión combinada FP16 e INT8 (creo que esto es parte de Dx12 y ya lo hemos visot en las Maxwell del Tegra X1)

Aunque me resulta raro que no se mencione el FP64, imagino que sera 1/3 ó 1/4 del FP32, no menos, si de verdad apuestan por el HPC, para la versión GeForce en juegos ya lo caparan.

chicledefresa
18/11/2015, 10:11
El tamaño del pcb también se verá reducido como en las fury x debido a la memoria hmb? Estaría interesante ver un sistema de refrigeración nuevo y más eficiente debido a su aprovechamiento del espacio, pero sin recurrir a ese módulo aparte como en las fury x que puede no ser muy acertado en algunas cajas.

cabfl
18/11/2015, 18:10
Sí según las filtraciones tienen dos chips basados en Pascal y podrian ser el GP100 y GP104 y a mi me da que el GP100 lo van vender primero para tarjetas Tesla
Ya vemos rumores de centros de computación encargando tarjetas pascal
http://www.kitguru.net/components/graphic-cards/jon-martindale/nvidia-pascal-gpus-to-be-used-to-help-model-future-hurricanes/

Teniendo en cuenta el pobre rendimiento en FP64 de Maxwell (que llevo a Nvidia a sacar un GK210), se cree que pascal estará más preparado para computación.

Tambien se dice que algunas de estas pascal llevarian GDDR5x yo creo que en principio la HBM2 sera solo para las tarjetas de computación y como mucho para las Titan.

Eso lo hacen siempre, y es normal. Primero lanzan en el sector profesional Tesla y Quadro, luego en Titan y luego en GTX.
La razón es muy simple: el ritmo y coste de producción. Las primeras unidades salen despacio y a un coste por unidad muy alto, así que solo son rentables vendiéndolas como Tesla y Quadro.
A medida que el proceso de fabricación se afina y aumenta el ritmo de producción con éxito, empiezan a hacer el stock necesario para el lanzamiento en GTX.
Imagino que las GDDR5x serán las de gama media, que no tienen tanta potencia como para necesitar HBM2. Y además así justifican el alto precio de la gama alta con el márketing de la "nueva tecnología" del HBM2.
Lo interesante es que las Titan tendrán 16Gb, y por tanto las GTX 8Gb.

En Maxwell hicieron algunos sacrificios para simplificar el diseño con el objetivo de reducir TDP.
Si en Pascal apuestan por el FP64, y creo que no les queda más remedio, veremos como queda la relación potencia/TDP, o rendimiento/vatio de esta nueva arquitectura.
Espero que esta vez, lancen conjuntamente los "pequeños Pascal" junto con los "gran Pascal" o al menos con pocos meses de diferencia.

harl
05/01/2016, 08:43
A falta de GPU nvidia anuncia otra placa para coches el Drive PX2, lleva dos SOC basados en A57+Denver+Pascal
http://o.aolcdn.com/dims-shared/dims3/GLOB/crop/1213x629+186+0/resize/630x327!/format/jpg/quality/85/http://o.aolcdn.com/hss/storage/midas/93a3592747228781215e75502439c896/203210477/0104_px2specs.jpg
http://www.engadget.com/2016/01/04/nvidia-drive-px2/

En fin Nvidia lleva hablando de pascal desde hace mucho, pero casi todo enfocado a computación, deep learning, computación neuronal...
Entiendo que Nvidia tras no alcanzar sus expectativas con los SoC para móviles y tablets este mirando a los coches autónomos como un sector con perspectivas de crecimiento futuro, pero empieza a preocupar lo poco que hablan de Pascal para juegos.

Fantasma
05/01/2016, 09:05
Acabo de ver la fecha del primer post y veo que es de Marzo de 2014 (incluso estaba pensando crear un hilo de Pascal porque no recordaba este). Parece que Nvidia va a llegar sobrada para sacar las gráficas en el segundo cuarto de este año. Malas noticias para AMD, que igual cuando saquen las suyas, Nvidia ya ha abastecido al mercado hambriendo de nuevas y más eficientes gráficas.

No creo que Nvidia esté muy preocupada por Pascal en el segmento gráfico. Tiene margen de sobra hasta para darse un batacazo. Sólo por inercia del mercado, va a vender como rosquillas. Les interesa más abrir nuevos frentes o mercados.

También creo que no sacan más datos para que no les copie o supere la competencia, que vendrán después. Yo supongo que en un par de meses, tendremos datos de Pascal, poco antes de que salga, como el resto de las Maxwell en su día.

Además, si los datos son muy buenos, canibalizarían las ventas de Maxwell y eso no interesa, a 3-4 meses vista del lanzamiento.

Saludos

harl
05/01/2016, 10:33
La refrigeración liquida suponeo que es por que necesitan meterlo en un coche, donde no es que tengan espacio o ventilación de sobra ...

No se, esos 8Tflops en 250W me parece que queda lejos de la mejora de eficiencia que prometían, es solo un 14% más con un consumo que se supone similar a una Titan X (al menos tienen el mismo TDP, aunque no se lo mismo)

Por otro lado, el Px2 son 4 chips: Dos Soc ¿Parker (http://www.anandtech.com/show/9902/nvidia-discloses-2016-tegra)? con 4 A57 y 2 Denver y dos GPU que parecen usar el mismo formato de portátil en una tarjeta MXM, con memoria GDDR5 o similar nada de HBM
http://i.imgur.com/0B5qcmE.jpg
No se cuanta potencia vendrá de los SOC y cuanta de las GPU supongo que cada una de estas tarjetas debe tener al rededor de 3.5 Tflops y 120W de TDP

Fantasma
05/01/2016, 10:49
La refrigeración liquida suponeo que es por que necesitan meterlo en un coche, donde no es que tengan espacio o ventilación de sobra ...

No se, esos 8Tflops en 250W me parece que queda lejos de la mejora de eficiencia que prometían, es solo un 14% más con un consumo que se supone similar a una Titan X (al menos tienen el mismo TDP, aunque no se lo mismo)

Por otro lado, el Px2 son 4 chips: Dos Soc ¿Parker (http://www.anandtech.com/show/9902/nvidia-discloses-2016-tegra)? con 4 A57 y 2 Denver y dos GPU que parecen usar el mismo formato de portátil en una tarjeta MXM, con memoria GDDR5 o similar nada de HBM
......
No se cuanta potencia vendrá de los SOC y cuanta de las GPU supongo que cada una de estas tarjetas debe tener al rededor de 3.5 Tflops y 120W de TDP

A saber, igual el TDP es de la placa al completo, contando con las cpus de 8 y 4 núcleos que le cascan. Pero vamos, si son dos gpus de gama media-alta (tipo 970/980 o por ahí) (para quedar en TFLOPs por encima de la Titan X) y cada una consume 100-120W, no estaría nada mal. Lo que pasa que no se acercaría a las 2 veces rendimiento por W. Aunque igual como la PX2 ésta es comercial, podría ser una Pascal dopada en cálculos de doble precisión y por eso consume más, como las gráficas de ámbito profesional. Supongo que, a lo mejor, las gráficas para jugar vendrán recortadas en ese aspecto.

Saludos

harl
12/01/2016, 09:01
A parte de los que señalan que la Px2 que mostraron en la feria no llevaba realmente GPU Pascal (lo que no sorprende a nadie)

Videcarz publica los listados de Zauba que muestran el GP104
http://videocardz.com/58101/nvidia-gp104-and-first-polaris-gpu-supposedly-spotted-on-zauba
El supuesto chip GP104 (gama "media" seguramente vendida como alta) tendría un encapsulado más pequeño y con más pines, ambas cosas confirmarían que lleva GDDR5 ó GDDR5x por que si llevase HBM ó HBM2 necesitaría un encapsulado más grande para que entren los die de la memoria y menos pines por no tener memoria en el PCB... pero bueno es de esperar que solo los GP100 , 102 ó 110 de las gamas más altas lleven HBM2.

Tambien aparecerian en el listado modelos con refrigeración liquida ... (personalmente no me entusiasma la idea)

Norest
27/01/2016, 18:22
Que fiabilidad le dais a este rumor ? http://www.guru3d.com/news-story/nvidia-big-pascal-gp100-to-debut-in-april-mid-range-gtx-1080-in-june.html

fmvictor
27/01/2016, 18:45
Yo quedandome con la fecha de salida de las primeras, me coincide con lo que se venía hablando. Es decir que en torno a junio o antes de verano salgan las primeras 1080/1070 basadas en el gp104, siguiendo el esquema de los gk104 (en la familia 600/700) en primer lugar, y luego los gm204 (familia 900), dejando para despues el gp100 y gp106. Lo que me extraña es que primero salga la titan, porque no creo que el primer tape-out que tengan sea el del chip más grande, teniendo en cuenta que es nodo nuevo.

Pero vamos, si decían que ahora empezaban a fabricar en masa (que se hablo por algún hilo, y no se si es verdad), coinciden igualmente esos 6 meses para verlas en las tiendas. Digamos son todo rumores, pero apuntan en una misma dirección, así que yo creo que pueden ir por ahí los tiros.

POWER123
27/01/2016, 19:05
Bueno pues habrá que irse preparando :rofl3:

Ganas de ver y de cambiar que mucho tiempo llevan ya las 970 puestas :laugh:

Fantasma
27/01/2016, 19:08
Que fiabilidad le dais a este rumor ? http://www.guru3d.com/news-story/nvidia-big-pascal-gp100-to-debut-in-april-mid-range-gtx-1080-in-june.html

Coincide con todo lo que se lleva especulando por aquí, así que me parece bastante realista y factible. Otra cosa es lo que pase al final XDDD. Hay mucha gente que espera a Pascal a finales de año, cuando todo apunta a que salían entre Abril-Junio (segundo cuarto de 2016).

Saludos

Peggy Sue´s
27/01/2016, 19:51
Me da que la Titan 1080 y la posterior GTX 1080 Ti van a ser pepinacos. Si sale la Titan con 16gb y la Ti con 8gb las van a querer todo el mundo xD.

Saludos.

Norest
27/01/2016, 20:03
Veo entonces que si que ya esta aquí cerca Pascal, pregunta mas difícil esta, cuando creéis que veremos benchmarks de ellas? o por lo menos datos fiables de su características

Fantasma
27/01/2016, 20:07
En el último mes, especialmente un par de semanas antes de que salgan, se empieza a disparar la rumorología más certera. Aunque hay veces que no se sabe prácticamente nada hasta el día anterior a la presentación. Hay que esperar a que Nvidia dé una fecha específica de presentación de algo.

Saludos

Eryou
27/01/2016, 20:34
Tanto las polaris como las pascal, lo más probable es que las presenten en el E3. Otra cosa es cuando empecemos a ver disponibilidad sobre ellas...

stalker77
27/01/2016, 21:47
Pues yo tengo dudas en rendimiento, siendo las primeras la "generación Falsa". aunque puede que el chip MID vendido como tope, por la arquitectura y el cambio de nodo den un buen rendimiento, pero lo buenos llegaran con chip tocho, como viene siendo tradición ya en Nvidia.

Fantasma
27/01/2016, 21:55
A mi me cuadra, como bien dices, porque por cambio de nodo creo que van a ir a lo seguro y conocido. Además, así estiran el chicle de los 14nm. Con lo que ha costado cambiar de nodo, no creo que se lancen a sacar un rendimiento de la leche, en el límite del diseño. Tienen que vivir varios años con la misma tecnología. Si hay alguna revolución, debería ser de AMD con Polaris porque están atrás en el mercado. Aún así, GCN 4 no suena tampoco muy innovador.

Saludos

Patagonico
27/01/2016, 23:01
Pues yo tengo dudas en rendimiento, siendo las primeras la "generación Falsa". aunque puede que el chip MID vendido como tope, por la arquitectura y el cambio de nodo den un buen rendimiento, pero lo buenos llegaran con chip tocho, como viene siendo tradición ya en Nvidia.

Bueno se dice que las mejoras sobre las maxwell van del 50% al 90% ya queda poco será interesante de ver como rinden a distintas resoluciones su consumo, ruido y temperaturas a mi las Zotac 980 me salieron excelentes pero sigo escaso en potencia para mi gusto me gustaría una potente en Pascal y si se puede combinar con 1 o las 2 GTX980 (por el tipo de memoria) seria genial.-

También habrá que ver a que precios salen al mercado espero que no se suban a las nubes por su enorme cantidad de memoria y nueva tecnologia

Saludos.-

Eryou
27/01/2016, 23:29
Ya no sé de cuál de ellas (Polaris o Pascal) leí que un pez gordo de la compañía dijo que el salto con la llegada de esta generación iba a ser el más grande que nunca antes se había hecho (cosa que ya hemos oido/leido muchas veces, de hecho, casi siempre que hay una generación nueva dicen eso).

Aquel salto que hubo de la radeon 8500 a la 9700 pro no creo que volvamos a verlo nunca... fue del doble de rendimiento prácticamente. Tampoco estuvo mal con la llegada de DX10 cuando Nvidia saltó de las 7800 a las 8800, pero sinceramente no creo que estas lleguen a tanto.

stalker77
28/01/2016, 00:02
El problema es que no creo que a una Gtx 1060 (renombrada a GTX1080) le estiren mucho el chicle sobre una 980ti, vamos lo dudo, aunque todo puede pasar.

Nesquik
28/01/2016, 06:47
El ultimo rumor que he leído es que la futura 1080 gtx o como se llame iba a ser un 50% mas potente que la 980 GTX . ¿Que hay de posible en esto?. ¿Merece la pena a estas alturas de la pelicula una 980TI?. Creo que la ti es solo un 20% superior a la 980 normal.

Eryou
28/01/2016, 11:01
El ultimo rumor que he leído es que la futura 1080 gtx o como se llame iba a ser un 50% mas potente que la 980 GTX . ¿Que hay de posible en esto?. ¿Merece la pena a estas alturas de la pelicula una 980TI?. Creo que la ti es solo un 20% superior a la 980 normal.
Ya solo por el cambio de nodo, me parece bastante probable. Es una subida que está bien sin salirse de los papeles, ya hemos visto cambios así bastantes veces. No obstante, no me extrañaría nada que acabemos viendo rendimientos similares a la gama superior de la generación anterior, es decir: GTX 1050 ~ 960 ; 1060 ~ 970 ; 1070 ~ 980 ; 1080 ~ 980 Ti ; 1080 Ti ~ SLIx2 980. Y estas diferencias tampoco serían para tirar cohetes...

Yo a estas alturas, creo que pagar por la 980 Ti 700 € es una burrada cuando probablemente, en unos 6-7 meses se pueda optar a un rendimiento similar por 300-400 €. En otras palabras, gastarte 300€ por disfrutar de su rendimiento durante 6-7 meses. Otro asunto es si pillas un chollo.

Zeusente
28/01/2016, 11:14
@Nesquik La 980ti por ejemplo y sin ir mas lejos en heaven 4.0 1080p extreme 8xAA escupe un 40% mas de fps que la 980 . Con OC a 1550mhx +memos veras 980 a 80fps y a las mismas frecuencias de core y memos veras 980ti a 110fps, luego eso es casi un 40% mas no un 20.

Más burrada es pagar mas de 1000€ por la titan x... Con su disipador de ref,altas temps, ruido y sin unidades de doble precisión... Eso si con 6gigas mas de VRAM :laugh: algo inútiles porque 6 son mas que suficientes hasta en 4k.

Y vete olvidando de pagar 300-400€ en pascal y tener similar rendimiento que una 980ti...En que mundo vives?

Oliver91
28/01/2016, 11:38
Y vete olvidando de pagar 300-400€ en pascal y tener similar rendimiento que una 980ti... En que mundo vives?


En el mismo en que la GTX970 rinde lo que una GTX780 Ti por casi la mitad del precio.

Zeusente
28/01/2016, 11:45
En el mismo en que la GTX970 rinde lo que una GTX780 Ti por casi la mitad del precio.



De segunda zarpa pillas 780ti por 300-350€ fácil y las 970 de 300€ no bajan, asi que puedes tener el mismo rendimiento por el mismo precio a dia de hoy.

En pascal eso no sera asi y sino al tiempo.

Eryou
28/01/2016, 11:52
@Nesquik La 980ti por ejemplo y sin ir mas lejos en heaven 4.0 1080p extreme 8xAA escupe un 40% mas de fps que la 980 . Con OC a 1550mhx +memos veras 980 a 80fps y a las mismas frecuencias de core y memos veras 980ti a 110fps, luego eso es casi un 40% mas no un 20.

Más burrada es pagar mas de 1000€ por la titan x... Con su disipador de ref,altas temps, ruido y sin unidades de doble precisión... Eso si con 6gigas mas de VRAM :laugh: algo inútiles porque 6 son mas que suficientes hasta en 4k.

Y vete olvidando de pagar 300-400€ en pascal y tener similar rendimiento que una 980ti... En que mundo vives?
...
El hecho de pagar más de 1000 por una Titan x es una burrada, no quita que pagar 700 € por la 980 Ti a 6 meses de la salida de Pascal también lo sea.

En qué mundo vives tu?? Parece ser que aun hay que recordar que la 780 Ti valía cerca de 700 € cuando salió y hoy una "simple" 970 de menos de 350 € prácticamente iguala su rendimiento (encima con el mismo nodo).

Anda que es tu primer mensaje y te luces...

Edito: vale... veo que Oliver ya se me adelantó diciendo semejante obviedad.

- - - Actualizado - - -



En pascal eso no sera asi y sino al tiempo.
Me gustaría saber en qué criterio (que no entendemos los demás) te basas para decir eso. Tienes algún chivatazo o alguna información que se haya ocultado por ahí??

Me parece lo más lógico pensar que si ocurrió con el mismo nodo, Pascal que supone una nueva arquitectura (aunque eso está por ver) y nuevo proceso de fabricación, vuelva a suceder.

Zeusente
28/01/2016, 12:23
El hecho de pagar más de 1000 por una Titan x es una burrada, no quita que pagar 700 € por la 980 Ti a 6 meses de la salida de Pascal también lo sea.

En qué mundo vives tu?? Parece ser que aun hay que recordar que la 780 Ti valía cerca de 700 € cuando salió y hoy una "simple" 970 de menos de 350 € prácticamente iguala su rendimiento (encima con el mismo nodo).

Anda que es tu primer mensaje y te luces...

Edito: vale... veo que Oliver ya se me adelantó diciendo semejante obviedad.

- - - Actualizado - - -


Me gustaría saber en qué criterio (que no entendemos los demás) te basas para decir eso. Tienes algún chivatazo o alguna información que se haya ocultado por ahí??

Me parece lo más lógico pensar que si ocurrió con el mismo nodo, Pascal que supone una nueva arquitectura (aunque eso está por ver) y nuevo proceso de fabricación, vuelva a suceder.

Según mis contactos pascal no sale hasta finales el segundo semestre de este año.

Pero hay mercado de segunda mano o no? Luego a día de hoy mismo rendimiento por el mismo precio.

Por otro lado la 780ti cuando salió Maxwell rendía mas parecido a la 980 que una 970 y la 980 valía mas de 500€.

Que tendrá que ver lo del primer mensaje, me juzgas sin tener ni idea de mis experiencias vivenciales con el hard en general... y te aseguro que no son pocas.

Nesquik
28/01/2016, 12:25
Si una saca 80 fps y la otra 110 fps son es un 30% mas de rendimiento?

Enviado desde mi GameBoy

Fantasma
28/01/2016, 12:37
No obstante, no me extrañaría nada que acabemos viendo rendimientos similares a la gama superior de la generación anterior, es decir: GTX 1050 ~ 960 ; 1060 ~ 970 ; 1070 ~ 980 ; 1080 ~ 980 Ti ; 1080 Ti ~ SLIx2 980. Y estas diferencias tampoco serían para tirar cohetes...


Algo así me espero yo también. De todas formas, si fuese así, sería rendimiento de 980Ti a precio de 980, que son 500€, no los 350€ que se están hablando. El caso de la 970 Maxwell es un poco anormal (Maxwell ha evolucionado más con respecto a Kepler). Pero bueno, un descuento de 200€ por el mismo rendimiento y, seguramente, menos consumo, no está nada mal.

@Zeusente: antes de que te sancionen, cambia la firma, incumples la norma 2.1:
http://foro.noticias3d.com/vbulletin/showthread.php?t=42340

Y mi consejo es que no te mosquees si en un principio la gente duda de tí, hay mucho troll en las redes y, con pocos posts, la gente no sabe por donde puedes tirar. Dudamos y discutimos entre gente que llevamos aquí años, pues imagínate XDDD

Saludos

Zeusente
28/01/2016, 12:37
Si una saca 80 fps y la otra 110 fps son es un 30% mas de rendimiento?

Enviado desde mi GameBoy

No, es un 37.5%. La diferencia entre ambas sobre el rendimiento en fps son 30 ( en el caso citado ), luego si calculas bien los % veras que así es.

Eryou
28/01/2016, 12:48
Según mis contactos pascal no sale hasta finales el segundo semestre de este año.

Pero hay mercado de segunda mano o no? Luego a día de hoy mismo rendimiento por el mismo precio.

Por otro lado la 780ti cuando salió Maxwell rendía mas parecido a la 980 que una 970 y la 980 valía mas de 500€.

Que tendrá que ver lo del primer mensaje, me juzgas sin tener ni idea de mis experiencias vivenciales con el hard en general... y te aseguro que no son pocas.

Lo de tus contactos yo no conozco que fiabilidad tendrán pero los de Nvidia (incluidos peces gordos) se han hartado de repetir que saldán a finales del primer semestre o principios del 2º (vamos, en verano..)

Y por supuesto que hay mercado de 2ª mano, pero eso es para todas las t.gráficas. Evidentemente, cuando se habla de precios y se dan referencias normalmente es sobre los precios de 1ª mano.

Es cierto que cuando salieron las Maxwell, el rendimiento de la 780 Ti estaba entre la 980 y la 970, lo que si la situaramos en precio en relación por su rendimiento, debería haber rondado los 400-450 €. Pero la cuestión es que van a llegar las Pascal y no parece que la 980 Ti vaya a bajar mucho más (nueva). Ójala hagan una rebaja para quitarse stock, pero a estas alturas, plantear gastarse 700€ a falta de 6-7 meses para la salida de Pascal, me parece un tanto arriesgado. Claro que si crees que van a salir a finales de año es otra cosa...

No te juzgo, ni por los mensajes ni por ninguna otra razón. Solo quería destacar que me parece extraño que entres en el foro diciendo cosas que van en contra de todo pronóstico según las informaciones dadas hasta ahora, y además perdona que te diga, no veo que los hayas argumentado mucho. Ante todo, que el respeto y el buen rollo en este foro se siga imponiendo.

cabfl
28/01/2016, 12:59
http://www.noticias3d.com/noticia.asp?idnoticia=66989


Pascal:

Pascal GP100: HBM2 en Abril (TITAN).
Pascal GP104: GDDR5X en Junio
Pascal GP100: HBM2 finales de año (GTX).
Pascal GP106: finales de año?
Pascal GP107: finales de año?

Parece que como suele ser habitual, lanzarán las primeras unidades del GP100 en Abril para la Titan (Y posiblemente Quadro).
Cuando el proceso de fabricación permita crear un stock de venta masiva, lanzarán la linea GTX, a finales de año.

Fantasma
28/01/2016, 13:28
Gracias cabfl, se va confirmando lo que se lleva diciendo hasta ahora.

Saludos

Eryou
28/01/2016, 13:36
Interesante, se decía que la GDDR5x permitía el doble de ancho de banda que la GDDR5 normal no??

Ahí hablan de 448 GB/s para la sustituta de la 980 (en junio). Eso supone justo el doble de ancho de banda respecto a su predecesora. Todo hay que cogerlo con pinzas, pero no creo que le metan el doble de ancho de banda para no aprovecharlo como se merece. Eso requeriría una GPU considerablemente más potente. De hecho la 980 Ti se queda con 336 GB/s, lo que supondría un 33% más para la supuesta 1080.

- - - Actualizado - - -

Por cierto, siguen con la cantinela de "GDDR"... la GDDR5 en su día ya debió llamarse GQDR. Ahora esta GDDR5x debería llamarse GODR, pero no siguen con la misma lógica que cuando empezó esto del "double data rate".

harl
28/01/2016, 13:40
Well, at NVIDIA's GPU Technology Conference in April, we should see NVIDIA unveil the biggest GPU they've ever made - the successor to the GeForce GTX Titan X. The next-gen card could be called the GTX Titan X2, which would pull some of the wind out of AMD's sails with the dual-GPU Radeon R9 Fury X2, and we should see it featuring HBM2 - scaling up to 16-32GB with 1TB/sec of memory bandwidth. Insanity.

Read more: http://www.tweaktown.com/news/49956/nvidia-launch-hbm2-powered-geforce-gtx-titan-successor-april/index.html


TweakTown (de donde procede el rumor de N3D) concreta que presentarían el GP100 en el GTC (del 4 al 7 de Abril), es un evento más enfocado al desarrollo que a juegos y sigo pensando que es más probable que presentan la Tesla, por que ademas casi todo lo que se comenta de Pascal es enfocado al computación, tanto para FP16 para el deap learning como el FP64 algo que sacrificaron en Maxwell.

Y eso es algo que también me "preocupa" que si mejoraron en Juegos en Maxwell sacrificando computación, esta pascal pueda estar menos enfocada a juegos y haya cierta regresión en ese sentido ... (aunque lo recuperen por el cambio de nodo y el mayor número de shaders)

Oliver91
28/01/2016, 13:53
TweakTown (de donde procede el rumor de N3D) concreta que presentarían el GP100 en el GTC (del 4 al 7 de Abril), es un evento más enfocado al desarrollo que a juegos y sigo pensando que es más probable que presentan la Tesla, por que ademas casi todo lo que se comenta de Pascal es enfocado al computación, tanto para FP16 para el deap learning como el FP64 algo que sacrificaron en Maxwell.

Y eso es algo que también me "preocupa" que si mejoraron en Juegos en Maxwell sacrificando computación, esta pascal pueda estar menos enfocada a juegos y haya cierta regresión en ese sentido ... (aunque lo recuperen por el cambio de nodo y el mayor número de shaders)

Realmente ese enfoque sería solo en el GP100, por que de ahí hacia abajo serán GPUs puramente gamer, o gamer + profesional para aplicaciones con precisión simple. Las mejoras que hacen para computación normalmente no van en detrimento de las de gamer, por ejemplo el aumento de la L2 en Maxwell es bueno en ambos casos, el único detrimento es el espacio extra ocupado para FP64 que suele ir únicamente en el chip grande y que lo necesitan además como agua de mayo para competir con Intel en el mercado GPGPU.


De segunda zarpa pillas 780ti por 300-350€ fácil y las 970 de 300€ no bajan, asi que puedes tener el mismo rendimiento por el mismo precio a dia de hoy.

En pascal eso no sera asi y sino al tiempo.

Esos precios de segunda mano en la GTX780 Ti son consecuencia de la existencia de las GTX970/980, antes de eso costaban 600-650€. Puedes estar tranquilo, tu 980Ti costará de segunda mano lo que hoy la 780Ti cuando salgan las GTX1070/1080 o como se llamen, e incluso puede que se devalúen aún más si la GTX1070 acaba rindiendo más que la 980Ti que sería lo normal (GTX670>GTX580).

Pero lo que dices, al tiempo.

fmvictor
28/01/2016, 14:09
De segunda zarpa pillas 780ti por 300-350€ fácil y las 970 de 300€ no bajan, asi que puedes tener el mismo rendimiento por el mismo precio a dia de hoy.

En pascal eso no sera asi y sino al tiempo.

Exacto, venia a poner lo mismo que Oliver91, esos precios de segunda mano son debidos al precio de la 970, que los poseedores que la querían vender, si las ponían a 500 se las comían con patatas.

Y estoy de acuerdo con el, al tiempo, pero yo también creo que habrá el rendimiento de la 980ti en la 1070, otra cosa es el cambio que se aplique en europa, pero a un precio parecido a la 970. Como ha dicho mi compañero, la 670 fue mejor que la 580, la 970 está al nivel de la 780ti (y sin cambio de nodo). Puede haber hecatombe, pero no hay indicios que nos hagan ser pesimistas. ;)

Rioga
28/01/2016, 15:04
No, es un 37.5%. La diferencia entre ambas sobre el rendimiento en fps son 30 ( en el caso citado ), luego si calculas bien los % veras que así es.

O estoy muy mal en matematicas o la diferencia entre una y la otra son un 27.27%, no un 37.5.

Si la 980ti saca 110fps (seria el 100%)
Si la 980 saca 80 (seria un 72.72%)

Por lo que la 980ti le saca un 27.27% a la 980

No se como haces el calculo....

Saludos!

fmvictor
28/01/2016, 15:16
Solo hablando del tema porcentajes. Si tu tienes una 980ti y haces el calculo como tu, ves que porcentaje de rendimiento saca la 980 sobre la tuya, es decir ese 72.72% de tu rendimiento.

Si tu tienes una 980 (y 80fps) y pasas a la 980ti, pasas a tener 110 fps.

Es decir 110/80=1.375, es decir, obtienes 37.5% frames más de los que tenías antes.

Tambien puedes calcularlo como (110-80)/80= 0.375, el mismo 37.5%

Todo depende de cual tomes como referencia.

avex
28/01/2016, 15:31
O estoy muy mal en matematicas o la diferencia entre una y la otra son un 27.27%, no un 37.5.

Si la 980ti saca 110fps (seria el 100%)
Si la 980 saca 80 (seria un 72.72%)

Por lo que la 980ti le saca un 27.27% a la 980

No se como haces el calculo....

Saludos!

Las dos cifras son correctas, pero esta interpretación es erronea.

Para decir A le saca X% a B hay que tomar B como el 100%. El 100% siempre debe ser la de referencia, no la que se quiere calcular.

En este caso con la misma cifra tienes que la 980Ti está un 37.5% por delante de la 980 (tomas la 980 como el 100%), o que la 980 está un 27.3% por detrás de la 980Ti (tomas la 980Ti como el 100%).

Pero decir la 980Ti está un 27.3% por delante de la 980, o que la 980 está un 37.5% por detrás de la 980Ti, es erroneo.

Nesquik
28/01/2016, 16:11
O hacer la cuenta de la vieja 20 fps de mas es un 20% XD

Enviado desde mi GameBoy

Nesquik
28/01/2016, 16:13
Así que igual no salen hasta pasado el verano 1080 gtx ... si no fuera porque se va a devaluar tanto la 980ti no le lo pensaría, pero viendo precedentes y con 1 970 gtx creo que aguantaré.

Enviado desde mi GameBoy

Zeusente
28/01/2016, 16:15
O estoy muy mal en matematicas o la diferencia entre una y la otra son un 27.27%, no un 37.5.

Si la 980ti saca 110fps (seria el 100%)
Si la 980 saca 80 (seria un 72.72%)

Por lo que la 980ti le saca un 27.27% a la 980

No se como haces el calculo....

Saludos!

Cuantos fps son 110 - 80 ? 30 no? Luego 30fps de diferencia.


Para llegar a esos 110fps que escupe la 980ti necesitas es el 37.5% de 80fps para la 980, no...? que son esos 30 fps... yo lo veo claro vamos, no se de donde te sacas tu las cuentas.

Eryou
28/01/2016, 16:15
O hacer la cuenta de la vieja 20 fps de mas es un 20% XD

Enviado desde mi GameBoy

Si XD, una gráfica A saca 5 fotogramas. Y la B saca 25. La B es un 20% más potente que la A. Jeje

Zeusente
28/01/2016, 16:20
Si XD, una gráfica A saca 5 fotogramas. Y la B saca 25. La B es un 20% más potente que la A. Jeje

pues no, si A saca 5fps y B saca 25fps, B escupe 20 fps mas que A o lo que es lo mismo un 400% mas fps.


Así que igual no salen hasta pasado el verano 1080 gtx ... si no fuera porque se va a devaluar tanto la 980ti no le lo pensaría, pero viendo precedentes y con 1 970 gtx creo que aguantaré.

Enviado desde mi GameBoy


A ver te diré algo, tengo un colega en Canadá íntimo amigo de Tom Petersen y lo único que os puedo decir es que la cosas se van a demorar más del lo que dicen las noticias que tenéis. No puedo desvelar más detalles, el tiempo como dije me dará o quitará la razón.

Eryou
28/01/2016, 16:28
pues no, si A saca 5fps y B saca 25fps, B escupe 20 fps mas que A o lo que es lo mismo un 400% mas de fps.
;) Irás viendo que habitualmente utilizamos la ironía por aquí también. No hay mayor obvidad que la que has mencionado, pero siempre hay alguno al que se le escapan estas cosas y acabamos viendo planteamientos parecidos. A no ser que tu también la estuvieses usando XD.

Zeusente
28/01/2016, 16:40
;) Irás viendo que habitualmente utilizamos la ironía por aquí también. No hay mayor obvidad que la que has mencionado, pero siempre hay alguno al que se le escapan estas cosas y acabamos viendo planteamientos parecidos. A no ser que tu también la estuvieses usando XD.

No había leído el post de nesquik en el que decía lo de la cuenta de la vieja, estaba con el telf. movil

Bueno conclusión, como bien decía posts atrás la 980ti está muy cerca de ese 40% más de rendimiento vs la 980 y no el 20% como dijo el compañero. Eso es todo no voy a entrar en mas debate sobre algo absurdo y generar más off topic.

Rioga
28/01/2016, 16:43
Las dos cifras son correctas, pero esta interpretación es erronea.

Para decir A le saca X% a B hay que tomar B como el 100%. El 100% siempre debe ser la de referencia, no la que se quiere calcular.

En este caso con la misma cifra tienes que la 980Ti está un 37.5% por delante de la 980 (tomas la 980 como el 100%), o que la 980 está un 27.3% por detrás de la 980Ti (tomas la 980Ti como el 100%).

Pero decir la 980Ti está un 27.3% por delante de la 980, o que la 980 está un 37.5% por detrás de la 980Ti, es erroneo.

Toda la razón, me he colado, he tomado la 980ti como referencia en vez de la 980.


No, es un 37.5%. La diferencia entre ambas sobre el rendimiento en fps son 30 ( en el caso citado ), luego si calculas bien los % veras que así es.

Toda la razón, va a ser que si que estoy mal de matemáticas :)

vmanuelgm
28/01/2016, 17:42
Zeusente, ese equipo que llevas en la firma es muy parecido al de un usuario que han expulsado recientemente del subforo de hardware de EOL por "flamer"...

Te suena algo de eso???

xD

Donan
28/01/2016, 18:05
Zeusente, ese equipo que llevas en la firma es muy parecido al de un usuario que han expulsado recientemente del subforo de hardware de EOL por "flamer"...

Te suena algo de eso???

xD

Ciclito 2.0? XDD

Zeusente
28/01/2016, 18:13
Zeusente, ese equipo que llevas en la firma es muy parecido al de un usuario que han expulsado recientemente del subforo de hardware de EOL por "flamer"...

Te suena algo de eso???

xD

No se que usuario sera ese que dices, pero bueno ha sido entrar aqui y ya se han metido conmigo dos veces... :^(

Saludos

Fantasma
28/01/2016, 18:58
A ver te diré algo, tengo un colega en Canadá íntimo amigo de Tom Petersen y lo único que os puedo decir es que la cosas se van a demorar más del lo que dicen las noticias que tenéis. No puedo desvelar más detalles, el tiempo como dije me dará o quitará la razón.

No sé por qué, tu post no me inspira ninguna confianza. Igual tienes razón y tienes esos contactos pero que huele a chamusquina, huele y mucho. Pero bueno, ya lo veremos como bien dices.


Mientras, sobre la noticia de Tweaktown, si ofrecen 1.5x el rendimiento de las series que reemplazan, eso es un gran salto. Eso sería decir que la 1070 estaría a nivel de la 980Ti, aproximadamente. Al parecer, la GP100 va a ser una bestia destinada a hundir la Fury X2 (que a este paso va a salir un año después de su anuncio...) y esa será la nueva Titan. Luego en Junio, las 1070/1080 con GDDR5x. Si el 1.5xrendimiento es cierto, tendríamos que la 1080 sería más potente que la 980Ti y por eso cuadraría la necesidad de más ancho de banda. Luego, a final de año, saldrá el reemplazo de la 980Ti, que al parecer, esperaran a Polaris para ver que recortar con respecto al chip tope de gama, tal y como hicieron con la 980Ti, que eclipsó a la Fury X. Estos de Nvidia, son más listos que el hambre. A ver a que precios sale.

Luego ya, para la gama baja, habrá que esperar igual, medio año más con respecto al lanzamiento de las 1070/1080 como en Maxwell. De todas formas, veremos si no es un paper launch, aunque con los tape-out de Mayo-Junio de 2015, las fechas cuadran para tener disponibilidad.

Saludos

Eryou
28/01/2016, 19:04
No sé por qué, tu post no me inspira ninguna confianza. Igual tienes razón y tienes esos contactos pero que huele a chamusquina, huele y mucho. Pero bueno, ya lo veremos como bien dices.
Saludos
Con que sospechas que han venido a hacerte la competencia, eh?? XD

vmanuelgm
28/01/2016, 19:16
No se que usuario sera ese que dices, pero bueno ha sido entrar aqui y ya se han metido conmigo dos veces... :^(

Saludos


Es un usuario que tiene que ir cambiando de Nick para poder entrar otra vez a los foros de los que le expulsan por hacer clones, flaming, poner capturas editadas, insultar y amenazar a compañeros, o hacer quedadas para "yoyas"...

En resumen, un personaje con todas las letras...

Qué opinas tú sobre usuarios que se comportan así???

:)

Obione
28/01/2016, 19:24
Por favor vamos a ceñirnos a Pascal, si alguien nos da trabajo con malas formas ya tomaremos medidas.

Un saludo.

Fantasma
28/01/2016, 19:48
Con que sospechas que han venido a hacerte la competencia, eh?? XD

:rofl::rofl: Me has pillado :lol2:

A mi eso me da igual, cuantos más seamos aportando nuestro granito de arena de forma correcta y civilizada, mejor. Más enriquecemos el foro y los que estamos en él. ;)

Perdón, Obione por el offtopic XDD

Y ya en el tema de nuevo, ¿alguien sabe si se usará al final el NVLink en Pascal? ¿Se usaría para SLI o en comunicaciones internas entre subsistemas de la gráfica? Es que he oido hablar de las bondades del NVLink, que será mejor que el PCI-Express, pero estoy bastante verde en cómo y cuando se va a usar.

Saludos

andapinchao
02/02/2016, 14:18
Zeusente, ese equipo que llevas en la firma es muy parecido al de un usuario que han expulsado recientemente del subforo de hardware de EOL por "flamer"...

Te suena algo de eso???

xD

de Eol y del chapuzas :laugh:

Pero que yo estoy de acuerdo en lo que dice Ciclito y su amigo intimo Tom Petersen:bandit:


A ver te diré algo, tengo un colega en Canadá íntimo amigo de Tom Petersen y lo único que os puedo decir es que la cosas se van a demorar más del lo que dicen las noticias que tenéis. No puedo desvelar más detalles, el tiempo como dije me dará o quitará la razón.

FX8120
02/02/2016, 14:33
NVLink pues según NV sale con Pascal, pero requiere de un puerto nuevo en la MB más pequeño y mas rapido que el actual PCI-E y de CPU compatibles. Con esta conexión se aumenta el ancho de banda entre la CPU y GPU para sacar hasta un X3 más de rendimiento, y ayudar a usar la DRAM junto con la VRAM como una sola memoria del sistema.

Se supone que nuestro PCI-E 3.0 es hasta 5 veces más lento que el NVLink...

harl
02/02/2016, 14:47
NVLink pues según NV sale con Pascal, pero requiere de un puerto nuevo en la MB más pequeño y mas rapido que el actual PCI-E y de CPU compatibles. Con esta conexión se aumenta el ancho de banda entre la CPU y GPU para sacar hasta un X3 más de rendimiento, y ayudar a usar la DRAM junto con la VRAM como una sola memoria del sistema.

Se supone que nuestro PCI-E 3.0 es hasta 5 veces más lento que el NVLink...

Eso si acaso sera para interconectar GPU de nvidia y/o SOC de Nvidia ...

Por que para implementarlo en una placa de Intel o AMD tendríamos el cuello de botella del PciE que es el bus más rápido que sale de la CPU y ya te digo yo que ni uno ni otro lo va a implementar, por que es algo cerrado de Nvidia...

Entonces quien puede integrar ese Bus aparte de Nvidia ¿IBM en sus PowerPC?

FX8120
02/02/2016, 15:07
Si, es para IBM.

Pero hay entra DX12, quizás no este tan lejos como aparenta.

Eryou
02/02/2016, 19:35
Pues a mi me da que el NVLink no implicará por el momento mejores rendimientos aunque se use. Las pruebas que se hacen de vez en cuando para comparar las diferentes versiones de PCI-E arrojan que entre la 2.0 y la 3.0 apenas hay diferencia de rendimiento. En otras palabras, si PCI-E 3.0 apenas es aprovechada al máximo con las GPUs actuales, cómo piensan que NVLink puede suponer un gran cambio??

timoteo7
02/02/2016, 20:31
Pues a mi me da que el NVLink no implicará por el momento mejores rendimientos aunque se use. Las pruebas que se hacen de vez en cuando para comparar las diferentes versiones de PCI-E arrojan que entre la 2.0 y la 3.0 apenas hay diferencia de rendimiento. En otras palabras, si PCI-E 3.0 apenas es aprovechada al máximo con las GPUs actuales, cómo piensan que NVLink puede suponer un gran cambio??

Marketing? ajajajaj

Fantasma
02/02/2016, 20:47
NVLink pues según NV sale con Pascal, pero requiere de un puerto nuevo en la MB más pequeño y mas rapido que el actual PCI-E y de CPU compatibles. Con esta conexión se aumenta el ancho de banda entre la CPU y GPU para sacar hasta un X3 más de rendimiento, y ayudar a usar la DRAM junto con la VRAM como una sola memoria del sistema.

Se supone que nuestro PCI-E 3.0 es hasta 5 veces más lento que el NVLink...

Gracias por la información FX8120.

Hombre yo supongo que actualmente no se podrá usar en el sistema, pero igual ayuda para el SLI, y entonces, si se podrá usar el NVLink en un futuro cercano. Supongo que ahora lo implementarán en sistemas integrados que Nvidia haga, como lo que comentáis de IBM.

El marketing también está ahi... XDDD

Saludos

Oliver91
02/02/2016, 21:05
Pues a mi me da que el NVLink no implicará por el momento mejores rendimientos aunque se use. Las pruebas que se hacen de vez en cuando para comparar las diferentes versiones de PCI-E arrojan que entre la 2.0 y la 3.0 apenas hay diferencia de rendimiento. En otras palabras, si PCI-E 3.0 apenas es aprovechada al máximo con las GPUs actuales, cómo piensan que NVLink puede suponer un gran cambio??

NVLink está orientado a usos multiGPU en entornos profesionales (Tesla), no está orientado a sustituir al PCIe en el mercado doméstico. Aun así, el PCIe es un gran cuello de botella en aplicaciones GPGPU, al programar en CUDA una práctica habitual es intentar hacer el menor número de transferencias posible entre la CPU y la GPU, pues se puede dar el caso de que la transferencia tarde más tiempo que el procesado en si de los datos ya que son dos transferencias: La CPU envía a la GPU los datos a procesar y después la GPU le envía el resultado a la CPU.

zorranco
02/02/2016, 21:12
Las fotos del primer post deberían estar prohibidas...que la gente se cree que van a rendir 4 veces más que maxwell por culpa de esas malditas fotos con el powerpoint de fondo xD

FX8120
02/02/2016, 21:41
Pues aparentemente este nuevo puerto es para lo que es, como bien dice el compañero Oliver91, lo curioso es que una de sus principales características es, o será el uso de las dos memorias DDR + VRAM unificadas, y como sabemos es una de las características de DX12, y si no me equivocó cuando os he leido en otros hilos, de las consolas ?.

Me da por pensar que no esta muy lejos esta nueva historia para el uso de la plebe, veamos cuando salga Pascal por donde irán los tiros y lo que tardan en ver el filon de ventas los fabricantes.

Si son correctos los datos de NV sobre el aumento de rendimiento esto sería una pasada y un gran salto de verdad.

harl
03/02/2016, 07:21
Las fotos del primer post deberían estar prohibidas...que la gente se cree que van a rendir 4 veces más que maxwell por culpa de esas malditas fotos con el powerpoint de fondo xD

http://images.anandtech.com/doci/7900/PascalRoadmap.jpg
Para empezar son gráficas de rendimiento/vatio, así que podría ser más una bajada de consumo que un aumento de rendimiento y para continuar ya sabemos lo que exageran los fabricantes ...

Eryou
03/02/2016, 10:53
Se parecen a las que hacen el gobierno de turno para mostrar la creación de empleo. XD

Pero aunque sea cierta, tiene apariencia engañosa. Se aprecia como "Fermi" tiene el doble que "Tesla", "Kepler" más del triple que "Fermi", "Maxwell" casi el doble que "Kepler".... y "Pascal" un 66% más que "Maxwell", así que claramente (una vez analizado) el salto menos significativo de todos ellos.

garakust
03/02/2016, 11:22
A mi me gustaria saber si en este generacion haran como amd y los ensambladores van a empezar a darle mas importantia una refrigeracion liquida como la nano pero bien hecha.

zorranco
03/02/2016, 11:46
Para empezar son gráficas de rendimiento/vatio, así que podría ser más una bajada de consumo que un aumento de rendimiento y para continuar ya sabemos lo que exageran los fabricantes ...

Según extreme tech:

Jen-Hsun claims that Pascal will achieve over 2x the performance per watt of Maxwell in Single Precision General Matrix multiplication. But there are two caveats to this claim, as far as gamers are concerned. First, recall that improvements to performance per watt, while certainly vital and important, are not the same thing as improvements to top-line performance. The second thing to keep in mind is that boosting the card’s SGEMM performance doesn’t necessarily tell us much about gaming.

Eryou
03/02/2016, 12:14
Bueno... tampoco tiene mucha complicación. Si el rendimiento/vatio se mantiene más o menos en todas las gamas de Pascal, el consumo se podrá elegir según que de qué t.gráfica hablemos. Una supuesta GTX 1050 que podría rondar los 90-100w a una 1080-1080 Ti que podrían rondar los 200w.

Mientras las relaciones se respeten (tanto las de rendimiento/watio como rendimiento/precio) a mi no me importa lo más mínimo que haya variedad... para los que quieren una gráfica de 150€, de 200w, de 700€... Yo diría que en este sentido, en los últimos años esto se ha mejorado bastante respecto a lo que pasaba antes.
Hace años, era habitual encontrate con una t.grafica "X" y con otra que rendía un 15% más pero consumía un 40% más y costaba un 70% extra.

harl
03/02/2016, 12:24
Según extreme tech:

Jen-Hsun claims that Pascal will achieve over 2x the performance per watt of Maxwell in Single Precision General Matrix multiplication. But there are two caveats to this claim, as far as gamers are concerned. First, recall that improvements to performance per watt, while certainly vital and important, are not the same thing as improvements to top-line performance. The second thing to keep in mind is that boosting the card’s SGEMM performance doesn’t necessarily tell us much about gaming.

Pues eso, primero lo que he dicho yo que el doble de eficiencia no significa el doble de rendimiento
y segundo que el rendimiento del SGEMM (multiplicación de matrices) tampoco revela nada del rendimiento en juegos ...

Y como ya he comentado Nvidia solo habla de Pascal para computación, deep learning, etc ...
De Pascal para juegos no les he visto decir ni media palabra todavía, que seguramente nos interesara saber como va el soporte de Dx 12, los shaders asincronos y tal ...
Sí que sabemos que en FP16 tiene el doble de rendimiento que de FP32 (cosa que ya incluyeron en la Maxwell del Tegra X1) lo que ayudara en una de las características de Dx12 (Minimum floating point precision).

Pero lo sabemos por que hablaron de la importancia del FP16 para deep learning y los coches autónomos ...

Fear effect
03/02/2016, 14:41
NVLink está orientado a usos multiGPU en entornos profesionales (Tesla), no está orientado a sustituir al PCIe en el mercado doméstico. Aun así, el PCIe es un gran cuello de botella en aplicaciones GPGPU, al programar en CUDA una práctica habitual es intentar hacer el menor número de transferencias posible entre la CPU y la GPU, pues se puede dar el caso de que la transferencia tarde más tiempo que el procesado en si de los datos ya que son dos transferencias: La CPU envía a la GPU los datos a procesar y después la GPU le envía el resultado a la CPU.

Ya pero eso no es un problema de ancho de banda, si no de latencia... supongo que eso habrá sido prioritario a la hora de desarrollar NVLink, aún con todo tiene mucho mas sentido las apus en ciertos entornos debido a esto, o meter núcleos ARM en sus propias GPUS TESLA, o que AMD saque una APU competente acompañada por buen Software a nivel de cuda (Cosa improbable), por que si no... intel con sus propuesta de muchos mininucleos va a seguir avanzando en el mercado.

harl
04/02/2016, 07:47
Ya pero eso no es un problema de ancho de banda, si no de latencia... supongo que eso habrá sido prioritario a la hora de desarrollar NVLink, aún con todo tiene mucho mas sentido las apus en ciertos entornos debido a esto, o meter núcleos ARM en sus propias GPUS TESLA, o que AMD saque una APU competente acompañada por buen Software a nivel de cuda (Cosa improbable), por que si no... intel con sus propuesta de muchos mininucleos va a seguir avanzando en el mercado.

Pues de esto han hablado mucho se decía que incluso para Maxwell, pero por ahora ...
http://www.tomshardware.com/news/nvidia-armv8-soc-gpu,18838.html

Tegra is going to become GPU computing capable in the not-so-distant future. Sometime this decade we are also going to start bringing integrated CPUs and GPUs together in the Tesla line
Fue en 2012 cuando el CTO dijo que pensaban incorporar núcloes ARM en sus Tesla (en algún momento de esta década)

Pero mientras que Intel tiene un ecosistema más grande y puede integrar sus Mic/Xeon Phi pudiendo conectarlos por QPI o con el próximo omnipath , pues Nvidia se tiene que conformar con hacer "super computadores" para coches con soc tegra y tarjetas de portátil o intentarlo con una arquitectura cada vez menos relevante como PPC ...

Rioku
06/02/2016, 12:26
Yo ahora mismo, las firmaba para septiembre.

Saludos

DavidPS3
08/02/2016, 10:33
yo tenia pensado pillar la gtx970. Creeis que saldra alguna de las nuevas en torno a lo que vale ahora la 970?

Eryou
08/02/2016, 14:13
yo tenia pensado pillar la gtx970. Creeis que saldra alguna de las nuevas en torno a lo que vale ahora la 970?

Pues la supuesta 1070, que debería costar 300-350 € en el momento de su salida. En principio saldrían en junio/julio, pero entre que empieza haber disponibilidad y demás, agosto/septiembre. Su rendimiento debería como mínimo igualar el de la 980 (yo creo que estará entre la 980 y la 980 Ti)

Oliver91
08/02/2016, 14:31
Pues la supuesta 1070, que debería costar 300-350 € en el momento de su salida. En principio saldrían en junio/julio, pero entre que empieza haber disponibilidad y demás, agosto/septiembre. Su rendimiento debería como mínimo igualar el de la 980 (yo creo que estará entre la 980 y la 980 Ti)

Pues vaya miseria de salto, para un incremento de rendimiento del 20-25% se la podían ahorrar... Y ahora viene cuando recordamos que la GTX670 fué sustancialmente más potente que la GTX580 y ya por entonces se decía que el salto era pequeño...

No entiendo por que se tiene tan idealizada a la GTX980 Ti, es una tope de gama más y todas las tope de gama han sido superadas en generaciones posteriores, que nVidia saque una GTX1070 inferior a la GTX980 Ti sería un fracaso y un comportamiento sin ninguna lógica además. Eso no ha pasado nunca, ni siquiera en Maxwell que tuvieron que mantenerse en los 28nm, la GTX970 está al nivel de la GTX780 Ti, y lo repito, eso manteniendo el mismo nodo, aquí hay un salto a 16nm.

Odarnok
08/02/2016, 14:41
Pues la supuesta 1070, que debería costar 300-350 € en el momento de su salida. En principio saldrían en junio/julio, pero entre que empieza haber disponibilidad y demás, agosto/septiembre. Su rendimiento debería como mínimo igualar el de la 980 (yo creo que estará entre la 980 y la 980 Ti)

Debería si el euro estuviera como hace año y medio. Ahora mismo, si sale a 350 euro será un chollo.

Lo más probable es que salga más cerca de 400 que de 350.

Y sí, en potencia, si se cumple lo de los saltos generacionales reales, sería un 50-60% más de la 970 a 1070, eso la dejaría cerca de una 980ti, que es del orden del 70% superior, como se ve en todas las pruebas.

- - - Actualizado - - -


Pues vaya miseria de salto, para un incremento de rendimiento del 20-25% se la podían ahorrar... Y ahora viene cuando recordamos que la GTX670 fué sustancialmente más potente que la GTX580 y ya por entonces se decía que el salto era pequeño...

No entiendo por que se tiene tan idealizada a la GTX980 Ti, es una tope de gama más y todas las tope de gama han sido superadas en generaciones posteriores, que nVidia saque una GTX1070 inferior a la GTX980 Ti sería un fracaso y un comportamiento sin ninguna lógica además. Eso no ha pasado nunca, ni siquiera en Maxwell que tuvieron que mantenerse en los 28nm, la GTX970 está al nivel de la GTX780 Ti, y lo repito, eso manteniendo el mismo nodo, aquí hay un salto a 16nm.

Pero, ¿sabes la diferencia que hay de una 970 a una 980ti?, o de una 980 a la 980ti.

Esa diferencia tan brutal no la ha habido nunca en monoprocesador. Así de sencillo.

Si la 1070 siquiera iguala la 980ti con el precio de 350-400 euro, será un logro enorme. Porque será un salto del 70% sobre la tarjeta sustituida.

He mirado en anandtech, la review de la 670 y 680 de mayo de 2012. La diferencia entre la 570 y 670 es de un 60%, y la razón por la que superó ampliamente a la 580 fue que la 580 estaba muy cerca de la 570 en rendimiento.

Pero es que me estás diciendo que la 1070 debe duplicar la potencia de la 970 para que tú digas que no es una basura...

Por último, aquí una prueba entre la 570 y 670 WF3 de Gigabyte, la diferencia en juegos rondaba el 40% como máximo, y es que la 580 era apenas un 25% más potente en el mejor de los casos que la 570.

http://www.overclock.net/t/1328607/gtx670-vs-gtx570-benchmarks-20-games-tested-on-1920x1200

En este vídeo, comparativa entre 670, 680, 770 y 780, la diferencia entre la primera y la última es alrededor del 50%

https://www.youtube.com/watch?v=BfMYb1Jk0FU

Aquí la 780 contra la 780ti. Una diferencia no superior al 20% de media entre ambas

http://www.ocaholic.ch/modules/smartsection/item.php?page=0&itemid=1291


Y tú pides que, en un único salto, Nvidia haga lo que le ha costado hacer desde la 570 a la 780ti...

Y que conste que a mí me encantaría, porque si ocurre, en dos años cambio de gráficas y se acabó, cuando salgan las 1080ti.

Oliver91
08/02/2016, 15:06
Pero, ¿sabes la diferencia que hay de una 970 a una 980ti?, o de una 980 a la 980ti.


Como siempre, depende de la batería de juegos. Si me guío por TPU en la primera review que he pillado que es de una R9 390:

https://tpucdn.com/reviews/Sapphire/R9_390_Nitro/images/perfrel_2560_1440.png

https://tpucdn.com/reviews/Sapphire/R9_390_Nitro/images/perfrel_1920_1080.png

128/89=43,8% a 1440p y 128/93=37,63% a 1080p. ¿Qué la GTX980 Ti es un 70% más potente que la GTX970? Eso será algo que dicen por aquí o por otros foros, pero no significa que sea verdad, es como eso de que una GTX980 Ti rinde como un SLI de GTX970, tampoco es verdad.

Una cosa es que una GPU monoGPU tenga muchas ventajas, que además yo comparto, y otra distinta es inflar números.

Odarnok
08/02/2016, 15:15
Yo siempre uso varias fuentes, puedes mirar los resultados en ellas.

Y de TPU no me fio desde hace mucho, no sé cómo obtienen los resultados que ponen, y se han encontrado resultados muy raros en sus distintas reviews.

Por otro lado, mira siempre las reviews en la salida de cada tarjeta, porque son las que marcan la idea que el comprador tiene sobre cada marca.

Por eso AMD está como está.

Y finalmente, mira en Guru3d, sus resultados son replicables porque ponen exactamente las condiciones bajo las que lo hacen, no como TPU, así como en 3DMARK, en los resultados, mirando los validados, que te ponen incluso el oc que llevan. Y después, hablamos de si es un 50 (de serie ambas, o la más baja custom) o un 70 (entre modelos custom), que es lo que he comprado siempre.

Mira, usando TPU, mira los resultados...

https://www.techpowerup.com/reviews/MSI/GTX_980_Ti_Lightning/23.html

https://www.techpowerup.com/reviews/Gigabyte/GTX_980_Ti_G1_Gaming/30.html

https://www.techpowerup.com/reviews/MSI/GTX_980_Ti_Gaming/30.html

Entre un 60 y un 70%, y se llegan a diferencias que superan el 80% en 4k...

Y cuánto más uso se haga de la memoria, se notará más

Y de serie, rondará, como poco, el 50% Sigue siendo una diferencia nunca vista en una misma generación de gráficas monoprocesador.

Rioku
08/02/2016, 15:35
Pues vaya miseria de salto, para un incremento de rendimiento del 20-25% se la podían ahorrar


- Soporte completo DX12 por hardware
- 8 GB
- Mejoras de cara a la realidad virtual

Eso sin contar con el aumento de rendimiento, que no sé si será de un 25, 30, 35% o vete tú a saber, pero para mí, ya con eso merece la pena.

Saludos

Oliver91
08/02/2016, 15:46
Yo siempre uso varias fuentes, puedes mirar los resultados en ellas.

Y de TPU no me fio desde hace mucho, no sé cómo obtienen los resultados que ponen, y se han encontrado resultados muy raros en sus distintas reviews.

Por otro lado, mira siempre las reviews en la salida de cada tarjeta, porque son las que marcan la idea que el comprador tiene sobre cada marca.

Bueno, he ojeado Guru3D y Techreport que es la que más me suele gustar. En guru3D parece que las diferencias son mayores que en otros sites, también por que pasan las pruebas a 1440p con algo de AA, lo cual favorece a la 980 Ti obviamente.

http://www.guru3d.com/articles_pages/asus_rog_matrix_geforce_gtx_980_ti_platinum_editio n_review,13.html

GTA V -> 56,36%
Thief -> 63,63%
TW3 -> 45,23%
SoM -> 43,47%
TR -> 61,44%
Bioshock -> 50,68%
Battlefield -> 52,5%

http://techreport.com/review/28612/asus-strix-radeon-r9-fury-graphics-card-reviewed/3

Proyect Cars -> 28,12%
GTA V -> 48,57%
TW3 -> 46,15%
FC4 -> 51,85%
Alien Is -> 53%
Civilization -> 52,3%
BF4 -> 51,61%
Crysis 3 -> 53,3%

No deduzco yo una diferencia de un 70% en estas reviews, si tuviese que ponerle cifra sería más bien un 50%, que no está mal tampoco, pero no es un 70%.

Sobre lo otro que dices lo que mirar los resultados a la salida de la tarjeta no lo comparto mucho por que los drivers suelen estar verdes y con el tiempo mejoran. Sobre TPU la he puesto como te digo por que iba con un poco de prisa y es lo primero que he pillado, pero si, yo tampoco me fío mucho de ellos en lo que respecta a nVidia vs AMD, creía que en nvidia vs nvidia serían más fiables.



- Soporte completo DX12 por hardware
- 8 GB
- Mejoras de cara a la realidad virtual

Eso sin contar con el aumento de rendimiento, que no sé si será de un 25, 30, 35% o vete tú a saber, pero para mí, ya con eso merece la pena.

Lo del soporte completo DX12 está bien (si es que las Maxwell no lo tienen ya), pero tampoco es vital, las nvidia no soportaron DX10.1 y creo que tampoco DX11.1 y eso no ha sido nunca un problema. Además, al paso que va DX12 para cuando empiecen a salir juegos ya habrá salido la sustituta de Pascal.

Sobre la realidad virtual no digo nada por que no lo utilizo (aunque no se que necesidades tiene eso por hardware que no existan ya), pero los 8GB los tienes en GPUs de AMD.

Odarnok
08/02/2016, 15:52
- Soporte completo DX12 por hardware
- 8 GB
- Mejoras de cara a la realidad virtual

Eso sin contar con el aumento de rendimiento, que no sé si será de un 25, 30, 35% o vete tú a saber, pero para mí, ya con eso merece la pena.

Saludos

A mí me da igual eso por varias razones:

La 980ti ya soporta dx12 COMPLETO, en su nivel 12.1

La RV depende mucho de ser sensible a la discordancia entre lo que ves y lo que sientes con el cuerpo: mareos que disminuyen el tiempo de juego. Yo soy sensible, así que hasta que eso no lo arreglen... ni con un palo (salvo que me vuelva loco, que también puede pasar)



Lo único que me interesaría sería el bus de memoria y la cantidad de la misma, pero muy buenas tendrían que salir las 1080 para que no espere a las 1080ti.

- - - Actualizado - - -


Bueno, he ojeado Guru3D y Techreport que es la que más me suele gustar. En guru3D parece que las diferencias son mayores que en otros sites, también por que pasan las pruebas a 1440p con algo de AA, lo cual favorece a la 980 Ti obviamente.

http://www.guru3d.com/articles_pages/asus_rog_matrix_geforce_gtx_980_ti_platinum_editio n_review,13.html

GTA V -> 56,36%
Thief -> 63,63%
TW3 -> 45,23%
SoM -> 43,47%
TR -> 61,44%
Bioshock -> 50,68%
Battlefield -> 52,5%

http://techreport.com/review/28612/asus-strix-radeon-r9-fury-graphics-card-reviewed/3

Proyect Cars -> 28,12%
GTA V -> 48,57%
TW3 -> 46,15%
FC4 -> 51,85%
Alien Is -> 53%
Civilization -> 52,3%
BF4 -> 51,61%
Crysis 3 -> 53,3%

No deduzco yo una diferencia de un 70% en estas reviews, si tuviese que ponerle cifra sería más bien un 50%, que no está mal tampoco, pero no es un 70%.

Sobre lo otro que dices lo que mirar los resultados a la salida de la tarjeta no lo comparto mucho por que los drivers suelen estar verdes y con el tiempo mejoran. Sobre TPU la he puesto como te digo por que iba con un poco de prisa y es lo primero que he pillado, pero si, yo tampoco me fío mucho de ellos en lo que respecta a nVidia vs AMD, creía que en nvidia vs nvidia serían más fiables.



Te voy a decir un secreto... un micro 3930k hace cuello de botella a una 980ti, y a 2 ni te imaginas, y eso a 4700 MHz. Deja los micros de serie y esas son las diferencias, del 50%, sube el micro y la 980ti se despega mucho más de la 970.

Eso en juegos, en pruebas sintéticas no pasa tanto, bueno, sí pasa, salvo en 3dmark, que no sé que han hecho para obviar tan bien al micro en las pruebas gráficas. Se nota que en su día hicieron "The Product" y que saben hacer demos que no usan la cpu para nada.

Oliver91
08/02/2016, 15:55
¿Quién a usado un 3930K que no me entero? Por que en TPU usan un i7 6700K, y en guru3D/Techreport un 5960X.

Odarnok
08/02/2016, 16:07
¿Quién a usado un 3930K que no me entero? Por que en TPU usan un i7 6700K, y en guru3D/Techreport un 5960X.

Los usan de serie, sin subir los micros. Eso influye en la cantidad de datos que pueden manejar en unidad de tiempo.

Como nos movemos en frames por segundo, si aumentamos la cantidad de datos que se pueden manejar en ese segundo, aumentamos el aprovechamiento de las tarjetas gráficas, dando todo de sí.

Un 3930k a 4700 es aproximadamente igual a un 5960x de serie o con poco OC, y bastante mejor que un 6700k de serie, que además tiene menos líneas PCIE.

Los juegos no usan siempre los mismos cores, de hecho si pones un solo core, casi no hay diferencias en el Rise of Tomb Raider... pero ¿y sí le haces overclock?.

Eso no lo analizan en las reviews de tarjetas gráficas, el como responden ante el oc del resto del sistema: micro, memorias y buses, y se notan, cada cosa un poco, pero cuando lo pones todo junto, la diferencia entre una 970 y una 980ti se agranda mucho más, y eso con las gráficas de stock, si ya te metes en tarjetas custom, aún metes más diferencia entre dos tarjetas que no son de serie.

Oliver91
08/02/2016, 16:12
Los usan de serie, sin subir los micros. Eso influye en la cantidad de datos que pueden manejar en unidad de tiempo.

Como nos movemos en frames por segundo, si aumentamos la cantidad de datos que se pueden manejar en ese segundo, aumentamos el aprovechamiento de las tarjetas gráficas, dando todo de sí.

Un 3930k a 4700 es aproximadamente igual a un 5960x de serie o con poco OC, y bastante mejor que un 6700k de serie, que además tiene menos líneas PCIE.

Los juegos no usan siempre los mismos cores, de hecho si pones un solo core, casi no hay diferencias en el Rise of Tomb Raider... pero ¿y sí le haces overclock?.

Eso no lo analizan en las reviews de tarjetas gráficas, el como responden ante el oc del resto del sistema: micro, memorias y buses, y se notan, cada cosa un poco, pero cuando lo pones todo junto, la diferencia entre una 970 y una 980ti se agranda mucho más, y eso con las gráficas de stock, si ya te metes en tarjetas custom, aún metes más diferencia entre dos tarjetas que no son de serie.

No me parece a mi que una GTX980 Ti sea tan potente como para que se note en todos los juegos un 6700K de serie a con OC, si fuese un SLI entonces si. Aun así, en TPU lo ponen a 4,5GHz: https://www.techpowerup.com/reviews/Sapphire/R9_390_Nitro/5.html

Las pruebas de TPU de antes las he sacado de ahí, de la última review que tienen en la web de GPUs, y las hacen con un 6700K@4,5GHz. En ese sentido, en cuanto a CPU no hay nada mucho mejor que puedan poner para un test de juegos.

Odarnok
08/02/2016, 16:25
No me parece a mi que una GTX980 Ti sea tan potente como para que se note en todos los juegos un 6700K de serie a con OC, si fuese un SLI entonces si. Aun así, en TPU lo ponen a 4,5GHz: https://www.techpowerup.com/reviews/Sapphire/R9_390_Nitro/5.html

Las pruebas de TPU de antes las he sacado de ahí, de la última review que tienen en la web de GPUs, y las hacen con un 6700K@4,5GHz. En ese sentido, en cuanto a CPU no hay nada mucho mejor que puedan poner para un test de juegos.

Ese micro, de serie se pone a 4.2 GHz (los 4 núcleos) hasta 4.4 (1 núcleo), ponerlo a 4.5 es no hacer nada.

Mira estas dos gráficas tomadas de el chapuzas informático. Si te das cuenta, hay una diferencia del 2% solo por poner un micro más rápido de serie. Añade Oc y más ancho de banda y tienes una mejor respuesta, aunque están hechas con una 290.

http://elchapuzasinformatico.com/wp-content/uploads/2015/08/Intel-i7-6700K-Tests-11.jpg

http://elchapuzasinformatico.com/wp-content/uploads/2015/08/Intel-i7-6700K-Tests-12.jpg

Si ahora lo aplicas a una tarjeta muy superior, como la 980ti, donde había un 2% te puedes encontrar con un 4, 8 e incluso 10%, salvo que te vayas a resoluciones muy altas donde la tarjeta gráfica alcance su tope real. Y es que FHD es la nueva VGA.

Oliver91
08/02/2016, 16:28
No, no sirve por que las AMD son más dependientes de CPU que las nVidia (culpa del driver DX11 de AMD). Teniendo una CPU acorde las diferencias aparecen en casos puntuales en juegos puntuales, no en la mayoría como para cambiar un 50% por un 70%, esa diferencia a lo mejor la ves pasando de un FX a un 6700K, en ese caso no te diría que no.

Un ejemplo de esto lo tienes en las miles de discusiones que hay en el foro de CPUs por como poner las opciones gráficas para que limite la CPU y no la GPU. Estás justamente llevandome al terreno contrario al del otro subforo,en aquel es dificil hacer que limite la CPU y aquí ahora lo que dices que es dificil es que limite la GPU.

Odarnok
08/02/2016, 16:48
A ver, un ejemplo:

La CPU es una cañería, la GPU un conjunto de grifos.

Si no aumentas la cañería, da igual el número de grifos que haya.

Eso pasa ya con Intel y AMD, sus cpus no dan para alimentar las gráficas de gama alta a 1080p, ya que no permiten calcular el número de fps necesarios para la gpu.

Si te pones en 2k o 4k, dado que aumenta la complejidad de lo que calcula la GPU, se enmascara la falta de potencia de las cpus. Eso yo lo he visto con el SLI que tengo. Si pongo 1080p en heaven 4.0, me quedo en 150 fps, pero si pongo 3440*1440, me quedo en 95 fps, que solo en pixeles equivaldrían a 220 fps a 1080p. Una diferencia del 46%, y eso que la complejidad de la escena es mayor en ultrawide.

Y eso en las tarjetas nvidia, que son menos cpu-dependientes...

El que tenga una tarjeta y un monitor 4 k puede hacer la prueba, ya que todo será igual salvo la cantidad de píxeles a mover, y verá la diferencia de rendimiento que demuestra la 980ti, haciendo una regla de 3.



En definitiva, lo que quiero decir es que se ha llegado a un tope en la forma en que se calculan las escenas por parte de la cpu. En juegos y programas antiguos podemos tener 1000 fps, ó 6000 ó 10000, pero porque las escenas tienen pocos polígonos.

Los motores gráficos deben cambiar, igual que cuando se desarrolló la idea del voxel, de hecho nvidia hace uso de algo parecido para su iluminación indirecta bajo maxwell y pascal. DIsminuye la carga poligonal del micro y aumenta la cantidad de pixeles que debe tratar la gráfica.

avex
08/02/2016, 17:31
Y eso en las tarjetas nvidia, que son menos cpu-dependientes...


Lo son, es bien conocido que el driver de DX11 de AMD es menos eficiente en la gestión de la comunicación CPU-GPU.

Este es un ejemplo claro. (https://www.youtube.com/watch?v=15wOp7_dD8E)

josrob536
08/02/2016, 17:44
independiente de la cpu , aqui el problema es que las 980ti vienen con 200mhz menos que las 980 y unos 100 y algo menos que las 970.
a 1440p con filtros a mismo clok he visto diferencias del 70% a favor de la 980ti vs la 970 .
en las reviews jamas vas haber esos resultados por que no hacen pruebas con la misma frecuencia.
si cojieran la 980ti,980,970 y pasaran una bateria de juegos a 1500mhz de nucleos y 8ghz de memoria verias unos resultados muy diferentes a los que puedes mirar en las tipicas reviews. ;)

respecto a lo que hablais de la cpu, en la mayoria de casos con una monogpu es facil que el limitante sea la GPU en el 99.9% de las pruebas .

Saludos.

Odarnok
08/02/2016, 18:07
independiente de la cpu , aqui el problema es que las 980ti vienen con 200mhz menos que las 980 y unos 100 y algo menos que las 970.
a 1440p con filtros a mismo clok he visto diferencias del 70% a favor de la 980ti vs la 970 .
en las reviews jamas vas haber esos resultados por que no hacen pruebas con la misma frecuencia.
si cojieran la 980ti,980,970 y pasaran una bateria de juegos a 1500mhz de nucleos y 8ghz de memoria verias unos resultados muy diferentes a los que puedes mirar en las tipicas reviews. ;)

respecto a lo que hablais de la cpu, en la mayoria de casos con una monogpu es facil que el limitante sea la GPU en el 99.9% de las pruebas .

Saludos.

De hecho esos resultados se ven en las pruebas hechas por los usuarios, o revisando el hilo de resultados de 3dmark en Steam, o en los propios resultados que se suben a la web de Futuremark.

Y son resultados consistentes en todos los foros del mundo, así de sencillo.

Por otro lado, yo llevo siendo usuario de sli desde hace 7 años, para mí, a día de hoy, una gpu con un único chip gráfico, no es una opción, por eso me va preocupando la cpu que tengo, y ya voy viendo que puedo usar en un futuro.

stalker77
08/02/2016, 18:07
Lo son, es bien conocido que el driver de DX11 de AMD es menos eficiente en la gestión de la comunicación CPU-GPU.

Este es un ejemplo claro. (https://www.youtube.com/watch?v=15wOp7_dD8E)

Cache de sombreado, es una opción en el panel de nvidia, no creo que sea correcto hablar de eficiencia de driver a una opción que se puede deshabilitar. Que por cierto siempre me quedo la duda en su eficiencia, las pruebas que realice en su tiempo, los resultados no eran muy alentadores, no se si hay review al respecto.

Se habla de cuello de botella muy fácil, no en todos los juegos hay cuello, y tambien se tendrán juegos que saturen un solo hilo, por cual va dar un poco igual 4hz que 5hz, para sacar una conclusión se tendrían que probar cada juego, para ver en cuales puede haber una limitación.

Bloot
08/02/2016, 18:13
Yo dudo que la posible 1070 o como la denominen esta vez rinda como una 980 ti, pero algo más que una 980 sí creo que rendirá.

De hecho me he comprado una 980 ti sospechando que las nuevas salgan "capadas" para ir explotando la gallina de los huevos de oro poco a poco, como hacen siempre. De los primeros chips no espero una gran revolución, aunque ya queda poco para saberlo a ciencia cierta.

DavidPS3
08/02/2016, 18:19
Pues la supuesta 1070, que debería costar 300-350 € en el momento de su salida. En principio saldrían en junio/julio, pero entre que empieza haber disponibilidad y demás, agosto/septiembre. Su rendimiento debería como mínimo igualar el de la 980 (yo creo que estará entre la 980 y la 980 Ti)

Pues ya tenia ganas de renovar el Q6600 porque lo tengo sus 8 añitos ya.. pero visto que van a salir las graficas en verano y tambien los nuevos procesadores de intel.. por una parte tengo ganas de pillarlo ya peor por otra de esperar..xD

josrob536
08/02/2016, 18:19
Yo dudo que la posible 1070 o como la denominen esta vez rinda como una 980 ti, pero algo más que una 980 sí creo que rendirá.

De hecho me he comprado una 980 ti sospechando que las nuevas salgan "capadas" para ir explotando la gallina de los huevos de oro poco a poco, como hacen siempre. De los primeros chips no espero una gran revolución, aunque ya queda poco para saberlo a ciencia cierta.

pues yo pienso como oliver.
deberia superar a la TITAN-X y eso hablando del GP204 el gama media. la 970 siendo mismo proceso de nm ya rinde similar a la 780ti.
la gtx670 se pasaba a la 580 por un 35% facilmente y hablo no de review, de pruebas echas en mi casa con ambas oceadas hasta las trancas.
en esta ocasion hay cambio de nodo y cambio de arquitectura yo creo y pienso que va a rendir la 1080gtx mas que la TITAN-X .

el chicle lo pueden seguir estirando igual , mira los 28nm gtx670/680/770/780/780ti/970/980/980ti.
con el finfet de 16nm haran lo mismo si no mas.

Saludos.

Marcos669
08/02/2016, 18:21
pues yo pienso como oliver.
deberia superar a la TITAN-X y eso hablando del GP204 el gama media. la 970 siendo mismo proceso de nm ya rinde similar a la 780ti.
la gtx670 se pasaba a la 580 por un 35% facilmente y hablo no de review, de pruebas echas en mi casa con ambas oceadas hasta las trancas.
en esta ocasion hay cambio de nodo y cambio de arquitectura yo creo y pienso que va a rendir la 1080gtx mas que la TITAN-X .

el chicle lo pueden seguir estirando igual , mira los 28nm gtx670/680/770/780/780ti/970/980/980ti.
con el finfet de 16nm haran lo mismo si no mas.

Saludos.

Ya sabéis que van a hacer otra vez la jugarreta de sacar el chip de gama media, en este caso Gp204 como gama alta (posible gtx 1080) verdad? esta cantado

Eryou
08/02/2016, 18:21
Pues vaya miseria de salto, para un incremento de rendimiento del 20-25% se la podían ahorrar... Y ahora viene cuando recordamos que la GTX670 fué sustancialmente más potente que la GTX580 y ya por entonces se decía que el salto era pequeño...

No entiendo por que se tiene tan idealizada a la GTX980 Ti, es una tope de gama más y todas las tope de gama han sido superadas en generaciones posteriores, que nVidia saque una GTX1070 inferior a la GTX980 Ti sería un fracaso y un comportamiento sin ninguna lógica además. Eso no ha pasado nunca, ni siquiera en Maxwell que tuvieron que mantenerse en los 28nm, la GTX970 está al nivel de la GTX780 Ti, y lo repito, eso manteniendo el mismo nodo, aquí hay un salto a 16nm.

Es cierto que la 670 era tan rápida o más que la 580, pero también hemos visto que ha habido una clara tendencia a bajar el consumo de cada gama. Además, la 580 no era Ti y cuando salió al mercado no era tan cara como las x80 Ti que ha habido últimamente.
Creo que sería todo un logro ver una 1070 con un TDP de 130-140 W igualando el rendimiento de otra de 250 W... estarían cumpliendo eso de "Pascal será doble de eficiente que Maxwell". Otra historia es que se mantengan o incluso aumenten ese consumo, lo cual igualar o superar ese rendimiento ya no sería ninguna hazaña...

Yo no veo tan grave que no alcancen ese rendimiento de la 980 Ti con la 1070, lo que si sería grave es que te lo quieran cobrar como si lo hubieran conseguido y encima con un consumo elevado. Además, siempre te podrían sacar una supuesta 1070 Ti.

Odarnok
08/02/2016, 18:24
Cache de sombreado, es una opción en el panel de nvidia, no creo que sea correcto hablar de eficiencia de driver a una opción que se puede deshabilitar. Que por cierto siempre me quedo la duda en su eficiencia, las pruebas que realice en su tiempo, los resultados no eran muy alentadores, no se si hay review al respecto.

Se habla de cuello de botella muy fácil, no en todos los juegos hay cuello, y tambien se tendrán juegos que saturen un solo hilo, por cual va dar un poco igual 4hz que 5hz, para sacar una conclusión se tendrían que probar cada juego, para ver en cuales puede haber una limitación.

Precisamente si saturan un hilo a 4 GHz, si lo pones a 5 tienes de golpe una mejora de hasta el 25%.

Y cuello de botella existe desde el momento que puedes comprobarlo, otra cosa es que dependa también de cómo se programe el motor gráfico.

Por ejemplo, el 3dmark no es bueno para detectar cuello de botella porque consigue que la cpu no haga nada en las dos pruebas gráficas, sin embargo no pasa lo mismo con los programas que usan el motor uningine. Solo hay que hacer lo que se ha hecho siempre: probar distintas resoluciones, cuando el disminuir la resolución no aumenta los fps, ese es el tope de dicho micro bajo ese motor gráfico. Y a partir de ahí, cuello de botella, salvo que uses una resolución bestial o añadas nuevos efectos.

Y eso es lo que hace DX12, depende mucho más de la gpu, descargando a la cpu, por eso da más rendimiento práctico, porque deja de usar el elemento limitante, la cpu.

Y es por eso que donde más se van a ver las mejoras en velocidad de DX12 es en las gamas entusiastas de Nvidia y AMD, porque son las gamas que están limitadas por la cpu.

Lo bueno que tiene eso es que el micro podrá encargarse de la IA, pudiendo ser más compleja, con más hilos simultáneos, cuya potencia de cpu ahora sirve para alimentar a la gráfica y pasará a alimentar a la jugabilidad.

Yo creo que volveremos a ver unos buenos bots para juego off line y unas mejores IAs en estrategia, basadas en algoritmos que ahora se usan poco porque son muy demandantes.

Y, para finalizar, esto hará que las gamas anteriores de AMD y Nvidia, aunque sean DX12 compatibles, empeoren aún más sus resultados, porque no tengan la circuitería necesaria que requiera DX12 para liberar a la cpu, por lo que o disminuyen efectos, o los emulan con ayuda de la cpu, aunque los tuvieran en dx11, salvo que AMD y Nvidia hagan los drivers con distintas versiones de las llamadas de DX12 según la gpu que se tenga... pero eso puede hacer que los drivers pesen 600-700 megas, aunque mejor eso que no ver arrastrándose a una 290x ó 780ti.

stalker77
08/02/2016, 18:24
Ya sabéis que van a hacer otra vez la jugarreta de sacar el chip de gama media, en este caso Gp204 como gama alta (posible gtx 1080) verdad? esta cantado

Esa táctica comercial les deja mucho $, por lo cual esta claro que primero el chip MID a precio de Gp210.

Bloot
08/02/2016, 18:27
Si, por deber, sí que deberían, no podemos jugar a ser adivinos pero a mí me da que no va pasar como con la 970 y la 780ti, es un cambio más radical y, salvando las distancias y ni mucho menos insinuando que vaya a pasar igual, aun recuerdo el paso de la serie 4 a la 5 (las FX), que también fueron un cambio radical añadiendo un motor de efectos llamado cinefx y no salió la cosa muy bien parada.

Pero vamos, todo son conjeturas y hablar por hablar desde luego.

Eryou
08/02/2016, 18:29
Pues ya tenia ganas de renovar el Q6600 porque lo tengo sus 8 añitos ya.. pero visto que van a salir las graficas en verano y tambien los nuevos procesadores de intel.. por una parte tengo ganas de pillarlo ya peor por otra de esperar..xD
Pues hombre ahí depende de las prisas que tengas y de lo que tengas pensado gastarte. Yo también me planteo:
- Mi pillo una 950/960 ahora y tengo un PC más o menos equilibrado con el que podré tirar más o menos bien un par de años (con mi 4300 con OC).
- Me espero a pillar una Pascal/Polaris, lo que requerirá una CPU más potente para sacarle jugo, y cuando salgan los Zen me pillo un Zen o un i5/i7... y ya tengo PC para 4 años mínimo.

Odarnok
08/02/2016, 18:33
Esa táctica comercial les deja mucho $, por lo cual esta claro que primero el chip MID a precio de Gp210.

Exacto, pero eso se da por descontado, al menos en todos los foros que frecuento.

Sobre la potencia... creo que van a buscar sacar más en el mercado movil. leasé gpus para portátiles, porque Nvidia tiene mucho que ganar ahí si populariza gpus con un rendimiento decente y poco consumo (una 980 de escritorio pero con 60 watios), porque Intel y AMD con las integradas la están echando del mercado de movilidad.

En sobremesa... pues ya veremos qué hacen, yo creo que el salto va a ser espectacular, pero con la 1070 no van a superar a la 980ti, aunque se quedarán cerca, pero con un consumo de la mitad (120 w)

stalker77
08/02/2016, 18:33
Precisamente si saturan un hilo a 4 GHz, si lo pones a 5 tienes de golpe una mejora de hasta el 25%.

Y cuello de botella existe desde el momento que puedes comprobarlo, otra cosa es que dependa también de cómo se programe el motor gráfico.

Por ejemplo, el 3dmark no es bueno para detectar cuello de botella porque consigue que la cpu no haga nada en las dos pruebas gráficas, sin embargo no pasa lo mismo con los programas que usan el motor uningine. Solo hay que hacer lo que se ha hecho siempre: probar distintas resoluciones, cuando el disminuir la resolución no aumenta los fps, ese es el tope de dicho micro bajo ese motor gráfico. Y a partir de ahí, cuello de botella, salvo que uses una resolución bestial o añadas nuevos efectos.

Y eso es lo que hace DX12, depende mucho más de la gpu, descargando a la cpu, por eso da más rendimiento práctico, porque deja de usar el elemento limitante, la cpu.

Y es por eso que donde más se van a ver las mejoras en velocidad de DX12 es en las gamas entusiastas de Nvidia y AMD, porque son las gamas que están limitadas por la cpu.

Lo bueno que tiene eso es que el micro podrá encargarse de la IA, pudiendo ser más compleja, con más hilos simultáneos, cuya potencia de cpu ahora sirve para alimentar a la gráfica y pasará a alimentar a la jugabilidad.

Yo creo que volveremos a ver unos buenos bots para juego off line y unas mejores IAs en estrategia, basadas en algoritmos que ahora se usan poco porque son muy demandantes.

Y, para finalizar, esto hará que las gamas anteriores de AMD y Nvidia, aunque sean DX12 compatibles, empeoren aún más sus resultados, porque no tengan la circuitería necesaria que requiera DX12 para liberar a la cpu, por lo que o disminuyen efectos, o los emulan con ayuda de la cpu, aunque los tuvieran en dx11, salvo que AMD y Nvidia hagan los drivers con distintas versiones de las llamadas de DX12 según la gpu que se tenga... pero eso puede hacer que los drivers pesen 600-700 megas, aunque mejor eso que no ver arrastrándose a una 290x ó 780ti.

El problema es que si a 5hz sigues teniendo cuello, pues de igual manera no sabrás cual es el rendimiento real de esa GPU.

Y una forma mas fácil de saber si hay cuellos o no, es mirando la carga de la GPU, cuando una GPu va al 99% siempre, no hay cuellos, si hay bajadas o el % es mas bajo que 99, es porque CPU tiene algo que decir. Pero vamos estos datos no se sacan de una tabla si no probando cada juego, por cual me parece contraproducente generalizar y decir que una GPU es muy potente por cual hay cuello en todos los juegos, como digo se tendría que analizar cada juego por separado.

Eryou
08/02/2016, 18:36
Y es por eso que donde más se van a ver las mejoras en velocidad de DX12 es en las gamas entusiastas de Nvidia y AMD, porque son las gamas que están limitadas por la cpu.

Eso dependerá del micro usado. Se supone que DX12 va a aprovechar mejor los núcleos de la CPU realizando una distribución de la tarea más equilibrada entre ellos. Por tanto podría traducirse en que una GPU determinada necesitara X micro para rendir al máximo, ahora necesita un micro X-20% (por ej.). Pero no es necesario aplicarlo a GPUs de gama alta, ya que también es usual que las GPUs de gama media vayan acompañadas de una CPU de gama media y estemos en las mismas...

Odarnok
08/02/2016, 18:42
El problema es que si a 5hz sigues teniendo cuello, pues de igual manera no sabrás cual es el rendimiento real de esa GPU.

Y una forma mas fácil de saber si hay cuellos o no, es mirando la carga de la GPU, cuando una GPu va al 99% siempre, no hay cuellos, si hay bajadas o el % es mas bajo que 99, es porque CPU tiene algo que decir. Pero vamos estos datos no se sacan de una tabla si no probando cada juego, por cual me parece contraproducente generalizar y decir que una GPU es muy potente por cual hay cuello en todos los juegos, como digo se tendría que analizar cada juego por separado.

Decimos lo mismo, solo que yo no interpreto los resultados, para indicar si hay o no cuello de botella, me quedo, como bien dices, en las tablas que se elaborasen para medir dicho cuello.

En definitiva, estamos en la misma situación que cuando salieron las primeras aceleradoras 3d, porque los micros ya no podían calcular la escena por completo, dejando solo el dibujado de pixeles a las gráficas. Ahora habrá que ver que hacen para solucionar el mismo problema que se planteó en 1995.

- - - Actualizado - - -


Eso dependerá del micro usado. Se supone que DX12 va a aprovechar mejor los núcleos de la CPU realizando una distribución de la tarea más equilibrada entre ellos. Por tanto podría traducirse en que una GPU determinada necesitara X micro para rendir al máximo, ahora necesita un micro X-20% (por ej.). Pero no es necesario aplicarlo a GPUs de gama alta, ya que también es usual que las GPUs de gama media vayan acompañadas de una CPU de gama media y estemos en las mismas...

Llevamos 10 años o más en que la idea es: pon la gpu más grande que puedas, que el micro no vale para nada.

Ahora vamos a volver a lo anterior: elige todos los componentes con cuidado si no quieres tener un equipo descompensado.

Quizás llequemos a ver un "renacer" de los ordenadores de marca para jugar, si sus ingenieros lo hacen bien y compensan todos los componentes, así como preparan drivers adecuados/modificados por los integradores principales (Dell, Lenovo, Asus, MSI, Microsoft...)

Eryou
08/02/2016, 18:48
Quita, quita... donde esté un clónico... para que te cobren 200 lereles por un montaje que haces en un rato.. y encima métele mano a esos PCs. Yo creía que eso de la GPU más tocha que puedas ya se acabó hace años. Recuerdo cuando hace muchísimos años cometí el error de meterle una mx 440 a un PIII 500 y eso no tiraba ni p`atrás. Luego veía como a un amigo con una discreta Riva TNT en un 900 le iba todo como la seda.

Lo de el PC equilibrado está muy bien, pero si tienes que ir sobrado de algo, que sea de CPU.

Odarnok
08/02/2016, 18:52
Quita, quita... donde esté un clónico... para que te cobren 200 lereles por un montaje que haces en un rato.. y encima métele mano a esos PCs. Yo creía que eso de la GPU más tocha que puedas ya se acabó hace años. Recuerdo cuando hace muchísimos años cometí el error de meterle una mx 440 a un PIII 500 y eso no tiraba ni p`atrás. Luego veía como a un amigo con una discreta Riva TNT en un 900 le iba todo como la seda.

Lo de el PC equilibrado está muy bien, pero si tienes que ir sobrado de algo, que sea de CPU.

Pensamos lo mismo, la CPU no debe ser nunca tomada como algo secundario.

Yo el pc lo costruyo desde la cpu, lo segundo que escojo es la fuente, dependiendo del uso que le vaya a dar al equipo.

Luego ya viene la gráfica y la memoria ram. así como la placa base y el modelo de ssd que quiera para el sistema (llevo usando ssd desde hace 6 años, ya no vuelvo atrás, eso lo tengo más claro que el agua)

Sobre lo de la gpu tocha sin importar la cpu... solo mira los que compran AMD en cpu, por mucho que quieran disfrazarlo de apoyo al "débil". Y ya veremos que pasa con Zen

DavidPS3
08/02/2016, 18:57
Pues hombre ahí depende de las prisas que tengas y de lo que tengas pensado gastarte. Yo también me planteo:
- Mi pillo una 950/960 ahora y tengo un PC más o menos equilibrado con el que podré tirar más o menos bien un par de años (con mi 4300 con OC).
- Me espero a pillar una Pascal/Polaris, lo que requerirá una CPU más potente para sacarle jugo, y cuando salgan los Zen me pillo un Zen o un i5/i7... y ya tengo PC para 4 años mínimo.

Pues nosé lo que hare, ahora mismo mi presupuesto es de 1300 max, para verano podrá ser algo mas.

Lo que tengo claro es que quiero que me dure otros 6 años minimo

Odarnok
08/02/2016, 19:09
Pues nosé lo que hare, ahora mismo mi presupuesto es de 1300 max, para verano podrá ser algo mas.

Lo que tengo claro es que quiero que me dure otros 6 años minimo

Si quieres equipo para 6 años, constrúyelo desde la cpu, poniendo de inicio la memoria máxima que puedas, para cuando ya no esté disponible y sea cara de aumentar.

En ese caso, lo mejor es esperar a ver que ofrece AMD con Zen, que estará como su microarquitectura lo menos 5 años, luego ya decides si te quedas con AMD o con Intel. Y coge 6 núcleos reales al menos, que ya se ven juegos que usan 4 y 6 hilos de forma intensiva, con lo que el núcleo restante lo tienes para sistema y no te impide hacer otras cosas en segundo plano durante el juego.

Y sobre la gpu... ya se verá, si te duran 3 años a nivel alto, te das con un canto en los dientes (es una expresión que quiere decir que te puedes dar por satisfecho/pagado/agradecido, lo digo por si no se usa dónde tú resides)

Armagg3don
08/02/2016, 19:19
Yo también soy de los que piensan que la 1070 rendirá igual o mas que la 980Ti.
Aparte de nuevo nodo y nueva arquitectura, hay que tomar en cuenta de que Nvidia ha tenido tiempo y recursos, tal vez mas que nunca, para desarrollar a Pascal.

josrob536
08/02/2016, 19:21
Ya sabéis que van a hacer otra vez la jugarreta de sacar el chip de gama media, en este caso Gp204 como gama alta (posible gtx 1080) verdad? esta cantado

yo lo tengo clarisimo.
lo van ha hacer si o si, les reporta mas beneficio y a su vez esperan a que mejore el proceso de fabricacion antes de vender el GP100 como geforce.
yo creo que los tiempos en donde sacaban primero la mas tocha y luego las gamas medias ya quedo atras y no creo que vuelva.

Saludos.

Eryou
08/02/2016, 19:31
Pues yo creo que eso es gama alta. Lo que no es, es gama entusiasta (como lo es la 980 Ti), pero vamos... donde vamos a llegar si decimos que las gráficas de 350-500 € son de gama media¿??

F4lk0N
08/02/2016, 19:35
entonces cuanto tendremos que esperar para ver la gama alta? navidad o 2017?

josrob536
08/02/2016, 19:38
Pues yo creo que eso es gama alta. Lo que no es, es gama entusiasta (como lo es la 980 Ti), pero vamos... donde vamos a llegar si decimos que las gráficas de 350-500 € son de gama media¿??

la cuestion no es esa. por supuesto que son graficas con muy buen performance.
pero el chip dentro de NVIDIA es el mid-high no es el high-end .


el chip es el de gama media-alta , que la grafica la queramos denominar como alta gama es otra cosa.
por ejemplo la gtx770 usaba un chip de gama media gk104 y el gtx780 el chip TOPE GK110.

Eryou
08/02/2016, 19:40
Para lo que parece que tendremos que esperar más es para la gama media. Titan -> Abril/mayo ; 1080/1070 -> junio/julio ; 1050/1060 -> ??? (septiembre-octubre digo yo...)

Odarnok
08/02/2016, 19:44
Pues yo creo que eso es gama alta. Lo que no es, es gama entusiasta (como lo es la 980 Ti), pero vamos... donde vamos a llegar si decimos que las gráficas de 350-500 € son de gama media¿??

Se te olvida una cosa... las gráficas se fabrican y venden en dólares de EEUU de Norteamérica.

Hace menos de 2 años, 350 dólares, más sus impuestos, eran 350 euro, en mucho sitios 300: gama media.

Ahora 350 dólares, más sus impuestos, se ponen casi en 400 euro.

Sigue siendo la misma gama media, pero tú, por vivir en euro, no puedes permitírtela.

Otra diferencia: antes la gama entusiasta se las desaba para mover muchos juegos a 1080p y 60fps con todos los detalles desde alto para arriba, ahora con la gama media lo haces sin despeinarte, y la gama entusiasta actual sirve para 4K/60 fps (o muy cerca) si quitas los filtros AA en la mayoría de los casos, dejando lo demás a partir de alto.

Lo que ha pasado es que la gama baja y media baja ha desaparecido en la práctica pues... ¿para qué quieres una 730 o equivalente con la integrada del micro?

Así que vamos desde: integrada->gama media (x60, x70, x80, escalonadas en 20% de rendimiento, 150 dólares más cada vez, partiendo de 200)->gama entusiasta (x80ti, 50% por encima de lo más alto de la gama media, por 200 dólares más que la más tocha de la gama media)

Resultado: x80ti sola o en SLI, la x80 queda para SLI, la x70 para ir sola o en SLI, x60 sola, que coincide, si ves los foros, con lo que hacen los usuarios de Nvidia.

Fantasma
08/02/2016, 19:45
Yo diría que con el 50% que se rumorea de las 1070/1080 (GP104) con respecto a las actuales 970/980, pondría a la 1070 a la altura de la 980Ti de stock (luego ya con ocs, modelos custom, etc., el rendimiento de las 980Ti es mucho mayor). Es decir, algo similar a la 970-780Ti. Si lo ponen a precio de 970, yo creo que no está nada mal. Recordad, que hay que estirar el chicle de los 14/16nm (o 20nm efectivos).

Saludos

Eryou
08/02/2016, 19:46
la cuestion no es esa. por supuesto que son graficas con muy buen performance.
pero el chip dentro de NVIDIA es el mid-high no es el high-end .


el chip es el de gama media-alta , que la grafica la queramos denominar como alta gama es otra cosa.
por ejemplo la gtx770 usaba un chip de gama media gk104 y el gtx780 el chip TOPE GK110.
Bueno, pero al final -creo yo- que lo que determina la gama es el precio y no el nombre del chip. Es decir, que haya un chip que se vende a partir de 700 pavos importa más bien poco cuando la mayoría de los mortales se van a gastar 500 en el mejor de los casos. Que la 1080 no es el chip high-end?? y qué, si hay que pagar 700 o 1000 euros por él se lo pueden meter por el socket.

Lo importante es que ese chip que si se va a vender más 1070/1080, sea suficientemente bueno, eficiente y con un precio coherente.

Odarnok
08/02/2016, 19:51
Bueno, pero al final -creo yo- que lo que determina la gama es el precio y no el nombre del chip. Es decir, que haya un chip que se vende a partir de 700 pavos importa más bien poco cuando la mayoría de los mortales se van a gastar 500 en el mejor de los casos. Que la 1080 no es el chip high-end?? y qué, si hay que pagar 700 o 1000 euros por él se lo pueden meter por el socket.

Lo importante es que ese chip que si se va a vender más 1070/1080, sea suficientemente bueno, eficiente y con un precio coherente.

Eso no pasa, como has visto en los últimos años, las gráficas con precio coherente son la x70 y la x80ti, quedando la x80 en tierra de nadie, porque de inicio estaba sobrepreciada de forma increíble, y a la salida de la x80ti no la bajaban lo suficiente de precio, por eso han sacado la 980 "pura" para portátiles, porque no se vendía en formato tarjeta de sobremesa.

stalker77
08/02/2016, 21:10
Pues una 1070 rindiendo igual que una 980ti es poco, para la exigencias de juegos y resoluciones que se usan actualmente, creo actualmente es el hardware el que va atrás del software.

Ivak
08/02/2016, 21:24
Pues una 1070 rindiendo igual que una 980ti es poco, para la exigencias de juegos y resoluciones que se usan actualmente, creo actualmente es el hardware el que va atrás del software.

Pues una GTX 980 Ti a un precio equivalente a la GTX 970 (350€ aprox) ya es un salto a tener en cuenta, dejando aún más atrás si cabe a la actual generación de consolas PS4 y XBOX ONE. Lo de las exigencias de los juegos es como todo: si uno quiere aspirar a jugar al máximo (4K@60fps) probablemente se tendrá que ir a la gama entusiasta, que serían unos 750€ para la solución MonuGPU o tal vez una solución SLI.

Además la nueva arquitectura Pascal promete eficiencia energética todavía mayor, por lo que no hará falta disipar tanto calor generado dentro de la caja del ordenador. Sin necesidad de recurrir a la refrigeración líquida como la Fury X, pero sí en la linea de hacer compacta la tarjeta gráfica, en consonancia con el uso de memoria HBM, y como el mismo marketting de NVIDIA ha adelantado:

http://www.fxguide.com/wp-content/uploads/2014/03/pascal.jpg

Así que tarjetones de 30 cm como la serie G1 de Gigabyte, probablemente no veamos en esta nueva generación.

Fantasma
08/02/2016, 21:28
Pues una 1070 rindiendo igual que una 980ti es poco, para la exigencias de juegos y resoluciones que se usan actualmente, creo actualmente es el hardware el que va atrás del software.

Pues es jugar a Ultra (casi) en 2.5k @ 60fps. Tampoco está tan mal. Con la Titan que saquen, pues ya se podrá jugar de forma algo decente a 4k. No tiene sentido sacar unas 1070/1080 que ya te den rendimiento decente 4k, porque entonces nadie compraría Titanes ni hipotéticas 1080Ti.

Saludos

Ivak
08/02/2016, 21:28
Añado: si se pudiese jugar al máximo con una tarjeta de 350€..... ¿quién se compraría una tarjeta de 750€, o quién se plantearía meterle SLI? :smileysh:

La mayoría creo que nos conformaremos con quitar la configuración ultra o jugarlo en monitores de 1080p/1440p... al menos hasta que se estandaricen y sean asequibles los monitores 4K


No tiene sentido sacar unas 1070/1080 que ya te den rendimiento decente 4k, porque entonces nadie compraría Titanes ni hipotéticas 1080Ti.

Exacto.

Donan
08/02/2016, 21:52
Yo sigo diciendo que no van a sacar algo con la potencia de la 980Ti por debajo de los 400 pepos ni de coña, no olvidéis que aunque salga Pascal, maxwell tambien se las querran quitar de encima, y nvidia no brilla precisamente por bajar brutalmente los precios de sus anteriores series...

Aún así, como dicen, una hipotética 1070 con rendimiento de 980ti y con menos consumo y calor seria un pedazo de avance, eso sí, no esperéis que sea a 350€ XDDD

Eryou
08/02/2016, 22:33
Pues una 1070 rindiendo igual que una 980ti es poco, para la exigencias de juegos y resoluciones que se usan actualmente, creo actualmente es el hardware el que va atrás del software.
A nivel de juegos, el hardware siempre (al menos desde la era 3d) ha ido por detrás del software. De hecho, la calidad gráfica que vemos hoy en día en los juegos más modernos ya era posible programarla en 1998 (aunque requería más horas de trabajo), el problema es que a ver que equipo de aquella época movía eso por encima de 1/2 fps... como para pensar en 60...

Lo que ocurre es que últimamente ha subido bastante las exigencias en cuanto a fps, por no hablar de las resoluciones (y aquí el marketing hace milagros). Cuando pides más fps a mayor resolución, no te queda otra que estancar la calidad visual, que siempre ha dependido del hardware disponible para la mayor parte de la gente.

No nos quejemos de los precios que tienen cada una de las gamas por que eso, los hemos puesto los consumidores. Por desgracia, no es tan raro ver gente que cambia una 290 por una 290x y más allá de lo "barato" que le pueda salir el cambio por la pasta que le dan por venderla de 2ª mano, estamos dandole la razón a los fabricantes y vendedores cuando te ponen una "gama media" a 380 €. Lo que pasa es que nos hemos acabado tragando que necesitamos 1 o 2 gráficas por encima de los 300.

sfdk
08/02/2016, 23:35
A nivel de juegos, el hardware siempre (al menos desde la era 3d) ha ido por detrás del software. De hecho, la calidad gráfica que vemos hoy en día en los juegos más modernos ya era posible programarla en 1998 (aunque requería más horas de trabajo), el problema es que a ver que equipo de aquella época movía eso por encima de 1/2 fps... como para pensar en 60...

Lo que ocurre es que últimamente ha subido bastante las exigencias en cuanto a fps, por no hablar de las resoluciones (y aquí el marketing hace milagros). Cuando pides más fps a mayor resolución, no te queda otra que estancar la calidad visual, que siempre ha dependido del hardware disponible para la mayor parte de la gente.

No nos quejemos de los precios que tienen cada una de las gamas por que eso, los hemos puesto los consumidores. Por desgracia, no es tan raro ver gente que cambia una 290 por una 290x y más allá de lo "barato" que le pueda salir el cambio por la pasta que le dan por venderla de 2ª mano, estamos dandole la razón a los fabricantes y vendedores cuando te ponen una "gama media" a 380 €. Lo que pasa es que nos hemos acabado tragando que necesitamos 1 o 2 gráficas por encima de los 300.

+ 1
Como hecho de menos la era de los precios de la serie 4xx / 5xx

Armagg3don
08/02/2016, 23:45
No nos quejemos de los precios que tienen cada una de las gamas por que eso, los hemos puesto los consumidores. Por desgracia, no es tan raro ver gente que cambia una 290 por una 290x y más allá de lo "barato" que le pueda salir el cambio por la pasta que le dan por venderla de 2ª mano, estamos dandole la razón a los fabricantes y vendedores cuando te ponen una "gama media" a 380 €. Lo que pasa es que nos hemos acabado tragando que necesitamos 1 o 2 gráficas por encima de los 300.Eso me recuerda a cuando pase de una 5700 a una 9600xt, una 6800GT a una 6800Ultra, una 4850 a una 4870 y de ahi a una 4890, una 470 a una 480 y de ahi a una 580.
Ahora tengo ahi una 680 guardada por falta de fuente y micro xD

Creo que muchos estamos acostumbrados a actualizar por mero cacharreo, de ahi que hayamos "malacostumbrado" a los fabricantes.

Bloot
09/02/2016, 00:05
Bueno, he ojeado Guru3D y Techreport que es la que más me suele gustar. En guru3D parece que las diferencias son mayores que en otros sites, también por que pasan las pruebas a 1440p con algo de AA, lo cual favorece a la 980 Ti obviamente.

http://www.guru3d.com/articles_pages/asus_rog_matrix_geforce_gtx_980_ti_platinum_editio n_review,13.html

GTA V -> 56,36%
Thief -> 63,63%
TW3 -> 45,23%
SoM -> 43,47%
TR -> 61,44%
Bioshock -> 50,68%
Battlefield -> 52,5%

http://techreport.com/review/28612/asus-strix-radeon-r9-fury-graphics-card-reviewed/3

Proyect Cars -> 28,12%
GTA V -> 48,57%
TW3 -> 46,15%
FC4 -> 51,85%
Alien Is -> 53%
Civilization -> 52,3%
BF4 -> 51,61%
Crysis 3 -> 53,3%

No deduzco yo una diferencia de un 70% en estas reviews, si tuviese que ponerle cifra sería más bien un 50%, que no está mal tampoco, pero no es un 70%.

Sobre lo otro que dices lo que mirar los resultados a la salida de la tarjeta no lo comparto mucho por que los drivers suelen estar verdes y con el tiempo mejoran. Sobre TPU la he puesto como te digo por que iba con un poco de prisa y es lo primero que he pillado, pero si, yo tampoco me fío mucho de ellos en lo que respecta a nVidia vs AMD, creía que en nvidia vs nvidia serían más fiables.



Lo del soporte completo DX12 está bien (si es que las Maxwell no lo tienen ya), pero tampoco es vital, las nvidia no soportaron DX10.1 y creo que tampoco DX11.1 y eso no ha sido nunca un problema. Además, al paso que va DX12 para cuando empiecen a salir juegos ya habrá salido la sustituta de Pascal.

Sobre la realidad virtual no digo nada por que no lo utilizo (aunque no se que necesidades tiene eso por hardware que no existan ya), pero los 8GB los tienes en GPUs de AMD.

Pues he estado mirando esta comparativa de anandtech con juegos de 2015 y no sé si todos pero muchos de los que he estado comprobando llegan a un 65-70% de mejora respecto a una 970

http://www.anandtech.com/bench/product/1496?vs=1595

Oliver91
09/02/2016, 00:13
Pues he estado mirando esta comparativa de anandtech con juegos de 2015 y no sé si todos pero muchos de los que he estado comprobando llegan a un 65-70% de mejora respecto a una 970

http://www.anandtech.com/bench/product/1496?vs=1595

¿Cuales? Solo he visto el Shadow of Mordor, el resto vuelven a la estela del 50% así a botepronto. Que es bastante impresionante que haya casos donde se vean cifras del 60-70%, lo que pasa que esos valores tan altos son sospechosos, por ejemplo que la 970 se esté quedando sin VRAM o que esté tocando los 512MB "lentos".

Realmente si que es cierto que teóricamente la 980 Ti es un 70% más que la 970, por que tiene un 70% más CC, un 70% más de bus, un 70% más de ROPs... Pero claro, de ahí a rendir un 70% más es un caso ideal, en la práctica suele ser algo menos, generalmente por la diferencia en este caso en el boost (me estoy siempre refiriendo a las GPUs tal cual) o límites de TDP en la 980 Ti que los alcanza muy fácilmente si no se modifica. Realmente esos valores son también un poco especiales, en ese sentido Ordanok lleva toda la razón en que esta vez nVidia a limitado mucho la 970 capándola por todas partes provocando que entre la 970 y la 980 haya una buena diferencia. Igual soy poco realista, tampoco lo voy a negar, pero no me gusta mucho la idea de que algo que durante muchas generaciones se ha repetido ya no se repita más y nos empiecen a vender migajas, me refiero a que en generaciones pasadas la Top de una generación pasaba a rendir como la gama media de la generación siguiente. Quiero pensar que Maxwell es una anomalía por tener que mantener el proceso de 28nm, tengo la esperanza de ver un gran salto en los 16nm estando por ahí anunciados los 10nm de TSMC.

Recuerdo cuando salió la GTX680 que cundió el pánico por que solo rendía un 35% más que la GTX580 cuando hasta entonces las diferencias eran mucho más abultadas, y el motivo fué la venta del chip performance como gama alta. Eso si, igual me tachan de... pero si nVidia pudo hacer eso y a seguido haciendolo ha sido por que AMD se lo ha permitido, que el chip tope de gama de AMD en su día, Thaiti, estuviese a la altura del chip performance de nVidia nos ha traído hasta aquí. La esperanza en todo caso ahora sería que AMD diera un golpe en la mesa con Polaris que haga que este desmadre vuelva a donde estaba.

Bloot
09/02/2016, 00:38
Tienes razón lo he mirado mal, sólo es el Shadow of Mordor, el resto anda en 50 y tantos como dices.

DavidPS3
09/02/2016, 02:02
Si quieres equipo para 6 años, constrúyelo desde la cpu, poniendo de inicio la memoria máxima que puedas, para cuando ya no esté disponible y sea cara de aumentar.

En ese caso, lo mejor es esperar a ver que ofrece AMD con Zen, que estará como su microarquitectura lo menos 5 años, luego ya decides si te quedas con AMD o con Intel. Y coge 6 núcleos reales al menos, que ya se ven juegos que usan 4 y 6 hilos de forma intensiva, con lo que el núcleo restante lo tienes para sistema y no te impide hacer otras cosas en segundo plano durante el juego.

Y sobre la gpu... ya se verá, si te duran 3 años a nivel alto, te das con un canto en los dientes (es una expresión que quiere decir que te puedes dar por satisfecho/pagado/agradecido, lo digo por si no se usa dónde tú resides)

Gracias por el consejo ;)

Tolden
09/02/2016, 11:14
[...]
No nos quejemos de los precios que tienen cada una de las gamas por que eso, los hemos puesto los consumidores. Por desgracia, no es tan raro ver gente que cambia una 290 por una 290x y más allá de lo "barato" que le pueda salir el cambio por la pasta que le dan por venderla de 2ª mano, estamos dandole la razón a los fabricantes y vendedores cuando te ponen una "gama media" a 380 €. Lo que pasa es que nos hemos acabado tragando que necesitamos 1 o 2 gráficas por encima de los 300.

Yo creo que no es así, más bien, 3dfx reventó el mercado sacando unas tarjetas "baratísimas", porque yo recuerdo que pillarse una Number 9 por ejemplo era un sablazo enorme. ATI, Nvidia, S3, por ejemplo, sacaron productos buenos bonitos y baratos y hubo una época de bonanza, pero enseguida volvieron a dispararse... la GF2 Ultra eran 120mil del ala, y la GF2 GTS 50mil, que si tenemos en cuenta la época, la inflación y demás gaitas, ríete de lo que vale ahora una Titán...

Por lo menos en este momento incluso puedes jugar con una tarjeta integrada y para jugar a 1080p puedes hacerlo con GPUs de alrededor de 100€.

Yo lo que estoy esperando son pruebas reales con DX12 y ver qué trae Pascal para decidirme a cambiar mi gráfica o no. Igual hasta me lío la manta a la cabeza y me pillo otra 680 de segunda mano para hacer SLI, porque la 680 me está rindiendo bien y su problema son los 2GB de VRAM.

Eryou
09/02/2016, 14:04
Yo creo que no es así, más bien, 3dfx reventó el mercado sacando unas tarjetas "baratísimas", porque yo recuerdo que pillarse una Number 9 por ejemplo era un sablazo enorme. ATI, Nvidia, S3, por ejemplo, sacaron productos buenos bonitos y baratos y hubo una época de bonanza, pero enseguida volvieron a dispararse... la GF2 Ultra eran 120mil del ala, y la GF2 GTS 50mil, que si tenemos en cuenta la época, la inflación y demás gaitas, ríete de lo que vale ahora una Titán...

Por lo menos en este momento incluso puedes jugar con una tarjeta integrada y para jugar a 1080p puedes hacerlo con GPUs de alrededor de 100€.

Yo lo que estoy esperando son pruebas reales con DX12 y ver qué trae Pascal para decidirme a cambiar mi gráfica o no. Igual hasta me lío la manta a la cabeza y me pillo otra 680 de segunda mano para hacer SLI, porque la 680 me está rindiendo bien y su problema son los 2GB de VRAM.
Una cosa es lo que pasara hace años y otra lo que ocurre ahora, pero una no quita la otra. Si se ponen precios de más de 600€ a t.gráficas es por el simple hecho de que se venden, así funciona el mercado. Si ponen X GPU a 300€ y se venden como churros, no dudes que las subirán a 350, y luego a 400... y así sucesivamente, hasta que vean que ya no se venden tan bien.

Usuario30827
09/02/2016, 16:23
Una cosa es lo que pasara hace años y otra lo que ocurre ahora, pero una no quita la otra. Si se ponen precios de más de 600€ a t.gráficas es por el simple hecho de que se venden, así funciona el mercado. Si ponen X GPU a 300€ y se venden como churros, no dudes que las subirán a 350, y luego a 400... y así sucesivamente, hasta que vean que ya no se venden tan bien.

Muy buena reflexión. Hace 5 años al forero medio le dicen gastarse 1000€ en una top o entusiasta y te mandaría que te volvieras por donde viniste. Con el tiempo hemos ido subiendo las exigencias mínimas y la gente ve normal gastarse más dinero en gráficas que antes.

Pero ojo que esto no pasa sólo por parte de fabricantes o usuarios. Las tiendas de aquí conocidas tienen fama de ir especulando en función de la oferta y demanda. Por ejemplo un modelo muy vendido subirle 60€ más. Cuando la demanda cae, bajarla de precio y así sucesivamente.

Muerteamou
09/02/2016, 16:27
Recuerdo cuando salió la GTX680 que cundió el pánico por que solo rendía un 35% más que la GTX580 cuando hasta entonces las diferencias eran mucho más abultadas, y el motivo fué la venta del chip performance como gama alta. Eso si, igual me tachan de... pero si nVidia pudo hacer eso y a seguido haciendolo ha sido por que AMD se lo ha permitido, que el chip tope de gama de AMD en su día, Thaiti, estuviese a la altura del chip performance de nVidia nos ha traído hasta aquí. La esperanza en todo caso ahora sería que AMD diera un golpe en la mesa con Polaris que haga que este desmadre vuelva a donde estaba.

Pues mira yo ahi lo que veo es mucha culpa de nVidia y sobre todo de los usuarios ( si si, vosotros, yo no me incluyo lo siento xD ) por seguirles el juego con sus lanzamientos, a mi nunca me ha gustado los tempos en sus lanzamientos, que están pensados para tener o al menos intentar tener el "trono" en la tarjeta top y los usuarios que les han seguido el juego comprando, a mi me gusta cuando presentan la gama completa, aunque alguna tarde algún mes mas en estar disponible.

avex
09/02/2016, 16:58
Recuerdo cuando salió la GTX680 que cundió el pánico por que solo rendía un 35% más que la GTX580 cuando hasta entonces las diferencias eran mucho más abultadas, y el motivo fué la venta del chip performance como gama alta. Eso si, igual me tachan de... pero si nVidia pudo hacer eso y a seguido haciendolo ha sido por que AMD se lo ha permitido, que el chip tope de gama de AMD en su día, Thaiti, estuviese a la altura del chip performance de nVidia nos ha traído hasta aquí. La esperanza en todo caso ahora sería que AMD diera un golpe en la mesa con Polaris que haga que este desmadre vuelva a donde estaba.

Pues está bastante en la linea anterior.

La línea de Nvidia es algo estilo: 8800GTX -> +5% -> 9800GTX -> +30% -> GTX 280 -> +60% -> GTX 480 -> +20% -> GTX580 -> +35% -> GTX680 -> + 40% -> GTX 780 -> +30% -> GTX980


Creo que se tienen un poco idealizadas algunas de las generaciones pasadas.

Fuente/ (http://www.digitalstorm.com/unlocked/nvidia-gtx-780-vs-older-graphics-cards-benchmark-comparison-idnum62/), Fuente2 (http://www.ocaholic.co.uk/modules/smartsection/item.php?itemid=1584), Fuente3 (http://www.tomshardware.com/reviews/nvidia-gtx-280,1953-29.html)

Odarnok
09/02/2016, 17:19
Pues está bastante en la linea anterior.

La línea de Nvidia es algo estilo: 8800GTX -> +5% -> 9800GTX -> +30% -> GTX 280 -> +60% -> GTX 480 -> +20% -> GTX580 -> +35% -> GTX680 -> + 40% -> GTX 780 -> +30% -> GTX980


Creo que se tienen un poco idealizadas algunas de las generaciones pasadas.

Fuente/ (http://www.digitalstorm.com/unlocked/nvidia-gtx-780-vs-older-graphics-cards-benchmark-comparison-idnum62/), Fuente2 (http://www.ocaholic.co.uk/modules/smartsection/item.php?itemid=1584), Fuente3 (http://www.tomshardware.com/reviews/nvidia-gtx-280,1953-29.html)

Precisamente mis mensajes dicen esto mismo, que entre la 580 y la 780ti hubo un salto de un 80% aproximadamente (multiplicando los porcentajes, recordad que no se suman), y ahora quieren ese salto de varios años en uno, con Pascal.

Hace años que no hay un salto superior al 50% entre tarjetas de la misma gama. Y no creo que lo haya ahora.

Y recordad que el cambio de nodo suele traer problemas de fugas de energía, que hacen que el chip sea peor de lo que debería ser en teoría, recordad la 480 y 470, que horno eran, estando fabricadas en 40nm en lugar de 55, para ocearlas tenías que tener RL custom sí o sí, y en cuanto lo arreglaron, un año después, familia 570 y 580, no sacaron una revisión y devolvieron el dinero.

Así que si queréis Pascal, lo conveniente es esperar a la segunda generación en 14nm, en 2017.

Fantasma
09/02/2016, 17:31
Pues está bastante en la linea anterior.

La línea de Nvidia es algo estilo: 8800GTX -> +5% -> 9800GTX -> +30% -> GTX 280 -> +60% -> GTX 480 -> +20% -> GTX580 -> +35% -> GTX680 -> + 40% -> GTX 780 -> +30% -> GTX980


Creo que se tienen un poco idealizadas algunas de las generaciones pasadas.

Fuente/ (http://www.digitalstorm.com/unlocked/nvidia-gtx-780-vs-older-graphics-cards-benchmark-comparison-idnum62/), Fuente2 (http://www.ocaholic.co.uk/modules/smartsection/item.php?itemid=1584), Fuente3 (http://www.tomshardware.com/reviews/nvidia-gtx-280,1953-29.html)

Yo pienso igual, en el último hilo que puse algo así, me empezaron a decir que las X80 ahora eran chips de gama media (por el número del chip) y que el rendimiento es irrelevante, lo importante es el número de desarrollo del chip y no la tarjeta ni dónde se emplaza en cuanto a rendimiento o precio. Por eso nos toman el pelo...

Saludos

Donan
09/02/2016, 17:38
Lo que tienen que hacer es optimizar los juegos que vayan saliendo para aprovechar realmente los recursos que hay a dia de hoy, que algunos juegos han dejado muy claro que si se quiere, se puede.
Que a este paso el buscaminas va a requerir mínimo un 8 núcleos y un sli de titan para ir a 60fps XD

harl
09/02/2016, 17:48
http://www.anandtech.com/show/10017/micron-reports-on-gddr5x-progress

Finally, Micron has also announced in their blog post that they intend to commence high-volume production of GDDR5X chips in mid-2016, or sometime in the summer. It is unknown precisely when the first graphics cards featuring the new type of memory are set to hit the market, but given the timing it looks like this will happen in 2016.

Es normal si las especificaciones del JEDEC (http://www.anandtech.com/show/9883/gddr5x-standard-jedec-new-gpu-memory-14-gbps) de la GDDR5x se finalizaron hace un par de semanas, así que o las GP104 vienen todavía con GDDR5 o no salen hasta el tercer trimestre como pronto.

Y el estandard de la HBM2 se finalizo también hace menos de un mes, vamos que tampoco parece plausible que la Titan basada en Pascal GP100 vaya a salir en Abril (o no llevara HBM2)

Fantasma
09/02/2016, 20:45
http://www.anandtech.com/show/10017/micron-reports-on-gddr5x-progress


Es normal si las especificaciones del JEDEC (http://www.anandtech.com/show/9883/gddr5x-standard-jedec-new-gpu-memory-14-gbps) de la GDDR5x se finalizaron hace un par de semanas, así que o las GP104 vienen todavía con GDDR5 o no salen hasta el tercer trimestre como pronto.

Y el estandard de la HBM2 se finalizo también hace menos de un mes, vamos que tampoco parece plausible que la Titan basada en Pascal GP100 vaya a salir en Abril (o no llevara HBM2)

Igual hay poca disponibilidad al principio (como pasó con las Fury), así que esperad precios desorbitados. Pero vamos, Junio es mitad de 2016 y principio de verano. Lo de la GP100, leí por ahí, creo que en el roadmap de pcgameshardware, que igual se esperaba una Maxwell X2. Creo que esto estaba relacionado con la reunión secreta de Nvidia con varios reviewers hace 4 meses:
http://wccftech.com/nvidia-conducted-secret-meeting-press-york-city/
Así que igual Nvidia nos trollea y saca eso en vez de la Big Pascal o es su respuesta a una Fury X2. Pero vamos, no sé, los plazos están muy apretados, sí.

Saludos

avex
09/02/2016, 21:24
Yo pienso igual, en el último hilo que puse algo así, me empezaron a decir que las X80 ahora eran chips de gama media (por el número del chip) y que el rendimiento es irrelevante, lo importante es el número de desarrollo del chip y no la tarjeta ni dónde se emplaza en cuanto a rendimiento o precio. Por eso nos toman el pelo...

Saludos

Yo lo que veo importante es el escalón de rendimiento, y de precio.

Si una GPU A de $500 en 2012, que mueve los juevos punteros de 2012 a 60 fps a la resolución típica de 2012. Y tenemos una GPU B de $500 (+ inflación) en 2016 que mueva los juegos punteros de 2016 a 60 fps a la resolución típica de 2016.

Las GPUs A y B son exactamente la misma gama. El nombre, o el numero de desarrollo del chip, son irrelevantes.

A nivel de rendimiento para su año y rango de precio creo que al final todas las X80 están más o menos en la misma categoría. A veces compensan más, otras menos (dependiendo de la cercanía de las X70), pero no ha habido mucho cambio.

Digan lo que digan los números de serie, una 280-480-580-680 no están en la misma categoría de rendimiento que una 980Ti o una Titan X.

zorranco
09/02/2016, 22:32
Si las 980 son gama alta o no es la discusión clásica por excelencia dentro del mundo de las GPU :D

http://45.media.tumblr.com/4deb94bbc1c7513fa81b7601ee99016d/tumblr_o2a3gpa8aC1s9y3qio1_400.gif

Yo como en el caso de las Fury creo que los primeros modelos con HBM (sean los que sean), más el cambio de nodo, etc...tendrán mucho de frankenstein y poco de fiable...mejor esperar a 2017, son demasiados cambios de golpe.

stalker77
09/02/2016, 23:09
Eso que las top se miden por el rendimiento y el precio,es lo que las empresas tratan de colar actualmente para exprimir al máximo las ganancias.

Una GPU top se mide por el musculo, una GPU con menos transistores, frecuencia apretadas,bus pequeño, capadas es shaders etc es una GPU recortada para venderla barata (media gama).

Solo hay que comparar los chip top y el salto de rendimiento gtx580 con las 780ti, las 280 con las 480. Pero comercialtamente les sale mas rentable si tengo una chip MID que exprimido rinde mejor , que la top anterior,pues venderla como tal,un chip mas barato de fabricar y lo vendo a 600.

Con las 460 todavía no habían espabilado estos de NVIDIA xD.

avex
10/02/2016, 00:35
Eso que las top se miden por el rendimiento y el precio,es lo que las empresas tratan de colar actualmente para exprimir al máximo las ganancias.

Una GPU top se mide por el musculo, una GPU con menos transistores, frecuencia apretadas,bus pequeño, capadas es shaders etc es una GPU recortada para venderla barata (media gama).


Una GPU se mide por el desempeño que da, el resto es irrelevante. Y el desempeño es el rendimiento en juegos, que es su función principal. A mi si llega ahora una compañía con un chip que con la mitad de musculo de una 980Ti rinde el doble en los juegos, me da igual la superficie del chip y los transistores, lo que me importa es que rinde el doble. Eso justifica que sea más cara.

Es como cualquier otro producto. La gama más alta es la que más rinde, y una GPU que cuesta 2000€ y saque 200 FPS en Crysis 3 a 4K no haría que los chips de 500€ fuesen "gama media con sobreprecio". Lo que ocurre es que el de 2000€ es una barbaridad.

Que viene siendo básicamente el caso de las 980Ti, Titan X, y Fury X (aunque esta sea peor tarjeta).

Aparte de todo esto, no nos olvidemos que las 8800 GTX y Ultra salieron a la venta por ~ $600 y $800 respectivamente. Ajustando una inflación típica serían ~ $800 y ~ $1100 si saliesen hoy. Nada nuevo bajo el sol.

stalker77
10/02/2016, 01:31
Una GPU se mide por el desempeño que da, el resto es irrelevante. Y el desempeño es el rendimiento en juegos, que es su función principal. A mi si llega ahora una compañía con un chip que con la mitad de musculo de una 980Ti rinde el doble en los juegos, me da igual la superficie del chip y los transistores, lo que me importa es que rinde el doble. Eso justifica que sea más cara.

Es como cualquier otro producto. La gama más alta es la que más rinde, y una GPU que cuesta 2000€ y saque 200 FPS en Crysis 3 a 4K no haría que los chips de 500€ fuesen "gama media con sobreprecio". Lo que ocurre es que el de 2000€ es una barbaridad.

Que viene siendo básicamente el caso de las 980Ti, Titan X, y Fury X (aunque esta sea peor tarjeta).

Aparte de todo esto, no nos olvidemos que las 8800 GTX y Ultra salieron a la venta por ~ $600 y $800 respectivamente. Ajustando una inflación típica serían ~ $800 y ~ $1100 si saliesen hoy. Nada nuevo bajo el sol.

Vamos que si un i3 de 2 nucleos rinde mas que un quad de generación pasada, hay que venderlo a precio de 8 núcleos porque rinde mas:ugly:, ya que vamos, tener 6 núcleos menos sale al mismo precio que el de 8.La inversión de fabricación de un producto es lo que determina la gamas en el mundo del hardware, fabricar un smartphone de gama baja no sale al mismo precio que un top eh.

Aparte que con ese concepto a donde queda el tema de evolución generacional, sin una GPU como la 460 rendía como una top anterior (280) y el chip estaba recortado para ahorrarse costo y meterlo en la gama media, ese rendimiento era parte de la evolución natural, por cual hicieron lo correcto en llamarla 460 y no 480, pero como digo luego con la serie 600 se pusieron listos.

Me remito a mi comentario, lo que un producto vale solo por rendimiento es marketing actual que nos intenta colar, lo cual con ese concepto el tema de gamas y evolución de arquitectura pierde sentido.

fmvictor
10/02/2016, 02:16
Aparte de que esa inflación desde el 2007 a dia de hoy es un poco exagerada, es más en españa los sueldos bajaron en vez de subir. xD

Fantasma
10/02/2016, 07:12
Vamos que si un i3 de 2 nucleos rinde mas que un quad de generación pasada, hay que venderlo a precio de 8 núcleos porque rinde mas:ugly:, ya que vamos, tener 6 núcleos menos sale al mismo precio que el de 8.La inversión de fabricación de un producto es lo que determina la gamas en el mundo del hardware, fabricar un smartphone de gama baja no sale al mismo precio que un top eh.

Aparte que con ese concepto a donde queda el tema de evolución generacional, sin una GPU como la 460 rendía como una top anterior (280) y el chip estaba recortado para ahorrarse costo y meterlo en la gama media, ese rendimiento era parte de la evolución natural, por cual hicieron lo correcto en llamarla 460 y no 480, pero como digo luego con la serie 600 se pusieron listos.

Me remito a mi comentario, lo que un producto vale solo por rendimiento es marketing actual que nos intenta colar, lo cual con ese concepto el tema de gamas y evolución de arquitectura pierde sentido.

En un sistema capitalista, lo que importaría es lo rinda el producto y lo que uno estaría dispuesto a pagar por él, independientemente de lo que cueste fabricarlo. Si bajan los precios es porque hay competencia y porque hinchar los precios haría que mucha menos gente comprara. Intentan rebajar los costes de fabricación para tener más ganancias y para tener margen de bajar los precios si la competencia aprieta, nada más.

En tu ejemplo, si el supuesto i3 rinde lo mismo que el octocore en multinúcleo y, seguramente, consumirá menos, yo estaría dispuesto a pagar el mismo precio por el i3 que por el octocore. Me daría más rendimiento en todos los escenarios que el octocore (mono y multi hilo) y encima me consumirá menos. Otra cosa es que lo que cueste esté por encima de lo que yo esté dispuesto a pagar por un procesador, pero en ese caso sería lo mismo en el caso del octocore. Mientras que haya competencia, no pasará eso, pero es lo que pasaba cuando Intel estaba sólo. Precios prohibitivos y las gamas nuevas, costando más que las anteriores porque daban más rendimiento, excepto para deshacerse del stock.

Saludos

harl
10/02/2016, 08:21
Igual hay poca disponibilidad al principio (como pasó con las Fury), así que esperad precios desorbitados. Pero vamos, Junio es mitad de 2016 y principio de verano. Lo de la GP100, leí por ahí, creo que en el roadmap de pcgameshardware, que igual se esperaba una Maxwell X2. Creo que esto estaba relacionado con la reunión secreta de Nvidia con varios reviewers hace 4 meses:
http://wccftech.com/nvidia-conducted-secret-meeting-press-york-city/
Así que igual Nvidia nos trollea y saca eso en vez de la Big Pascal o es su respuesta a una Fury X2. Pero vamos, no sé, los plazos están muy apretados, sí.

Saludos

Estoy revisando fechas y parece que Samsung anuncio la producción en masa de la HBM2 el 19 de enero, https://news.samsung.com/global/samsung-begins-mass-producing-worlds-fastest-dram-based-on-newest-high-bandwidth-memory-hbm-interface
Prácticamente recién finalizado el estandard del JEDEC

Samsung Electronics announced that it has begun mass producing the industry’s first 4-gigabyte (GB) DRAM package based on the second-generation High Bandwidth Memory (HBM2) interface, for use in high performance computing (HPC), advanced graphics and network systems, as well as enterprise servers.
Y teniendo en cuenta que el GP100 podría estrenarse en tarjetas Tesla para HPC o como mucho en forma de Titan, si que podrian presentarla en Abril como sugieren algunos rumores pero con baja disponibilidad (o un paper launch).
O si no siempre pueden presentar una tarjeta de cartón :spy:

Más crudo veo el de la GP104 aunque puede que otros como Samsung (o Hynix) empiecen la producción de GDDR5x antes,
o que simplemente lleve GDDR5, por lo que si filtro de Zauba, el tamaño del DIE descartaba el uso de HBM y el número de pines hace factible que tenga bus de 384 bits ...

Eryou
10/02/2016, 10:34
Puede que con GDDR5x no sea necesario ese bus de 384 bits, ya que esta memoria tiene el doble de ancho de banda que la GDDR5 a la misma frecuencia. Unas GDDR5x a 1500 Mhz y un bus de 256 bits entregan un ancho de 384 GB/s, que es más de lo que tiene actualmente la 980 Ti. En principio sería sufiente para las GP104 (supuestas 1080/1070).

zorranco
10/02/2016, 10:45
¿Cuando dejaremos de decir "8000 Mhz efectivos" cuando nos referimos a la DDR?...Ni efectivos, ni pollas. Son 4000 Mhz, punto. ¿O es que alguien se le ocurre sumar todo el IPC de los últimos años y decir que un Skylake de ahora son "25.000 Mhz efectivos" comparado con, yo que sé, un Athlon mononucleo de los de 2001?

Eso de compararse con una tecnología que tiene más de 10 años es un poco ridi xD

harl
10/02/2016, 11:29
Puede que con GDDR5x no sea necesario ese bus de 384 bits, ya que esta memoria tiene el doble de ancho de banda que la GDDR5 a la misma frecuencia. Unas GDDR5x a 1500 Mhz y un bus de 256 bits entregan un ancho de 384 GB/s, que es más de lo que tiene actualmente la 980 Ti. En principio sería sufiente para las GP104 (supuestas 1080/1070).

Decía especulando con que llevara GDDR5, a partir de 10.5 Gbps ya el bus de 256bits iguala a un bus de 384bits a 7Gbps (que es lo que tiene una 980 Ti de referencia) y con 12Gbps da esos 384 GB/s

https://www.micron.com/about/blogs/2016/february/gddr5x-has-arrived
Micron dice que sus primeras memorias parten de 13Gbps, así que claro que podrian.

La cuestion es si la llevaran o no y cuando saldrian visto que la fabricación en masa de GDDR5x esta prevista para el verano (al menos la de micron, pero hay otros fabricantes)


¿Cuando dejaremos de decir "8000 Mhz efectivos" cuando nos referimos a la DDR?...Ni efectivos, ni pollas. Son 4000 Mhz, punto. ¿O es que alguien se le ocurre sumar todo el IPC de los últimos años y decir que un Skylake de ahora son "25.000 Mhz efectivos" comparado con, yo que sé, un Athlon mononucleo de los de 2001?

Eso de compararse con una tecnología que tiene más de 10 años es un poco ridi xD

Por que técnicamente el reloj seria de 4000 Mhz y serian 8000 MTps (transferencias o transiciones por segundo) por la doble tasa de transferencia, no es por comprarlo con tecnología antigua si no por que funciona así transmite datos al doble de la frecuencia de reloj y por eso le dicen frecuencia efectiva.

En esta GDDR5x se habla de 13 Gbps (que podrian decir 13Ghz efectivos) pero es QDR, así que creo que son 3.25 Ghz el reloj de datos pero que el reloj de comandos va a la mitad de ese o sea 1.625 Ghz reales ... como ves es un lio explicar cuantos relojes tiene y tal.

El fabricante te va a dar el dato más alto, y para ser técnicamente correctos te hablan de 13Gbps, 13 GTs o 13Ghz efectivos que la gente parece entender lo mejor.

Ivak
10/02/2016, 11:37
¿Cuando dejaremos de decir "8000 Mhz efectivos" cuando nos referimos a la DDR?...Ni efectivos, ni pollas. Son 4000 Mhz, punto. ¿O es que alguien se le ocurre sumar todo el IPC de los últimos años y decir que un Skylake de ahora son "25.000 Mhz efectivos" comparado con, yo que sé, un Athlon mononucleo de los de 2001?

Eso de compararse con una tecnología que tiene más de 10 años es un poco ridi xD

En economía se diferencia entre precios nominales y precios reales, ojo. No es lo mismo, qué sé yo, el barril de petróleo a 30$ en 1980, que el barril ahora a 30$ en 2016. En términos reales, ajustado a inflación, está mucho más barato el petróleo ahora que en 1980, aún con los mismos precios en términos nominales.

Con la memoria ocurre que la GDDR5 transmite 4 señales por ciclo de reloj, por lo que 1750 MHz de velocidad real, son 7000 MHz de velocidad efectiva si lo comparásemos con una memoria que transmitiera 1 señal por ciclo de reloj (una SDRAM). O la actual DDR4, que transmite 2 señales por ciclo de reloj, es decir, que una memoria que venden como DDR4-2400, tiene velocidad efectiva de 2400 MHz, aunque trabaja a una velocidad real (en bus de datos) de 1200 MHz.

Es por comparar capacidades de diferentes tecnologías de memorias. Y no estamos hablando de una tecnologías de hace 10 años, sino de coetáneas como la GDDR5 y la DDR4

avex
10/02/2016, 11:56
Vamos que si un i3 de 2 nucleos rinde mas que un quad de generación pasada, hay que venderlo a precio de 8 núcleos porque rinde mas:ugly:, ya que vamos, tener 6 núcleos menos sale al mismo precio que el de 8.La inversión de fabricación de un producto es lo que determina la gamas en el mundo del hardware, fabricar un smartphone de gama baja no sale al mismo precio que un top eh.

La inversión es bastante irrelevante. Lo que importa es lo que le ofrece al comprador. El cliente no tiene por que saber nada de inversión para valorar un producto, tiene que conocer su rendimiento en el mundo real

Y si un i3 de 2 nucleos rindirese en programas de 2016 lo mismo que un 8 nucleos de 2014 en programas de 2014, y mcho más que el 8 nucleos en los propios programas de 2014, evidentemente hay justificación para que cueste lo mismo que el 8 nucleos anterior.

A mi la inversión que haya hecho la compañía en general poco me importa, la desconozco. Lo que espero de las GPUs es su rendimiento. Si consiguen el rendimiento que yo pido, haciendo menos inversión, pues olé por ellos. Han hecho bien su trabajo y van a ganar más dinero.

Y si mañana sale una Titan xXx, que rinde el triple que una Titan X, me parecerá genial que cueste 2000€ (o más bien me dará igual). Porque lo que ofrecería en cuestión de rendimiento está completamente fuera de mercado. No será "la gama alta" y obligará a recolocar todas las demás para ajustar esa a 500-600€, será una gama nueva completamente innecesaria para el 99.99% de los usuarios.



Aparte que con ese concepto a donde queda el tema de evolución generacional, sin una GPU como la 460 rendía como una top anterior (280) y el chip estaba recortado para ahorrarse costo y meterlo en la gama media, ese rendimiento era parte de la evolución natural, por cual hicieron lo correcto en llamarla 460 y no 480, pero como digo luego con la serie 600 se pusieron listos.

¿Con la serie 600? Si de la 400 a la 500 apenas hay diferencia de rendimiento, y de la 8000 a la 9000 ya había pasado lo mismo, y antes de eso las 5000 fueron un fiascazo, y las 7000 casi, lo mismo que las GF3.

stalker77
10/02/2016, 14:32
La inversión es bastante irrelevante. Lo que importa es lo que le ofrece al comprador. El cliente no tiene por que saber nada de inversión para valorar un producto, tiene que conocer su rendimiento en el mundo real

Y si un i3 de 2 nucleos rindirese en programas de 2016 lo mismo que un 8 nucleos de 2014 en programas de 2014, y mcho más que el 8 nucleos en los propios programas de 2014, evidentemente hay justificación para que cueste lo mismo que el 8 nucleos anterior.

A mi la inversión que haya hecho la compañía en general poco me importa, la desconozco. Lo que espero de las GPUs es su rendimiento. Si consiguen el rendimiento que yo pido, haciendo menos inversión, pues olé por ellos. Han hecho bien su trabajo y van a ganar más dinero.

Y si mañana sale una Titan xXx, que rinde el triple que una Titan X, me parecerá genial que cueste 2000€ (o más bien me dará igual). Porque lo que ofrecería en cuestión de rendimiento está completamente fuera de mercado. No será "la gama alta" y obligará a recolocar todas las demás para ajustar esa a 500-600€, será una gama nueva completamente innecesaria para el 99.99% de los usuarios.



¿Con la serie 600? Si de la 400 a la 500 apenas hay diferencia de rendimiento, y de la 8000 a la 9000 ya había pasado lo mismo, y antes de eso las 5000 fueron un fiascazo, y las 7000 casi, lo mismo que las GF3.

Me queda clara tu postura, pero eso no quita que técnicamente la división de gamas se divide por la inversión del chip, nadie te va a dar los mas puntero a precio de gama-baja(en el mundo del hardware). Y no me contestaste que sentido tiene dividir gamas si al final con el concepto "solo rendimiento importa" te lo cargas de un plumazo y tampoco me contestaste que sentido tiene una evolución generacional.

Pero vamos entiendo que tu prefieres pagar el sobre coste de una manzana solo porque rinda mas o pagar el 2 doble por un Alienware teniendo el mismo i7 son opiniones personales y lo respeto, en mi caso teniendo conocimientos previos y los básicos de hardware, no voy a caer en sus trucos de marketing que solo el rendimiento importa, pagar por una gafas chinas que les cuestan $2 a $50 no es mi estilo por mas que sean las mas guay del planeta xD.

avex
10/02/2016, 15:41
Me queda clara tu postura, pero eso no quita que técnicamente la división de gamas se divide por la inversión del chip, nadie te va a dar los mas puntero a precio de gama-baja(en el mundo del hardware). Y no me contestaste que sentido tiene dividir gamas si al final con el concepto "solo rendimiento importa" te lo cargas de un plumazo y tampoco me contestaste que sentido tiene una evolución generacional.

¿Como que cargas las gamas? Las gamas las divides en función del rendimiento evidentemente. Dos GPUs de la misma remesa que en el mismo programa (pongamos 3DMark) rindan 16000 puntos y 10000 puntos son evidentemente de gamas diferentes. Nomenclaturas internas de la empresa o calculo de transistores aparte, una rinde un 60% más que la otra. La segunda, por mucho que pudiese incluso tener más inversión que la primera (y haber salido mal), no puede nunca estar en la misma gama que la primera.

Y la evolución generacional es una herramienta para obtener más rendimiento con menos (o los mismos recursos) evidentemente, porque se espera que el software sea más exigente.

La GPU no es un fin en si mismo, es un medio para que sea posible que los creadores de juegos (y entornos virtuales, y proyectos de cálculo, etc...) puedan crear lo que tienen en su cabeza. Hoy hay limitaciones, menos de las que había antes, y más de las que habrá en el futuro. Para eso se avanza.




Pero vamos entiendo que tu prefieres pagar el sobre coste de una manzana solo porque rinda mas o pagar el 2 doble por un Alienware teniendo el mismo i7 son opiniones personales y lo respeto, en mi caso teniendo conocimientos previos y los básicos de hardware, no voy a caer en sus trucos de marketing que solo el rendimiento importa, pagar por una gafas chinas que les cuestan $2 a $50 no es mi estilo por mas que sean las mas guay del planeta xD.

No, porque no rinde más :lol:

Me estás poniendo ejemplos de pagar más por lo mismo, no de pagar más por más. Si los chicos de alienware hiciesen algo que hiciese que su PC rindiese el doble, no tendría problema en pagar el doble, pero no lo hacen. Y con apple igual, estás pagando más por menos rendimiento.

No me parecen ejemplos aplicables a lo que estamos hablando.

Yo pago por lo que obtengo, no por cosas que no me aportan nada. El número de transistores, el tamaño del die, la cantidad de módulos de memoria, el tamaño del disipador... a mi no me aporta nada de nada. El rendimiento en los programas que uso es lo que obtengo de una GPU, y es por lo único que pago. Y una de "chip recortado" que rinda más que una de "chip completo" al final me está ofreciendo más rendimiento. ¿Por que iba a pagar más por la segunda, si rinde menos?

Eryou
10/02/2016, 16:07
Es evidente que se paga por el rendimiento más que por lo que se ha invertido en el desarrollo del chip. No hay más que ver como en los procesadores, muchas veces son el mismo chip pero con frecuencias diferentes. Es decir, ellos hacen inversión para desarrollar X arquitectura, luego viene el coste de fabricación (que es el mismo muchas veces por ser el mismo chip) y por último, te cobran más por aquel que viene más subido de vueltas.

Qué cuesta más un FX 8300 o un 8370? Un i3 4130 o un 4170?? Pues para ambos han tenido que invertir lo mismo en investigación, y el coste (para ellos) es igual.

En los coches cada vez pasa más, también. Ahora limitan la potencia de los motores electrónicamente en vez de hacer un motor para cada rango de potencia. Sin embargo, por cuál te cobran más??

josrob536
10/02/2016, 17:50
por lo que veo os habeis salido mucho del contexto.
a mi lo que me importa es el rendimiento. el gk104 rendia muy muy bien y competia con las tahiti con mucho menos bus.
pero eso no quita que el gk104 sea el chip de gama media y que el chip de gama alta sea el gk110 lo que pasa que nvidia saco el gk110 para las TITAN y las vendia a 1000€ por que amd no tenia ningun chip en ese momento para competir con el chip de alta gama de NVIDIA.

no hay que ser demasiado inteligente para saber que el gk110 era el chip de alta gama. bueno tambien podriamos decir que el gk104 era el chip performance y el gk110 el hidh-end.
yo pago por rendimiento no por numeracion de chip. pero hubiese preferido el gk110 del gtx780 en vez de tener el gtx680 a 550€ para luego vender el gk110 en 650€ esos 100€ bien merecian la pena.
pero como digo las circunstancias en general han echo que se vendan las graficas que hubiesen ido destinadas a gama media-alta como gama TOP. AMD no tenia nada para competir de tù a tù y tardo mucho en sacar las hawaii y para entonces ya teniamos otra vez el gm204 como TOP y posteriormente el GM200.
si amd saca una buena generacion con polaris y unos drivers de inicio acorde con las gpus vereis como los GP104 los venden en gama correspondiente y el gp200 donde debe estar de incio.

a lo que se mencionaba atras de las gtx9000 , es normal que no mejoraron casi ya que fueron un chip mejorado del G80 y se metieron como gama media y para la gama alta sacaron las gtx200.(similar a la hd380x que es una mejora del thaiti 280x )
hay paso una cosa similar las amd 2900xtx no eran rivales y las hd3870 tampoco conseguian rendir mas que las 9800gtx , luego las hd4870 mejoraron mucho y nvidia tuvo que refritar varias gtx200 y bajar mucho el precio al sacar amd con antelacion las hd5000.
si al final si lo pensais detenidamente la competencia entre ambas es lo que manda en el mercado. amd con las hd5000 las subio de precio por que estuvieron 7 meses reinando hasta que nvidia saco fermi de manera tardia y con temperaturas y consumo elevado.

ps: para no alargarme mas, el rendimiento puede que marque la posicion en la que se vende el producto en el mercado, pero el chip en la misma gama con menos transistores y bus determina la posicion y por supuesto un gm204 por muy bien que vaya es un chip gama media y si no mira el GM200 misma arquitectura pero con mucho mas de todo. si sacaran todos los chips al mismo tiempo esta conversacion sobre si es gama media o alta no existiria.

Saludos.

stalker77
10/02/2016, 18:05
¿Como que cargas las gamas? Las gamas las divides en función del rendimiento evidentemente. Dos GPUs de la misma remesa que en el mismo programa (pongamos 3DMark) rindan 16000 puntos y 10000 puntos son evidentemente de gamas diferentes. Nomenclaturas internas de la empresa o calculo de transistores aparte, una rinde un 60% más que la otra. La segunda, por mucho que pudiese incluso tener más inversión que la primera (y haber salido mal), no puede nunca estar en la misma gama que la primera.

Y la evolución generacional es una herramienta para obtener más rendimiento con menos (o los mismos recursos) evidentemente, porque se espera que el software sea más exigente.

La GPU no es un fin en si mismo, es un medio para que sea posible que los creadores de juegos (y entornos virtuales, y proyectos de cálculo, etc...) puedan crear lo que tienen en su cabeza. Hoy hay limitaciones, menos de las que había antes, y más de las que habrá en el futuro. Para eso se avanza.




No, porque no rinde más :lol:

Me estás poniendo ejemplos de pagar más por lo mismo, no de pagar más por más. Si los chicos de alienware hiciesen algo que hiciese que su PC rindiese el doble, no tendría problema en pagar el doble, pero no lo hacen. Y con apple igual, estás pagando más por menos rendimiento.

No me parecen ejemplos aplicables a lo que estamos hablando.

Yo pago por lo que obtengo, no por cosas que no me aportan nada. El número de transistores, el tamaño del die, la cantidad de módulos de memoria, el tamaño del disipador... a mi no me aporta nada de nada. El rendimiento en los programas que uso es lo que obtengo de una GPU, y es por lo único que pago. Y una de "chip recortado" que rinda más que una de "chip completo" al final me está ofreciendo más rendimiento. ¿Por que iba a pagar más por la segunda, si rinde menos?

El iPhone 6 según bench es el smartphone mas potente,así que es una buena opción para tu concepto que estas pagando por rendimiento y no por una manzana jeje.

Ahora es cuando quería llegar al punto de centrarce en un dispositivo,que arquitectura de NVIDIA es inferior el chip tocho? En fermi el tocho rendía mas,en kleper lo mismo,en maxwell lo mismo. Porque tengo que pagar mas por un chip recortado,apretado y que flojean resoluciones altas,pudiendo tener el tope de gama de esa arquitectura con todas sus características completas?.

El tema de gamas no solo marca el rendimiento si no el precio,cuando recomendas una GPU de gama baja, estas recomendando un producto dentro de su rango de precio económico. El tema de solo rendimiento le quitaría sentido a esto porque terminarías pagando 800 por cada generación que rindiera,por eso hay que centrarce en lo que frece cada generación dentro de sus chips de cada gama.

Para terminar NVidia y complementado lo anterior ,divide sus arquictecturas en 3 segmento cada uno correspondiente a su gama,el 106 (si no me equivoco) 104 y 110 del mas recortado al mas completo, si un 104 rinde como un 110 anterior no tiene porque considerarse tope,porque dentro de su generación de arquitectura sigue siendo el chip de en medio para el sector ,teniendo uno superior arriba de el(110). Saludos

avex
10/02/2016, 18:08
ps: para no alargarme mas, el rendimiento puede que marque la posicion en la que se vende el producto en el mercado, pero el chip en la misma gama con menos transistores y bus determina la posicion y por supuesto un gm204 por muy bien que vaya es un chip gama media y si no mira el GM200 misma arquitectura pero con mucho mas de todo. si sacaran todos los chips al mismo tiempo esta conversacion sobre si es gama media o alta no existiria.


Que quieres que te diga, si Nvidia hubiese sacado en el mismo paquete Titan X, 980Ti, 980, 970, 960 y 950 seguiría pensando que la 980 es gama alta.

Sigo viendo que en rendimiento para los juegos de su momento las 280, 480, 580, 680, 780 y 980 están todas en el mismo escalón aproximadamente. ¿Que antex X80 significaba tope y ahora no? Pues si, pero antes no había mono GPUs que sacaran 120 fps con detalle máximo a los juegos de su momento.

En muchos juegos las 980 Ti (y Titan X, y Fury) rinden en 4K como las X80 solían rendir a resoluciones menores en su lanzamiento. Pero con la diferencia de que falta bastante para que el 4K sea algo normal.



Ahora es cuando quería llegar al punto de centrarce en un dispositivo,que arquitectura de NVIDIA es inferior el chip tocho? En fermi el tocho rendía mas,en kleper lo mismo,en maxwell lo mismo. Porque tengo que pagar mas por un chip recortado,apretado y que flojean resoluciones altas,pudiendo tener el tope de gama de esa arquitectura con todas sus características completas?.

Evidentemente dentro de una única arquitectura el chip completo va a rendir más.

Pero te pongo un ejemplo:

Marca A ofrece chip completo tope de gama, rinde 100% y cuesta 100
Marca B ofrece chip recortado, rinde 120% y cuesta 100, pero además tiene un chip completo que rinde 150% y cuesta 200.

¿Te parecería una estafa lo que hace la marca B? ¿Por qué? Te está ofreciendo más que la otra marca por el mismo dinero.

Que una cosa sea gama alta no quiere decir que no haya gama por encima. Casi todos los productos de lujo (y esto lo es) tienen gamas ridiculamente altas con caracteristicas que la mayoría de usuarios no necesitan para nada.

Para mi las 980Ti y Titan X (y Fury de AMD, y las Titan Z ya ni te cuento) hoy por hoy entran en ese segmento. Una tarjeta que da 80 fps en The Witcher 3, 100 en BF Hardline, 200 en Tomb Raider... a 1080P con AA 4X... pues que quieres que te diga, que cueste lo que quiera. Yo no he visto monoGPU de gama alta de generaciones anteriores con esos números.

La que rinde, en los juegos de hoy, como rendían las 280,480 y 580 en los juegos de su momento es la 980 (y si me apuras la 970).

Yo hoy pongo la gama alta en las 980/390X, la media-alta en las 970/390, la media en las 950/960/380/380X y de ahí para abajo gama baja y bajísima.




El tema de gamas no solo marca el rendimiento si no el precio,cuando recomendas una GPU de gama baja, estas recomendando un producto dentro de su rango de precio económico. El tema de solo rendimiento le quitaría sentido a esto porque terminarías pagando 800 por cada generación que rindiera,por eso hay que centrarce en lo que frece cada generación dentro de sus chips de cada gama.

Coño, rendimiento dentro de lo que el usuario busca evidentemente. Recomendarle a todo el mundo la que más rinda es ridículo. Pero si alguien llega y dice "tengo 200€ para gastar", le recomiendo la que más le ofrezca al usuario dentro de ese precio. ¿Que uno se puede encontrar que una marca ofrece un "chip recortado" y otra uno "completo"? ¿Que más da?
Al usuario le va a dar más alegrías la que más rinda. No va a pensar "menos mal que cogí el completo, aunque rinda menos".



Para terminar NVidia y complementado lo anterior ,divide sus arquictecturas en 3 segmento cada uno correspondiente a su gama,el 106 (si no me equivoco) 104 y 110 del mas recortado al mas completo, si un 104 rinde como un 110 anterior no tiene porque considerarse tope,porque dentro de su generación de arquitectura sigue siendo el chip de en medio para el sector ,teniendo uno superior arriba de el(110).

Vuelvo a lo mismo. Eso a mi no me aporta nada. Eso son cosas internas de la empresa. No perjudica en nada a los usuarios.

¿Es que si ahora la GTX 1080 fuese un 104, pero rindiese el doble que una 980 Ti, por 500€, te sentirías estafado? ¿No te pareceríia gama un monstruo así?
Si, habría varias por encima, y seguro que tendrían una GTX 1080Ti que sacaría 200 fps en 4K en cualquier juego, que acabarían vendiendo por 1500€, pero ¿y que? Nadie estaría obligado a comprarlo, lo que ofrecería no es una necesidad para nadie.

Lo veo como pensar que un Mercedes de 50000€ no es gama alta, porque existen los Ferraris de 100000€.

josrob536
10/02/2016, 18:17
Que quieres que te diga, si Nvidia hubiese sacado en el mismo paquete Titan X, 980Ti, 980, 970, 960 y 950 seguiría pensando que la 980 es gama alta.

Sigo viendo que en rendimiento para los juegos de su momento las 280, 480, 580, 680, 780 y 980 están todas en el mismo escalón aproximadamente. ¿Que antex X80 significaba tope y ahora no? Pues si, pero antes no había mono GPUs que sacaran 120 fps con detalle máximo a los juegos de su momento.

En muchos juegos las 980 Ti (y Titan X, y Fury) rinden en 4K como las X80 solían rendir a resoluciones menores en su lanzamiento. Pero con la diferencia de que falta bastante para que el 4K sea algo normal.

pensar es libre. pero teniendo el GM200 como chip TOP con un 50% por encima de la 980 en rendimiento es imposible catalogar la 980 ni 970 como gama alta. es la gama performance , la que anteriormente eran gtx 460/560/560ti .
simplemente les interesa mas esta estrategia hasta que amd les de un puñetazo sacando un chip TOP que nvidia no pueda competir con sus chips performance.
como ha dicho el anterior compañero.
nvidia los cataloga tal cual 106,104/110 el bajo medio y alto . como lo considere cada uno es una cosa. hay quien piensa que tiene un i3 es un pc de alta gama. pero el alto es el i7 xD

stalker77
10/02/2016, 18:58
Tu mismo lo has dicho Avex son cosas internas de cada empresa,cosas técnicas,en mi caso mi comentarios iban por ese lado técnico,luego como dice jorobos si alguien considera i3 gama alta porque es superior aun core 2 quad es una opinion personal,que como dije en mi anterior puedó entender.

Sobre el rendimiento doble de una 980ti,si es un chip recortado GM104 y hay uno superior mas completo,pues sigue siendo un 104(un chip MID dentro de la arquitectura de NVIDIA),por cual no tengo porque considerarlo tope,si no una evolución natural dentro de su propia arquitectura.

Tu error es que al generalizar te lleva a meter a otras generaciones o competencias,por cual no lo estas viendo como un salto de generación separando de cada arquitectura, por cual como dije en anteriores comentarios te estas cargando el concepto de evolución generacional al no respetar lo estándares de cada arquitectura y esos son 106,104 y 110.

Fantasma
10/02/2016, 19:11
Estoy revisando fechas y parece que Samsung anuncio la producción en masa de la HBM2 el 19 de enero, https://news.samsung.com/global/samsung-begins-mass-producing-worlds-fastest-dram-based-on-newest-high-bandwidth-memory-hbm-interface
Prácticamente recién finalizado el estandard del JEDEC

Y teniendo en cuenta que el GP100 podría estrenarse en tarjetas Tesla para HPC o como mucho en forma de Titan, si que podrian presentarla en Abril como sugieren algunos rumores pero con baja disponibilidad (o un paper launch).
O si no siempre pueden presentar una tarjeta de cartón :spy:

Más crudo veo el de la GP104 aunque puede que otros como Samsung (o Hynix) empiecen la producción de GDDR5x antes,
o que simplemente lleve GDDR5, por lo que si filtro de Zauba, el tamaño del DIE descartaba el uso de HBM y el número de pines hace factible que tenga bus de 384 bits ...

Igual simplemente, Micron llegará un poco más tarde (con respecto Samsung/Hynix), tendremos que esperar a ver. Lo que yo sí creo es lo de la baja disponibilidad en un principio. Yo creo que sí vendrán con GDDR5x, ya que la GDDR5 supongo que será más barata y la pasarán a gamas más bajas. Yo creo que GDDR5x-GDDR5 va a ser lo que antes era GDDR5-GDDR3. Pero vamos, es sólo una suposición.

@avex: te lo advertí, aunque yo te apoyo :rofl:

Por cierto, os habéis olvidado en la discusión que ahora la tarjeta TOP es monogpu, mientras que en casi todas las gamas anteriores ha sido una gpu dual, cosa que cambia un poco el juego y eso se ve en el precio.

Saludos

avex
10/02/2016, 19:18
Tu mismo lo has dicho Avex son cosas internas de cada empresa,cosas técnicas,en mi caso mi comentarios iban por ese lado técnico,luego como dice jorobos si alguien considera i3 gama alta porque es superior aun core 2 quad es una opinion personal,que como dije en mi anterior puedó entender.

Un i3 no es superior a un core 2 quad. Ni de coña. Una vez que ajustas el resultado a su época (que es de lo que llevo hablando todo el tiempo). Un i3 de 2015 mueve los programas de 2015 peor que un Core 2 Quad de 2006 los programas de 2006.

Lo que haría que el i3 fuese una gama superior al Core 2 Quad sería que moviese los programas de hoy, mejor que aquel los programas de entonces.




Sobre el rendimiento doble de una 980ti,si es un chip recortado GM104 y hay uno superior mas completo,pues sigue siendo un 104(un chip MID dentro de la arquitectura de NVIDIA),por cual no tengo porque considerarlo tope,si no una evolución natural dentro de su propia arquitectura.


Yo no estoy hablando de tope, sino de alto. No es lo mismo. Una gama alta no tiene por que ser el tope.

Y me da la sensación de que en estas cosas insistís mucho en algo que tiene cero importancia para alguien que compra la tarjeta. Quien la compra no compra transistores, ni numeración, ni nada de eso. Compra rendimiento, consumo, ruido, etc... Algo que da el mismo rendimiento (ajustado a su tiempo) por el mismo precio (ajustado a su tiempo) es la misma gama en el mercado. Todos los parametros "externos" son iguales. Lo interno da igual.

Igual que si de pronto Nvidia (o AMD) en una de estas se encuentra que su chip "completo" no da para competir más en la gama media, se joderán y será gama media aunque internamente sea el tope. No será "gama alta a precio de media", será media porque rinde como media.

stalker77
10/02/2016, 19:30
Para que esto no se vuelva ciclico,esto quedaría así:

Dentro de lo técnico (objetivo )en la arquitectura de NVIDIA hasta lo actual: 106= baja,104=media,110=alta. Estos seria los números matemáticos.

Dentro de lo personal: Lo que uno quiera considerar.

Por cierto aprender de lo interno es conocimiento y es de lo que va este foro,si lo interno no importa porque agarrar un libro o debatir en un foro que se aprende de transistores.

Steve
10/02/2016, 19:33
Las 970 = 560ti/660ti es decir con overclock te ponías a la altura de su modelo superior.

La diferencia es el precio que una x60ti costaba 230€ y la 970 370€

Fantasma
10/02/2016, 19:40
Para que esto no se vuelva ciclico,esto quedaría así:

Dentro de lo técnico (objetivo )en la arquitectura de NVIDIA hasta lo actual: 106= baja,104=media,110=alta. Estos seria los números matemáticos.

Dentro de lo personal: Lo que uno quiera considerar.

Por cierto aprender de lo interno es conocimiento y es de lo que va este foro,si lo interno no importa porque agarrar un libro o debatir en un foro que se aprende de transistores.

Menuda conclusión más ventajista :rofl:

Las nomenclaturas internas pueden cambiar por cualquier motivo.
Por poner un ejemplo claro en AMD:
R9 390 -> Grenada
R9 290 -> Hawaii

R9 380 -> Antigua
R9 285 -> Tonga

R7 370 -> Trinidad Pro
R7 265 -> Curaçao Pro
HD 7850 -> Pitcairn Pro

R7 360 -> Tobago
R7 260 -> Bonaire

------------------------

El día que Nvidia saque un chip XX110 por 100€, se venderá como rosquillas :rofl:

Saludos

avex
10/02/2016, 19:50
Las 970 = 560ti/660ti es decir con overclock te ponías a la altura de su modelo superior.


Ni de coña. La 970 es superior, en los juegos de hoy, a lo que fueron tanto la 570 como la 670 como la 770 con los juegos de su año. Y el precio marcado por Nvidia está bastante ajustado (más barato que cualquiera de las 3). Que el euro se arrastre por el fango ya no tiene nada que ver con Nvidia.

La 970 es la mejor gama media que ha sacado Nvidia en bastantes años. Y si desde el principio hubiesen sido honestos con todo lo que traía (o la hubiesen sacado de frente con 3.5 GB de VRAM) ya sería la repera.

fmvictor
10/02/2016, 20:17
Yo lo que creo es que para empezar os liais con nombres de los chips. No son 106, 104, 110. Son 107, 106, 104, 100.

Por ejemplo en fermi las 470 y 480 eran gf100, las 460 gf104 y de ahi hacia abajo. Despues salio una revision menor que pasan a ser 11x, por ejemplo la 560 era gf114 y las 570 o 580 gf110.

De donde viene vuestro lio? Pues que en kepler salieron las gk104 (670 y 680, posteriormente llamada 770) y cuando salio la 780 y 780ti ya era sobre la revisión de la arquitectura, es decir gk110 y se comieron el gk100.

Algo parecido a lo que ha pasado en maxwell, donde la 750 y 750ti eran las gm107 y las nuevas pasaron a ser 200. Esto no se si fue por ser revisión mayor, o por evitar esos lios que lo quisieron hacer mas claro. Por ejemplo la 950 y 960 es gm206, las 970 y 980 gm204 y la 980ti es una gm200 (y no gm210).

Mi opinion sobre las gamas la doy despues que estoy en el movil.

Saludos.

stalker77
10/02/2016, 20:37
Tenes razón en la numeración.

Pero el fin es lo mismo 200 alta,204 media etc ya sea un numero otro,significa algo para dividir gamas y ir capando hacia bajo.

Ivak
11/02/2016, 10:00
Las 970 = 560ti/660ti es decir con overclock te ponías a la altura de su modelo superior.

La diferencia es el precio que una x60ti costaba 230€ y la 970 370€

Pero si precisamente lo que llamó positivamente la atención de la GTX 970 en su salida fue su precio de 330$, ¿cómo la comparas con una GTX 560Ti que costaba unos 250$ ?

Se le podrán criticar cosas a la GTX 970, pero por relación rendimiento/precio es de los mejores productos que ha sacado NVIDIA en los últimos años. De hecho, aquí medio foro la tiene, y se nos supone bien informados en cuanto a hardware. :grinskin:

Rioku
11/02/2016, 11:46
Lo dicho, yo firmo ahora mismo ver las 1070 en septiembre.

Saludos

HARRYDEDERTY
11/02/2016, 12:24
Comparto la postura de Stalker77 y josrob536 :

La gama la da la estructura/envergadura del chip dentro de su serie/modelo/arquitectura...en el caso de Nvidia como se dijo x07,x06,x04,x10.

Porque hoy por hoy nos cuelan gama media por alta porque rinden igual o mejor que la TOP anterior...pero imaginemos Hipoteticamente que pasase lo contrario...( imposible)...pero sirve para el analisis ...que el chip completo PK1080 de Nvidia rindiese igual que una 970 actual ...¿ Lo considerarias gama media? si es lo maximo que puede esa arquitectura ...exceptuando claro una Dual...:)

Saludos...

Eryou
11/02/2016, 14:01
Comparto la postura de Stalker77 y josrob536 :

La gama la da la estructura/envergadura del chip dentro de su serie/modelo/arquitectura...en el caso de Nvidia como se dijo x07,x06,x04,x10.

Porque hoy por hoy nos cuelan gama media por alta porque rinden igual o mejor que la TOP anterior...pero imaginemos Hipoteticamente que pasase lo contrario...( imposible)...pero sirve para el analisis ...que el chip completo PK1080 de Nvidia rindiese igual que una 970 actual ...¿ Lo considerarias gama media? si es lo maximo que puede esa arquitectura ...exceptuando claro una Dual...:)

Saludos...

Algo parecido ocurrió con la gama 4xxx de AMD. La HD 4870 era la t.gráfica monogpu más potente de AMD en aquella generación. Sin embargo se vendía por unos 240€ -creo recordar-. No rendía como las top de Nvidia y entre eso y el precio la situaban en la gama media, siendo sin embago la top monogpu.

ScOrPiA
11/02/2016, 14:14
A ver como andan con el HBM o HBM2 las nvidia en temas de consumo, en amd está claro que generan una cantidad de calor y consumo bastante elevada pero siendo la primera gráfica de este modelo es normal.

Armagg3don
11/02/2016, 15:29
Pero si precisamente lo que llamó positivamente la atención de la GTX 970 en su salida fue su precio de 330$, ¿cómo la comparas con una GTX 560Ti que costaba unos 250$ ?

Se le podrán criticar cosas a la GTX 970, pero por relación rendimiento/precio es de los mejores productos que ha sacado NVIDIA en los últimos años. De hecho, aquí medio foro la tiene, y se nos supone bien informados en cuanto a hardware. :grinskin:De hecho esa relación rendimiento/precio/consumo le ha dado el trono actual entre los usuarios de Steam:

NVIDIA e Intel tienen las tarjetas gráficas más populares en Steam (http://www.noticias3d.com/noticia.asp?idnoticia=66905)

http://www.noticias3d.com/imagenes/noticias/201601/gtx.jpg

avex
11/02/2016, 15:35
Comparto la postura de Stalker77 y josrob536 :

La gama la da la estructura/envergadura del chip dentro de su serie/modelo/arquitectura...en el caso de Nvidia como se dijo x07,x06,x04,x10.

Porque hoy por hoy nos cuelan gama media por alta porque rinden igual o mejor que la TOP anterior...pero imaginemos Hipoteticamente que pasase lo contrario...( imposible)...pero sirve para el analisis ...que el chip completo PK1080 de Nvidia rindiese igual que una 970 actual ...¿ Lo considerarias gama media? si es lo maximo que puede esa arquitectura ...exceptuando claro una Dual...:)

Saludos...

Pues evidentemente si. Si rinde como gama media, tendrá que venderse a precio de gama media (o no venderse de ningún modo), y será gama media. Da igual que fuese un chip enorme, y lo mejor que puede ofrecer en ese momento la compañía. Y sería gama media en una generación sin gama alta.

FX8120
11/02/2016, 15:45
A ver como andan con el HBM o HBM2 las nvidia en temas de consumo, en amd está claro que generan una cantidad de calor y consumo bastante elevada pero siendo la primera gráfica de este modelo es normal.

El calor es inevitable al estar CPU GPU+HBM tan juntas.

avex
11/02/2016, 16:00
El calor es inevitable al estar CPU GPU+HBM tan juntas.

Viendo lo que ha conseguido AMD con la Nano no creo que eso deba ser un problema. Quizá obligue a limitar consumos, o a hacer ajustes dinámicos de voltaje/frecuencias que antes, pero no creo que sea nada que dañe el rendimiento de manera apreciable.

Eryou
11/02/2016, 16:06
Sobre todo en las gamas altas, el consumo que van a tener viene determinado por los sistemas de refrigeración actuales. Para monogpu parece que las cifras más elevadas que se manejan están entorno a los 250w, aunque ya sabemos que una cosa es el consumo y otra como se disipa el calor.

Lo que quiero decir, es que independientemente de la eficiencia energética que logren con X arquitectura, siempre aprovecharán a acercarse a este límite para poner a su mejor GPU en este rango. A más eficiencia más rendimiento, pero el consumo parece un tanto estancado, y me parece bien, prefiero que no suban más... mejor que suban el rendimiento a base de eficiencia y depuración que no a base de meter vatios.

ScOrPiA
11/02/2016, 16:15
La nano que mide 10-15cm tiene un disipador de 3X cm que sobresale del pcb, así cualquiera refrigera el nucleo. La idea es optimizar el consumo y calor generado para repartir mejor el calor, nose si poniendo los chips mas lejos o mejor repartidos necesitarian menos disipador.

Armagg3don
11/02/2016, 16:20
El calor es inevitable al estar CPU GPU+HBM tan juntas.Eso muy probablemente podria limitar la oceabilidad de dichos componentes, tal y como pasa con las Fury.
Bajo esas condiciones, yo preferiria que siguieran ocupando las GDDR5 (obviamente con sus variantes mas veloces).

avex
11/02/2016, 16:22
La nano que mide 10-15cm tiene un disipador de 3X cm que sobresale del pcb, así cualquiera refrigera el nucleo. La idea es optimizar el consumo y calor generado para repartir mejor el calor, nose si poniendo los chips mas lejos o mejor repartidos necesitarian menos disipador.

Te confundes con la Fury normal. El disipador de la Nano cubre exactamente el PCB, y ocupa 2 slots (completamente normal).

Aquí está mi Fury Nano, junto a mis viejas 7970 y 280X


http://s22.postimg.org/ey5ec1s2p/IMG_20160201_114757.jpg

FX8120
11/02/2016, 16:51
Viendo lo que ha conseguido AMD con la Nano no creo que eso deba ser un problema. Quizá obligue a limitar consumos, o a hacer ajustes dinámicos de voltaje/frecuencias que antes, pero no creo que sea nada que dañe el rendimiento de manera apreciable.

Tampoco creó que sea un problema, seguro que sacan algun inventó para mejorarla.

- - - Actualizado - - -


Eso muy probablemente podria limitar la oceabilidad de dichos componentes, tal y como pasa con las Fury.
Bajo esas condiciones, yo preferiria que siguieran ocupando las GDDR5 (obviamente con sus variantes mas veloces).

El problema es que han llegado al tope del ancho de banda de la GDDR5, quizás ya ahora mismo no, pero lo harán durante este año con Pascal.

Eryou
11/02/2016, 17:11
El problema es que han llegado al tope del ancho de banda de la GDDR5, quizás ya ahora mismo no, pero lo harán durante este año con Pascal.
A lo que están pudiendo llegar es al límite de frecuencia al que la GDDR5 mantiene una relación coherente entre frecuencia/voltaje/consumo.

Pero el ancho de banda también viene muy determinado por el controlador de memoria que se use. Ya hemos visto en el pasado controladores de 512 bits, pero desde que se sacó la GDDR5 no se ha vuelto a utilizar (en Nvidia, las 390 si que las llevan). Nada les impide volver a meter un bus de 512 bits con GDDR5, aunque ahora que va haber disponibles las memorias GDDR5x, HBM y HBM2, tiene poco sentido. No obstante, la GDDR5 a 1750 Mhz (7000 MHz efectivos) con el bus de 512 tiene un ancho de banda de 448 GB/s.

Donan
11/02/2016, 18:57
Te confundes con la Fury normal. El disipador de la Nano cubre exactamente el PCB, y ocupa 2 slots (completamente normal).

Aquí está mi Fury Nano, junto a mis viejas 7970 y 280X


http://s22.postimg.org/ey5ec1s2p/IMG_20160201_114757.jpg


Joder esque la nano parece de juguete jaja he visto tarjetas de sonido más grandes XDD

Fantasma
11/02/2016, 20:51
pero imaginemos Hipoteticamente que pasase lo contrario...( imposible)...pero sirve para el analisis ...que el chip completo PK1080 de Nvidia rindiese igual que una 970 actual ...¿ Lo considerarias gama media? si es lo maximo que puede esa arquitectura ...exceptuando claro una Dual...:)

Sí, sin duda lo catalogaría de gama media y de un fail de Nvidia. Y si lo ponen más caro de lo que rinde, se lo comerán con patatas, si no hay nada que lo compense como el consumo o algo así, independientemente de si es chip top o chip rastrero.

Saludos

HARRYDEDERTY
12/02/2016, 12:05
Pues evidentemente si. Si rinde como gama media, tendrá que venderse a precio de gama media (o no venderse de ningún modo), y será gama media. Da igual que fuese un chip enorme, y lo mejor que puede ofrecer en ese momento la compañía. Y sería gama media en una generación sin gama alta.


Sí, sin duda lo catalogaría de gama media y de un fail de Nvidia. Y si lo ponen más caro de lo que rinde, se lo comerán con patatas, si no hay nada que lo compense como el consumo o algo así, independientemente de si es chip top o chip rastrero.

Saludos


Claro son dos "Puntos de Vistas" diferentes ...dependiendo QUE se mire de la tarjeta y si es el "Mercado" o el "Fabricante"...

Porque viendolo desde el Punto de vista del Gamer/Mercadeo la gama la determina los "FPS"...que escupa en relacion a la competencia actual...en cambio desde el punto de vista del usuario gamer/profesional...se pueden considerar una GPU por sus cualidades en Computo u otras tareas ademas de los FPS que den...y desde el Punto de vista del Fabricante la "GAMA" TOP de su chip sera el maximo especificado en los papeles y una vez construido y eliminado fugas y defectos de procesos de fabricacion sera lo "MAXIMO" que tenga ...por consiguiente para Ellos sera el TOP rinda lo que rinda en cualquier escenario...


Saludos...

xusso
12/02/2016, 12:20
Estamos debatiendo bastante sobre los posibles futuros chips para tarjetas de sobremesa. Pero, ¿qué pensáis sobre los de GPUs para portátiles? ¿Creéis que habrán un buen salto respecto a la gama 9xx?

En mi caso, estoy a punto de comprarme un portátil con una GTX960M (es el modelo superior de GPU para dicho modelo de portátil, si no me pillaría una 965M o 970M sin dudarlo). ¿Creéis que la gama de chips para portátiles saldrá más o menos a la vez que la gama de sobremesa? En dicho caso quizás me interesaría esperarme al modelo con GTX1060M que sacarían...

Saludos!

Marcos669
12/02/2016, 12:23
Estamos debatiendo bastante sobre los posibles futuros chips para tarjetas de sobremesa. Pero, ¿qué pensáis sobre los de GPUs para portátiles? ¿Creéis que habrán un buen salto respecto a la gama 9xx?

En mi caso, estoy a punto de comprarme un portátil con una GTX960M (es el modelo superior de GPU para dicho modelo de portátil, si no me pillaría una 960M o 970M sin dudarlo). ¿Creéis que la gama de chips para portátiles saldrá más o menos a la vez que la gama de sobremesa? En dicho caso quizás me interesaría esperarme al modelo con GTX1060M que sacarían...

Saludos!

La 860m salió creo prácticamente a la misma vez que su homóloga de sobremesa así que no veo razón por la que no, aunque los caminos de Nvidia son inexcrutables XD, pero debería haber un buen salto

zorranco
12/02/2016, 21:15
Intel ya ha dicho que las CPU tocan techo, que ya no va a haber más aumentos de rendimiento y no hay ninguna tecnología a corto plazo que se vislumbre como sucesora...digo yo que en GPU en cuanto lleguen a 7nm o a 5, será lo mismo, ¿no?

Eryou
12/02/2016, 22:15
Intel ya ha dicho que las CPU tocan techo, que ya no va a haber más aumentos de rendimiento y no hay ninguna tecnología a corto plazo que se vislumbre como sucesora...digo yo que en GPU en cuanto lleguen a 7nm o a 5, será lo mismo, ¿no?

Vamos que el grafeno no eran posibles partículas de un chip, sino partículas de humo, no??

Patagonico
12/02/2016, 23:50
Intel ya ha dicho que las CPU tocan techo, que ya no va a haber más aumentos de rendimiento y no hay ninguna tecnología a corto plazo que se vislumbre como sucesora...digo yo que en GPU en cuanto lleguen a 7nm o a 5, será lo mismo, ¿no?

Siempre encuentran una nueva forma de avanzar

http://computerhoy.com/noticias/hardware/nueva-tecnica-fabricar-procesadores-finos-flexibles-39955

y lo mas reciente el penta grafeno.-

Saludos.-

zorranco
13/02/2016, 09:58
Todas estas noticias que se leen siempre son a nivel de laboratorio, pero a nivel industrializable a dia de hoy no hay absolutamente nada...estamos demasiado acostumbrados a que según el mercado siempre habrá una nueva de vuelta de tuerca, pero a Intel el mercado del PC a dia de hoy le da igual...la carrera sigue en el terreno de la eficiencia en chips portátiles, y en esa carrera aún quedan unos años de desarrollo y expansión por lo que las espaldas las tienen cubiertas a corto plazo.

Igualmente a nivel PC seguirán habiendo mejoras en la eficiencia también, instrucciones de procesador, mejoras aquí y allá...pero a nivel de IPC es una incognita. Los propios de Intel están diciendo que la ley de Moore deja de existir desde ya, será porque no las tienen todas consigo.

Donan
13/02/2016, 11:03
Esque realmente un usuario tanto medio como profesional, puede quedarse corto con un 5960x ?
Pregunto desde la ignorancia ehh
Yo pienso que por donde podrían ir tirando es subiendo el número de núcleos en los i7 de socket no entusiastas XD

Pero tarde o temprano se tendrá que llegar a un límite digo yo no?

ScOrPiA
13/02/2016, 11:14
Como funciona esto del DSR?

Porque estáis sacando el rendimiento necesario en 1080p y 4k, viendo unas imagenes que son exactamente iguales de largo y ancho cuando la primera es 1920x1080 y la segunda 3000x1400, pero en la imagen no se aprecia ninguna mejora de ancho o largo. Así como el mayor campo de visión.

Patagonico
13/02/2016, 11:34
Todas estas noticias que se leen siempre son a nivel de laboratorio, pero a nivel industrializable a dia de hoy no hay absolutamente nada...estamos demasiado acostumbrados a que según el mercado siempre habrá una nueva de vuelta de tuerca, pero a Intel el mercado del PC a dia de hoy le da igual...la carrera sigue en el terreno de la eficiencia en chips portátiles, y en esa carrera aún quedan unos años de desarrollo y expansión por lo que las espaldas las tienen cubiertas a corto plazo.

Igualmente a nivel PC seguirán habiendo mejoras en la eficiencia también, instrucciones de procesador, mejoras aquí y allá...pero a nivel de IPC es una incognita. Los propios de Intel están diciendo que la ley de Moore deja de existir desde ya, será porque no las tienen todas consigo.

Exacto como empresa siempre hay que enfocarse donde se puede sacar mas provecho y a día de hoy están un paso adelante de las gráficas y el poco aprovechamiento que se le saca a los micros, creo que con mi micro tengo para varios años y con cada cambio que hago se me hacen mas longevos, pero cuando se vuelva a requerir potencia digamos 8K o a nivel profesional seguro reaparecerán y claro como dices no es a corto plazo pero seguro ya tendrán algo para cuando se requiera.

Saludos.-

Bloot
13/02/2016, 12:04
Como funciona esto del DSR?

Porque estáis sacando el rendimiento necesario en 1080p y 4k, viendo unas imagenes que son exactamente iguales de largo y ancho cuando la primera es 1920x1080 y la segunda 3000x1400, pero en la imagen no se aprecia ninguna mejora de ancho o largo. Así como el mayor campo de visión.

El DSR/VSR lo que hace es renderizar la imagen a la resolución que tú le digas, y luego la escala a la nativa del monitor.

Oliver91
13/02/2016, 12:23
Rumores:


April 2016 - GTC: Tesla (GP100)
June 2016 - Computex: GTX 1080 (GP104) & GTX 1070 (GP104)
4Q 2016 - GP106 & GP107
4Q 2016 or 1Q 2017 - Titan (GP100)
1Q / 2Q 2017 - GP108 (GM108 rebrand?)

http://www.xtremesystems.org/forums/showthread.php?294697-News-Rumor-Nvidia-Pascal-lineup-and-launch-dates

Fantasma
13/02/2016, 12:35
Entonces en Abril, sería sólo la tarjeta dedicada a uso profesional. Pero bueno, lo más interesante es lo de Junio, eso marcará el resto de gamas.

Saludos

stalker77
13/02/2016, 13:15
Como funciona esto del DSR?

Porque estáis sacando el rendimiento necesario en 1080p y 4k, viendo unas imagenes que son exactamente iguales de largo y ancho cuando la primera es 1920x1080 y la segunda 3000x1400, pero en la imagen no se aprecia ninguna mejora de ancho o largo. Así como el mayor campo de visión.

Fáil no?

Eryou
13/02/2016, 13:19
Como funciona esto del DSR?

Porque estáis sacando el rendimiento necesario en 1080p y 4k, viendo unas imagenes que son exactamente iguales de largo y ancho cuando la primera es 1920x1080 y la segunda 3000x1400, pero en la imagen no se aprecia ninguna mejora de ancho o largo. Así como el mayor campo de visión.

El campo de visión no depende de la resolución. Es cierto que algunos juegos tienen la decencia de cambiar la apertura de la cámara y por tanto el campo de visión cuando eliges una resolución diferente. Pero es bastante común que cuando eliges una resolución mayor no se amplie el campo de visión y simplemente se renderizan más pixels con el fin de ganar definición.

De todas formas, lo suyo es que el campo de visión pudiese ser elegido por cada usuario como una opción aparte de la resolución.

harl
15/02/2016, 09:34
Rumores:



http://www.xtremesystems.org/forums/showthread.php?294697-News-Rumor-Nvidia-Pascal-lineup-and-launch-dates

Ese rumor (bitsandchips.it) dice ademas que aunque las 1080 y 1070 se presentarían en Junio en el Computex (31 de Mayo a 4 de Junio) no llegarían a las tiendas hasta el tercer trimestre (pero eso va de Julio a Septiembre)


La primera dedicada a las tarjetas del mercado de consumo, serán aquellos con GPU GP104, siempre producido con el nodo FF16 ++ TSMC. Ellos deben ser sometidas a Computex en Taipei, pero el mercado deberían comenzar sólo desde el 3T 2016

Así que sería un "paper launch" pero no dejan claro si por unas semanas o hasta después del Verano...

Pero en general suena una planificación creíble ya que con los que sabemos de como va la fabricación de la HBM2 que saquen primero la Tesla y que la Titan no llegue hasta final de año suena lo más normal, igual que las GP104 no estén disponibles hasta el 3 trimestre viendo las noticias de como esta planificada la fabricación de la GDDR5x ...

zorranco
15/02/2016, 13:33
Lo bueno del paper launch es que puedes ponerlas en buses pci-e 16x pero si no tienes libres pues las doblas y te cojen en buses pci-e 1x también.

Bloot
15/02/2016, 13:52
Lo bueno del paper launch es que puedes ponerlas en buses pci-e 16x pero si no tienes libres pues las doblas y te cojen en buses pci-e 1x también.

:ugly::rofl3:

SOADxt
15/02/2016, 17:19
Ya se que lo que voy a preguntar es una pregunta frecuente pero... despues de muchos años me toca renovar PC a lo grande. Montaria minimo una 980ti. Y la pregunta del millon es, lo hago ya montando una 980ti/Titan X o me espero un poco más y monto un PC con lo que esta por salir de nuevas graficas? No me importa esperar un poco más si vale la pena. PD: De momento no tengo previsto usar resolución 4K.

ScOrPiA
15/02/2016, 17:23
Si vas a comprar un modelo concreto de gráfica que sea cuando haya salido, a los pocos meses como mucho. Cuando está por salir un modelo nuevo no merece la pena comprarla, si lo proximo va a ser mejor, mas barato o con el mismo precio.

Odarnok
15/02/2016, 18:31
Ya se que lo que voy a preguntar es una pregunta frecuente pero... despues de muchos años me toca renovar PC a lo grande. Montaria minimo una 980ti. Y la pregunta del millon es, lo hago ya montando una 980ti/Titan X o me espero un poco más y monto un PC con lo que esta por salir de nuevas graficas? No me importa esperar un poco más si vale la pena. PD: De momento no tengo previsto usar resolución 4K.


Si vas a comprar un modelo concreto de gráfica que sea cuando haya salido, a los pocos meses como mucho. Cuando está por salir un modelo nuevo no merece la pena comprarla, si lo proximo va a ser mejor, mas barato o con el mismo precio.

Exacto, en informática es una tontería esperar a bajadas de precio, porque cuando lo hacen, sacan la siguiente gama.

Espera a que Nvidia y AMD saquen la nueva generación de gráficas y compras de salida. La diferencia de precio en un pc completo no la vas a notar.

Fantasma
15/02/2016, 19:00
Exacto, en informática es una tontería esperar a bajadas de precio, porque cuando lo hacen, sacan la siguiente gama.

Espera a que Nvidia y AMD saquen la nueva generación de gráficas y compras de salida. La diferencia de precio en un pc completo no la vas a notar.

Opino lo mismo, aunque es posible que saquen la Titan de turno a finales de año, eso es mucho tiempo. Sin embargo, si más o menos se cumple lo que dicen, una 1080 debería acercarse a una 980Ti a un precio menor, pero ya veremos.

Saludos

paxidos
15/02/2016, 20:51
Opino lo mismo, aunque es posible que saquen la Titan de turno a finales de año, eso es mucho tiempo. Sin embargo, si más o menos se cumple lo que dicen, una 1080 debería acercarse a una 980Ti a un precio menor, pero ya veremos.

Saludos

Dudo mucho que Nvidia presente una nueva gama que no supere a la monogpu de la generacion anterior...

O sacan primero la Titan o si primero salen las 1080/1070 la GTX 1080 deberia superar a la 980Ti y Titan X.

Saludos.

Rioku
16/02/2016, 10:31
Pascal de Nvidia entra en producción:

Link (http://www.noticias3d.com/noticia.asp?idnoticia=67150)

Ñam Ñam

:mrgreen:

Donan
16/02/2016, 11:12
Pascal de Nvidia entra en producción:

Link (http://www.noticias3d.com/noticia.asp?idnoticia=67150)

Ñam Ñam

:mrgreen:

Fudzilla, no me creo nada XD

harl
16/02/2016, 12:38
Fudzilla, no me creo nada XD

Ademas dice que esta en fase de testeo no en producción ...

Fudzilla lo coge de techtimes (http://www.techtimes.com/articles/133518/20160214/nvidia-pascal-gpus-edging-closer-to-release-4-different-graphics-cards-currently-in-testing.htm) y ellos de tweaktown (http://www.tweaktown.com/news/50348/nvidia-testing-four-different-pascal-gpus-right-now/index.html) que lo toman de wccftech (http://wccftech.com/nvidia-pascal-graphics-cards-spotted/) que pone una captura de Zauba
http://cdn.wccftech.com/wp-content/uploads/2016/02/4-Nvidia-Pascal-GPUs-Zauba-HS-Code-Omitted.jpg

No se si sera real la captura, apenas rebela nada como otras que daban datos como el número de pines, el tamaño, solo los precios (en rupias) que van de los 500 a los 700€

Donan
16/02/2016, 13:10
Si están produciendo o testeando algo a dia de hoy de la next gen, pienso que serán las gamas profesionales...demasiado ambiguos esos datos como para hacerse ilusiones, pero oye, ojalá!

harl
16/02/2016, 14:43
Si están produciendo o testeando algo a dia de hoy de la next gen, pienso que serán las gamas profesionales...demasiado ambiguos esos datos como para hacerse ilusiones, pero oye, ojalá!

Sí esa tabla es real con esos precios 500-700€ (la tarjeta de referencia si acaso sera más cara que la final)
yo diría que no son las gamas más altas ni profesionales basadas en GP100,
claro que en esos códigos no vislumbro nada de pascal y por lo mismo podrian ser revisiones o refritos basados en GM200 y GM204...

Oliver91
16/02/2016, 18:41
Sí esa tabla es real con esos precios 500-700€ (la tarjeta de referencia si acaso sera más cara que la final)
yo diría que no son las gamas más altas ni profesionales basadas en GP100,
claro que en esos códigos no vislumbro nada de pascal y por lo mismo podrian ser revisiones o refritos basados en GM200 y GM204...

Dudo bastante que esos precios tengan algo que ver con los precios finales de la GPU. Son prototipos, no es una fabricación en masa, en principio no son indicativo de nada (pueden ser costes de producción de un producto aún no fabricado en masa, los costes se reducen mucho al pasar a la fabricación en masa).

Donan
16/02/2016, 18:49
Y si son los precios realmente de la next gen, que estaríamos hablando, de una 1060 a 500 lereles? O una 1080 a 700? Jajaja

Oliver91
16/02/2016, 18:53
Y si son los precios realmente de la next gen, que estaríamos hablando, de una 1060 a 500 lereles? O una 1080 a 700? Jajaja

Es obvio que no, por esos precios nadie las compraría. Están en proceso de verificación, fabricar un prototipo es mucho más caro que fabricar un producto final.

Fantasma
16/02/2016, 18:59
Simplemente es el valor actual que se le tasa a ese producto. Como no está en venta, serán prototipos y tal, el valor del producto será mayor. Vamos, que esos precios no son orientativos, sólo para comparar la gama de esos nuevos chips entre sí.

Saludos

fmvictor
16/02/2016, 19:33
Y bueno, respecto a lo que decia harl, 700 euros si podría ser el tope de gama no titan, vamos lo que es ahora la 980ti. Pero estoy de acuerdo en que esos precios no indican nada respecto al producto final.

Rioku
16/02/2016, 19:34
Si una 1070 vale más de 400 euros, mal vamos.

Saludos

harl
16/02/2016, 19:34
Dudo bastante que esos precios tengan algo que ver con los precios finales de la GPU. Son prototipos, no es una fabricación en masa, en principio no son indicativo de nada (pueden ser costes de producción de un producto aún no fabricado en masa, los costes se reducen mucho al pasar a la fabricación en masa).

Ya, entre paréntesis quería decir prototipo no referencia, que se me ido la pinza ...

De un prototipo de una GP100 con HBM esperaría mínimo 1000€ , por eso digo que si acaso podrian ser los prototipos de las GP104.


Y si son los precios realmente de la next gen, que estaríamos hablando, de una 1060 a 500 lereles? O una 1080 a 700? Jajaja

Llamadme iluso pero dado que las Polaris están programadas para fechas similares y por lo que prometen (en cuanto a eficiencia y tal) la cosa podría estar muy reñida como para que Nvidia se suba a la parra (y si aun así se suben pues peor para ellos ...)

Vamos que mis cuentas son que la 1070/1080 por menos de 400/500€ estén a la par o por encima de la 980Ti y si no pues me quedo con la que tengo o me paso a AMD (aunque acabe de comprarme un monitor con G-Sync)

ScOrPiA
16/02/2016, 19:34
Solo tienes que fijarte en el precio de la 970.

Alkermes
16/02/2016, 20:25
Vamos que mis cuentas son que la 1070/1080 por menos de 400/500€ estén a la par o por encima de la 980Ti y si no pues me quedo con la que tengo o me paso a AMD (aunque acabe de comprarme un monitor con G-Sync)
Tampoco sabemos los precios de Polaris, y como prometer, pueden prometer el cielo (mira las Fury y su Overclockers Dream), que ya veremos como rinden unas y otras.

Donan
16/02/2016, 20:46
Lo que esta claro es que nos interesa a todos que Polaris y Pascal estén a la par en rendimiento, a ver si hay esta vez una competencia potente entre las dos marcas, lo que se traduciría en mejores precios.
Una 1070 con rendimiento de 980ti y hbm2 por debajo de los 400 pavos seria un chollazo, 400 recién salida ojo, luego ya según modelos...

Oliver91
16/02/2016, 20:51
Lo que esta claro es que nos interesa a todos que Polaris y Pascal estén a la par en rendimiento, a ver si hay esta vez una competencia potente entre las dos marcas, lo que se traduciría en mejores precios.
Una 1070 con rendimiento de 980ti y hbm2 por debajo de los 400 pavos seria un chollazo, 400 recién salida ojo, luego ya según modelos...

Lo segundo no creo que pase, la cara HBM2 la dejarían seguramente para el GP100 como ha comentado harl muchas veces. Lo más lógico, por precio y por fechas es que el GP104 use GDDR5x, pero vamos, no sería tampoco un disparate el uso de un bus de 384/512 bits con GDDR5 normal si al final saliese más barato.

Sobre lo primero, lo malo es que AMD aunque esté por detrás de nVidia sobretodo a nivel de ventas no ha mostrado signos de querer bajar precios. Que una R9 390 la sacaran a un precio mayor al que estaban vendiendo la R9 290 es un disparate, no se a quien pretenden engañar pero vamos, con una política de precios tan nefasta no me extraña que estén como están, a nadie en su sano juicio se le ocurre vender el mismo chip que llevas tiempo veniendo a un precio mayor (excusandose en unos 8GB de vram que no sirven para nada en GPUs de esta potencia). Si AMD tomara el camino de la sensatez y vendiera más caro que el rival lo que es mejor y más barato lo que es peor a lo mejor otro gallo cantaría, con sus políticas actuales lo único que consigue es dejarle libre el camino a nVidia, y salimos perdiendo todos pero sobretodo ellos.

NucelarGen
17/02/2016, 17:12
http://elchapuzasinformatico.com/wp-content/uploads/2016/02/Nvidia-GP100-TFLOPs-740x556.jpg

http://www.techpowerup.com/220135/nvidia-gp100-silicon-to-feature-4-tflops-dpfp-performance.html

avex
17/02/2016, 18:16
Sobre lo primero, lo malo es que AMD aunque esté por detrás de nVidia sobretodo a nivel de ventas no ha mostrado signos de querer bajar precios. Que una R9 390 la sacaran a un precio mayor al que estaban vendiendo la R9 290 es un disparate, no se a quien pretenden engañar pero vamos, con una política de precios tan nefasta no me extraña que estén como están, a nadie en su sano juicio se le ocurre vender el mismo chip que llevas tiempo veniendo a un precio mayor (excusandose en unos 8GB de vram que no sirven para nada en GPUs de esta potencia). Si AMD tomara el camino de la sensatez y vendiera más caro que el rival lo que es mejor y más barato lo que es peor a lo mejor otro gallo cantaría, con sus políticas actuales lo único que consigue es dejarle libre el camino a nVidia, y salimos perdiendo todos pero sobretodo ellos.


Yo no veo ningún disparate en el precio de la R9 390.

Sale a la venta al precio de una 970, cuando según AMD ofrece el mismo (o mayor) rendimiento y 8 GB de Vram. Luego la 390X, que compite con la 980, sale a la venta $100 más barata que la 980.

Y la 390 sale a la venta $70 más barata de lo que salió a la venta la 290.

Me parece una politica muy conservadora, que dificilmente va a alterar la composición del mercado, pero no ninguna locura.

Usuario30827
17/02/2016, 19:28
Yo no veo ningún disparate en el precio de la R9 390.

Sale a la venta al precio de una 970, cuando según AMD ofrece el mismo (o mayor) rendimiento y 8 GB de Vram. Luego la 390X, que compite con la 980, sale a la venta $100 más barata que la 980.

Y la 390 sale a la venta $70 más barata de lo que salió a la venta la 290.

Me parece una politica muy conservadora, que dificilmente va a alterar la composición del mercado, pero no ninguna locura.

En este caso concuerdo con oliver91. AMD lleva sacando refritos desde el 2013 a precio superior a la gráfica que sustituye por norma general. Las r9 290 de sapphire y alguna otra como la de vtx3d estaban a 250€ antes de fiji. Por 8gb que tengan no hay justificación posible que cuesten 100€ más para casi lo mismo. Lo mismo pasó con las hd 7870/270x. La primera la estaban vendiendo a 150€ y la otra la sacaron mínimo a 180€ y modelos decentes a 200€ o más. Así no mueves el mercado.

Armagg3don
17/02/2016, 20:00
Una burla por parte de AMD, y esa falta de innovación es parte del porque están perdiendo mercado mes con mes.
El mes pasado creo que estaban con apenas el 20%.
El otro 80% esta a manos de los verdes.

Alkermes
17/02/2016, 21:45
Se ve que los verdes se lo curran más ;)

Eryou
17/02/2016, 23:02
Lo que esta claro es que nos interesa a todos que Polaris y Pascal estén a la par en rendimiento, a ver si hay esta vez una competencia potente entre las dos marcas, lo que se traduciría en mejores precios.
Si están a la par en rendimiento, habrá precios muy similares y les acusaremos a ambos de pactar precios.
Si hay uno que tiene ventaja tecnológica, éste inflará los precios y nos quejaremos de que no hay competencia.

No hay mejor queja que no comprar un producto que no te convence.;)