PDA

Ver la versión completa : Nueva gráfica Intel



sergio93
12/09/2008, 10:36
Hola, estaba buscando cosas por internet y me he topado con esta noticia (http://www.chw.net/Articulos/Intel/La-futura-tarjeta-grafica-de-Intel-200702111729.html).
Es bastante vieja, aunque no lo sabía...

Lo que me ha parecido raro es esto:

"El procesador grafico que Intel estaría preparando tiene fecha para el año 2009, se habla de un rendimiento comparable a 16 veces la potencia de una GeForce 8800 y estaría fabricado en 32nm con un total de 16 núcleos para el modelo más poderoso. Tal como en la actualidad, cuando las familias de tarjetas de video poseen más de un modelo, es muy probable que existan especies con menos núcleos, para así llenar nichos de menor rendimiento y precio. Tal como una de las posibles soluciones del concepto Terascale, la interconexión de núcleos estaría a cargo de decenas de anillos en forma de buses de datos."

16 veces una GeForce 8800, ¿eso es verdad? Esa tarjeta sería la definitiva para el Crysis, no?

Ghortaur
12/09/2008, 10:40
Esa noticia es de hace más de un año y es bastante exagerada su afirmacion de potencia. La gráfica que esta diseñando intel son muchos procesadores x86 en paralelo. El problema es que una arquitectura distinta y exige otra forma de programar los juegos para aprovecharla.

fmvictor
12/09/2008, 10:56
No te suena haber oido hablar de larrabee? ;)

mk_dir
12/09/2008, 11:07
Esa información es antigua y tendenciosa. Para conocer Larrabee:

http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3367
http://www.chw.net/Articulos/Intel/Intel-Larrabee-%BF%C9xito-rotundo-o-fracaso-anunciado%3F-200808052066.html
http://www.chw.net/foro/articulos-f90/173279-comente-intel-larrabee-exito-rotundo-o-fracaso-anunciado.html

Saludos

sergio93
12/09/2008, 11:54
¿Hay alguna imágen de la tarjeta en si? ¿Intel ha dado alguna información de el rendimiento en juegos?

Raijin
12/09/2008, 11:57
Pintar, pinta bien, pero si exige otra forma de programar los juegos, no creo que tenga mucho éxito.

Saludos.

sergio93
12/09/2008, 12:31
Pintar, pinta bien, pero si exige otra forma de programar los juegos, no creo que tenga mucho éxito.

Saludos.

Pues vaya mierda, aquí dice que rendirá como una GPU de NVIDIA/ATi de 2006 (http://www.muycomputer.com/FrontOffice/ZonaPractica/Especiales/especialDet/_wE9ERk2XxDCEeGupAGSRwk9XXvmGjPiburwyjckjUEXYEAqUo 17IDTokmaMU9yQn), o sea, como una GeForce 7 o Radeon X1000...

Farinorco
12/09/2008, 12:55
Todas esas estimaciones de potencial son puramente especulativas. Alguno se flipa con Larrabee y dice que será 16 veces una 8800GTX. Toma ya. Otro (casualmente de NVIDIA) dispara diciendo que no le va a llegar a la suela de los zapatos a las tarjetas de las 2 principales actuales (la misma NVIDIA y ATi). Y todavía ni siquiera se ha dejado claro del todo de qué va todo esto...

A mi personalmente, me atrae mucho la idea de Larrabee, pues por lo que se ha dejado ver hasta el momento, representa exactamente un cambio en la dirección que yo creo que se debe girar en un futuro próximo, llegados al punto en el que estamos: es absurdo tener un potencial de cálculo como el de las actuales tarjetas gráficas, dedicado exclusivamente a hacer dibujitos en 3D que queden monos y nada más. Estos chips tienen una arquitectura (masivamente paralelizada) que no los hace adecuados para la mayoría de las tareas de ejecución normal en un programa (secuencial y dependiente del resultado anterior en la mayoría de los casos, aunque se puedan paralelizar -multihilo- hasta cierto punto), pero no es así en todos los casos, y una buena cantidad de tareas se podrían beneficiar mucho de una arquitectura así.

ATi y NVIDIA se han dado cuenta de ello, y de ahí ha surgido el concepto de GPGPU, un avance interesante en planteamiento de intenciones, pero que no deja de ser una ñapa al respecto: seguimos haciendo gráficas como siempre, y se nos ha ocurrido un "parchecillo" para aprovechar un poco este potencial de cálculo para algunas otras cosillas.

Larrabee más que como tarjeta gráfica parece enfocado como un segundo chip de procesamiento con respecto a la CPU, esta vez de arquitectura masivamente paralelizada (como una GPU), pero de uso general. La idea parece ser que sirva para hacer gráficos cuando quiera ser usado para gráficos, o para lo que sea cuando se quiera, que sea un procesador más, pero en vez de optimizado para programas secuenciales, optimizado para programas o tareas con un potencial de paralelismo muy elevado.

Por supuesto, este nivel de generalización pondrá el chip en desventaja cuando lo comparemos con chips desarrollados con una tarea especializada en mente (hacer bonitos dibujos en 3D), que es en lo que seguramente se basa el tipo ese de NVIDIA para sacudirles con respecto al rendimiento gráfico.

Pero todo esto no dejan de ser elucubraciones y estimaciones que pueden no tener nada que ver con la realidad final. Lo que tengo claro es que cuando Intel se meta, y la decisión parece que ya está tomada, será porque tienen claro que el producto tiene salida. Que sea o no en un mercado estrictamente hardcore gamer, eso ya no lo sé... pero quién sabe, a lo mejor dan el pelotazo y sacan un producto que barre en todos los sentidos. Es Intel. Será por pasta para I+D...

PD: No va a requerir ninguna forma especial de programar. Según han dicho ya más de una vez los de Intel, Larrabee será perfectamente capaz de renderizar mediante el proceso de rasterización habitual en el que están especializadas las gráficas actuales. Lo único que dada su arquitectura más general, menos especializada, será mucho más apropiado para cualquier otro tipo de cálculos (desde raytracing hasta cálculos que no tengan que ver con gráficos) que una "tarjeta rasterizadora" que es lo que básicamente son las gráficas actuales.

DCO
12/09/2008, 12:55
Lo va a tener dificil, las tarjetas actuales son hardware especializado para la labor que hacen, larrabee no va a se rtan especializado. Ademas los drivers tienen gran importancia y ya sabemos lo buenos que son los de Intel en esta faceta, añadiendo ademas que se tienen que crear un lenguaje de programacion particular para su bestia que estara en su primera implementacion bastante verde.

SanamArcar
12/09/2008, 13:12
Yo de entrada diría: déjales gastar pasta y talento en esto, quizás saquen algo de provecho, tal vez no para GPUs...

Freestate
12/09/2008, 13:12
Por hay decian que INTEL estaba comiendoles el coco a los de microsoft para que usasen larrabee en su proxima consola.Viendo como esta el mercado ahora,eso machacaria de muerte a nvidia y ati.Porque casi todo lo que sale ahora para pc es multiplataforma.

fmvictor
12/09/2008, 14:47
Pues yo espero que no triunfe ni sea demasiado potente. Si no, conociendo a intel y sus tacticas monopolisticas barreria del mapa a ati y nvidia y nos quedariamos sin nuestras dos amadas empresas y los piques entre los defensores de una y otra.

sergio93
12/09/2008, 15:00
Pues yo espero que no triunfe ni sea demasiado potente. Si no, conociendo a intel y sus tacticas monopolisticas barreria del mapa a ati y nvidia y nos quedariamos sin nuestras dos amadas empresas y los piques entre los defensores de una y otra.

Lo mismo digo... Alomejor en unos años estará solo AMD/ATi y Intel, xD... Si NVIDIA no se espabila en bajar precios.. Las GTX son demasiado caras, teniendo una HD4870 que prácticamente es igual de potente que una GTX280 por 150-200€ menos.

Farinorco
12/09/2008, 15:01
Por hay decian que INTEL estaba comiendoles el coco a los de microsoft para que usasen larrabee en su proxima consola.Viendo como esta el mercado ahora,eso machacaria de muerte a nvidia y ati.Porque casi todo lo que sale ahora para pc es multiplataforma.

Me extrañaría sobremanera que una pieza de hardware con un enfoque bastante más general que las especializadas GPUs que hacen ATi y NVIDIA por el momento termine en una plataforma estrictamente especializada en juegos. De ser así, podría suponerse que:

-O bien Intel confía en ser capaz de producir un chip que tenga una potencia bruta muy superior a la de la competencia, de forma que en el aspecto especializado de renderización de gráficos 3D para juegos al menos las iguale.

-O bien las especulaciones sobre lo que es Larrabee son en su mayoría tácticas de despiste y resulta ser una GPU de tipo tradicional, es decir, enfocada de igual manera (con los mismos objetivos) que las presentes de ATi y NVIDIA (no hablo de la arquitectura con la que se consiga, si no el efecto buscado).

-O bien Intel tiene un as bajo la manga, y es que sabe que el rendimiento del chip con su arquitectura es (de alguna forma) tan bueno en la función especializada de la renderización de gráficos 3D sin ser necesariamente mucho más potente que las rivales, a pesar de su enfoque más generalista.

Las 3 son posibles, pero improbables (en mayor o menor medida)...

En cualquier caso eso no tendría por qué machacar de muerte a nadie. La tarjeta de las actuales consolas de MS la hace ATi, y no se ha comido a NVIDIA precisamente...

Por mi parte, me parece estupendo que un tercer bando meta las narices en el terreno de las gráficas, de una forma o de otra. Ya sea haciendo competencia directa con un producto de similares características (cuanta más competencia mejor para nosotros), ya sea abriendo una nueva senda por la que avanzar tecnológicamente...

fmvictor
12/09/2008, 15:04
Por mi parte, me parece estupendo que un tercer bando meta las narices en el terreno de las gráficas, de una forma o de otra. Ya sea haciendo competencia directa con un producto de similares características (cuanta más competencia mejor para nosotros), ya sea abriendo una nueva senda por la que avanzar tecnológicamente...
Yo es que pa estas cosas soy muy consevador y me gusta la tecnologia actual xD. Eso si, estaria de acuerdo en una tercera empresa que compitiese. Pero a ser posible no intel, es que les tengo mucho miedo. Mira lo que le estan haciendo a AMD, y no defiendo a amd que parece que se durmio un poco bastante mucho, pero claro la capacidad i+d de amd no es la de intel, bastante ha hecho ya. Y aun asi, acuerdos con ensambladores, etc... son unos abusones y a mi nunca me gustaron los abusones. ;)

RAMI
12/09/2008, 17:26
Larrabee :


Opción 1 : Tarjeta de doble o triple slot con 1000 cpu 386 en 32nm.

Opción 2 : Tarjeta con varios cuadcore coreI7 extreme con rendimiento bestial.


^^

ADDIER
12/09/2008, 17:30
16 veces una GeForce 8800, ¿eso es verdad? Esa tarjeta sería la definitiva para el Crysis, no?Eso a 800*600 SIN filtros

XDDDDDDDDD pues dudo mucho eso de la potencia, si es asi, Nvidia bajara precios, ATI quedara desfasada. eh intel sera el dueño der mercado

Uruk-hai
12/09/2008, 17:35
Viendo sus ultimas integradas, ya pueden ir invirtiendo tiempo y dinero para sacar algo decente, porque no he visto cosa peor en mi vida.

fmvictor
12/09/2008, 17:40
Ati desfasada? Debemos vivir en mundos distintos, pero la 4870 esta muy igualada con la gtx260, (no se si la supera al final de la discusion o no, pero preferi no mirar mucho, tengo la 3870 con seis meses y no queria deprimirme), y no demasiado lejos de la gtx280. Si a eso añadimos que la mas potente es la 4870x2 pues igual quien se queda desfasada es nvidia. (Y no se lo deseo, que conste, que ahora que me casco la grafica y si que estoy mirando graficas, la 9800gtx+ me pone mucho).

Farinorco
12/09/2008, 17:54
Ati desfasada? Debemos vivir en mundos distintos, pero la 4870 esta muy igualada con la gtx260, (no se si la supera al final de la discusion o no, pero preferi no mirar mucho, tengo la 3870 con seis meses y no queria deprimirme), y no demasiado lejos de la gtx280. Si a eso añadimos que la mas potente es la 4870x2 pues igual quien se queda desfasada es nvidia. (Y no se lo deseo, que conste, que ahora que me casco la grafica y si que estoy mirando graficas, la 9800gtx+ me pone mucho).

Sí, sobre todo teniendo en cuenta que las de ATi están vendiéndose en el segmento para el que fueron producidas, y las de NVIDIA han tenido que bajarse de caché, pues se suponía que eran tarjetas de gama ultra-entusiasta con un chip monstruoso de más de 500mm2 (más del doble de grande que el de las ATi), pero claro, como se les metió una de las de gama alta-performance de ATi entre medias de las dos... XDDD

Blaizer
12/09/2008, 18:04
Pues yo si espero que triunfe y sea bueno, asi me ahorro tener que gastarme dinero en una tarjeta gráfica que se queda anticuada en menos de un años, y cajas con buena ventilación y refrigeración para que aguante y no se me muera el pc. El consumo de ahora y el calor que dan las gráficas es exagerado.

Nvidia, su presidente concretamente, ya ha dicho que en intel no deberían pretender quitarle el negocio a otra empresa. Si ahora nvidia también sacara procesadores, seria la castaña :D.

sergio93
12/09/2008, 18:34
Ati desfasada? Debemos vivir en mundos distintos, pero la 4870 esta muy igualada con la gtx260, (no se si la supera al final de la discusion o no, pero preferi no mirar mucho, tengo la 3870 con seis meses y no queria deprimirme), y no demasiado lejos de la gtx280. Si a eso añadimos que la mas potente es la 4870x2 pues igual quien se queda desfasada es nvidia. (Y no se lo deseo, que conste, que ahora que me casco la grafica y si que estoy mirando graficas, la 9800gtx+ me pone mucho).

La 4870 supera a la GTX260 y esta bastante parecida a la GTX280..

txemote83
12/09/2008, 18:57
La 4870 supera a la GTX260 y esta bastante parecida a la GTX280..

Te veo muy seguro de ello, ¿te echas un pique?http://foro.noticias3d.com/vbulletin/images/icons/icon10.gif


1saludo.

Farinorco
12/09/2008, 19:14
Te veo muy seguro de ello, ¿te echas un pique?http://foro.noticias3d.com/vbulletin/images/icons/icon10.gif


1saludo.

O Dios mío, no, otra vez nooooooooooo XDDDDDDDDDD

Son 2 tarjetas similares, cada una con sus pros y contras, una un pelín más cara que la otra, pero nada del más allá (por lo que si te tiran mucho los pros de la cara y poco los de la barata, qué más da...)... XD

Eso sí, lo que está claro es que teniendo en cuenta que una es por concepción una tarjeta gama entusiasta con un chip de 550mm2 bajada de escalafón y vendida a la mitad de precio del que salió y la otra una performance de 250mm2, adivina cual de las dos está algo más desfasadilla :PPPPP

La última puya es coña tipo pique tonto, no me sigáis el juego que ya sabemos a donde acaba conduciendo XD

Raijin
12/09/2008, 19:42
Pues yo no entiendo por qué decís que ojalá no barra a Nvidia ni a ATI.

¿Acaso estos os dan de comer? A ellos les importa el dinero, nosotros les damos básicamente igual. ¿Por qué preocuparnos por ellos? Lo que traería esto es más rendimiento, más competencia, reducción de precios y puesta de pilas de ATI y Nvidia.

Habiendo leído un artículo sobre Larrabee, espero que tengan éxito.

Saludos.

fmvictor
12/09/2008, 20:51
Por que intel me da miedo, si fuese via encantado, pero intel no tiene freno, y si saca algo, sea bueno o no, gracias al marketing puede poner en una situacion muy apurada a nvidia y ati y quedarse con el monopolio. No hay mas que ver lo del atom, que es malisimo pero todas las marcas sacan el subnotebook con el.

Farinorco
12/09/2008, 20:56
No es bueno que nadie barra a nadie por un motivo muy simple: la competencia es buena para el cliente final.

Si una compañía se destaca mucho sobre los demás, puede empezar a manipular el mercado sin oposición. Y podemos olvidarnos de guerras de precios, de guerras de avance tecnológico, etc. Ejemplo reciente, lo que ocurrió a partir de que NVIDIA tomo posición aventajada con el G80. Y hasta ahora que ATi les ha vuelto a pillar. ¿Cuál de las dos situaciones es mejor? Yo me quedo con la de tarjetas de 200€ con las que se puede jugar a todo a 1920x1200 con filtros, y no con la de con esos mismos 200 pavos tener una tarjeta de gama media (8600GTS).

txemote83
12/09/2008, 21:05
O Dios mío, no, otra vez nooooooooooo XDDDDDDDDDD



¿Mande?

Farinorco
12/09/2008, 21:08
¿Mande?

No es por tí, es por la "amenaza" esa en plan coñas del empezar una guerra GTX 260 vs HD4870 XDDDD

No te lo tomes en serio que estaba haciendo una coña, de ahí los "XDDDD"

txemote83
12/09/2008, 21:12
No es por tí, es por la "amenaza" esa en plan coñas del empezar una guerra GTX 260 vs HD4870 XDDDD

No te lo tomes en serio que estaba haciendo una coña, de ahí los "XDDDD"

En mi comentario no hay nada de amenza, simplemente le he dicho si le apetece un pique de buen rollo a ver lo superior que es la HD4870 sobre la GTX260, simplemente eso. Seria una buena manera y definitiva para ayudar a peña indecisa a lahora del elegir su nueva grafica.

1saludo.

juandeoz
12/09/2008, 21:36
a mi me parece tentador la idea de otra competencia para ati y nvidia, mas de donde escoger :)

sergio93
14/09/2008, 16:35
En mi comentario no hay nada de amenza, simplemente le he dicho si le apetece un pique de buen rollo a ver lo superior que es la HD4870 sobre la GTX260, simplemente eso. Seria una buena manera y definitiva para ayudar a peña indecisa a lahora del elegir su nueva grafica.

1saludo.

Yo digo que una gráfica que cuesta 220€ sea superior a otra que cuesta mas de 250€ y en muchos sitios 300€... Y que en algunos juegos iguala o incluso supera a la GTX280 de 350€...

No me parece muy justo por parte de NVIDIA, y si, la GTX260 es inferior a la HD4870:

Topics:
Radeon HD 4870: Better Than GTX 260! (http://www.tomshardware.com/reviews/radeon-hd-4870,1964.html)

Y no nos salgamos del tema...