PDA

Ver la versión completa : Tengo que decidirme ya: ATI HD 4870 X2 o nVIDIA GTX280



SOENICK
15/10/2008, 09:19
Ya no puedo esperar mas y sigo sin decidirme. ¿ Cual pillo ? la ATI HD 4870 X2 o la nVIDIA GTX280 ?. Para jugar a Crysis, Warhead, Far Cry 2 ( cuando salga ), Stalker Clear Sky, etc....

¿ Cual pillo ? ¿ cual pillarías ?

***Editado por Rai***.
Según el punto 1.8 de las normas (http://foro.noticias3d.com/vbulletin/showthread.php?t=42340), las compras (incluyendo la organización de pedidos en conjunto), ventas y/o tasaciones no están permitidas.

Botrin
15/10/2008, 09:22
Ya no puedo esperar mas y sigo sin decidirme. ¿ Cual pillo ? la ATI HD 4870 X2 o la nVIDIA GTX280 ?. Para jugar a Crysis, Warhead, Far Cry 2 ( cuando salga ), Stalker Clear Sky, etc....

¿ Cual pillo ? ¿ cual pillarías ?

Yo me pillaría la gtx280, y si tuvieras un poco de paciencia espera unos dias que salen en breve los refritos de Nvidia, menos consumo y proceso de fabricacion mas pequeño, aunque no se si mas baratos.

Un Saludo

Activity
15/10/2008, 09:23
Análisis del rendimiento Crysis Warhead (http://www.gameprotv.com/foro/viewtopic.php?t=86583)

Crysis Warhead Hardware Performance Review
GRAFICAS
http://images.hardwarecanucks.com/image/fixt/Games/CWH/GPUCharts.jpg
CPU
http://images.hardwarecanucks.com/image/fixt/Games/CWH/CPUCharts.jpg
S.O.
http://images.hardwarecanucks.com/image/fixt/Games/CWH/ramoscharts.jpg
RAM
http://images.hardwarecanucks.com/image/fixt/Games/CWH/ramusagecharts.jpg
DIRECTX
http://images.hardwarecanucks.com/image/fixt/Games/CWH/DirectXCharts.jpg
Directx9
http://images.hardwarecanucks.com/image/fixt/Games/CWH/old_new_dx9.jpg
Directx 10
http://images.hardwarecanucks.com/image/fixt/Games/CWH/old_new_dx10.jpg
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/10671-crysis-warhead-hardware-performance-review-5.html
Conclusión
Y así termina nuestro examen de rendimiento de hardware para Crysis Warhead, la más reciente saga en lo que muchos esperan es el comienzo de una increíble alineación. Crytek ha hecho con los titulares mundo de los juegos, recibir prestigiosos premios y se convierta en un estándar en hardware y entusiastas de la benchmarker arsenales. El original críticas sobre el rendimiento se han abordado y Warhead una vez más muestra que tiene lo que se necesita para gobernar el gallinero.
Con su compromiso de garantizar que todos los jugadores de "sistema de niveles" pueden disfrutar de ojiva, EA y Crytek se tomó un paso más allá y configurar el sistema perfecto Crysis. Esta innovadora idea no es sólo una característica de gran venta, pero los jugadores le da una configuración normalizada de los cuales para enfrentar a su sistema y base de posibles compras. Ellos permanecieron fieles a los resultados reclamaciones y no la almohadilla de números. Un compromiso serio de satisfacción y se prometió entregar. Nuestros puntos de referencia ponen de manifiesto las zonas que han recibido una mejora, y que algunos que todavía podría usar un poco de sintonía fina. DirectX9 por arte de magia ha sido devuelto de entre los muertos para competir con la calidad visual de DirectX10 - lamentable, teniendo en cuenta el fuerte impulso de los jugadores a adoptar el nuevo API. El juego todavía lucha por sacar el máximo provecho de los procesadores de varios núcleos, pero vemos que en el ámbito de las tarjetas de vídeo, los fabricantes se Dueling a cabo incluso en un campo de batalla, a diferencia de gran parte de los rumores "trampa" con el original.
En general, todas las ojivas appeases. Se juega sobre una gran variedad de hardware y Sugerencias adicionales para los duros entusiasta en todos nosotros. Aunque el juego no es todo gráficos, que incluye la participación de juego y un bien redondeado historia como parte del paquete, uno no puede dejar de ser hipnotizados por el impresionante mundo.
El juego-benchmark por excelencia ha tenido una nueva expansión y por tanto no es de extrañar que el Crysis Warhead sea ejecutado en distintas configuraciones para observar con detalle sus requisitos técnicos.
En cuanto a procesador, parece que cualquiera por encima de los 3 Ghz no aporta ninguna mejora destacable. Un E5200 o un Athlon x2 5600+ no deberían suponer ninguna limitación grave a la Geforce GTX 280 de prueba.
La gráfica es tema aparte, cuanto más mejor. El modo más alto de detalle sólo está reservado para las más grandes: la Radeon 4870 X2 y ya más justa la GTX 280. En Gamer, una 9800 GT debería ser suficiente.
En principio el juego corre un 5% más fluido en Windows XP, pero usa peor la memoria RAM gastando cerca de un 40% más que con Vista en DX10, es decir pasamos de 1.200 a 880 MB.
Comparándolo con el "viejo" Crysis el nuevo en rinde mejor casi siempre y en todo caso pueden ser algunos cambios en las configuraciones predefinidas que pueden hacer torcer la balanza.
Fuente: Hardwarecanucks.com. (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/10671-crysis-warhead-hardware-performance-review.html)

De las mejores pruebas que he visto,y muy completa.

Yo lo tengo claro la 4870x2 es la mejor grafica...ahora mismo.

jon872
15/10/2008, 10:08
Cierto es que la 4870x2 es un monstruo, no lo duda nadie. Pero despues de ver lo inestables que son los frames (al menos en este juego), sigo pensando que una solucion dual no es lo ideal.

http://enthusiast.hardocp.com/article.html?art=MTU2MSwzLCxoZW50aHVzaWFzdA==

Prefiero una monoGPU menos potente pero sin caidas de FPS tan abultadas.

teimaginas
15/10/2008, 10:14
yo tiraria a por la 4870 X2 .
y sino,me iria a por una 4870 o 260 ,ya que pagar 100e como poco por la 280,como q no lo veo....
Un saludete

DCO
15/10/2008, 10:18
¿A que resolucion?
De todas formas estoy deacuerdo con teimaginas.

SOENICK
15/10/2008, 10:27
1680 x 1050

Monitor 22"

artubito
15/10/2008, 10:36
Un colega mio tuvo esa misma duda y mi consejo de entre esas 2 graficas la GTX280, y esta supercontento con ella, en cuanto a rendimientos como la mayoria en unas cosas gana una y en otra otra y yo personalmente prefiero las mononucleo, no me gustan tanto las soluciones duales ni slis ni crossfire, por consumo,calentamiento y a veces ni mejora siquiera el rendimiento repecto a al mononucleo.

jon872
15/10/2008, 10:37
Para esa resolucion yo tiraria a por una 4870 o GTX260 como a dicho teimaginas

Unr3al^
15/10/2008, 10:40
No tenias una 4850? yo esperaria un poco más antes de cambiar de gráfica, por lo menos a las nuevas Nvidia.

Farinorco
15/10/2008, 10:42
Yo no pillaría ninguna de las dos. Compraría una HD4870 o una GTX 260, que dan de sobra para jugar a prácticamente todo a 1920x1200, y en el caso de que algún título le cueste un poco (Crysis o así) y se quiera tener un poco más de framerate, se pone una resolución algo menor que tampoco es el fin del mundo y a tomar por saco. Más de 200 o 200 y pico en una gráfica, sólo para poder poner Crysis a 1920x1200 en vez de a 1680x1050 (porque en los demás juegos no hace falta), me parece un abuso.

Pero puestos en la situación de comprar una de esas dos tarjetas propuestas, yo tiraría a la GTX 280 por dos motivos:

* Actualmente las soluciones duales son una chapuza que no funciona como la mayoría de la gente espera, debido principalmente a la forma en la que reparten los frames. Dan menos rendimiento real (o sea sensación de fluidez, que a efectos es lo importante para uso práctico) que lo que indican los benchmarks. Es mejor sistema para benching que para jugar.

* Es más barata la GTX 280. Y con la GTX 280 es suficiente, ¿para qué gastar más? Además, seguro que consume más la HD4870 X2. Pero por esta regla de 3, insisto que tampoco cogería la 280, si no una HD4870 o una 260...

+++++++++++++++++++++++

EDITO: Empecé a escribir antes de ver la resolución. Para 1680x1050 yo compraría una HD4850, o como muchísimo una HD4870/260 (aunque casi tiraría a por una HD4850). Desde luego, jamás una 280 o menos una X2. Mis comentarios de antes los hice contando con que tendrías como mínimo 1920x1200...

SOENICK
15/10/2008, 10:49
Lo que no me convence de la HD 4870 X2 es lo que comentais, consumo, doble GPU, etc... y lo que no me convence de la GTX280 es su memoria, creo que esa gráfica con DDR3.....

Y sobre lo de bajar la resolución..... se ve fatal. Tengo que jugar en la resolución nativa de mi monitor, todo lo que esté por debajo se ve bastante peor y tengo que meter mas filtros para compensar y también pierdo rendimiento.

También me gusta que en la nVIDIA tengo soporte Psyx y cuda. Sin embargo en la ATI, no.

Unr3al^
15/10/2008, 10:53
.
Y sobre lo de bajar la resolución..... se ve fatal. Tengo que jugar en la resolución nativa de mi monitor, todo lo que esté por debajo se ve bastante peor y tengo que meter mas filtros para compensar y también pierdo rendimiento.


Si bajas de 1680 aunque le metas un AAx16 lo vas a seguir viendo borroso al no ser la nativa.

DCO
15/10/2008, 10:54
A esa resolucion hasta una 4850 vuela.
De physx y cuda me olvidaria, no te sirven practicamente para nada, pero si tanto te importa una 260 va sobrada a esa resolucion.

SOENICK
15/10/2008, 11:02
A esa resolucion hasta una 4850 vuela.
De physx y cuda me olvidaria, no te sirven practicamente para nada, pero si tanto te importa una 260 va sobrada a esa resolucion.

No creas que vuela tanto, mas volaría si la quito del PC y la tiro por la ventana. Es una buena tarjeta y en cuanto a calidad-precio lo mejor que he visto en mi vida, hasta el momento.
Ya veremos lo que pide FAR CRY 2 que sale la semana que viene. Quizá me haya vuelto muy exigente.

Farinorco
15/10/2008, 11:03
¿Y para qué bajar la resolución? Yo hablaba de bajar a la resolución que tú puedes usar como máximo... XDDDD

De todas formas, en juegos, salvo que el monitor sea bastante malo haciendo interpolación (que los hay que interpolan mejor y los hay que lo hacen peor), se nota poco bajar de resolución en cuanto a pérdida de calidad por ser no nativa, eso sí, se nota que la resolución es más baja...

Para notar la pérdida de calidad de imagen por interpolar, suele haber que mirar a imágenes más o menos estáticas y de borde fino, como el texto pequeño y demás. Por eso se nota a simple vista en escritorio, con el texto y demás. En un juego, que es imagen 3D, animada y demás, lo más probable cuando se nota una pérdida de calidad de imagen por usar una no nativa, no es porque sea no nativa, si no porque la resolución es menor...

Polyhead
15/10/2008, 11:03
Hola a todos, mi primer post aquí :alien2: Quiero decir con respecto a la hd4870X2 que hay algún sumario por ahí que ha hecho una pequeña recopilación de juegos que en mayor o menor medida, se benefician de la escalabilidad de la ati X2. Algunas personas dicen que es mejor tomar una decisición basados en el rendimiento de nuestros juegos preferidos:

Juegos que no muestran mejoría (o limitada) en la X2:

Supreme Commander @ Techpowerup
Crysis @ Guru3D (showed minimal scaling)
Trackmania Nations? Not compared to 4870 but beaten by GTX280 in test.
Flight Simulator X. Also fails to do better than 30fps on GTX280 and GX2. Weird. CPU Bound? Or capped?
Gothic III @ Computerbase.de

Juegos que sí:

Age of Conan @ Anand
Oblivion @ Multiple Sites
QW:Enemy Territory @ Multiple Sites
Race Driver Grid @ Multiple Sites
UT3 @ Multiple Sites
Prey @ Multiple Sites
Devil May Cry @ Mutliple Sites
Crysis DX9 @ Multiple Sites
Crysis DX10 @ Multiple Sites
COD4 @ Multiple sites
WiC DX9 @ Hardware Canucks
WiC DX10 @ Multiple Sites
COJ @ Techpowerup
Company of Heroes @ Techpowerup
Farcry @ Techpowerup
FEAR @ Multiple Sites
Quake 4 @ Mutliple Sites
Splinter Cell 3 @ Techpowerup
STALKER @ Multiple Sites
Lost Planet @ Multiple Sites
HL2:EP2 @ Multiple Sites
Assasins Creed @ Driverheaven
Mass Effect @ Guru3D
Frontlines:Fuel of War @ Guru3D
GRAW2 @ Guru3D
Bioshock @ Multiple Sites
Test Drive Unlimited @ Toms
Silent Hunter 4 @ Rage3D demohwc user tested
Jerhico @ Computerbase.de
Rainbow Six Vegas @ Computerbase.de
HL2
Counterstrike Source
Portal
The Ship
FEAR: Perseus Mandate
RedOrchestra
Sins of a Solar Empire
ME2 Total War
entire Medal of Honor series
entire Call of Duty series
Legend:Hand of God
Eve

http://rage3d.com/board/showthread.php?t=33929763

Saludos

Activity
15/10/2008, 11:12
Las idoneas para 1680x1050 son:

Nvidia 9800GTX+ O Ati 4850 es la resolución maxima de esas graficas.

Si es mayor de eso es mejor la 4870 o la GTX 260

Physx y CUDA es lo mismo en Nvidia,solo tiene CUDA.

En cuanto a Ati y Nvidia mueven perfectamente el Havok y a ver si leis esto,tambien destacar que Crysis no va ha hacer nunca CUDA si no que tiene su propio motor,como bien dice algunos por aquí CUDA ahora mismo es experimental y no sirve para nada.

CUDA

http://www.gameprotv.com/foro/viewtopic.php?t=73820&highlight=cuda


NVIDIA
¿La tecnologia Ageia en CUDA?
http://images.dailytech.com/nimage/7248_cellfactor_1_04.jpg
Como ya sabéis, NVIDIA, anda finalizando estos días la compra oficial de AGEIA, creador de la tarjeta PhysX, y como no le parecía suficiente ha dejado caer varios detalles de los planes que tiene en mente la firma del camaleón.
Hace poco despotricábamos (en nuestros foros) a AGEIA por su poca cabeza a la hora de entrar en el mercado de los juegos y a NVIDIA porque tardarían lustros en hacer algo con esta nueva adquisición, pues bien, Jen-Hsun huang, presidente de la casa, ha declarado que próximamente integrarán el motor software o API de la tarjeta PhysX en la tecnología CUDA de NVIDIA. La tecnología CUDA (Compute Unified Device Architecture) permite a los desarrolladores usar los procesadores gráficos para cálculos diversos sin que tengan relación con la información que se vaya a visualizar en 3D.
Todos los procesadores que soporten CUDA (incluye la serie 8 ) podrán utilizar esta tecnología ya que al parecer no necesitaremos más que descargar el programa y punto. Aun no se sabe si vendrá integrado en los ForceWare o como programa a parte, pero Huang ya se frota las manos y espera vender aun mas de gráficas para supuestas plataformas SLI y 3-way SLI.
http://foros.3dgames.com.ar/hardware.31/453805.nvidia_ya_ha_adaptado_el_motor_f_sica_ageia _cuda.2.html
--------------------------------------------------------------------------
Cuando Nvidia anunció la adquisición de Ageia la pregunta era ¿qué hará Nvidia con la nueva compra? Una de las respuestas era que la absorbiera y la hiciera desaparecer como marca al igual que hizo con 3dfx cuando la compró. Pero ayer se despejaron las dudas cuando el CEO de Nvidia dijo que integrarán el motor de física PhysX en su línea 8000 de tarjetas gráficas.
La implementación no es a nivel hardware, sino a nivel software. El motor PhysX se fusionará con CUDA, una tecnología para programar los GPUs y utilizarlos para operaciones no-gráficas que empezó a ser soportada por la serie 8000 de tarjetas de Nvidia. De esta manera, cuando esté listo, con solo bajar una actualización del controlador de la tarjeta gráfica se estará haciendo funcionar al GPU como un procesador de física al mismo tiempo que como un procesador gráfico.
De esta manera Nvidia apunta, no solo a ampliar el uso de sus GPUs, sino también a darle al SLI una nueva utilidad. Dado que con el motor PhysX integrado, en un sistema SLI se podrá usar una tarjeta para el procesamiento gráfico y la otra para el procesamiento de la física. Habrá que ver qué tan efectivo lo pueden hacer, ya que el desempeño de estas implementaciones depende pura y exclusivamente de la calidad del software, pero más intriga me genera lo que hará AMD/ATI para mantenerse competitiva frente a la más poderosa que nunca Nvidia.
Fuente: DailyTech (http://www.dailytech.com/GeForce+8+To+Get+Software+PhysX+Engine/article10706.htm)
Activity pensamientos.....:
Creo que por ahora es todo un cuento chino.....por ahora,pero viendo que ha pasado estos días y viendo nueva versión de ageia drivers pues creia que iban a sacar lo de CUda ya,pero veo que no,tambien en los foros y por donde se habla del tema,las pruebas de Cuda fueron en Nehalem,que quiero decir pues que lo más seguro que hasta que no salga Nehalem en diciembre dudo que salga lo de CUDA.Lo de implimentar ageia Hardware por Software en CUDA me parece ciencia ficción,pero bueno todo puede pasar,tambien me preocupa el hecho de si será necesario SLI o no,si el tener CUDA ralentizará las tarjetas y por tanto solo una nueva generación de Nvidia serie 9900 o la serie 10 saque partido de ello,y solo sea marketing por parte de Nvidia ahora,para vender más,como se ha visto recientemente Ati tiene directx 10.1 pero como no salia en ningún juego todos criticaban eso como una api inutil y que era solo marketing ahora se ha visto que no era así y que saca al renderizar una sola vez un 20% más rapido,pues lo mismo en CUDA,todas las Nvidia desde la serie 8 y la 9 tienen esos dentro de la tarjeta,por tanto solo hace falta una buena implimentación sosftware y funcionará,pero mis dudas tengo al respecto ya que no ha salido y una demo..en cambio ati tiene una demo de directx 10.1,vamos que se ve que eso es real...El CUDA si saliera a la luz y verdaderamente hiciera lo que queremos hundiria a ATI.Pero todos en este foro sabemos que repercutira en que la grafica vaya más lenta al tener que hacer otro tipo de trabajo,no es que no este preparada,ya que tiene CUDA,es que tampoco los de Nvidia lo han puesto a trabajar,actualmente trabaja Havok en casi todos los juegos o ageia,por tanto CUDA para muchos es una incógnita.
Fecha, no han dado pero yo diría que con la salida de Nehalem ya que creo que tiene algo que ver.Tambien como podeis leer será necesario un sli en Nvidia,pero existe algo parecido en Ati.
ATI
AMD confirma los requerimientos de aceleración de física asimétrica.
AMD ha desvelado ya los requerimientos de aceleración de física que ATi empezó ya a desarrollar antes de que AMD la comprara.
Se llama aceleración de física asimétrica y puede funcionar en dos modalidades: Una placa compatible con Crossfire, en la cual se colocan dos gráficas, una como aceleradora 3D y la otra destinada a cálculos de física. La otra modalidad consiste en tener una placa base compatible con Triple Play con un Crossfire montado, en la que se usa la tercera ranura PCIe 16x para dedicar una tercera Radeon al procesamiento de física.
http://www.madboxpc.com/contenido.php?id=1992
http://www.madboxpc.com/news/ATI/physics/ATIphysics2.jpg
Lo que quiero decir que tanto Nvidia como Ati tienen algo parecido,aunque Nvidia al tener ageia y su producto tienen más posibilidades de hacer algo mejor.
http://www.tweaktown.com/articles/908/computex_2006_video_of_ati_s_hardware_physics_in_a ction/index.html
Video
http://www.tweaktown.com/files/ati-talks-about-hardwarephysics.avi
ATI shows three GPU physics
http://www.youtube.com/watch?v=xMjgssWkRE0
Como podeis ver tanto lo de ageia por hardware como lo de Ati es más real,además de estar por video,CUDA es algo que no es real aún.
ATI Hardware Physics Demo
http://www.youtube.com/watch?v=gLgb9AdnaBI
Pero vamos en Ati será obligatorio el tener Crossfire de eso seguro como se puede ver.En Nvidia a lo mejor con una solo es suficiente.Pero si es en SLI seguro que irá.Me se de uno del foro con dos 8800GT que se le hace la boca agua....yo es que tengo envidia....jajaja.
Reflexión:
¿Si teneis SLI o Crossfire,que preferis que la segunda tarjeta os ayude en las texturas y la resolución o que se dedique a la física y perdais detalles y texturizado....sobre todo en juegos como Crysis o FarCry2?.


Havok
http://www.enriquedans.com/wp-content/uploads/2007/09/havok.jpg
El paquete Havok Complete, que incluye el motor de física Havok Physics y la solución de animación Havok Animation, podrá descargarse gratis a partir de mayo en su versión para PC. Los desarrolladores tendrán vía libre para usarlo en proyectos no comerciales. Havok espera que los principales beneficiarios de esta iniciativa sean los desarrolladores independientes, las instituciones educativas y los desarrolladores amateurs. Además, Intel, la empresa propietaria de Havok, dejará usar el paquete comercialmente gratis a los desarrolladores que aprueben.
Havok ha aprovechado la GDC que se celebra esta semana en San Francisco para presentar dos nuevas herramientas: Havok Cloth, orientada al manejo de ropa, y Havok Destruction, destinada al control de objetos destructibles en los juegos.
Intel compra Havok y su motor 3D
En una nota de prensa del 14 de septiembre, el numero uno mundial del microprocesador, Intel, anuncia haber firmado un acuerdo definitivo de adquisición de la empresa irlandesa Havok. Fundada en 1998, esa empresa se dedica al desarrollo del motor físico del mismo nombre, cuyos componentes, Havok Physics y Havok FX, están utilizados en títulos tales que BioShock, Stranglehold, Halo 2, Half Life 2, Oblivion, Crackdown o Motorstorm.
“Esa compra permitirá a los desarrolladores especializados en la animación digital y a las comunidades de jugadores de disfrutar de las capacidades de Intel en materia de innovación y su posición privilegiada en el mundo de la creación digital”, indica la empresa de Santa Clara.
Según David O'Meara, CEO de Havok, la adquisición permitirá a su empresa desarrollar sus actividades en nuevas direcciones. Recordamos que Havok no solo se ha hecho un nombre en el videojuego sino que también sus productos se usan en el ámbito de la modelización 3D así que la animación digital a destinación del cinema. Películas tales que Matrix, Troya o Charlie y la fábrica de chocolate utilizaron herramientas de Havok.
La empresa acababa de anunciar la proxima salida de la versión 5 de su motor durante el Austin Game Developers Conference. Para Intel la operación podría ser doble, optimizar un motor bastante popular para su arquitectura Core 2 y también ampliar sus conocimientos en materia de 3D para eventualmente integrarlo en su proyecto Larabee. Los detalles financieros de la transacción no fueron revelados.
Havok será gratuito en mayo
Los desarrolladores podrán descargar el paquete Havok Complete para PC.
El paquete Havok Complete, que incluye el motor de física Havok Physics y la solución de animación Havok Animation, podrá descargarse gratis a partir de mayo en su versión para PC. Los desarrolladores tendrán vía libre para usarlo en proyectos no comerciales. Havok espera que los principales beneficiarios de esta iniciativa sean los desarrolladores independientes, las instituciones educativas y los desarrolladores amateurs. Además, Intel, la empresa propietaria de Havok, dejará usar el paquete comercialmente gratis a los desarrolladores que aprueben.
Havok ha aprovechado la GDC que se celebra esta semana en San Francisco para presentar dos nuevas herramientas: Havok Cloth, orientada al manejo de ropa, y Havok Destruction, destinada al control de objetos destructibles en los juegos.
PD:El tercero en discordía,es gratis,lo utilizan en casi todos los juegos,StarCraft 2 es el que va por defecto,por tanto tanto Nvidia como Ati estan preparadas para este código de físicas....es como decirlo,física universal para todas las tarjetas.

A ver si con esto aprendeis algo.

Os acordais de esta tarjeta que nadie quería y ahora como tiene Nvidia CUDA si que lo quereis aún pagando lo que vale está tarjeta,la gente es unica vamos...jajajaja.Solo sirve el CUDA para estos juegos.

http://en.wikipedia.org/wiki/CUDA

http://www.nvidia.es/object/cuda_what_is_es.html

http://www.noticias3d.com/articulos/200806/physx/imagenes/ageia1.jpg

En esta lista (http://www.nzone.com/object/nzone_physxgames_home.html) estan los juegos que soportan el physx, eso si solo los que están en resaltados en blanco funcionan con las tarjetas nvidia o sea sin nescecidad de tener una ageia extra. lo interesante de los nuevos drivers es que prometen dar soporte para que todos estos juegos de la lista se puedan disfrutar con simplemente con las vcards sin necesidad de la tarjeta Ageia extra. otra cosa que hay que hacer es remplazar unas carpetas de los juegos para que den con las dll adecuadas, como aqui (http://www.chw.net/foro/guia-como-colocar-physx-en-tu-geforce-t165605.html) explican.

Game TitleDeveloperPlatform2 Days to VegasSteel MonkeysPCAdrenalin 2: Rush HourGaijin EntertainmentPChttp://www.nzone.com/docs/IO/53965/theway.jpgAge of Empires III (http://www.nzone.com/object/nzone_aoe3_home.html)Distineer StudiosPC, MacAge of Empires III: The WarChiefsDistineer StudiosMacAlpha PrimeBlack Element SoftwarePChttp://www.nzone.com/docs/IO/53965/theway.jpgAuto Assault (http://www.nzone.com/object/nzone_autoassault_home.html)Net DevilPCBackbreakerNatural MotionTBAB.A.S.E. JumpingDigital Dimension DevelopmentPCBet on Soldier: Blackout SaigonKylotonn EntertainmentPCBet on Soldier: Blood of SaharaKylotonn EntertainmentPChttp://www.nzone.com/docs/IO/53965/theway.jpgBet on Soldier: Blood Sport (http://www.nzone.com/object/nzone_bos_home.html)Kylotonn EntertainmentPCBeowulfUbisoftPS3, X360Bladestorm: The Hundred Years' WarKoeiPS3, X360Captain BloodAkellaPC, X360Cellfactor: Combat TrainingArtifical Studios, Immersion GamesPCCellfactor: RevolutionArtifical Studios, Immersion GamesPChttp://www.nzone.com/docs/IO/53965/theway.jpgCity of Villains (http://www.nzone.com/object/nzone_cityofvillains_home.html)Cryptic StudiosPChttp://www.nzone.com/docs/IO/53965/theway.jpgCrazy Machines IIFAKT SoftwarePChttp://www.nzone.com/docs/IO/53965/theway.jpgCryostasis (http://www.nzone.com/object/nzone_cryostasis_home.html)Action FormsPCDark PhysicsThe Game CreatorsPCDesert DinerTarsier StudiosPCDragonshardAtariPCDusk 12OrionPCEmpire Above AllIceHillPChttp://www.nzone.com/docs/IO/53965/theway.jpgEmpire Earth III (http://www.nzone.com/object/nzone_ee3_home.html)Mad Dog SoftwarePCEntropia UniverseMindArkPCFallen EarthIcarus StudiosPChttp://www.nzone.com/docs/IO/53965/theway.jpgFury (http://www.nzone.com/object/nzone_fury_home.html)Auran GamesPChttp://www.nzone.com/docs/IO/53965/theway.jpgGears Of War (http://www.nzone.com/object/nzone_gearsofwar_home.html)Epic GamesPC, X360Gluk'Oza: ActionGFI RussiaPCGooBallAmbrosia softwareMachttp://www.nzone.com/docs/IO/53965/theway.jpgGothic 3 (http://www.nzone.com/object/nzone_gothic3_home.html)Piranha BytesPCGunship ApocalypseFAKT SoftwarePCHeavy RainQuantic DreamPCHero's JorneySimutronicsPCHour of VictorynFusion InteractiveX360Hunt, TheOrionPChttp://www.nzone.com/docs/IO/53965/theway.jpgHuxleyWebzen, IncPC, X360http://www.nzone.com/docs/IO/53965/theway.jpgInfernal (http://www.nzone.com/object/nzone_infernal_home.html)Metropolis SoftwarePCInhabited island: Prisoner of PowerOrionPChttp://www.nzone.com/docs/IO/53965/theway.jpgJoint Task Force (http://www.nzone.com/object/nzone_jtf_home.html)Most Wanted EntertainmentPCKuma\WARKuma Reality GamesPCMagic ball 3Alawar EntertaimentPChttp://www.nzone.com/docs/IO/53965/theway.jpgMass EffectBioWarePC, X360Medal of Honor: AirborneEA Los AngelesPC, X360Metro 20334A GamesPCMobile Suit Gundam: CrossfireBECPS3Monster Madness: Battle for SuburbiaArtificial StudiosPC, X360Monster Truck ManiaxLegendo EntertainmentPCMyst Online: URU LiveCyan WorldsPCOpen FireBlueTorch StudiosPCParagraph 78Gaijin EntertainmentPChttp://www.nzone.com/docs/IO/53965/theway.jpgPirates of the Burning SeaFlying Lab SoftwarePChttp://www.nzone.com/docs/IO/53965/theway.jpgPT Boats: Knights of the Sea (http://www.nzone.com/object/nzone_ptboats_home.html)AkellaPCRail SimulatorKuju Entertainment LtdPCRed SteelUbisoft ParisWiihttp://www.nzone.com/docs/IO/53965/theway.jpgRise Of Nations: Rise Of Legends (http://www.nzone.com/object/nzone_riseofnations_home.html)Big Huge GamesPChttp://www.nzone.com/docs/IO/53965/theway.jpgRoboblitz (http://www.nzone.com/object/nzone_roboblitz_home.html)Naked Sky EntertainmentPC, X360Sacred 2ASCARON EntertainmentPCSherlock Holmes: The AwakenedFrogwares Game Development StudioPCShowdown: ScorpionB-COOL InteractivePChttp://www.nzone.com/docs/IO/53965/theway.jpgSilverfall (http://www.nzone.com/object/nzone_silverfall_home.html)Monte CristoPCSovereign SymphonyCeidot Game StudiosPCSonic and the Secret RingsSEGAWiihttp://www.nzone.com/docs/IO/53965/theway.jpgSpeedball 2 (http://www.nzone.com/object/nzone_speedball2_home.html)Kylotonn EntertainmentPCStalin Subway, TheOrionPCStoked Rider: Alaska AlienBongfish Interactive EntertainmentPCSwitchballAtomic ElbowPCTensionIce-pick LodgePCTom Clancy's Ghost Recon Advanced WarfighterGRINPC, X360Tom Clancy's Ghost Recon Advanced Warfighter 2GRIN, Ubisoft ParisPC, X360Tom Clancy's Rainbow Six VegasUbisoft MontrealPC, PS3, X360Tom Clancy's Splinter Cell: Double Agent (multiplayer)Ubisoft ShanghaiPC, X360Tortuga: Two TreasuresAscaron EntertainmentPCTwo WorldsReality PumpPCUltra TubesEipixPChttp://www.nzone.com/docs/IO/53965/theway.jpgUnreal Tournament 3 (http://www.nzone.com/object/nzone_ut3_home.html)Epic GamesPC, PS3, X360Unreal Tournament 3: Extreme Physics ModEpic GamesPCWarfareGFI RussiaPCWarmonger: Operation Downtown DestructionNet DevilPCW.E.L.L. OnlineSibilant InteractivePCWinterheart's GuildZelian GamesPC, X360http://www.nzone.com/docs/IO/53965/theway.jpgWorldShift (http://www.nzone.com/object/nzone_worldshift_home.html)Black Sea StudiosPC

http://www.nzone.com/object/nzone_physxgames_home.html

Informaros antes.....

DCO
15/10/2008, 11:13
No creas que vuela tanto, mas volaría si la quito del PC y la tiro por la ventana. Es una buena tarjeta y en cuanto a calidad-precio lo mejor que he visto en mi vida, hasta el momento.
Ya veremos lo que pide FAR CRY 2 que sale la semana que viene. Quizá me haya vuelto muy exigente.
Bueno, para mi la 4850 vuela hasta la estratosfera y de las otras pues ya no te digo. :D
Si ya la has tenido pues la 4870 y la 260 van a ser entre un 20 y un 30% mas rapidas para que te hagas una idea.
Si no te parece suficiente pues la 280 que suele andar entre un 10-20% mas rapida que las anteriores (a veces incluso mas lenta que una 4870), pero que vale bastante mas.
Luego tienes opciones de crossfires y SLIs si la placa te los soporta, pasando por precios y rendimientos de 4850s a 260s, y la 4870x2 que ya es una simple tarjeta.

Si quieres dar un salto grande la mejor opcion es la 4870x2 y luego la 280. Luego ya sabes como van cada una, una rinde bastante mas, consume bastante mas, vale mas y va a depender mas de los drivers.

ARRAIDAN
15/10/2008, 11:28
Algún dia en este foro se recomendará una riva tnt para jugar a 1280 x 1024, 1680 o similares...

Stalker en esa resolución sin AA 53 fps de media con una 4850

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/13/#abschnitt_stalker

Crysis sin AA 23 fps.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/19/#abschnitt_crysis

No te digo ya a 1680 X 1024...

El tener un 19" a1280, o un 22 a 1680, no implica que el usuario quiera renunciar a los filtros. Una GTX 260/280 se pude aprovechar perfectamente a esas resoluciones.
Indudablmente una 4850 dará un excepcional desempeño en la mayoría de las aplicaciones, pero tambien se puede quedar corta en función de las exigencias.

A ver si desmentimos de una vez el mito de que las gráficas potentes solo se aprovechan en altas resoluciones.

Activity
15/10/2008, 11:29
Bueno, para mi la 4850 vuela hasta la estratosfera y de las otras pues ya no te digo. :D
Si ya la has tenido pues la 4870 y la 260 van a ser entre un 20 y un 30% mas rapidas para que te hagas una idea.
Si no te parece suficiente pues la 280 que suele andar entre un 10-20% mas rapida que las anteriores (a veces incluso mas lenta que una 4870), pero que vale bastante mas.
Luego tienes opciones de crossfires y SLIs si la placa te los soporta, pasando por precios y rendimientos de 4850s a 260s, y la 4870x2 que ya es una simple tarjeta.

Si quieres dar un salto grande la mejor opcion es la 4870x2 y luego la 280. Luego ya sabes como van cada una, una rinde bastante mas, consume bastante mas, vale mas y va a depender mas de los drivers.

Lo que no se dice aquí es la fuente de alimentación que necesitan esos mostruos,es otro gasto que no teneis en cuenta.

Yo como veo que os sobra la pasta y no teneis crisis,pues compraros dos 4870x2 en crossfire y vamos no hay nada mejor....Dos en croosfire de esas no se si con los drivers catalyst 8.10 hara que el Crysis Warhead vuele o el FarCry 2 pero en modo entusiasta seguro que pilla unos 50 o 60 frames fijo.eso si el gasto de electricidad y la factura que os va a venir,no tendreis ganas de jugar a ninguno más,por que tendreis que pedir un credito para pagar la factura.

Activity
15/10/2008, 11:34
Algún dia en este foro se recomendará una riva tnt para jugar a 1280 x 1024, 1680 o similares...

Stalker en esa resolución sin AA 53 fps de media con una 4850

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/13/#abschnitt_stalker

Crysis sin AA 23 fps.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/19/#abschnitt_crysis

No te digo ya a 1680 X 1024...

El tener un 19" a1280, o un 22 a 1680, no implica que el usuario quiera renunciar a los filtros. Una GTX 260/280 se pude aprovechar perfectamente a esas resoluciones.
Indudablmente una 4850 dará un excepcional desempeño en la mayoría de las aplicaciones, pero tambien se puede quedar corta en función de las exigencias.

A ver si desmentimos de una vez el mito de que las gráficas potentes solo se aprovechan en altas resoluciones.

Por supuesto que a resoluciones bajas las 4870 o gtx 260 o la 4870x2 o GTX 280 sacan más frames que una 4850 eso vamos está muy claro..pero se dice aquí que para esa resolución con una 4850 sobra.Para que gastarse 100 o 200€ más si tienes por 150€ una que va ha hacer un buen papel.Además cuando la 4850 ya no sirva ni de pisapapeles la 4870 será tan bien su fin,¿pero es que no sabeis que las graficas para gente entusiasta como vosotros os duran 6 meses como maximo?.Que en diciembre salen nuevas nvidia y en abril salen directx11 y por supuesto querreis la novedad.Esto es así hay que conformarse si uno tiene poco dinero....si es un millonario como vosotros pues ale a gastar,como se nota que mucha gente no sabe lo que cuesta ganar el dinero.

SOENICK
15/10/2008, 11:36
Algún dia en este foro se recomendará una riva tnt para jugar a 1280 x 1024, 1680 o similares...

Stalker en esa resolución sin AA 53 fps de media con una 4850

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/13/#abschnitt_stalker

Crysis sin AA 23 fps.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/19/#abschnitt_crysis

No te digo ya a 1680 X 1024...

El tener un 19" a1280, o un 22 a 1680, no implica que el usuario quiera renunciar a los filtros. Una GTX 260/280 se pude aprovechar perfectamente a esas resoluciones.
Indudablmente una 4850 dará un excepcional desempeño en la mayoría de las aplicaciones, pero tambien se puede quedar corta en función de las exigencias.

A ver si desmentimos de una vez el mito de que las gráficas potentes solo se aprovechan en altas resoluciones.

Estoy completamente de acuerdo contigo. Por fin alguien que sabe lo que digo.

Mi Sapphire HD 4850 se me queda corta a 1680 x 1050 en mi monitor Viewsonic de 22" en juegos como Crysis, Clear Sky, Warhead, etc... eso sí, cuando meto bastantes filtros pero es que en Crysis los filtros caen en picado, así que tengo que jugar sin ellos practicamente.
Ya veremos FAR CRY 2, miedo me da. Querré jugar en la calidad de los vídeos y me temo que va a ser difícil.

PiRiT
15/10/2008, 11:41
yo cogeria la hd4870x2, a pesar de que todo el mundo diga "en el crysis va mejor la nvidia" pero si el crysis es una caca de juego que solo se ha hecho famoso porque pide mucho, vaya pena de juego.

En los demas juegos va mejor la ATI, y si tuviera que elegir a pesar de los contras (calor consumo, etc )de la ATI, la volveria a comprar.

Saludos.

ARRAIDAN
15/10/2008, 11:41
pero se dice aquí que para esa resolución con una 4850 sobra.
No sobra, lee mejor mi mensaje.


¿pero es que no sabeis que las graficas para gente entusiasta como vosotros os duran 6 meses como maximo

Mi 3870 me ha durado 1 año.


si es un millonario como vosotros pues ale a gastar,como se nota que mucha gente no sabe lo que cuesta ganar el dinero
No soy millonario, trabajo y me pago mi alquiler. Y por supuesto me gasto mi dinero en lo que me sale de las narices.

Si tu no tienes pasta, lo lamento, pero no faltes a los demás por tenerla.

Farinorco
15/10/2008, 11:47
Physx y CUDA es lo mismo en Nvidia,solo tiene CUDA.

En cuanto a Ati y Nvidia mueven perfectamente el Havok y a ver si leis esto,tambien destacar que Crysis no va ha hacer nunca CUDA si no que tiene su propio motor,como bien dice algunos por aquí CUDA ahora mismo es experimental y no sirve para nada.


Sólo una pequeña matización:

Para nada CUDA es lo mismo que PhysX, no tiene nada que ver una cosa con la otra (bueno, si tienen que ver, uno funciona en estas tarjetas gracias al otro, quiero decir que son cosas radicalmente diferentes).

¿Conoces el concepto GPGPU? Hace referencia a programación de uso general en una GPU, es decir, poder aprovechar la GPU para realizar cálculos que no sean gráficos si no de otras cosas.

Bueno, pues CUDA en un lenguaje/compilador, basado en el lenguaje de programación C, y propietario de NVIDIA, que sirve precisamente para esto, para escribir programas que se ejecuten en la GPU en lugar de la CPU. ATi tiene también su equivalente (CAL/Brook+), pero comparte con CUDA el fallo de no ser un estándar compartido.

Otras APIs permiten hacer lo mismo, por ejemplo el ya definido pero no utilizado (ni siquiera sé si existe ya un SDK para desarrolladores o no, pero creo que no) DX11. O un estándar abierto llamado OpenCL que sería una estupenda noticia que adoptaran todas las gráficas futuras. ATi ya ha anunciado que su próxima generación tendrá soporte tanto DX11 como OpenCL. Veremos que hace NVIDIA, porque aceptar esto significará, con toda probabilidad, enterrar CUDA.

Ahora, ¿conoces el concepto de librería de programación? Una librería es una colección de funciones pre-programadas, normalmente con una temática común, que sirve para, incluyéndola en un programa, poder hacer uso de esas funciones sin tener que programarlas (ya te las dan hechas).

PhysX, y Havok, son librerías de simulación en tiempo real de físicas, es decir, que incluyen funciones pre-programadas para simular las leyes de la física (de forma aproximada y eficiente, claro). Lo especial de PhysX (actualmente, saltémonos la parte de su origen con AGEIA) es que en parte está programada en CUDA, por lo que las gráficas de NVIDIA (que soportan CUDA) pueden procesar ciertos cálculos en la GPU si el juego está programado utilizando esta librería PhysX, acelerando los cálculos (y ralentizando la renderización gráfica del frame, claro). Como librería de física, la mayoría opina que Havok es mejor por diversos factores, a pesar de todo.

No, Crysis nunca soportará aceleración por GPU de física, principalmente porque su física no está programada tirando de la librería PhysX, si no que está programada desde CERO por Crytek (vamos, que se han programado su propia librería de física para hacer el CryEngine), y no lo han hecho de forma que soporte ningún medio de GPGPU, ni CUDA, ni CAL/Brook+, ni DX11, ni OpenCL.

Por último, CUDA no tiene NADA de experimental, es un lenguaje de programación perfectamente especificado y que no está, para nada, en fase de experimentación. Además de PhysX, existen un montón de aplicaciones programadas en CUDA (bastantes más que para el de ATi), como las de Folding@Home (estas sí están para las de ATi también), aplicaciones de transcodificación de vídeo, y más. Aún así su difusión es baja, por más que intente empujarla NVIDIA, y se usa muy poco.

¿Cuál es el problema? Que es propietaria de NVIDIA, por lo que aunque NVIDIA la ha ofrecido gratis a otras empresas (como ATi) estas no se fían y no quieren atarse a la voluntad de NVIDIA, por lo que no lo usan. Así que sólo las tarjetas de NVIDIA lo soportan, y nadie invierte mucho tiempo en algo que no todos los potenciales clientes puedan soportar... así que hasta que no se adopte algún estándar abierto o muy extendido como podrían ser OpenCL o DX11, no podremos ver un montón más de aplicaciones y librerías (y no sólo de física) mucho más chulas...

Pero vamos, no, CUDA y PhysX no son para nada lo mismo. Es como decir que C++ y Crysis son lo mismo, vamos...

Activity
15/10/2008, 11:51
Sólo una pequeña matización:

Para nada CUDA es lo mismo que PhysX, no tiene nada que ver una cosa con la otra (bueno, si tienen que ver, uno funciona en estas tarjetas gracias al otro, quiero decir que son cosas radicalmente diferentes).

¿Conoces el concepto GPGPU? Hace referencia a programación de uso general en una GPU, es decir, poder aprovechar la GPU para realizar cálculos que no sean gráficos si no de otras cosas.

Bueno, pues CUDA en un lenguaje/compilador, basado en el lenguaje de programación C, y propietario de NVIDIA, que sirve precisamente para esto, para escribir programas que se ejecuten en la GPU en lugar de la CPU. ATi tiene también su equivalente (CAL/Brook+), pero comparte con CUDA el fallo de no ser un estándar compartido.

Otras APIs permiten hacer lo mismo, por ejemplo el ya definido pero no utilizado (ni siquiera sé si existe ya un SDK para desarrolladores o no, pero creo que no) DX11. O un estándar abierto llamado OpenCL que sería una estupenda noticia que adoptaran todas las gráficas futuras. ATi ya ha anunciado que su próxima generación tendrá soporte tanto DX11 como OpenCL. Veremos que hace NVIDIA, porque aceptar esto significará, con toda probabilidad, enterrar CUDA.

Ahora, ¿conoces el concepto de librería de programación? Una librería es una colección de funciones pre-programadas, normalmente con una temática común, que sirve para, incluyéndola en un programa, poder hacer uso de esas funciones sin tener que programarlas (ya te las dan hechas).

PhysX, y Havok, son librerías de simulación en tiempo real de físicas, es decir, que incluyen funciones pre-programadas para simular las leyes de la física (de forma aproximada y eficiente, claro). Lo especial de PhysX (actualmente, saltémonos la parte de su origen con AGEIA) es que en parte está programada en CUDA, por lo que las gráficas de NVIDIA (que soportan CUDA) pueden procesar ciertos cálculos en la GPU si el juego está programado utilizando esta librería PhysX, acelerando los cálculos (y ralentizando la renderización gráfica del frame, claro). Como librería de física, la mayoría opina que Havok es mejor por diversos factores, a pesar de todo.

No, Crysis nunca soportará aceleración por GPU de física, principalmente porque su física no está programada tirando de la librería PhysX, si no que está programada desde CERO por Crytek (vamos, que se han programado su propia librería de física para hacer el CryEngine), y no lo han hecho de forma que soporte ningún medio de GPGPU, ni CUDA, ni CAL/Brook+, ni DX11, ni OpenCL.

Por último, CUDA no tiene NADA de experimental, es un lenguaje de programación perfectamente especificado y que no está, para nada, en fase de experimentación. Además de PhysX, existen un montón de aplicaciones programadas en CUDA (bastantes más que para el de ATi), como las de Folding@Home (estas sí están para las de ATi también), aplicaciones de transcodificación de vídeo, y más. Aún así su difusión es baja, por más que intente empujarla NVIDIA, y se usa muy poco.

¿Cuál es el problema? Que es propietaria de NVIDIA, por lo que aunque NVIDIA la ha ofrecido gratis a otras empresas (como ATi) estas no se fían y no quieren atarse a la voluntad de NVIDIA, por lo que no lo usan. Así que sólo las tarjetas de NVIDIA lo soportan, y nadie invierte mucho tiempo en algo que no todos los potenciales clientes puedan soportar... así que hasta que no se adopte algún estándar abierto o muy extendido como podrían ser OpenCL o DX11, no podremos ver un montón más de aplicaciones y librerías (y no sólo de física) mucho más chulas...

Pero vamos, no, CUDA y PhysX no son para nada lo mismo. Es como decir que C++ y Crysis son lo mismo, vamos...

Leete lo que he puesto en el anterior página sobre CUDA y Havok.....

DCO
15/10/2008, 11:52
A ver si desmentimos de una vez el mito de que las gráficas potentes solo se aprovechan en altas resoluciones.
Nadie ha dicho eso, pero no se aprovechan de la misma forma, el salto de rendimiento/consumo/precio no es el mismo, y por eso la gente recomienda en general otras tarjetas.

wilhelm
15/10/2008, 11:53
Algún dia en este foro se recomendará una riva tnt para jugar a 1280 x 1024, 1680 o similares...

Stalker en esa resolución sin AA 53 fps de media con una 4850

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/13/#abschnitt_stalker

Crysis sin AA 23 fps.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/19/#abschnitt_crysis

No te digo ya a 1680 X 1024...

El tener un 19" a1280, o un 22 a 1680, no implica que el usuario quiera renunciar a los filtros. Una GTX 260/280 se pude aprovechar perfectamente a esas resoluciones.
Indudablmente una 4850 dará un excepcional desempeño en la mayoría de las aplicaciones, pero tambien se puede quedar corta en función de las exigencias.

A ver si desmentimos de una vez el mito de que las gráficas potentes solo se aprovechan en altas resoluciones.

Absolutamente de acuerdo. Algunos permanentemente olvidan que las exigencias dependen de resolución, filtros aplicados (cada uno marca su exigencia) y FPS que el usuario considera adecuados (unos dirán que 30, otros que 60).

Una high end puede ser aprovechada en cualquier resolución. Sólo que en resoluciones inferiores, el usuario podrá incrementar los filtros y disfrutar de mayor antialiasing y anisotrópico con buenos FPS.

Saludos.

Activity
15/10/2008, 11:54
No sobra, lee mejor mi mensaje.

Mi 3870 me ha durado 1 año.

No soy millonario, trabajo y me pago mi alquiler. Y por supuesto me gasto mi dinero en lo que me sale de las narices.

Si tu no tienes pasta, lo lamento, pero no faltes a los demás por tenerla.

Por supuesto que cada uno se gasta su dinero en lo que le da la gana...

Tener una mierda de 3870 no es de una persona entusiasta compañero,para que Usted lo entienda un entusiasta es aquel que tiene la maximo osease una GTX280 o 4870x2 y si sale ahora una 5870x2,vende de segunda mano la que tiene y siempre va comprando lo maximo..a costa de gastarse lo que sea,solo para tener los juegos como Crysis a lo maximo,lo llamo entusiasta por no llamar a esas personas de otra manera.....yo tambien tengo una 3870 y no soy entusiasta por que me conformo con jugar a 1280x1024 a 30 frames o menos.

Unr3al^
15/10/2008, 11:56
Crysis sin AA 23 fps.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/19/#abschnitt_crysis



Pero eso será Dx10, cuanta gente juega al Crysis en Dx10? :(

Con Dx10 me refiero a Very High.

DCO
15/10/2008, 11:57
Estoy completamente de acuerdo contigo. Por fin alguien que sabe lo que digo.

Mi Sapphire HD 4850 se me queda corta a 1680 x 1050 en mi monitor Viewsonic de 22" en juegos como Crysis, Clear Sky, Warhead, etc... eso sí, cuando meto bastantes filtros pero es que en Crysis los filtros caen en picado, así que tengo que jugar sin ellos practicamente.
Ya veremos FAR CRY 2, miedo me da. Querré jugar en la calidad de los vídeos y me temo que va a ser difícil.
Bueno, las opciones estan ya dichas, es cuestion de decidir.
Otra cuestion es el futuro, igual te pillas un pepinazo y en un año estas en las mismas, ahi es donde entra la opcion de como piensas upgradear, con un pepinazo puedes aguantar mas, pero con el dinero ahorrado con otra tarjeta igual te puedes pillar una nueva mas facil, luego tambien estarai la cuestion de como seria nestas tarkjetas de nueva generacion.

Activity
15/10/2008, 11:58
Pero eso será Dx10, cuanta gente juega al Crysis en Dx10? :(

Con Dx10 me refiero a Very High.

Nadie juega así todos se ponen la coletilla-dx9 para jugar en directx9,si no vamos...no jugarían más que lo que tienen una 4870x2 y los de GTX 280....

Farinorco
15/10/2008, 11:58
Algún dia en este foro se recomendará una riva tnt para jugar a 1280 x 1024, 1680 o similares...

Stalker en esa resolución sin AA 53 fps de media con una 4850

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/13/#abschnitt_stalker

Crysis sin AA 23 fps.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_260_216_shader/19/#abschnitt_crysis

No te digo ya a 1680 X 1024...

El tener un 19" a1280, o un 22 a 1680, no implica que el usuario quiera renunciar a los filtros. Una GTX 260/280 se pude aprovechar perfectamente a esas resoluciones.
Indudablmente una 4850 dará un excepcional desempeño en la mayoría de las aplicaciones, pero tambien se puede quedar corta en función de las exigencias.

A ver si desmentimos de una vez el mito de que las gráficas potentes solo se aprovechan en altas resoluciones.


Estoy completamente de acuerdo contigo. Por fin alguien que sabe lo que digo.

Mi Sapphire HD 4850 se me queda corta a 1680 x 1050 en mi monitor Viewsonic de 22" en juegos como Crysis, Clear Sky, Warhead, etc... eso sí, cuando meto bastantes filtros pero es que en Crysis los filtros caen en picado, así que tengo que jugar sin ellos practicamente.
Ya veremos FAR CRY 2, miedo me da. Querré jugar en la calidad de los vídeos y me temo que va a ser difícil.

Nadie dice eso. Pero la HD4850 es una gráfica no potente, muy potente. Lo que no es es una gráfica de gama entusiasta, ni ultra-entusiasta. Pero a ver si se desmiente también el mito de que para poder jugar hay que tener una gráfica de gama ultra-entusiasta.

Cierto es que a Crysis con filtros, malamente. Está programado de esa forma (de ahí que tenga un pseudo-EDAA que se activa automáticamente al poner en High o mayor el apartado de postprocesado, y afecta mucho menos al rendimiento). Eso no esperes que cambie con otras tarjetas, de todas formas. Salvo con un SLI de GTX 260/280, o puede que con una HD4870 X2. Y eso si el micro-stuttering de estas soluciones permite verlo fluido a pesar del framerate incrementado...

Si crees que merece la pena gastarse 300€+ en poder usar MSAA en Crysis (bueno, vale, el Crysis 2ª parte y el STALKER 2ª parte también, pero ya), entonces, entonces sí, yo sugeriría la X2.

Pero vamos, a mi no me parece que la diferencia entre Crysis sin MSAA y Crysis con MSAA (porque el 99% de los otros juegos van estupendamente con la 4850, o si acaso, como dije antes, una 4870/260, sobradas absolutamente) valga la pena invertir 300€ más y pagar la diferencia de consumo con todos los juegos que vas a ver igual...

Unr3al^
15/10/2008, 12:00
Nadie juega así todos se ponen la coletilla-dx9 para jugar en directx9,si no vamos...no jugarían más que lo que tienen una 4870x2 y los de GTX 280....

Por eso, es que los 28fps de la 4870 me dan un poco de risa sabiendo que a mi me da unos 40fps de media en High... (

Activity
15/10/2008, 12:05
Por eso, es que los 28fps de la 4870 me dan un poco de risa sabiendo que a mi me da unos 40fps de media en High... (

Para mi compañero el problema está en que si una 4850 no le va bien,no se yo si una 4870 le hará cambiar.....para mi precio/calidad la 4850 es la mejor del mercado.La 4870 con respecto a la 4850 tampoco le va a poner las cosas a 100%.

A lo mejor la gente se cree que la diferencia entre una 4870 y la 4850 es abismal y no es así.

http://images.hardwarecanucks.com/image/fixt/Games/CWH/GPUCharts.jpg

http://www.gameprotv.com/foro/viewtopic.php?t=86583

Esto lo dice todo si no lo ve la gente es su problema.....así son las cosas,yo espero que la proxima generación directx11 ponga a estos juegos a 60frames o más en entusiasta.......pero es complicado......sobre todo lo que más me preocupa es el gasto de la luz en estas tarjetas.....muy mal.

Entre la 4850 y la 4870 hay de diferencia 9 frames......si eso os parece mucho pues cada uno.

Y jugable 100% a 40 frames la Ati 4870x2 en modo entusiasta,las demás racanean...

Farinorco
15/10/2008, 12:06
Leete lo que he puesto en el anterior página sobre CUDA y Havok.....

Me lo he leído cientos de veces, entre otras cosas porque he tenido que decidir si para programar el motor de juego que estoy haciendo, usaba PhysX, Havok, Bullet o Newton Game Dynamics.

Decidí PhysX, pero ahora que NVIDIA compró la compañía AGEIA para usar su librería PhysX como intento de promocionar su sistema para hacer GPGPU (CUDA) y tratar de estandarizarlo, me estoy empezando a arrepentir y estoy pensando echarme atrás y cambiarlo por Havok o Bullet.

Principalmente porque no me fío de que mantengan el soporte de la librería, ni la licencia de uso comercial gratuita en un futuro, especialmente visto el incierto futuro de CUDA y demás. No sé... además ahora (a diferencia de cuando elegí la primera vez) Havok es también gratuito para uso incluso comercial. Y Bullet ha mejorado considerablemente.

Pero en fin, si quieres creer que porque te llevo la contraria, no sé lo que es PhysX, o CUDA, o Havok, o no he leído todo lo que se puede leer sobre ellos, tú mismo.

PD: No tienes muy claro lo que es CUDA ni lo que son PhysX/Havok por lo que veo en tus comentarios. Léete con detalle lo que te he puesto en mi anterior post, que debería aclarártelo bastante...

SOENICK
15/10/2008, 12:11
9 frames es bastante, pero depende en que escala se notará mas, menos o nada. No es lo mejor jugar a 18 frames que a 27, desde luego.
Ni a 20 o a 29.
Eso sí, de 50 a 59 pues...... se notará la cuarta parte de lo que antes.

Creo que me compraré la ATI HD 4870 X2. Cuesta algo mas de dinero pero me llevo mas gráfica. Me explico de una forma vulgar pero se me entiende: Me llevo 2 gráficas en una. 2 GPUs en Crossfire practicamente, el doble de memoria y mejor que con la GTX280. Vale que tan solo trabaja 1 giga por cada núcleo, pero se nota.
Y estoy convencido que si ATI se pone las pilas con los Drivers tenemos una gráfica muchísimo mejor.
Creo que con la ATI me llevo mucha mas tarjeta a pesar de ser un poco mas cara. Evidentemente la nVIDIA también me gusta mucho, por eso tantas dudas, pero.... por lo que veo creo que la ATI es mas y mejor tarjeta.

txemote83
15/10/2008, 12:42
Para mi compañero el problema está en que si una 4850 no le va bien,no se yo si una 4870 le hará cambiar.....para mi precio/calidad la 4850 es la mejor del mercado.La 4870 con respecto a la 4850 tampoco le va a poner las cosas a 100%.

A lo mejor la gente se cree que la diferencia entre una 4870 y la 4850 es abismal y no es así.

http://images.hardwarecanucks.com/image/fixt/Games/CWH/GPUCharts.jpg

http://www.gameprotv.com/foro/viewtopic.php?t=86583

Esto lo dice todo si no lo ve la gente es su problema.....así son las cosas,yo espero que la proxima generación directx11 ponga a estos juegos a 60frames o más en entusiasta.......pero es complicado......sobre todo lo que más me preocupa es el gasto de la luz en estas tarjetas.....muy mal.

Entre la 4850 y la 4870 hay de diferencia 9 frames......si eso os parece mucho pues cada uno.

Y jugable 100% a 40 frames la Ati 4870x2 en modo entusiasta,las demás racanean...


Esta claro que una diferencia de 10 FPS entre una grafica y otra no es mucho pero en el Crysis se nota y mucho, mas aun viendo que esos 10FPS pueden ser un 50% extra de rendimiento lo que seria vital a la hora de poder o no poder con una determinada carga grafica.


1saludo.

Farinorco
15/10/2008, 12:50
Yo ahí estoy con Txemote. No se puede hablar en términos de FPS absolutos. 10 FPS no significa nada, porque 10 FPS más cuando la cifra original son 5, es mucha diferencia, y cuando hablamos de 10 FPS más que 200FPS, como que da lo mismo.

En ese caso hablamos de un 26% de diferencia en modo Gamer, y de un 28% de diferencia en modo Enthusiast, que se dice pronto. Es una diferencia mayor que la que hay (y no sólo en este juego) entre la 260 y la 280...

También es cierto que aquí la diferencia es mayor de lo normal, porque en este juego pesa bastante la diferencia de ancho de banda de memoria.

cdrx80
15/10/2008, 12:51
Soenick compañero...

Yo me acabo de pillar un pc nuevo,y estaba como tu,de hecho creo q me hablaste en algún post en el q yo tb pedía consejo...

Asi que ahora te ofrezco el mio,y ya con algo de conocimiento de causa...

Yo al final dije,mira,ya q me toy montando un pc wapo,pues lo voy a disfrutar de verdad,q leshe,y fuera,me pillé la 4870x2...

Impresiones...pues después de leer tanto y tanto sobre esta y la gtx280,estaba en un dilema...la ati es el monstruo,pero se calienta y hace ruido,y el microshutering(o como se escriba perdonadme q no lo se),pero la gtx280,jue,casi vale como la ati y es peor en rendimiento...al final dije:mira,si no me compro la ati,no me voy a quedar tranquilo...asi q fuera...

Ahora lo bueno,impresiones: Pues por ahora contentisimo,esta caliente,pues si,pero es q el venti en iddle no se oye!normal q se caliente...un nucleo ronda los 85-95 grados...y el otro esta a 45-50...(como digo,en el escritorio navegando por internet y esas tipicas cosas).

Jugando...pues tampoc te creas q sube mucho de esa temp. con el ventilador al mínimo...pero vamos,q le pones el rivatuner,le pones el venti al 30 o 40 %,y si,algo de ruido hace,pero soportable totalmente,y el bicho baja a 65-75 grados mas o menos,y jugando al crysis a tope ronda esas temp...en definitiva,para jugar pones el venti y sin problemas.

Claro q hay q tener una caja bien ventilada y espaciosa para q este asi y quitarnos de problemas.

El microshutering ese o como se diga,pues yo no se si alguna vez habré notado un tirón o no, pero muy evidente no tiene q ser porq yo la verdad es q ni lo he notado...(o al menos todavia)asi q eso no es un problema al menos para mi...

No lo he dicho,pero he jugado al crysis,al forgoten hope 2 en red(un mod del bf2),al brothers in arms hell highway y al assasins creed...no he podido probar más por ahora...y genial...Crysis directx10 very high(eso si,ojo,a 1280*1024,todavia no me ha llegado el nuevo monitor),y si,como comentan en algunos momentos entre 18-28 frames,en las selva con kekos...pero totalmente jugable y disfrutable...y no olvidemos comentar q crysis es otra historia,ya sabemos lo q pasa con el...


Y por último q me estoy extendiendo mucho y no quiero rayaros mas,yo tengo un problemita,tengo abierto un post,y es q la gráfica hace un poco de ruido electrico,q al jugar,me parece anormal totalmente...mñn me van a dejar un tarjeta grafica para ponerla en el pc,y ver si es la ati,o la fuente o q leches pasa...pero vamos...se comenta por ahi q esto es normal...tampoco seria un gran problema a no ser q tengas la torre al ladito de la cabeza...pero se oye mucho eh...

En resumen,si te la puedes permitir,yo la verdad es q toy disfrutandola...

Espero q te haya servido mi opinión.

Un saludo.

super_pi
15/10/2008, 13:05
veo que estas indeciso entre una 4870x2 y una GTX280 es decir que las estas comparando en pontecia??
nose pero la 4870x2 pa mi se lleva la palma de todas las graficas del mundo...si no tienes problesmas de pasta la 4870x2...
las gpu de las graficas son como las de un procesador
antes exisitian procesadores x2???
ahora nose quien no tiene uno....

nose tambien habria que saber a que resoluciones que componentes acompañarian a esa 4870x2 o GTX280...

yo que tu 4870x2 veo un gran futuro a esa grafica nose porque es una premolicion....

ARRAIDAN
15/10/2008, 13:11
Nadie dice eso. Pero la HD4850 es una gráfica no potente, muy potente. Lo que no es es una gráfica de gama entusiasta, ni ultra-entusiasta. Pero a ver si se desmiente también el mito de que para poder jugar hay que tener una gráfica de gama ultra-entusiasta.



Claro que no hace falta, claro que con una 4850 se puede jugar bien, lo único que digo es que no sobra sobra en juegos antiguos / medios y va bien tirando a justa en los mas potentes. Lo cual está genial por su precio, que no se me malinterprete.

Lo único que digo es que una "entusiasta" se puede aprovechar de sobra a esas resoluciones.

Osea, me parece genial recomendar una 4850 para esas resoluciones, lo que me chirría es leer lo de "sobra" , o como leí en otro hilo un "Te sobra con una 3870/9600GT". No sobra, da abasto, y e suna excepcional solución calidad/precio, pero si se dispone de mas presupuesto, no es tirar el dinero comprarse un modelo mas potente



Si crees que merece la pena gastarse 300€+ en poder usar MSAA en Crysis (bueno, vale, el Crysis 2ª parte y el STALKER 2ª parte también, pero ya), entonces, entonces sí, yo sugeriría la X2.

Lost planet, Call of juarez, Gothic 3... Y este invierno saldrá alguno tambien bastante bruto.
Al que se podrá juagr con una 4850, pero que lucirá genial en la GTX260 con AA2X en mi 19" :P


Activity

Tener una mierda de 3870 no es de una persona entusiasta compañero
Cuando yo me la compré la 3870 costaba como una 4870 mas o menos. Y en la gama ATI era el sector entusiasta.

Farinorco
15/10/2008, 13:16
veo que estas indeciso entre una 4870x2 y una GTX280 es decir que las estas comparando en pontecia??
nose pero la 4870x2 pa mi se lleva la palma de todas las graficas del mundo...si no tienes problesmas de pasta la 4870x2...
las gpu de las graficas son como las de un procesador
antes exisitian procesadores x2???
ahora nose quien no tiene uno....

nose tambien habria que saber a que resoluciones que componentes acompañarian a esa 4870x2 o GTX280...

yo que tu 4870x2 veo un gran futuro a esa grafica nose porque es una premolicion....

El problema de esa comparación es que el tener dos procesadores tiene un efecto positivo, y es poder ejecutar dos hilos de programa simultáneamente. Si las gráficas siguieran el mismo esquema (ya de por sí, son chorrocientos mini-procesadores simples en paralelo, pues con dos, que trabajaran como chorrocientos X2, ¿no?) sería estupendo. Pero el caso es que no. No son capaces de trabajar, con la tecnología actual, cooperativamente y conjuntar capacidad de procesamiento para realizar un trabajo, así que la 2ª gráfica la tienen que usar para adelantar trabajo renderizando el siguiente frame al que se está renderizando en la primera. Lo cuál es una chapuza, porque aparte de introducir input lag, hace que la salida de frames que producen sea completamente irregular (casi por parejitas dos a dos en muchos casos) con lo que el framerate obtenido no es muy representativo de la sensación real que da, dependiendo de las circunstancias.

Así que no acaba de ser del todo acertada una comparación de 2x GPUs con 2x CPUs. Los 800 procesadores de shaders de una sola HD4870 se parecería bastante más a lo de las 800x CPUs...

Yo creo que el multi-GPU es el futuro, pero no el presente. Primero tiene que conseguirse una forma elegante y eficiente de hacerlo, y que no sea una ñapa cargada de contraindicaciones...

Farinorco
15/10/2008, 13:19
Cuando yo me la compré la 3870 costaba como una 4870 mas o menos. Y en la gama ATI era el sector entusiasta.

Una pequeña matización, ni la HD3870 ni la HD4870 son sector entusiasta. Ese sector, como anunció públicamente AMD, se dejaba de cubrir por la compañía al menos con soluciones mono-GPU por el sencillo motivo de que no les salía rentable y no había necesidad.

Actualmente ATi sólo cubre el sector entusiasta con sus versiones X2 de tarjetas.

Lo que sí eran ambas es gama alta, que no es lo mismo...

ninamco
15/10/2008, 13:20
A mi modo de ver precio calidad lo mejor ahora es una 260 16 o una ati 48701gb ,creo que es la mejor eleccion ,tmp creo en la x2 y la 280 me parece cara...

jon872
15/10/2008, 13:21
Yo creo que el multi-GPU es el futuro, pero no el presente. Primero tiene que conseguirse una forma elegante y eficiente de hacerlo, y que no sea una ñapa cargada de contraindicaciones...
Ahi le has dado... El problema es que cuando eso se consiga, esta grafica seguramente ya estara obsoleta.

ARRAIDAN
15/10/2008, 13:28
Una pequeña matización, ni la HD3870 ni la HD4870 son sector entusiasta. Ese sector, como anunció públicamente AMD, se dejaba de cubrir por la compañía al menos con soluciones mono-GPU por el sencillo motivo de que no les salía rentable y no había necesidad.

Actualmente ATi sólo cubre el sector entusiasta con sus versiones X2 de tarjetas.

Lo que sí eran ambas es gama alta, que no es lo mismo...

Lo que quiero decir es que dentro de la gama ATI era el tope de gama junto con la X2

zorranco
15/10/2008, 13:33
Pero vamos a ver soenick, tu eres ya viejo lobo de mar, y sabes los pros y los contras de cada una, y sabes que a dia de hoy, el decantarse por una o por otra es mas una cuestión de gustos personales que no técnica, entre otras cosas porque se intentan comparar 2 productos que no tienen comparación (algunos dirán que al estar en el mismo rango de precio sí son comparables, pero eso es una visión reducida de la situacion, que es mas compleja que "valen casi lo mismo las 2").

A tí, interiormente, cual te tira mas? Sospecho que la X2...pues palante, no creo que te arrepientas.

wilhelm
15/10/2008, 13:34
Ahi le has dado... El problema es que cuando eso se consiga, esta grafica seguramente ya estara obsoleta.

Tecnológicamente hablando (que no en prestaciones) esta gráfica no incluye ninguna novedad. Nos vendieron que iba a mejorar las comunicaciones entre GPU,s con un bridge intermedio pero la práctica ha demostrado que rinde lo mismo que dos 4870 en CF.

Así que desde el punto de vista de la tecnología empleada, la X2, como las GX2 están obsoletas. Son diseños de hace tres años (desde las 7900GX2).

Hasta que no tengamos multiGPU,s o multicores trabajando con una única VRAM de forma realmente cooperativa (y no alternando o partiendo frames al renderizar) no podemos hablar de una gestión eficiente.

Saludos.

zorranco
15/10/2008, 13:37
Eso es lo que llevo yo años diciendo aquí, que las X2 son una ñapa a nivel tecnológico.

Claro, habrá gente que dirá "pues yo la tengo y me va de pm". Por supuesto, faltaría más, pero eso no quita que a nivel interno sepamos que es una ñapa, un sandwich de fuerza bruta muy poco elegante....y no hablo precisamente de calor y consumo, que yo lo veo más como una consecuencia que no un defecto, si no del método de renderizado. El dia que sean como tienen que ser yo, que soy marcadamente mono (abstenerse chistes chorras), igual mañana me lo pienso y me cojo una, hoyga....

SOENICK
15/10/2008, 13:58
Soenick compañero...

Yo me acabo de pillar un pc nuevo,y estaba como tu,de hecho creo q me hablaste en algún post en el q yo tb pedía consejo...

Asi que ahora te ofrezco el mio,y ya con algo de conocimiento de causa...

Yo al final dije,mira,ya q me toy montando un pc wapo,pues lo voy a disfrutar de verdad,q leshe,y fuera,me pillé la 4870x2...

Impresiones...pues después de leer tanto y tanto sobre esta y la gtx280,estaba en un dilema...la ati es el monstruo,pero se calienta y hace ruido,y el microshutering(o como se escriba perdonadme q no lo se),pero la gtx280,jue,casi vale como la ati y es peor en rendimiento...al final dije:mira,si no me compro la ati,no me voy a quedar tranquilo...asi q fuera...

Ahora lo bueno,impresiones: Pues por ahora contentisimo,esta caliente,pues si,pero es q el venti en iddle no se oye!normal q se caliente...un nucleo ronda los 85-95 grados...y el otro esta a 45-50...(como digo,en el escritorio navegando por internet y esas tipicas cosas).

Jugando...pues tampoc te creas q sube mucho de esa temp. con el ventilador al mínimo...pero vamos,q le pones el rivatuner,le pones el venti al 30 o 40 %,y si,algo de ruido hace,pero soportable totalmente,y el bicho baja a 65-75 grados mas o menos,y jugando al crysis a tope ronda esas temp...en definitiva,para jugar pones el venti y sin problemas.

Claro q hay q tener una caja bien ventilada y espaciosa para q este asi y quitarnos de problemas.

El microshutering ese o como se diga,pues yo no se si alguna vez habré notado un tirón o no, pero muy evidente no tiene q ser porq yo la verdad es q ni lo he notado...(o al menos todavia)asi q eso no es un problema al menos para mi...

No lo he dicho,pero he jugado al crysis,al forgoten hope 2 en red(un mod del bf2),al brothers in arms hell highway y al assasins creed...no he podido probar más por ahora...y genial...Crysis directx10 very high(eso si,ojo,a 1280*1024,todavia no me ha llegado el nuevo monitor),y si,como comentan en algunos momentos entre 18-28 frames,en las selva con kekos...pero totalmente jugable y disfrutable...y no olvidemos comentar q crysis es otra historia,ya sabemos lo q pasa con el...


Y por último q me estoy extendiendo mucho y no quiero rayaros mas,yo tengo un problemita,tengo abierto un post,y es q la gráfica hace un poco de ruido electrico,q al jugar,me parece anormal totalmente...mñn me van a dejar un tarjeta grafica para ponerla en el pc,y ver si es la ati,o la fuente o q leches pasa...pero vamos...se comenta por ahi q esto es normal...tampoco seria un gran problema a no ser q tengas la torre al ladito de la cabeza...pero se oye mucho eh...

En resumen,si te la puedes permitir,yo la verdad es q toy disfrutandola...

Espero q te haya servido mi opinión.

Un saludo.

Te agradezco tu buena aportación, de veras.

Sí que me voy a pillar la ATI HD 4870 X2. La nVIDIA no me acaba de convencer y esa DDR3..... si montaría una memoria mejor pues igual me la pillaría pero no me convence.
Con la ATI HD 4870 X2 me gastaré un poco mas de dinero pero también tengo la sensación de llevarme una tarjeta con mas, ( doble GPU, mejor memoria y mas rápida ).

Se que ambas tarjetas no son comparables pero son el tope de la gama de cada casa. Cada una con sus pros y sus contras. Además, yo ya tengo una ATI HD 4850 y se mas que de sobra lo que esta tarjeta me ha estado dando hasta ahora, así que me puedo imaginar una HD 4870 y una 4870 X2.

grifers
15/10/2008, 15:29
Tener una mierda de 3870


Agüita con eso que as dicho amigo, espero que sea una ironía...Por que una cosa es que no sea entusiasta (que tampoco lo son una 4870, GTX260), y otra cosa es llamar mierda a esa tarjeta...En fin...Saludos

Deeluxe
15/10/2008, 15:39
¿La vas a comprar en Alternate?

DCO
15/10/2008, 15:39
Se que ambas tarjetas no son comparables pero son el tope de la gama de cada casa. Cada una con sus pros y sus contras. Además, yo ya tengo una ATI HD 4850 y se mas que de sobra lo que esta tarjeta me ha estado dando hasta ahora, así que me puedo imaginar una HD 4870 y una 4870 X2.
Nos ahorras una discusion sobre su rendimiento. :D
Para muestra un boton, ese monstruo esta en otra categoria:
http://en.hardspell.com/doc/showcont.asp?news_id=4221&pageid=3430
Pero tiene sus problemas:
http://www.guru3d.com/article/brothers-in-arms--hells-highway-vga-performance-review/5

super_pi
15/10/2008, 15:49
yo lo repito y repetire sempre tiempo al tiempo con las X2 tanto la 4870x2 o futuras x2 de ATI o las futuras x2 de envidia...como dijo alguien por aqui son el futuro no el presente pero esque en este mundo no hay futuro ni presente por que no hay tiempo pa darse cuenta como cambian las cosas....

Pepillo
15/10/2008, 16:01
La nVIDIA no me acaba de convencer y esa DDR3..... si montaría una memoria mejor pues igual me la pillaría pero no me convence.


Solo un comentario, porque he visto que has puesto esto dos veces ya, y se ve que desconoces ese tema. Sí, es GDDR3, pero a 512 bits de bus, el doble de bus que las GDDR5 de las Ati. Son dos maneras diferentes de afrontar el ancho de banda de memoria necesario en estas tarjetas, y como tales, cada una tiene sus ventajas e inconvenientes. A nvidia se le ha criticado el bus de memoria de 512 bits, no por su rendimiento, sino por su complejidad que encarece su precio.

En cuanto al tema del post, no vas a conseguir unanimidad. La decisión solo puede ser tuya, por mucho que pongan los que prefieren una u otra marca, cada una tiene sus ventajas.

Saludos

wilhelm
15/10/2008, 16:02
yo lo repito y repetire sempre tiempo al tiempo con las X2 tanto la 4870x2 o futuras x2 de ATI o las futuras x2 de envidia...como dijo alguien por aqui son el futuro no el presente pero esque en este mundo no hay futuro ni presente por que no hay tiempo pa darse cuenta como cambian las cosas....

Repite, repite... la única realidad es que la tecnología de las gráficas duales hasta la fecha lleva casi cuatro años sin evolucionar. El sistema (CF/SLI) no ha evolucionado nada en tres años (o casi, quitando algunos detalles de CF a tres y el tri-sli de Nvidia).

En este mundo en el que todo cambia cada seis meses, eso es lo mismo que hablar de tecnología estancada.

Saludos.

Farinorco
15/10/2008, 16:33
Voy a hacer un pequeño paréntesis para comentar mi punto de vista sobre las gráficas de múltiples GPUs:

En realidad, mi opinión es que el objetivo ideal, desde el punto de vista de la escalabilidad, elegancia, funcionalidad, en resumen, la situación óptima, de 2+ GPUs, es alcanzar una cooperación entre ambos de forma que trabajen como una única unidad lógica y compartan sus recursos.

A diferencia de una CPU, las GPUs son colecciones de cientos (hoy en día) de unidades de procesamiento simples, especializadas y pequeñas (shader processors o cores o como se las quiera llamar (unidades aritmético-lógicas -ALUs- a fin de cuentas), unidades de texturización (TUs), procesadores de operaciones de rasterizado (ROPs), etc). Es como si fueran cientos de microprocesadores trabajando en paralelo. Es como si, no. Lo son.

Así que, teóricamente, lo que sería el multi-GPU ideal, sería poder juntar varios GPUs y que, por decirlo de alguna forma, sumen sus procesadores, los acumulen, y trabajen como si fueran un único conjunto.

Por supuesto, esto sería equivalente a tener un chip de la misma arquitectura del doble de tamaño y unidades de procesamiento, y eso se hace ya así. Las arquitecturas gráficas se diseñan de forma modular, por clusters (agrupaciones de varias unidades de procesamiento), y luego los chips de cada gama son básicamente lo mismo pero con más o menos clusters de estos. Lo que ocurre es que cada chip debe ser fabricado con los clusters que sean, y así, terminan siendo piezas diferentes a nivel de fabricación.

Así que en realidad, la ventaja de usar múltiples chips gráficos más pequeños en una tarjeta en condiciones óptimas, es más una ventaja a nivel de desarrollo y producción (ahorro de costes de I+D, unificación de la producción y el stock de chips, incremento drástico del porcentaje de unidades no defectuosas, etc) que algo con un efecto evidente de cara al usuario como es el caso de los múltiples núcleos de CPU (que proporcionan a la CPU una capacidad que de forma innata no tiene, que es procesar varios hilos de programa en paralelo).

Cuando digo que en mi opinión esto es el futuro, es simplemente porque CREO (pero no sé seguro) que esto sería beneficioso de cara a simplificar, abaratar y flexibilizar la producción de chips gráficos, lo que redundaría en una mejor relación coste de producción : rendimiento/especificaciones, lo cuál sería beneficioso para todos (empresas y clientes).

Cualquier otra posibilidad de hacer multi-GPU, es menos óptima o eficiente que esta en alguno o todos los aspectos, dada la arquitectura de las GPUs (como el que cada una funcione de forma independiente renderizando frames diferentes que es lo que se hace ahora).

Dicho esto, se lleva hablando de que ATi/AMD anda detrás de esto no sé cuanto tiempo ya. Cuando salieron las HD2000, ya se hablaba de que se estaban probando chips con esa arquitectura. Se dijo antes de la salida del RV770 que estos lo harían así. Ahora se comenta lo mismo del RV870. En fin, aunque la reducción rumoreada del chip RV870 a sólo 140mm2 (la mitad que el RV770) es sospechosa, me temo que esto queda un poco más lejos todavía....

Ale, espero no haberos aburrido mucho con mis divagaciones extrañas y piradas de pinza, me aburría y me apetecía escribir un rato y como había salido el tema... XDDDD Espero que a alguien le resulte por lo menos entretenido. XD

SOENICK
15/10/2008, 17:35
Solo un comentario, porque he visto que has puesto esto dos veces ya, y se ve que desconoces ese tema. Sí, es GDDR3, pero a 512 bits de bus, el doble de bus que las GDDR5 de las Ati. Son dos maneras diferentes de afrontar el ancho de banda de memoria necesario en estas tarjetas, y como tales, cada una tiene sus ventajas e inconvenientes. A nvidia se le ha criticado el bus de memoria de 512 bits, no por su rendimiento, sino por su complejidad que encarece su precio.

En cuanto al tema del post, no vas a conseguir unanimidad. La decisión solo puede ser tuya, por mucho que pongan los que prefieren una u otra marca, cada una tiene sus ventajas.

Saludos

Gracias por tu ayuda.

Pues si lo tenía algo mas claro en favor de comprar la ATI HD 4870 X2.... ahora vuelvo a dudar y otra vez no me decido entre esta y una como la tuya.
En fin, conociendome, cualquier día de estos me dará la vena y compraré una. Ahora mismo sigo con las dudas, incluso más.
Si hubiese un cambio de precios quizá me costaría menos decidirme.

Brego
15/10/2008, 17:48
A mi la verdad es que aparte de que me guste la electrónica, no me interesan para nada los specs de una gráfica u otra a la hora de comprarla, lo que me interesan son los benchmarks y sus precios, que tenga memoria GDDR8 o 2 me da absolutamente igual, al igual que tengan 1 o dos GPU's. Lo que busco es que me de el resultado que yo espero y punto.

Lo digo porque mucha gente argumenta que si esta tiene GDDR5 o la otra tiene 512bits de bus, y qué? Si lo que importa son los resultados; la memoria, el número de GPU's, los clocks, que se preocupen de ello los ingenieros de ATi y nVidia que yo ya veré el resultado que dan y tomaré una decisión.

Jexux
15/10/2008, 18:33
gtx280, totalmente regular y estable con todo y para tu monitor, mas que sobrada.

perico19
15/10/2008, 18:46
Yo también esperaba a las GTX290 y GTX270.

LuT_FeN
15/10/2008, 19:14
Una GTX 260 creo que es lo mejor hoy dia.
Hasta la fecha los GX2/X2 son una autentica chapuza para jugar y muy buenos para benchs.Mi opiñon.salu2

Brego
15/10/2008, 20:53
Una GTX 260 creo que es lo mejor hoy dia.
Hasta la fecha los GX2/X2 son una autentica chapuza para jugar y muy buenos para benchs.Mi opiñon.salu2

Te vuelvo a repetir lo que te dije en otro hilo, que pusiste exactamente lo mismo, qué es lo que hacemos los que tenemos una x2? Parrilladas de cordero?

Porque los números hablan, y en este mismo momento la mejor gráfica del momento es una x2, puede ser una chapuza o lo que tú quieras(cosa que discuto) pero para jugar, ahora mismo la mejor gráfica es una X2.

grifers
15/10/2008, 21:40
Te vuelvo a repetir lo que te dije en otro hilo, que pusiste exactamente lo mismo, qué es lo que hacemos los que tenemos una x2? Parrilladas de cordero?

Porque los números hablan, y en este mismo momento la mejor gráfica del momento es una x2, puede ser una chapuza o lo que tú quieras(cosa que discuto) pero para jugar, ahora mismo la mejor gráfica es una X2.


No te calientes amigo, es el "Cliché" de moda, X2 = Basura inservible con microshuttering cronicus...SLI's, Crossfire's & company jajaja, es como si Bush abre un "Mcdonalds" en Bagdad y luego vas preguntando a los habitantes de allí que les parece jajaja, aqui es lo mismo pero con los Crossfire's & Company....Yo ya no digo nada, yo se lo que rinde este tipo de configuraciones (por que tengo una jajaja), y te aseguro que más de uno se llevaría una sorpresa muuuuuu gorda viendo como dejo a la altura del betún (en cuanto a rendimiento) a esas gráficas tan sobrevaloradisimas y tan "La super-repanocha" XDD....Por eso te digo que no te calientes, cada uno tiene su opinión y hay que respetarla...Un saludo!!


En cuanto a SOENICK (el autor del hilo), te diría que te comprases lo que mas te saliese del pijo o la que más te gustase, al fin y al cabo el que las vas a pagar vas a ser tú jejeje, y el que la va a disfrutar también XD...Ademas eres un usuario con un alto nivel de conocimiento sobre tarjetas graficas, tu sabrás perfectamente que es lo que más te conviene..Un saludo amigo!!

Farinorco
15/10/2008, 21:58
Te vuelvo a repetir lo que te dije en otro hilo, que pusiste exactamente lo mismo, qué es lo que hacemos los que tenemos una x2? Parrilladas de cordero?

Porque los números hablan, y en este mismo momento la mejor gráfica del momento es una x2, puede ser una chapuza o lo que tú quieras(cosa que discuto) pero para jugar, ahora mismo la mejor gráfica es una X2.

Los números hablan, pero no lo cuentan todo.

Se ha explicado ya muchas veces, pero bueno... el método actual con el que se reparten los frames cuando el trabajo lo hace más de una GPU, hace que la salida de estos se produzca a tirones, es decir, con más proximidad dos a dos que entre parejas. Esto no ocurre siempre en la misma medida, depende mucho de otros factores, como la relación del tiempo de proceso de cada frame en CPU y en GPU, pero tiene un efecto nada agradable, que consiste en que muchos de los frames que se renderizan, aunque es cierto que se renderizan, no aportan gran cosa ya que son demasiado seguidos, están demasiado pegados, con poco cambio de uno a otro y separados por un tiempo minúsculo.

El caso extremo de esto es sacar 2 frames prácticamente continuados, de forma que duplicas el framerate (pongamos 60 en vez de 30) pero no la visualización, que se sigue viendo igual que si fuera a 30.

En un caso menos extremo, este efecto se reduce, pero se puede dar la percepción de ir a micro-tirones debido a la irregularidad de la salida (de ahí el nombre de micro-stuttering, que significa exactamente eso).

De ahí que se diga que estas soluciones, si bien son óptimas para benching (los números pueden hasta duplicarse, y eso es lo que va a medir un programa de bench o un test de una review), no lo son en la misma medida para uso real, ya que para esto lo que cuenta es lo que se ve, no lo que se mide, y estos frames extra no aportan lo mismo que si fueran obtenidos en una sola GPU con una salida más regular.

Los números no mienten, pero nunca cuentan toda la verdad. Hay que saber interpretarlos, y saber qué dicen, y que NO dicen.

txemote83
15/10/2008, 22:00
Hombre las x2 y gx2 chapuzas no son, eso esta claro, aun asi no son ni mucho menos la panacea que venden ATI y Nvidia. En lo que si tiene bastante razon LuT_FeN es en lo de que las 2x nucleo rinden o suelen rendir bastante mas en test sinteticos que en juegos reales.


1saludo.

zancochete
15/10/2008, 22:29
Pero vamos a ver soenick, tu eres ya viejo lobo de mar, y sabes los pros y los contras de cada una, y sabes que a dia de hoy, el decantarse por una o por otra es mas una cuestión de gustos personales que no técnica, entre otras cosas porque se intentan comparar 2 productos que no tienen comparación (algunos dirán que al estar en el mismo rango de precio sí son comparables, pero eso es una visión reducida de la situacion, que es mas compleja que "valen casi lo mismo las 2").

A tí, interiormente, cual te tira mas? Sospecho que la X2...pues palante, no creo que te arrepientas.

Hola.+1. A mi se me metio en la cabeza la 4870X2 y aqui conmigo la tengo.Y aunque es un graficon no dejo de pensar que me podria haber ahorrado las perras y seguir dos o tres meses mas con la 8800gt.Pero en mi caso me urgia gastarmelas ya.

by_ACD
15/10/2008, 22:54
yo personalmente preferiria la gtx280 por no ser dual y por consumir mucho menos, pero la 4870x2 es bastante mas potente que la gtx280 salvo algun que otro juego.

saludos

kpablo
15/10/2008, 23:01
A precio que estan las GTX280 y lo que cuestan loas 4870x2, al menos aca por USA... que hay casi 100 dolares de diferencia... pues yo elegiria una GTX280.

Te ofrecera estabilidad, poder jugar a la mayoria de los juegos con todo activado y a alta resolucion con frames estables y menos dolor de cabeza que un sistema de dual gpu que algunos juegos no los aprovecha.

La diferencia de rendimiento no es taaaaanta...

Ragna_Rok
16/10/2008, 00:02
Depende mucho del micro que tengas también, pero para tu resolución, SOENICK, una GTX280 te sobraría. Yo al final me terminé comprand una GTX cansado de esperar refritos y por no fiarme de las x2. Y estoy muy contento, con el equipo d la firma con los 178.13 en DX9 VH 4xAA y solo 2gb d ram en Crysis me tira a uns 39fps, con framerate 25-55 aproximadamente. Sin AA se dispara hasta los 50 y framerate d 35-65. Para que mas? Un saludo

LuT_FeN
16/10/2008, 00:07
Te vuelvo a repetir lo que te dije en otro hilo, que pusiste exactamente lo mismo, qué es lo que hacemos los que tenemos una x2? Parrilladas de cordero?

Porque los números hablan, y en este mismo momento la mejor gráfica del momento es una x2, puede ser una chapuza o lo que tú quieras(cosa que discuto) pero para jugar, ahora mismo la mejor gráfica es una X2.


No te calientes amigo, es el "Cliché" de moda, X2 = Basura inservible con microshuttering cronicus...SLI's, Crossfire's & company jajaja, es como si Bush abre un "Mcdonalds" en Bagdad y luego vas preguntando a los habitantes de allí que les parece jajaja, aqui es lo mismo pero con los Crossfire's & Company....Yo ya no digo nada, yo se lo que rinde este tipo de configuraciones (por que tengo una jajaja), y te aseguro que más de uno se llevaría una sorpresa muuuuuu gorda viendo como dejo a la altura del betún (en cuanto a rendimiento) a esas gráficas tan sobrevaloradisimas y tan "La super-repanocha" XDD....Por eso te digo que no te calientes, cada uno tiene su opinión y hay que respetarla...Un saludo!!


He dicho para JUGAR.muy claro.

He tenido 3 GX2 y un Quad SLI asi que se muy bien la potencia de una GX/X2.

Hasta que no sale una GPU de doble nucleo para jugar lo mejor es una mono GPU.
Y porcierto creo que ninguno de los dos juega 1000-1500 horas al año con una X2.Estoy seguro.

salu2

cdrx80
16/10/2008, 00:42
Te agradezco tu buena aportación, de veras.

Sí que me voy a pillar la ATI HD 4870 X2. La nVIDIA no me acaba de convencer y esa DDR3..... si montaría una memoria mejor pues igual me la pillaría pero no me convence.
Con la ATI HD 4870 X2 me gastaré un poco mas de dinero pero también tengo la sensación de llevarme una tarjeta con mas, ( doble GPU, mejor memoria y mas rápida ).

Se que ambas tarjetas no son comparables pero son el tope de la gama de cada casa. Cada una con sus pros y sus contras. Además, yo ya tengo una ATI HD 4850 y se mas que de sobra lo que esta tarjeta me ha estado dando hasta ahora, así que me puedo imaginar una HD 4870 y una 4870 X2.


Pues a disfrutarla compañero ;-)

Bienvenido al club!

Polyhead
16/10/2008, 06:23
Los números hablan, pero no lo cuentan todo.

Se ha explicado ya muchas veces, pero...

Bueno, tu tampoco lo estas contando todo y esto es, el problema del micro-stuttering son pocas personas las que lo sufren (cada vez menos conforme los controladores van madurando) la X2 está prácticamente libre del problema.

wilhelm
16/10/2008, 07:45
Bueno, tu tampoco lo estas contando todo y esto es, el problema del micro-stuttering son pocas personas las que lo sufren (cada vez menos conforme los controladores van madurando) la X2 está prácticamente libre del problema.

Esto no es cierto. La X2 no está en absoluto libre del problema. Moléstate en hacer una búsqueda mínima y hallarás hasta gráficas de la 4870X2 que muestran objetivamente el problema.

Varios foreros por aquí pueden atestiguarlo.

Ocurre que ANTES de salir la gráfica, hubo rumores no confirmados en el sentido de que no había MS en estas duales. Enseguida se comprobó que eran falsos.

Saludos.

Polyhead
16/10/2008, 08:03
Esto no es cierto. La X2 no está en absoluto libre del problema. Moléstate en hacer una búsqueda mínima y hallarás hasta gráficas de la 4870X2 que muestran objetivamente el problema.

Varios foreros por aquí pueden atestiguarlo.

Ocurre que ANTES de salir la gráfica, hubo rumores no confirmados en el sentido de que no había MS en estas duales. Enseguida se comprobó que eran falsos.

Saludos.

Que pena que un par de usarios aquí tengan algún problema relacionado, la realidad es que la mayoría de usuarios que he visto con la X2 no sufren problemas de microstutering.

zancochete
16/10/2008, 08:17
Que pena que un par de usarios aquí tengan algún problema relacionado, la realidad es que la mayoría de usuarios que he visto con la X2 no sufren problemas de microstutering.

Hola.+1 No sufro problemas de hem...uhhhh perdon de micro-stuttering .Si el micro-stuttering ese es lo mismo que vi en videos eso con la mia no pasa.

wilhelm
16/10/2008, 08:17
Que pena que un par de usarios aquí tengan algún problema relacionado, la realidad es que la mayoría de usuarios que he visto con la X2 no sufren problemas de microstutering.

Esto sí es no decir toda la verdad. No se trata de un problema particular de un par de usuarios. Se trata de algo comprobado. En Guru3d hay una clara descripción del problema.

Algunos usuarios lo notan más que otros. En algunos juegos se nota más que en otros. Pero pretender que es algo que no existe salvo para un par de usuarios, es simplemente desinformar. Sobre todo si estamos intentando aconsejar a un posible comprador.

La X2, al igual que las anteriores X2 y GX2 y que todos los CF y SLI,s del mundo, adolece de este problema (junto con otros, como el calor, el consumo, los drivers para todos los juegos, etc.)

Yo he tenido un sistema dual y tengo tanta legitimidad como cualquiera para opinar al respecto. Pero es que además, en la web viene perfectamente descrito el problema.

Saludos.

Polyhead
16/10/2008, 09:12
Esto sí es no decir toda la verdad. No se trata de un problema particular de un par de usuarios. Se trata de algo comprobado. En Guru3d hay una clara descripción del problema.

Algunos usuarios lo notan más que otros. En algunos juegos se nota más que en otros. Pero pretender que es algo que no existe salvo para un par de usuarios, es simplemente desinformar. Sobre todo si estamos intentando aconsejar a un posible comprador.

La X2, al igual que las anteriores X2 y GX2 y que todos los CF y SLI,s del mundo, adolece de este problema (junto con otros, como el calor, el consumo, los drivers para todos los juegos, etc.)

Yo he tenido un sistema dual y tengo tanta legitimidad como cualquiera para opinar al respecto. Pero es que además, en la web viene perfectamente descrito el problema.

Saludos.

Precisamente porque estamos intentando aconsejar no podemos atenernos solo a una fracción de la información, la realidad es que hay bastantita gente ahí afuera afirmando que su sli/cf/X2 le vá prácticamente perfecto y/o sin microstuttering. De ejemplo tenemos a uno de los editores de hardocp (sitio patrocinado por BFG y Galaxy) hoy por hoy su opción recomendada es un CF de HD4850 (obviamente basado en los precios de Norteamérica)

Pd.- Y ojo, que no pretendo venderle "la verdad" a nadie, es solo mi punto de vista y experiencia.

DCO
16/10/2008, 10:45
Hay una cuestion con el microstuttering, que la mayoria de la gente no lo ve y es muy dificil de verlo, al fin y al cabo las diferencias son muy pequeñas del orden de unos pocos milisegundos y los frames tampoco son ctes en ningun juego se trate de una tarjeta mono o dual. Por no hablar que se trabaja en los drivers, que puede llegar a darse en una monogpu tambien,etc.

teimaginas
16/10/2008, 10:52
yo no se como se le da tantas vueltas al asunto:

1-cual es la grafica mas potente hoy en dia?
la 4870x2 sin duda.

que importa que sea dual core o una chapuza.....

a las malas,dará el rendimiento de una 4870 con 1gb de memoria(si solo se utiliza un core) ,y eso suele ocurrir con juegos muy antiguos,que con un solo core tira de sobra....
Y si es con nuevos,pues ati ya sacará parches.

Un saludete

DCO
16/10/2008, 10:54
Gracias por tu ayuda.

Pues si lo tenía algo mas claro en favor de comprar la ATI HD 4870 X2.... ahora vuelvo a dudar y otra vez no me decido entre esta y una como la tuya.
En fin, conociendome, cualquier día de estos me dará la vena y compraré una. Ahora mismo sigo con las dudas, incluso más.
Si hubiese un cambio de precios quizá me costaría menos decidirme.
A cara o cruz. :D
Bueno, si el rendimiento de la gtx260 y la 4870 no te convencen yo pasaria directamente a la 4870x2. A parte de andar bastante cercanas a la gtx280 ya hay unos cuantos juegos donde la 4870 rinde mas que la gtx280 y mas que habra en un futuro ahora que ATI se esta poniendo las pilas.

txemote83
16/10/2008, 11:06
yo no se como se le da tantas vueltas al asunto:

1-cual es la grafica mas potente hoy en dia?
la 4870x2 sin duda.

que importa que sea dual core o una chapuza.. ...

a las malas,dará el rendimiento de una 4870 con 1gb de memoria(si solo se utiliza un core) ,y eso suele ocurrir con juegos muy antiguos,que con un solo core tira de sobra....
Y si es con nuevos,pues ati ya sacará parches.

Un saludete

Hombre la cosa tampoco es asi, un tractor es mucho mas potente en CV que por ejemplo un Mercedes SLK sinembargo a la hora de conducir por la calzada la potencia del tractor es inutil.

Eso de cavallo grande ande o no ande lo veo demasiado simple a la hora de basarse en una eleccion.

1saludo.

teimaginas
16/10/2008, 11:09
Hombre la cosa tampoco es asi, un tractor es mucho mas potente en CV que por ejemplo un Mercedes SLK sinembargo a la hora de conducir por la calzada la potencia del tractor es inutil.

Eso de cavallo grande ande o no ande lo veo demasiado simple a la hora de basarse en una eleccion.

1saludo.
Buenas paisano.
pues tu ejemplo como que no le veo sentido a lo que estamos tratando :staun:
cual es la que mas fps da?
la 4870x2.

es asi de simple :birthday:(o al menos lo veo yo asi).

Mas simple lo pongo,yo para comprarme una 280 ,prefiero una 260 o 4870.
y si quiero lo maximo ,iria a por la 4870x2
Un saludete
Pd: estoy diciendo ahora mismo.otra cosa es sino me urge,me esperaria a la salida de las nuevas nvidia.

txemote83
16/10/2008, 11:14
Buenas paisano.
pues tu ejemplo como que no le veo sentido a lo que estamos tratando :staun:
cual es la que mas fps da?
la 4870x2.

es asi de simple :birthday:(o al menos lo veo yo asi).

Mas simple lo pongo,yo para comprarme una 280 ,prefiero una 260 o 4870.
y si quiero lo maximo ,iria a por la 4870x2
Un saludete
Pd: estoy diciendo ahora mismo.otra cosa es sino me urge,me esperaria a la salida de las nuevas nvidia.

Estoy de acuerdo en todo lo que dices pero tambien entenderas que aunque la HD4870x2 sea la grafica mas potente y la que mas FPS da tiene puntos en contra al ser doble GPU que producen que no sea tan facil la eleccion en cuanto mas FPS mejor.


1saludo paisanohttp://foro.noticias3d.com/vbulletin/images/icons/icon12.gif .

teimaginas
16/10/2008, 11:21
Estoy de acuerdo en todo lo que dices pero tambien entenderas que aunque la HD4870x2 sea la grafica mas potente y la que mas FPS da tiene puntos en contra al ser doble GPU que producen que no sea tan facil la eleccion en cuanto mas FPS mejor.


1saludo paisanohttp://foro.noticias3d.com/vbulletin/images/icons/icon12.gif .

yo es que no le veo problemas a la 4870x2.
1-temperatura?
de siempre las graficas de gama alta pillan facilmente los 100º , si lo aguantan,pues ya esta.
2- ruido?
yo cuando juego(al menos yo) , el sonido del propio juego es lo unico que escucho.
3- solo utiliza una gpu en algun juego determinado?
pues a las malas , tienes una 4870 1gb.
4- lo de la imgen esa entrecortada(q no se como se escribe)
mucha gente dice que no lo aprecia.
5-cara?
pues 400e teniendo 2 gpu, 2gb 5gddr ,siendo la "mejor"
nadie se acuerda de la 8800 ultra que costaba 700 euretes.....


Un saludete

SOENICK
16/10/2008, 11:24
Ahahahaha, es verdad, la nVIDIA 8800 Ultra esa. Menuda parrilla, y 700 €uros que costaba. Me temo que a poca gente engañan ya, por eso las han bajado de precio. No pago yo ni 700 ni 600 €uros por una gráfica, ni tan siquiera 500.

5horizons
16/10/2008, 11:26
El handicap de las duales son siempre los mínimos. Y ahí la 280 es la mejor. Cuanto mejores sean los mínimos máyor sensación de fluidez general.

DCO
16/10/2008, 11:29
El handicap de las duales son siempre los mínimos. Y ahí la 280 es la mejor. Cuanto mejores sean los mínimos máyor sensación de fluidez general.
Lo cual es falso, en algunos juegos tendra mejores minimos, y en otros no, y no tiene nada que ver con la sensacion de fluidez, lo que tendria que ver es cuantas veces baja a los minimos, si estan por encima de un determinado nivel ,etc.

txemote83
16/10/2008, 11:30
yo es que no le veo problemas a la 4870x2.
1-temperatura?
de siempre las graficas de gama alta pillan facilmente los 100º , si lo aguantan,pues ya esta.
2- ruido?
yo cuando juego(al menos yo) , el sonido del propio juego es lo unico que escucho.
3- solo utiliza una gpu en algun juego determinado?
pues a las malas , tienes una 4870 1gb.
4- lo de la imgen esa entrecortada(q no se como se escribe)
mucha gente dice que no lo aprecia.
5-cara?
pues 400e teniendo 2 gpu, 2gb 5gddr ,siendo la "mejor"
nadie se acuerda de la 8800 ultra que costaba 700 euretes.....


Un saludete

A ver, me parece que te estas confundiendo, yo no digo que la HD4870x2 sea mala eleccion, de hecho yo en ese sentido no opino porque tendria las mismas dudas que el autor del hilo. Lo unico que te he dicho es que en esta vida no es todo tan facil como el famoso dicho "cavallo grande ande o no ande", hay que sopesar numerosas cosas y mas aun cuando se va a hacer un desmbolso de dinero grande, tal como es el costo de una GTX280 o HD4870x2.

1saludo.

teimaginas
16/10/2008, 11:31
El handicap de las duales son siempre los mínimos. Y ahí la 280 es la mejor. Cuanto mejores sean los mínimos máyor sensación de fluidez general.
eso sera cuando solo utiliza un core.



Lo cual es falso, en algunos juegos tendra mejores minimos, y en otros no.
exacto

Un saludete

teimaginas
16/10/2008, 11:35
hay que sopesar nuemrosas cosas y mas aun haciendo un desmbolso tal como es el costo de una GTX280 o HD4870x2.

1saludo.
Pero si ya estoy sopesando las cosas(en los 5 puntos)
Es decir:
1- ahora mismo
entre una 4870x2 y una 280 : me quedo sin duda la 4870x2.
entre una 280 y una 260/4870 : me quedo con la 260/4870 (incluso por solidaridad con los foreros que pillaron la 280 cuando salio por 550 euretes :birthday: ,y nvidia "les" tomo el pelo....

2- si no me urge:

no me pillo la 4870x2 ,y me espero a la salida de la nueva hornada de graficas (nvidia o ati)


Un saludete

Farinorco
16/10/2008, 12:25
Bueno, tu tampoco lo estas contando todo y esto es, el problema del micro-stuttering son pocas personas las que lo sufren (cada vez menos conforme los controladores van madurando) la X2 está prácticamente libre del problema.


Que pena que un par de usarios aquí tengan algún problema relacionado, la realidad es que la mayoría de usuarios que he visto con la X2 no sufren problemas de microstutering.


Precisamente porque estamos intentando aconsejar no podemos atenernos solo a una fracción de la información, la realidad es que hay bastantita gente ahí afuera afirmando que su sli/cf/X2 le vá prácticamente perfecto y/o sin microstuttering. De ejemplo tenemos a uno de los editores de hardocp (sitio patrocinado por BFG y Galaxy) hoy por hoy su opción recomendada es un CF de HD4850 (obviamente basado en los precios de Norteamérica)

Pd.- Y ojo, que no pretendo venderle "la verdad" a nadie, es solo mi punto de vista y experiencia.

Estupendo. Pues nada. Yo he dejado dicha esa mitad de la verdad, con explicación de por qué ocurre, cómo y qué se debe buscar. Lo que me gustaría es desmentir la otra mitad de la verdad, porque no es verdad:

Los micro-tirones puedo entender que haya gente que no los perciba. No entiendo, eso sí, como puede haber gente que no perciba la otra parte del efecto, que es que parte de los frames producidos (que se contabilizan para el framerate) no ayuden a una presentación más fluida de la animación.

Lo que puedo hacerme a la idea es que haya gente que no sepa cómo funciona el AFR, un juego, el bucle de renderización, y demás, y que además no haya comparado con otras tarjetas de potencia cercana pero una única GPU, y por unas cosas y otras, crea que es inmune a la forma de renderizar de las tarjetas duales...

Lo que te puedo asegurar 100% que es rotundamente falso, es que la HD4870 X2 tenga nada que evite o suavice el efecto del Alternate Frame Rendering en comparación con cualquier otra solución dual. Es exactamente lo mismo que las demás. Estás muy desactualizado, porque sigues tirando de un rumor de bastante antes de que saliese la tarjeta, que decía que tendrían una conexión rara entre las dos GPUs, que estarían unidas directamente entre sí, compartirían la memoria, y demás. Cuando se vieron las primeras fotos ya nos dimos cuenta la mayoría de que no era más que un CrossFire de HD4870 en una PCB, otra vez ;)

Farinorco
16/10/2008, 12:45
El handicap de las duales son siempre los mínimos. Y ahí la 280 es la mejor. Cuanto mejores sean los mínimos máyor sensación de fluidez general.

Nop. Las duales no tienen por qué tener mínimos más bajos que su equivalente de una única GPU, de hecho siempre serán mayores, en mayor o menor medida (aunque es cierto que deberían aumentar mucho menos que el framerate medio, y los máximos aumentar muchísimo, según claro está cómo se midan unos y otros).

El dato ese de framerate mínimo me parece cada vez más peligroso y desinformante, principalmente porque la gente no sabe interpretarlo (y cuando digo la gente, digo en primer lugar los reviewers). Es un dato que por sí mismo no dice nada concluyente, y es inviable compararlo de unas tarjetas a otras, porque tal comparación NO aporta información ninguna.

El problema de las duales, como ya expliqué antes, es que debido al AFR, sacan los frames por parejitas, muy continuados dos a dos. Pegados. Si tu ves frame->1ms->frame->30ms->frame->1ms->frame->30ms->frame->1ms->frame se cuentan 6 frames renderizados (porque es que se han renderizado 6) pero lo que percibes es poco más o menos lo mismo que si hubieran sido sólo 3, y quitas los frames que aparecen sólo 1ms después, que son precisamente los que te está aportando la 2ª tarjeta. Por supuesto, esto es un caso bastante extremo (que se dan, ¿eh?, esto sería el caso de un juego con una carga de CPU muy muy pequeña comparada con la carga de la GPU).

No es nada que tenga que ver con los framerates mínimos en sí, que dicho sea de paso, insisto, aportan menos información de la que la gente quiere ver. No sirven, por ejemplo, para evaluar cómo de estable o constante es el framerate de una tarjeta, y es para lo que lo usa la gente. Para eso ayudaría más conocer la media y la desviación típica, o incluso más, una gráfica con los tiempos de salida de cada frame. Sólo sirve para saber que la tarjeta no baja de ahí, con lo cuál puede darte la garantía de que no va a dar tirones que se noten mucho si ese framerate mínimo es alto. Que no lo sea, no implica que la tarjeta no sea aún más estable que la anterior. Esa es la parte que normalmente se pasa por alto...

Polyhead
17/10/2008, 02:12
Estupendo. Pues nada. Yo he dejado dicha esa mitad de la verdad, con explicación de por qué ocurre, cómo y qué se debe buscar. Lo que me gustaría es desmentir la otra mitad de la verdad, porque no es verdad:

Los micro-tirones puedo entender que haya gente que no los perciba. No entiendo, eso sí, como puede haber gente que no perciba la otra parte del efecto, que es que parte de los frames producidos (que se contabilizan para el framerate) no ayuden a una presentación más fluida de la animación.

Lo que puedo hacerme a la idea es que haya gente que no sepa cómo funciona el AFR, un juego, el bucle de renderización, y demás, y que además no haya comparado con otras tarjetas de potencia cercana pero una única GPU, y por unas cosas y otras, crea que es inmune a la forma de renderizar de las tarjetas duales...

Lo que te puedo asegurar 100% que es rotundamente falso, es que la HD4870 X2 tenga nada que evite o suavice el efecto del Alternate Frame Rendering en comparación con cualquier otra solución dual. Es exactamente lo mismo que las demás. Estás muy desactualizado, porque sigues tirando de un rumor de bastante antes de que saliese la tarjeta, que decía que tendrían una conexión rara entre las dos GPUs, que estarían unidas directamente entre sí, compartirían la memoria, y demás. Cuando se vieron las primeras fotos ya nos dimos cuenta la mayoría de que no era más que un CrossFire de HD4870 en una PCB, otra vez ;)

No necesita tener algo "especial" para mantener intervalos idénticos entre los frames (creo que nadie ha sugerido tal cosa en este tema, no hay necesidad de desmentir a nadie :alien2:), solo necesita mantener la disparidad dentro de cierto rango para no afectar la fluidez, y es precisamente eso lo que ati ha logrado, tanto en la X2 como en el CF. En resumen, con una solución dual estas expuesto a sufrir/notar micro-stuttering; pero viendo los últimos reportes de los usuarios, el micro-stuttering es ya más la excepción que la regla, no al revés como te empeñas en hacerlo ver.


l problema de las duales, como ya expliqué antes, es que debido al AFR, sacan los frames por parejitas, muy continuados dos a dos. Pegados. Si tu ves frame->1ms->frame->30ms->frame->1ms->frame->30ms->frame->1ms->frame se cuentan 6 frames renderizados (porque es que se han renderizado 6) pero lo que percibes es poco más o menos lo mismo que si hubieran sido sólo 3, y quitas los frames que aparecen sólo 1ms después, que son precisamente los que te está aportando la 2ª tarjeta. Por supuesto, esto es un caso bastante extremo (que se dan, ¿eh?, esto sería el caso de un juego con una carga de CPU muy muy pequeña comparada con la carga de la GPU).


Dices que los números no cuentan toda la verdad pero bien recurres a ellos cuando conviene a tu argumento :wazzup_s:

kpablo
17/10/2008, 07:03
Yo tengo Crossfire y no note el efecto Microstuttering... eso si... el dolor de cabeza que tuve para hacerla funcionar 100% bien... solo con una ultima BIOS de Sapphire se soluciono todos los problemas que tenia... >.>

Ahora vendi ambas HD4870... y estoy mas que convencido que nunca mas voy a tratar una solucion Dual GPU... hasta que en serio valga la pena...