Primeros Benchies de la x800 XT

TaMy

Bueno se han filtrado los Benmarch de la x800 xt que mañana sacará Tom's Hardware.

La verdad me esperaba más pero weno. Es lo que hay una tarjeta excelente a mi gusto mejor que la 6800 Ultra excepto en OpenGL (me suena esto) xD vamos por un estilo entre la 9800 xt y la 5950 Ultra.

Weno os dejo el link con todos los links ok? XD

http://www.computerbase.de/forum/showthread.php?p=646488#post646488

Amkam

la batalla esta mas a la par que nunca, esperemos que las diferencias no se cambien a traves de las manidas "optimizaciones".

Eso si, parece que el AA y los filtros estan mejor hechos en ati. Supongo que todo esto sera consecuencia del mayor reloj de estas.

Por una vez, bravo por las dos.

Edit: Hay que destacar en la comparativa de meri, como sin aplicar filtrados las tarjetas se llevan como maximo 10 puntos de diferencia en el 3DMark03

fer69

Bueno pues yo pensaba que iba a ser algo mas.Tambien es verdad que la cosa esta aun muy verde en cuestion de optimizacion y drivers.

Creo sin temor a equvocarme que a las nvidia 59xx y a las 9800 les queda bastante vidilla aun.

Por cierto , y mirando los costes empresariales , a Nvidia la 6800 le tiene que salir por un pico , con ese pedazo disipador(con liquido??¿¿) e incluso por su mayor tamaño de pcb.

Tiene que ser algo frustrante que se invierta tanto para dar la campanada y ver como el competidor sin esforzarse mucho(por lo menos en lo referente a costes las 9800 y las x800 deben compartir muchos costes de fabricacion porque son clavadas) te iguala y depende de dnd miremos te supera.

No olvidemos que los precios tiene que ser parecidos , y la 6800 tiene pinta de ser mucho mas cara...

TrAsGu

Me sorprende mucho la temperatura de la 6800, si es que con ese sistema de refrigeración normal que esté tan baja.
Yo personalmente le veo muchisima más capacidad de overclock a la 6800 que a la Ati, no solo digo en Mhz sino en rendimiento obtenido con ello.
Seguro que si Nvidia pusiera un disipador como el de la x800XT tb alcanzaba temperaturas similares o incluso menos!

En los filtros noto mejor los de Ati pero amos que apenas se notan si no alternas los bmp's. Esperemos a ver lo que hacen los drivers finales y no esta especie de beta.

Yo voto por que sale ganando nVidia en esta batalla

fer69

La verdad es que en capacidad de overclock las Geforce se deben salir y por ahi se pueden ventilar a las Ati

Hay que reconocer que han mejorado muchisimo , pero no os da la sensacion de que Nvidia ha echado el resto , y Ati casi ni se ha despeinado?

Esta claro que Nvidia es una compañia muy grande , pero entre el fracaso de las 5800 , el precio MUY competitivo(para lo que lleva) de las 5900xt , lo que se gastaran en desarrolladores de drivers( de esos que "optimizan" tanto las cosas :P) y el bicharraco este de la 6800 , deben haber dejado de ganar muchisima pasta

Por nuestro bien que se siguan dando caña muchos años...

Spybreak

y se repite la historia. ATi vuelve a retomar la corona. Yo me esperaba unos resultados asi. La x800 pro mas o menos al mismo nivel que la 6800 y la XT superandola.

Si que me da la impresion de que Nvidia se ha tenido que esforzar muchisimo para sacar la tarjeta que ha sacado mientras que ATi solo ha seguido su progresion normal. No teniendo que añadir otro molex ni usando sistemas de refrigeracion dignos de una central nuclear.

A ver si sueltan ya todas las webs sus reviews para que podamos comparar bien.

aLeX

No os perdais la trama de la memoria GDDR2 con ATi, nVidia y Samsung como protagonistas:

http://www.theinquirer.net/?article=15660

TaMy

Pienso similar a SpyBreak, aunque me esperaba algo más.

Respecto a overclock, a la 6800 Ultra la veo POCO overclockeable o en muy pocos casos.

Sabeis que las fabricaba IBM y Nvidia ha cerrado tratos con ellos porque según el diseño de la 6800 solo el 20% de las tarjetas que fabricaban aguantaban los cores de la 6800 Ultra. Todos los demás o no los aguantaban los ponian de 6800 normal incluso habia un 40% que no aguantaban para la 6800 normal con lo que harán la versión SE, o inlcuso algunos los tiran...

Ya que el proceso a 13'' de Nvidia no tiene el Low-K lo que hace que el coste de fabricación sea Excesivo y los chips que salen buenos realmentesalen en un porcentaje bastante malo, con lo que es facil asegurar que no habrá 6800 normales overclockeables a ultra, y las ultra que salen puede salir algunas muy buenas (como las versiones que envian a los distribuidores y revistas para que analicen las ES), pero las comprables en las tiendas dudo que sean muy overclockeables.

Respecto a la x800 xt tampoco creo que suba en exceso. Ya que se habla que el límite del Low-K són 600 Mhz con lo que como mucho tendríamos ese valor.

Otra cosa que vemos en las comparativas es que son pocos los test de juegos (no sintéticos) donde la 9800 xt le saque mucha ventaja a la 9800 pro y eso sabiendo que tienen 4 pipes menos, con lo que auguro que el límite en los juegos no lo está dando la capacidad de las shaders sino la del propio sistema o número de polígonos en todo caso. En la anterior gama por ejemplo en el Far Cry habia un claro límite por shaders en esta gama no, con lo que los desarrolladores aun pueden exigirle más al Hard.

Bueno pues veo que esta vez Nvidia a quedado mejor parada, poniendo un producto muy competitivo, pero que no se ha llevado el gato al agua. Aparte parece que Nvidia ha llegado con la lengua fuera y sudando para presentar dicho producto, mientras que ATI, haya llegado caminando ya que recordemos que el R420 es una evolución del chipset de la Ati 9600 fabricado de la misma forma, solo que con 16 pipes en lugar de 4. Pero es la misma tecnologia (la de tratamiento del silicio no la del chip en si)...

p4n

justo iba a postearlo yo ahora mismo xDD

la verdad es que lo he mirado por encima y parece que esta vez la lucha entre las dos marcas se apreta, y bastante. Lo que si que parece que ATi se luce en filtros.

Amkam

hombre, hay que decir a favor de nvidia, que en la misma tarjeta implementan Shaders 3.0 , cosa que las radeon, a pesar de todo aun no, aunque la diferencia entre estos, no sea mas que rendimiento. Pero ojo, hay otra cosa que al menos a mi me parece MUY importante y fabulosa, el chip de codificacion/decodificacion de video que traen las 6800, que la verdad, es todo un puntazo, y que realmente le añade un valor extra a la tarjeta que la X880 XT con sus pocos frames mas en ciertos juegos, no le da....

jOK

Pues menos mal que el NV40 no se overclockea, en el análisis de Meristation lo tienes corriendo a 470MHz/1230MHz :D y ya se está hablando de una versión "Extreme" del chip que funcionará a más frecuencia.
En cualquier caso estamos hablando de un pedazo de silicio de 222 millones de transistores y fabricar un chip tan grande suele conllevar esta clase de problemas. De todas formas me da a mi que esos porcentajes que citas te los has sacado de la manga, lo poco que el leído al respecto no eran más que rumores y no daban esas cifras.
Por cierto, con Low-K no se pretenden rebajar los costes de fabricación de ninguna manera (al contrario, encarece el preio de la oblea), el motivo por el que se usa Low-K es para poder alcanzar mayores frecuencias de reloj y para que el chip desprenda menos calor, no para reducir costes.
Por otra parte a mi me da la impresión de ha sido ATi la que ha ido apurada ultimamente, primero porqué ha presentado el X800 XT (en su versión Platinium) mucho antes de lo planeado, y segunda porqué no creo que hayan sacado el X800 XT corriendo a 520MHz por placer...

saludos

PD: Parece ser que el R420 ha salido calentito calentito comparado con el NV40.

Psikopatita

jejej como van a bajar los precios de las 9600/9800 pro jijijjij

Por cierto tanto hablar de la x800xt y al final es "basura" que decepción.

Esta vez gana nvidia chicos

kas

AL ultmio post le digo q se vuelva a mirar los benchs que salen. En la mayoria gana ATI. De poco. Pero gana. No se a que viene eso de "basura" y "decepcion". A mi no me ha decepcionado nada, prefiero que esten asi de igualados los resultados, xq ahora a lo que iran es a bajar precios y nosotros saldremos beneficiados.

jOK

Hay comparativas en las que si y otras en las que no.
En esta por ejeplo, el X800 XT queda casi siempre por debajo del NV40:

http://www.hardwareanalysis.com/content/article/1710/

saludos

PD: Ya veis en lo que se han quedado los 15K ptos en el 3DM03 del R420...

Psikopatita

esque estaban hablando de casi 20000 puntos y eso comparado con 12000 si que es una decepción

aLeX

Yo tengo ganas de ver los benchs de la gama baja -cuando la saquen-. A fin de cuentas ahora mismo por cada 9800 Pro/XT hay treinta tarjetas 9600 XT vendiendose en las tiendas.

Aunque en cierto modo compensa más pagar 300€ ahora, que 140 cada año.

jOK

Hombre, había que tener mucha fé para creerse lo de los 20000 ptos. xD
En estos momentos la balanza está muy equilibrada y a mi parecer es lo mejor que podia pasar, porqué los que salimos ganando somos nostros...

saludos

D

Ati winnnsssss!!! Pero.........la diferencia de precio q creo q habra no es justificado.
Si nvidia ajusta bien el precio Nvidia Winnnssssss!!!

PD:Ambas compañias son unas timadoras.

ach3chin0

IO no tengo tan claro cual es mejor producto...

Actualmente me muero de ganas por poner mis zarpas en una nVIDIA 6800Ultra.

H

TaMy

Si la verdad es que esta vez han salido ambas muy muy parejas.

Por fin Nvidia se comporta en Shaders.
Pero a su vez cuando estos shaders tienen muxas texturas Nvidia baja Bastante quedando destrozada por la x800 xt incluso por la pro, mientras cuando són más simples Nvidia destroza a ambas x800.

Respecto a los P. Shaders 3.0 se está hablando en un 10-15% de mejora de rendimiento y 0% de mejora visual. Con lo que contando que los juegos cuando utilizan PS, lo hacen con muchas texturas con el 10%-15% no llega a igualar a los PS2.0 de Ati. De momento solo Far Cry y UT2004 van a aplicar parches para los PS3.0, pero podemos estar hablando de 4 fps más por escena (que en el Far cry son bastantes), pero tampoco es para tirar cohetes.

Por otro lado está el 3Dx (o algo así) que sirve para disminuir el número de polígonos con los que implementan un juego sin perder calidad (que tambien podria subir muchissimo el rendimiento) o en caso contrario en con los polígonos de un modelo realizar un render de muchissima más calidad (es una cosa rara que ha sacado ATI que esta interesando muchissimo a los desarrolladores ya que es bastante facil de implementar en un motor basado en DX9).

Bajo OpenGL Nvidia gana a la x800 xt, sobre el 15% más rápida es. (Cojo como referencia el CoD ya que no hay motores más nuevos y el CoD esta basado en el motor del Quake3 modificado).

Con filtros tenemos diferentes posturas.
Con filtros FSAA a x2 tienen un rendimiento ambas muy parejo, mientras que a x4 Nvidia esta vez que ha optado por el método de FSAA en diagonal que tenia ATI, le ha servido para que su bajada de rendimiento sea algo menor. Pese a que solo es realmente apreciable a 1600x1200 (sino es bastante insignificante la diferencia). Mientras que al máximo FSAA x6 ATI ve mermada muy poco sus capacidades mientras con la GF 6800 Ultra vemos que realmente tiene SERIOS problemas con su modo equivalente el 8x. Aparte tenemos el Auto-Temporal FSAA que Ati colocará en los 4.5 El cual a 2xT tendremos si el juego va a más de 60 fps una calidad practicamente similar a un FSAAx4, pero utilizando solo el coste de rendimiento del FSAAx2. Y a su vez en cuanto baje de 60 fps tendremos el FSAAx2 normal para no ver parpadeos en las lineas. Sin duda esta ha sido una gran baza de ATI.

MIentras en Asintrópico y Triliniar hay una reina indiscutible no solo por lo que se asemeja al DX9 Rasterizer de Microsoft (calidad exceptuando el angulo practicamente inapreciable que tambien ocurre con la referencia del rasterizer de MS.) sino por rendimiento. Aplicar el 16x en una x800 xt practicamente no tiene coste de rendimiento ni siquiera en el Far Cry (no es asi con el FSAA, solo con el Aniso), mientras que las 6800 Ultra ven mermado su rendimiento bastante al aplicar Aniso x16 con lo que con filtros la x800 xt es la ganadora.

Aparte he observado las diferencias entre "QUIEN GANA" según la review se basa básicamente en el equipo donde lo han procesado.

Si utilizan un sistema más anticuado como un AMD xp la ganadora es la Nvidia 6800 Ultra no por mucho pero si por algo. O incluso algún P4 bus 800 a 2.8, pero en cuanto van subiendo las tortas van cambiando, utilizando un P4 3.2 la ganadora ya es la Ati x800 xt, y utilizando un AMD FX o AMD 64 o el P4EE la x800 xt es una clara ganadora (pocos son los benmarch donde la 6800 la supera). Esto es así excepto en las páginas donde utilizan la Nforce3 250 para hacer las pruebas donde por alguna razón "nvidiera", el rendimiento de las x800 xt y pro es muy inferior al conseguido en un chipset de Via K8T800 que tiene un rendimiento similar al Nf3 250, mientras que las conseguidas con la 6800 Ultra tienen un rendimiento similar en ambas plataforma (artimaña de nvidia para que las ATI analizadas en su placa base rindan menos? qui lo sa? xD)

Bien pues parece ser que Ati parece más recortada por procesador en CPUs menos potentes mientras Nvidia parece menos recortada y con CPUs más potentes queda algo por debajo, mientras con menos potentes sube más por la x800 xt.

Osease las ATI creo que necesitan más CPU y Chipset para poder correr mejor, pero a medida que progresan las CPUs la ATI sigue dando de si mientras la Nvidia da pero no tanto. Lo que me agura que en un sisitema overclockeado de CPU, la ATI sería ganadora (por regla de 3 espero que alguna página se curre alguna Review)...

Bueno pues me parece que esto es todo. Yo sin duda me quedo con la ATI, ya que la Nvidia solo la recomiendo (si si la recomiendo ya que es una buena tarjeta) a aquella persona que tenga un GRAN monitor y pueda jugar a 1600x1200 a 100 Hz (como poco 85Hz) ya que a esa resolución no hacen falta filtros..., mientras que al resto de los mortales que no tenemos monitores tan grandes les recomiendo una ATI con filtros a 1280x1024. Ya que serán en esas plataformas de monitor donde cada tarjeta de más de si.

Así mismo a aquella persona que tenga un AMD xp y no tenga intención de cambiarselo en menos de 1 año o año y medio, le recomiendo la Nvidia ya que en general creo que le irá mejor... En cambio aquella persona que quiera cambiarse de PC en breve o tenga un P4 con i875 o un AMD64 o similar le recomiendo la x800 xt (o pro en su defecto)...

Entre las gamas casi-altas me quedo de momento con la x800 xt ya que realmente a no ser que miremos los 1600x1200 rinde realmente solo un 20% menos que la xt.

Mi elección es una x800 xt (en cuanto esté en algún catálogo), pero vamos no a todo el mundo tiene que pensar igual.

PD: No le deis demasiada importancia a los PS3.0 ya que no la tienen es un cambio MENOS importante que de DX8.0 a DX8.1 y ese ya no fue demasiado importante. Fijaos que Mocosoft cambia la versión de DX según la importancia de los cambios.

De PS1.1 a PS1.4 cambió de DX8.0 a DX8.1.

De PS1.1-1.4 a PS2.0 era importante y cambio totalmente la versión de su DX. de 8.1 a 9.0.

De 9.0 a 9.0b la cambió solo para corregir Bugs (es un cambio mínimo)

Y para PS2.0 a PS3.0 cambiará igual que para corregir Bugs de 9.0b a 9.0c ya que el cambio realmente es poco significativo.

Cuando ahora diga Nvidia que el FP32 es necesario sería bueno recordarles sus mismas palabras en cuanto dijeron que el FP24 no era necesario y con FP16 se veia igual (ya que el cambio de FP16 a FP24 es mucho mayor que el de FP24 a FP32)... Y ya era realmente DIFICIL encontrarle la diferencia de calidad entre FP16 y FP24 (pq me duele pero era realmente dificil distingir una imagen con Shaders 2.0 a FP16 de Shaders 2.0 a FP24)

Pues eso... Si vais a compraros una elegid con cabeza, no por lo que las compañias digan ya que dicen lo que les interesa.

KaeDeN

alabados tus padres x engendrarte maxo xDDD al menos alguien q no habla x hablar i razona como es debido :D

fer69

Sigo diciendo que se echan en falta las noticas de hardware :D

En_Sabah_Nur

Sin currada que se ha clavado el amigo Tamy.

Saludos,
Apocalipsis.

jOK

Con el nForce3 no es que las Radeon vayan más lentas (van igual o mejor que en el K8T800), es que las GeForce corren más.

saludos

ZeroX_r00lz

estoy con jOk, x algo el chipset es de nVidia ;)

Muy wen post Tamy, como te lo curras !!

TaMy

Entonces pq con el i875 es justamente lo contrario igual que con el k8t800 ? No es que Nvidia a metido mano? Y la sección de gráficas ha llamado a la sección de chipsets y le ha dixo ei, hexame una manita XDDDDDDDDDDDDD

ZeroX_r00lz

sin tramas y paranoias xDDD

jOK

Te lo vuelvo a repetir porqué veo que no te enteras, una cosa es que la combinación GeForce + nForce3 sea más rápida que la combinación GeForce + K8T800 (que es así), y otra muy distinta es que la combinación X800 XT + nForce3 sea muy inferior a la combinación X800 XT + K8T800, que es lo que tu has dicho.

http://www.techreport.com/reviews/2004q2/nforce3-geforcefx/index.x?pg=4

Como puedes ver las Radeon también salen ganando con el nForce3, al parecer esa optimización de rendimiento reside en los ForceWare, no reduce ni hace chanchullos con la calidad de imágen por lo que puede considerarse una optimización perfectamente legal.

saludos

En_Sabah_Nur

Si eso es cierto, no me extrañaria que los próximos chipsets para P4 de ATI también incorporen algún tipo de optimización para sus tarjetas.

DIOS, me veo que dentro de poco la guerra no será simplemente una guerra de gráficas ATI vs NVIDIA sino de plataformas, ATI+INTEL vs NVIDIA+AMD.

Como mola especular xDDD

Saludos,
Apocalipsis.