Si la verdad es que esta vez han salido ambas muy muy parejas.
Por fin Nvidia se comporta en Shaders.
Pero a su vez cuando estos shaders tienen muxas texturas Nvidia baja Bastante quedando destrozada por la x800 xt incluso por la pro, mientras cuando són más simples Nvidia destroza a ambas x800.
Respecto a los P. Shaders 3.0 se está hablando en un 10-15% de mejora de rendimiento y 0% de mejora visual. Con lo que contando que los juegos cuando utilizan PS, lo hacen con muchas texturas con el 10%-15% no llega a igualar a los PS2.0 de Ati. De momento solo Far Cry y UT2004 van a aplicar parches para los PS3.0, pero podemos estar hablando de 4 fps más por escena (que en el Far cry son bastantes), pero tampoco es para tirar cohetes.
Por otro lado está el 3Dx (o algo así) que sirve para disminuir el número de polígonos con los que implementan un juego sin perder calidad (que tambien podria subir muchissimo el rendimiento) o en caso contrario en con los polígonos de un modelo realizar un render de muchissima más calidad (es una cosa rara que ha sacado ATI que esta interesando muchissimo a los desarrolladores ya que es bastante facil de implementar en un motor basado en DX9).
Bajo OpenGL Nvidia gana a la x800 xt, sobre el 15% más rápida es. (Cojo como referencia el CoD ya que no hay motores más nuevos y el CoD esta basado en el motor del Quake3 modificado).
Con filtros tenemos diferentes posturas.
Con filtros FSAA a x2 tienen un rendimiento ambas muy parejo, mientras que a x4 Nvidia esta vez que ha optado por el método de FSAA en diagonal que tenia ATI, le ha servido para que su bajada de rendimiento sea algo menor. Pese a que solo es realmente apreciable a 1600x1200 (sino es bastante insignificante la diferencia). Mientras que al máximo FSAA x6 ATI ve mermada muy poco sus capacidades mientras con la GF 6800 Ultra vemos que realmente tiene SERIOS problemas con su modo equivalente el 8x. Aparte tenemos el Auto-Temporal FSAA que Ati colocará en los 4.5 El cual a 2xT tendremos si el juego va a más de 60 fps una calidad practicamente similar a un FSAAx4, pero utilizando solo el coste de rendimiento del FSAAx2. Y a su vez en cuanto baje de 60 fps tendremos el FSAAx2 normal para no ver parpadeos en las lineas. Sin duda esta ha sido una gran baza de ATI.
MIentras en Asintrópico y Triliniar hay una reina indiscutible no solo por lo que se asemeja al DX9 Rasterizer de Microsoft (calidad exceptuando el angulo practicamente inapreciable que tambien ocurre con la referencia del rasterizer de MS.) sino por rendimiento. Aplicar el 16x en una x800 xt practicamente no tiene coste de rendimiento ni siquiera en el Far Cry (no es asi con el FSAA, solo con el Aniso), mientras que las 6800 Ultra ven mermado su rendimiento bastante al aplicar Aniso x16 con lo que con filtros la x800 xt es la ganadora.
Aparte he observado las diferencias entre "QUIEN GANA" según la review se basa básicamente en el equipo donde lo han procesado.
Si utilizan un sistema más anticuado como un AMD xp la ganadora es la Nvidia 6800 Ultra no por mucho pero si por algo. O incluso algún P4 bus 800 a 2.8, pero en cuanto van subiendo las tortas van cambiando, utilizando un P4 3.2 la ganadora ya es la Ati x800 xt, y utilizando un AMD FX o AMD 64 o el P4EE la x800 xt es una clara ganadora (pocos son los benmarch donde la 6800 la supera). Esto es así excepto en las páginas donde utilizan la Nforce3 250 para hacer las pruebas donde por alguna razón "nvidiera", el rendimiento de las x800 xt y pro es muy inferior al conseguido en un chipset de Via K8T800 que tiene un rendimiento similar al Nf3 250, mientras que las conseguidas con la 6800 Ultra tienen un rendimiento similar en ambas plataforma (artimaña de nvidia para que las ATI analizadas en su placa base rindan menos? qui lo sa? xD)
Bien pues parece ser que Ati parece más recortada por procesador en CPUs menos potentes mientras Nvidia parece menos recortada y con CPUs más potentes queda algo por debajo, mientras con menos potentes sube más por la x800 xt.
Osease las ATI creo que necesitan más CPU y Chipset para poder correr mejor, pero a medida que progresan las CPUs la ATI sigue dando de si mientras la Nvidia da pero no tanto. Lo que me agura que en un sisitema overclockeado de CPU, la ATI sería ganadora (por regla de 3 espero que alguna página se curre alguna Review)...
Bueno pues me parece que esto es todo. Yo sin duda me quedo con la ATI, ya que la Nvidia solo la recomiendo (si si la recomiendo ya que es una buena tarjeta) a aquella persona que tenga un GRAN monitor y pueda jugar a 1600x1200 a 100 Hz (como poco 85Hz) ya que a esa resolución no hacen falta filtros..., mientras que al resto de los mortales que no tenemos monitores tan grandes les recomiendo una ATI con filtros a 1280x1024. Ya que serán en esas plataformas de monitor donde cada tarjeta de más de si.
Así mismo a aquella persona que tenga un AMD xp y no tenga intención de cambiarselo en menos de 1 año o año y medio, le recomiendo la Nvidia ya que en general creo que le irá mejor... En cambio aquella persona que quiera cambiarse de PC en breve o tenga un P4 con i875 o un AMD64 o similar le recomiendo la x800 xt (o pro en su defecto)...
Entre las gamas casi-altas me quedo de momento con la x800 xt ya que realmente a no ser que miremos los 1600x1200 rinde realmente solo un 20% menos que la xt.
Mi elección es una x800 xt (en cuanto esté en algún catálogo), pero vamos no a todo el mundo tiene que pensar igual.
PD: No le deis demasiada importancia a los PS3.0 ya que no la tienen es un cambio MENOS importante que de DX8.0 a DX8.1 y ese ya no fue demasiado importante. Fijaos que Mocosoft cambia la versión de DX según la importancia de los cambios.
De PS1.1 a PS1.4 cambió de DX8.0 a DX8.1.
De PS1.1-1.4 a PS2.0 era importante y cambio totalmente la versión de su DX. de 8.1 a 9.0.
De 9.0 a 9.0b la cambió solo para corregir Bugs (es un cambio mínimo)
Y para PS2.0 a PS3.0 cambiará igual que para corregir Bugs de 9.0b a 9.0c ya que el cambio realmente es poco significativo.
Cuando ahora diga Nvidia que el FP32 es necesario sería bueno recordarles sus mismas palabras en cuanto dijeron que el FP24 no era necesario y con FP16 se veia igual (ya que el cambio de FP16 a FP24 es mucho mayor que el de FP24 a FP32)... Y ya era realmente DIFICIL encontrarle la diferencia de calidad entre FP16 y FP24 (pq me duele pero era realmente dificil distingir una imagen con Shaders 2.0 a FP16 de Shaders 2.0 a FP24)
Pues eso... Si vais a compraros una elegid con cabeza, no por lo que las compañias digan ya que dicen lo que les interesa.