#328
No me verás defender ninguna de estas técnicas, pero mostrar un juego de hace 6 años con una de las primeras implementaciones es muy perro.
#330 Ya te digo que un buen DLSS 3 no hay casi diferencia que con jugarlo sin el, es mas, en escenarios lejanos, se ve mas nítido con el DLSS encendido que sin el.
Yo muchas veces lo uso y voy encantado.
#315 pero es que los cálculos usando calculadoras no tienen sentido ninguno. Primero porque el precio del waffer depende del volumen que pidas. Segundo porque el precio del waffer depende de la prioridad que pidas. Tercero porque no es lo mismo meter dies de 100mm2 que meterlos de 600mm2+ (a nivel de aprovechamiento total del espacio). Cuarto porque no es lo mismo tener 50 errores con dies pequeños que 50 errores con dies grandes. Y quinto porque ni sabemos a cuánto le vende TSMC los waffers a nadie.
Decir $200-300 es como chuparse el dedo y decir que tenemos viento de 4 nudos de viento de NW. Ni siquiera, chuparse el dedo es más fiable que las estimaciones de coste del die.
Lo que sí sabemos es que (por sus financials, ojo, datos publicados por NVIDIA).
-La división gaming de NVIDIA es como el 10-15% del total.
-La división data-center de NVIDIA es como el 80% del total.
-Ambos usan dies más o menos parecidos.
-El PVP de los productos de la división data-center es como 10 veces mayor, a die de tamaño parecido. Una H100, con die de unos 800mm2, se vende por encima de $25.000USD.
-El gross margin TOTAL es del 75%.
Si lo unes todo no es posible que un die full size cuesta tan poco porque los márgenes de NVIDIA serían todavía más altos.
#335 Ya si yo al principio era un poco taliban, pero vamos probado en bastantes juegos y la verdad que o no me veo diferencia o es irrisoria.. Pero vamos, dependera del juego, donde yo lo probe fue en FF XVI, y la verdad que no notaba nada raro
#335 hay veces donde lo ves mas nítido porque el AA del DLSS es mejor que el AA nativo pero no tiene nada que ver con la resolucion y reescalado, sino con lo aberrante que son las tecnicas de AA modernas jodiendo los juegos por completo.
Juego nativo con AA decente > DLSS
#337 en el video que puse utiliza una calculadora algo más compleja, donde aparecen los dies defectuosos, dies parciales, etc..
faltan datos como la tasa de defecto y tal pero que no pasa de los 300-400$ del coste del die ni de coña.
Y si varian los precios de los wafers.. lo hacen a favor de nvidia? o acaso no crees que a uno de sus mejores clientes, con el que el jefe de TSMC tiene relación de afecto con Jensen, no van a darle buenos precios por wafer? Si un analista estima 18k para 3nm, para 4nm y para Jensen serán menos.
#337Prava:Si lo unes todo no es posible que un die full size cuesta tan poco porque los márgenes de NVIDIA serían todavía más altos.
entonces los analistas se equivocan?
y cuales son los márgenes de AMD? salen las mismas cuentas viendo que venden sus 7950x a 700$ cuando les cuesta 70$ fabricarlos?
#341
Creo que la 3060ti da de sobras aun para 60 fps 1080 2 añitos mas
si vas a jugar a 1080 60 fps, quedate con la 3060 ti.
#339 AMD tiene un gross margin del 50%. Por lo tanto no puede costarle $70 algo que venden a $700.
Si el DLSS está bien implementado es difícil darte cuenta cuál es uno u otro. Por ejemplo en Alan Wake 2 o Indiana Jones tiene muy buena implementación y como digo no es fácil de distinguir en modo calidad.
Que si, que aquí vemos hasta el último píxel y sacas hasta el último artefact pero en general, es una manera muy óptima para alargar la vida de las gráficas. Que es mejor en nativo nadie lo duda, pero que para pasarte el típico juego random single que te dura 8/10 horas pues te la pela.
Vaya por delante que prefiero bajar settings a usar DLSS pero es innegable que es una mejora y más cuando los developers se rascan los huevos en la optimización y no me sale de los mismísimos pagar su trabajo soltándolas en gráficas burbujeadas.
#348 Pero a ver prava, no te lies tu tampoco.
En las FE el COGS no es solo el DIE, y en las aftermarket el precio de venta del chip no es el MSRP de las FE.
cuando nvidia vende una gpu de data center igual le sale mas caro la VRAM que el die en si.
Me cago en la puta los precios, la serie X090 estaba enfocada para los frikis maximos pero ahora ya la han enfocado para profesionales antes de dar el salto al cloud.
Llegan a sacar la 5070 con 18Gb y yo recomendaría la compra al PVP si el DLSS4 exclusivo sale "decente", pero en algo tenían que recortar para obligar a subir de tier
Con que el dlss4 me de un poco mas de fps en el cyberpunk 2077 me la suda lo demas. Y si tambien reduce el ghosting mejor.
Ahora mismo con un mod de path tracing la 4090 me saca 100 fps de media a 2160p con frame generation on y dlss en balanceado.
#358 Sin mover la cámara, no sea que se noten los artifacts.... Y el input lag tiene que ser de risa.