#3420 ya y ahora la 4080 tiene un MSRP de 1200$ y 1600€. Que crees que te van a sacar una 4070 a 500$ y dejar el gap entre la 4080 y 4070 de 700$?
La 4070 debería de haber salido a 500-550 y la 4080 a 750-800$, pero estamos como estamos, y es una mierda.
Y aun por encima de los precios abusivos, tenemos que tragarnos un 20% de perdida de valor del euro poniendo el rendimiento/precio aún más en la mierda absoluta.
1000€ es IVA incluido. Hablemos de precios finales para nosotros, dado que es lo que se acabarabá pagando. Los precios en $ son "engañosos", dado que nunca llevan impuestos, mientras que los precios en € siempre los llevan.
La 4080 no debería haber salido a más de lo que cuesta una 3080FE y eso lo sabemos todos. Están abusando de todos los consumidores porque tienen stock de serie 3000 por un tubo. Lo normal es que sale la nueva generación por aproximadamente el mismo precio y las antiguas bajan de precio pero Nvidia no quiere.
Y los precios de FE subieron.
Encima tienen la cara dura de ni siquiera incluir DP 2.0 los desgraciados.
#3424 a más de 800€ iba a salir, más que nada por el $-€. Pero vaya, que entre ese +20% del cambio de divisas + el +71% del paso de 700$ a 1200$ del MSRP de la 80, pues al final tenemos un +91% de incremento de precio frente a la anterior gen.
Practicamente el doble. Una maravilla oiga.
#3425 Pero es que los precios actuales en Euros de la serie 3000 ya incluyen ese cambio de divisas y la subida de precios general.
Que la 4090 cuesta 800€ más que la 3090. Es una ida de olla. y la 4080 como dices sale casi al doble.
Eso no lo justifica ningún cambio de divisa ni los impuestos.
#3426 ya, las que están en el mercado se están tragando ellos con las perdidas por la diferencia de divisa, cosa que podrían hacer con esta gen igualmente pero no les sale de los huevos.
Porque quieren quitarse el stock de la gen actual a toda costa, y les da igual venderte una 3070 a 500€ que a 650€.
Si quisiesen podrían haber hecho la de Sony y decir, oid por X motivos, vamos a subir los precios de las generaciones existentes X€ o Y%.
Pero bueno es lo que hay, y por mucho que anulen el launch de la de 12gb para cambiarle el nombre o bajarla 100$ no van a cambiar el hecho de que esta gen en cuanto a rendimiento/€ es una putisima mierda. Ojalá se estampen de lo lindo, porque como esto se convierta en la nueva norma vamos apañados. Casi va a ser mejor buscarse otro hobby.
#3424 A ver, 2022 es un año duro económicamente y los 4nm de TSMC son mucho más caros. Aún así ha pegado una subida en el margen de su profit bestial, eso seguro.
#3429 Pero si están vendiendo más GPU que nunca. Nvidia se ha llenado los bolsillos durante la pandemia y la minería.
https://www.macrotrends.net/stocks/charts/NVDA/nvidia/revenue
NVIDIA annual/quarterly revenue history and growth rate from 2010 to 2022. Revenue can be defined as the amount of money a company receives from its customers in exchange for the sales of goods or services. Revenue is the top line item on an income statement from which all costs and expenses are subtracted to arrive at net income.
NVIDIA revenue for the quarter ending July 31, 2022 was $6.704B, a 3.03% increase year-over-year.
NVIDIA revenue for the twelve months ending July 31, 2022 was $29.738B, a 35.81% increase year-over-year.
NVIDIA annual revenue for 2022 was $26.914B, a 61.4% increase from 2021.
NVIDIA annual revenue for 2021 was $16.675B, a 52.73% increase from 2020.
NVIDIA annual revenue for 2020 was $10.918B, a 6.81% decline from 2019.
Un Incremento del 61,4% respecto a 2021 y aún no ha terminado el año.
#3424guillauME:a 4080 no debería haber salido a más de lo que cuesta una 3080FE
yo puedo entender que suban precios porque tsmc se los ha subido a ellos e inflacion y patata, pero puedo entenderlo de 740 dólares que era la original a digamos, un 20%, y eso son 888, no 1200
el problema es que el ratio fps euro, es el mismo.
#3411 a nadie se la cuela depende, aqui hay muchos mirando muchas cosas pero a nivel de marketing paquito el que ha ahorrado para una grafica y no tiene ni puta idea pensará que son 4gb de diferencia pero está comprando una 4080.
Vamos lo veo así
Me voy a reir cuando pille la futura 6000 o 7000. Ya os recordare lo que paso con las 4000. Menudo cachondeo
Sigo confirmando que la rtx 4090 tiene una mejor eficiencia VS 3090
Reposo:
4090 = 12w
3090 = 29w
Estoy viendo que usando las mismas configuraciones que con la 3090, en la 4090 son mas eficientes y consume menos. Sobre todo se nota mucho en cargas bajas y medias. En máxima no por que consume mas claro (350w vs 450w)
Todo con configuración de fabrica. Creo que con undervolt debería mejorar mucho mas la eficiencia.
Como detalle, nunca mas una Zotac. Con esta Gigabyte el ruido es mucho mas bajo que con la zotac. Si dais importancia al ruido, no comprar zotac.
#3439 Yo no se que hicieron con la serie 3000, pero los consumos eran de locos para la potencia que tenian.
Estas 4000 si que tienen consumos mucho menores y mejor rendimiento. Otra razón por la cual decantarse por la serie 4000 antes que la 3000.
#3440 También por que los modos turbo o como se llamen, elevaba mucho el voltaje.
Por ejemplo con la anterior 3090 lo tenia puesto a 1700 mhz y 0.812v. Perdía 4fps pero el consumo era 100w menos.
Alguien sigue el mercado de segunda mano?
Para lo que llevan parados los rigs, no veo apenas bajada de precio en las tiendas. Debería estar el mercado de segunda mano inunando, y con precios por debajo del 50% de las tiendas. Y las tiendas deberían sufrir arrastre, no?
#3447 Como les salga bien va a ser una puta mierda, todas las gpus iguales, siendo hornos casi seguro y teniendo que cambiarles la refrigeración nada más comprarlas como el que se compra un intel y lo primero que hace es tirar a la basura el ventilador de stock. Lo único positivo es que la customización de gpus sería un estandar a gusto del usuario y no un lujo como puede ser ahora un backplate y cosas así.
#3449 Entiendo por donde va el comentario, pero no lo centres en la refrigeración. La serie 4000 es la primera que tiene una FE con refrigeración decente. Nvidia claramente quiere quedarse con todo el pastel de sus GPUs, el problema es que no tiene instalaciones necesarias para ensamblar, almacenar y distribuir tanta GPU. Solo hay que ver los pifostios que se montan cada vez que salen FE a la venta.