#1495 tras ver el vídeo me compraré 4 3090. La verdad que no se qué voy a hacer con tanto dinero ahorrado.
Si la 3080 sale al menos en 800 euros cae (sigue siendo cara pero dentro del rango generacional...), en 1000++ la comprara su $@#$! madre y sigo con mi 1080ti + ps5 en tv 4k :V
#1503 están haciendo la clásica.
"CHICOS VA A VALER 2000$!!!"
"Que caro!"
"Que noooo que son 1400$!"
"Aaaah bueno, lo pago con lo que he ido ahorrando del redondedo de pago con tarjeta."
Al final lo que importa es el ratio fps por euro, y con RTX llegaron a empeorar el de las 1000, veremos qué hacen aquí
#1505 Como curiosidad: ¿les salió bien lo de vender gráficas a 1000 pavos la última gen? ¿Han tenido buenas ventas? ¿Beneficios? ¿AMD les ha comido cuota de mercado?
Porque si la respuesta a todo eso es positiva para Nvidia, van a volver a subir los precios.
#1504 Puede ser. No sera la primera vez que alguien hace eso xD
A ver los precios y potencia, yo igual tiraria por una 3070 deberia ser de sobra para 1440p espero xD
Y me dejo la gtx 1080 para otro pc.
#1508 eso dicen siempre. Una 2070 debería ser de sobra y mírala ahora, no puedes ir full ultra a 1440p. XD
Pilles el modelo que pilles vas a gastarte una pasta y a los pocos años vas a ir de nuevo bajando de aquí y de allá para conseguir los 60 fps rocosos deseados.
#1509 yo voy a 1440p full ultra con la 2070 (no super) y a los 60 fps llego en juegos como Anthem que tiene una carga tocha de gráficos y creo que mal optimizados.
La 2070 tira bastante, claro con Ray ya te quedas un poco corto pero en juegos como CoD y tal tira de sobra incluso con filtros Nvidia.
#1510 yo tb tengo la 2070 y hay juegos que todo en ultra me escupirá 50 fps con bajones xD
Ahora con el único que caigo es en el rdr2, pero me ha pasado con más xD
Una 2070 es una tarjeta que va a aguantar esta generación perfectamente a 1080, e incluso a 1440 para gran parte de los juegos.
Lo que también tenéis que comprender es que hay gente que además de por los juegos tiene predilección por la tecnología, y por tanto siempre busca los juegos que tengan la mejor tecnología del momento. Y en este momento esos juegos contados (Oddyssey, RDR2, Control, Exodus...) apenas se pueden disfrutar al máximo en 1440p con una 2080Ti, y desde luego no con una 2070.
Hay mercado para todos, y eso es buena cosa.
La serie 2000 de nVidia ha sido un pufo. Han vendido capacidad ray tracing sin potencia suficiente para mover nada decentemente. Ahora, si como todo apunta, las 3000 y bignavi mueven rt con soltura, el que tenga por ejemplo una 2070 Super va a verse con una gráfica cara que fácilmente será superada por una 3060.
"buah, pues quito el rt y listo, para qué quiero eso"
Da igual lo que quieras, en cuanto los Devs vean que las gamas de nVidia, las de AMD y las consolas mueven con suficiente soltura el RT, lo van a cascar por todas partes. Algo así paso con el HDR hace 12 años, que fue salir las 7000 de nVidia y el Need For Speed era un cúmulo de fogonazos cada vez que salías de un túnel. Luego menos mal que se les pasó el hype y se calmaron.
https://www.tweaktown.com/news/74590/nvidia-geforce-rtx-3090-40-50-faster-than-2080-ti-for-1399
Los rumores se van acercando más a precios realistas. Una 3090 por 1400$ siendo un 40-50% más potente que una 2080 Ti (1200$) Pues no es tan descabellado, si a eso le sumas que lleva el doble de memoria.
#1513aLeX:en cuanto los Devs vean que las gamas de nVidia, las de AMD y las consolas mueven con suficiente soltura el RT
¿Pero no salió ayer una noticia donde decía que las grandes desarrolladoras sudan de implementar el RT en sus juegos?
#1513 los devs no van a meter rtx por todas partes, meterán 4 efectos gorrinos innecesarios para juegos de pc, basicamente porque la nueva gen de consolas va a tener juegos desarrollados sin rtx, (ya que no tiene hardware suficiente para mover rtx como dios manda) y en contadas ocasiones con algun efecto superfluo innecesario.
la mayoria de juegos de pc serán los desarrollados para consola, asi que esa va a ser la tendencia, en general.
No entiendo como cojones tienen al cara dura de hypear la 3090 por 1400 euros cuando sigue siendo un robo. Mas de 800 euros es un robo sin miramos donde estabamos antes de las RTX 20.....
#1517 y menos de 800 tambien es un robo, todo es relativo.
por mi como si las ponen a 30000€ si no puedo comprarlas o no me cuadran precio / utilidad, pues no las compro, y tan tranquilo, si no puedo jugar a X juego a B o directamente no juego y ya.
Entiendo que si alguien necesita esas gpus para trabajar pues sea un palo, pero como todo, tambien puede trabajar con otra gpu con cudas que sea mas barata, asi que ajo y agua.
#1506 La estrategia general de NVIDIA les está saliendo bien, solo cotizan al triple que hace un año. AMD también ha subido mucho el último año.
Y pensar que hace años cuando AMD estaba abajo del todo estuve a un pelo de comprar 1000 acciones "for the lulz"
Hablando de market-share, NVIDIA está perdiendo en la gama Geforce. Pero las gamas profesionales le están yendo que te cagas de bien, así que...
#1517 No es tan robo porque el margen operativo de NVIDIA no te creas que se ha movido apenas, pese a que ahora mueven productos carísimos como Teslas y similares.
Quiero decir que no es que NVIDIA se esté forrando con cada tarjeta que venden. Suben los precios porque suben los costes. Pensemos que el tamaño de los dies actuales son mastodónticos.
Las afamadas G80 8800GTX medía 480mm2. Las 2080 TI miden 754mm2. Solo ese aspecto hace que el chip sea más del triple de caro, por lo menos.
#1519Prava:Las afamadas G80 8800GTX medía 480mm2. Las 2080 TI miden 754mm2. Solo ese aspecto hace que el chip sea más del triple de caro, por lo menos.
Si es tamaño en silicio es mas del triple de coste. Piensa que cada oblea no puede tener defectos, y solo un trozo es aprovechable. Cuanto mas ocupe el chip, menos aprovechables son las obleas y el coste se catapulta.
#1520Hipnos:Cuanto mas ocupe el chip, menos aprovechables son las obleas y el coste se catapulta.
Y de ahí la triunfada de AMD en el mercado de las CPUs (dejando de lado que Intel se haya atascado). Los chiplets al ser mucho más pequeños permiten aprovechar más la oblea y así reducir costes.
Igual dentro de unos años tiran por ahí, con GPUs modulares a base de chiplets.
#1521 Hombre es que hacer la oblea más grande es más capacidad bruta, pero tambien más coste y mas calor.
Idealmente lo que hay que hacer es ir al limite de la tecnologia que creo que esta en 3-4nm y hacer chips pequeños y eficientes que puedan trabajar por separado.
#1519 Esto es muy facil, la tecnologia deberia de ser cada vez mas barata, tener la misma potencia por un precio mas alto 3 años mas tarde no se puede justificar de ninguna manera.
A cada generacion teniamos mas potencia por dolar hasta que en las RTX decidieron tomarnos el pelo.
Y si, igual me puedes justificar pero RT Cores, una feature que la mayoria de las veces no la estamos usando, por lo que pagar por ella OBLIGATORIAMENTE me parece igualmente un robo.
Te acuerdas cuando aparecieron los primeros aceleradores graficos? Pues si nvidia quiere sacar tarjetas de calculo matricial, que lo haga, pero que lo haga independiente de la tarjeta grafica. En vez de pagar 1400 por la RTX 3090 que me cobren 1000 por la GTX 3090 y que saquen una MPU (Matrix Processing Unit) con los RT Core que actualmente lleva la RTX 3090 por, yo que se, 500 euros.
Si lo bueno de los ordenadores es que todo es modular, por que me quiere meter una GPU en cada CPU y ahora una MPU en cada GPU....
#1515 Declaraciones hay para todos los gustos
https://metro.co.uk/2020/04/24/xbox-series-x-developers-praise-ray-tracing-framerate-potential-12604170/
https://www.psu.com/news/ps5-ray-tracing-ssd-praised-by-control-developer-remedy/
https://wccftech.com/playstation-5-developers-ray-tracing/
#1516 Aún no lo sabemos. El hecho de que XBX tenga hardware raytracing tier 1.1 pone en duda eso que dices.
#1512 bueno, yo según el precio de las 3000 pondré a vender la 2070 a buen precio, se que alguien la comprará y si no pues jugare a menos full del estambul. Cuando la compré tenía monitor 1080 pero explotó de viejo al mes de tener todo montado y ya di el paso, y ahora estoy a medio camino
#1523 Todo parte de la premisa de que la "tecnología debería ser más barata", lo cual es cierto si estuvieras hablando de la misma tecnología, seguramente hacer una gráfica como pudo ser la GTX 980 en su momento hoy en día es mucho más barato, pero no estamos hablando de la misma tecnología, estamos hablando de tecnologías totalmente distintas, las cuales cada vez son más y más costosas de hacer, desde el punto de vista de R&D y desde el punto de vista de costes de producción puramente dichos.
Cada vez son menos las fábricas que pueden producir este tipo de chips y cada vez mayor el desembolso que tendría que hacer un nuevo player para entrar en el mercado (solo hay que ver a Apple cuánto tiempo le ha llevado ser un player competitivo en el mundo de las CPUs y eso que ni siquiera ha partido de un diseño 100% propio)
Todo esto se mezcla con juegos que cada vez requieren de mejor hardware, muchas veces por falta de optimización, otras por qué de verdad están empleando técnicas que tienen un coste computacional alto (a veces sin merecer la pena) y tienes el panorama actual.
#1526 Otro más que se ha tragado la milonga bien dobladita.
¿Los chalets y sueldos galácticos suman para ese R&D que tanto te gusta nombrar?
#1526 claro, desde la GTX 8800 hasta la GTX 1080 ti no habia una subida exponencial de la dificultad de fabricación ni nada, es algo reciente que nada tiene que ver con que la RX 5700 XT no llegué ni al rendimiento de una GTX 1080 Ti con 3 años