#481 Eso venía a poner, este mes la han liado que flipas y no solo en el COD. Estaba viendo al juja jugar al Outer Wilds y le petardeaban los shaders que flipas xD
#475 se habla que algunos partners llegan a los 3Ghz bien, subiendo bastante el consumo claro. Veremos... Aunque la gráfica ganancia/consumo seguro que queda en una mierda comparada con nvidia.
#510 Pues yo ahí veo lo mismo que con las 7xxx, que aunque te dejes 2500€ en la grafica mas luego en el PC mas top sigues sin poder activar RT ni siendo tus gráficas las que mejor manejan el RT. (En determinados juegos)
Y en esas condiciones que deasrrolladoras van a postar tanto por el RT para que acabe siendo un estandar que se pueda mover en cualquier gráfica?
#512 Es que es así.
Cuando salgan nuevos juegos en 2023 ni la 4090 moverá nada con RT ON y 4k, al final es una gilipollez darle tanta importancia.
Con una 7900 tendrás 30 fps pero es que con una 4090 igual 45, la misma basura es.
A mi dame 1440p full power raster y a cascarla. De vez en cuando a 4k en la TV tranquilamente a 60 fps y si hace falta bajar alguna textura pues se hace. Pero vamos que en raster a 4k si mueve Exodus a 150 fps.... da para varios años de 4k@60 sobrado xDDD
#512 a nivel medio si, todo juego futuro llevará raytracing, pero para que lo puedan mover las consolas
El tema aquí es que el RT va a lastrar lo mismo lleve lo que lleve, y si lo activas aunque sea en uno de los juegos que menos recursos RT utilice, te quedarás con una GPU que rinda como las de 2020
Y yo no tengo problemas en quitar RT, pero cuando me cobran 500 no 1200€. Si me piden 1200€ en 2022 no quiero que mi gpu pase a rendir como la de 1100€ de la competencia en 2020 si activo el RT
300? genial, 0 RT
500? vale
700? meh, pero vale, se puede ir todavía con raster y 0 rt en todos los títulos
1200? 1300? venga hombre, son top de gama, ahí ya no te pueden vender milongas cuando la competencia va con el rabo fuera.
#514 Las consolas a ese ritmo es imposible que puedan mover el RT como existe actualmente ni la PS6, que estamos hablando de arquitectura top en 2022 para 40fps
Te está pidiendo Nvidia 2500€ y no puedes activarlo tampoco xdd
#515 las consolas ya tienen muchos títulos con RT, simplemente no a nivel de 2077 full maxed 4k
El tema es que si activas RT aunque solo sea un 1% del juego o 4 efectos mal contados, el rendimiento ya se desploma.
#503 se me había pasado responderte xD
El problema es que tú compras un porsche y es tuyo, pero tú compras una GPU y dependes de los juegos que se lancen. Si vendes 4 gpu's, por qué yo el desarrollador del juego voy a perder tiempo en implementar tecnologías que van a aprovechar 3 personas?
Las gpu no son como un porsche, no pueden aislarse del ecosistema y seguir siendo interesantes, dependen de terceros para que yo quiera comprar una. A 2000 no la quiero comprar, por lo que para qué van a invertir otros tiempo en algo que nadie pide ni usará.
6k no es un salario estándar, 2000€ para una GPU es una barbaridad hasta en países del primer mundo para la gran mayoría. No es un coste trivial ni para un suizo, no te digo ya para el 99% de la población
#517 Eso es como decir que que los fabricantes de ruedas de altas prestaciones se preocupan del precio de los porsches.
El tema es puedes poner ruedas top en un clio ( si te entran en las llantas or garganta ) e ir arrastrandote por las carreteras, al igual que puedes jugar al COD50 super mega chachi a 3FPS con una grafica media.
El fabricante de coches o de ruedas se preocupa de competir contra otros coches y ruedas.
Y al final los que implementan juegos, gastaran tiempo y dinero, para que su juego luzca mejor aunque sea en pcs de 4 gatos ( que son los streamers y los que venden ), porque eso les dara ventas vs otros juegos.
PS no es un coste trivial, pero es un coste asumible, para un objeto que hablamos va a ser tope de gama y me va a dar HORAS y HORAS de rendimiento y que sera facilmente amortizable. Añadele posibilidad de pagar en 2-3-10 veces y ya lo tienes.
Seamos sinceros, cuanto costaba un pentium 2 con una voodoo banshee en su momento con todo a lo ultimo del mercado?
Hablamos de un mundo donde hay gente que se gasta 20.000€ jugando al diablo immortal en un telefono...
Si lo piensas detenidamente es un disparate absoluto para la mayoría de la gente.
El sueldo mediano es de 21.000€ brutos, 17.000€ netos, el ahorro medio es del 6%, es decir 1.000€ al año. Es decir que para comprar una gráfica ya no de 1.800€, si no una de 1.200 por ejemplo, tendrías que quemar tus ahorros de 1'2 años en un producto que ni siquiera es perpetuo ya que se desfasa. Si cambiases de gráfica cada 6 años estarías dejándote un 20% de tu capacidad de ahorro y ni siquiera estamos contando el resto de componentes que tienen que respaldar eso para que no te haga cuello de botella, aproveche resoluciones altas con muchos hz, etc... Ya te pueden gustar los AAA, ya.
Hay que estar lejísimos de esos números o bien en sueldo o bien en capacidad de ahorro para que no sea una completa locura patrimonialmente. Yo tengo claro que más de 700€ no me voy a dejar ni de coña y procuraré que sea menos.
#521 desgraciadamente vivimos en la era del crédito y la peña no tiene ni puñetera idea de llevar las cuentas de casa
vamos, es que cuando me justifican que 2000€ está bien porque hay mucha gente ganando 6k, lol
#521 Si te comprabas una de 600€ estabas quemando el 10% de tu capacidad de ahorro etc que sigue siendo el mismo disparate
Pero si la peña se compra móviles y los pone a pagar en 48 meses, o pide préstamos para irse de vacaciones, que esperáis xd
A ver... el PC si no eres exquisito te dura fácil 5 años, habría que meter el porcentaje de ahorro a varios años xD
Pero vamos en cualquier caso yo tb lo dije por aquí, todo lo que pase de +600€ ni con un palo.
Curioso como intentais colar que una 4090 vale 1500 euros, no sé dónde habéis visto esos precios porque que yo sepa están a 2000-3500 euros. Comparar esos precios con el tope de gama de AMD y decir que son más rentables las Nvidia... de números cómo vais?
#514 dices eso pero no caes en la cuenta de que el rt que nos vende nvidia es una necesidad creada que soluciona su hardware. Yo no me voy a comprar ninguna tarjeta pensando en el RT ni ahora ni en 10 años porq es tirar dinero a la basura xd. Gastarte 2k y sentirte menos mal porq tiene un rendimiento en RT que sin el dlss va a pedos?
Es literal lo que quieren ellos, crear un valor añadido falso para que compense su sobre precio.
Para luego desactivar las sombras y demás pijotadas para que el juego de turno de los FPS basados en los Hz de nuestor monitor.
No sé vosotros, pero llevo 20 años desactivando las sombras en cualquier juego, por poner un ejemplo y no entrar en detalles tècnicos. RT que? venga hombre vender humo.
#531eondev:dices eso pero no caes en la cuenta de que el rt que nos vende nvidia es una necesidad creada que soluciona su hardware.
discrepo, la iluminación es desde hace eones lo que va marcando la diferencia gráfica en juegos todas las generaciones.
desde las primeras sombras dinámicas de blade hasta el RT actual y seguirá evolucionando hasta diferencias abismales cuando toda fuente de luz sea creada por RT y los juegos diseñados en base a ello.
El RT es el futuro, el problema al que se ha enfrentado es que primero nvidia lo lanzó con precios absurdos y que ahora las consolas afortunadamente para los peasants van a prohibir a los juegos ese cambio de paradigma de diseño y no se verá nada como lo que menciono en 5 años mínimo. Pero es algo que es el futuro y cada vez se aprovechará más.
Igual que los métodos de upscaling y el frame insertion de dlss 3. DLSS 1 apestaba a muerte, DLSS 2 apestaba bastante menos y aunque nos siga dando asco y los frames invent de dlss 3 sean un pifostio tremendo, la realidad es que en 10 años andaremos todos queramos o no, jugando con RT por defecto sin ser posible desactivarse y con upscaling obligado ya que es la única forma de dar otro salto gráfico que a base de reducir nm y meter W a la gpu, ya no vamos a conseguir.
Dices, vale qué me importa ahora todo eso? Pues si te gastas 300€ poco, pero si te gastas 1300 o 1500 o 2000€ , los juegos te ofrecen mejoras gráficas que hacen uso de ello, y una marca te vende por 1500€ algo que rinde 100 y la otra por 1300 algo que rinde 30, importa muchísimo para quien se gasta esas cifras, y de ahí los precios de AMD, que no son señoras de la caridad, sino una empresa que sabe que si intenta cobrar lo mismo porque ofrece similar en raster, se come los mocos porque la gente sabe que su propuesta va a ofrecer con RT lo mismo que gpus de la competencia hace 2 años mas todo un ecosistema inferior y no se van a dejar +1200€ para tener esas limitaciones cuando quien puede gastarse eso, quiere lo mejor y no andar pensando que si activa RT se le desploma el juego a 35fps cuando la competencia va a 70.
Y no es una necesidad creada, es simple evolución gráfica y rangos de precios. A mi particularmente me da igual RT, prefiero 144fps raster a 60 RT, pero si me rasco la cartera con esos precios tendría claro que no voy a pagar un 10% menos a AMD por tener un RT que sea un 60% inferior. Puestos a gastarte la pasta, pongo 200€ más sobre la mesa y me llevo lo mejor, no los racaneo cuando hablamos de esos precios.
Si nos movemos a las gamas de 300€ pues cambia radicalmente el tema y todo el que compre eso, debería olvidarse de RT e ir a por el fps/euro mejor del mercado donde AMD suele dominar. Pero en gamas super top como las que han presentado? ni de coña.
y hasta aquí mi charla TED de hoy
#533 Pues yo discrepo otra vez porque hemos visto soluciones software en cryengine, unreal y otras técnicas que no requieren de ese hardware matricial especializado para renderizar escenas con rsytracing y que escupen FPS que da gusto con un resultado parejo. Quiero decir, irá muy bien para el sector profesional pero para lo que es gaming y rt en vivo? la peor solución para el consumidor
Y en esto como implementen los juegos gracias a las consolas y los nuevos motores RT sin la dependencia hardware del RTX de nvidia, se van a terminar comiendo un mojón. Porq desde la serie 1000, que lo único nuevo que han metido han sido el dichoso RT. Desde entonces a tirar de miniaturización y pocas mejoras de arquitectura.
#534eondev:Porq desde la serie 1000, que lo único nuevo que han metido han sido el dichoso RT.
gsync ultimate, reflex, dlss, frame insertion, nvenc para own cloud, rtx voice, shadowplay, cuda
nvidia va siempre liderando el mercado y AMD 1 o 2 años a la zaga copiando lo que puede. A nvidia se les puede acusar de muchas cosas, especialmente de peseteros con precios absurdos y rácanos con cosas como la vram, pero en i+d? Si son los que arrastran el mercado y los únicos que proponen mejoras para los consumidores generación tras generación.
Los departamentos de ingeniería de nvidia son 11/10, la pena es que les estropea la imagen los de marketing y los corbatas poniendo precios xD
AMD lo que hace bien aunque es porque están forzados, es buscar alternativas a todo lo que nvidia ofrece y hacerlas open source forzando a nvidia a torcer el brazo de vez en cuando, como con freesync. Y menos mal porque si por jensen fuera, el ecosistema estaría más cerrado que el de apple y los precios a 4x.
#533 O sea a ver si termino de entenderlo porque no me queda claro.
Dices que Nvidia da 1000 vueltas en RT a AMD, que Nvidia da 100 y AMD da 30 por 300 euros d diferencia.
Luego creo, por los números, que comparas una 4080 con la tope de gama de AMD 1500 VS 1300.
Si como se ha demostrado ni la 4090 da buenos FPS en cyberpunk, porque das el mismo rendimiento en RT a la 4080 que a la 4090?
El RT no es funcional y no debe basarse la compra de una gráfica en ese criterio por lo que Nvidia está cobrando por tope de gama 1000 euros más, porqué razón?
Hablo desde el desconocimiento pero con lo que decís todos por aquí y los leaks.
#537 lo de 100 y 30 son ejemplos invent para evidenciar que hay una diferencia salvaje.
por ejemplo si tomamos la media de las cifras que han dado, la mejora en RT será de un 50%
unos ejemplos a 1440p porque es lo que yo uso
la 7900 XTX sacará: 69fps
120fps
93fps
132
150
Es decir, son cifras usables, pero todas a nivel de 3090. Eso viene a significar que si arrancas con las 7900 un juego con RT, tendrás por 1300€ en 2022, el rendimiento de una GPU de nvidia del mismo precio en 2020 que en 2022 puedes comprar por bastante menos.
Teniendo en cuenta que las 7900XT se esperan por unos 1300€, y que según nvidia la 4090 de 16gb y 1500€ será un 30/50% más potente que la 3090TI, te queda un gap en el que la 4080 16gb por 200€ más, te va a dar bastante más rendimiento en RT que AMD. Metidos en esos precios, es un aumento de precio relativamente bajo para un incremento muy alto de prestaciones en RT y ecosistema nvidia a años luz de AMD
las 7900XTX tiene pinta de que van a competir y las han metido precio, en relación a lo que iba a ser la 80 12GB que andaba a niveles de 3090TI.
El tema es, puestos a gastarte 1300€, vas a racanear tanto rendimiento en RT cuando si compras algo de ese precio es para llevar los gráficos a tope? Yo no lo haría, AMD me tiene que ofrecer bastante más que nvidia por el mismo precio, no un 15% más de rendimiento en raster a cambio de renunciar a mucho rendimiento en RT y los extras de nvidia.