CES 2025, conferencias de nvidia y AMD

Martita-

Osea que ni con la 5090 puedes jugar decentemente a los juegos en ultra sin pasar por el DLSS xD.

Es culpa de los que crean los juegos? De nvidia? O de ambos?

3 respuestas
HeXaN

#601 El software está avanzando mucho más rápido que el hardware.

3 respuestas
Cryoned

#595 esa gráfica me dice más del estado de la industria optimizando que la potencia de la gráfica xD

todavía no he visto un solo juego que luzca como rinde de todos los modernos que se arrastran

#602 si por software dices estudios tocándose los cojones sí.

ya se veía venir de todas formas xD

memes de hace años cuando sabíamos la que se venía y lo que iban a hacer los devs con esas tecnologías

11
D10X

#602 Mas bien que se esta desarrollando ya pensando en el DLSS, FSR y demas mierdas. En vez ser una herramienta para equipos menos potentes, ahora es el estandar para medir el rendimiento.

Valiente mierda puta nos han colado con eso.

4
UsuarioD2024

#601 De los desarrolladores. Al final ellos son los responsables de como va a salir el producto, y en consola también va todo como la mierda, donde no esta Nvidia involucrada.

256

Y si los desarrolladores se salen con la suya es por culpa del consumidor. Nvidia puede prescindir de los gamers para vivir por tanto tampoco tenemos tanta capacidad de presión/voto, pero los devs no.

A seguir comprando ediciones delux con early access en un singleplayer por 90 o 100€ day1 mientras nos mean en la cara.

3
Rojosier

Huele a serie catastrófica de Nvidia, ¿no? Rollo series 2000.

1 respuesta
Cryoned

#607 de media pinta mejor que la 4000 menos la 5090 que está por verse

Gabitoe

cuando creeis que bajaria el precio inflado de las ensambladoras dando por hecho que saldran caras de cojones? obvio no vemos el futuro pero en gens anteriores qué ocurrió?

ArThoiD

#599 "Y si nada", esto son matemáticas, ciencia. 1+1.

No hay tu tía.

#601 A 4k, cuidado.

A 4k siempre ha sido jodidísimo correr los juegos, y lo seguirá siendo.

Metes 80% de resolución y a volar, manteniendo visuals de locos.

Y si no pues 1440p y a reventar.

O quitas RT vaya, que es una basura y en TODOS estos tests van a full con Path tracing.

1 respuesta
dynamic

Es que la tecnología es top, pero los desarrolladores son unos HDP

D10X

#610 No puede estar la industria vendiendo el 4K (el último anuncio de la ps5 pro va por ahí). Y que sea 4K con mil mierdas a unos mierdosos 30fps.

Al menos en la epoca de la PSX, cuando un juego petardeaba veias, o te hacian creer, que estaban exprimiendo el hardware.

Si la industria quiere estandarizar el 4k@60 que lo haga sin dlss, que meter mil cosas, tropecientos efectos y cascarte una niebla que ni el pueblo de silent hill, era el recurso chapuzas de los 90.

2 respuestas
256

edit: ups mejor en la taberna

guillauME

#560 Menudo dolor de cabeza cuando lo veía montar los PC en el rack del sótabo y los cables hasta la zona de juego con periféricos y monitores.

En teoría brutal pero la práctica un dolor de huevos montar y configurar.

Vizzini

#602 Ni de coña, la potencia bruta de estas gpus es tremenda y el problema es como dicen por ahí arriba. Están desarrollando ya pensando en que los dlss les van a solucionar la papeleta del rendimiento en todas las plataformas.
Es el peor cáncer que podíamos imaginarnos cuando lanzaron el dlss.

1
mxz239

Es tan sencillo como no comprar juegos mal optimizados. Wu Kong? A tomar por el culo. Silent Hill 2? A la venta del nabo.

Y así uno tras otro.

1 respuesta
SalviSanchez

#612 el que se siga tragando el juego en 4K o bien no tiene problemas económicos para poder cambiar de gráfica cada generación para poder jugar en dicha resolución o es que se deja llevar demasiado por el marketing. El grueso de los jugadores sigue haciéndolo en 1080/1440p y es por eso que se venden mas las gamas medias y bajas de cada generación que las gamas altas y medias-altas y como prueba un dedal: Cuáles son las gráficas mas usadas por los jugadores de Steam? La 3060, la 4060, la 4060 ti, la 3070, la 4070... Es por ello que la 5070 es la que ha tenido mas atención por parte de los medios, porque puede ser una gráfica ideal para jugar en 1440p con garantías sin tener que sacrificar nada o casi nada de calidad gráfica. Es mas, muchos están ya preguntándose si van a lanzar una 5060 o incluso una 5050.

Lo de las técnicas de rescalado? totalmente de acuerdo, pero creo que es mas por dejadez de las desarrolladoras que de los fabricantes de chips gráficos, llámese Nvidia, Intel o AMD. Los rescalados deberían ser una ayuda para las gamas bajas de gráficas y no como un requisito para poder jugar incluso en las gráficas de gama alta.

1
Moonlight86

#560

Mírate los KVM de Level1Tech (Wendell) que alguna vez han enseñado en LinusTechTips.

No son nada baratos pero parecen de muchísima calidad.

Baratos como dices sabes, por 750$ de nada: https://www.store.level1techs.com/products/p/combo-displayport-usb-c-kvm-with-usb-power-delivery :psyduck:

2 respuestas
n40k1

#616 El grueso de consumidores van a seguir comprando los juegos pese a todo, sería predicar en el desierto, tristemente.

#618 Dice que no son nada baratos :/

1 1 respuesta
kcuestag

#618 -> #619

La calidad se paga, y el tinglado que tiene montado el compañero creo que necesitará un KVM en condiciones.

jos8

#612 Lo gracioso es que tragamos con la PSX infinita más mierda de lo que hay ahora.

la PSX era 240p, la mitad de NTSC que es 480i... pero no tiene una conversión exacta a los 576i de PAL, por lo que te comiste lineas negras en vez de ajustar la resolución.

La PSX iba a 30fps en NTSC y tenía que ir a 25fps en PAL... por lo que muchos juegos se convertían a base de reducirle la velocidad un 17%.

Y si encima tenías bajones le dabas gracias por "exprimir el HW" a pesar de que el juego probablemente estaba mal programado.

Todas las generaciones han sido igual, la PS360 nunca ha podido con 1080p, PS4one tampoco con 4k con una excepción, la one X, que daba gráficos de la one pero en vez de gastar más potencia en chorradas y efectos... iba todo prácticamente a resolución y fps... y ahí está el secreto.

En el momento que la gente deje de ser tan graphic whore y exigir mejores fps/resolución por encima de RT, verle el bigotillo a la prota y en general exigir eficiencia por encima de mejoras gráficas insignificantes... tendrán 4k@60... así que cuanto DLSS, frame gen, y demás mierda quieres?

256

TLDR: BO6 needs a game reset to apply settings. IGN may not have known this, benchmarked on settings that wasn't the "Extreme Preset" thus the data that they have.

Me parece más factible esto que las conclusiones que se podrían sacar usando el benchmark de ign y comparandolo con la 7900xt y 7900xtx

1
elsonyer

pues que quereis que os diga, yo cada vez veo mas gente quejarse del DLSS y de todo lo que vomiten con IA

1 respuesta
dvneil

#623 lo escuchas en un foro de freaks.

la gente normal lee, DLSS ON quality, (quality!, eso tiene que ser el setting mas alto de calidad, mola! mejor on que off) y lo digo porque lo he visto en streamers, que su trabajo es jugar, y ni saben eso.

y que miran el numerito de fps, y dicen wow, 250 fps (con frame gen) mejor que 145 fps (frame gen off)
si tio mira que suave todo! ahora va el doble de bien!

Czhincksx

Según parece lo de Nvidia activa reescalado junto a frame gen para bajar la latencia.

Es decir, los frames generados no tienen por qué ser 100% fake sino que algunos son frames normales con su input y físicas sólo que renderizados a muy baja resolución y luego reescalados usando dlss y frames anteriores para calcularlos.

El problema que le veo a esta técnica es que bajará la latencia media, pero no tiene por qué bajar la real. Me explico:

F = frame nativo
f = frame a menor resolución

Renderizando 4k nativo:
F-------------F-------------F--------F-------------F

Renderizando 4k con generación
F--f------------F---f-------------F--f------------F-f

Ahí están sacando más fotogramas gracias a que cada frame intermedio está renderizado a, pongamos, 720p y reescalado a 4k con IA.

Si sacas la latencia media de ambos ejemplos de ve que el primero tiene más latencia, pero el segundo sólo reduce la latencia cuando está generando fotogramas a poca resolución, en el resto de casos es la misma. El problema es que luego te calculan la media y te hacen pensar que el juego responde mucho mejor al input.

Me gustaría ver un análisis detallado del tema porque esto es lo que creo que estará pasando, pero hacen falta pruebas reales.

1 respuesta
Cryoned

#625 si no han cambiado nada, deberías poder elegir la calidad de renderizado como hasta ahora que FG es independiente de upscaling.

pero que para los benchmarks han usado dlss en modo rendimiento previo a fg dalo por seguro.

vamos, que están comparando 20fps nativos a 4k vs dlss a 720 reescalando a 4k + FG, pero eso ya lo llevan haciendo 2 años en sus gráficas de marketing

1 respuesta
Czhincksx

#626 es que en uno de los vídeos que vi ayer (no recuerdo cuál) salían unas gráficas en las que con fg no sólo aumentaban los fps sino que bajaban la latencia. Y eso sólo puede pasar si están renderizando frames reales y no sólo intermedios. Pero claro, si son con ultra reescalado lo de la latencia más baja es medio fake porque los no generados seguirán teniendo latencia alta si juegas a pocos FPS reales.

1 respuesta
Cryoned

#627 también es porque activan reflex obligatorio cuando se activa FG, pero mayormente es por lo que dices, renderizan con dlss rendimiento y lo comparan con nativo

1
fkdlzh

me alegro de no haberme comprado el pc en noviembre y haber esperado por las nuevas graficas xdd la 5090 pal carrito

1
Kirbos

Una duda. Cuando presentan una nueva tecnologia de reescalado, en este caso DLSS4, en cuanto tienes una GPU que lo permitaa ya puedes aplicarselo a todos los juegos? O solo al subconjunto de juegos que lo permita?