#270 Hombre a 4K, full RT, +100fps. Qué quieres?
#271 Debería ir así sin DLSS, no con DLSS
Te venden una grafica de 2000 pavos para jugar a un juego tencicamente antiguo a poco mas de 40fps, pues tu me diras que queremos...
Pues ya está la 4090 inutilizada para 4k@RT a 3 meses de su salida, yikes.
El DLSS basura que se lo metan por ahí.
De todos modos el 9900k hace mucho cuello de botella, da igual que sea un i9, la potencia comparada a incluso un 13600k es de risa. Un 9900k con una 4090 es lamentable. A 4k no tanto como a menores resoluciones, pero vaya....
Aqui comparativa en 4k justamente:
https://www.reddit.com/r/nvidia/comments/yfilqd/9900k_13700k_upgrade_for_4090_comparison/
Uplifts considerables en algunos juegos.
#275ArThoiD:Un 9900k con una 4090 es lamentable.
¿Tu crees?
Wow, 2 hilos al 50%, que locura!!!111!
Ya te digo, lo máximo que he visto a mi i9 jugando es al 9% de uso
#276 ? Eso no tiene nada que ver con el cuello de botella, pero ok. Eso es que el juego de mierda sólo usa 4 o 5 cores.
En ningún caso puedes asumir que si el juego no usa 100% de CPU es que no hay cuello de botella xD Ni con este ni con ningún juego, no funciona asi.
Comprarse GPU tope de gama y mantener el resto de hace 4 o 5 años es de ser un quieroynopuedo. Si eso te miras la comparativa que he puesto que en algunos casos hay 40% de diferenica.
#277 Hombre, el cuello de botella se produce si un componente no es capaz de ponerse a la altura de otro
Si tienes la CPU sin trabajar al 9% como la tengo yo en todos los juegos, o como ves en esa imagen, con 2 threadsa (de 16) al 50%, dime tu en que te basas para decir que eso limita a la GPU.
Si esa CPU un poco mas y se va de vacaciones mientras lo mueve xD
#278 En que el % de uso no te dice realmente nada. Has visto algun juego que ponga la CPU al 100%? Porque es muy muy raro de ver, solo el BF ponia los quadcore en su día bastante a tope, pero poco más.
A ver, tenéis que empezar a entender que faltan bastantes años aún para que haya un rendimiento decente utilizando RT. Sin más.
#275 para pruebas con RT ON la CPU es un buen modelo de referencia incluso según ese enlace que pones de reddit (un 10 % de diferencia respecto al 13700k). RT off ya es otra cosa, pero no viene al caso en ese vídeo de dsogaming.
Yo luego he visto un vídeo de i7 12700kf con la misma gráfica y le da menos fps que el i9... pero buenos tirones
En PC parece que el rendimiento es una mierda
Ya lo tengo comprado, lo probare, pero espero poder correrlo en 2K decentemente con un 12900K y una 3080Ti, ademas va a ir en un nvme (980 pro).
Pero vamos ultimamente esta siendo de locos… es una pena lo que esta pasando en PC, para mi jugar con stuttering es imposible…
La culpa es de "Denuvo" es la mayoría de foros.
Esta bien culpar al tercero en vez de reconocer que pasas de gastar recursos y tiempo en hacer un buen juego en PC, que es lo que le pasa a la mayoría de los estudios.
#287 Da igual si la gente lo critica por Denuvo o por mala optimización.
La culpa sigue siendo de la desarrolladora, ya sea por una cosa u otra.
Siendo realistas, a parte de la mala optimización per se, si quitamos denuvo pues joder, mejoraría bastante el rendimiento. Recuerden como iba el resident evil village
#289 Pronto se podrá probar la versión sin Denuvo porque cierto grupo le ha declarado la guerra a Warner.
Pero me juego que tampoco va a ver un boost de rendimiento.
#291 10 días ha dicho Empress https://www.reddit.com/r/Piracy/comments/10scqwt/empress_promises_to_crack_hogwarts_legacy_within/
Dicen que con monster Hunter lo consiguió. No sé si era la misma versión de Denuvo que llevará Hogwarts Legacy.
¿Pero porque veis el DLSS como algo negativo?
Jugué a Crontol en PC con una 3060 a 1080p con DLSS Quality creo que por aquel entonces andaba por la versión 2.1 con RT y la calidad de imagen era bastante buena.
Es cierto que en Warzone daba sida de ebola el DLSS pero creo que tiene que ver más con la integración que hacen los devs en el juego.
#295 Porque es un reescalado, y una excusa de los devs para venderte el 4k a 60fps sin optimizar una mierda.
Es como volver a la epoca de los 1080i
#295 La gente mira con cierto recelo que se convierta en standard hablar de videojuegos y gráficas con el DLSS/FSR permanentemente activo y que se convierta en algo must, en parte, para no sentirse uno estafado con que nos venden cierto rendimiento maravilloso y dejarte las pelas en él para que no sea nativo y puedas verle algunas costuras con artifacts en partículas y algún fallo puntual.
O sea, que no se convierta en habitual hablar de gráficas y videojuegos y que para que estos corran bien tengan que tener sí o sí estas tecnologías. Que la base esa correr en nativo Y BIEN, y luego ya, ya veremos si le quiero meter un DLSS para que me tire el juego en 4k decentemente en el salón
Si tienes una gráfica que no sea de gama media-alta o superior pues sí, esto lo puedes ver como el salvador, porque te apaña mucho los juegos para que puedas disfrutarlos en mayor calidad de preset, pero no es lo mismo el quien se gasta 700€ en una gpu que el que se gasta 320€
DLSS depende MUCHISIMO de como lo hayan implementando de bien los devs, y de la version. Con el DLSS Swapper puedes cambiar la version de DLSS de cualquier juego, aunque reemplazar el archivo dll del DLSS en la carpeta del juego tambien vale.
La version 2.5.1 es bastante locura lo que ha avanzado el modo Ultra Performance.
Todo lo que sea mas gente pudiendo jugar a mas juegos ya sea por nivel adquisitivo o por X razon es bien. El problema es cuando se optimiza con el DLSS en mente.