Al menos no es por criptos 🫣
#632 Es 4k eso ya te lo adelanto todas sus pruebas ahora en su blog lo han sido, alanwake 2 por ejemplo. O mismamente a mi el cyberpunk a 4k rt full me va a eso 18-26 y con dlss3.0 va a 90-110. Supongo que la mejora sera de un 5-8% cosa que no esta mas porque es por la patilla y encima ganando iq.
El dlss es la polla, el problema es cuando se aprovechan del dlss para hacer juegos injugables sin dlss
#659 Imagínate que vaya a 30 fps xddddddd
Y consolas tengo también, pero no compares el cyberpunk en ps5 que en el Pc
Los mil pavos extras esos que dices son precisamente para no estar haciendo tweaks a todo, ponerlo en ultra y go brrrrrrr lo que aguante con una experiencia 10/10
Otra cosa son juegos mal optimizados como tarkov donde no saco más de 120fps da igual los settings que tenga
Otro increible port
Hardware requirements of the game are insane. In order to reach 60 FPS at 1080p with highest settings you need a RTX 3080, RX 6800 XT or faster. Yup.. lol.. Got a 1440p monitor? Then you've gotta bring the big guns—only the RX 7900 XT, 7900 XTX, RTX 4080 and RTX 4090 can achieve 60 FPS at that resolution. 4K60? No way, RTX 4090 gets 44 FPS, RX 7900 XTX is close-behind, with 41 FPS. Given the graphics you're getting this performance is terrible. Not sure what's wrong with game developers this year, but there's no way the game should run this badly on decent hardware. While you're able to dial down the settings, they actually make very little difference visually, and the performance gains are rather small, too. At least there's support for DLSS and FSR upscaling, and you can even enable DLSS 3 Frame Generation. The problem is that apparently nobody ever tested DLSS 3 in the game, because it comes with an unbelievable amount of artifacts, ghosting and issues—completely unusable. On top of that you can only enable DLSS 3 Frame Generation when DLSS 2 Upscaling is enabled (which is not an actual technical requirement). There's no support for DLAA either, but that's the least of your problems I'd say.
#665
Es tremendo, no sé cómo no se les cae la cara de vergüenza, UE5 pinta a que va a ser un dolor de cabeza para muchos estudios que no quieren trabajar demasiado:
#667
He leído que utiliza bastante tecnología y herramientas del UE, Lumen y cosas de esas, pero vamos, no sé dónde, porque a veces parece un juego de PS360, y más si al final tienes que jugar a 1024x720 porque funciona de culo.
#665 Minimo una 7900XT para jugar a 2k ultra xDDDDDDDDD
¿Ha salido algun juego con unreal 5 que haya rendido bien? Porque no recuerdo ninguno de los pocos que han salido. Y otra cosa, he visto el juego y no me ha parecido gráficamente nada del otro mundo para la burrada que consume.
#665256:The problem is that apparently nobody ever tested DLSS 3 in the game, because it comes with an unbelievable amount of artifacts, ghosting and issues—
mentira, que me han dicho que dlss no tiene ghosting y los fake frames son perfectos y el resto haters que usamos radeon y nunca los hemos visto, además 30fps son más que suficientes para un single player y noseque de ojos biónicos.
#669 Esto me suena mucho de una conversación en el hilo de rendimiento de Starfield, pero a varios asíduos nos han dicho que no tenemos ni idea de graficas, artifacts, o de configuraciones, o de que es el DLSS/FG/RT.
Ojalá hubiese sido esa conversación en este hilo... xD
#669 Venga que puede salir un port aun peor para que los ATI fanboys puedan apuntarse una!
Desde la release de TLOU Part 1 en PC no pasaba tanta vergüenza ajena
Hablando de FG (tecnologia que necesitas ir sobrado de FPS's segun tu mismo has dicho en otros posts) en un juego que una 4090 a 1440 lo mueve a 60 fps. Y luego metes lo del ghosting que no viene a cuento porque hablan de DLSS3/FG y aunque tenga DLSS2 incluido, el problema es el rendimiento, pero a ver si cuela.
Se que era bait pero bastante lamentable para ser usted, abuelo.
El UE5 bajo mi opinión está adelantando para el hardware actual mínimo necesitaba una generación más de potencia en GPU y veremos si no le hacen recortes, no seria la primera vez el UE4 se presentó con voxel Cone Tracing y por temas de rendimiento se abandonado y saco del motor esa técnica.
Hay dos puntos donde el UE5 se puede optimizar par el hardware actual:
- Nanite: No entiendo porque usar micropoligonos y que un solo modelado tengan más de 300,000 polígonos, cuando el Mesh Shader puede dar un rendimiento hasta de 5x con la geometría actual. Con Mesh Shaders se puede duplicar y triplicar los polígonos actuales en juegos y ganar rendimiento, Nanite debería volver los triángulos normales y teselados, y abandonar los micropoligonos.
-Lumen:Epic debería de hacer obligatorio que se pueda seleccionar Lumen hardware o software, Lumen es pesado pero talvez optimizando Nanite no haga falta toquetearlo, tal vez el pasó lógico era esta vez sí el Voxel Cone Tracing o Pathtracing por voxel.
#673 En mi opinión, creo que en general la tecnología siempre está por delante del hardware actual, en lugar de intentar mejorar el rendimiento y la estabilidad del software, o intentar llevarlo a la mayor cantidad de plataformas posibles, optan por innovaciones de chichinabo que no disfrutaremos hasta pasados varios años, ahí están cosas como PhysX o RayTracing, que en su día eran cosas en las que muchos estudios se apoyaban para vender sus juegos y al final no podía disfrutarlos nadie.
Con UE5 pasa igual ahora, se les llena la boca decir que X juego utiliza el motor pero sin decirte que te va a ir a 20 fps utilizando el rescalado.
Un juego puede estar adelante en tecnología como lo fue Crysis, pero un motor gráfico debería se escalar para todo tipo de hardware , el UE5 default solo ofrece Lumen y Nanite, y viendo el rendimiento que requieren estás tecnologías no es muy escalar.
Epic está buscando una calidad pixart en juegos ,pero a lo mejor todavía es algo prematuro para algo así con el hardware actual.
El Mesh Shaders (o la técnica similar que usa Epic. en el UE5)es una de las técnicas estrellas de esta generación que no se está usando y Epic que es de los pocos que la usan en el UE 5 con Nanite la desperdicia en modelados de 300,000 micropoligonos, que si lo bajas 100,000 polígonos nadie va notar la diferencia.
En fin veremos qué hace Epic.
La demo de Matrix ya iba 1080p y 30fps en consolas.
Vamos que esto pintaba mal , yo pensé que el retraso y las versiones 5.2 iban hacer para recortar un poco y mejorar el rendimiento , pero parece que seguirá siendo pesado para el hardware actual.
#674 1440p 7800x3d 4090 32 GB ddr5 6000mhz.
Va muy fino la verdad.
Muy buena optimización.xd
#683 yo lo mismo pero el 7700x y en 4K , en 2k me va igual, menuda burrada extra por el 7800x3d
Vi un meme de ps5 240fps pero yo no encontre nada ni de 240fps ni de ps5 slim.
Me da que es puro fake. De hecho los comentarios son de hace 3 semanas
Me habian generado la duda de q habia anunciado algo sony de 240fps o de ps5 slim
https://www.instagram.com/reel/CvZ5J3WNVal/?igshid=MzRlODBiNWFlZA==
Lo que encontre es q se espera ps5 slim a final de año y a 400dolares
Y mira por donde al ponerlo en google habla ps5 con el horizon por 350euros. Yo la pille. No se si sera estada o que. El vendedor era wakkab. Y creo q todavia quedan unidades a 350 si le das a otras opciones
Unos ponen q el vendedor bien. Otros q estafa. Otros que problemas.
A ver q pasa. Siendo amazon…
#685 es un scam tipico de terceros en Amazon campeon..... Te devolveran la pasta pero ya estas sin ella unos dias.
Cancela ya.
#684 Ostras pues es muy raro que bajando de 4k a 2k no exista mejora de rendimiento.
https://www.youtube.com/watch?v=8yphTkDcqrY&ab_channel=GameBenchmarks
Con un 5800x3d rinde mejor por lo que me parece entender con lo que dices. Yo estuve apunto de comprar un 7700x pero viendo lo bien que han salido los 3d me lance a por el.