#473 Empezando por el vídeo del Anno, volvemos a lo mismo de antes, en ese vídeo, no cambia la resolución, luego no tiene ningún sentido la comparación que hace con lo que estamos hablando.
Crysis 3, te he puesto un vídeo con una gráfica del 2013 moviendose a 60 fps en 2K, y el resto pues no voy a ir uno por uno, pero imagino que más de lo mismo. A lo que te voy es, a grandes rasgos, sí tu un juego lo mueves a 100 fps en 1080p, en 2k igual lo mueves a 90 fps, y en 4K a 40 fps.
Esto no quiere decir, que todos los juegos a 4K vayan a 40 fps, ni que todos los juegos a 1080p vayan a 100 fps, una cosa no tiene relación con la otra, depende del juego, depende de la tarjeta, depende de muchos factores, pero vaya, te lo intento explicar simplificado:
1080p = 1920 x 1080 = La tarjeta calcula 60 veces por segundo, el color que tienen que adoptar 2.073.600 píxeles
2K = 2.048 × 1.080 = La tarjeta calcula 60 veces por segundo, el color que tienen que adoptar 2.211.840 píxeles
(esto no es exactamente así, ya que la forma de renderizar de la gráfica funciona de otra manera, pero a grandes rasgos nos sirve)
Como ves, la diferencia en cuanto a calculo, es tan solo de entorno a un 6% más exigente en cuanto a calculos necesarios, una diferencia ínfima. Pero claro, si el juego a 1280x1024, te está dando bajones, da lo mismo que tengas una tarjeta que pueda moverlo a 4K, porque te seguirá dando bajones, pero no es culpa, ni de la tarjeta, ni de la resolución, es culpa del motor que por una mala optimización, no es capaz de generar esa cantidad de frames por segundo en determinadas situaciones, a la resolución que sea.