Introducción
DLSS es una tecnología de upscaling vía IA.
Estas tecnologías se basan en "crear" contenido plausible con la información inicial.
Estos entrenan IAs haciéndolas competir con otras IA. Una IA (generadora) crea la imagen, otra IA (juez) dice si la imagen es plausible o no. Si la imagen no es plausible se crea una nueva y se vuelve a enviar a la IA juez. Una vez la IA generadora está entrenada se utiliza para reescalar en vivo el juego.
Hay diversas tecnologías para ampliar imágenes.
Siempre se han utilizado algoritmos que cogen la información inicial y extrapolan con diferentes técnicas, Splines, Nearest-neighbor, doblar pixels, etc. Hay muchos. El problema de estos algoritmos es que son incapaces de generar información nueva a partir de la información original.
Actualmente las consolas utilizan un sistema llamado checkerboard, que hacen el upscaling con filtros temporales. Por ejemplo, renderizando una vez los pixels pares, en el siguiente tick los impares y luego uniendo estas imágenes con algoritmos de reconstrucción. No estaba puesto para nada en esta técnica y cada motor la implementa como quiere. https://en.wikipedia.org/wiki/Checkerboard_rendering
Por ejemplo: Si por contexto 4 pixels son una cama, estos algoritmos no lo saben. Te estiran con más o menos fortuna tus 4 pixels iniciales y ahí se queda. Una IA bien entrenada, sería capaz de entender que esos 4 pixels son una cama, así que a la hora de agrandar la imagen intentan generar una cama a partir de ellos 4 pixels.
Ahí nació DLSS, una tecnología propietaria de nvidia para hacer upscaling vía IA. Empezó con muy mal pie. Su implementación en Battlefield V y en Metro fueron bastante pobres. Donde daban una imagen borrosa, incluso peor que imagenes reescaladas con algoritmos simples.
Esto fue cambiando con el tiempo hasta que Nvidia presentó su DLSS 2.0 Que mejora muchísimo en comparación a la anterior versión.
Al lío
Total, todo ese tocho para hablar del nuevo video de DF:
Si bien la tecnología tiene luces y sombras, pues hay escenas que la IA adivina mal.
Por ejemplo, en el minuto 15:45 del video, crea unas estelas en partículas que no debería crear.
Ejemplos positivos son puntos donde la IA adivina que un brillo debería ser uniforme donde la resolución nativa sufre de dientes de sierra porque hay pixeles iluminados y otros que no, dando esa imagen que todos conocemos de que los brillos lucen raro. La IA la corrige. O zonas como pelos con bloom que la IA define incluso mejor que el renderizado nativo.
¿Dónde está el límite del tamaño de renderizado para monitores de pc? 4k, 8k, 16k ? Dónde está el límite en el que el supersampling se hace innecesario?
Desde mi punto de vista, está claro que hoy día aún y renderizando a 4k, el supersampling aún mete información valiosa. Así que DLSS se puede meter a una imagen nativa y hacerle supersampling para mejorar la calidad de la imagen.
¿No mojáis las bragas con esta tecnología?