#202 el consumo de VRAM ? MSI Afterburner por ejemplo, aunque es orientativo.
#205 es que si pillo OLED más pronto que tarde necesitaré una tarjeta HDMI 2.1 para poder utilizarla de forma plena. Y nops, ahora mismo no hay gráficas con HDMI 2.1.
Pero si la mayoría de TVs al poner el modo "gaming" aka reducción de input lag, funcionan SIEMPRE a 4:2:2 o 4:2:0.... A no ser que los pongas en moco PC no funcionan a 4:4:4, y en estos modos tienes mucho más input lag....
No sé yo hasta qué punto eso se arreglará con HDMI 2.1, porque el problema no es necesariamente de bandwith.
#215 Y 12 GB de RAM... No hay alguna opción de texturas que bajandola ahorre VRAM y no se note en la calidad? Lo digo porque muchos juegos simplemente en ultra lo que hacen es llenar la memoria de vídeo, pero la calidad de ultra a alto es la misma como en Residen Evil 7 (únicamente afectaba al efecto "popping" de las mismas)
#218 Es que es exactamente eso.
Cuanta más VRAM tienes, más "en uso" tienes, no hay más. Otra cosa muy diferente es la que realmente necesita.
Básicamente es "allocated" memory, que si eso ya se usará, pero no necesariamente. Mucha información se usa una vez, y si sobra espacio, pues ahí se queda.
Este debate es un poco antiguo, MSI AF muestra el uso total Vram, generalmente los juegos si tienes Vram de sobra meten cosas secundarias que se guardan en la Ram, pero no afecta en nada, se debería preocupar cuando se llena de cosas primarias que usan un gran ancho de banda, pero eso es imposible de medir con msi af, la única forma de saber es si te pegan tirones.
Lo mismo pasa con la Ram si hay espacio se cachean ahi, para no estar tirando del SSD.
#208 de hecho posiblemente sea más barato pagar por máquinas para entrenar a la IA que pagar por tiempo de desarrolladores que optimicen engines/juegos (que sin conocer el mundo game dev puedo imaginarme que serán de los más caros)
por funcionar, funcionan hasta juegos con 8gb de texturas en gráficas de 4, otra cosa es que te chupes tirones o cargas de texturas raras.
#216 no sirve como ejemplo porque usa parte de la VRAM como cache.
#217 Mas de lo mismo que el caso del COD, tiene una opcion para que use parte de la memoria como cache (y asi ganar rendimiento).
#223 en un caso extremo como ese, en vez de simplemente tener tirones de vez en cuando se pasaria a que el rendimiento caiga en picado constantemente.
Pues ya se sabe más o menos lo del 14
https://videocardz.com/newz/nvidia-dgx-a100-first-ampere-based-system-spotted
sigan circulando hasta octubre
A ver si alguien me aclara lo de DLSS 2.0 y su funcionamiento, porque pinta demasiado bien. Si ahora mismo estas jugando a un juego 4K nativo con 45 fps, con esta tecnología puedes dar un salto con una calidad incluso superior a la imagen nativa e impulsar el rendimiento hasta los 116 fps. Y estamos hablando de la misma tarjeta gráfica.
https://www.techspot.com/article/1992-nvidia-dlss-2020/
Entiendo que la gráfica en vez de trabajar directamente en 4K, renderiza en 1080p y reescala la imagen a 4K con DLSS que no deja de ser una AI. Si ese salto en rendimiento no es humo, esto es una revolución brutal. Y eso que con las nuevas graficas pinta que van a subir en rendimiento bruto y sobretodo en RT (se dice que una 3060 será superior en este sentido a una 2080 TI).
El único pero es que tarde en implementarse en los juegos, pero directamente nvidia se ha sacado el rabo con esto, sería viable jugar a 4K esta misma generación incluso con RT. Se viene follada por parte de nvidia.
#229 Es básicamente lo que dices, renderizas a 1080p o 1440p y escalas a 4k. Eso sí, se pierde calidad eh, no es igual que el nativo ni de coña, aunque anda muy cerca, pero superior no.
Vaya, lo que cualquier no-entendido en fotografía/imagen te diría que es algo "obvio" xDD
Se la han sacado bien si, falta que funcione en más juegos.
#230 Aun asi viendo las screen la calidad es bastante similar, vaya, que encima multiplicas el rendimiento...parece magia. Eso si, las RTX actuales que mal van a envejecer, mas si el rendimiento de DLSS permite activar RT y se estandariza.
Rumorcitos.
Posibles retrasos en el lanzamiento, y encarecimiento en el proceso de fabricación de la gama media-alta...
Difícil veo que las Ampere salgan más baratas, la verdad. Canto en los dientes si se mueven por los precios de sus homólogas de Turing.
#231sPoiLeR:Eso si, las RTX actuales que mal van a envejecer, mas si el rendimiento de DLSS permite activar RT y se estandariza.
Hombre, precisamente al permitir RT con DLSS le estás dando muchísimo valor al RT que casi que no podías usar a según qué resoluciones...
Ese es el detalle de momento el reescalado IA (DLSS) es una tecnica cerrada solo de Nvidia y la verás solo en juegos patrocinados por ellos.
Para que esto se estandarize en todos los juegos hay algunos factores:
Que a nivel de hardware todas las GPU y consolas tengan una cantidad o ratio masivo en unidades FP16, lo que se llama Tensor Core.
O que se encuentre alguna manera standar de hacer reescalado IA en INT 4.
#235 Hombre, eso a una consola le viene que flipas pepinillos. Como la next-gen lo traiga las diferencias gráficas entre las consolas actuales y las venideras serán mucho más grandes de lo que la mera potencia de las consolas nos indique.
Y si lo traen las consolas... AMD debería traerlo también en pc.
Microsoft hablo de IA, pero INT 8 y 4, pero de momento no se sabe.
RDNA2 parace que no tendra Tensor Cores, si no el típico ratio 2:1 en FP16, subdividiendo las ALU FP32, sera de ver si es potencia suficiente para hacer un reescalado IA en consolas, la Xbox tendría solo 24 tflops en FP16, 48 Tops en INT 8 y 96 Tops en InT 4. Para hacernos una idea:
- Nvidia tiene un ratio 8:1 con los Tensor core, por cada SM de 64 ALU FP32 hay 512 ALU FP16.
- Por ejemplo a una RTX 2080 de 46 SM, da una potencia de 80 tflops en FP16, 160 Tops en INT 8 y 320 Tops en INT 4, con los Tensor Core.
#232 #234 Me refiero al rumor que se refiere en que una RTX 3060 podría ofrecer un rendimiento similar en Ray Tracing al de una RTX 2080TI. Esta claro que en potencia va a estar por encima, pero en concreto de esta característica parece que los early adopters van a notar diferencia y pueden haber sido los "conejillos de india". Si el RT te la pela, pues con DLSS tienes una tarjeta para años.
Habrá que esperar al 14 para ver que presentan.
#229sPoiLeR:con esta tecnología puedes dar un salto con una calidad incluso superior a la imagen nativa
no
dlss jamás será superior a lo nativo, ninguna técnica similar lo puede ser. Además dlss siempre lo comparan con la calidad equivalente de un juego usando TAA, el antialiasing más rancio de todos.
Que te puede salvar las castañas del fuego si tu gpu es vieja o vas con un monitor 4K y una 2060, pero no usarlo no es lo deseable, es una obligación de cuando te has quedado con un pc viejo o poco presupuesto para lo que quieres mover.
#239 es un showman xD