#599 hombre, yo mas bien creo que si te gastas +2k en un pc, es que tienes algo de idea de lo que estás comprando y por ende, sabrás configurar minimamente ciertas cosas.
dudo les guste jugar a 20-30 fps con artifacts y un raton de mierda
#599 hombre, yo mas bien creo que si te gastas +2k en un pc, es que tienes algo de idea de lo que estás comprando y por ende, sabrás configurar minimamente ciertas cosas.
dudo les guste jugar a 20-30 fps con artifacts y un raton de mierda
#593 El DLSS no usa exactamente la misma VRAM que la resolución en la que se renderiza ni la de salida, no sé si habrá algún análisis en el que lo hayan detallado en condiciones. El DLSS que tiene muy buena calidad a 4k es cuando usas una interna de 1440p, así que tienes que pensar en que necesitas algo más que 1440p y si actualizas cada 2 generaciones o más, a ver que pasa ahí, a los 3 años. Eso dando por sentado lo que quieras jugar tenga DLSS y que llegue pronto el 3.0.
#595 Claro que lo es, quien no lo haya probado ahí tiene comparativas para ver lo que ofrece.
Cosa a criticar de AMD, mencionar las tecnologías propietarias de NVIDIA como algo malo pero luego sacar cosas en tu GPU que solo puedes aprovechar con hardware de tu misma empresa.
#601 Ufff, mi experiencia dice justo lo contrario, los que mas se gastan suelen ser los que menos saben. Van a la tienda con al pasta en la mano, eligen lo caro que les "recomienda" el vendedor y a casa con sus 64 GB de RAM.
PD: si te contara todos los colegas/conocidos que se actualizaron el PC cuando el boom del PUBG y las enmierdadas que se pillaba la gente... Pero vamos, de toda la vida lo he visto.
Tendran la misma cantidad de unidades de intersección que CU y 128 rops:
https://www.amd.com/en/products/graphics/amd-radeon-rx-6900-xt
¿Se sabe algo de los precios de EU? Porque NVIDIA hizo un 1$ 1€ con las FE. Pero AMD con los procesadores ha quedado lejos de eso.
#580 A mi los precios "oficiales" no me indican toda la película porque tradicionalmente NVIDIA cuesta más que AMD, al menos aquí. Es decir, digo que si en USA la diferencia entre RTX3080 y 6800XT es de $50 aquí muy posiblemente nos encontremos con 80€. Y sin contar el alza de precio de las RTX3080, ojo.
No sé por qué pero es algo que tradicionalmente ha ocurrido.
#608 no te equivoques , si alli la 3080 costaba 699 , aqui han sido 720 , si la xt vale alli 650 , aqui andara por 669 . las diferencias se mantienen , otra cosa es que en europa nos iflen los precios si o si , pero todos por igual
Amén que los precios son en dolares y los que aplican aqui en euros por lo que la inflada es aun mas sangrante
Parace que si tendra "DLSS" y las consolas tambien:
https://news.xbox.com/en-us/2020/10/28/a-closer-look-at-how-xbox-series-xs-integrates-full-amd-rdna-2-architecture/
Lo que si creo que no tienen las consolas es la Infinity cache eso o tienen una mas pequeña de 32-64mb, ya que de otra forma no tiene sentido meter bus tan grandes de 256bits y 320bits con GPu de consolas:
según burke por lo que pudo hablar con amd, le dijeron que no iban a presentar absolutamente nada de RT por el momento no porque el rendimiento sea bajo sino porque casi ningún juego con RT es compatible con amd y no quieren promocionar algo que luego no se pueda usar como le pasó a nvidia con las 2000
yo no me lo creo y entiendo que es simplemente una forma de endulzar las conversaciones para que no les tiren tomates por un bajo rendimiento, pero ahí queda la explicación oficial
Suena a excusa, el RT de Nvidia es DXR, asi que en AMD deberia ser compatible los juegos que hay para Nvidia.
El RT tiene pinta que sera como lo que filtro igorlabs un poquito mas potente que Turing.
Leo que la 6800 xt tendrá 20.7 tflops, es esto correcto? Compartiendo arquitectura, cuanto es mejor que una xsx?
Me autoeditado 12 VS 20
Entonces los que compramos una rtx 3080 hicimos buena compra no? xD
No parece que las nuevas de AMD sean para tanto... si que parece que se han puesto las pilas, pero bueno, viendo precios y rendimientos parece que la cosa va a estar muy igualada.
#615 pero requiere trabajo que las empresas aún no han hecho porque no vas a hacer algo para un producto que aún no ha salido. No es hacer 2 clicks.
En teoría debería ser 2 click, asi como Nvidia solo tuvo que desbloquear el drivers para que las GTX1000 funcionara con RT. El RT de Nvidia al estar basado en DXR es compatible con todo hardware que soporte Api directX, AMD solo tiene desbloquear los driver y debería funcionar en las RX6000 con sus unidades dedicadas.
Joder me parece bastante error pensar que -50$ + 16GB es mejor que > +50$ 10GB DLSS RT, pero bueno cada uno que haga lo que quiera veremos los benchmark que dicen finalmente.
AMD tendra su DLSS al parecer y el RT actualmente no es tan determinante, ya que de aqui se standarize el RT en consolas tendras RDNA 3 y RTX 4000 con bastante mejor desempeño en RT.
Aparte que estas RX6000 a falta de mas informacion haria RT un poquito mas potente que las RTX 2000. Eso si yo tambien considero que AMD tuvo que dejar una diferencia de 100 para no dejar duda en eleccion.
Me parece que han dado un salto de gigante, pero sus datos son poco consistentes...
En todas las reviews, la 3080 en Doom eternal 4k esta por encima de los 150 FPS, aqui le dan menos de 135, lo mismo en Tomb Raider...
Al menos 150FPS en 4k... en algunas otras comparativas rondando los 155FPS.... la gente de AMD nos muestra.
Que la 6800Xt marca 138 IGUAL que una 3080 .... IGUAL.... de que carajos hablan... 138 FPS lo obtendras con undervolt...
Voy a revisar el resto de juegos, por que me da a mi que los rojos, estan poniendo información poco consistente...
Que os parece?¿
PD... Shadow of the tomb raider...3080---> 101 FPS, segun AMD --> 88 WTF!!!!!!
Para los que dicen que la 6800 es cara, es la 6800xt capada, seguramente con un flasheo se pueda conseguir el rendimiento de una 6800xt.
Pues de 34 fps a 471 hay una diferencia de 14x de potencia, al menos que lo este interprentando mal o sea una prueba especulativa, hay un salto mas grande del que hubo de pascal a Turing que rondo los 8x entre no tener RT core y Tener RT cores.