AMD Radeon RX 6000 Series - Aquí tienes los 16GB

Czhincksx

Parece que los modelos base viene con unas frecuencias más bajas que las de stock de las 6800XT y eso se refleja en un rendimiento que no destaca demasiado. Como viene siendo habitual mejoran respecto a Nvidia a resoluciones bajas y empeoran a resolución 4K.

Las posibles bestias a batir de todos modos puede ser aún estas 6900XT pero modelos custom, si es verdad que pueden subir a los 3Ghz. Porque de stock parece que van a unos 2.3Ghz.

Para el tema 4K es posible que AMD se haya quedado corta con el tamaño de la infinity cache.

B

En temas de OC parace que las de referencia estan limitadas por powerlimit.

Tencru

#2520 Joder con sam activado, a ver a qué precio la pone pccomp y amazon

B

A pesar que tiene 8 CU mas, el consumo esta bastante parejo con la 6800xt. Sin duda esta 6900XT debio de ser la 6800XT🤭.

vene-nemesis

No es la gama que me interesa, a ver que tal hacen OC.

Para todo lo demás 6800xt en cuanto haya stock.

espikiller

Cada día me alegro más de la suerte que he tenido al pillar una 6800xt por 660 euros la verdad, estoy encantado en todo lo que he probado. Eso sí, no entiendo que haga esto bien y saque esta 6900xt con ese rendimiento.

1 respuesta
Dek0

#2526 si te la pela el RT y el DLSS te has llevado una buena joya por ese precio, que encima es bastante probable que vaya a envejecer mejor que la 3080 por los 16gb.

Sust0

Pero si están subiendo algunas 6800xt a unas frecuencias de escándalo. A nada que saquen unas custom la 6900xt yo creo que supera a la 3090 en casi todo.

P

https://www.pccomponentes.com/xfx-amd-radeon-rx-6900-xt-16gb-gddr6

1 respuesta
DiS4Bl3D

#2529 merece la pena frente a la 6800xt o 3080?

1 respuesta
P

#2530 Depende de cada uno...

1 respuesta
DiS4Bl3D

#2531 bueno ya no quedan ... jeje

2 respuestas
kurisichian

#2532 ha durado minutos ;_(

1 respuesta
fortxu

#2508 Yo diria que son unicornios. no creo que haya tantas como las 3090.

Dek0

#2532 #2533 ahora mismo me siguen saliendo para compra... a 1099€.

1 respuesta
kurisichian

#2535 a mí me aparece con avísame, a ver si hay suerte...

1 1 respuesta
Dek0

#2536 Bueh según me has mencionado he vuelto a entrar y me sale también el Avísame, pero juro que en el post anterior me salía el de Comprar xd

Ya me ha pasado varias veces en su página en las últimas semanas, no sé si será cosa de mi navegador, que justo hay alguna cancelación cuando lo miro o qué.

B

Hasta el 2021 nada de nada.

Aparte que da igual el Cyberpunk 2077 no se mueve 4k y 60fps con ninguna de estas GPU🤭

B

Os están haciendo un favor con CP2077, para cuando haya stock lo tenéis con 3 parches.

BTW si se confirmará el rumor de la PS5 Pro con dual GPU las 6800 deberían de ser interesantes para hacer un CF si empieza a extenderse el soporte, sobre todo cuando pase un año o dos y tengan un buen descuento si uno ya tiene una montada.

A 4k la diferencia de rendimiento es MUY bestia y de VRAM vas sobrado.

200 FPS en RoTR a 4k, madre de Dios.

2 respuestas
fortxu

#2539 El SLI esta muertisimo. Si eso llega algun dia a ser verdad igual vemos un resurgir de las configuraciones dual gpu. ahora mismo es como un meme sacar esto. con todos losmproblemas de stock y hablando de Dual GPUs. jaja. que cabrones son

1
B

#2539

Pensaba que estaba en un hilo del 2010 cuando lei lo del CF/SLI🤭.

PD: Y La PS5 pro dudo mucho que sea dual GPU, a lo mucho sera MCM que si puede tener 2 GPU en 2 DIE,. Pero es algo totalmente diferente al SLI y CF o las dual-GPU de antaño.

1
B

El marketing de AMD:

1 respuesta
B

#2542 Que yo sepa RDR2 no tiene problemas a 4k referente a memoria con una 3070/2060Ti y tiene 8gb, vamos, que esa gráfica debería de ser de memoria asignada en una GPU con mucha memoria pero no uso real. Dicho esto, RDR2 en una 3070 va mal en ultra, a secas, pero no por la VRAM.

El caso de Godfall a 4k y RT es para cogerlo con pinzas, total que con RT baja continuamente a 30-40 fps en la 6800 xt y sin RT tiran completamente a la par:

Estaría bien ver el uso real y como afecta a una 3070/3080 si le ponen RT de cara al futuro más que nada, porque total, jugar un juego así a 30 fps da bastante asco IMO.


Edit:

Fun fact: En realidad Godfall a 4k en rasterización no colapsa ni los 6gb gddr5 con bus de 192 bit de la 1060, que tiene un ancho de banda 4 veces por debajo del de la 3080 (192 GB/s vs 760 GB/s):

La de 3gb colapsa incluso a 1080p pero la de 6gb aguanta 4k.

Referente a los ajustes, esto me ha parecido esto llamativo:
2 respuestas
danao

#2543 tal vez no se aprecie en fotos? No veo diferencia en las texturas :S
Las has sacado tu? Tal vez sean fake de por ahi?

1 respuesta
fortxu

#2543 no estan alreves las fotos? en la primera no se ven ni los detalles de la columna

1 respuesta
B

#2544 #2545 No son mias, esta el link en la parte superior del spolier y lo he puesto como sale ahí, pero yo creo que si, que esta al revés. En la madrugada asocie el pilar de una foto a la otra, pero es que si, yo creo que todo se ve peor en general quitando el nivel de forestación. Se les habrá ido la pinza.

1 respuesta
fortxu

#2546 si si. ya lo he visto en el link, pero me parece eso mismo. como si se viera mucho peor. pero como yo tengo os ojos raros ya no se. A veces hasta veo mejor el DLSS que el original en algunas imagenes, menuda blasfemia.jaja

B
vene-nemesis

Ya se sabía, iban a hacer un run inicial y luego todo a AIBs.

1 respuesta
B

#2549 El problema es que los modelos de referencia fueron los únicos que estuvieron a MSRP (durante lo poco que duraron) xD

Ahora mismo cualquier AIB supone +100+200 sobre el MSRP.

Supongo que a medida que haya más stock empezarán a asentarse los precios y a aparecer modelos base cerca del MSRP pero hasta entonces... Pinta negra la cosa.

2 respuestas