#1919 hombre es que esa de 2300€ tiene 24Gb y mas CUDA.
Así a ojo del churrero creo que la 3080 se va a quedar eeeeeeeeeeeeeeeeeeen 967€
#1919 hombre es que esa de 2300€ tiene 24Gb y mas CUDA.
Así a ojo del churrero creo que la 3080 se va a quedar eeeeeeeeeeeeeeeeeeen 967€
#1922 Depende de la resolución. Con este monitor por ejemplo habría que ver si le sacas rendimiento https://www.asus.com/Monitors/ROG-Swift-360Hz-PG259QN/
Habrá que darle bien de fps.
#1909 ¿Pero cómo sabes que te estás quedando sin vram? Porque no hay indicador que mida el uso de vram real. Y cuando te quedas sin lo notas porque el rendimiento se va a tomar por el culo, tienes microstuttering.
#1917Snagg:Empiezo a recordar por qué deje de entrar a este hilo, cada 3-4 posts, viene alguien a quejarse de otra persona se gaste su dinero en lo que le da la gana, ya hay que tener tiempo libre y/o baja autoestima para estar todo el rato pensando en lo que hacen o dejan de hacer los demás.
Totalmente de acuerdo. Nunca entenderé por qué la gente tiene las narices de criticar el gasto de nadie...
#1918 ¿Robar por qué? Tú eres libre de pagar o de no pagar el precio... no veo dónde está el robo.
#1919 Esta gen habrá que estudiársela bien. La 3080 tiene poca memoria en comparación con la 3090... pero tiene GDDR6X mientras que la 3070 tiene GDDR6... así que a ver a ver.
A mi también me toca cambiar de gpu esta gen pero prefiero esperar un pelín a que AMD saque lo que tenga que sacar. Y una vez estén todas las cartas sobre la mesa... tengo que decidir si tirarme a la piscina y pillar OLED + GPU o si cambiar únicamente la gpu y esperar un poco por el tema OLED.
#1924 te da igual que sea GDDR6 que GDDR6X que si te falta VRAM la bajada de rendimiento la vas a ver igual.
#1926 por supuesto, pero mi comentario no iba por ahí Lo que digo es que si usan memorias diferentes la velocidad de unas u otras puede ser mucho más grande de lo que suele ser normal entre gamas.
De todos modos la 3090 parece una gama entreprise, porque no entiendo por qué entre una gama y la siguiente hay un incremento de VRAM del 240%.
#1924 pero no tienes una 2070 super? Wtf
Yo no cambio la mia ni de fly.
Pero lo de la Vram.... El "uso" que decis no es tal, es memoria allocated (no me sale en castellano). 10 GB daran de sobra.
#1924Prava:pero tiene GDDR6X mientras que la 3070 tiene GDDR
no te da igual eso?
yo cuando miro las specs me son irrelevantes en el sentido de la tecnología que usen, es una caja negra, no me importa lo que tengan dentro, solo que funcionen.
Es decir, miro los fps que dan, la cantidad de vram que tienen para texturas y el consumo, pero realmente me da igual si es hmb, 6x, o 12 o 5nm
#1929ArThoiD:pero no tienes una 2070 super? Wtf
nope, la devolví, mucho cisco meterla en la cajita. Sigo con la GTX1080.
#1930Cryoned:no te da igual eso?
Claro que me da igual eso... pero es que eso seguramente se traduzca en diferencias sustanciales de rendimiento (no, joder, no miro el tamaño del die ni chorradas como esas para decir si rinde bien o mal xdddddddddddddd).
Desde hace años las xx70 eran el "sweet spot", y saltar a una xx80 te daba un 15-25% más de rendimiento pero pagando un 40-50% más. Pero claro, montaban el mismo chip y básicamente las mismas memorias. Si ahora rompen ese status quo podemos tener una película diferente.
Ahora, lo que me descoloca es la brutal diferencia en cantidad de vram entre la 3080 y la 3090. Simplemente no entiendo qué mierda de separación de gamas han hecho cuando hay 14GB de diferencia. Algo me dice que las 3090 es básicamente una Titan (caballo a medias entre Geforce y gama profesional) y que meterán una 3080 TI con 16-18GB en no muchos meses (porque sacar una 3080 con 20GB la dejaría muy cerca a las 3090).
#1931 Si la diferencia de precio fuera un 30% entendería ese salto de VRAM para animar a la gente a que se gaste ese extra, pero si acaba siendo un 50-70% más no lo entiendo muy bien...
Otra opción es dejar margen para las 30xx SUPER con extra de memoria para Febrero del año que viene...
#1925 Pero si es el pan de cada día con los móviles, wtf. Hay en algunas tiendas que hacen financiación sin intereses o a mínimos y siempre viene mejor tener liquidez. Que es un coñazo hacerlo porque piden papeleo y gaitas, y al final uno si se lo puede permitir lo evita, pero vamos, no se que tiene de gracioso.
#1931 En fps/€ la 960 y 970 creo que andaban a la par, pero hasta ahí. Las 1060 de 3gb rondaban los 230€ de salida mientras las 1070 los 400, es una diferencia de precio del 80% por un extra del 40% (cuando no peta la memoria, claro XD), no es una proporción muy diferente a la que hay entre las 70 a las 80. En realidad la 1050Ti estaba por delante de ambas, otra cosa es que el precio de las 1070 no fuera una locura y si aspirabas a algo por encima de 1080p o de jugar a más de 60 fps en alto-ultra era la gráfica optima. La 2070 sale peor parada respecto la 2060.
#1934 Los fps/€ siempre van a ser decrecientes. Siempre. No discuto eso, solo digo que llevamos dos generaciones en las que las diferencias entre las 70 y las 80 son muy pequeñas cuando el precio sí que sube muchísimo.
merecerá la pena pasar de la 1080ti a la 3080 o 90 para jugar 1080p 144hz? o mejor esperar a la siguiente gen?
#1935 No te creas, la morralla que esta por debajo de una 1060/470 tenian y probablemente sigan teniendo peor. Alguna 80 y 80ti han tenido proporciones muy parecidas entre ellas dos a diferencia del absurdo de las Titan. Pero vamos, que entiendo lo que dices. De todas formas en Turing todo tenia sobreprecio, y directamente las 70 ya eran absurdas. Quiero decir, que ya llevamos un par de series que las 70 van en "decadencia", no es algo nuevo y puede ir a peor quedándose las 60 en el "sweet spot" que comentas. Si esto sigue así al final Pascal va a ser la última serie donde las 70 merecían de verdad la pena -y no tanto-.
al paso que van, la master race volverá a terminar siendo la mostaza race con 4 gatos en pc y los devs sudando de su culo
Si la 3080 sale con 10GB a los 4-5 meses la sacaran con 16GB llamada 3080 super.
Una pregunta salen con pci 4.0 se puede instalar en una placa con pci 3.0 o tendré que pasar por caja
#1940 Las super no pueden llevar más memoria que las versiones normales... a menos que pongan el doble, que es la única forma de poner más memoria en una gpu.
#1939 Consola para las cosas tragonas + PC para los exclusivos temporales que a menudo son los más valorados de la plataforma como: Disco Elysium, Divinity, Undertale o Minecraft. Que tiran hasta en la mayor chatarra.
#1940 Más o menos. Ya me lo imagino: harán lo que les sale del pirulo, AMD les apretará las tuercas con algo mejor en calidad/precio y sin una memoria bochornosa, sacaran las versiones super/ti con más mem, y se volverán a relajar.
#1941 Las 2060 tienen 6 y las S 8gb. No sé si hay alguna non super de 8gb, creo que no.
#1942 sí. De hecho incluso a día de hoy pasar de pci-e 3.0 x8 a x16 te da o una mejora pequeña o nada, así que la utilidad de pci-e 4.0 al menos con la generación que nos entra ahora es muy cuestionable.
#1943ErlaNtz6:Las 2060 tienen 6 y las S 8gb. No sé si hay alguna non super de 8gb, creo que no.
Las 2060 también recibieron ese "refresh" de 8GB. Vamos, que las 2060 vanilla sí que llevan un chip diferente a las Super... pero las actuales de 8GB montan el mismo chip que las super.
No le deis mas vueltas, esta generación nos la saltamos todos los que tengamos una gráfica de menos de 2 años XD Cuando madure un poco el dlss, más aun el raytracing, le saquen partido a pci-e 4.0 etc
#1944Prava:así que la utilidad de pci-e 4.0 al menos con la generación que nos entra ahora es muy cuestionable
en hu estuvieron haciendo test, y ya hay juegos que sacan un 5% extra con pcie4
Con las mejoras que se vienen aumentará y será un palo extra para intel
#1945 si no saliese el Cyberpunk este año ni el siguiente o todos los juegos que quiero disfrutar al máximo, te digo que me pillaba una 1080 y ya xD
#1947 Pues yo este año de momento solo he jugado indies, gestion,rts...... si me vuelven a retrasar el cyberpunk como si explota la grafica que no hay nada que me haria gastar la pasta. Y con una 2070 como no me funcione guay a 1080p voy a buscarlos a casa