#832 yo cambio de grafica cada 2 generaciones, tengo una 1080 e iba a actualizar a la 3080....claro esta pagando maximo 800/900 por el mejor modelo custom, pero como llego la estafa de las tiendas subiendo precios x2 y o obligandote a comprar pc entero....acabe por no actualizar, ahora quiero volver a actualizar con mismo pensamiento, 4080 por 800/900 euros para una de las mejores versiones custom, si vale mas de eso que se la empeten por el orto y tiro de wallapop.
#841 a los 6 meses o asi de su salida, pille una 2080rtx por unos 600eur y tira de lujo
pero la serie 3000 una puta locura
#839 una 2070s como la mia me ha ido bastante sobrada para casi todo a 1440p... Obviamente cosas como Cyberpunk ya le cuesta mas pero el 99% van sobrados. Y salvo competitivo no hacen falta 144 para nada.
Yo si acaso cambiaria para 4k (en parte mi caso) pero para 1440p? Con una 4070 ira todo a 200 fps lmao.
#843 después de varios años a 1080p144hz, si subo a 2k seria también a 144hz y prefiero que sobren a que ir justo y bajar cosas.
Yo soy de los que pasaba del 144hz, pero después de tanto tiempo, no lo cambio a 60hz ni de broma.
#845 aqui no te venden la 3080 ti , ni la normal a 499€ ni hartos de vino,
el segunda mano de españa es para arrancarse los pelos. te podria hacer un listado infinito de articulos mas caros que nuevos en oferta, con la excusa de "es que en oferta solo ha estado unas semanas, ahora ya no está de oferta"
#854 una cosa son las texturas maxima calidad, luego cuando "optimizan" el juego antes de lanzamiento, ajustan tamaños porque quieras que no quien manda no es el que desarrolla el juego, sino las consolas que hay en el mercado, y tienen la limitacion que tienen, asi que para ir justisimo como se va ahora con 4-6gb de vram, que se va justisimo, que eso cambie a 8-10gb en 4 años que aun no habra nueva gen de consolas, pues va a ser que no.
8 vram dan para jugar perfectamente a1440p para toda esta gen y 2 años mas. que tarden en dar el salto completo.
teniendo ademas en cuenta que las texturas es algo facilmente escalable durante el desarrollo, y que todos los juegos incluyen multiples niveles que reducen adecuadamente la cantidad de vram requerida.
#855 mira, no sé a qué te dedicas. Pero, por favor, no intentes enseñarle a alguien sobre su trabajo y más con algo tan redundante y básico.
#856 no hace falta dedicarse a nada, solo hay que ver la evolucion de los juegos, sus requerimientos segun la evolucion del hardware y consolas a lo largo de las ultimas decadas.
es asi de básico.
pero si tu Vram se queda justa o no, no es algo objetivo, es subjetivo, igual que lo es si es necesario un 12700f para jugar, o con un ryzen 1600 tengo suficiente.
que trabajes en el modelado 3d y texturizado de personajes para videojuegos no te hace conocedor de nada en cuanto a requisitos una vez en juego está en lanzamiento.
de hecho muchas veces los devs tienen 0 idea de hardware y evolucion del mercado
Ves el mercado de 2 mano y dices joder, a los españoles a otra cosa no, pero a especuladores no nos gana ni DIOS.
Luego miras el mercado de vehículos, vivienda, alquileres, y te cuadra todo.
#858 Totalmente de acuerdo, siempre que miro el mercado de segunda mano pienso, joder, para esos precios le echo un poquito mas y lo compro nuevo sin arriesgarme, es que simplemente no compensa xd
#858 Y eso que las garantias son muy buenas aqui, no como en EEUU que pasan autenticos infiernos cuando les toca hacer un RMA fuera del pais.
Pues esta vez pienso pillarme la gráfica nueva, quiero cambiar ya la 2070 y el full hd y ponerme 2k.
Se sabe algo ya de fechas? 20 de septiembre supongo.
#862 No, se esperan este año pero mientras no haya anuncio nada. Tampoco se sabe a ciencia cierta que saldra de primeras, si estas buscando una 4070 o inferior puede que aun te toque esperar medio año.
#865 Apunta a que el/los chip grande sera el primero en salir si. Pero otra vez, mientras no se anuncie nada... nunca se sabe.
#857 Para empezar, no me dedico a personajes. Segundo, la optimización del juego se tiene que hacer desde el día uno. No te puedes dedicar a hacer las cosas a la torera porque "ya vendrá alguien a optimizarlo". Osea que eso de
no te hace conocedor de nada en cuanto a requisitos una vez en juego está en lanzamiento
no tiene sentido alguno.
Luego tú me dices de evolución de consolas. Luego que la VRAM justa el algo subjetivo. La subjetividad es algo en base al pensamiento de alguien, y si los juegos actuales te están pidiendo un mínimo de 6 gb de VRAM (no digo de media, digo de mínimo) y 16 gb de RAM por algo objectivo será, no porque a mi me apetezca pensarlo.
Además, me estás comparando una CPU con una GPU, que eso ya es de traca. Una CPU en juegos solo se usa para cálculos de IA, codigo, etc. Todo lo visual, va por la GPU, todo. Por eso hace falta un cacharro que sea un "miniPC" para el apartado gráfico, como lo es una GPU.
Y si digo que en un futuro de 4/5 años una 1080 se va a quedar corta porque los juegos van a requerir de 16gb de VRAM, es porque la evolución de proyectos, demanda gráfica, resolución de pantallas, etc, va a acabar por demandarlo.
Sin ir más lejos, para que veas hasta que punto se dejan los cuernos los devs para hacer una performance mejor. Ahora mismo el mayor handicap es que la transición de usuarios con equipos con soporte de raytracing no ha sido tan satisfactoria como se podría esperar. Y eso acaba haciendo que Unreal invierta en desarrollo de un sistema de luz que falsee el raytracing. Porque una cosa que consume un COJÓN es la simulación dinámica de luz. Y, ojo, lumen no es la panacea, consume mucho. Pero no te hace falta tensores decicados para rularlo.
Si quieres seguir pensando que no tengo ni puta idea de a qué me dedico porque "muchas veces los devs tienen 0 idea de hardware", muy bien. Pero no me vengas con que tu sabes de gamedev porque "es la evolución del mercado". Así que, sin faltar al respeto, zapatero a tus zapatos.
Os vais a llevar tremenda decepción como espereis que el 20 enseñen toda la lineup de tarjetas para gaming en un evento de IA
#869 No sé, yo desconozco este mundo, pero es lo más próximo que hay en cuanto algo de información no?