Cuenta atrás para las nuevas ATI y NVIDIA.

Vara

A ver si me entero, una tarjeta de Ati que aun no ha salido ni se sabe muy bien cuando sale, va a competir en la gama media contra una tarjeta de nvidia que lleva meses en el mercado.

Si me he enterado bien, perdonad que os diga, que basta que nvidia saque una nueva generacion cuando Ati saque esta, o poco despues, para que nos volvamos a olvidar de Ati.

Kimi

Si claro. Fijisimo.

Cuando las 38xx salieron antes de navidades, nadie daba un duro por ellas y ahi las tienes, desde las 3850 que rinden mas que las viejas 8600 GTS (que nvidia saco con sus pedazo 2000mhz de memoria para tentar a los incultos cuando salieron las primeras 38xx) y las 3870 que estan aqui y allá con las 8800GT (nuevamente, salieron como respuesta a la salida de las HD), pero obviamente, mas baratas.

Lo que es mas interesante aun es que las ATI son mucho mas frescas que las Nvidia. Mi 3850 evacua el calor dentro de la caja y aun así se mantiene a 50 grados en full si le meto tralla a la turbina.

Estas graficas vienen a confirmar lo que segun vosotros es un fracaso: ATI hace las cosas con la cabeza, no con fuerza bruta.

Es curioso e ironico pero hace unos años esto no era mas que lo contrario...

gabiii

el driver en chino ? OMG

racCa

una grafica orientativa #89, el tanto por % que le saca a cada tarjeta

por cierto, "supuestamente" luchara contra la GTX 260, de todas formas imaginaos una 4870X2

B

Nvidia se va a comer a Ati con patatas.

ElKedao

Como comentan por arriba lo que infla ese 3Dmark es el procesador @4ghz xD

Bl00m

Se sabe para cuando van a estar en las tiendas online las nuevas ati y nvidia?

frostttt

pues habra que ir pensando en cambiar de grafica... bye bye XFX 7950 :(

SupremSobiet

¿Como es de potente en relacion a una 3870 x2?

uplink

Lo interesante hoy dia no es lo potente que sea una grafica, sino lo que se puede hacer con ella que son cosas MUY DIFERENTEs.

Hoy día nvidia lleva las de ganar con la tecnología CUDA, ya que simplificando mucho, puede usar una GPU como procesador de proposito general, y una gpu de hoy día se come con patatas a una cpu de hoy día.

Claro está que para los usuarios domésiticos esto no les dice nada, pero siempre es interesante apostar por quien mueve el mundo sabiendo lo que hace.

Vara

#100 una gpu se come a una cpu de hoy en dia?
Juas, perdona que me ria.

Prava

Anoche no tuve tiempo de poner una comparativa entre diferentes resultados 3dmark para que os pudiérais hacer una idea. Eso sí, tened en cuenta que estamos hablando de un bench sintético, no de un juego.

#91 Sí que se sabe cuando sale, el 25 de junio. Si he puesto esta noticia es porque es la única que he visto fiable desde hace varias semanas, hasta el punto de que quién lo posteó ha puesto incluso la factura de compra. Al haberla comprado no hay NDA de por medio, así que puede publicar lo que quiera.

También ten en cuenta una cosa, ATI NO tiene ninguna intención de competir con las GTX260 y GTX280 de NVIDIA con sus 4850 y 4870, sino que lo que quiere es meterse de lleno en la gama media (<300&#8364;) puesto que esas son las tarjetas que más se venden. Para la gama alta ya sacará su R700 (4870x2).

#93 La tarjeta fue comprada en honk kong ,D

#100 Seamos sinceros... ¿quién de nosotros va a usar CUDA para algo? Yo diría que ninguno. CUDA no es más que una herramienta para programadores, es decir, que no es que puedas aprovechar la cpu para lo que quieras... sí que puedes, pero TIENES QUE PROGRAMARLO TÚ.

#101 En ciertas aplicaciones sí, lo que ocurre es que una gpu es mucho más difícil de programar.. pero ya te digo que en cosas como procesamiento de imágenes si se pudiera usar un G92 a plena potencia no habría cpu que pudiera siquiera acercarse, en potencia de cálculo están muy por encima de las cpus, a día de hoy. Lo que ocurre es que una cpu es mucho más programable, mucho más simple.

Ahora mismo no tengo tiempo ya que empiezo a currar a las 17, así que sólo os pongo un resultado:
Q6600 @ 4.0ghz - HD3870 972/1404 15.137 ptos.
(HD3870 default = 775 - 2250). Teniendo en cuenta que ésta 3870 tiene un OC del 20% en core y del 25% en cuanto a memos, estamos hablando de que la 4850 sería más o menos como una 8800GTS, lo cual con un precio adecuado, siendo single slot y teniendo en cuenta que está fabricada en 55nm, no me parece para nada una mala opción porque, REPITO, es la pequeña de las RV770.

Vara

#102

una cosa es que una gpu haga cosas como operaciones con matrices muy grandes mucho mas rapido que una cpu, y otra diferente es que sea mas rapida que una cpu. La cpu, en el 80% restante de cosas que puede hacer, es mucho mas rapida que la gpu.

K

#102 En cuanto a que CUDA es para todos inutil excepto para programadores, estoy en total desacuerdo, esto sería cierto si fuera un entorno de programación, pero es una arquitectura que se va a usar mucho. ¿ Quien va usar CUDA ? pues muchisimas aplicaciones de compresion de video, audio, fisica para juegos, tratamiento de imagenes, calculos con propositos cientificos, etc.

Un ejemplo, y octubre no está tan lejos:

http://www.fayerwayer.com/2008/05/photoshop-cs4-con-soporte-para-gpu-disponible-en-octubre/all-comments/

LeImOrZ

hola merece la pena un sli de 9600 gt o rinde mas una 8800 gts¿

Prava

#104 Eso ha sido desmentido por los propios creadores de photoshop ;D

¿Arquitectura? No, no. CUDA no es más que un SDK (paquete para programadores) que te permite aprovechar la gráfica para otras cosas a parte de jugar y tal, pero tienes que currártelo tú mismo. Lo que ocurre es que ahora mismo lo han liberado y es gratis, pero vamos, lo usarán para índole profesional y nada más.

#103 Eso es más o menos lo que he puesto: que en aquellas operaciones en la que pueden usarse (tratamiento de imágenes, por ejemplo) barren a las cpu.

Patt0n

Ya están aquí. Ahora hago ninja edit.

Patt0n

Repost debido a mi fail, esta visto que no se marcar el checkbox de proponer como noticia.

Patt0n

Y, como muchos esperaban, ya están aquí las nuevas tarjetas de nVidia, basadas en el core GT200. Las nuevas GeForce GTX 260 y GeForce GTX 280 pretenden destronar a la 9800GX2 y olvidar definitivamente a la 8800 Ultra.


Está claro que la nueva High-End de nVidia dará que hablar en los próximos meses, principalmente por sus especificaciones mastodónticas. Estamos hablando de 1400 millones de transistores, prácticamente el doble que los 754 millones del G92.

Esta cantidad de transistores hace palidecer a los 410 millones que montan los Penryn de doble núcleo y los resultados con CUDA, la nueva tecnología que permite aprovechar la capacidad de procesamiento de la GPU para procesamiento de imágenes, son más que prometedores.

Como se suele decir, una imagen vale más que mil palabras, una comparación entre el tamaño del doble núcleo de Intel y el core de la nueva nVidia:

Pero el sentimiento general de las reviews es que los resultados no son tan esperanzadores cómo se pensaba en un principio y aunque es innegable el potencial de las tarjetas, sobre todo enfocadas para resoluciones superiores a 24", el resultado es parejo en muchos juegos a el rendimiento de las tarjetas de doble núcleo de la generación anterior, la 9800GX2 y la 3870X2, con un precio más asequible. Aunque estos resultados tienen bastante margen de mejora una vez nVidia depure los drivers.

Al parecer la estrategia de nVidia seguirá el camino de las generaciones anteriores, la GTX 280 con un precio superior a 650 dólares será la insignia de la nueva generación de tarjetas frente a su hermana menor, la GTX 260 con un precio de 400 dólares que representará una alternativa más económica y con un mejor ratio performance/precio.

Un análisis más detallado del lanzamiento puede consultarse aquí.

Algunas reviews destacadas:

Tom's Hardware
AnandTech
Noticias 3D

Poisonous

Parece una ps3 xdd

Tikeisi

mmm.... tanto que anunciaban de ellas y sigue siendo superior la 9800gx2, que desilusion.

GryF

Ahora solo toca esperar y esperar y esperar y esperar y esperar y esperar y esperaaaaaaaaaar, a que bajen de precio para hacerse con una.

ElKedao

Yo me quedaría con el consumo, que es una animalada, creo que esta generación se va a quedar en un tránsito a la siguiente por que vaya tela, además ATI parece que está haciendo bien los deberes...

Yo de momento me quedo con mis 2x9600GT que tienen que durar lo suyo visto lo visto.

Patt0n

Como ya comentaba Prava, esa superioridad de la 9800GX2 está limitada a algunos juegos y dependiendo mucho de las reviews y los drivers utilizados.

Hay mucho margen de mejora posible, ya que la potencia de esa gráfica excede con creces a la 9800GX2 pero de momento no parece probable una mejora superior al 20-30%. Tened en cuenta que la 9800GX2 es una gráfica de doble GPU, monta 2 8800GTS, casi de lo mejor que tenía nVidia en ese momento.

No creo que se pueda esperar una mejora del 40-50% sobre una gráfica que ya de por sí es dos gráficas high-end. Aunque en algunos juegos puntuales si que parece acercarse y por supuesto obtendrá un mejor rendimiento en monitores superiores donde el ancho de banda y la memoria inclinarán la balanza sobre las nuevas tarjetas.

Se rumorea que por esa misma razón la 9800GX2 tiene sólo 512 megas en cada tarjeta, limitando mucho las posibilidades de esa tarjeta en resoluciones superiores de forma que la 8800 Ultra la superaba. Dicen que es una medida pensada para no desmerecer a las nuevas tarjetas.

PD: Según lo que comentan son bastante ruidosas además y no Directx 10.1 que aunque aporta poco está retrasando la implementación del Directx 10.1 completo por lo que parece que es sólo política.

Tikeisi

Lastima que mañana me llegue la 8800gts (g92) en espera de que saliesen estas y se viera como funcionaban, sino me compraba ya una 9800gx2.

ChuSKy

to emocionao yo con mi sli de 2 9800gtx y se me va a quedar anticuao en 2 dias :\ xDDD

Tikeisi

Aqui os dejo una review en la que hacen test desde 1024 hasta 1920 y comparadas con una 8800gts y 9800's

OverclockersClub

Patt0n

En el enlace que extiende la noticia aparecen como 10+ reviews que te dan una idea más o menos global de los resultados que consigue esta tarjeta.

Le toca mover ficha a ATI, veremos pronto cuál es el rendimiento de la nueva 4870 y eso nos dará una idea de la 4870X2 que saldrá a finales de Julio, Agosto...

racCa

juer me esperaba mas... yo creo que me atrae un pokito mas la 4850(o bien una 4850X2 :P) hablando del precio, a ver q tal lo hace ATI

penetration

yo he flipado como en muchos juegos no se despeina nada de meter filtros a no meterselo xD la diferencia son pocos fps XD habra ke verla con drivers mas optimizados.