NVidia Editors Day.

TaMy

http://www.guru3d.com/article/article/91/1

Aquí podeis ver un pequeño resumen de la campaña publicitaria de NVIDIA,... como vemos su politica ha cambiado... ya no se maravilla de sus logros, sino que intenta desprestiguiar a la "RED" Company, y la mayoria del tiempo habla sobre eso... sobre los 4 juegos en OpenGL que salen (saltan algo por alto de los Direct3D 9.0) etc...etc...

Hay una cosa que me ha hecho mucha gracia a ver que os parece a vosotros:
En la segunda página: http://www.guru3d.com/article/article/91/2
Sobre la mitad del documento encontramos estos dos párrafos.

Los Parrafos son estos:
The question that was on everybody's mind was about NVIDIA's implementation of the DX9 Pixel Shader 2.0 and High Dynamic Range Lighting. NVIDIA's approach to DX9 is different from the 'Red' company's, and not necessarily worse, just different. NVIDIA was quick to point out that there were problems with the DX9 specs in regard to precision, and also that no one really does PS 2.0 in 32-bit precision all the time. Most games use a mixed mode of 16-bit, 24-bit, and 32-bit with PS 2.0.

Through a great talk given by Chief Technology Scientist, David Kirk, NVIDIA basically claims that if 16-bit precision is good enough for Pixar and Industrial Light and Magic, for use in their movie effects, it's good enough for NVIDIA. There's not much use for 32-bit precision PS 2.0 at this time due to limitations in fabrication and cost, and most notably, games don't require it all that often. The design trade-off is that they made the GeForce FX optimized for mostly FP16. It can do FP32, when needed, but it won't perform very well. Mr. Kirk showed a slide illustrating that with the GeForce FX architecture, its DX9 components have roughly half the processing power as its DX8 components (16Gflps as opposed to 32Gflops, respectively). I know I'm simplifying, but he did point it out, very carefully.

Si analizamos un poco lo que dice podemos ver frases que dejan a uno HELADO...

Por ejemplo:
La forma de implementar las "DX9 Pixel Shader 2.0" y "High Dynamic Range Lighting" es diferente a la de la compañia "ROJA", pero no necesariamente peor, solo diferente. Tenemos un "problema" con las especificaciones de "precisión" realmente nacie hace PS2.0 en 32-bits todo el rato los juegos usan un modo mixto entre 16-bits, 24-bits, 32-bits.

Yo responderia que:
Realmente si tienen un problema, y su forma de implementar ese tema si es "diferente" a ATI (que mania con llamarle la compañia "roja"), la diferencia es que ati se rije por las especificaciones de Microsoft que dice clarito:"PRECISIÓN mínima 24-bits" mientras ellos sudaron de dicho tema...
Ah y se me olvidaba los juegos no utilizan modos "MIXTOS" almenos en el api del direct3D no existe dicho "MODO", Los juegos en DX9 esperan una precisión mínima de 24-bits. Y son realmente sus drivers quienes ponen cosas a 16-bits y otras a 32-bits, realmente no hay forma por APi de DirectX9, sin usar el de DirectX8 de hacer exactamente eso. Osea se puede utilizar con unos drivers de NVIDIA que se rijan por las specs de Microsoft PS2.0 a 32-bits (pq Nvidia NO PUEDE HACERLO a 24-bits, y se puede usar PS1.4 a 16-bits) y solo los drivers de Nvidia hacen algo raro llamado PS2.0 a 16-bits lo cual no entra en las specs de Microsoft. En ese caso tenemos que realmente los detonator que tanto estan defendiendo SI USAN FP16bits, que tanto la gente habia dicho que no que usaban 32bits, ellos mismos estan diciendo aquí que usa FP16-bits... y en lo que miente, es en que no son los desarrolladores del software quien lo elije, sino ellos quien elijen cuando FP16 y cuando FP32.

Otro ejemplo:
Through a great talk given by Chief Technology Scientist, David Kirk, NVIDIA basically claims that if 16-bit precision is good enough for Pixar and Industrial Light and Magic, for use in their movie effects, it's good enough for NVIDIA.

Aquí vemos a Nvidia RECLAMANDO por favor quiero PODER USAR FP16 sin que me digan "TRAMPOSO" xD algo asi, reclama diciendo que FP16bits es SUFICIENTE, y que no necesita para nada FP más altos (ni de 24, ni de 32)... Osea esta diciendo que ellos saben más que los creadores de DirectX9.0 y que el soft de Microsoft que puso precisión mínima 24bits lo hizo por joder, cuando con 16bits seria "MEJOR"... (Seria mejor para ellos ya que tiran directamente en PS el "doble" pero sigue sin cumplir las specs con lo que cuando EXISTAN JUEGOS que aprovechen la diferencia de PS2.0 a FP24-bits frente a los PS2.0 16bits deverán callarse espeluznantemente mucho!!!)...

Y más:
There's not much use for 32-bit precision PS 2.0 at this time due to limitations in fabrication and cost, and most notably, games don't require it all that often. The design trade-off is that they made the GeForce FX optimized for mostly FP16. It can do FP32, when needed, but it won't perform very well.

Aquí estan diciendo una verdad que a NVIDIA le duele: Que sus targetas cuando riguen las specs de DX9 -> "IT WON'T PERFORM VERY WELL" (que no tiran bien vamos)... recordemos que no usan FP24 pq NO QUIEREN implementarlo en su hard. Pq con 24bits seria suficiente para DX9, es más no aprovecha FPs más altos el DX9. y te dice que ellos hicieron la targeta optimizada para FP16, y no para FP32, y menos para FP24, donde no son compatibles... (Te esta explicando que joder si nuestra targeta no esta optimizada para DX9, mientras en su publicidad aseguran que si)... Joder cuantas mentiras estoy viendo en 2 parrafos...
Ademas estoy viendo que dicen, JODER si para seguir las specs de DX9 seria muy costoso y los juegos no lo requiren... Hablan de costoso cuando estan cobrando por la 5950 la "irissoria cifra" de 500-600-700? Euracos mínimo... para que te haga FP16... y hablan de que seria demasiado "COSTOSO?", que tienen en mente? que no se crean que "REGALAN las targetas" que 500 Euros por una targeta, no es para que la compañia te diga que seria demasiado costosa hacerla COMO ES DEVIDO...
Referente a la parte de que los juegos ejem no lo necesitan, esta muy por ver... ellos hablan de juego con DX9, no? estan hablando de los ejem 5-6 a los sumo 10?? juegos que han salido y algunos de dudosa calidad para DirectX9...
Tom raider??? (fracaso no de ventas, pero si de calidad de DX9), Halo??? (juego que lleva 3 años en proceso para PC que le han puesto alguna cosa de DX9 al final y de rebote?), que no se engañen DX9 no ha hexo nada más que sus primeros pinos en la industria del videojuego, falta por llegas la primera "obra" que usa Dx9 medianamente en serio "HL2", y falta por llegar todo juego que use dicho motor, falta por llegar actualizaciones de HL2, y falta por llegar lo menos 30-40 motores que harán basados en DX9, hasta que salga el 10 con el Longhorn, falta por llegar la mayoria de juegos en DX9 que saldrán aun estando el 10 funcionando, falta MUCHO DX9 por ver, mientras ellos aseguran que NINGUN JUEGO necesitara FP24 o superior? que son adivinos? no se ha publicado ni un 1% de los juegos que saldrán con DX9 pero ellos ya saben que ninguno necesitará FP24??? Dios es que es una sarta de mentiras una tras otra.

y Más:
Mr. Kirk showed a slide illustrating that with the GeForce FX architecture, its DX9 components have roughly half the processing power as its DX8 components (16Gflps as opposed to 32Gflops, respectively). I know I'm simplifying, but he did point it out, very carefully.
Aquí te dice que en DX9 tiene la mitad de poder de proceso que en DX8 (se refiere a PS2.0 <->PS1.4) y que mientras una tira a 16Gflps, el otro tira a 32Gflops, pero seguimos en lo mismo lo venden como targeta DX9, etc...etc...

Por último:
This is where NVIDIA's developer relations group kicks in and works very hard with a developer to write code that is optimized for the GeForce FX architecture. Let's face it, it isn't a performance problem with the NV3x hardware. It does lots of math really fast. The message that NVIDIA wants to send to developers is, "We're going to kick everyone's ass." That's a direct quote, actually.
Básicamente dicen que estan trabajando duro escribiendo código para optimizar la arquitectura FX... (osea optimizando los drivers para que usen mayoritariamente FP16 en los juegos actuales en DX9 (que son pocos y mal aprovechados) de forma que se nota lo menos posible y consiguen subir muchos fps (cosa q no veo nada mal, ya que es la mejor solución para todo aquel poseedor de una Nvidia FX)... Y básicamente le envia el mensaje a todos los desarrolladores: "Vamos a patear el culo de todos"... Como si nosotros tuvieramos la culpa de que Microsoft y sus DirectX9 EXIGUIERAN FP24 o superior y nos gustara que lo que programamos saliera tal y como lo programamos y que si programamos con el FP24bits en mente, que luego ellos no nos dieran un resultado en FP16bits... Poco a poco, y cuanto más intensivo sea el uso del DX9 ireis viendo que si quieren conservar que la calidad de imagen sea identica a la "ejem, compañia roja" cuanto más se use DX9, menos rendimiento darán, pq ES DE CAJON que si no pueden hacer FP24, rindan MENOS pq tienen que hacer FP32, pero que no lo solucionen haciendo FP16, o si lo solucionan asi, que en los drivers pongan la opcion de usar solo 16(DX9 noncompatible), solo 32(DX9 compatible) o el mix-mode(Half DX8/Half DX9) que usan ahora...

Pienso que es penoso que no pongan tal opción, pienso que hacen bien solucionando el tema con los FP16, almenos para la gente que tiene FX es una grandissima solución. Pienso que hacen mal que digan que es DX9 compatible si no tiene tal opción y me parece que todo aquel que diga que los 5x.x tiran a FP32, que se LEA ESTO, pq a partir de ahora para demostrarlo TENDRA que DESMENTIR las palabras de los propios desarrolladores de los detonator y los propios fabricantes de dichas targetas... ya que ellos son los que estan diciendo que realmente SI LO USAN el FP16..

Decicado a todo aquel que dijo que no usaban FP16 los 5x.x

gAwL_2k3

viva la compañia "roja", estos cobran demacie :P, no kiero saber yo cuanto nos sacarian si le metiesen el FP32 :SSS

jOK

ATi tampoco se libra de pecar...

"Questionable optimizations in ATi's drivers?

Earlier this year, NVIDIA drew a lot of flak over a number of questionable optimizations in their drivers for 3DMark 2003 - optimizations which could definitely be called cheats. It was in response to this that NVIDIA came up with the guidelines pertaining to performance optimizations mentioned above. Laudably, we haven't been able to make out any "violations" of the new rules in the new driver v52.16 - at least so far.

ATi, on the other hand, repeatedly claimed that their drivers implemented no illegitimate optimizations. The accusations leveled against ATi at NVIDIA's Editors' Day two days ago thus become that much more serious. Epic's Mark Rein confirmed that in some cases, high-res detail textures were not displayed in some areas by ATiŽs drivers and that standard, lower-res textures are used instead. Randy Pitchford of the Halo development team also mentioned that there were optimizations present in ATi's drivers which are detrimental to Halo's image quality. However, Randy didn't want to go into more detail here. Finally, Massive's new DX9 benchmark, AquaMark 3, also displayed some irregularities of ATi drivers in the overdraw test.

Here is a list of accusations we were able to confirm:

http://www.tomshardware.com/graphic/20031023/nvidia-nv38-nv36-20.html

[...]

"Unreal Tournament - Detail Textures - More "irregularities"?

Further irregularities allegedly concern Unreal Tournament 2003. Epic's Mark Rein confirmed that the ATi driver defaults to the standard low-res textures in some cases, even when the detailed high-res textures are selected. In the UT2003 screenshots we took for the anisotropic filtering quality comparison further down in the article, we were unable to perceive such an effect. Then again, the viewing angles in those scenes are not equivalent to those shown in NVIDIA's in-game scenario. We will investigate further and post our own screenshots shortly.

In Halo pixel-shader quality comparison screenshots, on the other hand, we could not corroborate any irregularities as alleged by Randy Pitchford."

[...]

"Conclusion Image Quality

ATi comes out on top when FSAA is enabled, thanks to its rotated-grid algorithm, which can smooth jaggies on nearly horizontal and vertical edges visibly better than NVIDIA. Where anisotropic filtering is concerned, NVIDIA's new driver v52.16 offers better quality, although there are some exceptions (see aniso comparison). ATi's filtering algorithm seems to be much more aggressive than NVIDIA's - at least if the results from Demirug's D3DAFTester can be believed. As far as we could tell, there was no reason for criticism of either card in the DX9 games Halo and Tomb Raider. ATi and NVIDIA produce nearly identical output."

Ni NVIDIA es el diablo ni ATi es una santa...

saludos

TaMy

Estamos hablando de utilizar FP16, algo no valido para DX9, y me hablas de un bug específico de HALO y de un test de calidad sin usar el Soft Render del DX9 en Aquamark??? (hay uno hecho ya antiguo con los 45.x 44.x y los 3.7 ya hecho con SoftRENDER de Beyond3D y allí SI DICE en que tanto por cierto suele diferenciarse una imagen de ATI del SoftRender (nunca daran dos hard un render igual y mas uno de ellos usando fp16), mientras tanto ati se acercaba muy al softrender, pero es que ningun hard lo dará igual que el softrender actualmente es bastante complicada dicha cosa. Nvidia con Fp32 tampoco lo dará igual... simplemente se ve la calidad buscando el tanto por ciento más parecido... esta claro no? ¿Consecuencia directa? -> Lee Tom's Hardware es requisito directo de comprar una MSI GF FX, esta clarissimo...

Halbando de Bugs, prefiero una textura aveces mal colocada en el Halo, que no un Freeze total en el WC3 Frozen Throne,...

Aparte si ati tiene consciencia de ello sus 3.9 no tendrán dicho fallo... Últimamente con Nvidia no si si van mejorando fallos, o van arrastrandolos :)

En los 4x.x almenos cuando ponian en unos drivers para un juego FP16, agachaban la cabeza y se escodian diciendo no no sorry y en los siguientes volvian ha hacer FP32, y asi jugando con el usuario... Ahora de repenten se levantan y dicen PUES x MIS HUEVOS que pongo FP16, y si no te gusta te aguantas...

Es como si ahora sale una compañia y no puede mostrar 32 o 24 Bits de colores xDDDDDDDDDDDDDD y solo puede mostrar 16 bits XDDDDDDDD y dice ehhhh en los benmarch joder que les gano a todoooos... que pasaaa, si soy más rápido... XDDD

Creo q cualquier comparación hecha con FP16 de Nvidia vs FP24 de ATI, no esta siendo justa... al igual que no lo son cuando NVIDIA usa FP32,... la única diferencia es que Nvidia nadie le manda usar 32, solo le mandan tener 24 o más...

Con lo que de momento yo para mirar rendimiento actualmente hago la media xDDD busco una comparativa con FP32 de eso mismo,... y le sumo la puntuación a una hecha con FP16 y la divido entre dos y aproximadamente daria lo que tendria una dicha FX con FP24 (cosa que no puede tener), pero almenos te haces una idea de rendimiento, una falsa idea, pero es una idea al fin y al cabo.

aLeX

Bueno, pero ahora miremos esto desde el lado práctico:

Alguien me da una razón de peso para cambiar una ATi por una nVirria?.

-Mayor velocidad ? NO
-Mejores drivers ? NO
-Mayor vida útil del producto ? NO
-Mejor compatibilidad ? NO

¿Que tiene nVidia que no tenga ATi?. Nada!, ATi hoy por hoy es mejor, lo lleva siendo desde el lanzamiento de la 9700 hace mas de año y medio. Y nVidia ha sacado no una, ni dos, sino 3 tarjetas intentando vencerles, y no han podido.

Por mucho que le joda a la gente, nVidia esta en decadencia. O sacan la Mega GeForce o se van a seguir comiendo los mocos.

Dek0

Este post es un clarísimo "owned" a todos los defensores "a capa y espada" (a pesar de las evidencias) de nVidia.

Al margen de ke lo ke dice el articulo (porke mas bien es lo ke kreo ke es) de TaMy, de bueno para unos y malo para otros, desde luego te lo has currado ;)

aLeX

Aqui defienden las acusaciones contra ATi

http://www.elitebastards.com/page.php?pageid=2397&head=1&comments=1

Esta curioso al menos. No niega todo, pero lo ve desde otro punto de vista. Delata claramente a THG como pro nVidia.

TaMy

Y pese al FP16 vs FP24...

http://www.xbitlabs.com/articles/video/display/fx5950ultra-9800xt.html

MaRaNeLL0

Como se nota quien es de ATi y quien de nVidia , a mi que mas me dara mientras mi grafica tire bien ¬_¬ buscais tonterias

MaRaNeLL0

Y solo con tal de quedar bien o decir mi grafica es mejor . Que mas dara si sea ATi o nVidia , os va bien el pc? si , no? Pues ya esta , que se piquen ellos y ya nos beneficiaremos nosotros . Ni que os pagasen para hacer publicidad y/o desprestigiar una marca u otra

TaMy

Se llama "INFORMACIÓN" y <B>NO</B> va enfocado a quien <B>YA</B> tiene una gráfica y no tiene intención de cambiarsela, sino a quien pese a tener una gráfica quiera <B>Cambiarsela</B>, donde quizá esto le ayude a decidirse por cual de las múltiples que hay en el mercado...

Por cierto respecto al "BUG" de los Catalist en el Aquamark, han comprobado que dibuja EXACTAMENTE lo mismo, y que no es un bug en busca de fps, sino un Bug de brightness y gamma, osea, esa misma imagen con más brightness y más gamma, es identica a la de Nvidia... aparte utilizando una de las funciones que lleva el Aquamark donde te marca las regiones de la pantalla en ROJO las "CRITICAS" osea las que más overdraw hacen etc...etc... se puede comprobar donde hacen la mísma cantidad de overdraw, etc...etc... solo que la ati saca el resultado ALGO más oscuro y da la impresión de haber "MENOS HUMO", subir el gamma y brillo de los catalist arregla y verás la imagen con el mismo humo que ya habia en ATI, solo que al verlo más claro, lugares donde se ve más oscuro el humo que se difumina con el fondo, se pasará a ver más claro con lo que verás la misma imagén...

Lo interesante vamos es que pese a verse claro u oscuro, los calculos son exactamente los mismos...

Por cierto para hacer la comparación de imágenes se tiene que utilizar los drivers 44.03, devido que a que con los 50.x no daba un resultado acorde con lo que indica el Software Rastericer. en cuestión de luces sobretodo... con lo que no han podido usarlos devido a que "su resultado no era el correcto"...

BEDI

Yo sin mas, ni de ATI ni de nvidia. Yo soy un jodio usuario q solo kiero calidad/precio.
Pongamos: Llega el dia q kieoro ca,mbiar de grafica. Me informo MUY bien de como esta el mercado (miento, pq me informo siempre xDD) y luego eligo o esta o akella sin importarme de kien sea, solo jmiro por MI, pq soy YO kien la voy a usar y necesito las prestaciones q YO kiera.

Por si no a kedado claro, pillaria la tarjeta q YO kiera xDD

saludos

TaMy

Cierto "BEDI" y que harias si buscas información y nadie se ha parado a "Escribirla?" donde la encontrariaS???

Cryoned

.

BEDI

TaMy, no me interpretes masl :p la verdad es q te lo curras mucho y me encanta entrar y ver todos los dias en mv nueva informacion de cualkier tipo de hardware, pq es una cosa q me encanta.
Lo que kiero decir eske la peña no se debe komprar una tarjeta pq le digan: Pillate una ATI o pillate una nvidia, las cosas se argumentan. La gente debe ser un poco observadora antes de dejarse 300€ y mirar un poko el panorama del mercado, viendo comparativas por ejemplo.

PD: tamy, haceis un trabajo de PM entre tu el H, j0ck y demas peña q nos brindais una informacion muy util

saludos

EDITO: si nadie daria contrainformacion de las cosas oficiales, q mal andariamos :P (y no solo en el mercado informatico)

ach3chin0

La Informacion es la moneda mas preciada de nuestro mundo.....

Sin embargo cesad las hostilidades nVIDIA vs. ATI. Creedme q son una dicotomia....

Vamos hablando hermanos ;)

H

kas

nice pple!

La verdad es que no necesito tantas discusiones entre Nvidiots i ATIdiots.

Solo con mirarte un par de webs ves en seguida que las FX no usan dx9 i ati si, ves enseguida que ati da drivers que funcionan sin hacer trampas y que no necesitan actualizarse cada semana, como nVidia que parece que dedique mas tiempo y horas al desarrollo de drivers que al de una wena arquitectura de sus graphicas..

Tambien, como decis, veo demasiada.. (jeje nunca pense q podria decir esto xD) envidia por parte de nVidia ..(lol eh? xD).

Si las cosas no cambian.. buye bye nvidia :\

Fighter

Perdona que te contradiga #5 Pero NVIDIA para mí hoy por hoy es mucho mas compatible que ATi. Para mi ATi es inmensamente mayor, pero he probado varias tarjetas ATI (todas powercolor) en muchas placas con los mismos componentes, drivers, etc y hay incompatibilidades GRANDES.

Usuarios habituales

  • kas
  • BEDI
  • TaMy
  • MaRaNeLL0
  • aLeX
  • Dek0
  • gAwL_2k3