http://www.guru3d.com/article/article/91/1
Aquí podeis ver un pequeño resumen de la campaña publicitaria de NVIDIA,... como vemos su politica ha cambiado... ya no se maravilla de sus logros, sino que intenta desprestiguiar a la "RED" Company, y la mayoria del tiempo habla sobre eso... sobre los 4 juegos en OpenGL que salen (saltan algo por alto de los Direct3D 9.0) etc...etc...
Hay una cosa que me ha hecho mucha gracia a ver que os parece a vosotros:
En la segunda página: http://www.guru3d.com/article/article/91/2
Sobre la mitad del documento encontramos estos dos párrafos.
Los Parrafos son estos:
The question that was on everybody's mind was about NVIDIA's implementation of the DX9 Pixel Shader 2.0 and High Dynamic Range Lighting. NVIDIA's approach to DX9 is different from the 'Red' company's, and not necessarily worse, just different. NVIDIA was quick to point out that there were problems with the DX9 specs in regard to precision, and also that no one really does PS 2.0 in 32-bit precision all the time. Most games use a mixed mode of 16-bit, 24-bit, and 32-bit with PS 2.0.
Through a great talk given by Chief Technology Scientist, David Kirk, NVIDIA basically claims that if 16-bit precision is good enough for Pixar and Industrial Light and Magic, for use in their movie effects, it's good enough for NVIDIA. There's not much use for 32-bit precision PS 2.0 at this time due to limitations in fabrication and cost, and most notably, games don't require it all that often. The design trade-off is that they made the GeForce FX optimized for mostly FP16. It can do FP32, when needed, but it won't perform very well. Mr. Kirk showed a slide illustrating that with the GeForce FX architecture, its DX9 components have roughly half the processing power as its DX8 components (16Gflps as opposed to 32Gflops, respectively). I know I'm simplifying, but he did point it out, very carefully.
Si analizamos un poco lo que dice podemos ver frases que dejan a uno HELADO...
Por ejemplo:
La forma de implementar las "DX9 Pixel Shader 2.0" y "High Dynamic Range Lighting" es diferente a la de la compañia "ROJA", pero no necesariamente peor, solo diferente. Tenemos un "problema" con las especificaciones de "precisión" realmente nacie hace PS2.0 en 32-bits todo el rato los juegos usan un modo mixto entre 16-bits, 24-bits, 32-bits.
Yo responderia que:
Realmente si tienen un problema, y su forma de implementar ese tema si es "diferente" a ATI (que mania con llamarle la compañia "roja"), la diferencia es que ati se rije por las especificaciones de Microsoft que dice clarito:"PRECISIÓN mínima 24-bits" mientras ellos sudaron de dicho tema...
Ah y se me olvidaba los juegos no utilizan modos "MIXTOS" almenos en el api del direct3D no existe dicho "MODO", Los juegos en DX9 esperan una precisión mínima de 24-bits. Y son realmente sus drivers quienes ponen cosas a 16-bits y otras a 32-bits, realmente no hay forma por APi de DirectX9, sin usar el de DirectX8 de hacer exactamente eso. Osea se puede utilizar con unos drivers de NVIDIA que se rijan por las specs de Microsoft PS2.0 a 32-bits (pq Nvidia NO PUEDE HACERLO a 24-bits, y se puede usar PS1.4 a 16-bits) y solo los drivers de Nvidia hacen algo raro llamado PS2.0 a 16-bits lo cual no entra en las specs de Microsoft. En ese caso tenemos que realmente los detonator que tanto estan defendiendo SI USAN FP16bits, que tanto la gente habia dicho que no que usaban 32bits, ellos mismos estan diciendo aquí que usa FP16-bits... y en lo que miente, es en que no son los desarrolladores del software quien lo elije, sino ellos quien elijen cuando FP16 y cuando FP32.
Otro ejemplo:
Through a great talk given by Chief Technology Scientist, David Kirk, NVIDIA basically claims that if 16-bit precision is good enough for Pixar and Industrial Light and Magic, for use in their movie effects, it's good enough for NVIDIA.
Aquí vemos a Nvidia RECLAMANDO por favor quiero PODER USAR FP16 sin que me digan "TRAMPOSO" xD algo asi, reclama diciendo que FP16bits es SUFICIENTE, y que no necesita para nada FP más altos (ni de 24, ni de 32)... Osea esta diciendo que ellos saben más que los creadores de DirectX9.0 y que el soft de Microsoft que puso precisión mínima 24bits lo hizo por joder, cuando con 16bits seria "MEJOR"... (Seria mejor para ellos ya que tiran directamente en PS el "doble" pero sigue sin cumplir las specs con lo que cuando EXISTAN JUEGOS que aprovechen la diferencia de PS2.0 a FP24-bits frente a los PS2.0 16bits deverán callarse espeluznantemente mucho!!!)...
Y más:
There's not much use for 32-bit precision PS 2.0 at this time due to limitations in fabrication and cost, and most notably, games don't require it all that often. The design trade-off is that they made the GeForce FX optimized for mostly FP16. It can do FP32, when needed, but it won't perform very well.
Aquí estan diciendo una verdad que a NVIDIA le duele: Que sus targetas cuando riguen las specs de DX9 -> "IT WON'T PERFORM VERY WELL" (que no tiran bien vamos)... recordemos que no usan FP24 pq NO QUIEREN implementarlo en su hard. Pq con 24bits seria suficiente para DX9, es más no aprovecha FPs más altos el DX9. y te dice que ellos hicieron la targeta optimizada para FP16, y no para FP32, y menos para FP24, donde no son compatibles... (Te esta explicando que joder si nuestra targeta no esta optimizada para DX9, mientras en su publicidad aseguran que si)... Joder cuantas mentiras estoy viendo en 2 parrafos...
Ademas estoy viendo que dicen, JODER si para seguir las specs de DX9 seria muy costoso y los juegos no lo requiren... Hablan de costoso cuando estan cobrando por la 5950 la "irissoria cifra" de 500-600-700? Euracos mínimo... para que te haga FP16... y hablan de que seria demasiado "COSTOSO?", que tienen en mente? que no se crean que "REGALAN las targetas" que 500 Euros por una targeta, no es para que la compañia te diga que seria demasiado costosa hacerla COMO ES DEVIDO...
Referente a la parte de que los juegos ejem no lo necesitan, esta muy por ver... ellos hablan de juego con DX9, no? estan hablando de los ejem 5-6 a los sumo 10?? juegos que han salido y algunos de dudosa calidad para DirectX9...
Tom raider??? (fracaso no de ventas, pero si de calidad de DX9), Halo??? (juego que lleva 3 años en proceso para PC que le han puesto alguna cosa de DX9 al final y de rebote?), que no se engañen DX9 no ha hexo nada más que sus primeros pinos en la industria del videojuego, falta por llegas la primera "obra" que usa Dx9 medianamente en serio "HL2", y falta por llegar todo juego que use dicho motor, falta por llegar actualizaciones de HL2, y falta por llegar lo menos 30-40 motores que harán basados en DX9, hasta que salga el 10 con el Longhorn, falta por llegar la mayoria de juegos en DX9 que saldrán aun estando el 10 funcionando, falta MUCHO DX9 por ver, mientras ellos aseguran que NINGUN JUEGO necesitara FP24 o superior? que son adivinos? no se ha publicado ni un 1% de los juegos que saldrán con DX9 pero ellos ya saben que ninguno necesitará FP24??? Dios es que es una sarta de mentiras una tras otra.
y Más:
Mr. Kirk showed a slide illustrating that with the GeForce FX architecture, its DX9 components have roughly half the processing power as its DX8 components (16Gflps as opposed to 32Gflops, respectively). I know I'm simplifying, but he did point it out, very carefully.
Aquí te dice que en DX9 tiene la mitad de poder de proceso que en DX8 (se refiere a PS2.0 <->PS1.4) y que mientras una tira a 16Gflps, el otro tira a 32Gflops, pero seguimos en lo mismo lo venden como targeta DX9, etc...etc...
Por último:
This is where NVIDIA's developer relations group kicks in and works very hard with a developer to write code that is optimized for the GeForce FX architecture. Let's face it, it isn't a performance problem with the NV3x hardware. It does lots of math really fast. The message that NVIDIA wants to send to developers is, "We're going to kick everyone's ass." That's a direct quote, actually.
Básicamente dicen que estan trabajando duro escribiendo código para optimizar la arquitectura FX... (osea optimizando los drivers para que usen mayoritariamente FP16 en los juegos actuales en DX9 (que son pocos y mal aprovechados) de forma que se nota lo menos posible y consiguen subir muchos fps (cosa q no veo nada mal, ya que es la mejor solución para todo aquel poseedor de una Nvidia FX)... Y básicamente le envia el mensaje a todos los desarrolladores: "Vamos a patear el culo de todos"... Como si nosotros tuvieramos la culpa de que Microsoft y sus DirectX9 EXIGUIERAN FP24 o superior y nos gustara que lo que programamos saliera tal y como lo programamos y que si programamos con el FP24bits en mente, que luego ellos no nos dieran un resultado en FP16bits... Poco a poco, y cuanto más intensivo sea el uso del DX9 ireis viendo que si quieren conservar que la calidad de imagen sea identica a la "ejem, compañia roja" cuanto más se use DX9, menos rendimiento darán, pq ES DE CAJON que si no pueden hacer FP24, rindan MENOS pq tienen que hacer FP32, pero que no lo solucionen haciendo FP16, o si lo solucionan asi, que en los drivers pongan la opcion de usar solo 16(DX9 noncompatible), solo 32(DX9 compatible) o el mix-mode(Half DX8/Half DX9) que usan ahora...
Pienso que es penoso que no pongan tal opción, pienso que hacen bien solucionando el tema con los FP16, almenos para la gente que tiene FX es una grandissima solución. Pienso que hacen mal que digan que es DX9 compatible si no tiene tal opción y me parece que todo aquel que diga que los 5x.x tiran a FP32, que se LEA ESTO, pq a partir de ahora para demostrarlo TENDRA que DESMENTIR las palabras de los propios desarrolladores de los detonator y los propios fabricantes de dichas targetas... ya que ellos son los que estan diciendo que realmente SI LO USAN el FP16..
Decicado a todo aquel que dijo que no usaban FP16 los 5x.x