#660 Vale, ya veo por dónde van los tiros. Knights Ferry es un proyecto de computación que utilizará la interfaz pci-e en lugar de tener que ir en un slot respectivo. Esto significa que podrás tener mucha más potencia de cálculo (todo x86) en menor espacio, pero no tiene aplicación ninguna para temas gráficos, hasta donde he leído.
#661 Eso es, de hecho ahora lo estan comparando como ya digo con la potencia del Cell. No se, lo de computer dicen q la industria se podría decantar por dejar de inventir en la CPU principal q gestiona el SO y dejar el resto de procesos para placas PCI-E multicore.
Pero bueno, hace 3 años andaban esos mismos q ahora dicen esto implementando librerias para Cell pq supuestamente iba a ser el futuro, así q imagínate la credibilidad...
#662 No se supone que es mas rentable invertir en una buena GPU dejando una CPU normalita que no al contrario como hicieron con la PS3? -Una CPU de la hostia y una GPU normalita-
#663 Ufff, ahora voy a hablar desde un desconocimiento bastante importante, pero a ver si logro salirme airoso.
La realidad en practica es q no, es un poco "trampa" hablar de la potencia q una GPU puede desarrollar, primero pq programar para ellas es un infierno, y luego pq no todo es tan sencillo como potencia bruta. A la postre cambiar una programación de CPU a GPU no te mejora en la misma proporción q mejora sus números de rendimiento bruto.
El centro por ejemplo hace poco compró una máquina Bull, básicamente es un bicho basado en GPU con una potencia neta de 186 Teraflots, eso la hace una máquina más potente q el actual supercomputador de 10.000 CPUs q tenemos, ¿tenemos más potencia? La realidad palpable es q no, las CPUs siguen siendo infinitamente más amigables, más usadas y sirven para casi todo, mientras q las GPU se destinan a cálculos muy concretos, como por ejemplo cálculos matriciales.
No se, cada vez parece q crece más el escepticismo hacia las GPU, pese a q hubo un momento en q se dijo q al final todo acabaría siendo GPU: sistema operativo, programas, juegos, etc.
A ver como acaba todo, pero si Intel empieza a sacar placas PCI-E de CPUs multicore q den un alto rendimiento, yo creo q pueden perfectamante enterrar esta tendencia actual de "solo con GPU podemos hacer de todo".
#664 Yo no entiendo mas alla de mi experiencia personal, no se en que tipo de calculos esta especializado cada chip, nisiquiera que tipo de operaciones utilizan las cosas que vemos en pantalla, pero se me viene siempre el ejemplo de la ps3.
La ps3 se supone que tiene una CPU mucho mas potente que la 360, pero la 360 tiene una grafica algo superior a la Geforce 7800 de la ps3 en cambio el rendimiento real de las 2 consolas en cuanto a graficos es muy parecido -El uncharted 3 se ve algo mejor que el Gears 3, el GT5 algo mejor que el forza 4-. Crees que si por ejemplo la ps3 hubiera invertido la pasta que invirtio en el cell en una grafica tocha dejando una CPU normalita habria tenido mejor rendimiento? Se puede extraporlar esta respuesta a la nueva generacion?
#657 Ahí ya ni idea. Quizá si como producto a comercializar, pero no quita que no puedan darle salida a stock de muestras anteriormente para uso propio.
#662 eso para servidores y demás tipo supercomputadores, pero para el usuario domestico la tendencia, a menos a corto-medio plazo, es unir GPU+CPU en el mismo chip a lo Fusion. No vas a ver esas placas PCI para el mercado doméstico methinks.
De hecho la arquitectura de las GPUs mismas cada vez se parece mas a una CPU, no solo viceversa. Digamos que ambos están confluyendo hacia el mismo punto de inflexión y homogeneidad. La arquitectura GCN de las nuevas ATI son un avance en ese aspecto,su pipeline es cada vez mas parecido al de un cluster de CPUs convencionales y ya son mas fáciles de programar que las arquitecturas anteriores. Con DX12 mas de lo mismo. Hasta que se encuentren en medio.
La cosa esta en que al menos alguna de las consolas de next-gen ya usen ese tipo de GPGPU como unidad de proceso única. x720 seguro, habrá que ver PS4 e incluso Wüü.
#665 Yo creo que la diferencia entre PS3 y 360 muchas veces no es tan palpable como deberia por que la PS3 tiene un problemon con la memoria, si en la 360 dieron en el clavo con algo fue con la memoria unificada.
Es una pena que en ambas no se estirasen un poquito y metiesen un giga en vez de 512, todas las generaciones la misma historia, el punto mas negro de las consolas siempre es la escasa ram, y no entiendo por que ya que es algo que te da una mejora visual y de rendimiento muy palpable, y mas en esta generacion de plataformas multimedia. Bueno si lo entiendo esta claro que doblar la ram te incrementa el precio pero creo que es algo que valdria la pena.
#665 Voy a intentar explicártelo: una gpu está formada por infinidad de unidades muy pequeñas que pueden trabajar de forma casi autónoma. En la práctica esto significa que las gráficas son entes muy especializados (como CELL) que trabajan de la ostia para algún tipo de instrucciones mientras que van mal para otras.
¿Qué calculos hace bien una gpu? Pues todos aquellos cálculos que no van encadenados y se realizan de forma independiente...como dibujar los píxeles, ya que es un trabajo en el que el píxel A y el píxel B no tienen relación entre ellos ninguna y se pueden calcular, a la vez, por separado.
Una cpu es un chip de propósito genérico que trabaja mejor con operaciones que están encadenadas la una con la otra (al ser más rápido en cada operación individual, terminas mucho antes).
El tema de CELL se basa en que tiene un núcleo principal multi-propósito y varios satélites (por llamarlos de algún modo) que deben ser programados por las malas. Claro que es super potente...pero da tanto trabajo trabajar con él que a tomar por culo.
A fin de cuentas el entorno x86 no es el más eficiente de todos, pero como cada vez que las cpus son más potentes por sí mismas hay menos necesidad de buscar unidades más eficientes pero que son muchísimo más complejas; de ahí que mi apuesta en el tema de las cpus de baja potencia para entorno móvil (donde ahora mismo ARM hace lo que le da la gana) terminará volviendo a Intel una vez el nodo de integración sea lo suficientemente bueno como para poder sacar un micro x86 que no esté uber capado, puesto que a fin de cuentas todo el entorno doméstico está basado en x86 (que no se me ofendan los maceros y linuxeros, hablo en cantidad).
#662 No estoy de acuerdo con la afirmación de que las gpus cada vez se parecen más a las cpus. Que se esté allanando el terreno de cara a poderlas convertir en entes programables que sirvan para algo más que para las 4 cosas que hacen ahora dependerá de que lo que se quiera correr sea altamente paralelizable o no.
Eso sí, sí que estoy totalmente de acuerdo en el tema de los integrados...dentro de no muchos años sólo habrá tarjetas gráficas de gama media y alta porque las de gama baja irán encapsuladas...y, francamente, cuando llegue ese día no sé qué carajo va a vender NVIDIA porque no tienen licencia x86...
#667 Diseñar una consola no es algo tan fácil como muchas veces lo pintamos en los foros, y no te hablo únicamente de diseñar el hardware que montará y de minimizar costes...sino que también hay que meter en la ecuación la disponibilidad de todo lo que se quiera meter. NVIDIA renunció a GDDR5 en uno de sus diseños porque no podía asegurarse la suficiente producción de dichas memorias, y lo que sí habría sido una debacle es no poder vender gráficas por falta de componentes básicos.
Piensa que por eso Apple juega mucho con los mercados, porque ellos tienen unas necesidades especiales y se van al fabricante y le compran por adelantado parte de la producción para garantizarse la distribución por encima de todos los demás. Con las consolas ocurre parecido, a fin de cuentas qué cosa hay peor que vender un producto que no puedes fabricar por falta de componentes :S
#667 Y esa falta de ram en que repercute aparte de obligar al programador a meter mas puntos de carga? osea si tuvieran mas ram veriamos texturas de mas definicion o simplemente tendriamos menos cargas?
Por que los ejemplos que te he dicho gears 3 y uncharted 3 son juegos pasilleros que supongo podran sacar el maximo partido a la consola al ser tan lineales no? Y la diferencia entre ambas esta ahi pero no es mucha.
#668 es que la tendencia también es que el código acompañe y cada vez sea mas paralelizable. De hecho una de las pocas razones por las que Intel sigue trabajando en ello es para ir adelantando trabajo de compiladores para esta arquitectura. Es una de sus especialidades esa sin duda, mas que a IBM o las de las GPUs, el lado software y de compilación.
No obstante esta claro que no se parecen cada vez mas a las CPU, sino al concepto que están alcanzado también las CPU, de ahí que diga lo de que se encuentran en el medio.
Y nVidia lo que va a vender a chorrazos son Tegras y ARMs. ARM es la licencia del futuro y no la obsoleta hace eones x86. De hecho ahora mismo y ya no te cuento en poco tiempo mas, hay casi mas mercado en el sector smart/tablet que no en el resto del mercado tradicional. Yo me preocuparía mas por AMD/ATI y sus eternos problemas financieros que no se quitan de encima ni p'atrás.
Y diseñar consolas esta chupado, el único problema es el económico y que el precio no se vaya por las nubes. Que me den presupuesto ilimitado y ya verás que consola les diseño en un plis-plas xDD
#669 Piensa la ram son como las estanterías de una tienda. Por muy buenos vendedores que tengas (cpu y gpu) de nada sirve que tengan que estar yendo y viniendo del almacén (hdd) contínuamente.
Poca ram, unido a un disco duro mecánico, significa que tienes que pensar por adelantado qué cosas te interesa tener precargadas, y de ahí la necesidad imperiosa de tener el código bien depurado (en pc no son raros los memory-leak...pero como generalmente se tiene mucha memoria, y se suele doblar la cantidad "típica" de ram cada poco tiempo pues este problema apenas está presente).
Es curioso como cuando volví a los pcs hace unos 5 o 6 años no hacía falta más de 2GB ni hacia atrás. Ahora todavía se puede funcionar más o menos bien incluso con Windows 7 (digo más o menos porque hay muchos juegos que se tragan más de 2), pero tienes que cerrarlo todo cuando vas a hacer según qué cosa (windows 7 funciona realmente bien cuando tienes al menos 4 GB de ram), pero para nuevos equipos se recomienda tener 8GB. Yo me pasé recientemente (total, al precio al que está la ram ahora mismo...) y se traduce en comodidad, puesto que puedes mantener los navegadores abiertos hasta las trancas (suelo tener uno abierto de forma permanente con unas 40 pestañas...y Chrome ahora mismo anda en 2GB, mientras escribo esto) y puedes abrir cualquier juego y tabular pa'lante y pa'trás sin problema ninguno.
#670 Totalmente de acuerdo en lo de que el cambio en las gpus está siendo a nivel de concepto (que están facilitando la programación en ellas).
Eso sí, la viabilidad de ARM en un futuro a corto plazo está garantizada...pero a medio y largo plazo yo no apostaría ni un céntimo. Se comenta que con el salto a 22nm Intel podrá competir prácticamente de tú a tú con los procesadores ARM y, una vez pasemos de ese nodo al siguiente (pensemos que Intel tiene el mejor proceso de integración de la industria), no creo que haya muchas razones para complicarse la vida con ARM cuando en x86 está todo prácticamente inventado.
PD: y sí, AMD/ATI a duras penas sobrevive. Compraron ATI de la peor forma posible y estarán muuuuuuuuuuuuuuuuuuuuuuuuuuucho tiempo en rentabilizarla; lo más cachondo fue que también soltaron su división ARM justo cuando estaba a punto de entrar en auge dicho sector. Juas.
#668 No me he enterado del todo pero ya que se te ve puesto.
Si tu fueras a diseñar una consola, sistema cerrado y tal, que invertirias mas pasta en una CPU potente dejando una GPU del monton o al contrario? O un chip de estos hibridos que comentais?
#671 Yo sólo se que Windows 8 (y no Windows ARM Millenium precisamente) va a tener compilación ARM y va destinado a un mercado como el de los tablets donde de momento estos son mayoría.
Y me cuesta MUCHO creer que Intel por mucho 22nm y tri-gates o finfets que se saquen de la manga, puedan combatir con la eficiencia energética de los ARM a medio plazo. Pero muy mucho. Y para después de los 22nm aun no hay nada en firme!
Para mi el golpe mas duro que pudo recibir AMD fue vender Global Foundries y la capacidad de fabricar sus propios productos, con lo que ello supone.
#672 No tengo ni zorra, francamente No me gusta especular sobre cosas de las que tengo un conocimiento limitadísimo, porque en cuanto a hardware puedo tener una vaga idea, pero si me meto en programación salvo entender conceptos básicos como qué diferencia una cpu y una gpu (y de modo MUY breve) no tengo ni la más remota idea. Apenas di 3 meses de C+ y se basaba en copiar-pegar ejemplos y añadir las variables que nos tocaba insertar jaja.
Respecto a la diferencia de cpu/gpu, te pongo un ejemplo más sencillo:
Caso A: tienes que llevar un paquete desde Valencia a Madrid.
Caso B: tienes que repartir muchos paquetes dentro de Madrid.
Para conseguirlo, puedes elegir entre dos soluciones: un conductor profesional con un Ferrari...o 20 ciclistas. Los ciclistas no ganarán ni de coña en la prueba A porque la velocidad punta del Ferrari barre. Peeeero, en el caso B es mejor tener varios transportistas más lentos porque las operaciones se pueden realizar todas a la vez, y no tiene nada que ver el hecho de que un paquete vaya hasta Plaza España con que el otro vaya hasta Sol.
En los juegos hay muchas operaciones que se pueden pararelizar...y otras que no. Ahora mismo en pc se está metiendo la (mala) costumbre de meterle físicas a la gpu, ¿por qué? Porque cuando simulas físicas cada partícula se comporta de forma independiente a las demás (hasta que interaccionan, claro), por lo que una gpu da cuenta de ello con facilidad. En cambio, con la IA no ocurre lo mismo porque son una serie de instrucciones encadenadas (A mata a B, como B está muerto C la lía...), etc.
#673 Te pongo lo que te comentaba de los 22nm:
http://www.extremetech.com/computing/113123-how-intels-medfield-will-dismantle-arm
http://www.anandtech.com/show/5365/intels-medfield-atom-z2460-arrive-for-smartphones
Yo creo que Intel terminará ganando la batalla...pero de cualquier manera el panorama se espera super super super interesante y, lo mejor de todo, un poco de competencia en ese sector sólo puede ser bueno para los consumidores
PD: y ojo que todo esto es con un núcleo Atom @ 32nm, cuando lleguen los 22nm sí que va a venir lo divertido.
PDD: en lo que no estoy para nada de acuerdo es en el tema de GloFo. Las foundries están demostrando ser unos traga-dineros de la ostia, y cada año que pasa hay que invertir más y más dinero. AMD no puede permitirse tener fábricas de ninguna de las maneras, así que creo que es lo único que han hecho bien en los últimos años.
Ahora sólo falta que Piledriver sea más competitivo que Bulldozer porque estos últimos más que abrirse paso por la selva se han quedado sin gasofa antes de salir del garaje...
Yo pense que lo presentaria este año en la E3 ya que la xbox 360 lleva ya demasiado tiempo sin sacar ningun titulo exclusivo, a este paso si lo van a sacar en 2 o 3 años me estoy planteando seriamente en comprarme la ps3 y aprovechar sus juegos exclusivos. Esperare un poco en la E3 si solo muestra un nuevo modelo lite y juegos de kinect se lo pueden meter ya donde les quepan.
#677 Osea en resumen.... no quieren que les pase como a Sony con la PS3 al comienzo de ser cierto el rumor... que lanzaron un precio basto por la cantidad de extras y cosas que integraba asi que, sería una Xbox poorversión para los que exclusivamente quieren jugar la nueva generación con el mínimo de comodidades y una richversion con mas cosas integradas y quizá mas adaptada como centro multimedia...
De todas formas no se por que... ese rumor se va a quedar en nada y lo que va a salir es una Xbox única en la que te cobrarán aparte los extras que quieras como en la gen actual y punto...
#680 A mi sinceramente me parece genial que lo pongan aparte y asi no tener que desembolsar una barbaridad como a principios de la PS3, que creo que fue el fallo que tuvo sony. Aunque no se porque me da que la xbox va a tardar minimo año y medio o 2
#681 En principio tanto MS como Sony (si no recuerdo mal) hablaron de su nueva generación rondando 2015.... así que, yo en lo personal también opino que 2 años mínimo...
#682
Eso era antes del anuncio de WiiU
De todas maneras mientras la anuncian y las sacan aun queda, pero que en este E3 saldra algo es casi seguro (al menos eso espero)
#683 Ahora mismo con lo que van dejando caer tanto Sony como MS lo raro sería que en este E3 enseñaran algo de las consolas nuevas.
#683 Pero si tenían sus planes ya hechos dudo que lo rusheen mas de 6 meses porque igual es peor el remedio que la enfermedad.
#683 Si luego dijeron que se adelantaría por lo de WiiU... pero no se hasta que punto se adelantarán, yo veo aún 2 años facil... Nintendo no es que compita directamente contra Sony o Microsoft porque desde Wii ha ido dirigido a un sector distinto de jugadores y enfocada de otro modo... ellos van a seguir vendiendo independientemente de lo que haga MS o Sony y al caso contrario creo que igual... Wii no es una rival tan directa como Xbox y PS3 de mi punto de vista....la veo mas "complementaria" o mas dedicada a un sector distinto por lo que pueden convivir mejor en el mercado que en el caso de MS/Sony...
En definitiva, que por mucho que lancen WiiU ya, no creo que eso repercuta demasiado en el lanzamiento de los demás, yo creo que rondando los 2 años facil , al no ser que MS mueva ficha queriéndose meter mas de pleno en el mercado casual (kinetic2+alguna movida mas que se adapte a juegos tipo Wii) y quieran competir también contra Wii y acaben arrastrando a Sony... a saber... xD
Yo creo que WiiU se va a dar una hostia de esas que hacen historia.
Si, podéis guardar este post para cuando lleve 1500 millones de consolas vendidas, que me la suda. Es un palpito, llámalo intuición femenina.
Y lo pongo aquí porque si lo pongo en el hilo de WiiU, explota el botón de avisos xD.
#687 Pensé que era el único al que le parece que se van a marcar un Dreamcast bastisimo pero sin el culto posterior xDDDDD