#59 si va más rápido que "c", la luz que emana no la vemos. No vemos la nave hasta que su velocidad está por debajo de "c".
Y cuando se habla de hechos, digo yo que serán datos, nada de "5 sentidos humanos". Datos de computadora.
#59 si va más rápido que "c", la luz que emana no la vemos. No vemos la nave hasta que su velocidad está por debajo de "c".
Y cuando se habla de hechos, digo yo que serán datos, nada de "5 sentidos humanos". Datos de computadora.
#61 Me refiero a los fotones que envió cuando estaba a esa velocidad. Obviamente al ir más rápido que la luz, es imposible ver la nave hasta que esas ondas lleguen a nuestros ojos, y pasará tiempo hasta que eso suceda, pero se supone que llegar, llega, no?
Interesante noticia, había leído que estaba en desarrollo pero no que lo habían creado. De todas maneras ahora es muy difícil aumentar potencia de los procesadores no? A lo mejor lo dice el artículo, lo he leído un poco por encima, pero cuánto consume este nuevo transistor? Se sobrecalienta mucho? Todo eso son factores bastante importantes para desarrollar a nivel industrial estos aparatos. Sinceramente yo desearía que se avanzara más en "grid computing" , computadoras en paralelo y eso que no por esta parte... Aunque bueno, todos los avances sean bienvenidos.
#64 con los transistores que se usan actualmente se han topado con el tope de frecuencia que pueden ofrecer. Si pusieran mas frecuencia se joderian por no se que efecto que no recuerdo el nombre.
Por eso ahora los procesadores que van saliendo nuevos no aumentan la frecuencia como antes, hacen mejoras en el diseño, y cada vez meten mas nucleos, pero si seguimos por ese camino, cada vez sera mas dificil programar todo, por que la programación multihilo requiere mucho mas esfuerzo.
Imaginate cuando tengamos 100 nucleos en cada procesador, tener que hacer un programa (un juego por ejemplo) que aproveche todos los nucleos, repartiendo a cada nucleo un trabajo especifico... aumenta mucho mas la complejidad.
#65 Si, vaya, creo que sería mejor eso que comentas. Un thread donde lo expliques más detalladamente y se pueda hablar de ello sin necesidad de cambiar el tema, estaría genial.
#64 #66 Si que estábamos cerca de límite... De hecho había leído en una revista que como los transistores más pequeños eran ya casi del tamaño de un átomo, poco más se podría avanzar. De ahí que esta noticia sea tan importante, ya que abre nuevas fronteras al "límite" conocido de la computación.
#64 Pues no había pensado en eso, en el consumo. La verdad es que en el artículo no dice eso. Lo que sí sé es que la familia lógica CMOS, basada en transistores MOS (silicio), consume más energía a cuanta más frecuencia le hagas trabajar. O sea, que si a un transistor MOS le haces trabajar a 100GHz lo quemarás porque consumirá una burrada (aparte de que tendrán una tolerancia a, digamos, según qué pulsos repetitivos de tensión y otras limitaciones) y se quemarán (supongo). Pero si estos de grafeno logran los 100GHz es que lo aguantan... que requieran refrigeración de nitrógeno ya es otra cosa xD
#65 Tranqui, si yo también he desvirtuado el hilo xD Pues estaría genial un hilo sobre relatividad la verdad. Si se admiten sugerencias, si sabes de bibliografía no demasiado técnica también estaría bien postearla (algo tipo Historia del Tiempo de Stephen Hawking).
#67 Creo recordar que leí por ahí que cuando uno de los cristales del transistor alcanza un grosor de unos 5 átomos, el transistor deja de funcionar de forma normal y empieza a consumir una burrada. Es decir que sí, hay un límite para la miniaturización. Creo que estaban trabajando en bajar su tensión de trabajo, para así poderles meter más frecuencia sin que consuman tanto (y por tanto que no se quemen) sin necesidad de miniaturizar.
Creo que me moriré antes de que pueda comprar uno de estos con un sueldo normal. Espero y quiero equivocarme, pero eso de:
"esde el punto de vista físico tiene una estructura laminar plana de tan solo un átomo de grosor y conformada por átomos de Carbono que crean a su vez una red cristalina asemejada a la forma de un panal de abejas. Cada átomo está ligado a sus vecinos mediante enlaces covalentes y es un componente estructural básico de todos los demás elementos graníticos, incluyendo los nanotubos de Carbono y los fulerenos."
No suena nada barato de producir.
Si hay demanda, que obviamente si la cosa funciona bien la habrá, y mucha, los costes de produccion se abarataran. Tampoco te pienses que fabricar los procesadores como se fabrican hoy en dia es barato xD intel y adm se gastan unas millonadas tremendas cada que tienen que adaptar una planta de produccion para un nuevo tipo de procesador.
#59 Esa misma paradoja recuerdo perfectamente comentarla con mTh y juraria q contigo hace muxos meses (puede q mas de un año) xDD
Sobre el transistor, en cuanto empiecen a instalar cosas de estas a aparatos de nivel usuario, vamos a flipar. La verdad q me da cierto miedo/emocion pensar como sera el mundo dentro de 10-15 años :S
#68 Hawking tiene un libro posterior, bastante mas ilustrado y renovado llamado el Universo en una cascara de nuez y otro aun posterior escrito con la ayuda de su hija (no recuerdo el nombre, miralo en google/wikipedia), kiza t interese leer alguno, el del universo es menos denso q el de la historia del tiempo (y mas moderno, aun asi ya esta desfasado en algunos campos).
#71 Gracias por los libros Los apuntaré, de todas maneras ya he empezado Historia del Tiempo... y sí es denso, sí... pero mola un puñao jeje. Lo que me fastidia un poco es que puede que esté desfasado en algunos puntos, aunque no creo que mucho. De todas formas supongo que eso al final va a ocurrir tarde o temprano sea este u otro libro.
Lo de los transistores... pues no sé si llegarán a implantarlo. Hace unos tres años Intel anunció que había conseguido fabricar transistores de hafnio, con mejores prestaciones que los de silicio, y creo que nunca más se supo. Estos de grafeno alguna desventaja tendrán (y si no la tienen, bienvenidos sean), como decían por ahí arriba, de precio, consumo... Aunque un pasito más sí que es, eso seguro.
#72 Historia del tiempo esta MUY desfasado, pero si lo lees y eres capaz de entender todo (yo habia pasajes q simplemente "creia" entender o lo entendia un poco por encima na mas), los posteriores los entenderas bien casi seguro. Pero eso es cierto, esta desfasado. No obstante, es curioso leer ese libro y luego uno mas actual xa darte cuenta de como cambian las cosas (la fisica teorica especialmente...)
#66 sep eso me habían comentado, pero bueno en una conferencia de un tal Mateo Valero, este dijo que se estaban desarrollando métodos de programación en paralelo eficientes y rápidos. Y también que los superordenadores actuales requieren de una central (¿nuclear? no sé si lo dijo) sólo para ellos, y por eso mi comentario, aunque no soy ningún experto del tema xD.
Una cosa que esta ahora muy de moda es la programación en gpu's para problemas matemáticos que con cpu's en paralelo a saco no les da.
No se mucho del tema, solo que la gente que hace cálculos en lattice estan encantados con ello.
Lo de usar GPUs para operaciones matematicas nos lo comento un dia mi profesor de arquitectura, de hecho en un PC de tu casa es lo q hacen. Estan optimizadas para cierto tipo de operaciones...
Bueno, las CPU también tienen extensiones para realizar ciertas operaciones de una forma más óptima (SSE, MMX...).
#77 Si, las operaciones de las GPU suelen ir mas orientadas a vectores y cosas asi, mientras que las CPU suelen hacer operaciones menos complejas (mera aritmetica), evidentemente a lo largo del tiempo han ido saliendo multitud de juegos de instrucciones nuevos como MMX, 3Dnow o su equiivalente(copia) de intel SSE (q permitian utilizar float ademas de enteros...), etc y cosas de esas q simplemente son juegos de instrucciones mas complejos para determinadas operaciones...
Ya, la cosa es que hasta hace poco a nadie se le había ocurrido que ese tipo de operaciones vienen genial para ciertos cálculos, por ejemplo problemas de muchos cuerpos o cálculos en lattice aparte de para realizar los cálculos para los que se pensaron las gpu (osea, gráficos xD).
#71 Si, pero no aplicada a esto xD.
#74 Una central nuclear para ellos mismos? Lol que va, si los sistemas de ahora consumen muy poco... te referirás al primer PC que hubo, que ocupaba un espacio enorme (creo que 2 plantas de edificio o una burrada así) y sí, necesitaba una central nuclear para él solito. Era una calculadora que aún por encima era lenta XD.