texto:   A-   A+
eliax

Hardware
La super-computadora mas potente del mundo, la Cray XT5-HE Jaguar
eliax id: 7220 josé elías en nov 16, 2009 a las 01:48 AM ( 01:48 horas)
Desde Junio del 2008 la IBM Roadrunner ha ostentado el título de la super-computadora mas rápida del mundo con poco mas de 1 PetaFLOP de poder (específicamente, unas 1,026,000,000,000,000,000 instrucciones de punto flotante por segundo como reportado en eliax).

Algo curioso, en Noviembre del año pasado la empresas Cray alegó que su máquina Cray XT había superado la de IBM, solo para esto ser desmentido una semana después (como también reportado aquí).

Sin embargo, Cray ha regresado con la Cray XT5-HE Jaguar, actualizando los chips AMD que utiliza, cambiando los de 4 núcleos por modelos mas potentes y con 6 núcleos. ¿El resultado? Una bestia que funciona a 2.3 PetaFLOPS en teoría, y a 1.75 PetaFLOPS en la práctica.

Fuente oficial de la noticia

Datos técnicos de la Cray Jaguar

Lista actualizada de las supercomputadoras mas potentes del mundo



autor: josé elías


Reflexiones 4: Justo en el momento de traspasar tu mente a un ambiente sintético...
eliax id: 7193 josé elías en nov 8, 2009 a las 06:26 AM ( 06:26 horas)
Reflexiones es un espacio en donde se muestran conversaciones hipotéticas de la vida cotidiana en varias eras del futuro de la humanidad, basado en artículos de eliax. El objetivo es presentar la vida del futuro no tanto desde un punto de vista tecnológico, sino que mas bien desde un punto de vista humano. Mas información en este enlace.

Reflexiones 4: Justo en el momento de traspasar tu mente a un ambiente sintético
Pocos días antes de los eventos ocurridos en Reflexiones 2...

Doctor: ¿Estás lista Amber para el procedimiento?

Amber: Sí, pero le confieso que un poco nerviosa...

Doctor: No te preocupes, no tienes nada de que preocuparte, todo va a salir bien, recuerda que el procedimiento es reversible en caso que algo salga mal y no sentirás nada.

Amber: humm... iniciemos entonces...

Doctor: Bien. Lisa, por favor iniciar el paso 1 en la secuencia de trasplante de patrones mentales de cerebro biológico a cerebro y cuerpo sintético...

Lisa (una asistente, una Inteligencia Artificial): Secuencia iniciada. La paciente estará inconsciente en 3, 2, 1... Paso 1 finalizado exitosamente.

Doctor: Excelente, inicia el paso 2.

Lisa: Paso 2 iniciado, Inyectando nanobots al cerebro... finalizado exitosamente.

Doctor: Muy bien. Procede con el paso 3.

Lisa: Paso 3 iniciado. Paciente dentro del transportador. Escáners en linea. Sistema de emergencia en linea. Sistema de respaldo en linea. Escáner listo.

Doctor: Muy bien, iniciar el paso crítico, el paso 4.

Lisa: Por favor confirmar paso 4.

Doctor: Iniciar al paso 4, confirmado el iniciar el transportador...

Lisa: Paso 4 iniciado. Nanobots en su lugar. Revisión de Nanobots exitosa, el 100% de ellos se comunica con el transportador. Iniciando secuencia de copiado de patrones neuronales en 3, 2, 1... secuencia iniciada...

Lisa: Procesando...

Lisa: Procesando... 10% finalizado... 20%... 30%... 40%... 50%... 60%... 70%... 80%... 90%... 100% finalizado. Verificando patrones... 0% finalizado... 20%... 30%... 40%... 50%... 60%... 70%... 80%... 90%... 100% patrones verificados exitosamente. Trasplante de patrones mentales a ambiente sintético exitoso.

Doctor: ¡Excelente! Iniciar paso 5.

Lisa: Paso 5 iniciado, despertando paciente...

Amber: ahhh... ¿Doctor? ¿qué sucedió? ¿por qué no ocurrió nada? ¿por qué sigo aquí?

Doctor: ¿A qué te refieres?

Amber: Me refiero a por qué me despertó sin hacer el procedimiento, ¿algo salió mal?

Doctor: No, al contrario, todo un éxito.

Amber: Pero, me siento... Yo...

Doctor: Claro que te sientes tu, porque eres tu.

Amber: Esto es extraño, me imaginé que me sentiría diferente, como otra persona...

Doctor: Claro que no, y no te preocupes por la confusión, la reacción de muchos es exactamente la que estás teniendo ahora... y en unos instantes mas empezarás a sentirte mucho mejor...

Amber: ¿Puedo levantarme?

Doctor: Claro que sí, levántate y camina al espejo...

Amber: ¡Por dios! ¿Pero, seguro que hizo el trasplante?, ¡mi cuerpo sigue igual!

Doctor: Es solo temporalmente, hacemos eso para evitar un trauma mental debido al gran cambio. Ahora, párate en el espejo, y cuenta hasta 1 millón...

Amber: ehh, buen chiste ese...

Doctor: No, no es un chiste, es una prueba estándar para evaluar que todo haya salido bien. Sígueme la corriente por favor y empieza a contar hasta 1 mi.......

Amber: !Ahhhh!!!!!

Doctor: ¿Qué sucede?

Amber: ¡¡¡No se como lo hice, pero conté hasta 1 trillón antes de usted finalizar su oracion!!!

Doctor: Muy, muy bien... Eso significa que los nanobots están haciendo su trabajo...

Amber: ¿Cuál trabajo?

Doctor: El de condicionar tu nueva mente para que esta evolucione muchísimo mas rápida que tu mente anterior.

Amber: Esto... es... extraño... de repente me estoy sintiendo llena de fuerzas, como sin cansancio, sin dolor, como nunca me había sentido en toda mi vida... es una sensación... indescriptible...

Doctor: Y eso es solo el inicio... pero por ahora concluyamos con un par de pruebas mas. Quiero que me digas cómo te sientes emocionalmente.

Amber: Pues... me siento muy bien... recuerdo toda mi infancia tal cual la recordaba antes, recuerdo mis amigos, en donde vivo... nada ha cambiado, es como si no hubiésemos realizado este procedimiento. Incluso estoy pensando en que hace unos pocos minutos lo estuve viendo a usted y le dije que estaba un poco nerviosa... pero a la misma vez estoy sintiendo algo trascendental, algo que no puedo explicar, una llama dentro de mi, como si yo pudiera hacer cualquier cosa que me propusiera... es asombroso de verdad, es...

Doctor: Amber, está bien que llores, esto es algo que sin duda nunca habías experimentado antes...

Amber: Es que... quisiera que todo el mundo sintiera esto... es algo tan espiritual... es...

Doctor: Ven, abrázame y cálmate, aunque no me abraces con fuerza, aun no tienes idea de lo que puedes hacer con ese cuerpo...

Amber: ¡Gracias doctor, no me imaginé que esto sería así!

Doctor: Amber, si sigues así vas a hacerme llorar también...

Amber: ¡¡¡¡Oh no!!!!

Doctor: ¿Qué?

Amber: Y ese cuerpo del otro lado, ese... esa... esa soy yo... antes del procedimiento, ¿cierto?...

Doctor: Así mismo...

Amber: ¿Y qué va a pasar con... ella... yo...?

Doctor: Pues la mantendremos inconsciente 24 horas mas, recuerda que tu eres ella, pero si la despertamos entonces las dos se dividirán en dos personas un poco distintas con el trascurso del tiempo. Si en 24 horas mas concluimos que tu estás perfectamente bien en tu nuevo cuerpo sintético, desintegraremos tu cuerpo biológico, y no te preocupes que el "tu" viejo no sentirá nada.

Amber: Humm, Doctor, cuando me explicaron como sería este procedimiento no me imaginaba lo extraño que se iba a ser en la realidad, pues yo me siento "yo" pero aun así me veo ahí acostada, con cáncer terminal y con pocos días de vida, y sin embargo aquí me veo también yo, sintiéndome como nunca... es... abrumador...

Doctor: Amber... toma esto y seca tus lágrimas, tu familia te espera en el área de recuperación y adaptación...

Amber: ¿Adaptación?

Doctor: Sí, adaptación. Como sin duda te explicaron, ahora viene un período en donde se te enseñará a utilizar tus nuevas habilidades, incluso a transformar este cuerpo en cualquier otro que desees, o incluso a dejar el cuerpo atrás y entrar a ambientes 100% virtuales, o incluso a viajar por Internet a otro lado del mundo y entrar tu mente en un cuerpo nuevo en el otro extremo. Pero por ahora relájate que sentirás unas sensaciones bastante fuertes en las próximas horas, y es mejor dejar que los nanobots hagan su trabajo de ir habilitando todas tus facultades paulatinamente...

Amber: Bien, muchas gracias doctor de corazón... algo me dice que me va a gustar esta nueva vida... de verdad que no me imaginaba que me sentiría así...

Reflexión inspirada en este artículo.

Lee las otras Reflexiones en eliax...

autor: josé elías


La próxima generación de hardware móvil de parte de ARM. Opinión
eliax id: 7145 josé elías en oct 21, 2009 a las 03:15 PM ( 15:15 horas)
A continuación quiero que vean un video que muestra la última plataforma de la empresa ARM para dispositivos móviles, a la cual llaman Mali, que esperamos podamos ver en dispositivos tan pronto como el próximo año (aunque notemos que los procesadores ARM en el iPhone 3GS y el Palm Pre salieron al mercado hace unos 3 años).

Lo interesante de lo que verán es que todos los efectos gráficos en 3D son generados en un solo chip móvil tipo ARM, y desplegados en una resolución nativa de 720p (es decir, 1280 x 720 pixeles).

Algo curioso que notarán es que en vez de utilizar una pantalla pequeña como la de un iPhone, que en la demostración utilizan una pantalla LCD de gran tamaño, y si notan con atención lo que está conectado no es un celular, sino que una placa madre con varios cables. Este tipo de placas son los llamados "kits de desarrollo" que empresas como Apple, Samsung, LG, Motorola y otros compran y utilizan como punto de referencia para sus diseños.

Otra cosa curiosa es sobre ARM en sí. ARM es tanto una empresa como una arquitectura de hardware con el mismo nombre. Si son de los que leen especificaciones técnicas, notarán que tanto el iPhone, como el Palm Pre, como todos los dispositivos actuales con Google Android utilizan ARM.

ARM, es equivalente a los chips Atom o Core Duo de Intel, pero para el espacio móvil y con una arquitectura totalmente diferente (es decir, no puedes ejecutar a Windows en uno de estos), y se caracterizan porque están diseñados para ser sumamente eficientes desde el punto de vista energético, razón por la cual son utilizados tanto en dispositivos móviles.

Como comparación, si un iPhone tuviera un chip Intel Core 2 Duo, es posible que no durara mas de 10 minutos funcionando antes de que su batería muera.

Debido a esto, Intel está creando toda una nueva plataforma para competir contra diseños de ARM, modificando su arquitectura Atom de netbooks para hacerla funcionar con dispositivos móviles como son los celulares inteligentes.

Otra cosa curiosa que al menos todo ingeniero en computación debe saber, es que ARM en sí no fabrica ni un solo chip. Lo que esta empresa hace es que crea diseños los cuales después licencia a terceros para que estos les agreguen mas cosas que los diferencien de los demás y fabriquen sus propios chips. Debido a esto es que empresas como Samsung, NEC y Freescale fabrican chips ARM bajo su propia marca, pero al final en su interior los programas que funcionan en uno funcionan en los otros chips ARM.

Otra cosa de la que quería hablarles es del hecho de que esta demostración debe recordarles algo que he estado prediciendo desde hace al menos dos años: Nuestros dispositivos móviles se convertirán en nuestras PCs, y habrán tecnologías que nos permitirán conectar un monitor de gran tamaño, teclados y ratones inámbricos, y utilizar nuestro celular como si fuera una PC a donde sea que lleguemos.

Finalmente, es posible que algunos hayan escuchado de la plataforma Tegra de Nvidia. Pues esa no es mas que otra plataforma ARM, solo que extendida con chips de gráficos de Nvidia.

Video a continuación (enlace YouTube)...


autor: josé elías


Computación Térmica a reiniciar carrera de los GigaHertz en PC/Laptops
eliax id: 7136 josé elías en oct 19, 2009 a las 01:23 PM ( 13:23 horas)
Aunque desconocido para muchas personas que no son técnicas, la razón por la cual hoy día no tenemos procesadores (es decir, los "CPU") en nuestras PCs y laptops que funcionen a 5GHz (o incluso mayor) no es que no se puedan construir chips que funcionen a esa velocidad, sino que estos generan mucho calor y no es práctico enfriarlos con las tecnologías actuales.

Por ejemplo, hoy día ya es posible, con chips que uno puede comprar en el mercado abierto, hacer funcionar algunos CPUs a velocidades mayor a los 5GHz (ver enlaces abajo de noticias previas en eliax), incluso cerca de los 9GHz, pero para lograr esos milagros se necesitó de enfriar los chips con nitrógeno líquido (el mismo líquido utilizado cerca del final de la película Terminator 2), algo que obviamente no es factible debido a su peligro, costo, y tamaño, y mucho menos en una laptop.

Es debido a esto que empresas como Intel están empujando tan fuertemente sus arquitecturas multi-núcleo (como los Core Duo y Core Quad de Intel), con la esperanza de escalar (o aumentar la fuerza) de aplicaciones, utilizando paralelismo (es decir, el poder dividir elementos de un programa en varios y ejecutarlos en paralelo en múltiples núcleos de un solo CPU), ya que se hace muy difícil incrementar el rendimiento de sus CPUs por medio del aumento de las velocidades de sus relojes (es decir, los Hertz).

O en otras palabras, y utilizando un poco mas de nomenclatura técnica, estas empresas están escalando estos chips "horizontalmente" en vez de "verticalmente".

Sin embargo, todo esto está a punto de cambiar gracias a investigaciones realizadas en Waseda University en Japón, gracias al desarrollo de algo llamado "Computación Térmica".

Sucede que el científico Wataru Kobayashi ha inventado una técnica que permite construir diodos (uno de los componentes básicos de los circuitos de tu PC) que disipan calor en una sola dirección (de ahí el nombre de Computación Térmica). Es decir, imagina un pedazo de metal largo, que si lo colocas encima de algo caliente lo que hace es que absorbe todo el calor pero lo envía todo a uno de los extremos del metal, manteniendo el otro extremo a temperatura ambiental.

O en otras palabras, este es el "santo grial" del diseño de estos disipadores de calor en chips, ya que con esta técnica sería posible diseñar circuitos de tal manera que en su superficie activa se mantengan fríos, mientras todo el calor de estos es disipado hacia otro lugar fuera de tu PC de manera activa y automática sin necesidad de ventiladores o enfriadores especiales.

En términos prácticos, esto significa que ahora será posible volver una vez mas a empujar estos chips a velocidades muy por encima de los 5GHz, sin miedo a literalmente derretir la superficie de estos (como puede suceder hoy día).

Según Kobayashi, su técnica es aplicable no solo a diodos, por lo que estamos ahora a pocos pasos de crear todos los otros componentes básicos de un chip (como transistores, memorias, etc) que funcionen con esta novedosa técnica.

Finalmente, noten que esto no significa que veremos una des-aceleración en la adopción de tecnologías multi-núcleos, sino que simplemente será una técnica que complementará a esta, en particular en chips de alto rendimiento en entornos de servidores empresariales y científicos.

Fuente de la noticia

autor: josé elías


La TX-0 y Peter Samson, y la primera vez que se escuchó música electrónica
eliax id: 7100 josé elías en oct 5, 2009 a las 09:01 PM ( 21:01 horas)
eliaxSi eres amante de la música, o de la historia de la computación, o simplemente eres una persona curiosa, creo que te interesará este recorte que hago de uno de mis libros favoritos de todos los tiempos: "Hackers - Heroes of the Computer Revolution" del autor Steven Levy. Este libro lo leí en su primera edición y tuvo una gran influencia en mi vida que perdura hasta estos días...

El libro trata sobre los pioneros de la computación moderna (hablamos desde los 1950s hasta los 1980s, y verán muchos personajes que hoy día son leyendas, como este), y de cómo estos cambiaron para siempre el mundo como lo conocemos hoy día, con un enfoque en particular en los primeros hackers. Noten que en este caso, hablamos del significado original de la palabra "hacker", que para nada significaba alguien que destruía máquinas o implantaba virus, sino que alguien que se ingeniaba una manera inesperada, asombrosa y elegante de resolver un problema.

Ahora, para que entiendan lo que sucede en este recorte, la escena es que llegan unos visitantes a un laboratorio del hacker Peter Samson (por favor, algún DJ que le rinda tributo algún día a este hombre), y son entre las primera personas en la historia de la humanidad que escuchan música generada electrónicamente. Así que los dejo con el recorte, que traduzco del inglés a continuación...

"Cuando los que llegaron escucharon las melodías de Johann Sebastian Bach en una sola voz, en onda cuadrada monofónica, sin armonía, quedaron universalmente imperturbados. ¡Gran cosa! Tres millones de dólares por este gran pedazo de maquinaria, ¿y por qué no habría de hacer al menos lo que hace un piano de cinco dólares?

No valía nada el tratar de explicarle a estas personas que Peter Samson había circunnavegado el proceso por el cual la música se había creado por milenios. La música siempre se había creado generando vibraciones que directamente formaban sonidos.

Pero lo que sucedió en el programa de Samson, es que grandes cantidades de números, fragmentos (bits) de información alimentados dentro de la computadora, formaban un código en donde residía la música. Uno podría durar horas muertas mirando el código, y aun así no poder adivinar en donde residía la música.

Este código solo se convertía en música mientras millones de increíblemente breves intercambios de datos tomaban lugar en el acumulador que yacía en uno de los componentes de metal, alambre y silicio que formaban la TX-0.

Samson le había pedido a la computadora, la cual no tenía conocimiento aparente de como usar una voz, que se levantara en canto - y la TX-0 había respondido.
"

Ese último párrafo es uno de los mas inspiradores que he leído en toda mi vida, aunque para apreciarlo es mejor leerlo en el contexto del libro. Básicamente lo que dice es que nosotros los humanos, como dioses, logramos que un pedazo de metal, aparentemente inerte, se levantara en canto imitando una de las cosas mas bellas de la naturaleza humana.

Y a propósito, la computadora TX-0 no fue diseñada para que pudiera modular música, sino que fue el ingenio de Peter Samson lo que hizo que esta hiciera algo para lo que no fue creada. Es decir, lo que hizo fue un hack.

Si pueden obtener el libro, y saben inglés, no dejen de leerlo, es bastante interesante y les ofrece una rara mirada al interior de un mundo que muchos desconocen. Este es considerado quizás el libro sobre el tema mas importante de todos los tiempos. Y si alguien conoce de alguna traducción al español, por favor poner un enlace en los comentarios a donde se pueda comprar para el beneficio de todos.

Fuente de la foto que acompaña este artículo

Una foto en donde aparece Peter Samson (el de la derecha)

autor: josé elías


Apple dió idea de Light Peak a Intel. ¿iPhone a servir como PC? Opinión
eliax id: 7077 josé elías en sept 27, 2009 a las 09:17 PM ( 21:17 horas)

¿Recuerdan la noticia de mediados de la semana pasada sobre la asombrosa tecnología Light Peak de Intel que revolucionaría la manera en que conectamos todo tipo de cables y protocolos a nuestras PCs/Laptops/etc? Pues ahora ha sido revelado que quien tuvo la idea inicialmente fue Apple, y que esta trajo el concepto a Intel para que esta la desarrollara, en lo que puede ser catalogado simplemente como un golpe maestro por parte de Apple.

Mejor aun, Apple supuestamente lanzará toda una linea de productos soportando la tecnología para finales del 2010, que incluye desde sus MacBooks y iMacs hasta muy posiblemente iPods y iPhones.

Esta noticia es muchísimo mas importante de lo que muchos se imaginan, pues con esto un iPhone instantáneamente podría convertirse en una laptop (tal cual predije hace casi 3 años en este artículo). Es decir, con este solo cable el iPhone podría conectarse a un monitor o televisor de alta definición, a un equipo de sonido, a discos duros externos, dispositivos avanzados de red, teclados, ratones, a cámaras de edición de video profesional, a guitarras, pianos, y un sin fin de otros dispotivos hogareños e industriales, a velocidades de hasta 10Gbps.

Es decir, que un iPhone bien podría convertirse en una laptop o PC con solo agregar una pantalla externa con Light Peak (la cual a su vez tendría un teclado y ratón conectada a ella, así como puertos adicionales de Light Peak o incluso puertos "viejos" como los de USB 2.0).

Les recuerdo que el nuevo iPhone 3GS ya tiene un poder superior a la mayoría de las netbooks en el mercado hoy día, en particular en prestaciones gráficas, así como funciona con una versión ligera del exactamente mismo OS X que funciona en las iMacs y MacBooks, y dado que el poder de computación se duplica cada 12 a 18 meses, en un par de años un iPhone será tan poderoso como cualquier genérica de hoy día, que para la mayoría de las personas sería mas que suficiente para hacer sus tareas diarias.

Si analizamos el asunto, lo que Apple hizo fue bastante inteligente. Por un lado, la tecnología permanecerá abierta pero será Apple la primera en sacarle ventaja a gran escala, por otro lado Apple no tiene que invertir en el desarrollo de la tecnología, por otro Intel sale ganando ya que pueden estar seguros que sus chips serán los primeros en soportar la tecnología, y finalmente por otro esto le da a Apple una ventaja competitiva por sobre sus rivales. Al final sin embargo, no solo Intel y Apple salen ganando, sino que nosotros los consumidores, pues debido al volumen de unidades que Apple sin duda ordenará de estos chips, los precios de Light Peak bajarán rápidamente, lo que significa una amplia adopción en el mercado.

Por ahora sin embargo, lo que mas me emociona de esta tecnología (aparte de la obvia utilidad de consolidar todos los cables en uno y a alta velocidad) es un día poder llegar con mi iPhone a cualquier lugar, conectarlo a un monitor, teclado y ratón, y utilizarlo cómodamente como una PC... :)

Esperemos ahora que alguien del campo de Google Android "vea la luz" y piense en algo similar, pues si hay algo que todos queremos es tener la menos cantidad de dispositivos disponibles.

Y a propósito, si este futuro se llega a materializar, es ahí en donde empezaremos a ver las ventajas verdaderas de almacenar nuestro datos "en la nube de Internet", pues si se nos pierde o roban el iPhone (o el celular inteligente que sea), lo ideal sería simplemente comprar otro, sincronizar con la red, y volver a tener todo casi tal cual lo dejamos antes de perder el dispositivo.

En nota final, ya sabemos que Intel planea agregar cobre al cable, para de esa manera permitir transferir no solo datos, sino que energía eléctrica a los dispositivos, lo que hace de Light Peak algo aun mas útil (en particular con dispositivos de almacenamiento externo, por ejemplo). Otro nuevo dato es que habrá una versión de bajo consumo energético para dispositivos móviles en el 2011, lo que significa que el concepto de iPhone como una PC/Laptop de la cual he estado hablando es posible que empiece a materializarse en ese entonces.

autor: josé elías


Intel anuncia Light Peak, comunicación a 10Gbps entre dispositivos
eliax id: 7066 josé elías en sept 23, 2009 a las 11:55 AM ( 11:55 horas)
He aquí uno de los mejores anuncios de hardware en tiempos recientes. Intel acaba de demostrar hoy una tecnología a la que llama Light Peak (lo que significa mas o menos "Luz a Pico o al Extremo"), que permite trasferir datos entre un dispositivo y otro a la increíble velocidad de 10Gbps (10 Gigabits por segundo).

Por el nombre tenemos que asumir que esta es una tecnología óptica, y una ventaja adicional es que esta velocidad es sostenida hasta por 100 metros (mas de 330 pies) de distancia.

Lo mejor de todo sin embargo es que Intel está proponiendo esta tecnología (la cual aun no está finalizada ni tiene fecha de salida) como un conector universal para todo tipo de dispositivos. Así que por ejemplo, con un solo cable de esto puedes conectar tu laptop a tu equipo de sonido y enviar video, audio y datos, y con el mismo cable conectar a un disco duro externo, un par de monitores mas, una cámara web, o una cámara de video de alta definición.

Es decir, esto reeemplazaría a USB, FireWire, VGA, HDMI, Ethernet, conectores RCA, DisplayPort, DVI, eSATA, y cuantos otros protocolos mas. Mas genial es que esos otros protocolos podrían viajar encapsulados por todo este ancho de banda sobre el mismo cable, de modo que me imagino un futuro en el cual con simples adaptadores podemos seguir utilizando nuestros dispositivos actuales mientras migramos en años futuros a un mundo de Light Peak.

Pero como siempre, no duden en que surja otra empresa en los próximos meses con una idea similar, pues la verdad es que esto es algo que tiene mucho sentido implementar, al menos hasta que llegue el día en que todo lo podamos hacer inalámbricamente a estas altas velocidades...

Fuente de la noticia



autor: josé elías


Sobre evolución del GPU, e implementación de AMD de OpenCL en CPU/GPU
eliax id: 6927 josé elías en ago 10, 2009 a las 12:20 AM ( 00:20 horas)
Antes de hablar de una noticia reciente de AMD con respecto a OpenCL, y su profundo significado, veamos primero un poco de historia...

En el 1993, un video-juego captó la imaginación de toda una nueva generación de jugadores en la PC, el juego era Doom, de ID Software. Lo fenomenal de ese juego, aparte de su ingeniosa mecánica, eran los gráficos. Estos fueron programados de tal manera que el juego exprimía hasta la última gota de poder de tu PC en aquel entonces, para convertir a Doom en uno de los primeros juegos con gráficos 3D mas o menos realistas en la PC.

Sin embargo, se hizo obvio que el CPU ("Central Processing Unit", es decir, el procesador principal de tu PC, su cerebro, hoy día ejemplificado por modelos como el Intel Pentium, el Intel Core 2 Duo, el AMD Athlon, etc) no era suficiente para el tipo de cálculos necesarios para seguir progresando la industria y generar gráficos cada vez mas convincentes. En otras palabras, las demandas en mejores gráficos estaban sobrepasando el creciente poder del CPU.

Es por eso que en esos días la industria de la PC empezó a tomar una idea prestada de la industria de la visualización científica en estaciones de trabajo poderosas, en esos días ejemplificadas por las máquinas de Silicon Graphics (o "SGI"), y los trabajos de pioneros como Evans & Sutherland con sus simuladores de vuelo para las fuerzas armadas.

La idea era crear un co-procesador que ayudara al CPU a hacer cálculos específicos a 3D, para así dejar que el CPU se encargara solo de cálculos genéricos (como por ejemplo, la inteligencia de la simulación), y que el co-procesador se encargara de puramente la parte de visualización. O en términos mas simples, el CPU coordina y le dice a co-procesador lo que tiene que dibujar, y el co-procesador toma esos datos y los dibuja en 3D.

A este co-procesador es lo que modernamente se le llama un GPU (Graphics Processing Unit).

Sin embargo, los ingenieros y programadores responsables de estos GPUs se dieron cuenta de algo: El tipo de cálculos que se ejecutan en un GPU (Transformaciones Fourier, Procesamiento Stream, Transformaciones Matriciales, etc) tienen una aplicación muchísimo mas extensa que solo gráficos en 3D, ya que muchos de estos cálculos son utilizados con frecuencia en editores de sonido, en codificadores/descodificadores de video, en filtros de gráficos en 2D (como Photoshop), y otros.

Así que surgió la idea del GPGPU (General-Purpose computing on Graphics Processing Units), es decir, computación genérica en GPUs, en donde la idea es agregarle a los GPUs algunas instrucciones faltantes provenientes del mundo del CPU, para hacer de los GPUs unos super-potentes CPUs adaptados al tipo de operaciones que procesa un GPU, pero casi sin ya necesitar de un CPU.

Sin embargo lo que sucedió después es que empresas como NVIDIA y ATI (ahora parte de AMD) sacaron sus propios GPUs con sus propios lenguajes propietarios para programarlos, lo que dividió al industria y frenó el crecimiento de esta tecnología.

Pero recientemente ocurrió algo extremadamente positivo que sacudió la industria y puso a todos a caminar al mismo compás: OpenCL.

OpenCL es un lenguaje genérico de bajo nivel que estandariza el poder programar para GPUs de una manera independiente del proveedor. Pueden pensar de OpenCL como el equivalente a programar en bajo nivel de Assembly para la arquitectura x86, en donde programas para la x86 funcionan en chips de Intel y AMD, aun estos sean diferentes.

Sin embargo, el impulso mas grande para OpenCL lo obtuvo cuando el año pasado Apple anunció que su próxima gran versión de OS X (la versión Snow Leopard que sale próximamente) vendrá con soporte nativo para OpenCL, lo que hará de OS X una super-potente plataforma para todo tipo de cálculos multimedia y científicos cuando este esté instalado en un equipo que contenga un GPU moderno (o CPU multi-núcleos como hablaremos en un momento).

Y con eso llegamos al día de hoy, y la noticia que les quería comentar hoy: AMD recientemente anunció que tiene un SDK (kit de desarrollo para programadores) que permitirá que compiles tu código de OpenCL, y hacer que este no solo funcione en un GPU, sino que además en un CPU de multi-núcleos, y sin recompilar la aplicación, con un binario universal.

Esta es una noticia importantísima porque significa que:

1. Las PCs que no contengan un GPU (como ocurre con muchas laptops) podrán tomar ventaja de programas que requieran un GPU, aun funcionen un poco mas lento.

2. Será posible tomar ventaja de la nueva generación de CPUs que vendrán con 6, 8, e incluso 32 o mas núcleos para combinar todo ese poder con el poder del GPU (el cual por sí mismo viene con varios núcleos) para efectivamente optimizar al máximo todo el hardware tu PC.

Es decir, esto devuelve otra vez la importancia al CPU, lo que significa que pondrá mas presión a los fabricantes como AMD e Intel en fabricar CPUs con mas funcionalidad prestada del GPU en sus diseños de CPU. O en otras palabras, nos acercamos a un futuro en donde no habrá mucha diferencia entre ambos, y en donde podremos mezclar CPUs y GPUs a nuestro antojo según nuestras necesidades.

Y sobre la nota de OpenCL en OS X, sucede que Apple implementó OpenCL de tal manera en Snow Leopard, que este ya hará esto que promete AMD hoy. Es decir, OS X automáticamente asignará tantos núcleos del CPU y GPU pueda a cualquier programa de OpenCL, lo que será genial poder ver en persona en un equipo potente cuando este salga al mercado en Septiembre.

La buena noticia de hoy sin embargo es que ahora gracias a AMD los usuarios de Windows también podrán disfrutar de esta funcionalidad, la cual funcionará igual de bien tanto en CPUs de AMD como de los de Intel.

Y como siempre, pueden leer mas de mis opiniones y análisis en la sección bajo ese nombre a la derecha de la página principal de eliax.

Página oficial de esta tecnología en AMD

Nota de Prensa Oficial de AMD sobre este avance

Fuente de la noticia sobre AMD y OpenCL en CPU y GPU

Video de AMD a continuación demostrando esto en un 4 procesadores Opteron de 6 núcleos cada uno (enlace YouTube)...


autor: josé elías


Futuro iPhone: Pantalla que se transforma en botones. RFID. Huellas Digitales
eliax id: 6816 josé elías en jul 2, 2009 a las 11:01 AM ( 11:01 horas)
Los responsables de MacRummors acaban de descubrir unas patentes de Apple que apuntan a un futuro bastante emocionante para el iPhone y su linea de iPod Touch y MacBooks, así como para futuros productos.

Para empezar, Apple aparenta estar desarrollando tecnología que permitirá uno de los sueños mas deseados por todo geek por años: Una pantalla que se transforma al nivel de pixeles, en formas que salen de la pantalla y con las cuales puedes interacturar (similar a esto, pero muchísimo mas avanzado).

Es decir, que si queremos un teclado telefónico, que la pantalla misma no solo dibujará el teclado como lo hace hoy día, sino que un teclado literalmente surgirá como una protuberancia desde la misma pantalla, de modo que tendrás teclas reales para presionar.

Lo mejor de esto es que no solo aplica a botones o formas cuadradas. Por ejemplo, la patente menciona el poder implementar un rueda circular virtual similar a la que vemos en casi todos los modelos de iPhones actuales. Combinen esto con la capacidad de estas formas poder sentir el tacto como hoy día, y las posibilidades son infinitas y emocionantes.

Un uso práctico que sin duda me puedo imaginar es en video juegos, en donde el programador del juego puede "dibujar" cualquier tipo de control que se pueda imaginar, y hacer que ese control surja de verdad desde la pantalla, para que uno pueda literalmente sentir los controles, haciendo de la experiencia algo mucho mas natural.

Otro uso de esto es en una computadora que sea solo una pantalla, o quizás dos pantallas, en donde una de ellas se pueda utilizar como pantalla o como teclado a la misma vez, creando de esa manera un dispositivo extremadamente elegante, sencillo y práctico (similar a este concepto).

Recuerden que esto es solo una patente, por lo que si Apple decide implementar esto en serio es posible que tengamos que esperar unos años antes de ver esto en una forma práctica y un producto real.

Otra patente interesante es la de un lector RFID. Un dispositivo RFID no es nada mas que un micro chip super barato (la idea es que cuesten mucho menos de un centavo de dólar) que tienen un número serial único y que se puede meter dentro de cualquier cosa, como ropa, dispositivos electrónicos, cajas, etc, lo que entre muchos usos prácticos es algo que haría realidad el sueño de que empresas tengan un inventario automatizado y fácil de seguir.

Por último, en otra patente hablan de un reconocedor de huellas digitales, pero que va mas allá de lo que se ve a simple vista. Por ejemplo, a primera vista uno diría que esto es simplemente para autenticar un usuario con un iPhone (o MacBook), de modo que solo tu (o personas autorizadas) puedan utilizarlo.

Sin embargo, Apple va mas allá, permitiendo poder reconocer en tiempo real las huellas de todos tus dedos, de modo que cada dedo de tu mano pueda significar una acción diferente, lo que también se le puede sacar provecho en todo tipo de aplicaciones.

Por ejemplo, como citan en la patente, de esta manera podrías manipular tu iPhone o iPod sin necesidad de ver la pantalla para ciertas acciones, ya que (por ejemplo) con solo presionar la pantalla en cualquier lugar con tu dedo índica eso podría activar el tocar o pausar una canción, pero con otro dedo la podría adelantar, y con otro saltar, etc.

En otras palabras, Apple continúa dando señales de que no detendrá su tren de innovación, al cual todo los competidores tratan continuamente de seguir...

Fuente de la noticia



autor: josé elías


Una página con diagramas de todo tipo de conectores y cables
eliax id: 6783 josé elías en jun 24, 2009 a las 06:32 AM ( 06:32 horas)
Actualmente en existencia tenemos cientos (sino miles) de conectores y cables, y cada uno tiene una configuración diferente de pinouts (los pequeños conectores que conducen las señales).

En la página a continuación encontrarás una guía con cientos de diagramas de pinouts, organizados por tipo, lo que sin duda será de gran utilidad para ingenieros, técnicos y aficionados de todo tipo.

Enlace a la página

Previamente en eliax:

Guía para ingeniería inversa de software (Enero 2006)

Guía para aprender Assembly Language (Enero 2007)

autor: josé elías


ExpressCard 2.0 listo para el mercado, promete 5 Gbps
eliax id: 6735 josé elías en jun 10, 2009 a las 09:41 PM ( 21:41 horas)
Por fin se finalizó la especificación ExpressCard 2.0, y la gran noticia es que será 10 veces mas rápida que la versión anterior, o mas específicamente 5Gbps, o suficiente velocidad para transferir un DVD regrabable en menos de 10 segundos.

Además, soportará nativamente adaptadores para USB 3.0, PCI Express (o PCIe) y eSATA (para discos duros externos de alto rendimiento).

Los que no sepan que es ExpressCard, es básicamente la evolución de esa ranura que casi nadie utiliza y que por lo general puedes ver al lado izquierdo o derecho de tu laptop. Inicialmente en su fase de PCMCIA o PC Card, el tamaño era similar a la mitad de un maso de cartas/barajas, pero las últimas versiones en ExpressCard son una cuarta parte del tamaño.

La idea es que esta ranura sirva como un puerto de expansión de alta velocidad para laptops, en donde puedas conectar adaptadores de video, de almacenamiento, de telecomunicaciones, y todo tipo de periféricos que te puedas imaginar.

Sin embargo, hay que ver qué tan exitoso será el formato dado que hoy día se puede hacer casi de todo con USB 2.0, y ahora que USB 3.0 está por masificarse, no se si tendrá mucha vida ExpressCard 2.0...

Fuente de la noticia

Previamente en eliax:

Mañana anunciarán a USB 3.0 oficialmente - detalles (Noviembre 2008)

autor: josé elías


Anuncian HDMI 1.4, con Ethernet, 3D, sonido bi-direccional
eliax id: 6616 josé elías en may 14, 2009 a las 02:03 PM ( 14:03 horas)
La especificación de HDMI 1.4 recién fue anunciada, y existen unas cuantas mejoras notables (esta noticia es la continuación de esta otra en Enero pasado).

Para el que no sepa, HDMI es el conector (y asociados protocolos del mismo nombre) que conectan equipos de alta definición unos con otros, como es un reproductor Blu-ray a una TV de alta definición.

Los datos interesantes de esta versión son:

- Soporte para resoluciones de 4,096 x 2,160 a 24 o 30 cuadros por segundo.
- Un canal de datos Ethernet integrado, hasta 100Mbps.
- Soporte para futuro material en 3D y alta definición.
- Canal de regreso de sonido. La TV ahora puede enviar audio digital a tu amplificador sin necesidad de un cable óptico adicional.
- Soporte explícito para HD (Alta Definición) en automóviles.
- Un conector mas pequeño.
- Los cables de HDMI 1.3 no serán compatibles para interconectar equipos de HDMI 1.4 si se quiere utilizar las cosas nuevas de HDMI 1.4. Esto debido a los canales adicionales de datos y a cambios en los conectores eléctricos adicionales.

Página oficial de HDMI

Fuente de la noticia



autor: josé elías


Fujitsu lanza SPARC64 VIIIfx, el CPU mas potente del mundo
eliax id: 6618 josé elías en may 14, 2009 a las 08:11 AM ( 08:11 horas)
Fujitsu, quien pocos saben tiene una licencia para crear chips SPARC (derivados del diseño SPARC de Sun Microsystems), acaba de anunciar que ha desarrollado el CPU (chip cerebro de una computadora) mas potente del mundo, siendo al menos 2.5 veces mas rápido que el mas rápido actualmente.

Según Fujitsu, su chip "SPARC64 VIIIfx" tiene el poder de ejecutar 128 mil millones (128,000,000,000) de instrucciones por segundo.

Esto significa que este solo chip es mucho mas potente que todas las 500 Supercomputadoras mas potentes del mundo de apenas pocos años atrás. Y esto también significa que nos estamos acercando mas y mas a obtener el poder suficiente de computación como para simular todo un cerebro biológico dentro de una computadora...

Fuente de la noticia

Previamente en eliax:

Por primera vez, simulan parte del cerebro humano, en tiempo real (Junio 2008)

IBM a crear super computadora de 20 PetaFLOPS (Febrero 2009)

autor: josé elías


Dell a lanzar netbooks con Google Android
eliax id: 6582 josé elías en may 7, 2009 a las 12:57 PM ( 12:57 horas)
Era solo cuestión de tiempo antes de que los grandes OEM (fabricantes de laptops) se adentraran al negocio de las Netbooks con Android, y hoy tenemos confirmación por un tercero de que el gigante Dell lanzará próximamente una netbook con Android como su sistema operativo por defecto.

La noticia surgió cuando "accidentalmente" la empresa BSQUARE emitió una Nota de Prensa oficial en donde decía que estaba creando una versión especial de Adobe Flash Lite para la Netbook con tecnología Google Android de Dell (desde entonces la empresa ha retirado la nota de prensa), dejando saber de esa manera que Dell tiene ese planes.

Algo que quisiera saber es el tipo de interfaz que Dell planea darle a estas netbooks con Android.

Como he explicado antes, Android es un sistema operativo no solo para celulares, sino que para todo tipo de dispositivos incluyendo laptops/netbooks, pero hasta los modelos de netbooks con Android han sido solo prototipos que traducen el interfaz móvil directamente a uno de laptop, que no es lo ideal.

Me pregunto si estarán pensando en hacer algo similar a Ubuntu, o algo como lo hizo HP con la HP Mini (en donde "escondieron" el entorno de Linux con su propio interfaz gráfico).

Sea como sea, lo mas interesante del caso es que esto trae el modelo del App Store del iPhone OS (que ya es replicado en el Android Market en el Android OS), a netbooks, cosa que creo es el futuro que empresas como Google, Dell, Microsoft, y ciertamente Apple, quieren para estos dispositivos y PCs genéricas.

Fuente de la noticia

Previamente en eliax:

Google gPhone Android revelado!!! (Noviembre 2007)

Análisis: Google Android y el Open Handset Alliance (Noviembre 2007)

Plataforma Google Android - Introducción de alto nivel (Noviembre 2007)

iPhone vs Android, la batalla se avecina... (Marzo 2008)

Google Chrome a venir para Android 2.0 (Septiembre 2008)

autor: josé elías


La Commodore 64 LCD Laptop. Nostalgia...
eliax id: 6426 josé elías en abr 6, 2009 a las 11:37 AM ( 11:37 horas)
A los amantes de las computadoras de antaño, y en particular a los usuarios de la Commodore 64 (yo incluido, pues esta fue mi primera PC), aquí les presentamos este video de un hack por un talentoso fanático que convirtió su C=64 en una laptop, con pantalla LCD e incluso un lector de tarjetas SD que emula al lector de disquetera.

Y a propósito, no dejen de ver el video si tan solo para ver el juego Thunder Blade. Es asombroso que ese juego fue realizado con unos cuantos KiloBytes, con efectos 3D, con un ordenador que apenas soportaba 16 colores en resolución de 160 x 200 (aunque soporta 320 x 200 con algunas restricciones de colores), y a una velocidad de 1MHz (sí, 1MHz, o mil veces menos ciclos que 1GHz de hoy día).

Video a continuación (enlace YouTube)...


Previamente en eliax:

Artículos varios sobre la Commodore 64 en eliax

autor: josé elías


Actualización: La HP Mini, esta vez con Windows XP
eliax id: 6391 josé elías en mar 31, 2009 a las 03:43 AM ( 03:43 horas)
Hace una semana les hablé de mi HP Mini con Linux, y este fin de semana pasado decidí ver cómo se comportaría la máquina con Windows XP, y en resumen solo puedo decir esto: WOW.

Muchas de mis quejas con Linux desaparecieron con XP, y estas son las mejoras que he notado:

1. Videos de YouTube ahora pueden reproducirse en pantalla completa sin ningún problema tal cual en cualquier otra PC de mucho mas poder.

2. Videos de DivX y Xvid también funcionan en pantalla completa sin saltar ni un solo cuadro (frame).

3. Los gráficos en 3D son muchísimos mas potentes en Windows XP que en Linux, muy posiblemente por drivers mas maduros en Windows. Ahora es posible jugar video-juegos que no necesiten de mucha demanda 3D de manera adecuada.

Por ejemplo, probé Red Ace Squadron, y funcionó bastante bien. Así mismo probé a Google Sketchup 7 (el programa para diseñar en 3D) e increíblemente funcionó tal cual como lo hace en mi MacBook.

Además probé varios programas mas, entre ellos MAME, el emulador de video-juegos tipo Arcade, en donde probé juegos que van desde Street Fighter II hasta Galaga, R-Type y Super Sprint, y todos funcionaron a la pura perfección sin ningún tipo de retraso en los gráficos o el sonido.

4. Incluso llegado a la conclusión que esta maquinita podría manejar cosas como Autocad y Photoshop de manera aceptable, que por poco mas de US$300, es mucho que decir...

5. En cuanto a los curiosos que se pregunten cómo instalé a Windows XP es esta HP Mini (ya que como casi todas las otras netbooks, esta no viene con un lector de CD/DVD), pues lo que hice fue crear una versión del disco de instalación de Windows XP en una memoria USB y hacerlo bootable (una tarea que no recomiendo para usuarios que no sean técnicos). En cuanto a los drivers de XP para la HP Mini, todos están disponibles en la página de HP, lo que estuvo genial. Si puedes pagarlo y preferirías a XP en vez de Linux, recomendaría que compres el modelo que viene con XP de fábrica.

En resumen, con XP la HP Mini aparenta ser casi una laptop de mucho mas poder, pero en un tamaño mucho mas compacto y ligero, y por supuesto, de mucho mas bajo costo...

Nota adicional para usuarios técnicos: Para instalar a XP en la HP Mini, utilicé este artículo como guía, sin embargo el artículo contiene un error en que si lo sigues al pie de la letra terminarás con Windows instalado en una partición "D:" en vez de "C:", lo que crea un conflicto con los drivers que debes instalar.

La solución es que justo después del paso cuando formatees el sistema con NTFS, que debes forzar la máquina a que se apague (para lograr esto, simplemente mantén presionado el botón de encender/apagar por unos segundos), y volver a lanzar el instalador en modo de Texto (no de GUI) con F9. Después continúa normalmente, reinicia la máquina en modo de GUI para finalizar la instalación, entra a Windows, y edita el archivo C:\BOOT.ini y asegúrate de que su contenido sea similar al siguiente (ADVERTENCIA: Esto es para la HP Mini 1120NR, verifica que tengas una configuración similar, aunque si tienes un HP Mini con un solo disco duro o SSD es casi seguro que esto te servirá):

[Boot Loader]
timeout=30
Default=multi(0)disk(0)rdisk(0)partition(1)\WINDOWS
[Operating Systems]
multi(0)disk(0)rdisk(0)partition(1)\WINDOWS="Microsoft Windows XP Professional" /fastdetect

Después remueve la memoria USB y reinicia la máquina y procede a instalar los drivers desde la página de HP. Para este modelo en particular (HP Mini 1120NR) los drivers los encontré en esta página. Recomiendo que primero instales el actualizador del BIOS (si no lo haces, es posible que tengas problemas con WiFi), después instala los del Chipset de Intel, después el de la tarjeta de video, y después el resto en cualquier orden.

Si algo sale mal, recomiendo que instales la versión USB de Parted Magic para borrar el disco, y vas a tener que volver a seguir los pasos de poner XP en el USB (esto es muy importante, ya que durante la instalación la HP Mini modifica los archivos de instalación en la memoria USB y no te vuelve a servir para instalar - esto no es intuitivo pero es algo que averigüé después que traté de hacer el proceso una segunda vez).



autor: josé elías

"Mi mente va a estallar, esto es EXTRAORDINARIO!!!!!!!!!!"

por "Patricio" en jul 23, 2010


en camino a la singularidad...

©2005-2024 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax