texto:   A-   A+
eliax

Videos
GMail Priority Inbox, predice los emails que son importantes para ti
eliax id: 8084 josé elías en sept 2, 2010 a las 12:09 AM ( 00:09 horas)
Prediction¿Se acuerdan del artículo que escribí ayer que hablaba del Google Prediction API? Pues he aquí un excelente ejemplo de una aplicación extremadamente útil desarrollada por Google mismo.

Se trata de una nueva funcionalidad (aun en Beta/Pruebas, y no disponible a todo el mundo todavía, pero posiblemente lo sea en los próximos días) llamada "GMail Priority Inbox" ("Casillero de Correo Prioritario de GMail") que como su nombre implica, implementa una funcionalidad que da prioridad a unos emails que te llegan sobre otros.

La idea es que GMail Priority Inbox permite que Google literalmente prediga cuáles son los emails que deseas leer primero, y cuáles deseas leer después.

Visualmente esto funciona organizando tus emails en tres paneles, uno encima del otro. En el primero se muestran los emails que Google cree que deseas leer primero, en el segundo los que son un poco menos importante, y en el tercero los que posiblemente nunca leerás (o leerás mucho tiempo después).

Esto, aunque Google no lo dice explícitamente, es un uso interno del Google Prediction API, que sin duda ha estado analizando nuestro patrón de uso de GMail, y ahora está listo para aplicar lo aprendido para predecir cuáles emails son importantes para nosotros y cuales no.

Algo interesante es que uno puede corregir el sistema, marcando emails que fueron marcados como importantes como "no importantes" y viceversa.

Y si quieren ver lo lejos que Google ya llevado esto internamente, lean esta noticia...

Fuente oficial de la noticia

Video a continuación (enlace YouTube)...


autor: josé elías


Google BigQuery y Prediction APIs, apuntan a inicios de Inteligencia Artificial masiva
eliax id: 8078 josé elías en sept 1, 2010 a las 12:03 AM ( 00:03 horas)
Hoy les presento una pieza más del "Plan Maestro" de Google para hacerse una parte intrínseca de nuestras vidas, y algo a los que arquitectos de software y Gerentes de Tecnologías deberían prestar mucha atención...

Se trata de dos proyectos de Google vagamente relacionados entre sí llamados BigQuery y el Prediction API, que Google reveló hace pocos días en su Google IO 2010, y que en mi opinión no obtuvieron la cobertura de los medios que se merecían, quizás porque a simple vista el nombre de estas tecnologías sugieren cosas intimidantemente complejas. Sin embargo, hagamos un esfuerzo en entenderlas, pues como veremos, detrás de ellas existe extrema simpleza.

BigQuery es algo que me recuerda a un proyecto experimental de Google llamado Fusion Tables del cual les hablé hace un año atrás acá mismo en eliax, pero que como verán, lleva el grado de simpleza al extremo.

Como podrán notar por el nombre "BigQuery" (en español sería algo como "Gran Consulta"), esta tecnología apunta a ser utilizado en cosas "grandes", y por grandes hablamos de verdaderamente grandes.

BigQuery es básicamente una base de datos en donde los datos los provees como tablas, pero en donde no tienes que especificar ni una sola regla de relación entre las tablas, o incluso si quieres indexar campos en esas tablas (es mas, ni siquiera tienes la opción de hacer estas cosas).

En otras palabras, Google infiere las relacione según las consultas que hagas, y no necesita indexación explícita de los datos, ya que estos son almacenados de una manera inherentemente indexada globalmente (es decir, es como si tu le pusiera un índice a todos y cada uno de los campos de tu base de datos, pero sin incurrir en problemas de eficiencia por hacerlo).

Uno se preguntaría, ¿pero cuál es el objetivo de esto? Y al ver el video que adjunto al final de este artículo comprenderán mejor: BigQuery fue diseñado para almacenar literalmente millones de millones de objetos, y (esta es la parte asombrosa) poder hacer consultas en tiempo casi real (entre 5 y 10 segundos para obtener una respuesta, aproximadamente).

Como verán en el video, una base de datos de 60 Mil Millones de registros se maneja como una sencilla base de datos local, y lo mejor de todo, con simple SQL. El hecho que Google haya decidido adoptar a SQL como el lenguaje de consulta es importantísimo, porque hace esta herramienta instantáneamente útil para cientos de miles de programadores que ya saben manejar SQL en todo el mundo.

Google además incluyó muchas funciones básicas de SQL (como por ejemplo, para manipular fechas y tiempos), así como otras bastante poderosas (como funciones de probabilidades y estadísticas), lo que hace de este sistema algo verdaderamente poderoso.

Noten que por el momento la idea es que uno cargue todos los datos en crudo, y después utilizar los APIs para hacer queries en modo de lectura.

Un ejemplo que verán en el video es como Google cargó toda la base de datos completa (es decir, incluyendo cambios históricos de artículos) de Wikipedia, y como es posible hacer queries en casi tiempo real (como por ejemplo, los artículos que mas cambios han recibido).

En el otro extremo tenemos a los Prediction APIs. Estos son unos APIs que dan acceso a patrones de reconocimiento artificiales para detectar patrones en datos masivos (o no tan masivos) y uno poder hacer predicciones (de ahí su nombre).

Un ejemplo que Google ofrece es utilizar el servicio para uno automáticamente predecir si un pedazo de texto está escrito en un lenguaje u otro. Para llevar esto a cabo, el proceso no podría ser mas sencillo:

1. Uno crea un archivo de texto plano para "entrenar" al sistema, en donde en cada linea uno escribe lo que sería el resultado esperado (output), y después de una coma uno escribe la entrada cruda (input). Algo como estas lineas:
"Inglés","To err is human, to forgive divine"
"Inglés","Imagination is more important than knowledge"
"inglés","You can if you think you can"
"Español","La vida es bella y no la podemos desperdiciar"
"Español","Vive cada día como si fuera tu último"
2. Uno llena el archivo con decenas, centenares, millares o millones de ejemplos que en este caso le dirán al Prediction API lo que es texto en inglés, y lo que es texto en español. Noten que el Prediction API no está limitado a simple texto, sino que también se pueden especificar valores numéricos y muchos otros patrones mas.

3. Uno sube ese archivo a Google, el cual es analizado y literalmente aprendido por el software de Inteligencia Artificial de Google, para aprender lo que es inglés y lo que es español. A los usuarios mas expertos les gustará saber que el Prediction API en realidad consiste de varios algoritmos tras bastidores, y que todos ellos son aplicados a los datos que subes, y el que se ajuste mejor a darte las respuestas correctas es el que se termina utilizando con tus datos, todo automáticamente.

4. Después de eso, el sistema está listo para hacer predicciones. Así que por ejemplo, si tu empresa recibe miles de emails de todas partes del mundo, y deseas automáticamente catalogar los emails por idioma (para por ejemplo, enviar una respuesta automatizada en el idioma de quien escribió el email), lo que puedes hacer es enviar el texto de cada email a tu Prediction API ya entrenado para que este prediga si el texto analizado es en inglés o español (o un sinnúmero de idiomas mas si así lo deseas).

Pero noten que este es un ejemplo sencillo. Google propone una lista inmensa de posibles usos, que van desde poder predecir la mejor ruta para enviar un paquete, hasta predecir cuáles productos de tu empresa un determinado cliente estaría dispuesto a comprar cuando se combine con otro, y desde detectar SPAM (emails no deseados) hasta predecir cuáles empleados de tu empresa están en riesgo de renunciar.

Y a propósito, ese último ejemplo Google nunca lo mencionó en el video que verán, pero es obvio que Google ya tiene un buen tiempo desarrollando y probando estas tecnologías, pues desde al menos el 2006 el Gerente General de la empresa ha dejado claro que la Inteligencia Artificial es el próximo gran reto de Google.

Por el momento estas tecnologías son de acceso limitado (debes aplicar para que Google apruebe tu solicitud de trabajar con estas, gratuitamente), pues en estos momentos Google aun las está afinando para el consumo masivo del público y desea retroalimentación de los primeros adoptantes.

Otros puntos a favor de estos emprendimientos de Google es que ha decidido proveer estos servicios como simples Servicios Web consumidos por HTTPS con un simple interfaz estilo REST, lo que hace la integración de estos servicios algo sumamente sencillo.

Google además te permite gestionar a quien le quieres dar acceso a tus datos, utilizando técnicas de ACLs (Access Control Lists), y además te permite instalar aplicaciones que tomen ventajas de estos servicios directamente en el Google App Engine.

Otra cosa interesante es que Google tiene muchos planes para expandir estas herramientas al usuario común. Por ejemplo, en el video que verán (y que dura cerca de una hora, pero que creo es un video obligatorio para todo técnico en computación) verán como pueden integrar los datos de BigQuery con la hoja de cálculos de Google Docs, permitiendo que un usuario que no sepa absolutamente nada de como funciona esto, pueda interactuar con modelos creados por usuarios mas técnicos.

Entonces en resumen, BigQuery es una herramienta para el análisis masivo de datos pasados o presentes, mientras que el Prediction API es una herramienta para predecir tendencias y acciones futuras.

Si seguimos por este camino, es posible que lleguemos a este escenario mucho antes de lo que muchos esperaban o siquiera creían iba a ser posible...

Página oficial del proyecto BigQuery

Página oficial del Prediction API

Google Storage for Developers (en donde almacenas tus datos masivos en Google para ser analizados por BigQuery y el Prediction API)

Video a continuación (enlace YouTube)...


autor: josé elías


Jimi Hendrix en Woodstock 1969. Asombrosa interpretación en guitarra eléctrica
eliax id: 8064 josé elías en ago 27, 2010 a las 12:08 AM ( 00:08 horas)
Ayer les mostré la increíble interpretación de Joe Cocker en Woodstock, 1969, y hoy les presento esta otra intepretación en el mismo concierto, esta vez en un solo con guitarra eléctrica del maestro Jimi Hendrix.

La canción principal que interpreta (mezclada con otras) es "The Star Spangled Banner" (que es el himno nacional de los EEUU), y en la segunda parte toca una parte de "Purple Haze".

Noten que este video es posible que no sea del agrado de algunos, pero los que sepan apreciar el talento en guitarra (o a los que simplemente le guste apreciar todo tipo de música), y no hayan visto este video, quedarán asombrados por este maestro de maestros de la guitarra eléctrica.

Un dato curioso es que cuando Hendrix hizo esta legendaria interpretación, ya casi todo el mundo se había ido del concierto ya que era el último día, por lo que solo unas cuantas perseverantes y afortunadas almas fueron las que presenciaron este asombroso acto en persona (y nosotros lo disfrutamos gracias a cámaras de filme que quedaron rodando ese día).

Finalmente, noten que este video es parte del mismo DVD de Woodstock del cual les hablé en el artículo de Joe Cocker de ayer.

Video a continuación (enlace YouTube)...


autor: josé elías


Rápido video de como se hace un video-juego, en 48 horas...
eliax id: 8063 josé elías en ago 26, 2010 a las 06:15 PM ( 18:15 horas)
El siguiente video les muestra en unos pocos minutos cómo un programador, en un lapso de 48 horas, creó un video-juego llamado Metagun desde cero.

Cuando hablamos desde cero, hablamos que incluso diseñó su propio editor de niveles, las animaciones de los personajes, y todo lo que conlleva un video-juegos en general.

El video nos muestra en cámara rápida todo el proceso, mostrándonos el escritorio y el entorno de desarrollo del programador.

La razón principal que muestro este video, mas allá de la obvia curiosidad, es que les muestra a ustedes el gran trabajo necesario incluso para hacer el mas simple de los juegos (como es este), y para que se imaginen entonces el gran trabajo necesario para hacer juegos mas complejos como Super Mario Bros, Guitar Hero, Los Sims, FarmVille, Halo, o los super elaborados Final Fantasy.

Creo que al ver el video entenderán mejor por qué en años recientes el crear un video-juego de las mas grandes franquicias requiere de todo un ejército de personas trabajando a veces incluso por años.

Y a propósito, el sencillo juego que ven en el video pueden jugarlo en sus navegadores web (require Java) en este enlace. También recomiendo visitar la página del autor de Metagun, en donde podrán descargar código de sus otros proyectos, lo que es un recurso invaluable para los que se inician en este arte.

Nota: Hace mas de 10 años escribí mi propio juego, un clon de Tetris con monstruos que te ayudan cuando estás en aprietos :) Mas información en este enlace (lo pueden jugar con Java en sus navegadores).

Video a continuación (enlace YouTube)...


autor: josé elías


Asombrosa interpretación de Gamu Nhengu, en medio de controversia en X Factor
eliax id: 8057 josé elías en ago 25, 2010 a las 11:35 AM ( 11:35 horas)
X Factor es básicamente la versión inglesa de American Idol, y similar a la versión estadounidense, de vez en cuando se dan unos casos excepcionales de talento, y hoy les presento uno más de ellos...

Se trata de la sorprendente Gamu Nhengu, una joven que en mi opinión es quizás la persona que actualmente en todo el mundo expresa mas sus sentimientos mientras canta. De verdad que me quedé alucinado no solo con su actuación, sino que con lo que sigue en donde es criticada por los jueces (que quedaron tan alucinados como yo).

Lamentablemente, Gamu Nhengu se encuentra en medio de una controversia de la cual ella en realidad no tuvo la menor culpa. Sucede que en una retransmisión del programa los productores de X Factor utilizaron una técnica llamada auto-tune para corregir o mejorar algunas notas (básicamente, este es un programa que aun si cantas una nota mal, el programa te lo corrige).

Noten que el uso de auto-tune está totalmente generalizado, y hoy día según los expertos es difícil encontrar tan siquiera a un solo artista profesional de renombre que no le haya dado uso a esta técnica de una manera u otra.

Este caso es penoso, ya que esta joven no necesitaba de ese tratamiento, e incluso, yo personalmente prefiero las interpretaciones tal cual son expresadas "en el momento" (con o sin errores) a una versión posteriormente manipulada.

Aun así, creo que cuando vean el video notarán que esta joven rebosa de talento, y estoy seguro que veremos mas de ella en un futuro. Es toda una personalidad (y si se pueden aguantar las lágrimas al final, son todos unos gladiadores porque yo no pude).

Video a continuación (enlace YouTube)...


autor: josé elías


Interesante Video sobre las cosas que nos motivan en la vida...
eliax id: 8053 josé elías en ago 25, 2010 a las 01:32 AM ( 01:32 horas)
Hoy les presento este video que re-encontré ayer, y que hoy comparto con ustedes. Se trata sobre cuáles son las cosas que nos motivan a nosotros como seres humanos.

El video inicia con un estudio realizado por investigadores del Instituto de Tecnología de Massachussetts (MIT), la Universidad de Chicago, y Carnegie Mellon University.

El video es en inglés, pero les ofrezco un resumen de algunos puntos claves (sin embargo, el video es totalmente ilustrado, y aunque no sepan inglés entenderán una buena parte de este):

Para trabajos mecánicos, quedó demostrado que mientras mas se incentiva a las personas, mejor trabajan y mas productivos son.

Sin embargo, para trabajo intelectual que conlleve pensamientos complejos, pensar creativamente, etc, los resultados fueron que se llega a un punto (inesperado) en donde muchos incentivos en realidad producen peores resultados.

En un experimento que hicieron en una parte rural de India, por ejemplo, se le ofrecieron a personas que hicieran un trabajo simple el equivalente a 2 semanas de salario. A los que hicieran un trabajo mas complejo se les daría 1 mes de trabajo, y a los que fueran super-productivos se les darían 2 meses de salarios.

El resultado es que los primeros dos grupos hicieron un trabajo equivalente, pero al que se le ofrecieron mas cosas hizo el peor trabajo...

El autor del video después dice que existen tres factores que contrinuyen a que nos desempeñemos mejor y a tener una mejor satisfacción personal, y esas son:

1. Autonomía. Es decir, el poder trabajar por nuestra cuenta. Según el video, el manejar directa y constantemente a las personas conlleva a peor productividad.

2. Maestría. Es decir, el deseo de ser mejor haciendo algo (sea programar, tocar un instrumento musical, etc). Aquí dan el ejemplo de como el deseo de aprender y hacer cosas nuevas conlleva a que personas que ya tienen empleos dedique su tiempo libre en crear proyectos al estilo Open Source como Linux, Apache, etc.

3. Sentido de Propósito. Es decir, el tener un propósito y no simplemente deambular haciendo algo por hacerlo. Aquí el autor dice que los humanos somos maximizadores de propósito, y no de ganancias monetarias.

El video concluye diciendo que en nuestro interior, lo que nos motiva es contribuir a hacer a este mundo mejor... :)

Video a continuación (enlace YouTube)...


autor: josé elías


Video documental de Jason Sapan, el Doctor Láser, el último del arte con lásers
eliax id: 8046 josé elías en ago 23, 2010 a las 09:28 AM ( 09:28 horas)
Jason Sapan - Doctor LaserHoy comparto con ustedes este video documental que vi hace unos días sobre Jason Sapan, mejor conocido por muchos como "El Doctor Láser", un pionero que por las últimas décadas ha dedicado su vida a lo que le apasiona: El arte del láser.

En la cima de su carrera Jason era uno de los hombres mas buscados en los medios, enseñando no solo como crear hologramas, sino que como crear efectos en clubes nocturnos (como el famoso Studio 54 en New York) con rayos lásers que hoy consideramos algo tan normal que ni nos detenemos dos segundos a pensar quiénes fueron los pioneros. Trabajó además en muchos anuncios publicitarios en televisión y revistas, e incluso llegó a "holografiar" a muchos personajes famosos de eras pasadas como Isaac Asimov, Andy Warhol, Cher y hasta Bill Clinton.

El mini-documental que verán fue el ganador de un concurso, y nos muestra algunos días típicos en la vida de Dr. Láser en las pequeñas (y diría yo que casi precarias) instalaciones de su empresa Holographic Studios en la ciudad de New York.

Como verán, este es un gran ejemplo de alguien que ha seguido con su pasión, aun haya pasado mucho tiempo de su cima. Así mismo veremos que este hombre ha tenido que ingeniárselas al estilo McGiver para sobrevivir. En una parte del video nos enseña como construyó un lente gigante para holografía con tan solo 10 dólares de materiales, ahorrándose en el proceso varios miles de dólares.

En el video verán también a sus interns (estudiantes que deciden dedicar parte de su tiempo a la práctica en "el mundo real" antes de graduarse, y quien sospecho en este caso hacen el trabajo de gratis), y de cómo estos se apegan a la labor que este hombre obviamente hace con amor.

Si alguna vez visitan a New York, pueden incluso visitar a Holographic Studios para un tour totalmente personalizado de sus modestas instalaciones, en donde verán todo tipo de asombrosos hologramas (yo planeo hacerlo la próxima vez que visite New York - pueden obtener la dirección y horarios en su página oficial al final de este artículo).

Actualmente Dr. Láser se encuentra en una cruzada tratando de hacer que el actual Presidente Barack Obama de los EEUU sea el primer Presidente que se "holo-retrate" en esa nación (Bill Clintón lo hizo, pero cuando ya no era Presidente), y como verán en el video, no le ha sido fácil que le responda alguien con peso en la Casa Blanca...

Según Dr. Láser, muchos dirán que él está loco siguiendo una forma de arte que para muchos es obsoleto o está en decadencia, pero dice que eso es lo que hacen las personas apasionadas sobre lo que aman, y que él aun tiene esperanzas de que el negocio vuelva a resurgir (razón por la cual sin duda quiere hacer un holograma de Obama, ya que eso le traería mucha publicidad).

Noten que el video es en inglés (si alguien consigue una traducción al español, por favor compartirla con todos en los comentarios acá abajo), y que no está producido con un alto presupuesto. Me gustó y lo presento aquí porque nos demuestra que es gracias a este tipo de personas que nunca se dan por vencidas que tenemos el mundo con todas las comodidades y placeres que disfrutamos hoy día...

Página oficial de Holographic Studios (holographer.com)

Fuente del video

Video-documental a continuación (23 minutos y 30 segundos de duración)...


autor: josé elías


El siguiente video fue realizado totalmente con una cámara, sin efectos digitales
eliax id: 8045 josé elías en ago 22, 2010 a las 04:15 PM ( 16:15 horas)
Agreguen esto a los archivos de "con un poco de imaginación y mucha perseverancia, se pueden hacer grandes cosas"...

Los realizadores del video que verán a continuación (al que llaman True Colors, o "Colores Verdaderos"), no utilizaron ni un solo efecto digital para hacer lo que verán, utilizando simplemente técnicas de stop-motion (tomar foto tras foto, y hacer un video con todas las imágenes).

El video requirió de 5,000 fotografías y 4 angustiosos meses de trabajo.

Video a continuación (enlace YouTube)...


autor: josé elías


El robot HRP-4C vestido como Hatsune Miku cantando con Vocaloid
eliax id: 8042 josé elías en ago 21, 2010 a las 05:42 PM ( 17:42 horas)
El año pasado les mostré acá mismo en eliax un asombroso software japonés llamado Vocaloid que imita la voz humana cantando, y como pudieron escuchar entonces el sonido era bastante bueno, considerando que este es uno de los primeros intentos en imitar la voz humana en canto.

Hoy les muestro ahora al robot HRP-4C vestido como el personaje Hatsune Miku, que es uno de los personajes virtuales que sirve como instrumento de canto con Vocaloid.

Como verán, al robot le falta mucho en el tema del carisma, pero en cuanto a voz, no está nada mal. Ya me imagino una banda de humanos practicando con uno de estos robots como cantante principal o de acompañamiento en un futuro no lejano.

Sin duda alguna que nos acercamos cada vez mas a este escenario...

¡Gracias al lector Víctor Hugo Esquivel Rangel por compartir el enlace en mi perfil de Facebook!

Video a continuación (enlace YouTube)...


autor: josé elías


Nikon anuncia la D3100, 14.2 Megapixeles, video 1080p/24fps, ISO 12800, y US$699 con lente
eliax id: 8037 josé elías en ago 19, 2010 a las 04:10 AM ( 04:10 horas)
Nikon D3100Ya era hora... Después de prácticamente cederle el mercado de video tipo HD-SLR a Canon durante casi 2 años, Nikon por primera vez anuncia una cámara (la rumoreada Nikon D3100 de la cual llevo un tiempo trayendo los rumores vía Twitter) que verdaderamente tiene posibilidades de competir en ese segmento, en particular contra la extremadamente popular Canon T2i (550D). Aunque todo dependerá del rendimiento de la cámara cuando se le hagan las primeras pruebas, sin embargo si nos llevamos de las especificaciones técnicas aparenta que esta será la mejor cámara de introducción al mundo Nikon.

Esta es la primera cámara HD-SLR de Nikon capaz de grabar video en el modo "Full HD" de 1080p (1920 x 1080 pixeles) a 30fps, pero especialmente también a 24fps como es el formato del cine tradicional, lo que hará a esta cámara bastante popular entre cineastas independientes (particularmente gracias a su precio).

La D3100 inicia con un sensor tipo DX (muy similar a la Canon 2Ti) de 14.2 Megapixeles, ISO estándar hasta 3200 pero expansible a 12,800 para tomas cinemáticas en ambientes de baja luz, así como enfoque automático en el modo de video, siendo la primera cámara tipo HD-SLR del mundo con video 1080p en lograr este truco.

Pero he aquí lo mas asombroso: La D3100 saldrá a mediados de Septiembre a un precio de tan solo US$699 dólares, incluyendo un lente AF-S NIKKOR 18-55mm f/3.5-5.6G VR, lo que sin duda es una manera de Nilkon decir "vamos a pelear agresivamente contra la Canon T2i.

Así que si algún día soñaron con hacer sus películas estilo Hollywood, se les están acabando las excusas para no hacer ese sueño realidad...

Fuente de la noticia

Video promocional de la NIkon D3100 a continuación (enlace YouTube)...


autor: josé elías


Un video-regalo de cumpleaños para Steve Woz (creador de la Apple I y II)
eliax id: 8033 josé elías en ago 18, 2010 a las 12:07 AM ( 00:07 horas)
Esta noticia la publico una semana tarde (pues el cumpleaños #60 de uno de mis héroes, Steve Wozniak, fue el pasado 11 de Agosto), pero me la encontré tan divertida que no podía dejarla pasar...

Es un video-regalo hecho por un amigo de Woz, quien para el que no sepa fue quien fundó la empresa Apple junto con Steve Jobs, y fue además quien diseño (el solo) las computadoras Apple I y la Apple II.

Sin decir mas nada, los dejo con este video, que sin duda alguna es el mejor regalo que se le puede dar a alguien que ya lo tiene todo en la vida (enlace YouTube)...


autor: josé elías


BREVES: Vimeo, Ubuntu Multi-táctil, BlackBerry Torch, Snapdragon, Intel SSD, Xbox Live Phone 7
eliax id: 8031 josé elías en ago 17, 2010 a las 10:55 AM ( 10:55 horas)
He aquí unas cuantas noticias jugosas recién salidas del horno desde ayer hasta hoy...

1. BlackBerry en problemas
¿Recuerdan mi diagnósis del nuevo BlackBerry Torch que supuestamente iba a competir por fin con su nuevo sistema operativo BlackBerry 6 contra el iPhone y el tsunami de celulares con Android? Pues parece que los consumidores estadounidenses opinaron igual que yo, ya que las ventas del Torch fueron tan abismales que RIM se ha visto obligado a rebajar el precio a la mitad apenas una semana después de salir el Torch al mercado. fuente

2. Ubuntu Multi-táctil
La próxima versión de Ubuntu Linux 10.10 (la llamada "Maverick Meerkat") saldrá con soporte integrado y oficial para gestos multi-táctil similares a los del iPhone y iPad. fuente

3. Reproductor Universal de Vimeo con HTML 5
El popular portal de videos Vimeo que compite contra YouTube ha anunciado que ahora ofrece un reproductor universal que permitirá que todos sus videos se vean por medios tradicionales con Flash, o en dispositivos móviles como el iPhone y iPad con Video HTML 5. fuente

4. Procesadores ARM a 1.5GHz
Qualcomm, uno de los mas grandes fabricantes de procesadores ARM (que es la arquitectura utilizada en dispositivos móviles como iPhone, iPad, Android, Palm Pre y Windows Phone 7, entre otros), ha anunciado (como vaticinado previamente) que antes de que finalice el año hará disponibles los primeros chips ARM a 1.5GHz en su formato Snapdragon. El chip se llamará el QSD8672, vendrá con doble núcleos, y podrá decodificar nativamente video de 1080p. fuente

5. Intel SSD de 600GB
Gracias a la constante miniaturización y costos decadentes en la fabricación de microchips, Intel lanzará dentro de unos meses un SSD (almacenamiento al estilo disco duro, pero utilizando memoria tipo Flash en vez de partes móviles) de 600GB, lo que si el precio es razonable, pondría a estos SSDs a competir contra los discos duros tradicionales en aplicaciones de alta densidad de datos y alta rendimientos (como por ejemplo, en edición de video de alta definición). fuente

6. Juegos de Xbox Live para Windows Phone 7
Microsoft planea lanzar para finales de año una gran alineación de juegos para su nueva plataforma móvil Windows Phone 7, bajo la marca de Xbox Live, lanzando inicialmente al menos 50 juegos, muchos de los cuales son clásicos del Xbox, y otros del iPhone y otras plataformas. Entre la lista figuran juegos como Assassins Creed, Bejeweled, Castlevania, Earthworm Jim, Flight Control, Frogger, Fruit Ninja, Guitar Hero 5, Halo, Let's Golf 2, Splinter Cell Conviction, Star Wars: Cantina, The Oregon Trail, y UNO. Vean el siguiente video de lo que viene en camino (enlace YouTube)...


autor: josé elías


Escena no vista de Star Wars "Regreso del Jedi" muestra a Luke fabricando su Lightsaber
eliax id: 8027 josé elías en ago 16, 2010 a las 02:33 PM ( 14:33 horas)
Es increíble el impacto que Star Wars (La Guerra de las Galaxias) ha tenido en la cultura popular, tanto así que incluso cosas tan pequeñas como lo que verán a continuación acaparan todos los medios populares de comunicación entre geeks en la red.

Lo que verán en el siguiente video, por primera vez fuera de Lucas Film, es una escena nunca antes vista de Return of the Jedi que muestra a Luke Skywalker terminando la fabricación de su Lightsaber (Sable de Luz, o Espada de Luz).

Como verán, la reacción ante el video fue bastante emocionante para los fans que estuvieron presente en el evento en donde el mismo George Lucas presentó el video.

Ahora no duden que esta escena, y otras mas "perdidas" sirvan de anzuelo para que los fans compremos (por quinta vez) las trilogía original, esta vez en Blu-ray... :)

Video a continuación (enlace YouTube)...


autor: josé elías


Asombrosas imágenes animadas te explican el funcionamiento de mecanismos mecánicos
eliax id: 8026 josé elías en ago 16, 2010 a las 02:14 PM ( 14:14 horas)
He aquí algo verdaderamente útil para los que deseen entender cómo funcionan algunos de los mecanismos mecánicos mas complejos que hemos ideado.

Se trata de una serie de imágenes en formato GIF animado (lo que significa que no necesitas ni Flash, ni Java, ni HTML 5 para ver la animación), que explica visualmente estos mecanismos.

Lo único malo de la página es que son muy pocas las animaciones. Esto sería genial hacerlo para todo tipo de mecanismos mecánicos en alguna página en formato Wiki (¿alguien se anima a hacerlo?).

Enlace a la página

autor: josé elías


Eliax explica: La ciencia de Inception ("El Origen")
eliax id: 8018 josé elías en ago 14, 2010 a las 12:04 AM ( 00:04 horas)
Eliax LogoHe aquí el artículo que les prometí ayer sobre la película Inception ("El Origen"), y noten que haré todo lo posible por no escribir cosas que les arruinen la trama de la película. Antes de continuar leyendo recomiendo leer ese artículo de ayer primero...

Inception, mas allá de todos sus elementos filosóficos, y bajando a elementos mas técnicos y/o prácticos, nos propone un mundo en donde es posible que una persona aparte de nosotros entre a nuestros sueños (o nosotros al de ellos), y que la persona que entre al sueño los pueda manipular.

Y la pregunta es, ¿será eso algún día posible?

Mi respuesta es que al corto plazo no, pero al largo plazo definitivamente sí, he incluso escribí un artículo hablando explícitamente sobre ese tema hace un año atras que pueden leer aquí (muy recomendada lectura a quien les interese estos temas).

Lo primero a entender es que estamos actualmente en camino hacia una Singularidad tecnológica, por lo que el entendimiento que estamos obteniendo sobre nuestros cerebros y nuestras mentes está creciendo exponencialmente.

Esa es otra manera de decir que no es cuestión de si algún día entenderemos cómo funciona nuestro cerebro para poder manipularlo, sino que mas bien de cuándo lo podremos hacer.

Recuerden que los sueños no son mas que una realidad virtual generada por nuestro cerebro sin necesidad de nuestros sentidos, pero recuerden también que lo que llamamos "realidad" es también una realidad virtual generada por nuestros sentidos, ya que sabemos sin la menor duda que el mundo que percibimos es muy diferente a la posible "realidad". Y para ver que tan cierto es eso, lean este artículo previo en eliax.

A tal fin, existe poca diferencia entre un sueño y la realidad, desde el punto de vista del cerebro, salvo la gran excepción que en los sueños todo es posible ya que estos no están necesariamente sujetos a las leyes físicas de nuestra percibida realidad externa a nuestra mentes.

Sin embargo, habiendo dicho todo eso, y aun si estamos convencidos de que en un futuro, con suficiente tecnología, podremos modificar nuestros sueños o incluso los de otras personas, estoy seguro que muchos aun deben estar preguntando "¿pero cómo?". Veamos...

Según un estudio publicado el año pasado en la publicación científica Current Biology, hoy día ya es posible de manera rudimentaria extraer del cerebro en qué lugar dentro de un entorno virtual tu estás "parado".

Así mismo en otro estudio publicado el mismo año por científicos del University College London en el Reino Unido, se llegó a la conclusión de que de forma primitiva es posible saber cual de entre dos opciones nosotros vamos a elegir, inclusive antes de nosotros saberlo conscientemente. Es decir, este método extrae esa información del subconsciente de nuestras mentes.

Como si fuera poco, en otro estudio del 2009 por la University of Warwick quedó demostrado que es posible engañar al cerebro para generar memorias falsas, o incluso (en un experimento realizado en conjunto por científicos de las universidades de Virginia y de Oxford) implantar memorias falsas con rayos láser. Y en otro experimento de este año 2010 relacionado a este, científicos del University College London demostraron como es posible extraer del cerebro cuál de entre varias memorias una persona está recordando.

Y si eso los está sorprendiendo, sepan que hace media década atrás, en el 2005, científicos de la Universidad de Harvard ya habían creado un experimento en donde una computadora pudo extraer directamente del cerebro de un gato lo que este estaba viendo con sus ojos, un experimento repetido de manera mas sofisticada en el 2009 con seres humanos por científicos de la University of California at Berkeley.

Pero, ¿qué tan en serio se toman estos experimentos? Pues tan en serio que el Servicio de Inteligencia de los EEUU ya ha hecho público que considera el cerebro humano "la próxima frontera bélica". Así mismo empresas como IBM ya están creando los mapas de interconexiones cerebrales mas detallados hasta la fecha con miras a entender cómo funciona nuestro cerebro, e incluso replicarlo en un ambiente 100% sintético.

Muchos sin duda leerán esto de manera muy escéptica, alegando que estos experimentos son con cosas demasiado simples. Pero recuerden que con cosas mucho mas simples aun iniciamos hace pocos años lo que hoy día se convertirían en televisores, celulares, computadoras, Internet, ingeniería genética, y un sin fin de otras tecnologías.

Una regla de oro de la tecnología es la siguiente: Después que se da el primer paso, es solo cuestión de tiempo en perfeccionar la tecnología para que esta alcance todo su potencial, y no cuestión de si se podrá perfeccionar o no.

Noten sin embargo que los desarrollos no se detienen ahí, y los voy a referir a leer Máquinas en el Paraíso en donde podrán aprender de otras tecnologías que incluso permiten que los científicos generen imágenes, sonidos, olores, sensaciones e incluso gustos del paladar, con solo estimular ciertas áreas del cerebro.

Vean por ejemplo esta noticia de cómo es posible estimular directamente al cerebro para que capte imágenes de una cámara y personas ciegas ya puedan tener visión rudimentaria hoy día. Imaginen ahora que en vez de enviar la imagen de la cámara, enviamos imágenes de mundos generados en computadoras como los mundos de los video-juegos, y ya se imaginarán lo que será posible...

Sin embargo, esto es solo el inicio, y como escribí en el editorial en donde expongo la idea de que hackers pronto podrán controlar la mente humana, el hecho de que todo esto ya esté siendo posible nos habla de lo fácil que es violar la percepción de nuestro cerebro biológico, y la importancia de que es imperativo que evolucionemos a ser seres mucho mas resistentes a estos inminentes ataques a nuestras mentes, y la única manera de hacer eso es dejar nuestros cerebros biológicos detrás, pues de lo contrario nos convertiríamos en títeres fáciles de manejar por cualquiera que posea este tipo de tecnologías.

Y volviendo a Inception, por eso es que considero tan importante este tipo de películas (siendo The Matrix el otro gran ejemplo), pues este tipo de obras llegan a cientos de millones de personas, quienes desde ahora ya deberían empezar a educarse en estos temas, pues nuestro futuro literalmente dependerá de qué tan rápido podemos evolucionar a mentes sintéticas, en relación a qué tan rápido podemos violar la seguridad de nuestras actuales mentes biológicas.

Sin embargo, lo irónico del caso es que aun con nuevas mentes sintéticas mucho mas protegidas que las actuales, aun seremos vulnerables, a cosas tan aparentemente triviales como esta...

Actualización del 7 de Diciembre 2010: Si no haz visto la película aun, no sigas leyendo esta actualización o se te arruinarán las sorpresas de la película...

Noten el siguiente video que muestra los varios sueños de la película según ocurren unos dentro de otros, en proporción relativa de tiempo y de manera simultánea en un mismo video (ya entenderán cuando lo vean).

Noten que 1 hora de tiempo real (fuera del primer sueño) equivale a 12 horas en la van (camioneta) que salta del puente, y a 6 días en el sueño del hotel cuyos pasillos se ponen de lado, y a 2 meses y medio en el sueño de las escenas en la nieve, y a 2 años y medio en el sueño más profundo de todos. fuente

Video a continuación (enlace YouTube)...


autor: josé elías


John Carmack demuestra a Rage en el iPhone a 60fps. Alucinante. Video
eliax id: 8016 josé elías en ago 13, 2010 a las 05:57 AM ( 05:57 horas)
John Carmack es sinónimo de "genio en programación de renderizadores de gráficos 3D en tiempo real" en el mundo de los creadores de video-juegos, y es una figura reverenciada al nivel de estrella de rock.

Sin embargo, no hace mucho Carmack dijo que el poder de la nueva generación del iPhone era tal, que incluso era superior al del Sony PSP, o incluso el PlayStation 2 o el original Xbox, y muchos se quedaron escépticos.

Pues aquí está la prueba.

Carmack acaba de demostrar su motor de gráficos Tech 5 ejecutando un nivel de pruebas del juego Rage, y como si fuera poco, funcionando a 60fps (60 cuadros por segundo), mas suave que mantequilla derretida...

Según Carmack, el poder del iPhone 4 es marcadamente superior al PlayStation 2 o el Xbox, y el código funciona bastante bien incluso en el original iPhone 2G.

Ya veremos un juego completo en el App Store utilizando este código, pero mientras tanto, disfruten del video...

Video a continuación (enlace YouTube)...


Actualización: Revisen los comentarios de esta noticia para enlaces a mejor calidad de este video. Y noten que en YouTube no pueden apreciar la la calidad visual real del video, ya que para empezar el video original del iPhone as a 60fps, pero el grabado está a menos de 30fps, y de paso existen los problemas de comprimir el video en YouTube. Sin embargo, la idea es que capten lo increíble que es esto con lo poco que se ve en el video actual.

autor: josé elías

"Que disfrute leer tus escritos Eliax.

Webs como estas (ya sean pequeñas, medianas o grandes) son las que ayudan al Internet a ser un lugar tan rico.

Extrañare mucho cuando no pueda leerte mas.

Que disfrutes tus futuros planes, y trata de no olvidar a toda la masa de seguidores online que te ganaste a pulso gracias a este blog. :)
"

por "Fan # 1" en feb 9, 2014


en camino a la singularidad...

©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax