Videos
martes, enero 1, 2013
|
No dudé ni un segundo en hacer este video el primero que comparto este año con ustedes. Solo véanlo, les aseguro que les encantará el concepto y el mensaje..
¡Gracias al lector "Luis" por el enlace al hermoso y emotivo video! Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
lunes, diciembre 31, 2012
|
Ya que es el último día del año, me gusta ver con optimismo nuestro futuro, y algo que será parte intrínseca de nuestro futuro será la Realidad Aumentada, ¿y qué mejor manera de explicar el potencial de esta tecnología que con un video del mago-geek Marco Tempest?
Y lo asombroso (para los que no estén al tanto de esta tecnología) es que Marco realmente hizo todo lo que ven en el video, en vivo, por lo que la tecnología existe, solo que en etapa de prototipo y a precios todavía relativamente altos. Noten que esta es la idea detrás de tecnologías como Google Glass, y de mi fantaseado IrixPhone (o si quieren irse más lejos en el futuro, el NeuroPhone). Finalmente, si quieren ver un video de lo lejos que esto llegará al mediano plazo, no dejen de ver este otro... ¡Gracias al lector Marcelo Flix Diaz por el enlace! Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
sábado, diciembre 29, 2012
|
Un grupo de científicos desarrolladores del interfaz cerebral BrainGate 2 acaban de demostrar un asombroso video de lo preciso que han logrado detectar señales de deseos de movimientos en el cerebro de monos macacos.
En el experimento, se les implanta un interfaz neuronal directamente a los monos, y se miden las señales eléctricas que un grupo especializado de neuronas emite cada vez que tenemos el deseo de ejecutar acciones motoras. Estas acciones son interpretadas por un software especializado que se entrena con reconocedores de patrones, y que detecta exactamente el movimiento deseado por los monos. Para demostrar el resultado, se entrenó a los monos a reconocer dos círculos en una pantalla. Uno de ellos está fijo y sirve como “objetivo”, mientras que el otro círculo funciona como el control. A los monos entonces se les enseña la tarea de mover el círculo de control hacia el círculo objetivo, y como verán en el video que compartimos a continuación los resultados son increíbles. Esta tecnología será obviamente de valor incalculable para personas paralizadas, pues más allá de poder servir como un puntero en una pantalla para que estos elijan menúes en un interfaz, estas señales podrían también ser redireccionadas hacia prótesis robóticas para dotar de movilidad a estos pacientes. fuente Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
jueves, diciembre 27, 2012
|
![]() La película fue filmada completamente al estilo de esos "spaguetti westerns" (vaqueradas hechas en italia y/o dirigidas por italianos) de mediados de los 1960s (una era que según cuenta el mismo Tarantino, influenció mucho su trabajo), en donde quizás la más famosa de la época fue la asombrosa "El Bueno, el Malo y el Feo". La película incluso tenía un aire de haber sido filmada hace mucho tiempo, salvo las raras excepciones cuando Tarantino mezclaba en la excelentísima banda sonora alguna que otra canción moderna. Djando Unchained es una película más en la lista de Tarantino que trata temas de venganza, en este caso por un esclavo que quiere recuperar su esposa, y para hacerlo acepta la oferta de un cazarecompensas de origen alemán para que lo ayude con su trabajo. Las actuaciones de la película fueron excelentes, siendo sin embargo la de menor calidad la del mismo Django (Jamie Foxx) el cual no actuó mal pero tuvo que compartir elenco con actores que le superaron con creces, incluyendo Leonardo DiCaprio que dio lo mejor de sí. Sin embargo, los que se "robaron" la película fueron Christoph Waltz (como el alemán que contrata a Django, haciendo un papel digno de un Oscar otra vez) y Samuel L. Jackson en su mejor papel desde Pulp Fiction (Tiempos Violentos) y merecedor de otro Oscar. En cuanto a la dirección, es puro Tarantino, y eso significa diálogos entretenidos, escenas largas pero que nos atan cada segundo a la pantalla, situaciones inesperadas, y por supuesto, violencia al extremo con sangre por todas partes (aunque quizás en menos cantidades que en Kill Bill e Inglorious Basterds). Y hablando de violencia, es importante aclarar (por si no se ha hecho obvio) que esta es una película de Tarantino, por lo que si no les gustan películas con escenas violentas, esta película quizás no les agrade. Sin embargo, si aguantan los delirios violentos de Tarantino (el cual a propósito hace una cameo en la película y se despide de forma explosiva) esta película les va a fascinar. Desde ya es posible que sea la segunda o tercera película que más me ha gustado de Tarantino, siendo la primera la incomparable Pulp Fiction. Le doy 9.5 de 10 Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
|
![]() El Sphero, es bueno mencionar, no es algo nuevo o reciente. La empresa del mismo nombre demostró el juguete el año pasado, y empezó a venderlo en cantidades limitadas y con una versión “beta” de su sistema operativo en las navidades del 2011, pero esta serán las primeras navidades que estará disponible al público en general y con toda su funcionalidad habilitada. El juguete consiste de dos partes, (1) un robot en forma esférica (de ahí su nombre) que se puede mover en cualquier dirección gracias a unos motores y sensores internos, y (2) una aplicación de Realidad Aumentada que funciona con iPhone, iPad o dispositivo Android. Pero la verdadera magia del Sphero viene en su integración de ambos entornos, pues de la manera que controlas el Sphero es (en una de sus modalidades) utilizando la cámara y sensores de tu celular o tableta para controlar el movimiento del Sphero, y de paso (en uno de sus juegos) controlar un personaje que mágicamente aparece sentado encima del Sphero (algo que será evidente en el video que podrán ver más abajo). Ya existen más de 20 aplicaciones que toman ventaja del Sphero, con más en camino, y este sin duda que será uno de los juguetes más divertidos (y geek) en tiempos recientes. Lo pueden ordenar por unos US$130 dólares en la página oficial del producto. Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
lunes, diciembre 24, 2012
|
![]() ¡Gracias al lector Freddy Mesa por compartir el siguiente video en el grupo oficial de eliax en Facebook! Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
|
Una de las aplicaciones más sorprendentes que he experimentado en iPad es Animoog, una aplicación que sirve para todo tipo de fines en el mundo de audio, desde generación de sonidos desde cero, hasta edición y manipulación en tiempo real.
La nueva versión 2.0 que acaba de salir ha sido reescrita virtualmente desde cero, y se nota, con muchísimas mejoras, varios tipos de exportar e importar, e integración con otras aplicaciones de sonido en tu iPad en tiempo real. Pero si quieren verlo con sus propios ojos, los refiero al siguiente video. Esta es sin duda una de las aplicaciones de la más alta calidad que he visto en vida, no solo en iPad, sino en cualquier plataforma. No me sorprendería si algunos músicos compran un iPad tan solo para tener acceso a esta aplicación. Animoog en el App Store (cuesta unos US$15 dólares) Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
domingo, diciembre 23, 2012
|
Hoy comparto dos videos que me encontré bastante curioso, ya que soy un fan de la ingeniería y programación de software.
Se trata de poner un dispositivo especial que observa los movimientos oculares de personas (en este caso, de un programador novato y de un experimentado), y los grafico sobre el código de un programa. La idea es ver cómo rastrea el código el novato versus el experto, cuando a ambos se les asigna la misma tarea (que en este caso es descifrar cuál es el resultado de ejecutar el código que ven en pantalla). Como podrán observar en el primer video (del novato), este rastrea el código por todos lados, dando saltos a veces aleatorios y descuidados, mientras que en el segundo video (el experto) vemos como este sigue directamente el flujo del código tratando de entender a cada paso lo que ocurre. Este tipo de estudios, más allá de una curiosidad, es fácil ver como podría ser de mucha utilidad a la hora de la enseñanza en el mundo de la programación, pues le indica al profesor de cuáles cosas advertir a los estudiantes, así como quizás recorrer un pedazo de código de forma óptima para ser más eficientes a la hora de trabajar. fuente Video 1 (de novato) a continuación (enlace YouTube)... Video 2 (de experto) a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
viernes, diciembre 21, 2012
|
¿Qué sucede cuando juntas a unos foros unas personas con mucha imaginación y unos desarrolladores con mucho talento, y una buena idea? Pues lo que verán en el video a continuación...
Lo llaman Auxo, y es un reemplazo total para el sistema de manejo de aplicaciones de iOS en iPhone y iPad (incluyendo iPad mini y iPod Touch). Como verán, han superado a la misma Apple en funcionalidad y facilidad de uso, e incluso han logrado acercarse a utilidades en Android que logran un efecto similar pero de forma más complicada. La idea de los creadores de esto es que Apple los copie, o al menos se inspire en ellos (o diría yo, que los contrate) para implementar esto en la próxima versión de su sistema operativo móvil iOS 7. Pero lo mejor de todo es que todo lo que ven en el video es real y funcionando hoy día, y lo harán público para iPhones liberados con la técnica de jailbreak (no sancionado por Apple, obviamente). Así que si tienen un iPhone jailbroken, atentos a la tienda Cydia en los próximos días... Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
|
Gangnam Style llegó a eliax. Sin duda una señal para muchos de que el mundo realmente se acaba hoy!!! :)
Pero en serio, aunque no soy un fan del mega-éxito internacional del 2012, Gangnam Style, sí aprecio "el bailecito del vaquero" del video, y esta parodia creada por los geeks del Johnson Space Center de la NASA es sin duda una versión que sí me ha sacado la risa de oreja a oreja (¡y para celebrar que seguimos vivos!). ¡Gracias a todos los que me enviaron el video! Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
martes, diciembre 18, 2012
|
![]() ![]() La aplicación incluso incluye algunas funcionalidades bastante avanzadas pero simplificadas, como son corrección de color, estabilización (por si no tuviste un buen pulso cuando grabaste el video), entre otras cosas. Pero, ¿no encuentran extraño que Google haya sacado esta aplicación primero para iOS, y nos promete eventualmente en el futuro una versión para Android? Pues la verdad es que no me sorprende, y de eso les pienso hablar hoy... ![]() En vez de tratar de derrocar del mercado a iOS, Google ve a esa plataforma como una oportunidad para expandir su imperio de servicios (los cuales están todos minuciosamente diseñados para traer tráfico de publicidad a la empresa), y la manera de hacerlo es tratando de reemplazar todas las aplicaciones básicas de iOS por equivalentes de Google. El mejor ejemplo del momento es Google Maps, el cual sin duda es preferido por la vasta mayoría de usuarios de iOS por sobre los defectuosos mapas de Apple. Pero lo mismo podemos decir de GMail (y su sistema de calendarios sincronizados), y Google ya tiene una versión de Google Drive/Docs en iOS, así como una de manipulación de fotos (recientemente compró mi programa favorito para manipular fotos, Snapseed, y la hizo gratis en iOS), así como ya tiene incluído su buscador, y hasta cierta medida el competidor de Siri con Google Now. Así que el ofrecer ahora un reemplazo para la cámara nativa de iOS con YouTube Capture es solo un paso lógico para apoderarse ahora no solo de fotos, sino de videos en iOS. Google en esencia a cambiado el viejo refrán que antes decía "Si no puedes vencerlos, únete a ellos" para que ahora diga "¿Por qué competir cuando puedes asimilarlos?"... página oficial de YouTube Capture anuncio oficial con más detalles de YouTube Capture Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
lunes, diciembre 17, 2012
|
Si eres amante de la ciencia ficción, y en particular de Star Trek, siéntate si estás parado y respira dos veces antes de ver el siguiente video, que es el segundo avance oficial de la nueva Star Trek: Into Darkness...
Nos vemos en el estreno. ¡Gracias al lector Ricky Bello Martinez por compartir el enlace en la comunidad oficial de eliax en Google+! Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
|
![]() Jan Scheuermann, una mujer de 52 años totalmente paralizada desde el cuello hacia abajo, acaba de recuperar parte de su independencia al poder controlar totalmente con su mente un brazo robótico El brazo robótico, de apariencia humana, lo puede mover de forma bastante natural (como podrán ver en el video acá abajo), y sin duda que representa un gran avance en este tipo de casos médicos. Noten que esta tecnología ha estado disponible por años (vean por ejemplo este asombroso video de un hombre que perdió ambos brazos y controla un brazo robótico), pero esta es quizás la primera vez que una persona totalmente paralítica puede controlar un brazo robótico con tanta naturalidad. Este adelanto ocurrió en la Universidad de Pittsburgh en los EEUU, y la paciente requirió de solo 13 semanas de entrenamiento para lograr controlar el brazo como si fuera el suyo. El brazo es controlado por un implante en la corteza motriz del cerebro humano, utilizando unos microelectrodos que proveen 96 canales de monitoreo de las señales del cerebro hasta un software especializado que descodifica las intensiones del cerebro para generar acciones motoras. publicación científica fuente Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
|
Si algún dia la popularidad de las iPads cae, Apple debería contratar a este hombre... :)
¡Gracias al lector Gilbert Gonzalez por compartir el video! Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
domingo, diciembre 16, 2012
|
![]() Y si este video los impresionó, no dejen de ver este otro del robot PETMAN que camina de forma casi idéntica a un ser humano. Y si continúan curiosos, tampoco dejen de ver este otro de un robot que maniobra entre escombros como los seres humanos. página oficial del proyecto fuente Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
sábado, diciembre 15, 2012
|
![]() Primero, empecemos notando algo: ¿Alguna vez se han acercado a ver realmente de cerca una pantalla de un televisor LCD/LED o Plasma? Notarán que la pantalla está compuesta de pequeños puntos a los cuales técnicamente se les llama "pixeles" (más específicamente, un pixel por lo general está compuesto de tres sub-elementos de color rojo, verde y azul, y entre los tres forman un pixel). Pues así como los televisores están compuestos de pixeles, así mismo son las fotos digitales que tomamos con nuestras cámaras, en donde millones de pixeles describen una imagen. Y si extendemos esto a video, podemos decir que video no es más que miles de fotografías digitales, una detrás de la otra, compuestas por pixeles. Así que podemos resumir diciendo que por lo general las imágenes digitales que almacenamos, transmitimos y vemos hoy día (y en particular, imágenes de video como nos interesa en este artículo de hoy), están esencialmente compuestas por millones y millones de pixeles. Sin embargo, esta no es quizás la mejor forma de describir imágenes, debido a que literalmente hay que procesar todos y cado uno de esos pixeles cada vez que tomamos una foto o grabamos o desplegamos un video. Pero, por décadas siempre ha existido una alternativa a los "gráficos pixelados" como es de lo que les he estado hablando hasta ahora, y esa alternativa se llama "gráficos vectoriales", que como indica el nombre, utiliza vectores en vez de pixeles para describir gráficos. Gráficos vectoriales han sido utilizados en sistemas electrónicos desde los mismos inicios de la computación, y quizás predatan las imágenes pixeladas, particularmente debido a que las gráficas vectoriales (por motivos que van más allá de este artículo) eran más amigables a entornos de computadoras analógicas de antaño que a computadoras modernas digitales. Incluso, el primer videojuego utilizó gráficos vectoriales y no pixelados. Pero, ¿qué son gráficos vectoriales? Pues es una técnica que en vez de especificar punto por punto (es decir, pixel por pixel) cómo se compone una imagen, lo que hace es especificar formas geométricas con lineas, curvas y polígonos (si utilizan programas como AutoCad y Adobe Illustrator en esencia ya trabajan con gráficos vectoriales). Es decir, en un sistema pixelado, si quiero dibujar un círculo, tengo que ir y especificar cada punto de la pantalla en donde se deben "pintar" pixeles para que entre todos den la impresión de un círculo, lo que implicaría posiblemente tener que especificar entre cientos a hasta miles o millones de puntos por separado. Pero en un sistema de gráficos vectoriales sería tan sencillo como simplemente almacenar todo eso en una ecuación o fórmula que especifique un círculo, algo así como la fórmula (x-a)2 + (y-b)2 = r2. En otras palabras, en vez de almacenar en un archivo millones de coordenadas de pixeles, lo único que tendríamos que hacer en un archivo vectorial es almacenar esa sencilla fórmula y listo. Eso implica unas cuantas cosas interesantes: La primera es que por lo general gráficos vectoriales ocupan mucho menos espacio de almacenamiento, lo que de paso implica que los archivos se pueden descargar mucho más rápidamente por Internet. De paso, esto también implica que es más eficiente procesar estos archivos para desplegarlos, lo que los hace ideal para ambientes móviles de baja potencia, lo que de paso también significa que el procesador móvil trabaja menos lo que implica adicionalmente un menor consumo en la batería. Y como si fuera poco, un sistema vectorial nos dota de independencia del tamaño y resolución de la pantalla final, lo que significa que podemos siempre tomar ventaja de la más alta resolución disponible para desplegar la mejor imagen posible. En nuestro ejemplo con el círculo por ejemplo, en un sistema pixelado hay que especificar necesariamente de antemano la resolución en pixeles bajo la cual se desea dibujar el círculo, y de ahí en adelante la resolución se mantiene fija, pero un círculo se puede dibujar en cualquier resolución, ya que los pixeles finales de la imagen son deducidos en base a la fórmula matemática de los vectores especificados en ecuaciones. Pero, si tenemos tantas ventajas con gráficos vectoriales, ¿por qué no son el formato preferido hoy día y seguimos utilizando pixeles? Pues la respuesta por un lado es que en realidad los gráficos vectoriales ya se utilizan en millones de ambientes que uno rara vez nota, particularmente en videojuegos y en programas de diseño gráfico, pero el problema es que en fotografías y videos hasta hora no era eficiente almacenar imágenes como vectores, por la sencilla razón de que una imagen cualquier no es muy uniforme visualmente entre un pixel y otro, y se requeriría o (1) de tener que almacenar un vector por pixel (que en realidad no ofrecería ninguna ventaja sobre sistemas pixelados, y al contrario, introduciría todo tipo de desventajas), o (2) de tener que hacer unos cálculos inmensamente complejos para deducir el patrón vectorial a partir de las imágenes originales. Así que habiendo dicho todo eso, llegamos a la noticia de hoy... Un grupo de científicos de la Universidad de Bath ha logrado crear una técnica que permite aplicar procesamiento vectorial de forma eficiente y práctica (pues antes se habían creado sistemas similares pero que no eran eficientes y/o prácticos) para video. Según sus inventores, su tecnología funciona tan bien que ya quieren incorporarla en todo tipo de programas profesionales a todo nivel de la cadena de producción de video. Esto es una tremenda noticia porque significa que gran parte de las ventajas que ya mencioné sobre vectores, nos llegarán a mediano plazo a consumidores, lo que de paso significará que podamos reproducir el mismo archivo de video de manera óptima y con la mejor calidad posible tanto en un celular de pequeña pantalla, como en televisores futuros con resoluciones de 8K para consumidores, sin necesidad de reprocesar o convertir el video original. Sería como comprar un DVD una sola vez, y después poder reproducir ese "DVD" tanto en un televisor de 1080p hoy día, como en uno de 4K o 8K mañana, y en todo momento con el más óptimo detalle de la imagen (asumiendo que la fuente de la imagen tenga el suficiente detalle, obviamente). Esta noticia a propósito llega justo días antes de un artículo que tenía planeado sobre la necesidad de definir un CODEC (codificador-descodificador) independiente de resolución de video, por lo que con esta noticia no solo me evité escribir ese artículo, sino alegrarme al ver que esto llegará a consumidores mucho antes de lo que muchos imaginábamos... :) enlace a un video de demostración (formato Quicktime - quizás quieran salvarlo antes de verlo, y noten que es un video pre-grabado en formato pixelado, ya que no existe un reproductor para ver el video original en formato vectorial) página oficial del proyecto fuente oficial Actualización: Video en formato YouTube a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
"Estoy perdiendo eso de asombrarme, recuerdo que de niño me asombraba casi por cualquier cosa, hoy en día es díficil.
¿Qué nos esta pasando?..."
¿Qué nos esta pasando?..."
en camino a la singularidad...
©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax