texto:   A-   A+
eliax

Tecnología Visual
Impresionante Arte hecho con Cerillas y Fuego
eliax id: 10129 emmanuel bretón en abr 8, 2013 a las 09:05 AM (09:05 horas)
NOTA: Este es un artículo invitado en eliax.com
Are con CerillasArte con CerillasEsto me ha maravillado, quién diría que con cerillas (fósforos) se podría lograr algo como lo que muestran estas imágenes...

El artista se llama Stanislav Aristov, y ha creado estas imágenes sólo con fuego y cerillas quemadas, y la verdad es impresionante el resultado, pues toma las cerillas como estructura principal y luego completa con fuego o humo el resto de la forma; así tiene mariposas, gatos, perros, arañas, cisnes, como también tiene una guitarra, manzanas, barco, y hasta la misma Torre Eiffel.

Ciertamente una caja de cerillas, mucho tiempo, mucha imaginación, y un verdadero talento, es una combinación perfecta para lograr algo impresionante.

enlace 1

enlace 2

autor: emmanuel bretón


Logran predecir partes de tus sueños en un 60%, explicado (no es lo que aparenta)
eliax id: 10143 josé elías en abr 7, 2013 a las 03:43 PM (15:43 horas)
En este par de días pasados una noticia ha estado rondando el Internet, y ha sido malinterpretada y exagerada por muchos medios que obviamente no tienen idea de lo que están escribiendo. Hoy les explico lo que realmente está sucediendo.

Pero antes de continuar noten que aunque esta noticia ha explotado en estos últimos tres días, que esta noticia en sí en realidad es de Octubre del año pasado, como reportado acá mismo en eliax en ese entonces (y con datos incluso más actualizados).

Se trata de un adelanto en donde científicos japoneses han logrado predecir ciertos elementos de los sueños con un factor de éxito de un 60%.

Sin embargo, la noticia está siendo reportada en muchos medios como que ya es posible "predecir lo que te vas a soñar con un 60% de probabilidad de acertar" o que ya es posible "saber lo que te estás soñando". Esto es falso, y honestamente me gustaría que los que escriben noticias científicas en portales bastante populares tanto en español como en inglés al menos leyeran o buscaran a un experto antes de difundir este tipo de noticias.

Lo que sucede es mucho más simple, aunque en mi opinión bastante interesante de todas formas: Lo que estos científicos han logrado hacer es asociar nombres de oraciones (como "mesa", "silla", "persona", "cielo", "mariposa", "cigarro", "celular", etc), y para ese limitado vocabulario han logrado hacer un mapa de correlaciones de esos nombres a actividad cerebral mientras las personas sueñan.

La idea entonces es monitorear a las personas mientras sueñan, con el objetivo de ver cuáles de los patrones correspondientes a esos nombres surgen como actividad cerebral en las personas durmiendo.

Tan sencillo como eso.

Así que por ejemplo, si sueñas con un celular y un cielo y una silla, eso generará patrones que podrán ser detectados por los científicos mientras duermes dentro de una máquina con tecnología de fRMI (resonancia magnética funcional), y lo pueden detectar con hasta un 60% de aciertos.

Pero ojo, esto es solo para patrones que existan en el muy limitado vocabulario de estos experimentos. Sin embargo, aun así es un tremendo adelanto.

Por otro lado, por más tremendo adelanto que esto sea, les recuerdo que ya existe una técnica aun mucho más poderosa y avanzada que esta, y de la cual les hablé hace un par de años, que permite que los científicos literalmente graben un video de lo que estás soñando.

autor: josé elías


Estabilizador de cámara MōVI, a revolucionar la cinematografía. Explicado. Videos
eliax id: 10138 josé elías en abr 6, 2013 a las 12:10 AM (00:10 horas)
MōVI M10 de FreeFly Systems¿Saben cuál es la primera señal de que un video fue grabado por un amateur en vez de un profesional? La estabilización. Y estabilización es una de las cosas más difíciles de lograr en video, y para lo cual existen literalmente decenas de soluciones (ver esto, esto o esto por ejemplo). Sin embargo, a la fecha ninguna como esta llamada MōVI de la empresa FreeFly.

Noten que entre las maneras más populares de estabilizar video se encuentran los jib (en esencia, gruas de distintos tamaños con contrapeso) y los sliders y dollys (en esencia, cámaras montadas sobre rieles ultra-suaves), pero otra categoría es el estilo handheld ("a mano") en donde el operador de la cámara camina y carga literalmente la cámara en sus manos, y es en esta última categoría de estabilizadores a lo que apunta el MōVI...

A la fecha, el líder indiscutible de ese mercado había sido SteadyCam, un sistema muy copiado pero venerado en Hollywood y en donde sea que se filmen videos y películas, pero este sistema tiene algunos inconvenientes: Es por lo general pesado (ya que funciona contra-balanceando la cámara con pesas), difícil de controlar (se necesita entrenamiento para poder operarlo efectivamente), y caro.

Por caro hablamos que si quieres utilizar los sistemas originales de la empresa, que esta en realidad los renta, y los renta junto con un operador especializado (sí, el sistema SteadyCam original viene con una persona como parte del paquete).

Así que ahora, de la nada, surge MōVI.

La empresa FreeFly que desarrolló este milagro de la cinematografía en realidad ya tenía una vasta experiencia en el desarrollo de cámaras estabilizadas, siendo reconocida particularmente en cámaras aéreas (para tomas desde helicópteros principalmente), y la empresa decidió tomar todo lo aprendido en el aire, y traerlo a tierra, en un dispositivo que pesa alrededor de 1.58 Kg (3.5 Lbs) y soporta cámaras de 4.5 Kg (10 Lbs) más accesorios...

¿Pero, cómo funciona el MōVI? Pues no funciona con pesados contrapesos, sino que con tecnología digital moderna que incluye un conjunto de sensores, giroscopios, una computadora especializada, y un conjunto de servo-motores silenciosos, y lo que el MōVI hace es descifrar los datos de todos esos sensores a un ritmo de miles de veces por segundo para hacer que los actuadores/motores contrarresten el movimiento natural de la cámara.

Es decir, este sistema en esencia nota que si la cámara se está desestabilizando hacia la izquierda, que entonces debe decirle a los motores que manejan ese eje que ejerzan una fuerza en la dirección opuesta, en esencia contrarrestando el movimiento original, y hace esto en todos los ejes posibles.

Y como si fuera poco, el sistema puede controlarse remotamente por una segunda persona y una palanca de mando (un joystick), para así lograr movimientos y tomas bastante complejas.

Como verán en el video a continuación, los resultados son verdaderamente increíbles, y en mi opinión este dispositivo no solo se venderá como pan caliente, sino que incluso representará un hito en toda la industria cinematográfica.

Inicialmente el MōVI M10 se venderá por US$15,000 dólares, pero la empresa ya está diseñando un modelo más módico, el M5 (y que asumo será diseñado para cámaras DSLR más ligeras) que costará unos US$7,500. También veremos un M20 en un futuro para equipos más pesados. Sin embargo, algo me dice que no tardaremos en ver copias de este sistema a precios menores, y dentro de 3 a 5 años quizás podamos encontrar sistemas similares en el rango de precio de los US$2,000 dólares.

y no dejen de ver este increíble video (que lamentablemente, no está en YouTube, solo en Vimeo por el momento)


página oficial del MōVI M10

fuente (en Vincent Laforet, con más videos)

Otro video a continuación (enlace YouTube)...


Actualización de Septiembre 2013: El MoVI ya tiene competencia. La empresa Perspective Aerials está ofreciendo un modelo que ofrece supuestamente los mismos resultados que el MoVI, pero a una tercera parte del precio (US$4,500 vs US$15,000). Más detalles en este enlace.

autor: josé elías


Google Maps nos lleva a montañas donde muy pocos han llegado
eliax id: 10120 emmanuel bretón en abr 4, 2013 a las 11:06 AM (11:06 horas)
NOTA: Este es un artículo invitado en eliax.com
Google ha dado un paso más en su servicio de recorridos virtuales Google Maps, ahora llevándonos a lugares como el Monte Everest, o el Monte Kilimanjaro en Tanzania. Imagínense visitar ahora mismo el Aconcagua (América del sur), Monte Elbrus (Europa) y la base de campo del ya mencionado Everest (Asia) todos al 'alcance de tu mano'.

La gran G ha llevado a parte del equipo de Google maps a lugares donde no todos lograremos llegar en nuestras vidas, dándonos una oportunidad de recorrer virtualmente el sendero de llegar a esos sitios, desde donde sea que estemos usando la mundialmente famosa herramienta de sus mapas. Esto sin pagar los miles que cuesta ir a un viaje de esos, las horas de entrenamiento, y el valor cosechado para uno poder realizar esa hazaña.

Esto, claro, nos sirve de motivación para ir personalmente a esos lugares, y quedar impresionados por uno mismo de las maravillas de este mundo; es una gran ventaja para aquellos que siempre hemos querido ver lugares así.

Ya había conocido la casa de una de mis mejores amigas en México, gracias al Street View, o me había entrado a ver ciertas ciudades por simple curiosidad, pero este es un 'viaje' imperdible donde puedo notar el esfuerzo que significa subir hasta esos lugares y animarme a preparar un viaje así, cámara en mano y mente fresca para adquirir recuerdos nuevos, de esos, inolvidables.

enlace

autor: emmanuel bretón


Fotos de globos reventándose en alta velocidad. El proceso explicado
eliax id: 10103 emmanuel bretón en abr 3, 2013 a las 06:10 AM (06:10 horas)
NOTA: Este es un artículo invitado en eliax.com
Hace un tiempo se podía ver en muchos sitios la foto que acompaña este artículo, el autor es Scott Dickson, ya muchos conocíamos su impresionante trabajo y siempre nos quedábamos curiosos de saber cómo lo hacía.

En el enlace más abajo podrán ver cómo Dickson logra estas impresionantes imágenes, con detalles y fotos del set donde realizaba su trabajo, en el cual no necesitó realmente de un equipo sofisticado, más bien de las herramientas adecuadas y una gran inversión en imaginación.

Yo como fotógrafo siempre he querido hacer fotos así, cosa que es más fácil con un buen equipo, pero no imposible con uno 'hecho en casa' como lo llegó a hacer Dickson.

Este es la configuración y equipo que usó en cada foto:


  • Globo relleno de agua suspendido frente a un fondo negro
  • Un mecanismo hecho por el artista para hacer reventar el globo, escondido detrás del fondo el cual estaba atado a un 'trigger' o disparador remoto que accionaba la cámara y los flashes al momento de reventar el Globo.
  • Dos Flashes a potencia 1/8 uno ubicado a 90º y el otro a 30º sobre el espacio del evento.
  • Gafas de sol.
  • Retoque de saturación y brillo a la foto en un software de edición.

fuente

enlace a la galería de fotos en Flickr

autor: emmanuel bretón


Videos del Unreal Engine 4 en PC y PS4, y Unreal Engine 3 en Firefox
eliax id: 10094 josé elías en mar 31, 2013 a las 12:12 AM (00:12 horas)
Uno de los motores de videojuegos más populares y potentes del mundo es sin duda alguna el Unreal Engine, un conjunto de herramientas que permite que diseñadores de videojuegos saquen el máximo del poder de consolas de video-juegos, PCs, tabletas y celulares, con un modelo de programación relativamente universal, ahorrándoles tiempo (y dinero).

Y ahora tenemos un video "filtrado" (más otro del PlayStation 4) de lo que será posible hacer en tiempo real con la próxima versión, el Unreal Engine 4, de lo cual les dejo un video acá abajo, y lo que nos da una pista de lo que será posible en la próxima generación cercana de videojuegos (tanto en consolas actuales, como en las de próxima generación y PCs).

Así mismo, les dejo otro video de lo que ha logrado la gente de Epic Games (los desarrolladores del Unreal Engine) al asociarse con los ingenieros de Firefox, para portar la versión actual 3 del Unreal Engine al motor altamente optimizado de Javascript de las versiones beta de Firefox (que serán parte de la versión 20 final próximamente).

Este port del Unreal Engine 3 a Firefox fue posible gracias a la herramienta emscripten, que es en esencia un compilador de bajo nivel que transforma código LLVM de los lenguajes de programación C o C++ directamente código super-optimizado de Javascript, y en este caso combinando el resultado con WebGL. Noten que aunque esto por el momento está optimizado para Firefox, que no hay razón para que veamos esta tecnología próximamente en otros navegadores como Chrome, Safari e Internet Explorer.

Esto les dará una pista del tipo de juegos que podremos jugar directamente desde cualquier página web en un futuro no lejano...

página oficial del Unreal Engine 4

página oficial de emscripten

información sobre LLVM

Video 1 a continuación del Unreal Engine 4 en PC (enlace YouTube)...


Video 2 a continuación del Unreal Engine 4 en el PS4 (enlace YouTube)...


Video 3 a continuación del Unreal Engine 3 en Firefox (enlace YouTube)...


autor: josé elías


El radio-telescopio ALMA, conectará a humanos con el universo...
eliax id: 10072 josé elías en mar 29, 2013 a las 12:12 AM (00:12 horas)
Atacama Large Millimeter/sub-millimeter Array (ALMA)En estos días pasados se inauguró en Chile el telescopio de su tipo más grande jamás creado por el ser humano, y bautizado como el ALMA (Atacama Large Millimeter Array), y estuve pensando que no pudieron haber elegido un nombre más apto para este instrumento, pues realmente su propósito desde un punto de vista poético es darnos a entender un poco más del alma de nuestro universo (en paralelo al LHC)...

El ALMA se encuentra localizado a 5000 metros de altura en el desierto de Atacama, conocido como quizás el lugar más perfecto sobre la Tierra para colocar un telescopio.

Este radiotelescopio fue creado gracias a la contribución y fondos de la Unión Europea (que aportó el 40% del capital), EEUU y Canadá (entre ambos, un 40% más), y Japón (el restante 20%), y en realidad entró en operación en el 2011 en un período de pruebas, pero fue apenas en días pasados que fue inaugurado oficialmente.

Algo curioso sobre este aparato es que no es una entidad monolítica, sino que en realidade es un conjunto de 57 reflectores (66 para finales de año) que en conjunto forman el equivalente a un "reflector virtual". Al final ALMA será compuesto de 54 antenas de 12 metros cada una, y 12 antenas de 7 metros cada una.

En esencia, todos los reflectores trabajan en conjunto, y gracias a una técnica llamada interferometría es posible combinar los datos de cada uno de los relativamente pequeños reflectores en una señal compuesta mucho más grande, dotando a este radiotelescopio de un poder hasta ahora inimaginable.

Otra cosa curiosa sobre el ALMA es que las antenas son movibles (están situadas sobre plataformas rodantes) por lo que es posible "abrir" y "cerrar" la apertura del radiotelescopio con solo mover las antenas de lugar, las cuales se situarán (dependiendo de la observación que se esté haciendo) a distancias que van de entre 150 metros una de la otra, a unos increíbles 16km de distancia.

Con este telescopio, que puede ver ondas indetectables al ojo humano, podremos obtener una vista detallada sin precedentes al origen del las estrellas, así como medir la distribución de las moléculas que existen en torno a estrellas por toda la galaxia (y el resto de nuestro universo)., muchas de las cuales sabemos son esenciales para la vida.

Y todo esto nos lleva de regreso al propósito de construir estos grandes dispositivos en primer lugar: Queremos saber de dónde provenimos. Y cuando me refiero a "de donde provenimos" eso se puede interpretar como "de donde provino el universo" o "de donde provenimos nosotros", pero en realidad son la misma pregunta pues como les expliqué en un artículo anterior el universo y nosotros somos la misma cosa.

Por lo que al activar esta máquina y mejorar nuestro entendimiento del universo, en realidad nos estamos entendiendo más a nosotros mismos, y mientras más conozcamos de nosotros mismos más podremos entender nuestro rol en el gran orden de las cosas, y lo importante que es pensar que todos nosotros, átomo por átomo y desde una piedra hasta cualquier ser humano, somos literalmente hermanos, y que todos en realidad somos uno.

ALMA en Wikipedia en español

ALMA en Wikipedia en inglés

una galería de 6 imágenes captadas por el ALMA

un artículo muy interesante sobre ALMA en space.com

autor: josé elías


Zoe, la más asombrosa y realista cara sintética a la fecha. Video
eliax id: 10080 josé elías en mar 26, 2013 a las 12:10 AM (00:10 horas)
Hoy los dejo con el asombroso resultado de una colaboración entre el Cambridge Research Lab de Toshiba y la University of Cambridge, en donde han perfeccionado un software de cara sintética que imita al ser humano de una forma verdaderamente asombrosa...

A este software que verán en el video (en donde también escucharán a los diseñadores explicar lo que verán) lo han llamado Zoe, y lo crearon de una forma bastante especial: En vez de crear "a mano" animaciones faciles, estos científicos en esencia le mostraron a un software de inteligencia artificial miles de videos y voces de la actriz británica Zoe Lister, para que el software aprendiera los más mínimos detalles asociados con músculos faciales en combinación con sonidos fonéticos.

El resultado como verán es impresionante. Noten que tanto la renderización como la voz digital que verán es hecho en tiempo real, y no es descabellado imaginarnos un futuro cercano en donde todos tengamos un asistente artificial similar a este video.

Esta es una pieza más del rompecabezas para un futuro similar a este.

fuente original

Video a continuación (enlace YouTube)...


autor: josé elías


Video sobre lo que se siente utilizar el Google Glass
eliax id: 10030 josé elías en feb 27, 2013 a las 12:10 AM (00:10 horas)
El siguiente video es uno que ya lleva unos días en Internet, pero lo cierto es que no quise dejar de compartirlo para aquellos que aun no lo hayan visto.

Se trata de un video promocional por parte de Google mostrando los usos que se le pueden dar a sus gafas inteligentes que ha bautizado como Google Glass. Noten que esto es solo una pequeña parte del potencial de estas gafas, en donde se explora la parte de gestionar, documentar y compartir nuestras vidas de forma audio-visual (lo que en mi opinión sería genial para una futura generación de redes sociales).

Video a continuación (enlace YouTube)...


autor: josé elías


El 3Doodler, un lápiz que te permite pintar objetos en el aire en 3D. Video
eliax id: 10022 josé elías en feb 22, 2013 a las 12:12 AM (00:12 horas)
He aquí algo casi salido de la ciencia ficción: Un par de imaginativos y talentosos ingenieros han creado un lápiz con el cual puedes literalmente "dibujar en el aire", y como sí fuera poco, hacer que esos "dibujos" permanezcan sólidos como esculturas alambradas.

Este es un proyecto que buscaba recaudar apenas US$30,000 dólares en fondos en Kickstarter, pero ya lleva recaudado más de US$1.4 Millones de dólares, obviamente después de captar la imaginación de toda persona que ha visto esto en funcionamiento.

Y si se preguntan cómo funciona esto, la idea es bastante sencilla: El lápiz utiliza un material especial el cual se calienta para mantener una contextura suave (como una pasta de diente), pero en el momento de expulsarse del lápiz está se enfría y solidifica rápidamente. No dejen de ver el video que es bastante curioso.

¡Gracias a mi hermanita Paola por el enlace!

enlace en Kickstarter

Video a continuación (enlace YouTube)...


autor: josé elías


Video del primer trailer/avance oficial del PlayStation 4
eliax id: 10021 josé elías en feb 21, 2013 a las 10:13 AM (10:13 horas)
Después de Sony anunciar su nueva PlayStation 4, era de esperarse que viéramos los primeros videos oficiales de Sony, y este primero no decepciona y nos deja intrigados con lo que veremos para finales de año.

Por mi parte, ahora que el PlayStation Eye 4 será parte integral del PS4, espero que los precios de los controles opcionales Move bajen, pues veo mucho potencial en esos mandos con este nuevo hardware y una nueva generación de juegos.

Video a continuación (enlace YouTube)...


autor: josé elías


Video de la cámara de vigilancia ARGUS-IS, 1.8 Gigapixeles
eliax id: 10019 josé elías en feb 20, 2013 a las 02:39 AM (02:39 horas)
Investigadores de DARPA (los mismos que inventaron el Internet e investigan nuevas tecnologías de avanzada para la defensa de los EEUU) han creado un sistema de cámara digital que hace que incluso las más avanzadas cámaras digitales profesionales de hoy día aparenten ser juguetes...

La nueva cámara, llamada la ARGUS-IS, tiene la particularidad de poseer una resolución de 1.8 Gigapixeles. Es decir, 1,800 Megapixeles, o unas 100 veces la resolución de la cámara digital promedio de hoy día.

Cómo exactamente funciona esa cámara es por el momento información clasificada del gobierno, pero si existen unos datos públicos bastante interesantes...

Por ejemplo, esta cámara puede detectar objetos de unos 15cm de ancho desde una altura de más de 5Km. Así mismo, esta cámara graba continuamente todo lo que ve, a un ritmo de 1 millón de TeraBytes por día, lo que es equivalente a grabar 5,000 horas de video de alta definición diariamente.

El sistema viene integrado con una aplicación que permite manipular los datos de las cámaras en tiempo real, pudiendo uno desplegar hasta 65 ventanas simultáneas, cada una mostrando un detalle por separado de la imagen completa de 1.8GP. El sistema es incluso tan avanzado que detecta y muestra distintos objetos en movimiento en tiempo real, como son personas y automóviles, cada uno marcado de forma diferente.

Por alguna razón esto me recordó mucho a las películas Eagle Eye y Enemy of the State...

Video a continuación (enlace YouTube)...


autor: josé elías


HTC anuncia el HTC One. UltraPixeles explicado brevemente
eliax id: 10018 josé elías en feb 20, 2013 a las 01:23 AM (01:23 horas)
HTC OneHace unas horas la empresa HTC anunció su nuevo celular con el cual planea competir contra el iPhone 5, el Galaxy S3 (o próximo S4), y el Google Nexus 4, y aparte de no decepcionar este móvil viene con una tecnología de cámara digital a la cual la empresa llama UltraPixels.

Pero antes de explicar lo de UltraPixeles, veamos brevemente lo que ofrece el HTC One:

- Android 4.1.2 con un nuevo interfaz Sense 5 propietario.
- Pantalla de 1080p (1920 x 1080 pixeles) de 4.7".
- Procesador Qualcomm Snapdragon 600 de 4 núcleos a 1.7Ghz.
- 2GB de memoria RAM.
- 32 o 64GB de almacenamiento flash.
- LTE de hasta 100Mbps en descargas y 50Mbps en subida.
- Y todo lo demás esperado (WiFi, GPS, etc).

Aparte de esas especificaciones técnicas, este es quizás uno de los más sexy celulares que han salido en mucho tiempo, con poco que envidiarle al iPhone 5.

Pero quizás lo más intrigante de este celular es su tecnología de cámara digital con UltraPixels.

Esta es una tecnología que en esencia permite al HTC One captar muchísima más luz que celulares tradicionales (poniéndolo en la misma liga que el Nokia 920).

En esencia, UltraPixeles lo que hace es utilizar un sensor mucho más grande (1/3", con lente f2.0) que los normales que se incluyen en celulares, con el fin de combinar varios fotosensores (que captan luz) en uno solo. Es decir, es como combinar 4 células fotosensoras en una sola, con el propósito de que cada pixel contenga muchísima más información visual, así como receptividad a la luz.

Esto permitirá al HTC One tomar fotografías en ambientes bastante oscuros, con resultados que en algunos casos rivalizarán a cámaras dedicadas de gran tamaño.

La única limitante de esta tecnología es que al combinar varios pixeles, su resolución se reduce significativamente, teniendo la cámara principal de este celular "solo" 4 Megapixeles.

Digo "solo 4" porque muchos se lo encontrarán poco, pero la realidad es que hay una gran diferencia entre Resolución y Detalle, y es bastante posible que esta cámara podrá obtener mucho más detalle que fotos tomadas con celulares tradicionales de mayor resolución (leer el mito de los megapixeles).

Por otro lado, si piensan comprar un nuevo celular Android ahora las opciones se harán mucho más difíciles, pues sus opciones principales son el Nexus 4, que ofrece actualizaciones garantizadas a la más reciente versión de Android, o el Samsung Galaxy S3 (el cual es bastante popular y gozará de soporte por parte de Samsung por un buen tiempo), o este HTC One con su fenomenal cámara y potente hardware.

autor: josé elías


Increíbles fotos del Sol tomadas por aficionado desde el patio de su casa
eliax id: 10007 josé elías en feb 15, 2013 a las 12:11 AM (00:11 horas)
El SolObserven la foto que acompaña este artículo, y las demás en el enlace fuente al final. ¿Qué tienen en común?

Pues no fueron tomadas por un telescopio espacial de cientos de millones de dólares, sino por un aficionado a la astrofotografía, desde el patio de su casa, con un equipo bastante modesto, y mucha dedicación.

Y si se preguntan ¿desde dónde tomó este hombre estas fotos? Pues no fue desde un lugar privilegiado a lo alto de alguna montaña en Chile o Hawaii, sino desde el patio de su casa, en Buffalo, New York, EEUU.

El talentoso aficionado a la astronomía detrás de esas imágenes es Alan Friedman, y como podrán apreciar, es asombroso lo que este hombre ha podido lograr con un telescopio que cabe en cualquier mochila...

página oficial de Alan Friedman

galería de fotos en fuente

autor: josé elías


Un vistazo en dos videos a los dispositivos flexibles del futuro
eliax id: 9996 josé elías en feb 10, 2013 a las 12:09 AM (00:09 horas)
Hoy comparto con ustedes dos videos, totalmente diferentes uno del otro, pero obviamente creados el uno para el otro.

El primero es una tecnología que permite crear parlantes/bocinas totalmente flexibles como una hoja de papel, y el segundo es de una tecnología de Samsung que crea pantallas también tan flexibles como un papel (aunque noten que muchas otras empresas, como Sony, tienen tecnologías similares en pantallas).

Lo interesante de estas tecnologías sin embargo es que ya están empezado a salir de los laboratorios y perfeccionándose a un nivel tal que casi se pueden empezar a producir en masa, por lo que productos con estas tecnologías no están tan lejos.

Y los usos son innumerables, desde dispositivos electrónicos que se envuelven en nuestras muñecas (por ejemplo, un celular flexible), hasta una nueva forma de fabricación para hacer los dispositivos más resistentes a caídas y golpes. Así mismo, esta tecnología podríamos verla como el inicio de lo que en un futuro serán televisores y paredes enteras que funcionan como pantallas, pero tan delgadas y ligeras como una hoja de papel.

Y en cuanto a los otros dos ingredientes necesarios, chips computacionales flexibles y baterías flexibles, ambos ya están también en camino...

Video 1 a continuación (enlace YouTube)...


Video 2 a continuación (enlace YouTube)...


autor: josé elías


Inventan gafas que curan daltonismo del tipo rojo-verde
eliax id: 9987 josé elías en feb 7, 2013 a las 12:10 AM (00:10 horas)
En el mundo existen cientos de miles de personas que no pueden ver el mundo en sus colores como lo vemos el resto de la población, teniendo impedimento en el rango de colores que pueden ver.

Y ahora, gracias a un novedoso estudio se ha desarrollado unas gafas especiales que prácticamente curan el daltonismo del tipo rojo-verde (Deuteranopía).

Las gafas funcionan amplificando intensamente la gama de colores que la persona no puede ver, pero atenuando los colores que sí ve. Esto por tanto no es para todo paciente, pues solo califican para estas gafas aquellos que tienen al menos unos cuantos conos oculares que captan los colores faltantes.

Así que esencialmente estas gafas aumentan las señales de color para los fotosensores que tienen deficiencia en cantidad en el ojo, y la disminuye para el resto de los fotosensores.

El resultado final es una imagen quizás no con tanto contraste como la vida real, pero sí a todo color, lo que para muchas de estas personas es un verdadero milagro.

Noten que no tengo información sobre disponibilidad o precios de estas gafas, por lo que si están interesados sugiero contactar directamente la empresa en el enlace a continuación.

página oficial de la empresa que inventó las gafas

fuente

autor: josé elías

"Elias, gracias por cambiar mi vida con este blog."

por "Sam" en dic 25, 2013


en camino a la singularidad...

©2005-2014 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax