texto:   A-   A+
eliax

Predicciones
Editorial eliax: Steam Machines y Oculus Rift, hechos el uno para el otro
eliax id: 10888 josé elías en ene 10, 2014 a las 12:10 AM (00:10 horas)
Oculus RifteliaxEn la industria de videojuegos, más allá de todo el habla de las nuevas consolas de Sony y Microsoft (el PlayStation 4 y el Xbox One), quizás lo más emocionante del mercado esté ocurriendo en otro lugar, o más propiamente dicho, en dos lugares, por un lado con el concepto de Steam Machines de Valve, y por el otro el visor de realidad virtual Oculus Rift.

Y es mi opinión que estas dos tecnologías y empresas están hechas el uno para el otro, pero como a veces sucede en la vida, eso no significa que las circunstancias permitan que terminen juntos, y lo más triste es que ambos se necesitan el uno al otro para ser exitosos, ya que por separado son mucho más débiles...

En eliax recientemente les hablé y expliqué recientemente del concepto de las Steam Machines, que utilizan el Valve OS, que no son más que PCs genéricas, con una distribución personalizada de Linux, y la tienda de videojuegos por Internet de Valve.

O en esencia, este sería el equivalente a Android para consolas de videojuegos, en donde cualquier fabricante puede crear una PC en cualquier forma, tamaño, color y potencia que desee, mientras Valve provee el sistema operativo, su tienda de juegos, y el mecanismo estandarizado para definir controles de juego, formas de pago, etc.

Sin embargo, como expliqué en ese artículo reciente, veo un poco cuesta arriba el camino al éxito para Valve con estas máquinas, debido a que salen justo cuando el nuevo PS4 y Xbox One se lanzan, siendo esas nuevas consolas de Sony y Microsoft extremadamente potentes en términos computacionales y visuales, y con una mucho mejor variedad de juegos triple-A de las mayores franquicias del mercado, y a un precio muy inferior a una caja Steam Machine con potencia equivalente.

Por su lado, el Oculus Rift (del cual también les he hablado desde hace un tiempo en eliax en artículos como este), es un revolucionario visor de realidad virtual, que te enganchas frente a tus ojos, y que te llena gran parte de tu visión con una imagen tridimensional estereoscópica, y que responde casi instantáneamente a los movimientos de tu cabeza para actualizar el mundo virtual que experimentas frente a tu ojos, en esencia dándote la ilusión de estar inmerso en un mundo imaginario.

Sin embargo, aunque creo que el Oculus Rift será algo exitoso, este se encuentra restringido a tener un éxito más masivo ya que no está soportado oficialmente ni por Sony o Microsoft (o incluso Nintendo), por lo que su popularidad nunca llegará a su potencial en el verdadero mercado masivo de las consolas de videojuegos que mueven cientos de millones de unidades cada ciertos años.

Pero, ¿qué sucedería si el Oculus Rift fuera parte fundamental de Steam Machines?

Notemos que un problema que tiene Steam Machines es que tiene que convencer actualmente a millones de jugadores de que compren una máquina a un mayor precio que las consolas dedicadas, y con una menor selección de juegos clase 1, lo que no es una propuesta apetecible para consumidores.

Por lo que Valve necesita para sus Steam Machines es un elemento diferenciador, y ese elemento diferenciador es redireccionar a Steam Machines como la nueva generación de consolas de videojuegos que no juegan juegos tradicionales, sino juegos inmersivos de realidad virtual.

Y noten que no creo que Valve necesite gastar miles de millones de dólares en publicidad para hacer que esta unión sea exitosa, pues estoy seguro que cualquiera que pruebe la versión final que se espera del Oculus Rift, quedará tan asombrado como para relegar a las consolas dedicadas que acaban de salir como algo casi del pasado.

Pero para que esto tenga éxito, también será necesario obtener el apoyo de al menos dos o tres de las grandes franquicias, como son Gran Theft Auto, Call of Duty y otros, que serían geniales en este nuevo formato, y lo mejor de todo es que no creo que tome mucho esfuerzo convencer a empresas como EA de portar al menos uno de sus grandes éxitos como una plataforma de prueba.

Así mismo, ¿no sería genial si Nintendo comprara a Oculus Rift y de paso barre bajo la alfombra el fiasco del Wii U, y regresa los jugadores a lo novedoso que fueron los WiiMotes con el original Wii, junto al Oculus Rift?

Pase lo que pase, la verdad es que le deseo a estas empresas éxito, pero realmente si quieren realizar su máximo potencial, lo mejor es que unan esfuerzos y no como una simple asociación mercadológica, sino como una solución integrada oficialmente de fábrica.

Finalmente, noten que no debemos obviar el tema de precio... Una Steam Machine con un poder más o menos potente fácilmente costará entre unos US$400 a US$500 dólares, y el Oculus Rift de por sí costará unos US$300 dólares, por lo que pedir US$800 dólares no es algo trivial en cualquier industria.

Sin embargo, el factor de novedad es tan grande con el Oculus Rift, que es posible que si estos fabricantes crean una solución integrada en donde todo el paquete cueste unos US$500 dólares, es posible que le puedan dar competencia real al PS4 y Xbox One.

Pero jugando al abogado del diablo, no olvidemos que ni Sony, ni Microsoft ni Nintendo se sentarán con los brazos cruzados, por lo que esperen a estas empresas eventualmente sacar sus propias soluciones de Realidad Virtual, o de simplemente adquirir o declarar compatibilidad oficial con el Oculus Rift...

Nota: Recién terminé de escribir este artículo (y antes de publicarlo) me enteré que en el evento CES 2014 actualmente en curso, Valve anunció que creará especificaciones de Realidad Virtual estandarizadas para los juegos en su plataforma, por lo que ya hemos dado un paso a mi sugerencia...

autor: josé elías


Google forma el Open Automotive Alliance. Android en automóviles...
eliax id: 10885 josé elías en ene 8, 2014 a las 12:10 AM (00:10 horas)
OAAGoogleHace unos lejanos 7 años, escribí un editorial acá en eliax sobre un nuevo grupo formado por Google en ese entonces llamado el Open Handset Alliance (OHA), creado para promover lo que en ese entonces era un sistema operativo totalmente desconocido llamado "Android", y tal cual predije en ese entonces, la plataforma se convirtió en todo un éxito, principalmente por ser apoyado por Google.

Y ahora Google planea hacer lo mismo con un sistema operativo para automóviles (no para el auto en sí, sino para su sistema de comunicación, información y entretenimiento), y para tal fin acaba de formar el Open Automotive Alliance (OAA), cuyo objetivo es crear una plataforma abierta y estandarizada para automóviles basado en Android.

Y esto para mi es una gran noticia, pues si de algo me he quejado a través de los años en eliax, es del increíblemente mal trabajo que hacen los fabricantes de automóviles (y terceros) en lo concerniente a los sistemas de "info-entretenimiento" que ofrecen. Literalmente son los peores interfaces jamás imaginados sobre la faz de la tierra, y por lo general más lentos que un caracol, por lo que esta noticia nos ofrece una luz al final del túnel para terminar con esa vieja tendencia.

Esto de paso hará que Apple acelere su estrategia en torno a automóviles (leer mi predicción #24 en mis predicciones para este 2014), lo que de paso hará que Google y otros aceleren aun más su paso, entrando nosotros por fin a una Era en donde los sistemas digitales de nuestros autos estarán a la par con los celulares y tabletas de hoy día.

Según la OAA, los primeros vehículos y equipos que utilicen el nuevo estándar saldrán para finales de este año, y a bordo de la OAA ya están las empresas Audi, GM, Honda, Hyundai, NVIDIA, y por supuesto Google, por lo que al menos de esas marcas podremos esperar algo para finales de este año.

Y para los que aun no tengan claro lo que esto significa, con esta iniciativa será posible descargar aplicaciones a nuestros autos de forma muy similar a como descargamos aplicaciones en nuestros celulares y tabletas, así como podremos conectar fácilmente nuestros celulares al auto para integrar mejor a ambos (por ejemplo, para enviar música y video, integrar el sistema de telefonía, mapas, asistentes digitales, compras, etc).

Imaginen por ejemplo una aplicación de alguna empresa de combustible, que descargaríamos a nuestro auto y nos alertaría de estaciones de gas próximas a nosotros, así como proveernos de descuentos gracias a programas de afiliación (algo que veremos sin embargo muy posiblemente integrado en Google Maps para autos y en futuras propuestas de Apple).

En cuanto a qué tan exitoso será esta aventura, no creo que le será tan fácil a Google esta vez como le fue con Android en celulares, debido a muchas variables, que van desde este ser un mercado muy complicado (debido a regulaciones gubernamentales, estándares, ciclos lentos en productos, etc), hasta el hecho que varias otras empresas de automóviles quieren promover (aunque creo, sin éxito) sus propias plataformas, y al hecho de que este es un nicho en donde es más probable que alguien como Apple, que se especializa en hacer las cosas simples, tenga más éxito.

Sin embargo, para tener éxito, vamos a ver si Google obtiene el apoyo de los fabricantes de equipos de terceros como Sony, JVC, Alpine, Pioneer, Boss, etc, así como los fabricantes genéricos chinos, en cuyo caso la plataforma tendría una mucho mejor recepción, obviando por completo a los fabricantes de automóviles, y yendo directamente a los consumidores que quieran reemplazar sus equipos de fábrica...

página oficial del Open Automotive Alliance

autor: josé elías


El iOptik de Innovega. Lentes de contacto con pantalla, a competir contra Google Glass
eliax id: 10879 josé elías en ene 6, 2014 a las 12:10 AM (00:10 horas)
iOptik de Innovega¿Recuerdan mi predicción #7 para este año 2014? Pues parece que se hará realidad antes de lo previsto, pues una empresa de nombre Innovega revelará la versión final de su tecnología llamada iOptik, que competirá directamente con las gafas inteligentes Glass de Google...

Pero, ¿qué ofrece el iOptik más allá de lo que ya hace Glass? Pues según la empresa, esta promete un sistema que combina un lente de contacto, junto a unas gafas, para crear un sistema de pantallas tridimensionales que son proyectadas directamente a la retina de tu ojos.

Para lograrlo, el lente de contacto funciona como una enfocador de la imagen, mientras que la imagen en si es generada por las gafas y enviadas directamente a los lentes de contacto. Más allá de esto no sabemos más detalles, pero la empresa supuestamente presentará su invento en evento CES 2014 a inicios de año (fuente).

Mientras tanto, los dejo con este video del año pasado de la empresa que consiste de dos partes. En la primera, muestran casos hipotéticos de como será esta tecnología en el futuro, y en la segunda parte muestran video real grabado desde el mismo iOptik

Sea como sea, creo que al final de cuentas más allá de la calidad de imagen que estos proyecten en nuestros ojos, el gran diferenciador y variable de éxito de este tipo de dispositivos será el interfaz de usuario que estos nos den (como expliqué en este artículo anterior acá mismo en eliax), y a tal fin, estoy curioso e intrigado a ver que aporta Innovega en este joven sector...

Video a continuación (enlace YouTube)...


autor: josé elías


10+ cosas que deseo de la próxima generación de cámaras digitales
eliax id: 10877 josé elías en ene 5, 2014 a las 12:10 AM (00:10 horas)
Canon 5D Mark IIIeliaxDespués de 9956 artículos en eliax (contando este), creo que ya saben bastante bien que soy un aficionado empedernido de todo lo concerniente a fotografía y cinematografía, y después de unos años jugando con todo tipo de cámaras (desde celulares hasta mi actual Canon 5D Mark III), he aprendido unas cuantas cosas, pero quizás una de las cosas que más he aprendido es a saber lo que deseo y no tengo en todas las cámaras que he utilizado. Y algo me dice, que cualquier aficionado (como yo) o "Pro", posiblemente desee varias de esas cosas que yo también deseo.

Así que hoy les comparto mi lista de las cosas que me gustaría tener en una futura generación de cámaras digitales del tipo "semi-pro" o "pro", y los invito a que en los comentarios añadan sus propios deseos.

Y quien sabe, quizás alguien de Canon, Nikon, Sony, BlackMagic u otras empresas lea esto y las pase al departamento correspondiente dentro de sus instituciones. O quizás, uno de ustedes se anime en darle al mercado lo que estos no nos dan...

Así que sin más que decir, he aquí mi lista de deseos...


1. Un mucho más amplio Rango Dinámico
Rango Dinámico (o Dynamic Range en inglés), es un tema del cual me gustaría escribir todo un articulo en eliax pues es un tema muy interesante y útil conocer, pero por ahora digamos que es la capacidad de una cámara de resolver detalle entre las partes claras y oscuras de una imagen de forma simultánea.

Hoy día incluso las mejores cámaras del mercado por lo general solo resuelven unas 9 a 11 stops de rango dinámico, pero sabemos que es posible obtener mucho más (como se nota en los archivos RAW/crudos de la última generación de cámaras digitales). Hoy día las cámaras más caras de RED pueden resolver hasta 18 stops de rango dinámico, y la nueva BlackMagic Pocket Cinema Camera provee de 13 stops, por lo que sabemos que es posible darnos al menos 15 stops con un poco de esfuerzo...

Ah, y ya que estamos hablando de High Dynamic Range, ¿qué tal sensores que sean más sensibles a entornos de poca luz (como este)?


2. Botones configurables
Una de las ventajas de interfaces táctiles como las de celulares inteligentes es que estos se pueden configurar por completo, pudiéndose dibujar botones en donde uno lo desee. Pero una de las desventajas de tales interfaces es que no ofrecen una manera de uno "sentir" los botones con los dedos.

Ya existe tecnología en laboratorios (como esta o esta) para permitir que desde una pantalla surjan "botones" que uno pueda sentir, lo que sería ideal para uno configurar la cámara con el interfaz que uno desea y no el que el fabricante desea (como es posible por ejemplo hacerlo al uno bajar una aplicación de cámara para un iPhone o Android, en esencia reemplazando la aplicación original).

Sin embargo, mientras tanto me conformaría con que nos dieran una manera de uno tener varios botones físicos (quizás en un módulo deslizable y reemplazable) en lugares estratégicos de la cámara que nos permitan asignar funciones que deseemos a tales botones y rueditas.

Hoy día varias cámaras pro (como mi 5D Mark III) ofrecen cierto grado de configuración, pero con muchas restricciones.

Por ejemplo, a mi me gusta magnificar la pantalla para enfocar, y eso en mi antiguas Canon T3i, Canon 60D o Canon 6D era mucho más fácil que en mi "superior" 5D Mark III, cosa que hubiese resuelto si pudiese configurar el 100% de los botones y controles a mi gusto (para los curiosos usuarios de la 5D Mark III: Reasigné el botón de SET a magnificar, y eso más o menos aminora y casi resuelve el problema).


3. Enfoque automático por seguimiento ocular
Los sistema de autoenfoque de las cámaras SLR/DSLR son muy pobres en comparación con los de cámaras tipo rangefinder (un tipo de cámara totalmente diferente a la mayoría de cámaras actuales, y que no tengo tiempo de explicar en este artículo de hoy), pero imaginen esto: ¿No sería genial si la cámara pudiese observar nuestro ojo por el visor, notar hacia donde ponemos atención, y enfocar automáticamente en ese punto?

¿Suena a ciencia ficción? Pues les informo que justo eso es lo que hacía la Canon EOS 3, una cámara fabricada por Canon desde el 1998 al 2007, y cuyo ultra-avanzado sistema de enfoque ocular aparentaba que literalmente te leía la mente, pues literalmente enfocaba en donde tu ponías atención (consciente o inconscientemente).

Sin embargo, curiosamente ese tremendo adelanto la empresa no lo trajo a sus cámaras digitales, y quizás lo tenga bajo la manga para dentro de un par de años hacernos cambiar a un nuevo modelo...


4. Pantallas desplegables en los modelos Pro
En el mundo profesional, existen unos cuantos que opinan que la manera "real" de un "pro" enfocar, es viendo por el visor de la cámara, y que las pantallas LCD detrás son solo una distracción.

Yo no comparto esa opinión, e incluso creo es bastante ingenua y nada "profesional". En mi opinión, uno debe tomar ventaja de las opciones y ventajas que nos ofrece la tecnología para permitirnos hacer un trabajo mejor, y el tema de enfocar por medio del LCD, es en mi opinión, uno de ellos...

Enfocar "a puro ojo", particularmente con la última generación de cámaras full-frame con más de 20 megapixeles, y con lentes rápidos en aperturas de 2.8 o superiores, es un juego ya no tanto de experiencia, sino de mucha suerte, en donde en muchos casos aciertas, y en otros sencillamente obtienes imágenes que se ven aceptables en la pantalla de la cámara o impresas en pequeñas postales, pero que al ser inspeccionadas (particularmente en partes de la cara humana, como en los ojos) se desnudan como muy mal enfocadas.

Y una manera de enfocar casi siempre perfectamente, es utilizando la pantalla LCD detrás en modo "en vivo", junto con la funcionalidad de uno poder hacer zoom a nivel de los pixeles, de modo que si estás enfocando a una persona, y presionas en la pantalla en vivo el botón de zoom, puedes magnificar en toda la pantalla solo el ojo de la persona, y enfocarlo con precisión milimétrica. Y cuando te acostumbras, puedes hacerlo super rápidamente.

Sin embargo, esto irónicamente se hace más fácil en cámaras de menor precio (como las Rebel de Canon) que en las Pro, debido a que las cámaras de menor costo permiten que la pantalla se extienda y salga de la cámara, para uno colocarla en cualquier ángulo que uno lo necesite. Y a propósito, ese es uno de los puntos en donde opino que dí un paso hacia atrás al comprar las Canon 6D y 5D Mark III, por sobre mis anteriores Rebel.

Así que espero que Canon obvie un poco las quejas de muchos Pro que van en contra de esto, y preste un poco más de atención al sentido común...

Y ojo, que esto venga por defecto en todas las cámaras no significa que tengas que utilizarlo. Nadie te obligará a punto de pistola a enfocar de esa manera. Si quieres seguir de la forma tradicional de adivinar el enfoque por el visor, amén, pero por favor no creen una campaña ante los grandes fabricantes (como realmente la hay hoy día) para que no incluyan estas super-útiles funcionalidades en sus cámaras semi-pro y pro.


5. PNG-24 junto a RAW
Virtualmente el 100% de todas las cámaras digitales producen imágenes en el formato JPG, pero los que muchos no saben es que sus cámaras pueden generar imágenes de calidad visiblemente muy superior si capturan las fotos en el formato RAW (que muchas cámaras semi-pro en adelante soportan, como las Rebel y la mayoría de Nikons, Sonys y otras marcas).

Sin embargo, RAW (o "crudo", y que pueden considerar el equivalente a los "rollos negativos" del mundo digital) viene con la complejidad de que los archivos ocupan mucho más espacio (unas 4 a 8 veces más), y que para obtener lo mejor de ellos debes procesarlos en un programa que te permite abrir el archivo RAW y manipular sus parámetros.

En un archivo RAW por ejemplo, si has tomado una foto en donde un cielo en la playa aparenta estar totalmente sobreexpuesto (de color totalmente blanco), es bastante posible que puedas recuperar no solo el color del cielo azulado, sino incluso nubes que ni siquiera sabías estaban ahí, y lo mismo puedes hacer con las partes oscuras de la imagen.

Así que al menos para los que les importa obtener la mejor calidad posible, RAW debería venir por defecto en todas las cámaras.

Así mismo, en vez de JPG, que introduce imperfecciones visuales en la imagen debido a compresión visual de datos, ¿por qué mejor no adoptar el formato PNG de 24 bits, que aunque produce archivos más grandes que JPG, no tienen compresión visual, y son mucho menores que los archivos RAW? Y noten que hoy día ya todos los sistemas operativos y programas de edición de imágenes soportan PNG, por lo que hay poca excusa para no soportarlo.

Noten sin embargo que un archivo PNG no te va a permitir recuperar detalle de las partes claras u oscuras de la imagen, pero sí te permitirá tener imágenes más limpias y libres de imperfecciones como ocurre con las JPGs...


6. Video RAW
Similar a RAW y PNG, ¿por qué no incluir la capacidad de generar video en formatos RAW, en vez de los tradicionales MPG y sus derivados?

Hoy día por ejemplo, gracias al hack (no autorizado por Canon) Magic Lantern, es posible transformar varios modelos de cámaras digitales Canon en increíbles herramientas para crear cine con video RAW, ofreciendo las mismas ventajas de un rango dinámico mucho más amplio (de lo cual hablé en el punto anterior con respecto a recuperar detalle en las áreas claras y oscuras de la imagen), y sin imperfecciones de compresión, a cambio de archivos mucho más grandes y un flujo de trabajo un tanto más complejo.

Noten además que ya existen CODECs (codificadores) de video RAW que pueden comprimir video RAW puro a un formato mucho más comprimido sin comprimir la información visual en lo absoluto (es decir, comprimen los datos, no la información visual que estos representan), como el CineForm que produce archivos 10 veces más pequeños que el RAW crudo de algo como la 5D Mark III, por lo que no hay excusa para no proveer esto (salvo quizás, que tendrán que crear circuitos especializados para comprimir a CineForm en tiempo real, lo que podría incrementar el costo de estas cámaras en unos US$10 a US$20 dólares por unidad, que honestamente, no es nada para el público a donde esto apuntaría).

Pero una una vez, ofrezcan ambas opciones: Video comprimido al estilo MPEG, y video RAW para quienes entiendan lo que hacen y deseen la mejor calidad posible...


7. Menor peso
¿Por qué mi 5D Mark III pesa el doble que mi antigua 3Ti? Canon diría que por los materiales que utiliza, pero honestamente, BlackMagic ha demostrado que es posible crear cámaras increíbles en tamaños increíbles (y a precios increíbles). Justamente anteayer por ejemplo (en una boda de un familiar) me lastimé mi muñeca de tanto cargar con una mano la 5D Mark III junto a un lente bastante pesado. Y honestamente, hay otras maneras de hacer esto, y solo se necesita voluntad y liderazgo de parte de estas empresas para hacerlo...



8. Mejores lentes y más baratos
¿Sabían que ya existe investigación (de la cual les hablé en el 2012 acá mismo en eliax) sobre formas de crear lentes sin cristal, totalmente planos, del fino de una hoja de papel, y con una calidad posiblemente muy superior a los mejores lentes del mercado? Ah, y posiblemente a un costo de unos pocos dólares...

Así que ¿qué tal un poco de innovación en este campo por favor?

Hoy día un lente como el Canon 24-70 f2.8 II fácilmente te costará alrededor de US$2,000 dólares, mientras que un excelente prime de la misma Canon como el excelente 50mm f1.8 se consigue por unos US$150, y todo se reduce a lo complejo que es fabricar estos lentes, y a los altos márgenes que estas empresas quieren cobrarle al sector "Pro".

Así que si uno de ustedes lectores quiere hacerse multi-millonario (y hablo de miles de millones de dólares), ya saben a qué campo y tecnología caerle atrás para hacer sus sueños realidad...


9. Mejores baterías
Las cámaras digitales sufren del mismo síndrome que sufren los celulares y tabletas: Justo en el momento que más los necesitas, obtienes el aterrador icono pestañeando que muestra una batería de color rojo, señal de que pronto te quedarás sin energía...

Así que vamos a ver si arreglamos ese tema, para evitar que personas como yo anden con literalmente 3 baterías adicionales junto con la cámara, por si acaso...


10. Tienda de aplicaciones
Una de las mejores cosas que han ocurrido en años recientes en el mundo de las cámaras digitales es el hack Magic Lantern que ya mencioné anteriormente. Pero Magic Lantern no es solo para ofrerte video en formato RAW (aunque ese fue su fin inicial). Magic Lantern te transforma tu cámara a una super cámara, con capacidades que usualmente obtendrías en cámaras que cuestan varios miles de dólares, e incluso funcionalidades que no obtendrías a ningún precio en ninguna otra cámara.

Y no solo para video, sino para fotos, incluyendo intervalómetros, asombrosas capacidades para fotografía HDR (Alto Rango Dinámico), mejora del sonido (permitiendo suprimir el Auto-Gain Control, mejoras en enfoque (con patrones zebra, peaking, etc) y mucho más.

Así que me sorprende que Canon, en vez de apoyar este tipo de cosas, y formalizar la creación de este tipo de programas, simplemente esté callada al respecto...

La empresa debería tomar prestada una página del libro de Apple, quien pocos meses después de salir una tienda de aplicaciones "piratas" para el original iPhone, la empresa sacó su propia tienda, y legalizó el concepto del "App Store", permitiendo una forma organizada, segura y sencilla para que todos pudieran desarrollar aplicaciones para sus celulares (y posteriormente tabletas y laptops), y de paso hacer mucho dinero en el proceso (Apple cobra un 30% de comisión por cada venta en sus tiendas).

Así mismo, Canon y Nikon principalmente debería seguir esos pasos, y permitir acceso total a sus cámaras. Yo mismo por ejemplo personalmente pagaría fácilmente US$99 dólares por Magic Lantern, particularmente si este funcionara en la última versión del firmware (sistema operativo de bajo nivel) de la 5D Mark III (actualmente, debido a que es un hack que depende de un agujero de seguridad de Canon, este solo funciona para una versión vieja, que trae consigo un sinnúmero de problemas que no voy a describir aquí hoy).

Así mismo eso permitiría incluso la creación de accesorios externos (como nuevos botones y rueditas) que mejorarían la funcionalidad de las cámaras en su manejo físico.

Noten que Samsung ya experimentó con esto, con un par de cámaras basadas en Android, pero la inconsistencia de su implementación no ha permitido que ese modelo sea exitoso en su plataforma.


Así que esa es mi lista. ¿Qué otras cosas querrían ustedes? ¿Mejores conectores al estilo Thunderbolt? ¿Monitoreo de sonido estándar? ¿Mejores entradas para micrófono y sonido profesional? ¿Enfoque a-posteriori al estilo Lytro? ¿"cámara lenta" con al menos 120fps? ¿¿¿Qué más se les ocurre???

autor: josé elías


Predicciones y Tendencias eliax para el 2014
eliax id: 10832 josé elías en dic 31, 2013 a las 12:10 AM (00:10 horas)
El camino del 2014...eliaxHola amig@s lectores,

Una vez más llegamos a fin de año, y una vez más les hago una entrega de un mapa mayoritariamente tecnológico de lo que veremos el próximo año, en esta ocasión, el 2014...

Como siempre aclaro, recuerden que algunos puntos de esta lista son predicciones personales mías, mientras que otros son obvias (y quizás no tan obvias) tendencias. Las pongo toda juntas para que en solo lugar puedan tener un pequeño vistazo por adelantado de las cosas que podrían adornar nuestras vidas en los próximos 12 meses.

Noten además que algunas de estas predicciones y tendencias no siempre ocurren en los próximos 12 meses, y a veces pueden tardar un poco más, razón por la cual no es mala idea dar una repasadita de las predicciones y tendencias de años pasados acá mismo en eliax (enlaces al final del artículo).

Así que sin más que decir, abran la mente porque aquí vamos (y noten que no existe un orden en particular a esta lista)...

Leer el resto de este artículo...


autor: josé elías


Inteligencia Artificial codificada en reacciones químicas complejas
eliax id: 10845 josé elías en dic 29, 2013 a las 12:10 AM (00:10 horas)
HAL-9000Uno de los usos más importantes que se planea darle a los llamados "nanobots" (robots que se miden en la millonésima parte de un metro, y que por tanto podrán vivir en nuestros cuerpos), es en auxiliarnos en temas de salud (como estos de los cuales que ya les hablé en eliax), pudiendo estos funcionar como linea de defensa proactiva (como un sistema inmunológico complementario y sintético), o hasta para entregar medicinas a diversas partes del cuerpo, o incluso asistir a cirujanos en operaciones de todo tipo.

Sin embargo, estos nanobots dependen de circuitos digitales (en esencia, microchips como cerebros) para llevar a cabo sus funciones, cosa que conlleva otros niveles de complejidad en temas de control y abastecimiento energético.

Pero, ¿qué tal si hubiese otra forma? Pues eso es precisamente lo que han pensado unos científicos de la universidad de Harvard, quienes acaban de inventar una técnica que les permite codificar algoritmos de Inteligencia Artificial (IA) no en operaciones digitales, sino que en reacciones químicas...

O en otras palabras, en vez de tener un mini-robot con un cerebro digital compuesto de transistores ultra-miniaturizados, ¿qué tal si creamos moléculas que al combinarse unas con otras producen el mismo resultado que un cerebro digital pero por medio de la reacción química entre estas moléculas?

Esto tiene implicaciones tremendamente grandes, ya que por ejemplo podríamos crear "pastillas inteligentes" que al disolverse podrían dejar ingresar en nuestro organismo una conjunto de moléculas inteligentes que podrían tomar decisiones por sí mismas sobre cómo proceder en el organismo.

Así que por ejemplo a un paciente podríamos inyectarle una sustancia llena de estas moléculas para tratar el cáncer, y estas moléculas podrían saber en base a IA cuáles células son cancerígenas y cuáles no, para así solo atacar a las que deben ser destruidas.

O incluso, esto podría dar origen a una sub-inteligencia dentro de nosotros mismos que estaría encargada de nuestro bienestar y de gestionar la salubridad total de nuestro medio ambiente, incluso quizás conectándose a nuestros cerebros por medio de interfaces neuronales para no solo recibir órdenes de nuestra mente, sino para además enviar el estado de bienestar o malestar a nuestra consciencia o subconsciencia.

Incluso (en un futuro más lejano) no sería descabellado pensar en un futuro en donde podríamos hacer que esta inteligencia molecular sea tan inteligente, y esté tan bien conectada con nosotros y nuestro mundo exterior, que incluso funcione como nuestro Asistente Virtual (como este acá mismo en eliax), ayudándonos con las cosas mundanas de la vida (como reservar aviones, recordándonos reuniones, llamando un taxi, alertándonos de cambios en nuestros negocios, o recordándonos de personas que en ese momento estamos viendo).

Y no piensen que esto es ciencia ficción, pues ya empezamos a dar los primeros pasos al respecto con las tecnologías necesarias para llevar todo esto a cabo...

fuente oficial en Harvard

documento científico oficial

autor: josé elías


Revisando las Predicciones y Tendencias de eliax del 2013
eliax id: 10868 josé elías en dic 26, 2013 a las 12:10 AM (00:10 horas)
eliaxHola amig@s lectores,

Siguiendo la larga tradición de varios años acá en eliax, hoy los dejo con un repaso de mi lista de predicciones y tendencias que escribí hace un año, para revisarlas y ver en cuáles acerté y en cuales no (esto en preparación a mi lista para el próximo año que tengo que sentarme a escribir antes de que finalice el año).

Como siempre, recuerden que esto es algo que hago por diversión y puro placer personal, no se lo tomen muy a pecho... ;)

Así que sin más que decir, iniciemos la revisión...

Leer el resto de este artículo...


autor: josé elías


Avance/trailer de la película Transcendence, sobre la Singularidad Tecnológica
eliax id: 10859 josé elías en dic 22, 2013 a las 12:09 AM (00:09 horas)
Como los lectores veteranos de eliax ya saben, uno de los principales temas de este blog es el de La Singularidad Tecnológica, y por tanto es con gran emoción que les muestro hoy este primer avance/trailer de la película Transcendence ("Transcendiente") con Johnny Depp, Kate Mara y Morgan Freeman...

La película se trata de un inminente científico quien al inicio de la película casi pierde la vida, por lo que para salvarlo deciden adelantar un experimento pendiente: Subir su mente a una computadora. Pero al hacerlo, su mente empieza a pedir recursos a escalas inimaginables y ahí empieza nuestra película.

La película sale el 18 de Abril del 2014, y pueden estar seguros que me verán en alguna fila/cola de algún cine ese día del estreno... :)

Nota: En el 2001 escribí un libro titulado Máquinas en el Paraíso que explica y hasta pronostica muchas de las cosas que verán en esta película. Así mismo recomiendo leer varios de los enlaces que puse al final de este artículo en la sección de "previamente en eliax", y presten particular atención a artículos como este o este otro.

¡Gracias a todos los lectores que me han enviado este video!

Video a continuación (enlace YouTube)...


autor: josé elías


GRAN HITO: Simulaciones aparentan respaldar que el universo es un holograma. Explicación eliax
eliax id: 10841 josé elías en dic 16, 2013 a las 12:10 AM (00:10 horas)
El Principio Holográfico y la Teoría de CuerdaseliaxHace casi 5 años les expliqué acá mismo en eliax a lo que se refieren los científicos cuando hablamos de un "universo holográfico", en un artículo que recomiendo leer antes de proceder...

Y ahora, gracias a nuevas simulaciones (fuente), aparenta que el universo bien podría ser una proyección holográfica que experimentamos como multi-dimensional, cuando realmente tras bastidores no es más que una matriz bidimensional (como una hoja de papel).

Pero, ¿cómo se podría comprobar semejante cosa sin observaciones directas, y mucho peor sin poder medir en primer lugar ese transfondo holográfico? Pues la respuesta yace en quizás la herramienta más potente que poseemos, y que trasciende toda dimensión de espacio o tiempo: Las matemáticas.

Sucede, que hoy día tenemos un conflicto entre las teorías "de lo grande" (explicadas por la Relatividad de Einstein) y las teorías "de lo pequeño" (explicadas por la Mecánica Cuántica), pues aunque cada teoría es inimaginablemente precisa en cada uno de sus dominios (desde escalas tan grandes como galaxias, hasta el interior de los componentes primordiales de los átomos), lo cierto es que estas teorías entran en conflicto en un par de escenarios muy específicos: El Big Bang y Agujeros Negros.

En ambos de esos casos, hay que de alguna forma aplicar ambos juegos de ecuaciones de cada teoría, ya que son escenarios en donde tenemos cosas extremadamente pequeñas ("singularidades") pero a la misma vez con colosales fuerzas extremas (como la fuerza de la gravedad comprimida en pequeños espacios), y la dura realidad hoy día es que las ecuaciones tienen conflictos entre sí en esos dos escenarios...

Pero, en años recientes se ha estado avanzando vertiginosamente en teorías que puedan unificar a ambos extremos, y una de esas nuevas teorías es la teoría de cuerdas, y otra es la de un universo holográfico.

Y por otro lado, otro de los más grandes avances de la humanidad, ocurrido el siglo recién pasado, es el hecho de que hemos notado que matemáticamente, algunos sistemas que parecen totalmente diferentes, en realidad están describiendo el mismo fenómeno.

Así que por ejemplo, es posible llegar a la misma conclusión, y los mismos resultados, por más de una teoría, ya que distintas teorías simplemente podrían estar describiendo el mismo fenómeno físico, pero a su manera.

Un ejemplo sería el describir por ejemplo un círculo. Una forma de hacerlo es describiéndolo visualmente con la ayuda de un compás, en donde podemos poner un punto en algún lugar, y después mover el compás en forma de círculo hasta completar un círculo.

Pero otra manera es describir un círculo a través de una ecuación, como por ejemplo: (x-a)2 + (y-b)2 = r2.

Así mismo podríamos describir un círculo como una relación matemática de todos los puntos equidistantes de un punto en común, en un espacio de 2 dimensiones. Y similarmente, existen muchas otras formas de definir un círculo, pero lo importante es que desde que podamos codificar matemáticamente cada uno de esas formas diferentes, podemos hacer predicciones y ver si realmente cada técnica diferente nos produce un círculo de un radio de tal tamaño, para deducir que un método de describir un círculo es equivalente a otro.

Y una de las grandes ventajas de esta "dualidad matemática" es que a veces para ciertas cosas es mucho más fácil utilizar una forma de dibujar un círculo, mientras que para otras es más fácil utilizar otras formas.

Y similarmente, lo mismo se notó ocurre con distintas descripciones de lo que es el universo...

Sucede, que una de las cosas que notaron los científicos en años recientes es que aparentaba que una teoría que especificaba un universo gravitacional de 10 dimensiones, era equivalente a un universo descrito por una teoría cuántica en menos dimensiones. Y similarmente, se notó una posible conexión en estas teorías y la teoría de un universo holográfico del argentino Juan Maldacena.

Así que un equipo de japoneses, liderados por Yoshifumi Hyakutake de la Universidad de Ibaraki, decidió ver si estos distintos juegos de teorías, cuando recibían datos idénticos en cada una de sus distintas formas de expresarse, producían un resultado similar, y el resultado fue verdaderamente sorprendente: Las distintas formas de describir el universo, aparentan ser equivalentes, produciendo el mismo resultado y predicciones.

Y no solo eso, otro emocionante resultado que aparenta surgir de esto es que mediante estos cálculos aparenta que es posible harmonizar las teorías de la Relatividad y la Mecánica Cuántica en una sola, lo que de ser así significa que estamos más cerca que nunca de encontrar una "Teoría del Todo"...

Todavía hay que expandir más este trabajo, pero ya de por sí esto parece indicar que ciertamente, el universo es en realidad una proyección de un inimaginablemente grande holograma plano, y que nuestros sentidos experimentan como tridimensional.

Ojo, que esto no invalidad cosas como el Big Bang, sino que lo que dice es que incluso el Big Bang no fue más que un evento holográfico.

Esto sin embargo más allá de todo esto, en mi opinión tiene un significado más profundo aun, pues lo que esto nos aparenta también estar diciendo es que todo está en el ojo del observador, en el sentido de que incluso el mismo concepto holográfico no sea más que una forma de ver una realidad aun más abstracta, una realidad totalmente matemática basada en conceptos abstractos.

O en otras palabras, esto bien podría ser una pista más de que nuestro universo no es más que una gran computación orgánica a gran escala, y que el trasfondo de toda la realidad no es algo tangible, sino puros elementos matemáticos, y de la relación de todas esas operaciones matemáticas es que surge lo que experimentamos como un universo.

¿No entendieron esos dos párrafos anteriores? Pues he aquí otra forma de entenderlo: Imaginen un videojuego de esos que peleas en tres dimensiones con un arma en mano, simulando por ejemplo una guerra.

Si dentro de ese juego, pudiésemos programar los personajes que vemos con una inteligencia artificial tan avanzada que estos pudiesen cobrar consciencia de ellos mismos, y nos pudiésemos entrar en sus mentes para sentir lo que ellos piensan, es posible que al entrar en sus mentes notemos como estos experimentan un mundo totalmente tridimensional, en donde pueden tocar objetos con sus manos, oír todo tipo de sonidos, y ver claramente lo que está frente a sus ojos, y para ellos, el universo sería algo totalmente "sólido" y "real".

Pero (y este es el gran "pero" que espero los haga pensar), lo que realmente está sucediendo, es que ese mundo dentro del videojuego no es más que una simulación 100% numérica/matemática, que se hace posible debido a la memoria de la consola de videojuegos en donde el juego se ejecuta.

Es decir, el mundo que esos personajes experimentan, por más que juren que es "real" y "sólido", tiene realmente un trasfondo totalmente matemático, cosa que para ellos quizás sea muy difícil no solo de entender, sino de asimilar y aceptar.

Pero ahora que he creado ese ejemplo para ustedes, ¿no creen que podría existir la posibilidad que de igual forma nosotros mismos podríamos jurar que sentimos el mundo con nuestro tacto, y que lo vemos con nuestros ojos, pero que realmente todo es producto de la evolución natural y matemática de algo que trasciende nuestro universo?

No se ustedes, pero cuando menos yo, me encuentro este pensamiento intelectualmente superinteresantísimo, y me hace apreciar aun más el sentimiento de consciencia que todos experimentamos en nuestras vidas, pues literalmente (y como he explicado previamente en eliax) el mismo hecho de que nosotros nos preguntemos sobre estas cosas, significa que la creación misma en sí, el multi-verso en sí, está ponderando su propia existencia...

autor: josé elías


Google compra Boston Dynamics (los robots más avanzados del mundo). Opinión eliax
eliax id: 10838 josé elías en dic 14, 2013 a las 10:07 AM (10:07 horas)
Atlas, de Boston Dynamics (ahora Google, 2013)eliaxSin duda alguna, los robots que más han aparecido (e impactado) acá en eliax son los de la empresa Boston Dynamics, de los cuales les he presentado artículos y videos desde prácticamente los inicios del blog.

Entre esos robots se encuentran Cheetah, Big Dog, Petman y Atlas, y ahora esa asombrosa empresa acaba de ser adquirida por nada más ni nada menos que Google...

Boston Dynamics hizo su nombre en el mundo de la robótica al ser la primera empresa en dominar por completo el arte del "balanceo dinámico", que es la técnica que la naturaleza descubrió como la óptima para balancear cuerpos en dos o más piernas.

En balanceo dinámico, se asume que el cuerpo está constantemente cayendo al suelo, y que las extremidades deben trabajar en concierto con los sensores del cuerpo para crear una vía de retroalimentación entre el cerebro y las extremidades para compensar por esa caída en tiempo real y mantener el cuerpo siempre balanceado.

Esto ha permitido que Boston Dynamics cree robots que actúan y parecen seres vivos, y que se adaptan a todo tipo de terreno, obstáculos y movimientos, siendo posible que uno incluso trate de tumbarlos y estos se adapten para no caerse.

¿Y quién es el responsable de esta compra dentro de Google? Pues posiblemente Andy Rubin, quien una vez lideró el proyecto Android, y ahora lidera un nuevo grupo en Google encargado de robótica.

Esto de paso hace que yo personalmente catapulte a Google aun más arriba del estándar que la tenía como empresa (al lado de Apple y Amazon) como la empresa de más visión con miras al futuro próximo que nos espera, pues la empresa ciertamente no teme en entrar a negocios y tendencias que no domina, pero que piensa es importante dominar para nuestro futuro, y eso incluye proyectos como sus autos que se manejan solos, gafas inteligentes, y ahora robots.

Pero, ¿por qué robots? Pues por la misma razón que lo han notado por más de un siglo los autores de ciencia ficción: Los robots eventualmente serán parte intrínseca de nuestras vidas cotidianas, y a diferencia de décadas anteriores en donde la tecnología no estaba a la par, hoy día estamos en una rampa tecnológica exponencial en donde se ha hecho bastante obvio que robots avanzados estarán con nosotros no en varias décadas, sino en los próximos años (en el orden de 8 a 15 años como mucho), y Google obviamente entiende esa visión y cree que debe ser parte de ella, y por tanto ha tomado esta acción de adquirir la empresa más avanzada en ese campo en el mundo.

¿Y en dónde podría utilizar Google estos robots? Pues en miles de situaciones, desde asistentes industriales en todo tipo de fábricas, hasta encargados de entregas de paquetes a nuestros hogares, y desde asistentes a los enfermos o ancianos, hasta asistentes domésticos o de nuestras vidas. Las posibilidades son amplias y extensas.

Con esta medida creo que Google debe de haber despertado a gran parte de la industria al hecho de que es hora de entrar en esta industria con ambos pies y no solo probando el agua con el dedo gordo...

Nota: Los dejo con un video reciente que ya había compartido en eliax sobre uno de los robots de Boston Dynamics, pero no dejen de ver los otros enlaces que les dejo al final del artículo, pues vale la pena ver esos otros videos para que experimenten con sus propios ojos lo avanzado que son estos robots.

página oficial de Boston Dynamics

el canal de Boston Dynamics en YouTube

Video de uno de los robots de Boston Dynamics a continuación (enlace YouTube)...


autor: josé elías


Pregunta a eliax: ¿Cuál es el estado de la Industria del Turismo Espacial?
eliax id: 10828 josé elías en dic 11, 2013 a las 12:10 AM (00:10 horas)
Turismo espacialeliaxSegún estimados, en dólares actuales el programa espacial Apollo que culminó en varias visitas de humanos a la Luna, le costó a los EEUU la suma aproximada de US$109 Mil Millones de dólares, y sin embargo, hoy día la empresa XCOR ya está vendiendo boletos al espacio por US$95 Mil dólares.

O en otras palabras, en apenas 4 décadas el costo de subir un humano al espacio se ha reducido a una 100-mil-ava parte de su costo original.

Y eso nos lleva a la pregunta de hoy que muchas veces me hacen, y es ¿cuál es el estado de la industria del Turismo Espacial, y más importante aun, cuándo podrá la persona promedio subir al espacio?

Pues la respuesta corta es que según mis estimados, de aquí a 12 o más tardar 20 años, la persona promedio de la clase media podrá subir al espacio, a un precio que rondará posiblemente entre los US$3 mil a los US$10 mil dólares por persona.

Y eso lo podemos deducir con simplemente ver lo que ha pasado en apenas los últimos 12 años...

En el 2001 el empresario estadounidense pagó US$20 Millones de dólares para subir al espacio (y varios más le siguieron a un costo de entre US$20M y US$40M cada uno), pero ya hoy día la empresa Virgin Galactic tiene una lista de varios cientos de personas que piensa empezar a subir a órbita en el 2014 a un precio de US$250 Mil dólares cada una, y como ya mencioné al inicio, XCOR Aerospace planea hacer lo mismo por US$95 Mil dólares y ya tiene una lista de cerca de 200 personas inscritas para viajes en el 2015 o 2016.

En el caso de XCOR, el viaje sería en una nave tipo avión, que despegaría tipo avión desde una pista, y subiría a alta velocidad (100km en 4 minutos) a órbita, para durar 5 o 6 minutos en gravedad cero y después descender planeando de regreso a la Tierra, en todo momento atado a tu asiento al lado de un piloto.

Mientras que en el caso de Virgin Galactic, el viaje inicia dentro de una nave que será subida "en el ombligo" de otra nave a una buena altura (un poco más arriba de donde vuelan los aviones comerciales), para después despegar la nave de su ombligo y dejar que esta continúe hacia órbita (a 110km de altura), pero esta vez con 8 pasajeros a la vez (6 pasajeros, 1 piloto y 1 asistente de vuelo) y con mucho más espacio para uno moverse dentro de la nave y experimentar la gravedad cero en toda su gloria (yo la experimenté recientemente, pero por solo unos 5 segundos a bordo de un avión, atado a mi asiento).

Sin embargo, otras empresas como Boeing ya han expresado interés en entrar al negocio de los vuelos privados al espacio, y la empresa privada SpaceX ya está subiendo cargo al espacio (aunque no humanos). Así mismo, no duden que eventualmente tanto los rusos como particularmente los chinos entrarán al negocio, y cuando eso ocurra entonces empezaremos a ver una nueva carrera espacial orientada a turistas, y es cuando veremos más innovación en los sistemas de propulsión, comodidad para pasajeros, y menores precios.

Así mismo, estas empresas tienen todas objetivos a largo plazo de incluso llevar civiles no solo a órbita, sino incluso a la Luna en los próximos 30 años.

O en otras palabras, estamos en el umbral de lo que será uno de los momentos más emocionantes para la humanidad, y es bastante seguro que toda persona que hoy día tenga menos de 60 años, y que tenga unos ahorros decentes, pueda ir al espacio si ese es su sueño.

Yo personalmente, si no me ocurre nada catastrófico a nivel de salud, ciertamente espero subir al espacio, y es mi más profundo deseo que todos ustedes también suban...

página oficial de XCOR Aerospace

página oficial de Virgin Galactic

página oficial de Space Adventures (quizás la mayor empresa que gestiona viajes al espacio y/o de gravedad cero)

autor: josé elías


Coin, podría revolucionar la gestión de pagos electrónicos. Opinión eliax
eliax id: 10768 josé elías en nov 17, 2013 a las 12:10 AM (00:10 horas)
CoinRespondan estás pregunta rápidamente: ¿Cuál es el problema de los sistemas de pagos electrónicos actuales? ¿Por que no los usan con frecuencia?

Lo más probable es que entre sus respuestas estén estas:

1. Son tediosos de utilizar.

2. No son fáciles de utilizar.

3. No son universales, mis amigos no los utilizan.

4. Solo funcionan en un mercado en específico.

5. Requieren una inversión en hardware o software.

6. Exigen algún tipo de comisión encima de las que uno ya paga.

Sistemas como Google Wallet, Paypal, Amazon Payments y Square (de varios de los cuales he hablado acá mismo en eliax a través de los años) han tratado de convertirse en un estándar por defecto en el sistema de pagos electrónicos, pero fallan por lo general en varios de esos puntos...

Así que es una sorpresa que una sorpresa que salió de la nada ha decidido hacer algo al respecto, no tratando de reinventar la rueda, sino de adaptarse a la rueda como un paso intermedio hacia un futuro de pagos electrónicos.

La empresa se llama aptamente Coin (moneda), y su único producto se llama también Coin, y resuelve varios de esos puntos anteriores de una manera bastante sencilla, y que cualquier persona podrá entender, y más importante aun, utilizando la misma infraestructura de pagos ya existentes.

¿Pero cómo? Pues el As bajo la manga de Coin no es el tratar de crear un nuevo tipo de moneda, ni convertirse en un nuevo procesador de pago, ni un competidor de las tarjetas de crédito, ni reemplazar los bancos, sino el de integrar todos estos esquemas bajo una misma sombrilla, o más bien dicho, bajo una misma tarjeta programable...

La tarjeta de Coin, es del tamaño exacto de una tarjeta de crédito, y funciona como una tarjeta de crédito, incluyendo su banda magnética que pasas por el lector de pagos en millones de establecimientos en todo el mundo, pero su gran truco es que esa una tarjeta programable en tiempo real.

¿Qué significa eso? Que la tarjeta en sí es una colección de tus tarjetas actuales, de modo que todas tus tarjetas de crédito, débito, afiliación, regalos, descuentos, etc, viven dentro de esta tarjeta, y lo que sucede es que a la hora de pagar tu simplemente eliges (con un simple menú de botones en la tarjeta misma) cuál de esas tarjetas quieres utilizar, y en ese momento tu Coin automágicamente programa su banda magnética para que cuando la pasen por un lector, esta imite a la tarjeta original.

Eso es todo, tan sencillo como eso.

Eso significa que en vez de cargar con varias tarjetas, ahora solo cargarás una. Y si se preguntan ¿pero qué sucede si la batería se agota y no puedo pagar? Pues sucede que las tarjetas Coin están diseñadas para durar 2 años funcionando con su batería interna, y al cabo de esos 2 años simplemente destruyes tu Coin y obtienes una nueva (que asumimos, es un clon de la original con todas tus tarjetas ya pre-programadas).

Y si se preguntan, ¿cómo entro mis tarjetas actuales dentro de mi Coin? La respuesta es un dispositivo (que viene con tu Coin) el cual conectas a tu celular inteligente (con una aplicación dedicada), y con el cual lees la tarjeta que quieres agregar a tu Coin (en esencia, el dispositivo es un lector magnético), y después le tomas una foto a tu tarjeta para identificarla visualmente, y listo.

Pero, ¿qué sucede si dejas olvidada tu Coin en tu casa o una mesa en un restaurante? Pues la Coin utiliza la tecnología de Bluetooth Low Energy (disponible desde el iPhone 4S en adelante, y varios dispositivos Android recientes) para saber si te alejas de tu Coin, en cuyo caso obtienes una alarma instantánea en tu celular que te avisa que te haz alejado de ella. Genial.

Noten que además pueden programar su Coin de forma tal que si esta no se comunica con la App de Coin en tu móvil durante un período especificado de tiempo, que esta se desactiva automáticamente. Eso evita que otros utilicen tu Coin si esta se te pierde o si no has programado el celular para que te alerte de si la dejaste perdida.

Y si se preguntan ¿cómo hace dinero esta gente? Pues por el momento aparenta que vendiendo el hardware (es decir, la tarjeta Coin). La idea es vender cada Coin en US$100 dólares, aunque por el momento la empresa está pre-vendiendo los Coin en US$50 a los que adopten primero la tecnología, con la única importante observación que el producto estará disponible oficialmente para el público a mediados del 2014.

Noten que unas simples aritméticas nos dicen que incluso si "solo" 10 millones de personas en todo mundo adoptan este dispositivo, que eso significaría ingresos de Mil Millones de dólares garantizados cada dos años.

En cuanto a mi opinión al respecto, creo que es una idea totalmente genial, del tipo que puede ser exitosa tan solo por su simpleza, porque resuelve un verdadero problema, y porque seamos honestos: Es algo chévere... :)

Ahora veamos cuanto tarda la empresa en recibir ofertas de los peces grandes de la industria para comprarla incluso antes de que salgan los primeros Coins el mercado... ;)

Video del Coin a continuación (enlace YouTube)...


autor: josé elías


Inicia la carrera de protección de impresiones 3D con Disarming Corruptor. Eliax explica
eliax id: 10750 josé elías en nov 11, 2013 a las 12:11 AM (00:11 horas)
Disarming Corruptor¿Recuerdan en Mayo de este año 2013 cuando surgió en Internet un plano tridimensional para una pistola? Para mi, eso fue un evento tan trascendental que incluso le dediqué todo un editorial acá mismo en eliax, "Editorial eliax: La primera arma impresa en 3D a replantearnos el mundo", que recomiendo lean pues como verán, muchos de los temas que cubrí en ese artículo están empezando a verse con la noticia de hoy...

Sucede que un tal Matthew Plummer-Fernandez trató de imprimir en un centro comercial que opera una de esas nuevas impresoras 3D, una escultura que contenía la figura de Mickey Mouse, y la empresa negó permitirle imprimir la escultura ya que violaba los derechos de Disney.

Ese evento le dio a Matthew una idea: Crear un programa que permitiera que uno cifrara visualmente la imagen a imprimir, para así poder compartirla con cualquiera por Internet libremente. Y con eso nació el programa Disarming Corruptor.

¿Que hace este programa? Pues algo bastante simple pero efectivo... En vez de tomar el archivo 3D que define la figura tridimensional a imprimir, este programa toma la geometría en sí de la figura y la distorsiona.

Es decir, el archivo en sí no está cifrado y está libre a la inspección, pero cuando abres el archivo en un programa de diseño e impresión 3D, lo que ves es una imagen distorsionada del objeto.

¿Y cómo logra este programa esto? Pues proveyéndote de 7 controles, en donde cada uno puede tomar un valor de entre 1 al 100, y que al manipular esos controles eso tiene como consecuencia que la imagen se distorsiona en distintas formas, terminando uno con un objeto que en nada se parece al original.

Algunas de esas modificaciones podrían ser por ejemplo el anchar el objeto, el retorcerlo sobre algún eje, el doblarlo, etc. Sería como tomar una escultura hecha de masilla y retorcerla hasta dejarla irreconocible.

Posteriormente, para restaurar al objeto original, simplemente aplicas los 7 valores que cambiaste de forma inversa, lo que obviamente produce el objeto antes de las distorsiones.

La idea sería entonces que si quieres compartir un archivo 3D con algunos amigos, simplemente tomas el objeto original, lo distorsionas, lo subes a cualquier sitio público de Internet, las otras personas lo descargan, y después de forma privada tu les provee los 7 valores que necesitan para de-distorsiones el objeto original.

Este programa, independientemente de qué tan efectivo o no termine siendo, es un primer paso en lo que será toda una carrera del gato y el ratón en ese aspecto, en donde un grupo de investigadores buscarán la manera de encontrar archivos que violen alguna ley o derecho, y otros creando nuevos métodos para esconder tales archivos.

Esto, no lo duden, es algo de lo que veremos muchísimo más, pues como aludí en el editorial que recomendé leer en el primer párrafo de este artículo, las impresoras 3D serán parte de nuestra vida cotidiana en un futuro no lejano, y cualquier persona podrá imprimir prácticamente cualquier cosa en su hogar, desde armas y ropa, hasta cuadros de pinturas famosas y medicinas, lo que ocasionará todo un nuevo dolor de cabeza en la sociedad, en donde por un lado de la balanza tendremos los derechos de los creadores, y por el otro los deseos de los consumidores...

El futuro, mis querid@s amig@s lectores, será mucho más interesante de lo que muchos se imaginan...

página oficial de Disarming Corruptor (con video explicativo)

autor: josé elías


Opinión eliax sobre Intel permitir la fabricación de chips ARM en sus fábricas
eliax id: 10742 josé elías en nov 3, 2013 a las 12:10 AM (00:10 horas)
ARMInteleliaxEsta semana pasada una se las grandes sorpresas fue el anuncio de Intel de que permitiría la fabricación de chips con la arquitectura ARM en sus fábricas, y hoy les doy mi breve opinión...

Sin embargo, antes de continuar, noten que esta fue mi predicción #28 para este año 2013, en donde escribí al final (en relación a los chips ARM) "Otra opción es expandir su negocio de plantas de fabricación de chips para terceros (en donde hoy día la empresa es ya al menos el tercero más grande del mundo)", que es justo lo que acaba de pasar.

Pero ¿qué significa esto? Pues como también escribí el año pasado al inicio de esa misma predicción: "Con el mercado de Windows tradicional desacelerando (que es en donde Intel tiene su mayor fuente de ingresos), y con el espacio móvil creciendo de forma explosiva (en donde Intel no es ni siquiera un distante segundo lugar), Intel tendrá que tomar duras decisiones para seguir siendo relevante.", y eso es justo lo que está pasando en el mercado.

Intel lamentablemente, se afianzó demasiado con su relación de Microsoft y Windows, y se concentró demasiado en sus arquitectura x86 y en hacer de esta cada vez más potente, en vez de haber tomado la estrategia de ARM que se basó en ofrecer chips de menor potencia, pero de muchísimo menos consumo energético, lo que se convirtió en parte primordial de la revolución móvil que inició Apple con el iPhone en el 2007, adoptando la arquitectura ARM, una decisión que posteriormente fue duplicada por todo fabricante de celulares inteligentes, y más recientemente, tabletas.

Entonces, ¿qué es lo que acaba de ocurrir? Pues Intel en mi opinión tomó la sabia decisión de no perder todas sus cartas en el juego, y ya que es uno de los tres o cuatro mayores fabricantes de chips del mundo, ha decidido abrir las puertas de sus fábricas a terceros, para que si estos quieren fabricar chips ARM de su competencia, lo puedan hacer.

Esencialmente, la estrategia es "en vez de perderlo todo, al menos ganamos fabricando para la competencia". Y si se preguntan, ¿pero no está ayudando Intel a la competencia con esto? La realidad es que aunque quizás sí, el no hacer nada y no unirse al grupo de fábricas que imprimen chips ARM solo perjudicaría a Intel, ya que quien no fabrique en plantas de Intel, iba a fabricar en alguna otra planta (sea de Samsung, TSMC, o alguien más) de todas formas...

Y lo peor de todo para Intel es que no hay la más mínima señal de que los fabricantes de móviles en el campamento Android o iOS de Apple planean en algún momento cercano o mediano abandonar la arquitectura ARM, por lo que espero que Intel en algún momento utilice una licencia ISA (como la que tiene Apple para diseñar sus propios chips ARM) para fabricar su propia familia de chips ARM.

Noten finalmente que Intel una vez diseñaba y fabricaba sus propios chips ARM, a los que llamaba XScale, pero vendió toda esa división completa en el 2006 a Marvell Technology Group por alrededor de unos US$600 millones de dólares, cifra que hoy día son centavos en comparación con lo que hubiese estado ganando Intel si hubiese tenido la visión de ver que en ese momento se avecinaba la revolución móvil de bajo consumo energético, y que una pequeña empresa apenas saliendo de la bancarrota llamada "Apple" estaba por lanzar algo revolucionario...

Nota: Este es un buen momento para leer el siguiente editorial que escribí hace 3 años acá mismo en eliax titulado "Análisis eliax: La arquitectura ARM se convierte en la más grande amenaza al negocio de Intel".

autor: josé elías


Editorial eliax: La gran noticia de ayer de Apple: Safari Push Notifications
eliax id: 10728 josé elías en oct 23, 2013 a las 12:10 AM (00:10 horas)
Safari Push NotificationsAyer Apple anunció un torrente de actualizaciones de sus productos (lean el resumen y mis opiniones), desde nuevas iPads y MacBooks hasta la versión final de OS X Mavericks y actualizaciones a unas 20 aplicaciones más.

Sin embargo, de todo lo que vimos ayer creo que una cosa perdurará más en el tiempo: Safari Push Notifications...

Esta funcionalidad que es parte del nuevo sistema operativo para Macs con la nueva versión de OS X, en realidad había sido revelada meses antes en el evento para desarrolladores, pero por fin está disponible en su versión final, y desde ayer en la tarde ya algunas páginas web lo están implementando.

Pero, ¿qué es Safari Push Notifications (también conocida como "Website Push Notifications" o "Safari Website Notifications")?

Pues la respuesta corta es que es una versión de escritorio que implementa el Apple Push Notifications Service (APNS) en OS X.

Para los que no sepan, el APNS es lo que permite que las aplicaciones que instalas en tu iPhone, iPad o iPod Touch te envíen notificaciones fuera de la aplicación, para alertarte de todo tipo de cosas.

Pues Safari Push Notifications (SPN) hace lo mismo, pero con páginas web. Y es ahí lo increíble de esta tecnología, la cual pueden estar seguros (o al menos, esperemos) será copiada rápidamente por los otros sistemas operativos de escritorio del mercado.

En esencia, SPN permite que cualquier página web a la que tu le des permiso, pueda enviarte notificaciones proactivamente a tu Mac, sin tu tener que visitar la página web (de forma similar a como una aplicación en tu iPhone te envía notificaciones si tu tener que entrar a la aplicación).

Esto tiene un potencial inmenso, pues si se imaginan, este blog de eliax en donde están leyendo esto podría enviarles directamente al escritorio de sus Macs una alerta cada vez que un artículo nuevo salga en el blog, o quizás cada vez que alguien responda a un comentario de ustedes.

O en otro ejemplo, una página de deportes podría informarles por medio de una notificación el resultado final de algún partido que ustedes estaban siguiendo. O quizás una página de ofertas de viajes te podría enviar una gran oferta de último minuto para que tomes ventaja de ella. Y como se podrán imaginar, esto tiene usos virtualmente infinitos en miles de otros escenarios, que van desde videojuegos hasta aplicaciones educativas, médicas, bancarias, etc...

Es importante entender sin embargo que como dije anteriormente las únicas páginas que les pueden enviar notificaciones son aquellas a las cuales ustedes explícitamente les den permiso para hacerlo (al visitar dichas páginas, estas te preguntarían si deseas subscribirte a tales notificaciones).

Así mismo, no cualquier página pueden implementar este servicio. Esto estará disponible exclusivamente para desarrolladores de software registrados con Apple oficialmente, lo que significa que tan solo por esa vía ya se eliminarán el 99.9% de todo el SPAM y abusos que podrían ocurrir con tal sistema.

Así mismo, aun este servicio tiene el nombre de "Safari", lo cierto es que el navegador web Safari de Apple no tiene que estar funcionando para recibir las alertas, ya que estas llegan realmente de forma directa al sistema operativo mismo. Lo que no estoy seguro todavía (ya que no lo he probado) es si necesitas navegar a la página web en Safari la primera vez que quieras subscribirte a alertas de esa determinada página (espero que no, pues prefiero utilizar Google Chrome).

Noten que muchos dirán que este tipo de cosas es innecesaria o de bajo impacto en un mundo móvil, en donde podemos recibir alertas de Apps directamente a nuestros iPhones o Androids, pero la realidad es que todavía existe una tremenda dependencia de páginas web de escritorio, y existen muchísimas más páginas web sin correspondientes App que con Apps dedicadas, y muchos de nosotros pasamos gran parte del día frente a una gran pantalla, y no frente a un celular, por lo que esto ciertamente será de tremenda utilidad.

Esperemos ahora que Microsoft decida hacer algo similar para Windows, y que algunos de los colaboradores de Linux hagan algo por igual para esa plataforma (¿Ubuntu?).

Ojo, que estoy muy consciente de que en versiones recientes de Firefox y Chrome es posible hacer algo similar, pero creo que para que esto sea efectivo, simple y elegante, debe hacerse al nivel del sistema operativo, y no del navegador web, porque de lo contrario nos ataría a un solo navegador, o a mantenerlo abierto todo el tiempo aun no le demos uso.

Pero sea como sea, esto creo que es una gran innovación por parte de Apple, y una del tipo que muchos querrán tomar ventaja, pues páginas web que implementen este sistema sin duda que tendrán una ventaja competitiva contra las otras que no lo implementen, al menos con la audiencia de Macs en el ecosistema de Apple.

Finalmente, no duden que en un futuro, Apple integre este tipo de notificaciones de websites, con las notificaciones de Apps, conforme la empresa continúe el camino de integrar a iOS y OS X en lo que por años he llamado iOS X...

información oficial de Apple sobre Safari Push Notifications

PushWoosh ya implementa este tipo de notificaciones (para el que no sepa, PushWoosh es un popular servicio que con un solo API para desarrolladores te permite enviar mensajes a Android, iOS, OX X y varias otras plataformas)

autor: josé elías


GRAN HITO: Crean chip que reemplaza alambres eléctricos por lásers
eliax id: 10725 josé elías en oct 21, 2013 a las 12:10 AM (00:10 horas)
FotónicaEsta noticia de hoy, que algo me dice no será cubierta como debe por los medios tradicionales, es algo de increíble importancia, y ojalá mis palabras acá en eliax le hagan justicia...

Sucede que como muchos ya habrán notado, el poder computacional de todos nuestros dispositivos electrónicos aparenta seguir incrementando constantemente, año tras año, en donde un solo celular inteligente promedio hoy día es muchísimo más potente que todas las supercomputadoras del mundo de hace apenas pocas décadas atrás.

A ese fenómeno se le llama La Ley de Moore, acuñada por el co-fundador de Intel, Gordon E. Moore, quien notó que el diseño de los circuitos electrónicos aparentaban seguir un patrón en donde cada 18 meses estos duplicaban su poder, algo que sorprendentemente se ha mantenido cierto desde los años 1960s hasta nuestros días.

Sin embargo, en años recientes ha habido una preocupación entre los científicos e ingenieros, pues si continuábamos con técnicas tradicionales de reducir el tamaño de los transistores en los chips, íbamos a llegar eventualmente casi al tamaño mismo de los átomos para los transistores, sin poder reducir el tamaño aun más, así como tener que lidiar con otros problemas que conlleva crear circuitos tan pequeños (por ejemplo, a esas escalas tan pequeñas, las señales eléctricas que viajan por los "micro-alambres" que conectan los transistores empiezan a interferir eléctricamente unas con otras debido a efectos cuánticos).

O en otras palabras, mucho pronosticaban que nos acercábamos "al fin de la Era de la Ley de Moore", cosa que unos otros cuantos (al grupo que me subscribía) no estábamos tan seguros, pues el ingenio humano siempre tiene una nueva forma de lidiar con barreras, así como también sabemos matemáticamente que nos falta bastante para llegar a minar los límites computacionales de la naturaleza.

Y efectivamente, los ingenieros se idearon algo: En vez de hacer circuitos más pequeños, empezamos a crear varios "núcleos" de procesadores en el mismo chip, y hacer que estos funcionen en paralelo.

De ahí que el CPU promedio de hoy día tenga entre 2 y 8 núcleos, y que los GPUs (los chips de gráficos) tengan literalmente cientos de ellos.

Pero, esa técnica de utilizar computación en paralelo también tiene sus límites (pues hay que crear más complejidad en circuitos para lidiar con el paralelismo, como hace 4 años les expliqué en este artículo que recomiendo leer acá mismo en eliax).

Y la pregunta era ¿ahora que estamos casi en los límites de la miniaturización, y en los límites del paralelismo, cómo podemos seguir duplicando el poder de computación cada cierta cantidad de tiempo?

Y la respuesta viene en torno a la noticia que les traigo hoy...

Un equipo de científicos de la University of Colorado Boulder, del MIT (Massachusetts Institute of Technology) y de la empresa Micron Technology, han logrado demostrar que es posible fabricar dentro de un solo chip, moduladores y demoduladores que permiten convertir de forma eficiente entre electricidad y luz.

¿Qué significa eso? Que ahora, en vez de tener transistores que se comunican ente sí por medio de micro-alambres electrificados, ahora estos se pueden comunicar con el equivalente a ultra-diminutos rayos láser por medio óptico.

Y eso tiene un par de muy grandes ventajas...

La primera es que el utilizar luz en vez de electricidad reduce enormemente el consumo energético de los chips, lo que significa que podemos hacerlos mucho más densos, y utilizando mucho menos energía, lo que significa de por sí un incremento sustancial en rendimiento (muchísimo más que "el doble" que se espera cada 18 meses, más bien hablamos de unas 10 veces mejor rendimiento como poco).

Y la segunda gran ventaja es que a diferencia de pequeños cables eléctricos que están constantemente interfiriendo unos con otros cuando estos están muy cerca unos de otros, una señal óptica no sufre de problemas de interferencias en estos casos. Y como si fuera poco, a diferencia de estos micro-alambres que solo llevan un voltaje a la vez de un lugar a otro, una señal óptica puede cargar en sí misma al menos 1,000 canales simultáneos de información, lo que significa no solo un incremento de tres órdenes de magnitud en rendimiento de comunicación y procesamiento interno en el chip, sino además que ahora se pueden crear circuitos muchísimo más densos también, ya que se necesitarían menos canales de comunicación entre distintos grupos de transistores.

En esencia, hablamos de que esto tumba las puertas para la creación de chips que al mediano plazo nos traerán circuitos que serán decenas de miles de veces más potentes que los de hoy día, y con mucho menos consumo energético.

Sin embargo, asumo que al menos unos cuantos ingenieros eléctrónicos estarán a punto de escribirme en los comentarios cosas como "¡pero chips fotónicos los tenemos desde hace al menos una década!", y la respuesta a eso es que eso es solo parcialmente cierto...

Hoy día el campo de la fotónica (así se le llama a la industria de circuitos que utilizan luz en vez de electricidad, o electrónica) en realidad solo es utilizado de forma limitada en equipos de telecomunicaciones, y casi exclusivamente en entornos fuera de chips, específicamente para convertir señales de fibras ópticas a eléctricas (como funciona la mayor parte del Internet hoy día). Pero esto no tiene nada que ver con el avance que explico hoy (aunque se beneficiará ampliamente también).

Por otro lado, se han creado anteriormente chips fotónicos, pero utilizando procesos de fabricación bastante exóticos que requerirían literalmente reemplazar cientos de miles de millones de dólares en equipo industrial para fabricarlos, y aun así, con todo tipo de problemas de economía de escala.

Por lo que la otra gran noticia "de bono" que les traigo hoy, es que este nuevo proceso de crear chips fotónicos utiliza exactamente las mismas maquinarias que se utilizan hoy día para crear chips electrónicos, lo que significa que el proceso de adaptación variaría entre casi nulo a irrelevante, lo que abre las puertas a que las mayores empresas de fabricación de chips por fin entren al mundo de la fotónica.

Así que como pueden ver, esta noticia verdaderamente es un gran hito, aun muchos nunca lo notarán mientras sus dispositivos continúen poniéndose cada vez más veloces y eficientes...

autor: josé elías

"Los movimientos los encontré más fluidos de lo que esperaba, por supuesto que hay que recorrer un larguísimo camino hasta que se parezcan de verdad a los nuestros.

Por el momento, eso sí, los robots nos ganarían haciendo "robot dance" ;)
"

por "Lorenzo Henriquez" en oct 19, 2010


en camino a la singularidad...

©2005-2018 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax