texto:   A-   A+
eliax

Software
Editorial eliax: PopCorn Time y H.265 a tener un efecto Napster y mp3 en el cine
eliax id: 11391 josé elías en jun 10, 2015 a las 08:19 PM (20:19 horas)
Popcorn Timeeliax¿Recuerdan Napster? Si no lo recuerdan he aquí un resumen en unas cuantas lineas: En los inicios del Internet de banda ancha en consumidores, un programa estilo "p2p" ("peer-to-peer" por sus siglas en inglés, o un programa en donde los mismos usuarios ayudaban a otros usuarios a compartir archivos) llamado Napster puso boca abajo el negocio de la música, al permitir que millones de personas pudiesen compartir por Internet música de forma sencilla y relativamente rápida, pero sin pagar nada, lo que hacía al servicio algo verdaderamente ilegal...

Y dos cosas fueron las que facilitaron el surgimiento de Napster: El Internet (y el crecimiento de la banda ancha), y el formato mp3.

Antes de mp3 los archivos de música habitaban los CDs en el formato WAV, en donde una sola canción fácilmente ocupada 50MB, pero con mp3 esa misma canción podría ocupar entre 3 y 5 megas (dependiendo de la calidad codificada).

Muchos sin duda que vieron a Napster como una simple herramienta más para incentivar la piratería, sin embargo, Napster logró algo muy importante cuyas repercusiones vivimos hoy día y que cambiaron la industria de la música para siempre: Napster facilitó el surgimiento de servicios como la tienda iTunes, para vender música de forma legal a millones de personas, y de forma globalizada...

Sucede, que una gran cantidad de personas no utilizaban a Napster porque querían piratear, sino porque era la forma más rápida y fácil de conseguir las canciones que deseaban.

Antes de Napster, aunque existían algunos programas para compartir canciones, y páginas de descarga, la forma más fácil de conseguir una canción digital era saliendo de casa, gastando tiempo en visitar una tienda, comprando un CD, regresando a casa, e insertando el CD en tu PC para después "ripiarla". Un proceso que para la persona común fácilmente conllevaba horas (y requería de cierta destreza técnica), mientras que con Napster hacías una búsqueda, aparecía tu canción, hacías un clic, y simplemente esperabas unos minutos a que descargara la canción lista para ser escuchada...

Y lo mismo, mis amigos lectores, está sucediendo gracias a un programa llamado Popcorn Time, que en mi opinión forzará (literalmente) un cambio radical en la industria del cine, particularmente en su modelo arcaico de distribución...

Para los pocos que aun no lo sepan, Popcorn Time es un program que instalas en tu PC (Windows, Mac o Linux), o incluso en dispositivos Android, y que permite que veas todo tipo de películas y series, de la forma más sencilla y simple posible...

Popcorn TimeDesde que arrancas la aplicación, lo primero que ves es una pantalla llena de películas (la mayoría de estreno), y lo único que tienes que hacer para ver la película es hacer clic sobre ella, y listo. No tienes que hacer nada más (salvo quizás elegir el idioma de subtítulos, cosa que Popcorn Time recuerda para siempre y no tienes que volver a hacer jamás).

En el momento que haces clic, Popcorn Time empieza a contactar a todas las demás computadoras o dispositivos en Internet (por medio de la red descentralizada bitTorrent) que estén viendo o alojando la película en ese momento, y de forma distribuida empieza a descargar y presentar la película en pantalla al mismo tiempo, en tiempo real. Literalmente por lo general desde que haces clic en una película hasta que empiezas a verla solo pasan unos segundos...

De paso PopCorn Time también tiene un buscador en el cual puedes buscar las películas que no veas en la pantalla principal, y a diferencia de algunas películas de hollywood, casi todas están subtituladas (por voluntarios).

En resumen: Arrancas PopCorn Time, ves las películas de estreno (o haces una búsqueda), haces clic en una que te guste, y te sientas a ver la película. 1, 2, 3.

Este proceso no solo es mucho más fácil y conveniente que ir al cine (aunque admito y me incluyo en el grupo de los que prefiere una experiencia en pantalla grande en un cine, por el momento), sino que muchisisísimo más fácil que ver una película en DVD, siendo igualado solo por servicios pagados como Netflix o iTunes...

Sin embargo, a diferencia de Netflix, iTunes, Amazon Video, Hulu, etc, con PopCorn Time tienes por lo general la mayoría de las películas de estreno en frente de ti, que es lo que las audiencias quieren.

Similar a lo que sucedía con Napster antes de opciones legales como iTunes, las audiencias están dispuestas a pagar por un servicio como Netflix, pero desean que estos servicios no solo ofrezcan un catálogo de películas de hace 6 meses o años atrás, sino además películas de estreno.

Esto es algo que los productores y estudios parecen no entender: Las audiencias quieren material de estreno en casa, para verlo cuando les da la gana, y no tener que salir de esta a un cine. Esto no es algo que estoy profesando yo, eliax, como si fuera un genio, esto es algo que hasta un niño de 10 años puede deducir y decirle a un ejecutivo de Hollywood. Es lo que la gente quiere, y si no le dan a la gente lo que quiere, esta lo conseguirá de otra forma, y esa otra forma hoy día es la piratería. Tan sencillo como eso. Y esa es también la razón por la cual la piratería no va a terminar hasta que la industria del cine cambie su modelo de distribución.

¿Y quieren más evidencia (aparte del sentido común) de que la gente está dispuesta a pagar por opciones? Solo miren el éxito de Netflix. Netflix hoy día representa el 36.5% de todo el tráfico de Internet (en horas pico de la noche) en países como los EEUU, y ha reducido el tráfico de películas pirateadas por bitTorrent desde un 33% en el 2008 a un 22% en el 2015 (fuente de esos datos).

Eso indica que si la gente tiene opciones viables, las tomará, no solo por hacer las cosas legalmente, sino por el soporte y calidad (Popcorn Time por ejemplo sufre del problema de que a veces las películas "tartaramudean" visualmente cuando las conexiones no están bien o pocas personas comparten la película que quieres ver, algo que podría remediarse al 100% con un servicio pagado).

Pero si la industria del cine cree que este problema de PopCorn Time no va a crecer más, les tengo terribles noticias: H.265...

H.265 es el sucesor el formato de video popularmente conocido entre consumidores como "mp4" o "mpeg-4" (o H.264 técnicamente hablando), y tiene la asombrosa característica de que con H.265 se puede comprimir una película de mp4 en un archivo que pesa de 2 hasta 10 veces menos.

¿Qué significa eso? Que una película que antes ocupaba 1GB (unos 1024 MegaBytes, o 1024MB), ahora ocuparía posiblemente unos 100MB (o unos 500MB en el peor caso).

Y eso tiene grandes repercusiones, porque significa que ahora uno podría ver películas en alta definición incluso con una conexión de Internet 10 veces más lenta que lo considerado "banda ancha", expandiendo enormemente la cantidad de personas que ahora podrán tener acceso a películas por Internet en HD.

Otra forma de ver esto es que ahora con la misma conexión de banda ancha de Internet que tienes, que podrás ver películas incluso en resoluciones de UltraHD 4K o superior.

Y otra forma de verlo es que ahora tu pequeña memoria USB de 8GB podrá almacenar una colección completa de películas (lo que facilita aun más el movimiento de películas entre consumidores).

En resumen, H.265, cuando se masifique, será un peligro tan grande para la industria del cine como lo es PopCorn Time, y será el mp3 de esta generación, teniendo el mismo efecto en el cine que mp3 tuvo en la música...

Noten que H.265 es todavía un estándar muy joven, y apenas están empezando a salir equipos para consumidores (como la excelente cámara NX1 de Samsung), y noten además que H.265 permite comprimir mucho los videos a cambio de poder de procesamiento inmenso. Es decir, se necesita una PC relativamente bastante potente hoy día para descodificar H.265, por lo que H.265 en realidad está pensado para una nueva generación de PCs, celulares, tabletas, cámaras, televisores y cajas decodificadoras (como futuras versión del AppleTV), que contendrán chips especializados para descodificar video H.265 directamente, por lo que la industria del cine todavía tiene un tiempecito antes de que empiece a sentir los efectos de este nuvo formato.

Sin embargo, el punto es, que no es cuestión de si o no, sino que de cuando, para que la industria reaccione ante las demandas y deseos de los consumidores...

A tal fin, estas son las cosas que deben implementar:

1. Permitir estrenos en todos los mercados simultáneamente, y casi en paralelo con el cine. Incluso, ¿por qué no permitir un estreno en paralelo con el cine a cambio de uno poder pagar más por ese privilegio? Yo estoy seguro que serían millones de personas los que estarían dispuestas a pagar incluso US$30 dólares para ver en sus hogares un estreno de Avengers 3 con varios amigos en un proyector hogareño...

2. Ofrecer un plan de bajo costo para el resto de películas, similar a Netflix (noten que si fuera por Netflix, ellos ya estuvieran haciendo todo esto, pero están restringidos por los estudios y productores), y poner el catálogo completo de películas de todos los estudios desde un mismo y único lugar.

3. Permitir acceso fácil desde cualquier medio, desde cajas como el AppleTV hasta laptops, tabletas, celulares, consolas y televisores.

una página de descarga de Popcorn Time


Aclaración final importante: No dudo que cuando menos algunos de ustedes me acusen de promover la piratería poniendo ese enlace a Popcorn Time, y debo aclarar que estoy tajantemente opuesto a la piratería, razón por la cual tengo una tremenda colección de DVDs, Blu-rays, CDs, y centenares de canciones digitales que compro por iTunes y otros medios.

Soy además fiel creyente de que en el momento que apoyamos la piratería estamos incentivando a que los creadores de tal película o tal canción dejen de producir más contenido en el futuro, ya que al final del día se sustentan de eso, y ciertamente si yo fuera un cantante con una familia que mantener no me gustaría para nada que en vez de alguien pagarme por mi esfuerzo se pusiera a descargar gratis mis canciones.

Habiendo dicho eso, aclaro que también apoyo la libre expresión (que es lo que ejerzo al colocar ese enlace) y que además apoyo la rebelión ante sistemas obsoletos, abusivos, dictatoriales, y todo lo demás que viene a representar hoy día la industria del cine en gran medida.

Si los consumidores no peleamos por nuestros derechos, pueden estar 100% (cien por ciento) seguros que ellos no nos van a otorgan ni un solo derecho.

Debe existir un equilibrio en el mercado, en donde ellos crean, y nosotros consumimos, pero equitativamente y sin las restricciones inexcusables de la industria actual.

Tecnologías como el Internet, bitTorrent, Popcorn Time y H.265 son las armas digitales con las que los consumidores nos defendemos en estos tiempos...


¿Y ustedes, qué opinan? Déjenme saber sus opiniones en los comentarios abajo...

autor: josé elías


Resumen y análisis eliax del Apple WWDC 2015 Keynote. Grandes sorpresas (ACTUALIZADO 5 VECES)
eliax id: 11398 josé elías en jun 8, 2015 a las 04:35 PM (16:35 horas)
eliax, para mentes curiosas...Hace unos minutos finalizó el keynote (presentación principal) del evento anual para desarrolladores de software de Apple, el WWDC 2015, y Tim Cook y compañeros lograron una vez sorprendernos, y esta vez de forma masiva (como veremos más adelante).

Debo iniciar diciendo sin embargo que este fue uno de los WWDC menos emocionantes de los últimos años, dado particularmente el hecho de que Apple decidió esta vez no sacar demasiadas cosas nuevas para iOS o OS X, sino simplemente refinar y mejorar lo existente para mejorar la experiencia del usuario y crear una plataforma más estable y segura.

La empresa tampoco anunció ningún hardware nuevo, sin embargo hizo un par de anuncios que aunque para la audiencia promedio que no sea técnica quizás no sean grandes cosas, en mi opinión fueron de los anuncios más masivos e importantes que Apple ha realizado en los últimos años…


Los anuncios básicos de OS X y iOS

OS X “El Capitán” (el nuevo nombre, en serio) ahora simplemente es (supuestamente) notablemente más rápido que antes en el mismo hardware, debido a varios motivos, que incluyen la continua migración de código hacia el nuevo lenguaje de Apple, Swift, y el haber migrado todo el componente gráfico (y de librerías de código paralelo y de GPU) al modelo “Metal” de Apple, que entre otras cosas promete hacer las aplicaciones mucho más rápidas. Adobe por ejemplo alega que con Metal sus (¿próximas o existentes? , no aclararon) versiones de Photoshop e Illustrator son unas 8 veces más rápidas con Metal que con la antigua combinación de OpenGL y OpenCL.

Full-screen dual-viewEl Capitán ahora también ofrece nuevas funcionalidades con respecto al manejo de la interfaz de usuario, más notablemente la integración de Spotlight (búsquedas dentro del sistema e Internet), y la capacidad de ofrecer vistas duales en pantalla completa en un solo monitor. Es decir, dos aplicaciones abiertas en modo “completo”, pero una al lado dela otra en la misma pantalla, con la capacidad de mover de izquierda a derecha la linea divisora entre ambas.

En cuanto a iOS, Apple anunció Proactive (como rumoreado por @eliax hace unos días), una capacidad que permite que Siri ahora haga muchas de las cosas que hace Google Now en Android, con respecto a anticipar tus necesidades, incluso hasta mejorando e inventando par de cosas que Google Now no hace, como adivinar que entras en un automóvil y anticipar lo que usualmente haces en ese caso, o saber que cuando te pones a hacer ejercicios escuchas cierto tipo determinado de música (aunque ojo, hasta que no le de uso a Proactive todavía considero a Google Now un alternativa superior en estos aspectos).

Entra las “pequeñas cosas” que permite Proactive también es que cuando alguien te llama de un número que no tengas en tus contactos (y que por tanto, no sabes su nombre), Proactive buscará entre tus emails (y mensajería) para ver si ese número te lo envió alguien por esa vía, y sugerirte el nombre de quien posiblemente sea la llamada.


Hacia iPads más grandes y “iOS X”

Una observación importante de los anuncios de iOS y OS X es que estos apuntan cada vez más al concepto de “iOS X” (término inventado por mi en este artículo de hace 5 años atrás acá mismo en eliax), en donde vemos que ambos sistemas operativos están encaminando hacia uno solo unificado a largo plazo.

Esto se hizo evidente cuando Apple demostró la funcionalidad de “Split-View” (dos aplicaciones abiertas a la vez en modo completo), que primero demostró en OS X y después (como se rumoreaba) en un iPad con iOS 9 (y mencionó también que para el iPhone, aunque muy posiblemente el iPhone 6 Plus exclusivamente).

SpotlightY sí, esto de tener más de una aplicación en la misma pantalla es algo que algunos fabricantes de Android (más notablemente, Samsung) han implementado durante años, pero que aquí vemos ahora de forma no solo unificada y estandarizada, sino que notablemente superior y más refinado y elegante que al modelo utilizado generalmente en Android.

Así mismo vimos como el sistema de notificaciones y de búsquedas de OS X está poco a poco convirtiéndose en un clon del modelo de iOS.

Y otra cosa interesante es que este modelo de múltiples ventanas abiertas en modo completo simultáneamente no solo nos abre la puerta para un modelo visual unificado en ambas plataformas, sino que prácticamente nos dice en la cara que veremos (¿quizás en Septiembre?, mi especulación) la rumoreada iPad Pro con una pantalla más grande…


La sorpresa de Swift multiplataforma

Para los que no son técnicos, noten que a finales del año pasado Apple introdujo un nuevo lenguaje de programación para hacer aplicaciones en OS X y iOS, y que reemplazaría eventualmente a Objective-C, llamado Swift, y este lenguaje fue acogido universalmente (incluso por programadores de otras plataformas) con mucho furor y entusiasmo, debido a que es relativamente simple, bastante elegante, poderoso, flexible y expresivo. Sin embargo, programadores de otras plataformas (particularmente Android, Linux y Windows) se quedaron medio frustrados por el tema de que solo sería para programar en el ecosistema Apple.

Swift 2, Open SourcePero Apple hoy dejó caer una bomba nuclear en la industria al anunciar no solo Swift 2, sino además que este sería 100% open source (código libre), desde el lenguaje mismo hasta el compilador y librerías estándares, incluso sorprendiendo aun más a la audiencia (que respondió con tremendos aplausos) anunciando que tendrían una versión de Swift disponible para Linux para finales de este mismo 2015.

Y no duden por un momento que veremos esfuerzos de la comunidad (y empresas privadas) de traer soporte de Swift a Android y Windows también, lo que sería verdaderamente genial para uno tener que dominar un solo lenguaje de programación para estas diversas plataformas…


Apple Watch madurando rápidamente…

Hace apenas 6 semanas que salió el Apple Watch y Apple ya acaba de anunciar watchOS 2.0, y no solo eso, sino la capacidad de que programadores puedan hacer aplicaciones nativas para el Watch. Hasta ahora las aplicaciones del Watch corrían en tu iPhone y desplegaban el interfaz en la pantalla del Watch (o en combinación con el iPhone), cosa que para cierto tipo de aplicaciones es adecuado, pero no para otras, así que Apple ahora da acceso a todo lo del Watch a desarrolladores de aplicaciones para que estas vivan directamente en el Watch sin necesidad del iPhone. Esto incluye también acceso directo al micrófono, ruedilla digital, sensores, etc.

Apple Watch y watchOS 2En resumen, esto permitirá una nueva generación de aplicaciones que se sentirán muchísimo más fluidas que la de esta primera generación actual.

El Watch ahora también está totalmente intergrado con HomeKit, para que puedas gestionar tu casa inteligentemente desde tu pulsera, sea esto cámaras de seguridad o termostatos, o control de luces, música y ventanas…


Las dos ases bajo la manga de Apple Music

Todo el mundo esperaba que los rumores (como les he venido trayendo a través de @eliax) de Apple Music se hicieran realidad. Lo que nadie se imaginaba sin embargo eran las dos cartas bajo la manga que tenía Apple para sorprender a todo el mundo…

La primera es que el servicio estará disponible por primera vez en Android (en serio, no es un chiste), y lo segundo es su precio…

Aunque el precio para una sola persona es de US$10 dólares al mes (bueno, US$9.99 técnicamente hablando), Apple anunció un plan en donde 6 personas “de tu familia” pueden compartir la subscripción a Apple music por tan solo US$15 dólares al mes (US$14.99).

Pero he aquí lo interesante de ese modelo: No hablamos de 6 personas que comparten una misma cuenta, sino una sola que paga y 6 que pueden tener cuentas totalmente distintas y separadas, con sus propias canciones, gustos, recomendaciones, etc. Es decir, para todo el sentido de la palabra hablamos de 6 cuentas distintas al precio de US$15 al mes, lo que me encuentro extraordinariamente genial y sumamente económico…

Apple MusicEn cuanto a lo que es Apple Music, es la integración de todos los servicios musicales de Apple en uno solo, y más…

Para empezar, por Apple Music podrás hacer lo que siempre has hecho, significando eso el gestionar música que hayas comprado o copiado a través de tu PC. Eso no cambia (pero se mejora con todo lo demás y un nuevo, potente y simple interfaz).

Lo otro es el sistema de streaming de música por Internet, en donde con esa subscripción puedes escuchar toda la música que desees.

Aparte de eso Apple creó un nuevo servicio de radio por internet llamado “Beats 1” (“beats one”), en donde utiliza la marca Beats que adquirió no hace mucho como una nueva estación de radio mundial, transmitiendo en vivo las 24 horas del día con los mejores y más destacados DJs del mundo, que estarán trabajando día y noche desde New York, Londres y Los Angeles.

Como si fuera poco, ahora las recomendaciones de música de Apple Music no serán simplemente calculadas por un algoritmo, sino que Apple ha contratado a los más destacados expertos en música para que estos sugieran las recomendaciones, trayendo el factor emocional humano a la ecuación de las recomendaciones.

Y para finalizar, Apple Music funciona también como una red social (con una funcionalidad a la que llama "Connect") que fluye desde los artistas hasta los fans, en donde los artistas tendrán una especie de muro (no muy diferente a Facebook) en donde podrán compartir sus fotos, videos, canciones, letras, pensamientos y demás cosas, y los fans se podrán subscribir a estos feeds de sus artistas favoritos, así como comentar y dialogar con ellos, darles Likes ("Me gusta"), compartir sus contenido en otras redes sociales, etc. Esto es un poco similar a lo que Apple una vez intentó com el servicio Ping en iTunes, pero mucho más mejorado y adaptado a los tiempos.

Yo por mi parte creo que tan solo el plan ese de precios de “6 por 1”, y la adopción de Android, harán de Apple Music un éxito instantáneo y posiblemente haga que reine por sobre los demás servicios competidores al no muy largo plazo…


Apple y privacidad

Por último, Apple hizo mucho incapié durante la presentación de que todos sus servicios funcionan directamente en tus dispositivos y que Apple no tiene acceso a tu información personal, y que en aquellos casos en donde deba darte recomendaciones (como de música o de direcciones de tránsito), que esta no sabe quien eres y que todo se maneja anónimamente y sin compartir ni un solo dato tuyo con terceros.

Este mensaje fue diseñado obviamente como un tiro a los pies de Google y Facebook, empresas que debido a sus modelos de publicidad dependen de saber quien eres, qué haces, en dónde estás, las cosas que te gustan, y todo sobre tu vida, ya que es así como pueden colocar publicidad efectiva, y como permiten que terceros les paguen al compartir tu información.


En resumen...

En resumen, este inició como un WWDC con poco que ver con respecto a sistemas operativos, pero terminó siendo interesante en el sentido de ofrecernos vistas futuras a la integración de iOS con OS X y futuros modelos de dispositivos, así como nos mostró una Apple mucho más pragmática dispuesta a expandirse más allá de su propio ecosistema para que se adopten sus tecnologías, y para tomar mercado de la competencia, cosa que demostró con Swift Open Source y Apple Music en Android…

enlace al keynote del WWDC 2015

información preliminar oficial de iOS 9

información preliminar oficial de OS X 10.11 El Capitán

Actualización 1: Se me olvidó mencionar que Apple Music estará disponible en más de 100 países desde el 30 de este mes de Junio, y que los primeros 3 meses serán gratis (después de esos 3 meses tendrás la opción de seguir con el sistema pagado).

Noten también que las nuevas versiones de iOS 9, OS X 10.11 y WatchOS 2 estarán disponibles para consumidores finales en el otoño de EEUU (alrededor de Septiembre-Octubre), pero están disponibles en versión "beta" para desarrolladores desde el día de hoy. Apple también planea en Julio una versión "beta pública" para todo el que desee probar antes de la versión final. Y como siempre, estas versiones serán 100% gratis.

Actualización 2: Apple también anunció una nueva App para iOS llamada "News" (Noticias) que hace exactamente lo que se imaginan, y que permite además que proveedores de contenido (desde grandes portales de noticias, hasta blogs como este) personalicen la experiencia del usuario a la hora de estos ver el contenido.

Por otro lado, la anémica aplicación de Notes ("Notas"), por fin recibió una merecida actualización, permitiendo incorporar imágenes, listas, y dibujos libres junto con las notas, las cuales como siempre estará sincronizadas a través de iCloud.

Actualización 3: Lo de dos aplicaciones en tamaño completo a la vez en iOS solo funcionará en el iPad Air 2 en adelante (¿y asumo que el iPhone 6 Plus?). Como escribí en el artículo, esto es algo obviamente pensado más para un iPad Pro (o iPad Plus, o como termine llamándose) con pantalla más grande...

Actualización 4: Otra funcionalidad relevante para iOS es un nuevo modo en el que puedes tener tu iPhone (¿y iPad?) llamado "Low-power mode" (Modo de Bajo Consumo Energético), que apaga o disminuye muchas de las funciones de tu equipo (salvo las más críticas) y que puede dotarte de hasta 3 extra horas de batería.

Actualización 5: Apple Pay ahora se integrará con lo que antes se llamaba Passbook (y que ahora se llama Wallet, o Cartera), de modo que puedas utilizar el mismo sistema de Apple Pay (en donde simplemente acercas tu iPhone y pones tu huella digital) con tarjetas de afiliación, membresía y otros fines, lo que será realmente útil y genial.

autor: josé elías


Editorial eliax: Google Now on Tap el defensor de la publicidad móvil de Google (PARTE 2)
eliax id: 11394 josé elías en jun 3, 2015 a las 11:13 PM (23:13 horas)
eliaxAyer les ofrecí mi opinión sobre Google Now on Tap, en donde esencialmente expuse que esta tecnología es uno de los más grandes avances en interacción con dispositivos electrónicos en los últimos tiempos, en el sentido de que nos ofrece ayuda contextual sobre cualquier cosa que estemos haciendo en ese momento.

Pero al final del artículo les prometí un segundo artículo al respecto, pues hay más aquí de lo que se ve sobre la superficie, y este es ese artículo...

Y para entender bien hacia donde voy con el artículo de hoy recomiendo también leer este editorial de hace 4 años en donde explico como en ese entonces Siri de Apple era una gran amenaza al negocio de la publicidad de Google, la razón siendo que al menos en dispositivos iOS, muchos usuarios ahora en vez de buscar textualmente con Google, buscarían con Siri por voz, lo que le daba a Apple ahora el poder de donde buscar la información, así sobre cómo presentarla, sacando al buscador Google de por medio.

Pero como todos sabemos, tiempo después Google anunció Google Now y su buscador de voz, para contrarrestar a eso, haciendo en el proceso un excelente trabajo. Yo personalmente por ejemplo, solo utilizo a Siri para cosas puntuales concernientes al manejo de mi iPhone (como gestionar mi agenda, enviar mensajes, escuchar canciones, y de vez en cuando para saber el estado del tiempo y hacer operaciones aritméticas sencillas), pero para todo lo demás utilizo a Google por voz.

Sin embargo, como predije hace 5 años en este otro editorial (y se ha hecho evidente en estos últimos dos años), Facebook empezaría a comer el negocio de la publicidad de Google (que es de lo que realmente vive la empresa, con el 95% de sus ingresos proviniendo de publicidad) por medio de su red social, con la cual los anunciantes pueden ser muy específicos sobre el público objetivo a donde quieren anunciar, ya que a diferencia de Google que simplemente pone anuncios en páginas web dependiendo de su contenido, Facebook permite poner anuncios relacionados a personas específicas, sus gustos ("likes"), edad, preferencia sexual, música favorito, nivel de ingresos, educación, localización geográfica, etc.

Así que Google tenía que buscar urgentemente una forma de contrarrestar esta gran amenaza de Facebook. Su primer intento fue la red Google+, una excelente red social pero que para todos los fines prácticos podemos decir inequívocamente que ha sido un fracaso, y ahora Google intenta una forma alternativa de retomar más control de la publicidad, con Google Now on Tap...

Recordemos brevemente que con Google Now on Tap es posible hacerle preguntas verbalmente a Google dependiendo de lo que una esté viendo en pantalla en ese momento, sin importar la aplicación, desde aplicaciones de cine, restaurantes, fotos, videos, o noticias, o incluso programas de email, chateo o redes sociales, y Google analiza el contexto de lo que está en pantalla y trata de entender nuestras preguntas y ofrecernos respuestas relevantes.

Eso de por sí es un gran avance para el usuario final, el cual ahora no tiene que estar saliendo de una aplicación para después entrar a un buscador y regresar. Ahora todo se hace contextualmente con voz.

Pero si han estado leyendo hasta aquí, es posible que ya hayan deducido un poco hacia donde voy con esto: Con Google Now on Tap, Google ahora hace a todas las aplicaciones de Android lo mismo que Siri una vez le quiso hacer al mismo Google: Google ahora toma el control de la información en pantalla (razón por la cual les aseguro que no verán Google Now on Tap en iOS jamás, o al menos por muuuucho tiempo).

Es decir, Google Now on Tap ahora puede hasta cierto punto ser una vez más el intermediario entre la información en pantalla (sea de Facebook o cualquier otra entidad) y poner su propia capa de interacción (y obviamente, publicidad) encima de ella.

Esto le da un enorme poder a Google, tanto así que creo que si esto llegara a popularizarse que es posible que Google podría ser acusada de tener demasiado control sobre las aplicaciones de tercero, los cuales posiblemente demandarían la opción (a nivel de un API, o interfaz de programación) de ponder optar que Google Now on Tap no funcione dentro de sus aplicaciones.

Más explícitamente, y para los que como yo les gusta que nos den un ejemplo de lo que estamos hablando, he aquí un escenario posible: Imaginen que alguien entra a su Facebook en su celular Android y lee en pantalla que hay un concierto de una banda que te gusta próximamente en tu ciudad.

Tu te interesas en la noticia, y ahora tienes varias opciones sobre cómo proceder con tu curiosidad:

1. Puedes hacer clic en un posible enlace proveído en la noticia para tratar de obtener más información.

2. Puedes salir de Facebook y entrar al buscador de Google para tratar de encontrar información sobre la banda.

3. Quizás Facebook podría tener en ese mismo espacio un anuncio contextual en donde detectó el nombre de la banda y puso ese anuncio, con miras a ganar dinero por clics.

4. Y esto es lo interesante: Tu podrías simplemente preguntarle ahí mismo a Google Now on Tap, sin salir de Facebook, "¿Cuándo toca esta banda en mi ciudad?" y Google Now on Tap te respondería contextualmente (sabiendo que te debes estar refiriendo al nombre de la banda que aparece en pantalla, y utilizando tu GPS para saber en donde estás) "La banda tocará el próximo sábado en la discoteca Amazing", y listo.

Y es esa última cuarta opción la más peligrosa para empresas como Amazon, pues no solo es la más fácil, directa e informativa para el usuario, sino que es la opción que otorga el control a Google no solo de la información, sino además de cualquier publicidad que se te entregue al ofrecerte tu respuesta, o de cualquier transacción posterior, ya que por ejemplo en ese mismo instante Google Now on Tap te podría preguntar "¿Te gustaría que haga una reservación para el concierto? Si actúas ahora obtendrás un descuento de un 10%".

Y eso, mis amig@s lectores, es algo extremadamente poderoso.

Como alguien una vez dijo, "La información es poder"...

autor: josé elías


Opinión eliax: Google Now on Tap revolucionará cómo interactuamos con móviles (PARTE 1)
eliax id: 11393 josé elías en jun 2, 2015 a las 09:59 AM (09:59 horas)
eliaxComo generalmente hago cada vez que empresas como Google, Apple, Microsoft o Facebook hacen sus anuncios periódicos anuales, me he sentado metafóricamente a reflexionar sobre lo más significativo del evento Google IO 2015 que acaba de concluir, y me queda poca duda que lo más importante del evento fue Google Now on Tap (que en español sería algo como "Google Now a un toque de distancia", recordando que "Google Now" también significa "Google Ahora").

Pero antes de continuar debo decir que en segundo lugar en este evento elegiría a Android Pay, pero dado que es un clon de Apple Pay, y que ya todos entendemos que fue Apple Pay quien mostró a los demás cómo hacer pagos electrónicos eficientemente, el premio se lo lleva esta vez Google Now on Tap. Y notemos también antes de continuar que se rumora que Apple ya tiene un sistema similar a Google Now on Tap en iOS 9, por lo que el crédito a ser primero al mercado esta vez se lo lleva Google...

Pero, ¿qué es Google Now on Tap? Pues es una tecnología que permite darte información contextual (utilizando todo el procesamiento de la nube de Google, con su llamado Knowledge Graph, o "gráfica de conocimientos") sobre cualquier cosa que estés haciendo en tu celular (y asumo en un futuro, en tabletas y hasta PCs por medio de Google Chrome).

¿Qué significa eso? Pues que podrás buscar sobre información contextual relacionada a cualquier cosa que estés viendo en pantalla, sin importar la aplicación.

Para entender esto mejor, lo mejor es utilizar unos cuantos ejemplos, y así podrán obtener una idea de lo poderoso de este concepto...

Imaginen que reciben un email de una amiga, que les propone ver el Circo de Soleil. Por lo general el próximo paso que uno usualmente hace es salir del email, entrar al buscador Google, y averiguar quizás la página web del circo, y después navegar hasta encontrar información del circo y cuándo se presenta.

Sin embargo, con Google Now on Tap lo único que tienes que hacer, sin salir del email, es presionar el botón de abajo de tu celular (lo que ahora activa a Google Now on Tap en Android M), y sin tener que hacer absolutamente nada más, Google Now on Tap analiza la pantalla, entiende el contexto de la conversación, y automágicamente te ofrece información (en una tarjeta que se desliza sobre la aplicación de emails, desde abajo de la pantalla) sobre el circo.

Otro opción que tienes para utilizar a Google Now on Tap es simplemente preguntarle con tu voz a Google (vía la frase "Ok Google") una pregunta sobre lo que está en pantalla, así que por ejemplo puedes decir algo como "Ok Google, cuándo es la fecha de la próxima función"), y Google Now on Tap automágicamente entenderá que te estás refiriendo al Circo de Soleil que está en pantalla y te dirá inmediatamente la respuesta.

De forma similar, si estás en una aplicación deportiva viendo los resultados de tu equipo favorito, simplemente puedes decir "¿Cuándo es la próxima fecha que juegan?", y Google Now on Tap automágicamente una vez más deducirá que te refieres al contexto del equipo que estás viendo en pantalla, y te dirá con su voz (además de mostrarte en pantalla) la próxima fecha del juego.

O si por ejemplo estás viendo una página web de un hotel que se ve precioso, puedes decir algo como "¿Y dónde queda eso?", y Google Now on Tap te responderá entendiendo el contexto de lo que está en pantalla.

De forma similar, si estás quizás viendo un actor en una aplicación de cine, puedes preguntar directamente "¿En cuáles otras películas sale este actor", y obtendrás tu respuesta. O quizás quieras preguntar "¿Qué edad tiene y cuál es su verdadero nombre?", y también automágicamente obtendrás tu respuesta.

Noten además que aparte de responder, Google Now on Tap incluso deduce/predice el próximo paso que tomarás (como por ejemplo, abrir la aplicación de mapas, o tu agenda, o tu mensajería) y te pone abajo de su respuesta dos o tres íconos de aplicaciones que posiblemente necesitarás para dar seguimiento a la respuesta que obtuviste, lo que está genial.

Y lo mejor de todo, desde el punto de vista de los desarrolladores de aplicaciones, es que no tienen que hacer absolutamente nada para que esto funcione, ya que esto no es algo que las aplicaciones hacen, sino el sistema operativo Android en sí, utilizando algoritmos de Inteligencia Artificial y todo tipo de patrones alojados en la nube de Google en Internet.

Esto, en mi mi opinión, es quizás la revolución más grande en términos de interfaces de usuario con dispositivos móviles después del concepto de pantallas multitáctil introducidas en el iPhone 1, y Siri introducido con el iPhone 4s. Incluso, este tipo de interacciones con nuestros dispositivos nos acerca un paso más a mi predicción de que dispositivos como el Apple Watch eventualmente serán en buena medida nuestros celulares del futuro, ya que se hace menos necesario tener que escribir en pantalla, o incluso mirar la pantalla para resultados que ahora pueden ser dictados con voces digitales.

¿Lo único "malo" de esto? El mismo tema de siempre: Tardará bastante tiempo para que la mayoría (o incluso, una parte significativa) de usuarios de Android tengan acceso a esta increíble tecnología, debido a la extrema lentitud de actualizaciones de Android en la gran mayoría de dispositivos.

Como ejemplo, les comento que aparte de mi iPhone, tengo también un Android, y a la fecha (ya con Android 6 anunciado) todavía no aparece la actualización para Android 5 presentada el año pasado, lo que es bastante frustrante...

De todas formas, es bueno que vean al menos el video (en inglés) a continuación, pues les dará un vistazo a lo que ciertamente será parte del futuro del mundo móvil, y esperemos a ver cómo responde la competencia ante esto (particularmente Apple con Siri y su rumoreado Proactive, y Microsoft con Conrtana).

Pero antes de que vean el video les comento que hay más bajo la superficie acerca de Google Now on Tap de lo que les presento en este artículo, así que atentos a una segunda parte de este artículo próximamente acá mismo en #eliax... ;)

Video a continuación (enlace YouTube)...


Actualización: La segunda parte de este artículo la pueden leer en este enlace...

autor: josé elías


Las 10 cosas que más me gustaron del nuevo Android M y Google IO 2015 (ACTUALIZADO)
eliax id: 11392 josé elías en jun 1, 2015 a las 12:34 AM (00:34 horas)
Esta semana pasada en el evento anual Google IO 2015, la empresa anunció (como esperado cada año) la nueva versión de Android, a la que llamó por ahora "Android M" (y muchos llamarán Android 6.0 hasta que Google le de un nombre oficial), así como hizo unos cuantos otros anuncios relacionados, y he aquí lo que más me llamó la atención más otras observaciones...

Android1. Android M, es la evolución de Android 5, esta vez pensando no tanto en cambiar mucho el look visual del sistema operativo, sino en proveer muchas funcionalidades ya existentes en la competencia, así como un par nuevas que sin duda serán de mucha utilidad.

2. Android M ahora vendrá con soporte nativo para leer huellas digitales, trayendo paridad a Android con la tecnología de TouchID de Apple. Aunque ojo, Google solo provee la especificación, y será ya labor de los fabricantes el implementar a su gusto. Esto significa que la experiencia va a variar dependiendo del proveedor.

3. Google reveló por fin cómo funcionará Android Pay, que es la evolución del fracasado Google Wallet, esta vez imitando el modelo más práctico de Apple Pay, incluyendo la capacidad de pagar con tu huella digital al estilo iPhone 6.

4. Si nos llevamos de esos dos últimos puntos, podríamos adivinar que los próximos celulares Nexus de Google vendrán con soporte integrado de lectores de huellas digitales (especulación educada de mi parte).

5. Google anunció Google Photos, en esencia desprendiendo la funcionalidad de fotos de Google+, pero permitiendo algo extremadamente útil para usuarios: Totalmente gratis Google permitirá que almacenes una cantidad totalmente ilimitada de tus fotos y videos en Google Photos. Sí, gratis.

Sin embargo, existe una limitante que es bueno notar: Los videos no pueden pasar en resolución de 1080p (como por ejemplo, video UHD o 4K), y las fotos no pueden pasar de 16 Megapixeles. En ambos casos Google no rechaza los videos ni las fotos que sobrepasen esos límites, sino que simplemente les reduce la resolución a 1080p y 16MP respectivamente (cosa que es bueno notar para profesionales que quizás no deseen esto).

Noten que Amazon Prime, aunque un servicio pagado (pero que ofrece muchísimas ventajas, desde envíos gratis y acceso a una gran librería de películas y canciones) permite también subir una cantidad ilimitada de fotos y videos, en cualquier resolución y formato (incluso RAW) a Amazon Prime Photos, por lo que si son profesionales quizás quieran investigar esa opción.

Google Photos para Android

Google Photos para iOS

6. Android M ahora permitirá también poder controlar los permisos de las aplicaciones a un nivel mucho más granular, y solo cuando son necesitados. Eso significa que ahora en vez de los usuarios tener que otorgar permisos a las aplicaciones a la hora de instalar, que lo pueden hacer en el momento de correr la aplicación y solo cuando sea necesario. Un ejemplo de esto es una aplicación que después que arranque te pida permiso para utilizar tu micrófono, o la cámara. Noten que esto es imitando el comportamiento de iOS en ese aspecto, y que sin duda será aplaudido por desarrolladores de software ya que hace más probable que los usuarios utilicen sus aplicaciones.

7. Android M también vendrá con la capacidad de formatear una tarjeta MicroSD (para aquellos equipos que lo soporten) de modo que funcionen como memoria expandida del sistema. Esto será de gran ayuda para los millones de dispositivos Android que vienen con con 2 o incluso 1GB de memoria interna, pero ojo que esto podría hacer un poco más lento el rendimiento de tales aplicaciones, aunque al menos permitirá que se ejecuten...

8. Android M también vendrá con soporte nativo para USB-OTG, lo que permitirá que uno conecte discos externos a celulares Android por medio de adaptadores USB, para utilizarlos como almacenamiento externo de gran capacidad. Noten que algunos dispositivos Android (como las tabletas Nexus ya tenían soporte para USB-OTG desde hace tiempo, pero ahora esto estará disponible para todo dispositivo que soporte Android M.

Google Cardboard VR
9. Google también anunció Expeditions, una herramienta de Realidad Virtual que utiliza el accesorio Google Cardboard VR (en esencia, un kit de cartón con par de lentes, a un precio menor a los US$30 dólares, y que conectas a tu celular para crear una versión ultra-barata de unas gafas de realidad virtual), para permitir que profesores y estudiantes visiten "en grupo" (es decir, de forma simultánea) muchos lugares de interés educacional y cultural del mundo, pero en Realidad Virtual. Google también anunció que su Google Cardboard VR ahora también estará disponible para iPhone.

Google Jump VR
10. Finalmente, Google anuncio Google Jump VR, un hardware que consiste de 16 cámaras GoPro, más software especializado desarrollado conjuntamente entre Google y GoPro, que une la vista de esas 16 cámaras (colocadas en un círculo) para crear video de 360 grados que pueden posteriormente ser visto en YouTube, o mejor aun, con accesorios de Realidad Virtual como el Cardboard VR.

Y eso es en resumidas cuentas lo que me encontré más interesante de Google IO 2015. Si tienes sus otros favoritos, no duden en darlos a conocer en los comentarios abajo.

Actualización 1: Como bien me alertó la lectora Cecilia Abadie en los comentarios, otro de las grandes cosas anunciadas por Google en este evento fueron sus mejoras para Google Now (a lo que llamó "Google Now on Tap"), que ahora más que nunca se adelanta a tus necesidades para sugerirte cosas en tu agenda, notificaciones, etc. Noten que los rumores esperan que Apple imite esta funcionalidad en iOS 9 con algo que supuestamente llamará "Proactive".

Actualización 2: Me acabo de enterar que Google Photos tiene un buen truco bajo la manga: Búsquedas contextuales. Eso significa por ejemplo que puedes buscar por contenido visual de las imágenes, como por ejemplo buscar por fotos que contengan un automóvil, o la torre de París, etc. Y de forma similar, si tu cámara o celular no le provee a las fotos de geo-localización (es decir, en dónde fue tomada la foto, para ser desplegado posteriormente en un mapa), Google te da la opción de identificar el lugar basado en su contenido (por ejemplo, una foto con la Estatua de la Libertad de fondo probablemente fue tomada en New York).

Actualización 3: Como bien indica el lector Esteban Alvarez en los comentarios, Google Maps ahora se podrá utilizar en modo offline (sin internet), y eso incluye incluso el buscar y obtener direcciones para llegar al destino.

Actualización 4: Otro adelanto interesante es que Android M también soportará nativamente el nuevo estándar USB Type-C, el mismo que Apple implementó en su nueva MacBook. Este tipo de conectores no solo es super rápido (unos 5Gbps), sino además que puede proveer tanto de datos como de energía al dispositivo por un solo cable.

Actualización 5: Android M también soportará el estándar protocolo de música MIDI, algo que por años ha proveído una ventaja a iOS en el mundo de la música digital.

autor: josé elías


Twitter lanza Periscope, una revolucionaria aplicación para video en vivo (ACTUALIZADO, Android)
eliax id: 11367 josé elías en mar 27, 2015 a las 09:25 AM (09:25 horas)
Twitter Periscopeeliax - Para Mentes CuriosasTwitter revolucionó el mundo de las redes sociales con su herramienta del mismo nombre, permitiendo de forma super sencilla que millones de personas se comunicaran entre sí con un sistema basado en uno subscribirse a los comentarios de 140 caracteres de otros, y recibir tales comentarios en tiempo real.

Y ahora Twitter lanza otra aplicación que se va al otro extremo, no permitiendo mensajes de 140 caracteres, sino video en tiempo real de largo ilimitado...

El servicio se llama Periscope, y lo que hace lo hace bien y sobre todo extremadamente simple: Simplemente instalas el App en tu iPhone (la versión de Android llegará en las próximas semanas (actualización: Ya está disponible desde el 26 de Mayo 2015)), inicias el video, y todo lo que estés viendo tu en ese momento a través de tu celular lo verán en ese mismo instante (es decir, en tiempo real), todas las personas que se hayan subscrito a ver tus videos. E incluso, los que no empezaron a ver inmediatamente tu video en vivo no se perderán de nada, ya que los videos son almacenados por 24 horas para el disfrute de los que llegaron tarde a la transmisión.

Noten que el concepto de video en vivo no es nuevo per-se, pues incluso Google permite generar "Hangouts" en tiempo real para el consumo de quien desee verlos, pero soluciones como las de Google y otros son añadidos a otros servicios (en el caso de Google, a YouTube), y no son ni remotamente tan fáciles de utilizar como es Periscope. Yo personalmente me he tenido que resistir a transmitir cosas en vivo en YouTube precisamente por la complejidad del proceso (y les habla un usuario bastante técnico que no tendría problemas en averiguar los pasos necesarios para utilizar el servicio).

Pero con Periscope los pasos son los siguientes:

1. Lanzas la aplicación.
2. Haces clic sobre el botón de empezar a transmitir.

Y eso es todo, en serio, no hay otros pasos (salvo la primerísima vez que lances el programa, en donde el celular te preguntará si le das permiso a Periscope a utilizar tu cámara, micrófono, y opcionalmente tu localización).

Después desde que inicias a mostrar video, todos tus seguidores obtienen una notificación (el sistema está integrado con Twitter mismo), y pueden empezar a sintonizar con el App.

Noten que ya existe otra App similar llamada Meerkat, pero creo que Periscope con el empuje de Twitter y su super simpleza será la que termine dominando este mercado nicho, aun haya llegado de segundo.

Y para los curiosos, sepan que Periscope no fue originalmente desarrollada por Twitter, sino por otra empresa recientemente, y Twitter los compró inmediatamente por unos US$100 Millones de dólares...

En mi opinión, esta aplicación podría revolucionar la forma en que vemos el mundo, por fin permitiendo una comunicación con video en tiempo real que nos muestre lo que pasa en el planeta en este preciso instante. Puede ser que veamos desde el nacimiento del bebé de unos amigos o familiares, o un desconocido reportando sobre un incidente de transcendencia, o quizás alguien dictando una conferencia, o posiblemente un profesor enseñando a miles de estudiantes a la vez, y no dudemos del potencial que sin duda le verán los mercadólogos a esta plataforma (y no olvidemos la industria de la pornografía que sin duda verá en esto otra forma de hacer dinero).

Y ojo, que aunque no sea Periscopio quien termine dominando este mercado, que pueden estar seguros que este concepto está para quedarse y que será parte de nuestras vidas sociales virtuales de ahora en adelante de forma permanente.

Yo personalmente acabo de probar la aplicación y es asombrosa lo simple que es, y estoy seriamente pensando en utilizarla para transmitir algunas cosas en vivo que se me ocurren, así que si quisieran ser notificados, descarguen la aplicación ya y agréguenme para seguirme por "eliax" (apareceré como "José Elías - eliax"). Para agregarme entren al App, hagan clic en el icono de abajo a la derecha (el ícono de las tres personas), y después hagan clic en la lupa al tope izquierdo para buscar, y ahí entren "eliax" y saldré inmediatamente.

Otra cosa interesante de Periscope es que mientras ven un video pueden interactuar con quien lo emite, sea con mensajes o tocando la pantalla una o varias veces repetidas, que tiene como resultado enviarle "corazoncitos" al que emite el video, como señal de que te gusta lo que ves (en esencia, estos corazones son el equivalente de los "Like" o "Me gusta" de Facebook y otras redes sociales como Instagram).

Finalmente, ahora solo quiero dos cosas de esta App: (1) que salga la versión Android, y (2) que agreguen alguna funcionalidad para uno poder programar eventos con antelación para que las audiencias sepan cuando esperarlos. Y sería genial si YouTube y Facebook crearan aplicaciones similares y así de sencillas para acelerar este tipo de herramientas en el mercado...

página oficial de Periscope

Enlace para descargar en el App Store para el iPhone

Actualización 26 de Mayo 2015: La versión de Android ya está disponible para descargar aquí.

autor: josé elías


Manipulando objetos tridimensionales en fotografías 2D. Asombroso video
eliax id: 11327 josé elías en ene 19, 2015 a las 04:30 PM (16:30 horas)
Hoy los dejo con un video de una increíble tecnología desarrollada en Carnegie Mellon University en los EEUU en donde es posible tomar una fotografía normal en 2D, elegir un objeto tridimensional de esta, y manipularlo al antojo en su entorno fotográfico.

Esta es una de esas cosas que hay que ver para entender (y creer).

De la manera que esta tecnología funciona es consultando primero una base de datos de objetos tridimensionales (de los cuales ya posee información de la forma volumétrica del objeto), y después utilizar esa información para reconocer objetos similares en la fotografía.

Cuando reconoce el objeto, el software reemplaza el objeto de la foto por el objeto 3D, pero manteniendo las propiedades de color, textura y sombras del original, para aparentar que uno lo está manipulando directamente.

Noten que esto está relacionado a otra tecnología que inserta objetos virtuales 3D en fotografías 2D, y de la cual les hablé acá mismo en eliax hace unos años. Y también está relacionado a esta otra tecnología que extrae imágenes 3D de fotografías 2D.

página oficial del proyecto

Y si quieren hacer que esta herramienta se haga realidad para el público en general, contribuyan con la campaña crowdsource en este enlace.

¡Gracias al lector Erik Roy por compartir el video en el grupo oficial de #eliax en Facebook!

Video a continuación (enlace YouTube)...


Video expandido a continuación, con más detalles (enlace YouTube)...


autor: josé elías


Chrome Remote Desktop, controla tu PC desde otra PC, Android, iPhone o iPad
eliax id: 11323 josé elías en ene 15, 2015 a las 10:05 AM (10:05 horas)
Si alguna vez haz tenido la necesidad de controlar tu PC/Laptop remotamente, es posible que seas un usuario semi-técnico que haya utilizado herramientas como TeamViewer, Splash Desktop, Microsoft RDP, o Log Me In, ¿pero sabías que Google ofrece una herramienta para hace justo eso, totalmente gratuita, y que ahora también funciona desde dispositivos móviles como Android, iPhone y iPad?

La herramienta se llama Chrome Remote Desktop y permite hacer justo eso: Desde otra PC o móvil puedes controlar una PC (ambas obviamente deben estar ejecutando la aplicación Chrome Remote Desktop), lo que está genial o para hacer algo rápido en tu propia PC, o para ayudar a alguien más con algún problema que tenga.

Es importante notar que para que esto funcione la persona propietaria (o que controla localmente) la PC remota debe ofrecerte permiso explícito para que accedas a su máquina, y esto se hace con un código que se general localmente y que debes de alguna manera hacer saber a la persona remota para que se conecte a tu PC (de forma muy similar a como funciona TeamViewer).

Es importante notar que Chrome Remote Desktop funciona en dos modalidades diferentes, funcionando como una sesión temporal para asistencia remota (sea que te asistan a ti, o que tu quieras asistir a alguien más), o como una sesión permanente en donde puedes acceder a tu PC en cualquier momento con un mismo código (en cuyo caso, debes dejar tu PC encendida cuando salgas de casa u oficina para que esta tenga conexión a Internet cuando te quieras conectar a ella).

Noten además que como se imaginarán, la aplicación requiere de una instalación y configuración de una sola vez, la cual inicia, apropiadamente, desde el navegador Google Chrome, visitando la dirección chrome.google.com/remotedesktop (desde otros navegadores no podrán instalar nada).

Algo genial es que Chrome Remote Desktop funciona no solo en Windows, sino además en Mac OS X y Linux.

En mi experiencia, la velocidad de actualización de la imagen remota es bastante fluida si tienes una conexión de Internet estable, particularmente dado el hecho que Google utiliza su super-eficiente CODEC de video VP9 para refrescar la pantalla, y convenientemente hasta el sonido de la pantalla remota lo puedes escuchar localmente.

Noten sin embargo que usuarios más técnicos quizás deseen permanecer con soluciones más especializadas que esta, ya que Chrome Remote Desktop no ofrece capacidad para por ejemplo transferir archivos, ni tampoco es muy amigable a ambientes remotos que contengan más de un monitor (puedes ver varios monitores, pero de forma disminuida y simultánea, o teniendo que deslizarte constantemente, sin capacidad de fácilmente poder cambiar entre un monitor y otro directamente). Pero aun así, para soporte técnico casual, y para uno incluso trabajar esporádicamente en nuestros equipos remotos (o incluso para ofrecer alguna presentación remota), Chrome Remote Desktop está más que genial, y siendo un servicio gratuito no nos podemos quejar mucho...

Página oficial de Chrome Remote Desktop (debes acceder a este enlace con el navegador Google Chrome para instalar la extensión de Chrome, el cual después te dirigirá a una instalación local nativa para tu PC).

En Android, iPhone o iPad busquen por "Chrome Remote Desktop" en sus respectivas tiendas de aplicaciones para encontrar la app nativa móvil.

autor: josé elías


Video de charla de eliax en el evento #GX24, Montevideo, Uruguay, 29 de Sept 2014
eliax id: 11283 josé elías en oct 3, 2014 a las 12:41 AM (00:41 horas)
eliax - Para Mentes CuriosasHola amigos lectores,

Hoy los dejo con este video que fue subido a Internet de mi más reciente charla (de esta misma semana) en el 24 Encuentro GeneXus (GX24) en Montevideo, Uruguay, uno de los eventos de tecnología más importantes (y grandes) de América Latina, en donde miles de desarrolladores se reúnen cada año para compartir experiencias, aprender y ver las últimas novedades de la plataforma GeneXus (de la cual les hablé acá mismo hace unos años atrás). Esta fue mi quinta intervención anual en tal evento, y como siempre la pasé genial.

El título de esta charla fue "Recetas del éxito (y fracaso) de los titanes [de la industria]".

Una observación que les tengo (y que se les hará obvia al ver el video) es que mi tiempo era muy limitado. Mi charla realmente debería durar oficialmente solo 30 minutos, pero me concedieron 45 (ya que como siempre, me ponen a hablar de último en el día), aunque realmente necesitaba 60 minutos, por lo que excusen la rápida dicción de mi parte ;)

Video a continuación (enlace YouTube)...


autor: josé elías


Curiosidad eliax: Sobre la secuencialidad de la memoria humana
eliax id: 11261 josé elías en ago 11, 2014 a las 10:14 PM (22:14 horas)
eliax - Para Mentes CuriosasHe aquí algo que me encuentro bastante curioso, y que de seguro la mayoría de los lectores de eliax saben pero que de seguro rara vez se han puesto a ponderar explícitamente: Nuestra memoria no es aleatoria sino que secuencial, y eso tiene implicaciones bastante curiosas...

¿A qué me refiero con secuencial en vez de no ser aleatoria? A que increíblemente los humanos (y posiblemente el resto del reino animal) no podemos recordar cosas al azar, sino que siempre tenemos que seguir una secuencia, ya que nuestras memorias están almacenadas una al lado de la otra, como si fuera una cinta de audio de los 1980s...

Eso para algunos sonará un tanto falso, ya que aparenta que podemos recordar cualquier cosa que nos de la gana en cualquier orden, pero eso es una ilusión, ya que para recordar cualquier cosa siempre tenemos que tener un punto de partida, un punto de referencia, y es después de ese punto de partida que recordamos lo que sigue.

Y creo que no hay mejor manera de demostrarlo que en un ejemplo que leí recientemente (y con el que estoy seguro algunos de ustedes han intentado al menos una vez en sus vidas): Recitar el alfabeto de atrás hacia adelante, empezando con la letra "Z" y terminando con la letra "A".

Inténtelo ahora mismo a ver qué tan rápido pueden hacerlo. Y no solo eso, tomen nota de cómo lo hacen...

Es posible que se hayan dado cuenta que es un trabajo muy difícil, y lento, ya que la única manera que podemos saber que antes de la "Z" viene la "Y", y que antes de la "Y" viene la "X", es enlazando a estas en el orden que ya es familiar para nosotros, de adelante hacia atrás (es decir, de A a Z). Y si no les es obvio, traten el ejemplo no solo con las últimas letras del abecedario, sino que literalmente traten de llegar hasta la misma "A" desde la "Z".

¿Qué les dice esto? Pues para empezar que la única razón por la cual recuerdan el orden del abecedario es porque tienen en sus cerebros almacenados el orden explícito de una letra conectada a la otra, en una secuencia, y que la razón por la cual se hace tan difícil recitar el alfabeto al revés es porque sencillamente no tenemos memoria almacenada de la secuencia alterna de la Z a la A ya que eso rara vez lo practicamos.

Obviamente con práctica podemos aprender a memorizar el orden inverso, y eso nos lleva a otro punto: El aprendizaje inicial de cualquier cosa es traumático y lento, ya que nuestros cerebros son lentos (aunque no lo crean, en lo que le toma a una neurona responder a un estímulo en 5 milisegundos (5ms), un transistor en cualquier celular puede responder miles de millones de veces).

Esa es la razón por la cual los niños no aprenden el abecedario en un solo día, pues le cuesta al cerebro acostumbrarse a asociar la secuencia de las letras. Y es la misma razón por la cual si aprendes a jugar Ping Pong, no serás un maestro el primer día, ya que tu cerebro tiene que crear una secuencia de movimientos (memoria muscular) hasta que aprendas bien cómo reaccionar ante la pelotita.

Así que si son programadores de software, una forma de ver esto es que nuestras mentes almacenan memoria al estilo de un linked list (lista encadenada), en donde un objeto apunta al siguiente, y no al estilo de una memoria RAM con acceso aleatorio.

Otro ejemplo más complejo que se me ocurre es recordar cómo llegar a algún lugar para un viaje de verano. Es imposible visualizar por lo general todo el recorrido simultáneamente en tu mente, pero sin embargo de alguna manera llegas a tu destino, pues sales de tu casa, y sabes que el primer paso es llegar a tal calle, después a tal autopista, después a tal pueblo, y después doblar en tal esquina, y después llegar a tal casa en la playa o la montaña. Es decir, una serie de pasos.

Pero esto tiene otra gran curiosidad que tiene que ver con cómo el cerebro ha evoluciona para aparentar ser tan rápido en relación a una máquina moderna...

Noten por ejemplo que aunque el cerebro es un órgano altamente paralelizable (es decir, que ejecuta muchas instrucciones en paralelo), que el hecho que le tome hasta 5 ms a una neurona responder significa que por más computación que haga el cerebro en paralelo, que este sencillamente no puede romper las reglas de la física y obtener respuestas más rápidas que esos 5ms.

Pero entonces, ¿cómo puede el cerebro hacer cosas como reconocer patrones tan rápidamente, y aparentar ser mucho más rápido que cualquier super computadora?

Pues el cerebro hace trampa con un truco muy conocido a los programadores de software (que revelaré en un instante)...

Y para entender de lo que hablo, imaginen el siguiente ejemplo: Tenemos una habitación totalmente blanca, en forma de cubo, sin nada en las paredes ni pisos. En un extremo sentamos a una persona y a su lado a una computadora con una cámara, y ambos miran hacia el otro extremo de la habitación, y ahora vamos a poner a estos dos seres a competir...

La competencia será la siguiente: Al otro extremo de la pared pondremos varios objetos (uno a la vez), desde animales hasta sillas y frutas, y el trabajo del ser humano y la máquina es reconocer qué es lo que les presentan frente a ellos lo más rápidamente posible.

Así que digamos que les presentamos a ambos un gato, y veamos cómo reconocen cada uno de estos dos participantes al gato...

La computadora inicia ejecutando un potente algoritmo computacional que aísla al gato de su entorno blanco. Después ejecuta otros cálculos para reconocer su contorno. Después ejecuta más cálculos para empezar a hacer segmento por segmento de la imagen resultante comparaciones con una potente base de datos de gatos que posee, comparando pixel por pixel, haciendo todo tipo de cálculos y transformaciones matemáticas, hasta por fin dar con una imagen que se parece a la de un gato.

En esencia, la computadora computa. Calcula. Y hace miles de millones de cálculos para poder llegar por fin a la conclusión de que frente a ella hay un gato.

Vamos ahora al humano (y ver como hace "trampa", aunque en realidad es una optimización evolutiva, como veremos)...

Al ojo del humano llega la imagen del gato, la cual es transformada casi instantáneamente a impulsos eléctricos en el ojo que viajan hasta los reconocedores de patrones del cerebro.

Cuando estos impulsos llegan al reconocedor de patrones, ocurre algo muy interesante: El patrón generado por esos impulsos eléctricos actúa como una llave o código que apunta de forma difusa a los bancos de memoria que contienen todo tipo de recuerdos (en este caso, visuales).

Es decir, el patrón eléctrico que llega a las neuronas funciona como un nombre en una guía telefónica, en donde el nombre es la llave, y el resultado es el número telefónico de quien estás buscando.

O en otras palabras, la imagen misma que viaja desde el ojo codificada como impulsos eléctricos, es la clave para que el cerebro busque en su cerebro una imagen de un gato previamente almacenada.

Y ahí es en donde yace el truco: El cerebro humano en la mayoría de casos, no tiene que hacer ningún cálculo complejo, sino que lo que hace es que simplemente busca recuerdos similares en donde el cálculo ya se ha realizado previamente.

O en otras palabras, la primera vez que de niño ves un gato, tu cerebro tiene que hacer tantos cálculos como lo hace una computadora para entender lo que ve, pero después de eso el cerebro almacena un patrón en forma de gato (o más bien, con el mismo patrón que surge eléctricamente cuando la imagen de un gato entra por tus ojos) que activa la imagen misma del gato almacenada.

Eso significa que la razón por la cual el humano de este ejemplo hipotético es tan rápido como la supercomputadora es porque el humano no tiene que hacer esos cálculos en el momento del concurso, sino que ya ha realizado esos cálculos previamente y ahora es solo cuestión de llamar la memoria perteneciente al gato.

Para los que son programadores de software, esto es lo mismo que crear un lookup table (una tabla de búsqueda), en donde el key (llave) es el patrón de los impulsos eléctricos que entran visualmente por el ojo, y el value (valor) es la imagen previamente (y correspondiente) al key.

En un video-juego por ejemplo, hay dos maneras de calcular los ángulos de los objetos geométricos que vemos en pantalla: Una es calcular los ángulos resolviendo ecuaciones complejas, pero otra mucho más eficiente (y que es la práctica estándar en el arte de los video-juegos) es pre-calcular todos los ángulos posibles para tener las respuestas ya listas, de modo que si surge la pregunta "¿Cuál es el ángulo de ataque del enemigo en relación a la pared de 30 grados?" que uno no tenga que empezar a resolver ecuaciones de ángulos complejas, y en vez de eso simplemente va a nuestra lookup table y pregunta "La última vez que calculé el ángulo de ataque para una pared de 30 grados, ¿cuál fue el resultado?", lo que es una operación posiblemente miles de veces más rápida que tener que hacer el cálculo otra vez.

Y todo esto nos devuelve al tema de la memoria secuencial... Estos patrones de gatos y otros objetos que almacenamos en el cerebro, son reconocidos y almacenados de forma lineal, uno al lado del otro. De modo que por ejemplo si en un futuro vemos un nuevo tipo de gato, muy similar al que teníamos almacenado pero de otro color, nosotros lo asociamos secuencialmente al primer gato, y ya tenemos una idea que es un gato, pero con alguna diferencia. Es como almacenar en el abecedario la letra "P" y después entender que la letra siguiente es la "Q".

Finalmente, es bueno entender que unas personas dependen más de la secuencialidad que otras, y por eso se da el caso de personas que sencillamente nunca pueden llegar a un punto en ninguna conversación (o al menos no pueden llegar al punto rápidamente), ya que sus mentes funcionan demasiado secuencial, y no pueden ver más allá de unos pocos pasos hacia el futuro para poder resumir sus pensamientos brevemente.

¿Curioso, no?

autor: josé elías


Breach, un navegador web en Javascript, y sobre HotJava. Un avance al futuro de navegadores web
eliax id: 11237 josé elías en jul 13, 2014 a las 01:04 PM (13:04 horas)
navegador web BreachSi me preguntan, ¿cuál es el navegador web más avanzado del mundo jamás creado? Mi respuesta no sería ni Google Chrome, ni el Safari de Apple, ni Mozilla Firefox, ni Microsoft Internet Explorer, ni el navegador Opera...

Sería un navegador del cual estoy seguro la mayoría de los lectores de eliax nunca han escuchado, y que salió públicamente en 1995 gracias a unos hackers de Sun Microsystems (los mismos creadores de Java, y hoy día propiedad de Oracle). Ese navegador se llamó HotJava, y fue un proyecto ambicioso pero lamentablemente muy adelantado a su tiempo...

HotJava fue un navegador web escrito enteramente en el lenguaje de programación Java, y que tenía la particularidad de que era totalmente dinámico y extensible en Java mismo. Eso significa que cualquier desarrollador podía ofrecer módulos en Internet que al ser instalados por los usuarios con un par de clics, modificaban y extendían el mismo núcleo del navegador en formas inimaginables. Y ojo, que no hablo de simples extensiones como es común hoy día en cualquier navegador, sino el poder cambiar el navegador mismo para que este evolucione dinámicamente con nuevas tecnologías. Hablamos de por ejemplo el poder soportar nuevos estándares de video dinámicamente sin necesidad de tener que esperar a que los que desarrollaron el navegador mismo agregaran tal funcionalidad.

Pero aun siendo una de las obras de ingeniería de software más asombrosas de todos los tiempos, HotJava fue un fracaso...

¿Por qué fracasó? Pues lamentablemente aunque la arquitectura de software del navegador en sí estaba adelantada a su tiempo, el hardware ni los otros elementos necesarios para hacer a HotJava lo suficientemente rápido, estaban disponibles hace 19 años atrás.

HotJava era relativamente lento en comparación a otros navegadores de la época, y además Sun Microsystems, no tenía experiencia mercadeando sus productos fuera del sector empresarial.

HotJava necesitaba en esos tiempos no solo hardware más potente, sino además un runtime basado en máquinas virtuales (en donde ejecutaba Java) que fuera más potente, como lo es la JVM (Máquina Virtual de Java) de hoy día, que no solo interpreta código sino que incluso lo compila a formato nativo para aumentar considerablemente su rendimiento a niveles casi de código nativo.

Pero avancemos ahora 19 años al día de hoy, y ha surgido una nueva opción que podría hacer el sueño de HotJava realidad: Breach.

Breach es un navegador que un grupo de talentosos hackers inició a finales del año pasado, y que por fin revelan públicamente ahora, y que tiene la particularidad de ser construido sobre una plataforma dinámica de Javascript.

Javascript es un lenguaje originalmente pensado para simples tares interactivas en páginas web, pero cuya importancia ha crecido considerablemente en años recientes, gracias principalmente a la rivalidad entre los distintos fabricantes de navegadores web que desean siempre poder mostrar las páginas web más rápidas en sus renderizadores, que en los navegadores de sus competidores.

Eso ha llevado a que se hayan creado unos runtimes para Javascript extremadamente optimizados, en donde el código ejecuta ya a velocidades no muy distantes de aplicaciones nativas, y en algunos casos incluso mucho más rápido que aplicaciones nativas en hardware de apenas 5 años atrás.

El crecimiento de Javascript ha sido tal, que lo considero incluso el nuevo lenguaje más importante a aprender en entornos no solo de clientes (en navegadores) sino de servidores, gracias a herramientas como Node.js.

Breach entonces toma ventaja de todo este nuevo ecosistema de Javascript, mezclando justamente muchos de los elementos de Node.js, con el motor de Javascript open source desarrollado por Google para Chrome llamado V8, para con un poco de código adicional crear toda una nueva plataforma para lo que sería el primer navegador web realmente dinámicamente extensible desde HotJava hace casi dos décadas atrás.

Breach quizás no se convierta en el navegador web que finalmente acabe con el reinado de Google Chrome (que debo agregar por años ya ha sido mi navegador web favorito), pero de no hacerlo es posible que inspire a quien finalmente lo haga, sino es que alguien como Google mismo lo adopte (o imite) como la arquitectura para sus futuros navegadores...

En Breach, todo es un módulo escrito con Javascript y renderizado con HTML5 (si tiene un componente visual), y toda su estructura puede cambiarse dinámicamente y de forma segura (a diferencia de node-webkit, que realmente fue diseñado para aplicaciones locales y por tanto no tiene un requerimiento de seguridad muy fuerte), permitiendo por ejemplo que los usuarios modifiquen por completo la funcionalidad y la forma en que se ve su navegador.

Esta personalización obviamente no será para todo el mundo, ya que la mayoría quizás prefiera un ambiente sencillo y funcional sin muchas complicaciones (por eso existen por ejemplo las opciones de Android y iOS en el mundo, o de Windows vs Linux), pero sí servirá cuando menos para dejar las bases de una nueva generación de software que literalmente evoluciona por sí solo, de forma dinámica, sin la necesidad de un control centralizado. O en otras palabras, de una forma similar a como funciona la evolución en todas sus formas en la naturaleza.

Si están curiosos de probar a Breach, visiten el website oficial y descarguen el software. Lo he probado en mi entorno Mac y he quedado totalmente sorprendido. Aun siendo software en etapa "Alpha" (es decir, ni siquiera "Beta" para pruebas), me ha sorprendido su velocidad.

Las páginas inicialmente cargan más lentas que en otros navegadores, pero desde que ocurre esa primera descarga el navegador y su motor V8 optimizan su código interno, y subsiguientes descargas ocurren casi inmediatamente, con posterior velocidad casi indistinguible de cualquier otro navegador en la mayoría de los casos.

Así mismo noten que software al estilo Alpha no es para todo el mundo, y que es bueno saber lo que hacen (y lean lo que les pone Breach en pantalla la primera vez que lo lanzan, o no entenderán cómo utilizarlo), pero como un vistazo al futuro, lo considero invaluable.

El próximo paso para los creadores de Breach es congelar la funcionalidad básica para exponer un API (interfaz de programación) ya estandarizada al cual cualquier desarrollador pueda tener acceso, algo que posiblemente veremos en la primera versión Beta en los próximos meses.

página oficial de Breach

información técnica de Breach

autor: josé elías


Resumen e impresiones eliax de los anuncios del Google IO 2014
eliax id: 11224 josé elías en jun 26, 2014 a las 10:58 AM (10:58 horas)
Google IOeliaxHace unas horas fue la presentación principal de bienvenida (o keynote) al evento Google IO 2014, esta vez a cargo mayoritariamente de Sundar Pichai, el cabecilla de todo lo concerniente a Android dentro de Google, y estas son mis impresiones junto con un resumen de todo lo anunciado...

Leer el resto de este artículo...


autor: josé elías


Editorial eliax: Ha iniciado la guerra de las Geo-Localizaciones móviles en interiores
eliax id: 11208 josé elías en jun 10, 2014 a las 05:57 PM (17:57 horas)
Búsqueda en interioreseliaxDesde hace ya varios años los que han asistido a mis conferencias (particularmente las relacionadas con La Singularidad Tecnológica o con los Titanes de la Industria) han tenido con unos cuantos años de anticipación un vistazo al futuro móvil que nos espera, y hoy quiero hablarles de algo que por fin ha llegado, y que no solo nos está tocando las puertas, sino que entrará con furia indetenible...

Se trata de servicios de localización móvil, o mecanismos que permitirán saber a quienes fabrican nuestros celulares, y a quienes nos proveen de servicios y aplicaciones a través de estos, nuestro lugar exacto en el mundo.

Y no, no estoy hablando de la tecnología satelital GPS que hemos tenido desde los primeros iPhones (y mucho antes que eso en otros dispositivos especializados), sino de localización particularmente en interiores (aunque nada evita que se utilice en exteriores, como en conciertos), o en zonas geográficas bien limitadas y restringidas, como dentro de un shopping mall (centro de compras), restaurantes, cines, bancos, supermercados, etc...

La empresa que lanzó la primera gran piedra en este mercado fue Apple, quien el año pasado lanzó su tecnología iBeacon (y del cual escribí todo un editorial que complementa bastante bien a este), una tecnología que permite que tu iPhone (o iPad o iPod Touch) sepan con tremenda exactitud donde dentro de un espacio especificado estás, como por ejemplo, sentado en una mesa en específico en un restaurante, o en una sala de espera de un banco, o quizás frente a una escultura en particular en algún museo.

Asombrosamente, Apple tenía años planeando esto, y es parte de la razón por la cual ya incluso el iPhone 4S de hace unos años atrás viene con el hardware interno necesario para soportar los iBeacons, y ahora que Apple tiene cientos de millones de dispositivos capaces de detectar estas zonas virtuales, la empresa ha iniciado su asalto para su comercialización y adopción.

En EEUU por ejemplo ya las ligas profesionales de Baseball y Basketball han anunciado el apoyo a esta tecnología, para ofrecer una experiencia única y personalizada a cada visitante de sus estadios, y ya se han iniciado pruebas en importantes cadenas comerciales que van desde ropa hasta comida en los EEUU, todo esto en preparación a lo que desde hace 4 años vengo vaticinando: Un sistema de pagos por parte de Apple atado a iTunes (leer por ejemplo este editorial reciente del año pasado).

Y ahora, tenemos noticia (como les informé hace poco con la fuente en el grupo Developers X en Facebook) en forma de rumores bastante confiables de que Google (tal cual todos esperábamos) entrará también en este mercado para competir contra la plataforma iBeacon de Apple.

Google, al igual que Apple, se ha estado armando hasta los dientes para esta batalla, muestra de eso siendo su adquisición el año pasado de Bump (la aplicación que permite que choques físicamente dos celulares para iniciar una transferencia de un archivo entre ambos por ejemplo), y de SlickLogin (que permite autenticar en formas no-convencionales, como por ejemplo via señales de WiFi, ondas de sonido, o señales de Bluetooth).

Según los rumores, la plataforma de Google se bautizará con el nombre de "Nearby" ("Cercanía"), y como es natural, hará su debut próximamente en una nueva versión de Android (o quizás como una extensión a versiones existentes de Android, que sería lo ideal, dado el grado de fragmentación y baja adopción de nuevas versiones de Android en el mercado).

En cuanto a la filosofía de ambos servicios, Apple ha optado por una que ofrece control a los usuarios finales (estos pueden permanecer totalmente invisibles, y sus datos no son reportados a Apple) y flexibilidad a los comercios (que simplemente colocan sus "beacons" (o "faros") y esperan a los clientes), mientras que Google ha optado irónicamente por una filosofía de control, en donde toda la infraestructura pasa por los servicios de nube de Google, siendo obligatorio incluso que para que los usuarios activen a Nearby que estos se sometan obligatoriamente a tener sus localizaciones monitoreadas por Google (y subsecuentemente disponible en Google Maps como trazos de todos los lugares en donde has estado).

En el caso de Apple, esta se puede dar el lujo de hacer esto ya que la inteligencia de los iBeacons reside localmente en sus dispositivos con iOS, y en las aplicaciones que terceros elaborarán, pero en el caso de Google esta es una empresa que vive de la publicidad y debe mantener un control que le permita gestionar sus anuncios de forma personalizada, siendo tu localización geográfica uno de los puntos claves para esta generar publicidad más efectiva. Así mismo, la inteligencia en el lado de Google yace en su nube, en donde esta deduce tu localización en base a los innumerables datos que posee sobre ti, incluyendo no solo tu localización GPS, sino incluso las páginas que visitas, y con esta tecnología, los lugares que frecuentas.

Y en todo este panorama, no podemos olvidar titanes como Facebook y Amazon, quienes también de una forma u otra entrarán a este mundo, sea por medio de los celulares mismos de la competencia, o con una nueva generación de dispositivos (como los rumoreados celulares de Amazon que serán anunciados muy posiblemente el próximo día 18 de Junio, como les informé vía Twitter hace poco).

Si lo ponderan un poco, este tipo de tecnología será una potente mezcla a nuestras redes sociales, pues ahora empresas como Facebook podrán personalizar aun más nuestra interacción con otras personas cercanas físicamente a nosotros, así como bombardearnos con anuncios locales (¿qué tal el especial de hamburguesa que aparecerá en tu muro de Facebook justo para el restaurante en donde estás entrando ahora mismo?).

Y todo esto es apenas el comienzo. No duden que veremos una manada imparable en los próximos meses/años de empresas creando todo tipo de ideas y modelos de negocios ligados a nuestras localizaciones geográficas en interiores, y aunque para muchos esto será mucha preocupación en términos de privacidad, para otros esto será otra mina de oro en el mundo de los negocios...

Leer el resto de este artículo...


autor: josé elías


GRAN HITO: Inteligencia Artificial pasa la Prueba de Turing, se hace pasar por joven de 13 años (ACTUALIZADO)
eliax id: 11207 josé elías en jun 8, 2014 a las 07:42 PM (19:42 horas)
Turing TesteliaxHoy dimos un paso más hacia un futuro en donde IAs (Inteligencias Artificiales) no solo igualen nuestro intelecto, sino que lo sobrepasen…

Una IA desarrollada por científicos rusos y de nombre "Eugene Goostman" acaba de engañar a unos cuantos jueces que pensaron que la IA era en realidad un joven de 13 años (fuente).

Sin embargo, antes de que entiendan mal la noticia, hablemos de qué realmente fue lo que pasó acá, y así lo ponemos en contexto sobre su real significado (que no deja de ser sorprendente)…

La prueba que esta IA superó se llama la Prueba de Turing (o el Turing Test en su versión original en inglés), y es algo de lo cual les he hablado por años en eliax, y se refiere a un examen desarrollado por el científico Alan Turing (uno de los héroes de mi vida) en 1950 en una obra de su autoría titulada "Computing Machinery and Intelligence". Para el que no lo sepa, Alan Turing es además el padre de La Máquina Universal de Turing, que es el marco teórico bajo la cual funcionan todas las computadoras digitales de hoy día.

La idea detrás del examen es que si uno no puede discernir entre las respuestas que nos da una IA en relación a las respuestas que nos daría una persona, que entonces podemos decir que esa IA tiene al menos la inteligencia que asumiríamos tendría la persona a quienes creíamos estábamos cuestionando.

La prueba se hace de la siguiente manera: Se colocan dos terminales de computadoras en habitaciones diferentes, en donde en una habitación se encuentra el jurado, y en otra se encuentra o una IA o una persona real, y ambos interactúan por medio de una pantalla y un teclado. La idea es que el jurado (que hará todas las preguntas) nunca pueda saber si lo que escribe en sus pantallas en la otra habitación es una IA o una persona tradicional.

Cuando inicia la prueba, el jurado puede hacer cualquier pregunta que le plazca, sin restricciones. Así que por ejemplo le puedes hacer preguntas como “¿Viste alguna de las películas de Harry Potter, y qué te parecieron?”, o “¿Vas o fuiste a algún colegio?”, “¿cuál es el nombre de tu profesor de matemáticas?”, “¿cuáles son tus actividades favoritas?”, “¿cuándo fue la última vez que te enfermaste y qué hiciste tu o tus padres?”, "¿Cómo te sientes hoy?", etc.

En este caso en particular, al jurado se le dijo que estarían entrevistando a un joven de 13 años de nombre Eugene Goostman, y asombrosamente, el programa de IA pudo engañar al 33% de los jueces (es decir, a 1 de cada 3), lo que convierte a esta IA en la primera en pasar la prueba en toda la historia (para pasarla, se requiere que al menos un 30% de los jueces sean engañados).

Así que para empezar, no nos emocionemos bastante pensando que esta IA puede engañar a cualquiera, aunque sí hay que admitir que engañar a 1 de cada 3 personas ya de por sí es un gran hito.

La otra cosa es que el hecho que esa IA pueda engañar a estas personas, no significa que esté consciente de su existencia (lo más probable en este caso es que no lo esté), debido a que es bastante posible que para pasar el examen estemos frente a un super-sofisticado sistema que entiende el lenguaje humano, y que accede a una gran base de datos con posibles respuestas, y se asiste de un componente de reconocedores de patrones (no muy diferente a como quizás funciona los reconocedores de patrones en nuestros cerebros).

Pero aun así, el resultado es momental, y todo este tema de Inteligencias Artificiales recuerda el tiempo cuando la mayoría de personas (incluyendo expertos en varias diversas ciencias) decían que era imposible que una “mente digital” le ganara a un maestro de ajedrez, hasta que Gary Kasparov perdió de la supercomputadora Deep Blue de IBM en 1997...

Después que esa supercomputadora ganó, los previamente escépticos cambiaron su mensaje desde “es imposible” a “esa supercomputadora en realidad no es inteligente, simplemente tenía tanto poder crudo de computación que analizaba de forma bruta las millones de posibles jugadas de ajedrez posibles para así poder ganarle a Kasparov”, pero la realidad que estos escépticos parece no poder ver es el hecho innegable (por la neurociencia) que al final del día nuestros cerebros (y por extensión, todo nuestro ser) no es más que una máquina extremadamente compleja que ejecuta toda forma de cálculos complejos, y particularmente, reconocimiento de patrones.

La única diferencia entre una IA y nuestros cerebros, es que nuestros cerebros hacen computación en un ambiente biológico (específicamente, en un ambiente neuro-químico), mientras que una IA tradicional utiliza computación binaria digital (y en un futuro no lejano, computación cuántica, computación óptica, computación molecular, etc). Pero por pura deducción matemática, es importante notar que cualquier tipo de computación es equivalente a cualquier otra, independientemente de medio en que esta se ejecute.

Sin embargo, a diferencia de nuestros cerebros, que evolucionan a un ritmo extremadamente lento (en relación a nuestras máquinas), las IAs evolucionan exponencialmente, lo que significa que no tardará mucho en que desarrollaremos una IA que iguale el intelecto de la persona promedio, y muy poco tiempo después de esa veremos una próxima generación con un intelecto al nivel de cerebros como los de Einstein o Newton, y debido a que ese crecimiento es incesante (siempre y cuando no nos encontremos con los límites de la física), al poco tiempo veremos IAs con mentes que nos superarán en básicamente todos los sentidos imaginables, desde potencia de cálculo en crudo, hasta inteligencia emocional, artística, o creativa, y cuando ese tiempo llegue, ya sabremos que estaremos en la cúspide de La Singularidad.

Bienvenidos al futuro…

Actualización: Varios lectores han reportado como este logro supuestamente no es lo que parece (todos apuntando al mismo enlace de un escéptico en Internet), sin embargo, escribí un contra-argumento a eso, que pueden leer en mi comentario #24.1 en los comentarios de este artículo.

autor: josé elías


Resumen eliax de lo anunciado en el WWDC 2014 de Apple
eliax id: 11199 josé elías en jun 2, 2014 a las 05:23 PM (17:23 horas)
Apple Inc.eliaxHace unos minutos Apple finalizó su presentación principal/estelar (keynote) de 2 horas para arrancar su evento anual WWDC 2014 (Apple World-Wide Developers Conference), y lo siguiente son unas breves impresiones al respecto, más un resumen de lo presentado...


Impresiones generales
Este evento de hoy se caracterizó por estas cosas:

1. A diferencia de eventos anteriores en donde Apple mezclaba las presentaciones para desarrolladores de software con anuncios de hardware (sean nuevas Macs, iPods, etc), hoy Apple aparenta que decidió que el evento WWDC será exclusivamente para temas de desarrolladores de software (que lo veo muy bien), tocando temas para consumidores solo en esos casos en donde deben hacerlo (es decir, aplicaciones y herramientas que llegan hasta el usuario final).

2. Apple siempre ha sido relativamente diplomática en relación a mencionar a Android en escenario, pero esta vez no tuvo la menor timidez en mencionar todas las debilidades de Android, y en resaltar las de Apple.

3. Apple sin duda que ha tomado pistas de la competencia para mejorar sus ofertas, particularmente de Google y hasta de WhatsApp (detalles más adelante).

4. Aunque rara vez se cuestiona si Apple escucha a los consejos y quejas de desarrolladores o no, esta vez Apple envió un contundente mensaje: Los escuchamos. Y prueba de ello fueron los anuncios del día que van desde extensiones nativas al sistema operativo, hasta un nuevo lenguaje de programación.

5. Estoy bastante seguro que los que esperaban nuevos anuncios de Macs, iPhones, iWatch y nuevos Apple TV, quedaron decepcionados, pero al otro lado de la moneda, este ha sido el keynote de Apple para desarrolladores de software que más me ha gustado de todos en su historia...

6. Finalmente, vimos más que nunca una profunda integración entre iOS y OS X, por lo que creo que este es un excelente momento para leer mis predicciones pasadas sobre lo que bauticé en ese entonces como "iOS X" hace 4 años...

Leer el resto de este artículo...


autor: josé elías


CONFIRMADO: Facebook a crear un mundo virtual masivo con el Oculus Rift. Opinión eliax
eliax id: 11168 josé elías en may 18, 2014 a las 01:21 PM (13:21 horas)
Realidad VirtualeliaxSi recuerdan, en Marzo pasado de este 2014 Facebook anunció la compra de Oculus Rift por la suma de US$2 Mil Millones de dólares, y para muchos esta fue una compra extraña, y otros tantos no entendían la razón de esta compra...

Pero parece que mi análisis y predicción del suceso dieron directamente en el clavo, pues Facebook acaba de anunciar precisamente lo que predije ellos harían con esta tecnología: Una nueva generación de mundos virtuales, una especie de Facebook en un mundo tangiblemente virtual.

Por ahora no tenemos muchos detalles sobre la forma que tomará este mundo al estilo MMO (un mundo masivo en escala para múltiples personas en tiempo real, por sus siglas en inglés), pero si nos llevamos de las palabras que emitió justo anoche el CEO de Oculus, Brendan Iribe, el objetivo es ingresar a al menos "mil millones de personas" a este nuevo mundo virtual.

¿Tendrá éxito Facebook con esto? Pues ciertamente Facebook es una de las empresas mejor posesionadas para hacer esto realidad, junto a empresas como Google, Apple, Amazon, y empresas de video-juegos como Sony, Microsoft y Nintendo.

Y hablando de esos otros jugadores del mercado, es bueno notar (como también publiqué y opiné en Marzo acá en eliax) que Sony ya se está armando para entrar con ambos pies a la batalla de los mundos virtuales inmersivos. No solo ya ha anunciado y demostrado a la prensa su "Project Morpheus", sino además reveló que el motivo de existir la extraña luz detrás de los nuevos controles del PlayStation 4, fue para soportar su tecnología de VR (Realidad Virtual) de Morfeo cuando esta estuviera lista para el mercado, lo que nos indica que la empresa ha estado planeando bien su jugada en el espacio.

Eso de paso hará que las millones de personas que han estado utilizando por años el mundo virtual de Second Life, tomen nota del esfuerzo de Facebook y posiblemente se conviertan en sus primeros grandes adoptantes.

Facebook (y Sony) mientras tanto, tendrán que superar un par de obstáculos antes de que esta tecnología se masifique...

El primero de esos obstáculos es el precio de estos dispositivos. En teoría Facebook debería poder bajar el precio del Oculus Rift por debajo de los US$300 dólares, y si la empresa o Sony llegaran por debajo de los US$200, eso quizás sería suficiente para crear una masa crítica de "adoptantes primerizos" lo suficientemente grande como para que la tecnología se masifique viralmente a cientos de millones de usuarios, o quizás a los miles de millones que aspira Facebook (y es mi opinión personal que tarde o temprano eso sucederá, sea con o sin Facebook. No es cuestión de si sucederá o no, sino más bien de cuando)...

El otro obstáculo es el tema de comodidad de las gafas (pues podrían pesar lo suficiente como para ser incómodas por largos períodos de tiempo) y el tema del lag (retraso entre uno expresar la acción a sus músculos de querer mover la cabeza y el cuerpo, y el tiempo que toma en uno percibir el movimiento dentro del mundo virtual).

Sin embargo, en ambos casos aparenta que estas empresas están avanzando muchísimo, y además es importante notar que una de las grandes ventajas del Oculus Rift (y posiblemente de PS Morpheus) es que son una de esas tecnologías que cuando uno las prueba por primera vez uno queda anonadado. Similar al efecto que tuvo el novedoso control WiiMote del original Nintendo Wii, por lo que cuando menos el factor "¡uao!" está a favor de ellos, y no duden que más allá de Facebook y Sony que tarde o temprano veremos a los demás jugadores entrar también al mercado...

Y a propósito, parece que esta otra predicción mía de hace un par de años también se está haciendo realidad...

autor: josé elías

"Segunda vez que te escribo, llevo prácticamente leyendo desde tus inicios más como feliz espectador que como activo comentarista y no podría aunque sea en la recta final quedarme sin agradecerte tus palabras opiniones, enseñanzas, visiones e incluso pasiones que gracias a ti he conseguido descubrir, no sólo yo sino amigos a los que he recomendado insistentemente tu blog. Para mañana cerraré todas las pestañas del navegador(me llevará un rato) y dedicaré una exclusiva a uno de los mejores blogueros e intuyo, personas que he conocido. Mis mejores deseos para ti y los tuyos, para todo lo que hagas y te propongas y si nos echas de menos y necesitas contar alguna nueva reflexión, ten por seguro que si lo avisas por eliax, yo lo veré. Grande"

por "Sergio" en feb 9, 2014


en camino a la singularidad...

©2005-2015 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax