Software
viernes, junio 18, 2010
|
![]() Ahora, unos 13 años después, IBM está a punto de hacer historia otra vez, con una nueva super-computadora de última generación a la que llama Watson. Yo ya les había hablado de esta máquina en Abril del año pasado, y recomiendo lean ese artículo junto con (o antes de) este, ya que este artículo de hoy es en realidad una continuación de ese, con el fin de actualizarlos sobre el avance de IBM. Esta máquina está siendo desarrollada con novedosas técnicas de hardware y software para nada mas y nada menos competir contra Ken Jennings en el popular juego de televisión estadounidense "Jeopardy!", en donde en el 2004 ganó 74 veces consecutivas en ese programa, ganando US$2.52 Millones de dólares acumulados. Hoy los actualizo dejándoles saber que en su estado actual hoy día, Watson ya ha sido capaz de ganarle a dos expertos jugadores de Jeopardy! (Dorothy Gilmartin y Alison Kolani) en 4 partidos de 6 jugados, esto en preparación para un futuro partido contra Ken Jennings (aunque noten que por el momento, esta es una excepción a la regla, ya que muchos buenos jugadores de Jeopardy! aun le pueden ganar). Lo extraordinario de este logro es que Watson juega el juego tal cual lo juegan los otros jugares: Se crea un set al igual que la TV, se trae un anfitrión, los jugadores todos toman su posición (aunque Watson en realidad está en una habitación llena de máquinas en el piso de arriba, por lo que su "presencia" en realidad es virtual), y a Watson se le dan las preguntas a la misma vez que a los otros participantes, y tiene la misma cantidad de segundos para contestar que los otros participantes. Mas asombroso aun, es que Jeopardy! no es un simple juego de preguntas y respuestas repetitivas, sino que uno que requiere de un muy profundo conocimiento tanto de historia y cultura popular actual, como de las mas mínimas idiosincracias del idioma inglés, incluyendo frases de doble significado, el uso de sarcasmo, etc. En otras palabras, Watson no es un simple "sistema experto", sino uno que debe literalmente aprender millones de datos constantemente, hacer relaciones entre ellos, poder estudiar lo que sea que se le pregunte, y computar (muchos dirían, reflexionar) una respuesta. En su modo actual, a Watson se le puede hacer prácticamente cualquier pregunta que uno se pueda imaginar de los miles de temas que se tratan en Jeopardy! (y muchos otros mas fuera de este), y está ya a un nivel que puede ofrecer respuestas mas confiables que muchos humanos promedios. Como dicen en el artículo, Watson es similar a Google en que le puedes preguntar lo que sea, pero con la diferencia de que verdaderamente entiende lo que tu le preguntas, y además, no te ofrece un lista de miles de enlaces en donde quizás esté la respuesta que buscas, sino que te ofrece una única respuesta final, tal cual te la daría cualquier ser humano (la cual, a propósito, te la dice Watson directamente con una voz sintética). Uno de los grandes avances que han permitido este tipo de máquinas, es el uso de análisis estadístico en la comprensión del lenguaje, así como en la extracción de información, algo que por décadas había sido impráctico hacerlo a la escala que se hace hoy día, dado los fuertes requerimientos computacionales para procesar el lenguaje natural humano. Con análisis estadístico, es posible por ejemplo no pensar como una computadora clásica en donde todo es un sí o un no, sino que como una mente mas flexible, en donde es posible aceptar valores intermedios, así como los valores que mas se aproximen a una respuesta final, aun no sea precisamente la respuesta final. Esto permite por ejemplo que estas máquinas hagan el equivalente de "adivinar" o "razonar para proveer la respuesta mas educada posible según los datos conocidos" para así ofrecer posibles respuestas a las preguntas que se le hacen. Otro de los trucos detrás de Watson es el hecho de que aparte de conocer miles de textos de referencia (diccionarios, guías, tesauros, manuales, etc), Watson no aplica una sola manera de "entender" este conocimiento, sino que utiliza centenares de distintos algoritmos, todos en paralelo, para entre todos poder descubrir cuales son las respuestas mas estadísticamente posibles para alguna pregunta determinada. Así que como ven, no estamos lejos de este escenario del cual les hablé apenas el año pasado. Mientras tanto, si quieren tratar de competir contra Watson, pueden intentarlo (posiblemente futilmente) en este enlace. ¡Gracias al lector Juan Pablo Arellano Báez por recordarme actualizar esta noticia en mi perfil de Facebook! Página oficial de Watson en IBM Un largo artículo sobre Watson en The New York Times Actualización: Video de Watson y Jeopardy! (enlace YouTube)... autor: josé elías |
![]() |
![]() |
lunes, junio 14, 2010
|
![]() Hoy, agrego mi definición a las miles que ya existen, y recuerden, no tienen que estar de acuerdo con esta definición, es solo mi observación personal de lo que creo es la definición más fundamental de lo que es la vida. Quiero aclarar además que este artículo está escrito para que cualquier persona lo pueda entender, por lo que muchos términos científicos los he simplificado por motivos didácticos. Iniciemos sin embargo revisando algunas definiciones populares del término... Para la persona común (y no me refiero con eso a "personas de bajo intelecto", sino que a personas que por lo general no ponderan con frecuencia sobre estos temas filosóficos), "vida" aparenta ser algo muy sencillo. Un perro que camine es vida, una persona que respire está viva, una planta de un saludable color verde está viva, un ave que vuele está viva, y así sucesivamente. Por otro lado, una roca inerte, un pedazo de tela, una hamburguesa, o un lápiz, son objetos que clasificamos claramente como "sin vida". Sin embargo, esa definición no es lo suficientemente explícita como para abarcar todas las observaciones que podemos ver del mundo en que vivimos. Por ejemplo, existen organismos que no respiran, y que sin embargo consideramos como vivos. Existen especies de hongos que si no es porque notamos su forma y comparamos a otros hongos aparentarían muertos, y más recientemente está el tema de programas informáticos de Inteligencia Artificial, muchos de los cuales ya se replican ellos mismos, y esperamos en las próximas décadas que tomen conciencia de ellos mismos. ¿Podemos declarar a estos seres, vivos? ¿Y que tal si en un futuro viaje espacial nos encontramos con un plasma flotando en el espacio que aparenta ser agua flotando y aparenta que evoluciona, cómo sabremos si está vivo o no? Así que aquí va mi definición "rigurosa" sobre lo que creo podemos considerar "algo vivo": "Vida" es todo patrón que prolongue su proceso natural de disolverse por entropía. ¿humm? ¿qué significa eso? Esa es una oración que solo puede entender alguien que sepa un poco de física, mecánica cuántica, termodinámica, cosmología, u otras ciencias similares, pero no se preocupen, que a continuación me explico... La palabra que sin duda llamó la atención en mi definición fue "entropía". ¿Pero, qué es entropía? Antes de continuar quiero aclarar que yo no soy el primero que opina que para definir vida debemos asociar su definición a entropía. El famoso científico Erwin Schrödinger ya había sugerido en el siglo pasado que la esencia de la vida es "la tendencia natural de uno evitar ponerse en equilibro con nuestro medio ambiente", lo que es básicamente lo mismo que estoy diciendo yo, por lo que no me voy a llevar el crédito de mi definición, aun haya pensado en ella independientemente de Schrödinger. Regresando al tema, entropía es una de las cualidades mas fundamentales de nuestro universo, y algo que toda persona debería al menos tener una idea de lo que se refiere, y para explicarla voy a mencionar la llamada "Segunda Ley de la Termodinámica", que es otro concepto universal que debería ser parte del conocimiento de la cultura popular. La Segunda Ley de la Termodinámica (no se preocupen de la palabra "termodinámica", asuman simplemente que se refiere a la ciencia que estudia el movimiento de gases y líquidos, aunque en realidad aplica a todo el Universo) dice lo siguiente: "La entropía de cualquier sistema aislado que no esté en equilibrio tenderá a incrementar con el tiempo hasta un estado de equilibrio." ¿hum? Ahí volvemos a la palabra "entropía", la cual ya si vamos a tener que definir antes de continuar. Entropía, en términos sencillos (aunque en realidad es un poco mas profundo que la definición que voy a dar) y a nivel superficial no es mas que "el grado de desorden o desorganización" de un sistema. Por ejemplo, un escritorio bien organizado tiene "baja entropía", pero un escritorio con papeles por todos lados, lápices rodando por doquier, y café derramado sobre su superficie, se dice que está en un estado de "alta entropía". Así que lo que La Segunda Ley de la Termodinámica nos dice es muy sencillo: "En cualquier sistema aislado, es normal que el sistema tienda a desorganizarse", cosa que por instinto sabemos es así, pues no importa cuan tan bien organicemos nuestra colección de CDs o DVDs o libros, eventualmente alguien vendrá, cambiará algo de lugar, y entraremos en desorden. Similarmente, no importa que tan bien organizados entremos todos a un partido de Futbol, al final el estadio quedará con miles de botellas de cervezas, coca cola, papeles, y todo tipo de basura. Lo mismo ocurre en un accidente automovilístico: Inicialmente ambos vehículos están bien "ordenados", pero después del accidente terminan contorcionados, doblados, con puertas rotas, pintura rayada, etc. Entropía es una parte natural de nuestras vidas, una parte intrínseca del funcionamiento de nuestro universo, y si alguien pensó mientras leía el último párrafo "¡pero es posible arreglar un auto y volverlo a poner tal cual estaba antes!", entonces ya están pensando en la misma dirección a donde me dirijo... Sucede entonces que entropía (o la tendencia de dirigirnos hacia el desorden, o como dirían algunos científicos, hacia tener solo energía que no es utilizable) es la tendencia natural de todo el universo. Si dejamos un sistema aislado por su cuenta por decenas, centenares, miles o millones de años, el Universo nos garantiza que eventualmente eso que dejamos estará en un estado de "alta entropía" o de "gran desorden". Pero, ¿qué tiene eso que ver con la vida? Pues ahí entra mi definición: Vida es todo aquello que prolonga su proceso natural de dirigirse hacia un estado de mayor entropía. Para entender mejor, he aquí un ejemplo: Cuando alguien muere, si lo dejamos acostado sobre una mesa, sabemos lo que ocurrirá, el cuerpo se descompondrá, moscas vendrán, gusanos se comerán el cuerpo, un gran olor emanará, y eventualmente el cuerpo se "disolverá en el tiempo", quizás en el plazo de unas semanas. Sin embargo, otra forma más rigurosa de verlo es que lo que ha ocurrido es que el cuerpo ha pasado a un estado de "alta entropía", o de gran desorden de sus músculos, huesos y átomos. Eso al contrario de una persona que consideramos "viva", que en el plazo de algunas semanas se ve casi idéntica a años atrás, pero, ¿cuál es la diferencia? La diferencia crucial es que la persona "viva" prolonga su proceso natural de descomposición, inheriendo alimentos que producen reacciones químicas dentro de su organismo que retrasan el proceso de llegada del estado que llamamos "muerte" o "sin vida". Comparemos eso por ejemplo a una roca. Una roca eventualmente se desgastará, ya que esta no tiene un proceso intrínseco de auto-regenerarse para contrarrestar los efectos naturales causados por la entropía universal. Similarmente, todo objeto que consideramos "no vivo" actúa (o mas bien, deja de actuar) de la misma manera, y por eso se desgasta con el tiempo. Entonces, el hecho de que un objeto se regule a sí mismo, y se perpetue mas allá de lo "natural" para dejar de existir debido a causa de la entropía intrínseca del universo, es en mi opinión el mejor método de poder detectar (y clasificar) a algo como "vivo", y que tenemos "vida" frente a nosotros. Finalmente, noten algo importante: Esto no hace distinción alguna sobre si lo que consideramos vivo tiene "carne y hueso" o es un posible robot del futuro o software de Inteligencia Artificial. Bajo esta definición, la vida no está restringida solo a seres biológicos, sino que se extiende a todo patrón universal que prolongue su existencia más allá de lo programado por la entropía del Universo, algo que sin duda tendrá profundas implicaciones sociales, culturales, ideológicas, legales, económicas y filosóficas (entre otras) en las próximas décadas... Nota a curiosos: La imagen que acompaña este artículo es un dibujo de mi autoría que hice en el 1990, titulado aptamente "Life" (o "Vida"), y realizado con lapicero común de tinta negra sobre una hoja de papel blanca. Dentro del ojo de la imagen aparece el feto de un bebé como si estuviera dentro de una placenta. Aquí y aquí pueden ver unos otros cuantos de mis dibujos. Nota a físicos: Como dije inicialmente, estoy bastante consciente de algunas simplificaciones que hice. Por ejemplo, se genera mas entropía en el proceso de mantener a alguien vivo que en el proceso de la muerte misma, pero recuerden que hablamos de retrasar el proceso natural de entropía del organismo, no de dejar de crear entropía (que sería imposible en estos ejemplos). Así mismo por proceso natural me refiero a lo que hubiera ocurrido con el organismo si este no hubiera tratado de contrarrestar los efectos de entropía en la descomposición de sus patrones básicos. Finalmente, en realidad no existe nada "natural" o "artificial" en el Universo, sino que todo simplemente "es", pero eso ya es material para otro artículo, o si tienen curiosidad, los refiero a mi libro Máquinas en el Paraíso. autor: josé elías |
![]() |
![]() |
sábado, junio 12, 2010
|
![]() ![]() Twitter a propuesto que pronto implementará un cambio en donde ahora todos los enlaces que aparecen en los tweets (mensajes de twitter) tendrán que pasar y ser filtrados por Twitter primero, y después de eso entonces Twitter enviará a los usuarios al destino final. En otras palabras, Twitter empezará a hacer lo que hacen servicios como bit.ly, que no solo acortan los URLs (enlaces), sino que además llevan estadísticas de todos esos enlaces. Twitter obviamente ha despertado y entendido que hay una mina de oro de información en esos enlaces, pues estos datos sirven no solo para detectar tendencias, sino que además como una potente herramienta de publicidad. Esto afectará a los usuarios y desarrolladores de las siguientes maneras: 1. Es posible que ahora los "recortadores" de enlaces (es decir, los que tornan esos enlaces pequeños, como bit.ly o tinyurl.com) sean reemplazados por herramientas directamente proveídas de Twitter. Esto en teoría debería ser transparente para el usuario final, pero puede afectar como usuarios utilizan a Twitter directamente desde twitter.com en vez de un cliente de Twitter para Windows, Mac, Linux. iPhone, Android, etc. 2. Los enlaces ahora aparecerán en los tweets (al menos, según la propuesta actual de Twitter) en su forma original y no en su forma recortada. Eso significa que en vez de un usuario ver esto actualmente: Desde eliax.com: GRAN HITO: IKARUS, primer Velero Solar Espacial desplegado exitosamente: http://bit.ly/9YK3xM Que ahora vería esto: Desde eliax.com: GRAN HITO: IKARUS, primer Velero Solar Espacial desplegado exitosamente: http://www.eliax.com/index.cfm?post_id=7813 Y eso es algo que quizás confunda a muchos inicialmente, especialmente si los URLs son mucho mas largos que en este ejemplo. 3. Debido al punto anterior, los programadores que creen clientes de Twitter deben ahora estar conscientes de que el largo máximo desplegable de un tweet no es 140 caracteres, sino que un largo arbitrario. Es decir, ahora habrán dos longitudes: El largo del tweet (que se mantendrá en 140 caracteres como siempre ha sido), y el largo a nivel del API y que se mostrará al usuario que será de un largo indefinido. 4. Los desarrolladores de clientes de Twitter serán obligados a utilizar el recortador de URLs de Twitter, y de la manera que Twitter hará esto será a través del TOS (Terms Of Service - el documento legal con el cual deben estar de acuerdo los desarrolladores de soluciones para Twitter). 5. Según Twitter, todo URL que salga en un tweet ocupará internamente un espacio de exactamente 20 caracteres de los 140 máximos. Eso significa que si utilizas servicios como bit.ly y tu código está formateado para 18 caracteres, que deberás hacer cambios o muchos de tus tweets serán de 141 o 142 caracteres de largo y será rechazados por Twitter y no saldrán al aire. Según Twitter, todas estas medidas son "para proteger al usuario final de URLs malignos", sin embargo todos sabemos que la real razón de hacer esto es el tener el poder y control de esos URLs que le significarán un gran beneficio a Twitter al largo plazo. Noten que ya esta "protección al usuario final" la ofrecen servicios como bit.ly hoy día, por lo que esa razón es solo un disfraz. Aquí los que saldrán perjudicados son empresas como bit.ly, quienes diariamente procesan cientos de millones de URLs. Mientras tanto los desarrolladores de soluciones tendrán que adaptar sus aplicaciones para que funcionen con las nuevas normas, y los usuarios finales verán poca diferencia salvo la gran excepción de los URLs alargados cuando estos se desplieguen. Algo que me preocupa de todo esto es si Twitter tendrá la capacidad de procesar los cientos de millones diarios de URLs que le generará esta iniciativa, pues apenas con los tweets normales hoy día ocurre con frecuencia que el servicio se cuelga porque llega a su mas alta capacidad. Finalmente, un comentario que quiero hacer es que creo que ya que Twitter va a cambiar la forma que funcionan sus APIs, ¿por qué no hacer las cosas bien de una vez y adoptar el mismo esquema estándar de URLs de la web para sus enlaces? Es decir, en vez de que aparezca un URL recortado o extendido (original), ¿por qué poner el nombre del enlace? Es decir, utilizar la etiqueta A HREF de HTML. Eso haría que en vez de los usuarios ver un URL, que vea una frase mas apropiada. Siguiendo mi ejemplo anterior el usuario vería entonces esto: GRAN HITO: IKARUS, primer Velero Solar Espacial desplegado exitosamente: fuente en eliax ¿No es eso mucho mejor? Fuente oficial de estos cambios en blog de Twitter Mas datos técnicos en el grupo Twitter Development Talk autor: josé elías |
![]() |
![]() |
|
![]() Se trata de un proyecto llamado Galaxy Zoo, que no es mas que una página en donde cientos de miles (a la fecha, sobre un cuarto de millón de personas) se unen y se les otorga simples tareas, como por ejemplo, clasificar galaxias (decir por ejemplo si es redonda, elíptica, espiral, etc), lo que ayuda enormemente a la ciencia. Este es el tipo de proyecto llamado crowdsourcing en donde grandes grupos de personas forman una inteligencia colectiva para atacar grandes problemas, y este sin duda es uno de los mas exitosos (otro gran ejemplo, aunque con fines comerciales, es el Amazon Mechanical Turk). La idea detrás de Galaxy Zoo es que varias personas miren y clasifiquen las mismas fotografías, y después se toman aquellas en donde casi todas las personas estuvieron de acuerdo (por ejemplo, 17 de 20 personas marcaron la foto de una galaxia en particular como elíptica), lo que por un lado (1) clasifica correctamente las galaxias con un mínimo margen de error, y (2) evita los siempre-presentes Trolls que clasifican mal las fotos adrede. Así que si tienen unos minutos libres de vez en cuando, y quieres aportar algo a la ciencia, esta es una buena oportunidad de hacerlo. Y si quieren ayudar en proyectos similares pero en el área de salud, este es otro proyecto interesante. Página oficial de Galaxy Zoo autor: josé elías |
![]() |
![]() |
jueves, junio 10, 2010
|
![]() ![]() ![]() De cristalizarse este esfuerzo de canonical, estaría compitiendo no solo con el iOS del iPad, sino que además con las muy posibles ofertas de Google (con Android OS) y HP (con el Palm Web OS). Como muchos ya saben, Linux es un sistema operativo que se adapta a todo tipo de ambientes, desde micro-servidores, hasta super-computadoras. En este caso de los tablets, según Canonical, el reto consistirá en adaptar a Ubuntu Linux a un ambiente con un interfaz de usuario muchísimo mas sencillo, con gestos multi-táctil, y para uso con los dedos (aunque asumo que también para uso con lápices digitales). En mi opinión, aplaudo el esfuerzo, pero como siempre he dicho, si no ofrecen el equivalente a una verdadera tienda de aplicaciones (y no hablo de los simples repositorios tradicionales de Linux derivados de UNIX), este tipo de esfuerzos tendrán a fracasar ante soluciones mas completas como las de Apple y Google, por lo que creo Canonical debe acelerar el desarrollo de tal tienda de aplicaciones para Ubuntu, como una vez aludió estaba creando. Por otro lado, creo que Canonical y la comunidad Linux en general hacen bien en empezar a adoptar el modelo del iPad lo antes posible, pues el iPad muy posiblemente represente el primer dispositivo que empiece a dejar atrás la era de la PC tradicional. Fuente de la noticia autor: josé elías |
![]() |
![]() |
miércoles, junio 9, 2010
|
![]() Ahora les tengo noticia de que Google acaba de sacar Caffeine de los laboratorios de Google, y es ahora el indexador oficial de datos de la empresa, que promete no solo resultados 50% mas recientes (es decir, mas "tiempo real" que antes), sino que mas extensos y relevantes, lo que significa que Google no se ha dormido en sus laureles y continúe innovando constantemente para mantenerse como el mejor buscador de información en la web por el momento. Sin embargo, lo que mas asombrará quizás son los datos estadísticos sobre su funcionamiento: - Cada segundo Caffeine procesa "ciento de miles" de páginas en paralelo. - Cada segundo la cantidad de información compilada por Google es equivalente a una pila de hojas de papel de 3 millas (casi 5km) de alto. - La base de datos actual de Caffeine ocupa actualmente unos 100 millones de GigaBytes de espacio. - Caffeina está añadiendo información constantemente a un ritmo actual de "cientos de miles de GigaBytes" por día. - Se necesitarían 625,000 iPods de los de mas grande capacidad para almacenar lo que Caffeine almacena en un solo día, y estos iPods si se colocaran uno al lado de otro medirían 40 millas (unos 64km) de largo. Fuente oficial de los datos Enlace a un video sobre cómo funciona Google autor: josé elías |
![]() |
![]() |
|
Hola, estas Breves es porque como algunos ya se imaginarán, eliax está actualmente en Modo de Baja Productividadtm :)
Hoy la mayoría de las noticias son relacionadas al nuevo iPhone 4, ya que obviamente esa es la gran noticia del momento en todo el mundo. Aquí vamos... 1. Si quieren ver todo el video del lanzamiento del iPhone 4 por Steve Jobs en el WWDC 2010, pueden verlo por fin en este enlace. 2. En mi análisis de ayer sobre el FaceTime que Apple introdujo con el iPhone 4, hice la observación de que Skype debería adoptar esta tecnología con miras a posiblemente convertirse en el principal proveedor de soluciones FaceTime del mundo. Pues adivinen qué, ya surgieron los primeros reportes de que Skype está dispuesto a adoptar el protocolo, lo que significaría que en el momento que Skype lo implemente que sería posible que todo usuario de los nuevos iPhones con FaceTime, así como los usuarios de Skype, se puedan llamar directamente unos a otros. Inició la revolución del FaceTime... fuente 3. Para los que no lo notaron, Apple cambió oficialmente el nombre del sistema operativo "iPhone OS" a simplemente "iOS". Muchos notaron que la empresa CISCO ya utilizaba ese nombre. No se asusten, no habrán demandas, Apple licenció el nombre de CISCO, así como obtuvo derechos para el nombre FaceTime. El cambio sin duda tuvo que ver para hacer notar que iOS ya no es solo para celulares iPhone, sino que para toda una nueva generación de dispositivos como el iPad, iPod Touch, y el rumoreado Apple TV con iOS y acceso a su propio App Store (Tienda de Aplicaciones). 4. Para los que han hecho la pregunta varias veces, iOS 4.0 saldrá el 21 de este mes de Junio. Lo que no está seguro es si esa es una fecha universal o solo para EEUU (aparenta ser universal). Ya sabremos en un par de semanas... Noten que solo será compatible con el iPhone 4, el iPhone 3GS, y el iPhone 3G (parcialmente, algunas cosas como el multi-tasking no funcionarán). El iPhone original ("2G") no será compatible. Así mismo la última generación del iPod Touch también parece que será soportada en iOS 4.0. 5. Adobe continúa su marcha de aceptación de que HTML5 es el futuro, proveyendo poco a poco herramientas de transición desde Flash, como sugerí deberían hacer. Lo último que ha hecho es asociarse a la empresa Greystripe que creó una herramienta que convierte objetos Flash a objetos HTML5 (con Canvas, Javascript, SVG, etc). Esto es muy similar a lo que hace la herramienta Gordon de la cual les hablé previamente en eliax. fuente 6. En EEUU el precio del modelo básico de 8GB del iPhone 3GS bajó a US$99 dólares, y el iPhone 3G ya se ha retirado de las lineas de producción y no se venderá mas. También podrás obtener el 3GS de 16GB por US$149 y el 3GS de 32GB por US$199 (el mismo precio que el iPhone 4 de 16GB). Todos estos precios son con contratos de 2 años. 7. Es confirmado: La aplicación iMovie para edición de video en el iPhone 4 no vendrá incluída con este, y costará US$5 dólares en el App Store. Noten que el iPhone 4 no necesita esta aplicación para hacer ediciones básicas, como ya se puede hacer en el iPhone 3GS, sino que lo que iMovie provee es una herramienta para hacer edición no-lineal de video en un dispositivo móvil. Falta confirmación oficial de que iMovie funcione con el iPhone 3GS también. 8. Los hackers ya han logrado instalar el iOS 4.0 en modelos actuales del iPhone sin permiso de Apple. Si se quieren arriesgar y no pueden esperar un par de semanas mas por la versión oficial, sigan los pasos aquí y aquí. autor: josé elías |
![]() |
![]() |
martes, junio 8, 2010
|
![]() ![]() En el caso del anuncio de hoy del iPhone 4 de Apple en el evento WWDC 2010, no creo que lo importante haya sido el iPhone 4 mismo, sino mas bien la tecnología FaceTime. Dentro de 5 años ya nos habremos olvidados del iPhone 4, pero para entonces todos estaremos siendo afectados todos los días por FaceTime. No lo duden, FaceTime es una tecnología revolucionaria en todo el sentido de la palabra. Pero, ¿que es FaceTime? A simple vista aparenta ser un competidor de Apple iChat, o de Skype, o incluso de las telefónicas tradicionales, pero FaceTime tiene el poder de ir mucho mas allá, y esto afectará profundamente al mercado de la telefonía tradicional y de VoIP. FaceTime es en realidad un conjunto de tecnologías que se superponen encima de cualquier plataforma de comunicación de datos, para ofrecer una nueva generación de servicios de comunicación basados en video y voz. FaceTime por ejemplo podría muy bien funcionar junto con Skype, para permitir que cualquier usuario de Skype se comunique con cualquier usuario de FaceTime, no solo en iPhone, sino que en cualquier plataforma que implemente FaceTime, como bien podría ser el Google Android OS, BlackBerry, Symbian, Java, PlayStation 3, Xbox 360, Windows, Linux, etc. Es decir, FaceTime es el primer y verdadero sucesor universal a la telefonía que hemos venido utilizando desde el invento del mismo teléfono. Muchos dirán, ¿pero no es ya VoIP el sucesor de la telefonía tradicional? Y aunque aparente que sí, existen serios problemas aun con la forma en que es implementado actualmente. Por ejemplo, con Skype todo el mundo tiene que ser miembro de la plataforma propietaria de Skype, y en cuanto al resto de toda las otras soluciones, se requiere de alguna terminal que haga un interfaz con el mundo analógico tradicional que está ligado a números tradicionales, así como tener que crear cuentas de usuario, configuraciones de redes, firmar contratos anuales o mensuales, etc. Con FaceTime sin embargo, algo interesante ocurre: No importa con cual tecnología final se comunique el usuario, si sigue los estándares de FaceTime se podrá comunicar con cualquier otro usuario del mundo. En otras palabras, FaceTime en esencia crea un nuevo nivel de abstracción en donde se crea el equivalente a líneas telefónicas tradicionales pero en el mundo digital. Y esto podría significar problemas a largo plazo para Skype y tecnologías similares, porque ya estas no tendrían mucha oportunidad de dominar el mercado, ya que ahora no habría nada que dominar. FaceTime es una tecnología libre que ofrece lo mejor de ambos mundos: la facilidad de llamar a cualquier persona en el mundo (como el mundo analógico), y la capacidad de poner un nivel de audio-video encima de esa comunicación (como el mundo digital). Eso no significa que Skype desaparecerá de la noche a la mañana, pues Apple primero tiene que conseguir el apoyo de la industria (cosa que no será difícil, ya que Apple dice que abrirá por completo el protocolo y cederá control a una entidad neutral de estándares), y además Skype se podría reintentar como el mas grande proveedor de soluciones FaceTime (si es que entienden la amenaza a la que se enfrentan a largo plazo). Skype por ejemplo podría ofrecer servicios avanzados como mensajería empresarial, gestión de múltiples contactos en una misma empresa, grabado de mensajes visuales, etc. Por otro lado, es ahora totalmente factible por ejemplo que incluso se vendan cajas de FaceTime que se conecten a WiFi para teléfonos hogareños tradicionales, y que cuando alguien te llame por la vía tradicional (cables telefónicos analógicos, a un número telefónico tradicional) que con FaceTime se haga un traspaso de la llamada para hablar con video, y todo sin crear cuentas de usuario, configurar absolutamente nada, y sin riesgos de que los equipos de origen o destino sean incompatibles para hacer videoconferencia. Otra razón por la cual FaceTime podría ser muy exitoso, es el hecho de que ofrece un "puente" para que las empresas de telefonía terrestre y móvil facturen por servicios de telecomunicación a través de Internet. Esto se debe a que si todos utilizamos un mismo estándar de video y voz, que entonces se puede cobrar de manera homogénea en todo el mundo por esos servicios (cosa que al largo plazo no importará ya que pagaremos por datos crudos, pero mientras tanto las empresas necesitan un modelo de transición que no sea muy traumático). Y lo mejor de todo es que esta tecnología en principio no tiene que estar ligada ni a los números telefónicos tradicionales ni a IDs de servicios de VoIP, por lo que en teoría estamos entrando a un mundo de telefonía verdaderamente universal similar a direcciones de email, en donde uno pueda comunicarse con otra persona llamado o a un número telefónico, o a una cuenta de email, o incluso a una cuenta de Facebook, Twitter, Google, Windows Live o Apple MobileMe. Algo que quiero aclarar es que mucho de lo que escribí aquí es especulación de mi parte basado en lo poco que vi hoy de FaceTime, pero si esta tecnología es al menos cercana a lo que me imagino, estamos sin duda entrando a una nueva era en la comunicación humana en el planeta. Antes de cerrar el artículo estoy seguro que muchos de todas maneras querrán saber mi opinión del iPhone 4 en sí, y mi opinión es que Apple ha vuelto a ponerse a la delantera en términos de hardware, y distanciado mas de la competencia en términos de software, el cual ahora ha corregido casi todos pormenores de los cuales unos cuantos se quejaban. La implementación de multi-tarea por ejemplo, aun no sea un verdadero sistema multi-tasking como implementado en Android OS, es sin embargo el sistema mas fácil de utilizar por usuarios, lo que sin duda le darán uso en esta encarnación. En cuanto a la pantalla de 326dpi y resolución de 960x640 con tecnología IPS, es sin duda alguna la pantalla que servirá como punto de referencia en la industria, y una con la cual Apple podrá expandir su creciente imperio en el mercado de libros electrónicos con sus iBooks y su iBookStore (que de paso ahora aceptan libros en formato PDF aparte de EPUB). Por otro lado, el nuevo giroscopio de 3 axis traerá toda una nueva dimensión de interactividad y precisión a aplicaciones del iPhone OS, y la nueva batería ofrecerá hasta un 40% mas poder que en modelos actuales del iPhone. Y hablando del iPhone OS, Apple le ha cambiado el nombre oficialmente a "iOS", sin duda como forma de querer decir que iOS no es solo para el celular iPhone, sino que para toda una nueva generación de dispositivos como iPhone 4, iPad, iPod Touch, y sin duda otros como el rumoreado Apple TV con iOS. Y ahora, para conectar mis pensamientos de FaceTime y el iPhone 4, debo agregar que creo que la sencilla implementación de video-conferencia del iPhone 4 por medio de FaceTime será un hito en la industria en donde por primera vez se masificará el uso de videconferencias en todo el mundo, de manera similar a como Apple masificó la compra de música por Internet, el uso de celulares inteligentes, y el uso de aplicaciones móviles con su App Store (y pronto también hará con libros electrónicos y su iBookStore). En resumen, un día bastante bueno para Apple y nosotros los consumidores autor: josé elías |
![]() |
![]() |
jueves, junio 3, 2010
|
![]() ![]() Antes de analizar esta movida, primero aclaremos un poco de terminología para entender esto mejor. ¿Qué es Windows Embedded Compact 7? Pues aunque no es evidente a primera lectura de la poca literatura disponible por el momento, este es en realidad el sucesor a Windows CE (por lo que podemos también llamar a esto "Windows CE 7"). Sin embargo, no confundan esto con Windows Embedded Standard, que es en realidad el sucesor de Windows XP Embedded y que no tiene nada que ver con Windows CE (si están confundidos, no se preocupen demasiado, creo que incluso los mismos que dan nombres a estos productos dentro de Microsoft deben de confundirse también de vez en cuando). Esa aclaración es importante porque hay un dato que muchos desconocen sobre el otro sistema operativo que Microsoft anunció recientemente, el Windows Phone 7, y el cual fue recibido con muy buenas críticas por la industria (incluyendo de parte mía): Windows Phone 7 en realidad no es un nuevo sistema operativo (como Microsoft logró a hacer creer a los medios cuando lo anunció), sino que está basado en Windows CE. La importancia de eso es notar que Microsoft ahora tiene al menos 3 sistemas operativos independientes unos de otros, dos de los cuales creo que van a confundir al mercado. Tienen a Windows 7 en escritorios (junto con las versiones Server para servidores), pero en el espacio móvil ahora tenemos dos vertientes diferentes: Windows Phone 7 para celulares, y Windows Embedded Compact 7 para lo que principalmente serán tablets. ¿Por qué? Eso es algo que debo admitir no entiendo, y que al menos que haya algo que aun no sabemos (como por ejemplo, compatibilidad entre ambos), creo que Microsoft está cometiendo un error. Noten que no hablo de que ninguno de estos sistemas operativos no vayan a ser relativamente exitosos entre sí, sino que van a conducir no solo a confusión, sino que a grandes limitaciones por parte de los consumidores. Por ejemplo, al momento no vemos indicaciones de que Windows Embedded Compact 7 tendrá acceso al Windows Marketplace (el equivalente al App Store del iPhone y iPad), cosa que espero no sea cierto. Así mismo aparenta no haber compatibilidad entre estos dos nuevos sistemas operativos. Es decir, esto alienará no solo a los fabricantes de hardware, sino que a los desarrolladores de aplicaciones, los cuales posiblemente tendrán que crear versiones muy distintas de sus soluciones para ambas plataformas, algo que creo innecesario y que Microsoft pudo evitar utilizando el mismo sistema operativo para ambos, como hizo Apple con el iPhone OS, el cual es utilizado en el iPhone, el iPod Touch, el iPad, y se rumora que incluso en la nueva generación del Apple TV, así como tiene un gran nivel de compatibilidad con aplicaciones de OS X en Macs (pues en su núcleo, iPhone OS es en realidad OS X, solo que con una capa de interfaz de usuario diferente). Es por eso que se hace relativamente fácil para desarrolladores de aplicaciones de iPhone, adaptar a estas para el iPad, ya que solo tienen que cambiar algunos elementos visuales (los cuales en muchos casos ya vienen adaptados para auto-adaptarse al iPad). Y noten que Microsoft no solo tuvo ese ejemplo a seguir, sino que también debió fijarse en lo que le ocurrió a Google al introducir al Google Chrome OS después del Android OS, dejando confundidos a muchos fabricantes de hardware por varios meses, los cuales no sabían cual de los dos sistemas operativos adoptar para algunas de sus soluciones (por ejemplo, algunos anunciaron netbooks con Android OS, y otros con Chrome OS). Por suerte para Google esa crisis parece haberla superado, pero Microsoft debió aprender de la lección de otros antes de cometer el mismo error. Sin embargo, espero de todas maneras que aun no haya sido anunciado, que Windows Embedded Compact 7 al menos tenga acceso al Windows Marketplace de aquí a cuando los primeros equipos tipo tablets salgan al mercado (como la Eee Pad de ASUS, que competirá directamente contra el iPad a inicios del 2011). Cuando menos la buena noticia es que aparenta que Microsoft ha dejado claro que este nuevo sistema operativo será el que se deberá utilizar para tablets, y no el Phone 7, por lo que al menos esa parte de la confusión no será un problema, pero creo que Microsoft perdió una gran oportunidad de crear un solo sistema operativo móvil universal de Windows, y eso quizás debilite los esfuerzos mercadológicos de la empresa, cosa que no se puede dar el lujo de hacer, dado el gran avance que ya tiene el iPhone OS (con mas de 80 millones de unidades vendidas), el tremendo empuje que ha tenido el iPad (con 2 millones vendidos en los primeros 2 meses), y el hecho de que muy posiblemente veremos a Google y HP/Palm en el mismo mercado en un futuro no lejano. Además, Microsoft tiene su propio pasado en su contra: Muchos consumidores quedaron con un mal sabor en la boca al comprar las tablets que salieron con distintas versiones de Windows a través de los años, y que no fueron mas que esfuerzos fallidos debido a que eran simplemente el mismo Windows clásico de escritorio re-empaquetado con soporte de lápices digitales (lo que hacía la experiencia de usuario peor, en vez de mejorarla, ya que esas aplicaciones no fueron creadas para un entorno que no fuera de escritorio), y eso es posible que ocasione que muchos se noten renuentes a adoptar estos dispositivos de Microsoft, aun sean totalmente diferente a las versiones anteriores. Aun así, algo me dice que Microsoft pondrá un gran esfuerzo en mercadear esta versión de Windows, la cual se me ocurre la empresa vea como la posible sucesora a Windows de escritorio a largo plazo (es la única razón que me puedo imaginar de sacar una plataforma que compita contra el Windows Phone 7). Finalmente, unas palabras para los que se fijan en los detalles técnicos: El Windows Embedded Compact 7 compilará tanto para procesadores ARM como los x86 (en particular, los chips tipo Atom de Intel), y se conectará para motivos de sincronización con Windows 7 en PCs y laptops. Reproducirá videos de alta definición (en formato H.264/MPEG-4), podrá ver documentos de Office (por ahora aparenta que no se podrán editar), y se sincronizará con MS Exchange para correo corporativo. Similar al iPad, soporta gestos multi-táctil, aunque el sistema operativo se puede adaptar a otros escenarios mas allá de tablets, como netbooks, celulares, dispositivos GPS para automóviles, televisores, etc. En cuanto al interfaz de usuario, se tendrá que programar en Microsoft Silverlight (similar a como se programará a Windows Phone 7), y viene con una versión mejorada de Internet Explorer con soporte total para Flash 10.1 (la versión acelerada con hardware). En resumen, aparenta por el momento una plataforma sólida y que sin duda será utilizada por los socios clásicos de Microsoft en la industria, pero me preocupa el tema de fragmentación de esfuerzos, y de si verdaderamente era necesario lanzar dos sistemas operativos diferentes para lo que esencialmente es un mismo mercado. Esto me huele a dos grupos dentro de Microsoft competiendo entre sí, y a un CEO (Gerente General, Steve Ballmer) que no tiene las agallas, o visión, de integrar sus esfuerzos o de simplemente apoyar a un grupo sobre el otro. Como vengo diciendo desde hace varios años, es hora de despedir a Ballmer y poner en su lugar a alguien que sepa enfocarse mejor en las necesidades a mano del mercado (que hoy día son dos cosas: dispositivos móviles y computación en la nube)... Página oficial del Windows Embedded Compact 7 Video oficial a continuación sobre Windows Embedded Compact 7 (enlace YouTube)... Video a continuación del prototipo de ASUS Eee Pad (enlace YouTube)... autor: josé elías |
![]() |
![]() |
miércoles, junio 2, 2010
|
![]() Se trata de un software llamado I2T (Image to Text) que analiza lo que sucede en una cámara de video, y como por arte de magia puede describir lo que sucede en texto (y eventualmente, hablado con un sintetizador de voz artificial). El sistema aun no está a un nivel listo para comercializarse, pero aun en su infancia, el potencial es tremendo. El sistema por ejemplo puede decirte cosas como "El vehículo X que vimos hace 5 minutos acaba de reaparecer en pantalla", lo que lo hace óptimo para tareas de vigilancia y espionaje automatizado. Para lograr su magia, los diseñadores de I2T entrenaron al sistema con mas de 2 millones de situaciones y descripciones de distintos eventos, los cuales el sistema de Inteligencia Artificial compara en tiempo real para ver que es lo mas similar a lo que ve. En su forma actual el sistema solo funciona con cámaras estáticas (es decir, en donde la cámara no se mueve ni hace acercamientos), pero como toda tecnología, este es apenas el primer paso y ya nos imaginaremos los usos de esto en unos años. Algo que me puedo imaginar es que antes de lo que muchos se imaginen, esta tecnología termine siendo invisible e incluída en todo dispositivo estático o móvil, de modo que estos puedan aprender de nosotros y no solo describir lo que ven, sino que interpretar nuestros comandos para mapearlos a acciones que queremos se ejecuten, como expliqué en esta Reflexión. Fuente de la noticia Video demostrando la tecnología autor: josé elías |
![]() |
![]() |
domingo, mayo 30, 2010
|
![]() ![]() Una empresa alemana de nombre Medien Patent Verwaltun alega que Warner Bros ha estado pirateando una tecnología anti-piratería, desde al menos el 2004 en Europa. Según la empresa, estos demostraron en el 2003 una tecnología a Warner Bros que permite incrustar dentro del flujo del video unas marcas invisibles al ojo humano que permite rastrear la fuente desde donde sea se haya copiado el video originalmente (como por ejemplo, una copia de una película específica en un cine en específico). La empresa alega que Warner simplemente tomó su tecnología, la pirateó, y no le ha pagado ni un solo centavo por su uso. Esto me recuerda el sabio dicho milenario: "No le hagas a otro lo que no deseas que te hagan a ti"... Fuente de la noticia autor: josé elías |
![]() |
![]() |
sábado, mayo 29, 2010
|
Hasta ahora el Microsoft Robotics Developer Studio (o Microsoft RDS) estaba disponible en tres versiones distintas. Una especial para educadores que tenían una relación especial con Microsoft, una comercial (y completa), y otra gratuita pero con muchas restricciones, pero de ahora en adelante la versión completa reemplazará las otras dos. El RDS en realidad no es una sistema operativo para robots, sino que un conjunto de herramientas para programar robots, que incluso interactúa con otras plataformas como Create de iRobot, LEGO Mindstorms, CoroWare y Parallax. Uno de los mejores aspectos del RDS es que tiene un simulador en 3D, en donde puedes modelar tus robots, sus comportamientos, y el medio ambiente, y realizar de esa manera una simulación física antes de construir las partes físicas e inteligencia de tus robots (este es quizás el factor diferenciador mas importante de RDS entre la mayoría de la competencia). Noten que esto no significa que el código de RDS ha sido abierto al estilo licencias de Open Source, sino que simplemente el producto ahora está disponible gratuitamente sin costos por licencia de uso. Nota: Si te interesan estos temas, no dejes de ojear la sección de robótica en eliax Página oficial de Robótica en Microsoft Página de descarga del Microsoft Robotics Developer Studio Fuente de la noticia (recomendada lectura para los interesados en este tema) autor: josé elías |
![]() |
![]() |
jueves, mayo 27, 2010
|
![]() ![]() ![]() Creo que este es un buen momento para recordar aquel artículo que escribí en el 2007 titulado "¿Podría el iPhone OS destronar a Windows?", en donde argumentaba que la razón que el iPhone OS podría ganarle a Windows (aun aparentaban dos plataformas diferentes para mercados diferentes) era no compitiendo directamente contra Windows, sino que convirtiéndose en el próximo paso en computación personal. Incluso en ese artículo aludía a lo que se convertiría en el iPad, incluso diciendo que en un futuro podríamos conectar pantallas y teclados inalámbricos a dispositivos como el iPhone (lo que ya se está pudiendo hacer con el iPad). A donde voy con esto es que Apple le está ganando a Microsoft sin tener que jugar en el mismo partido, ni en el mismo estadio, sino que haciendo el deporte de Microsoft obsoleto, creando un nuevo deporte en el mercado de consumidores de dispositivos electrónicos (con el iPhone OS, que incluye el iPhone, el iPod Touch, y ahora el revolucionario iPad). Creo que Steve Jobs dio en el clavo apostando su empresa a dispositivos móviles modernos, en vez de continuar una guerra con los sistemas operativos tradicionales de escritorio, y ciertamente ganó su apuesta, pues no solo es su empresa ya mas valuada que Microsoft, sino que además con su iPhone tiene el celular que todos desean copiar (aunque, ojo con ese control, y cuidado con Android OS) con mas de 50 millones de unidades vendidas (mas 30 del iPod Touch con iPhone OS), así como tiene un virtual monopolio con su tienda de música iTunes y los populares iPods, y ahora ha creado toda una nueva categoría de verdadera computación personal con el iPad, que según los primeros reportes ya empezaron a afectar las ventas de Netbooks, Laptops y PCs de escritorio. Eso sin nombrar las ventas por su App Store (Tienda de Aplicaciones) en donde existen ya mas de 200,000 aplicaciones para todo gusto. Microsoft mientras tanto se pasó la última década totalmente fuera de enfoque, jugando simplemente al juego de alcanzar a la competencia y de concentrarse casi exclusivamente en nuevas versiones de Windows de escritorio. El Zune fue un fracaso, ya que no era mas que un clon del iPod. Windows Mobile 7 fue otro fracaso (actualmente es el que menos tajada de mercado tiene entre los grandes fabricantes), y el Windows Phone 7 (que me impresionó bastante) está llegando bastante tarde al mercado (quizás a fin de año), en medio de una feroz batalla entre iPhone OS y Android OS, por lo que Windows Phone 7 sin duda entra a una batalla "cuesta arriba". Mientras tanto, creo que es Google quien está tomando el puesto de Microsoft, haciendo a Microsoft irrelevante, concentrándose en la otra gran tendencia de hoy día, Computación en la Nube, sacando excelentes productos personificados por GMail y Google Docs, invadiendo cada vez mas el mercado principal de Microsoft (MS Office). Noten que justo esta semana se dio a conocer que Microsoft ha disuelto los departamentos de entretenimiento y dispositivos móviles, despidiendo a sus encargados dentro de Microsoft, y ahora esas dos divisiones pasarán a reportarse directamente a Steve Ballmer (el CEO de Microsoft), lo que nos indica que al menos Microsoft ha entendido el mensaje, aunque esperemos que no muy tarde... autor: josé elías |
![]() |
![]() |
miércoles, mayo 26, 2010
|
En una de mis Reflexiones (la #17, "Virus a gran escala"), les pinté un posible escenario futuro en donde un virus informático azotaba a gran parte de la población humana, y cuando digo "humana" no me refiero a nuestras PCs y laptops, sino que a nosotros mismos. Es decir, virus informáticos infectando personas.
Ese escenario, acaba de dar su primer paso. Un científico británico acaba de demostrar por primera vez como un virus informático en un futuro podrá infectar humanos modificados, infectándose él mismo voluntariamente con un virus hoy día. Es importante notar que en este caso no hablamos de un virus electrónico infectando los órganos biológicos de una persona (cosa que sin embargo, también sucederá en el futuro), sino que en este primer paso lo que sucede es que este hombre posee dentro de su cuerpo un chip que él mismo se implantó para facilitarse su vida y experimentar. Con ese chip que posee, él puede abrir puertas, acceder a su PC, o incluso podría arrancar su automóvil o identificarse en un aeropuerto. Sin embargo, el infectó ese chip dentro de su cuerpo con el propósito de crear consciencia hacia donde vamos con esta tecnología: Vamos hacia un futuro en donde nos integraremos con nuestros equipos electrónicos, siendo estos partes de nuestro ser, y llegará un día en donde la seguridad de estos circuitos serán de suma prioridad, y sin duda surgirán virus que nos infectarán, y por tanto nos incapacitarán, o en el peor caso, incluso matarán (por ejemplo, imaginen un virus que invada un corazón artificial). Sin embargo, como expliqué en este otro artículo, eso no es nada comparado con lo que nos espera, pues conforme entendemos mejor nuestra mente, y creamos circuitos para complementarla, expandirla o incluso reemplazarla, será cada vez mas factible la posibilidad de controlar nuestras mentes por medios informáticos. Es posible incluso imaginarnos un día en donde batallas no se liberen con armas nucleares o de contacto físico, sino entre hackers tratando de controlar la población por medios informáticos. Y si creen que esto es solo ciencia ficción, recomiendo lean esta noticia acá en eliax de hace un par de años atrás en donde el Servicio de Inteligencia de los EEUU declara que el cerebro humano es la próxima frontera bélica a conquistar. ¡Gracias a los lectores Lorenzo Henriquez y Marcelo Leonardo Ponce Faraone por el enlace! Fuente de la noticia Video sobre esta noticia en la BBC... autor: josé elías |
![]() |
![]() |
|
![]() La empresa BitTorrent Inc. acaba de liberar el código del protocolo uTP 2.0 utilizado en la red bitTorrent con una licencia tipo Open Source, lo que permitirá no solo la creación de clientes bitTorrent que implementen el nuevo protocolo, sino que además la creación de todo tipo de software que requiera distribuir contenido a miles o millones de usuarios de una manera escalable. La idea es que uTP reemplace el protocolo original de bitTorrent, con el objetivo de reducir la carga en los ISPs (proveedores de internet) sin disminuir el rendimiento en los clientes finales. Fuente de la noticia autor: josé elías |
![]() |
![]() |
lunes, mayo 24, 2010
|
Todo este tema se calentó cuando recientemente Steve Jobs (el Gerente General de Apple) escribió una carta pública explicando por qué Apple no soportará a Flash en el iPhone, iPod Touch o iPad, citando principalmente el hecho de que utiliza muchos recursos (que son escasos en dispositivos móviles), así como su inestabilidad (citando que Flash es el culpable #1 de problemas en navegadores web en Macs), y sobre todo que hace la experiencia mas lenta para el usuario final. Poco después Adobe respondió que nada de lo que decía Jobs era cierto, y que lo demostraría muy pronto con Flash 10.1 para la plataforma Android OS de Google. Los primeros resultados fueron miserables para Adobe, ya que en su primera demostración al mundo hizo caer a Android dos veces consecutivas, de forma bastante embarazosa ante el público. Y ahora viene esto: Los editores de un portal de tecnologías móviles (fuente, con video) decidieron darle el beneficio de la duda a Adobe y probar de todas maneras ellos mismos el navegador web de la mas reciente versión de Android OS 2.2 recién anunciada por Google, con Flash, y ponerlo a competir contra el Safari del iPhone 3GS y Opera Mobile 10 en el HTC HD2. Los resultados fueron desastrosos: El navegador de Android pasó de ser el mas rápido (cuando no tenía Flash), a ahora ser el mas lento de todos (cuando se activa Flash). Noten que aparte de todo esto está el tema de que como he explicado en reiteradas ocasiones, el modelo Flash no es compatible con el modelo Web de aplicaciones entrelazadas con hiper-enlaces, ya que cuando una aplicación Flash arranca, no hay manera de controlar desde la página web su comportamiento interno. Por ejemplo, si vas a Amazon.com y ves un producto que te gusta, puedes simplemente salvar un enlace a esa página del producto y enviarla a un amigo, o incluso incluir el enlace en tu propia página web para enviar al usuario directamente a ese producto. En Flash sin embargo, es imposible hacer esto ya que los productos dentro de una aplicación Flash no pueden ser referenciados externamente, y eso es que me refiero con que rompe el modelo web. Otro problema serio también es el hecho de que una gran proporción de páginas web hechas con Flash asumen un ratón por defecto, y solo funcionan correctamente con un ratón, y no con gestos táctiles como en dispotivos iPhone, iPad o Android (cosa que los primeros probadores de Flash en Android están empezando a notar). Un ejemplo es cuando uno mueve un ratón por encima de una menú para que este se ilumine y alga surgir otra pantalla, cosa que es imposible en dispositivos táctiles en donde tal gesto no existe. En fin, lo único bueno que veo de Flash en dispositivos móviles es que permite acceso a portales de video que requieren Flash, sin embargo la tendencia global hoy día es reemplazar a Flash Video por HTML 5, como ya lo han hecho YouTube y Vimeo, y lo planean hacer la mayoría de los otros portales de video en la web. Nota: Es importante notar que la versión probada de Flash en Android, aunque ya está casi en versión final (según Adobe, sale el próximo mes) que esta puede aun ser mejorada, por lo que será interesante ver las mismas pruebas dentro de un par de semanas con la versión final a ver si la situación mejora. autor: josé elías |
![]() |
![]() |
"La verdad es que para mi eso es lo que ha sido, "una filosofía de vida" Después de estos 6 años leyendo diariamente este blog, no veo las cosas de la misma manera. Gracias x tu dedicación!!!"
en camino a la singularidad...
©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax