texto:   A-   A+
eliax

Software
Inventa manera de detectar fotos manipuladas digitalmente, por ruido digital
eliax id: 9627 josé elías en ago 24, 2012 a las 12:11 AM (00:11 horas)
Uno de los problemas más grandes que enfrentan las grandes agencias de noticias es el de recibir fotografías de reporteros que desconocen si han sido o no manipuladas.

Existen cámaras que pueden cifrar las imágenes y garantizar a las agencias que estas no han sido modificadas en ninguna forma, pero eso es solo para unos cuantos fotógrafos. ¿Cómo saber que una fotografía de un ciudadano cualquiera no es en realidad una foto manipulada para fines conspiracionistas o propagandistas?

Pues ahora un grupo de científicos de la Universidad de Albany en los EEUU ha creado una técnica que nos puede decir con mucha facilidad si una foto fue alterada o no.

Noten que por "alterada" hablamos exclusivamente de si esta contiene elementos que antes no estaban, o que elementos que estaban fueron removidos, y no si los colores o exposición de esta han sido alterados (cosa que es admisible en la mayoría de los casos).

El truco de la técnica consiste en notar que distintas imágenes contienen distintos patrones de "ruido digital" cuando uno las analiza de forma ampliada (imaginen, bajo una lupa).

Es decir, imágenes captadas en ambientes oscuros por lo general tienen mucho "ruido" y por eso se ven de mala calidad, pero incluso dos imágenes tomadas a la misma hora contienen ruido diferente por diversos factores, como la apertura utilizada, el ISO, el tipo de sensor, el tipo de lente utilizado, etc, por lo que es casi imposible que dos fotos (en particular, tomadas desde puntos de vista y tiempos distintos) sean idénticas.

Utilizando esos datos, los científicos crearon un algoritmo que detecta esos patrones de "ruido" en la imagen, y nota las partes de la imagen en donde el ruido es diferente, lo que es una pista de que esa parte de la imagen proviene de una foto diferente.

En la imagen que acompaña el artículo pueden ver como una foto falsa del golfista legendario Tiger Woods agarrando un flamingo en vez de un palo de golf, es fácilmente detectada en la imagen de la derecha, resaltándose en amarillo las áreas de ruido que difieren.

Lo bueno de esto es que es una técnica tan sencilla, que no me sorprendería si fuera una funcionalidad rutinaria de cualquier software (incluyendo cámaras, programas de edición como Photoshop, o incluso portales sociales).

fuente

autor: josé elías


Nos acercamos a pasar el Turing Test en Inteligencia Artificial
eliax id: 9625 josé elías en ago 23, 2012 a las 12:10 AM (00:10 horas)
Alan TuringeliaxAlan Turing, uno de los más grandes genios de todos los tiempos, pionero en computación (hoy todas las computadoras utilizan esencialmente el mecanismo descrito por él), héroe de la Segunda Guerra mundial (fue gracias particularmente a él que los Aliados pudieron detener como lo hicieron a Hitler, al su intelecto descodificar la máquina de cifrado de datos Enigma de los Nazis y de esa manera poseer inteligencia crucial para derrotarlos), y una de las personas que más admiro en mi vida, más allá de sus grandes contribuciones a la ciencia (y lamentablemente no ser correspondido por la sociedad, pues era gay y se suicidó debido al mal trato que tuvo en Inglaterra en donde ser gay era un delito en esos días), dejó otro regalo más para la cultura popular y futuras generaciones: El famoso Turing Test.

El Turing Test (o "Prueba de Turing" o "Exámen Turing"), es una prueba diseñada para determinar si algo (sea un software de Inteligencia Artificial, o un Ser Sintético, etc) es "inteligente" con un ser humano.

En esencia, la prueba es extremadamente simple: Pones detrás de una pared tanto al software de Inteligencia Artificial (IA) como a un humano, y de este lado de la pared ponemos a una persona que los debe cuestionar a ambos.

El truco está, en que la persona que hace las preguntas no pueda ver quién le está respondiendo, si la IA o el humano, y por tanto deba deducir cuál es humano y cuál es sintético.

La idea entonces es, que si uno no puede distinguir cuál de los dos es el humano biológico, después de innumerables preguntas, que debemos concluir que la IA es también inteligente como una persona.

Pues bien, según un artículo reciente, el investigador Robert French del French National Center for Scientific Research afirma que estamos muy cerca de pasar esa prueba.

En el artículo explica como en tiempos pasados las máquinas utilizaban algoritmos rígidos, estáticos y pre-programados para resolver problemas a "fuerza bruta" por pura lógica, pero que se hizo obvio que se necesitaba más que fuerza bruta para que una máquina fuera "inteligente".

Así que este investigador afirma (en un artículo publicado en la prestigiosa publicación científica Science (en el ejemplar del 12 de Abril 2012) que hoy día dos avances revolucionarios están permitiendo que pronto se pase el Turing Test.

El primero de estos es la gran cantidad de información que en años recientes se ha hecho disponible en internet, desde millones de videos en YouTube, hasta cientos de millones de fotos en Flickr, y desde incontables páginas web y blogs, hasta miles de millones de hechos descritos textualmente, lo que en esencia proveen de un ambiente de aprendizaje virtual para las Inteligencias Artificiales, similar al ambiente físico en que un bebé crece mientras aprende del mundo.

El segundo de estos avances en una nueva generación de técnicas para recolectar, organizar y procesar toda esa información, en esencia de una forma no lineal y caótica, permitiendo que IAs aprendan y reacciones incluso a imprevistos en su programación.

Un buen ejemplo de esto fue Watson, la super-computadora de Inteligencia Artificial de IBM, que el año pasado le ganó a los dos más grandes campeones del mundo en el juego intelectual Jeopardy!.

Watson en esencia fue diseñado para "soltarse" y dejar que aprenda solo todo tipo de hechos, y haga sus propias correlaciones sobre cuáles cosas son relevantes y cuáles no. Watson ha aprendido tanto, que hoy día IBM ya lo renta por hora a los más avanzados hospitales del mundo, para ayudarlos a diagnosticar enfermedades y condiciones a un nivel superior que la mayoría de los más reconocidos doctores del mundo.

Mi opinión personal de todo esto, como ya los lectores veteranos del blog conocen (y los que leyeron mi libro del 2001, Máquinas en el Paraíso), es que es solo cuestión de tiempo para que no solo una IA pase la prueba de Turing, sino para que eventualmente no supere no solo en intelecto, sino que en creatividad, imaginación, sentimientos, y toda la gama de atributos que asociamos a ser "humano"...

autor: josé elías


Magic Lantern, convierte tu cámara Canon DSLR en una super cámara
eliax id: 9624 josé elías en ago 23, 2012 a las 12:09 AM (00:09 horas)
Canon 60DUno de los secretos peor guardados entre profesionales de video y fotografía en el campamento Canon es una modificación a sus cámaras llamada Magic Lantern ("Linterna Mágica"), una herramienta que modifica el sistema operativo de tu cámara DSLR y la convierte literalmente en una super cámara.

Lo que Magic Lantern hace es substituir el software que viene instalado por defecto en tu cámara, para reemplazarlo por uno muchísimo más potente y que te ofrece muchísimo más control sobre tu cámara, así como permitirle hacer cosas que antes no podía hacer, e incluso que no se pueden hacer en cámaras de cualquier precio.

Es importante notar que Magic Lantern está disponible solo para unos modelos específicos de cámaras Canons, y que estos deben estar actualizados a versiones específicas del firmware (sistema operativo de bajo nivel) antes de uno hacer la actualización.

Las cámaras y versiones de firmware soportados en la versión actual de Magic Lantern 2.3 son estas:

Canon 5D Mark II v2.1.2
Canon 50D v1.0.9
Canon 60D v1.1.1
Canon 500D (Canon T1i, Canon Kiss X3) v1.1.1
Canon 550D (Canon T2i, Canon Kiss X4) v1.0.9
Canon 600D (Canon T3i, Canon Kiss X5) v1.0.2

Si tienen una de esas cámaras, continúen leyendo, pero noten que este tipo de modificaciones aunque han sido probadas por miles de personas, siempre tienen el riesgo de dejar tu cámara en algún modo desconocido, aunque si sigues las instrucciones bien (y es muy importante leer la documentación) no deberían tener problemas. Y noten que el programa es gratuito, pero recomiendo hagan una donación en la página del proyecto.

Magic Lantern contiene literalmente decenas de nuevas opciones, por lo que es importante leer la documentación, pero algunos que me encuentro interesantes y bastante útiles son:

1. AGC Off
Con esto puedes desactivar el control automático del volumen del audio (Automatic Gain Control), de modo que ahora tu cámara puede grabar sonido a nivel profesional libre de ruido, permitiendo conectar micrófonos directamente a la cámara, sin tener que invertir en costosas soluciones de grabación externa.

2. Intervalómetro
Magic Lantern IntervalometerCon esto ya no tienes que comprar un intervalómetro externo, y de paso es muchísimo mejor que muchos de los más avanzados del mercado.

Un intervalómetro te permite programar la cámara para que esta capte por sí sola una serie de fotos en intervalos específicados, y por un especificado intervalo de tiempo en cada fotografía, entre otras cosas avanzadas. Con esto puedes hacer muchos efectos que se ven en películas y documentales en donde las nubes pasan volando rápidamente, y se ven los automóviles de las ciudades nocturnas pasar volando como rayos láser.

Entra las opciones avanzadas están "Focus Ramping" ("Rampa de enfoque"), en donde puedes programar la cámara para que paulatinamente vaya enfocando y/o desenfocando la escena automáticamente sin tu tener que tocar (y mover accidentalmente) la cámara.

Otra opción para astrofotógrafos es la capacidad de poner la cámara en modo "Bulb" por períodos de hasta 8 horas (para por ejemplo captar el movimiento de las estrellas en el cielo).

3. Bracketing automático en modo HDR
Magic Lantern Auto HDRUna foto HDR (High Dynamic Range) es en esencia una foto tomada con varios valores de exposición. La forma más simple de HDR en esencia toma 3 fotografías, un expuesta normalmente, otra expuesta para las áreas oscuras, y otra para las áreas claras, y las combina. Pero con esta nueva funcionalidad, la cámara toma una fotografía, la analiza en tiempo real, y determina cuántas imágenes más (sobreexpuestas y subexpuestas) necesita para cubrir el 100% del rango dinámico de la imagen, procede a tomar las fotos, y las combina automágicamente.

4. Rango dinámico ampliado en video
Magic Lantern expanded Dynamic RangeAhora es posible obtener más detalle tanto en las áreas oscuras como claras de los videos que grabas, en esencia mejorando la calidad de video de tu cámara para que se acerque más al "look" del cine.

5. Control total de los fps
Ahora no solo estás restringido a grabar 24, 25, 30 o 60 cuadros por segundo, sino que puedes especificar cualquier número arbitrario entre 0.2 (una imagen cada 5 segundos) hasta 35fps en modo 1080p (en 60D y 600D). Esto es útil (como indican en la documentación) para por ejemplo grabar un video a 22fps y después verlo a 24fps, lo que en una película de acción hace ver los movimientos un poco más rápidos.

Esos son apenas 5 de las cosas que puedes hacer con Magic Lantern, pero son muchísimas las otras cosas que puedes hacer, con el zoom, zebras, sonido, video, ajustes de ISO, LiveView, etc.

enlace oficial a Magic Lantern

autor: josé elías


Construyendo un puente hacia la educación del futuro. Interesante video de Intel
eliax id: 9619 josé elías en ago 21, 2012 a las 12:12 AM (00:12 horas)
Hoy comparto con ustedes un video creado por Intel sobre cómo sería un aula de docencia en el futuro, y tomaron como ejemplo el enseñar a unos niños cómo se construye un puente, y después hacerlo realidad.

El video estoy seguro que les gustará a muchos (a mi me encantó), pero a la misma vez de forma indirecta podemos utilizarlo de ejemplo sobre los problemas aun por resolver hoy día, en particular el tema de adoptar la tecnología en los salones de clases, y el gran problema de profesores que aun no entienden estas nuevas tecnologías y por tanto no pueden tomar ventajas de estas.

Por otro lado, la buena noticia es que el 100% de todo lo que vieron en el video ya se puede hoy día (en los enlaces de noticias anteriores en eliax al final del artículo pueden ver muchas de esas tecnologías disponibles desde hace años), solo que todavía son un poco caras.

Las tabletas ya existen, las pizarras electrónicas también, así como los simuladores físicos. Y en cuanto a la pizarra electrónica detrás del profesor, ya vienen tecnologías en camino que las harán super baratas y prácticas para el final de la década.

¡Gracias a Karls Vladimir Peña por el enlace al video!

Video a continuación (enlace YouTube)...


autor: josé elías


GRAN HITO: Primer intento de robar datos privados desde la mente humana. Opinión
eliax id: 9618 josé elías en ago 20, 2012 a las 12:10 AM (00:10 horas)
Hackers en la Mente HumanaeliaxMis amig@s lectores, si querían una noticia que les confirmara que estamos viviendo tiempos exponenciales (o una Singularidad Tecnológica), y que el futuro se nos acerca muchísimo más rápidamente de lo que muchos se imaginan, esta es la noticia que esperaban leer...

Hace 3 años escribí un editorial titulado "Editorial eliax: Hackers pronto empezarán a controlar la mente humana", el cual fue recibido no solo de forma bastante incrédula, sino que algunos lectores anunciaron que ya no leerían el blog debido a lo fantástico que se estaban convirtiendo los temas de este.

Pues como dicen, el tiempo siempre termina dándole a alguien la razón...

Hackers investigadores que se presentaron en la conferencia anual Usenix Security 2012 (fuente 1 y 2, ¡y gracias a Esteban Vallejo por el enlace!) demostraron por primera vez la factibilidad, con datos objetivos para respaldar sus hallazgos, de un método para literalmente "hackear" la mente humana y robarle datos privados y personales a personas, sin estos saber siquiera que están siendo "hackeados".

El grupo demostró la técnica utilizando nada más que dispositivos del tipo BCI (Brain-Computer Interface, o "Interfaces Computadora-Cerebro") disponibles a consumidores finales a bajo costo.

Según los resultados de este primer intento (y recordemos que es apenas un primer intento con equipos precarios no optimizados para este fin), los hackers lograron reducir la incertidumbre de adivinar los datos privados de personas (como números de tarjetas de crédito, dígitos secretos de PIN, dirección de sus hogares, relaciones con amigos, etc), de entre un 15% a un impresionante 40% en algunos casos.

¿Qué significa esto? Pues muchísimo más de lo que muchos se pueden empezar a imaginar...

Como ejemplo, si combinamos esta noticia, con esta otra de ayer, sería posible escanear el cerebro de una persona sin ningún tipo de dispositivo BCI haciendo contacto con la persona.

En otras palabras, una persona podría estar viajando normalmente en un avión transcontinental, y mientras duerme, su mente podría ser minada por información tal cual lo vimos en Inception, y utilizando otras técnicas como esta que te permite grabar en video lo que sueñas o imaginas en la mente.

Y esto es apenas la punta del témpano de hielo...

La gran preocupación es que debemos estar completamente conscientes de que la ciencia y la tecnología crecen exponencialmente, lo que significa que lo que por ahora son simples experimentos, en un futuro serán toda una industria (quizás clandestina o a nivel gubernamental inicialmente), en donde se hará evidente lo frágil que son nuestros cerebros biológicos a la hora de ser no solo inspeccionados, sino que manipulados por tecnología.

Y eso nos lleva naturalmente a una conclusión: O seguimos con nuestros cerebros biológicos mientras nos arriesgamos a ser controlados como conejillos de india por quien sea que domine esta tecnología, o nos adaptamos y evolucionamos para fusionarnos con nuestra tecnología y en esencia migrar nuestras mentes a entornos sintéticos más seguros.

Muchos no querrán hacer tal migración cuando el tiempo llegue, pero correrán el riesgo de ser títeres de entidades sin escrúpulos así como hoy día quien posee una PC con Windows XP sin antivirus ni firewall es un claro objetivo a criminales cibernéticos.

Si alguien quería una muy buena razón para evolucionar la humanidad hacia un nuevo nivel de transhumanismo sintético (y de migración fuera del planeta), son pocas las razones mejores que esta que se me puedan ocurrir...

autor: josé elías


Sucesor de mp4 (H.264) en camino: HEVC H.265, el doble de eficiente
eliax id: 9617 josé elías en ago 20, 2012 a las 12:09 AM (00:09 horas)
MPEGNo es un misterio ni sorpresa para nadie hoy día que las tiendas de rentas de video, así como los discos de DVD y Blu-ray están siendo hechos obsoletos poco a poco, a favor de video por Internet, por lo que esta noticia de hoy es importante ya que nos afectará a todos de forma positiva en los próximos años.

Se trata del sucesor al formato H.264 (más conocido popularmente como MPEG-4 o MP4), un formato hasta ahora bastante eficiente para el video por Internet, y que en estos últimos dos años se ha convertido casi en el estándar por defecto para tal fin.

El nuevo formato se llamará H.265 o HEVC ("High Efficiency Video Coding"), y su gran logro es que es el doble de eficiente que el formato H.264.

¿Qué significa eso? Pues un par de cosas importantes.

Lo primero es, que con este formato se podrá descargar una película en la mitad de tiempo que antes se podía. Así que en vez de esperar 2 horas, ahora tendrás que esperar 1 sola.

Pero eso también significa que ahora podemos enviarte una película de mucho mejor definición con H.265, que con H.264, bajo el mismo ancho de banda. O en otras palabras, ahora sin tu tener que cambiar de plan de Internet, podrás disfrutar de contenido de alta definición cuando antes te tenías que conformar con contenido de "definición estándar".

Otra ventaja de H.265, es que debido a que la mayor parte del ancho de banda del mundo se consume en videos, que esto aliviará grandemente los cuellos de botella de Internet (aunque no duden que nos ingeniaremos una manera de utilizar el ancho de banda excedente).

El estándar H.265 se espera se empiece a adoptar el próximo año 2013, y asumimos que ya dentro de 2 a 3 años prácticamente todo nuevo chip de procesamiento de video, así como los software descodificadores, soportarán el nuevo estándar.

fuente

autor: josé elías


Pregunta a eliax: ¿Es posible crear una inteligencia superior a uno mismo?
eliax id: 9596 josé elías en ago 14, 2012 a las 12:10 AM (00:10 horas)
I.A.eliaxCasi inevitablemente en cualquier artículo que menciono el tema de Inteligencia Artificial en relación a seres sintéticos del futuro, alguien comenta que es imposible que nosotros podamos crear algo "superior" a nosotros, ya que si pudiésemos hacer eso entonces ya seríamos "superior" a esos seres lo que será una contradicción en términos.

Sin embargo, como les explicaré hoy, no solo es posible, sino que ya lo hemos hecho y tenemos muchos ejemplos, de sistemas sencillos capaces de crear sistemas más complejos que ellos mismos, y de eso se trata este artículo de hoy en eliax...

Lo primero es entender eso de "superior"...

Muchas personas que no entienden verdaderamente lo que es la Evolución, asumen que nosotros los humanos somos más "superiores" que una cucaracha u hormiga, y que similarmente una hormiga es superior a un parásito intestinal. Pero eso es totalmente erróneo en el gran orden de las cosas.

La Evolución universal lo que dicta es algo muy claro: Sobrevivirán aquellos patrones que se adapten a su medio ambiente, que creen un equilibro con este.

Eso es todo, no más de ahí, y bajo esa definición, una cucaracha está tan bien adaptada a su medio ambiente como lo estamos nosotros al nuestro, por lo que en realidad es erróneo decir que somos "superiores" a una cucaracha.

Lo que podemos decir, y que quizás sea lo que muchos quieren decir por "superior" es que nosotros poseemos un intelecto de más alto nivel que el de una cucaracha, en el sentido de que podemos manipular símbolos, emocionarnos al oir una canción que nos gusta, y desarrollar ciencia y tecnología. Así que aclaremos que por "superior" esa es la definición que utilizaremos.

Habiendo dicho eso, ¿puede un ser humano crear otro ser más "superior" (intelectualmente hablando) que sí mismo? Pues claro que sí.

El truco está en entender que no es necesario entender los detalles minuciosos que nos dotan de inteligencia para poder dotar de inteligencia a otro ser. Es decir, no es necesario saber con exactitud que tal grupo de neuronas hacen tal cosa exactamente, sino que lo importante es entender el mecanismo que hace que surja la inteligencia. Y ese mecanismo lo conocemos, y se llama Evolución, y es quizás el mecanismo más simple de todo el universo y nuestra existencia, y lo hemos replicamos en miles de programas informáticos que implementan patrones llamados "algoritmos genéticos".

Pero si quieren un excelente ejemplo de que es posible crear una inteligencia superior a la muestra, sin uno saber los detalles de cómo esta se genera, simplemente les mencionaré a alguien que sin duda no conocen: El padre de Albert Einstein.

No importa su nombre, pero lo que sí importa es saber que ese señor no sabía ni de neurociencia ni de inteligencia artificial, ni mucho menos de las cosas que su hijo Einstein más tarde descubriría en su vida, sino que lo único que tuvo que saber hacer fue el amor a su esposa. Más sencillo de ahí, imposible...

Es decir, el padre de Einstein no se tuvo que sentar a calcular y hacer ecuaciones detalladas sobre el funcionamiento del cerebro para crear su hijo. Simplemente utilizó un mecanismo evolutivo (transferencia de ADN por semen), y la naturaleza hizo el resto.

¿Quieren otro ejemplo? Redes Neuronales. Estas "redes" de neuronas sintéticas se vienen utilizando desde hace alrededor de medio siglo, y lo que hacen es que modelan o simulan las interconexiones genéricas de neuronas biológicas, pero en un ambiente sintético.

Los científicos diseñan esas redes, las entrenan, y después "las sueltan al mundo" para que estas funcionen. Un ejemplo interesante son los sistemas de cámaras utilizadas en muchos de los casinos de Las Vegas. Esas cámaras están atadas a un programa informático de inteligencia artificial que detecta patrones de caras humanas, para reconocer a estafadores a quienes se les ha prohibido entrar a casinos.

Lo asombroso del caso es que esos programas hacen un mucho mejor trabajo que humanos en reconocer caras, y sin embargo ni uno solo de los científicos que crearon esas redes neuronales sabe a ciencia cierta todos los detalles de las interconexiones neuronales del hardware y/o software que componen esos sistemas. Lo único que hicieron los científicos fue entender que de una estructura simple (millones o miles de millones de pequenas neuronas) es posible que surja naturalmente comportamiento más complejo, y codificaron ese conocimiento en un sistema, el cual fue posteriormente entrenado para reconocer caras, terminando siendo mucho mejor en reconocer caras que sus propios diseñadores.

Y lo mismo, mis queridos lectores, sucederá tarde o temprano no solo con conceptos de reconocimiento de patrones, sino que con los otros "módulos" del cerebro como son razonamiento, emociones, etc.

Y si creen que estamos lejos de eso, solo noten que ya el año pasado la supercomputadora Watson de IBM le ganó a dos de las mentes humanas más potentes del planeta en el popular juego de televisión Jeopardy!, en lo que fue un evento extraordinario de por sí (no dejen de ver el video).

Es importante destacar que Watson fue desarrollado sabiendo cómo se genera el conocimiento, y no sabiendo los detalles de su implementación de bajo nivel. Watson fue entrenado para que aprendiera por sí mismo, se le "soltó" en Internet para que aprendiera todo lo que pudiera, y después se le puso a competir sin acceso a Internet durante el programa en vivo, ganando de forma contundente a los humanos.

Así que moraleja (y repitiendo lo dicho anteriormente): Es posible, y factible, que una entidad pueda generar una inteligencia superior a sí misma, pues todo lo que conlleva es poder entender las reglas simples desde donde emergen reglas más complejas que no necesariamente tenemos (o podamos) que entender.

Y eso es un punto más a favor de la hipótesis que dado el crecimiento exponencial de la ciencia y la tecnología, estamos dando ya nuestros primeros pasos para lograr precisamente eso: Seres Sintéticos que serán inimaginablemente más avanzados que nosotros en todo nivel intelectual, emocional y físico...

autor: josé elías


Inteligencia Artificial causó pérdidas de US$440M en 45 minutos. Opinión
eliax id: 9595 josé elías en ago 7, 2012 a las 12:09 AM (00:09 horas)
A veces en la vida las coincidencias son tan grandes, que sencillamente hay que dejarlas saber al mundo, como me acaba de ocurrir con una película y la vida real...

Sucede que este fin de semana pasado fui al cine a ver la película Margin Call ("El precio de la codicia", buena, le doy 7 de 10), en donde la trama es de un algoritmo matemático que descontrola los sistemas de la bolsa de valores ocasionando pérdidas en los miles de millones de dólares.

¿Y ahora adivinen que? Justo acaba de suceder (fuente) que a la empresa Knight Capital Group en EEUU un sistema de Inteligencia Artificial causó que la empresa perdiera la asombrosa suma de US$440 Millones de dólares en apenas 45 minutos de intercambio de acciones. Las pérdidas fueron tan grandes que sobrepasan todas las ganancias de la empresa del año pasado.

Pero, ¿qué ocurrió aquí? Pues sucede que como les informé anteriormente en eliax, existe una modalidad de compra y venta de acciones llamada "high-frequency trading", o intercambio de valores de alta velocidad, en donde software corriendo en potentes máquinas hacen transacciones en milisegundos, a velocidades que humanos apenas nos podemos imaginar.

Esas transacciones se hacen a veces bajo altos riesgos, y ciertamente el riesgo en este caso tuvo su precio, pues el sistema empezó a comprar acciones que en esencia no podía vender, teniéndose que "descargar" las acciones a precios muchos menores, ocasionando la pérdida de esos US$440,000,000.00 en apenas 45 minutos.

Y eso nos trae la pregunta: ¿Es esto un error de "máquinas" o de humanos?

Pues como dicen, las máquinas en la actualidad en esencia hacen lo que les ordenamos, dentro de ciertos parámetros de libertad que nos otorgamos, y algo me dice (particularmente debido a mi trasfondo técnico) que en este caso el error fue claramente humano.

El error pudo haber surgido en al menos dos formas: La primera siendo un simple error de programación (es decir, un error técnico), y la segunda en los parámetros del programa (es decir, un error "gerencial"). Por "parámetros del programa" me refiero a que posiblemente la empresa fue muy agresiva en especificar qué tipos de acciones estaba dispuesta a comprar, posiblemente rayando en el límite de las tolerancias aceptables (y posiblemente motivado por codicia y expectativas que no encajaban con la realidad).

Pero, ¿podría darse el caso en el futuro en que máquinas tomen decisiones como estas concienzudamente? Pues conforme dotemos de más y más inteligencia a estas máquinas, claro que sí. El tema estará en si estas decisiones se tomarán sabiendo no solo los riesgos, sino que también los resultados.

Es decir, es bastante posible que llegaremos a un futuro en donde las IAs (Inteligencias Artificiales) tomarán decisiones que nos aparentarán ser "erróneas", pero que en el gran orden de las cosas tienen motivo de ser y que no podemos comprender a simple vista.

Sería como nosotros comprar 7 latas de comida para un perro, una para cada día de la semana, y darle una sola lata al perro el primer día mientras guardamos las otras 6. Desde el punto de vista del perro, estamos haciendo algo malo al no darle todas las 7 latas el primer día, pero sabemos que lo hacemos porque de esa manera el perro no pasará hambre los otros 6 días si se come todas las latas el primer día.

Similarmente, me puedo imaginar escenarios ultra-complejos en donde nuestras mentes no podrán entender decisiones tomadas por IAs, y posiblemente tendremos que simplemente "confiar en ellas", lo que estoy seguro que para muchos no es una idea reconfortante...

Yo personalmente creo que cuando ese tiempo llegue el problema se resolverá él mismo, ya que lo que sucederá no es que habitaremos un mundo de IAs rodeado de humanos biológicos "inferiores", sino que como he explicado en lugares como este, lo que sucederá simplemente es que nosotros los humanos nos fusionaremos con nuestras creaciones, y nosotros seremos ellos...

autor: josé elías


Editorial eliax: Hora de hacer la Realidad Virtual, real...
eliax id: 9587 josé elías en ago 2, 2012 a las 12:09 AM (00:09 horas)
Virtual RealityeliaxA inicios de los 1990s sucedió uno de los momentos más emocionantes en la industria de la computación; una fiebre en el campo de la Realidad Virtual más alta que la fiebre del oro.

Realidad Virtual es tecnología (usualmente implementada como un casco con gafas estereoscópicas y posibles guantes con sensores de movimiento) que te da la impresión de estar en un lugar virtual y no real, respondiendo a tus sentidos como si estuvieses ahí.

Decenas de libros salieron al mercado en esos años (yo compré, y leí, todos y cada uno de ellos, los coleccionaba y buscaba como un aficionado del arte buscaría un Picasso. El mejor de todos esos libros fue este, un clásico), decenas de empresas salieron al mercado, los medios cubrían los adelantos constantemente, miles de millones de dólares se invirtieron en investigación, desarrollo, y productos que llegaron al mercado (yo mismo probé varios tales equipos en laboratorios universitarios y en plazas comerciales de EEUU repletas de estos equipos de "VR").

Yo mismo caí en la fiebre (en esos tiempos Jaron Lanier era mi héroe), y tomé un Power Globe de Nintendo (¿quién se acuerda?), lo modifiqué eléctricamente para que funcionara con mi computadora de esos tiempos (una Commodore Amiga), desarmé unos binoculares y otros equipos ópticos que tenía y armé mis propias gafas, y la emoción era difícil de contener.

Pero así de rápido como llegó la moda, así de rápido pasó, y de forma espectacular.

Fue una de las "burbujas informáticas" que estalló de la forma más brillante en la historia de la computación, con centenares de empresas cerrando sus puertas, y decenas de miles de ingenieros mudándose a otras áreas (por lo general, video-juegos, empresas especializadas en visualización, y departamentos de investigación en varias universidades).

Pero ¿qué sucedió?

Pues este es un excelentísimo ejemplo de uno adelantarse a los tiempos...

La visión estaba clara: Tarde o temprano la Realidad Virtual (o "VR" por sus siglas en inglés) iba a ser el próximo paso de inmersión en interfaces de usuario. Pero había un tremendo problema: La tecnología sencillamente no estaba lista en esos días para las expectativas que se tenía de la Realidad Virtual.

Es decir, cuando uno veía películas como The Lawnmower Man (mala, pero la compré de todas formas por "la fiebre", o Johnny Mnemonic), una veía cosas similares a lo que posteriormente vimos en The Matrix, en donde se desplegaban ante nuestros ojos mundos hiper-realistas, casi tan real como la vida misma.

Pero cuando uno se ponía uno de los cascos de VR de inicios de los 1990s, la "realidad real" se asentaba y uno se daba cuenta que estaba viendo gráficos sacados prácticamente de la primera consola de Nintendo...

Y ni hablar del tamaño y peso de esos cascos, que los hacía extremadamente incómodos después de un corto período de tiempo (hablo de experiencia, una vez duré más de 15 minutos seguidos con uno puesto). Así mismo el ángulo de visión no era lo mejor, y la resolución de las imágenes ni hablar. Así mismo existían todo tipo de problemas con los head trackers (los sensores que seguían el movimiento de tu cabeza y otros accesorios), lo que creaba una sensación incómoda ya que el mundo virtual por lo general respondía unos cuantos milisegundos después de tu mover tu cabeza y/o manos.

Así que en esencia, mucha emoción, mucho dinero y tiempo invertido, pero era como querer crear un automóvil moderno en los tiempos de Leonardo DaVinci...

Pero aceleremos al día de hoy, unas dos décadas después...

Hoy día, se puede decir que virtualmente todo obstáculo que teníamos en ese entonces ya se puede vencer, y de forma realmente práctica.

Por ejemplo, los sensores de movimiento que antes costaban una fortuna (literalmente, una fortuna, en el orden de varios miles de dólares si querías algo con precisión), hoy día cuestan literalmente menos de US$10 dólares y son muchísimo más pequeños y precisos. Las pantallas que antes eran pesadas, de baja resolución, con colores pobres y bajo contraste, hoy día cuestan mucho menos, ofreciendo mucha mejor resolución y calidad de imagen, así como son muchísimo más ligeras.

Y en cuanto al poder gráfico, hoy día incluso un iPhone es entre 100 y 1000 veces más potente que lo mejor que teníamos disponible en esa época a costos exhorbitantes.

Por lo que creo que ha llegado la hora de volver a contagiarnos con la fiebre del VR, pues el potencial de esta tecnología es literalmente enorme.

Imaginen que en vez de jugar un juego como Super Mario, que tu seas Super Mario, viendo a través de sus ojos lo mismo que vería Mario, y haciendo gestos para saltar (que de paso serviría para ejercitar). Y no solo ver a través de sus ojos, sino que estar dentro de su cabeza misma, en el sentido de que puedes mirar a los lados o de arriba hacia abajo y ver como el mundo virtual se actualiza de forma instantánea para registrar hacia donde está apuntando tu cabeza.

O imaginen un arquitecto trabajando en un edificio, o mostrándole el edificio virtual a un cliente, pudiéndose mover paredes enteras solo con "empujarlas", y "esculpir" formas con las manos en el mundo virtual (similar a esta Reflexión).

Todo eso es posible hoy, y de verdad que me decepcionó que Nintendo no aprovechara el estado actual de la tecnología para sacar algo similar como el sucesor del Nintendo Wii, pues esto hubiese sido genial combinado con sus controles (el WiiMote y su Nunchuck). Y lo peor es que algo me dice que tanto Sony como Microsoft se concentrarán más en juegos 3D para tu TV, que en experiencias "inmersivas" de VR (aunque les puedo asegurar que si esas consolas están con nosotros otra generación más, que es casi seguro que adoptarán el VR).

Sin embargo, la buena noticia es que empresas de menor tamaño han tomado la iniciativa, y a través de portales como Kickstarter (en donde puedes obtener fondos para tus ideas) están empezando a ver la luz...

Si recuerdan no hace mucho les hablé de la consola OUYA, una consola "abierta" para la cual cualquiera puede desarrollar video-juegos. En ese artículo me mostré escéptico a que esa consola vaya a ser exitosa más allá de los hobistas y geeks que como yo nos encanta cualquier cosa nueva en tecnología, pero sin embargo escribí el siguiente párrafo en ese artículo:

"Pero volviendo a la positividad, al mediano y largo plazo en donde yo me concentraría con esta consola es en algún nicho que hoy día no está siendo satisfecho por los demás. Uno de esos nichos es la Realidad Virtual, juegos inmersivos con gafas 3D envolventes y sensores de movimiento, una moda que se adelantó a sus tiempos hace un par de décadas y fracasó debido a que el hardware no estaba listo todavía para ese tipo de tendencias. Pero hoy día algo como el OUYA ciertamente podría avanzar en esa área, y eso sería un gran factor diferenciador."

Ese párrafo toma ahora toda una nueva dimensión, pues apenas hace unos días se anunció también en Kickstarter un proyecto llamado el Oculus Rift.

El Oculus Rift es en esencia la versión moderna de unas gafas de VR, con un peso ligero, pantalla de buena calidad, un amplio campo de visión, sensores de movimiento super precisos, y un SDK (herramientas de desarrollo) para que terceros tomen ventaja de esta e inventen cosas (el Oculus Rift viene con una copia de Doom 3 para Windows que funciona en modo de Realidad Virtual para demostrar el potencial del hardware).

Así que me puse a pensar... ¿qué tal si alguien se las ingenia para notar que 2 + 2 = 4 y notar que estas dos herramientas están hechas una para la otra?

Si combinamos el OUYA con el Oculus Rift, podríamos tener a corto plazo una verdadera consola de Realidad Virtual, mientras esperamos a que los grandes del mercado despierten y nos entreguen algo más sofisticado.

Y lo digo en serio. Si alguno de ustedes lectores de eliax tiene el tiempo y talento para hacer algo con esto, este es el tipo de proyectos que yo con gusto les daría publicidad gratuita en el blog (y apoyo a través de developers.X) para que lo lleven a cabo.

El reto está ahí, y los potenciales beneficios de esta aventura son inmensos. ¿quien se anima?

el Oculus Rift en Kickstarter

Video del Oculus Rift a continuación (enlace YouTube)...


autor: josé elías


Microsoft lanza sorpresivamente Outlook.com, sorprende. Primeras impresiones
eliax id: 9585 josé elías en jul 31, 2012 a las 03:44 PM (15:44 horas)
Outlook.comeliax.com - Para Mentes CuriosasHoy Microsoft lanzó un nuevo servicio de email llamado Outlook.com (sí, el mismo nombre de su programa de mensajería en Microsoft Office), y he estado probándolo por unas horas, y debo decir que estoy sorprendido...

Para empezar, la primera pregunta que viene a la mente es ¿y qué de Hotmail?

Pues como muchos saben, Hotmail en años recientes ha gozado de mala publicidad, siendo para muchos (yo incluído) la dirección de email que utilizamos cuando tenemos que llenar algún formulario en la web en donde sospechemos recibiremos SPAM (correos no deseados). Para cosas "serias" utilizamos GMail o Yahoo Mail.

Así que Microsoft obviamente quiere distanciarse lo más posible de Hotmail con este servicio, y ofrecerlo como "un nuevo comienzo", desde cero. Y les puedo decir algo con absoluta certeza: Lo lograron. Outlook.com no se parece en nada a Hotmail, y es más un primo cercano del GMail de Google.

Y hablando de GMail, Google por fin tiene competencia, no solo contra GMail, sino que contra Google Docs...

Outlook.com es el primer servicio de email desde que probé GMail hace varios años que me ha hecho volcar la cabeza y notar algo nuevo y que vale la pena probar. El interfaz es extremadamente sencillo y limpio, recordando sin duda el interfaz "Metro" de Windows 8 y Windows Phone, con colores sólidos y las menos distracciones posibles.

Y una excelente noticia es que viene integrado con SkyDrive (el servicio de almacenamiento en la nube de Microsoft) y con Office en la Web (la versión de Microsoft Office que utilizas dentro del navegador web, sin necesidad de instalar localmente a Office o tener licencias de uso). En otras palabras, un competidor directo de Google Docs.

Últimamente hago todo en Google Docs (y por el momento, continuaré haciéndolo), pero para aquellos que aun no hayan dado el salto desde Microsoft Office u Open Office, a Google Docs, esta es una excelente alternativa, pues en muchos sentidos se siente como Office.

Una cosa que Microsoft aun tiene que mejorar es la velocidad de la aplicación, la cual para ciertas cosas (como editar documentos) se siente un poquito más lento que Google Docs, pero estoy seguro que Microsoft resolverá esos problemas rápidamente.

Algo interesante es que Outlook.com se integra directamente con Facebook y Twitter (me sorprendió la primera vez que me envié un email yo mismo desde mi cuenta de GMail, y me salió con todo y mi foto de Facebook), y además se integra con Skype (aunque aun no ha sido habilitado), lo que será de utilidad para muchos sin la menor duda (y le dará competencia también a Google Talk + GMail).

Noten que por el momento el servicio de Outlook.com está en Beta (es decir, etapa de pruebas), pero Microsoft a abierto la etapa Beta para todo el que desee hacerlo, por lo que les recomiendo abrir sus cuentas ahora mismo (y así tener mejores oportunidades de agarrar un nombre propio o corto antes de que millones de personas entren al servicio). Así que recuerden que algunas cosas aun no funcionan bien, pero en mi experiencia hasta ahora es que casi todo funciona de maravilla.

En cuanto a lo que obtienes, Microsoft dice que te ofrece espacio virtualmente ilimitado para emails (Gmail ofrece 10GB de espacio), y además te ofrece 7GB de espacio adicional para SkyDrive y tus documentos de Office Web. Así mismo cuando envíes emails puedes adjuntar archivos de hasta 100MB, o de hasta 300MB si el archivo proviene de tus archivos almacenados en SkyDrive (noten que GMail tiene un límite de 25MB para archivos adjuntos).

En resumen, recomiendo fuertemente que le den una probadita. En el mejor de los casos les renovará la fe en que Microsoft podría salir de los aprietos en que se encuentra en estos momentos, y en el peor de los casos obtendrán un servicio superior al de Hotmail en casi todos los sentidos, y que compite mano a mano (y en algunos casos, supera) a las ofertas de Google.

Una nota final que quiero hacer es que esto es obviamente una parte más del rompecabezas de Microsoft de integrar todos sus productos bajo un mismo marco. Ahora parece que Windows 8, Windows Phone, Outlook.com, e incluso el Xbox 360, son todos partes de una misma familia, y no enemigos viviendo bajo un mismo techo.

Me gusta la dirección que Microsoft está tomando, y solo esperemos que Windows 8 y Windows Phone 8 despeguen el próximo año 2013, que en mi opinión, será el año más importante en toda la historia de Microsoft desde su fundación, y no me refiero en términos de que ganará o no mucho dinero, sino del hecho de que si toda esta nueva propuesta de Microsoft no tiene un éxito demostrado para finales del 2013, ese sin duda será el fin de Microsoft como la conocemos.

Sin embargo, al menos este nuevo servicio (y lo poco que hemos visto de Windows 8 RT y Windows Phone 8) me dice que hay cabida para otro competidor más allá de Apple, Google y Amazon, y que el futuro de Microsoft tiene un posible luz brillante al final del túnel...

página web de Outlook.com

Video a continuación (enlace YouTube)...


autor: josé elías


Sight, un vistazo al futuro de la Realidad Aumentada y el IrixPhone. Video asombroso
eliax id: 9582 josé elías en jul 30, 2012 a las 12:08 AM (00:08 horas)
Hoy los dejo con este interesantísimo video titulado Sight ("Vista"), un video realizado por los estudiantes Eran May-raz y Daniel Lazo como su proyecto final en el Bezaleal Academy of Arts, y que nos ofrece un vistazo a un posible futuro en donde todos tengamos el equivalente al IrixPhone en nuestros ojos.

¡Gracias a los lectores Nestor Bencosme y Jhonnatan Rodriguez por el enlace al video en el grupo oficial de eliax en Facebook!

enlace original en Vimeo

Video a continuación (enlace YouTube)...


autor: josé elías


Introducción de alto nivel a WebSockets, la nueva tendencia en aplicaciones web
eliax id: 9580 josé elías en jul 29, 2012 a las 12:09 AM (00:09 horas)
Web SocketsDesde el 2009 he estado mencionando a WebSockets acá en eliax, pero creo que el tiempo ha llegado para que los desarrolladores de software lo tomen ya en serio, pues dado que las últimas versiones de todos los navegadores web populares (Chrome, Safari, Firefox, Opera, y la próxima versión de Internet Explorer 10) lo soportan, es hora de entender de qué se trata esta tecnología...

Noten que esta no es una guía de programación (pues ya hay varias en la red y no quiero reinventar la rueda, y al final de este artículo los dirijo a unos cuantos recursos de esa naturaleza), sino que una guía de alto nivel para que entiendan (1) qué es WebSockets, (2) por qué se necesita, y (3) cuáles son sus ventajas.

El problema que WebSockets trata de solucionar es el de cómo hacer que un servidor le envíe datos a un cliente (es decir, a un navegador web).

Hoy día existen dos maneras populares de lograr eso, y ambas pueden ser consideradas "hacks" y no soluciones a largo plazo (y lo digo por experiencia, pues he utilizado ambas maneras en mi propio código). Y para ilustrar con un ejemplo, asumamos que queremos crear una aplicación de chateo que comunique a varias personas que se comuniquen a un mismo portal web entre sí.

La primera forma de hacer ese sistema es con una técnica llamada polling. Esta es una técnica en donde en código de javascript en el navegador web uno pone un intervalo usualmente fijo (por ejemplo, cada 5 segundos), y al final de esos 5 segundos uno hace una llamada al servidor web preguntando "¿tengo un mensaje nuevo?".

Por lo general, uno no tendrá un mensaje nuevo (salvo que se esté chateando activamente, pero esa es la excepción a la regla), por lo que posiblemente la mayoría de esas conexiones al servidor serán respondidas con "no, no hay novedad".

Eso, como se podrán imaginar, es un gran malgasto de recursos, ya que estamos haciendo conexiones constantes al servidor (y transfiriendo datos con el protocolo HTTP), innecesariamente la mayor parte del tiempo.

De paso es un problema serio ya que puede sobrecargar la capacidad del servidor de tener que responder a potencialmente miles o millones de usuarios simultáneamente sin razón alguna.

Y lo peor es que en aplicaciones de tiempo real (como chateo) no podemos poner un tiempo de intervalo muy largo (como por ejemplo, 30 segundos), ya que eso haría que el usuario tenga que esperar demasiado tiempo esperando, y tomamos el riesgo a que se desespere y deje de utilizar la aplicación.

La otra opción es una variante que se llama long-polling, y se trata de crear una conexión al servidor, pero nunca cerrarla, de modo que el servidor pueda en cualquier momento responder al pedido del cliente cuando esté listo para responder.

Sin embargo, esa técnica tiene también sus problemas. Por ejemplo, si no sucede nada por mucho tiempo es posible que obtengamos un timeout y se cierre la conexión, lo que hace el código más complejo para lidiar con esos escenarios. Además, el mantener demasiadas conexiones abiertas (en particular con miles de usuarios conectados simultáneamente) es una tremenda carga para el servidor cuando se utiliza el protocolo HTTP, necesitándose de hardware más potente.

Y es aquí en donde entra en acción WebSockets...

WebSockets, como alude su nombre, trae el modelo de sockets de TCP/IP a la web, permitiendo comunicación bi-direccional entre servidores y navegadores web, en cualquier momento.

Pero, ¿cómo puede eso ser posible? Pues para empezar, el navegador web debe soportar la tecnología, y además el servidor web (o servidor de aplicaciones) debe implementar también el protocolo. No es algo que se hace encima de librerías existentes de Javascript.

De la manera que funciona es que el navegador web debe primero notificarle al servidor web que desea recibir mensajes por WebSockets, y proveer al subsistema de WebSockets local (es decir, javascript) la función a ser llamada estilo Callback cuando el servidor desee enviar datos.

En esencia, tu simplemente tienes que poner tu código que recibe el mensaje del servidor en la función callback, y te olvidas del resto. Cuando el servidor te envíe un mensaje, tu función será llamada de modo asíncrono, y tu código se ejecutará. Así de sencillo.

Algo genial es que el overhead de WebSockets es minúsculo comparado con el de HTTP. Para que tengan una idea, en mediciones realizadas (fuente) es posible bajar de requerir 655Mbps de ancho de banda (para soportar a 100,00 usuarios enviando 1 mensaje por segundo), a tan solo 1.5Mbps. Es decir, 430 veces menos ancho de banda.

Y ese ahorro en recursos se debe a que el protocolo soporta no solo la transferencia de objetos, sino que además de datos binarios (en forma de Blob o ArrayBuffer en javascript), permitiendo un nivel de baja latencia y rendimiento que hasta ahora era solo dominio de sockets de bajo nivel.

En cuanto a aplicaciones de WebSockets, son infinitas. Prácticamente cualquier aplicación que requiera de información del servidor en intervalos desconocidos y en tiempo real es candidato para utilizar Web Scoekts. Así mismo como cualquier aplicación que requiere de la eficiente transmisión de datos (como por ejemplo, programas de chateo, o incluso de voz, o de transferencia de archivos).

RFC 6455 (especificación oficial de WebSockets)

WebSocket.org (con recursos y ejemplos)

introducción a WebSockets (con muchas notas importantes)

introducción a WebSockets (con código)

Web Socket en Wikipedia

autor: josé elías


Startup Weekend 2012 en Santiago, Rep. Dominicana. Haz realidad tu idea de negocios en 54 horas
eliax id: 9579 josé elías en jul 28, 2012 a las 12:11 AM (00:11 horas)
Startup Weekend R.D.Hola amig@s lectores,

Si tienen una idea para algún tipo de negocio que involucre tecnología (o utilice tecnología en software y/o hardware como su herramienta para llegar al mercado), y residen en República Dominicana, no dejen de pasar esta oportunidad...

Los días 14, 15 y 16 de Septiembre 2012 se celebrará en Santiago, República Dominicana un evento que recorre 90 países y más de 300 ciudades en todo el mundo, en donde puedes literalmente tratar de hacer tu sueño de un negocio realidad. Es el evento Startup Weekend 2012.

La idea es muy simple: Tienes 3 días para desarrollar y demostrar tu idea (en etapa de prototipo), y si tu idea está entre las elegidas, tendrás la oportunidad de que alguien te la financie y la haga llegar al mercado.

A mi (junto a unos cuantos más) me han invitado a ser un mentor a los grupos, para durante esos 3 días aconsejarlos en temas que van desde temas técnicos, hasta el modelo de negocio y cómo presentar y vender la idea.

Noten que estoy donando mi tiempo para ayudar a los nuevos emprendedores con este evento, no soy parte de su organización, por lo que para más detalles sobre cómo participar contacten a los organizadores en este enlace.

Los dejo a continuación con la Nota de Prensa oficial sobre el evento (que contiene más información sobre el lugar y otros puntos importantes)...

Leer el resto de este artículo...


autor: josé elías


Google reveló cuánto pagó por las patentes de Motorola Mobility. Opinión
eliax id: 9578 josé elías en jul 27, 2012 a las 12:08 AM (00:08 horas)
Juego de PokereliaxSi recuerdan, en Agosto del año pasado Google compró la división móvil de Motorola (Motorola Mobility), y en mi análisis de ese entonces escribí lo siguiente (segundo párrafo):

"El CEO (Gerente General) de Google, Larry Page, ofreció unas cuantas razones en el Blog oficial de Google de por qué adquiría a Motorola Mobility (para operarla como una entidad independiente de Google), pero independientemente de todo lo que dijo, en mi opinión esta medida se tomó en realidad por una y solo una muy (per muy) importante razón: Patentes."

Y hoy se hizo oficialmente evidente (fuente) que ciertamente esa fue la razón de la compra, al Google revelar por primera vez al SEC (la entidad gubernamental estadounidense que regula este tipo de acciones en empresas) que pagó nada más ni nada menos que US$5500 Millones de dólares exclusivamente por el portafolio de patentes móviles de Motorola.

Esa noticia tiene mucha importancia hoy día en donde vemos casi a diario alguna que otra noticia de que tal empresa en el espacio móvil demandó a tal otra empresa en el mismo espacio (por lo general involucrando a Google, Motorola, Samsung, Apple, Microsoft, Nokia, RIM y los otros jugadores usuales del espacio).

Por ejemplo, en días recientes muchos lectores me han pedido que escriba algo sobre las patentes que recientemente obtuvo Apple y que describen muchas de las funcionalidades básicas de cualquier celular. Me dicen (así como dicen otros analistas) que esto detendrá las ventas de Android cuando Apple los demande.

Pues lo dudo mucho.

Estas patentes que obtuvo Apple, y al igual que las que obtuvo Google, así como las que tienen otros como Nokia, RIM y HP (con su adquisición de Palm), no son para evitar las ventas de los competidores (aun aparente ser eso sobre la superficie), sino que más bien como una forma de obtener cartas para jugar el juego de la negociación...

¿Negociación de qué? Pues de las mismas patentes obviamente. Se le está haciendo evidente a estas empresas que las patentes más que una herramienta para evitar ser copiados, se están convirtiendo más en un estorbo para hacer cualquier cosa en la industria (como expliqué en mi editorial del año pasado: Editorial Eliax: Patentes, una bomba de tiempo...), y la única manera de moverse hacia adelante es con el consentimiento de los demás.

Pero sucede que ese consentimiento no viene muy fácil. No es tan fácil como decir "yo te presto estas patentes y tu me prestas esas", sino que más bien es "el valor de mis patentes es este, ¿cuál es el valor de las tuyas?". Es decir, todo se reduce a dinero, a tratar de pagar lo menos posible en comisiones por uso de patentes.

Y si creen que el objetivo de empresas como Apple, Samsung o Microsoft es detener ventas, solo noten la última jugada de los abogados de Google en días recientes, quienes se apoyaron en el "uso justo de patentes básicas" para aludir que si Apple no licencia esas patentes que posee la podrán demandar por monopolio, algo que los abogados de Apple saben perfectamente bien es un argumento real ante las entidades reguladoras gubernamentales.

¿Así que qué queda? Negociar. Con patentes.

autor: josé elías


GRAN HITO: Simulan en una computadora un organismo biológico completo. Opinión
eliax id: 9574 josé elías en jul 25, 2012 a las 12:09 AM (00:09 horas)
Mycoplasma Genitalium simulado en una computadoraHace pocos días les comuniqué de que posiblemente este año se logre crear la primera forma de vida 100% sintética, pero mientras esperamos por ese avance hoy los dejo con este otro que no es menos importante, y que sin duda es uno de los hitos científicos en cuestiones de biología más importantes de todos los tiempos.

Por primera vez en la historia, un grupo de científicos ha logrado simular en un modelo 100% digital dentro de una computadora, a un ser vivo de la vida real.

En otras palabras, tomaron como referencia todo lo estudiado hasta momento de un organismo terrestre, lo modelaron matemáticamente en un programa informático, y al encender la simulación el organismo cobró vida en el computador.

El organismo que fue simulado fue uno extremadamente simple, el Mycoplasma Genitalium, la bacteria de su tipo más pequeña del mundo y con solo 525 genes. Para modelar la bacteria se utilizó información recopilada de más de 900 trabajos científicos que documentan el funcionamiento de la bacteria, y para simularla se requirió de nada menos que 128 computadoras bastante potentes trabajando en paralelo, y debido al nivel de complejidad tan solo el simular la división celular de este organismo tomó cerca de 10 horas de computación y alrededor de 500MB de datos.

Así que por un lado las cosas se ven pequeñas (pues estamos muy lejos de simular un humano a este nivel celular, cosa que vale la pena aclarar no es ni un objetivo ni una barrera para crear Inteligencias Artificiales), pero por otro lado las cosas se ven muy espectaculares; veamos por que...

Lo primero es que esto permitirá en un futuro no lejano simular organismos más complejos, lo que nos permitirá utilizar estas simulaciones como un "microscopio computacional" que nos ofrecerá una ventana para ver en extremo detalle todos los procesos biológicos de los cuales depende la vida.

Eso de paso nos llevará sin duda a grandes adelantos no solo en la comprensión de lo que es vida, sino de lo que puede acabar la vida, ofreciendo valiosos datos que nos permitirá crear mejores medicinas, terapias y curas contra todo tipo de enfermedades.

Simulación de un organismo vivo en una computadoraPero sin embargo, quizás uno de los puntos que más claro ha quedado establecido con esta simulación es que ciertamente, se puede crear vida desde cero, sin ayuda de procesos o mecanismos tradicionales. Recuerden que estamos hablando de que esta simulación en esencia creó vida, un ser viviente compuesto no por átomos ni moléculas complejas, sino que por simulaciones de estas puramente matemáticas.

Es decir, los patrones de la vida ciertamente se pueden transportar desde un entorno físico a uno virtual y continuar funcionando normalmente.

Ahora, muchos se preguntarán, ¿qué tan fiel es esta simulación? Pues para sorpresa incluso de los mismos que desarrollaron la simulación, tan solo con iniciar con el ADN de esta bacteria, el organismo resultante terminó pareciéndose a uno de la vida real, así como se dividió celularmente como uno real, lo que es testamento de lo increíblemente exacto que fue este proceso.

Este quizás sea un buen momento para empezar a leer Máquinas en el Paraíso...

publicación científica en la revista Cell

fuente 1

fuente 2

autor: josé elías


Increíble software amplifica imágenes de video para resaltar patrones
eliax id: 9564 josé elías en jul 17, 2012 a las 12:09 AM (00:09 horas)
Hoy los dejo con un video que demuestra un increíble nuevo software desarrollado por investigadores del MIT que amplifica patrones visuales en video.

Lo que en esencia esto hace es que hace resaltar mucho más de lo normal cualquier patrón repetitivo en un video, como puede ser el respirar de una persona, o el pulso sanguíneo de alguien, o incluso la forma en luces se prenden y apagan en intervalos (si no entienden todavía, continúen leyendo).

Esto tiene innumerables usos, como por ejemplo el poder monitorear con una cámara normal de video a un bebé, para poder notar con increíble precisión los latidos de su corazón y su ritmo de respiración (lo que acabaría con gran parte de los casos de muerte súbita infantil).

El video hace una excelente explicación visual sobre de qué se trata eso, y al verlo funcionar es casi como ver magia en software. Para los que no sepan inglés, noten que cuando ven en el video la cara del bebé ponerse roja y blanca, es porque el sistema ha analizado el video (que notemos es una cámara perfectamente normal, como la de un celular o video grabadora casera) y amplificado esos patrones.

En esencia, lo que este sistema hace es hacer que patrones que están en el video pero que nos son imperceptibles, se amplifiquen para que podamos verlos con mayor claridad.

Y si se preguntan ¿cómo sabe el software cuáles elementos amplificar? Pues alguien le debe decir, antes de ejecutar el algoritmo, la frecuencia que se desea resaltar, y después el software se concentra en buscar patrones que se repitan con esa frecuencia.

Algo importante mencionar sobre este invento es que el algoritmo es bastante ligero, y por tanto se puede ejecutar fácilmente en hardware de bajo costo, lo que me dice que esto bien podría llegar a nuestros celulares mucho antes de lo que nos imaginamos, y de paso crear una mini-revolución en dispositivos médicos de bajo costo, ya que según los inventores de esta técnica esto es tan preciso como equipos tradicionales de alto costo.

¡Gracias Guido Perdomo por el enlace al video!

página oficial del proyecto

Video a continuación (enlace YouTube)...


autor: josé elías

"Asombrosa explicación, he querido explicarle esto a mucha gente, pero es la primera ves que veo que alguien lo explica de una manera entendible, felicidades."

por "Romell" en jun 18, 2012


en camino a la singularidad...

©2005-2019 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax