texto:   A-   A+
eliax

Tecnología Visual
Los más asombrosos GIF animados que he visto en mucho tiempo
eliax id: 9984 josé elías en feb 6, 2013 a las 12:12 AM (00:12 horas)
Hoy sencillamente los envío a contemplar una serie de los más asombrosos GIFs animados que he visto en mucho tiempo.

Para los menos técnicos, GIF no es más que un formato de imágenes (similar al formato que generan las cámaras digitales de hoy día) pero que solo puede desplegar 256 colores a la vez. Sin embargo, una de sus particularidades es que puede animar esas imágenes, lo que ofrece unas oportunidades creativas asombrosas (como verán en el enlace a donde los envío ahora).

Solo tengan paciencia al visitar las páginas pues puede tardar unos segundos o incluso minutos cargar las imágenes.

enlace a las imágenes

Actualización: Y otro enlace más del mismo autor (¡gracias Miguel Palau por la contribución!)

autor: josé elías


Un japonés tardó 7 años dibujando este super-detallado laberinto a mano
eliax id: 9978 josé elías en feb 4, 2013 a las 12:09 AM (00:09 horas)
Foto del laberintoHace cerca de 30 años, un conserje de algún edificio se sentó a dibujar, posiblemente como hobby para matar el aburrimiento en las noches, tomando una hoja de papel de tamaño A1, y creando un simple laberinto.

Pero al pasar de los días este dibujo fue creciendo en complejidad, tomando forma y cobrando vida, y 7 años después de intensa labor constante logró completar una de las obras más asombrosas que al menos yo haya visto.

Es un super-detallado laberinto con cientos y miles de vueltas, conexiones, interconexiones, callejones, niveles y detalles, que sencillamente asombran la mente. Y noten el tamaño de las lineas (comparen con la regla que aparece en la foto).

Sin embargo, su trabajo pasó desapercibido hasta que recientemente su hijo descubrió el dibujo entre las pertenencias de su padre, y subió un par de fotos a Twitter, lo que se convirtió en toda una sensación en Japón.

Hoy día el papá anónimo es una mini-celebridad, e incontables personas han indagado sobre una forma de obtener una copia enmarcada de esta obra (yo estaría dispuesto a comprar una copia).

No dejen de visitar el enlace para ver al menos un par de otras fotos con más detalle de lo colosal de esta pequeña obra de amor y obsesión...

fuente

fuente en Japón

autor: josé elías


GRAN HITO: Capturan en video un pensamiento formándose en un cerebro
eliax id: 9977 josé elías en feb 4, 2013 a las 12:08 AM (00:08 horas)
Observen maravillados el video que acompaña este artículo de hoy, puesto que inmortaliza para la posteridad el momento en que realmente pudimos ver un pensamiento siendo codificado en un cerebro.

Hasta hace pocas décadas se creía popularmente que los pensamientos eran cosas "del más allá", imposibles de medir, y que eran parte de un espíritu o alma que todos supuestamente llevamos dentro. Sin embargo, desde que hace un tiempo iniciamos la neuro-ciencia (el estudio del funcionamiento del cerebro) se hizo bastante evidente que todo lo que somos, lo que pensamos y lo que sentimos, no es más que el resultado de un flujo de señales electro-químicas en el cerebro.

Y el video de hoy es una evidencia más de ese hecho demostrado.

En el video (resultado de una investigación de un equipo japonés) verán el cerebro de un Pez Cebra, justo en el momento de identificar una presa. O en otras palabras, el patrón del movimiento que ven en las neuronas en el video, es el instante justo en donde este pequeño pez identifica una posible comida.

¿Qué pensó exactamente? Pues obviamente no lo sabemos con certeza, pero sí nos podemos imaginar que el pensamiento generado tenía que ver con "comida" o "atacar" o algo por el estilo.

Pero quizás lo más alucinante es entender que ese mismo proceso que vemos en ese pequeño cerebro, está ocurriendo ahora mismo en nuestros propio cerebro, en donde miles de millones de neuronas y sinapsis se envían mensajes entre sí para codificar lo que perciben nuestros sentidos, y para enviar comando a nuestros músculos para ejecutar acciones.

Y esto a propósito, nos acerca un poco más a este escenario de mi imaginación que compartí con ustedes en una de mis Reflexiones...

¡Gracias a todos los lectores que enviaron esta noticia por distintos medios!

fuente

Video a continuación (enlace YouTube)...


autor: josé elías


Eliax explica: La diferencia visual entre Distancia Focal y Zoom
eliax id: 9942 josé elías en ene 17, 2013 a las 12:12 AM (00:12 horas)
Distancia Focal vs ZoomeliaxUna de las cosas menos intuitiva de la fotografía, particularmente para principiantes, es la relación que existe entre distancia focal y zoom.

No se asusten si todavía no saben de lo que estoy hablando, porque les explico en un instante...

Empecemos con un ejemplo: Digamos que tienes una cámara fotográfica, y que esta tiene un buen lente de zoom, y que quieres tomar un retrato de una persona (asumamos un retrato solo de la cara).

Por lo general (y en lo que concierne a este artículo de hoy), existen dos maneras de "encuadrar" a la persona en la foto. La primera manera es acercarte lo más posible a la persona hasta que su cabeza esté encuadrada en el visor o pantalla de tu cámara. La segunda manera es alejarte de la persona y "aplicar zoom" a la cámara para acercarte ópticamente a la cara de la persona.

Y es aquí en tonde entra en juego la curiosidad de hoy...

Sucede, que sentido común aparentaría decirte que en ambos casos la persona se verá igual, pues en ambos casos la cara de la persona llena toda la pantalla. Sin embargo, nada podría ser más alejado de la realidad.

Sucede que al acercarte a la persona físicamente con tu cámara, estás ampliando la curvatura focal, y por tanto estás esencialmente "echando hacia los lados" la cara de la persona, como si estuvieses viendo a la persona por uno de esos lentes de ojo de pescado. Y en el segundo caso, cuando te alejas de la persona, logras todo lo contrario, el "comprimir" la cara de la persona.

En el primer caso logras un efecto más tridimensional, y en el segundo un efecto más aplanado.

Esto es algo extremadamente importante entenderlo en la fotografía, pues afecta muchísimo el "look" de la imagen final. Esta es también una de las razones por la cual un novato con una cámara super cara por lo general no saca fotos tan estéticamente placenteras como un experto con una cámara barata.

Y esta es también una de las razones más importantes para comprar lentes distintos en cámaras de lentes intercambiables. Por ejemplo, uno de los mejores lentes para retratos es uno prime (fijo, sin zoom) de 85mm (y milimetrajes un pocos más altos), pues ya se ha hecho evidente por millones de fotografías que con ese milimetraje se producen imágenes de caras y cuerpos de personas que no aparentan ni muy distorsionados ni muy aplanados (en mi caso utilizo el Canon 85mm f1.8, que es excelente por su precio).

Esto no significa que no puedas o debas utilizar otros lentes (como uno de 50mm o 105mm que son también bastante buenos), pues para fines creativos (o de hacer ver a personas más delgadas o pesadas) todo vale, pero significa que es bueno que sepas lo que haces y tengas una idea del resultado que obtendrás al acercarte físicamente o cambiar la distancia focal, ya que eso afectará de forma notable tus imágenes.

Notemos también que esto aplica a mucho más que retratos. Por ejemplo, si quieres lograr un efecto dramático de un edificio quizás quieras utilizar un lente ancho, y tomar una foto de cerca, en vez de alejarte y tomar una foto más aplanada desde lejos. Y si entiendes bien el truco, podrás así mismo lograr mejores fotos cuando fotografías automóviles, paisajes, etc.

No dejen ahora de visitar los dos enlaces a continuación en donde verán esto de formal visual, con imágenes que muestra el mismo tamaño relativo del sujeto, pero bajo distintos milimetrajes del lente (noten que mientras más grande el milimetraje, mas zoom).

enlace 1

enlace 2

crédito de la foto

Actualización 1: En los comentarios un par de lectores pregunta que cual es el lente que más se asemeja al "la vista real" de un ojo humano, y la respuesta es un lente de 50mm (que es una de la razones por la cual siempre recomiendo ese lente como el primero a los que se inician en la fotografía).

Actualización 2: Aunque nadie aun lo ha comentado en los comentarios, "zoom" en realidad no es más que una distancia focal de gran acercamiento óptico, por lo que en realidad es un sub-conjunto de distancias focales. Hago la aclaración más para técnicos que para principiantes, y para que sepan que mi punto era aclarar el tema de la distorsión generada en distintas distancias focales para el fotógrafo principiante, y para ese público la palabra "zoom" se entiende más en este contexto :)

Actualización 3: Este artículo tiene una segunda parte que pueden leer en este enlace.

autor: josé elías


Eliax explica: Las 3 maneras de lograr el efecto Bokeh con cámaras digitales
eliax id: 9931 josé elías en ene 15, 2013 a las 12:10 AM (00:10 horas)
eliax¿Han notado esas fotos en donde una persona u objeto aparece de forma bastante clara y nítida mientras que el fondo permanece difuso o borroso y libre de distracciones? A ese efecto se le llama "bokeh" y hoy les enseño las tres formas de lograrlo.

Bokeh proviene de la palabra japonesa boke (暈け or ボケ) y significa literalmente "borroso", lo que es un nombre muy apto para este efecto.

Los que son expertos en fotografía lo han utilizo desde los tiempos que se inventaron los primeros lentes en este arte, pero estoy seguro que cuando menos uno que otro se sorprendió al leer el título de este artículo, ya que por lo general se cree que existe una sola manera de crear este efecto, y es con esa manera que iniciaremos nuestra artículo...


1. Gran Apertura
La primera y más conocida forma de lograr este efecto es abriendo la apertura del lente de tu cámara lo más posible. Es decir, reduciendo el número f de tu lente. Por lo general el efecto se nota cuando bajas del f2.8, y es particularmente pronunciado con f1.8 o f1.4 (y muchísimo más pronunciado en f1.2 en adelante).

Si quieres aprender más sobre Apertura (así como ISO y otros elementos que afectan tus fotos), recomiendo lean esta guía previa en eliax.

Pero, ¿cómo abrir la apertura lo más posible con tu cámara? Pues la forma más fácil es si tu cámara posee la capacidad de funcionar o en modo manual o (preferiblemente en este caso) en modo de "Aperture Priority" (por lo general el modo "Av" o "A" en tu cámara DSLR).

Simplemente pon tu cámara en uno de esos modos y disminuye el valor de tu Apertura lo más posible (lo que hace que incremente el tamaño del agujero dentro de tu lente, permitiendo que entre la mayor cantidad de luz posible al sensor).

Es importante notar que muchos lentes tienen un rango variable de zoom y apertura, en donde por lo general si haces mucho zoon no puedes utilizar una gran apertura, por lo que la regla básica para empezar es no acercar la imagen con el lente en lo absoluto mientras manipulas el valor de la apertura.

Así mismo conviene acercarte lo más posible al sujeto que quieras fotografiar para que se note más el efecto.

En el caso que tengas una cámara compacta sin controles manuales, puedes probar en condiciones en donde no haya demasiada luz, lo que hará que la cámara abra la apertura lo más posible (para captar más luz) y acercándote lo más posible al sujeto que quieras fotografiar. Nota sin embargo que muchos lentes de cámaras baratas (o celulares) sencillamente no tienen una apertura (o sensor) lo suficientemente grande para lograr este efecto de forma pronunciada.


2. Gran Sensor
La otra forma de obtener un efecto Bokeh es captando la fotografía con un sensor lo más grande posible. Sin embargo, esto por lo general está fuera del presupuesto de la mayoría de las personas, ya que a inicios del 2013 una cámara "full-frame" cuesta como mínimo US$2,000 dólares, y si nos movemos hacia arriba a sensores mucho más grandes (como cámaras del tipo "Medium Format") hablamos de equipos que cuestan sobre los US$10,000 dólares generalmente.

Sin embargo, es bueno entender que mientras más grande es el sensor de una cámara, más pronunciado es el efecto bokeh debido a la gran cantidad de luz que entra al sensor y la forma en como la luz se distribuye al entrar por el lente.

Así que por ejemplo, con una cámara full-frame (como una Canon 5D Mark III) podrás lograr un efecto bokeh muchísimo más pronunciado con un lente en apertura f2.8, que con el mismo lente en una cámara de un sensor mucho más compacto (como las micro-four-thirds).


3. Gran Acercamiento;
La otra forma menos obvia de lograr bokeh es con un truco que por años ha sido utilizado por profesionales de la TV y el cine, y consiste de utilizar un lente zoom (que para el usuario promedio es muchísimo menos costoso que comprar una cámara con un gran sensor).

El truco es bastante sencillo y consiste de lo siguiente: Incrementa el zoom lo más posible (o al menos, de forma prudente), y después acércate al sujeto a fotografiar lo más posible. Y mientras haces esto, obviamente trata de abrir la apertura lo más posible como explicado anteriormente.

En otras palabras, si quieres tomar el retrato de una persona de medio cuerpo, lo que puedes hacer es utilizar un lente zoom, alejarte de la persona, hacer zoom lo más posible, y después acercarte poco a poco hacia la persona hasta estar lo más cerca posible (digamos, que se vea solo la cabeza y el cuello).

Este truco toma un poco de práctica y funcionará mejor con algunos lentes que en otros (así como en algunos niveles de zoom más que en otros en el mismo lente, por lo que esto requiere experimentación).

Es importante destacar que este truco de hacer zoom no funciona con el zoom digital de muchas cámaras (y celulares), ya que se requiere de un efecto óptico de los lentes para propagar la luz de una manera determinada.


Así que ahí lo tienen, espero que si tienen cámaras que se pongan a experimentar y comenten sus experiencias en los comentarios... :)

Nota 1: Una semi-cuarta forma de lograr este efecto bokeh es con post-procesamiento en programas como Photoshop, en donde aíslas con una selección al sujeto que quieres quede claro, y después le aplicas un filtro de blur al resto de la imagen, pero el efecto es posible que no se vea muy realista, particularmente si no eres un usuario experto de Photoshop o que sepa las idiosincracias técnicas de composiciones fotográficas.

Nota 2: Existen herramientas en la web que les permiten simular de forma "virtual" el jugar con algunos de estos parámetros (lo que es útil si no posees una cámara a mano). Dos de esos recursos son este y este.

autor: josé elías


Eliax explica: LG demuestra el primer proyector láser en HD para consumidores
eliax id: 9926 josé elías en ene 7, 2013 a las 11:58 AM (11:58 horas)
LG Hecto, proyector láserLa empresa LG por fin demostró lo que había anunciado en semanas recientes: El primer proyector de video HD que utiliza rayos láser para formar la imagen.

Esto es algo de lo cual les hablé en el 2006 acá mismo en eliax, pero que apenas recientemente se hizo práctico gracias a tecnologías como esta desarrollada hace 3 años.

Noten que desde el 2010 ya existen proyectores láser, pero de muy pequeño tamaño y resolución, diseñados principalmente como pequeños proyectores de bolsillo para celulares inteligentes (como este modelo), pero esta es la primera vez que una empresa se atreve a lanzar un modelo apto para ambientes de cine hogareño y de alta definición.

Y si se preguntan qué tienen de especial estos proyectores, la respuesta es "muchas cosas"...

Para empezar, estos proyectores es posible diseñarlos para que no sea necesario tener que enfocarlos en una pantalla o pared, ya que por su propia naturaleza estos lásers siempre están enfocados (imaginen un puntero láser, sin importar hacia donde lo apuntan, siempre generan un "punto" perfecto en la pared, y en este caso hablamos de millones de esos puntos).

Además, tienen una vida útil muchísimo mayor que las lámparas tradicionales. Por ejemplo, el modelo HECTO de LG tendrá una vida útil de unas 25,000 horas antes de tener que reemplazar el sistema láser. Eso es suficiente para ver unas 15,000 películas, o tener el proyector funcionando durante 3,125 días (8 años y medio) con 8 horas diarias de uso continuo.

Así mismo se calientan menos, producen un contraste de imagen mucho mejor, colores más vivos y realistas, y se pueden colocar muchísimo más cerca de la pantalla o pared (el HECTO de LG se puede colocar apenas a 22 pulgadas de distancia de la pared para proyectar una imagen de 100 pulgadas), eso sin mencionar que hacen menos ruido y consumen menos energía.

En otras palabras, es solo cuestión de tiempo para que prácticamente todos los proyectores del mercado eventualmente sean del tipo láser. Obviamente sin embargo los primeros modelos no serán baratos (LG aun no ha dado a conocer el precio de su primer modelo Hecto, que sale a la venta este año), pero los precios bajarán rápidamente en unos dos a tres años.

autor: josé elías


Análisis eliax: ¿Qué trama Google con Ingress?
eliax id: 9916 josé elías en ene 7, 2013 a las 12:10 AM (00:10 horas)
Google IngresseliaxGoogle recientemente hizo un anuncio un tanto curioso con Ingress, un videojuego que utiliza Realidad Aumentada para que (al menos en teoría) millones de usuarios entren y compartan juegos en un mundo que combina el físico con el virtual.

La premisa de Ingres es bastante sencilla: Varios puntos geográficos de la vida real (por ejemplo, algún punto popular en tu localidad) son más que monumentos, pues son pistas de un rompecabezas muchísimo más grande, cuyo desenlace solo Google sabe, pero que sin duda nos hace recordar programas de TV como Lost (Perdidos).

En estos puntos encontrarás portales, y tu misión es apoderarte de estos portales, a través de armas, y técnicas de hackers. Al conquistar portales obtienes también energía, lo cual te permite hacer otras cosas posteriores en el juego.

Al inicio del juego sin embargo debes elegir si serás parte de los Enlightened (Iluminados) o del Resistance (La Resistencia), en donde los primeros quieren proteger y alentar el uso de una nueva fuente de energía, mientras que los segundos no desean contaminar la humanidad con semejante peligro.

Lo que hace el juego divertido (y adictivo) sin embargo es el hecho de que tienes que salir físicamente a la calle con tu celular Android para jugar el juego. Sobre la pantalla de este verás un mapa con tu posición, así como la posición de los portales que debes conquistar en tu cercanía y otros datos de importancia para completar la misión a mano.

Durante tus misiones, otros pueden atacarte, o incluso reconquistar un portal ya previamente conquistado por tu bando, lo que hace que el juego se torne bastante interesante.

Sin embargo, como ya he explicado antes, Google es una empresa de publicidad, y esta medida debe verse como tal, y no como Google querer entrar en el negocio de los videojuegos…

Así que tomando eso en consideración, ¿qué podemos deducir sobre Ingress? Pues en mi opinión lo puedo resumir en los siguientes tres puntos:

1. Ingress no es tanto un juego, sino una plataforma conceptual para Google experimentar con publicidad más allá de la tradicional en formato impreso en navegadores web o celulares móviles.

2. Ingress es una manera de ver cómo reaccionan las personas ante situaciones que induzcan a mover físicamente a estos. Con esto Google por ejemplo puede crear misiones que lleven a los consumidores a visitar anunciantes específicos en tiendas físicas, lo que es una potentísima arma publicitaria para cualquier empresa que pueda lograr tal cosa. Este es el corazón de Ingress.

3. Ingress es además una aplicación conceptual que en un futuro se adaptaría a las gafas inteligentes de Google (Google Glass), y por tanto sirve desde ahora como un campo de juego y experimentación para una futura generación de aplicaciones de Realidad Aumentada.

Así que ahí lo tienen. En mi opinión, con este “tonto” juego de Google, lo que estamos presenciando es nada más ni nada menos que un vistazo al futuro de la publicidad…

Página oficial de Ingress

Más información sobre la historia detrás del juego

Video a continuación (enlace YouTube)...


autor: josé elías


Microsoft se suma a Google y Apple con gafas inteligentes
eliax id: 9913 josé elías en ene 6, 2013 a las 11:22 AM (11:22 horas)
Gafas Inteligentes de MicrosoftPrimero fue Google con sus gafas inteligentes a las que bautizó como Google Glass, y poco después Apple empezó a llenar patentes de sistemas similares al Google Glass, y ahora le ha tocado el turno a Microsoft de también llenar sus propias patentes

En el caso de Microsoft y una nueva patente en específico, detallan un sistema bajo el cual será posible utilizar unas gafas inteligentes para sobre-imponer información de Realidad Aumentada sobre eventos en vivo (citan específicamente a eventos deportivos).

Así que por ejemplo si estás en un estadio de baseball, podrías ver flotando sobre el cuerpo del lanzador un cuadro con todo su historial estadístico, o quizás la velocidad de la bola que acaba de lanzar. Similarmente, si estás en un juego de fútbol podrías ver las estadísticas del portero con solo mirar hacia este, e incluso quizás podrías ver la dirección más probable en que este saltará basado en datos anteriores.

Sin embargo, lo importante de todo esto es que todos los grandes de la industria ya están pensando sobre lo que podría ser la próxima ola de innovación más allá de celulares inteligentes y tabletas, y aunque nadie sabe si las personas se interesarán en tener este tipo de gafas todo el día, yo pienso que tarde o temprano esa será la tendencia, y así como hubo en tiempo en donde muchos no se imaginaban andar con un celular todo el tiempo con nosotros, así mismo llegará el momento en donde no nos podremos imaginar haber vivido sin gafas o lentes de contacto biónicos para dotarnos de información constante sobre todo el mundo que nos rodea…

autor: josé elías


Despedida del año con mirada al futuro de la Realidad Aumentad con Marco Tempest
eliax id: 9907 josé elías en dic 31, 2012 a las 12:10 AM (00:10 horas)
Ya que es el último día del año, me gusta ver con optimismo nuestro futuro, y algo que será parte intrínseca de nuestro futuro será la Realidad Aumentada, ¿y qué mejor manera de explicar el potencial de esta tecnología que con un video del mago-geek Marco Tempest?

Y lo asombroso (para los que no estén al tanto de esta tecnología) es que Marco realmente hizo todo lo que ven en el video, en vivo, por lo que la tecnología existe, solo que en etapa de prototipo y a precios todavía relativamente altos.

Noten que esta es la idea detrás de tecnologías como Google Glass, y de mi fantaseado IrixPhone (o si quieren irse más lejos en el futuro, el NeuroPhone).

Finalmente, si quieren ver un video de lo lejos que esto llegará al mediano plazo, no dejen de ver este otro...

¡Gracias al lector Marcelo Flix Diaz por el enlace!

Video a continuación (enlace YouTube)...


autor: josé elías


21 de las más asombrosas imágenes astronómicas del 2012
eliax id: 9882 josé elías en dic 22, 2012 a las 12:11 AM (00:11 horas)
Mientras nos acercamos al fin de este año, comparto con ustedes estas alucinantes imágenes astronómicas, 21 de entre las más bellas e impactantes del año.

¡Gracias al lector gaston_pdu por compartir el enlace!

enlace a las imágenes

autor: josé elías


Auxo, implementa una versión imaginaria de iOS 7 para iPhone y iPad. Video
eliax id: 9884 josé elías en dic 21, 2012 a las 11:19 PM (23:19 horas)
¿Qué sucede cuando juntas a unos foros unas personas con mucha imaginación y unos desarrolladores con mucho talento, y una buena idea? Pues lo que verán en el video a continuación...

Lo llaman Auxo, y es un reemplazo total para el sistema de manejo de aplicaciones de iOS en iPhone y iPad (incluyendo iPad mini y iPod Touch).

Como verán, han superado a la misma Apple en funcionalidad y facilidad de uso, e incluso han logrado acercarse a utilidades en Android que logran un efecto similar pero de forma más complicada.

La idea de los creadores de esto es que Apple los copie, o al menos se inspire en ellos (o diría yo, que los contrate) para implementar esto en la próxima versión de su sistema operativo móvil iOS 7.

Pero lo mejor de todo es que todo lo que ven en el video es real y funcionando hoy día, y lo harán público para iPhones liberados con la técnica de jailbreak (no sancionado por Apple, obviamente). Así que si tienen un iPhone jailbroken, atentos a la tienda Cydia en los próximos días...

Video a continuación (enlace YouTube)...


autor: josé elías


Opinión: Con YouTube Capture, Google alimenta su Caballo de Troya en iOS
eliax id: 9874 josé elías en dic 18, 2012 a las 12:10 AM (00:10 horas)
eliax logoGoogle acaba de lanzar un nuevo producto específicamente para iOS (iPhone, iPod Touch y iPad) que permite que de forma super sencilla subas videos a YouTube, y opcionalmente a otras redes sociales como Google+, Facebook y Twitter.

La aplicación incluso incluye algunas funcionalidades bastante avanzadas pero simplificadas, como son corrección de color, estabilización (por si no tuviste un buen pulso cuando grabaste el video), entre otras cosas.

Pero, ¿no encuentran extraño que Google haya sacado esta aplicación primero para iOS, y nos promete eventualmente en el futuro una versión para Android?

Pues la verdad es que no me sorprende, y de eso les pienso hablar hoy...

Caballo de TroyaEntre su Plan Maestrotm, una de las estrategias de Google no es aniquilar a iOS, sino tomar prestada una estrategia que hace un par de décadas atrás le funcionó bastante bien a Microsoft: Asimilación.

En vez de tratar de derrocar del mercado a iOS, Google ve a esa plataforma como una oportunidad para expandir su imperio de servicios (los cuales están todos minuciosamente diseñados para traer tráfico de publicidad a la empresa), y la manera de hacerlo es tratando de reemplazar todas las aplicaciones básicas de iOS por equivalentes de Google.

El mejor ejemplo del momento es Google Maps, el cual sin duda es preferido por la vasta mayoría de usuarios de iOS por sobre los defectuosos mapas de Apple. Pero lo mismo podemos decir de GMail (y su sistema de calendarios sincronizados), y Google ya tiene una versión de Google Drive/Docs en iOS, así como una de manipulación de fotos (recientemente compró mi programa favorito para manipular fotos, Snapseed, y la hizo gratis en iOS), así como ya tiene incluído su buscador, y hasta cierta medida el competidor de Siri con Google Now.

Así que el ofrecer ahora un reemplazo para la cámara nativa de iOS con YouTube Capture es solo un paso lógico para apoderarse ahora no solo de fotos, sino de videos en iOS.

Google en esencia a cambiado el viejo refrán que antes decía "Si no puedes vencerlos, únete a ellos" para que ahora diga "¿Por qué competir cuando puedes asimilarlos?"...

página oficial de YouTube Capture

anuncio oficial con más detalles de YouTube Capture

Video a continuación (enlace YouTube)...


autor: josé elías


GRAN HITO: Desarrollan primer Video Vectorial práctico para HD. Explicado
eliax id: 9866 josé elías en dic 15, 2012 a las 12:10 AM (00:10 horas)
Video Vectorial de la Universidad de BathSi dijera que investigadores de la Universidad de Bath en el Reino Unido han creado el primer CODEC de video vectorial práctico para video de alta definición, es posible que la mayoría de los lectores se queden rascando la cabeza tratando de entender de qué hablo, pero créanme que esta es una gran noticia, por lo que explico a continuación todo el tema, y su importancia...

Primero, empecemos notando algo: ¿Alguna vez se han acercado a ver realmente de cerca una pantalla de un televisor LCD/LED o Plasma? Notarán que la pantalla está compuesta de pequeños puntos a los cuales técnicamente se les llama "pixeles" (más específicamente, un pixel por lo general está compuesto de tres sub-elementos de color rojo, verde y azul, y entre los tres forman un pixel).

Pues así como los televisores están compuestos de pixeles, así mismo son las fotos digitales que tomamos con nuestras cámaras, en donde millones de pixeles describen una imagen. Y si extendemos esto a video, podemos decir que video no es más que miles de fotografías digitales, una detrás de la otra, compuestas por pixeles.

Así que podemos resumir diciendo que por lo general las imágenes digitales que almacenamos, transmitimos y vemos hoy día (y en particular, imágenes de video como nos interesa en este artículo de hoy), están esencialmente compuestas por millones y millones de pixeles.

Sin embargo, esta no es quizás la mejor forma de describir imágenes, debido a que literalmente hay que procesar todos y cado uno de esos pixeles cada vez que tomamos una foto o grabamos o desplegamos un video.

Pero, por décadas siempre ha existido una alternativa a los "gráficos pixelados" como es de lo que les he estado hablando hasta ahora, y esa alternativa se llama "gráficos vectoriales", que como indica el nombre, utiliza vectores en vez de pixeles para describir gráficos.

Gráficos vectoriales han sido utilizados en sistemas electrónicos desde los mismos inicios de la computación, y quizás predatan las imágenes pixeladas, particularmente debido a que las gráficas vectoriales (por motivos que van más allá de este artículo) eran más amigables a entornos de computadoras analógicas de antaño que a computadoras modernas digitales. Incluso, el primer videojuego utilizó gráficos vectoriales y no pixelados.

Pero, ¿qué son gráficos vectoriales?

Pues es una técnica que en vez de especificar punto por punto (es decir, pixel por pixel) cómo se compone una imagen, lo que hace es especificar formas geométricas con lineas, curvas y polígonos (si utilizan programas como AutoCad y Adobe Illustrator en esencia ya trabajan con gráficos vectoriales).

Es decir, en un sistema pixelado, si quiero dibujar un círculo, tengo que ir y especificar cada punto de la pantalla en donde se deben "pintar" pixeles para que entre todos den la impresión de un círculo, lo que implicaría posiblemente tener que especificar entre cientos a hasta miles o millones de puntos por separado.

Pero en un sistema de gráficos vectoriales sería tan sencillo como simplemente almacenar todo eso en una ecuación o fórmula que especifique un círculo, algo así como la fórmula (x-a)2 + (y-b)2 = r2.

En otras palabras, en vez de almacenar en un archivo millones de coordenadas de pixeles, lo único que tendríamos que hacer en un archivo vectorial es almacenar esa sencilla fórmula y listo.

Eso implica unas cuantas cosas interesantes: La primera es que por lo general gráficos vectoriales ocupan mucho menos espacio de almacenamiento, lo que de paso implica que los archivos se pueden descargar mucho más rápidamente por Internet. De paso, esto también implica que es más eficiente procesar estos archivos para desplegarlos, lo que los hace ideal para ambientes móviles de baja potencia, lo que de paso también significa que el procesador móvil trabaja menos lo que implica adicionalmente un menor consumo en la batería.

Y como si fuera poco, un sistema vectorial nos dota de independencia del tamaño y resolución de la pantalla final, lo que significa que podemos siempre tomar ventaja de la más alta resolución disponible para desplegar la mejor imagen posible. En nuestro ejemplo con el círculo por ejemplo, en un sistema pixelado hay que especificar necesariamente de antemano la resolución en pixeles bajo la cual se desea dibujar el círculo, y de ahí en adelante la resolución se mantiene fija, pero un círculo se puede dibujar en cualquier resolución, ya que los pixeles finales de la imagen son deducidos en base a la fórmula matemática de los vectores especificados en ecuaciones.

Pero, si tenemos tantas ventajas con gráficos vectoriales, ¿por qué no son el formato preferido hoy día y seguimos utilizando pixeles?

Pues la respuesta por un lado es que en realidad los gráficos vectoriales ya se utilizan en millones de ambientes que uno rara vez nota, particularmente en videojuegos y en programas de diseño gráfico, pero el problema es que en fotografías y videos hasta hora no era eficiente almacenar imágenes como vectores, por la sencilla razón de que una imagen cualquier no es muy uniforme visualmente entre un pixel y otro, y se requeriría o (1) de tener que almacenar un vector por pixel (que en realidad no ofrecería ninguna ventaja sobre sistemas pixelados, y al contrario, introduciría todo tipo de desventajas), o (2) de tener que hacer unos cálculos inmensamente complejos para deducir el patrón vectorial a partir de las imágenes originales.

Así que habiendo dicho todo eso, llegamos a la noticia de hoy...

Un grupo de científicos de la Universidad de Bath ha logrado crear una técnica que permite aplicar procesamiento vectorial de forma eficiente y práctica (pues antes se habían creado sistemas similares pero que no eran eficientes y/o prácticos) para video.

Según sus inventores, su tecnología funciona tan bien que ya quieren incorporarla en todo tipo de programas profesionales a todo nivel de la cadena de producción de video.

Esto es una tremenda noticia porque significa que gran parte de las ventajas que ya mencioné sobre vectores, nos llegarán a mediano plazo a consumidores, lo que de paso significará que podamos reproducir el mismo archivo de video de manera óptima y con la mejor calidad posible tanto en un celular de pequeña pantalla, como en televisores futuros con resoluciones de 8K para consumidores, sin necesidad de reprocesar o convertir el video original.

Sería como comprar un DVD una sola vez, y después poder reproducir ese "DVD" tanto en un televisor de 1080p hoy día, como en uno de 4K o 8K mañana, y en todo momento con el más óptimo detalle de la imagen (asumiendo que la fuente de la imagen tenga el suficiente detalle, obviamente).

Esta noticia a propósito llega justo días antes de un artículo que tenía planeado sobre la necesidad de definir un CODEC (codificador-descodificador) independiente de resolución de video, por lo que con esta noticia no solo me evité escribir ese artículo, sino alegrarme al ver que esto llegará a consumidores mucho antes de lo que muchos imaginábamos... :)

enlace a un video de demostración (formato Quicktime - quizás quieran salvarlo antes de verlo, y noten que es un video pre-grabado en formato pixelado, ya que no existe un reproductor para ver el video original en formato vectorial)

página oficial del proyecto

fuente oficial

Actualización: Video en formato YouTube a continuación (enlace YouTube)...


autor: josé elías


Body Worlds, la exhibición que te muestra el interior del cuerpo humano
eliax id: 9860 josé elías en dic 12, 2012 a las 12:11 AM (00:11 horas)
Body WorldsHoy quiero exhortarlos a que si tienen la oportunidad de hacerlo, que asistan a la exposición más cercana a su ciudad de Body Worlds, del anatomista Gunther von Hagens.

Este es una exposición rodante que ocurre anualmente en varias ciudades del mundo, en donde podrán apreciar con sus propios ojos el interior de verdaderos cuerpos humanos (de personas que donaron su cuerpo a la ciencia), en distintas formas.

La técnica que se utiliza para preservar los cuerpos en el estado que verán se llama plastinación, y fue inventada por el mismo Gunther von Hagens, y es algo verdaderamente asombroso.

En la exposición verán justo frente a sus ojos los músculos, órganos, arterias, huesos, glándulas, nervios y células que componen el cuerpo humano (y por lo general, las exhibiciones también incluyen uno que otro animal).

Así mismo podrán apreciar en detalle muchos órganos atrofiados por enfermedades, lo que les dará una mejor idea de qué es lo que sucede dentro de nuestro organismo cuando algo sale mal.

Ojo, esta exhibición creo que no será apropiada para niños mejores que puedan ser fácilmente impresionados, pero para todo el resto, es algo que deberán ver al menos una vez en sus vidas, incluso es posible que cambien un poco la perspectiva sobre sus propios cuerpos.

En mi caso en particular, vi la exhibición en un viaje reciente a Santo Domingo, en República Dominicana, en Agora Mall (la exposición ocurre todo el mes de Diciembre 2012, y más información aquí).

Y para los que no puedan asistir, les recomiendo esta herramienta que les permite explorar el interior del cuerpo humano en 3D de forma interactiva y dentro de sus navegadores web.

página oficial de Body Worlds

lista de exhibiciones actuales en el mundo

próximas exhibiciones

Video a continuación (enlace YouTube)...


autor: josé elías


Demuestran primer lente de contacto biónico con pantalla LCD funcional. Video
eliax id: 9857 josé elías en dic 11, 2012 a las 12:09 AM (00:09 horas)
Lente de contacto biónico con LCD funcionalInvestigadores del Centre for Microsystems Technology acaban de acercarnos un paso más a un futuro en donde todos poseeremos lentes de contacto biónicos que desplegarán información directamente a la retina de nuestros ojos, en esencia creando tanto una Realidad Virtual como una Realidad Aumentada en cualquier momento que lo deseemos.

A la fecha, los avances realizados han sido prototipos de tamaño bastante grandes, pero este es el primer prototipo experimental en donde el lente de contacto y la pantalla han sido creados en tamaño real.

Por el momento, el prototipo tiene un patrón de pixeles pre-configurados con la imagen de un símbolo de dólar (¿quizás un mensaje subliminar a inversionistas de que hay mucho dinero por hacer en este espacio?), pero obviamente la idea es construir futuros prototipos con gráficos dinámicos que desplieguen cualquier imagen y a todo color.

Paralelo a esto, la investigación además se está centrando en técnicas que nos permitirán enfocar la luz del lente de contacto de biónico de forma tal que la imagen que percibamos se fusionará (y enfocará) junto con las imágenes reales del mundo exterior, similar a esto.

fuente

fuente secundaria

imagen de alta resolución del prototipo

Video a continuación (enlace YouTube)...


autor: josé elías


Fotografían directamente filamentos de ADN, la molécula de la vida
eliax id: 9836 josé elías en dic 1, 2012 a las 07:34 PM (19:34 horas)
ADNDurante más de medio siglo hemos sabido cual es la estructura de "doble hélice" de la molécula ADN (que contiene todos los genes que nos describen como seres humanos), pero hasta ahora su estructura había sido inferida indirectamente por medios matemáticos.

Pero ahora, un equipo de científicos de la Universidad de Genoa, en Italia, han logrado "fotografiar" directamente filamentos de ADN, demostrando visualmente que ciertamente el ADN tiene la estructura deducida matemáticamente a mediados del siglo pasado

Esto se logró con un microscopio de barrido de electrones, después de utilizar una técnica que evaporaba todo tipo de líquido alrededor de la molécula, dejando la molécula sola para ser inspeccionada.

En nota relacionada, es bueno aclarar que aunque el ADN es usualmente nombrada como "la molécula de la vida", que en realidad el ADN no es necesario para que surja la vida, pues tenemos evidencia de que los primeros organismos que poblaron la Tierra ni siquiera contenían ADN, sino que moléculas más sencillas que se auto-replicaban. El ADN fue sin embargo un punto clave en la evolución de la vida, ya que permitió toda una nueva generación de organismos mucho más complejos que eventualmente fueron los que dominaron toda la vida en el planeta.

¡Gracias Cristian Esquivel por el enlace!

fuente

autor: josé elías

"Uno puede despotricar a veces contra tus visiones de mundo o estar muy de acuerdo con lo que dices, pero lo que no se puede negar es que tu blog nunca lo deja a uno indiferente o sin nuevas impresiones o puntos de vista que reevaluar o conectar con referencias propias."

por "leonardo" en abr 2, 2013


en camino a la singularidad...

©2005-2014 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax