texto:   A-   A+
eliax

Tecnología Visual
Eliax explica: Las cámaras duales, tripes y cuadruples del iPhone 7, 8 y 9
eliax id: 11510 josé elías en sep 16, 2016 a las 03:42 PM (15:42 horas)
Cámara del iPhone 7 Plus eliax, para mentes curiosas...Hola amig@s lectores,

Como algunos ya saben, este blog oficialmente llegó a su fin con mi artículo #10,000 en Feb. 2014 (que pueden leer aquí), pero de vez en cuando (como ahora) algunas cosas captan mi interés y las comparto acá con ustedes. Esto lo digo debido a la gran cantidad de personas que continúan escribiéndome constantemente lamentando que ya no dedico tanto tiempo al blog, o desconociendo el hecho de que llegó a su final hace un tiempo atrás. A esas personas les doy las gracias por seguirme durante 10 años, y quien sabe, se dice que en un futuro no lejano veremos más contenido de eliax en video...

Pero vayamos al tema de hoy. Como la mayoría ya sabrán, hace pocos días Apple lanzó sus esperados iPhone 7 y iPhone 7 Plus, y como había comentado yo por meses a título de rumor por mi cuenta de Twitter, el iPhone 7 Plus vino con una innovadora cámara dual, que aunque para algunos aparentará solo una justificación para Apple cobrar más, lo cierto es que esta cámara dual representa el inicio de una revolución en cámaras, y hoy planeo hablarles de por qué.

Antes que todo, y para ahorrarle tiempo a los fanboys de Android en los comentarios abajo, es bueno notar que Apple no es la primera empresa que implementa un sistema de cámara dual en un celular, sin embargo, y típico de Apple, la implementación en el iPhone supera a esfuerzos anteriores, y contiene tecnología que deja completamente detrás todo adelanto previo en materia de imágenes digitales, tanto a nivel de celulares, como incluso (y explicaré brevemente por qué) a nivel de cámaras profesionales...

La historia de esta cámara inicia cuando se hizo público en abril del año pasado que Apple había adquirido la empresa israelí Linx Imaging. Esta es una empresa que yo curiosamente había seguido previo a la adquisición ya que su tecnología causó mucho interés en la comunidad de los que amamos adelantos visuales de todo tipo.

La empresa Linx había perfeccionado una técnica que permite combinar las imágenes de entre 2 y 4 lentes, para crear una imagen compuesta de mucho mayor calidad que cualquiera de las originales, asistiéndose más que en la óptica en la computación.

Es decir, las imágenes que salen de un iPhone 7 Plus (cuando utiliza ambas cámaras, una de plano ancho, y otra estilo zoom) no son estrictamente la imagen que se capturó con los lentes, sino que fueran "calculadas" computacionalmente, analizando ambas imágenes y creando una imagen compuesta.

Ese proceso es extremadamente complejo y pesado, y pondría de rodillas a incluso una PC de alto rendimiento de hoy día (como era el caso de los prototipos de Linx internos), pero en el iPhone 7 Plus ocurren no solo de forma fluida y con un bajo consumo energético, sino además en tiempo real, esto sin duda debido a que Apple ha incluido circuitos que implementan los algoritmos necesarios para estos cálculos directamente en sus chips (posiblemente a nivel del GPU de gráficos), lo que es todo un logro técnico digno de aplaudir por los geeks que gustamos de estos temas.

Pero, ¿qué tiene de innovador este sistema, y qué es lo que lo diferencia de los demás?

Pues empecemos diciendo que lo que estamos viendo en el iPhone 7 Plus es apenas la puntita de un témpano de hielo en capacidad y funcionalidades.

Sucede que Linx desarrolló toda una tecnología modular, que puede utilizar 2, 3 o 4 lentes, en distintas combinaciones de tipos de lentes (desde a color hasta monocromáticos y hasta en rango óptico invisible al ojo humano), que permite lograr una gran cantidad de efectos, a distintos costos, y lo que vemos en el 7 Plus no es más que la implementación más básica de esta tecnología.

Sin embargo, es bueno aclarar que eso no significa que el iPhone 7 Plus hace poco o toma poca ventaja de las posibilidad, sino que simplemente por el momento Apple se está reservando su uso para ir sacando funcionalidad poco a poco, conforme la vaya perfeccionando.

Por ejemplo, hoy día el iPhone 7 Plus toma ventaja de la tecnología Linx para permitir hacer zoom óptico entre 1x y 2x, lo que de por sí no es más que cambiar entre la cámara de la izquierda y la de la derecha, pero antes de fin de año Apple lanzará una actualización que permitirá darnos una gustación de cosas por venir, cuando permitirá un nuevo modo de capturar retratos de personas.

Bajo esta nueva modalidad, el sistema Linx del iPhone 7 Plus examinará la imagen frente a los lentes en tiempo real, detectará con Inteligencia Artificial si una persona está frente a la cámara, y utilizará una combinación del lente amplio junto al de zoom para con un lente capturar la imagen de la persona, y con el otro la imagen del fondo, y después computacionalmente combinar la imagen y desenfocar más el fondo, produciendo un efecto que se llama bokeh entre aficionados de cámaras DSLR de gran tamaño.

El efecto bokeh no es más que hacer que la persona salga bien enfocada, pero el fondo bien difuso, creando un efecto visual estéticamente placentero. Ver un ejemplo que capturé en un carnaval dominicano con este efecto. Y noten que aunque otros celulares han intentado hacer algo similar, que pueden estar seguros que el iPhone 7 Plus ofrecerá el efecto más perfeccionado de todos.

Sin embargo, esto es tan solo el inicio...

Otra particularidad del sistema Linx es que la combinación de los sensores y software propietario permite crear depth maps ("mapas de profundidad"), que en esencia le permite saber al iPhone 7 Plus exactamente qué tan lejos del celular está cada pixel que se captura. Esto es un poco similar (aunque no tan potente) como el sistema de las cámaras Lytro de las cuales les he hablado por años acá en eliax (leer esto por ejemplo), y similar a los mapas de profundidad generados por el Kinect del Xbox, pero con mayor precisión.

Con estos mapas de profundidad se pueden lograr todo tipo de cosas que hasta hace poco aparentarían ser magia.

Por ejemplo, si estoy filmando a alguien con la cámara del iPhone, y detrás de esa persona que estoy filmando hay una multitud de personas distrayendo la toma, el celular puede saber exactamente cuáles pixeles están detrás de la persona y reemplazarlos por cualquier otra imagen.

En otras palabras, sería posible hacer video-conferencia en donde solo salgas tu, y de forma automágica se remueva todo el fondo detrás de ti, lo que más allá de su gran impacto "wow", tiene muchas aplicaciones en documentales, cine, o incluso adquisición de video para noticias (el mercado ENG para el que sepa de lo que estoy hablando).

Ojo, que esto no significa que el sistema actualmente incluido en el iPhone 7 Plus pueda hacer eso hoy día, pero sí les estoy diciendo que es lo que podemos esperar en las próximas generaciones del iPhone y otros dispositivos de Apple.

Así mismo es bueno notar que algunas de las cosas que puede hacer la tecnología Linx dependen de tener no solo dos, sino que incluso 3 o 4 lentes especializados, por lo que queda mucho campo por explorar para Apple en futuros iPhones.

Entre las cosas que permite la tecnología Linx se encuentran:

1. Capacidad de remover el fondo de fotos o videos.

2. Capacidad de capturar fotos y videos en 3D estereoscópico.

3. Capacidad de utilizarse en aplicaciones de Realidad Aumentada, en donde objetos virtuales tridimensionales son insertados de forma natural detrás, delante, y en medio del mundo real. En mi opinión Apple tomará mucha ventaja de esto en futuras generaciones de sus plataformas de Realidad Aumentada y Virtual.

4. Capacidad de medir con mucha exactitud objetos.

5. Capacidad de "enfoque instantáneo" del lente, muchísimo más rápido que lo implementador por Samsung en su serie Galaxy S7 o algunas recientes cámaras DSLR de Sony con tecnología dual-phase. Esto sería toda una revolución en el campo del video.

6. Capacidad de capturar los depth-maps en video para uno poder re-enfocar la escena a su antojo (compitiendo directamente con las soluciones de Lytro).

7. Escaneo/digitalización de objetos físicos para convertirlos en objetos virtuales en 3D.

8. Captura de movimiento tridimensional.

9. Reconocimiento biométrico (particularmente facial).

10. Capacidad de exponer todos estos datos a terceros para que inventen nuevas soluciones aun no pensadas por nadie. Noten que por el momento en iOS 10 Apple no tiene todavía un API (interfaz de programación) para terceros, pero no duden que eso está siendo preparado en estos momentos.

Es bueno también notar que más allá de esa lista, el sistema Linx, aun en su forma más básica (como implementada en el iPhone 7 Plus) permite otra gran cantidad de ventajas, como son:

1. Capacidad de producir fotos con mucho menos ruido, al combinar más de una imagen para analizarlas y crear una nueva.

2. Capacidad de producir un más amplio rango de colores (como ya se puede apreciar en el iPhone 7 y iPhone 7 Plus).

3. Un incremento en sensibilidad de luz, lo que significa mejores fotos en ambientes oscuros. Noten que en futuros iPhone Apple podría incluir un tercer sensor monocromático que incrementaría la sensibilidad a la luz por un factor de 3, para incrementar sustancialmente la calidad fotos en bajos ambientes de luz.

Ahora la gran pregunta es, ¿cuáles de todas estas funcionalidades veremos en el iPhone 7 Plus por medio de actualizaciones y/o aplicaciones de terceros, y cuáles necesitarán de nuevo hardware en el iPhone 8 o iPhone 9?

De lo que si podemos estar seguros es que estamos ante el nacimiento de toda una nueva revolución en material de imágenes digitales, y los usuarios del iPhone 7 Plus serán los primeros en experimentarla, particularmente después de la actualización que saldrá en los próximos meses.

Finalmente, noten que el campamento Android no se quedará atrás, ya que al menos una empresa ha anunciado tecnología similar a la de Linx, sin embargo y como ocurre siempre, esta posiblemente será específica a solo algunos celulares Android, y al inicio quizás requieran de modificaciones propietarias al sistema operativo, pero no duden que en estos momentos Google debe estar planeando ya en cómo estandarizar esta tecnología para que también sea parte estándar de celulares Android en un futuro no lejano.

Que viva la competencia... :)

---

Si son curiosos, he aquí una presentación que alguien salvó a la nube de Internet antes de que Apple comprara a Linx y removiera toda información mercadológica y técnica de sus sistemas.

Otro enlace de interés un poco menos técnico

Página oficial del iPhone 7/Plus

Acá un enlace de la mejor cobertura que he visto sobre la nueva cámara del iPhone 7/Plus. Noten que tanto el video que verán como las fotos fueron capturadas con el iPhone 7/Plus.

En este artículo hablé previamente de Linx acá en eliax, de su competencia, y de su futuro impacto que estamos viendo hoy.

autor: josé elías


La increíble tecnología Fusion4D de Microsoft para Realidad Virtual. Video
eliax id: 11507 josé elías en ago 9, 2016 a las 01:04 AM (01:04 horas)
Una de las técnicas más importantes tanto en cine como en video-juegos y más recientemente la Realidad Virtual/Aumentada es la de captura de movimiento automático, en donde la idea es poder capturar en 3D los movimientos de personas (y en ciertos casos, animales y/o objetos).

Hasta la fecha la forma tradicional de capturar movimiento es colocando unas pequeñas bolitas lumínicas alrededor de todo el cuerpo de la persona, y después colocando varias cámaras a todo el alrededor para observar las bolitas y triangular su posición en el espacio.

Esa técnica ha funcionado bastante bien hasta el momento, pero tiene la limitante de ser cara, compleja, incomoda, y de requerir de mucho espacio y equipo especializado.

Sin embargo, Microsoft acaba de revelar los frutos de una investigación interna que llama Fusion 4D, que con tan solo 8 cámaras genéricas (es decir, no cámaras especializadas de alto costo) puede capturar no solo el movimiento crudo de las personas, sino que toda la escena y complejidad de lo que se está moviendo.

¿Qué quiero decir con eso? Que a diferencia del sistema de "bolitas" en donde solo se captura la posición relativa entre una bolita y otra (para después colocarle por encima un cuerpo sintético con software), esta innovación de Microsoft captura a las personas en sí, incluyendo no solo la textura y color de sus cuerpos, sino además la de su ropa y/o objetos que tengan encima.

En otras palabras, este sistema literalmente está "escaneando en 3D" toda la escena, con todo lo contenido adentro.

La gran innovación de Microsoft para lograr esto fue utilizar un sistema de Inteligencia Artificial que aprende y entiende lo que se mueve entre las cámaras, pudiendo entonces predecir cosas como objetos ocultos a las cámaras y el flujo de movimiento entre un cuadro capturado y otro.

Lo que me emociona de esta tecnología (más allá de su obvio uso en el cine) son sus aplicaciones en video-juegos, particularmente en Realidad Virtual, pues con esta tecnología sería posible escanear una persona para "teletransportarla" a otro lugar, lo que sería de increíble utilidad en aplicaciones de redes sociales virtuales, o video-juegos de acción en primera persona (es decir, a través de los ojos del personaje principal de la acción).

Esto además tendría enormes usos en cosas como coreografía de danzas, entrenamiento deportivo, tutoriales físicos, etc, y lo mejor de todo es que debido a su simple implementación esto podría terminar en nuestros hogares al corto plazo, con un relativo bajo costo.

Y a propósito, no dejen de ver este otro video de hace unos meses acá en eliax (y también de Microsoft) en donde verán un uso increíble de esta tecnología para "teletransportar" personas con el Microsoft HoleLens.

Pero como dicen, una imagen vale mil palabras, así que deleitense con el video a continuación, y si son curiosos o de origen técnico no dejen de leer el documento científico oficial (PDF) que explica en más detalle la técnica.

Video a continuación (enlace YouTube)...


autor: josé elías


eliax.tv episodio 005: Lentes de contacto biónicos con cámara digital Sony
eliax id: 11494 josé elías en may 1, 2016 a las 12:01 AM (00:01 horas)
Episodio 005 a continuación... (enlace YouTube)...


eliax, para mentes curiosas...Hola amig@s lectores,

He acá algunas notas sobre este episodio:

1. La patente de Sony que cito en el artículo la pueden leer ustedes mismos en este enlace. Noten que aparte de lo que explico en el video, la patente habla también de que este sistema permitirá control de zoom (acercamientos de imagen), así como control de apertura de la cámara (para determinar la cantidad de luz que entrará al sensor, dependiendo de la imagen a capturar).

2. Este episodio como notarán lo grabé de forma improvisada con mi celular, ya que estoy a unos cuantos miles de kilómetros lejos de mi cámara, y no quería dejar de publicar un video este fin de semana... :)

3. El artículo del IrixPhone del cual hablo al inicio del video lo pueden leer en este enlace acá mismo en eliax.

4. Otro artículo que recomiendo leer acá en eliax es otro (también del 2010) titulado "Reflexiones 24: Control, Derechos y Privacidad con nuestros sentidos...", pues creo ilustra un poco el futuro que nos espera con estas tecnologías.

5. Noten que como es costumbre en el blog, debajo de este artículo hay una sección titulada "Previamente en eliax", en donde podrán encontrar varios otros artículos relacionados a este episodio de hoy.

6. Si se preguntan quien es ese que aparece en el minuto 5:50, es Deadpool, el personaje cómico-sexual de Marvel, y de quien les hable recientemente en eliax.


Finalmente, les agradecería enormemente que se subscriban al canal oficial de estos videos en YouTube, en eliax.tv (así son alertados tan pronto saque nuevos videos), que le den Like al video en YouTube, y que compartan el video en sus redes sociales.

autor: josé elías


ALUCINANTE: Teletransportación Virtual con HoloLens Holoportation. Video (ACTUALIZADO)
eliax id: 11487 josé elías en mar 25, 2016 a las 11:56 PM (23:56 horas)
Microsoft HoloPortationHoy mis amig@s lectores, les comparto un video de una de las tecnologías más asombrosas que he visto en mucho tiempo, y sin duda que lo que verán es un vistazo al alucinante futuro que nos espera...

Se trata de una tecnología (aun en etapa de investigación y desarrollo en Microsoft) llamada "HoloLens HoloPortation", aludiendo a que esta tecnología permite crear hologramas virtuales de tu persona que puedes "teletransportar" de un lugar a otro, de modo que podamos experimentar la sensación de que estamos en otro lugar, o de que otras personas remotas están con nosotros.

Cuando vean el video entenderán mejor de qué se trata esto, y lo que logra hacer, pero he aquí unos detalles técnicos para los más curiosos: La primera etapa de la tecnología es de alguna forma digitalizar tu cuerpo, que no es otra cosa que decir que crear una representación tridimensional de tu cuerpo. O en otras palabras, la creación de un doble tuyo en 3D, y en tiempo real.

Para lograr ese primer paso se utiliza una combinación de varias cámaras y varios sensores de distancia colocados a todo tu alrededor (en la demostración, aparenta que se utilizan al menos 4 de cada uno). Estas cámaras y sensores escanean y capturan tu cuerpo, y lo convierten en una imagen 3D a todo color de ti.

El segundo paso es entonces poder transmitir esa representación tridimensional tuya al otro lado del Internet.

Y el tercer paso es recrear esa representación tuya en 3D, en el lugar remoto, cosa que se hace con las gafas de Realidad Aumentada de Microsoft, el HoloLens. Dentro de esas gafas (que las lleva una persona localiza remotamente en algún otro lugar) hay dos pantallas que despliegan tu imagen directamente a sus ojos, pero superimpuesta sobre su entorno real local.

Eso significa que la persona del otro lado ve tu copia 3D dentro de sus gafas, como si estuvieras allá con el o ella, y dado que el HoloLens tiene tecnología de seguimiento de espacio, eso significa que esa persona puede moverte y verte desde varios ángulos como estuvieras allá, y similarmente tu puedes caminar y ambular por el espacio remoto como si estuvieras allá.

Obviamente, esto se pone interesante cuando lo mismo hacemos con la persona en el otro extremo, escaneándola en 3D y enviándola a nuestro entorno local, de modo que ahora ambos vamos a tener la sensación de que estamos en el mismo espacio virtual/local.

En el video verán un ejemplo de como un padre puede ver a su niña como si ella estuviese con él, aun ella esté a miles de kilómetros de distancia (noten que él la puede ver y escuchar a ella en 3D, pero ella solo puede escucharlo ya que ella no tiene un HoloLens sobre su cabeza).

Como podrán imaginar, esto tiene incontables usos, que van desde video-conferencias en vivo, hasta conciertos, teatro virtual, video-juegos, entrenamiento, educación, ventas virtuales, pasarelas, eventos deportivos, etc.

Una cosa que obviamente notarán sin embargo es que esto requiere utilizar el HoloLens alrededor de la cabeza, lo que sustrae un poco de lo que podría ser una experiencia mucho mejor, ya que (1) molesta tener el casco sobre nosotros, y (2) cuando se escanee tu cuerpo en 3D este se presentará del otro lado con casco y todo, cubriendo parte de nuestra cara y por tanto eliminando cosas como contacto visual directo entre personas, sin embargo en un futuro esto se resolverá gracias a dispositivos como el IrixPhone que imaginé hace unos años acá mismo en eliax...

página oficial del proyecto HoloPortation

Video a continuación (enlace YouTube)...


!Gracias Francisco Cruz por compartir el video en Dominican VR!


Actualización: Gracias a Carlos Bello por compartir el siguiente video relacionado en el grupo oficial de #eliax en Facebook, de Alex Kipman de Microsoft en una charla TED. Recomiendo bastante verlo, en particular las demostraciones realizadas en tiempo real, son alucinantes.

fuente original del video en TED.com...


autor: josé elías


Crean sistema que transfiere las expresiones de tu cara a otra persona, en tiempo real
eliax id: 11460 josé elías en oct 19, 2015 a las 12:07 PM (12:07 horas)
Transferencia de expresiones de una cara a otra en tiempo realHe aquí una de esas tecnologías que hasta hace poco muchos dirían era ciencia ficción...

Se trata de un sistema que puede observar tu cara, y transfiere todas tus expresiones (muecas, risas, etc) a la cara de otra persona que también está siendo grabada en tiempo real (es decir, en ese mismo instante).

Recomiendo fuertemente ver el video, pues es verdaderamente asombroso, aparte de que entenderán mejor lo que realmente hace el sistema (así como explica también cómo lo hace, para los más curiosos).

Para esta tecnología se me ocurren decenas de usos, tanto emocionantes como espeluznantes, y entre ellos:

1. ¿No sería genial que en las películas dobladas al español los actores movieran sus labios de forma que corresponda con las palabras que son doblas al español, de forma de crear un efecto mucho más natural? Con esto se hace posible.

2. ¿Quieres hacer creer que alguien dijo algo, y hasta "demostrarlo en video", aun esa persona realmente no dijo tal cosa? Con esta tecnología eso se hace posible. Esto abre otra puerta al mundo de la propagando negativa...

3. Con esta tecnología esto ayudaría enormemente también al desarrollo de personajes virtuales en video-juegos, para crear expresiones mucho más realistas y a un costo mucho menor.

4. De paso esto sería también genial para cursos de idiomas online, que servirían para un profesor poder ver las expresiones de estudiantes, sin estos revelar su identidad (por motivos de privacidad por ejemplo), proyectando las expresiones de este en un avatar.

5. Esto también serviría para reemplazar actores en películas o videos, por otros, lo que de paso serviría bastante para efectos especiales y dobles.

Finalmente, noten que este sistema no es de por sí algo nuevo, sino más bien la evolución de varios sistemas que he cubierto acá en eliax a través de los años, como este del 2007, o este otro y este otro del 2011.

¡Gracias a todos los que me enviaron esta noticia, y al lector elipe Botero Londoño por compartirla en el grupo oficial de eliax en Facebook!

fuente oficial de esta investigación

Video a continuación (enlace YouTube)...


autor: josé elías


Cámara de 3200 Megapixeles (3.2 Gigapixeles) en camino, para uso astronómico en el LSST
eliax id: 11434 josé elías en sep 2, 2015 a las 11:49 PM (23:49 horas)
Cámara del LSST de 3.2GPHoy día una cámara de 10 Megapixeles (10MP) es bastante aceptable, y las cámaras profesionales con la mayor resolución del mercado rondan los 50MP, pero esta semana se acaba de aprobar la construcción de una cámara con unos colosales 3200 Megapixeles (3200MP), o unos 3.2 Gigapixeles (3.2GP).

¿Qué tanta resolución es esa? Pues suficiente como para necesitarse el equivalente de 1500 pantallas de televisión Full HD para poder mostrar todos esos pixeles entre todas...

Sin embargo que no se les haga agua la boca imaginando tomando sus fotos familiares con esta bestia, ya que esta cámara estará destinada a un uso muy particular en astronomía: Tomar las fotos más detallas del cielo nocturno, con la mayor cantidad de objetos cósmicos posibles.

Y para que tengan una idea de la cobertura de esta cámara, una sola foto de esta cámara podrá capturar una imagen equivalente al espacio que ocuparían 40 lunas llenas en el cielo.

Con esta cámara será posible en menos de 10 años catalogar miles de millones de objetos, así como podrá crear videos espectaculares en pocos días de la mayor parte del cielo del hemisferio sur de la Tierra.

Y hablando de hemisferio sur, la cámara estará montada dentro de lo que será llamado el telescopio LSST (por sus siglas en inglés de "Large Synoptic Survey Telecscope") y estará instalado en un lugar llamado Cerro Pachón en Chile.

Si todo sale acorde al plan, estaremos deleitándonos con las primera imágenes de esta cámara en el 2022...

nota de prensa oficial

autor: josé elías


Editorial eliax: Las cámaras de celulares a llegar al territorio de las DSLR próximamente
eliax id: 11426 josé elías en ago 6, 2015 a las 03:38 PM (15:38 horas)
iPhoneCanon Rebeleliax¿Recuerdan las fotos capturadas con los primeros celulares semi-modernos, por allá hace una década atrás? Las imágenes eran desastrosas, oscuras, y pocos hubiesen imaginado que llegaríamos a la calidad de imágenes que podemos obtener hoy día con un iPhone 6 o Galaxy S6. Sin embargo, esto es solo el principio...

Si observamos bien las cifras y las tendencias, en los próximos 1 a 3 años tendremos celulares con no solo una calidad similar o superior a la mayoría de cámaras DSLR de hoy día de rango medio (y quizás hasta alto, eventualmente), sino incluso con los mismos efectos ópticos (como fondos difusos logrados con grandes aperturas de lente) que caracterizan a estas.

Pero antes de continuar, un breve párrafo para los que no tienen conocimientos técnicos de estos temas: Un cámara "DSLR" no es más que una de esas cámaras grandes cuyos lentes son intercambiables. Eso es todo... Existe una tecnicalidad con un tipo de cámara que se llaman "mirror-less" ("sin espejos"), pero para nuestra discusión de hoy también podemos considerar esas cámaras de lentes intercambiables como DSLR. Ahora continuemos...

Ahora bien, los de conocimientos más técnicos deben estar bastante escépticos con mi afirmación de hace par de párrafos atrás, particularmente con el tema ese de fondos difusos, ya que técnicamente eso solo se puede lograr con lentes de gran apertura y sensores más grandes, pero sin embargo eso no es enteeeeramente cierto...

Si recuerdan, hace un par de años escribí un artículo en donde les enseñaba como lograr el efecto "bokeh" (el término técnico para un fondo difuso) de tres formas distintas, pero eso era un artículo práctico para ser útil a todo el que tuviese una cámara, pero realmente existe otra forma alternativa de lograr ese efecto bokeh, o incluso de uno poder enfocar y desenfocar al antojo cualquier plano de la imagen, y esa forma es con computación.

Por "computación" hablamos de que de alguna forma la cámara obtiene información adicional sobre la imagen en frente de esta, información más allá de los simples rayos de luz que entran el lente tradicional de una cámara y que caen en un sensor tradicional. Más específicamente lo que deseamos es obtener información de profundidad, es decir, qué tan lejos o cerca de la cámara están los objetos que aparecen en la foto.

Y existen al menos dos formas distintas de obtener esa información adicional.

Una es con un nuevo tipo de sensor que permite capturar no solo la magnitud de los rayos de luz (es decir, que tan claros o oscuros son), sino además su dirección (es decir, el ángulo con el cual llegan esos rayos al sensor).

Esta primera forma fue minada por la empresa Lytro quien con sus cámaras del tipo "Light Field" ("Campo de luz") permite que tomes una fotografía, y posteriormente puedas enfocar en donde desees.

Esto se logra debido a que si es posible computar las propiedades de la luz en términos de sus ángulos de incidencia en relación al sensor, uno puede determinar también el nivel de profundidad (distancia desde el objeto hasta la cámara) de cada pixel (punto de imagen) y por tanto puede tener calculado a qué distancia están todos los objetos de la foto entre sí, lo que permite que por medio de algoritmos de difusión de imagen, uno pueda selectivamente poner "borroso" o "nítido" cualquier punto de la imagen.

Pero existen una segunda forma de lograr el mismo efecto, y es utilizando sensores tradicionales, pero con múltiples lentes, o más bien dicho, múltiples cámaras a la vez.

La idea es que si puedes capturar la misma fotografía desde varios ángulos o puntos de vista diferentes, que entonces puedes estimar la distancia entre los objetos de la imagen, y es precisamente así que funciona la visión humana, en donde debido a que tenemos dos ojos, podemos estimar la profundidad del mundo que nos rodea de forma tridimensional, calculando la diferencia de imagen entre los dos ojos.

Pues bien, dos empresas actualmente están desarrollando productos que toman ventaja de este efecto, utilizando entre 2 y hasta 11 micro-cámaras simultáneamente, y lo mejor del caso es que esas cámaras no tienen que tener una alta resolución, ni utilizar lentes de ultra alta calidad, ya que es la combinación de todos los pixeles de esos sensores, y de las distintas perspectivas de cada uno de los lentes del sistema, que son unificados en una sola imagen por medio de computación, en esencia calculando una imagen superior a cada una de sus partes inferiores (lo que contribuye a que este sistema pueda hacerse con relativo bajo costo).

Las dos empresas que están desarrollando esta tecnología son LinX, y Light.

De las dos empresas, LinX aparenta tener el mayor potencial y la tecnología más avanzada y madura, y curiosamente en abril de este año Apple adquirió la empresa y ya existen rumores de que el iPhone 7 del próximo año podría incluir su tecnología.

Mientras tanto Light está en su segudo round de financiamiento y ya tiene de socio a Foxcom (la misma empresa que fabrica iPhones para Apple) para crear sus primeros prototipos a finales de este año 2015 (o en el 2016), por lo que pueden estar seguros que el campamento Android tendrá eventualmente una respuesta a la posible futura cámara del iPhone.

Noten sin embargo que por el momento estos cálculos que se ejecutan para crear una imagen compuesta de entre varias, requiere de muchísimo poder de procesamiento, tanto así que Light ya ha dicho que la primera generación de estas cámaras solo podrán capturar imágenes fijas y no videos en esta modalidad, hasta que la empresa cree procesadores dedicados para ensamblar tales imágenes en videos en tiempo real.

Por su parte sin embargo es mucho más probable que la primera generación de dispositivos de Apple con esta tecnología permitan también grabar videos, debido a que Apple controla totalmente todo su ecosistema, diseñando la empresa sus propios procesadores, y es de esperarse que ya tenga internamente incluso prototipos de co-procesadores o circuitos listos para integrarse en futuras generaciones de sus chips A9 o A10.

Y noten que si agregamos a esto el hecho de que Sony (que provee los sensores a Apple) tiene un nuevo diseño de sensor de 12 Megapixeles estilo RGBW (un término de cómo están organizados los fotosensores en el sensor) que promete una mejora notable en el nivel de luz capturada, y el hecho que dos o más de estos sensores en paralelo pueden incrementar su nivel de sensibilidad a la luz así como su resolución computacionalmente, que esto nos indica que estamos en el umbral de equipos fotográficos en celulares que no solo podrán tener una densidad efectiva de pixeles en el orden de la decenas de millones de pixeles, sino además que poseerán los mismos efectos de campo difuso y enfoque selectivo que disfrutan las cámaras DSLR, así como una alta sensibilidad a la luz (para ambientes de baja iluminación), y todo eso en un futuro muy cercano...


Nota a puristas tecnológicos: Antes de que lo mencionen en los comentarios, Sí, ya se, otras empresas han experimentando con esto, incluyendo un par de fabricantes chinos y coreanos con sus cámaras en celulares Android, en donde permiten de forma limitada hacer fondos difusos. Sin embargo, esos no son más que "hacks" visuales, y no son tan sofisticados como las soluciones que plantean sacar al mercado estas dos empresas en donde pueden lograr una mucha mayor resolución, mucho menor ruido, y mucho mayor control de los planos difusos o enfocados de las fotos y videos.

autor: josé elías


Eliax explica: Cómo revivieron a Paul Walker en Fast & Furious 7 (e impresiones)
eliax id: 11376 josé elías en abr 8, 2015 a las 01:14 AM (01:14 horas)
Rápido y Furioso 7La serie Rápido y Furioso ha tenido tantas altas y bajas como lo han tenido los autos y minifaldas de las mujeres en su guión, empezando con una primera parte que fue aceptable (pero que tocó el nervio correcto entre una audiencia nicho), después continuando con 3 películas más que variaron entre lo mediocre a lo aceptable, y después casi mágicamente resucitando de forma inesperadamente buena con la quinta parte ("Fast 5" o "Fast Five"), procediendo a una excelentísima película en todos los niveles con Fast & Furious 6, y ahora volviéndonos a sorprender con Fast & Furious 7.

Sin embargo nada había preparado a todo el equipo de producción y elenco para la muerte súbita (irónicamente en un accidente automovilístico) de Paul Walker, justo en medio de rodar esta más reciente secuela de la serie.

Tan pronto se hizo evidente que la muerte de Walker era real y no un chiste cruel más de Internet, los estudios Universal Pictures pusieron freno inmediato a la producción, hasta que se decidiera qué hacer con la película. Por respeto a los familiares, los estudios detuvieron también cualquier posible discusión sobre si continuar o no, y de hacerlo, cómo, hasta ya sepultado Walker. Pero días después el director James Wan (por primera vez dirigiendo un episodio de la franquicia) se reunió con todo el equipo ligado a la película (incluyendo los actores y familiares), y decidieron proceder a finalizar la película, pero con obvios cambios...

Entre los cambios que se decidieron estaban el de dar más protagonismo a Walker en las escenas ya grabadas, y de cambiar el final de la película (como un homenaje a este). Sin embargo la gran pregunta que rondaba en la habitación en donde se decidió proceder era sin duda "¿cómo proceder con la película sin Walker para actuar sus escenas?", y es aquí en donde entra la tecnología de efectos visuales de punta, y donde entramos en materia en el artículo de hoy en eliax.

Sin embargo, antes de continuar (y como les informé vía twitter tan pronto salí de ver la película en IMAX 3D), debo decir que me gustó bastanteFast & Furious 7, llenando mis expectativas, aunque no superando a la excelentísima Fast & Furious 6 (pero sí llegando bien cerca). Mi calificación fue de 9.45 de 10. De paso noten que en tan solo su primer fin de semana mundial la película recaudó US$384 millones de dólares, y eso sin aun haberse estrenado en grandes mercados como China o Rusia...

Y si se preguntan si se notó la ausencia de Walker, o si se notaron los efectos especiales que lo trajeron de regreso a la vida de actor, la respuesta es un rotundo no. Yo soy un fanático de los efectos especiales y ya he desarrollado un ojo para notar lo que es real y lo ficticio, pero debo admitir que salvo una sola toma al final de la película, que no noté nada "extraño". Es como si Walker realmente hubiese filmado la película, y como si el guión siempre hubiese sido el que terminamos viendo en pantalla. Aplausos y me quito el sombrero ante el director, los guionistas, y los encargados de los efectos especiales, porque hicieron un trabajo que será recordado y tomado como referencia por mucho tiempo para casos similares.

Pero, ¿cómo lo lograron? Pues lo lograron con mucha imaginación y talento. Y después de yo mismo investigar (por curioso) por toda la red buscando todo tipo de información al respecto, a continuación les explico cómo lo hicieron...

Lo primero a entender es que se utilizó toda una mezcla de técnicas para "revivir" a Walker en pantalla, la más simple de todas siendo el de reutilizar tomas ya capturadas de él (en escenas descartadas) de las últimas tres películas, para ver cuáles escenas, poses, líneas habladas, tomas, o imágenes se podrían utilizar para encajar con la nueva película.

En esencia se creó toda una biblioteca de recursos audio-visuales de Walker, meticulosamente catalogados, y hechos disponibles a los guionistas, para ver como incorporar eso en lo que sería el nuevo guión.

En segundo nivel, lo que se hizo fue utilizar a dos hermanos de Walker como dobles, en donde sus cuerpos eran utilizados en tomas de distintos ángulos, y después sus caras eran reemplazadas por la de Walker.

Para lograr esto, se tenía escaneada en una base de datos la cara en 3D de Walker (algo que se hace comúnmente hoy día con muchos actores, particularmente en películas de alto presupuesto), la cual fue digitalmente manipulada para encajar a la perfección con la cara de sus hermanos.

Esto se hace usualmente poniendo unos puntitos lumínicos en la cara de los dobles, los cuales son seguidos en tiempo real y en 3D por un software conectado a cámaras de alta resolución. El software después es capaz de utilizar esos puntos de referencia en 3D para saber la posición y dirección de la cara de los dobles, y saber exactamente en qué posición y dirección poner la cara digital de Walker.

Vale la pena decir que este es un proceso extremadamente lento, tedioso, laborioso, y que requiere de mucho talento y todo un personal de expertos visuales (por eso que no les sorprenda que el traer a Walker a la vida otra vez le costó a los estudios unos US$50 Millones de dólares adicionales), pues hay que manipular cada cuadro de película uno a uno para asegurarse de que no existan imperfecciones de tamaño, iluminación, color, expresión, etc.

A otro nivel, otra cosa que tuvieron que hacer fue crear nuevas lineas habladas, las cuales eran pronunciadas por uno de los hermanos, y posteriormente manipuladas sonoramente para aproximar o igualar el sonido a la voz de Walker, y todo esto sincronizarlo con movimientos digitales de una boca digital de Walker que pronunciaba las palabras.

Y créanme que el resultado fue espectacular, y fue espectacular precisamente por el hecho de que los efectos especiales no se notaron en lo absoluto en el 99% de los casos, lo que realmente es un gran logro para esta o cualquier película.

Ahora solo esperemos que cuando la película salga en DVD y Blu-ray, que los realizadores incluyan material adicional detallado sobre el proceso que conllevó esto en el día a día.

Mientras tanto, no dejen de ir al cine a ver esta película en una buena pantalla con buen sonido, esta es una de esas que es mejor verla en grande...

Y si se preguntan si veremos Rápido y Furioso 8, pueden estar casi seguros de ello, particularmente dado el gran éxito en taquillas que este capítulo está teniendo (que de por sí solo hoy día casi garantiza otra secuela), y el buen trabajo de los actores nuevos en la película (Jason Statham como "el malo"), y el cameo de Kurt Russell que prácticamente nos da una pista sobre lo que veremos en la 8, la cual continuaría evolucionado la serie hacia nuevos horizontes...

Avance/trailer a continuación (enlace YouTube)...


autor: josé elías


Opinión eliax: Lytro decide reenfocarse en video
eliax id: 11356 josé elías en mar 6, 2015 a las 11:19 AM (11:19 horas)
eliax - para mentes curiosas...A veces me asombra como empresas se ciegan ante tremendas oportunidades que para muchos fuera de sus oficinas son sencillamente obvias...

Tomemos el ejemplo de hoy: La empresa Lytro acaba de anunciar que despedirá a muchos empleados con miras a reenfocarse en otro mercado, el mercado de video (y a menor medida, también el mercado de la Realidad Virtual).

Para los que desconocen a Lytro, esta es una empresa que inventó y mercadeó una cámara revolucionaria del mismo nombre, que tiene la asombrosa particularidad de poder enfocar la imagen después de uno haber capturado la foto.

En otras palabras, simplemente apuntas tu cámara a lo que desees capturar, y posteriormente en tu casa u oficina tu puedes elegir (por medio de un software especializado en tu PC) cuáles elementos de la fotografía deben permanecer enfocados y cuáles no. Incluso la empresa ofrece un componente web que incrustas en páginas y redes sociales que permite que las audiencias de tus fotos jueguen después con la imagen enfocándola en varios puntos (vean algunos ejemplos aquí).

Sin embargo, y como mencioné par de veces previamente, aunque eso está genial desde el punto de vista que se ve como algo "chévere", no iba a acabar con el mercado actual, debido a (entre otras razones) (1) su alto costo, (2) falta de un ecosistema de lentes y otros accesorios (es decir, el sector profesional), y (3) el hecho de que realmente aunque es algo chévere poder hacer esto en fotos, no es que sea una gran necesidad per-se para la mayoría de personas, particularmente en un mundo en donde celulares ofrecen ya fotos asombrosas con buen enfoque en la mayoría de casos.

Y eso nos lleva al tema de hoy... Hace 4 años le sugerí a la empresa (en este artículo acá mismo en eliax, y por email a ellos) que el mercado de ellos no era la fotografía, sino más bien la cinematografía (es decir, el cine).

¿Por qué? Pues porque uno de los elementos más difíciles del cine (y para lo que usualmente se paga a un empleado aparte a tiempo completo, y se necesitan todo tipo de tecnologías para ayudar) es lo que se llama "focus pulling", o el acto de enfocar correctamente una imagen en movimiento.

Para consumidores esto no aparenta ser gran cosa, ya que aparenta que la mayoría de cámaras de video enfoca apropiadamente, pero en cine, con sensores más grandes, y con resoluciones mayores, el tema se multiplica exponencialmente y es bastante difícil mantener una imagen enfocada, razón por la cual un buen focus-puller en Hollywood es altamente cotizado con su salario.

Y estos focus-pullers justifican su salario ya que si una toma está fuera de enfoque casi perfecto, esa toma se descarta, arruinando la toma, perdiéndose oportunidades creativas, y extendiendo el tiempo y presupuesto de los proyectos. O en otras palabras, malos enfoques se traducen en pérdidas en dinero.

¿Pero qué tal (y esto es lo que no concibo en mi mente que le haya tomado 4 años para darse cuenta a la gente de Lytro), si las cámaras de cine estuviesen dotadas de un sistema de Lytro en donde no importa el enfoque en lo absoluto, sino que eso ya sea una labor en post-producción?

Eso sería sencillamente fenomenal.

Y no solo fenomenal en el sentido de que resuelva el tema de no tener que enfocar, sino que además abre nuevas oportunidades que antes no existían para uno poder tratar el tema de enfoque como un elemento más desde el punto de vista creativo en las producciones. De modo que por ejemplo se puedan elegir varios puntos de enfoque a la vez, o reducir o expandir el efecto de fondo difuso al antojo.

Eso, es lo que Lytro debió hacer desde el inicio, y esperemos que lo que sea que estén planeando ahora, lo implementen bien... Yo personalmente no sacaría toda una cámara o sensor con esta tecnología, sino que licenciara la tecnología a los mayores fabricantes de sensores y cámaras del mercado, como son Alexa, RED, Sony, Canon, BlackMagic, y otros...

autor: josé elías


Eliax explica: El HoloLens de Microsoft
eliax id: 11328 josé elías en ene 22, 2015 a las 01:31 AM (01:31 horas)
Desceliax, para mentes curiosas...Microsoft. Esa sola palabra en la era de Bill Gates era sinónimo de Google o Apple hoy día, pero desde que Steve Ballmer tomó el reinado la empresa entró en un tremendo estado de complacencia, pensando solo en ordeñar sus franquicias de Windows, Office y productos empresariales existentes, ofreciendo algunas mejoras en tales productos, pero olvidándose por completo en innovar cosas nuevas...

Y el tema de innovación es precisamente lo que dejó atrás a Microsoft ante titanes de hoy día, lo que es una verdadera lástima ya que como he dicho por años, Microsoft posee uno de los departamentos de Investigación y Desarrollo más avanzados del mundo, pero bajo Ballmer ese departamento simplemente investigaba pero no desarrollaba nada tangible para el mercado. Y si quieren tener una idea de a qué me refiero cuando digo que en esos laboratorio de Microsoft están algunos de los más grandes genios sin reconocimiento del mercado, solo miren lo que hace 5 años Microsoft ya tenía funcionando tras bastidores.

Pero para suerte de Microsoft, su nuevo CEO (Gerente General) Satya Nadella parece que realmente tiene una estrategia en mente para sacar a Microsoft de la tumba que ha cavado para sí misma, pues ha estado tomando unas excelentes decisiones en tiempos recientes, que van desde despidos masivos de burócratas y liquidar centenares de proyectos inservibles, hasta unificar a Windows (bajo el código “10”) y revivir su inapreciado departamento de I+D, y uno de estos grandes frutos fue el anuncio que acaba de hacer de su tecnología HoloLens (bajo la plataforma "Windows Holographic" que será parte de Windows 10).

HoloLens en su forma más desnuda no es más que unas gafas de Realidad Aumentada, que Microsoft está mercadeando como unas gafas que crean “hologramas”, pero realmente no son hologramas, sino que proyecciones tridimensionales en los ojos que se mezclan con el mundo real, tal cual describí una vez con mi IrixPhone, solo que en vez de estas gafas desplegar imágenes directamente a la retina, lo hace con un par de pantallas translúcidas que se despliegan en el visor.

O en otras palabras, estas gafas no proyectan nada en el mundo real, sino que en nuestros ojos dando la ilusión de que vemos imágenes tridimensionales mezcladas con el mundo real.

Sin embargo, sería un crimen llamar al HoloLens unas simples gafas más de Realidad Aumentada, pues a diferencia de lo que hasta ahora hemos visto en el mercado (y eso incluye al Google Glass), estas van mucho más allá a todo un nuevo nivel (al menos si nos llevamos de lo que promete Microsoft técnicamente).

Las gafas HoloLens, que más bien son un semi-casco en vez de gafas, contienen toda una computadora integrada dentro de las gafas mismas, sin necesidad en lo absoluto de necesitar dispositivos externos para operar, ni cables para conectarse a nada. No se necesita ni de una PC externa (como las gafas de Realidad Virtual del Oculus Rift que ahora posee Facebook), ni de un celular móvil (como las gafas de realidad virtual de Samsung). El HoloLens posee todo lo que necesita en su interior, desde las pantallas y baterías, hasta los sensores y procesadores.

Y hablando de procesadores, Microsoft desarrolló no solo un CPU (procesador genérico) y GPU (procesador de gráficos y de computación altamente paralelizable), sino además lo que llama un “Holographic Processing Unit” o HPU, que esencialmente es un circuito integrado con computación masiva creada específicamente para manejar el gran flujo de datos necesarios para que el HoloLens pueda entender el mundo a su alrededor, y por “entender el mundo a su alrededor” me refiero precisamente a eso…

El HoloLens debe tener la capacidad de utilizar sensores similares a los de celulares inteligentes modernos (como giroscopios, brújulas, etc), para saber con exactitud la dirección y ángulo de inclinación de tu cabeza en relación al mundo exterior, así como poder deducir en base a las imágenes que ve (pueden estar seguros que el HoloLens debe tener al menos 2 cámaras especializadas para tal fin, y quizás más) el espacio tridimensional a tu alrededor.

Es decir, el HoloLens posee la capacidad de poder crear internamente en su memoria una representación tridimensional virtual cruda del espacio real en donde te encuentras (sin duda utilizando muchos trucos aprendidos del proyecto Kinect del departamento Xbox), lo que le permite entonces poder superimponer imágenes sobre el mundo real de forma tal que estas imágenes aparenten que están realmente en nuestro mundo físico.

Así que por ejemplo, el HoloLens puede (por medio de sus dos pantallas, una para cada uno de tus ojos), proyectar una imagen 3D que concuerde con el mundo exterior, de modo que si tienes una mesa en frente de ti, el HoloLens pueda “proyectar” sobre la mesa un objeto 3D virtual, como por ejemplo un florero, o un juego, o una escultura, o un libro, o hasta una tableta virtual. La idea final siendo que aparente que lo que ves en tus gafas sea parte de tu propio mundo.

Esto, en mi opinión, es totalmente genial, y aunque de seguro no proveerá un mundo tan inmersivo como las gafas Oculus Rift (que te bloquean el mundo externo por completo y los reemplazan por uno virtual), el HoloLens abre toda una gama de posibles usos que van desde entrenamientos a distancia hasta aprendizaje virtuales, y desde video-juegos hasta herramientas de diseño para arquitectos.

Es importante también notar que Microsoft no no está planeando crear gafas de Realidad Virtual con el HoloLens, sino que tratando de crear una nueva experiencia de computación personal con Realidad Aumentada.

Sin embargo, hay muchos retos que veo para que estas gafas sean masivamente exitosas, y varios de esos retos veremos si Microsoft logró conquistarlos cuando estas gafas entren al mercado posiblemente antes de finalizar el año. Entre esos retos están el de “lag”, o el retraso que podría existir entre el tiempo que una persona mueve su cabeza y el tiempo que las imágenes virtuales se proyectan sobre el mundo físico. Si este tiempo es notablemente perceptible, se romperá el efecto de Realidad Aumentada y muchas personas tendrán problemas en aceptar la realidad que dicho dispositivo plantea desplegarle al cerebro.

Otros retos son el de la resolución de las pantallas (que creo no será un problema, dado las resoluciones de pantallas en celulares hoy día que ya en varios casos incluso sobrepasan con creces la calidad de imagen HD de televisores hoy día), el de la duración de la batería, el costo, el de convencer a muchos desarrolladores para que hagan aplicaciones que verdaderamente muestren el potencial de esta tecnología (que de paso es bueno aclarar viene con sonido tridimensional para hacer más convincente el efecto “holográfico”), el peso (que puede ser un factor negativo a la hora de utilizar el dispositivo por largo períodos de tiempo), y el tamaño (que lo restringiría mayoritariamente a uso en interiores).

Pero al final del día, independientemente de si HoloLens será exitoso o no, esto es un buen ejemplo de un producto que por sí solo puede hacer ver a Microsoft como una empresa capaz de innovar una vez más, y de competir con lo mejor de los titanes de hoy día. Yo personalmente les deseo mucha suerte con este proyecto, y ya estoy en cola para probar estas gafas desde que salgan al mercado…

Nota: Para los que llevan cuenta, esta fue mi predicción #34 para este año 2015.

página oficial del Microsoft HoloLens

Video del anuncio del HoloLens a continuación (enlace YouTube)...


autor: josé elías


Manipulando objetos tridimensionales en fotografías 2D. Asombroso video
eliax id: 11327 josé elías en ene 19, 2015 a las 04:30 PM (16:30 horas)
Hoy los dejo con un video de una increíble tecnología desarrollada en Carnegie Mellon University en los EEUU en donde es posible tomar una fotografía normal en 2D, elegir un objeto tridimensional de esta, y manipularlo al antojo en su entorno fotográfico.

Esta es una de esas cosas que hay que ver para entender (y creer).

De la manera que esta tecnología funciona es consultando primero una base de datos de objetos tridimensionales (de los cuales ya posee información de la forma volumétrica del objeto), y después utilizar esa información para reconocer objetos similares en la fotografía.

Cuando reconoce el objeto, el software reemplaza el objeto de la foto por el objeto 3D, pero manteniendo las propiedades de color, textura y sombras del original, para aparentar que uno lo está manipulando directamente.

Noten que esto está relacionado a otra tecnología que inserta objetos virtuales 3D en fotografías 2D, y de la cual les hablé acá mismo en eliax hace unos años. Y también está relacionado a esta otra tecnología que extrae imágenes 3D de fotografías 2D.

página oficial del proyecto

Y si quieren hacer que esta herramienta se haga realidad para el público en general, contribuyan con la campaña crowdsource en este enlace.

¡Gracias al lector Erik Roy por compartir el video en el grupo oficial de #eliax en Facebook!

Video a continuación (enlace YouTube)...


Video expandido a continuación, con más detalles (enlace YouTube)...


autor: josé elías


Video de hombre que ve por primera vez en 33 años, con ojo biónico
eliax id: 11287 josé elías en oct 11, 2014 a las 08:43 PM (20:43 horas)
Por cerca de una década les he estado informado acá en eliax de tecnologías que permiten de forma limitada restaurar la visión de personas de forma artificial, y este video de hoy resume bastante bien la parte humana de todo esto...

En este caso se trata de Larry Hester, un hombre que había pasado alrededor de la mitad de su vida (exactamente, unos 33 años) ciego debido a la condición de retinitis pigmentosa, y que ahora gracias a tecnología desarrollada en Duke University puede experimentar la sensación cruda de ver nuevamente.

El dispositivo que ven en el video consiste de una cámara incrustada justo entre los dos lados de la gafa, que envía imágenes a una computadora portátil, la cual a su vez genera imágenes en forma de estímulos eléctricos que van directamente al área del cerebro responsable de procesar imágenes.

Es importante entender que Hester no ve como vemos todos nosotros, a todo color y alta definición, sino más bien de forma bastante pixelada, de baja resolución, y a blanco y negro. Sin embargo, como bien dice Hester, aunque para una persona con visión normal eso no sería motivo de siquiera llamar la atención, para él esto significa un cambio del cielo a la tierra, pues por primera vez en tantos años le da cierta independencia visual en su vida.

Noten que una de las cosas que más me gustó del video fue la reacción de su esposa, quien demuestra uno de los gestos de amor más bellos que he visto en video en mucho tiempo, sintiéndose ella extremadamente feliz por la felicidad de su pareja...

¡Gracias Carlos Bello por compartir el enlace en el grupo oficial de eliax en Facebook!

fuente

Video a continuación (enlace YouTube)...


autor: josé elías


Pintando virtualmente en 3D con Tilt Brush y el Oculus Rift
eliax id: 11279 josé elías en sep 25, 2014 a las 05:41 PM (17:41 horas)
Las gafas de Realidad Virtual, Oculus Rift, ciertamente están disparando la imaginación de muchos, y hoy los dejo con este video de un avance del programa TiltBrush.

Este es un programa para pintar literalmente en tres dimensiones, como si tus manos fueran brochas que pintan en el aire a todo tu alrededor, en vez de estar limitado a una superficie plana tridimensional.

Obviamente tendrás que tener puesto el Oculus Rift para poder ver y disfrutar lo que estás haciendo, pero después que termines tu obra maestra la aplicación te dará la opción de generar una imagen GIF animada que puedas compartir con tus amigos.

El video a continuación dice más que mil palabras...

página oficial de Tilt Brush

Video a continuación (enlace YouTube)...


autor: josé elías


Alucinante video proyectado en cara en tiempo real: Omote
eliax id: 11262 josé elías en ago 19, 2014 a las 01:38 AM (01:38 horas)
Hoy los dejo con este increíble video de una tecnología de la cual ya habíamos visto unos cuantos avances en el pasado (ver por ejemplo esto acá mismo en eliax de hace 3 años), pero llevado ahora a todo un nuevo nivel en este proyecto de Omote...

Noten primeramente que el video que verán es totalmente real y no realizado digitalmente con efectos especiales.

Lo que verán es como se proyecta un video generado en tiempo real (con lo que asumo es un proyector láser a color) sobre la cara de una modelo, mientras esta se mueve, pudiendo el sistema darle seguimiento a la cara de la modelo en tiempo real de modo que es posible proyectar una imagen que compagina con la posición y forma de su cara.

El resultado final es la ilusión de que su cara cambia, o se maquilla dinámicamente como por arte de magia, y todo en tiempo real. Esta es una de esas cosas que hay que ver en vez de leer las explicaciones...

Noten que esos puntitos blancos que ven en su cara están obviamente ahí para darle pistas al software de visión artificial sobre en qué posición y dirección se encuentra la cara.

Así mismo noten que este sistema debe ser super optimizado para poder no solo hacer el tracking de la cara sino la generación en 3D de la imagen y proyección en tiempo real. Y noten que si notan con cuidado se fijarán que la modelo se mueve con relativa lentitud, ya que de mover la cabeza muy rápidamente eso haría que la proyección (debido a los cálculos necesarios) no llegan a tiempo y se pierda la ilusión al no proyectarse la imagen en el lugar correcto (algo que se nota levemente al comienzo del video cuando la modelo tiene los labios negros).

¡Gracias al lector Andrés Felipe Giraldo por compartir el video en el grupo oficial de eliax en Facebook!

fuente oficial

Video a continuación (enlace YouTube)...


autor: josé elías


Eliax explica: El cine IMAX (y sobre primer IMAX en República Dominicana)
eliax id: 11228 josé elías en jul 1, 2014 a las 09:50 PM (21:50 horas)
IMAXeliax - Para Mentes CuriosasHola amig@s lectores,

Como ya saben, soy un fanático del cine, y siendo un fanático siempre trato de buscar la mejor experiencia posible, y si algunos de ustedes buscan algo similar, no busquen más y diríjanse al cine IMAX más cercano que encuentren…

Este artículo me lo inspiró el hecho de que por estos rumbos (República Dominicana) se abre el primer cine IMAX del país (en Santo Domingo, Blue Mall) el próximo jueves 3 de julio (con la Película Transformers 4, en 3D), y tuve el tremendo privilegio de ser invitado por Rafael Suarez, el Gerente de Mercadeo de Palacio del Cine (la cadena de cines que trajo la franquicia al país) durante el proceso de izar la colosal pantalla. Incluso tuve el privilegio (ya que el representante de IMAX no sabía español) de ser el que dirigió el proceso de la subida de la pantalla. Ya saben, uno de esos sueños mojados geek hecho realidad… :)

Y desde entonces varios amigos me han preguntado qué es IMAX y qué lo hace tan especial y/o diferente a los cines tradicionales, y es mi objetivo de hoy responder a esas incógnitas…

Lo primero es, que es importante entender que 3D y IMAX son dos cosas diferentes (pues noto que muchos confunden una cosa con otra). El 3D es un elemento opcional tanto del cine tradicional (tanto en celuloide como digital), así como lo es en IMAX, por lo que no confundan una cosa con la otra.

IMAX es en realidad un formato “tamaño grande” del cine, en donde las imágenes (en el IMAX clásico) se capturaban en cintas analógicas de celuloide que ofrecían 10 veces el detalle de las cintas estándares de 35mm de la mayoría de las películas, y lograban eso con unas cintas inmensas (y con cámaras inmensas y difíciles de maniobrar).

Hoy día, las imágenes de IMAX se capturan con cámaras especializadas diseñadas por IMAX, y con inmensos sensores que proveen una resolución y detalle de imagen incomparables con las cámaras y cines digitales tradicionales por su gran detalle, rango de colores, y contraste.

Cúpula IMAXAunque noten que en sus inicios, IMAX en realidad hizo su nombre como un sistema de proyección especializado mayoritariamente en museos y parques de atracciones, por lo que en sus inicios casi todo el material disponible en IMAX eran documentales. Así mismo, el IMAX clásico venía en un formato estilo “cúpula”, consistiendo en una descomunalmente grande pantalla (hablamos de varios pisos de alto) totalmente curva, en donde el público se sienta en literalmente frente a una media-esfera que cubre casi 180 grados de lado izquierdo a lado derecho, y unos 90 grados de abajo hacia arriba, cubriendo esencialmente la mayor parte del campo de visión.

Noten además que estos descomunales cines son por lo general edificios especialmente construidos para alojar estas cúpulas IMAX, razón por la cual son bastante costosos y existen muy pocos de ellos, aunque son una experiencia sin igual (en una de ellas fue que vi Hubble 3D del cual les hablé hace varios años atrás acá en eliax) que recomiendo todo el mundo experimente aunque sea una vez en la vida.

Sin embargo, conforme el nombre IMAX cobraba popularidad, la empresa decidió expandirse agresivamente por todo el mundo con pantallas más modestas, pero mucho más grandes que las pantallas de los cines tradicionales, y proyectando películas populares, particularmente películas “de espectáculo” como la trilogía de Batman, Iron-Man, Avengers, etc.

Estas son por lo general (y hablo del 98% de los casos) las salas a las que todo el mundo se refiere cuando dice que va a ver una película en IMAX, y es el tipo de sala que recientemente llegó por estos rumbos (y el resto de América Latina).

Pero antes de continuar, es importante entender algo importante: Lo que diferencia a IMAX de otros formatos es que similar a lo que hace Apple con su ecosistema en donde lo controla todo para ofrecer un alto control de calidad, IMAX controla por completo toda la experiencia de inicio a fin.

Eso significa que IMAX es quien provee no solo las cámaras y el sistema de almacenamiento y procesamiento de las películas, sino que supervisa su parámetros de imagen (colorización, brillantes, contraste, etc), así como controla el diseño de las salas (incluyendo un estricto diseño de las butacas y colocación de los altavoces y pantalla, así como insulación contra ecos internos y ruidos externos), y provee los proyectores, altavoces, y la inmensa pantalla especializada en sí.

Eso significa que IMAX controla la experiencia de inicio a fin, y debido a eso puede optimizar de una forma tal que los cines tradicionales “abiertos” (que combinan distintos proyectores con distintos diseños de salas y sistemas de sonido y pantalla) sencillamente no puedan igualar.

Debido a este estricto control, la empresa incluso a optimizado tanto su sistema IMAX que la labor de proyeccionista es casi inexistente, ya que el sistema IMAX se auto-calibra diariamente con un sistema de sensores acústicos y visuales, que garantizan exactamente la misma experiencia IMAX, en cualquier parte del mundo, en cualquiera de sus salas, y a cualquier hora del día y con cualquier película.

Este es un cine en donde nunca verán una imagen mal "cuadrada" o descentralizada, o con altavoces que se escuchan mal. Este es real y literalmente el mejor cine disponible, y IMAX se asegura de ello, ya que todos los cines IMAX del mundo son monitoreados constantemente por Internet por un sistema centralizado de IMAX, por lo que si una sala deja de cumplir con los estándares de la empresa de imagen y sonido, esta deja de operar.

Para los curiosos locales, en el caso del IMAX en el Palacio del Cine de Blue Mall, la pantalla mide 15.54 metros x 8.53 metros (o unos 51 pies de ancho por 28 pies de alto) en formato semi-curvo, así como incluye un super-potente sistema de sonido que no solo es envolvente y de sonido super nítido, sino tridimensional, pudiendo el sistema de sonido IMAX poder colocar cualquier sonido en cualquier punto de la sala para crear efectos aun más realistas acorde con lo que vemos en pantalla.

IMAX además, como mencioné anteriormente, provee un formato 3D (que lo ha proveído casi desde sus inicios), y la empresa recientemente desarrolló todo un nuevo proceso digital para 3D que estrena en masa por primera vez con la película Transformers 4, por lo que si pueden, no dejen de asistir a este evento, pues sin duda será una experiencia sin igual para los amantes del cine.

Nos vemos en el estreno este jueves… ;)

autor: josé elías


Inventan una impresora 3D para maquillaje facial, la Mink
eliax id: 11170 josé elías en may 19, 2014 a las 12:25 AM (00:25 horas)
Maquillaje facial, un compañero de las mujeres (y algunos hombres) a todo lo largo de la historia humana, y después de milenios por fin se aproxima el primer gran cambio en cómo se fabrican estos productos con fines estéticos...

Una empresa de nombre Mink, fundada por Grace Choi, pronto lanzará una impresora con el mismo nombre de Mink que permitirá que imprimas tus propios colores de maquillaje en tu propia casa. Y a diferencia de los limitados colores que puedes comprar en una tienda, con la impresora Mink puedes imprimir cualquier color que desees, lo que te permitirá la experimentación sin tener que invertir fuertes sumas de dinero o dar viajes a las tiendas de cosméticos, o esperar a que lleguen tus productos después de ordenarlos por Internet.

Como explica la misma Grace en algunas de sus entrevistas, el gran secreto de la industria de cosméticos faciales es que virtualmente el mismo cosmético que compras de una marca es el que utiliza otra, ya que casi todas ellas compran de los mismos fabricantes los pigmentos y bases necesarias para crear el maquillaje, y el precio usualmente no lo determina la calidad, sino cosas tan tontas como la marca.

Pero Grace planea ponerle fin a todo eso con la Mink.

La idea es que compres una sola vez la impresora (se estima que el primer modelo costará unos US$300 dólares), pero de ahí en adelante solo tendrás que comprar los pigmentos (el equivalente a las tintas líquidas en impresoras tradicionales), pero con la gran diferencia de que los costos de estos pigmentos serán muchísimo más baratos que comprar el maquillaje en una tienda, y de paso te ofrecerán la capacidad de poder crear cualquier color, en la cantidad que desees, y cuando lo desees, sin tener que salir de casa.

Y asombrosamente, la impresora puede imprimir una gran variedad de maquillajes, incluyendo sombras, pinta-labios, esmalte de uñas, etc, por lo que realmente reemplazaría todo un estuche carísimo de cosméticos.

Si esto es implementado tan bien como aparenta en los videos, podríamos estar ante una verdadera revolución en esa industria...

página oficial de la Mink

Video a continuación (enlace YouTube)...


autor: josé elías

"Estoy leyendo tu libro Maquinas en el Paraiso, que te puedo decir, EXCELENTE.

Un placer, gracias
"

por "manuel" en dic 23, 2013


en camino a la singularidad...

©2005-2016 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax