Tecnología Visual
domingo, febrero 14, 2010
|
![]() Como todos sabrán, Mercurio es el planeta mas cercano al Sol, y el que tiene la órbita mas rápida a su alrededor, y lo menciono porque el nombre es muy apto para lo que está haciendo Adobe. Mercury es un proyecto que utiliza el poder del GPU de tu tarjeta de video para descargar del CPU gran parte del poder necesario para editar video en tiempo real, sin embargo, aunque esto no es algo nuevo, la implementación de Adobe sí lo es, pues como podrán apreciar en el video en la página del proyecto que les muestra a Mercury en funcionamiento, lo que hace es casi algo milagroso. Con Mercury es posible editar video de casi cualquier resolución imaginable en tiempo real, y no hablamos de simples cortes, sino que incluso poner varias capas de videos, todas ellas con efectos complejos (incluso en 3D), todo funcionando en tiempo real, sin ningún tipo de espera. Para que tengan una idea, en el demo que muestran nos enseñan video de resolución 1080p con 9 capas mas de video, todas siendo generadas y manipuladas en tiempo real, y como si fuera poco, cuando terminas el proyecto y estás listo para renderizar el video final, la renderización ocurre mas rápido que en tiempo real (es decir, que un video de 2 horas lo podrás renderizar en poco mas de 1). Mas impresionante aun, es viendo a Mercury editar video de la cámara RED ONE con resolución 4k (no solo 4 veces mas resolución que 1080p, sino que con muchísimas veces mas ancho de banda necesario dado la calidad del CODEC), todo en tiempo real, con múltiples capas, algo que a la fecha era imposible o extremadamente caro poder hacerlo. Mercury será parte de la próxima versión de Adobe Premiere Pro, que saldrá junto con el paquete Adobe CS5 (posiblemente alrededor de Abril de este año), y en su primera incarnación funcionará solo con una selecta lista de tarjetas de NVIDIA, ya que utiliza su tecnología CUDA propietaria para el aceleramiento (un ejemplo es la NVIDIA 285GTX que se puede encontrar por US$300). Según Adobe, una versión basada en OpenCL es una posibilidad en el futuro, pero decidieron utilizar CUDA de NVIDIA ya que cuando iniciaron el proyecto OpenCL aun no estaba estandarizado. Sin embargo, creo que esto también se debe a la rivalidad reciente entre Apple y Adobe, quienes entre otras cosas compiten con Adobe Premiere Pro y Final Cut Pro, y dado que esta implementación de Mercury funciona perfectamente bien tanto en Mac como en Windows, esto le pone mucha presión ahora a Apple, ya que esto hará posible una solución de menos de la mitad de costo en Windows, que en Mac. Y hablando de costo, a eso es que me refiero en el título de este artículo cuando hablo de "revolución". Aunque ciertamente a la fecha era posible manipular video en tiempo real, por lo general hablábamos de video SD en algo como el formato DV, pero aquí no solo hablamos de 1080p o superior (sin importar el CODEC, desde AVCHD hasta RED ONE, pasando por los formatos soportados por la última generación de D-SLRs), sino que de hacerlo con incluso decenas de efectos, todo en tiempo real. Es decir, hablamos de hacer algo en una estación de trabajo que costará menos de US$2,000, que hasta el momento solo era posible en equipos que costaban entre US$25,000 y US$250,000 dólares. Esto es algo que sin duda tendrá un tremendo impacto en la calidad de producciones de video y cine independiente, porque hablamos de que una persona con US$3,000 dólares podrá no solo comprar una cámara de alta definición como esta, sino que además podrá comprar todo el equipo de edición en tiempo real, lo que le dará mas libertad de experimentación a estas personas. Recordemos que quizás el trabajo mas arduo en post-producción es la edición del video mismo, en donde se ensamblan todas las tomas y se mueven, acortan, alargan y combinan en innumerables maneras hasta uno poder tener una historia bien contada. Sin embargo, actualmente el proceso es tan arduo y lento (teniendo uno por lo general que esperar entre minutos y horas a que el sistema renderice lo que uno está editando), que muchos editores deciden experimentar lo menos posible en este crucial paso de la producción, perdiéndose en el proceso la verdadera potencialidad de la obra en cuestión. Esperemos ahora a ver si esto aviva a Apple a lanzar lo antes posible una versión de Final Cut Pro optimizada para OpenCL, pues de lo contrario veo a muchos editores dejando a Apple por Windows solo por esta aplicación de Adobe... Información oficial sobre el Adobe Mercury Playback Engine (no dejen de ver el video incluído en la página, los que editan video si duda quedarán impresionado con lo que verán) autor: josé elías |
![]() |
![]() |
viernes, febrero 5, 2010
|
![]() En otras palabras, el 100% de las imágenes que verán, por increíble que parezca, las están viendo tal cual salieron de las cámaras fotográficas, sin retoque digital alguno. Si se preguntan cómo logran este efecto, en realidad es bastante sencillo, la dificultad está en la coordinación necesaria. Lo que se hace es poner la cámara en modo de "larga exposición" (casi todas las cámaras tipo DSLR soportan esto, pero pocas cámaras compactas lo soportan) lo que hace que la cámara mantenga su iris abierto captando luz por varios segundos, lo que es suficiente tiempo como para que una o varias personas "dibujen en el aire" con algún objeto brillante (como podría ser una pequeña linterna o LED). En los enlaces de noticias previas en eliax también verán otro efecto relacionado a este llamado "Slow Sync Flash" que también es genial. Nota a fotógrafos con cámaras DSLR que quieran reproducir este efecto: Desconocido para muchos fotógrafos es el hecho de que es posible mantener el iris de la cámara abierta de manera indefinida, por mucho mas tiempo que los 10 a 30 segundos de exposición a la luz que encuentran en el menú estándar de la cámara. Simplemente consulten el manual para encontrar la manera de hacer esto, pero al menos en cámaras Nikon pueden buscar por el modo "Bulb" que hace precisamente eso. ¡Gracias a Emmenuel Bretón por el enlace! Enlace a la página con todas las imágenes autor: josé elías |
![]() |
![]() |
miércoles, febrero 3, 2010
|
![]() Y ahora, Nokia ha sacado un original juego de autos de carreras en donde utilizas los mapas reales del mundo para manejar sobre ellos, lo que está genial (no dejen de ver el video acá abajo, esta es sin duda una de las mejores aplicaciones no solo del Ovi Store de Nokia, sino que de cualquier celular). Esto me recuerda mucho el simulador de vuelos que viene incluido en Google Earth que permite que uno vuele por todo el mundo real con un avión virtual :) Fuente oficial de la noticia Enlace al Ovi Store de Nokia Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
miércoles, enero 27, 2010
|
Recientemente tropecé en Internet con una cámara cuyas prestaciones son verdaderamente asombrosas para el nicho de video de cámara lenta.
Es la WEISSCAM HS-2, una cámara capaz de capturar 2000fps (es decir, 2000 fotos por segundo) en resolución 1080p. La cámara además graba en formatos 4:3 (TV cuadrada) y 16:9 (rectangular), así como utiliza un formato de lentes de 35mm y produce una señal digital de video tanto en formato HD como RAW (cruda). Esta cámara sin duda que conllevará a nuevos y extraordinarios videos en cámara lenta y en alta definición, que sin duda alguna veremos este año en nuestros TVs, en discos Blu-ray y por Internet. Algo que aun no se es el precio de esta cámara, pero pueden estar seguros que "módico" no será. :) Y si esto les pareció asombroso, y están dispuestos a sacrificar enormemente la resolución, consulten esta noticia anterior en eliax sobre una cámara que capta mas de 6 millones de fotos por segundo... Página oficial de la cámara autor: josé elías |
![]() |
![]() |
miércoles, enero 20, 2010
|
![]() Esto permite crear imágenes de prácticamente cualquier tamaño (hablamos de tamaños de cine o superior), pero con una alta brillantés y a un muy bajo costo y bajo consumo. Esta tecnología, su mercadeada apropiadamente, podría revolucionar no solo el mercado de sistemas de proyección industrial y hogareño, sino que podría transformar la arquitectura de muchas ciudades, acelerando la llegada de un futuro visual como representado repetidamente en la cultura de la ciencia ficción popular japonesa, o en películas como Blade Runner. Recuerden por ejemplo que una de esas mega-pantallsa como las que ven en estados deportivos cuesta por lo general varios millones de dólares, eso debido a que la tecnología está implementada en la pantalla misma (es decir, cada pixel es en realidad un circuito electrónico, como ocurre con televisores plasma y LCD/LED), pero con LPD, es solo cuestión de tener un pequeño proyector del tamaño de una PC apuntando hacia una pantalla especial (tratada con elementos de fósforos que se excitan ante el rayo láser), y listo. Otra ventaja de esta tecnología es que por su naturaleza siempre está perfectamente enfocada, y que se puede proyectar sobre cualquier superficie sin importar su forma, lo que sin duda conllevará a varios usos creativos de esta tecnología. Página oficial de Prysm Fuente de la noticia autor: josé elías |
![]() |
![]() |
domingo, enero 17, 2010
|
He aquí un tremendo uso para la Realidad Aumentada, y esto que verán sin duda será copiado en decenas de otros entornos y situaciones...
Se trata de una tecnología que como verán en el video a continuación nos da la ilusión de que podemos ver detrás de paredes. Como ejemplo, han tomado el escenario de un automóvil que debe doblar una esquina, la cual podría ser peligrosa si uno la dobla sin ver lo que hay detrás. Como verán, la solución con Realidad Aumentada es bastante genial, pues utilizando un par de cámaras puede sobreponer sobre tu punto de vista (digamos, como una proyección sobre tu parabrisas o sobre unas gafas especiales) lo que al menos una cámara percibe detrás de la pared, y hacerlo de una manera que se mantiene el punto de vista físico, lo que da la ilusión de una pared invisible. Esto es algo que hay que ver para entender mejor. El video es de apenas unos pocos segundos de duración, pero la parte impactante está casi en el final. Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
domingo, enero 10, 2010
|
![]() Algo importante a mencionar es que WiDi no ofrece el poder que prometen sus competidores, y al contrario, creo que pone algunas limitaciones en el consumidor, sin embargo, tiene algo que las otras no tienen y que creo es la única razón por la cual esta tecnología tiene una oportunidad de ser exitosa: Vendrá por defecto y "gratis" en los chipsets de Intel. Un chipset (que literalmente significa "conjunto de chips") es a lo que la industria ha migrado en los últimos años, en donde un solo proveedor (como Intel) le provee a los fabricantes (como HP, Acer, Sony, ASUS, etc) la mayoría de los chips necesarios para que estos construyan (por ejemplo) una laptop. Esto hace la labor más fácil para los fabricantes, así como les aminora el costo de fabricación ya que Intel ofrece fuertes incentivos económicos cuando estos chips se compran en conjunto. Esta es la razón también por la cual muchas tecnologías de Intel (o apoyadas por Intel) ganaron tanta tracción tan rápidamente, y es la razón por la cual también Intel ha podido competir muy efectivamente contra AMD/ATI y NVIDIA, ya que al proveer una solución integral, se le hace difícil a terceros vender un chip que Intel ya ofrece en su paquete (que incluye CPU, controlador de memoria y discos, controlador de red, video, audio, etc). Debido a esto es que tecnologías como USB, PCIExpress o WiFi fueron adoptadas tan rápidamente, ya que venían instaladas "por defecto" en equipos con chipsets de Intel (o AMD o NVIDIA a menor medida). Esto es similar al caso de Microsoft incluir por defecto al navegador web Internet Explorer en Windows, en donde todo el mundo lo utiliza porque ya viene instalado. Algo curioso sobre este tema es lo que ocurrió en el mercado de tarjetas de video integradas. Hubo una época en donde los líderes del mercado eran ATI y NVIDIA, sin embargo (y para sorpresa de muchos), el proveedor de chips gráficos mas grande del mundo hoy día es Intel, pues la mayoría de las laptops vienen con sus soluciones, las cuales son entre las peores soluciones gráficas del mercado, pero les cuestan menos a los fabricantes... Pero volviendo al tema, creo que el empuje de Intel con WiDi, por las razones y ejemplos que acabo de nombrar, tienen un buen potencial de conquistar el mercado, cosa que aparenta no ser tan buena para los consumidores, ya que esta tecnología utiliza ancho de banda prestada del estándar "WiFi N", lo que podría tener un efecto adverso al resto de nuestras redes WiFi (ya que video de alta resolución consume mucho ancho de banda), sin embargo al largo plazo creo que sería algo bueno, ya que acostumbraría a las personas a la comodidad que ofrece esta tecnología, y por tanto le abriría la puerta a otras opciones con mejores prestaciones técnicas. Así que por ejemplo, con WiDi, sería posible entrar a un salón de conferencias, y enviar el video de una presentación a un proyector, sin necesidad de cables. O enviar una película de tu laptop a una TV en la casa de un amigo equipada con receptor WiDi, sin conectar nada. La buena noticia hoy sin embargo es que sea como sea, los consumidores ganamos, y por mi parte sería muy feliz si pudiera aminorar (o eliminar) el desastre de cables que existe actualmente detrás de mi equipo de audio y video (tiemblo con solo pensar que tengo que hacer alguna modificación con los conectores)... Y como siempre, pueden leer mas opiniones y análisis de este tipo en la sección de ese nombre a la derecha de la página principal de eliax.com. Página oficial de WiDi en Intel autor: josé elías |
![]() |
![]() |
viernes, enero 8, 2010
|
Los que vieron a AVATAR sin duda que notaron las pantallas transparentes que utilizaban todos los operadores militares en la película, y aunque no lo crean, esa tecnología ya existe en forma bastante similar desde hace unos años, y esta semana Samsung demostró una laptop con una pantalla transparente.
La tecnología utilizada en la pantalla se llama AMOLED, y aparte de ser transparente tiene la propiedad de que puede ser utilizada con todas las mas recientes tecnologías 3D, para ofrecerte no solo transparencia, sino que imágenes tridimensionales. Por ahora es solo un prototipo, pero ya saben que vienen en camino (aunque lo dudo para laptops tradicionales, en donde es mejor tener una pantalla que no sea transparente)... Video a continuación (enlace YouTube)... Previamente en eliax: El televisor transparente de Sony (Agosto 2006) Ventanas transparentes que se convierten en espejos (Febrero 2007) Un interfaz multi-toque gigante y transparente (Marzo 2008) Video de un pez con cabeza transparente como el hombre invisible (Agosto 2009) autor: josé elías |
![]() |
![]() |
jueves, enero 7, 2010
|
![]() Pero lo interesante es que gracias a sensores infrarrojos, este dispositivo también te permite interactuar con la imagen, similar a como uno interactúa con la pantalla de un iPhone. La resolución es WVGA (es decir, alrededor de 800×480 pixeles), viene con 2GB de memoria flash, contiene una ranura para tarjetas microSD de hasta 32GB, así como contiene una batería para 2 horas de autonomía. Lo que no está claro es si el Light Touch se puede utilizar como una pantalla y teclado/ratón para cualquier PC, o si el dispositivo en sí contiene su propio software. Por ahora lo único que sabemos es que viene con Adobe Flash Lite 3.1 para su interfaz de usuario. Personalmente no creo que este tipo de dispositivos sea exitoso en ambientes hogareños o empresariales, pero le veo potencial en nichos especializados como por ejemplo en un bar o restaurante para desplegar un menú interactivo frente a ti. Sea como lo sea, lo mas emocionante de este producto no es el producto en sí, sino la tecnología utilizada para desplegar la imagen, algo que llaman HLP (Holographic Laser Projection), un sistema que utiliza patrones de difracciones proyectadas sobre una micropantalla, la cual al recibir luz láser forma una imagen por difracción, que es muchísimo mas eficiente y brillante que una proyectada por medios tradicionales. Además, como son lásers los que generan la imagen, la imagen proyectada siempre está enfocada, incluso en superficies curvadas. Así que tenga o no éxito el Light Touch, algo me dice que es posible que veamos esta tecnología sobrevivir en otras aplicaciones visuales futuras. Sería además interesante ver que tanto se puede miniaturizar esta tecnología, pues sin duda sería algo intrigante ver como esto se adaptaría a una futura generación de celulares inteligentes... Página oficial del producto Página oficial de la empresa Light Blue Optics Fuente de la noticia Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
|
![]() Si recuerdan hace dos años les hablé de Wireless HD 1.0, pero desde entonces no se vio mucha adopción del estándar. Lo que la versión 2.0 promete ahora es un aumento masivo en el ancho de banda, permitiendo entre 10 y 28Gbps de datos en tiempo real. Esto es suficiente no solo para video a 1080p, sino que para video 3D a 1080p (que al menos en el estándar actual de Blu-ray 3D necesita un 50% mas ancho de banda que la versión 2D). Sin embargo, esto es tanto ancho de banda que incluso soportará resoluciones "4K" (es decir, 4,000 lineas de resolución vertical, lo que significa el equivalente a formar un mega-HDTV con 4 televisores de 1080p). Fuente de la noticia autor: josé elías |
![]() |
![]() |
martes, enero 5, 2010
|
![]() Los televisores vendrán con una cámara web de alta calidad integrada, así como con un micrófono especializado para salas hogareñas. Esta es en mi opinión una excelente movida por parte de Skype (quien recientemente se liberó de eBay), pues esta es una forma verdaderamente acertada para llegar al mercado masivo de usuarios que no son técnicos o que tienen un bajo grado de uso de computadoras. Con esto será trivial que familias se comuniquen unas con otras sin necesidad de tener que emplear una PC de intermedio, así como facilitará el uso de video-conferencias en todo tipo de negocios. Fuente oficial de la noticia Página oficial de Skype Previamente en eliax: EBay a comprar Skype por US$4,100 Millones (Septiembre 2005) eBay vende 70% de Skype en US$1,900 Millones de dólares (Noviembre 2009) autor: josé elías |
![]() |
![]() |
martes, diciembre 22, 2009
|
Si eres un ávido jugador de video-juegos es muy posible que hayas escuchado de Unreal Engine 3, un motor 3D para video-juegos utilizado en juegos como Unreal Tournament 3, Gears of War 2, y licenciado por decenas de empresas como Atari, Activision, Capcom, Disney, Konami, Koei, 2K Games, Midway Games, THQ, Ubisoft, Sega, Sony, Electronic Arts, Square Enix y 3D Realms.
Pues ahora ha llegado al iPhone 3GS y la última generación del iPod Touch, y como verán en el breve video a continuación, grandes cosas le esperan al iPhone en materia de video-juegos... Ahora solo falta esperar a ver cuáles empresas sacan los primeros juegos con ese motor, pero algo me dice que no tardaremos mucho en saberlo. Me pregunto ahora cuantos aun siguen pensando que el iPhone OS no representa una amenaza a para el mercado de consolas de video-juegos portátiles... Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
lunes, diciembre 21, 2009
|
![]() La tecnología que utiliza es LED, y la pantalla es de 42". De paso pesa apenas 4Kg (8.8 Lbs), lo que significa que un bebé puede cargar esta HDTV con poco esfuerzo. Algo interesante es que debido a lo delgado de la pantalla, que el sintonizar y el resto de los componentes electrónicos de la TV son externos en una pequeña cajita que se conecta con un cable a la pantalla. Esperemos ahora que esta tecnología llegue rápidamente a laptops, netbooks y monitores de PCs :) Fuente de la noticia Previamente en eliax: Samsung desarrolla pantalla ultra delgada (Octubre 2006) Lentes de contacto con circuitos y pantalla dentro de ellos (Julio 2008) Pantalla de 0.27" a hacer Realidad Virtual una realidad real próximamente (Junio 2009) autor: josé elías |
![]() |
![]() |
viernes, diciembre 11, 2009
|
![]() Lo que permite esta magia que verán en el video es una nueva generación de pantallas LCD que contienen dentro de los mismos pixeles de la pantalla un sistema de fotosensores que detectan luz. Estos sensores por lo general solo detecta luz de tus dedos directamente sobre la pantalla, pero el equipo de MIT que inventó la técnica BiDi demostró que con una ligera modificación de la colocación de estos sensores es posible detectar movimiento no solo sobre la pantalla, sino que en frente de esta, abriendo esto grandes nuevas posibilidades de interacción, como apreciarán en el video a continuación. En esencia, MIT transforma la pantalla en un super sensor fotográfico que permite que la pantalla detecte la forma tridimensional de los objetos colocados frente a esta, lo que está verdaderamente genial. Ahora solo falta combinar esto con pantallas en 3D para lograr el efecto de que manipulamos cosas con las manos... Noten que en el video las demostraciones que quizás quieran ver inician después de los 3 minutos con 15 segundos, con un demo completo iniciando a los 3 minutos con 48 segundos. Fuente de la noticia Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
jueves, diciembre 10, 2009
|
![]() Para el que no sepa, WiGig (Wireless Gigabit, o "Gigabit Inalámbrico") es un estándar inalámbrica que permite interconectar todo tipo de dispositivos, desde televisores hasta discos duros, desde computadoras hasta control remotos, permitiendo por fin el sueño de solo depender de un solo cable eléctrico o de baterías (aunque inclusive el cable eléctrico podría desaparecer, ver enlaces al final de este artículo). Pero he aquí una sorpresa: WiGig también es compatible con WiFi, lo que significa que será muchísimo mas fácil hacer la transición a ese estándar, aunque eso no significa que esto reemplaza a WiFi, al menos al corto plazo, ya que sirven propósitos diferentes y WiFi tiene un mayor alcance teórico. En cuanto a capacidad, WiGig soporta velocidades de hasta 7Gbps (sobre el espectro de los 60GHz), lo que es muchísimo mas que suficiente para enviar varios videos simultáneos de alta definición por toda tu casa con varios canales de sonido envolvente. Las siguientes empresas ya son parte de esta alianza, y aunque nadie ha anunciado nada espero que los primeros productos (o al menos las primeras demostraciones) las veremos en el 2010: Atheros Communications, Broadcom, Dell, Intel, LG Electronics, Marvell International, MediaTek, Microsoft, NEC, Nokia, NVIDIA, Panasonic, Samsung Electronics, Toshiba, Wilocity, Agilent Technologies, AMD, Beam Networks, NXP, Ralink Technology Corporation, Realtek, SK Telecom, STMicroelectronics, Tensorcom, Texas Instruments y TMC. Ahora a esperar, aunque los consumidores estamos listos para recibir este tipo de tecnología desde hace tiempo, ya es hora de cortar esos cables... Página oficial de WiGig Nota de Prensa oficial autor: josé elías |
![]() |
![]() |
lunes, diciembre 7, 2009
|
Google acaba de lanzar una aplicación para celulares que funcionen con el Android OS, que tiene el potencial de afectar profundamente la manera en que hacemos búsquedas de información en Internet.
Se trata de Google Goggles (que si se pudiera traducir al español sería algo como "Gafas Google"), una aplicación que depende de la cámara de video y fotos integrada en dispositivos Android para hacer búsquedas. Es decir, si estás en una biblioteca o librería, y ves un libro que capta tu atención, simplemente apunta la cámara de tu celular a la portada del libro, y Google Goggles reconocerá la imagen, deducirá cual es el libro, y te devolverá resultados de su autor, crítica de lectores, donde comprarlo a buen precio, etc. En otro ejemplo, si estás parado frente a la Estatua de la Libertad en New York, o cualquier otro punto de referencia turístico, Goggles también te podrá información sin tu tener que utilizar el teclado, con solo tomar una fotografía. Otro tipo de cosas que puede reconocer son obras de arte, información de contacto (como tarjetas de presentación), lugares populares, vinos, y logos. Este es un proyecto experimental, por lo que aun le faltan muchos tipos de objetos por reconocer (como automóviles o animales por ejemplo), pero sin embargo, no solo es un buen inicio, sino que un concepto con un potencial tremendo. Yo mismo utilizo con frecuencia en mi iPhone una aplicación llamada SnapTell cuando voy a tiendas de alquilar DVDs, con la cual le tomo una foto a la portada de la película para mas información, por lo que se lo útil que son este tipo de aplicaciones. Otra funcionalidad interesante es que Goggles puede utilizar el video en tiempo real de Android, con información GPS y de brújula digital, para permitirte apuntar la cámara en tiempo real a cualquier negocio y proveerte de información sobre el lugar o negocio que ves, lo que es muy útil si estás frente a un restaurante y te gustaría saber la opinión de otras personas que han comido ahí. Simplemente genial. Y a propósito, este proyecto sin duda fue influenciado por este otro del año pasado. Si tienes un celular Android, y lo quieres probar, entra al Android Markertplace (la tienda de aplicaciones de Android) y busca por "Google Goggles". Y si quieres mas noticias relacionadas con Google, no dejes de visitar la sección de Google en eliax... Fuente de la noticia Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
"Increíblemente impactante. Casi lloro al ver esto, amo la tecnología."
en camino a la singularidad...
©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax