Tecnología Visual
miércoles, abril 8, 2009
|
A continuación los dejamos con una excelente demostración en donde nos muestra las capacidades del iPhone para crear "Realidad Aumentada", que no es otra cosa mas que decir el combinar video real captado de la cámara del iPhone con gráficos tridimensionales generados en tiempo real.
En el video verán como una "mascota virtual" (específicamente, un perrito) surge de la nada en 3D justo encima de tu escritorio, y utilizas el iPhone "para verlo". Ya entenderá mejor cuando vean el video. Este tipo de aplicaciones serán aun mas potentes con el rumoreado compás digital que viene en la nueva generación del iPhone con iPhone OS 3.0 (como hemos estado reportando en el canal oficial de Twitter de eliax en twitter.eliax.com). A los que se pregunten ¿cómo hacen esto?, es en realidad bastante simple. Si notan verán que en casi todo momento en el video aparece un cuadro con muchos cuadritos mas en blanco y negro. El patrón de ese cuadro está especialmente diseñado para que pueda interpretarse sin redundancias desde cualquier ángulo. Un software especializado en el iPhone detecta el patrón de esos cuadros, lo reconoce, y en ese momento utiliza unos algoritmos bastante sencillos que le indican al iPhone la posición relativa del cuadro en relación a coordinadas en 3D. Después es simple tarea de renderizar el perriro en 3D sobre una superficie imaginaria en el software que detecta el patrón del cuadro, lo que da la ilusión de que el perrito está sobre la superficie de tu escritorio. Noten que en Agosto del año pasado les mostramos un video muy similar a este (vean enlace abajo en noticias previas en eliax), pero este demo está mucho mejor terminado. ¡Gracias al lector Jael Antonio Espinal Morales por el enlace a este interesante video! Fuente de la noticia Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
martes, abril 7, 2009
|
He aquí un software que podrá ser disfrutado por muchos. Es la versión 1.0 de Ultimate Papercraft 3D, un programa que te permite tomar modelos en 3D generados en computador, y poder imprimirlos en hojas de papel normales, con instrucciones para que los recortes los modelos con tijeras, y los dobles de tal manera que termines con un objeto "sólido" similar al que ves en 3D en la pantalla de tu ordenador. ¿Genial no? :)
Puedes importar modelos 3D en estos formatos: Collada DAE, Autodesk FBX/3DS, Autocad DXF, Lightwave LWO, WaveFront OBJ, DirectX, Stereo Lithography STL, Metasequoia MQO, y Ultimate Unwrap3D U3D. Los creadores de este software ofrecen una versión comercial por casi US$40, pero también ofrecen una versión "demo" gratuita. ¡Gracias Emmanuel Bretón por el excelente enlace! Página oficial de Ultimate Papercraft 3D Fuente de la noticia autor: josé elías |
![]() |
![]() |
sábado, abril 4, 2009
|
Un Agujero Negro es uno de los objetos mas fascinantes y extremos del Universo. Este no es nada mas que una estrella que colapsó sobre sí misma debido a sus propios efectos gravitacionales (es como si el suelo debajo de nuestros pies empezara a "caer" hacia el centro de la Tierra debido a la atracción de su centro), creando una masa tan compacta y masiva, que esta termina "doblando" el espacio-tiempo a su alrededor.
Lo curioso de estos objetos sin embargo es que tienen unos campos gravitacionales tan intensos, que nada que se les acerque escapa a su "horizonte de eventos" (o para decirlo en términos mas entendibles, a su "atmósfera"). Esto incluye inclusive la luz, la cual es desviada a su interior sin poder salir, lo que hace que estos objetos no emitan luz y por tanto se les denomine "agujeros negros", ya que a simple vista aparentan invisibles. Así que hoy los dejo con este asombroso video que se creó en base a una simulación de las ecuaciones de Einstein, que muestra qué vería un ser humano mientras este es "tragado" por un Agujero Negro. Obviamente un ser humano fallecería (sería estirado como una tira de hule) antes de ver todo lo que vemos en el video, pero eso es lo bueno de la simulación, que nos permite ver cosas que de otra manera no pudiésemos ver. El video fue creado por Andrew Hamilton y Gavin Polhemus de la Universidad de Colorado en Boulder, EEUU. Este es un video tan interesante como otro que les puse aquí en eliax hace 4 años que les muestra lo que veríamos al viajar a la velocidad de la luz. Nota sobre lo que ven en el video: Notarán que en el video las imágenes aparecen como si fueran "curvadas", similar a lo que vemos por un "ojo de pescado" en una puerta de seguridad. Esa distorsión no es un error o una forma de "conceptualizar" lo que veríamos, sino que es verdaderamente la manera en como veríamos el Universo, ya que el campo gravitacional del Agujero Negro distorsiona el espacio (y el tiempo) a su alrededor. Esto es similar a que si pusiéramos una pesada bola de boliche en el medio de tu cama, y esta creara un curvatura (o agujero) en el medio de la sábana. No dejen de visitar mañana para un artículo que tiene que ver mucho con este, en donde contestaré en detalle la pregunta "¿Qué es la Gravedad?". Video a continuación... autor: josé elías |
![]() |
![]() |
sábado, marzo 28, 2009
|
Desde que se finalizó la especificación 1.0 de OpenCL todos hemos esperados con ansias ver los primeros frutos de esa tecnología.
Como les informamos ya varias veces en eliax, OpenCL es un nuevo tipo de lenguaje de programación universal para tomar ventaja de los procesadores altamente paralelizados de las mas recientes generaciones de las tarjetas de video de NVIDIA y AMD/ATI. Apple es la empresa a la cabeza de OpenCL, razón por la cual la próxima versión del Mac OS X que sale este año estará optimizada para esta tecnología. Pues en el video que verán a continuación, la empresa Havok (creadora de herramientas de programación para la industria de los video-juegos) acaba de presentar una demostración que muestra el poder de esta tecnología. En el video verán como se calcula en tiempo real y de manera realista la tela de la ropa que tiene puesto la modelo virtual. Mas asombroso aun sin embargo, es que conforme avanza el video verán que estos cálculos son replicados decenas de veces con mas modelos, todo en tiempo real y a 60 cuadros por segundo. Esto que verán sin duda es una simple muestra del tipo de gráficos que podremos esperar en la próxima generación de video-juegos y otro tipo de aplicaciones (como editores de gráficos y animaciones 3D). ¡Gracias Emmanuel Bretón por el enlace! Video a continuación (enlace YouTube)... Previamente en eliax: Detalles de la nueva versión de Mac OS X, "Snow Leopard" (Junio 2008) Finalizada la especificación OpenCL 1.0 en tiempo récord (Diciembre 2008) CausticRT promete raytracing 3D en tiempo real en una PC (Marzo 2009) autor: josé elías |
![]() |
![]() |
martes, marzo 24, 2009
|
![]() El sistema de OnLive se puede resumir en lo siguiente: Un sistema que ejecuta todo el código de un video-juego de manera remota en una nube de servidores potentes, generando estos servidores en tiempo real los gráficos del video-juego, y después enviando en tiempo real por Internet estos gráficos hasta tu casa por medio de una conexión de banda ancha, y (esto es lo importante) permitiéndote a ti interactuar con un control de video-juegos en tu casa con los gráficos que ves en tiempo real. Y lo mejor de todo, localmente no necesitarías un gran poder de computación, por lo que hasta una computadora viejita que tenga suficiente poder para conectarse al Internet y renderizar el video interactivo de OnLive sería suficiente. Es decir, conceptualmente esto es el equivalente a que alguien ponga un PlayStation 3 (o Xbox 360 o Wii o PC) al otro lado del mundo, y que estos conecten un cable de mil kilómetros de video hasta tu TV, y otros cables de mil kilómetros cada uno desde tus controles hasta la consola remota. Obviamente, cualquier persona técnica con pocos conocimientos de redes sabe que en esto juega un papel muy importante el tema de latencia en la red (es decir, cuánto tiempo le toma a un paquete de datos llegar desde tu casa a los servidores de OnLive, y de vuelta), así como el ancho de banda de tu conexión a Internet (es decir, cuantos datos puedes enviar y recibir de manera simultánea). Sin embargo, según la empresa, esta ha inventado una manera bastante eficiente de comprimir los datos visuales para hacer esto posible inclusive con una conexión de 1.5Mbps para contenido en "definición estádar" (es decir, calidad de Wii), y unos 5Mbps para Alta Definición (PS3, Xbox 360). Entre los ejecutivos que conforman la empresa están ex-empleados de Netscape, MySQL, NBC y Eidos, por lo que aparenta que esta empresa está no solo bien estructurada, sino que bien financiada. Esto además se hace evidente cuando vemos la lista de pasarela de las empresas que están apoyando esta aventura: Electronic Arts, Ubisoft, Take-Two Interactive, Warner Bros. Interactive Entertainment, THQ, Epic Games, Eidos, Atari Interactive y Codemasters. Opinión: Esta es una tecnología que posiblemente esté un poco adelantada a su tiempo, ya que depende muchísimo de una buena conexión a Internet, así como competiría contra consolas establecidas y que ya están frente a los TVs de nuestros hogares, y que si duda (al menos por ahora) ofrecen una mejor experiencia que OnLive. Sin embargo, creo que un mercado podría existir para OnLive, y es para un futuro en donde el concepto de una consola de video-juegos desaparezca detrás de software, y que ya no dependa de un hardware específico de Sony, Microsoft o Nintendo. Así mismo esto podría ser útil para generar gráficos en dispositivos móviles como el iPhone sin necesidad de generarlos localmente, lo que funcionaría bien para entornos virtuales similares a Second Life (aunque manteniendo en la balanza qué consume mas batería, una conexión de red o un chip potente de gráficos local). Pero no lo duden, esta es una batalla "cuesta arriba", pues aun si la famosa Ley de Moore (que dice que el poder de computación se duplica cada 12 a 18 meses) ayudara a OnLive a ofrecer mas poder en renderización 3D, así como mejor ancho de banda, y desde servidores de mas bajo costo, hay que tener en cuenta además que la Ley de Moore también aplicará a las consolas de la próxima generación de Sony, Nintendo y Microsoft, las cuales obtendrán un poder muy superior a las de hoy día a un precio equivalente, y por tanto mantendrán al margen la calidad de OnLive con gráficos potentes generados localmente. Pero, aun con todas estas barreras, creo que existe uso para esta tecnología al largo plazo, inclusive en otros entornos como permitir que una persona desde una PC de bajo poder rente espacio en OnLive para utilizar un programa como AutoCad o Maya 3D y poder trabajar creando modelos en 3D en tiempo real por Internet. Por ahora al corto plazo creo que OnLive será solo un nicho que quizás llegue a unos pocos millones de usuarios en el mejor de los casos. Fuente de la noticia Otra fuente Actualización: Video a continuación desde Gamespot (gracias Anónimo en los comentarios por el enlace)... |
![]() |
![]() |
lunes, marzo 23, 2009
|
![]() Se trata de un proyecto creado por Philo Hurbain, el mismo creador de LDraw conocido por muchos aficionados a los LEGOs, en el cual decidió crear, con tan solo los bloques de LEGO del tipo LEGO MindStorm NXT y una aguja de coser, un escaneador en 3D. Por escaneador en 3D hablamos de que si pones un objeto dentro del escaneador, este "escaneará" el objeto y lo recreará como una imagen en 3D que puedes utilizar en programas de modelaje y renderización 3D en tu PC. De la manera que esto funciona es que una aguja se utiliza para medir los puntos sobre el objeto. Es decir, la aguja se mueve de arriba hacia abajo, y cuando toca un punto en el objeto se detiene, mide las coordenadas de la aguja en tres dimensiones, y después continúa a otro punto. Esto tiene la obvia limitación de que hay que escanear una "cara" del objeto a la vez, pero como un hack, y un proyecto geek, es uno de los mejores que he visto en mucho tiempo. Página oficial del proyecto Fuente en MAKE Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
miércoles, marzo 18, 2009
|
![]() Hablamos de unos accesorios que pones en tus ruedas y cuando estas giran forman imágenes gracias al efecto de persistencia visual que poseemos todos los humanos. El dispositivo es bastante sencillo, consistiendo de una fila de luces LEDs (32 LEDs en el modelo comercial de Monkeylectric) que colocas en una de las varillas de la rueda de la bicicleta, lo que hace que cuando gire la rueda los LEDs se prendan y apaguen en intervalos específicos para formar todo tipo de imágenes. El aparato comercial viene con miles de patrones de imágenes, lo que hace esto genial para andar en grupo e identificar de lejos a cada uno de noche. La empresa vende el dispositivo por unos US$65 dólares. Algo que no me gusta del modelo comercial sin embargo es que aunque viene con miles de patrones visuales, que no puedes crear tu propio, sin embargo si eres una persona técnica que le gusta mojarse las manos con este tipo de proyectos, en este enlace puedes encontrar una guía para que construyas uno como este de Monkeylectric, y por tanto que lo puedas programar tú mismo. Enlace oficial a Monkeylectric Galería de fotos y videos de este dispositivo en Monkeylectric Lo puedes comprar en este enlace O construye tu propio "Spoke POV" con esta guía Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
domingo, marzo 15, 2009
|
En este caso el experimento consistió en hacer que varias personas "caminaran" por un entorno virtual (similar a los video-juegos en 3D), que contenía pasillos y objetos de referencia (puertas, relojes, mesas, etc), con el objetivo de que llegaran a algún punto en específico que ellos quisieran. Después se les mostraba una imagen totalmente oscura, y solo entonces se escaneaban sus cerebros, específicamente el hipotálamo, para ver quá patrones se podían identificar. El hipotálamo se eligió ya que se sabe desde hace mucho tiempo que una de las funciones de ese órgano en el cerebro es la de proveernos de información espacial (es decir, de nuestro lugar en el espacio en donde nos movemos). Lo interesante del experimento es que después de repetir esto unas cuantas veces, el programa que analizada a las personas empezó a poder predecir con mucha precisión exactamente en donde habían estado las personas dentro del entorno virtual, aun sin saber esa información de antemano. Es decir, es como si yo saliera de mi casa, llegara un par de horas mas tarde y me conectara a una máquina que me dijera con mucha exactitud en donde yo estuve, sin yo haber dicho una palabra... Por ahora la tecnología no representa un riesgo de privacidad, pues requiere de entrenamiento antes de que funcione correctamente, pero como todo sabemos, la tecnología avanza tan rápidamente que en unos años es posible que no haya nadie que nos garantice que esto no sea utilizado para fines dudosos (en particular por fuerzas militares y de inteligencia). Fuente de la noticia autor: josé elías |
![]() |
![]() |
|
![]() Brevemente, hay dos maneras básicas fundamentales (aunque no son las únicas, existe también algo llamado Volumetric 3D, así como otras técnicas) de crear datos tridimensionales en una superficie plana como el monitor de tu PC. Una se llama Scanline Rendering y es la manera en que funciona el 99.99% de todos los gráficos en 3D que ves en video-juegos, desde una PC o Mac hasta el Wii o el Playstation 3, y la otra técnica se llama Raytracing. La diferencia fundamental es que con Raytracing es posible crear gráficos muchísimo mas realistas que con Scanline, razón por la cual raytracing es por lo general lo que utilizan las empresas de diseño de efectos especiales en Hollywood. El problema es que raytracing requiere de muchísimo poder de computación. Para que tengan una idea, aunque un Playstation 3 te renderiza gráficos 3D a un ritmo de 30 cuadros por segundo en alta definición, para una película como El Señor de los Anillos cada cuadro de imagen de la película posiblemente tomó varias horas. Sin embargo, debido al incesante incremento en el poder de computación, está llegando la hora en que renderizar con raytracing en tiempo real se está haciendo factible (como lo ha demostrado Intel y NVIDIA), y aunque esto aun no se puede con el poder genérico de una PC, la empresa Caustic Graphics dice haber desarrollado una solución de hardware específicamente para raytracing que lo hace en tiempo real hoy día, a una velocidad 20 veces mayor que todo lo existente actualmente, y promete para el 2010 un un sistema 200 veces mas rápido. El sistema vendrá como una tarjeta llamada la CausticOne que insertarás en tu PC o estación de trabajo. Así mismo, la empresa ha anunciado CausticCL, un lenguaje de programación y API (interfaz de programación) que extiende a OpenGL para que terceros puedan crear aplicaciones que toman ventaja de este hardware, al cual la empresa ha llamado CausticRT (que me imagino significa Caustic Real Time o "Tiempo Real"). Algo interesante es que los inventores de este sistema son ex-ingenieros de Apple, uno de ellos habiendo sido el arquitecto principal de OpenGL en el Mac OS X, y el otro el arquitecto principal de los algoritmos de renderización del iPhone, por lo que podemos deducir que estos dos deben saber muy bien lo que están haciendo... Página oficial de CausticRT Fuente de la noticia autor: josé elías |
![]() |
![]() |
sábado, marzo 14, 2009
|
Desde hace tiempo les he venido hablando en eliax de las asombrosas cámaras de la empresa RED, y desde el año pasado hemos estado todos esperando la salida de la cámara de bajo costo de esa empresa, la RED SCARLET, que en una de sus configuraciones vendrá a un costo de menos de US$3,000 dólares, y en un paquete "todo incluido" por menos de US$4,000.
La RED SCARLET podrá grabar video en un sensor de 2/3" a una resolución de "3k" (es decir, unas 3,000 lineas de resolución), y con un dinamic range mucho mas alto que muchas cámaras costando varias veces mas. La noticia de hoy es que la empresa ha logrado sacar el primer prototipo de la cámara del proceso de fabricación, y ya ha logrado grabar el primer video con el sensor de la cámara, el cual creo les sorprenderá. El video se grabó con el cuerpo de la SCARLET y con un lente RED PRO PRIME de 100mm. El video es en flash, y es posible que tarde entre 1 y 10 minutos en descargar (dependiendo de tu conexión a Internet) y solo dura unos 10 segundos, pero créanme que vale la pena verlo. Para los que no quieran esperar ver el video, pueden ver una imagen captada del video en este enlace. Y a propósito, según RED, esta es una imagen con mucha compresión de datos y todo tipo de artefactos, por lo que el producto final será aun mejor. Ahora disculpénme que tengo que limpiarme la baba de la boca... :) Enlace al video Fuente de la noticia Página oficial de la RED SCARLET autor: josé elías |
![]() |
![]() |
miércoles, marzo 11, 2009
|
En el siguiente video podrán admirar un trabajo en progreso en el MIT (Instituto de Tecnologías de Massachussetts) en donde investigadores de esa institución están creando lo que llaman un "sexto sentido" para humanos, basado en dispositivos electrónicos externos.
La idea es un dispositivo que cuelgas de tu cuello y que contiene principalmente una cámara y un proyecto. La cámara se utiliza no solo para tomar fotos y/o grabar videos, sino que primordialmente para reconocer gestos que haces con la mano y utilizarlos para que interactues directamente con el sistema, o a través de imágenes proyectadas por el mini-proyector. Como ejemplo, si quieres calcular una suma, simplemente abres tu mano, y el proyector de proyecta una calculadora en la palma de la mano, y después con los dedos de tu otra mano simplemente "punchas" los botones proyectados en tu otra mano, y ves el resultado ahí mismo en la mano. Otro ejemplo es que estés leyendo un periódico, y que al ver algo interesante hagas un "clic" en el aire con un dedo y eso haga que veas un video sobre la noticia que lees proyectado sobre el mismo papel de periódico. En otro ejemplo, si tomas un libro en la mano, el sistema se conecta a Internet y te despliega flotando sobre el libro la calificación de los lectores de ese libro en Amazon, y si abres una página del libro y vez una foto o anotación el sistema se conecta a Internet y te proyecta información adicional sobre el mismo libro (como podría ser información proveniente de Wikipedia). No dejen de ver el video que explica mucho mejor de manera visual el concepto. Si no quieren ver todo el video, simplemente adelántenlo a los 5 minutos con 15 segundos que es en donde empiezan todos los demos interesantes. Video a continuación... autor: josé elías |
![]() |
![]() |
lunes, febrero 23, 2009
|
![]() Es decir, que los pixeles (o mas bien, grupos de pixeles en este caso) se transforman en letras, números y símbolos de colores, logrando un efecto bastante surreal, y que sin duda cuando menos alguien encontrará un uso (ya me imagino por ejemplo un Video DJ utilizando esta técnica en un concierto o discoteca). Para hacer que esto funcione simplemente requiere de dos pasos. Paso 1, instalar el mplayer con esta linea de comando: sudo apt-get install mplayer Paso 2, lanzar el mplayer en modo ASCII (aquí asumimos que vez matrix.avi) mplayer -vo caca matrix.avi ¿Fácil no? Fuente del truco autor: josé elías |
![]() |
![]() |
lunes, febrero 9, 2009
|
![]() Pues ahora la empresa Explay (de la cual ya habíamos hablado en eliax hace 3 años) acaba de anunciar el Colibri, un módulo micro-proyector que tiene la suficiente potencia como para proyectar una imagen de 70" (casi el doble del tamaño de los televisores Plasma típicos de hoy día) con resolución SVGA (es decir, 1024 × 768, lo que es una aproximación razonable para ver videos de HDTV en 720p). El Colibri mide apenas 24 x 28.6 x 7mm y consume solo 1.3W de energía, y las imágenes que proyecta pueden medir de 7" a 70", a una distancia de 20 a 200cm. Así que ya saben, un día de estos veremos celulares que nos proyectan una imagen de alta definición en la casa de nuestras amistades, y que de paso enviarán sonido inalámbrico por medio de Bluetooth para tener un verdadero cine en la palma de la mano :) Otro uso para esto es para dar presentaciones estilo Powerpoint. ¿Se imaginan un vendedor de Bienes Raices andando con uno de estos en la mano? El trabajo no solo se le facilitaría sino que de paso dejaría impresionado a los clientes... Fuente de la noticia autor: josé elías |
![]() |
![]() |
miércoles, febrero 4, 2009
|
Google recién lanzó un nuevo servicio que todos esperábamos, en donde a través de Google Maps tu puedes visualizar dónde están tus amigos/familiares, o mas interesante aun, dónde están los amigos/familiares que mas cerca se encuentran en relación a donde tu estas en ese momento.
La idea obviamente es de tomar las coordenadas satelitales del GPS de tu unidad móvil, enviárselas a Google, y de esa manera Google poder saber dónde está todo el mundo que utilice (voluntariamente, valga la pena decir) el servicio. Según Google, esto ya está disponible en la última actualización del Android G1 de T-Mobile, en la mayoría de los dispositivos de BlackBerry, en la mayoría de los dispositivos con Windows Mobile versión 5 en adelante, en varios celulares con tecnología J2ME (como los de Sony Ericsson), y próximamente en una actualización para el iPhone. Noten además que hoy existe tecnología de triangulación celular que hace esto práctico aun sin GPS, por lo que es posible que esto se popularice rápidamente... Opinión: Esto, aparte de su obvia utilidad para uno juntarse con amigos cuando viaja (o estos viajen), o de los padres saber en dónde están sus hijos, también tiene otro lado mas interesante en el mundo de la publicidad. Es decir, con este sistema, llamado Google Latitude, si Google sabe en donde estás, y donde están tus amigos, hay muchísima información que se puede obtener automáticamente sobre ti, que Google mas adelante puede utiliza para enviarte los anuncios mas relevantes cuando hagas búsquedas en otras aplicaciones de Google. Por ejemplo, si Google nota que estás en Las Vegas, y que tus amigos andan contigo, Google podría enviarte un anuncio con un cupón de descuento para que tu "y 5 acompañantes" visiten la atracción X del hotel X de Las Vegas, generando mas dinero para Google, mas dinero para el anunciante, y posiblemente ahorrándote dinero a ti (o al menos llamando tu atención sobre algo que te gustaría). Ya me imagino esto también siendo utilizado en un futuro no lejano como evidencia en una corte: "Su señoría, tengo pruebas a través de Google Latitude de que yo y 5 de mis amigos estuvimos en Las Vegas tal día a tal hora, y aquí están las fotos para probarlo que subimos a Google ese mismo día"... :) Otra cosa que me viene a la mente es que si Google empuja la frontera un poco mas con esta tecnología, que esto podría ser un competidor viable para Twitter, ya que no solo te diría lo que hacen tus amigos/familiares/socios, sino que además en donde lo hacen. Es decir, combinar esto con un sistema de mensajería basado en Google Chat, pero al estilo Twitter, sin las restricciones de 140 caracteres, y quien sabe, hasta te de ganas de llamar por VoIP y/o Video con Google Talk. En nota final, a los que llevan cuenta, esto es parte de mi predicción #39 para este año. Página oficial de Google Latitude Aprende mas sobre Google Latitude en este enlace Video sobre Google Latitude a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
sábado, enero 31, 2009
|
![]() Su nombre fue Thomas Harriot, y los mapas que verán los realizó en Julio del 1609. Sin duda alguna, un tesoro de la humanidad... Fuente de la noticia autor: josé elías |
![]() |
![]() |
viernes, enero 30, 2009
|
![]() El problema sin embargo es que hasta ahora para lograr eso se necesitaba de equipos especializados, y al menos de dos cámaras distintas para transmitir la imagen estereoscópica. Ahora sin embargo, un muy creativo científico de nombre Chris Harrison ha creado una manera de crear video-conferencia en "semi-3D", sin ningún tipo de hardware adicional salvo la única cámara web que ya poseas, ya que todo se hace en software (es decir, en programación). De la manera que esto funciona es en varias etapas: 1. Un algoritmo remueve el fondo detrás de ti y lo separa de ti, de modo que ahora tu imagen y la imagen de lo que está detrás de ti son independientes. 2. Lo que se envía al otro extremo ahora es una imagen estática del fondo, y un video en tiempo real de solo tu. 3. En el otro extremo lo que ocurre ahora es que la camara web te observa, y con un algoritmo de reconocimiento facial esta te sigue la cabeza para saber en donde están tus ojos en relación a la pantalla de tu PC o Laptop. 4. Esta información de saber en donde están tus ojos es ahora utilizada en tu PC/Laptop para que según tu muevas la cabeza, la imagen que recibes de la otra persona se coloque en 3D en relación al fondo de esa persona, dando la ilusión de que acorde tu mueves tu cabeza, estás viendo "detrás" de la persona con la cual estás hablando. En otras palabras, esto es muy parecido a la técnica utiliza por Johnny Chung Lee en esta noticia previa en eliax del 2007, y similar a como yo les he demostrado con mi demo de la "linterna del tiempo" en algunas de mis charlas en persona. Es importante entender que este método no produce una imagen en 3D de la persona del otro lado, sino que da una ilusión aproximada debido a que tu cerebro es engañado a creer que hay una separación real entre la persona que vez y el fondo detrás de esa persona. En el video que acompaña esta noticia se hará claro lo que sucede de manera visual. Esperemos ahora que los grandes proveedores de chat con video (como Skype, Apple iChat, Yahoo Messenger, MSN Live Messenger, etc) ofrezcan una opción similar a esto en futuras versiones de sus programas. Página oficial del proyecto Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
"Muchos exitos, no hay palabras para describir las inspiracion y la guia que has servido para muchos de nosotros!!!!"
en camino a la singularidad...
©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax