Tecnología Visual
martes, julio 8, 2008
|
![]() Hoy les mostramos como el mismo grupo, llamados Improv Everywhere (Improsar en Todos Lados), crear un "Espejo Humano" al utilizar pares de mellizos y gemelos parados en lados opuestos para dar la impresión de que nuestra realidad se ha partido en dos. Página oficial de este evento Página oficial de Improv Everywhere Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
viernes, julio 4, 2008
|
A continuación un video de un proyecto en donde se despliega a Google Earth en una pantalla semi-holográfica que flota frente a la persona que la manipula. La proyección no es en verdadero 3D, sino que es en plana, pero como verán, el efecto está genial.
¡Gracias a Hector Rodriguez de PUCMM por el enlace! Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
miércoles, julio 2, 2008
|
![]() A esta tecnología la llaman "Ghost Imaging" ("Imágen Fantasma"), y funciona utilizando las propiedades de los fotones en el mundo de la Mecánica Cuántica, en donde un fotón (o cualquier otra partícula) se puede "entrelazar" con otra, y como por arte de magia ambas partículas quedan "unidas" sin importar la distancia entre ellas, de tal manera que cuando algo le sucede a una, la otra reacciona instantáneamente, aun tuviera al otro lado del Universo. Aunque muchos fuera de la comunidad científica dudaban de este fenómeno (que ha sido comprobado miles de veces en todo tipo de experimentos), este sin duda que es el ejemplo mas visual y tangible del fenómeno, pues literalmente estamos tomando una foto de algo que ni siquiera estamos viendo, sino que son los otros fotones que están entrelazados con los fotones locales los que ven la imagen remotamente. Como ejemplo, la Fuerza Aérea estadounidense planea perfeccionar esta tecnología con el fin de poder "ver" lo que sucede en la Tierra desde el espacio, aun existan nubes y todo tipo de obstáculos en el camino entre el objetivo y la cámara cuántica detectora. Para los que aun están en el aire tratando de entender esto, otra manera de ver esto es pensar que con un Flash de cámara, uno dispare fotones (partículas-ondas de luz) hacia un sujeto, pero que esos fotones son divididos en dos por un espejo o prisma. La mitad de los fotones viajan hacia una persona, y la otra mitad hacia una cámara en otro lugar. En el momento de que los fotones chocan con los detectores de la cámara, estos básicamente transmiten la información que están procesando los otros fotones (ya que los dos grupos están entrelazados cuánticamente), que es la imagen remota de la persona. En otras palabras, estamos llegando a un punto en la tecnología en donde será posible "fotografiar" ( y en un futuro, ver en video o de manera holográfica) lo que ocurre en lugares distantes, teniendo nosotros la cámara localmente con nosotros. Esto sin duda que es lo mas cercano en el mundo tecnológico que vamos a estar de esas películas en donde las brujas mueven un caldero y "ven" en el agua lo que ocurre en lugares distantes como por arte de magia. Fuente de la noticia autor: josé elías |
![]() |
![]() |
martes, junio 24, 2008
|
A continuación un video que aunque borroso, se ha hecho bastante popular por varias razones. Este es un video demostrando el poder de la nueva generación de tarjetas de video de AMD ATI, particularmente la RV770, que como verán no solo demuestra el poder de esta tarjeta, sino que además nos da un vistazo de la próxima generación de gráficos interactivos.
Noten que el video del escorpión es 100% hecho en tiempo real, es decir, que es posible moverse en tiempo real alrededor de él si su creador así lo quisiera, inclusive los "desenfoques" de la "cámara", así como el cristal de la pecera en donde está el escorpión, y el mismo escorpión, son todos objetos en 3D generados "en vivo" por el sistema de gráficos. Como verán, nos acercamos mas y mas a poder crear efectos visuales en nuestras PCs que antes costaba millones de dólares y miles de máquinas para generarlos para el cine. Y a propósito, el poder de esta nueva generación de tarjetas de video ya se puede utilizar para trabajos que antes requerían del CPU de la máquina. El poder de estas tarjetas es tan inmenso, que si las colocas en una PC en configuración de "4X", puedes obtener de esa sola PC el equivalente a 5 TeraFlops de poder por segundo, lo que equivale a 5,000 procesadores Pentium Pro de hace unos años atrás. Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
viernes, junio 20, 2008
|
![]() La mejor manera de describir a Enkin es con un ejemplo: ¿No sería genial si uno pudiera utilizar la cámara "en vivo" de nuestros celulares para uno apuntar y mover la cámara a distintos lugares a nuestro alrededor en donde estamos parados, y hacer que el celular nos indique en la pantalla, en tiempo real, todo lo que vemos? Enkin funciona integrando de una manera genial el sistema de GPS, de sensores de movimiento, de gráficos en 3D, de procesamiento de video en tiempo real, y de reconocimiento de imágenes, para hacer de todo una sola cosa totalmente genial y útil. Este es posible que sea el mejor proyecto que he visto desarrollado en Android hasta el momento. Esta tecnología sin duda alguna es mejor verla en video para apreciarla, así que no dejen de ver el siguiente video que incluimos abajo. Nota sobre el video para los que no saben Inglés: Los que ven en el video son obviamente los inventores de Enkin. Una cosa que dicen que es importante es que como no tienen un celular Android con cámara y los sensores que necesitan por el momento, que "hackearon" sus propios circuitos a un emulador de Android en una laptop, pero sin embargo esto debe funcionar con pocos cambios cuando salgan los primeros celulares inteligentes con tecnología Android para fin de año. Página oficial de Enkin Si quieres leer mas artículos y análisis sobre Android en eliax, haz una búsqueda por la palabra clave "Android" en la cajita arriba a la derecha. Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
jueves, junio 19, 2008
|
Hyundai acaba de empezar a vender los primeros televisores en Japón capaces de decodificar las primeras transmisiones del mundo de imágenes tridimensionales en horario recurrente por el sistema de cable.
Empezando desde ya, los japoneses podrán disfrutar de programación tridimensional 4 veces al día por varias estaciones de cable, haciendo a Japón el primer país en adoptar TV en 3D del mundo a escala masiva. Para disfrutar de la imagen se requieren unas gafas bien ligeras (que hasta puedes colocar por encima de tus gafas actuales) que decodifican la señal para el ojo izquierdo o el derecho. Los que no tienen el equipo necesario para ver estas transmisiones especiales, simplemente ven dos imágenes en sus televisores normales, una al lado de la otra. El primer 3D-TV de Hyundai es un LCD de 46" y cuesta el equivalente a unos US$3,960 dólares. Fuente de la noticia autor: josé elías |
![]() |
![]() |
martes, junio 17, 2008
|
![]() Por primera vez en la historia de la humanidad, científicos ha podido simular, en tiempo real, el funcionamiento de toda una parte del cerebro humano, y nada mas y nada menos que la Corteza Visual. Esto fue posible en tan solo la primera semana de operación de la primera super-computadora capaz de ejecutar instrucciones al ritmo de 1 PetaFLOP por segundo, como reportamos hace poco en eliax. La Corteza Visual fue elegida para ser simulada, porque pese a su complejidad, está compuesta por cientos de millones de "bloques" que se repiten, lo que es algo que se adapta bien al sistema altamente paralelizado de la supercomputadora Roadrunner de Los Alamos National Laboratory en los EEUU. Noten que esta simulación llamada PetaVision fue tan solo una "prueba" para probar el poder de la máquina, y para sorpresa de los científicos notaron que el poder de computación era tal para los cálculos requeridos, que de repente se dieron cuenta de que es posible simular la corteza visual en tiempo real, es decir, para que la simulación reaccione a la misma velocidad de como lo hacemos los humanos. Según los científicos, ahora es posible no solo simular esta parte del cerebro, sino que además utilizar los resultados para crear máquinas que posean el mismo grado de poder de descifrar patrones visuales como los humanos mismos. En la simulación, se simularon mas de 1,000 millones de neuronas visuales, sobrepasando un PetaFLOP en cálculos (es decir, 1,026,000,000,000,000,000 instrucciones por segundo). De paso impusieron con esta simulación el nuevo récord de velocidad de cálculo por una máquina desarrollada por humanos, con un rendimiento medido de 1.144 PetaFLOPS por segundo. Todo esto nos está llevando a las mismas conclusiones que predije en mi libro Máquinas en el Paraíso, en donde explico que el poder de computación está creciendo tan vertiginosamente, que legará el momento en que podamos simular todo el cerebro humano, y por tanto un nuevo mundo de posibilidades se abrirá, como son la posibilidad de crear Inteligencias Artificiales, o de replicar nuestros cerebros en un estado totalmente artificial. Noten que hace ni siquiera 10 años eran pocos los que admitían que algún íbamos a poder simular a una sola neurona, y desde entonces ya hay implantes comerciales que reemplazan el hipocampo del cerebro, y ahora esta simulación de un componente importante de este, con mil millones de neuronas. No lo duden, el futuro viene mas rápido de lo que todos esperan, pues viene avanzando de manera exponencial. Fuente de la noticia autor: josé elías |
![]() |
![]() |
martes, junio 10, 2008
|
![]() El monitor fue desarrollado en conjunto con los ingenieros de Dreamworks (la empresa de cine responsable de películas como Shrek, Transformers y Kung Fu Panda), los cuales tenían una gran necesidad de un monitor como este. El monitor no solo soporta diferentes esquemas de colores (como NTSC, SMPTE, sRGB, Adobe RGB, DCI y Rec. 709), sino que además cae en la categoría de monitores que es Color Critical, que no requiere calibración y que te garantiza que lo que ves en su pantalla es el color real intencionado. Este tipo de monitores son importantísimos, puesto que por lo general cuando se hace trabajo gráfico, o de cine, se trabaja internamente con modelos matemáticos de colores que tienen una gama mucho mas grande que el tradicional RGB de 16 millones de colores, ya que es necesario para obtener la mayor calidad visual posible. Para que tengan un idea, en el modelo tradicional RGB que todos utilizamos en nuestros monitores, si uno fuera a convertir una foto a color a blanco y negro (o mas bien dicho, tonos de grises), solo existen 256 graduaciones desde el color negro puro hasta el blanco puro, lo cual es adecuado para muchos escenarios, pero cuando uno desea por ejemplo renderizar un solo tono de color (digamos, un tono de piel) con sus diferentes matices, el problema surge a la luz, representándose visualmente como unos cambios bruscos entre un tono y otro. Con esta tecnología de 30-bits, es prácticamente imposible detectar esas transiciones de colores, y todas las transiciones de tonos aparentan ser extremadamente "lisas" sin cambios discernibles entre un tono y otro. El monitor, que utiliza tecnología LED y mide 24 pulgadas, costará US$3,499 dólares, lo que aparenta caro, pero lo cierto es que para lo que ofrece es una ganga, pues es normal en el mundo profesional pagar decenas de miles de dólares por monitores similares. Pueden estar seguros que HP venderá muchos de estos a Hollywood y a las grandes agencias de diseño gráfico del mundo. Fuente de la noticia autor: josé elías |
![]() |
![]() |
miércoles, junio 4, 2008
|
La empresa Foxconn acaba de revelar su ultra-pequeño proyector de video con tecnología DLP, pesando tan solo 0.14 libras (63.5 gramos), y midiendo apenas 55 x 46 x 26 mm.
Proyecta una imagen con resolución de 854 x 480 (es decir, equivalente a un DVD), y estará disponible en unos 9 meses a un precio aun no especificado. Esto es solo el inicio de lo que será una ola de tecnologías visuales que traten de darnos una experiencia de gran tamaño en un paquete pequeño. No duden que esto compita con lentes/gafas que contienen micro-pantallas en los próximos años, en particular en aplicaciones de video personal, como sería un dispositivo iPhone o Android. Fuente de la noticia autor: josé elías |
![]() |
![]() |
lunes, junio 2, 2008
|
Hace 3 años atrás que les hablé por primera vez de una tecnología mucho mejor que HDTV, llamada en ese entonces Super Hi-Vision TV, y que mas recientemente la han llamado Quad HDTV (como en este artículo), pero ahora aparenta que el nombre de esta tecnología se convertirá en Ultra HDTV, o en sus formas mas cortas "UHDTV", "Ultra HD" o "UHD".
La idea de UHD es que esta tenga el equivalente en pixeles de entre 4 a 16 televisores HDTV en forma de matriz, es decir en configuración 2x2, 3x3, o 4x4 , y como la resolución mas alta hoy día de HDTV es de 1920 x 1080 pixeles, esta tecnología ofrecería como mínimo el doble de eso en ambas dimensiones, o 3840 x 2160 pixeles, o un máximo de el cuadruple en ambas dimensiones, o 7680 x 4320 pixeles, lo que ciertamente hace que la imagen llegue a una definición en donde se le hace imposible al ojo humano detectar los pixeles individuales en la imagen. Esta tecnología no la veremos a corto plazo, ya que existe una tremenda inversión actual en HDTV, el cual en muchos lugares en el mundo apenas está despegando, pero de que eventualmente esa tecnología llegará, eso lo pueden apostar. Para que tengan un idea de lo avanzado que está Ultra HD, ya la BBC de Londres va a iniciar las primeras pruebas de UHD en el Reino Unido, recibiendo una señal desde la NHK de japón vía satélite, utilizando contenido del canal italiano RAI. En otras palabras, no está tan lejos como muchos creen, y desde que el mercado de HDTV se sature, ya veremos las primeras propuestas serias de la industria para movernos a todos (y vaciarnos las carteras de paso) a Ultra HD... ¿A alguien le gustaría un PlayStation 4? A los curiosos que quieran ver visualmente la diferencia en resolución entre una TV normal de hoy día, una en HDTV, y una en UHD, solo vean la imagen en este enlace. Y si estarás en Amsterdam en Septiembre, podrás ver demostraciones en vivo en el evento IBC a celebrarse para esa fecha en ese país. Fuente de la noticia Otra fuente autor: josé elías |
![]() |
![]() |
jueves, mayo 29, 2008
|
Aquí les ponemos ahora un video de una espectacular implementación de interfaz creado por un grupo de ingenieros bajo el nombre de Cam-trax, y pueden estar seguros que se sorprenderán.
Lo que estos ingenieros han hecho es permitir que tu cámara web detecte visualmente todo tipo de objetos que coloques frente a ella, y utilizarlos como un control para tu PC, reemplazando así de una sola vez a dispositivos como el EyeToy del PlayStation 2/3 y el control del Nintendo Wii. Mas interesante aun es que puedes utilizar esta tecnología en conjunto con millares de aplicaciones y juegos para la PC para controlarlos de una manera mucho mas intuitiva. Por ejemplo, simplemente construye tu propia guía/volante de cartón/papel, ponlo frente a la cámara, esta lo reconoce visualmente, y ya lo puedes utilizar para manejar un auto F1 en tu simulador favorito. Noten que esto no es nada nuevo, lo que es novedoso es lo bien que esta implementación funciona, pues no solo es extremadamente precisa, sino que puede darle seguimiento a varios objetos a la vez, para permitir por ejemplo varias personas intereactuando a la misma vez. Vean el video y ya entenderán. Si fuera Sony, Nintendo o Microsoft (o hasta Apple), ya estuviera tocándoles la puerta para comprarles esta tecnología... Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
miércoles, mayo 28, 2008
|
![]() La primera persona a ser "hologrameada" (me acabo de inventar el término debido a falta de palabras) fue Hugh Bradlow, el gerente general de la empresa de telecomunicaciones Telstra que desarrolló la tecnología. La diferencia entre este sistema y los otros sistemas de video-conferencia, es que la persona aparenta estar "flotando" frente a uno, como la princesa Leia frente al robot R2-D2 en la Guerra de las Galaxias. Noten que aunque la empresa dice que es una proyección "tridimensional", por lo que he visto (y se puede decir que se algo sobre este tema) el sistema no es verdaderamente tridimensional, ya que lo que despliega es una versión "plana" de la persona. Es decir, es como tener una pantalla plana flotando frente a ti, pero de manera invisible, y es en esa pantalla que se proyecta la imagen, a diferencia de una imagen verdaderamente tridimensional en donde uno podría caminar alrededor de la persona y ver su espalda, o pararse de lado y ver el perfil de su cara y hombros. En este sistema si te paras de lado (o "de canto") a la imagen, simplemente no vez nada, porque es como ver una hoja de papel de canto. Aun así sin embargo, es obvio que este "truco" es bastante asombroso, y es la dirección a donde se dirigirán todos los sistemas de comunicación remota (hasta el día en donde reunirnos en un mundo virtual sea aun mas realista). El único problema con esta tecnología no es de tecnología en sí, sino que de practicalidad, ya que enviar una señal de cuerpo completo, en alta definición, y en tiempo real por Internet requiere de un muy alto ancho de banda, cosa que hoy día para la mayoría de los negocios, y por supuesto los hogares, es prohibitivamente costoso. Asun así, la empresa planea comercializar el sistema dentro de 4 a 5 años. Quien sabe, talvez para entonces podamos tener una reunión de eliaxianos en todo el mundo de manera simultánea... :) Fuente de la noticia A continuación, un video de la tecnología siendo demostrada en vivo (enlace YouTube)... autor: josé elías |
![]() |
![]() |
|
![]() Lo que el equipo de MIT ha logrado es un algoritmo que a diferencia de otros anteriores requiere tan solo una minúscula parte de información de pixeles para poder identificar exitosamente una imagen. Es decir, en vez de tener que aplicar complicados algoritmos que necesitan de millones de pixeles de información, este nuevo algoritmo es lo suficientemente inteligente como para deducir cuál imagen es cual, y qué contiene una imagen, con tan solo entre 256 y 1024 bits (es decir, entre 32 y 128 Bytes), independientemente de la resolución de la imagen original. Este avance tendrá grandes repercusiones en áreas de búsquedas visuales (en donde por ejemplo, uno podría ir a Google y buscar por "edificio rojo de dos pisos" y este devolvería como resultado justamente eso, en vez de solo buscar imágenes en cuyas descripciones aparecieran esas palabras), en sistemas de seguridad (en donde una computadora reconocería terroristas y criminales entre una multitud, o en donde una cámara en Disney World encontraría tu niño perdido en segundos), o en visión robótica, en donde tales robots por fin verían de manera similar, o hasta mejor, que nosotros mismos. Otros usos prácticos a corto alcance sería que en el momento que descarguemos las fotos de nuestras cámaras digitales a nuestras PCs o al Internet, que estas automáticamente sean catalogadas con toda la información requerida para uno encontrarlas en el futuro, lo que permitiría hacer búsquedas como "fotos con el abuelo, detrás de la casa, con el perro al lado y el trampolín detrás". Para que tengan una idea de lo eficiente que es este sistema, Antonio Torralba (el que lidera este proyecto) y sus colaboradores pudieron representar toda la información para buscar casi 13 millones de imágenes en Internet en una sola base de datos de apenas 600MB (es decir, que cabe perfectamente en un solo CD clásico). Finalmente, los investigadores dejan claro que el sistema no es perfecto, pero que para las búsquedas mas comunes los resultados pueden ser impresionantes. Nota sobre la imagen que ven en esta entrada: Para los investigadores explicar por qué es tan difícil reconocer imágenes de manera artificial o "natural" como nuestros ojos, noten que los 4 círculos rojos denotan una sección en la imagen, que nosotros los humanos podríamos catalogar como 4 cosas diferentes, pero sin embargo son exactamente la misma cosa insertada de manera manual en las fotos para explicar este fenómeno. Fuente oficial de la noticia Otra fuente secundria autor: josé elías |
![]() |
![]() |
domingo, mayo 18, 2008
|
![]() Enlace a la página (incluye video) Página oficial de los creadores del software (con muchísima información adicional) autor: josé elías |
![]() |
![]() |
miércoles, abril 30, 2008
|
¿Se acuerdan de Surface, la tecnología de Microsoft que crea un interfaz multi-toque al estilo del iPhone, pero en un tamaño de mesa? Pues aunque el Surface cuesta al menos una US$10,000 dólares, aquí te presentamos un hack que te permite hacer casi lo mismo por el precio de una camarita web, una caja de cartón, un pedazo de papel, y un pedazo de cristal.
Lo mejor de todo es que te muestran cómo hacer tu propia caja, inclusive te ofrecen un enlace al software utilizado. Enlace al proyecto Video a continuación del proyecto (enlace YouTube)... autor: josé elías |
![]() |
![]() |
lunes, abril 28, 2008
|
![]() La analogía la hizo Mark Miller, un estudiante de doctorado de Brandeis University, quien colocó una imagen del Universo con una de células cerebrales, y la verdad que no se necesita mucha explicación para entender que ambas estructuras comparten el mismo patrón. La razón que encontré esto interesante es porque como muchos que me conocen y han leído o asistido a mis charlas saben, por varios años ya he formulado que de nuestro Universo no ser un cerebro a gran escala actualmente, que algún día una Inteligencia Artificial lo dotará de inteligencia y este es posible que "despierte" y se llene de consciencia. Muchos dirán que estas son tonterías, puesto que a tales escalas tomaría millones de años para que las señales de tal mega-cerebro viajen de un extremo a otro, mientras que en nuestras cabezas tales señales viajan en milisegundos o mas rápido, sin embargo, una cosa que hay que entender es que el tiempo es relativo para todos. Por ejemplo, si simuláramos en una computadora una Inteligencia Artificial (IA), digamos con un procesador hipotético de 2 ZetaHertz, y en tal simulación la IA está jugando baseball, da un batazo, y en su reloj la pelota tarda 10 segundos en llegar al otro extremo del parque de baseball, hay que entender que ese reloj no tiene por que ser igual que el de nosotros. En nuestro mundo es posible que en nuestro reloj hayan pasado 10 horas. Siguiendo el ejemplo, si ahora le bajamos la velocidad a la computadora que ejecuta la simulación de la IA, y la ponemos a 1 ZetaHerts (es decir, a la mitad de la velocidad), y ejecutamos exactamente la misma simulación que antes, lo que ocurrirá es que en nuestro mundo la simulación del batazo durará 20 horas, pero (y aquí está el importante detalle), para la IA que mira su reloj, habrán pasado los mismos 10 segundos que antes. Esto se debe a que para simular la IA y su entorno, lo que hacemos es ejecutar instrucciones, y son esas instrucciones las que poco a poco hacen que la simulación (que incluyen tanto a la IA como a su reloj) se ejecute. Si antes la simulación completa necesitaba de 1 millón de instrucciones para simular un batazo, ahora la simulación también tardará 1 millón de instrucciones, la única diferencia es que en nuestro mundo, debido a que cortamos la velocidad de la máquina por la mitad, la simulación nos tomó el doble realizarla, pero para la IA nada cambió, pues su reloj no depende de nuestro reloj sino que del número de instrucciones que simulan su mundo virtual. Es por esto, que en el caso hipotético de que el Universo estuviera vivo, aun le tomara a este millones de años para pensar algo que a un humano le toma milisegundos, lo cierto es que no importa, pues a su propio ritmo, el Universo mismo cree que todo "va a toda velocidad". ¿Curioso, no? Fuente de la imagen con las dos fotos A los que le interesan estos temas, es posible que les interese también leer esto de mi autoría. autor: josé elías |
![]() |
![]() |
"Este articulo es signo de ser publicado en todos los medios sociales,ya que ese negocio ha invadido este pais,y las personas andan hasta haciendo prestamos en el banco,venden sus pertenecia y demas,para invertirlo hay.Gracias Jose por tan necesaria explicasion!"
en camino a la singularidad...
©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax