Tecnología Visual
martes, agosto 24, 2010
|
![]() Canon dice que este es el sensor mas denso del mundo (es decir, el que dado su tamaño, contiene mas pixeles), aunque no es el de mas alta resolución del mundo (sensores en telescopios y sondas espaciales tienen resolución incluso mucho mas alta, pero con sensores de mayor tamaño, así como RED ha anunciado un sensor de 261 Megapixeles para su cámara RED Epic 617). Este sensor capta imágenes de 13,280 x 9,184 pixeles en una superficie de 29.2mm x 20.2mm (1.15" x 0.80"), lo que es bastante asombroso. El sensor utiliza la tecnología CMOS, y de paso puede capturar video de 1080p (1920 x 1080 pixeles), aunque ciertamente en teoría sería capaz de captar video a resoluciones mucho mas altas). Canon aun no ha revelado planes para este sensor (aunque noten que es normal en la industria que una empresa venda sus sensores a otros, como ocurre con algunos sensores de Sony en cámaras Nikon), pero se me hace agua la boca con solo imaginarme que en unos años una cámara común y corriente pudiera tener este tipo de resolución (aunque esperemos, con un bajo coeficiente de ruido en la imagen). Fuente oficial de la noticia autor: josé elías |
![]() |
![]() |
lunes, agosto 23, 2010
|
![]() 1. La Luna se está encogiendo... Nuevos datos arrojados por la sonda Lunar Reconnaissance Orbiter que actualmente orbita la Luna, ha arrojado evidencia de que nuestro único y bello satélite, se está encogiendo... Sucede que la Luna se cree fue formada hace unos 4,500 millones de años, como resultado de algún objeto masivo que chocó contra la Tierra en ese entonces, y desde esos tiempos hasta ahora nuestro satélite ha estado entrando en una etapa de enfriamiento paulatino desde su violento (y caliente) inicio. Debido a este enfriamiento, los cálculos indican que la Luna se ha encogido por aproximadamente unos 100 metros (poco mas de 300 pies) en los últimos mil millones de años. Nada alarmante, pero conozco un corredor de Bienes Raíces que sin duda estuviera preocupado... :) fuente 2. Supuesta manera de copiar discos del PlayStation 3, sin abrir el PS3 Todavía hay un poco de escepticismo al respecto, pero todo apunta a que es cierto: Un grupo de talentosos hackers ha creado una memoria USB (que no solo tiene memoria, sino que código especializado) que al conectarla a tu PlayStation 3 te permite copiar el contenido de un disco de video-juego a cualquier disco duro USB conectado externamente (o incluso, al disco interno, si tienes espacio), y después jugar cuantas veces mas quieras ese respaldo del juego sin tener que insertar el disco. Y como si fuera poco, supuestamente funciona con todos los modelos del PS3, desde los clásicos hasta los nuevos delgados. Algo me dice que esto se utilizará para algo mas que simples "respaldos"... fuente ![]() Si recuerdan, desde hace un par de años es posible instalar una extensión para GMail en tu navegador con el cual puedes hacer video-conferencia (video y voz) desde tu misma cuenta de GMail a otros usuarios de GMail, sin embargo, no estaba disponible para Linux, ahora ahora. El plugin ahora funciona no solo con Windows, sino que con Mac OS X y Linux. fuente ![]() Por lo general, dentro de todos los celulares estilo ostra (que se abren en dos), así como en Laptops y Netbooks, existe una gran cantidad de minúsculos cables que conectan un lado con el otro (es decir, la parte que contiene el teclado con la que contiene la pantalla). Sony dice haber creado una tecnología que con un solo cable de cobre ya substituye decenas de pequeños cables internos. Este nuevo cable de cobre funciona a 940Mbps, lo que es mas que suficiente para actualizar no solo video en una pantalla, sino que para además enviar todo tipo de datos adicionales. Para los que son técnicos, esto significa que han creado un chip (con asociado hardware) que "paquetiza" la comunicación, similar a como enviamos todos nuestros datos por el protocolo TCP/IP y un solo cable a Internet. Para los que no son técnicos, esto significa que podríamos ver una nueva generación de dispositivos en donde las pantallas pudieran ser mas flexibles. Imaginen por ejemplo una netbook cuya pantalla pudiera removerse mientras se mantiene conectada por un solo y sencillo cable a la base. fuente 5. Video casero en 3D por Fujifilm La empresa Fujifilm ha lanzado la FinePix Real 3D W3, una cámara digital de tamaño compacto que te permite tomar no solo fotografías en 3D, sino que video en 3D. El video en 3D (así como las fotos en 3D) incluso lo puedes ver en su pantalla posterior de 3.5" sin necesidad de gafas (similar al Nintendo 3DS). Y si quieres ver el video de alta definición (720p) en 3D en tu televisor, la cámara viene con un conector HDMI 1.4 para que lo puedas conectar a cualquiera de la nueva generación de televisores con tecnología 3D integrada. Esta cámara sale al mercado el próximo mes de Septiembre. fuente ![]() ![]() ASUS fue la empresa que casi por sí sola creó el mercado de las Netbooks con su legendaria EeePC, y ahora el CEO (Gerente General) de la empresa Jerry Shen dice que el iPad ya ha iniciado a afectar las ventas de Netbooks en el segundo cuarto de este año (correspondiendo a la salida del iPad de Apple al mercado). Debido a eso dice que su empresa ha reducido su pronóstico de ventas de Netbooks para el tercer cuarto de este año. Noten que leyendo entre lineas, esta es otra manera de decir que ASUS planea entrar fuertemente al negocio del iPad (algo que ya ha dicho haría), muy posiblemente apoyado en Android OS para sus ofertas. Como nota personal, yo aparte de mi MacBook Pro también tengo una EeePC Netbook con Windows XP (que recién substituyó una HP Mini con XP y Linux), y lo cierto es que desde que compré mi iPad no he vuelto a ponerle la mano a la Netbook ya que el iPad es muchísimo mas conveniente para llevarla a todos lados (y el hecho de que su batería me dure varios días sin recargarla, o 10 horas de uso continuo, ayuda bastante). Incluso me compré el mini-teclado externo Blueetooth de Apple para la iPad para aquellos momentos en donde quiera escribir por largos períodos de tiempo (aunque noten que el teclado virtual del iPad es bastante bueno, diría que el mejor teclado virtual que he utilizado en mi vida, e incluso escrito varios artículos de eliax en él). fuente autor: josé elías |
![]() |
![]() |
|
![]() En la cima de su carrera Jason era uno de los hombres mas buscados en los medios, enseñando no solo como crear hologramas, sino que como crear efectos en clubes nocturnos (como el famoso Studio 54 en New York) con rayos lásers que hoy consideramos algo tan normal que ni nos detenemos dos segundos a pensar quiénes fueron los pioneros. Trabajó además en muchos anuncios publicitarios en televisión y revistas, e incluso llegó a "holografiar" a muchos personajes famosos de eras pasadas como Isaac Asimov, Andy Warhol, Cher y hasta Bill Clinton. El mini-documental que verán fue el ganador de un concurso, y nos muestra algunos días típicos en la vida de Dr. Láser en las pequeñas (y diría yo que casi precarias) instalaciones de su empresa Holographic Studios en la ciudad de New York. Como verán, este es un gran ejemplo de alguien que ha seguido con su pasión, aun haya pasado mucho tiempo de su cima. Así mismo veremos que este hombre ha tenido que ingeniárselas al estilo McGiver para sobrevivir. En una parte del video nos enseña como construyó un lente gigante para holografía con tan solo 10 dólares de materiales, ahorrándose en el proceso varios miles de dólares. En el video verán también a sus interns (estudiantes que deciden dedicar parte de su tiempo a la práctica en "el mundo real" antes de graduarse, y quien sospecho en este caso hacen el trabajo de gratis), y de cómo estos se apegan a la labor que este hombre obviamente hace con amor. Si alguna vez visitan a New York, pueden incluso visitar a Holographic Studios para un tour totalmente personalizado de sus modestas instalaciones, en donde verán todo tipo de asombrosos hologramas (yo planeo hacerlo la próxima vez que visite New York - pueden obtener la dirección y horarios en su página oficial al final de este artículo). Actualmente Dr. Láser se encuentra en una cruzada tratando de hacer que el actual Presidente Barack Obama de los EEUU sea el primer Presidente que se "holo-retrate" en esa nación (Bill Clintón lo hizo, pero cuando ya no era Presidente), y como verán en el video, no le ha sido fácil que le responda alguien con peso en la Casa Blanca... Según Dr. Láser, muchos dirán que él está loco siguiendo una forma de arte que para muchos es obsoleto o está en decadencia, pero dice que eso es lo que hacen las personas apasionadas sobre lo que aman, y que él aun tiene esperanzas de que el negocio vuelva a resurgir (razón por la cual sin duda quiere hacer un holograma de Obama, ya que eso le traería mucha publicidad). Noten que el video es en inglés (si alguien consigue una traducción al español, por favor compartirla con todos en los comentarios acá abajo), y que no está producido con un alto presupuesto. Me gustó y lo presento aquí porque nos demuestra que es gracias a este tipo de personas que nunca se dan por vencidas que tenemos el mundo con todas las comodidades y placeres que disfrutamos hoy día... Página oficial de Holographic Studios (holographer.com) Fuente del video Video-documental a continuación (23 minutos y 30 segundos de duración)... autor: josé elías |
![]() |
![]() |
domingo, agosto 22, 2010
|
Agreguen esto a los archivos de "con un poco de imaginación y mucha perseverancia, se pueden hacer grandes cosas"...
Los realizadores del video que verán a continuación (al que llaman True Colors, o "Colores Verdaderos"), no utilizaron ni un solo efecto digital para hacer lo que verán, utilizando simplemente técnicas de stop-motion (tomar foto tras foto, y hacer un video con todas las imágenes). El video requirió de 5,000 fotografías y 4 angustiosos meses de trabajo. Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
sábado, agosto 21, 2010
|
![]() Sucede que con técnicas modernas de inspección, que incluyen desde Rayos X hasta luz ultravioleta (la luz que vemos en clubes nocturnos y que hacen que nuestros dientes brillen en la oscuridad), ya es posible descifrar no solo cuáles eran los patrones de pinturas originales, sino que incluso los colores mismos que adornaban estas obras maestras. Lo mas sorprendente del caso (al menos para mi), es que esas estatuas (y demás esculturas) no eran pintadas de un color sólido (o dejadas sin pintar), sino que los griegos en realidad trataban de emular la vida real pintando sus estatuas de manera que parecieran fotografías vivas, cosa que nos da una nueva perspectiva de estas obras. En las imágenes que verán en la página fuente, notarán que las versiones a color de las estatuas no se ven muy realistas. La razón es que están viendo una reconstrucción digital creada exclusivamente para mostrar simplemente los colores básicos utilizados, y no para crear imágenes realistas. Así mismo las estatuas originales que actualmente adornan nuestros museos no fueron obviamente vueltas a pintar para crear estas imágenes. Viendo estas obras bajo este nuevo espectro, me pregunto si volveré a ver las películas de Hollywood ambientadas en la vieja grecia con los mismos ojos, pues todas ellas (y creo sin excepción) muestran siempre estatuas y todo tipo de esculturas en la forma que las vemos actualmente. Sería interesante si algún director (o directora) que firmase algún épico de la antigüedad en los próximos años tomara estas consideraciones a la hora de filmar su película... ¡Gracias a todos los que enviaron el enlace a esta noticia! Fuente de la noticia (con mas imágenes) autor: josé elías |
![]() |
![]() |
sábado, agosto 14, 2010
|
![]() ![]() Inception, mas allá de todos sus elementos filosóficos, y bajando a elementos mas técnicos y/o prácticos, nos propone un mundo en donde es posible que una persona aparte de nosotros entre a nuestros sueños (o nosotros al de ellos), y que la persona que entre al sueño los pueda manipular. Y la pregunta es, ¿será eso algún día posible? Mi respuesta es que al corto plazo no, pero al largo plazo definitivamente sí, he incluso escribí un artículo hablando explícitamente sobre ese tema hace un año atras que pueden leer aquí (muy recomendada lectura a quien les interese estos temas). Lo primero a entender es que estamos actualmente en camino hacia una Singularidad tecnológica, por lo que el entendimiento que estamos obteniendo sobre nuestros cerebros y nuestras mentes está creciendo exponencialmente. Esa es otra manera de decir que no es cuestión de si algún día entenderemos cómo funciona nuestro cerebro para poder manipularlo, sino que mas bien de cuándo lo podremos hacer. Recuerden que los sueños no son mas que una realidad virtual generada por nuestro cerebro sin necesidad de nuestros sentidos, pero recuerden también que lo que llamamos "realidad" es también una realidad virtual generada por nuestros sentidos, ya que sabemos sin la menor duda que el mundo que percibimos es muy diferente a la posible "realidad". Y para ver que tan cierto es eso, lean este artículo previo en eliax. A tal fin, existe poca diferencia entre un sueño y la realidad, desde el punto de vista del cerebro, salvo la gran excepción que en los sueños todo es posible ya que estos no están necesariamente sujetos a las leyes físicas de nuestra percibida realidad externa a nuestra mentes. Sin embargo, habiendo dicho todo eso, y aun si estamos convencidos de que en un futuro, con suficiente tecnología, podremos modificar nuestros sueños o incluso los de otras personas, estoy seguro que muchos aun deben estar preguntando "¿pero cómo?". Veamos... Según un estudio publicado el año pasado en la publicación científica Current Biology, hoy día ya es posible de manera rudimentaria extraer del cerebro en qué lugar dentro de un entorno virtual tu estás "parado". Así mismo en otro estudio publicado el mismo año por científicos del University College London en el Reino Unido, se llegó a la conclusión de que de forma primitiva es posible saber cual de entre dos opciones nosotros vamos a elegir, inclusive antes de nosotros saberlo conscientemente. Es decir, este método extrae esa información del subconsciente de nuestras mentes. Como si fuera poco, en otro estudio del 2009 por la University of Warwick quedó demostrado que es posible engañar al cerebro para generar memorias falsas, o incluso (en un experimento realizado en conjunto por científicos de las universidades de Virginia y de Oxford) implantar memorias falsas con rayos láser. Y en otro experimento de este año 2010 relacionado a este, científicos del University College London demostraron como es posible extraer del cerebro cuál de entre varias memorias una persona está recordando. Y si eso los está sorprendiendo, sepan que hace media década atrás, en el 2005, científicos de la Universidad de Harvard ya habían creado un experimento en donde una computadora pudo extraer directamente del cerebro de un gato lo que este estaba viendo con sus ojos, un experimento repetido de manera mas sofisticada en el 2009 con seres humanos por científicos de la University of California at Berkeley. Pero, ¿qué tan en serio se toman estos experimentos? Pues tan en serio que el Servicio de Inteligencia de los EEUU ya ha hecho público que considera el cerebro humano "la próxima frontera bélica". Así mismo empresas como IBM ya están creando los mapas de interconexiones cerebrales mas detallados hasta la fecha con miras a entender cómo funciona nuestro cerebro, e incluso replicarlo en un ambiente 100% sintético. Muchos sin duda leerán esto de manera muy escéptica, alegando que estos experimentos son con cosas demasiado simples. Pero recuerden que con cosas mucho mas simples aun iniciamos hace pocos años lo que hoy día se convertirían en televisores, celulares, computadoras, Internet, ingeniería genética, y un sin fin de otras tecnologías. Una regla de oro de la tecnología es la siguiente: Después que se da el primer paso, es solo cuestión de tiempo en perfeccionar la tecnología para que esta alcance todo su potencial, y no cuestión de si se podrá perfeccionar o no. Noten sin embargo que los desarrollos no se detienen ahí, y los voy a referir a leer Máquinas en el Paraíso en donde podrán aprender de otras tecnologías que incluso permiten que los científicos generen imágenes, sonidos, olores, sensaciones e incluso gustos del paladar, con solo estimular ciertas áreas del cerebro. Vean por ejemplo esta noticia de cómo es posible estimular directamente al cerebro para que capte imágenes de una cámara y personas ciegas ya puedan tener visión rudimentaria hoy día. Imaginen ahora que en vez de enviar la imagen de la cámara, enviamos imágenes de mundos generados en computadoras como los mundos de los video-juegos, y ya se imaginarán lo que será posible... Sin embargo, esto es solo el inicio, y como escribí en el editorial en donde expongo la idea de que hackers pronto podrán controlar la mente humana, el hecho de que todo esto ya esté siendo posible nos habla de lo fácil que es violar la percepción de nuestro cerebro biológico, y la importancia de que es imperativo que evolucionemos a ser seres mucho mas resistentes a estos inminentes ataques a nuestras mentes, y la única manera de hacer eso es dejar nuestros cerebros biológicos detrás, pues de lo contrario nos convertiríamos en títeres fáciles de manejar por cualquiera que posea este tipo de tecnologías. Y volviendo a Inception, por eso es que considero tan importante este tipo de películas (siendo The Matrix el otro gran ejemplo), pues este tipo de obras llegan a cientos de millones de personas, quienes desde ahora ya deberían empezar a educarse en estos temas, pues nuestro futuro literalmente dependerá de qué tan rápido podemos evolucionar a mentes sintéticas, en relación a qué tan rápido podemos violar la seguridad de nuestras actuales mentes biológicas. Sin embargo, lo irónico del caso es que aun con nuevas mentes sintéticas mucho mas protegidas que las actuales, aun seremos vulnerables, a cosas tan aparentemente triviales como esta... Actualización del 7 de Diciembre 2010: Si no haz visto la película aun, no sigas leyendo esta actualización o se te arruinarán las sorpresas de la película... Noten el siguiente video que muestra los varios sueños de la película según ocurren unos dentro de otros, en proporción relativa de tiempo y de manera simultánea en un mismo video (ya entenderán cuando lo vean). Noten que 1 hora de tiempo real (fuera del primer sueño) equivale a 12 horas en la van (camioneta) que salta del puente, y a 6 días en el sueño del hotel cuyos pasillos se ponen de lado, y a 2 meses y medio en el sueño de las escenas en la nieve, y a 2 años y medio en el sueño más profundo de todos. fuente Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
viernes, agosto 13, 2010
|
![]() A diferencia de CloudCanves, Muro es mucho mas completo, con muchas herramientas básicas, e incluso con varios filtros básicos incluídos por defecto. Algo asombroso es que funciona perfectamente en el iPad, e incluso funciona en el iPhone, por lo que asumo que también funciona en dispositivos Android y Web OS (aunque no lo he probado, si alguien lo prueba por favor expresar sus experiencias en los comentarios). Noten que este tipo de herramientas aun no están a un nivel que se puedan utilizar día a día, pero dado lo pulido que está Muro, ese día aparenta no estar lejos. Algo que encontré curioso con Muro (y que sin duda apunta al futuro del software en general) es que no todas las funciones están habilitadas, ya que son pagadas por secciones (por ejemplo, puedes comprar brochas nuevas individuales, y me imagino que en el futuro, filtros). Lo interesante de eso es que ofrece un incentivo para los desarrolladores de este tipo de aplicaciones web de mejorarlas constantemente, así como mantiene a los usuarios atentos a nuevas funcionalidades. En otras palabras, y tal cual escribí hace unos años en relación al iPhone, el futuro está en crear plataformas, y no simples productos. De paso, este es otro ejemplo mas de que las aplicaciones web realizadas con tecnologías estándares como HTML 5 están poco a poco desplazando no solo a Adobe Flash, sino que de paso a aplicaciones tradicionales de sistemas operativos de escritorio (vean por ejemplo el editor de video de YouTube). ¡Gracias a todos los que han enviado el enlace a esta herramienta! Página oficial de DeviantArt Muro autor: josé elías |
![]() |
![]() |
|
John Carmack es sinónimo de "genio en programación de renderizadores de gráficos 3D en tiempo real" en el mundo de los creadores de video-juegos, y es una figura reverenciada al nivel de estrella de rock.
Sin embargo, no hace mucho Carmack dijo que el poder de la nueva generación del iPhone era tal, que incluso era superior al del Sony PSP, o incluso el PlayStation 2 o el original Xbox, y muchos se quedaron escépticos. Pues aquí está la prueba. Carmack acaba de demostrar su motor de gráficos Tech 5 ejecutando un nivel de pruebas del juego Rage, y como si fuera poco, funcionando a 60fps (60 cuadros por segundo), mas suave que mantequilla derretida... Según Carmack, el poder del iPhone 4 es marcadamente superior al PlayStation 2 o el Xbox, y el código funciona bastante bien incluso en el original iPhone 2G. Ya veremos un juego completo en el App Store utilizando este código, pero mientras tanto, disfruten del video... Video a continuación (enlace YouTube)... Actualización: Revisen los comentarios de esta noticia para enlaces a mejor calidad de este video. Y noten que en YouTube no pueden apreciar la la calidad visual real del video, ya que para empezar el video original del iPhone as a 60fps, pero el grabado está a menos de 30fps, y de paso existen los problemas de comprimir el video en YouTube. Sin embargo, la idea es que capten lo increíble que es esto con lo poco que se ve en el video actual. autor: josé elías |
![]() |
![]() |
|
![]() Los temas de The Matrix e Inception son universales: ¿Qué es la realidad? ¿Tenemos Libre Albedrío? Y son temas tan milenarios que ya el filósofo Platón había planteado el tema hace unos 2,300 años. Yo mismo toqué en tema hace una década atrás en Máquinas en el Paraíso, y el tema es recurrente constantemente acá en eliax (noten los enlaces a noticias previas al final del artículo). Sin embargo, la importancia de películas como Inception es que sacan estos temas de los ambientes académicos e intelectuales, y los traen a la persona común que por lo general está muy ocupada con la cotidianeidad de la vida como para prestarle atención a estos temas. Inception fue escrita y dirigida por mi escritor/director favorito del momento, Christopher Nolan, quien desde su película Memento (muy recomendada si no la han visto) dejó claro que tenía no solo un gran talento innato para el cine, sino que para hacer cosas fuera de lo común. Pudimos apreciar su talento nuevamente con Batman Inicia y posteriormente con la asombrosa secuela The Dark Knight, y esta obra, aunque quizás no guste tanto como The Dark Knight, sin duda alguna que es su trabajo mas complejo a la fecha. En Inception Nolan nos hace cuestionar nuestra propia realidad, partiendo desde el mundo de los sueño y de como es posible manipular a estos, en este caso por el personaje Cobb, interpretado por Leonardo DiCaprio, quien continúa siendo en mi opinión el actor mas subestimado de Hollywood, y quien desde hace tiempo merece un Oscar, y aquí una vez mas demostró sus dones en la actuación. La película goza del mejor tipo de efectos especiales: Aquellos que son prácticamente invisibles, en el sentido que no están puestos escenas solo para demostrar el talento de los creadores de efectos especiales, sino que para propulsar la trama hacia adelante. Yo soy un amante de los efectos especiales, pero les aseguro que en ningún momento me distraje estado asombrado por ellos, ya que estos son parte natural de la película, y no una entidad por sí misma. La banda sonora fue excelente, así como lo fue la edición, y hay que felicitar a todo el elenco de apoyo el cual hizo un trabajo sobresaliente (sin duda bajo la gran dirección de Nolan). Es importante destacar que esta es una película para ejercitar las neuronas, por lo que no aconsejo ir a ver la película si están muy exhaustos, pues la película requiere de su atención, sin embargo, serán recompensados. Una sugerencia muy importante es que no recomiendo lleguen tarde a la película, ya que similar a Memento, necesitarán haber prestado atención al inicio de la película para entender el final. Algo curioso es que esta película me recordó bastante un ensayo que escribí en mi primer semestre universitario hace muchos años atrás, por lo que buscaré en mis archivos para publicarlo acá en eliax, pues creo será de interés a los que vieron la película o les gusten estos temas que hacen que nuestra imaginación vuele. Mientras tanto, pueden leer esta Reflexión que tiene muchísimo que ver con esta película. Califico personalmente a esta película como un 9.5 de 10, pero recuerden que soy un gran fan de la temática explorada en esta obra, por lo que mi puntuación está sin duda parcializada. Avance de la película a continuación (Enlace YouTube)... Enlace a mas avances de Inception en YouTube Actualización 1: Acabo de publicar la continuación de este artículo, en donde explico la factibilidad científica detrás de la película. Pueden leerlo en este enlace. Actualización 2: Aquí pueden leer el corto cuento que escribí hace dos décadas atrás y que sin duda les hará recordar de Inception. Actualización 3: No dejen de leer esta asombrosa noticia posterior sobre un dispositivo que nos permite grabar imágenes directamente de la mente. autor: josé elías |
![]() |
![]() |
lunes, agosto 9, 2010
|
He aquí lo que sucede cuando combinas instalaciones de investigación de avanzada (en este caso, el reconocido Max Planck Institute for Biological Cybernetics), y lo combinas con unos geeks buscando una excusa para crear el simulador de autos de carrera F1 mas avanzado del mundo (lo que me recordó esta noticia de inicios de año).
El resultado es este simulador que sin duda (después que vean el video) querrán probar lo antes posible. Lamentablemente será utilizado solo para fines Mientras tanto, pueden llevar a toda la familia en uno de estos. Fuente de la noticia Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
jueves, agosto 5, 2010
|
![]() Tan impresionante como el video, es la renderización de la supernova en sí misma, la cual gracias a los últimos datos nos ha permitido reconstruir en 3D su forma en el espacio. ¡Gracias al lector Juan Jo por el enlace a esta página que utilicé como referencia para encontrar el video en YouTube! NS1987A en Wikipedia Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
miércoles, agosto 4, 2010
|
![]() A continuación los envío a una colección de 20 imágenes tomadas con este tipo de microscopio a insectos y arácnidos, y les aseguro que los verán como quizás nunca antes los habían visto. Noten que la página a donde los envío es una galería, y que solo muestra una sola foto inicialmente. Para ver las otras imágenes deben hacer clic arriba a la derecha de esa página en las imágenes pequeñas de los otros insectos y arañas. Enlace a la página autor: josé elías |
![]() |
![]() |
|
![]() La técnica aun no tiene un nombre mercadológico, pero lo que hace es bastante sencillo e ingenioso, y el problema que resuelve es el siguiente: Cuando tomas una fotografía, una de las razones por la cual por lo general salen borrosas es porque moviste la cámara, incluso aunque sea un movimiento imperceptiblemente pequeño, ya que al final de cuentas, incluso un milímetro que te muevas es una gran distancia en relación al tamaño de los pixeles del sensor de tu cámara. Así que Microsoft ofrece la siguiente solución: ¿Qué tal si justo en el momento que tomas la fotografía, no solo se almacena la foto en sí (digamos, en un archivo JPG o RAW), sino que además se almacenen datos de exactamente qué tipo de movimientos y giros, y en cuáles ángulos y por cuales distancias, moviste la cámara? Esta información adicional provendría tanto de sensores de movimientos como de giroscopios (ambos, a propósito, ya parte del iPhone 4, y en camino para celulares Android). Después de este paso, la idea es procesar la imagen y analizarla, y compararla con los datos de movimientos almacenados. La idea es, que si un algoritmo diseñado para tal fin sabe con exactitud cuanto moviste la cámara, en qué dirección, y en qué ángulos (y me imagino, para ser mas efectivo, tomando en consideración el tipo de cámara y lente que utilizaste), entonces ese algoritmo puede formarse un patrón que le indica exactamente en qué dirección (o conjunto de direcciones, si fue una toma de relativa larga exposición), se puso borrosa la foto, y por tanto poder reconstruir la imagen original. Para entender un poco mejor, imaginemos un ejemplo de una foto de un lápiz parado verticalmente, y que justo mientras tomamos la foto movemos la cámara hacia la izquierda. El resultado será un lápiz con una "estela borrosa" a su lado (digamos, su lado izquierdo para mantener el ejemplo sencillo). En este ejemplo, el algoritmo tendría información de que el lápiz se movió digamos 7 milímetros a la derecha y que lo que vemos en la imagen es una estela que se extiende 7 milímetros a la izquierda, por tanto, el algoritmo puede aplicar unos pasos que remuevan esa estela de la imagen y reconstruyan el lápiz en su posición original. El algoritmo no es infalible (como notarán si prestan atención en algunas de las imágenes que muestran), pero de que mejora las imágenes no cabe la mejor duda. Este es ese tipo de cosas que empresas fabricantes de cámaras licenciarían de Microsoft, y espero lo hagan, para que una versión comercial de este algoritmo (si es que Microsoft decide vender licencias después de patentarlo) sea parte de toda cámara digital en el futuro. Noten que con suficiente poder de computación incluso sería posible aplicar este algoritmo a videos, mejorando la calidad de estos significativamente. Ahora solo faltan que combinen esta tecnología con esta otra, y podremos hacer cosas que pocos años atrás aparentarían pura magia o ciencia ficción... Página oficial de este proyecto autor: josé elías |
![]() |
![]() |
martes, julio 27, 2010
|
![]() Para entender de qué se trata, expongamos primero el problema: Digamos que estás jugando un juego de estrategia o deportes, en donde cada jugador debería ver una vista apropiada para cada jugador, e incluso viendo cosas que el otro jugador no pudiera ver. Eso se resuelve actualmente de varias maneras, algunas son las siguientes: 1. Que cada jugador tenga su propia consola de video-juegos, y que en su propia pantalla vea su propia vista. Esto requiere el doble del hardware. 2. Que en la misma pantalla coloquen códigos de botones y movimientos de controles, y que para que cada jugador elija una opción sin que el otro lo sepa, se hacen una serie de elecciones con el control que no se reflejan en la pantalla. Esto es muy tedioso y limitante. 3. Que el control tenga una pantalla programable (como el SEGA Dreamcast de antaño) que pueda mostrar información que cada jugador pueda ver de forma privada. Esto requiere de controles caros y especializados. Sin embargo, Sony propone hacer algo sencillo pero ingenioso con la nueva generación de televisores y gafas 3D: ¿Por qué no, en vez de utilizar los dos campos visuales (uno para el ojo izquierdo, y otro para el derecho) para ofrecer una vista en 3D, mejor dividimos un campo para un jugador, y otro para el otro, en 2D? Es decir, en vez de enviar dos imágenes en conjunto para cada jugador (una diferente para cada ojo), ¿por qué mejor no enviamos las imágenes del ojo izquierdo al jugador #1, y las del ojo derecho al jugador #2? Y esto es algo trivial de hacer: Solo hay que programar las gafas 3D para que una de ellas muestre solo la imagen del ojo izquierdo, y la otra gafa muestre solo las imágenes del ojo derecho. El efecto final es que cada jugador puede ver una imagen totalmente diferente a la del otro jugador, o en otras palabras, es el equivalente a tener dos televisores virtuales conectados a una sola consola de video-juegos. Ahora noten algo curioso: Una cosa que todos queremos es poder experimentar TV en 3D sin gafas (como ya es posible y expliqué aquí), sin embargo, esta aplicación es quizás la primera en donde las gafas en realidad no solo sean útiles, sino que necesarias para lograr el efecto deseado, ya que con otros sistemas de 3D sin gafas se hace mas difícil separar las imágenes por jugador ya que los espectadores siempre reciben ambas imágenes simultáneas (cosa que se podría cambiar con reconocedores y rastreados de caras/ojos). Fuente de la noticia autor: josé elías |
![]() |
![]() |
lunes, julio 26, 2010
|
![]() Se trata de una nueva tecnología para escribir rápidamente en teclados móviles llamada BlindType ("Escribir Ciegamente") que permite que escribas de cualquier manera que te puedas imaginar, en donde el teclado y sus teclas siguen tus dedos, en vez de tus dedos seguir el teclado (como dije, tienen que ver el video para entender esto bien). Si después que ven el video, y aun no creen que es posible como eso puede funcionar, el truco creo que es el siguiente: Lo que BlindType hace no es detectar el lugar absoluto en donde haces "clic" con tus dedos sobre la pantalla, sino que la posición relativa entre un clic y otro, y después asistido por un diccionario (en este caso, en inglés), puede deducir cuáles teclas fueron que quisiste presionar, y por ende deducir a palabra completa. Esto permite que uno escriba bastante rápido en cualquier orientación, incluso sin ver el teclado (con tal que recuerdes de manera aproximada la localización de la distribución de las teclas). Sin duda alguna esto es una tecnología que alguien de entre los grandes fabricantes de celulares debería pensar adquirir para proveer un factor diferenciador entre sus productos... Y como creo ya dejé bastante claro: No dejen de ver el video, ¡esto es mucho mejor de lo que se imaginan! Nota: En el video verán el teclado BlindType funcionando en un iPhone, pero obviamente Apple no ha aprobado de este método aun, por lo que el demo de seguro que es en un iPhone de desarrollo o en un iPhone hackeado para implementar BlindType. Página oficial de BlindType Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
domingo, julio 25, 2010
|
![]() Es un servicio llamado CloudCanvas ("Lienzo en la Nube [de Internet]" sería la traducción semántica al español) que te permite hacer todo tipo de ilustraciones dentro de tu propio navegador, sin instalar nada, ya que funciona enteramente con HTML 5 (por lo que necesitas un navegador web actualizado - lo he probado en las mas recientes versiones de Chrome, Safari y Firefox y aparenta funcionar perfectamente en todos). En esencia, esta es una versión simplificada tanto de Adobe Photoshop como de Adobe Illustrator, y aunque aparente una simple curiosidad a simple vista, después que le den uso (o vean el siguiente video) notarán que sin duda será de utilidad para algunos que deban hacer algo rápido y no tengas sus PCs o Laptops con ellos. El programa incluso detecta si tienes un iPad (y en el futuro, asumo, otros dispositivos estilos tablets) y se adapta acorde para que lo utilices con los dedos en vez de con un ratón. Algo genial que hicieron es que cuando necesites arte con el cual empezar o inspirarte, CloudCanvas te tiene esa parte cubierta, ya que se integra tanto con Google Images como con DevianArt, para que encuentres lo que necesites, esto como parte de un grupo de miles de modelos (templates) básicos con los cuales puedes empezar tu proyecto. Y cuando finalices con tu ilustración/dibujo/pintura, podrás salvar el resultado en formato PNG (pixeles) o SVG (vectorial). Nota que además puedes utilizar una imagen previamente creada o almacenada en tu PC o en Internet como punto de partida, e incluso puedes almacenar tus obras dentro del mismo CloudCanvas. Algo me dice que esta es una empresa que sería bastante apetitosa adquirir para alguien como Google, Yahoo, Apple, Microsoft, HP o la misma Adobe... Pagina oficial de CloudCanvas Puedes lanzar el editor directamente en este enlace Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
"Estoy perdiendo eso de asombrarme, recuerdo que de niño me asombraba casi por cualquier cosa, hoy en día es díficil.
¿Qué nos esta pasando?..."
¿Qué nos esta pasando?..."
en camino a la singularidad...
©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax