miércoles, abril 21, 2010
|
![]() Este anuncio fue realizado recientemente por los altos ejecutivos de Twitter, quienes dicen que los usuarios darán la bienvenida con los brazos abiertos a estos anuncios, los cuales tendrán la forma de un tweet (mensaje) normal, aunque para no confundir estos serán marcados como tweets "promovidos" (Promoted). Este servicio se lanzará en una primera etapa al 10% de la comunidad de usuarios de Twitter, y los primeros anunciantes serán Best Buy, Bravo, Red Bull, Sony Pictures, Starbucks y Virgin America. Yo personalmente difiero del sentimiento de los ejecutivos de Twitter quienes piensan que los usuarios estarán de acuerdo con estos cambios. La realidad es que a nadie le gusta la publicidad, aunque también es la realidad que muchos entendemos que para obtener un servicio gratuito tenemos que soportar algún nivel de publicidad (como lo hacemos por ejemplo con servicios como GMail, Facebook, YouTube, etc). Así que esperen primero fuertes críticas de muchos usuarios de Twitter, y después un período de resignación. Algo que no me está claro es si extenderán este concepto a cualquier usuario de Twitter que desee también poner publicidad, pues de esa manera no cabe duda que la plataforma de anuncios de Twitter despegaría exponencialmente, aunque también lo haría el tema del SPAM... Fuente de la noticia autor: josé elías |
![]() |
![]() |
martes, abril 20, 2010
|
![]() La película se titulará "Enchantress Of Numbers" ("La Encantadora de los Números"), y por el momento la actriz que se perfila como la candidata para interpretar el papel es Zooey Deschane (que vimos recientemente en "500 días con ella"). El director será Bruce Beresford (famoso por haber dirigido la película "Driving Miss Daisy" que ganó 4 Oscars en 1989). Nota curiosa: Ada fue hija del famoso poeta Lord Byron, y la frase de "La Encantadora de los Números" la acuñó el otro pionero de la computación Charles Babbage para referirse a ella (fue en una de las máquinas de Babbage que Ada escribió el primer algoritmo de la historia de la computación moderna). Fuente de la noticia (tweet de Production Weekly) autor: josé elías |
![]() |
![]() |
|
Una de las técnicas mas creativas de la fotografía es la técnica de "pintar con luz", una técnica que se ha popularizado gracias a las prestaciones de las cámaras digitales de años recientes (aunque ciertamente se puede lograr el mismo efecto con cámaras tradicionales).
Esto es algo de lo que hemos visto ejemplos en eliax por años (ver los enlaces al final de esta noticia, en la sección de noticias previas en eliax), pero esta es la primera vez que muchos verán un video que les explica de manera visual cual es el truco detrás de esta técnica, así como buenas prácticas para optimizar el efecto. Para los que no conocen la técnica, todo se trata de simplemente poner la cámara a tomar la foto mas "lenta" posible (en términos técnicos, utilizar una velocidad lo mas lenta posible, en modo "Bulb" de ser posible), preferiblemente en mucha oscuridad (o con un filtro de Densidad Neutral fuerte), y después mover un objeto brillante frente a la cámara durante varios segundos. Sin embargo, no hay mejor explicación que verlo uno mismo en el siguiente video. Que lo disfruten, y si lo desean, pongan en los comentarios sus enlaces a fotografías que hayan creado con esta técnica para el disfrute de todos :) Video del tutorial a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
|
![]() Hasta la fecha, la manera tradicional de colocar electrodos en el cerebro es con unos sensores que se colocan sobre el cráneo, pero debido a que no están integrados con las células mismas del cerebro, no ofrecen un nivel óptimo de integración, y por tanto existen muchos límites en cuanto al nivel de procesamientos de señales posibles. Pero con el nuevo avance, esto podría ser cosa del pasado. Según los inventores de la técnica, estos han creado unas super delgadas fibras (de 500 micrones de ancho) fabricadas parcialmente de seda, que tienen la particularidad de que literalmente se fusionan con el cerebro humano, como si de raíces de un árbol se tratara, y de forma muchísimo menos invasiva al cerebro. Incluso, dicen que sería posible hacer que estas fibras se pueden colocar no solo sobre la superficie del cerebro, sino que incluso dentro de este mismo, lo que haría posible todo un nuevo nivel de integración entre máquinas y el cerebro humano. Esto no solo tiene fines futuristas al estilo ciencia ficción (el conector cerebral de la película The Matrix me viene a la mente), sino que al corto plazo tendrá usos muy prácticos y útiles con pacientes de desórdenes/enfermedades de origen neurológico (como la Epilepsia), ya que esto permitirá no solo obtener y medir mejores datos de los cerebros de estos pacientes, sino que además poder ofrecer un tratamiento muchísimo mas preciso. Fuente de la noticia autor: josé elías |
![]() |
![]() |
lunes, abril 19, 2010
|
He aquí uno de esos videos que si alguien te lo recomienda ver posiblemente no le hagas caso dado que a simple vista no es interesante para muchos, pero les aseguro que por alguna extraña razón, hay algo fascinante en ver estos pequeños autos a control remoto corriendo en cámara lenta.
Varios de algunos segmentos que verán incluso podrían pasar por vehículos de tamaño normal para el ojo no entrenado. Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
|
![]() Según Poplawski, el hecho de que las ecuaciones de Einstein de la Relatividad General no discriminan sobre una dirección particular del tiempo (es decir, los cálculos y los resultados son consistentes, sin importar si asumimos que la linea del tiempo se dirige hacia el futuro o hacia el pasado), nos dice mucho al respecto. Según él, en el otro extremo de un Agujero Negro se genera lo que podemos llamar un "Agujero Blanco", interconectados por un "tunel de gusano", en donde ese Agujero Negro vendría siendo nada mas y nada menos que el equivalente al Bing Bang que generó nuestro Universo. Bajo esta hipótesis, nuestro Universo se generó al desprenderse de otro Universo en el momento que en ese otro universo se formara un Agujero Negro. Esto, a propósito, es algo de lo cual les hablé el año pasado en este artículo cuando utilicé este ejemplo de universos siendo generados por otros universos en un proceso evolutivo multi-universal, para explicarles el concepto de que la Evolución es un proceso universal, y no solo algo que aplica a seres que consideramos biológicos. Y si les interesó este tema, sepan que este y otros escenarios de posibles formas de configuraciones de universos los contemplé en el último capítulo de mi libro del 2001 titulado Máquinas en el Paraíso que pueden leer gratuitamente en este enlace. Fuente de la noticia Otra fuente, con mas detalles autor: josé elías |
![]() |
![]() |
|
![]() La primera ganadora fue la periodista Sheri Fink, en la categoría "Reportaje Investigativo" por su artículo sobre las elecciones de vida o muerte que se tuvieron que tomar en un hospital de Nueva Orleans seguido la catástrofe de la tormenta Katrina. El segundo ganador fue Mark Fiore por sus tiras cómicas animadas e independientes que aparecen exclusivamente en versión online de manera sindicada en lugares como la versión web del San Francisco Chronicle. Esto, mis amigos lectores, es una tendencia que veremos con mas frecuencia, conforme los medios se transforman a un entorno web, y acorde mas y mas personas se tornan periodistas/blogueros sin las ataduras de los grandes propietarios de medios tradicionales. Enlace al artículo ganador del Pulitzer en ProRepublica La tira cómica animada de Mark Fiore autor: josé elías |
![]() |
![]() |
domingo, abril 18, 2010
|
![]() El responsable de que podamos hacer dos cosas a la vez es la parte del cerebro llamada la Corteza Prefontal Media, la cual se auto-divide en dos parted lógicas a la hora de uno haces mas de una tarea, sin embargo en el momento que tratamos de hacer tres cosas nuestro cerebro entra en confusión y no podemos ser productivos. Esto explica por qué por ejemplo podemos manejar un auto y establecer una conversación a la misma vez, y quizas por qué existen tantos accidentes de personas que manejan, comen y hablan por celular a la misma vez... Fuente de la noticia autor: josé elías |
![]() |
![]() |
sábado, abril 17, 2010
|
![]() El motivo original de crear a Google Cloud Print es en realidad el de proveer una manera sencilla para uno poder imprimir desde el sistema operativo Chrome OS de Google. Recuerden que Chrome OS no solo es un sistema operativo basado en el navegador web Chrome, sino que además está diseñado para ser ligero y sencillo de operar. A tal fin, y para evitar tener que lidiar con el problema de instalar los odiados drivers de impresora, la idea de Google es crear un solo estándar universal para imprimir desde Chrome OS (o el navegador Chrome, o cualquier otra aplicación o sistema operativo que implemente el interfaz de programación de Google Cloud Print), con el cual uno se comunica en realidad con los servidores de Google, quienes entonces transformar el documento a imprimir a un formato nativo para una impresora que bien pudiera estar al otro lado del mundo, o justo en tu misma oficina. Opinión: Esta es una de esas ideas que son excelentes en teoría, pero que en la práctica se encontrará con varios obstáculos (obstáculos que sin duda alguna Google, y el tiempo, resolverán). Por ejemplo, esto no sería práctico para aplicaciones que dependan de archivos pesados (como los generados por diseñadores gráficos), ya que necesitaría enviar el archivo por una posible conexión lenta de Internet hasta los servidores de Google, y después descargar el archivo a imprimir a tu impresora local, lo que podría hacer un acto que hubiera tomado solo un par de minutos, algo que tomaría 10, 20 o incluso 30 minutos. Sin embargo, para archivos del tipo que se planean procesar en Chrome OS (aplicaciones empresariales, emails, etc), esto quizás funcione perfectamente. Otro problema es que de alguna manera la impresora a donde se quiere imprimir debe entender el protocolo de Google Cloud Print, y para eso las opciones que me imagino son las siguientes: 1. Que las impresoras vengan ya preparadas con funciones de red y soporte para Google Cloud Print, algo que no es trivial pues hay que convencer a los principales actores en ese mercado (HP, Epson, Canon, Samsung, etc), y además requeriría comprar una impresora nueva. 2. Que te vendan una pequeña cajita específica para tu modelo de impresora, que haga el trabajo de un Servidor de Impresoras y se comunique con el Google Cloud Print. Esto tiene la desventaja de que se tendría que hacer para muchos modelos de impresoras, y costaría mas dinero al usuario que quiera imprimir localmente. 3. Que se ejecute un programa de Google en la PC en donde está conectada la impresora, y que este haga de enlace entre el driver local y el Google Cloud Print. Esto requiere de necesitar una PC solo para imprimir, aun esa PC no se utilice para nada mas. Así que como ven, no todo es color de rosa. Sin embargo, sí existen muchos usos prácticos para esta tecnología. Por ejemplo, sería ahora muchísimo mas fácil que profesionales que tengan que contratar los servicios de agencias para imprimir trabajos (reportes, planos) puedan imprimir remotamente, de una manera mas estandarizada que las actuales. Así mismo simplificaría que personas envíen fotos a las impresoras de sus familiares y amigos para imprimir remotamente. Fuente de la noticia (recuerden que esta es una tecnología aun en desarrollo) autor: josé elías |
![]() |
![]() |
viernes, abril 16, 2010
|
![]() Se trata de Winscape, una combinación de hardware y software que permite que utilices un par de pantallas (preferiblemente un par de televisores Plasma/LCD/LED de gran tamaño, en posición vertical) como si fueran ventanas digitales hacia un mundo virtual. Noten que esto no se puede apreciar en una simple foto o descripción en palabras, y deben ver el video adjunto al final de este artículo, pues la novedad de este software es que utiliza un control del Nintendo Wii (el "WiiMote") junto con un marcador que le indica al WiiMote en donde estás en relación a las pantallas, para generar en tiempo real una vista del "afuera de la ventana" que cambia dependiendo de tu posición. Cuando vean el video sin duda se les hará agua la boca, esto es asombroso. Algo que deben notar es que el efecto óptico que Winscape logra es solo efectivo para una sola persona a la vez, la que lleve el marcador consigo, aunque se me ocurre una manera de que mas de una persona a la vez pueda sentir el mismo efecto, utilizando pantallas 3D (del tipo de rejillas como expliqué en este artículo reciente), en donde a cada persona en cada perspectiva diferente se le envía la misma imagen pero desde un punto de vista diferente (aunque eso sin duda incrementaría los requerimientos del hardware de gráficos). Noten además que te ofrecen una aplicación para el iPhone que te permite cambiar y ajustar las vistas de Winscape "a control remoto", lo que está genial... Y si les gustó esto, no dejen de ver esta otra novedad... Nota: He estado probando a Winscape en estos últimos días con mi MacBook Pro, una pantalla externa, un WiiMote y un sensor de WiiMote inalámbrico (que uso como el marcador), ¡y de verdad funciona!, aunque para tener buenos resultados hay que jugar mucho con los parámetros del programa. Por ahora esto es definitivamente solo para usuarios técnicos... Enlace oficial a Winscape Aquí puedes descargar a Winscape para probarlo (requiere Mac OS X) Aplicación de Control Remoto de Winscape para el iPhone Enlace a escenarios adicionales de alta definición (te los venden por US$10 cada uno, e incluyen vistas al mar, vistas en órbita sobre la Tierra, etc). Información técnica sobre como se creó Winscape Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
|
![]() ![]() Primero que todo, recuerden que Apple compró la empresa PA Semi en el 2008, una empresa especializada en chips de alta eficiencia energética y de alto rendimiento basados en la arquitectura PowerPC, razón por la cual en mi predicción #5 para este año 2010 que hice el año pasado escribí: "Otro elemento que podría jugar un papel importante es que quizás este [el iPad] sea el primer dispositivo que veamos utilizando chips fabricados por Apple, después de haber comprado la empresa PA Semi, compuesta por algunos de los mas talentosos diseñadores de microprocesadores de la industria." De ser esto cierto, esto explicaría por qué el iPad se siente como el dispositivo multi-táctil mas rápido jamás salido al mercado, y de por qué se siente al menos el doble de rápido que el iPhone 3GS (que de por sí es el doble de rápido que el iPhone 3G). Sin embargo, se ser cierto esta especulación, esto significa también que el iPad se pondrá muchísimo mas rápido aun, pues por el momento se especula que en realidad está ejecutando aplicaciones en modo de emulación ARM, similar a como las Macs recientes con procesadores Intel x86-64 emulaban a los procesadores PowerPC durante la gran transición entre esas dos arquitecturas. Como explican en uno de los artículos que referencié al inicio de este artículo, eso explicaría por qué Apple en su nueva política de uso de las herramientas de desarrollo para el iPhone, iPod Touch y iPad, exige que solo se puedan utilizan herramientas Xcode de Apple para desarrollar. ¿Por qué? Por la misma razón que Apple recomendó el uso de XCode durante la transición entre PowerPC y x86: Si los desarrolladores de software se apegaban a las herramientas de Apple, y a los APIs (interfaces de programación) estándares de Apple, el proceso de cambiar una aplicación de la arquitectura vieja a la nueva era tan sencillo como simplemente recompilar la aplicación eligiendo crear un binario universal para PowerPC y x86, lo que facilitó enormemente la transición. Pero he aquí la parte que me hizo pensar... ACTUALIZACIÓN del 22 de Junio 2020: Poco más de 10 años después de esta predicción que hice, Apple anuncia hoy que migrará sus Macs a sus propios microprocesadores ARM, utilizando como medio de transición precisamente la técnica que expongo en este artículo por medio de la herramienta XCode. Leer el resto de este artículo... autor: josé elías |
![]() |
![]() |
|
![]() En la primera etapa de lanzamiento, cubren a New York (que pueden verlo ustedes mismo en Google Earth ahora mismo si lo tienen instalado), pero paulatinamente se irán agregando otras ciudades. En el video a continuación podrán ver un tour virtual de los resultados. Nota: Lo cómico del caso es que en unos años veremos este video y nos reiremos de lo arcaicos que son estos gráficos hoy día... Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
|
![]() Ahora es posible, si tienes el navegador web Google Chrome, o la última versión de Firefox 3.6, "agarrar" tus archivos con el ratón desde donde sea que estos estén en tu PC (el escritorio, una carpeta, etc), y "tirarlos" encima de GMail, para que estos se adjunten automáticamente al email que piensas enviar, de modo que no tengas que ir a buscarlos por la forma tradicional. Según Google, conforme otros navegadores web soporten esta modalidad (que en inglés se le dice "Drag and Drop", o "Arrastrar y Soltar"), la irán implementando también en esos otros navegadores. ¡Gracias Erick Díaz Jorge por el enlace! Fuente de la noticia autor: josé elías |
![]() |
![]() |
jueves, abril 15, 2010
|
![]() Enlace a la página con la gráfica autor: josé elías |
![]() |
![]() |
|
![]() ![]() Pues hoy día nos encontramos en el mismo centro de esa revolución. Desde que salió la Canon 5D Mark II y la Nikon D90, hemos visto una estampida de modelos de cámaras (ahora llamadas extraoficialmente del tipo "HDSLR") que están permitiendo no solo que el usuario común grave videos con calidad de cine de hace unos pocos años atrás, sino que además ha permitido que incluso los profesionales que están acostumbrados a trabajar con equipos de alto presupuesto le den uso debido a sus diminutos tamaños y gran flexibilidad. Todo esto inició en realidad a inicios del 2007 cuando Sony anunció un nuevo tipo de sensor y yo escribiera: "[...]lo que más me emociona de este sensor es su utilidad en cámaras de video digital de alta definición para el cine independiente. Si alguien pudiera tomar uno de estos sensores y hacer una cámara que acepte lentes Canon o Nikon, tendríamos algo espectacular". Efectivamente, un año después ese sensor empezó a ser utilizados para tal fin, y desde entonces Canon (liderando en ese segmento), Nikon, Sony, y mas recientemente Samsung, están todos librando una batalla en donde cada pocos meses vemos algo mejor que todo lo anterior. El mas reciente desarrollo en este sentido fue la salida al mercado de la asombrosa Canon T2i (conocida en Europa como la Canon 550D, y en Japón como la Kiss X4), una cámara que costando menos de US$900 dólares no solo tiene un asombroso sensor de alta sensibilidad a la luz y 18 megapixeles, sino que además graba video de alta calidad en resolución de 1080p a 24fps (el mismo fps utilizado en el cine). A propósito, me compré la 2Ti, y solo puedo decir que me ha dejado boquiabierto en muchos sentidos (aunque aun me gusta mucho mas el manejo de los controles de cámaras Nikon, como mi antigua Nikon D80). Actualmente estoy comprando varios accesorios para adaptarla mejor a ambientes de filmación, con miras a crear mi primer corto experimental en los próximos meses, algo que no hubiera soñado hacer a este nivel de calidad y precio hace apenas 5 años atrás. Y para que tengan una idea de la penetración, y lo serio que los profesionales han tomado a estas cámaras de bajo costo, los productores de la serie House recientemente anunciaron que el episodio final de esa serie (que sale al aire el 17 de Mayo en los EEUU), fue filmado al 100% con una Canon 5D Mark II (actualización: Ver avance aquí). Así mismo pueden ver cortos como este que les muestra lo que es posible con esa cámara. Otra señal del impacto que han tenido estas HD-SLRs, es el anuncio que acaba de hacer el fabricante de lentes Carl Zeiss, en donde anuncia que sacará próximamente toda una linea de lentes tipo "cinema" para este tipo de cámaras con monturas de lentes tipo Canon EF, Nikon F, y el clásico ARRI PL. Así que ya saben, si tuvieron alguna vez el sueño de crear sus propias películas, y que estas se vieran muy similar a lo mejor del cine, es hora de que despierten ese sueño porque el tiempo llegó de hacerlo realidad... Y como siempre, pueden leer mas de mis opiniones y análisis en la sección bajo ese nombre a la derecha de la página principal de eliax... autor: josé elías |
![]() |
![]() |
|
A continuación los dejo con uno de los videos mas originales y divertidos que he visto en mucho tiempo...
Se trata de ver "detrás" de varias obras de arte famosas utilizando "tecnología 3D", y lo que verán sin la mas mínima duda de mi parte ocasionará una gran sonrisa en ustedes. ¡Que lo disfruten! Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
"Simplemente, estamos viviendo en uno de los mejores momentos de la humanidad!"
en camino a la singularidad...
©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax