texto:   A-   A+
eliax

Software
Opera 10, versión final, disponible hoy para descargar
eliax id: 7005 josé elías en sept 1, 2009 a las 06:44 AM ( 06:44 horas)
Opera, el innovador navegador que se niega a morir, incluso ante la presencia de titanes como Microsoft, Apple, Google y Mozilla/Firefox en el mercado, acaba de lanzar la versión final 10 hoy.

Entre las mejora y funcionalidades estándar:

- Rediseñado interfaz gráfico, con pequeñas fotos de las páginas web visitadas.

- Tecnología que comprime páginas web para hacerlas descargar mas rápidamente. No indican cómo logran esto (es decir, ¿se redireccionan las páginas web por opera.com, o simplemente se ignoran las imágenes en conexiones lentas, o no es mas que utilizar compresión gzip entre los servidores web que lo soportan y el navegador?)

- Capacidad de sincronizar tus favoritos/marcadores por Internet desde opera.com con cualquier otro navegador Opera en cualquier otro dispositivo (genial).

- Corrector ortográfico por defecto.

- Herramientas para desarrolladores web (para inspeccionar el DOM, ver datos del protocolo HTTP, etc).

Tampoco dejen de leer el artículo anterior sobre Opera Unite, es una tecnología impresionante.

¡Gracias al lector David Ferreiro Vilar por la noticia!

Descarga Opera 10 en la página oficial

Fuente de la noticia



autor: josé elías


Científico propone forma de que el universo cuántico sea determinista
eliax id: 6997 josé elías en ago 31, 2009 a las 01:16 AM ( 01:16 horas)
Esta noticia de hoy tiene grandes y profundas implicaciones filosóficas, y aunque es penoso que será pasada por alto por los grandes medios, espero que al menos entiendan de qué se trata, pues este tipo de teorías tendrá grande repercusiones en nuestro entendimiento del Universo en un futuro.

Sucede que el científico Gerard 't Hooft (ganador del Premio Nobel de física en el 1999), ha propuesto una teoría en donde el Universo y el efecto de entrelazamiento cuántico puede ser expresado bajo reglas de Cellular Automata, y por tanto puede ser determinista.

Expliquemos ahora ese párrafo anterior que sin duda entró por la oreja izquierda de muchos y así mismo salió por la derecha... :)

Sucede que aun a la fecha, nadie sabe (para sorpresa de muchos fuera de los círculos científicos) si el Universo es determinista o no. Esto es muy importante saberlo puesto que si aprendemos un día que el Universo es determinista, entonces automáticamente eso significa que ninguno de nosotros tiene libre albedrío, y que todo lo que hacemos no es mas que una sucesión de pasos siguiendo ciertas reglas.

En un universo determinista, si pudiéramos "darle hacia atrás" unos 14 mil millones de años, y volvemos a "reproducir" el Universo, la historia hoy día, y lo que estamos haciendo ahora mismo, sería exactamente igual, y todo átomo estaría exactamente en el lugar que estuvo antes. Es decir, un universo determinista es un universo que sigue ciertas fórmulas de manera rígida, y siempre dan el mismo resultado.

Este es el Universo que tendríamos si este se rigiera por las Leyes Universales de Isaac Newton, en donde todo es basado en un Universo estático y absoluto, en donde una trayectoria de una piedra tirada al aire sería siempre 100% idéntica si al inicio se tira con los mismos parámetros.

Sin embargo, hasta la fecha hay una razón aparentemente bien potente a favor de la conclusión de que tenemos libre albedrío, y esa es la Mecánica Cuántica. Según la Mecánica Cuántica, todo el Universo, en su forma mas básica, no es mas que un conjunto de posibilidades.

Bajo este esquema, si retrocediéramos el Universo unos 14 mil millones de años, los sucesos que sucedieron en el Universo la primera vez no serían los mismos que los que sucedieran la segunda vez, ya que aunque los átomos harían lo mismo la mayoría de las veces, no lo harían todas las veces.

Es decir, en un universo determinista, si chocáramos un átomo con otro, sería posible calcular con total exactitud en donde terminaría el segundo átomo, con nosotros simplemente calcular las velocidades, ángulos y energías correspondientes. Es como si tuviéramos una mesa de billar en donde las bolas y las bandas (bordes) de la mesa fueran 100% perfectas, y si le damos a una bola con otra podemos saber siempre en donde terminarán todas las otras bolas.

Pero en un universo cuántico, en los puntos de impacto es posible que el átomo esté en un lugar, pero también es posible que esté en otro, aunque con mayor posibilidad de que esté en donde esperamos encontrarlo. Y es por eso que en una mesa de billar regida por el mundo cuántico, no sería posible calcular con precisión exacta en donde terminarían las bolas al final de un choque. Lo único que podríamos calcular son los lugares mas probables en donde estas terminarían, pero sin ninguna garantía.

Así que en un universo cuántico no-determinista, es posible que algunos procesos cuánticos a nivel de nuestras neuronas hagan que estas disparen de una forma u otra, y no siempre de la misma manera, lo que evitaría que fuéramos solo simples robots siguiendo las instrucciones de un programa maestro.

Así que dos cosas están en juego: El determinismo del Universo, y el Libre Albedrío.

Lo que alega ahora Gerard 't Hooft, es que él ha encontrado una forma de expresar los procesos cuánticos de entrelazamiento (un efecto en donde dos partículas que están relacionadas una a otra "se sienten" instantáneamente, aun a millones de años luz de distancia), en un marco de Autómata Celular (o Cellular Automata).

Autómata Celular es un proceso que se puede ilustrar de esta manera: Imaginen un papel cuadriculado, en donde al tope empezamos con una condición inicial, como puede ser una celda negra en el centro de la primera fila, al tope, con todo el resto de las células blancas. Ahora, asumamos que el tiempo es codificado de manera vertical. Es decir, la primera fila es el tiempo 1, la segunda fila es el tiempo 2, etc.

Ahora, imaginemos una simple regla como por ejemplo "si la célula a tu izquierda es blanca, y esta es negra, copiar una célula de colores opuestos en el próximo tiempo"), y después apliquemos esa regla a cada fila. Lo que sucederá es que veremos un patrón que se va "dibujando" sobre el papel cuadriculado, desde arriba hacia abajo, en donde las células de cada fila van cambiando, aun sea la misma regla.

Pues sucede que algunas de estas reglas sencillas pueden crear extrema complejidad, tan compleja como casi el Universo mismo, como pueden apreciar en la llamada "Regla 30" de esta imagen. Y a propósito, el mas grande exponente de Autómata Celular hoy día es Stephen Wolfram, quien publicó su teoría en el excelentísimo libro "A New Kind of Science" ("Un Nuevo Tipo de Ciencia") el cual recomiendo mucho leer.

Entonces, lo que Gerard 't Hooft en realidad ha dicho, es simplemente que ha encontrado una manera en donde siguiendo super sencillas reglas de Cellular Automata es posible codificar el comportamiento cuántico del fenómeno del entrelazamiento.

Esto, de ser cierto, es algo monumental, pues significaría que algo que se creía era un proceso atado a la aleatoriedad es en realidad un proceso programático que puede ser expresado con simples reglas, lo que una vez mas significa que es posible que nuestro Universo sea determinista y por tanto que no tenemos libre albedrío.

Y honestamente, soy (al igual que todo el resto de la humanidad) de los que desea que exista el libre albedrío, y aunque la intuición parece decirnos que tenemos control sobre lo que hacemos, ya la ciencia nos ha demostrado varias veces, y de manera contundente con ejemplos en Relatividad y Mecánica Cuántica, que nuestra intuición nos traiciona mucho mas de lo que creemos, y por tanto no debemos asumir que el solo hecho de que estemos pensando en este momento que somos conscientes de que esa sea una garantía de Libro Albedrío.

Los dejo hoy con esto para ponderar: Imaginemos que creamos un robot, a quien le hemos programado el sentimiento de que él sepa que él existe, y de que toma sus propias decisiones, pero cuyas decisiones son gobernadas en realidad por un programa que hemos diseñado que lo único que hace es tomar decisiones basado en reglas bastante estrictas (es decir, que si copiamos el robot en otro, ese otro robot siempre tomaría las mismas decisiones que el primer robot).

En ese ejemplo, si le preguntamos al robot "¿tienes libre albedrío?" es seguro que dirá que sí, pero sin embargo sabemos que respondió a esa pregunta siguiendo una lógica estricta de razonamiento que no permite desviación alguna. Es decir, el robot en realidad no tiene libre albedrío y podemos predecir (o determinar) todas sus posibles acciones, pero sin embargo el robot juraría que eso no es cierto y que tiene libre albedrío (y curiosamente, esta forma de defenderse sería también el resultado del programa que lo controla). Pues eso mismo podría estar ocurriendo con nosotros, en donde el libre albedrío es solo un sentimiento, una ilusión.

Y si quieres leer mas noticias como esta, no dejes de visitar la sección de Ciencia en eliax...

Documento científico sobre esta teoría

Fuente de la noticia

"A New Kind of Science" disponible para leer en Internet

Previamente en eliax:

Sobre teletransportación de información cuántica y su significado (Enero 2009)

WolframTones, generador musical con Celular Automata (Mayo 2009)

autor: josé elías


El Amazon VPC (Nube Privada Virtual), un nuevo concepto empresarial. Opinión
eliax id: 6985 josé elías en ago 26, 2009 a las 10:01 AM ( 10:01 horas)
Amazon recién anunció un nuevo servicio empresarial al que llama el Amazon VPC ("Virtual Private Cloud", o "Nube Privada Virtual"), algo que representa una opción mas a los Gerentes de Tecnologías empresariales que tienen la tarea de escalar la infraestructura tecnológica interna de una manera gradual, pero preparada para satisfacer grandes demandas de manera brusca.

El Amazon VPC es básicamente una extensión del Amazon Elastic Computing Cloud (Amazon EC2), el cual originalmente permite que empresas e individuos renten espacio en los cientos de miles de servidores de Amazon, para desplegar aplicaciones que escalan de manera automatizada según los recursos que necesiten (mas CPU, mas almacenamiento, mas conexiones concurrentes, etc).

Obviamente estas aplicaciones tienen que se diseñadas para que estén conscientes del Amazon EC2 y puedan escalar correctamente.

La diferencia entre el EC2 y el VPC es que el VPC es una extensión directa de tu red local (LAN), en donde por medio de tecnologías de VPN (Redes Privadas Virtuales) parte de la nube computacional de Amazon literalmente se fusiona con tu LAN, inclusive utilizando el mismo rango de direcciones IP internas de tu empresa.

El resultado de esto es que puedes continuar con las aplicaciones que tienes, las cuales si se modifican ligeramente para tomar ventaja de los servicios de Amazon, puedes continuar administrándolas como si estas estuvieran dentro de tu red, pero con la gran ventaja de que estas escalarían hacia la red de Amazon conforme incremente la demanda, de manera "elástica" como diría Amazon.

Opinión: Esto ofrece grandes ventajas a las empresas, pues el servicio se factura "por uso". Es decir, pagas solo por lo que utilices, y de paso si por alguna razón las aplicaciones de tu red necesitan mas capacidad, estas la obtienen automáticamente del Amazon VPC.

Sin embargo, algo a considerar (y que Amazon no menciona) es el tipo de conexión que tengas a Internet, pues es lógico que esto afectará seriamente el rendimiento de las aplicaciones si tu conexión es relativamente lenta (incluso una linea T1 es algo considerando lento hoy día). La excepción a esta problemática del ancho de banda sin embargo son Aplicaciones Web. Si tu empresa se maneja con aplicaciones que se acceden desde un navegador web estándar, entonces es un excelente candidato para este tipo de servicios, ya que en este tipo de aplicaciones el volumen de "la fuerza bruta" ocurren en los servidores, y el navegador web es solo utilizado para actualizar el interfaz del usuario, el cual si es diseñado con criterios de eficiencia consume muy poco ancho de banda.

Sin embargo, la cosa que si pudiera poner un freno en que tu empresa adopte esta tecnología es el riesgo que tomas en quedar "trancado" con Amazon, de manera similar a como muchas empresas quedaron trancados con Windows sin poder migrar fácilmente a otras plataformas.

Esto se debe a que este servicio de Amazon VPC es un servicio propietario, por lo que si adaptas tu aplicación para este entorno es posible que integres tan profundamente con VPC que se te haga difícil mas tarde modificar o migrar la aplicación a un entorno mas competitivo.

Es por eso que abogo por prudencia a la hora de considerar estos servicios, y a exigirle a empresas como Amazon, Microsoft y Google a que se sienten en una mesa y acuerden un estándar para Computación en la Nube (Cloud Computing), pues de lo contrario lo único que estamos haciendo es casándonos a largo plazo en una relación en donde el divorcio no es una opción...

Fuente oficial con mas detalles del Amazon Virtual Computing Cloud



autor: josé elías


Sun describe futuro de software que escala a sí mismo como los virus
eliax id: 6966 josé elías en ago 19, 2009 a las 12:02 PM ( 12:02 horas)
Sun Microsystems, creadores de Java, Solaris, SPARC y un sinnúmero de excelentes tecnologías, y empresa que una vez fue mi favorita en el mundo, y sobre quienes escribí dolorosamente este artículo en el 2006 después de la empresa empezar a perder su rumbo (y perderlo por completo en estos últimos años), anuncia ahora a pocas semanas de que sea absorbida en su totalidad por Oracle, que ve un futuro bastante prometedor para software auto-escalable.

El anuncio fue hecho en CloudWorld en donde la empresa propone un futuro que tiene mucho sentido, del cual se ha hablado mucho, pero el cual Sun aparentemente piensa hacer realidad.

La idea es tomar prestado de los avances realizados por los hackers en el campo de los virus informáticos, troyanos, gusanos informáticos, etc, para crear software que escale a sí mismo, tomando ventaja de todas las máquinas en una red, para entre todas incrementar su rendimiento.

Este es un tema del cual he hablado mucho en eliax, pero lo que Sun propone tiene una diferencia sutil e importante: Hasta ahora, el software diseñado para escalar por lo general es escalado por un agente externo, como (y disculpen brevemente los que no son técnicos) por ejemplo el contenedor J2EE de aplicaciones Java, o el contenedor .Net de aplicaciones de ese mismo nombre.

Es decir, en vez de tener un gestor externo que controla el crecimiento y el aprovisionamiento de recursos para que el software escale, la idea de Sun es que el mismo software internamente tenga el conocimiento necesario como para él mismo replicarse por toda la red y tomar ventaja de todos los recursos que encuentre, o en otras palabras, un "virus benigno".

Esto por un lado tiene muchas ventajas, pues si Sun ofrece un base de código que haga esto por nosotros, es decir, una serie de módulos que simplemente agreguemos a nuestro software y que manipulemos con un API (interfaz de programación) determinado, esto haría el escribir este tipo de aplicaciones super escalables algo casi trivial.

Sin embargo, por otro lado esto tiene un lado verdaderamente peligroso, porque, ¿qué pasa si el sistema se pone fuera de control y no se detiene en recursos limitados, e incluso sale al Internet hacia otras redes? Según Sun, el sistema que contempla está diseñado para que en su "ADN" se le programen límites específicos de crecimiento.

Esto me recuerda mucho un artículo que escribí en el 2007 en donde especulo que sería posible en un futuro que debido a precisamente este tipo de software que interactúa con todo lo demás en Internet, que el Internet mismo "despierte" y cobre consciencia de sí mismo, ya que hay una analogía bastante similar entre las neuronas de nuestro cerebro y los nodos que interconectan al Internet (lo que llamo "Interneuronas").

Fuente de la noticia

Previamente en eliax:

Editorial: El Sol de Sun Microsystems se apaga (Junio 2006)

Interneuronas a proveer al Internet de Consciencia e Inteligencia Artificial (Febrero 2007)

La Era de los Cánceres Informáticos (mas allá de los virus) (Abril 2009)

autor: josé elías


Pregunta a eliax: ¿Qué es un Buffer y cómo funciona?
eliax id: 6924 josé elías en ago 7, 2009 a las 09:24 PM ( 21:24 horas)
eliax - para mentes curiosasAyer les expliqué el concepto de un Cache, hoy les explicaré un concepto relacionado llamado un Buffer, y trataré una vez más de utilizar ejemplos de la vida cotidiana para que entiendan el concepto.

Así que empecemos hoy imaginándonos que trabajas en un restaurante en donde solo venden hamburguesas, y tu trabajo es ser el que las prepara según las vayan ordenando.

Una cosa que notarás en tus primeros días en ese empleo es que en determinados momentos del día, en particular a la hora del almuerzo y la cena, los clientes piden grandes cantidades de hamburguesas.

Inicialmente si te pedían dos hamburguesas, decías "¡en un momento están listas!", y empezabas a prepararlas, y cuando terminabas las entregabas a la persona encargada de tomar la orden del cliente.

Sin embargo, mientras tu preparabas esas dos hamburguesas el cliente simplemente esperaba con los brazos cruzados, haciendo el trabajo bastante ineficiente.

Pero poco después se te ocurrió una idea: En vez de esperar a que te pidan las hamburguesas, lo que hay que hacer es preparar de antemano varias hamburguesas para cuando la hora pico llegue ya se puedan vender varias de ellas en lo que tu sigues preparando unas cuantas hamburguesas mas.

Lo que acabas de crear es un Buffer.

Un Buffer no es nada más que preventivamente tener algo listo, para cuando lo necesites ya tenerlo hecho y no tener que buscarlo o hacerlo en el momento que te lo pidan (esto es diferente a un Cache como veremos más adelante). Y este concepto, como veremos a continuación, es (junto con el Cache) uno de los conceptos más básicos y universales en el mundo de la computación...

Por ejemplo, cuando ves un video de YouTube por Internet, notarás que YouTube primero empieza a pre-descargar el video, pero sin reproducirlo, para así tener suficiente video ya descargado para cuando empiece a reproducirlo ya tenga "por adelantado" buena parte del video en tu PC. Usualmente muchos dicen que el video ha sido puesto en Cache, pero en realidad lo correcto es decir que ha sido puesto en un Buffer.

De esa manera, si el video está reproduciendo, y la conexión de Internet falla por un par de segundos, el video sigue viéndose normalmente porque lo que tu navegador web hace es que reproduce el video del Buffer, y no del Internet.

En realidad, y esto es algo curioso, YouTube nunca reproduce videos directamente desde Internet, sino que los reproduce siempre desde el Buffer. Lo que ocurre tras bastidores es que el Buffer se vive llenando de datos desde el Internet por un extremo, y por el otro lado lo envía a la pantalla de tu PC. Y lo mismo con casi todo sistema que utilice Buffers.

Este concepto en nivel técnico es bastante potente, pues no solo hace que el flujo de dato sea constante aun si el verdadero flujo de datos no lo sea, sino que además es una técnica para aumentar el rendimiento de flujos de datos. Veamos como.

Digamos que el restaurante de hamburguesas se hace bastante popular, y que tu solo ya no eres suficiente para preparar las hamburguesas, aun con un Buffer de decenas de hamburguesas pre-hechas. En este caso se puede contratar a otra persona para que te ayude, pero ahora ambos pueden contribuir al Buffer, llenándolo entre los dos de hamburguesas por un extremo, y por el otro extremo seguimos con una sola persona atendiendo a los clientes, independientemente del trabajo que ustedes hagan detrás.

Similarmente, imagínate un canal de TV que quiera transmitir su programación entre una ciudad y otra por medio de Internet. Al poco tiempo se da cuenta que el ancho de banda de su conexión T1 (1.544 Mbps) no es suficiente para enviar el video a la calidad que desea, pero calcula que con el doble de ancho de banda sería suficiente hacerlo. Sin embargo, por motivos técnicos la empresa que le provee de Internet le informa que una T1 es la velocidad mayor que ofrecen.

La solución es contratar dos lineas separadas, dividir el flujo de datos de video entre las dos lineas, y en el otro extremo ensamblar el video de nuevo en un Buffer, y después tomar en la red local remota el video combinado desde el Buffer y reproducirlo. Es decir, en la ciudad de destino el Buffer actúa no solo como una manera de poder leer el video de forma continua, sino que también de aislar la aplicación final del detalle técnico de que el video proviene de dos conexiones diferentes.

Este mismo concepto de Buffer es muy común también en supermercados: Mantienen un Buffer de comida en un almacén dentro del supermercado, para que mientras se va vendiendo la comida ellos vayan llenando los estantes de comida con la almacenada en el almacén (el Buffer), para de esa manera cada vez que necesiten comida no tener que llamar a sus proveedores y esperar varios días a que llegue esta.

Entonces, el objetivo de un Buffer es tratar de garantizar que siempre habrá un flujo constante de datos. Es decir, en vez de obtener los datos solo en el momento que uno los pida, que estos ya estén disponibles antes de uno pedirlos.

Entonces, una diferencia fundamental entre un Cache y un Buffer, es que en el caso de un Cache que está diseñado para tratar de adivinar cuáles serán los datos que serán pedidos próximamente de manera aleatoria, un Buffer por otro lado está diseñado de manera más sencilla ya que los datos que se piden no son aleatorios (como distintos números telefónicos) sino que continuos (como los fotogramas de un video, o una linea de hamburguesas), por lo que el Buffer siempre sabe que es lo que le van a pedir próximo.

Y como siempre, pueden acceder a más artículos similares en la sección de "Pregunta a eliax", y enviar sus preguntas por este medio.

autor: josé elías


¿Problemas con Twitter, Facebook y Twitterfeed? Esto es lo que ocurre...
eliax id: 6922 josé elías en ago 7, 2009 a las 07:47 AM ( 07:47 horas)
Hace unos meses les enseñé una manera de como podían integrar a Twitter y Facebook, de tal manera que todo lo que escribieran en Twitter apareciera automáticamente en Facebook. Y sin duda algunos han estado teniendo problemas en estos últimos dos días, y en particular en las últimas horas con el servicio de Twitterfeed que es el que conecta RSS a Twitter.

El problema es que recientemente el portal de Twitter fue atacado con un "DDoS" (miles de computadoras esclavizadas por un virus en Internet, inundando de tráfico a Twitter.com), y debido a eso los administradores de las redes de Twitter han adoptado temporalmente una política de bloquear una gran cantidad de "direcciones IP" del Internet.

Lamentablemente Twitterfeed cayó accidentalmente en esa lista de direcciones IP bloqueadas, por lo que el servicio de ellos por el momento no se puede conectar a tu RSS para leer tus teets y publicarlos en Twitter.

Sin embargo según los creadores de Twitterfeed, ya Twitter está al tanto del caso y se espera que el problema se resuelva próximamente...

Nota: Esta semana han habido varios ataques del tipo DDoS a varios portales grandes de Internet. Obviamente algún payaso cree que esto es divertido. Y lo peor del caso es que este tipo de actividades, por mas sorprendente que sea, son legales en muchos países, razón por la cual abogo por esto. Así que si otros servicios no les están funcionando, es posible que sea por esto.

Fuente oficial de este dato

autor: josé elías


Pregunta a eliax: ¿Qué es un Cache y cómo funciona?
eliax id: 6921 josé elías en ago 6, 2009 a las 11:41 PM ( 23:41 horas)
eliax - para mentes curiosas¿Cuántas veces no han leído especificaciones en un CPU, una memoria, disco duro, o incluso en terminología en navegadores y aplicaciones web, en donde se refieren a un "Cache"?

Cache es uno de esos términos que para el usuario técnico es una simpleza, pero para la persona común no familiarizada con el término es lo mismo que decir palabras mágicas en una película de Harry Potter. Cosas como que un disco duro tiene 16MB de cache, o que un CPU tiene 2MB de cache es algo que la mayoría de los consumidores no entiende, y por lo general simplemente siguen la regla que mientras más grande es el cache mejor debe ser lo que uno está comprando (y esa regla en este caso es por lo general una buena regla a seguir, aunque no siempre como veremos).

Así que veamos qué es este concepto en términos sencillos y fáciles de entender...

Imagínate que trabajas en una central telefónica de un pequeño pueblo, en donde muchas personas llaman para preguntarte el número telefónico de algunos negocios (restaurantes, cines, tiendas de ropa, bancos, etc), y que lo único que tienes disponible para contestar es una de esas tradicionales guías telefónicas (un libro bastante pesado y de gran espesor).

Una cosa que notarás en tu empleo, al cabo de poco tiempo, es que las personas tienden a preguntar con bastante frecuencia sobre un grupo en particular de negocios populares, por lo que para hacer tu trabajo más eficiente, lo que empiezas a hacer es a copiar el número telefónico de esos negocios populares en un cuaderno aparte, organizados alfabéticamente.

Ese cuaderno tiene quizás solo 4 o 5 páginas (versus las cientos de página de la guía original), pero sientes confianza en que en alrededor del 50% de los casos cada vez que te llaman esos números los puedes encontrar en esta pequeña guía, en donde puedes encontrar los números más rápidamente.

Pues felicidades porque acabas de crear un cache.

El mismo concepto se utiliza por ejemplo en un disco duro. Un controlador interno utiliza una pequeña cantidad de memoria (digamos, 16MB) para almacenar cosas que cree tú vas a pedir en el futuro próximo, de modo que si tu PC le pide información al disco duro, y este la tiene en el cache de 16MB, te la puede dar muchísimo más rápidamente que buscándola físicamente en el disco duro (el cual a la fecha es muy posible que sea un sistema mecánico con discos que giran, mientras que la memoria cache es memoria sólida y mucho más rápida).

Es decir, un cache sirve para acelerar el acceso a la información, y por eso, mientras más grande es el cache por lo general mejor el rendimiento, ya que más cosas se pueden almacenar en este cache "por si acaso" se necesitan.

Otro concepto importante del cache es lo denominado en jerga técnica un "cache miss", un fallo de cache. Expliquemos lo que es eso siguiendo el ejemplo de la guía telefónica...

Digamos que alguien te llama, y tu esperas la llamada con tu pequeño cuaderno en mano (y dejas la guía telefónica original a un lado tuyo), y te pide un teléfono. Lo primero que haces es abrir tu cuaderno y buscar a ver si el número está ahí, sin embargo te das cuenta que no se encuentra ahí, por lo que procedes entonces a poner el cuaderno a un lado, recoger una vez más la guía telefónica, y proceder como antes a buscar el número telefónico hasta que lo encuentres.

¿Qué ocurrió aquí? Un fallo del cache, pues lo que encontrabas no estaba en tu cuaderno, lo que hizo que ahora el proceso de buscar el número telefónico durara mas tiempo que si no tuvieras un cuaderno/cache, ya que perdiste tiempo buscando en el cuaderno antes de buscar en la guía.

Eso mismo ocurre en un cache de disco duro, CPU, o cualquier otro proceso que utilice caches, y es sumamente importante tomar ese problema en cuenta cuando se diseñan sistemas, ya que si tu no tienes un buen algoritmo para saber qué poner en el cache, es posible que al final el cache te afecte negativamente y termines con un sistema más lento que antes.

En el caso de la guía telefónica, el algoritmo es incluir en el cuaderno los números más frecuentemente utilizados, lo que es bastante simple, pero en otros casos (como en un CPU en donde no sabes siempre cuales instrucciones tu PC va a ejecutar), el trabajo es muchísimo más difícil.

Es por eso que el diseñador del sistema debe poner en la balanza una fórmula en donde el tiempo perdido con la cantidad de cache missses sea menor que el tiempo ganado con caches hechos correctamente, y déjenme decirles que existen literalmente miles y miles de artículos científicos publicados sobre todas las posibles estrategias de abordar este problema.

Otro punto a tener en cuenta es que en un sistema en donde casi en el 100% de los casos los datos son aleatorios, que entonces es recomendable no utilizar un cache, ya que la mayoría de las veces el cache haría un cache miss y terminarías con un sistema más lento, más complejo, y más caro.

La otra cara de la moneda es decir que mientras más estructurados y predecibles sean los datos, más se benefician estos de un cache. Y obviamente existen casos intermedios, en donde hay que saber elegir cuidadosamente la cantidad de cache, pues si eliges mucho te arriesgas a tener muchos cache misses con datos aleatorios, y si eliges poco también te arriesgas a tener muchos cache misses con datos predecibles.

Así que ahí lo tienen. Asombrosamente este concepto a veces es explicado en todo un capítulo en cursos de ingeniería en computación, pero como vieron, si hacen una analogía a la vida diaria, notarán que en realidad es algo bastante simple...

Y como siempre, pueden acceder a más artículos similares en la sección de "Pregunta a eliax", y enviar sus preguntas por este medio.

autor: josé elías


Pequeña muestra del poder de Canvas en HTML 5
eliax id: 6918 josé elías en ago 6, 2009 a las 01:47 PM ( 13:47 horas)
Como han leído previamente en eliax en artículos como este, uno de los principales componentes de HTML 5 es el componente Canvas, que no es mas que una manera de decir que ahora desde Javascript un programador podrá tener acceso directo a gráficos en 2D acelerados con tu tarjeta de video, pero de una manera totalmente independiente de plataforma.

Así que para que vean lo que es posible con esta tecnología, los invito a que visiten el siguiente enlace. Sin embargo, la demostración solo la podrán apreciar si tienen una versión reciente de los últimos navegadores web que soporten a Canvas.

Como referencia, hice la prueba exitosamente con Firefox 3.5, Chrome 2, Safari 4, y Opera 10.

Ya se imaginarán lo que será posible cuando una alto porcentaje de los navegadores soporten Canvas, y los programadores empiecen a tomar ventaja de ello...

Nota curiosa para los que no sepan inglés: Canvas significa "lienzo", como en "lienzo para pintar", así que ya saben de donde tomaron el nombre...

Enlace a la página con el demo de Canvas

Enlace adicional para geeks (requiere Canvas también) (utilicen teclas del cursor para moverse y Space para saltar) :)

Previamente en eliax:

HTML 5 a ser punto de inflexión en aplicaciones de Internet/móviles (Febrero 2009)

autor: josé elías


Una página que te regala diariamente un programa comercial, legalmente
eliax id: 6909 josé elías en ago 4, 2009 a las 10:58 AM ( 10:58 horas)
A continuación los envío a que visiten la página de "Giveway of the day" (Regalo del día), una página que se especializa en buscar esas ofertas efímeras que ocurren en Internet en donde empresas ofrecen sus programas comerciales totalmente gratis y de manera legal durante un solo día.

Es decir, esta empresa literalmente te regala, cada día todos los días, un programa completo gratis y legal.

Algo útil es que la página está disponible en varios idiomas, incluyendo español, e incluyendo las descripciones de los programas.

Y si te interesa el mundo del software, no dejes de visitar la sección de Software en eliax...

Enlace a la página

Previamente en eliax:

Cómo ofrecer a Windows y OS X gratis y aun hacer dinero (Enero 2009)

autor: josé elías


Firefox ya fue descargado Mil Millones de veces. Tiene 31% del mercado
eliax id: 6905 josé elías en ago 3, 2009 a las 10:47 AM ( 10:47 horas)
Apenas en Febrero del año pasado les comuniqué por eliax que Firefox había sido descargado 500 Millones de veces por usuarios de todo el mundo. Hoy les informo que esa cifra se duplicó a 1,000 Millones.

Además, según las últimas mediciones Firefox ya comanda el 31% del mercado de navegadores web en todo el mundo, y la tajada del Microsoft Internet Explorer decayó a un 60% (el restante es compartido matoritariamente por Apple Safari, Google Chrome y Opera, en ese orden).

Noten que esto no significa que 1,000 millones de personas descargaron a Firefox, pues la misma persona usualmente descarga a Firefox mas de una vez para distintas máquinas y en varias instalaciones. Sin embargo el número clave aquí es el 31% del mercado, que es mucho mas tangible e independiente de cuantos usuarios existen en Internet.

Fuente de la noticia

Crédito de la imagen

Previamente en eliax:

Navegador Firefox descargado 500 Millones de veces (Febrero 2008)

autor: josé elías


Ya pueden descargar el kit de desarrollo para el Palm Web OS
eliax id: 6855 josé elías en jul 16, 2009 a las 09:09 PM ( 21:09 horas)
A los fans de la empresa Palm y en particular de su nuevo Palm Pre, les tenemos la buena noticia de que el SDK (el kit de desarrollo de software) para el Web OS ya está oficialmente disponible para todo aquel que desee desarrollar aplicaciones para esa plataforma. Es el esperado "Mojo SDK".

Algo interesante es que similar a los kits de desarrollo del iPhone y Android, que este SDK viene con un emulador del Web OS (básicamente obtienes un Palm Pre "virtual"), por lo que esta es una buena manera de tu familiarizarte con ese dispositivo.

Página oficial para desarrolladores del Web OS (excelente recurso)

Nota de Prensa Oficial

Previamente en eliax:

Palm lanza el "Palm pre" y su sistema operativo webOS (Enero 2009)

Palm anuncia App Catalog y recursos técnicos de Palm Pre y webOS (Enero 2009)

Video del nuevo Palm webOS en el "Palm pre" (Enero 2009)

Videos nuevos del Palm Pre y Windows Mobile 6.5 (Febrero 2009)

Video de cómo desarrollar para el Palm Pre con el WebOS (Febrero 2009)

Palm lanza Palm Pre SDK para WebOS. Anuncia emulador de PalmOS (Abril 2009)

autor: josé elías


Sale VirtualBox 3 para virtualizar cualquier sistema operativo. Gratis
eliax id: 6837 josé elías en jul 11, 2009 a las 01:26 PM ( 13:26 horas)
Si tienes un sistema operativo y te gustaría ejecutar a otro dentro de ese (es decir, "virtualizar" un sistema operativo), te tenemos la buena noticia de que VistualBox, el virtualizador hecho gratuito por Sun Microsystems acaba de salir recientemente en su versión 3, y entre las mejoras incluye soporte para aplicaciones aceleradas con gráficos en 3D, así como soporte para hasta 32 procesadores/núcleos por máquina virtual (lo que potencialmente podría incrementar sustancialmente el rendimiento del entorno virtual).

Con este tipo de programas puedes por ejemplo instalar y ejecutar a Windows dentro de Linux o Mac OS X o Solaris, o hacerlo al revés (Linux dentro de Windows o OS X).

VirtualBox soporta una gran cantidad de sistemas operativos, incluyendo varias versiones de Windows Server. Por ahora la única restricción es que no puedes instalar a OS X dentro de otro sistema operativo (esto debido a ciertas restricciones de Apple, mas que por razones técnicas), pero al menos si puedes instalar cualquier sistema operativo dentro de OS X.

Este tipo de tecnología es bastante útil si quieres adoptar un nuevo sistema operativo (como Linux o OS X) pero quieres poder ejecutar aplicaciones del sistema operativo anterior (como Windows), por lo que esto es una buena solución para empresas.

Para lo que no recomiendo virtualización es para video-juegos o programas "intensos" como renderizadores en 3D en tiempo real, editores de video, etc, pero para los programas comunes (como Office, entornos de programación, bases de datos, servidores web, etc) es bastante adecuado.

Noten que no he probado esta versión 3, pero si alguien se anima que nos diga sus impresiones en los comentarios. Si lo prueban, recuerden que esto es solo recomendado si tienen suficiente memoria para ambos sistemas operativos. Yo recomiendo una máquina con al menos 2GB de memoria RAM para que le den 1GB al sistema operativo primario y 1GB al virtualizado, aunque es posible hacerlo con la mitad de la memoria, pero el rendimiento no será igual. Igualmente, si tienen una máquina con dos núcleos es todavía mejor, ya que el virtualizador puede asignar un CPU casi dedicado al sistema virtualizado.

Nota a usuarios de Linux: Esto es muy diferente a WINE. WINE lo que hace es hacerle creer a los programas de Windows que Linux es Windows, recreando las librerías (el "API" de Windows) en Linux, lo que obviamente inserta muchos problemas de compatibilidad ya que estas librerías no son 100% exactas a las que plantean reemplazar. Con un virtualizador, literalmente estás ejecutando a Windows, y los programas creen que ese Windows está en una PC normal, por lo que la compatibilidad es 100%.

Página oficial de VirtualBox

autor: josé elías


Firefox 3.5 en pocas horas ya ha sido descargado 2 millones de veces!
eliax id: 6812 josé elías en jun 30, 2009 a las 04:47 PM ( 16:47 horas)
¿Quieren ver cuántas copias de Firefox 3.5 se están descargando en estos momentos?

En apenas las pocas horas que ha estado disponible este se ha descargado mas de 2 millones de veces. Noten que la columna que dice "cur" significa cuantas descargas de Firefox 3.5 se hacen por segundo (está promediando entre 35 y 50 por segundo en estos momentos).

Y esto es solo el comienzo, se espera que se descargue varias decenas de millones de veces en los próximos días...

En este enlace pueden ver los datos en tiempo real

Previamente en eliax:

¡Firefox 3.5 FINAL disponible ahora mismo! (Junio 2009)

Actualización 1: Menos de 24 horas después ya va por 4.2 Millones!!!

Actualización 2: En los primeros 3 días ya van cerca de 11 Millones!!!

autor: josé elías


¡Firefox 3.5 FINAL disponible ahora mismo!
eliax id: 6808 josé elías en jun 30, 2009 a las 08:47 AM ( 08:47 horas)
¡Llegó la hora que muchos esperábamos! La versión final de Firefox 3.5 está disponible para descargar en estos precisos momentos...

Como expliqué no hace mucho, entre las mejoras de Firefox 3.5:

- Soporte para HTML 5 de pie a cabeza
- Web Workers (permite ejecutar aplicaciones web locales en el fondo)
- Modo opcional de navegación sin dejar rastros locales
- Mas velocidad en cargar y desplegar páginas web
- Javascript mucho mas rápido
- GeoLocation (capacidad de utilizar un GPS para saber en donde estás)
- SVG (gráficos vectoriales similar a Adobe Flash)
- Web Storage (almacenamiento en bases de datos locales)
- Soporte para etiquetas de video de HTML 5
- Aplicaciones Web desconectadas (gracias a HTML 5)
- Tipografías/Fuentes descargables dinámicamente
- Soporte nativo para JSON (utilizado mucho con AJAX)
- Soporte para todo lo último de CSS

Descarga a Firefox 3.5 en este enlace

Previamente en eliax:

Firefox 3.5 RC1 disponible. Versión final para fin de mes (Junio 2009)

autor: josé elías


Google te muestra como escribir software eficiente
eliax id: 6785 josé elías en jun 24, 2009 a las 09:30 PM ( 21:30 horas)
Como parte de su programa Google Code, Google acaba de abrir una nueva sección especializada específicamente en enseñarte como escribir software eficiente, mostrándote todos los tipos de trucos que los mismos ingenieros de Google utilizan a diario con las herramientas que hacen disponible a todos por Internet.

La nueva sección se llama informalmente Google Speed (Velocidad), y no solo te muestra código y metodologías, sino que lo hace con todo tipo de entornos de programación, e incluso ofrecen una lista de recomendaciones de herramientas a utilizar que incluyen algunas de su competencia (para que vean lo abierta que es la mentalidad de Google).

Si eres un desarrollador de software, en particular de aplicaciones web, este recurso es simplemente invaluable.

Página oficial de Google Code

Página de Google Speed

Artículos de Google Speed para mejorar tu código

Herramientas recomendadas por Google Speed

Uno de los videos que introducen estos conceptos (enlace YouTube)...


Previamente en eliax:

Google lanza a Google Code (Julio 2006)

Google Code Search - Busca código de software (Octubre 2006)

Google lanza Google Code University. Cursos técnicos gratuitos (Marzo 2008)

autor: josé elías


Editorial eliax: Las ciudades del futuro no se construirán, y seremos invisibles
eliax id: 6687 josé elías en jun 21, 2009 a las 09:11 PM ( 21:11 horas)
eliax - para mentes curiosasTodos hemos visto en películas de ciencia ficción como Star Wars y Blade Runner, así como en incontables libros, páginas web y documentales de TV, el concepto de ciudades futurísticas, que dependiendo de la imaginación de su creador pueden ser mega-metrópolis, ciudades flotantes, ciudades submarinas, ciudades colgando de inmensos árboles, ciudades en gigantescas cúpulas, ciudades en meteoritos, o ciudades en órbita de algún planeta.

Pues he aquí algo quizás un poco impactante a simple vista: Ninguna se construirá, y dudo se hayan construido (o se vayan a construir) en otro lugar del Universo, y a continuación mis razones de por qué...

Si seguimos el avance científico y tecnológico actual, que se encuentra en proceso de aceleración exponencial, en mucho menos de un siglo seremos todos seres sintéticos, aunque aun siguiéndonos llamándonos humanos y con los mismos sentimientos (e incluso amplificados) que los humanos de hoy día, y como todo ser que posea una mente sintética, podremos hacer lo que cualquier sistema de computación pueda hacer, ya que nosotros mismos seremos equivalente a "máquinas inteligentes y emocionales".

Debido a eso, nuestras mentes no estarán limitadas al mundo físico, sino que mas bien minarán toda la imaginación que posean para plasmar sus sentimientos e ideas en entornos virtuales.

Tanto así que los humanos del futuro viviremos muchísimo mas tiempo en mundos virtuales que en el mundo "real". Sin embargo para entonces ya todos sabremos que existe poca diferencia entre lo "virtual" y lo "real", ya que nuestro universo mismo es una máquina de computación, y de la manera que percibimos el mundo no es nada más que un entorno virtual fabricado por el cerebro basado en los datos que nos proveen nuestros sentidos.

Muchos hoy día que aun no entiendan bien estos conceptos dirán que seria bastante penoso vivir de esa manera, pero hay que entender que ese mundo virtual podrá ser no solo tan real como el mundo que vivimos hoy día, sino que inclusive será muchísimo mas emocionante y estimulante, pudiendo uno hacer prácticamente cualquier cosa, desde volar como Superman hasta cantar como el mejor tenor o cantante de rock de hoy día. El mundo imaginado en la película The Matrix parecerá arcaico en ese entonces.

Debido a todo eso, no tendría sentido gastar recursos construyendo grandes mega-ciudades en la Tierra, cuando físicamente todo lo que necesitamos es una máquina de computación para nuestras mentes sintéticas. Simplemente tiene mucho mas sentido utilizar los átomos que dedicaríamos a esas mega-estructuras para utilizarlos mejor en mentes computacionales.

Esto tendrá muchas implicaciones:

1. No será necesario construir espacios para vivir o compartir en el mundo físico sobre la Tierra.

2. Podremos devolverle a la Tierra toda su naturaleza y diversidad, borrando señales de construcciones humanas sobre su superficie.

3. Esto significa también que si lo deseamos podemos aparentar ni siquiera existir sobre este planeta. Seríamos seres invisibles a simple vista.

4. Pero esto no significa que la arquitectura y los arquitectos desaparecerán. Todo lo contrario: Veremos un mundo en donde todo el mundo puede ser un arquitecto y diseñar y construir lo que desee en su espacio virtual con solo imaginarlo y pensarlo. Esto conllevará a una explosión de imaginación como nunca antes vista en la Tierra.

5. No creo una exageración decir que dentro de 100 años una sola persona podrá crear 1 millón de ciudades, cada una con millones de edificios, estructuras y esculturas, todo en el espacio de unos segundos o instantes de segundo. Si creen que esto es descabellado, solo noten que el poder de computación se duplica cada 18 meses (y la cantidad de meses se está volviendo más corta cada vez). Dentro de 100 años el poder de computación será quintillones de veces superior a lo actual, así como hoy día un iPhone es millones de veces más potente que todas las computadoras sobre la faz de la Tierra hace apenas unas décadas atrás.

6. Esto afectará profundamente otras matices de la sociedad. Por ejemplo, no tendremos necesidad de conducir automóviles, o siquiera que estos se conduzcan ellos mismos, ya que no se necesitarán automóviles, ya que será posible transportar nuestras mentes de un lugar a otro de manera prácticamente instantánea de forma similar a como podemos hoy día enviar por Internet una copia del software de un lado del mundo a otro.

7. Pero noten que esto no significa que dejaremos de hacer cosas que nos dan placer hoy día como manejar un auto a gran velocidad, ver un concierto de un artista que nos guste, disfrutar en familia, o visitar amigos. Todo eso se podrá, tanto de la manera "clásica" tal cual lo hacemos hoy día, así como de otras maneras muchísimo mas envolventes y penetrantes emocionalmente, ya que en ese futuro podremos todos compartir nuestros sentimientos directamente entre nuestras mentes...

Si les interesa este tipo de temas y desean expandirlo, no dejen de leer mi libro (disponible gratuitamente en formato PDF y en formato Web para los lectores de eliax) Máquinas en el Paraíso.

Y como siempre, pueden leer más de mis opiniones y análisis en la sección bajo ese nombre a la derecha de la página principal de eliax.


Nota Extendida...

NOTA: Esto a continuación es una copia de mi comentario #23 acá abajo del artículo:

Hola, a continuación respondo "en grupo" a muchos de los comentarios (bastante interesantes) que han hecho.

1. No confundan un gran poder con tenerlo todo. Es cierto que un ser de este hipotético (pero muy factible) futuro tendría el poder de un Dios mitológico comparado con toda la humanidad de hoy día, pero recuerden que así lo tendrán todos los otros seres, por lo que siempre habrá algo que no todo el mundo podrá tener.

Como dijo un lector, cosas como poder de procesamiento y capacidad de almacenamiento son recursos limitados. A eso me refería cuando escribí "Simplemente tiene mucho mas sentido utilizar los átomos que dedicaríamos a esas mega-estructuras para utilizarlos mejor en mentes computacionales."

En otras palabras, la materia/energía serían el nuevo recurso que directamente nos limitaría (y existen otros límites como la velocidad de la luz, la escala y tiempo Planck, pero esos son temas para otro artículo).

2. Tampoco confundan el uno poder hacer algo que le tomaría una vida en un segundo, con que después de eso nos aburriríamos o que no quedarían mas cosas que hacer.

El tiempo es relativo. Hoy una tarea nos toma un tiempo, pero es un tiempo relativo al ritmo de nuestra sociedad. Muchas personas no piensan en esto, pero hoy día con un celular nosotros hemos acortados a pocos segundos lo que hace apenas 200 años tomaba varios meses (una carta en ese entonces podía durar inclusive 1 año en llegar a su destino).

Así mismo, nos adaptaremos a estos tiempos mas rápidos, pero recuerden que ya que todos los otros seres humanos procesarán información igual de rápido, que todo permanecerá mas o menos igual que ahora, solo que ahora podremos dedicar mas tiempo a hacer cosas que nos gusten, en vez de dedicar gran parte del tiempo de nuestras vidas a subsistir como lo hace el 99.99% de la población mundial actualmente.

3. Son bastante acertados los comentarios que dicen que todo esto es muy bonito, pero solo si llegamos a ese tiempo. Ciertamente hay muchas cosas que pueden impedir que ese tiempo llegue, desde algún fanático que decida exterminarnos a todos (razón de acelerar la carrera espacial para tener humanos fuera del planeta como respaldo), o alguna catástrofe cataclísmica como un meteorito o explosión de alguna estrella cercana. Debido a eso escribí el artículo sobre el Protocolo X que pueden leer aquí.

4. Es una tristeza ver comentarios como el de Nicolas Aramboles quien dice que prefiere morir antes de que su mente sea parte de una entidad hecha de "hojalata".

Respeto su comentario y de verdad entiendo por qué lo dice, pero esto solo indica que la gente no entiende (y por tanto que no estoy haciendo un tan buen trabajo explicando) el significado de ser un ser "sintético".

Lamentablemente la gente tiene el estereotipo de un robot "de hojalata" como en las películas de Hollywood, sin sentimientos y puramente mecanizado, sin embargo desconoce o entiende que hablamos de seres que de desearlo pueden ser 100% irreconocibles de nosotros hoy día, pero que muy posiblemente deseen cambiar su apariencia de la misma manera que la gente hoy día elige diferentes atuendos de vestir.

Similarmente, estos humanos del futuro se seguirán llamando humanos ellos mismos, porque internamente se sentirán como humanos. Llorarán, sentirán pena, reirán, compartirán en familia y amigos, explorarán el cosmos, aprenderán unos de otros, y en manera creo yo muchísimas mas intensas que lo que un humano promedio puede sentir hoy día.

5. En otros comentarios les preocupa a algunos de que si somos partes de una super estructura computacional, que nos comvertiremos en un "Borg" como en Star Trek, perdiendo nuestra individualidad.

Esto también es una preocupación válida, pero no ocurrirá así.

Desde los primeros días de la computación tenemos miles de ejemplos de sistemas que comparten los mismos recursos y que sin embargos son entidades diferentes. Cualquier sistema operativo moderno como Windows, Linux o Mac OS X funciona de esta manera, aislando los procesos de cada aplicación y asignándole recursos a cada uno.

Sin embargo, no tiene que ser así. Ese será el caso solo en aquellos momentos en que decidamos conectar nuestras mentes en un entorno compartido no muy diferente a lo representado en la película The Matrix.

Fuera de ese entorno podemos nosotros mismos mover el software de nuestras mentes a cualquier entorno de hardware que queramos, inclusive si lo deseamos a cuerpos muy parecidos al de los humanos de hoy día.

6. Otra preocupación es nuestra "salud digitial". Pueden estar seguros que nos seguirán afligiendo males, solo que ahora en vez de ser de índole biológico será de índole de software. Los virus que hoy afectan nuestras PCs evolucionarán y empezarán a afectar los humanos del futuro, aunque para entonces es seguro que esto se penalizará fuertemente ya que atentará contra la vida misma de las personas.

7. Otros dicen que esto será solo para los mas pudientes. Inicialmente sí, pero ¿cuándo no ha sido eso el caso? El primer celular costaba varios miles de dólares, y hoy día hasta los vagabundos andan con uno. Inicialmente solo habían unas 100 personas en el mundo con automóviles, pero hoy cualquier familia de clase media puede comprar uno usado. Lo mismo sucedió con la TV, el Internet, las medicinas, y lo estamos inclusive empezando a ver con los viajes espaciales.

Una de las tendencias de la tecnología (independientemente de la tecnología a mano) es disminuir a un precio cero (o casi cero), y a hacerse disponible a todos.

8. En otros comentarios dicen que esto, si sucede, será en los próximos 5000 a 10000 años. El decir eso es no entender el significa de la palabra "exponencial". Como dije en el artículo, un solo iPhone hoy día es mas potente que todas las super computadoras del mundo combinadas de hace pocas décadas atrás. ¿Qué nos dice eso de lo que podemos esperar en unas décadas mas?

9. Obviamente hubieron algunos que captaron mal a lo que me refería con "invisibilidad". Aunque ciertamente existe tecnología que hoy día de manera experimental ya hace invisible a los objetos (como he publicado al menos unas 5 veces anteriores acá en eliax), a lo que me refería es a que podremos dejar que las plantas y los animales una vez mas puedan poblar el planeta, y nosotros dedicarnos a mantener el hardware que mantiene nuestro software fuera de vista, sea bajo tierra, bajo el mar, dentro de las mismas plantas, o incluso flotando en el aire como una red distribuida de esporas computacionales.

10. No se por qué algunos asumen (sin yo mencionarlo o aludir al caso) de que las relaciones sociales entre humanos finalizarán con estos humanos del futuro. Al contrario, como he repetido varias veces, serán muchísimas mas estrechas que hoy día.

11. Espero poder estar vivo para presenciar este cambio, y poder ver las personas que hoy día dicen que preferirán seguir siendo humanos, cuando vean a todos los demás literalmente viéndose jóvenes, fuertes, ágiles, saludables y viviendo para siempre. Creo que quien dice eso hoy día lo dice por (1) hipocresía o (2) porque no ha entendido bien esta transformación que se dará o (3) por algún tipo de fanatismo, o (4) por miedo a sus creencias actuales.

12. En otros comentarios dicen que en el futuro seguiremos igual que ahora, los ignorantes siendo ignorantes, los manipulados siendo manipulables, etc.

Esto es simplemente absurdo. Si vemos estadísticas de todo tipo, es obvio que mientras mas educado es una persona menos se deja manipular y de creer ciegamente en cosas. Así mismo también podemos ver que mientras mas inteligente es una especie (o inclusive, una persona en relación a la otra) mas propensa es a pensar diferente.

En un futuro en donde toda persona pueda tener un cociente intelectual mucho mayor que el de Albert Einstein, ¿de verdad creen que estas personas seguirán siendo engañadas y creyendo mitos y leyendas? Altamente improbable...

Además, las estadísticas clara e inequívocamente muestran que cada década es mas y mas alto el porcentaje de la población mundial que es educada, con tendencia ascendente, esto gracias a la masificación de la información, educación, y medios como este por donde difundo estas ideas.

autor: josé elías

"Los humanos somos increíbles. Manejar una máquina con completa precisión a miles de kilómetros de distancia."

por "Zequez" en may 5, 2011


en camino a la singularidad...

©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax