texto:   A-   A+
eliax

Almacenan un Qubit en un átomo. Internet en la mano próximamente
eliax id: 5726 josé elías en oct 28, 2008 a las 09:08 PM (21:08 horas)
Esta noticia de hoy es posible que tenga repercusiones casi de ciencia ficción en nuestras vidas en un futuro no lejano.

Según la Fundación Nacional de Ciencias (NSF) de los EEUU, un equipo de científicos ha conseguido almacenar por primera vez un Qubit (el equivalente a un "bit" del "mundo clásico", pero en el "mundo cuántico") en el interior del núcleo de un átomo de fósforo, y pudieron hacer que la información permaneciera intacta durante 1.75 segundos.

Esto es importantísimo por dos razones.

Primero, según investigaciones pasadas, se puede probar que cualquier técnica que pudiera almacenar información dentro de un átomo por mas de 1 segundo, se puede expandir a almacenar información de manera indefinida por medio de técnicas de corrección de errores.

Es decir, técnicas que constantemente lean y escriban la información, y que contemplen errores en este mecanismo (esto a propósito, es algo que hacemos hoy día a todos los niveles de computación).

En otras palabras, ya sería posible al menos de manera teórica poder almacenar información en el núcleo de átomos de manera indefinida.

Segundo, y mas asombroso, es que esto aumentaría la densidad de datos que uno pueda almacenar a niveles verdaderamente inimaginables.

Mini-Análisis: Para que tengan una idea, en tan solo un gramo de oro (y según este cálculo) existen 3,057,473,598,700,243,704,305 átomos, y si asumimos que podremos almacenar tan solo 1 bit por átomo, y aplicamos este otro cálculo, eso significaría que los átomos de 1 gramo de oro pueden almacenar 339,448 PetaBytes (PB) de información.

Esto significa que un dispositivo de 0.5kg (1.1 libras) podría almacenar 169,723,880 PB, o 165,745 ExaBytes (EB) de información. O en términos mas entendibles, el equivalente a 19,800,000,000,000 DVDs de doble capa de 9GB cada uno.

Puesto en otras palabras, mucho mas información que toda la información jamás generada por la humanidad y disponible en Internet, en la palma de la mano de un bebé.

Sin embargo, eso no es nada. Estamos hablando de Qubits cuánticos, a diferencia de bits clásicos, los cuales tienen la particularidad de que crecen de manera exponencial según uno los liga unos con otros, por lo que la capacidad real de este medio Kiligramo de materia es tan alta, que simplemente la mente humana no se lo puede imaginar.

Lo mas increíble de todo esto sin embargo es el hecho de que todo ese poder de almacenamiento estará disponible en un futuro a cualquiera, a un costo prácticamente cero.

Anuncio oficial de este desarrollo

Fuente de la noticia



autor: josé elías

Comentarios

  • u.u Demasiado Pro

  • Asi de lento podria ser tambien el tiempo de acceso a estos atomos. Solo hay que imaginar como se indexaria una base de datos de 339,448 PetaBytes. Ohhhhh...

    • Da la casualidad que ya se han sentado las bases para "Bases de Datos Cuánticas" que toman ventaja de las propiedades de los Qubits para uno poder buscar información de manera instantánea, independientemente del tamaño de los datos.

      En otras palabras, acorde creamos nuevas tecnologías, otras se crean para tomar ventajas de ellas.

  • A mi esto me parece increible pero lo que creo que aun no estamos mentalizados y es mas importante es: el poder de procesado que van a tener las computadoras cuanticas, esto será el umbral, el punto de inflexion por el cual habra avances increibles a una velocidad inimaginable, motores mas rapidos, materiales virtualmente indestructible, creo que seria el comienzo de lo mas importante y es colonizar otros planetas para garantizar el futuro de la raza humana, como se diria en informatica alta disponibilidad, jeje

    y hombre claro, toda la informacion a procesar es importante que se guarde en interminables bases de datos cuanticas :P para perder un mp3 con 3 PB de musica o peliculas jejej

    por cierto, os imaginais el canon que tendrá? alguna de la SGAE o RIIA se frotaran las manos

    saludos

    • jajaja, buena aportación lo del canon de la SGAE Pablo Javier...
      Por cierto, hasta cuándo la tecnología de almacenamiento va a tener que soportar ese lastre???

  • pablo javier, el hecho de que exista una cantidad ingente de almacenamiento no conlleva de ningun modo un avance tecnologico mas alla del mismo almacenamiento. y aun mas el mayor poder de procesamiento como tal tampoco lo garantiza. va mucho mas de la mano de la programacion que se hace sobre esa plataforma de procesamiento y almacenaje.

    en lo que si tienes razon, es que segun aumenta el nivel tecnologico en diferentes areas, se descubren un mayor numero de avances, pues estos se acaban interrelacionando.

    lo que apuntaban acerca de los problemas con dispositivos de cada vez mayor capacidad, si es cierto, por lo menos a dia de hoy.
    de nada me sirve que exista una nueva tecnologia experimental mas avanzada pero restringida a 4 gatos, si pretendo formatear mi disco duro de 2 terabytes.

    alguien ha contado el tiempo necesario en NTFS?
    lo mejor es hacerlo durante la noche y acostarte!!

    ni me quiero imaginar un solo petabyte.... quizas lo mejor seria irse de vacaciones dejando el ordenador formateandose.

    si se pretende sacar discos duros de esas magnitudes haran falta nuevos conceptos de borrado y reutilizacion, los actuales no sirven.

    • a ver, yo creo que en parte si que estoy en lo cierto, al aumentar el poder de procesado y de almacenamiento, se expande exponencialmente la tecnia de ensayo error, se tarda menos en calcular operaciones con formulas, por ejemplo, si no para que sirve el proyecto ese que esta inscrito eliax para aunar una parte de procesado de nuestras computadoras para ayudar a curar el cancer y otras calculos? o el proyecto de microsoft para calculos de cloud computing

      Creo recordar que hicieron un calculo de cuanto tardarian en procesador los calculos con una granja de servidores grande comparandolo con clud computing con millones de usuarios(ps3, pc) y era una bestialidad, entonces si que creo que es importante.

      Bueno, es mi opinion, y ademas toda esa cantidad de informacion se requiere un gran poder de almacenamiento

      saludos

  • Coincido con pablo Javier de que este avance, cuando se sostenga industrialmente, sera el punto de inflexion que la humanidad espera para comenzar a dar aquellos pasos de gigante que solo se mencionan en novelas y peliculas de ciencia ficcion, y me atrevo a ir mas alla:
    Esta tecnologia, con su debido procesamiento cuantico, lograra que ya no mas necesitemos pensar, sino que los ordenadores y computadores de cualquier persona sera mas inteligente que la propia persona, inteligencia no humana, sino inteligencia artificial destinada al bien estar humano, y si es asi, yo no soportaria que mi maquina pudiese resolver problemas que yo no pudiese resolver, con lo cual entrariamos en la era de la fusion hombre-maquina que hara de nuestros cerebros maquinas de procesamiento tan potentes que, sin ofender a personas religiosas, nos pondria al nivel de "los propios Dioses..."

  • no se si lo he entendido bien...se supone k aguantando la informacion mas de un segundo.. se corrigiria su permanencia leyendo y escribiendo a cada rato?.. y la cantidad de energia necesaria para eso? , si se korta la fuente de energia por un tiempo nos kedamos sin datos?. y vale entonces.. el tamaño el atomo es el tamaño del atomo... pero el aparato que realiza la escritura?... no lo termino de ver....

    • Wachino,

      El 99% de las memorias de PC hoy día (y todo tipo de memoria DRAM) funciona de esta manera. Es decir, hay que "refrescar" la memoria constantemente con cargas eléctricas para que la memoria no se borre. Esta es además la razón por la cual cuando apagas tu PC los datos de su memoria se pierde.

      En otras palabras, esto no es algo que crea un gran problema de ingeniería, sino que es algo que sucede comúnmente en el ámbito actual con las tecnologías tradicionales.

      • imagino que hablas de la memoria ram, que si funciona como dices borrandose cuando no recibe energia de una fuente electrica. pero los discos duros no pierden la informacion al apagar el pc, porque entonces como decia wachino, se perderian todos los datos.

        los discos duros tradicionales funcionan generando hendiduras microscopicas que simulan 0 y 1 y la sucesion de estos conforman la informacion.
        cuando lo formateas lo que haces es barrer toda la cara de cada disco para poder volver a crear nuevas hendiduras.

        por otra parte es por lo que memorias relativamente recientes como la "robson" hacen que arrancar windows sea mucho mas rapido, porque almacena buena parte del arranque, en lugar de tener que cargarlo todo como se hacia anteriormente.

        • cuanta caballa hablas sin saber.
          cuando formateas lo que haces es sobrescribir con 0 y 1 la informacion anteriormente contenida.
          Es como sustituir 700 mb de archivos por 1 solo archivo inflado (dummy)

          Es por eso q no es dificil recuperar informacion de los discos.

  • Científicos Japoneses de la Universidad de Osaka acaban de desarrollar una tecnología que permite utilizar una herramienta a la que podemos llamar un nano-lápiz, para escribir tan pequeño, que el nano-lápiz escribe con un átomo a la vez.

    Este desarroll

  • osea que el disco de un terabyet es un chiste para lo que biene
    supongamos que en mi boligrafo que pesa mas omnos 0.2kilogramos podre llevar la inf de todo megaupload y rapidshare juntos y me sobraria espacio

Añadir Comentario

tu nombre
tu email
(opcional)
web personal
(opcional)
en respuesta a...
comentario de caracteres máximo
9 + 5 = requerido (control anti-SPAM)
 

"Se puede recibir una señal a 400 millones de km de distancia y yo sin obtener wifi de la habitación de al lado."

por "Adrián" en ago 7, 2014


en camino a la singularidad...

©2005-2014 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax