Ciencia
lunes, noviembre 22, 2010
|
![]() A diferencia de electricidad que se transmite eficazmente por un medio conductor, el sonido se transmite por prácticamente cualquier medio siempre y cuando existan átomos a los cuales "empujar" (pues el sonido no es más que átomos siendo empujados en el aire por otros átomos, formando estos unos patrones de ondas), lo que genera un problema a la hora de uno querer restringir que el sonido viaje en una sola dirección, ya que estas ondas de átomos sin duda que rebotarán con otros, y sufriremos del efecto "eco" en donde el sonido se refleja en todas partes. Sin embargo, un equipo de ingeniosos científicos de la Universidad de Nanjing en China han superado ese obstáculo combinando dos componentes distintos. El primer componente consiste de un material lìquido llenado de burbujas microscópicas, que tiene el efecto de que la frecuencia (es decir, el número de pulsos por segundo de la onda de sonido) que entre por un lado, surge del otro al doble de la frecuencia original. El segundo componente consiste en un emparedado de varias capas compuesto por capas alternantes de cristal y de agua, que está diseñado de tal manera que solo las frecuencias del doble del original son permitidas pasar (bloqueando las frecuencias originales). Al final de la vía de estos dos componentes se pone uno adicional similar al primero, pero a la inversa, que toma frecuencias y las reduce a la mitad de la original, por lo que cuando combinamos todo esto, obtenemos un dispositivo que permite que el sonido que entra por un lado emane por el otro, sin ningún tipo de eco o retroalimentación en la dirección contraria. Pero, ¿qué usos tiene esto? Para empezar, podemos imaginarnos habitaciones 100% herméticas hechas con paredes super-delgadas, lo que haría estudios de grabación algo mucho más seguro y hermético que antes. Así mismo esto sería ideal en ambientes en donde deseemos privacidad. Por ejemplo, con esto sería práctico crear espacios bastante pequeños, en donde incluso una persona a tu mismo lado no pueda oir absolutamente nada de lo que hablas. Otro uso sumamente práctico (y que mencionan en la fuente) es en escáneres y sonogramas. En un sonograma (esas imágenes que nos muestran por ejemplo a un bebé en el vientre materno), las imágenes son generadas con ondas de ultrasonido que cruzan el cuerpo, y cuyas interacciones con los órganos del cuerpo son captadas por sensores. El problema sin embargo es que existen tanto eco (o interferencia) que las imágenes no salen como en teoría deberían. Pero ahora, gracias a este adelanto, en un futuro próximo será posible filtrar por completo la fuente de interferencia acústica y crear imágenes del interior del cuerpo humano como nunca antes imaginado fuera posible. Fuente de la noticia autor: josé elías |
![]() |
![]() |
sábado, noviembre 20, 2010
|
Un equipo de científicos del Weill Medical College of Cornell University en la ciudad de New York han creado una nueva prótesis retinal que permitirá que ciegos vean en relativa alta resolución en comparación con sistemas actuales. A la fecha, los sistemas actuales (como este, o como del que les hablé en Máquinas en el Paraíso) lo que hacen es que estimulan grandes conglomerados de células de la retina de manera cruda, lo que permite tener una sensación de ver, pero lo que se ve son formas bastantes primitivas (destellos de luz, sombras y objetos de alto contraste entre claro y oscuro), y de muy baja resolución, pero gracias a nuevas investigaciones se ha demostrado que no solo es suficiente estimular estas células, sino que estimularlas de la manera correcta con un lenguaje o código propietario a esas células retinales. El adelanto entonces, es que estos científicos han descubierto ese código, y lo han implementado, obteniendo resultados asombrosos. Los experimentos los ejecutaron primero en ratas de laboratorio, en donde se les mostró una imagen original (la primera que ven en la secuencia de 3 imágenes que acompañan el artículo), y después se hicieron pruebas con el nuevo código y sin el nuevo código, y los resultados son la segunda y tercera imagen. Lo que ven en la segunda y tercera imagen, son patrones obtenidos directamente del cerebro de la rata (con técnicas similares a esta), que permite que los científicos vean de manera cruda lo que la rata ve, y como pueden observar en las imágenes, la diferencia es ampliamente clara: Con el nuevo método es posible discernir bastantes detalles de la cara del bebé, mientras que con las técnicas tradicionales apenas se distinguen las áreas oscuras y claras de la cara. Ya se han iniciado experimentos con primates, y los humanos son próximos... Esto, como he repetido varias veces acá en eliax, es lo esperado, pues la aceleración tecnológica nos indica que con el pasar del tiempo estos sistemas de visión artificial para humanos no solo se tornarán cada vez mejores, sino que llegará un día en donde tendrán el mismo poder que nuestro sistema visual innato, y después de ahí estos se mejorarán a un nivel tal que el ojo humano biológico estará en desventaja ante el poder de futuros ojos biónicos (como expresé en esta Reflexión). Fuente de la noticia autor: josé elías |
![]() |
![]() |
viernes, noviembre 19, 2010
|
A continuación los dejo con este breve video sobre algunas de las cosas que ocurren dentro de una célula humana.
Lo interesante del video en mi opinión no es solo ver en una renderización tridimensional muchos conceptos que quizás con una simple explicación textual sea difícil imaginarlos, sino más bien el hecho de que con este video se puede ver claramente un tema recurrente acá en eliax: El ser humano es, en todo el sentido de la palabra, una máquina. La única diferencia entre una laptop hoy día, y nosotros, es simplemente nuesto nivel de complejidad, y que nuestro organismo se basa en transformaciones moleculares en vez de manipulaciones de cargas eléctricas, pero si observamos detenidamente, nos damos cuenta que existe una correlación asombrosamente precisa entre una PC y un ser humano. Muchos conocen la analogía de que el equivalente a nuestro cerebro es el CPU de una máquina, sin embargo, una observación quizás más reveladora es que nuestro DNA (y su primo, RNA), son literalmente computadoras moleculares, que no solo almacenan información codificada en sus estructuras, sino que interpretan un programa de software almacenado molecularmente, Es ese programa de software molecular lo que hace que una simple célula se convierta en un ser humano adulto, pues estas computadoras literalmente empiezan a correr el programa codificado en el ADN, generando todo tipo de proteínas y otras moléculas que eventualmente se convierten en nosotros. Con eso en mente, no dejen de ver el siguiente video titulado "Powering the Cell: Mitochondria" ("Energizando la Célula: Mitocondria"). Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
miércoles, noviembre 17, 2010
|
Específicamente, lo que los científicos de CERN (los mismos que crearon la Web y el LHC) hicieron fue atrapar 38 átomos de anti-hidrógeno, lo que permitirá de ahora en adelante poder estudiar en un laboratorio y ambiente controlado las características de esta forma exótica de materia. Este experimento se realizó en el Aparato ALPHA de CERN, en donde los anti-átomos fueron retenidos por un récord de 170 milisegundos (se atraparon el 0.005% de los anti-átomos generados). A la fecha, lo único que se había podido lograr hacer era crear anti-materia (logro también del CERN en el 2002), pero no contenerla el suficiente tiempo como para estudiarla. Notemos que por cada tipo de materia en el Universo, existe algo opuesto y equivalente en anti-materia. Así que existen anti-neutrones, anti-protones, anti-electrones, y por supuesto, compuestos de estos, como en este caso, átomos de anti-hidrógeno. Algo curioso es que la materia y la antimateria no pueden coexistir, pues en el momento que una toca la otra, ocurre una tremenda explosión de energía, desintegrándose ambas partes. Ese concepto, asombrosamente, tiene implicaciones prácticas en el futuro, pues una manera de crear naves que nos permitan viajar a velocidades cercanas a la luz es precisamente con un motor de anti-materia, en donde para crear propulsión lo único que tenemos que hacer es combinar materia y antimateria de forma controlada en la parte posterior de la nave, para crear grandes explosiones de energía que impulsen a la nave (y nosotros poder lidiar con temas como este). Sin embargo, a corto plazo la razón de estos experimentos es entender mejor el inicio de nuestro Universo, pues sabemos que al inicio existían cantidades similares de materia y antimateria, pero hoy día casi el 100% del Universo es todo materia. Por eso se teoriza que en los primeros instantes del Universo quizás había entre cantidades inimaginables de partículas y antipartículas, unas cuantas más partículas de materia, lo que hizo que al final de violentas explosiones, sobrevivieran las partículas y materia con la que estamos familiarizados hoy día. Noten además que si inicialmente hubieran sido las anti-partículas las que hubieran ganado la guerra, que hoy día a esas anti-partículas hubiésemos llamado partículas, y vise-versa, y el Universo hubiera evolucionado tal cual lo ha hecho hasta ahora, ya que hasta donde se entiende ambas aparentan ser idénticas, salvo esta "anti" animosidad, y por eso la importancia de estos experimentos: ¿Qué tal si la anti-materia no es exactamente lo opuesto a la materia? De ser ese el caso, eso nos daría más pistas sobre el origen del Universo, y nos acercaría más a la creación de una posible "ecuación universal" (o conjunto de ecuaciones) que describan todo el Universo conocido... Fuente de la noticia Nota de Prensa oficial Actualización: He aquí la primera imagen jamás obtenida de antimateria, específicamente un "anti-átomo" de anti-hidrógeno (fuente). ![]() autor: josé elías |
![]() |
![]() |
lunes, noviembre 15, 2010
|
![]() Antes de continuar, noten que una computadora cuántica, a diferencia de una computadora digital (o "computadora clásica" como se le llaman en este contexto), no funciona bajo los parámetros tradicionales de ausencia o presencia de cargas eléctricas (representando un "0" o "1" binario respectivamente), sino que funcionan bajo las leyes de la mecánica cuántica. Bajo este esquema no se utilizan "bits" con posibles valores de "cero" o "uno", sino que unos denominados "qubits", que son la versión análoga en Mecánica Cuántica de los bits en la Física Clásica. Una particularidad de estos qubits es que no existen independientes unos de otros, sino que todos están en un estado llamado "entrelazado", lo que causa la curiosa (y sumamente útil) propiedad de que 1 qubit no almacena solo on cero o u uno, sino que ambos valores simultáneamente, y si se combinan varios qubits (digamos, 8 de ellos), estos no almacenan simplemente 1 de 256 posibles valores como en las computadoras clásicas, sino que todos los posibles valores simultáneamente. Más interesante aun, es que una computadora cuántica puede también hacer computación entre todos esos números, de manera instantánea y simultánea. Es decir (y como ejemplo), si a una computadora cuántica le pedimos el número de teléfono de una persona entre millones de personas almacenadas en una base de datos cuántica, el sistema devolvería inmediatamente el número, en vez de buscar entre todos ellos con una técnica llamada un árbol binario, lo que significa que computadoras cuánticas son (para ciertos problemas) infinitamente más rápidas que la más potente super-computadora clásica que podamos construir (y noten que empresas como Google ya están trabajando en esto). Ahora bien, toda esa explicación viene porque para que todo esto funcione, se necesita que todos esos qubits "colaboren" unos con otros, pero el problema es que incluso la más sencilla vibración ambiental, o interacción con partículas externas al sistema, arruina los qubits. Pero según los investigadores de este adelanto, pueden demostrar de forma teórica, que con ciertos algoritmos cuánticos de su invención es posible perder incluso el 25% de todos los componentes de una computadora cuántica, y aun así mantener la máquina funcionando perfectamente. Esto se debe a que a diferencia de máquinas clásicas, cada qubit al estar entrelazado con otros, contiene información sobre ellos, y por tanto es posible recuperar esa información aun si varios de ellos faltan. Esto es un poco similar a las técnicas de CRC, Checksums, RAID y diversas otras formas de mantener información válida aun cuando algunos bits de información en computadoras clásicas fallan, pero en este caso hablamos de poder restaurar hasta el 25% del estado de la máquina, sin invertir en añadir más qubits al sistema. Es decir, el sistema es auto-verificable en su estado natural. ¿Qué significa esto? Que esto ahora nos ha acercado muchísimo más a computadoras cuánticas prácticas, lo que es una muy buena noticia dado que nos acercamos a los límites de los procesos actuales. Fuente de la noticia autor: josé elías |
![]() |
![]() |
sábado, noviembre 13, 2010
|
Hola a todos, acá estoy de regreso después de mi día de vacaciones fuera de eliax, y antes de continuar debo dar las gracias por las bellas y sinceras palabras que me dejaron ayer (y continúan dejando hoy). Dicen por ahí que hasta lograron sacarme un par de lagrimitas mientras leía los comentarios... :)
Pero regresando a la rutina, he aquí una serie de noticias de estos días que no quiero dejar pasar por alto y que deseo queden registradas en eliax para su posterior consulta. 1. Asombrosas fotos del cometa Hartley 2 ![]() Como notarán, un cometa es muy diferente a lo que quizás muchos se imaginan, pues no es "una bola de fuego con una estella detrás", sino que simplemente una roca más que expulsa hielo y otros compuestos mientras más se acerca al Sol (en otras palabras, cuando estos cuerpos se alejan de nuestro Sistema Solar, se tornan virtualmente invisibles, sin su conocida "cola"). fuente con más imágenes 2. Rumor: Facebook a competir contra GMail Como les reporté ayer vía Twitter, existe un fuerte rumor en todo el Internet de que el próximo Lunes 15 Facebook revelará su "Proyecto Titán" que no es nada más que un sistema de emails basado en Facebook y para competir contra GMail. La idea es que tengas tu propia dirección de email dentro de @facebook.com así como la tienes en @gmail. Eso es algo que llevo al penas un par de años preguntándome por qué Facebook no lo había hecho antes, y de confirmarse el rumor (apostaría a que sí, pues tiene mucho sentido), escribiré un análisis al respecto. 3. Fuerza Aerea de EEUU sin pilotos La Fuerza Aerea de los EEUU ya está preparando especificaciones preliminares para lo que será el sucesor de su sigiloso avión caza el F-22 Raptor, y por primera vez han puesto un requerimiento bastante interesante para esta 6ta generación de aviones caza: Estos aviones deberán porder volarse solos, sin humanos, y/o remotamente piloteados. Los aviones también deberán poder ser piloteados, pero este requerimiento claramente apunta al futuro bélico en todo el mundo: Robots o Robots remotamente operados con tecnología de telepresencia. fuente 4. Google TV bloqueado en EEUU Como muchos ya sabrán, Google TV recientemente en los EEUU, pero se ha encontrado con una fuerte oposición por las grandes cadenas de televisión de esa nación. Brevemente, Google TV no es un televisor, sino que una caja similar a las ubicuas cajas de cable que muchos poseen, pero que permite no solo controlar tu caja de cable y canales de TV, sino que además acceder contenido de los principales re-distribuidores de video por Internet (Hulu, Netflix, YouTube, etc). El problema sin embargo, es que ahora las 4 grandes cadenas de TV de los EEUU (ABC, CBS, NBC, Fox) se han aliado y bloqueado acceso a sus canales por cualquier usuario de Google TV. ¿La razón? Quieren negociar con Google, pues hoy día la gallina de los huevos de oro de estas cadenas son los televisores y teleaudiencia tradicional, y si esta se disminuye (debido a que las personas prefieran ver TV por Internet en sus horarios preferidos) sus ganancias por anuncios se verían fuertemente afectadas. Nadie sabe con certeza que ocurre tras bastidores, pero pueden estar seguros que algún tipo de pago estarán demandando de por parte de Google para difundir su contenido por esa vía. Esto también amerita un análisis futuro de mi parte, aunque mientras tanto pueden entender la causa de esta batalla al leer mi editorial del 2007 titulado "El Futuro de la TV". 5. Samsung y Utra-HD TV de 70" Muchos ni siquiera han adquirido su primer televisor de HD (Alta Definición), y el avance tecnológico ya está tocando sus puertas con Ultra-HD (UHD), con 4 veces la resolución de HDTV... Samsung por ejemplo recientemente demostró un prototipo de 70" y con resolución de 3,840 x 2,160 pixeles (aunque noten esta noticia del 2005, esto no es nuevo). fuente ![]() Hoy día Wikipedia es sin duda alguna uno de los principales recursos de utilidad en la búsqueda y compartimiento de información en todo el Internet (y para los pocos que no sepan lo que es, es una enciclopedia creada por personas que donan su tiempo para escribir y corregir artículos de los demás, siendo actualmente la 5ta página más visitada del mundo, y llena de millones de artículos en prácticamente todos los idiomas del mundo), y en esta época todos los años, piden donaciones para seguir con el proyecto. Los aliento a que contribuyan en este enlace oficial (pueden utilizar una cuenta de PayPal o tarjeta de crédito), pues si como yo utilizan ese invaluable recurso, creo justo que contribuyamos a su mantenimiento. Noten que pueden donar las cantidades sugeridas en la página, o escribir un monto según tu conveniencia y posibilidades (hasta US$5 dólares serán de gran ayuda). autor: josé elías |
![]() |
![]() |
miércoles, noviembre 10, 2010
|
![]() Se trata de un par de burbujas que se disparan en direcciones opuesta al disco que forma nuestra galaxia, la Vía Láctea, y que emanan desde el mismo centro de la galaxia. La estructura es tan colosal, que mide unos 50,000 años luz de extremo a extremo (es decir, que nos tardaría 50,000 años viajando a 300,000 kilómetros por segundo para atravesarla de lado a lado). La energía de cada burbuja fluctúa entre los 1,000 millones y 10,000 millones de voltios, y son la fuente de radiación gama más potentes de nuestra galaxia. Estas estructuras fueron descubiertas gracias al Fermi Large Area Telescope recientemente lanzado al espacio en el 2008, que es actualmente el instrumento más sensible a rayos gama del mundo. ¡Gracias al lector Leo Rodriguez por el enlace! Fuente de la noticia autor: josé elías |
![]() |
![]() |
martes, noviembre 9, 2010
|
![]() Para lograr esto, los científicos que manejan esta colosal máquina de 27km de circunferencia, colisionaron iones de plomo a velocidades cercanas a la de la luz, generante unos niveles de energía tan extremos, que el interior del LHC en un momento tuvo una temperatura de 1 millón de veces más caliente que el interior de nuestro Sol. Bajo esas presiones extremas, los componentes de estas partículas se desintegran en sus partes constituyentes, creando un "sopa primordial" o "plasma" de partículas sub-atómicas que ahora están siendo estudiadas y que son de una parte fundamental para nosotros poder nuestro Universo, las leyes que lo rigen, e incluso el concepto que tenemos de "realidad". Este plasma, para que tengan idea, es lo que se teoriza existió en las primeras millonésimas de segundo del desarrollo del Universo como lo conocemos. Estos experimentos (que se ha tomado dos décadas en llevarlos a cabo desde su conceptualización hasta los frutos de hoy) continuarán durante las próximas semanas, y no duden que estamos viviendo unos tiempos históricos sin precedentes, en donde la ciencia nos está aportando una lupa para explorar cosas que antes parecían fuera de nuestro alcance intelectual, y para los cuales no existían explicaciones salvo fábulas y creencias supersticiosas milenarias. Hoy es un gran día para sentarnos por unos breves instantes, y admirar lo lejos que hemos llegado como especie en la comprensión de nuestro entorno... ¡Gracias a todos los que desde ayer han estado enviando esta noticia por todos los medios a eliax! Fuente de la noticia Actualización: Para los que tienen temores sobre este tipo de experimentos, escribí este comentario adicional en la sección de comentarios en eliax acá abajo... autor: josé elías |
![]() |
![]() |
viernes, noviembre 5, 2010
|
![]() La investigaciones del Dr Moran Cerf se centran en una observación de años recientes: Aparenta que en ciertos casos neuronas individuales en nuestros cerebros son responsables de almacenar unidades específicas de conocimientos, así que por ejemplo, literalmente es posible que contengamos una neurona en específico en el cerebro que nos haga pensar de un avión, o de alguna celebridad, o de una película. Según el Dr Cerf, si podemos detectar cuando estas neuronas están siendo estimuladas, entonces podremos saber cuando las personas están pensando en determinados objetos, personas o situaciones, grabar esos datos en una computadora, y posteriormente (o en tiempo real) poder deducir en los que una persona está soñando. Pero más asombroso aun, es que el Dr. Cerf ha demostrado su teoría con experimentos en personas con resultados positivos, y sus resultados han sido publicados en la prestigiosa publicación científica Nature. Por ahora sin embargo existen muchas limitaciones, la más grande de todas siendo que esta actividad neuronal a este nivel requiere de implantes profundos en el cerebro. Por el momento el Dr. Cerf ha realizado sus experimentos con personas que ya tenían implantado estos sensores como parte de sistemas diseñados para pacientes con convulsiones cerebrales, pero alega el Dr. Cerf que conforme mejore la tecnología y nuestros escáneres cerebrales, llegará el día en donde podremos detectar estos cambios neuronales de manera no invasora con instrumentos externos (relacionado). Así que por el momento no tenemos que preocuparnos de escenarios como los presentados en Inception (lean sobre la ciencia de la película), pero de que nos acercamos a este futuro paulatinamente, que no les quepa la menor duda... Artículo científico en Nature Fuente de la noticia autor: josé elías |
![]() |
![]() |
jueves, noviembre 4, 2010
|
![]() Este avance se debe al uso de un nuevo tipo de material plástico (técnicamente, un polímero) que con ayuda de unos lásers puede cambiar su contenido visual cada 2 segundos (es decir, medio cuadro por segundo, o 0.5fps), logrando una forma cruda de animación. Para que tengan una idea, el mismo grupo de investigación en su intento anterior en el 2008 (y como reportado acá en eliax) solo podían hacer "animaciones" una vez cada 4 minutos, por lo que este avance significa un aceleramiento de unas 100 veces más velocidad. Mejor aun, el equipo que logró este hazaña dice que no ven límites teóricos para que el trabajo que están realizando no produzca en un futuro imágenes a velocidades comparables con lo que vemos en el cine (25 cuadros por segundo). Con esta tecnología, no solo será posible enviar imágenes renderizadas en un computador remotamente, sino que imágenes en vivo. El sistema utiliza un conjunto de 16 cámaras situadas alrededor de la escena que se quiere "holografiar", y después un algoritmo toma esas imágenes y las combina para deducir el volumen tridimensional de lo que se encuentra ante las cámaras, y después mediante un proceso que involucra rayos láser, reconstruyen la imagen de forma holográfica. Lo bueno de este sistema es que permite no solo la reproducción holográfica de video, sino que en vivo y a distancias remotas, por lo que es concebible que en un futuro podamos hacer no solo video-conferencia similar a lo que vemos en las películas de ciencia ficción (en donde vemos a alguien literalmente "flotando" frente a nosotros), sino que incluso experimentar películas de una nueva forma. Otra ventaja de este nuevo sistema es que el material utilizado escala a grandes tamaños y a un cost razonable, por lo que en un futuro no lejanos podríamos tener todos una pared en nuestros hogares que serviría como una ventana al mundo externo, para ver conciertos, espectáculos deportivos, obras de teatro, películas y un sinnúmero de otros formatos de manera que aparentará que estamos allá presentes. Algo que quiero también explicar es que no confundan la holografía con imágenes "3D" que ven en el cine o en la más reciente ola de televisores. Esas tecnologías del cine 3D (con o sin gafas) no son más que imágenes "estereoscópicas", en donde por más convincentes que aparenten no son más que dos imágenes planas en 2D que engañan al cerebro para que este genere una aproximación tridimensional en el cerebro, pero la realidad es que sufren de no ser "volumétricas". Es decir, esas imágenes "3D" ya vienen pre-enfocadas, y tus ojos no pueden enfocarse en cualquier punto, salvo el punto en que el director de la película enfocó la cámara. Pero en un holograma, literalmente estás viendo una imagen volumétrica en 3D, en donde puedes enfocar en cualquier punto, e incluso caminar alrededor del holograma para ver qué hay en otros lados. Este modelo en particular por ejemplo, proyecta la imagen de ambos lados del plástico, lo que significa que si estás viendo un auto, los que estén de un lado del plástico verán el frente, mientras que los que estén detrás verán la parte de atrás del auto. Así que ya saben, ya casi pueden agregar esto a la larga lista de inventos que antes parecían Ciencia Ficción, y que ahora son Realidad Científica... ¡Gracias a todos los que enviaron esta noticia por distintos medios! Fuente de la noticia Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
martes, noviembre 2, 2010
|
![]() Científicos del Laboratory of Molecular Biology en Cambridge, Reino Unido, han descubierto que es posible que nuestros organismos se defiendan de viruses dentro de nuestras células, y no solo fuera de estas. Una breve explicación: A la fecha, la idea reinante (y lo que se le enseña a todo estudiante de biología y medicina del mundo) es que en el momento que un virus invade y entra a una célula, esa célula es un caso perdido, ya que el conocimiento actual es que los virus solo puede ser contrarrestados fuera de células. Sin embargo, este grupo de científicos no solo ha demostrado que es posible pelear a estos virus dentro de las células, sino que además (y me huele un Premio Nobel de Medicina en camino) demostraron un mecanismo con el cual pueden hacer que esa pelea ocurra. El truco es utilizar al mismo virus para pegarle a este unos anticuerpos, que a simple vista con benignos para el virus y por tanto los acepta. Estos virus ahora, con esta aparentemente-inocente carga, entran a las células. Pero, en el momento que entran a la célula, una proteína que poseemos llamada TRIM21 detecta la combinación del virus con el anticuerpo como un intruso, lo que hace que el mecanismo de defensa intracelular se active y destruya al virus, dejando la célula sana. Esto, es algo revolucionario (y altamente simple e ingenioso), pues pone a los virus en "jaque-mate", ya que estos para hacer sus daños deben entrar a las células, pero ahora al entrar a las células activan el mismísimo sistema que les dará muerte. Un ejemplo que se ofrece es la influenza, o resfriado común o gripe/gripa. Con este mecanismo se teoriza que en apenas un par de horas podríamos curarnos por completo de esta molestia. Sin embargo, no puedo esperar a que esto se aplique a otros casos como el Cáncer... Según los investigadores, ya han iniciado pruebas con tejido humano en laboratorio, siguiendo después pruebas en animales vivos, y posteriormente en humanos, y si todo sigue bien como se espera, es posible que en un par de años tengamos en el mercado los primeros medicamentos que tomen ventaja de este nuevo desarrollo. Debo admitir que esta noticia me ha ocasionado una sonrisa de oreja a oreja, y me ha hecho pensar en esto... :) Fuente de la noticia Una secuencia que explica la técnica visualmente autor: josé elías |
![]() |
![]() |
lunes, noviembre 1, 2010
|
![]() La idea de Steeper, siendo trabajada en el Ecole Polytechnique Federale de Lausanne, es por fin prestar atención a un problema inherente en el diseño de circuitos que data de décadas atrás: El alto consumo que estos exhiben cuando cambian de un estado a otro, o incluso cuando están en modo de "espera" (stand-by" supuestamente consumiendo nada de energía. Sucede que todos los dispositivos electrónicos del mundo, sin excepción, sufren de este problema, un problema que es de muy bajo nivel (a nivel de transistores, para que tengan una idea), y que necesita de una solución diferente a como hemos estado fabricando estos dispositivos por décadas. Y ahora, gracias a los últimos avances en nanotecnología y modernas técnicas de fabricación, es posible que podamos enfrentar el problema efectivamente. Si se preguntan por qué no prestamos atención a este tema anteriormente, la respuesta es que hemos tenido otras prioridades, en particular la prioridad del rendimiento (velocidad bruta) de nuestros dispositivos. Pero ahora que estamos en un descanso temporal en la carrera de poder crudo, y estamos todos interesados en que ese nuevo celular, netbook o tablet que compramos nos dure semanas en vez de días u horas, este tema se ha tornado importante. Noten que esto no significa que no hemos puesto esfuerzo en desarrollar sistemas de bajo consumo energético (pues precisamente ese es el principal objetivo de la arquitectura ARM dentro de la mayoría de celulares inteligentes hoy día), sino que no hemos atacado los problemas más difíciles pendientes, como este. Otra razón de desarrollar esta tecnología, es que en nuestros hogares existen cada vez más y más dispositivos electrónicos conectados a toma-corrientes, muchos de ellos supuestamente en estado "dormido", pero aun así consumiendo energía. Se estima que el 10% de la energía consumida en el mundo proviene de esos dispositivos que supuestamente no están consumiendo nada (o un monto negligible), por lo que esa también es una preocupación. Yo personalmente estaría bastante feliz si tan solo no tuviera que recargar mi celular por tan solo un par de semanas... :) Fuente de la noticia autor: josé elías |
![]() |
![]() |
miércoles, octubre 27, 2010
|
He aquí unas cuantas noticias breves de esta semana que no quiero dejar pasar...
![]() La próxima película de la trilogía de Batman del visionario director Christopher Nolan (creador también de Memento e Inception) se llamará "The Dark Knight Rises" ("Batman Resurge"). Nolan aclaró que la película no será rodada en 3D, y que saldrá en cines en el verano del 2012. fuente 2. Sobre secuelas de AVATAR James Cameron, el también visionario escritor y director de películas como Terminator, Terminator 2, Titanic y AVATAR ha a anunciado que las dos secuelas de AVATAR saldrán en Diciembre del 2014 y 2015 en cines. AVATAR a la fecha ha recaudado US$2,800 Millones de dólares. fuente (nota: Ya les había informado de las secuelas en Enero de este año, y recomiendo leer ese artículo pues contiene especulaciones sobre lo que veremos en las secuelas). ![]() Durante la Segunda Guerra Mundial, los aliados tenían un grave problema en que los tanques de guerra alemanes eran más poderosos que los de los aliados, por lo que era imperativo saber cuántos tanques estaba el ejercito alemán de Hitler fabricando para poder contrarrestarlos efectivamente. Para hacer el cuento corto, los aliados notaron que los tanques alemanes estaban todos estampados con un número en serie, y con el uso de una fórmula matemática pudieron deducir con exactitud de apenas 1 tanque de diferencia cuantos tanques los alemanes fabricaban mensualmente, lo que ayudó a ganar la guerra contra Hitler. Esto me recordó el trabajo de los científicos estadounidenses y británicos que decodificaron la máquina "Enigma" de cifrar mensajes de los alemanes, que según muchos fue el factor decisivo para ganar la guerra. fuente (esto me recuerda esta otra noticia de años más recientes) 4. Ventas del iPad para el 2012 Según iSuppli, dado la fenomenal demanda del iPad (Apple no puede fabricar suficientes actualmente para satisfacer la demanda) espera que para el 2012 se hayan vendido 120 millones de iPads en todo el mundo. fuente ¿Un robot que te lava la cabeza? Créanlo, gracias a Panasonic, y con 16 dedos robóticos simultáneos para hacerte un trabajo tan bueno como en cualquier salón... fuente autor: josé elías |
![]() |
![]() |
lunes, octubre 25, 2010
|
![]() Es decir, manos humanos nunca tocaron al paciente en ningún momento durante todo el proceso de operación, de inicio a fin (anteriormente un robot ejecutó una operación cardíaca autónomamente, pero humanos intervinieron con anestesia y otros procedimientos). La operación fue efectuada por medio del robot DaVinci (del cual les he hablado varias veces previas en eliax, consultar los enlaces al final de este artículo), con el cual se hizo la cirugía (que consistió en remover la próstata de un paciente). El anestesiólogo fue un robot aptamente llamado "McSleepy" ("El Señor Sueño"). ![]() Según los cirujanos, este tipo de herramientas le provee a cualquier cirujano un nivel de precisión imposible de conseguir por cualquier humano, aunque notan (creo que equivocadamente) que estos no reemplazarán eventualmente los humanos, sino que simplemente los complementarán. Fuente de la noticia autor: josé elías |
![]() |
![]() |
domingo, octubre 24, 2010
|
![]() ![]() Aparte de poder leerlo en este nuevo formato aquí, también lo podrán leer en la página oficial del libro acá en eliax (en donde podrán obtener información adicional sobre el libro). También recomiendo leer esta entrada anterior en eliax que les explica en un poco más de detalle el contenido de de este. Por ahora les digo que si les intrigan temas como La Singularidad Tecnológica, la robótica, Inteligencia Artificial, la nano-tecnología, la mecánica cuántica, la Teoría de la Relatividad, el futuro del Universo, y los últimos grandes avances científicos, que este libro lo disfrutarán, en particular ya que está deliberadamente escrito para que cualquier persona entienda estos temas de avanzada. ¡Espero que lo disfruten! Nota: Esta tecnología también funciona con dispositivos que no tengan Flash y que soporten HTML5 (como el iPad). En ese caso, visiten este enlace. autor: josé elías |
![]() |
![]() |
viernes, octubre 22, 2010
|
![]() Estos manuscritos son fuente de grandes polémicas y controversias en todo el mundo, y son varias las religiones que alegan que estos les pertenecen (desde el Cristianismo hasta el Islám). Los manuscritos son divididos generalmente en tres grupos: 1. Bíblicos Estos son el 40% de los manuscritos encontrados, y contienen textos relacionados o posteriormente adoptados, por textos bíblicos, en particular por la Biblia Hebrea. 2. Apócrifos Estos son documentos del llamado "Segundo Período del Templo" y que eventualmente fueron canonizados en la Biblia Hebrea, y que representan un 30% de los manuscritos. 3. Sectarios Estos otros 30% de los documentos son documentos variados que explican varias de las creencias de la época, así como códigos, reglas del Judaísmo generalizado de esos días. Y la noticia de hoy es que estos importantísimos documentos, que a la fecha solo tienen acceso personal autorizado de instituciones acreditadas para manejarlos, serán ahora escaneados por Google, con sus respectivas traducciones a varios idiomas, y hechos disponibles para el consumo universal de todos por Internet. Google utilizará los más recientes avances en escaneo de imágenes, lo que de paso se espera revele algunos otros secretos de estos documentos que no pueden verse a simple vista. Es un proyecto que le tomará a Google unos 5 años en realizar (lo que les debe dar una idea de lo complejo y delicado del proceso), pero las primeras imágenes empezarán a aparecer en Internet en los próximos meses. Es importante notar, que estos documentos son algunas de las evidencias más concretas, irrefutables y contundentes que tenemos de que todos los textos bíblicos actuales de las principales religiones predominantes de hoy día no fueron dictadas por un ser divino, sino que sus autores fueron simples hombres, quienes escribieron (y re-escribieron, corrigieron, alteraron) estos libros incluso bajo fuertes discusiones sobre cuáles evangelios permitir en las bíblias y cuales no. No confundan ese tema de las Bíblias, o incluso las Religiones, con el tema de un Dios, son cosas totalmente diferentes, y mi punto es que es importante saber (y son estos documentos la evidencia) que no existen textos "sagrados" hoy día, escritos por alguna inspiración divina, y por eso siempre he abogado a un poco de prudencia a la hora de seguir ciegamente y al pie de la letra las escrituras de personas con los mismos fallos y errores de juicio que poseemos nosotros hoy día... Nota: Como generalmente hago cuando escribo en temas relacionados a la religión, los refiero a este artículo previo en eliax. Fuente de la noticia Los Manuscritos del Mar Muerto en Wikipedia en español Los Manuscritos del Mar Muerto en Wikipedia en Inglés (con muchísima más información adicional y relevante que la versión en español) autor: josé elías |
![]() |
![]() |
"Este articulo es signo de ser publicado en todos los medios sociales,ya que ese negocio ha invadido este pais,y las personas andan hasta haciendo prestamos en el banco,venden sus pertenecia y demas,para invertirlo hay.Gracias Jose por tan necesaria explicasion!"
en camino a la singularidad...
©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax