Hardware
jueves, diciembre 30, 2010
|
Ahora los dejo con estas breves de noticias recientes que no quiero dejar pasar en eliax antes de fin de año...
1. Procesador con 1000 núcleos ![]() El chip fue implementado utilizando un FPGA (Field Programmable Gate Array), que no es más que un chip cuyos conectores internos no son estáticos, sino que pueden ser programados dinámicamente en tiempo real (similar al chip de Skynet en la película Terminator 2). Según sus diseñadores, el chip es 20 veces más rápido que procesadores actuales, y de paso consume menos energía. Para los curiosos, recuerden que Intel ya demostró un prototipo de procesador de 80 núcleos hace 4 años, y hace un par de años anunció que nos preparemos para un futuro con "miles de núcleos", por lo que esto es solo el inicio... fuente 2. Hackers rompen seguridad de celulares GSM utilizando celulares de US$15 ![]() Según los hackers, entre las cosas que aprendieron en este proyecto es que las operadoras de telefonía móvil ponen un gran esfuerzo en proteger las llaves digitales utilizadas en comunicación entre las centrales y los chips SIM de los celulares, debido a que obviamente es aquí en donde está el negocio, pero a la hora de proteger seriamente las llaves digitales que facilitan la comunicación entre un celular y otro (y que por tanto, protegen tu privacidad), ahí ponen menos esfuerzo. Noten que esto es algo que tiene al menos dos años desarrollándose (como reportado previamente en eliax), pero esto que sin duda es cerca de la cúspide de estos hacks. En cuanto al motivo de estos hackers, alegan que hacen esto para demostrar que es hora de que las empresas de telefonía móvil presten seria atención a GSM, cuya infraestructura de seguridad ya data de hace 20 años. fuente 3. Skype con video-conferencia para el iOS ![]() En dispositivos con doble cámaras como el iPhone 4 y el iPod Touch de 4ta generación, se pueden hacer llamadas de video en ambas direcciones (enviar video, recibir video). Con el iPhone 3GS curiosamente también permiten esta funcionalidad bi-direccional, pero debido a que el 3GS tiene una sola cámara detrás eso significa que te las tendrás que ingeniar, utilizando la cámara solo al estilo "reportero" para mostrarle a la otra persona lo que vez, o girando la cámara para que te vean sin tu poder ver la pantalla (otra opción es un espejo para hacer ambas cosas). En cuanto a otros dispositivos (como versiones anteriores del iPhone, iPod Touch y el actual iPad), solo puedes recibir el video de la otra persona (aunque algo es mejor que nada, supongo). Otra cosa interesante es que en el iPhone, las video-llamadas funcionan no solo con WiFi, sino que también por la red celular 3G (aunque cuidado, video de cualquier tipo te puede comer en minutos casi cualquier plan básico de datos 3G). Como dije en mi predicción, esto será todo un éxito, y ya esperaremos a ver en el 2011 si se cumple. Por el momento, quien sale feo de todo esto es la tecnología FaceTime de Apple, la cual aun prometiendo mucho, si no se dispersa a otras plataformas de manera universal como lo ha hecho Skype peligrará en poder ser relevante en este mercado de video-llamadas. 4. CityVille eclipsa a FarmVille en Facebook ![]() Pues ahora CityVille acaba de sobrepasar a FarmVille como el juego más popular dentro de esta gigante red social. Según AppData, hasta hace poco CityVille logró captar 61.7 millones de usuarios, dejando atrás a FarmVille con 56.8 millones de usuarios. Mi sugerencia: Si son personas ocupadas, o tienen familia, o desearían pasar más tiempo lejos de una PC, eviten estos juegos a toda costa, pues son altamente adictivos. Y lo digo por experiencia de algunas personas en mi familia, que están leyendo esto ahora mismo y que saben quienes son, y que parecen zombies jugando estos dos juegos constantemente... :) fuente - Y esta otra fuente dice que ya tienen más de 70 millones de jugadores (en tan solo unas pocas semanas de estar en el mercado). 5. El Simulador Viviente de la Tierra ![]() Noten que esto proyecto aun no entrará en operación por muchos años, pues están aun por construirse las super-máquinas capaces de procesar un flujo tan masivo de datos, pero el objetivo final es poder entender mejor no solo nuestro planeta sino que a nosotros mismos como sociedad, y quizás con esa información poder tomar mejores decisiones para mejorar la vida en la Tierra... Y a propósito, esto suena como una excelente aplicación para integrar con Google Earth. fuente 6. Rompen récord de tiempo volando por una aeronave ![]() 7. Open Source en Rusia ordenado por el estado ![]() ![]() Noten que esto no significa que no se pueda utilizar software privativo/propietario en Rusia, sino que esto afecta solo a software utilizado por el estado/gobierno, algo que me encuentro bien pues como ciudadanos la transparencia es un derecho que nos debe el estado, y esto encaja bastante bien con el modelo Open Source. fuente 8. Facebook.com fue la página más visitada del 2010 ![]() autor: josé elías |
![]() |
![]() |
sábado, diciembre 18, 2010
|
![]() Noten que (1) esta es una lista personal, no tienen que estar de acuerdo en lo absoluto con ella, y (2) ¿Ya mencioné que es una lista personal (recuerden eso en los comentarios)? 1. Dispositivo del año: El iPad ![]() 2. Plataforma del año: Facebook ![]() 3. Navegador Web del año: Google Chrome ![]() 4. Celular Inteligente del año: iPhone 4 ![]() 5. Sistema Operativo del año: Android OS ![]() 6. Cámara digital del año: Canon T2i (550D) ![]() 7. Sistema de Mensajería del año: GMail ![]() 8. Fracaso del año: Nokia y Symbian ![]() 9. Tecnología del año: Tablets ![]() 10. Tecnología de video-juegos del año: El Xbox Kinect ![]() 11. Personaje del año: Julian Assange ![]() 12. Noticia científica del año: Bacterias con supuestas estructura interna de Arsénico presentada por la NASA ![]() Sin embargo, más allá de su gran importancia científica, esta noticia fue importantísima porque precisamente debido a la polémica que se inició dentro de la misma comunidad científica (que es algo que ocurre a diario con casi cualquier tipo de anuncio, y se espera que así sea), y debido a que esa polémica llegó a la cultura popular, esto creo que enseñó a la población en general una de las mayores bondades de la ciencia: No podemos creer todo ciegamente, y tenemos no solo el poder, sino que el deber, de ser escépticos y de demandar evidencia, algo que lamentablemente no se practica en varios sectores de la sociedad, en donde se les enseña a las personas a creer ciegamente "por pura Fe" en cosas que son de dudosa veracidad. Lectura recomendada. 13. Noticia biológica del año: La primera forma de vida artificial ![]() 14. Noticia sobre la Inmortalidad del año: Logran que organismos rejuvenezcan 15. Noticia esperanzadora de salud del año: La primera persona oficialmente curada al 100% del HIV/SIDA ![]() 16. Noticia sobre fusión de humanos y máquinas del año: Bio-baterías que extraen energía/combustible de células vivas ![]() 17. Noticias sobre computación del año: Quantum Walk y Computación Cuántica con componentes faltantes ![]() 18. Noticia astronómica del año: Primera fotografía directa de un planeta orbitando otra estrella ![]() 19. Noticia cosmológica del año: El LHC recrea estado del Universo antes de existir los átomos ![]() 20. Noticia preferida por los fans del año: ???
Es aquí en donde entran ustedes en los comentarios, ¿cuáles fueron sus noticias favoritas de eliax este año? :) autor: josé elías |
![]() |
![]() |
lunes, diciembre 13, 2010
|
![]() Sin embargo, su tiempo ha llegado, y los titanes de la industria Intel, AMD, Dell, Lenovo, Samsung y LG han anunciado que para el 2015 no fabricarán más equipos con ese conector, abriendo paso a una mayor adopción a HDMI y DisplayPort. Esto por fin dejará atrás las tecnologías analógicas para transmisión de video, para concentrarnos en video 100% digital, lo que de paso es una medida bienvenida por la industria del cine ya que estas tecnologías están diseñadas para transmitir una señal cifrada, de modo que no pueda ser fácilmente interceptada y copiada por usuarios finales. Incluso para el 2013 AMD e Intel planean ser quienes lideren esta transición, haciendo la mayoría de sus productos "libres de VGA". Nota de Prensa oficial autor: josé elías |
![]() |
![]() |
jueves, diciembre 9, 2010
|
![]() Según la empresa, dentro de apenas 18 meses la cantidad de unidades combinadas de tablets (lideradas actualmente por el iPad) y de celulares inteligentes (lideradas por iPhone y Android), eclipsarán por primera vez las unidades de PCs/Laptops/Netbooks tradicionales (que para todos los fines prácticos, hablamos mayoritariamente de Windows, y a menor medida de Mac OS X y Linux). Esta noticia viene 2 años después que las laptops portátiles eclipsaran las ventas de PCs de escritorio, y 3 años después que en países como Japón los celulares empezaran a afectar las ventas de PCs. Lo interesante de esta noticia (asumiendo que las predicciones de IDC se cumplan) es lo rápido que caerá el reinado del sistema operativo tradicional de escritorio, pues estoy seguro que si a 100 personas le preguntamos (antes de leer esta noticia) en cuantos años ven el reinado de la PC caer, muy posiblemente la mayoría diría "dentro de al menos una década", pero la tecnología avanza a pasos exponenciales, y no solo veremos el reino de la PC caer en pocos años, sino que así mismo veremos el reino de las tablets y celulares caer eventualmente (quizás ante dispositivos como este). Ojo, estos datos no significan que no se seguirán vendiendo cientos de millones de PCs y laptops en los próximos años, sino que la cantidad de unidades vendidas de estas empezarán a ser menos que las de dispositivos móviles y tipo tablets, por lo que aun no den por muerto del todo a Windows hasta dentro de unos años. Finalmente, creo que este es un excelente momento para mirar atrás a este artículo de hace poco más de 3 años en donde ponderaba la pregunta de si un dispositivo como el iPhone podría destronar a Windows. La respuesta creo que por fin la tenemos ante nosotros... Fuente de los datos por IDC Crédito de la imagen autor: josé elías |
![]() |
![]() |
jueves, diciembre 2, 2010
|
![]() IBM acaba de crear una técnica que permitirá una nueva generación de super-computadoras 1000 (mil) veces más potentes que las más potentes supercomputadoras de hoy día, lo que hará realidad en menos de una década que IBM cree una máquina capaz de 1 ExaFLOPS de poder. Hablamos de una máquina capaz de procesar 1,180,591,620,717,411,303,424 operaciones por segundo, o en otras palabras, sobre los mil millones de millones de millones (sí, no es un error) de operaciones por segundo. Lo que ha hecho este adelanto posible es una tecnología que IBM llama CMOS Integrated Silicon Nanophotonics, que integra en un solo chip de silicio los componentes necesarios para convertir electricidad a pulsos de luz de una manera super eficiente, permitiendo que estos terminales que se colocan en el borde del chip se comuniquen con otros chips a unos 3 órdenes de magnitud más rápido que con métodos actuales de lineas de cobre. De paso, la tecnología funciona además en múltiples longitudes de onda (si lo quieren imaginar así, en "multiples colores del arcoiris") en vez de un sola longitud ("color"), lo que ayuda también a este masivo incremento de velocidad. Y como si fuera poco, esta tecnología se fabrica con exactamente los mismos procesos de fabricación de los chips tradicionales hoy día, haciéndolos bastante baratos y fáciles de producir (IBM incluso ya tiene prototipos funcionando fabricados de esta manera). Según IBM, el próximo reto es utilizar técnicas similares a esta para comunicación no solo entre un chip y otro, sino que entre los mismos componentes dentro del chip, algo en lo que dicen ya están trabajando pero que no tienen nada público para demostrar por el momento, pero que en cuando lo tengan, pueden estar seguros que veremos otro aumento masivo en el rendimiento de los microprocesadores y otros componentes electrónicos. Fuente de la noticia autor: josé elías |
![]() |
![]() |
lunes, noviembre 15, 2010
|
![]() Antes de continuar, noten que una computadora cuántica, a diferencia de una computadora digital (o "computadora clásica" como se le llaman en este contexto), no funciona bajo los parámetros tradicionales de ausencia o presencia de cargas eléctricas (representando un "0" o "1" binario respectivamente), sino que funcionan bajo las leyes de la mecánica cuántica. Bajo este esquema no se utilizan "bits" con posibles valores de "cero" o "uno", sino que unos denominados "qubits", que son la versión análoga en Mecánica Cuántica de los bits en la Física Clásica. Una particularidad de estos qubits es que no existen independientes unos de otros, sino que todos están en un estado llamado "entrelazado", lo que causa la curiosa (y sumamente útil) propiedad de que 1 qubit no almacena solo on cero o u uno, sino que ambos valores simultáneamente, y si se combinan varios qubits (digamos, 8 de ellos), estos no almacenan simplemente 1 de 256 posibles valores como en las computadoras clásicas, sino que todos los posibles valores simultáneamente. Más interesante aun, es que una computadora cuántica puede también hacer computación entre todos esos números, de manera instantánea y simultánea. Es decir (y como ejemplo), si a una computadora cuántica le pedimos el número de teléfono de una persona entre millones de personas almacenadas en una base de datos cuántica, el sistema devolvería inmediatamente el número, en vez de buscar entre todos ellos con una técnica llamada un árbol binario, lo que significa que computadoras cuánticas son (para ciertos problemas) infinitamente más rápidas que la más potente super-computadora clásica que podamos construir (y noten que empresas como Google ya están trabajando en esto). Ahora bien, toda esa explicación viene porque para que todo esto funcione, se necesita que todos esos qubits "colaboren" unos con otros, pero el problema es que incluso la más sencilla vibración ambiental, o interacción con partículas externas al sistema, arruina los qubits. Pero según los investigadores de este adelanto, pueden demostrar de forma teórica, que con ciertos algoritmos cuánticos de su invención es posible perder incluso el 25% de todos los componentes de una computadora cuántica, y aun así mantener la máquina funcionando perfectamente. Esto se debe a que a diferencia de máquinas clásicas, cada qubit al estar entrelazado con otros, contiene información sobre ellos, y por tanto es posible recuperar esa información aun si varios de ellos faltan. Esto es un poco similar a las técnicas de CRC, Checksums, RAID y diversas otras formas de mantener información válida aun cuando algunos bits de información en computadoras clásicas fallan, pero en este caso hablamos de poder restaurar hasta el 25% del estado de la máquina, sin invertir en añadir más qubits al sistema. Es decir, el sistema es auto-verificable en su estado natural. ¿Qué significa esto? Que esto ahora nos ha acercado muchísimo más a computadoras cuánticas prácticas, lo que es una muy buena noticia dado que nos acercamos a los límites de los procesos actuales. Fuente de la noticia autor: josé elías |
![]() |
![]() |
domingo, noviembre 14, 2010
|
![]() ![]() Si eres un técnico que tiene una idea de lo que es este número, recomiendo de todas maneras seguir leyendo por si acaso, pues hay más aquí de lo que aparenta, como aprendí yo cuando empecé a diseñar mi propio microprocesador al estilo VLSI en mis días universitarios. Así que he aquí una explicación didáctica para todos en el formato de "Pregunta a eliax". Si han visto alguna vez una fotografía ampliada de un chip, notarán que estos están fabricados con innumerables pequeñas lineas o trazos, pareciendo uno de estos chips una ciudad con calles y avenidas en miniatura. El ancho de esas "calles" (que son las que llevan las señales eléctricas de un lugar del chip a otro) se miden en "nm," o "nanómetros", en donde 1nm es igual a una mil-millonésima parte de un metro, por lo que hablamos de crear lineas de 10 mil-millonésimas de un metro de ancho. Para que tengan una idea de que tan pequeño es eso, el punto sobre esta letra "i", visto en un monitor estándar de hoy día (digamos, uno de 19 pulgadas y con resolución de 1280x 1024 pixeles), mide de ancho (a groso modo) aproximadamente 1 millón de nanómetros. Por lo que hablamos de que en este puntito cabrían de lado a lado 100,000 lineas eléctricas, todas corriendo paralelas las unas a las otras. Sepan sin embargo que hoy día ya poseemos tecnología para fabricar chips de 30nm, y aunque no aparente mucho bajar de 30nm a 10nm, en realidad es un gran salto, porque en la misma área cuadrada que cabe un solo chip de 30n, caben a groso modo 9 chips de 10nm, y eso tiene grandes repercusiones... Para empezar, eso significa que en el mismo espacio que se fabricaba antes 1 chip, ahora se pueden fabricar 9, lo que significa que el costo de fabricación se reduce al menos 9 veces (y en realidad, se reduce mucho más por otro tema relacionado a las impurezas que ahora causarían menos estragos, por lo que hablamos de al menos 10 veces más barato). Sin embargo, eso no es todo. Ahora, debido a que las distancias son más cortas dentro del chip, eso significa que las señales llegan más rápidamente, lo que significa también un gran aumento en rendimiento, y de paso, debido a que ahora los electrones recorren menos camino, eso significa que el chip también consume menos energía y de paso se calienta menos. Esto entonces permite fabricar no solo chips más baratos, sino que más rápidos y eficientes energéticamente. Pero aparte de eso ahora podemos, si lo deseamos, fabricar chips del mismo tamaño que antes, pero llenarlos de múltiples núcleos, lo que significa que por el mismo precio que uno antes fabricaría un chip con 2 núcleos, ahora podría fabricar uno con 18 núcleos (o uno con 9 núcleos a mitad del precio de antes). Así que como ven, aunque a primera vista esos "nanómetros" aparentan ser solo simples números, en realidad estos quizás sean entre los números más importantes a la hora de determinar el tamaño, precio y rendimiento de los dispositivos electrónicos que compramos todos los días. Una nota final que debo mencionar es que existe un límite de qué tan finas podemos trazar esas líneas, pues si seguimos como vamos llegaremos al punto en donde una de estas lineas será del grosor de uno o dos átomos, y cuando eso suceda será bastante difícil fabricar chips con procesos actuales. Debido a eso es que se hace tanta investigación sobre computación cuántica, computación molecular, computación óptica, etc, pues sabemos que estamos llegando a un límite (o al menos, eso aparenta), y debemos buscar la manera de seguir incrementando el poder de nuestras máquinas exponencialmente. Sin embargo, no se preocupen, que como podrán leer en los artículos previos en eliax relacionados a este (que aparecen al final de este artículo), tenemos muchas tecnologías promisorias en camino... autor: josé elías |
![]() |
![]() |
viernes, octubre 29, 2010
|
![]() China ha anunciado que tiene una máquina llamada la "Tianhe-1A PC", totalmente operacional, que es la supercomputadora más potente del mundo. Esta máquina tiene una potencia de 2.507 PetaFLOPS, y fue desarrollada por la Universidad Nacional de la Defensa y Tecnología de China. Hasta ahora, la supercomputadora más potente era la una Jaguar Cray XT5-HE con un rendimiento de 1.750 PetaFLOPS. Para que tengan una idea, esta máquina china es capaz de ejecutar 2507 millones de millones de cálculos en un solo segundo. Irónicamente, lo que le da la potencia a esta máquina son componentes estadounidenses de las empresas Intel y NVidia. Este monstruo de computación posee nada más ni nada menos que 7,168 tarjetas de video NVIDIA M2050 (valoradas en US$2,500 dólares cada una), y 14,336 procesadores de Intel. Actualización: Sobre algunas incógnitas que han expresado en los comentarios: 1. Sí, por lo general la gran mayoría de super-computadoras utiliza Linux, no solo porque ha sido adoptado por la comunidad científica que por lo general ya proviene de un trasfondo de supercomputación con UNIX (el precursor de Linux), sino que además porque con tantos procesadores sería prohibitivo pagar licencias a sistemas operativos convencionales. 2. El tipo de aplicaciones son simulaciones climáticas, simulaciones de armas nucleares, simulaciones de interacciones entre proteínas (más otras simulaciones de índole farmaceutico), simulaciones de mercados, simulaciones neuronales, como buscadores de patrones en grandes volúmenes de datos, etc. Fuente de la noticia autor: josé elías |
![]() |
![]() |
martes, octubre 26, 2010
|
Continuando con un aparentemente-eterno Modo de Baja Productividadtm, hoy los dejo con varias noticias breves:
![]() Ayer reporté por Twitter que el nuevo precio oficial del Sony PSP Go será de US$199 dólares, pero otra noticia jugosa para los fans de esta consola de video-juegos es que algunos desarrolladores de video-juegos ya están poniendo sus manos en prototipos del PSP 2, que supuestamente viene con una pantalla más grande y de alta definición, así como una superficie multi-táctil. Supuestamente lo veremos en tiendas en las navidades del próximo año 2011. fuente 2. VLC en iPhone y iPod Touch El venerable reproductor universal de media VLC recientemente fue hecho disponible en el iPad, y ahora acaba de salir una versión para el iPhone y iPod Touch. Noten que solo funciona en el iPhone 3GS, el iPhone 4, y las últimas dos generaciones del iPod Touch. Disponible en el App Store ahora mismo. 3. SDK y Simulador para BlackBerry PlayBook Si planeas desarrollar aplicaciones para el RIM BlackBerry PlayBook, la empresa acaba de anunciar un entorno de desarrollo y simulador del hardware para que inicies a trabajar lo antes posible. fuente ![]() Según estudios, Netflix, la empresa que se ha consagrado como la líder en rentar películas por Internet (en particular en los EEUU, y lean mi predicción #41 para este año),ya consume el 20% del tráfico de Internet en los EEUU en los horarios principales de teleaudiencia. fuente Así mismo el CEO de la empresa reveló que Netflix ya es primariamente una empresa de renta de películas por Internet, y no tanto de rentas de DVDs por correo (que fue como se inició). Incluso han anunciado que iniciarán a vender planes de rentas de películas que no incluyen DVDs (alrededor de US$7 a US$9 dólares por todas las películas que puedas descargar). En resumen, pongas las empresas de rentas de películas de la vuelta de la esquina en la lista en extinción junto con el kiosco que vende los libros impresos... ![]() El grupo The Pirate Bay, que promueve el libre intercambio de información (que lamentablemente se transforma también, en este caso, en piratería de películas, canciones, libros y programas) ha anunciado que debido a que ninguna nación es amigable a alojar sus servidores de bitTorrent, que lo que planean hacer en un futuro es lanzar un satélite en órbita y conectarlo a Internet, ya que no existen regulaciones que eviten que operen desde el espacio exterior... fuente 6. Almacenamiento casero de 70 TeraBytes Cuando necesitas más espacio para tus películas, canciones y fotos, ¿qué haces? Por lo general comprar más discos duros, pero este hacker decidió construir su propio sistema de almacenamiento de 70TB, lo que le permite almacenar unas 24 millones de canciones mp3 o 70,000 videos descargados por Internet. Lo construyó con 60 discos, 40 ventiladores y un poco de madera... fuente ![]() No solo se rumorea que la Fundación Symbian (la misma que provee de sistemas operativos a Nokia) cerrará próximamente sus puertas, sino que además Nokia anunció (en medio de unos buenos resultados en Q3 2010) que despedirá 1,800 empleados para "eficientizar" sus operaciones. fuente ![]() Según la división de los Países Bajos de Microsoft (y como reporté por Twitter hace un par de días, así como reporté en eliax el año pasado), podemos esperar la próxima versión de Windows, llamada sin sorpresas "Windows 8" en Octubre del 2012, es decir, dentro de exactamente 2 años. No se ofrecen detalles de la nueva versión, pero si observamos las tendencias del mercado creo que podemos asumir que tendrá un fuerte componente de integración con la Nube de Internet. fuente 9. MakerLegoBot, de LEGOs e imprime LEGOs Este si que es un hack curioso: Un hacker ha publicado instrucciones que te muestran como construir, con bloques de LEGO, una impresora que imprime objetos en 3D utilizando bloques de LEGO. El proyecto utiliza los Lego Mindstorms NXT. fuente Video de la impresora de LEGOs a continuación, en cámara rápida (enlace YouTube)... autor: josé elías |
![]() |
![]() |
domingo, octubre 24, 2010
|
![]() ![]() Aparte de poder leerlo en este nuevo formato aquí, también lo podrán leer en la página oficial del libro acá en eliax (en donde podrán obtener información adicional sobre el libro). También recomiendo leer esta entrada anterior en eliax que les explica en un poco más de detalle el contenido de de este. Por ahora les digo que si les intrigan temas como La Singularidad Tecnológica, la robótica, Inteligencia Artificial, la nano-tecnología, la mecánica cuántica, la Teoría de la Relatividad, el futuro del Universo, y los últimos grandes avances científicos, que este libro lo disfrutarán, en particular ya que está deliberadamente escrito para que cualquier persona entienda estos temas de avanzada. ¡Espero que lo disfruten! Nota: Esta tecnología también funciona con dispositivos que no tengan Flash y que soporten HTML5 (como el iPad). En ese caso, visiten este enlace. autor: josé elías |
![]() |
![]() |
viernes, octubre 8, 2010
|
![]() ![]() Sin embargo, como ha sucedido incontables veces en el pasado, cada imperio eventualmente se encuentra con su rival, y esta vez el rival de Intel no es una empresa, sino que más bien una arquitectura, la ARM. Para los que no son técnicos, sepan que toda computadora (desde una laptop hasta la computadora dentro de un horno de micro-ondas) tiene lo que se llama una "arquitectura", y por arquitectura nos referimos a una forma de hacer las cosas al màs bajo nivel, similar a la arquitectura de la mayoría de los seres vivos de este planeta que está basada en ADN, en donde el ADN se puede considerar tanto una máquina como un código o lenguaje. Similarmente, existen distintos tipos de "ADN" dentro de computadoras, siendo el más popular de todos el representado por la arquitectura x86 de Intel (la que utiliza Windows por ejemplo), así como la arquitectura PowerPC (utilizada por ejemplo en parte del PlayStation 3 y el Xbox 360), o la ARM (en el iPhone, iPad, Android, etc). Pero he aquí algo que muchas personas desconocen (y ya verán en un instante por qué es relevante mencionar esto): Aunque Intel tiene casi un monopolio en la arquitectura x86 (su competidor principal, AMD, tiene una minoría en el mercado), lo cierto es que Intel hace muchísimo más dinero de otras dos formas. La primera es en el negocio de los chipsets. Un chipset es el conjunto de otros chips periféricos necesarios para que tu PC o laptop funcione adecuadamente. Estos chipsets son los encargadas de servir como puente de comunicación entre el CPU (es decir, el cerebro x86) y los puertos USB, el disco duro, el chip de video (GPU), los puertos de expansión PCI Express, etc. La segunda forma en que Intel hace dinero, es proveyendo los chips gráficos a fabricantes de laptops, netbooks y PCs. Para sorpresa de muchos, el fabricante de chips de gráficos/vídeos más grande del mundo es Intel, y no NVIDIA o AMD/ATI como muchos se imaginan, pues aunque NVIDIA y AMD/ATI ciertamente son líderes en tarjetas de gráficos potentes para PCs, ese mercado de PCs es un nicho comparado con el de laptops, netbooks y PCs de bajo costo con tarjetas de video integradas. Sin embargo, ahora entra en escena ARM... ARM es una arquitectura introducida originalmente en 1983, y está basada en una filosofía de diseño muy diferente a la x86. La x86 está basada en una arquitectura denominada CISC (Complex Instruction Set Computing) mientras que ARM está basada en RISC (Reduced Instruction Set Computing), incluso, el nombre ARM significa en realidad Advanced Risc Machines (y por motivos históricos que no explicaré, inicialmente significaba Acorn RISC Machines). La idea de RISC es tener un grupo de instrucciones extremadamente simples, y después dejar que sea el "compilador" (lo que traduce instrucciones o comandos de alto nivel a instrucciones de bajo nivel) el que optimice el código generado, mientras que CISC se basa en el concepto de tener instrucciones más complejas en donde una sola puede hacer el trabajo de varias instrucciones más simples (esto sin embargo significa necesitar chips por lo general más grandes para acomodar las instrucciones más complejas). Vale la pena notar que hoy día ambas arquitecturas han tomado prestado de la otra, y en muchos escenarios en difícil diferenciarlas, pero aun así hay una crucial diferencia que ha marcado el destino de ambas: CISC/x86 apostó a computación de alto rendimiento, y por tanto, de alto consumo energético, mientras que ARM apostó por un rendimiento más moderado pero a cambio de una muchísima mayor eficiencia en el consumo energético y chips más baratos de producir. Durante un par de décadas, estas dos arquitecturas no entraron en conflicto, pues x86 vivía felizmente en PCs y laptops, mientras que ARM vivía en un espacio de dispositivos industriales que requerían bajo consumo de energía y bajo costo, como las computadoras en automóviles, televisores, e incluso consolas de videojuegos portátiles Pero algo ocurrió en los últimos 3 años que cambiò el panorama por completo: La salida el mercado del iPhone de Apple. Con el iPhone, se abrió toda una nueva industria de celulares inteligentes para el consumidor final, y este dispositivo había adoptado no la tecnología x86 de Intel, sino que ARM, y por razones bastante obvias: A diferencia de una PC, un celular depende demasiado de su batería, por lo que cada gota de energía ahorrada es una gota más de satisfacción para los clientes, así como era necesario utilizar componentes de bajo costo. Rápidamente surgieron los competidores al iPhone por parte de Palm, HP, ASUS, Dell, HTC, RIM, Nokia, Samsung y Google (entre otros), y en todos los casos estos decidieron adoptar la arquitectura ARM por sobre la x86. Y este año otro gran evento ocurrió: El gran éxito del iPad, el cual también ha abierto todo un nuevo mercado de dispositivos estilo "tableta", y adivinen qué: Casi todos los competidores anunciados utilizarán la arquitectura ARM. Pero he aquí lo preocupante para Intel: No solo no se utilizan los CPUs de Intel, sino que tampoco sus chipsets o chips de gráficos, ya que una de las otras ventajas de ARM es el hecho de que al ser más sencilla que x86, ocupa menos espacio, lo que significa que se hace más barato crear los llamados SoC "Sistema en un Chip", que es básicamente poner dentro de un mismo chip toda la lógica del CPU, los chipsets, los gráficos y sonidos. Es decir, un chip ARM moderno es toda una computadora completa en un solo componente. Como si fuera poco, estos nuevos mercados de celulares inteligentes y tabletas están teniendo un impacto que ya se siente en el mercado de las PCs y Laptops/Netbooks, pues aunque ciertamente las ventas de PCs y laptops continúan incrementando cada año, las ventas de celulares y tabletas está incrementando a un ritmo mayor, lo que significa que es solo cuestión de tiempo para que el crecimiento de los equipos tradicionales se frene y se torne negativo, y cuando eso suceda Intel (y Microsoft con Windows, aunque astútamente ha adoptado a ARM para su Windows Phone 7) será la empresa que más sienta ese crecimiento negativo. Pero las cosas se ponen peor aun para Intel... A diferencia de x86, ARM no es un producto, sino que una especificación técnica que cualquier empresa puede licenciar y modificar, similar a como cualquier empresa puede licenciar a Android de Google y hacer sus propios equipos y modificaciones (lo que ya está afectando las ventas del iPhone). Eso significa que Intel está compitiendo no contra una empresa, sino que contra toda una industria, ya que decenas de empresas crean sus propios diseños basados en ARM, desde NEC y Texas Instruments, hasta la misma Apple (su chip A4 no es más que un diseño ARM modificado). Al final, Intel solo podrá competir a nivel de innovación, o sacando un competidor a ARM. Noten que algo que muchos también desconocen de Intel es que la empresa tiene una licencia de ARM, pero obviamente no ha hecho uso de ella a favor de sus propios chips x86 (en particular, Atom), pero a esta altura del juego, en donde el futuro está claramente en dispositivos móviles, el panorama no se ve bien para Intel sino adopta a ARM, y se tendrá que conformar con el mercado de PCs y Laptops, un mercado que pasará de ser el dominante, a un simple nicho en los próximos años... autor: josé elías |
![]() |
![]() |
domingo, octubre 3, 2010
|
![]() A la fecha ha sido posible teorizar sobre utilizar esta técnica (2006), lograrlo en la práctica a temperatura ambiental (2009), y ahora en el 2010 han logrado perfeccionar la técnica de lectura (hasta el momento las lecturas de bits/qbits habían sido imperfectas). En otras palabras, en el momento que podamos perfeccionar la técnica de escritura, y combinarla con esta de lectura, podremos iniciar el proceso de perfeccionar el proceso de fabricación para masificar esta tecnología. Lo más interesante de esta vez sin embargo es el hecho que no solo ya pueden leer eficazmente los datos almacenados en el spin/giro de electrones, sino que lo han logrado en base a componentes fabricados con silicio, lo que significa que esto es compatible con los sistemas tradicionales de fabricación de procesadores y memorias. En otras palabras, estamos relativamente cerca de un futuro en donde en un dispositivo del tamaño de un celular podremos almacenar miles de veces más información de lo posible hoy día. O en otras palabras, un componente más del IrixPhone está en vía a desarrollarse... :) Fuente de la noticia autor: josé elías |
![]() |
![]() |
martes, septiembre 28, 2010
|
![]() La empresa ORIGIN acaba de anunciar lo que bien podría ser la laptop más potente del mundo, con las siguientes especificaciones técnicas: - Un procesador Intel Core i7 980X (la versión "full" de escritorio, adaptada al factor laptop), 3.33GHz, 6 núcleos y 12MB Cache. - Doble tarjetas de video (GPU) NVIDIA GeForce GTX 480M, 4GB de video. - 3TB de disco duro, configurable como RAID 0 o RAID 1. - 24 GB de memoria RAM DDR3 de triple canal. - Pantalla de 17.3" LED de 1920 x 1080 pixeles (1080p). - Reproductor y quemador de discos Blu-ray 3D. - Trackpad multi-táctil. - Salida y entrada de video HDMI. Salida DVI. - Salida y entrada de Sonido Óptico Digital. - Sonido de 7.1 canales de alta definición de audio. - 2 Puertos USB 3.0, y 3 puertos USB 2.0. 1 Puerto eSATA. - Lector de media en tarjetas Flash y lector de huella digital. - Wi-Fi Link 802.11A/B/G/N, 1000 Mbps Ethernet. - Cámara Web de 3 Megapixeles. - Sintonizador de TV de Alta Definición (HDTV) - Windows 7 Ultimate 64-Bit. Noten que hoy el estándar de memoria en una Netbook es 1GB, en una laptop 2GB, y en una muy buena laptop 4GB como máximo, por lo que 24GB de memoria es algo extraordinario hoy día. En cuanto al precio, configurada como en esta lista el costo de este monstruo de máquina es de poco menos de US$9,000 dólares... :) Puedes armar tu propia máquina en este enlace autor: josé elías |
![]() |
![]() |
lunes, septiembre 27, 2010
|
![]() Estas son las principales especificaciones técnicas: - Pantalla LCD de 7" con resolución de 1024 x 600 pixeles y multi-táctil. - Un nuevo sistema operativo al que llaman el BlackBerry Tablet OS. - Procesador tipo ARM a 1 GHz y con doble núcleos. - 1 GB de memoria RAM. - Doble cámaras, una enfrente de 3 MP para video-conferencias, y otra detrás de 5MP para tomar fotos y grabar videos en 1080p. - Reproduce videos de 1080p en formatos H.264, MPEG, DivX, WMV, y audio en formatos MP3, AAC, WMA. - Salida de video micro-HDMI. - Puerto micro-USB - WiFi - 802.11 a/b/g/n. - Bluetooth 2.1 + EDR. - Soporte de Adobe Flash 10.1, Adobe Mobile AIR y Java. - Herramientas de desarrollo WebWorks para programar similar al Palm Web OS. - Mide 5.1" x 7.6" x 0.4" (130mm x 193mm x 10mm) - Pesa menos de 1 libra (400 gramos). La fecha de salida al mercado es "inicios del 2011", lo que significa que muy posiblemente el PlayBook se enfrente al iPad 2 cuando este salga al mercado. Esperen entre hoy y mañana mi análisis de este nuevo dispositivo, el cual debo decir me sorprendió, pues yo (y creo que el resto de la industria) no se esperaban algo tan potente de parte de RIM. Sin embargo, y como en todos mis análisis, tendremos que ver la propuesta de RIM con su PlayBook no solo desde el punto de vista de hardware, sino que desde otras perspectivas y compararla con las realidades del mercado. Mientras tanto, felicito a RIM, pues a diferencia de su recientemente anunciado BlackBerry Bold, esta vez RIM decidió hacer algo verdaderamente novedoso. Página oficial del RIM BlackBerry PlayBook Crédito de la imagen Video a continuación (enlace YouTube)... Actualización: También lanzado el mismo día fueron: - WebWorks, una plataforma para desarrollar aplicaciones para el PlayBook con tecnologías de HTML 5 similar a como se programa el Palm Web OS, en donde aparte de programar con estándares como HTML y javascript, también obtienes acceso de bajo nivel a ciertas funcionalidades del sistema operativo. - BlackBerry Messenger Social Platform, que es básicamente una manera de utilizar la mensajería (BB Messenger) bajo control programático, para enviar archivos, invitaciones, perfiles, datos, y por supuesto los tradicionales mensajes. - BlackBerry Payment Service SDK, esto permite que los desarrolladores de aplicaciones cobren de manera similar a como Apple cobra en el App Store, pero con más opciones de cobro que incluyen tarjetas de crédito, PayPal o hasta pago a la factura de tu celular (que está genial). - BlackBerry Advertising Service, esta es una plataforma de anuncios similar a los iAds de Apple en el iOS y al AdSense Mobile de Google. Bajo este esquema, el desarrollador cobra el 60% de los anuncios y RIM el restante 40%. autor: josé elías |
![]() |
![]() |
domingo, septiembre 26, 2010
|
![]() El virus (o más técnicamente un "gusano digital" en este caso), ha sido bautizado como la red Stuxnet, y desde hace un año se ha estado instalando sigilosamente en toda forma de equipos industriales que controlan desde los sistemas eléctricos hasta los sistemas de manejo de gas propano y de aguas sanitarias de todo el mundo. Según expertos, Stuxnet no es el trabajo de un novato o de un pequeño grupo de hackers, sino que muestras todas las señales de que fue creado por un grupo bastante bien financiado, pues es una las piezas de software más sofisticadas jamás creadas en temas de virus informáticos. El virus ataca específicamente a un sistema de la empresa Siemens en Microsoft Windows que maneja equipos industriales (como sensores, válvulas, compuertas, etc), y su código demuestra un conocimiento profundo no solo de Windows y del software de Siemens, sino que además de las peculiaridades del hardware manipulado por ese software. Esto, mis queridos lectores, es algo que desde hace tiempo les he advertido acá en el blog, e incluso propuse un "Protocolo_X" a ser creado para contrarrestar los efectos de un ataque como este. ![]() Es decir, hablamos de generar caos a gran escala. La posible buena noticia, es que al menos el virus fue detectado a tiempo antes de que actúe, y ya la empresa Symantec ha alertado a la industria (este próximo miércoles emitirá un boletín oficial al respecto), así como Siemens ha ofrecido una herramienta para tratar de remover el virus (herramienta que ya ha sido descargada unas 12,000 veces, lo que les debe dar una idea de la magnitud del daño si nadie hubiera hecho nada), aunque según expertos nadie sabe si verdaderamente el virus está bajo control, pues existen aun muchas plantas industriales que sin duda desconocen de este tema de seguridad, y por otro lado se ha descubierto que el virus es tan sofisticado que incluso haya sido creado para esconder una copia de sí mismo que se reactivaría incluso después de uno creer que lo haya removido. En cuanto a los posibles autores, los expertos opinan que Stuxnet es una pieza de software demasiada sofisticada para ser un simple hobby de unos simples hackers, y no descartan la posibilidad de que exista algún gobierno detrás de la maniobra dedicando muchos recursos en talento humano y dinero para operarlo. Incluso se han menciona hipótesis de que el virus podría estar no tanto buscando como objetivo a todas las plantas industriales del mundo, sino que una en particular en Irán, algo que es pura especulación pero que al menos nos indica la tendencia de los expertos en pensar que este nuevo tipo de ataques se trata ya no solo de algunos jóvenes curiosos trabajando desde el sótano de sus hogares, sino que de una nueva generación de armas cibernéticas a la disposición de gobiernos dispuestos a utilizarlas. En cuanto a la razón de nombrar esta una de las noticias más importantes de la década, lo hice porque independientemente de si Stuxnet no termine haciendo nada o sea neutralizado por completo, al menos sienta un gran hito en lo que sin duda será la norma en el futuro, algo que ya inició hace un tiempo atrás, pero que ya se hace inminente con esta noticia que será algo con lo que tendremos todos que lidiar en nuestras vidas. Finalmente, para los que se quieran apresurar a llamar a esta noticia sensacionalista, les recomiendo leer al menos los titulares de noticias previas en eliax relacionadas a este tema, y que aparecen justo al final de este artículo, para que así tengan una idea del panorama mundial en que nos encontramos... Fuente de la noticia en CNN Actualización 1: Se confirma que en Irán se infectaron unas 30,000 máquinas con este virus. Fuente. Actualización 2: Aparenta que el virus se originó en Israel. Fuente. autor: josé elías |
![]() |
![]() |
viernes, septiembre 24, 2010
|
![]() Y cuando hablamos de enfocarla perfectamente, hablamos de no hacer un simple filtro al estilo Photoshop para aclarar la imagen, sino que literalmente enfocar la imagen en cualquier plano de la imagen. Por "cualquier plano" nos referimos a que puedes enfocar selectivamente el fondo de la imagen, o lo que está en frente de la imagem, o cualquier otro detalle de la imagen intermedio. En otras palabras, es como si pudieras volver atrás en el tiempo y enfocar la imagen con un lente físico. Este truco se logra con un nuevo tipo de lentes llamado un lente plenoptic (en español me imagino que "plenóptico"), que se pone entre el sensor de la cámara y el lente tradicional de esta. ![]() Lo que este lente logra es que en vez de enviar al sensor una solo imagen, lo que envía en realidad es una imagen compuesta de millares (o millones) de imágenes más pequeñas. Esto produce una imagen cruda muy extraña, parecida a como si viésemos a alguien a través de uno de esos vidrios distorsionados utilizados frecuentemente en las bañeras de todo el mundo para distorsionar la imagen detrás de ellos. Después de esto, viene la magia: Un software que está calibrado precisamente acorde la configuración de estos lentes, puede obtener una imagen completa y libre de distorsiones con el simple hecho de combinar todas las imágenes mas pequeñas. El truco está en que cada micro-imagen contiene información de enfoque en su superficie (es decir, es como que en cada región de la imagen en grande, obtienes varias imágenes en distintos puntos de enfoque). Después, es solo cuestión de aplicar un algoritmo que decodifica esta información, en donde Adobe te provee de una herramienta en donde literalmente interactúas en tiempo real enfocando distintas partes de la imagen con solo mover un deslizador visual en la pantalla. Es decir, mover el control en la pantalla después de tomar la foto, es idéntico a girar el lente para enfocar en el momento que tomaste la foto originalmente. Según Adobe esta tecnología aun no está lista para comercializarse, pero de que será comercializada no lo duden. Adobe sin duda que licenciará esta tecnología a fabricantes de cámaras, e implementará el software de decodificación en alguna futura versión de Photoshop (aunque eventualmente esto se podrá implementar nativamente dentro de las cámaras mismas, para que puedas enfocar tus fotos selectivamente con solo girar el lente tiempo después de haber tomado la fotografía). Sin duda alguna, una de las tecnologías visuales mas asombrosas anunciadas en tiempos recientes... Ahora no dejen de ver el video para entender mejor cómo funciona esta técnica, y en particular presten atención después del minuto con 40 segundos en donde demuestran el enfoque interactivo en la PC. Y si les asombró esta noticia, no dejen de ver esta otra del 2006 acá mismo en eliax. Fuente de la noticia Página de Todor Georgiev, investigador principal de esta tecnología en Adobe Video a continuación (enlace YouTube)... autor: josé elías |
![]() |
![]() |
en camino a la singularidad...
©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax