miércoles, enero 9, 2013
|
En nuestras vidas cuando dos personas se tienen que poner de acuerdo es un proceso más sencillo que si 4 o 5 personas tienen que ponerse de acuerdo, y muchísimo más sencillo en relación a 100 personas ponerse de acuerdo, y cuando hablamos de millones de personas tenemos que recurrir a todo tipo de complejos esquemas para ponernos de acuerdo (que lamentablemente usualmente involucran a políticos).
Pues un problema similar está empezando a afectar a las supercomputadoras más potentes del mundo… Sucede que estas supercomputadoras deben su poder al hecho de que son altamente paralelizadas. Es decir, decenas de miles (o incluso, cientos de miles) de procesadores trabajan en conjunto para realizar una tarea en particular. Pero eso representa un gran problema en confiabilidad, y para entender por qué, volvamos al ejemplo de las dos personas que tratan de ponerse de acuerdo: ¿Cuáles son las probabilidades de que una de esas dos personas se enferme el día de hoy y no puedan ponerse de acuerdo a tiempo para firmar un contrato? Pues bajas. Pero, ¿cuáles son las probabilidades que entre 100,000 personas que tengan que ponerse de acuerdo, al menos una de ellas se enferme? Pues muy altas, y ese es precisamente el problema al que se enfrentan estas máquinas… Sucede que las arquitecturas tradicionales de hoy día son bastante rígidas, en donde si un componente falla, todo el sistema falla. Noten que por décadas han existido estrategias y técnicas que ayudan a minimizar esos problemas, una de esas técnicas siendo la de crear redundancia (por ejemplo, duplicando la cantidad de procesadores, y teniendo discos duros que replican los datos de otros discos duros), pero eso de por sí es un problema, ya que así como tuvimos que recurrir a políticos y sistemas de votaciones complejos para que millones de personas se pongan de acuerdo, así mismo tenemos que recurrir a otros sistemas en estas máquinas que se encargan ahora de monitorear y arreglar los otros componentes. Pero eso solo funciona hasta cierto límite. Según estudios, cuando empecemos a crear sistemas con millones de procesadores, la resistencia (y correspondiente complejidad) de estos sistemas tendrá que aumentar unas 100 veces más por sobre los sistemas tradicionales para mantener el mismo tiempo promedio hasta el próximo fallo (lo que en la industria se denomina el MTBF por sus siglas en inglés de Mean Time Between Failures). En otras palabras, mientras más procesadores añadimos, más tenemos que invertir para mantener el sistema funcionando, llegando un punto en donde vamos a gastar más recursos en tan solo tratar de evitar fallos, que en hacer que el sistema funcione en sí. Por tanto, se está haciendo obvio que nuestros sistemas informáticos están llegando a un cierto límite en donde vamos a tener que sencillamente aceptar la posibilidad de que algunas cosas no van a funcionar bien. Y eso es precisamente lo que hace la naturaleza con nuestros cerebros. Estos no funcionan perfectamente, pero funcionan suficientemente bien. Es por eso que un cerebro humano consume menos que una bombilla de 10W, y puede hacer cosas que una supercomputadora no puede hacer consumiendo varios megavatios. La buena noticia es que ya se están haciendo investigaciones en varios laboratorios del mundo para lograr precisamente eso: Sistemas computacionales “probabilísticos” que son resistentes a fallos, y que asumen que algunos componentes van a fallar. Nota: Si les interesó este tema, recomiendo también leer este otro artículo clásico de eliax de hace 4 años atrás. autor: josé elías |
13 comentarios |
Ciencia , Futuro Digital , Opinión / Análisis , Predicciones , Psicología , Software |
Comentarios
Añadir Comentario |
en camino a la singularidad...
©2005-2024 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax
Los políticos de las computadoras.