miércoles, marzo 25, 2009
|
A inicios del mes en curso, para la Semana Experimental escribí un artículo titulado "Pregunta a eliax: ¿Qué se sentirá vivir como un ser artificial?", y después de leer algunos comentarios noté que esta era una excelente oportunidad para hablar de algo que siempre quise hablar, y que creo iluminará (y sorprenderá) a muchos sobre las sutilezas de la naturaleza.
Lo que me inspiró escribir esto fue un comentario que decía algo similar a esto: "No confundir capacidad de procesamiento con inteligencia e innovación, uno por procesar 3,000 Trillones de operaciones por segundo no es mas inteligente que el que solo procese 3,000 por segundo, únicamente tardara menos en procesar la información." A simple vista para alguien que no tenga conocimientos detallados de matemáticas y computación, esto aparenta tener mucho sentido y ser un argumento bastante contundente, pero al igual que la Mecánica Cuántica, la realidad de las cosas a veces es bastante diferente de lo que nuestros instintos nos llevan a creer... Sucede, que esa aserción es errónea. Si habláramos de una diferencia mínima, digamos, de procesar 1,000,000 de operaciones por segundo (OPS), y procesar 1,050,790 OPS, la aserción estaría mayoritariamente correcta, pero el problema (o el "momento ¡Eureka!") viene cuando uno trata de poner eso en práctica. Es decir, cuando uno trata de implementar un sistema que procese 1,000 OPS, y otro que procese 1 Trillón de OPS. Es similar a lo que sucede con la Teoría de la Relatividad. Uno asumiría que si voy manejando en un auto a 100kph, y hay otro auto que viaja en dirección contraria y acercándose a mi a 30kph, que la velocidad de acercamiento es de 130kph. Pero también uno asumiría que si voy en una nave espacial a 100,000 km por segundo (km/s), y un rayo de luz viaja en dirección opuesta a mi a 300,000 km/s, que la velocidad con la que "le pasaré de lado" al rayo será de 400,000 Km/s, cuando eso no es cierto (seguiríamos viendo el rayo de luz a 300,000 km/s, y sería el tiempo lo que se dilataría). Inclusive, en el primer ejemplo, la respuesta no es realmente 130kph, sino que varía por una fracción casi imperceptible, pero asumimos que 130km/s es "una aproximación suficiente para la vida práctica". Sin embargo, es en estas pequeñas diferencias que empezamos a ver los estragos de la Teoría del Caos. Similar a lo que ocurre con la Teoría de la Relatividad con grandes velocidades que se aproximan a la de la luz, lo mismo vemos en cualquier sistema de computación que sobrepase de una cierta escala. Esto se debe a que mientras más grande y extenso es un sistema, más son las posibilidades de fluctuaciones cuánticas, mas complejo debe ser el sistema que coordine todo, y mas "caos" es introducido al sistema. Es decir, y para poner un ejemplo práctico, no es el mismo circuito que tú diseñarías para implementar un simple "sumador" de 2 bits en un chip, que el circuito necesario para crear un sumador de 1 trillón de bits. El de 1 trillón de bits necesitará de lógica adicional que incluye posiblemente un sistema de almacenamiento temporal, reconocedores de patrones para acelerar la suma, predicciones de salto de ejecución, etc. Es decir, con el incremento de escalas numéricas se incrementa necesariamente la complejidad de un sistema, y mientras más complejo es un sistema más propenso es a ser no-determinístico, y mientras menos determinístico es un sistema, más caótico es este. Noten que esto no es nada nuevo ni reciente. Esto se sabía muchísimo antes de la computación moderna, solo que en tiempos modernos el concepto fue popularizado por científicos como Benoît Mandelbrot (famoso por esas imágenes fractales que muchos han visto), y Stephen Wolfram (por su trabajo en Cellular Automata). Es por eso que es incorrecto pensar que si tomamos un sistema simple, y lo escalamos a gran tamaño, que este se comportará igual. Un buen ejemplo que no tiene que ver con matemáticas es un ladrillo. Podemos hacer una casa poniendo un ladrillo sobre otro, y eso funcionaría bastante bien, pero si tratamos de construir un rascacielos ya nos podemos imaginar que estos colapsarán. La única manera de construir un rascacielos con ladrillos es si introducimos mas complejidad en el sistema, es decir, vigas de acero, concreto armado, etc. Otro ejemplo concreto y más relacionado a nosotros es el mismo cerebro. Muchas personas se sorprenden al saber que de todos los animales de la Tierra, el cerebro humano no solo es el mas inteligente, sino que el más grande en volumen y masa (actualización: bueno, el chacalote tiene un cerebro mas grande como dice el lector Geek :), pero eso no quita que por lo general mientras mas grande es el cerebro, en particual en relación a su masa corporal, más inteligente es la criatura - en el caso de humanos somos la criatura con las interconexiones más compleja de su cerebro en el planeta). Es decir, nuestro cerebro es mayor incluso que los más grandes dinosaurios que jamás rondaron la Tierra. Sin embargo, alguien posiblemente dirá "¡Ah, pero lo que nos hace inteligentes no es solo el tamaño del cerebro, sino que su estructura!", y precisamente, ese es un argumento a favor de todo esto que estoy diciendo, pues así como necesitamos de vigas de acero y concreto para poder escalar de una casa a un rascacielos, así mismo el proceso inherente que hizo que incrementara el tamaño de nuestro cerebro necesitó de crear nuevas estructuras que soportaran este mayor tamaño. Esa es una de las razones de por qué el cerebro de un perro es más inteligente que el de un mosquito (el del perro es más grande y complejo), y el de un hombre es más inteligente que el de un perro. Habiendo dicho todo eso, es por eso que es erróneo también el decir que por tan solo porque se están construyendo super computadoras que serán cuatrillones de veces más rápida que una calculadora de bolsillo, que esta no vaya a ser más inteligente, y que ambas son equivalentes, y que dado suficiente tiempo la de bolsillo puede hacer cualquier cosa que la super-computadora haría. Simplemente ese no es el caso. Y es esa la razón también por la cual (como veremos en una noticia que saldrá mañana en eliax) verán como la nueva generación de super-chips que planean emular el cerebro humano tanto en capacidad "bruta" como en inteligencia, están haciéndose cada vez mas complejos, combinando elementos del mundo analógico con el digital. Y es de esta complejidad inherente en el sistema que eventualmente obtendremos un sistema no-determinístico al igual que el cerebro humano. Un cerebro artificial. autor: josé elías |
23 comentarios |
Ciencia , Educación , Opinión / Análisis |
Comentarios
Añadir Comentario |
"De verdad un gran regalo para tus hijos y seguramente para toda la humanidad.
Solo me queda agradecer por todo el tiempo dedicado a este proyecto, el cual he estado siguiendo desde que encontré este espacio gracias a tu libro Maquinas en el paraíso, el cual significo algo de esperanza en un momento en el que comencé a perder la fe en la religión.
Suerte con tus próximos proyectos."
Solo me queda agradecer por todo el tiempo dedicado a este proyecto, el cual he estado siguiendo desde que encontré este espacio gracias a tu libro Maquinas en el paraíso, el cual significo algo de esperanza en un momento en el que comencé a perder la fe en la religión.
Suerte con tus próximos proyectos."
en camino a la singularidad...
©2005-2024 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax
Estás en modo de "imaginación explosiva" Jose Elias en estos dias! Me encuentro muy interesante esto que escribiste hoy. Saludos a los hermanos desde Miami. -Peace & Love 2009-