viernes, octubre 19, 2007
|
![]() En otras palabras, el desarrollar un software que pueda predecir lo impredecible. Según la fuente, el software podrá predecir acciones paramilitares de grupos, facciones éticas, terroristas y grupos criminales, mientras asiste a los comandantes militares en formular estrategias para estabilizar áreas antes, durante y después de conflictos. Sin embargo, el software además tendrá usos civiles en aplicaciones de finanzas, cumplimiento de la ley, controles de epidemias, y el manejo de los efectos posteriores a desastres naturales como huracanes, terremotos y demás. El sistema es llamado ATRAP (Asymmetric Threat Response and Analysis Project o el "Proyecto Asimétrico de Respuestas y Análisis a Amenazas"), y es un super complejo juego de algoritmos que navega por millones de variables y datos, considerando datos como influencias sociales, políticas, culturales, militares y de medios. El programa está diseñado para ser totalmente imparcial y racional, evitando problemas humanos como la predisposición a pensar de cierta manera o hasta simples sentimientos personales sobre un tema, de tal manera que el sistema puede sugerir cursos de acción que pueden ser considerados onortodoxos o simplemente extraños por ser tan fuera de lo común. Fuente de la noticia Opinión: Aunque esta es una idea brillante, me pregunto que sucedería si dependemos demasiado de este tipo de sistemas. Cuando otras naciones desarrollen software similares, el tiempo para tomar decisiones por humanos se acortará tanto que tendremos solo dos opciones: (1) Arriesgarnos a ponernos en desventaja tomando decisiones tardías debido al tiempo que le tomará a los humanos en analizar los datos y tomar decisiones, o (2) permitir que el software mismo tome las decisiones para así prevenir cualquier ataque de cualquier tipo del enemigo. Si elegimos la opción 1, potencialmente nos ponemos en desventaja a perder cualquier conflicto. Si elegimos la opción 2, perdemos el control y se lo damos al software. Sin embargo, un peligro asecha en la opción 2. ¿Qué ocurriría si dos máquinas entran a un juego de movimientos tácticos sumamente rápidos del cual no pueden salir ni hechar atrás? Es posible que el software entre en "pánico" y lance un ataque al otro bando como "último recurso", y obviamente el software al otro lado puede interpretar esto como una amenaza y "compensar" enviando un contra-ataque. En otras palabras, fácilmente podríamos destruir la humanidad si no pensamos bien este tema aparentemente inocente. Nota: Si te interesó este artículo, es posible que quieras leer un editorial que escribí hace un tiempo en eliax titulado Interneuronas a proveer al Internet de Consciencia e Inteligencia Artificial autor: josé elías |
![]() |
![]() |
Comentarios
Añadir Comentario |
"Cerrar tu pagina empobrecería la red y me dejaría un hueco en mi diario aprender.
Elías tu espacio es lo más cercano a chatear que he hecho en la vida y lo más cercano a socializar vía red, realmente lo disfruto y me enriquece como persona."
Elías tu espacio es lo más cercano a chatear que he hecho en la vida y lo más cercano a socializar vía red, realmente lo disfruto y me enriquece como persona."
en camino a la singularidad...
©2005-2025 josé c. elías
todos los derechos reservados
como compartir los artículos de eliax
Seguir a @eliax
Esto me parece mucho a lo que sucede en Terminator, especialmente en la parte 3, The Rise of The Machines... Para mi no era increible que pasara, pero no pense que fuera tan pronto. Los que han visto la trilogia Terminator saben lo que pasa y es muy posible con tanto avanze de la inteligencia artificial, pero no creo que debamos esperar que venga un robot del futuro a detener esto... que cosas e? bueh!