sábado, 22 de agosto de 2015

Stephen Hawking (y otras 16.000 personas) contra los 'robots asesinos'

Una carta abierta pide a Gobiernos de todo el mundo que no desarrollen armas completamente autónomas



Las armas completamente autónomas aún no son una realidad, pero casi. Han sido bautizadas como 'robots asesinos', y se cree pueden ser la causa de una nueva y terrible revolución armamentística. Ahora, más de 16.000 expertos en Inteligencia Artificial y otras ramas de la ciencia (entre ellos, Hawking o Steve Wozniak) piden a los Gobiernos en una carta abierta que no las desarrollen. Por Yaiza Martínez.


Esta semana se ha hecho pública una carta abierta firmada por más de 16.000 personas, la mayoría de ellas investigadores de Inteligencia Artificial y robótica, en la que se pide la prohibición de armas autónomas capaces "de seleccionar y atacar objetivos sin intervención humana alguna". 

La presentación de la carta fue realizada aprovechando la inauguración de  
la Conferencia de Inteligencia Artificial (IJCAI) que se celebra entre el 25 y el 31 de julio en Buenos Aires (Argentina)

Entre sus firmantes están 
el célebre astrofísico Stephen Hawking, el famoso director general del fabricante de coches eléctricos TeslaElon Musk; el lingüista estadounidense Noam Chomsky o el cofundador de Apple, Steve  Wozniak. El documento constituye un nuevo aviso de los peligros potenciales de la inteligencia artificial (IA) aplicada al terreno militar, según Le Monde.  

Máquinas soldado y helicópteros selectivos 

Pero, ¿qué peligrosas máquinas señalan los expertos como temibles? Por ejemplo, los  cuadricópteros o quadcopters armados (un tipo de helicópteros con cuatro hélices), capaces de buscar y eliminar a personas que cumplan con ciertos criterios predefinidos, o las máquinas para sustituir a soldados humanos en los campos de batalla. 

Según los firmantes de la carta abierta, la tecnología de Inteligencia Artificial (IA) ha llegado a un punto en que permite el desarrollo de este tipo de sistemas, y hay mucho en juego, consideran, pues las armas autónomas se han descrito ya como la tercera revolución bélica de la humanidad, tras la pólvora y las armas nucleares.
 

"La pregunta clave para la humanidad actual es si desea iniciar una carrera mundial de armas de IA o evitar que esta se inicie. Si alguna potencia militar sigue adelante con el desarrollo de armas de IA, será prácticamente inevitable que esa carrera mundial de armas se produzca. El punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana. A diferencia de las armas nucleares, las armas autónomas no requieren de materias primas costosas o difíciles de obtener, por lo que se convertirán en armas ubicuas y baratas, que todos los poderes militares podrán producir en masa. Sólo será cuestión de tiempo que (estas armas) aparezcan en el mercado negro y caigan en manos de terroristas, dictadores que deseen controlar mejor a su población, de señores de la guerra que deseen perpetrar limpiezas étnicas, etc. Las armas autónomas son ideales para objetivos tales como asesinatos, la desestabilización de países o el sometimiento de poblaciones  matando selectivamente a grupos étnicos particulares. Por ello, creemos que una carrera de armas IA no resultarábeneficioso para la humanidad", escriben los especialistas.

El peligro de la impunidad 

Los autores de la presente carta hablan en realidad de unfuturible, porque las armas completamente autónomas como tal aún no existen. Sin embargo, están cada vez más cerca, pues sí que existen ya, por ejemplo, sistemas "semiautónomos", como los aviones no tripulados capaces de despegar, volar y aterrizar sin dirección humana alguna. 

El pasado mes de abril, delegados de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales se reunieronen Ginebra (Suiza) para hablar sobre estas armas completamente autónomas (que han sido bautizadas como 'robots asesinos') y sus potenciales peligros. 

Con motivo de esta reunión, la Clínica Internacional de Derechos Humanos de la Facultad de Derecho de Harvard y la organización Human Rights Watch publicaron entonces el informe “Mind the Gap: The Lack of Accountability for Killer Robots” (“¡Cuidado con la brecha!: La falta de rendición de cuentas de los robots de combate”), en el que se señala el riesgo de que programadores, fabricantes y personal militar queden exentos de toda responsabilidad penal por las muertes que podrían ocasionar estas armas, por lo que es necesario un tratado internacional de prohibición de su fabricación. 

“El vacío en la rendición de cuentas significa que no hay disuasión para futuros delitos, ni reparación para las víctimas, ni ninguna condenación social del responsable”, ha señalado en un comunicado de Human Rights WatchBonnie Docherty, investigadora principal de la división de Armas de la organización y autora principal del informe.

“Los numerosos obstáculos a la justicia que afrontan las potenciales víctimas demuestran por qué necesitamos con urgencia una prohibición de las armas completamente autónomas”, añade Docherty. 

Evitar un escenario oscuro 

En 2007, ya se alertó de la posibilidad de que el hecho de que se pierda el control sobre la inteligencia artificial armada pueda llevarnos a un escenario bastante oscuro. Lo hizo un equipo internacional de científicos y académicos pertenecientes a EURON (EUropean RObotics research Network). Estos especialistas elaboraron además un prototipo de “código de ética” para los robots. 

Entre sus recomendaciones se destacaba la necesidad de asegurarse el control de los humanos sobre los robots, la prevención de su utilización nociva o ilegal, la protección de los datos que éstos obtengan y el seguimiento exhaustivo de su actividad. Las recomendaciones actuales, como vemos, son aún más radicales: la prohibición absoluta de este uso bélico de la tecnología.

fuente/ Tendencias21






Los robots militares autónomos que combatirán en las guerras del futuro deben ser programados para regirse por un estricto "código militar". De lo contrario, el mundo se arriesga a sufrir atrocidades indecibles en sus manos de acero.
Revela Leo Lewis en The Times que un prolijo informe preparado y financiado por la Oficina de Investigación Naval, un organismo secreto y de alta tecnología perteneciente a la Marina de Estados Unidos, realiza esta cruda advertencia e incluye también consideraciones acerca de un eventual escenario al estilo de 'Terminator' en el que los robots se vuelvan contra sus dueños humanos.
El informe, el primer trabajo serio de esta índole sobre la ética de los robots soldados, prefigura para un futuro cada vez próximo una era en la que los robots serán suficientemente inteligentes como para tomar decisiones en el campo de batalla que hasta ahora se han reservado a los humanos. Al final, advierte, los robots podrían llegar a desarrollar ventajas cognitivas relevantes sobre los soldados de la especie Homo Sapiens.
"Hay un error muy común que consiste en creer que los robots sólo harán lo que estén programados para hacer", afirma Patrick Lin, el coordinador del informe.
"Desgraciadamente, tal creencia es gravemente obsoleta: data de un tiempo en el que los programas sólo podían ser escritos y comprendidos por una única persona".
La realidad, dice Lin, es que los programas modernos tienen códigos de millones de líneas y que los escriben equipos de programadores, ninguno de los cuales conoce el programa completo. En consecuencia, ningún individuo podría predecir con exactitud cómo interactuarían las distintas partes de los programas grandes sin realizar análisis extensivos sobre el terreno; una opción que podría o bien no estar disponible o bien ser deliberadamente desactivada por los diseñadores de los robots soldados.
La solución, sugiere, es combinar una programación basada en las normas con un periodo de 'aprendizaje' de las cosas que se pueden y no se pueden hacer en la guerra.
Avances en inteligencia artificial
El informe cubre una rica variedad de escenarios en los que se perfilan los asuntos éticos, legales, sociales y políticos que se plantearán cuando la tecnología robótica progrese. ¿Cómo protegeremos nuestros ejércitos de robots contra los 'hackers' de bandas terroristas o los fallos informáticos? ¿A quién se culparía si un robot se vuelve loco ante una multitud de civiles: al robot, a su programador, al presidente de EEUU? ¿Deberían tener los robots una 'opción suicidio' o deberían ser programados para defender su vida?
El informe, coordinado por el departamento de Ética y Tecnología Emergente de la Universidad Politéctica Estatal de California, advierte duramente al ejército estadounidense contra la complacencia y los atajos, ahora que los diseñadores de robots militares están metidos en la carrera por llegar al mercado y se está incrementando el ritmo de los avances en inteligencia artificial.
La sensación de premura entre los diseñadores puede haberse visto acentuada por el mandato del Congreso para que en 2010 una tercera parte de todos los aviones de ataque operativos sean no pilotados y en 2015 lo sean también una tercera parte de todos los vehículos de combate de infantería.
"La carrera por llegar al mercado incrementa el riesgo de un diseño o una programación inadecuados. Peor aún: sin un esfuerzo importante y sostenido para inculcar códigos éticos a los sistemas autónomos, hay poca esperanza de que las primeras generaciones de tales sistemas y robots resulten apropiados, pues cometerían errores que podrían costar vidas humana", advierte el informe.
Un sencillo código ético en la línea de las 'Tres Leyes de la Robótica' que postuló en 1950 Isaac Asimov, el escritor de ciencia ficción, no será suficiente para garantizar un comportamiento ético por parte de las máquinas militares autónomas.
"Vamos a necesitar un código", sentencia Lin. "Estos artilugios son militares, y no pueden ser pacifistas, así que tenemos que pensar en términos de la ética de la guerra. Vamos a necesitar un código del guerrero"

No hay comentarios:

Publicar un comentario

Los comentarios irrelevantes e irrespetuosos serán omitidos.