Los científicos dicen no a los robots asesinos

2
Representantes de varias ONG y científicos lanzaron la campaña contra los robots asesinos en el Parlamento británico en abril de este año. / Stop killer robots
Representantes de varias ONG y científicos lanzaron la campaña contra los robots asesinos en el Parlamento británico en abril de este año. / stopkillerrobots.org

El siglo XX sufrió la aparición de las dos tecnologías para la guerra más letales e inmorales: las armas químicas y la bomba atómica. En ambos casos, se repitió el proceso. La ciencia las creó, los militares les jalearon, los políticos las usaron y, tras el espanto del mundo, fueron prohibidas o desmanteladas. En este siglo, puede que se hagan las cosas al revés. La ciencia empieza a decir no al desarrollo de lo que los militares llaman  sistemas de armas plenamente autónomos, es decir, robots capaces de matar.

"Como científicos informáticos, ingenieros, expertos en inteligencia artificial, en robótica y profesionales de otras disciplinas relacionadas, hacemos un llamamiento para la prohibición del desarrollo y despliegue de sistemas de armas donde la decisión de aplicar la fuerza la tomen de forma autónoma". Así comienza una declaración contra la investigación en robots asesinos. Firmada por casi 300 científicos de 37 países, el documento muestra el temor a que el potencial de los robots disminuya el control de los humanos sobre sus decisiones y esconda la responsabilidad de sus consecuencias.

Desde hace una década, Estados Unidos usa sistemas controlados a distancia, los drones, en operaciones militares. Primero realizaban labores de vigilancia e inteligencia, pero ya son la primera opción de fuego en escenarios como Afganistán. Estos aparatos no tripulados aún dependen del control de un operador humano, aunque esté a miles de kilómetros. Pero varias empresas y países, como Israel, Corea del Sur, China, Rusia o el Reino Unido, además de la administración estadounidense, están investigando en una segunda generación de máquinas que, con la ayuda de la inteligencia artificial, podrán seleccionar objetivos por su cuenta. Son los robots asesinos.

En el llamamiento de los científicos que se hizo público el martes, sus impulsores expresan su temor de que la lógica de la guerra moderna, la aparente reducción de los costes políticos y los intereses económicos pavimenten el camino hacia estos sistemas autónomos. Recuerdan que la ciencia hoy por hoy es incapaz de asegurar que estos robots consigan las habilidades necesarias para una identificación correcta del objetivo o la inteligencia para elegir entre distintos grados de violencia.

"Además, la proliferación de armas robóticas autónomas suscita el interrogante sobre cómo puedan interactuar aparatos controlados por complejos algoritmos ", dice la declaración. Como en las distopías más inquietantes de algunas películas de ciencia ficción, "esas interacciones podrían crear conductas inestables e impredecibles que podrían provocar o escalar conflictos o causar daños inaceptables a la población civil", añade el texto.

La declaración es uno de los frutos de la campaña Stop killer robots. Iniciada en abril pasado por  el Comité Internacional para el Control de Armas Robóticas y la organización Human Rights Watch, su objetivo es arrancar de los gobiernos un tratado que prohíba la investigación y desarrollo de estos sistemas autónomos, como ya los hay para las armas químicas, las biológicas o las  minas antipersona. Desde entonces, varias decenas de organizaciones no gubernamentales, destacados científicos, entre ellos varios premios Nobel, y representantes de la sociedad civil se han apuntado a la campaña.

"Hablamos con representantes de muchos gobiernos en Ginebra el pasado mayo, cuando el relator especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias, el profesor Christof Heyns, hizo público su informe sobre los robots autónomos letales, que incluía un llamamiento en favor de una moratoria", explica Mary Wareham, de la división de armas de Human Rights Watch y coordinadora de la campaña Stop killer robots.

Entonces sólo algunos países sin esta tecnología como Pakistán, Sierra Leona o Egipto se mostraron a favor de, al menos, una moratoria en la investigación de estas armas. Otros que sí la tienen, como el Reino Unido, son contrarios a la prohibición. De entre los grandes, solo Francia y Alemania están dando pasos para limitar el desarrollo de los robots para la guerra. El resto calla, en especial Estados Unidos. Éste país piensa dedicar 30.000 millones de dólares hasta 2015 a sistemas autónomos para su ejército. También, en noviembre pasado, el Gobierno estadounidense aprobaba una nueva directiva para el impulso de estas armas. Eso sí, incluye un párrafo que reserva a un humano la última decisión.

"Hay algo particularmente repugnante en automatizar la más difícil de las decisiones éticas, matar a una persona", recuerda el profesor de computación cognitiva en la Universidad de Londres Goldsmiths y presidente de la Sociedad para el Estudio de la Inteligencia Artificial y la Simulación de la Conducta, Mark Bishop. Junto a él, firman la declaración algunos de los científicos más reputados en los campos de la ingeniería robótica y la inteligencia artificial.

Entre los 270 firmantes aparece, por ejemplo, Illah Nourbakhsh, profesor de robótica en la Universidad Carnegie Mellon y autor de varios manuales sobre robots. Llama la atención la presencia en la lista de James Hendler, antiguo responsable científico de DARPA, la división para investigación avanzada del Departamento de Defensa de Estados Unidos y, posiblemente, la institución que más ha trabajado en el desarrollo de robots para la guerra.

La declaración la suscriben varios científicos españoles, como el profesor Juan Botía, de la Universidad de Murcia y uno de los principales expertos españoles en inteligencia artificial, o el investigador del Instituto de Microelectrónica de Sevilla, del CSIC, Eduardo Peralías. Pero también ha firmado Toni Ferraté, uno de los primeros en dedicarse a vender robots en España desde su tienda Ro-botica. "Los robots son herramientas para ayudar a los humanos, no para matarlos", dice para explicar su adhesión. Como cualquier tecnología, se puede usar para el bien o para el mal, "pues usémosla bien", añade.

Ferraté también recuerda que estos robots asesinos vulneran la primera ley de la robótica de Isaac Asimov. Aunque la estableció para sus libros de ciencia ficción, los científicos quieren hacerla realidad. Quizá sea bueno recordar las tres: 1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño. 2.Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera Ley. Y 3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda Ley.

Leave A Reply

Your email address will not be published.