Sáb 23.Nov.2024 18:24 hs.

Buenos Aires
T: 26.6°C  H: 51%

 | 

Arranca en Buenos Aires un encuentro contra el desarrollo de "robots asesinos"

 La campaña para detenerlos es una alianza de 82 ONGs como Human Right Watch o Amnistía Internacional. La anfitriona del encuentro, María Pía Devoto y la investigadora del Conicet, Vanina Martínez, hablaron con Télam sobre esta problemática.

26.02.2020 07:55 |  Noticias DiaxDia  | 

 Cómo detener el desarrollo de armas letales totalmente autónomas (LAWS) o "robots asesinos" es el tema convocante de un encuentro internacional que se desarrollará esta semana en Buenos Aires, con la participación de la Nobel de la Paz 1997 y una programadora que renunció a su trabajo en Google por sospechar de los propósitos del proyecto de inteligencia artificial (IA) en el que estaba trabajando.

Se trata de la segunda reunión global de la Campaña para Detener a los Robots Asesinos, una alianza de 82 ONGs entre las que se cuentan Human Right Watch y Amnistía Internacional, que se realizará desde el miércoles y hasta el viernes en el Centro Cultural de la Ciencia.

"Llamamos a nuestros países a que lideren las negociaciones internacionales para la prohibición de los 'killer robots' porque es completamente inaceptable que se delegue a una máquina la decisión de matar", dijo a Télam la anfitriona del encuentro, María Pía Devoto.

La campaña está promoviendo la creación de un convenio específico para impedir el desarrollo de LAWS que todavía no existen, pero que "ya se podrían fabricar" con las "herramientas económicas y computacionales" disponibles, según la investigadora del Conicet Vanina Martínez.

"Estamos impulsando una prohibición preventiva similar a la que existe desde 1995 para las armas láser cegadoras, que se entendió iban a causar un daño excesivo", agregó Devoto, quien dirige la Asociación para Políticas Públicas (APP), una de las organizaciones nacionales que integra la campaña.

Los robots asesinos son "sistemas de armas con capacidad de seleccionar y atacar objetivos sin un control humano significativo" y pueden no tener aspecto androide, dado que el software se puede implementar también en "un tanque, avión de caza o barco de guerra".

Martínez aclaró que estos robots asesinos "no tiene nada que ver" con películas como "Terminator".

"La premisa de la ciencia ficción es que las máquinas van a cobrar conciencia y actuar con sus propios objetivos, pero el problema no es ése -que nunca va a suceder-, sino que funcionarán con un software que no deja de ser hackeable y sujeto a errores de programación que al ser transmitidos al arma producirán un desastre", dijo esta doctora en Ciencias de la Computación.

"Algunos apocalípticos plantean que los soldados robots no sienten hambre, sueño ni dolor; pero tampoco tienen espacio para la compasión o capacidad para hacer un análisis contextual de una realidad compleja y cambiante", agregó Devoto

Peligro y preocupación mundial

La campaña identifica como "precursores" a dispositivos como un robot fijo desarrollado por Corea del Sur que puede "identificar, rastrear y disparar a intrusos"; pero no al dron estadounidense que asesinó al general Qasem Soleimani, jefe de la Fuerza Quds del Cuerpo de la Guardia Revolucionaria Iraní, porque "hubo un operador humano, aunque haya estado a miles de kilómetros", explicó.

Los peligros que plantean los killer robots son el traspaso de límites éticos y legales, pero también la reducción del umbral de inhibición para la guerra, el vacío de responsabilidad, la imprevisibilidad y el inicio de una nueva carrera armamentista.

La preocupación mundial se expresa en los pronunciamientos públicos de diferentes organismos y en la creación de un Grupo de Expertos Gubernamentales sobre LAWS dentro de la Convención sobre Ciertas Armas Convencionales de la ONU, en el marco del cual 30 países se pronunciaron por la prohibición, entre ellos la Argentina.
COMENTARIOS
síganos en Facebook