¿Puede la humanidad asistir pasivamente al desarrollo de ‘robots asesinos’, como el de la película Terminator, que decide por sí mismo a quién matar y cuándo? Es una pregunta que expertos de alto nivel debatieron esta semana en el Foro de Davos.
Los drones, que durante años estuvieron limitados a misiones de reconocimiento de terreno, hoy son calificados como “máquinas asesinas”. Es por lo anterior que se abre el debate sobre si habrá una nueva generación de armas autónomas dotadas de inteligencia artificial.
“No estamos hablando de drones, que sí están controlados por humanos. Estamos hablando de armas autónomas, que no necesitan una persona detrás de ellas. Son armas muy precisas, que pueden localizar y atacar blancos sin que haya una intervención humana”, explicó Stuart Russell, profesor de informática de la Universidad de California.
Durante el debate organizado por la Universidad de California durante el Foro Económico de Davos, en Suiza, se planteó qué pasaría si a una máquina se le asigna una misión de guerra y ésta decide atacar cuando ella quiera.
En el debate, la reflexión abordó las preguntas en torno a cómo puede una máquina diferenciar entre un civil y un soldado o un combatiente de un bando y un rebelde.
“La cuestión es saber si los robots pueden responder a las reglas de la guerra” que establece la Convención de Ginebra, planteó Stuart Russell.
Para Alan Winfield, profesor de Ingeniería Electrónica de la University of the West of England, un robot asesino puede liberar a los humanos de las responsabilidades morales. “Cuando se despliega un robot en un contexto de caos, éste se conduce de una forma caótica”, agregó.
El ejemplo de las armas biológicas
Los expertos coincidieron en que no estamos en un estadio de desarrollo en el cual contingentes de “Terminators” puedan enfrentarse entre ellos y uno de los beligerantes pueda rendirse y decir “ya está, ustedes ganaron, tomen a todas nuestras mujeres”. Sin embargo, los expertos sí piensan que hay colocar “salvaguardas”.
Angela Kane, que actualmente viene de dejar su cargo como Alta Representante de la ONU para Asuntos de Desarme, lanzó a partir de 2013 el debate sobre el tema de “las armas autónomas”.
En julio pasado, miles de científicos, incluyendo el astrofísico Stephen Hawking, lanzaron un llamado para que se prohíban los “robots asesinos”, alertando sobre el peligro a la hora de golpear los objetivos y sus posibles usos por “terroristas”.
Lee también: Stephen Hawking pronostica sombrío destino para la humanidad
Se tomó mucho tiempo antes de reaccionar y “ahora puede que sea demasiado tarde”, lamentó Kane durante el debate. “Hay muchos representantes de la comunidad internacional que no entienden de qué estamos hablando”, señaló la experta.
Para Roger Carr, presidente de BAE Systems, un importante fabricante británico de armas y de sistemas aeronaúticos, incluso sacando de la balanza cuestiones éticas, en tiempo de guerra y de paz, estos avances llevan a la humanidad a un nivel que va más allá de nuestra comprensión.
“No se puede poner en acción una cosa que en caso de fallo técnico pueda convertirse en algo muy destructivo y sin ningún mecanismo de control por parte de los humanos”, agregó Carr.
Russell afirma que por motivos éticos está en contra de los robots, y destacó que los estadounidenses renunciaron a la carrera por las armas biológicas porque se dieron cuenta de que éstas podrían ser utilizadas “por cualquier otro”. “Espero que no pase esto con los robots”, agregó.