Los robots asesinos, máquinas capaces de matar sin la intervención humana, alarma a los defensores de los derechos humanos por el desarrollo de la tecnología.
ROBOTS ASESINOS
“La tecnología avanza muy rápido en esa dirección. Estados Unidos, Reino Unido, Israel, Rusia, China y Corea del Sur han desarrollado o desplegado precursores de estas armas”, explicó a Efe Bonnie Docherty, investigadora especialista en armamento de Human Rights Watch (HRW).
Docherty es la autora principal de un informe reciente de esa organización y la Universidad de Harvard en el que se pide la prohibición del desarrollo, producción y uso de las armas letales autónomas, conocidas como robots asesinos.
“Aunque los expertos no se ponen de acuerdo en pronosticar cuándo estas armas podían materializarse, sí coinciden en que su desarrollo es factible y probable si no se dan los pasos necesarios para detenerlo”, comentó la investigadora.
La tesis detrás de esta urgencia es que la prohibición debe llegar antes de que los gobiernos hayan invertido tanto en tecnología para desarrollar estas armas como para no querer dar marcha atrás.
“Si el desarrollo no se detiene lo antes posible, existe además el riesgo de que versiones preliminares se usen de manera prematura o caigan en manos de grupos armados sin respeto a la ley”, argumentó Docherty.
“La comunidad internacional ya consideró importante en el pasado prohibir ciertos tipos de armas de manera preventiva. En 1995 la ONU prohibió las armas que producen ceguera antes de que se comenzaran a usar”, añadió.
A diferencia de los polémicos “drones” -aviones no tripulados-, los robots asesinos no precisan de la intervención humana: pueden seleccionar y atacar objetivos de manera autónoma.
“Estos dos tipos de armas despiertan distintos temores. Pero el uso de los ‘drones’ demuestra que los ejércitos cada vez confían más en la tecnología autónoma”, señaló Docherty.
Uno de los aspectos más controvertidos de las armas autónomas es el debate sobre la moralidad de permitir que una máquina tome la decisión de matar a una persona.
Incluso si el militar supiera que uno de los robots asesinos está a punto de matar a un civil, no podría hacer nada para impedirlo.
Del mismo modo, en el caso de un corte en las comunicaciones, el militar no sabría qué está haciendo la máquina ni, por consiguiente, podría evitar algún tipo de actuación indebida.
“En la mayoría de los casos, ni el programador ni el fabricante ni el comandante ni el operador podrían tener responsabilidad legal por los actos indebidos de la máquina”, apuntó Docherty.
La semana pasada se reunieron en Ginebra expertos y representantes de sesenta países miembros de la ONU para debatir sobre los límites legales y éticos de las armas autónomas. EFE
No hay comentarios:
Publicar un comentario