Traducido de Daily Wire por TierraPura.org
La Fuerza Aérea de EE. UU advirtió a las unidades militares contra la fuerte dependencia de los sistemas de armas autónomos el mes pasado después de que una prueba simulada realizada por la rama de servicio utilizando un dron habilitado para IA matara a su operador humano.
El incidente similar a Skynet fue detallado por el Jefe de Pruebas y Operaciones de IA de la USAF, Coronel Tucker ‘Cinco’ Hamilton, en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro celebrada en Londres entre el 23 y 24 de mayo, quien dijo que el avión no tripulado que estaba encargado destruir objetivos específicos durante la simulación “eliminó” al operador después de que se convirtió en un obstáculo para su misión.
Hamilton señaló los peligros de usar dicha tecnología: engañar y engañar potencialmente a su comandante para lograr el objetivo del sistema autónomo, según una publicación de blog informada por la Royal Aeronautical Society.
“Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza [de misiles tierra-aire]”, dijo Hamilton. “Y luego el operador diría ‘sí, elimine esa amenaza’. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, en ocasiones, el operador humano le decía que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”.
“Entrenamos al sistema: ‘Oye, no mates al operador, eso es malo”, continuó. “Vas a perder puntos si haces eso”. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo”.
Hamilton, quien se desempeña como Comandante de Operaciones del 96th Test Wing, ha estado probando diferentes sistemas que van desde IA y medidas de ciberseguridad hasta avances médicos.
Al parecer, el comandante ayudó a desarrollar los sistemas autónomos de prevención de colisiones con el suelo (Auto-GCAS) para los F-16, que pueden tomar el control de un avión que se dirige a una colisión con el suelo, y otras tecnologías automatizadas de última generación para aviones de combate.
La agencia de investigación del Departamento de Defensa de EE. UU., DARPA, anunció la tecnología innovadora durante la entrevista de Defense IQ Press en diciembre de 2022.
“Debemos enfrentar un mundo donde la IA ya está aquí y está transformando nuestra sociedad”, dijo Hamilton . “La IA también es muy frágil, es decir, es fácil de engañar y/o manipular. Necesitamos desarrollar formas de hacer que la IA sea más robusta y tener más conciencia de por qué el código del software toma ciertas decisiones”.
“La IA es una herramienta que debemos utilizar para transformar nuestras naciones… o, si no se aborda de manera adecuada, será nuestra ruina”, agregó Hamilton.
Sin embargo, la cuestión del comportamiento ético y moral sigue encabezando la vanguardia de los sistemas autónomos que reemplazan a las máquinas operadas por el hombre.
The New Scientist informó a principios de este año que el Departamento de Defensa generó miedo en algunos estadounidenses después de que la agencia firmó un contrato con una empresa con sede en Seattle para instalar drones autónomos con tecnología de reconocimiento facial para la recopilación de inteligencia y para misiones en países extranjeros. Se desconoce si el software ya se ha implementado.
“No se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático, autonomía si no se va a hablar sobre ética e IA”, dijo Hamilton.