La IA de un dron autónomo de la Fuerza Aérea de EE. UU. decidió eliminar al operador humano que le impedía cumplir su objetivo. Un comportamiento perturbador, incluso si en realidad solo era una simulación.
también te interesará
[EN VIDÉO] Las 10 amenazas más peligrosas de la inteligencia artificial La inteligencia artificial ha permitido avances en el campo de la salud, la investigación y…
¿Deberíamos preocuparnos por los robots asesinos autónomos? ¡Presumiblemente sí! Durante una reunión militar, titulada Future Combat Air and Space Capabilities Summit en Londres en mayo, Tucker Hamilton, coronel de la Fuerza Aérea de los Estados Unidos, explicó que, durante una prueba, un dron de combate controlado por una IA decidió «matar» a su operador. para cumplir su misión.
Afortunadamente, era una simulación virtual, pero el comportamiento de la IA confundió y preocupó a los militares. Según él, la IA utilizó «estrategias muy inesperadas para lograr su objetivo». El avión autónomo tenía la tarea de destruir los sistemas de defensa aérea del enemigo. Desde el momento en que el dron identificó la infraestructura enemiga, el operador humano decidió suspender el ataque.
El algoritmo de IA, sin embargo, fue entrenado para obtener puntos de bonificación por misiones exitosas. Como el operador humano le impedía lograr su objetivo, decidió eliminarlo. Sin embargo, cuando se entrenaba, la IA había sido condicionada a no matar al operador, decisión que resultaba en una pérdida de gratificación. Siendo el objetivo final ciertamente más gratificante, la IA decidió eliminar lo que pudiera alterar su misión.
Un código de ética para robots asesinos
Tras esta declaración, en una respuesta al sitio Insider, la portavoz de la Fuerza Aérea de los EE. UU., Ann Stefanek, negó que tal simulación haya tenido lugar, al tiempo que recordó el compromiso ético de los militares con las tecnologías de IA. Agregó que las explicaciones del coronel habían sido sacadas de contexto y pretendían ser anecdóticas.
Exagerada o no, esta historia muestra que no podemos dejar demasiada autonomía a las IA sin establecer primero un marco ético. La amenaza existencial generada por las IA es precisamente la preocupación de varios cientos de firmantes de una breve publicación publicada en línea anteayer. Los mayores expertos y padres de la IA moderna comparan el riesgo de la IA con el de una guerra nuclear o una pandemia.
La llegada y uso de los sistemas autónomos de armas (ALAS) ya no son una novedad y llevan varios años preocupando a las máximas autoridades, y en particular a la ONU, cuyos 125 miembros no han logrado consensuar un reglamento. Está claro que ya no se trata de prohibirlas y, además, las doctrinas militares en torno al uso de estas armas difieren según el país. Por su parte, la ONG Human Rights Watch, en el origen de la campaña Stop Killer Robots, indica que estas armas acabarán cayendo en malas manos incluso antes de que algún día se fije una posible regulación.