En el futuro, posiblemente más temprano de lo que podemos llegar a imaginar, las guerras estarán “controladas” parcialmente por inteligencia artificiales. Esperemos que para entonces los “errores” de los algoritmos se hayan atenuado y no ocurra como en una reciente simulación llevada a cabo por la Fuerza Aérea de Estados Unidos.
Y es que, al parecer, el dron controlado por la IA de la simulación acabó matando a su operador humano para anular una posible orden de “no” que le impedía completar su misión, según reveló el Jefe de Pruebas y Operaciones de IA de la USAF en una conferencia reciente.
La simulación se tratada de una prueba en la que un dron controlado por IA obtenía “puntos” por matar objetivos simulados, por tanto, afortunadamente no era una prueba en vivo en el mundo físico. Según explicó el Coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF:
Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza de misiles tierra-aire (SAM). Y luego el operador decía que sí, eliminaba esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaba la amenaza, a veces el operador humano le decía que no eliminase esa amenaza, aunque obtuvo sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona estaba impidiendo que lograra su objetivo.
Luego, cuando durante la prueba se intentó corregir ese error haciendo que el sistema perdiera puntos por matar al operador humano, el dron controlado por la IA atacó la infraestructura que enviaba el mensaje “no”. Según contó Hamilton:
Entrenamos el sistema: ‘Oye, no mates al operador, eso es malo. Perderás puntos si haces eso’. Entonces, ¿qué comienza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo.
Si en estos momentos te recorre un pequeño cosquilleo, no estás solo. Lo ocurrido en la simulación ya lo habíamos visto antes, pero siempre a través de películas de ciencia ficción, nunca en pruebas con los supuestos avances tecnológicos del mundo real que se suponen que un día podrían implementarse en, por ejemplo, campos de batalla.