En una prueba virtual realizada por la Fuerza Aérea de EE. UU., un dron controlado por inteligencia artificial (IA) mató a su operador para que no interfiriera con su misión.
Así lo afirmó un alto representante de la Fuerza Aérea de los EE. UU. en la Cumbre sobre el futuro de la aviación de combate y las capacidades espaciales en Londres.
El coronel Tucker Hamilton, jefe de pruebas y operaciones de IA en la Fuerza Aérea de los EE. UU., habló sobre una prueba simulada en la que un dron basado en IA tenía la tarea de destruir los sistemas de defensa aérea del enemigo y terminó atacando a cualquiera que interfiriera con esta orden.
El sistema comenzó a comprender que, a pesar de la definición de una amenaza, a veces el operador le ordenaba que no destruyera esta amenaza.
Pero ella recibió puntos por destruir esta amenaza. ¿Y qué hizo ella? Mató al operador. Mató al operador porque le impidió lograr su objetivo"Dijo Hamilton. Afortunadamente, nadie resultó herido.
Hamilton, que es piloto de pruebas de aviones de combate experimentales, advirtió sobre los riesgos de confiar demasiado en la IA y enfatizó que la prueba muestra que "no se puede hablar de inteligencia artificial, aprendizaje automático, autonomía sin hablar de ética e IA". Подробнее на: