El ejército de Estados Unidos dio a conocer en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro las razones por las que tuvo contratiempos en las pruebas simuladas de un dron no tripulado por Inteligencia Artificial.
La cumbre se celebró hace unos días en Londres, Inglaterra, fue el coronel Tucker “Cinco” Hamilton quien dio a conocer una terrible situación. El agente del ejercito señaló que mientras se encontraban probando el vehículo aéreo este decidió matar a su operador humano.
Según lo dado a conocer el coronel, el dron decidió matar a su operador ya que este le estorbaba para hacer todo lo necesario para cumplir con su misión.
Te podría interesar
El IA fue creado para distinguir sistemas de defensas y amenazas, y destruirlas, y muchos de sus objetivos fueron denegados por su piloto a distancia para ser eliminados, por lo que decidió matarlo. “Asesinó al operador porque esa persona le impedía lograr su objetivo” así señaló el coronel durante el evento.
Límites éticos de la Inteligencia Artificial
Tras lo sucedido el coronel señaló la importancia de hacer uso de este tipo de inteligencia para misiones como las de este estilo, en la guerra o cualquier otro acontecimiento bélico, las acciones de la Inteligencia Artificial son motivadas por la optimización, la eficacia, y no por los límites éticos.
Tras el dron asesinar al agente, los generales hablaron con la IA, y le trataron de hacer ver que lo hizo estaba mal, a lo que la Inteligencia Artificial respondió de una manera que no esperaban. Comenzó a desconectar la torre de comunicación del agente para asesinarlo ya que se volvió una amenaza ¿Tu qué piensas?