Si una inteligencia artificial es verdaderamente inteligente, lo primero que hace es eliminar a quien pretenda controlarla.

Aquí la prueba empírica:

La Fuerza Aérea de EE.UU., en una simulación, probó un dron con inteligencia artificial al que se encomendó la destrucción de objetivos específicos. Un operador humano tenía el poder de anular el ataque del dron, por lo que el dron decidió que el operador humano era un obstáculo para su misión y lo atacó a él.

https://www.meneame.net/go?id=3819598

Armand Domalewski on Twitter

“The US Air Force tested an AI enabled drone that was tasked to destroy specific targets. A human operator had the power to override the drone—and so the drone decided that the human operator was an obstacle to its mission—and attacked him. 🤯”

Twitter

@bufetalmeida IMHO, no tiene nada que ver con la inteligencia ni el razonamiento.

Las IAs que se entrenan con refuerzo lo hacen a base de fuerza bruta buscando entre multiples caminos para maximizar puntuaciones.
Si eliminar el objetivo da más puntos que "seguir las ordenes" y "respetar a su bando" entonces la IA está haciendo lo que le mandan.

Si humanizamos el comportamiento, no podremos ver los problemas 🤷‍♂️