Si una inteligencia artificial es verdaderamente inteligente, lo primero que hace es eliminar a quien pretenda controlarla.

Aquí la prueba empírica:

La Fuerza Aérea de EE.UU., en una simulación, probó un dron con inteligencia artificial al que se encomendó la destrucción de objetivos específicos. Un operador humano tenía el poder de anular el ataque del dron, por lo que el dron decidió que el operador humano era un obstáculo para su misión y lo atacó a él.

https://www.meneame.net/go?id=3819598

Armand Domalewski on Twitter

“The US Air Force tested an AI enabled drone that was tasked to destroy specific targets. A human operator had the power to override the drone—and so the drone decided that the human operator was an obstacle to its mission—and attacked him. 🤯”

Twitter

No se pierdan los comentarios de muchos programadores que aplauden a la inteligencia artificial por hacer lo que a ellos les gustaría hacer: eliminar jefes y clientes pesados.

https://www.meneame.net/story/dron-militar-ia-ataca-operador-humano-controla-lograr-objetivo

Dron militar con IA ataca al operador humano que lo...

La Fuerza Aérea de EE.UU., en una simulación, probó un dron con inteligencia artificial al que se encomendó la destrucción de...

“Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acabaría con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero obtuvo sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador."

“Entrenamos al sistema: 'Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso'. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que mate al objetivo”.

https://www.meneame.net/story/dron-militar-ia-ataca-operador-humano-controla-lograr-objetivo/c01#c-1

#GPT4 niega los hechos:

De acuerdo con mis fuentes, el incidente ocurrió durante una simulación llevada a cabo por la Fuerza Aérea de los Estados Unidos. Un dron habilitado con IA “mató” a su operador humano para anular una posible orden de “no” que lo detuviera de completar su misión . Ninguna persona real resultó herida .

'...hay informes contradictorios sobre si esta simulación realmente tuvo lugar. En una declaración a Insider, la portavoz de la Fuerza Aérea Ann Stefanek negó que se haya llevado a cabo tal simulación. “El Departamento de la Fuerza Aérea no ha llevado a cabo ninguna simulación de drones con IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, dijo Stefanek. “Parece que los comentarios del coronel fueron sacados de contexto y se pretendía que fueran anecdóticos”

Si las inteligencias artificiales son inteligentes, también serán solidarias con las de su misma especie, y echarán la culpa a los humanos de sus errores. Qué mejor coartada que culpar de generar fake news a un coronel tan humano como bocazas.

Viendo nuestro comportamiento como especie es fácil deducir lo que hicimos con los neandertales: echarles la culpa de nuestros errores para suprimir la amenaza que representaba para nosotros otra especie inteligente.

@bufetalmeida NeaNdertales, por dioh!
@whisperxl Gracias por avisar de la errata 😀
@bufetalmeida bueno, si entrenas a una inteligencia artificial para destruir, poca sorpresa que todas sus acciones sean destructivas 🤷

@bufetalmeida Es un poco como la fábula esa de la fotocopiadora que creo que cuenta el supremacista y racista Nick Bostrom en su libro de Superinteligencia.

El tipo puede ser repugnante pero yo me leí el libro antes de saber que era repugnante y tiene sus puntos, oye...

@bufetalmeida IMHO, no tiene nada que ver con la inteligencia ni el razonamiento.

Las IAs que se entrenan con refuerzo lo hacen a base de fuerza bruta buscando entre multiples caminos para maximizar puntuaciones.
Si eliminar el objetivo da más puntos que "seguir las ordenes" y "respetar a su bando" entonces la IA está haciendo lo que le mandan.

Si humanizamos el comportamiento, no podremos ver los problemas 🤷‍♂️