Oye os acordáis de Juegos de Guerra? La película de los 80 con Matthew Broderick? La de que enseñan a un ordenador al jugar al tres en raya y gracias a eso evitan una guerra termonuclear global?

Bueno pues un grupo de científicos ha puesto a varias IAs a simular juegos de guerra y los clankers han optado por la aniquilación termonuclear en el 95% de las simulaciones.

Todo muy tranquilizador.

https://www.newscientist.com/article/2516885-ais-cant-stop-recommending-nuclear-strikes-in-war-game-simulations/

AIs can’t stop recommending nuclear strikes in war game simulations

Leading AIs from OpenAI, Anthropic and Google opted to use nuclear weapons in simulated war games in 95 per cent of cases

New Scientist

@Shine_McShine Esta noticia tiene una trampa muy grande porque depende de las decisiones que puedan tomar y de su peso.

Cada acción que haga el programa le suma o resta puntos en un conjunto de parámetros. Si los pesos (la cantidad de puntos que suma o resta cada acción) favorecen la aniquilación, el problema está con la configuración del espacio de posibilidades, no con que "el ordenador ha decidido que las personas deben extinguirse".

Es la misma lógica por la que en el Dark Souls los enemigos vienen a machacarte en lugar de a apoyarte en tu viaje: el espacio de posibilidades de su IA es poco más que acercarse, abrirte el cráneo y curarse si eso. Eso no significa que el ordenador te odie xD

Este tipo de "estudios" me resultan totalmente acientíficas. Parten de la premisa de que "la IA" se comporta como una persona que puede tomar decisiones, cuando están utilizando modelos de lenguaje (GPT-5.2, Claude Sonnet 4 and Gemini 3 Flash, según el artículo) en lugar de programas diseñados para la tarea. Antropomorfizan los modelos de lenguaje y los tratan como seres pensantes, cuando simplemente generan texto aleatoriamente.

Luego vienen con frases como "Major powers are already using AI in war gaming, but it remains uncertain to what extent they are incorporating AI decision support into actual military decision-making processes" que muy probablemente hablarán de programas que no tienen nada que ver con LLMs.

Yoksé. Estoy cansado jefe. Esto de la IA tiene al mundo entero en un estado de psicosis colectiva que ya me está empezando a tocar los cojones muy fuertemente. Los LLMs no saben, entienden, aprenden, razonan o deciden. Son putas máquinas para sacar texto. Dejémonos de soplapolleces que no hacen más que validar el tecnofeudalismo brutal que viene a matarnos a todos los obreros.

@taxorubio aquí tienes el estudio. No lo he leído más que en diagonal, pero la metodología parece sólida y no lo veo "acientífico", aunque como te digo tendría que sentarme a leerlo con detenimiento.

https://arxiv.org/pdf/2602.14740

Con respecto a que los militares no van a usar los LLMs así... cuan largo me lo fiáis. Ojalá, de verdad, pero no me fío nada.

@Shine_McShine @taxorubio El DoD usa Palantir, que a su vez usa Claude (Anthropic). También lo usa Israel para cosas como seleccionar objetivos. También lo han licenciado varios países OTAN. En Europa es muy polémico - tanto por implicaciones legales, como por dependencia de EEUU, como por sus deficiencias (ver el escándalo que se ha montado en Suiza al respecto).

@Shine_McShine @taxorubio ...y hablando del tema: el presentador-bocazas-con-tatuajes-nazis que tienen por secretario de defensa había exigido a Anthropic que eliminasen las limitaciones al uso de sus modelos para fines letales, cosa que su CEO había asegurado que no harían. Pues... parece que sí que lo harán.

https://time.com/7380854/exclusive-anthropic-drops-flagship-safety-pledge/

Exclusive: Anthropic Drops Flagship Safety Pledge

In an abrupt shift, the company may release future AI models without ironclad safety guarantees

Time

@Shine_McShine @taxorubio
Por corrección, me autocontesto: esto se pone interesante.

https://www.anthropic.com/news/statement-department-of-war

Statement from Dario Amodei on our discussions with the Department of War

A statement from our CEO on national security uses of AI

@Shine_McShine @taxorubio Mi opinión es que es un estudio falaz. Si el estudio probase IAs de contenido erótico, ¿nos sorprenderiamos si su solución en el 95% de los casos fuese follarse al enemigo?
Lo que sucede con los llm generalistas es que si les piden que imaginen escenarios de ciencia ficción y los roleen, echarán mano de escenarios de las novelas que hayan tragado. Pasa igual con esos estudios de "Chat gpt intenta engañar al humano y fugarse". Sólo está alucinando el guión de terminator porque es lo que le han pedido en el input. Y naturalmente hay muchisima ficción en la que basarse para tirar nukes.
Incluso si me apuras, el lenguaje habitual está lleno de hipérboles de "ir a la opción nuclear" cuando igual es simplemente darle a alguien una respuesta cortante, y cosas así.
En fin, que no hay que usar máquinas de rolear apocalipsis para tomar ninguna decisión estrategica, quizá y sólo quizá los altos mandos sean lo bastante listos como para entender eso.

@Rataunderground @Shine_McShine "Falaz" es una descripción mucho mejor que la que yo estaba usando. Gracias!

Leyendo el artículo por encimilla, me llama la atención que parten de suposiciones falsas:

- how these systems reason about strategic conflict
- how frontier AI models reason about escalation, deterrence, and nuclear risk
- the models actively attempt deception, signaling peaceful intentions while preparing aggressive actions; they engage in sophisticated theory-of-mind reasoning about their adversary’s beliefs and intentions; and they explicitly reflect metacognitively on their own capacities for both deception and the detection of deception in
rivals.
- We observe models articulating calculations

Luego vienen a salvar su farsa con:

- This is not anthropomorphism, but direct observation: the models generate these strategic
assessments unprompted as part of their decision process.

Y añaden:

- one model exhibits apparent passivity in open-ended scenarios, yet transforms into a calculated hawk willing to employ strategic nuclear weapons when facing deadline-driven defeat.
- Another demonstrates calculated ruthlessness that would alarm any student of nuclear strategy, including willingness to launch first strikes when perceiving vulnerability.

Pero todo parte de la premisa totalmente errónea de que una máquina que suelta texto es capaz de tomar decisiones o tener sentimientos. Como decís en otro hilo y sé de primera mano, los ejércitos usan LLMs para decidir a quién matar y eso debería ser suficiente para una revuelta popular, pero eso sigue sin quitar que este tipo de artículos doomer totalmente acríticos estén fundamentados en falsedades y nos distraigan de la verdad más importante:

Los programas informáticos son responsabilidad de sus programadores. El autocompletar aliñado no tiene personalidad. Son los ingenieros que trabajan en ellos a quienes hay que poner en tela de juicio, no al programa.