@Shine_McShine Esta noticia tiene una trampa muy grande porque depende de las decisiones que puedan tomar y de su peso.
Cada acción que haga el programa le suma o resta puntos en un conjunto de parámetros. Si los pesos (la cantidad de puntos que suma o resta cada acción) favorecen la aniquilación, el problema está con la configuración del espacio de posibilidades, no con que "el ordenador ha decidido que las personas deben extinguirse".
Es la misma lógica por la que en el Dark Souls los enemigos vienen a machacarte en lugar de a apoyarte en tu viaje: el espacio de posibilidades de su IA es poco más que acercarse, abrirte el cráneo y curarse si eso. Eso no significa que el ordenador te odie xD
Este tipo de "estudios" me resultan totalmente acientíficas. Parten de la premisa de que "la IA" se comporta como una persona que puede tomar decisiones, cuando están utilizando modelos de lenguaje (GPT-5.2, Claude Sonnet 4 and Gemini 3 Flash, según el artículo) en lugar de programas diseñados para la tarea. Antropomorfizan los modelos de lenguaje y los tratan como seres pensantes, cuando simplemente generan texto aleatoriamente.
Luego vienen con frases como "Major powers are already using AI in war gaming, but it remains uncertain to what extent they are incorporating AI decision support into actual military decision-making processes" que muy probablemente hablarán de programas que no tienen nada que ver con LLMs.
Yoksé. Estoy cansado jefe. Esto de la IA tiene al mundo entero en un estado de psicosis colectiva que ya me está empezando a tocar los cojones muy fuertemente. Los LLMs no saben, entienden, aprenden, razonan o deciden. Son putas máquinas para sacar texto. Dejémonos de soplapolleces que no hacen más que validar el tecnofeudalismo brutal que viene a matarnos a todos los obreros.