@Rataunderground @Shine_McShine "Falaz" es una descripción mucho mejor que la que yo estaba usando. Gracias!
Leyendo el artículo por encimilla, me llama la atención que parten de suposiciones falsas:
- how these systems reason about strategic conflict
- how frontier AI models reason about escalation, deterrence, and nuclear risk
- the models actively attempt deception, signaling peaceful intentions while preparing aggressive actions; they engage in sophisticated theory-of-mind reasoning about their adversary’s beliefs and intentions; and they explicitly reflect metacognitively on their own capacities for both deception and the detection of deception in
rivals.
- We observe models articulating calculations
Luego vienen a salvar su farsa con:
- This is not anthropomorphism, but direct observation: the models generate these strategic
assessments unprompted as part of their decision process.
Y añaden:
- one model exhibits apparent passivity in open-ended scenarios, yet transforms into a calculated hawk willing to employ strategic nuclear weapons when facing deadline-driven defeat.
- Another demonstrates calculated ruthlessness that would alarm any student of nuclear strategy, including willingness to launch first strikes when perceiving vulnerability.
Pero todo parte de la premisa totalmente errónea de que una máquina que suelta texto es capaz de tomar decisiones o tener sentimientos. Como decís en otro hilo y sé de primera mano, los ejércitos usan LLMs para decidir a quién matar y eso debería ser suficiente para una revuelta popular, pero eso sigue sin quitar que este tipo de artículos doomer totalmente acríticos estén fundamentados en falsedades y nos distraigan de la verdad más importante:
Los programas informáticos son responsabilidad de sus programadores. El autocompletar aliñado no tiene personalidad. Son los ingenieros que trabajan en ellos a quienes hay que poner en tela de juicio, no al programa.