O artigo olha para o papel dos sistemas automatizados de decisão de alvos, mas na verdade sublinha um dos problemas mais agudos, e menos discutidos, do uso de sistemas automáticos - a desresponsabilização institucional que permitem. Com eles, a culpa morre sozinha. O problema passa a ser do algoritmo, do sistema. Mas na verdade não o é, nunca foi. Os problemas residem sempre nas cadeias de decisão humana.

https://www.theguardian.com/news/2026/mar/26/ai-got-the-blame-for-the-iran-school-bombing-the-truth-is-far-more-worrying

AI got the blame for the Iran school bombing. The truth is far more worrying

LLMs-gone-rogue dominated coverage, but had nothing to do with the targeting. Instead, it was choices made by human beings, over many years, that gave us this atrocity

The Guardian
@arturcoelho se for um humano a fazer um relatório tem de citar fontes, o que dá para detectar dados desactualizados. Se for uma llm, porque sim basta.