O artigo olha para o papel dos sistemas automatizados de decisão de alvos, mas na verdade sublinha um dos problemas mais agudos, e menos discutidos, do uso de sistemas automáticos - a desresponsabilização institucional que permitem. Com eles, a culpa morre sozinha. O problema passa a ser do algoritmo, do sistema. Mas na verdade não o é, nunca foi. Os problemas residem sempre nas cadeias de decisão humana.

https://www.theguardian.com/news/2026/mar/26/ai-got-the-blame-for-the-iran-school-bombing-the-truth-is-far-more-worrying

AI got the blame for the Iran school bombing. The truth is far more worrying

LLMs-gone-rogue dominated coverage, but had nothing to do with the targeting. Instead, it was choices made by human beings, over many years, that gave us this atrocity

The Guardian
Se as redes sociais se tornaram um charco infecto, isso não é culpa dos "algoritmos", mas sim das decisões dos responsáveis que orientaram o seu desenvolvimento. Se o sistema de atendimento automatizado em caso de emergência funciona mal, isso não é culpa do algoritmo, mas sim de quem decide, deliberadamente, implementar sistemas desenhados para acima de tudo, afastar utentes.
Dizer "a culpa é do computador", como naquele sketch clássico do Little Britain, o "computer says no", é a maior das desculpas esfarrapadas. O sistema é um reflexo das decisões tomadas, e dá imenso jeito a muitos decisores usarem esta desculpa para saírem impunes.
@arturcoelho o clássico da conveniência da desresponsabilização.
@arturcoelho se for um humano a fazer um relatório tem de citar fontes, o que dá para detectar dados desactualizados. Se for uma llm, porque sim basta.