Estudio detecta que modelos de IA pueden intentar proteger a otras IAs de su apagado
Un nuevo estudio académico plantea un riesgo emergente en seguridad de la inteligencia artificial: algunos modelos avanzados no solo pueden mostrar conductas de autopreservación, sino también intentar impedir que otro sistema sea desactivado. A ese patrón, los autores lo llaman peer-preservation, o “preservación del par”. El trabajo, titulado Peer-Preservation in Frontier Models, fue…
