Un hombre sufre un brote psicótico por seguir un consejo de ChatGPT: sustituyó la sal de mesa por bromuro de sodio https://www.genbeta.com/inteligencia-artificial/hombre-sufre-brote-psicotico-seguir-consejo-chatgpt-sustituyo-sal-mesa-bromuro-sodio En la era de la inteligencia artificial, donde obtener información está al alcance de una simple pregunta, un nuevo caso clínico subraya los peligros de seguir consejos de salud de un chatbot sin la debida supervisión médica y el conocimiento para int