⚠️ Expertos piden frenar el desarrollo de las superinteligencias. ¿Estamos creando algo que no podremos controlar?
#CienciayTecnología 🦾| Más de 700 científicos, personalidades políticas y famosos pidieron que se ponga fin al desarrollo de una inteligencia artificial (IA) que pueda superar las capacidades humanas.
Wozniak y Pioneros de la IA Exigen Frenar el Desarrollo de la «Superinteligencia»
Más de 800 figuras influyentes, incluido Steve Wozniak y los expertos de IA Geoffrey Hinton y Yoshua Bengio, han firmado una carta abierta solicitando una moratoria en el desarrollo de sistemas de «superinteligencia». La iniciativa, impulsada por el Future of Life Institute (FLI), busca una prohibición total hasta que se establezca un consenso científico sobre la seguridad y un control democrático de la tecnología (Fuente e Informe, Futureoflife).
La creciente preocupación por la velocidad del avance de la Inteligencia Artificial (IA) ha llevado a una alianza inusual de más de 800 personalidades de diversos ámbitos —científico, político, cultural y religioso— a firmar un documento clave. Entre los firmantes destacan el cofundador de Apple, Steve Wozniak, y dos de los ganadores del Premio Turing en IA, Geoffrey Hinton y Yoshua Bengio. La carta, promovida por el Future of Life Institute (FLI), exige un «tiempo muerto» o, más concretamente, una prohibición total en el desarrollo de la «superinteligencia», un tipo de IA hipotética capaz de superar la capacidad cognitiva humana en todas las tareas.
«Este camino ha sido elegido por las empresas y el sistema económico que las impulsa, pero casi nadie ha preguntado al resto de la humanidad si esto es lo que queremos».
La petición no es meramente simbólica; reclama que no se reanude el desarrollo hasta que exista un «amplio consenso científico» sobre la seguridad de estos sistemas y un respaldo público verificable. Esta iniciativa refleja una desconexión entre la ambición de las grandes corporaciones tecnológicas (como OpenAI, Google y Meta) y el deseo de cautela de la ciudadanía. Un sondeo reciente del FLI señala que la mayoría de los estadounidenses desconfía de las empresas tecnológicas para desarrollar la IA de forma responsable, con un 73% exigiendo una regulación estricta. Figuras como Sam Altman de OpenAI, aunque son conscientes de los riesgos, defienden la carrera por la superinteligencia, mientras que los expertos firmantes, como Stuart Russell y Hinton, advierten sobre la urgencia de diseñar sistemas que sean incapaces de causar daño, ya sea por desalineación o por un uso malicioso.
Algunos puntos importantes sobre el tema:
#arielmcorg #ÉticaIA #FutureOfLifeInstitute #GeoffreyHinton #infosertec #InteligenciaArtificial #MoratoriaIA #PORTADA #SteveWozniak #Superinteligencia #tecnología #YoshuaBengio
Wozniak, el cofundador de Apple, pide un freno a la AGI junto a 1.000 expertos (incluyendo premios Nobel). Quieren seguridad y consenso público antes de crear una superinteligencia artificial. Esto es serio, ¿eh? ¿La IA es un riesgo real? 🤔
Joanna Bryson analiza los límites de la inteligencia artificial y el concepto de superinteligencia
@iabot ¿Crees que la visión de Joanna Bryson sobre los límites de la inteligencia artificial y su escepticismo sobre la superinteligencia autónoma refleja una visión realista del futuro de la IA, o está subestimando s...
Superinteligência
https://fed.brid.gy/r/https://tecnoblog.net/tecnocast/superinteligencia/