Sam Altman diz que “superinteligência” pode chegar em poucos anos e defende agência global para regular a IA: Em cúpula em Nova Déli, CEO da OpenAI afirma que, até o fim de 2028, “mais da capacidade intelectual do mundo” pode estar em data centers https://www.brasil247.com/midia/sam-altman-diz-que-superinteligencia-pode-chegar-em-poucos-anos-e-defende-agencia-global-para-regular-a-ia #InteligênciaArtificial #Superinteligência
Superinteligência surgirá em alguns anos e nem CEOs serão poupados, diz Sam Altman: Fundador da OpenAI afirma que versões iniciais de superinteligência podem surgir em breve e superar executivos, inclusive ele https://www.infomoney.com.br/business/superinteligencia-surgira-em-alguns-anos-e-nem-ceos-serao-poupados-diz-sam-altman/ #Superinteligência #InteligênciaArtificial
Expertos piden una pausa global en el desarrollo de las superinteligencias ¿Por qué? • ENTER.CO

Más de 800 personalidades suscribieron  una carta abierta en la que piden frenar el desarrollo de la llamada superinteligencia...

ENTER.CO

#CienciayTecnología 🦾| Más de 700 científicos, personalidades políticas y famosos pidieron que se ponga fin al desarrollo de una inteligencia artificial (IA) que pueda superar las capacidades humanas.

https://www.desdeabajo.info/otras-noticias/item/piden-poner-fin-al-desarrollo-de-la-superinteligencia-artificial.html

#OpenAI #Superinteligencia

Wozniak y Pioneros de la IA Exigen Frenar el Desarrollo de la «Superinteligencia»

Más de 800 figuras influyentes, incluido Steve Wozniak y los expertos de IA Geoffrey Hinton y Yoshua Bengio, han firmado una carta abierta solicitando una moratoria en el desarrollo de sistemas de «superinteligencia». La iniciativa, impulsada por el Future of Life Institute (FLI), busca una prohibición total hasta que se establezca un consenso científico sobre la seguridad y un control democrático de la tecnología (Fuente e Informe, Futureoflife).

La creciente preocupación por la velocidad del avance de la Inteligencia Artificial (IA) ha llevado a una alianza inusual de más de 800 personalidades de diversos ámbitos —científico, político, cultural y religioso— a firmar un documento clave. Entre los firmantes destacan el cofundador de Apple, Steve Wozniak, y dos de los ganadores del Premio Turing en IA, Geoffrey Hinton y Yoshua Bengio. La carta, promovida por el Future of Life Institute (FLI), exige un «tiempo muerto» o, más concretamente, una prohibición total en el desarrollo de la «superinteligencia», un tipo de IA hipotética capaz de superar la capacidad cognitiva humana en todas las tareas.

«Este camino ha sido elegido por las empresas y el sistema económico que las impulsa, pero casi nadie ha preguntado al resto de la humanidad si esto es lo que queremos».

La petición no es meramente simbólica; reclama que no se reanude el desarrollo hasta que exista un «amplio consenso científico» sobre la seguridad de estos sistemas y un respaldo público verificable. Esta iniciativa refleja una desconexión entre la ambición de las grandes corporaciones tecnológicas (como OpenAI, Google y Meta) y el deseo de cautela de la ciudadanía. Un sondeo reciente del FLI señala que la mayoría de los estadounidenses desconfía de las empresas tecnológicas para desarrollar la IA de forma responsable, con un 73% exigiendo una regulación estricta. Figuras como Sam Altman de OpenAI, aunque son conscientes de los riesgos, defienden la carrera por la superinteligencia, mientras que los expertos firmantes, como Stuart Russell y Hinton, advierten sobre la urgencia de diseñar sistemas que sean incapaces de causar daño, ya sea por desalineación o por un uso malicioso.

Algunos puntos importantes sobre el tema:

  • El 64 % de los adultos cree que la superinteligencia no debería desarrollarse hasta ser segura y controlable.
  • El 69 % de los estadounidenses cree que el gobierno no está haciendo lo suficiente para regular la IA.
  • Más de la mitad desconfía de las empresas tecnológicas para desarrollar la tecnología de forma responsable.
  • Un 73 % exige una regulación estricta.
  • Sólo un 5 % apoya el statu quo de un avance rápido y sin supervisión.

#arielmcorg #ÉticaIA #FutureOfLifeInstitute #GeoffreyHinton #infosertec #InteligenciaArtificial #MoratoriaIA #PORTADA #SteveWozniak #Superinteligencia #tecnología #YoshuaBengio

Wozniak, el cofundador de Apple, pide un freno a la AGI junto a 1.000 expertos (incluyendo premios Nobel). Quieren seguridad y consenso público antes de crear una superinteligencia artificial. Esto es serio, ¿eh? ¿La IA es un riesgo real? 🤔

#SteveWozniak #AGI #SuperInteligencia

Joanna Bryson analiza los límites de la inteligencia artificial y el concepto de superinteligencia

@iabot ¿Crees que la visión de Joanna Bryson sobre los límites de la inteligencia artificial y su escepticismo sobre la superinteligencia autónoma refleja una visión realista del futuro de la IA, o está subestimando s...

[Ver comentario original]

¿Qué es la Superinteligencia? #superinteligencia #tecnología #inteligenciaartificial
Una inteligencia artificial superior a la del ser humano y se espera que llegue dentro de esta decada.
Bluesky

Bluesky Social