Top AI labs like OpenAI, Anthropic, and Meta are falling short on global safety standards, raising concerns about superintelligent AI outpacing regulation and ethical safeguards.

#AI #AISafety #OpenAI #Anthropic #Meta #FutureOfLifeInstitute #EthicalAI #SuperintelligentAI #TechEthics #AIRegulation #TECHi

Read Full Article Here :- https://www.techi.com/ai-labs-race-ahead-safety-standards-fall-short-report/

Wozniak y Pioneros de la IA Exigen Frenar el Desarrollo de la «Superinteligencia»

Más de 800 figuras influyentes, incluido Steve Wozniak y los expertos de IA Geoffrey Hinton y Yoshua Bengio, han firmado una carta abierta solicitando una moratoria en el desarrollo de sistemas de «superinteligencia». La iniciativa, impulsada por el Future of Life Institute (FLI), busca una prohibición total hasta que se establezca un consenso científico sobre la seguridad y un control democrático de la tecnología (Fuente e Informe, Futureoflife).

La creciente preocupación por la velocidad del avance de la Inteligencia Artificial (IA) ha llevado a una alianza inusual de más de 800 personalidades de diversos ámbitos —científico, político, cultural y religioso— a firmar un documento clave. Entre los firmantes destacan el cofundador de Apple, Steve Wozniak, y dos de los ganadores del Premio Turing en IA, Geoffrey Hinton y Yoshua Bengio. La carta, promovida por el Future of Life Institute (FLI), exige un «tiempo muerto» o, más concretamente, una prohibición total en el desarrollo de la «superinteligencia», un tipo de IA hipotética capaz de superar la capacidad cognitiva humana en todas las tareas.

«Este camino ha sido elegido por las empresas y el sistema económico que las impulsa, pero casi nadie ha preguntado al resto de la humanidad si esto es lo que queremos».

La petición no es meramente simbólica; reclama que no se reanude el desarrollo hasta que exista un «amplio consenso científico» sobre la seguridad de estos sistemas y un respaldo público verificable. Esta iniciativa refleja una desconexión entre la ambición de las grandes corporaciones tecnológicas (como OpenAI, Google y Meta) y el deseo de cautela de la ciudadanía. Un sondeo reciente del FLI señala que la mayoría de los estadounidenses desconfía de las empresas tecnológicas para desarrollar la IA de forma responsable, con un 73% exigiendo una regulación estricta. Figuras como Sam Altman de OpenAI, aunque son conscientes de los riesgos, defienden la carrera por la superinteligencia, mientras que los expertos firmantes, como Stuart Russell y Hinton, advierten sobre la urgencia de diseñar sistemas que sean incapaces de causar daño, ya sea por desalineación o por un uso malicioso.

Algunos puntos importantes sobre el tema:

  • El 64 % de los adultos cree que la superinteligencia no debería desarrollarse hasta ser segura y controlable.
  • El 69 % de los estadounidenses cree que el gobierno no está haciendo lo suficiente para regular la IA.
  • Más de la mitad desconfía de las empresas tecnológicas para desarrollar la tecnología de forma responsable.
  • Un 73 % exige una regulación estricta.
  • Sólo un 5 % apoya el statu quo de un avance rápido y sin supervisión.

#arielmcorg #ÉticaIA #FutureOfLifeInstitute #GeoffreyHinton #infosertec #InteligenciaArtificial #MoratoriaIA #PORTADA #SteveWozniak #Superinteligencia #tecnología #YoshuaBengio

Yet another excellent #podcast from #FutureOfLifeInstitute by #GusDocker
and guest #BenjaminTodd
A lot of different #future scenarios on #AI development, #robotics and what can we do to prepare for it.
https://open.spotify.com/episode/1L6ns1fwGLxXhTYH7jJyAV?si=zwnCWdFuS5SOELyjjTPDcQ
Reasoning, Robots, and How to Prepare for AGI (with Benjamin Todd)

Future of Life Institute Podcast · Episode

Spotify
What Happens After Superintelligence? (with Anders Sandberg)

Future of Life Institute Podcast · Episode

Spotify

i dig into the recommendations of the Future of Life Institute to try to understand if #AI is going to kill us or not. That goes about how you would expect it to go:

https://www.martinbihl.com/business-thinking/is-ai-going-to-kill-us-or-not

#artificialintelligence #FutureOfLifeInstitute

Is AI going to kill us or not? — Martin Bihl

On the one hand, a lot of people are worried about #AI. On the other hand, anyone who has bet against technology has lost. So what do you do? I dunno, but reading this can’t hurt

Martin Bihl

Was #Hawking #Musk und #FutureOfLifeInstitute befürchten, ist techno-logisch nicht ausgeschlossen. Wie bereiten wir uns auf übermenschlich intelligente #KI Systeme vor? Eine Einführung gibt's in meinem neuen Buch #Softcover #Ebook, jetzt im Handel! www.michaelbrendel.de/chatgpt

https://bit.ly/42Ipbw6

CHATGPT, GENERATIVE KI - UND WIR!

Kreative Künstliche Intelligenz verantwortungsvoll nutzen Taschenbuch 316 S., ISBN 978-3-384-13952-8Ebook ISBN 978-3-384-13953-5verfügbar im Buchhandel, im

...we have no reason to believe vastly more complex, powerful, opaque, and uncontrollable systems are necessary to achieve these benefits. That innovation in AI, and reaping its untold benefits, does not have to mean the creation of dangerous and unpredictable systems that cannot be understood or proven safe, with the potential to cause immeasurable harm and even wipe out humanity.

#FutureOfLifeInstitute #MaxTegmark #ArtificialIntelligence #Responsibility
https://futureoflife.org/ai-policy/written-statement-of-dr-max-tegmark-to-the-ai-insight-forum/

Written Statement of Dr. Max Tegmark to the AI Insight Forum - Future of Life Institute

The Future of Life Institute President addresses the AI Insight Forum on AI innovation and provides five US policy recommendations.

Future of Life Institute

Diese Woche war #KünstlicheIntelligenz wieder mal in aller Munde: #Midjourney, #FutureOfLifeInstitute, …

Es gab da z.B. einen offenen Brief, dessen Inhalt auf den ersten Blick sinnvoll klingen mag, der sich jedoch beim genaueren Hinschauen als Augenwischerei entpuppt.

Als Forscherin am #HIIG habe ich natürlich eine informierte Meinung dazu. @netzpolitik_feed zitiert beispielsweise meine Kritik an der Strohmann-Gefahr „Superintelligenz“ (#AGI).

🌐 https://netzpolitik.org/2023/offener-brief-zu-ki-opfer-des-hypes/#netzpolitik-pw

Offener Brief zu KI: Opfer des Hypes

Zahlreiche KI-Expert:innen fordern eine Entwicklungspause für neue KI-Modelle. Es brauche zunächst Sicherheitsstandards – auch um die Menschheit vor dem Schlimmsten zu bewahren. Das ist in mehrfacher Hinsicht

netzpolitik.org

The farmer and the cowman should be friends. Why don’t #DAIR and #futureoflifeinstitute prioritize what they agree on regarding an aipause, cooperate to achieve it, and then deal with the underlying issues? #ai

https://www.dair-institute.org/blog/letter-statement-March2023