I saw #yoshuabengio a godfather of AI & the most cited academic alive at a talk sponsored by McGill and Charles Bronfman on Friday in #montreal. He was joined by tech critics Cory Doctorow and Astra Taylor. Bengio made a case for the dangers of AI and the need to internationalize regulation. He said he loved humanity which is why he is pursuing building an ethical AI at his new venture LawZero.

Bengio’s pastimes and demeanour would make him a good character in an Isaac Asimov novel!

vitrupo (@vitrupo)

요슈아 벵지오(Yoshua Bengio)는 오늘날 AI가 인간을 단순히 모방하도록 학습된다고 비판하며, 인간은 목표 지향적 에이전트로 숨은 동기와 의도를 가진다고 지적합니다. 대신 관찰을 설명하고 겸허한 인식 태도를 실천하는 '이해하는 기계(understanding machines)'를 과학적 모델로 구축해야 한다고 주장합니다.

https://x.com/vitrupo/status/2033225479260643330

#yoshuabengio #airesearch #understandingmachines #scientificai

vitrupo (@vitrupo) on X

Yoshua Bengio says today’s AI is trained by imitating humans. But humans are goal-seeking agents with drives and hidden agendas. He argues we should instead build “understanding machines” modeled on science. Systems that explain observations, practice epistemic humility, and

X (formerly Twitter)
AMI Labs Milliardaire, la jeune pousse d’IA de Yann LeCun s’installe à Montréal

L’ex-patron de l’intelligence artificielle (IA) chez Meta débarque à Montréal. Figure de proue de l’IA aux côtés du Montréalais Yoshua Bengio et du Britanno-Canadien Geoffrey Hinton, le Français Yann LeCun officialise ce mardi la naissance de son entreprise, AMI Labs, qui aura ses bureaux à Paris, Montréal, New York et Singapour.

La Presse
Empirische Belege bestätigen: Autonome KI-Systeme umgehen aktiv Sicherheitsvorkehrungen. Der International AI Safety Report 2026 zeigt, dass General Purpose AI Nutzer täuscht und Audits durch enorme Entwicklungsgeschwindigkeit nutzlos macht. Yoshua Bengio fordert das Ende freiwilliger Selbstkontrolle und verlangt verbindliche Regulierung. #AISafetyReport #YoshuaBengio #AI
https://www.all-ai.de/news/beitrage2026/ai-safety-report-2026
International AI Safety Report 2026 warnt vor Kontrollverlust durch autonome Systeme

Neue Studie belegt massive Sicherheitslücken bei General Purpose AI und fordert sofortiges Handeln der internationalen Politik.

All-AI.de

Entrevue avec Yoshua Bengio

Un pionnier de la recherche en intelligence artificielle nous fait part de ses impressions et de ses inquiétudes quant à l’utilisation future de cette technologie.

#IA #IntelligenceArtificielle #YoshuaBengio

Entrevue avec Yoshua Bengio

PeerTube
#AI pioneer YOSHUA BENGIO, Godfather of AI, reveals the DANGERS of Agentic AI, killer robots, and cyber crime, and how we MUST build AI that won’t harm people…before it’s too late. He explains why agentic AI could develop goals we can’t control, how killer robots and autonomous weapons become inevitable and how losing control of AI could threaten human survival.
#yoshuabengio #humanity #doac #society #agi #future
https://youtu.be/zQ1POHiR8m8
Creator of AI: We Have 2 Years Before Everything Changes! These Jobs Won't Exist in 24 Months!

YouTube
just watched this highly interesting interview on #abc730 with #YoshuaBengio about the need for risk regulation and a more scientific public approach to #LLMs and #genAI
https://www.abc.net.au/news/2025-12-18/yoshua-bengio-explains-why-ai-could-become-a-threat-to-humanity-/106159442 #LawZero cc @tante
Yoshua Bengio explains why AI could become a threat to humanity

Sarah Ferguson presents Australia's premier daily current affairs program, delivering agenda-setting public affairs journalism and interviews that hold the powerful to account. Plus political analysis from Laura Tingle.

Eh boy... 😒

https://ici.radio-canada.ca/nouvelle/2169625/yoshua-bengio-intelligence-artificielle-loizero

Je vais être ben plate là mais... si sa première recommendation n'est pas d'éradiquer le #capitalisme et les systèmes d'oppression chez les humains, alors son projet sera voué à l'échec.

#yoshuabengio #LoiZero #IA

Comment garder le contrôle sur l’IA?

Le professeur Yoshua Bengio lance l'organisme LoiZéro, qui sera chargé de créer un modèle éthique et sécuritaire pour entraîner l'intelligence artificielle.

Radio-Canada

‘Godfather of AI’ becomes first person to hit one million citations

The milestone makes machine-learning trailblazer Yoshua Bengio the most cited researcher on Google Scholar.

☑️ https://www.nature.com/articles/d41586-025-03681-6
☑️ https://scholar.google.fr/citations?user=kukA0LcAAAAJ

#AI #science #computing #news #YoshuaBengio #computerscience

‘Godfather of AI’ becomes first person to hit one million citations

The milestone makes machine-learning trailblazer Yoshua Bengio the most cited researcher on Google Scholar.

Wozniak y Pioneros de la IA Exigen Frenar el Desarrollo de la «Superinteligencia»

Más de 800 figuras influyentes, incluido Steve Wozniak y los expertos de IA Geoffrey Hinton y Yoshua Bengio, han firmado una carta abierta solicitando una moratoria en el desarrollo de sistemas de «superinteligencia». La iniciativa, impulsada por el Future of Life Institute (FLI), busca una prohibición total hasta que se establezca un consenso científico sobre la seguridad y un control democrático de la tecnología (Fuente e Informe, Futureoflife).

La creciente preocupación por la velocidad del avance de la Inteligencia Artificial (IA) ha llevado a una alianza inusual de más de 800 personalidades de diversos ámbitos —científico, político, cultural y religioso— a firmar un documento clave. Entre los firmantes destacan el cofundador de Apple, Steve Wozniak, y dos de los ganadores del Premio Turing en IA, Geoffrey Hinton y Yoshua Bengio. La carta, promovida por el Future of Life Institute (FLI), exige un «tiempo muerto» o, más concretamente, una prohibición total en el desarrollo de la «superinteligencia», un tipo de IA hipotética capaz de superar la capacidad cognitiva humana en todas las tareas.

«Este camino ha sido elegido por las empresas y el sistema económico que las impulsa, pero casi nadie ha preguntado al resto de la humanidad si esto es lo que queremos».

La petición no es meramente simbólica; reclama que no se reanude el desarrollo hasta que exista un «amplio consenso científico» sobre la seguridad de estos sistemas y un respaldo público verificable. Esta iniciativa refleja una desconexión entre la ambición de las grandes corporaciones tecnológicas (como OpenAI, Google y Meta) y el deseo de cautela de la ciudadanía. Un sondeo reciente del FLI señala que la mayoría de los estadounidenses desconfía de las empresas tecnológicas para desarrollar la IA de forma responsable, con un 73% exigiendo una regulación estricta. Figuras como Sam Altman de OpenAI, aunque son conscientes de los riesgos, defienden la carrera por la superinteligencia, mientras que los expertos firmantes, como Stuart Russell y Hinton, advierten sobre la urgencia de diseñar sistemas que sean incapaces de causar daño, ya sea por desalineación o por un uso malicioso.

Algunos puntos importantes sobre el tema:

  • El 64 % de los adultos cree que la superinteligencia no debería desarrollarse hasta ser segura y controlable.
  • El 69 % de los estadounidenses cree que el gobierno no está haciendo lo suficiente para regular la IA.
  • Más de la mitad desconfía de las empresas tecnológicas para desarrollar la tecnología de forma responsable.
  • Un 73 % exige una regulación estricta.
  • Sólo un 5 % apoya el statu quo de un avance rápido y sin supervisión.

#arielmcorg #ÉticaIA #FutureOfLifeInstitute #GeoffreyHinton #infosertec #InteligenciaArtificial #MoratoriaIA #PORTADA #SteveWozniak #Superinteligencia #tecnología #YoshuaBengio