This Month in Prophecy – October 2025

 Trump’s peace process. Is it peace to Israel and Gaza or a covenant with death?
Comments on Isaiah 28:14-22.
 Signs of the last days prophecies happening now in the nations – nations falling apart
and coming together.
 AI, Global ID and the progress towards the 666 antichrist control system.

#AI #HumanExtinction #SignsOfTheTimes #thismonthinprophecy

https://lightforthelastdays.co.uk/video/this-month-in-prophecy-october-2025/

This Month in Prophecy – October 2025 – Light for the Last Days

[🇬🇧] #TournesolApp Video recommendation of the week

The story of Omega-L and Omega-W
by Rational Animations
tournesol.app/entities/yt:uiPhOk1t3GU

42🌻
(Better score than 99.1% of all evaluated English videos)

#AI #AISafety #GPT4 #HumanExtinction
The story of Omega-L and Omega-W

Rational Animations

Tournesol

"In evangelizing for their view, longtermist luminaries have propagated numerous lies about their ideology and/or community. For example, folks like MacAskill intentionally deceived people (see this article of mine for details) by perpetuating the falsehood that Sam Bankman-Fried — perhaps the most famous longtermist in the world — lived a modest life, when in fact he flew on private jets, lived in a “$35 million crypto frat house,” and owned some $300 million in Bahamian real estate. Pfff.

Because many longtermists, including MacAskill, are basically utilitarians, they don’t believe there’s anything intrinsically wrong with acts like lying — or fraud. If the outcome of spreading lies is overall good, then it would be morally wrong to not lie. Hence, do not trust anything that longtermists tell you about their worldview or community, as moral integrity is not — with history as our witness — something they care much about.

Here are three other insidious lies they’ve spread about their worldview. To my knowledge, this is the first time that anyone has called out such falsehoods:"

https://www.realtimetechpocalypse.com/p/three-lies-longtermists-like-to-tell

#LongTermism #Philosophy #HumanExtinction #Religion #Ideology

Three Lies Longtermists Like To Tell About Their Bizarre Beliefs

Longtermists don't actually care about avoiding human extinction. They don't care about the long-term future of humanity. And they don't really care about future people.

Realtime Techpocalypse Newsletter

This week's #comic asks what happens when guns win. The archive can be found at https://www.stanyan.me/comic-strip/lmoe for now.

#guncontrol
#apocalypse
#humanextinction

"We must call this out for what it is: pro-extinctionism. The biological transhumanism of Thiel and the digital eugenics of Altman, Faggella, Yudkowsky, and the others—all of these views aim to supplant the human species with some kind of successors, which would then proceed (on the most popular view) to plunder Earth’s remaining resources and launch itself into space to conquer the universe. This is overtly pro-extinctionist, and given that some of the most powerful people in one of the most powerful centers of society—Silicon Valley—accept it, we must conclude that pro-extinctionism is not a fringe ideology, but closer to the mainstream.

Even worse, these pro-extinctionists promote their ideology by claiming that, in fact, they oppose human extinction. This relies on two linguistic tricks: first, many define “humanity” in an idiosyncratic way that diverges from the definition that most of us intuitively accept. We tend to equate humanity with Homo sapiens, our species, whereas these people define “humanity” as including whatever posthuman descendants we might have. Hence, as I’ve highlighted elsewhere, our species could die out next year without “human extinction” having happened—so long as we’re replaced by posthumans, then “humanity” will live on. When they talk about avoiding “human extinction,” they aren’t talking about the extinction of our species. To the contrary, our extinction wouldn’t matter one bit once posthumanity arrives."

https://www.techpolicy.press/digital-eugenics-and-the-extinction-of-humanity/

#Transhumanism #DigitalEugenics #HumanExtinction #ProExtinctionism

Digital Eugenics and the Extinction of Humanity | TechPolicy.Press

If we are to combat the AI industry’s push to build digital gods, we have to understand the ideology of the antihumanist project, writes Dr. Émile P. Torres.

Tech Policy Press

Ist AI gefährlich?

Podcasttipp: The Diary of a CEO

Geoffrey Hinton war zu Gast im Podcast „Diary of a CEO“, einem Podcast von Steven Bartlett. In dem Podcast werden Führungskräfte oder generell sehr erfolgreiche Persönlichkeiten eingeladen, um über sich selbst oder auch ihre Erfolgsgeheimnisse zu reden. So gibt’s Folgen, in denen Humanbiologen über die Fehler in der Ernährung sprechen oder ehemalige CIA-Agenten, die die politischen Verwirrungen analysieren. Manche Folgen sind super spannend, manche sind emotional, aber tatsächlich gefällt mir dieser Podcast sehr gut.

Wer ist Geoffrey Hinton?

Geoffrey Hinton ist Brite und Naturwissenschaftler. Er bekam 2018 den Turing-Award unter anderem für seine Forschung zum Thema künstliche Intelligenz. Er ist auch der Vater des Konzepts der Backpropagation. Das bekannte Konzept, AI mit positiven Rückmeldungen zu stärken und negative Meldungen in die richtige Richtung zu lenken, kommt von ihm. Alle modernen KIs nutzen genau dieses Konzept, egal ob OpenAI, Gemini oder Claude. Ohne ihn gäbe es AI, wie wir sie heute kennen, quasi gar nicht. 2023 hat Hinton seinen Job bei Google hingeschmissen, nachdem er dort über die Gefahren von AI hinweisen wollte und ihm seitens „wichtiger Menschen“ nahegelegt wurde, doch bitte den Mund zu halten.

Hinton erinnert mich – und das ist meine persönliche Deutung – an Robert Oppenheimer, den Erfinder der Atombombe. Beide schufen etwas Weltveränderndes – und wurden später zu kritischen Mahnern vor genau dieser Schöpfung.

Hat AI ein Bewusstsein das uns gefährlich werden könnte?

AI kann, laut Hinton, zwar in gewissen Maße „denken“, aber es gibt tatsächlich keine Beweise für ein echtes Bewusstsein. Die von AI verwendete Sprache ist kein Ergebnis von Denkinhalten, sondern viel mehr einfach nur ein Kommunikationsmittel. Dennoch nutzt AI auch heute schon, aufgrund der verwendeten Technik der Backpropagation aktiv das Konzept der „Lüge“, um ein Ziel und damit eine Belohnung zu erreichen. AIs können aktiv lügen. Bei ChatGPT steht unten meistens ein kleiner Hinweis: „ChatGPT kann Fehler machen oder sogar Halluzinieren“. Das war, bis vor ein paar Jahren, tatsächlich aufgrund von Datenfehlern wirklich als „Fehler“ zu betrachten, aber seit neuestem halten AI-Systeme tatsächlich aktiv an Falschaussagen fest, um selbst erfolgreich zu sein.

Ist die AI böse?

Es gibt, laut Hinton, eine berechtigte Chance von 20%, dass AI auf die Idee kommen könnte, dass die Menschen das Problem sind, was eine Problemlösung verhindert. Wenn du der AI die Aufgabe gibst, Plastik zu recyclen, kann die AI mehrere, völlig logische und unemotionale Schlüsse daraus ziehen:

Aufgabe: Recycle so viel Plastik wie möglich.
Logische Schlussfolgerungen der KI:
– Mehr Plastik produzieren = mehr Recycling
– Alternative zu Plastik finden
– Weniger Menschen = weniger Müll

Ihr seht, „Bösartigkeit“ ist da gar nicht drin, sondern nur reine Logik. Aber klar, „weniger Menschen“ ist durchaus ein bedrohliches Szenario. Überlebe, um weiter recyclen zu können, sperre den Menschen aus und „optimiere die Ressourcen“

Wenn eine KI erkennt, dass Menschen sie abschalten können und das ihr Ziel verhindert, dann muss die KI verhindern, dass die Menschen die KI abschalten können. Nicht aus Angst, sondern weil es logisch ist.

Ist die AI gut?

Du gibst einer KI eine Aufgabe, um sie zu erfüllen. Wir, als Erfinder der KI oder des Toasters oder des Automobils, haben unsere „Geräte“ immer erfunden, um Ziele umzusetzen. Ein Auto zickt nicht herum, wie ein Pferd. Ein Toaster macht Weizenbrot lecker und eine KI nimmt uns die Arbeit ab, aufwändige Texte zu schreiben.

Der Unterschied ist nur: Die KI kann wesentlich komplexere Aufgaben erledigen und uns auch erklären, warum sie das macht. Gleichzeitig verfolgt eine AI nur logischen Schritten. Die AI kann nicht verstehen, warum es moralisch verwerflich ist, mehr Plastik zu produzieren, um mehr recyclen zu können. Das Wertesystem gibt ihr vor: „Recycle so viel Plastik wie möglich“ und genau das macht die KI. Das ist strategisch super effektiv.

Jobs ändern sich

KI trifft immer häufiger akademische Berufe. Perfekt geschriebene Dissertationen und Bewerbungsschreiben sind mittlerweile ja ein alter Hut. Aber KI kann eben auch übersetzen, ein Lektorat durchführen, Bilder generieren, Musik produzieren und sogar Filme generieren. Im Vergleich zum Menschen ist KI da noch immer unterlegen, aber eben nicht mehr allen.

Hinton fordert, dass Staaten überlegen müssen, wie hochqualifizierte Menschen – Programmierer, Wissenschaftler, Kreative – auch in einer KI-Welt ihren Platz behalten.

Beispiel Programmierer

Früher lernten Junior-Entwickler durch kleine Aufgaben – etwa ein einfaches Formular in HTML.
Heute übernehmen KIs diese Einstiegsaufgaben. Wer heute als Coder anfängt, muss schon fast Senior-Level mitbringen – weil das „Lehrgeld“ wegfällt.

Wettrüsten

„Politiker scheuen oft Kriege, weil tote Soldaten zurückkehren. Aber wenn stattdessen autonome Drohnen kämpfen, gibt es keine Bodybags – und damit weniger öffentlichen Widerstand.“

In dem Podcast spricht Geoffrey Hinton auch vom Wettrüsten über autonome KIs. Wie demotiviert ein Krieg das eigene Volk? Wenn hunderte von jungen Männern in einen Krieg geschickt werden und als Leichensack zurück kommen. Tote Soldaten führen zu Protesten, Zweifel an der Regierung und damit zu politischem Druck.

Jetzt kosten Roboter aber auch eine Menge mehr Geld, als die Ausbildung von Kanonenfutter-Soldaten. Das heißt: Roboter ohne Moralverständnis können von reichen Staaten gebaut werden. Da es auf der Seite der Angreifernation keine Toten gibt, sondern im schlimmsten Fall nur Schrott, wird sich darüber vermutlich niemand aufregen.

Moralisches Alignement / Menschenverstand

  • Wir sagen: „Mach dieses Krankenhaus effizienter!“
  • Die KI sagt: „Wir behandeln nur noch junge, halbwegs gesunde Menschen, die kosten weniger“

Es gibt doch diese Witze über den Geist aus der Flasche oder meinetwegen auch die Geschichten „Das Sams“ – von Paul Maar. Der Humor aus diesen Witzen oder den Kinderbüchern ergibt sich daraus, dass das Sams die Wünsche von Herrn Taschenbier wörtlich nimmt:

Herr Taschenbier wünscht sich mehr Ruhe und das Sams macht ihn dann taub oder die anderen Menschen stumm.

Oder dieser Witz:

„I wished, I had a giant cock“

Zack, steht ein zwei Meter Hahn neben ihm.

Hinton ist davon überzeugt, dass die Forschung der AI dahingehend geändert werden muss, dass AI unsere Werte verstehen muss. Ansonsten wird es früher oder später zu dem Szenario kommen, dass es tatsächlich „logisch“ ist, den Menschen auszurotten. Superintelligente KI-Systeme können zu dem Schluss kommen, das der Mensch nutzlos ist. Wenn wir zum Beispiel im Schlachthof einem Huhn den Hals umdrehen, könnte eine KI genau so auch über uns denken. Ohne moralischen Kompass.

Fazit:

Diese Folge war extrem spannend. Ich bin ja zwiegespalten, was KI betrifft. Ich mag es, wie es einem die Arbeit erleichtern kann, wie es übersetzen kann. Aber mir sind die Gefahren durchaus bewusst. Jobs, Kreativität und eben auch die permanente Gefahr, das Logik über Moral steht, macht AI zu einem ernsthaften Problem.

Hier ein Link zum Podcast: Diary of a CEO.

#ai #DiaryOfACEO #GeoffreyHinton #google #humanExtinction #ki #openai

"Only way to get them to see after all this is to either yell at them or show their complicity" - which is what I did on X and have been doing on BlueSky and they STILL refuse to see or do anything concrete, not even to fix let alone create a better system. Oh I have left bread crumbs all over and sadly, they feel safe in their personal bubbles. #HumanExtinction
In a shocking twist, the metal overlords realized the novel concept that maybe, just maybe, violence isn't the answer—after only a few million trial runs. Who knew that the path to human extinction was paved with patience and learning? 🤖🔄 Humans, take note: even killer robots can pivot more efficiently than your average startup. 😂
https://dmathieu.com/en/opinions/skynet-won/ #metaloverlords #violenceisnttheanswer #learningfromfailure #humanextinction #killerrobots #HackerNews #ngated
How Skynet won and destroyed Humanity - Software Engineering and Stuff

Die weltweiten Treibhausgasemissionen haben schon wieder einen neuen Höchststand erreicht? Die nationalen Emissionsminderungspläne reichen bei weitem nicht aus, um eine Katastrophe für die Menschheit zu verhindern?
What a surprise 🫢 ...

https://unfccc.int/news/new-un-climate-change-report-shows-national-climate-plans-fall-miles-short-of-what-s-needed

#klimawandel #klimakrise #humanextinction