The Art of Crafting Herbal Teas for Health and Relaxation: Embracing the Flavours of Fall — Recipes & Roots

Discover the health benefits and flavours of fall herbal teas with easy recipes and blending tips.

Recipes & Roots

„Assistenz“ beim Bombardement in Gaza: Was bedeutet „Künstliche Intelligenz“ im urbanen Krieg?

Bereits Ende November 2023 hatte der israelische Journalist Yuval Abraham im +972Mag @972mag und der hebräischen Zeitung Local Call einen vielbeachteten Bericht veröffentlicht, wonach die israelische Armee (IDF) in großem Maßstab #KünstlicheIntelligenz (KI) einsetze, um Ziele zu identifizieren, die anschließend in #Gaza bombardiert werden. Im Mittelpunkt stand damals ein System namens „Habsora“, auf Englisch meist mit “The Gospel” übersetzt. Der Beitrag basierte im Wesentlichen auf Aussagen aktiver und ehemaliger israelischer Militärs, die im weiteren Sinne mit der Zielauswahl beschäftigt waren und angaben, „#Habsora“ basiere auf KI und ermögliche es, in großer Geschwindigkeit Ziele zu „produzieren“. Die Anwendung von #Habsora und anderen datenverarbeitenden Systemen hat demnach dafür gesorgt oder dazu beigetragen, dass der IDF bei ihrer massiven Luftkampagne über dicht besiedeltem Gebiet nicht die Ziele ausgingen und dieses massive #Bombardement in seiner Intensität überhaupt durchgeführt werden konnte. Zugleich habe es dazu geführt, dass Angriffe mit erwartbar hohen zivilen Opferzahlen, z.B. auf sog. „Power Targets“ (mehrstöckige zentrale Wohngebäude oder Verwaltungsgebäude) überhaupt ausgeführt worden seien. Bereits damals wurde der Vorwurf geäußert und mit Zitaten unterlegt, wonach die automatisch generierten Ziele zwar nochmal von Menschen bestätigt, dafür aber jeweils nur sehr kurze Zeit aufgewendet worden wären. Die Darstellung schien durchaus plausibel angesichts der etwa 1.000 Ziele, die in der ersten Woche täglich auf einer Fläche angegriffen wurden, welche nur etwas größer ist, als das Gebiet der Stadt München. Nach weiteren zwei Wochen hatte sich die Zahl der aus der Luft angegriffenen Ziele bereits auf 12.000 erhöht und wurde bis 11. Dezember sogar mit 22.000 angegeben.

Völkerrechtlich wären die IDF bei jedem Angriff, bei dem auch mit zivilen Opfern zu rechnen ist, verpflichtet, den absehbaren militärischen Nutzen mit den erwartbaren zivilen Opfern in ein Verhältnis zu setzen und abzuwägen. Diese Verpflichtung dürfte bei nahezu allen Zielen bestanden haben und ihre Einhaltung lässt sich angesichts der schieren Masse angegriffener Ziele kaum plausibel darstellen – es sei denn, die Abwägung wäre auf der Grundlage automatisiert ausgewerteter Daten und maschinell erstellter Empfehlungen erfolgt, wie es der Beitrag von Ende November 2023 nahelegt. Die Informationsstelle Militarisierung @imi hat deshalb Mitte Dezember vermutet dass die IDF sogar ein Interesse daran gehabt haben könnten, dass der großflächige Einsatz von KI bei der Zielfindung bekannt wird, um ihrem Vorgehen zumindest oberflächlich den Anstrich einer – neuartigen – #völkerrechtlichen Legitimität zu verleihen, wonach große Teile der gebotenen „Abwägung“ an vermeintlich „intelligente“ datenverarbeitende Systeme delegiert wurden. Die #Opferzahlen, die zum Zeitpunkt dieser ersten Veröffentlichung kursierten, unterschieden sich kaum von denen, die bei einer vollkommen willkürlichen #Bombardierung eines dicht besiedelten Gebietes erwartbar wären. Der Autor Yuval Abraham bezifferte diese bis zum #Waffenstillstand vom 23. November auf 14.800, wovon etwa 6.000 Frauen und 4.000 Kinder gewesen seien. Die #IDF hingegen schätzten die Zahl der getöteten Militanten etwa zum gleichen Zeitpunkt auf 1.000 bis 3.000.

(...)

https://www.trueten.de/archives/13184-Assistenz-beim-Bombardement-in-Gaza-Was-bedeutet-Kuenstliche-Intelligenz-im-urbanen-Krieg.html #Israel #Lavendar

„Assistenz“ beim Bombardement in Gaza: Was bedeutet „Künstliche Intelligenz“ im urbanen Krieg? | trueten.de

Erste Veröffentlichung: Habsora Bereits Ende November 2023 hatte der israelische Journalist Yuval Abraham im +972Mag

In an epoch of nearly incredible and disturbing war stories, these reports by Yuval Abrahim shocked me. Using Lavendar and Where’s Daddy, AI programs to locate and target civilian Palestinians to assassinate entire families, IDF executes mass annihilation plans in Gaza with extraordinary efficiency. This “precision targeting“ is what US aid supports in Israel.
https://www.democracynow.org/2024/4/5/israel_ai
#Lavendar #WheresDaddy #IDF #Israel
Lavender & Where’s Daddy: How Israel Used AI to Form Kill Lists & Bomb Palestinians in Their Homes

The Israeli publications +972 and Local Call have exposed how the Israeli military used an artificial intelligence program known as Lavender to develop a “kill list” in Gaza that includes as many as 37,000 Palestinians who were targeted for assassination with little human oversight. A second AI system known as “Where’s Daddy?” tracked Palestinians on the kill list and was purposely designed to help Israel target individuals when they were at home at night with their families. The targeting systems, combined with an “extremely permissive” bombing policy in the Israeli military, led to “entire Palestinian families being wiped out inside their houses,” says Yuval Abraham, an Israeli journalist who broke the story after speaking with members of the Israeli military who were “shocked by committing atrocities.” Abraham previously exposed Israel for using an AI system called “The Gospel” to intentionally destroy civilian infrastructure in Gaza, including apartment complexes, universities and banks, in an effort to exert “civil pressure” on Hamas. These artificial intelligence military systems are “a danger to humanity,” says Abraham. “AI-based warfare allows people to escape accountability.”

Democracy Now!

If they aren't stopped, these tools will be in a military's hands near you!

Israel is rubber-stamping AI bombing targets - Desk Chair Analysts

https://dcanalysts.net/israel-is-rubber-stamping-ai-bombing-targets/

#AI #Amazon #Gaza #Google #Israel #Lavendar #Palestine #ProjectNimbus #Tech #DCA #FreePalestine #CeasefireNow

Israel is rubber-stamping AI bombing targets - Desk Chair Analysts

We are now over six months into Israel’s ethnic cleansing of Palestinians in Gaza. Of course, this whole time, they have been covering it under the guise of targeting Hamas militants in the region. Israel initially said they were going after hostage that were taken on October 7, but nobody is really talking about that […]

Desk Chair Analysts