„Assistenz“ beim Bombardement in Gaza: Was bedeutet „Künstliche Intelligenz“ im urbanen Krieg?
Bereits Ende November 2023 hatte der israelische Journalist Yuval Abraham im +972Mag @972mag und der hebräischen Zeitung Local Call einen vielbeachteten Bericht veröffentlicht, wonach die israelische Armee (IDF) in großem Maßstab #KünstlicheIntelligenz (KI) einsetze, um Ziele zu identifizieren, die anschließend in #Gaza bombardiert werden. Im Mittelpunkt stand damals ein System namens „Habsora“, auf Englisch meist mit “The Gospel” übersetzt. Der Beitrag basierte im Wesentlichen auf Aussagen aktiver und ehemaliger israelischer Militärs, die im weiteren Sinne mit der Zielauswahl beschäftigt waren und angaben, „#Habsora“ basiere auf KI und ermögliche es, in großer Geschwindigkeit Ziele zu „produzieren“. Die Anwendung von #Habsora und anderen datenverarbeitenden Systemen hat demnach dafür gesorgt oder dazu beigetragen, dass der IDF bei ihrer massiven Luftkampagne über dicht besiedeltem Gebiet nicht die Ziele ausgingen und dieses massive #Bombardement in seiner Intensität überhaupt durchgeführt werden konnte. Zugleich habe es dazu geführt, dass Angriffe mit erwartbar hohen zivilen Opferzahlen, z.B. auf sog. „Power Targets“ (mehrstöckige zentrale Wohngebäude oder Verwaltungsgebäude) überhaupt ausgeführt worden seien. Bereits damals wurde der Vorwurf geäußert und mit Zitaten unterlegt, wonach die automatisch generierten Ziele zwar nochmal von Menschen bestätigt, dafür aber jeweils nur sehr kurze Zeit aufgewendet worden wären. Die Darstellung schien durchaus plausibel angesichts der etwa 1.000 Ziele, die in der ersten Woche täglich auf einer Fläche angegriffen wurden, welche nur etwas größer ist, als das Gebiet der Stadt München. Nach weiteren zwei Wochen hatte sich die Zahl der aus der Luft angegriffenen Ziele bereits auf 12.000 erhöht und wurde bis 11. Dezember sogar mit 22.000 angegeben.
Völkerrechtlich wären die IDF bei jedem Angriff, bei dem auch mit zivilen Opfern zu rechnen ist, verpflichtet, den absehbaren militärischen Nutzen mit den erwartbaren zivilen Opfern in ein Verhältnis zu setzen und abzuwägen. Diese Verpflichtung dürfte bei nahezu allen Zielen bestanden haben und ihre Einhaltung lässt sich angesichts der schieren Masse angegriffener Ziele kaum plausibel darstellen – es sei denn, die Abwägung wäre auf der Grundlage automatisiert ausgewerteter Daten und maschinell erstellter Empfehlungen erfolgt, wie es der Beitrag von Ende November 2023 nahelegt. Die Informationsstelle Militarisierung @imi hat deshalb Mitte Dezember vermutet dass die IDF sogar ein Interesse daran gehabt haben könnten, dass der großflächige Einsatz von KI bei der Zielfindung bekannt wird, um ihrem Vorgehen zumindest oberflächlich den Anstrich einer – neuartigen – #völkerrechtlichen Legitimität zu verleihen, wonach große Teile der gebotenen „Abwägung“ an vermeintlich „intelligente“ datenverarbeitende Systeme delegiert wurden. Die #Opferzahlen, die zum Zeitpunkt dieser ersten Veröffentlichung kursierten, unterschieden sich kaum von denen, die bei einer vollkommen willkürlichen #Bombardierung eines dicht besiedelten Gebietes erwartbar wären. Der Autor Yuval Abraham bezifferte diese bis zum #Waffenstillstand vom 23. November auf 14.800, wovon etwa 6.000 Frauen und 4.000 Kinder gewesen seien. Die #IDF hingegen schätzten die Zahl der getöteten Militanten etwa zum gleichen Zeitpunkt auf 1.000 bis 3.000.
(...)
https://www.trueten.de/archives/13184-Assistenz-beim-Bombardement-in-Gaza-Was-bedeutet-Kuenstliche-Intelligenz-im-urbanen-Krieg.html #Israel #Lavendar