Israel unterdrückt per Chatbot
Von David Siegmund-Schultze
Allumfassende Überwachung der Palästinenser in den illegal besetzten Gebieten: Nachdem der britische Guardian und die israelischen Magazine +972 und Local Call bereits im Dezember 2023 und April 2024 aufgedeckt hatten, in welchem Umfang die israelische Armee künstliche Intelligenz für die Zielerfassung im Krieg gegen Gaza einsetzt, wurde am Donnerstag die nächste Recherche veröffentlicht. Demnach entwickelt die der Spionage und Aufklärung dienende »Einheit 8.200« der israelischen Armee ein an Chat-GPT angelehntes sogenanntes Large Language Modell (LLM), das in der Lage sein soll, große Mengen an Überwachungsdaten zu analysieren und Fragen zu einzelnen überwachten Personen zu beantworten. Das Projekt habe bereits vor dem 7. Oktober 2023 begonnen, habe aber erst an Fahrt aufgenommen, nachdem KI-Experten der Big-Tech-Unternehmen des Silicon Valley als Reservisten eingezogen worden waren.
Für das Training des Chatbots wurden riesige Mengen alltäglicher Telefongespräche und Textnachrichten genutzt. Eine in der Recherche zitierte Quelle spricht von 100 Milliarden Wörtern, die eingespeist wurden. Die Verletzung der Privatsphäre der Palästinenser in den besetzten Gebieten – intimste Gespräche sowie scheinbar unbedeutende Alltagskommunikation – wird also dafür missbraucht, ihre Überwachung zu intensivieren.
Wie schon bei den bereits enthüllten KI-Programmen »Lavender« und »The Gospel« würde der Einsatz des Chatbots dazu führen, dass folgenschwere Entscheidungen automatisiert und weitgehend von menschlicher Verantwortung abgekoppelt werden. Die Recherchen des Guardian hatten aufgezeigt, dass die Erfassung von menschlichen und infrastrukturellen Zielen in Gaza weitgehend durch KI erfolgt. Dadurch konnten viel mehr Ziele erfasst und bombardiert werden, als es mit einer von Menschen durchgeführten Zielanalyse möglich gewesen wäre.
Brutalität bei der Kriegführung wurde in das System einprogrammiert: Für das Bombardieren rangniedriger Kämpfer wurden 15 bis 20 Zivilisten als »legitime Kollateralschäden« definiert – bei ranghöheren Militärs sogar mehr als 100. Die Einschätzung, ob ein Luftangriff durchgeführt werden soll oder nicht, übernimmt dabei der Algorithmus – die verantwortlichen Soldaten nicken dessen Vorschläge laut einer in dem Bericht zitierten anonymen Armeequelle nur noch ab. Der Zynismus findet im Programm »Where’s Daddy?« (»Wo ist Papa?«) seinen Tiefpunkt. Es ist darauf trainiert, zu erkennen, wann ein Hamas-Soldat sein Wohnhaus betritt. Hintergrund ist die Logik, dass es »effizienter« sei, für weniger relevante Ziele billigere, unpräzise Bomben einzusetzen – um sicherzugehen, dass der mutmaßliche Soldat auch getötet wird, wird sein Wohnhaus angegriffen, sobald er es betritt. Auf diese Weise sind gerade in den ersten Monaten des Rachefeldzugs Tausende palästinensische Familien ausgelöscht worden.
Eine in der Recherche aufgedeckte interne Untersuchung kam zu dem Ergebnis, dass die Zielerfassung eine Fehlerrate von zehn Prozent hat – auch Individuen, die nur lose Verbindungen zur Hamas haben und komplett Unbeteiligte wurden ins Visier genommen. Ob diese Zahl stimmt oder nicht – sicher ist, dass KI auf Wahrscheinlichkeitsmodellen basiert und Fehler macht. Außerdem kann im nachhinein nicht nachvollzogen werden, wie der Algorithmus zu seinen Ergebnissen kam. Ori Goshen, der in der »Einheit 8.200« tätig war, sagt zu Chatbots: »Man gibt ihnen eine Aufforderung oder eine Frage, und sie erzeugen etwas, das wie Zauberei aussieht. Aber oft ergibt die Antwort keinen Sinn.« Solche wirren Antworten würden intern »Halluzination« genannt, so Goshen gegenüber Guardian.
Vergangenes Jahr wurde das LLM noch trainiert. Ob es bereits fertig entwickelt wurde und eingesetzt wird, ist unklar. Es wird jedoch alle Aspekte des Lebens der Palästinenser in Gaza und der Westbank noch umfangreicher überwachen und analysieren als ohnehin schon. So wird jegliche Unmutsbekundung über die illegale Besatzung in einem privaten Telefongespräch potentiell tödliche Folgen haben – genauso wie »halluzinierende« Interpretationen des Chatbots.
Siehe auch
links & bündig gegen rechte Bünde
Jetzt den kostenlosen jW-Newsletter abonnieren – täglich das Beste aus der Tageszeitung junge Welt, direkt in Ihr Postfach. Ihre E-Mail-Adresse wird natürlich niemals an Dritte weitergegeben.
Ähnliche:
- Amir Cohen/REUTERS07.03.2025
»Jahr des Krieges«
- Hatem Khaled/REUTERS01.03.2025
Bis zur nächsten Verhaftung
- 04.02.2025
Netanjahu zu Besuch bei Trump
Mehr aus: Ausland
-
Plötzlich für Frieden
vom 11.03.2025 -
Kein Vergessen
vom 11.03.2025 -
Milizen in Syrien morden weiter
vom 11.03.2025 -
Justizfarce in Tunesien
vom 11.03.2025 -
Good Cop, bad Cop
vom 11.03.2025 -
Kiews Kriegsverbrechen
vom 11.03.2025