Dein roter Faden in wirren Zeiten
Gegründet 1947 Mittwoch, 12. März 2025, Nr. 60
Die junge Welt wird von 3005 GenossInnen herausgegeben
Dein roter Faden in wirren Zeiten Dein roter Faden in wirren Zeiten
Dein roter Faden in wirren Zeiten
Aus: Ausgabe vom 11.03.2025, Seite 7 / Ausland
Israel

Israel unterdrückt per Chatbot

Spionageeinheit arbeitet seit Jahren an einem KI-Programm, das Überwachung »optimieren« soll
Von David Siegmund-Schultze
7.JPG
Auch hier ist KI im Spiel: Soldaten in einem Kommandozentrum, aus dem heraus Drohnen operieren (29.1.2025)

Allumfassende Überwachung der Palästinenser in den illegal besetzten Gebieten: Nachdem der britische Guardian und die israelischen Magazine +972 und Local Call bereits im Dezember 2023 und April 2024 aufgedeckt hatten, in welchem Umfang die israelische Armee künstliche Intelligenz für die Zielerfassung im Krieg gegen Gaza einsetzt, wurde am Donnerstag die nächste Recherche veröffentlicht. Demnach entwickelt die der Spionage und Aufklärung dienende »Einheit 8.200« der israelischen Armee ein an Chat-GPT angelehntes sogenanntes Large Language Modell (LLM), das in der Lage sein soll, große Mengen an Überwachungsdaten zu analysieren und Fragen zu einzelnen überwachten Personen zu beantworten. Das Projekt habe bereits vor dem 7. Oktober 2023 begonnen, habe aber erst an Fahrt aufgenommen, nachdem KI-Experten der Big-Tech-Unternehmen des Silicon Valley als Reservisten eingezogen worden waren.

Für das Training des Chatbots wurden riesige Mengen alltäglicher Telefongespräche und Textnachrichten genutzt. Eine in der Recherche zitierte Quelle spricht von 100 Milliarden Wörtern, die eingespeist wurden. Die Verletzung der Privatsphäre der Palästinenser in den besetzten Gebieten – intimste Gespräche sowie scheinbar unbedeutende Alltagskommunikation – wird also dafür missbraucht, ihre Überwachung zu intensivieren.

Wie schon bei den bereits enthüllten KI-Programmen »Lavender« und »The Gospel« würde der Einsatz des Chatbots dazu führen, dass folgenschwere Entscheidungen automatisiert und weitgehend von menschlicher Verantwortung abgekoppelt werden. Die Recherchen des Guardian hatten aufgezeigt, dass die Erfassung von menschlichen und infrastrukturellen Zielen in Gaza weitgehend durch KI erfolgt. Dadurch konnten viel mehr Ziele erfasst und bombardiert werden, als es mit einer von Menschen durchgeführten Zielanalyse möglich gewesen wäre.

Brutalität bei der Kriegführung wurde in das System einprogrammiert: Für das Bombardieren rangniedriger Kämpfer wurden 15 bis 20 Zivilisten als »legitime Kollateralschäden« definiert – bei ranghöheren Militärs sogar mehr als 100. Die Einschätzung, ob ein Luftangriff durchgeführt werden soll oder nicht, übernimmt dabei der Algorithmus – die verantwortlichen Soldaten nicken dessen Vorschläge laut einer in dem Bericht zitierten ano­nymen Armeequelle nur noch ab. Der Zynismus findet im Programm »Where’s Daddy?« (»Wo ist Papa?«) seinen Tiefpunkt. Es ist darauf trainiert, zu erkennen, wann ein Hamas-Soldat sein Wohnhaus betritt. Hintergrund ist die Logik, dass es »effizienter« sei, für weniger relevante Ziele billigere, unpräzise Bomben einzusetzen – um sicherzugehen, dass der mutmaßliche Soldat auch getötet wird, wird sein Wohnhaus angegriffen, sobald er es betritt. Auf diese Weise sind gerade in den ersten Monaten des Rachefeldzugs Tausende palästinensische Familien ausgelöscht worden.

Eine in der Recherche aufgedeckte interne Untersuchung kam zu dem Ergebnis, dass die Zielerfassung eine Fehlerrate von zehn Prozent hat – auch Individuen, die nur lose Verbindungen zur Hamas haben und komplett Unbeteiligte wurden ins Visier genommen. Ob diese Zahl stimmt oder nicht – sicher ist, dass KI auf Wahrscheinlichkeitsmodellen basiert und Fehler macht. Außerdem kann im nachhinein nicht nachvollzogen werden, wie der Algorithmus zu seinen Ergebnissen kam. Ori Goshen, der in der »Einheit 8.200« tätig war, sagt zu Chatbots: »Man gibt ihnen eine Aufforderung oder eine Frage, und sie erzeugen etwas, das wie Zauberei aussieht. Aber oft ergibt die Antwort keinen Sinn.« Solche wirren Antworten würden intern »Halluzination« genannt, so Goshen gegenüber Guardian.

Vergangenes Jahr wurde das LLM noch trainiert. Ob es bereits fertig entwickelt wurde und eingesetzt wird, ist unklar. Es wird jedoch alle Aspekte des Lebens der Palästinenser in Gaza und der Westbank noch umfangreicher überwachen und analysieren als ohnehin schon. So wird jegliche Unmutsbekundung über die illegale Besatzung in einem privaten Telefongespräch potentiell tödliche Folgen haben – genauso wie »halluzinierende« Interpretationen des Chatbots.

links & bündig gegen rechte Bünde

Jetzt den kostenlosen jW-Newsletter abonnieren – täglich das Beste aus der Tageszeitung junge Welt, direkt in Ihr Postfach. Ihre E-Mail-Adresse wird natürlich niemals an Dritte weitergegeben.

Ähnliche:

  • Nach dem Willen des neuen Generalstabschefs sollen solche Bilder...
    07.03.2025

    »Jahr des Krieges«

    Israels neuer Armeechef Zamir droht Iran und Gaza. Nach Streitkräften legt auch Inlandsgeheimdienst Schin Bet Untersuchung zum 7. Oktober vor
  • Moment der Erleichterung: Die Freigelassenen wurden am Donnersta...
    01.03.2025

    Bis zur nächsten Verhaftung

    Israel entlässt Hunderte palästinensische Gefangene in zum Teil sehr schlechtem Gesundheitszustand

Mehr aus: Ausland