
- dem Pentagon, den
- US-Geheimdiensten sowie
- ausländischen Geheimdiensten.
Palantir, der große und Dienstleister für moderne Kriege
„Die Ukraine ist ein lebendes Labor, in dem einige dieser KI-gestützten Systeme durch Live-Experimente und ständige, schnelle Wiederholung zur Reife gelangen können“,
KI von Palantir im Dienste der Bekämpfung der Hamas
Als einem der weltweit fortschrittlichsten Data-Mining-Unternehmen mit Verbindungen zur CIA erkannte Palantir seine „Arbeit“ darin, Israels Militär und Geheimdienste mit hochmodernen und leistungsstarken Zielerfassungsfähigkeiten zu versorgen.
Das Problem hierbei sind bisher jedoch die hohen Kollateralschäden!
Der Zeitung The Nation kann man dazu entnehmen, daß Palantir den israelischen Streitkräften z.B. KI-gestützte Zielgeräte zur Verfügung stellt, die diese bei ihren Angriffen einsetzten, bei denen bisher aber auch zahlreiche Zivilisten und Hilfskräfte im Gazastreifen ums Leben kamen.
Kriegseinsatz von Software der US-Firma Palantir
Im Oktober 2023 überfielen Hamas-Mörder den Süden Israels und zu viele Einwohner aus dem Gaza-Streifen nutzten diese Gelegenheit, sich daran zu beteiligen. Daraufhin bereitete Israel seinen Rache-Feldzug vor, bei dem KI von Palantir eine große Rolle spielen wird.
„Wir stehen an der Seite Israels“, erklärte das in Denver ansässige Unternehmen in Posts auf X und LinkedIn . „Der Vorstand von Palantir trifft sich nächste Woche in Tel Aviv zu seiner ersten Sitzung im neuen Jahr. Unsere Arbeit in der Region war noch nie so wichtig. Und wir werden sie fortsetzen.“
Unmittelbar nach dem Gespräch reiste Karp zu einem Militärhauptquartier, wo er eine erweiterte Vereinbarung mit dem israelischen Verteidigungsministerium unterzeichnete. „Beide Parteien haben sich darauf geeinigt, Palantirs fortschrittliche Technologie zur Unterstützung kriegsbezogener Missionen zu nutzen“, sagte Executive Vice President Josh Harris.
Das Projekt beinhaltete den Verkauf einer KI-Plattform an das Ministerium, die anhand von Unmengen geheimer Geheimdienstberichte über Leben und Tod entscheidet und Angriffsziele ermittelt. Karp gab vor einigen Jahren untertrieben zu: „Unser Produkt wird gelegentlich zum Töten von Menschen eingesetzt“…“
Kriegseinsatz von Daten aus den USA zum Betrieb der Software von Palantir
Die KI-Maschinen von Palantir benötigen Daten als Treibstoff – Daten in Form von Geheimdienstberichten über Palästinenser in den besetzten Gebieten. Und seit Jahrzehnten ist die US-amerikanische National Security Agency (NSA) für Israel eine wichtige und streng geheime Quelle dieser Daten… In dem Interview erzählte er mir, dass „ einer der größten Missbräuche “, die er während seiner Zeit bei der Behörde beobachtet habe, darin bestand, wie die NSA heimlich unverarbeitete Telefon- und E-Mail-Kommunikation zwischen palästinensischen Amerikanern in den USA und ihren Angehörigen in den besetzten Gebieten an Israel weitergab.
Ob hierzu letztendlich auch Daten gehören, die von Sozialen Netzwerken, also Meta, Google, etc. stammen, bliebt aktuell noch der Phantasie des Lesers überlassen.
Zielauswahl durch KI in Minuten, statt Stunden
Das Ergebnis des Zusammenspiels aus KI und Daten ist eine signifikante Reduktion der Zeit zur Zielauswahl:
ergänzte Bruno Macaes, ein ehemaliger hochrangiger portugiesischer Beamter, der im vergangenen Jahr durch die Londoner Zentrale von Palantir geführt wurde.
„In der alten Welt könnte der Vorgang sechs Stunden dauern.“
.
KI ermöglicht die schnelle Identifikation von Massen an Zielen
Die Magazine/Sender +972 und Local Call haben ermittelt, daß die israelische Armee mit Hilfe von Daten aus den USA und KI zehntausende Gaza-Bewohner als Verdächtige markiert hat, die am Überfall auf Israel teilgenommen haben könnten.
Hinzu kämen die Daten aus den von der NSA abgehörten Gesprächen von Palästinensern in den USA mit ihren Familien in Gaza – ein Prozess, der mehreren Quellen zufolge auch nach Snowdens Ausscheiden aus der NSA fortgesetzt wurde.
Identifikationssoftware zur Auswahl von Personen-Zielen: „Lavender“
Die israelische Armee Sie setzte zur Identifikation ihrer Zielpersonen auf ein KI-basiertes Zielerfassungssystem namens „Lavender„, dessen Ergebnisse dann offenbar kaum einer weiteren Kontrolle durch Menschen zugeführt wurden. Auch die Politik hatte demnach wenig Interesse an einer Evaluation der Ziele.
„In den ersten Kriegswochen verließ sich die Armee fast vollständig auf Lavender“,
„das bis zu 37.000 mutmaßliche Palästinenser – und deren Häuser – für mögliche Luftangriffe erfasste.“ Und von Anfang an gab es kaum Versuche, die Tausenden von Namen, die die Maschine auf ihrer Todesliste generierte, zu überprüfen oder zu rechtfertigen… Doch es kommt noch schlimmer. Sie fanden heraus, dass die israelische Armee gezielt und systematisch die Häuser gezielter Personen bombardierte – und dabei ganze Familien tötete –, nur weil ein anderer KI-Algorithmus ihnen die Anwesenheit der Person gemeldet hatte. „Das Ergebnis“, schreiben sie, „war, wie die Quellen bezeugten, dass Tausende Palästinenser – die meisten von ihnen Frauen und Kinder oder Menschen, die nicht an den Kämpfen beteiligt waren – durch israelische Luftangriffe, insbesondere in den ersten Kriegswochen, aufgrund der Entscheidungen des KI-Programms ausgelöscht wurden.“
Identifikationssoftware zur Auswahl von Gebäude-Zielen: „The Gospel“
Eine andere Quelle ergänzt:
Die Lavender-Maschine ergänzt ein weiteres KI-System, „The Gospel“, über das Informationen bereits in einer früheren Untersuchung von +972 und Local Call im November 2023 sowie in eigenen Veröffentlichungen des israelischen Militärs veröffentlicht wurden . Ein grundlegender Unterschied zwischen den beiden Systemen liegt in der Definition des Ziels: Während „The Gospel“ Gebäude und Strukturen markiert, von denen die Armee behauptet, dass Militante von dort aus operieren, markiert „Lavender“ Menschen – und setzt sie auf eine Abschussliste.
Wie funktioniert Lavender:
In einem Vortrag spricht der Kommandant des Zentrums für Künstliche Intelligenz bei der berühmten Einheit 8200 der israelischen Streitkräfte, Oberst Yoav, über eine neue, hochentwickelte Zielmaschine der israelischen Armee, die „gefährliche Personen“ anhand ihrer Ähnlichkeit mit bestehenden Listen bekannter Militanter erkennt, an denen sie trainiert wurde.
„Mit Hilfe des Systems gelang es uns, Kommandeure der Raketeneinheiten der Hamas zu identifizieren“,
sagte Oberst Yoav in einem Vortrag und bezog sich dabei auf die israelische Militäroperation im Mai 2021 in Gaza, bei der die Maschine erstmals eingesetzt wurde.
Inzwischen wurden auch einige Informationen öffentlich, wie Lavender funktioniert. Kerngedanke ist, daß Charakteristika gesammelt werden, die für Hamas-Angehörige zutreffen:
Den ebenfalls bei +972 und Local Call entnehmbaren Folien des Vortrags kann man entnehmen, wie Lavender genau funktioniert:
Die Software wird mit Daten über tatsächlich existierende Hamas-Aktivisten gefüttert, „lernt“, deren Gemeinsamkeiten erkennen und bewertet dann Andere danach, wie ähnlich sie den Militanten sind.
„Wir bewerten die Ergebnisse und legen die Schwelle [ab der ein Ziel angegriffen werden soll] fest“,
sagte „Col. Yoav“ in seinem Vortrag und betonte, dass
Eine andere Quelle präzisiert:
Der Kommandant gab auf der AI-Week 2023 an der Uni in TelAviv erstmals bekannt, dass die IDF bereits im Jahr 2021 während der „Guardian of the Walls“-Kampagne Datenwissenschaft und KI-Tools nutzten, um Hunderte von Hamas-Zielen zu generieren:
„Wir konnten die Kommandeure der Raketenkommandos der Hamas über das System identifizieren.“
Schritt 1: Identifikation tausender Ziele mit Hilfe von „Lavender“
In der Vor-KI-Zeit fand der Begriff „menschliches Ziel“ in der israelischen Armee auf einen hochrangigen Militärangehörigen Anwendung. Die Abteilung für Völkerrecht der israelischen Armee hatte für derartige Ziele eine Bekämpfung in dessen Privathaus auch dann freigegeben, wenn sich Zivilisten in der Nähe befanden.
Geheimdienstquellen bestätigten seither gegenüber +972 und Local Call, daß in früheren Kriegen diese „menschlichen Ziele“ durch die israelische Armee sehr sorgfältig markiert wurden. Deswegen wurden bisher nur hochrangige Militärkommandanten in ihren Häusern bombardiert, um dem völkerrechtlichen Verhältnismäßigkeitsgrundsatz zu genügen, wenn bei derartigen Einsätzen dann auch eine ganze Familie getötet wurde.
Das hat sich im aktuellen Kampf Israels gegen die Hamas im Gaza-Streifen und der Nutzung von KI offenbar geändert:
Nun wurden mit Hilfe von KI auch als „Nachwuchskämpfer“ identifizierte Personen mit in die Identifikation der Ziele aufgenommen.
Das aber schuf neue Probleme, denn damit nahmen auch die Verwechslungen zu. Bei früheren Operationen umfasste die Liste der Ziele nur wenige Dutzend hochrangige Agenten. Mit der Abarbeitung einer derartigen Liste konnten wurden einzelne Geheimdienstmitarbeiter betraut, die die Belastungs- und Ortungsarbeit höchstpersönlich übernahmen.
Nach der politisch gewollten Ausgabe von tausenden von Zielen ist ein derartiges Vorgehen hingegen für den Geheimdienst unmöglich geworden und er griff auf „Künstliche Intelligenz“ zurück:
Bisher wurden von der KI generierten ca. 10% Fehler durch einen Menschen, der die von der KI generierten Ergebnisse überprüfte, korrigiert:
Geheimdienstmitarbeiter hatten bis dahin die Genauigkeit einer zufällig ausgewählten Stichprobe von mehreren hundert Zielen, die vom KI-System ausgewählt worden waren, manuell überprüft. Aufgrund der Masse an Zielen wurde dann der Mensch als Kontroll-Instanz zwei Wochen nach Beginn der Operation praktisch ersetzt:
Das Ausschalten der Überprüfung durch den Menschen hatte jedoch schwerwiegende Folgen: Der Einfluss von Lavender auf die Militäroperationen wurde so groß, daß die Ergebnisse der KI-Maschine praktisch wie eine „menschliche Entscheidung“ behandelt wurden.
Eine Quelle offenbarte den Journalisten, daß das menschliche Personal die Entscheidungen der Maschine oft nur durchgewunken hat weil diese sich normalerweise nur etwa 20 Sekunden lang persönlich mit jedem Ziel befassen konnte, bevor sie einen Bombenangriff genehmige. Diese Zeit genügte gerade, um sicherzustellen, daß das von Lavender markierte Ziel männlich sei.
Schritt 2: Eingabe tausender Ziele in Ortungsprogramme
Das Lavender-System ist „lediglich“ geeignet, die gesuchten mutmaßlichen Aktivisten der militärischen Flügel der Hamas und des Palästinensischen Islamischen Dschihad zu identifizieren. Je nach Einstellung kann man sich auf die höherrangigen Ziele begrenzen oder auch alle Ziele ausgeben lassen, wovon dann auch die niederrangigen Ziele erfasst sind und als potenzielle Bombenziele markierbar sind. Lavender gab in den ersten Wochen des Gegenschlags bis zu 37.000 mutmaßliche Militante als Ziele für mögliche Luftangriffe aus.
Beide Programme sind grundsätzlich getrennt:
Schritt 3 Auswahl einer Waffe:
Sogar die ausführenden Stellen waren überrascht von dieser Änderung in der Einsatztaktik:
„Es war für mich eine große Überraschung, dass wir aufgefordert wurden, ein Haus zu bombardieren, um einen Bodensoldaten zu töten, dessen Bedeutung in den Kämpfen so gering war“, sagte eine Quelle über den Einsatz von KI zur Markierung mutmaßlich niederrangiger Militanter. „Ich nannte diese Ziele ‚Müllziele‘. Dennoch fand ich sie ethischer als die Ziele, die wir nur zur ‚Abschreckung‘ bombardierten – Hochhäuser, die evakuiert und gestürzt wurden, nur um Zerstörung anzurichten.“ (a.a.O.)
Schritt 4: Autorisierung des Umfangs ziviler Verluste als „Kollateralschäden“
Einer Quelle zufolge wurde bei Angriffen auf junge Kämpfer – darunter auch solche, die von KI-Systemen wie Lavender markiert wurden – die Zahl der Zivilisten, die sie neben jedem Ziel töten durften, in den ersten Kriegswochen auf bis zu 20 festgelegt. Eine andere Quelle behauptete, die festgelegte Zahl habe bei bis zu 15 gelegen. Diese „Kollateralschadensgrade“, wie das Militär sie nennt, wurden den Quellen zufolge pauschal auf alle mutmaßlichen jungen Kämpfer angewendet, unabhängig von ihrem Rang, ihrer militärischen Bedeutung und ihrem Alter. Es erfolgte auch keine spezifische Einzelfallprüfung, um den militärischen Vorteil einer Tötung gegen den zu erwartenden Schaden für die Zivilbevölkerung abzuwägen.
Die Folgen: eine hohe Quote an „Kollateralschäden“
Diese Politik wird auch durch die Daten deutlich: Im ersten Kriegsmonat gehörten mehr als die Hälfte der Todesopfer – 6.120 Menschen – 1.340 Familien an, von denen viele laut UN-Angaben in ihren Häusern völlig ausgelöscht wurden. Der Anteil der im aktuellen Krieg in ihren Häusern bombardierten Familien ist viel höher als während der israelischen Operation im Gazastreifen 2014 (die bis dahin Israels tödlichster Krieg im Gazastreifen war), was die Bedeutung dieser Politik weiter unterstreicht.
Problem 1: Durchwinken der Ergebnisse der KI durch Menschen
Ein erstes Problem bestand darin, daß die Ergebnisse der KI nicht mehr ernsthaft durch Personal gegengeprüft wurden:
Problem 2: Die Algorithmen berücksichtigen das reale Leben nicht
Ein weiteres Problemfeld ergibt sich an der Schnittstelle der KI zum realen Leben:
Laut B. trat ein häufiger Fehler auf, „wenn das [Hamas-]Ziel [sein Telefon] seinem Sohn, seinem älteren Bruder oder einfach einem beliebigen Mann gab. Diese Person wurde in ihrem Haus mit ihrer Familie bombardiert. Das kam häufig vor. Dies waren die meisten von Lavender verursachten Fehler“, sagte B.
KI von Palantir im Dienste der Ukraine zur Bekämpfung der Russen
Palantir ist aber nicht nur in Israel, sondern auch in der Ukraine tätig und auch dort
„für den Großteil der Zielerfassung in der Ukraine verantwortlich“,
gab der Chef von Palatir, Alex Karp zu.
in der Ukraine, erzählt Karp einem Journalisten,
Karp argumentierte:
Elektronische Kampfführung in der Ukraine
KI im Kriegseinsatz in der Ukraine
In der britischen Zeitschrift „The Time“ führten Reporter seither weitere Details für den KI-Krieg in der Ukraine aus:
Ukrainische Beamte erzählten mir, sie nutzten die Datenanalyse des Unternehmens für Projekte, die weit über nachrichtendienstliche Erkenntnisse aus Gefechtssituationen hinausgehen, darunter die Sammlung von Beweisen für Kriegsverbrechen , die Räumung von Landminen, die Umsiedlung vertriebener Flüchtlinge und die Bekämpfung von Korruption. Palantir war so erpicht darauf, seine Fähigkeiten zu demonstrieren, dass es sie der Ukraine kostenlos zur Verfügung stellte.
KI als Instrument zur Zielanalyse
Darüber hinaus hilft KI auch in der Ukraine bei der Zielauswahl und bei der Identifikation feindlicher Positionen:
Regierungsbeamte wurden in der Nutzung eines Palantir-Tools namens MetaConstellation geschult, das kommerzielle Daten, darunter Satellitenbilder, nutzt, um ein nahezu Echtzeitbild eines bestimmten Gefechtsgebiets zu liefern. Die Software von Palantir integriert diese Informationen mit kommerziellen und geheimen Regierungsdaten, auch von Verbündeten, sodass Militärs den Kommandeuren vor Ort feindliche Positionen mitteilen oder entscheiden können, ein Ziel anzugreifen. Dies ist Teil dessen, was Karp eine digitale „Kill Chain“ nennt.
KI als Instrument zur Analyse von Schlachtfeldern
KI wird aber auch zur Analyse von Kampfgebieten eingesetzt:
Clearview AI im Einsatz auf der Suche nach Kriegsverbrechern
Ein weiteres Einsatzgebiet ist die Identifikation feindlicher Soldaten. Hierbei unterstützt die auf Gesichtserkennungssoftware spezialisierte Firma Clearview.ai die Ukraine:
Dazu gehören offenbar auch Kollaborateure: