Palantir: „Künstliche Intelligenz“ dominiert zunehmend die Schlachtfelder im Kriegseinsatz

Quelle: Gemeinfrei, https://commons.wikimedia.org/w/index.php?curid=479844
DENVER / KIEW / TEL AVIV – Die Verarbeitung großer Datenmengen zur Identifikation militärischer Ziele, mit dem Ziel diese dann neutralisieren zu können, hat sich inzwischen zu einer kriegsentscheidenden Fähigkeit entwickelt.
.
Das mit der CIA verbundene und in Denver / USA residierende Militärtechnologieunternehmen Palantir floriert durch die immer zahlreicheren Kriege und Konflikte. Zwar hat WikiLeaks eine Reihe von Warnungen vor Palantirs Verbindungen zu Spionage, möglichen Kriegsverbrechen und Menschenrechtsverletzungen veröffentlicht und Palantir hat sich im Gegenzug auf WikiLeaks eingeschossen, aber all das schadet dem Erfolg des Unternehmens offenbar nicht.
Palantir Technologies wurde 2004 von Alexander Karp und Peter Thiel (dem größten Einzelaktionär) gegründet. Nebenbei bemerkt hat genau dieser Peter Thiel den Ex-Kanzler Kurz nach dessen Sturz als Kanzler unter die eigenen Fittiche genommen.
Der rasante Aufstieg zu einem der höchstbewerteten privaten Unternehmen im Silicon Valley verdankt Palantir lukrativen Verträgen mit
  • dem Pentagon, den
  • US-Geheimdiensten sowie
  • ausländischen Geheimdiensten.
In den letzten Jahren versuchte Palantir, sein Geschäft mit Datenfusion und -analyse auf den privaten Sektor auszuweiten, bisher aber mit nur mäßigem Erfolg.
Prognosen sind für Palantir kein Neuland. Seit mindestens 2009 wurde Palantir vom Pentagon genutzt, um die Standorte improvisierter Sprengsätze in Afghanistan und im Irak vorherzusagen. Genutzt wurde ein Programm zur Risikobewertung in Kriegszeiten, bei dem die mit individualisierter prädiktiver Polizeiarbeit verbundenen Bedenken hinsichtlich der bürgerlichen Freiheiten wegen des Kriegszustands außer Acht gelassen wurden.
.

Palantir, der große und  Dienstleister für moderne Kriege

Aktuell ist Palantir insbesondere in der Ukraine und im Gaza-Streifen engagiert.
„Die Ukraine ist ein lebendes Labor, in dem einige dieser KI-gestützten Systeme durch Live-Experimente und ständige, schnelle Wiederholung zur Reife gelangen können“,
fasste Jorritt Kaminga, Direktor für globale Politik bei RAIN, einem auf Verteidigungs-KI spezialisierten Forschungsunternehmen die aktuellen Entwicklungen zusammen.
Natürlich ist es immer so gewesen, daß Privatfirmen von Entwicklungen in der Kriegstechnik profitieren. Während in früheren Jahren aber z.B. die Krupps lediglich die Kanonen bauten und nur das Know-How dazu geheim und für sich behielten, ist dies bei den KI-Kriegs-Firmen nun anders. Niemand kontrolliert, was sie an Daten, die sie erhalten haben, um z.B. die KI zu trainieren, behalten. Hierdurch kumuliert sich mehr Macht als in den Händen derartiger privater Unternehmen.
Hinzu kommt, daß die Entwicklung von Militärtechnologie früher in der Regel unter staatlicher Aufsicht erfolgte, z.B im Rahmen der DARPA. Bei der Entwicklung von Militär-KI ist es nun jedoch – wohl erstmals – so, daß derartige Technologien nicht aus staatlich finanzierten Forschungslabors stammen, sondern kommerziell entwickelt wurden und kommerziell erhältlich sind.
Damit wandert diese Macht aus den Händen von Regierungen, die ihrem Volk gegenüber zur Rechenschaft verpflichtet sind, in die Datenbanken von Privatunternehmen und von dort aus könnten diese Firmen diese Daten – rein theoretisch – Kunden auf der ganzen Welt anbieten.
.

KI von Palantir im Dienste der Bekämpfung der Hamas

Als einem der weltweit fortschrittlichsten Data-Mining-Unternehmen mit Verbindungen zur CIA erkannte Palantir seine „Arbeit“ darin, Israels Militär und Geheimdienste mit hochmodernen und leistungsstarken Zielerfassungsfähigkeiten zu versorgen.

Das Problem hierbei sind bisher jedoch die hohen Kollateralschäden!

Der Zeitung The Nation kann man dazu entnehmen, daß Palantir den israelischen Streitkräften z.B. KI-gestützte Zielgeräte zur Verfügung stellt, die diese bei ihren Angriffen einsetzten, bei denen bisher aber auch zahlreiche Zivilisten und Hilfskräfte im Gazastreifen ums Leben kamen.

Kriegseinsatz von Software der US-Firma Palantir

Im Oktober 2023 überfielen Hamas-Mörder den Süden Israels und zu viele Einwohner aus dem Gaza-Streifen nutzten diese Gelegenheit, sich daran zu beteiligen. Daraufhin bereitete Israel seinen Rache-Feldzug vor, bei dem KI von Palantir eine große Rolle spielen wird.

Palantir Technologies gibt dazu selbst bekannt:

„Wir stehen an der Seite Israels“, erklärte das in Denver ansässige Unternehmen in Posts auf X und LinkedIn . „Der Vorstand von Palantir trifft sich nächste Woche in Tel Aviv zu seiner ersten Sitzung im neuen Jahr. Unsere Arbeit in der Region war noch nie so wichtig. Und wir werden sie fortsetzen.“
Eigestandene Tatsache ist auch: Palantir rüstet die israelische Armee mit KI aus:

Unmittelbar nach dem Gespräch reiste Karp zu einem Militärhauptquartier, wo er eine erweiterte Vereinbarung mit dem israelischen Verteidigungsministerium unterzeichnete. „Beide Parteien haben sich darauf geeinigt, Palantirs fortschrittliche Technologie zur Unterstützung kriegsbezogener Missionen zu nutzen“, sagte Executive Vice President Josh Harris.

Das Projekt beinhaltete den Verkauf einer KI-Plattform an das Ministerium, die anhand von Unmengen geheimer Geheimdienstberichte über Leben und Tod entscheidet und Angriffsziele ermittelt. Karp gab vor einigen Jahren untertrieben zu: „Unser Produkt wird gelegentlich zum Töten von Menschen eingesetzt“…“

Kriegseinsatz von Daten aus den USA zum Betrieb der Software von Palantir

Doch die Software ist nur eine Seite, die andere Seite sind die Daten. Die zum Betrieb nötigen Daten liefert z.B. die NSA der USA:

Die KI-Maschinen von Palantir benötigen Daten als Treibstoff – Daten in Form von Geheimdienstberichten über Palästinenser in den besetzten Gebieten. Und seit Jahrzehnten ist die US-amerikanische National Security Agency (NSA) für Israel eine wichtige und streng geheime Quelle dieser Daten… In dem Interview erzählte er mir, dass „ einer der größten Missbräuche “, die er während seiner Zeit bei der Behörde beobachtet habe, darin bestand, wie die NSA heimlich unverarbeitete Telefon- und E-Mail-Kommunikation zwischen palästinensischen Amerikanern in den USA und ihren Angehörigen in den besetzten Gebieten an Israel weitergab.

Ob hierzu  letztendlich auch Daten gehören, die von Sozialen Netzwerken, also Meta, Google, etc. stammen, bliebt aktuell noch der Phantasie des Lesers überlassen.

Zielauswahl durch KI in Minuten, statt Stunden

Das Ergebnis des Zusammenspiels aus KI und Daten ist eine signifikante Reduktion der Zeit zur Zielauswahl:

.

KI ermöglicht die schnelle Identifikation von Massen an Zielen

Die Magazine/Sender +972 und Local Call haben ermittelt, daß die israelische Armee mit Hilfe von Daten aus den USA und KI zehntausende Gaza-Bewohner als Verdächtige markiert hat, die am Überfall auf Israel teilgenommen haben könnten.

Hinzu kämen die Daten aus den von der NSA abgehörten Gesprächen von Palästinensern in den USA mit ihren Familien in Gaza – ein Prozess, der mehreren Quellen zufolge auch nach Snowdens Ausscheiden aus der NSA fortgesetzt wurde.

Identifikationssoftware zur Auswahl von Personen-Zielen: „Lavender“

Die israelische Armee Sie setzte zur Identifikation ihrer Zielpersonen auf ein KI-basiertes Zielerfassungssystem namens „Lavender„, dessen Ergebnisse dann offenbar kaum einer weiteren Kontrolle durch Menschen zugeführt wurden. Auch die Politik hatte demnach wenig Interesse an einer Evaluation der Ziele.

„In den ersten Kriegswochen verließ sich die Armee fast vollständig auf Lavender“,
„das bis zu 37.000 mutmaßliche Palästinenser – und deren Häuser – für mögliche Luftangriffe erfasste.“ Und von Anfang an gab es kaum Versuche, die Tausenden von Namen, die die Maschine auf ihrer Todesliste generierte, zu überprüfen oder zu rechtfertigen… Doch es kommt noch schlimmer. Sie fanden heraus, dass die israelische Armee gezielt und systematisch die Häuser gezielter Personen bombardierte – und dabei ganze Familien tötete –, nur weil ein anderer KI-Algorithmus ihnen die Anwesenheit der Person gemeldet hatte. „Das Ergebnis“, schreiben sie, „war, wie die Quellen bezeugten, dass Tausende Palästinenser – die meisten von ihnen Frauen und Kinder oder Menschen, die nicht an den Kämpfen beteiligt waren – durch israelische Luftangriffe, insbesondere in den ersten Kriegswochen, aufgrund der Entscheidungen des KI-Programms ausgelöscht wurden.“

Identifikationssoftware zur Auswahl von Gebäude-Zielen: „The Gospel“

Eine andere Quelle ergänzt:

Die Lavender-Maschine ergänzt ein weiteres KI-System, „The Gospel“, über das Informationen bereits in einer früheren Untersuchung von +972 und Local Call im November 2023 sowie in eigenen Veröffentlichungen des israelischen Militärs veröffentlicht wurden . Ein grundlegender Unterschied zwischen den beiden Systemen liegt in der Definition des Ziels: Während „The Gospel“ Gebäude und Strukturen markiert, von denen die Armee behauptet, dass Militante von dort aus operieren, markiert „Lavender“ Menschen – und setzt sie auf eine Abschussliste. 

Wie funktioniert Lavender:

In einem Vortrag spricht der Kommandant des Zentrums für Künstliche Intelligenz bei der berühmten Einheit 8200 der israelischen Streitkräfte, Oberst Yoav, über eine neue, hochentwickelte Zielmaschine der israelischen Armee, die „gefährliche Personen“ anhand ihrer Ähnlichkeit mit bestehenden Listen bekannter Militanter erkennt, an denen sie trainiert wurde.

„Mit Hilfe des Systems gelang es uns, Kommandeure der Raketeneinheiten der Hamas zu identifizieren“,

sagte Oberst Yoav in einem Vortrag und bezog sich dabei auf die israelische Militäroperation im Mai 2021 in Gaza, bei der die Maschine erstmals eingesetzt wurde.

Inzwischen wurden auch einige Informationen öffentlich, wie Lavender funktioniert. Kerngedanke ist, daß Charakteristika gesammelt werden, die für Hamas-Angehörige zutreffen:

Diese Anleitung enthält mehrere Beispiele für die „Hunderttausenden“ von Merkmalen, die die Bewertung einer Person verbessern können, wie etwa die Mitgliedschaft in einer WhatsApp-Gruppe mit einem bekannten Militanten, der Handywechsel alle paar Monate und häufige Adresswechsel. 

„Je mehr und vielfältigere Informationen, desto besser“, schreibt der Kommandant. „Visuelle Informationen, Mobilfunkdaten, Social-Media-Verbindungen, Informationen vom Schlachtfeld, Telefonkontakte, Fotos.“ Während Menschen diese Merkmale zunächst auswählen, so der Kommandant weiter, werde die Maschine mit der Zeit die Merkmale selbstständig erkennen. Dies, so sagt er, könne es Militärs ermöglichen, „Zehntausende von Zielen“ zu erstellen, während die eigentliche Entscheidung, ob sie angegriffen werden oder nicht, weiterhin beim Menschen liege.

Den ebenfalls bei +972 und Local Call entnehmbaren Folien des Vortrags kann man entnehmen, wie Lavender genau funktioniert:

Die Software wird mit Daten über tatsächlich existierende Hamas-Aktivisten gefüttert, „lernt“, deren Gemeinsamkeiten erkennen und bewertet dann Andere danach, wie ähnlich sie den Militanten sind.

„Wir bewerten die Ergebnisse und legen die Schwelle [ab der ein Ziel angegriffen werden soll] fest“,

sagte „Col. Yoav“ in seinem Vortrag und betonte, dass

„letztendlich Menschen aus Fleisch und Blut die Entscheidungen treffen. Im Verteidigungsbereich legen wir aus ethischer Sicht großen Wert darauf. Diese Instrumente sollen [Geheimdienstmitarbeitern] helfen, ihre Barrieren zu überwinden.“ 

Der Gesamtablauf umfasst vier Schritte:

Schritt 1: Identifikation tausender Ziele mit Hilfe von „Lavender“

In der Vor-KI-Zeit fand der Begriff „menschliches Ziel“ in der israelischen Armee auf einen hochrangigen Militärangehörigen Anwendung. Die Abteilung für Völkerrecht der israelischen Armee hatte für derartige Ziele eine Bekämpfung in dessen Privathaus auch dann freigegeben, wenn sich Zivilisten in der Nähe befanden.

Geheimdienstquellen bestätigten seither gegenüber +972 und Local Call, daß in früheren Kriegen diese „menschlichen Ziele“ durch die israelische Armee sehr sorgfältig markiert wurden. Deswegen wurden bisher nur hochrangige Militärkommandanten in ihren Häusern bombardiert, um dem völkerrechtlichen Verhältnismäßigkeitsgrundsatz zu genügen, wenn bei derartigen Einsätzen dann auch eine ganze Familie getötet wurde.

Das hat sich im aktuellen Kampf Israels gegen die Hamas im Gaza-Streifen und der Nutzung von KI offenbar geändert:

Im Rahmen der „Operation Eiserne Schwerter“ beschloss die Armee, alle Aktivisten des militärischen Flügels der Hamas als menschliche Ziele zu klassifizieren, unabhängig von ihrem Rang oder ihrer militärischen Bedeutung. Und das änderte alles.

Nun wurden mit Hilfe von KI auch als „Nachwuchskämpfer“ identifizierte Personen mit in die Identifikation der Ziele aufgenommen.

„Aber wenn es um einen jungen Kämpfer geht, will man weder Personal noch Zeit investieren“, sagte er. „Im Krieg fehlt die Zeit, jedes Ziel zu belasten. Daher ist man bereit, die Fehlerquote des Einsatzes künstlicher Intelligenz in Kauf zu nehmen, Kollateralschäden und den Tod von Zivilisten sowie das Risiko eines irrtümlichen Angriffs zu riskieren und damit zu leben.“

Das aber schuf neue Probleme, denn damit nahmen auch die Verwechslungen zu. Bei früheren Operationen umfasste die Liste der Ziele nur wenige Dutzend hochrangige Agenten. Mit der Abarbeitung einer derartigen Liste  konnten wurden einzelne Geheimdienstmitarbeiter betraut, die die Belastungs- und Ortungsarbeit höchstpersönlich übernahmen.

Nach der politisch gewollten Ausgabe von tausenden von Zielen ist ein derartiges Vorgehen hingegen für den Geheimdienst unmöglich geworden und er griff auf „Künstliche Intelligenz“ zurück:

„Wir wussten nicht, wer die Nachwuchskräfte waren, weil Israel sie [vor dem Krieg] nicht routinemäßig verfolgte“, erklärte der leitende Offizier B. gegenüber +972 und Local Call und erläuterte damit den Grund für die Entwicklung dieser speziellen Zielmaschine für den aktuellen Krieg. „Sie wollten uns ermöglichen, [die Nachwuchskräfte] automatisch anzugreifen. Das ist der Heilige Gral. Sobald man automatisiert ist, spielt die Zielgenerierung verrückt.“

Bisher wurden von der KI generierten ca. 10% Fehler durch einen Menschen, der die von der KI generierten Ergebnisse überprüfte, korrigiert:

Quellen erklärten beispielsweise, dass das Lavender-Gerät manchmal fälschlicherweise Personen markierte, deren Kommunikationsmuster denen bekannter Hamas- oder PIJ-Mitglieder ähnelten. Dazu gehörten Polizisten und Mitarbeiter des Zivilschutzes, Verwandte von Militanten, Einwohner, deren Name und Spitzname zufällig mit denen eines Mitglieds übereinstimmten, sowie Gaza-Bewohner, die ein Gerät verwendeten, das einst einem Hamas-Mitglied gehörte.

Geheimdienstmitarbeiter hatten bis dahin die Genauigkeit einer zufällig ausgewählten Stichprobe von mehreren hundert Zielen, die vom KI-System ausgewählt worden waren, manuell überprüft. Aufgrund der Masse an Zielen wurde dann der Mensch als Kontroll-Instanz zwei Wochen nach Beginn der Operation praktisch ersetzt:

„Alles war statistisch, alles war ordentlich – es war sehr trocken“, sagte B. Er merkte an, dass dieser Mangel an Kontrolle geduldet wurde, obwohl interne Kontrollen zeigten, dass Lavenders Berechnungen nur in 90 Prozent der Fälle als korrekt galten. Mit anderen Worten: Es war im Voraus bekannt, dass 10 Prozent der für die Ermordung vorgesehenen menschlichen Ziele überhaupt keine Mitglieder des militärischen Flügels der Hamas waren.

Das Ausschalten der Überprüfung durch den Menschen hatte jedoch schwerwiegende Folgen: Der Einfluss von Lavender auf die Militäroperationen wurde so groß, daß die Ergebnisse der KI-Maschine praktisch wie eine „menschliche Entscheidung“ behandelt wurden.

Von diesem Moment an, so Quellen, wurde Lavenders Entscheidung, eine Person als Hamas-Kämpfer zu identifizieren, im Wesentlichen als Befehl behandelt. Es sei nicht erforderlich gewesen, die Gründe für diese Entscheidung der Maschine selbst zu prüfen oder die zugrunde liegenden Rohdaten des Geheimdienstes zu untersuchen.

Eine Quelle offenbarte den Journalisten, daß das menschliche Personal die Entscheidungen der Maschine oft nur durchgewunken hat weil diese sich normalerweise nur etwa 20 Sekunden lang persönlich mit jedem Ziel befassen konnte, bevor sie einen Bombenangriff genehmige. Diese Zeit genügte gerade, um  sicherzustellen, daß das von Lavender markierte Ziel männlich sei.

Schritt 2: Eingabe tausender Ziele in Ortungsprogramme

Das Lavender-System ist „lediglich“ geeignet, die gesuchten mutmaßlichen Aktivisten der militärischen Flügel der Hamas und des Palästinensischen Islamischen Dschihad zu identifizieren. Je nach Einstellung kann man sich auf die höherrangigen Ziele begrenzen oder auch alle Ziele ausgeben lassen, wovon dann auch die niederrangigen Ziele erfasst sind und als potenzielle Bombenziele markierbar sind. Lavender gab in den ersten Wochen des Gegenschlags bis zu 37.000 mutmaßliche Militante als Ziele für mögliche Luftangriffe aus.

Wie funktioniert dieses Ortungsprogramm?

Schritt 3 Auswahl einer Waffe:

In einem weiteren Schritt wurden dann die Waffen ausgewählt, um die Zielpersonen zu bekämpfen. Hierbei stellte sich das neue Problem, daß nun auch die niederrangigen Ziele umfasst waren, man aber nur so wenig Geld wie nötig zu deren Bekämpfung ausgeben wollte. Für niederrangige Ziele wurden also „dumme“ Bomben ausgewählt. Billige Waffen bringen dann aber weniger Präzision mit sich und eine geringere Präzision zieht größere Kollateralschäden nach sich. Die Quellen offenbaren den Journalisten:

Darüber hinaus setzte die Armee den Quellen zufolge bei Angriffen auf mutmaßliche Nachwuchskämpfer, die mit „Lavender“ markiert waren, ausschließlich ungelenkte Raketen ein, die gemeinhin als „dumme“ Bomben (im Gegensatz zu „intelligenten“ Präzisionsbomben) bezeichnet werden und ganze Gebäude samt ihren Bewohnern zerstören und so erhebliche Verluste verursachen können. „Man will keine teuren Bomben an unwichtige Personen verschwenden – das ist sehr kostspielig für das Land und es herrscht ein Mangel [an solchen Bomben]“, sagte C., einer der Geheimdienstoffiziere. Einer anderen Quelle zufolge hätten sie persönlich die Bombardierung von „Hunderten“ von Privathäusern mutmaßlicher Nachwuchskämpfer, die mit „Lavender“ markiert waren, autorisiert, wobei bei vielen dieser Angriffe Zivilisten und ganze Familien als „Kollateralschaden“ ums Leben kamen.

Sogar die ausführenden Stellen waren überrascht von dieser Änderung in der Einsatztaktik:

„Es war für mich eine große Überraschung, dass wir aufgefordert wurden, ein Haus zu bombardieren, um einen Bodensoldaten zu töten, dessen Bedeutung in den Kämpfen so gering war“, sagte eine Quelle über den Einsatz von KI zur Markierung mutmaßlich niederrangiger Militanter. „Ich nannte diese Ziele ‚Müllziele‘. Dennoch fand ich sie ethischer als die Ziele, die wir nur zur ‚Abschreckung‘ bombardierten – Hochhäuser, die evakuiert und gestürzt wurden, nur um Zerstörung anzurichten.“ (a.a.O.)

Schritt 4: Autorisierung des Umfangs  ziviler Verluste als „Kollateralschäden“

Einer Quelle zufolge wurde bei Angriffen auf junge Kämpfer – darunter auch solche, die von KI-Systemen wie Lavender markiert wurden – die Zahl der Zivilisten, die sie neben jedem Ziel töten durften, in den ersten Kriegswochen auf bis zu 20 festgelegt. Eine andere Quelle behauptete, die festgelegte Zahl habe bei bis zu 15 gelegen. Diese „Kollateralschadensgrade“, wie das Militär sie nennt, wurden den Quellen zufolge pauschal auf alle mutmaßlichen jungen Kämpfer angewendet, unabhängig von ihrem Rang, ihrer militärischen Bedeutung und ihrem Alter. Es erfolgte auch keine spezifische Einzelfallprüfung, um den militärischen Vorteil einer Tötung gegen den zu erwartenden Schaden für die Zivilbevölkerung abzuwägen.

Laut A., der im aktuellen Krieg als Offizier in einem Zielkontrollraum tätig war, hat die Völkerrechtsabteilung der Armee noch nie zuvor ein so hohes Maß an Kollateralschäden so umfassend gebilligt. „Es ist nicht nur so, dass man jeden Hamas-Soldaten töten darf, was völkerrechtlich eindeutig erlaubt und legitim ist“, sagte A. „Sie sagen einem aber direkt: ‚Man darf sie zusammen mit vielen Zivilisten töten.‘“

„Jede Person, die in den letzten ein oder zwei Jahren eine Hamas-Uniform trug, konnte bombardiert werden, wobei 20 Zivilisten als Kollateralschaden starben, selbst ohne Sondergenehmigung“, fuhr A. fort. „In der Praxis existierte das Prinzip der Verhältnismäßigkeit nicht.“

Die Folgen: eine hohe Quote an „Kollateralschäden“

Diese Politik wird auch durch die Daten deutlich: Im ersten Kriegsmonat gehörten mehr als die Hälfte der Todesopfer – 6.120 Menschen – 1.340 Familien an, von denen viele laut UN-Angaben in ihren Häusern völlig ausgelöscht wurden. Der Anteil der im aktuellen Krieg in ihren Häusern bombardierten Familien ist viel höher als während der israelischen Operation im Gazastreifen 2014 (die bis dahin Israels tödlichster Krieg im Gazastreifen war), was die Bedeutung dieser Politik weiter unterstreicht.

Problem 1: Durchwinken der Ergebnisse der KI durch Menschen

Ein erstes Problem bestand darin, daß die Ergebnisse der KI nicht mehr ernsthaft durch Personal gegengeprüft wurden:

Die Quellen sagten, die automatische Übernahme von Lavenders Todeslisten, die zuvor nur als Hilfsmittel genutzt worden waren, sei etwa zwei Wochen nach Kriegsbeginn genehmigt worden… Als sich herausstellte, dass Lavenders Ergebnisse bei der Identifizierung einer Person mit Hamas-Zugehörigkeit eine Genauigkeit von 90 Prozent erreichten, genehmigte die Armee den umfassenden Einsatz des Systems. Von diesem Moment an, so Quellen, wurde Lavenders Entscheidung, eine Person als Hamas-Kämpfer zu identifizieren, im Wesentlichen als Befehl behandelt.

Problem 2: Die Algorithmen berücksichtigen das reale Leben nicht

Ein weiteres Problemfeld ergibt sich an der Schnittstelle der KI zum realen Leben:

Laut B. trat ein häufiger Fehler auf, „wenn das [Hamas-]Ziel [sein Telefon] seinem Sohn, seinem älteren Bruder oder einfach einem beliebigen Mann gab. Diese Person wurde in ihrem Haus mit ihrer Familie bombardiert. Das kam häufig vor. Dies waren die meisten von Lavender verursachten Fehler“, sagte B.

.

KI von Palantir im Dienste der Ukraine zur Bekämpfung der Russen

Palantir ist aber nicht nur in Israel, sondern auch in der Ukraine tätig und auch dort

„für den Großteil der Zielerfassung in der Ukraine verantwortlich“,

gab der Chef von Palatir, Alex Karp zu.

Bei einer Runde Espresso erklärte Karp Selenskyj, er sei bereit, ein Büro in Kiew zu eröffnen und Palantirs Daten und KI-Software zur Unterstützung der ukrainischen Verteidigung einzusetzen.

in der Ukraine, erzählt Karp einem Journalisten,

sah er die Chance, Palantirs Mission zu erfüllen: „den Westen zu verteidigen“ und „unseren Feinden eine Heidenangst einzujagen“.

Karp argumentierte:

Time berichtete auch, dass Palantir die Ukraine im Juni 2022 in ein „KI-Kriegslabor“ verwandelte und seine Dienste sogar kostenlos anbot:

Bei einer Runde Espresso erklärte Karp Selenskyj, er sei bereit, ein Büro in Kiew zu eröffnen und Palantirs Daten und KI-Software zur Unterstützung der ukrainischen Verteidigung einzusetzen.

Im Februar 2023 gestand CEO Alex Karp zu, daß Palantir für
der ukrainischen Streitkräfte verantwortlich sei und damit auch für die hierbei verursachten Kollateralschäden.
.

Elektronische Kampfführung in der Ukraine

Eines der Gebiete, in denen die Ukraine weltweit ganz vorne mitspielt ist das Gebiet der elektronischen Kampfführung. Der Stellvertreter Selenskis Fedorov und dessen Beauftragter, der Stellvertretender Minister für digitale Transformation der Ukraine, Oleksandr Bornyakov schufen gleich zu Kriegsbeginn Anreize und gewährten Rüstungsunternehmen spezielle Steuererleichterungen, um diese nach Kiew zu locken. Sie starteten auch „Handelsmissionen“ zu Konferenzen in London, San Francisco, Toronto, Brüssel, Davos und Dubai. Anfang 2023 lief die Roadshow fast zu gut.
sagt Bornyakov.
Er und Fedorov gründeten eine digitale Plattform namens Brave1, über die Rüstungsunternehmen, Startups und normale Ukrainer ihre Produkte vorstellen können. Laut Fedorovs Büro sind bereits über 1.145 Bewerbungen eingegangen, von denen Hunderte im Einsatz getestet werden. Dazu gehören Drohnen, KI-Transkriptionssoftware, die russischen Militärjargon entziffern kann, Funkgeräte, die russische Störsender verhindern, Patches für Cyber-Schwachstellen und Minenräumausrüstung.
Auch die großen Tech-Riesen waren dabei:
Und man war zu Beginn nicht wählerisch:
Der selbst gestecllte Anspruch Kiews ist, hierbei die Nummer eins in Europa zu werden.

KI im Kriegseinsatz in der Ukraine

In der britischen Zeitschrift „The Time“ führten Reporter seither weitere Details für den KI-Krieg in der Ukraine aus:

Ukrainische Beamte erzählten mir, sie nutzten die Datenanalyse des Unternehmens für Projekte, die weit über nachrichtendienstliche Erkenntnisse aus Gefechtssituationen hinausgehen, darunter die Sammlung von Beweisen für Kriegsverbrechen , die Räumung von Landminen, die Umsiedlung vertriebener Flüchtlinge und die Bekämpfung von Korruption. Palantir war so erpicht darauf, seine Fähigkeiten zu demonstrieren, dass es sie der Ukraine kostenlos zur Verfügung stellte.

KI als Instrument zur Zielanalyse

Darüber hinaus hilft KI auch in der Ukraine bei der Zielauswahl und bei der Identifikation feindlicher Positionen:

Regierungsbeamte wurden in der Nutzung eines Palantir-Tools namens MetaConstellation geschult, das kommerzielle Daten, darunter Satellitenbilder, nutzt, um ein nahezu Echtzeitbild eines bestimmten Gefechtsgebiets zu liefern. Die Software von Palantir integriert diese Informationen mit kommerziellen und geheimen Regierungsdaten, auch von Verbündeten, sodass Militärs den Kommandeuren vor Ort feindliche Positionen mitteilen oder entscheiden können, ein Ziel anzugreifen. Dies ist Teil dessen, was Karp eine digitale „Kill Chain“ nennt.

Clearview AI im Einsatz auf der Suche nach Kriegsverbrechern

Ein weiteres Einsatzgebiet ist die Identifikation feindlicher Soldaten. Hierbei unterstützt die auf Gesichtserkennungssoftware spezialisierte Firma Clearview.ai die Ukraine:

Auch andere Technologieunternehmen beliefern die ukrainische Regierung mit Produkten, die zum Sieg im Krieg beitragen sollen. Eines der erfolgreichsten ist Clearview, das mir der stellvertretende ukrainische Innenminister Leonid Tymtschenko als „Geheimwaffe“ des Landes gegen die einfallenden russischen Truppen bezeichnete. 1.500 Beamte in 18 ukrainischen Behörden nutzen das System und haben laut ukrainischen Behörden dazu beigetragen, mehr als 230.000 russische Soldaten zu identifizieren, die an der Militärinvasion beteiligt waren. 

Dazu gehören offenbar auch Kollaborateure:

Auch deutsche Drohnenhersteller sind dabei

Ganz weit vorne sind auch deutsche Hersteller von Drohnen mit dabei:
All dies belegt: „Künstliche Intelligenz“ ist dort erfolgreich, wo sie ungehindert auf Daten zugreifen kann. Damit ist ein Kriegszustand, der einen derartigen ungehinderten Zugriff ermöglicht, im natürlichen Interesse eines KI-Unternehmens.
In einem Zustand des Friedens ist ein vergleichbar umfangreicher Zugriff auf Daten nicht möglich, weswegen die Ergebnisse der Palantir-Software beim Einsatz im Inneren erheblich schlechter sind, aber das wird Thema eines andren Beitrags sein.