Was haben die Zielauswahl durch die israelischen Streitkräfte (IDF) im Gaza-Krieg, die Verschleppungen durch die US-Migrationsbehörde ICE und die sogenannte Abwendung drohender Gefahren durch deutsche Landespolizeien gemeinsam? Sie setzen ein neues Modell datengetriebener Herrschaft über Menschen durch, ein Modell, das von wenigen Tech-Konzernen kontrolliert wird. Es basiert auf den Daten, die wir alle täglich bei der Nutzung der Systeme von Unternehmen wie Meta, X, OpenAI und Google erzeugen. Mit diesen und anderen Daten werden militärische Entscheidungsassistenzsysteme wie Lavender trainiert, die auswählen, wer z.B. in Gaza per Luftangriff, Drohne oder Rakete getötet wird. Unsere zivilen Daten sind notwendiger Bestandteil dieser zivil-militärischen Infrastruktur – oder andersherum: Es gibt keine rein zivile Nutzung zivil-militärisch entwickelter Technologien! Wir sind Teil der KI-Kriegsindustrie und Teil der Zerstörung! Der algorithmisch gesteuerte Einsatz von (Staats-)Gewalt vermittelt das Bild einer Gesellschaft, in der Widerstand zwecklos wird. Es ist an der Zeit, über die Möglichkeiten einer konzertierten Verweigerung unserer Datengefolgschaft zu debattieren – quasi aus der Architektur des Krieges zu desertieren –, verbunden mit der konsequenten Sabotage der vielfältigen Prozesse und Knotenpunkte, in denen sich das Zivile ins Militärische einwebt.
Nahezu alle Big Tech-Unternehmen haben in den letzten Jahren ihre Nutzungsbedingungen angepasst, um die erfassten Nutzungsdaten und ihre Technologien auch militärisch zu verwenden. Google arbeitet mit Lockheed Martin im Bereich KI und Cloud Computing zusammen, OpenAI mit Anduril und Palantir. Meta arbeitet mit ScaleAI an Defence Llama. ScaleAI hat im Rahmen des Pentagon-Großprojekts Thunderforge neben den bereits genannten Unternehmen weitere Partnerschaften u.a. mit Microsoft. Die drei großen Cloud-Anbieter (AWS GovCloud, Microsoft Azure Government und Google Cloud for Defense and National Security) hosten die digitale Infrastruktur für Militär und Geheimdienste. Auch in Bundeswehr-Rechenzentren läuft Googles Cloud-Software. Die Liste der Zusammenarbeit von Tech-Unternehmen und Militär ließe sich fortsetzen. Wichtig ist: Die privaten Konzerne stellen Systeme, KI-Modelle, Daten und ihr spezifisches Fachwissen zur Verfügung, um militärische Entscheidungsfindungssysteme in Maschinengeschwindigkeit zu entwickeln. Damit steigt nicht nur die militärische Handlungsfähigkeit, sondern auch der kriegsrelevante Einfluss eben dieser Konzerne.
Datenbasiertes Töten in Gaza
Durch die Aussagen israelischer Soldat:innen wissen wir, dass es sich nicht um ein hypothetisches Zukunftsszenario handelt. Auf Basis einer umfassenden Überwachungsinfrastruktur (Mobilfunkdaten, GPS-Signale, biometrische Datenbanken von Geheimdiensten, Daten aus sozialen Medien und weiteren Quellen) vergibt das Entscheidungsassistenzsystem Lavender des israelischen Militärs (IDF) den Einwohner:innen des Gaza-Streifens KI-gestützt einen Score zwischen 1 und 100. Dieser Score gibt die Verhaltensähnlichkeit der jeweiligen Person zu Hamas-Kämpfern an. Eine Stichprobe der IDF enthielt eine Fehlerquote von 10%. Wird eine Person von Lavender als Hamas-Mitglied ‚identifiziert’, wird der Datensatz der markierten Person nach einer in der Regel 20-sekündigen (menschlichen) Überprüfung an das System Where’s daddy weitergegeben, um die Verdächtigen ausfindig zu machen, zu verfolgen und nachts die betreffende Wohnung mit Raketen oder Drohnen anzugreifen oder gar das ganze Gebäude zu bombardieren. Die Wahl der genutzten Waffen folgt ebenfalls weitgehend automatisiert einer Collateral Damage Calculation: Bei der Tötung eines niedrigrangigen Hamas-Mitglieds rechnet diese Funktion 5–20 getötete Zivilist:innen mit ein. Bei der Tötung eines hochrangigen Hamas-Führers sind über 100 zivile Opfer miteinkalkuliert. Den Berichten zufolge vertrauten die Offiziere den technischen Systemen mehr als den Soldat:innen vor Ort.
Anders als in früheren Gaza-Kriegen bestand kein ‚Mangel‘ an aufgeklärten militärischen Zielen. Da die Schwellwerte für den ‚Hamas-Score‘ und eingepreiste zivile Opfer willkürliche Setzungen sind, werden sie flexibel der militärischen Tötungskapazität angepasst. Anders ausgedrückt: Mehr bereitstehende Bomber bedeuten mehr ausgewählte ‚Targets‘. Die Anzahl der Toten in diesem Krieg übersteigt die vorheriger Kriege deutlich. Unter den Toten befinden sich zu je einem Drittel Frauen und Kinder. Ein geleakter Bericht der IDF geht von 83% Zivilist:innen unter den Toten in Gaza aus. ‚Targeted Killing‘ hat mit Zielgenauigkeit tatsächlich nur rudimentär zu tun.
Lavender bedeutet nicht weniger oder gezieltere Todesopfer, sondern bezweckt eine Verschleierung der Verantwortung. Entscheidungen über Leben und Tod werden scheinbar durch eine Maschine getroffen. Diese Maschine wird jedoch von Menschen genau zu diesem Zweck programmiert und konfiguriert. Automation Bias, d.h., die menschliche Neigung, Vorschläge von Maschinen zu übernehmen, sowie die physische und emotionale Distanz der Soldat:innen zu den ‚Targets‘ führen zu einem ‚reibungslosen‘ Ablauf in der automatisierten Tötungsmaschinerie.
Verschmelzung ziviler und militärischer Nutzung
Die automatisierte Tötungsmaschinerie wird auch in den Interfaces der neuen Systeme deutlich: Große Sprachmodelle à la ChatGPT verschmelzen mit Battle Management Systemen des Militärs und Bildtechnologien mit speziellen KI-Assistenz-Systemen für Kampfpilot:innen. Die Tätigkeiten der Soldat:innen gleichen sich der zivilen Alltagsnutzung technischer Systeme an.
Unsere zivile Nutzung ‚sozialer’ Medien und großer Sprachmodelle stellt für Entscheidungsfindungssysteme die Datenbasis, um abweichendes Verhalten per KI detektierbar zu machen. Palantir ist Vorreiter in der Entwicklung militärischer Systeme (wie im Extremfall Lavender) für die Zusammenführung dieser Daten zur Feindzuschreibung; die gleichen Systeme werden in der zivilen Markierung von Gefährder:innen oder Migrant:innen eingesetzt. Unsere Posts, Chats, Feeds, Tweets, Stories, Threads, Comments, Channels, Direct Messages, Reels, Spaces und Gruppenzugehörigkeiten sind der Heuhaufen, in dem die (abweichende) Nadel sichtbar gemacht werden soll. Entgegen unserer Intuition funktioniert das umso besser, je größer der statistische Heuhaufen ist.
Big-Data-Algorithmen, die zur gezielten Werbeschaltung (Ad Targeting) konzipiert wurden, werden zum vermeintlich gezielten Töten (Targeted Killing) weiterentwickelt. Bereits 2018 formulierte Chelsea Manning im Guardian: „Marketing or death by drone, it’s the same math […] You could easily turn Facebook into that. You don’t have to change the programming, just the purpose of why you have the system.“ Zivile und militärische Nutzung sind über politische Entscheidungen bereits im Innovationsprozess dieser ‚dual-use’-Technologien eng und vielfältig miteinander verwoben. Die Cloud-Infrastruktur für Lavender wird von den US-Unternehmen Google und Amazon (beide Project Nimbus), Cisco, Dell, RedHat (IBM) und (dem offiziell ausgestiegenen) Microsoft gestellt. Die Datenintegration für die KI leistet Palantir. Die KI-Modelle selbst kommen von Microsoft, OpenAI und Google. Wohl kein anderer Konzern verfügt über einen so reichhaltigen Datensatz an Social Media-Daten, die unmittelbar für das Training militärischer KI-Modelle verwendet werden können, wie Meta. Ob die eigenen Nutzungsdaten einem Konzern wie Meta für das Töten von Menschen überlassen werden, muss Ergebnis kollektiver Aushandlung und nicht einer individuellen Entscheidung sein. Schließlich werden die trainierten Modelle potentiell gegen uns alle verwendet – auch dann, wenn wir selbst die Systeme von Meta und Co. gar nicht nutzen.
Wir sind Teil der Maschine
KI-basierte Entscheidungsfindungssysteme wie Lavender sind u.a. deswegen so wirkmächtig, weil sie Menschen zu einem Teil des Systems machen. Es ist falsch, sie als Maschinen bzw. rein technische Systeme oder Werkzeuge zu verstehen. 2004 entwickelte Luis von Ahn ESP, ein Onlinespiel, in dem zwei Menschen (ohne gegenseitige Kontaktmöglichkeit) möglichst schnell Begriffe zu einem gezeigten Bild eingeben müssen. Mit diesem human-based computation game gelang es Google, kostenlos eine Bilddatenbank mit Millionen Labeln versehen zu lassen und damit ein künstliches neuronales Netz für die eigene Bildersuche zu trainieren. Von Ahns neuartige Idee: Ein Algorithmus, in dem Berechnungen sowohl von Menschen als auch Maschinen ausgeführt werden, um ein vorgegebenes Ziel (bessere Bildersuche) zu erreichen. Die große Innovation der KI wurde nicht nur durch gestiegene (parallele) Rechenleistung, sondern neue Medientechnologien möglich. Erst wenn es gelingt, Nutzer:innen dazu zu bewegen, die ‚Rechenleistung‘ ihres menschlichen Gehirns in Form von Daten zur Verfügung zu stellen, wird es möglich, KI auf ein Problem anzuwenden. Von Ahns Ansatz wurde kontinuierlich weiterentwickelt. Wir finden ihn in der Einführung von Emojis und Reactions zur Emotionserfassung, dem Taggen von Bildern auf Social Media zur Gesichtserkennung, dem permanenten Mitführen aller Arten von Sensoren (Mobiltelefon, Fitness-Tracker, Smart Watches etc.) oder dem Chat-Interface von ChatGPT, in dem Nutzer:innen durch Nachfragen gleich die Korrekturdaten für die nächste Feedbackschleife mitliefern. Menschen werden jedoch auch auf ganz andere Art in die KI-Systeme eingebunden: Das Fine-Tuning (Nachtrainieren) der großen Sprachmodelle übernehmen schlecht bezahlte menschliche Klickarbeiter:innen im globalen Süden. Auch hier werden ungleiche Machtbeziehungen durch KI nutzbar gemacht.
KI ersetzt menschliche Intelligenz nicht. Sie beutet sie aus. Wir als Nutzer:innen sind über die neuen Medientechnologien direkt eingebunden und daher integraler Bestandteil der ‚technischen‘ Systeme, die KI implementieren. Diese Systeme werden kontinuierlich weiter trainiert. Wenn wir aus den sozialen Medien desertieren und den Datenstrom versiegen lassen, werden die Feedbackschleifen zusammenbrechen und die Vorhersagegenauigkeit der Systeme über die Zeit abnehmen. KI-Systeme sind strukturell abhängig von unserer doppelten Datengefolgschaft: als Erzeuger:innen der Trainingsdaten und unserer (oft freiwilligen) Unterordnung unter die datenbasiert getroffenen Entscheidungen – vom Social Media Feed zum Targeted Killing. Wer algorithmische Medien und KI bloß als Werkzeuge begreift, die gleichermaßen wie ein Messer zum Brot schneiden oder zum Töten eingesetzt werden können, erfasst die Dynamik der sozio-technischen Wechselwirkung nicht. Durch doppelte Feedbackschleifen wirken die technischen Systeme auch auf uns Nutzer:innen zurück. Ihre Erfinder:innen haben sie von Anfang an so konzipiert. Eine technologie- und herrschaftskritische Analyse kann diese Systeme daher nicht lediglich als neutrale Werkzeuge betrachten.
Technologie als Motor der Privatisierung des Politischen
Die gesellschaftliche Sprengkraft der neuen technischen Systeme ist noch größer als bisher beschrieben. Der Einsatz datengetriebener Algorithmen macht die bestehende rechtsstaatliche Ordnung zunehmend obsolet. Regelbasierte rechtsstaatliche Verfahren wie anfechtbare Einzelfallentscheidungen (von Behörden oder Gerichten) werden mit Verweis auf ihre vermeintliche Ineffizienz nach und nach durch wahrscheinlichkeitsbasierte Verfahren ersetzt. Schon in der Entwicklung werden diesen technischen Systemen die Optimierungszielvorgaben eingeschrieben. Was das praktisch heißt, sehen wir in den USA: DOGE automatisierte mittels Palantirs Foundry Plattform u.a. die Verwendung von Mitteln des Bundeshaushalt, Entscheidungen über Sozialhilfeansprüche und Erstattungen medizinischer Behandlungskosten.
Das von Peter Thiel gegründete Unternehmen Palantir liefert so etwas wie das Betriebssystem für die autoritäre Gesellschaft. In den USA werden die Systeme des Unternehmens bereits in diversen Bundesbehörden und den Sicherheitsapparaten eingesetzt. Im Juli 2025 erhielt Palantir einen Vertrag des Pentagons über 10 Mrd. Dollar. Die Streitkräfte setzen die Software u.a. für die Informationsverarbeitung auf dem Gefechtsfeld, die Logistik der Lieferketten, die Personalverwaltung und die militärische Zielauswahl ein. Die US-Einwanderungsbehörde ICE verwendet ELITE und ImmigrationOS von Palantir (neben weiterer Überwachungssoftware z.B. von Pen-Link oder AI Solutions 87), um Migrant:innen zu verfolgen und die Abschiebelogistik zu organisieren.
Das strategische Kalkül rechter Investoren wie Peter Thiel ist die Übertragung (staatlicher) politischer Gestaltungsmacht an private Unternehmen; ein Ziel, das Thiel mit Ausdauer verfolgt. Schon vor Jahren versuchte der libertäre Investor sogenannte Privatstädte in internationalen Gewässern (Seasteading) als staatsfreie Zonen zu schaffen, in denen der Freiheit des Marktes – und der sozialen Ungleichheit – keine rechtlichen Grenzen gesetzt würden. Thiels Pläne finden auch diesseits des Atlantiks Anklang. Der reichste Deutsche, Dieter Schwarz, unterhält an dem von ihm finanzierten TUM Campus Heilbronn ein Zentrum der hiesigen Privatstadtszene. Die von ihm geleitete Schwarz-Gruppe investiert derzeit 11 Mrd. Euro in eines der größten KI-Rechenzentren Deutschlands in Lübbenau. Eine weitere Idee der Libertären: Im Web 3.0 werden Politik und Staaten überflüssig, weil gesellschaftliche Konflikte durch Smart Contracts in der Blockchain automatisch und transparent geregelt werden, basierend auf freien Vertragsschlüssen von Individuen. Die Vertiefung bestehender Ungleichheiten werden – dem sozial-darwinistischen Weltbild der ‚Gründer‘ gemäß – ausgeblendet bzw. als Folge individuellen Versagens gerechtfertigt. Folgerichtig propagiert Thiel – einer Idee Curtis Yarvins folgend – den Staat als Unternehmen, regiert von einem CEO.
Der hohe Grad der Verschmelzung von Staat und Tech-Unternehmen in den USA ist auch am Personal feststellbar. Das Pentagon hat Mitarbeiter von Tech-Unternehmen wie Palantir, Meta und OpenAI zu Offizieren ernannt; diese Praxis nennt sich embedded engineering. Donald Trump berief zahlreiche Vertraute Peter Thiels in (zivile) Schlüsselpositionen seiner Regierung: Vance, Kratsios, Obadal, Barbaccia, Minor, um nur ein paar Namen zu nennen. Die Tech-Unternehmen greifen den demokratischen Staat nicht mehr nur von außen mittels der Meinungsmacht ihrer Medienplattformen an. Sie sind im Begriff, den Apparat von innen zu übernehmen. Ab einem bestimmten Punkt werden die personellen Verflechtungen und sonstigen Abhängigkeiten irreversibel. Die Tech-Unternehmen sind keine gewöhnlichen Rüstungsunternehmen. Sie liefern nicht ‚nur‘ Waffen, über deren Verwendung das Militär entscheidet, sondern Technik, die die Entscheidung, welche Waffen benötigt werden und wann, wie und gegen wen sie eingesetzt werden, an Unternehmen überträgt und damit der öffentlichen Mitbestimmung entzieht.
Der Einfluss der Tech-Unternehmen betrifft nicht nur staatliche Entscheidungen, sondern auch öffentliche Debatten. X-Boss Elon Musk mischte sich in den vergangenen US-Wahlkampf zu einem Zeitpunkt ein, als Kamala Harris die Umfragen anführte. Die Washington Post wies in einer Studie nach, dass die Reichweite von Musks persönlichem X-Account im Wahlkampf 16 mal größer war als die aller(!) Kongressabgeordneten zusammen. Progressive oder liberale Inhalte wurden vom Algorithmus nach Musks Übernahme von Twitter systematisch herunter geregelt. Sie sind in der Regel nicht verboten, sie sind aber auch nicht relevant.
Die algorithmische Privatisierung des Politischen ist in den USA weiter fortgeschritten; sie ist aber nicht auf diese beschränkt und sie hat auch nicht erst unter Donald Trump begonnen. Die offene Erpressung durch mächtige auswärtige Akteure löst in Europa Empörung und Angst aus; im post-kolonialen Süden ist sie nichts Neues. Die europäischen Regierungen treiben die beschriebene Transformation selbst mit voran. Sie setzen auf die Systeme der Tech-Unternehmen, wie sich in den Verträgen deutscher Polizeien und des britischen Gesundheitssystems NHS mit Palantir zeigt. Europäische Rüstungs- und US-Tech-Unternehmen wie Rheinmetall und Anduril gehen ‚strategische Partnerschaften‘ ein. Anduril wird ebenfalls durch Thiels Founders Fund finanziert und spezialisiert sich auf Software für die datengetriebene algorithmische Automatisierung der Kriegsführung. Vor diesem Hintergrund sollten wir uns daher fragen, welche Hebel zur Beschränkung der Macht rechter Tech-Akteure sich jenseits von staatlicher Regulierung finden lassen?
Die Datengefolgschaft verweigern
Stellen wir uns eine lokale Antifagruppe vor, die ausschließlich auf X oder Instagram mobilisiert. Die Gruppe ist gezwungen, Form und Inhalt ihrer Social Media-Kommunikation an den Algorithmus der Plattform anzupassen, um wenigstens eine minimale Sichtbarkeit zu erhalten. Durch Netzwerkeffekte trägt die imaginäre Gruppe dazu bei, weitere Menschen auf diese Plattformen zu holen; Plattformen, deren Zweck es jedoch ist, den Diskurs nach rechts zu verschieben, öffentliche Debattenräume systematisch zu zersetzen und die mit den anfallenden Nutzungsdaten algorithmische Tötungsentscheidungen ermöglichen. Noch findet dies vor allem in ‚Testlaboren‘ wie Gaza statt. Doch das Vorgehen von ICE in den USA und der Einsatz von Palantir durch deutsche Landespolizeien zeigen, dass der umfassende Einsatz datengetriebener Gewalt auch hier absehbar ist. Durch kurzfristige von den Plattformen geliehene Reichweiten für antifaschistische Mobilisierungen wird diese Entwicklung nicht aufgewogen.
Ein gesamtgesellschaftlich marginaler Boykott wird die Konzentrierung von Macht bei den Tech-Unternehmen sicher nicht stoppen. Dazu braucht es politische Aktionen und Widerstand. Dennoch ist es ein erster Schritt, nachzuvollziehen, welche gesellschaftlichen Auswirkungen die technischen Systeme haben und zu diskutieren, wie wir uns ihnen entziehen. Denn es gibt keine rein zivile Nutzung zivil-militärisch entwickelter Technologien! Wir sind Teil der KI-Kriegsindustrie und Teil der Zerstörung! Der technologisch-militärische Komplex vermittelt uns das Bild einer Gesellschaft, in der Widerstand zwecklos wird. Es ist daher an der Zeit, über die Möglichkeiten einer konzertierten Verweigerung unserer Datengefolgschaft zu debattieren – quasi aus der Architektur des Krieges zu desertieren –, verbunden mit der konsequenten Sabotage der vielfältigen Prozesse und Knotenpunkte, in denen sich das Zivile ins Militärische einwebt.