AI Goes To War

66 Comments off

Stand: 14.03.2026 
Dieser Post erschien zuerst auf dem privaten Facebook-Profil unserer CEO und Autorin Giulia Silberberger 

Ihr habt sicher in den Nachrichten verfolgt (oder zumindest mitbekommen), dass gerade “irgendwas mit Anthropic und der Trump-Regierung” los ist, das mit dem Einsatz von ihrem Agenten Claude für Militärzwecke zu tun hat. Claude gerät auch jetzt gerade in den medialen Fokus, weil es im aktuellen Iran-Krieg knapp 1000 Angriffsziele ausgesucht und vorgeschlagen haben soll.

Ich (Giulia) habe mich etwas eingelesen und werde euch das hier mal etwas aufzudröseln und grob ein paar Player in diesem Konglomerat des Irrsinns sortieren. Meine Quellen sind am Ende des Posts verlinkt.
 
Das “Maven Smart System” (kurz: MSS):
Nachfolger von “Project Maven”. Project Maven (2017) hat bereits automatisiert Objekte auf Videos und SatBildern analysiert und erkannt und ist seinerzeit in die Schlagzeilen geraten, weil es zum einen die “Drohnenkriegsführung” effizienter gemacht hat und zum anderen, weil der damalige Pentagon-Partner Google den Vertrag nicht erneuert hat. Sie wollten mit Krieg nichts zu tun haben.
Ein neuer Partner musste her, und am besten gleich noch ein besseres System. Das “Marven Smart System” wurde geschaffen und – da wird uns jetzt sicher grad ganz heiß und kalt – von dem inzwischen recht bekannten Datenanalyseunternehmen Palantir entwickelt. Beim “MSS “handelt es sich aber nicht um ein einzelnes Kriegs-KI-Modell, sondern um eine Plattform, die als eine Art “Gehirn” für diverse militärische Entscheidungsprozesse dient. Ihre primäre Funktion besteht darin, die Massen von eingehenden Datenströmen (von Drohnen, Satelliten, menschlicher Aufklärung, Geheimdiensten und so weiter) zu bündeln, zu analysieren und in handhabbare Zielvorschläge zu transformieren.
 
Claude und andere LLM:

Hier kommen LLM wie Claude bzw. hier “Claude Gov” ins Spiel. Im konkreten Einsatz, wie es auch für die aktuell laufenden Operationen im Iran dokumentiert wurde, übernimmt Claude innerhalb des MSS die Rolle eines Filters: Das System identifiziert nicht nur potenzielle Ziele, sondern bewertet diese auch anhand von vordefinierten Kriterien und liefert gleich eine priorisierte Liste von Empfehlungswerten für einen Angriff. Es gibt zwar immer noch menschliche Operator*innen, aber aufgrund der von der KI perfekt präsentierten Auswertung und mitgelieferten Begründung entsteht der Eindruck einer „datengestützten Unfehlbarkeit“. Man kann überspitzt gesagt auswählen wie aus einer Menükarte und muss nur noch den Knopf drücken.

Zweigleisige Architektur:
Es gibt einen Mechanismus, der sich „zweigleisige Architektur“ nennt. Anthropic bietet mit „Claude Gov“ eine spezifische Version ihrer Modelle für Regierungsbehörden an, die sich von der zivilen Variante in relevanten Punkten unterscheidet. Die Berichterstattung bzw. Dokumentation der aktuellen Klage von Anthropic gegen das Pentagon legt nahe, dass diese Regierungsversion weniger restriktiv bei der Bearbeitung von Anfragen konfiguriert ist, die in der zivilen Version durch ethische „Guardrails“ (Schutzvorkehrungen) blockiert würden.
 
Diese “zweigleisige Architektur” macht es den US-Tech-Giganten möglich, dass das gleiche Produkt auf dem zivilen Markt als sicheres und ethisch (meistens) korrektes Werkzeug beworben wird, während es im militärischen Kontext durch spezifische Konfigurationen und den Wegfall bestimmter Sicherheitsbarrieren für Aufgaben optimiert wird, die direkt in die „K*ll Chain“ (den Kreislauf von Zielerfassung bis zur Neutralisierung) eingreifen.
 
Anthropic vs. Pentagon/DoD
Da Anthropic dem Pentagon/DoD aber sein Produkt nicht uneingeschränkt für z.B. au­to­no­me Waf­fen und Mas­sen­über­wa­chung zur Verfügung stellen möchte, hat die US-Regierung das Unternehmen kurzerhand als Sicherheitsrisiko eingestuft. Und genau dagegen klagt Anthropic gerade und verweist auf ihr Recht auf freie Meinungsäußerung. Ihre KI hingegen wird trotz der Einstufung von Anthropic als Sicherheitsrisiko weiterhin zu militärischen Zwecken eingesetzt, wie die aktuelle Berichterstattung zeigt.
 
Und zwar weil eine Entfernung des Agenten aus dem MSS die gesamte Operationsfähigkeit des Systems gefährden würde. Dieses System hat sich nämlich als eine unverzichtbare Stütze der Kommandostruktur etabliert. Und das bedeutet, dass ethische Einwände der Hersteller oder politische Debatten seine operative Realität kaum noch beeinflussen können (klassischer wirtschaftlicher “Lock-in-Effect”).
 
KI-Agenten erhalten von ihren Entwicklern immer eine gewisse Persönlichkeit, um die Interaktion mit den User*innen so komfortabel und “menschlich” wie möglich zu gestalten. Wir wissen nicht, wie die Interaktionen mit den Chatbots der militärischen KI-Agenten aussehen. Wir können nur raten. Aber allein die Vorstellung ist grotesk, dass wir uns jetzt an einem Punkt befinden, an dem ich mich frage, welche Persönlichkeit eine Massenvernichtungswaffe hat.
 
Der Ausstieg aus US-Datendiensten ist alternativlos
Und uns sollte klar sein, dass auch keine wirkliche Trennung zwischen den zivilen und militärischen Produkten stattfindet. Vielleicht denkt ihr, die ihr bis hierhin gelesen habt, beim nächsten Mal daran, wenn ihr einen KI-Chatbot eines US-Techriesen befragt. Ich tue dies inzwischen gar nicht mehr.
 
Es gibt europäische Lösungen wie das französische Mistral (halluziniert leider noch arg) oder die Schweizer Deep Research KI Euria von Infomaniak (halluziniert so gut wie gar nicht), die gleich noch mit einem Google Workspace-Ersatz “kSuite” daherkommt (dies ist was ich privat und mit der NGO nutze).
 
Eine Liste europäischer Alternativen für US-Datendienste findet ihr auch hier:
https://european-alternatives.cloud/de
 
Das gesamte Thema gibt noch wesentlich mehr her, aber das ist Stoff für einen anderen Post.
 

Dir hat der Artikel gefallen? Alle unsere Inhalte werden von echten Menschen geschrieben.

Zur Durchführung unserer Arbeit erhalten wir keine Förderung oder Gelder aus öffentlichen Mitteln.  Wir sind daher auf eure Spenden angewiesen.

„Der goldene Aluhut“ ist eine gemeinnützige Organisation.
Um uns zu unterstützen, und uns somit die Aufrechterhaltung unserer Arbeit zu ermöglichen, nutze bitte unser PayPal-Spendenkonto (oder sende deine Spende direkt an: spenden@dergoldenealuhut.de) oder unser Spendenkonto bei der Postbank.

Spenden bis 300€ bedürfen keiner Spendenquittung. Bei Beträgen ab 300€ kontaktiert uns bitte für eine Spendenquittung.

Ihr könnt uns auch mit einer Steadymitgliedschaft unterstützen:
https://steadyhq.com/de/aluhut/

Für Steadymitgliedschaften können keine Spendenquittungen ausgestellt werden.