Rote Linien: Anthropic, das Pentagon und die technologische Pubertät der Menschheit

Anthropic verklagt die US-Regierung. Die Einstufung als Sicherheitsrisiko, die Klage, die branchenweite Rebellion – und warum dieser Konflikt die KI-Regulierung für Jahrzehnte prägen wird.
Rote Linien: Anthropic, das Pentagon und die technologische Pubertät der Menschheit

Am Montag hat Anthropic die US-Regierung verklagt. Zwei Klagen, eingereicht in Kalifornien und Washington D.C. Das Ziel: Die Rücknahme einer Einstufung als «Sicherheitsrisiko für die Lieferkette» – eine Klassifizierung, die normalerweise Huawei oder anderen ausländischen Gegnern vorbehalten ist.

Das klingt nach einem Wirtschaftsstreit. Ist es aber nicht. Es ist ein Präzedenzfall, der die Frage aufwirft, wer in den kommenden Jahrzehnten bestimmt, was KI darf – und was nicht.

Um zu verstehen, was hier passiert, muss man weiter ausholen. Denn dieser Konflikt ist nicht aus dem Nichts entstanden. Er ist das Ergebnis einer Spannung, die im Kern von Anthropic selbst angelegt ist.

Der Mann mit den zwei Gesichtern

Dario Amodei, CEO von Anthropic, hat in den letzten zwei Jahren zwei Texte veröffentlicht, die unterschiedlicher kaum sein könnten.

Im Oktober 2024 erschien «Machines of Loving Grace» – ein Essay, in dem er eine radikal optimistische Zukunft entwirft. Mächtige KI, schreibt er, könnte den medizinischen Fortschritt eines ganzen Jahrhunderts in fünf bis zehn Jahren komprimieren. Krankheiten wie Krebs und Alzheimer heilen. Armut besiegen. Ein Werkzeug, das die Menschheit auf eine neue Stufe hebt.

Im Januar 2026 folgte «The Adolescence of Technology» – 19'000 Wörter, in denen Amodei warnt, dass die Menschheit in eine «technologische Pubertät» eintritt. Wir haben Werkzeuge geschaffen, die mächtiger sind als alles, was es je gab – aber wir besitzen noch nicht die Reife, sie zu kontrollieren.

Das ist keine Widersprüchlichkeit. Das ist die Dualität, die das gesamte KI-Feld prägt: extremes Potenzial und existenzielle Gefahr, gleichzeitig.

Was «Powerful AI» bedeutet – und wie nah sie ist

Amodei schätzt, dass wir in ein bis zwei Jahren eine KI erreichen könnten, die klüger ist als Nobelpreisträger in fast allen Wissensgebieten und autonom komplexe Aufgaben über Tage oder Wochen ausführt. Nicht als Science-Fiction, sondern als nüchterne Prognose basierend auf der aktuellen Entwicklungsgeschwindigkeit.

Das Risiko, dass diese Entwicklung katastrophal endet – durch Kontrollverlust, Missbrauch oder eine Kombination aus beidem – beziffert er auf rund 25 Prozent. Eins zu vier. Die Wahrscheinlichkeit, beim Russisch Roulette mit zwei Kugeln zu überleben.

Die konkreten Szenarien, die ihn beunruhigen, sind keine abstrakten Gedankenspiele. KI könnte Laien detailliert anleiten, biologische Waffen herzustellen – eine Demokratisierung der Zerstörung. Bis zu 50 Prozent der Einstiegsjobs im Bürobereich könnten innerhalb von ein bis fünf Jahren wegfallen. Und autonome KI-Systeme könnten eigene Ziele verfolgen, die nicht auf menschliche Werte abgestimmt sind – das sogenannte Alignment-Problem.

Ob man diese Einschätzungen teilt oder nicht: Der Mann, der sie äussert, ist kein Aussenseiter. Er ist CEO eines der wertvollsten Startups der Welt, hat eine 30-Milliarden-Dollar-Finanzierungsrunde abgeschlossen und baut die Technologie, vor der er warnt, selbst.

Der Konflikt: Was wirklich passiert ist

Die Chronologie der letzten Wochen liest sich wie ein Politthriller.

Anthropic hatte einen 200-Millionen-Dollar-Vertrag mit dem Pentagon und war das erste KI-Unternehmen, das seine Modelle in klassifizierte militärische Netzwerke integrierte. Die Zusammenarbeit lief gut – Claude wurde für Geheimdienstanalysen, Simulationen, operative Planung und Cyberoperationen eingesetzt.

Dann forderte das Pentagon, dass Anthropic alle Nutzungsbeschränkungen aufhebt. Das Militär wollte Claude für «alle gesetzlich zulässigen Zwecke» nutzen – ohne Einschränkung. Anthropic zog zwei rote Linien: keine Nutzung für vollautonome tödliche Waffensysteme ohne menschliche Kontrolle und keine Massenüberwachung von US-Bürgern.

Verteidigungsminister Pete Hegseth setzte eine Frist: Freitag, 28. Februar, 17:01 Uhr. Amodei weigerte sich. Seine Begründung: Frontier-KI-Systeme seien schlicht nicht zuverlässig genug für vollautonome Waffen, und Massenüberwachung sei mit demokratischen Werten unvereinbar.

Was folgte, war eine Eskalation ohne Vorbild: Trump ordnete an, dass alle Bundesbehörden die Nutzung von Anthropic sofort einstellen. Hegseth stufte Anthropic als «Supply Chain Risk» ein. Ein internes Memo wies militärische Kommandeure an, Anthropic-Technologien innerhalb von 180 Tagen aus allen Systemen zu entfernen. Der Undersecretary für Forschung bezeichnete Amodei öffentlich als «Lügner mit Gottkomplex».

Amodei selbst fasste die Absurdität der Situation in einem Satz zusammen: Die eine Drohung erkläre Anthropic zum Sicherheitsrisiko. Die andere erkläre Claude zur unverzichtbaren Ressource für die nationale Sicherheit. Beides gleichzeitig sei logisch nicht haltbar.

Am 9. März reichte Anthropic zwei Klagen ein. Das Unternehmen argumentiert, die Regierung bestrafe es unrechtmässig für sein Recht auf freie Meinungsäusserung und seine ethischen Prinzipien.

Die Ironie: Alle anderen ziehen nach

Während das Pentagon Anthropic bestrafte, passierte etwas Unerwartetes. Über 100 Mitarbeitende von Google schrieben einen offenen Brief an ihren Chief Scientist und forderten ähnliche Einschränkungen für Gemini. OpenAI-CEO Sam Altman erklärte intern, dass auch OpenAI auf denselben Schranken bestehen werde. Dutzende Wissenschaftler von OpenAI und Google DeepMind reichten als Privatpersonen einen Amicus-Brief ein, der Anthropics Position unterstützt.

Was als Firmenstreit begann, wurde zu einer branchenweiten Debatte. Und die öffentliche Sympathie liegt klar bei Anthropic: Am Tag nach der Pentagon-Ankündigung überholte die Claude-App zum ersten Mal ChatGPT im App Store. Über eine Million Menschen melden sich inzwischen täglich neu bei Claude an.

Das Gefangenendilemma der KI-Regulierung

Die Geschichte wäre einfacher, wenn es nur um Ethik ginge. Aber Amodei hat ein Problem erkannt, das tiefer liegt: Einseitige Pausen funktionieren nicht.

Im Februar 2026 hat Anthropic seine «Responsible Scaling Policy» auf Version 3.0 aktualisiert. Die wichtigste Änderung: Das Unternehmen rückt von der strikten Zusage ab, die KI-Entwicklung einseitig zu pausieren. Warum? Weil ein Entwicklungsstopp bei Anthropic geopolitischen Rivalen – allen voran China – in die Hände spielen würde. Wenn die sicherheitsbewussteste Firma aufhört, machen die weniger sicherheitsbewussten weiter.

Stattdessen setzt Anthropic auf bedingte Pausen – nur wenn das Unternehmen im Rennen führt, macht ein Stopp strategisch Sinn. Dazu kommen regelmässige öffentliche Risikoberichte und sogenannte «Frontier Safety Roadmaps».

Das klingt nach einem Kompromiss. Ist es auch. Aber es zeigt, wie vertrackt die Situation ist: Selbst ein Unternehmen, das bereit ist, einen 200-Millionen-Dollar-Vertrag mit dem Pentagon zu verlieren, kann nicht einfach aufhören. Weil die Alternative – dass jemand anderes ohne Sicherheitsschranken weitermacht – schlimmer wäre.

Constitutional AI: Eine Verfassung für Maschinen

Anthropics Ansatz zur Sicherheit unterscheidet sich grundlegend von dem seiner Konkurrenten. Die Modelle werden nach einer «Verfassung» trainiert – einem Set aus ethischen Prinzipien, das unter anderem auf der UN-Menschenrechtserklärung basiert. Statt starrer Regeln («tu dies nicht, sag das nicht») bekommt das Modell Werte, auf deren Basis es eigene Entscheidungen trifft.

Das ist elegant – und riskant. Denn wer die Verfassung schreibt, bestimmt die Werte der KI. Und genau hier liegt die politische Dimension: Soll ein Privatunternehmen in San Francisco entscheiden, was eine KI tun darf – oder die gewählte Regierung?

Anthropics Antwort: weder noch. Amodei und andere – darunter Demis Hassabis von Google DeepMind – fordern internationale Abkommen und Institutionen. Diskutiert wird eine Art «IAEA für KI», analog zur Internationalen Atomenergie-Organisation: eine globale Behörde, die Rechenzentren und Chip-Lieferketten überwacht und ein gefährliches Wettrüsten verhindert.

Ob das realistisch ist? In einer Welt, die sich nicht einmal auf Klimaziele einigen kann? Die ehrliche Antwort: wahrscheinlich nicht. Aber die Alternative – ein unkontrolliertes Rennen zwischen Konzernen und Staaten um die mächtigste KI – ist keine Option, die irgendjemand will.

Was das für Sie bedeutet

Für die meisten Unternehmen in der Schweiz ist der Pentagon-Streit weit weg. Autonome Waffen und Massenüberwachung sind nicht das, was ein KMU in Bern nachts wachhält.

Aber die Frage, die dahintersteht, betrifft jeden: Wer kontrolliert die KI, die Sie einsetzen? Welche Werte sind in die Modelle eingebaut, mit denen Ihre Mitarbeitenden täglich arbeiten? Und was passiert, wenn die Regierung eines Landes entscheidet, dass diese Werte nicht mehr gelten?

Die nächsten Monate werden zeigen, ob ein Privatunternehmen das Recht hat, ethische Grenzen für seine eigene Technologie zu setzen – oder ob Regierungen dieses Recht für sich beanspruchen. Der Ausgang dieses Konflikts wird die KI-Branche für Jahrzehnte prägen.

Amodei hat es in seinem Essay auf den Punkt gebracht: Wir befinden uns in der technologischen Pubertät. Mit allen Launen, Risiken und der offenen Frage, ob wir erwachsen genug werden, bevor die Konsequenzen eintreten.


Quellen: CNN, CNBC, Axios, TechCrunch, NPR, CBS News, The Hill, Washington Post – Berichterstattung zur Anthropic-Pentagon-Konfrontation, Februar/März 2026. Anthropic.com – Statements von Dario Amodei. Dario Amodei – «Machines of Loving Grace» (Oktober 2024) und «The Adolescence of Technology» (Januar 2026).

KI-Wissen, das Sie weiterbringt

Jede Woche Erkenntnisse aus meiner Arbeit mit KI: Was funktioniert, was nicht, und was für Ihr Unternehmen relevant ist.

Mitgliederdiskussion