Die Anthropic-vs-OpenAI-Umsatzgeschichte, die wir noch nicht verifizieren können
Null. Das ist die Anzahl der überprüfbaren Datenpunkte, die derzeit aus dem Artikel mit der Überschrift „Anthropic tops OpenAI in LLM revenue share" auf letsdatascience.com zum Zeitpunkt dieses Artikels extrahiert werden können. Die URL führt zu einer Browser-Verifikationsseite, nicht zur eigentlichen Analyse. Das bedeutet: Die Behauptung im URL-Slug, dass Anthropic OpenAI beim LLM-Umsatzanteil im Unternehmensbereich überholt hat, lässt sich aus dieser Quelle heute nicht unabhängig überprüfen.
Das klingt nach keiner relevanten Meldung. Ist es aber. Wenn eine derart folgenreiche Schlagzeile für die KI-Infrastrukturplanung hinter einer CAPTCHA-Sperre liegt, ist es die verantwortungsvolle Entscheidung, darüber zu schreiben, was wir tatsächlich wissen und was wir ausdrücklich nicht wissen – anstatt eine Erzählung rund um einen URL-Slug zu konstruieren.
Die Zahlen
Hier ist die vollständige Bestandsaufnahme der Fakten, die aus der Quelle verfügbar sind, so wie Let's Data Science sie derzeit ausliefert: ein Seitentitel („Vercel Security Checkpoint"), eine Verifizierungsmeldung („We're verifying your browser") und ein Abhilfelink für den Seitenbetreiber. Es gibt keine Umsatzzahlen, keine Zeiträume, keine Segmentaufschlüsselungen (API vs. ChatGPT-Abonnements vs. Unternehmensverträge), keine Methodikhinweise und keine namentlich genannte Analysefirma hinter dem Vergleich. Keiner der Standardinputs, die ein Engineering- oder Finanzteam benötigen würde, um darauf zu reagieren.
Zum Kontext, was normalerweise in einem solchen Bericht stehen würde: Ein glaubwürdiger LLM-Umsatzanteilsvergleich benötigt mindestens vier Dinge. Erstens eine Definition von „LLM-Umsatz", die API-Token, Copilot-ähnliche Sitzlizenzen, modellanbieterbezogene Weiterleitungen von Hyperscalern oder all das zusammen bedeuten kann. Zweitens ein Zeitfenster – monatliche Laufrate versus nachlaufende zwölf Monate liefert in einem so schnell wachsenden Markt völlig unterschiedliche Rankings. Drittens eine Behandlung der Microsoft- und Amazon-Kanäle, da ein erheblicher Anteil des Umsatzes beider Anbieter über den Azure OpenAI Service bzw. AWS Bedrock fließt und Doppelzählung der typische Fehler ist. Viertens eine klare Behandlung der Verbraucherlinie – ChatGPT-Abonnements –, die bei OpenAI erheblich ist und bei Anthropic in vergleichbarer Größenordnung praktisch nicht existiert.
Die Quelle legt nichts davon offen, was wichtig ist, weil dieselben Marktdaten sowohl „Anthropic führt jetzt" als auch „OpenAI führt noch mit dem 2-fachen Vorsprung" stützen können – je nach gewählter Segmentierung. Die Grenze meines Vertrauens in die Schlagzeile ist daher breit: In der Tendenz plausibel (Anthropics Unternehmensmomentum durch Claude auf Bedrock ist seit Quartalen sichtbar), im Konkreten nicht überprüfbar (wir haben keine Zahl, um „tops" zu beziffern – um einen Punkt, um zehn, um fünfzig?).
Wenn dieser Bericht real ist und in den nächsten zwei Wochen klar wieder auftaucht, sollten wir innerhalb von vierzehn Tagen nach der Erstveröffentlichung Sekundärzitate von Bloomberg, The Information oder der Enterprise-LLM-Umfrageserie von Menlo Ventures sehen. Wenn diese Zitate bis Mitte Mai nicht erscheinen, ist das selbst ein Signal, dass die Behauptung entweder falsch berichtet oder geografisch eng gefasst ist.
Was tatsächlich neu ist
Lässt man die nicht überprüfbare Schlagzeile beiseite und stellt die schwierigere Frage: Wäre ein Flip von Anthropic über OpenAI beim Unternehmens-Umsatzanteil tatsächlich eine neue Information – oder ist es bereits der Konsens-Verlauf unter den Menschen, die auf diesen APIs aufbauen?
Meine Einschätzung – und das ist redaktionell, nicht aus dem gesperrten Artikel bezogen – ist, dass es teilweise neu wäre. Die qualitative Verschiebung, dass Claude zur Standardlösung für Code-Generierung und Dokumenten-Workflows mit langen Kontexten in regulierten Branchen geworden ist, ist nicht neu. Engineering-Leads in Fintechs und iGaming-Plattformen setzen seit fast einem Jahr stillschweigend auf Claude für Backend-Agentenarbeit, während sie OpenAI für verbraucherorientierte Chats und Sprachanwendungen behalten. Neu wäre der Kreuzungspunkt – das konkrete Quartal, in dem diese Workflow-Präferenz in einen Umsatzanteilsvorsprung umschlug.
Der Grund, warum das für die Leser hier wichtig ist: Anbieterkonzentrationsrisiko in der KI-Infrastruktur ist jetzt eine aktive Frage auf Vorstandsebene, keine theoretische. Wenn man als CTO eines Zahlungsunternehmens OpenAI 2023 als einzigen LLM-Anbieter gewählt hat, ist ein glaubwürdiger Bericht über einen Führungswechsel im Markt ein Anlass, diese Entscheidung zu überdenken. Nicht unbedingt um zu wechseln, sondern um sicherzustellen, dass die Abstraktionsschicht zu beiden routen kann und um neu zu verhandeln.
Der wirklich neue technische Kontext ist, dass die Kosten für Dual-Vendor-Unterstützung drastisch gesunken sind. Vor zwei Jahren bedeutete die Unterstützung von sowohl Claude als auch GPT, zwei Prompt-Bibliotheken, zwei Evaluierungs-Harnesses und zwei Sätze von Tool-Calling-Konventionen zu pflegen. Heute, mit dem Model Context Protocol, das sich als gemeinsame Agenten-Integrationsfläche stabilisiert, und den meisten ernsthaften Shops, die modellunabhängige Eval-Frameworks betreiben, ist der Wechselaufwand eher ein Sprint als ein Quartal. Umsatzanteilsführerschaft ist weniger relevant, wenn die Bindung geschwächt ist.
Was für die KI-Entwicklung bereits eingepreist ist
Der Markt – womit ich den groben Konsens unter erfahrenen Infra-Engineers und Plattform-Leads meine, mit denen ich spreche – hat bereits Folgendes eingepreist: Anthropic wird bis 2026 weiterhin Unternehmensanteile gewinnen, OpenAI wird weiterhin den Verbraucher- und Entwickler-Tooling-Mindshare dominieren, und Google bleibt ein starker Dritter mit einem Preisvorteil bei langen Kontext-Workloads über die Gemini API.
Was nicht eingepreist ist – und was ein glaubwürdiger Umsatzanteilswechsel tatsächlich verändern würde – ist die implizite Annahme, die in vielen Beschaffungsentscheidungen 2025 steckt, dass OpenAI die „sichere Standardwahl" im Unternehmensbereich ist. Die Safe-Default-Position trägt einen Aufschlag. Anbieter, die sie halten, können mehr verlangen, Breaking Changes aggressiver einführen und längere Vertragslaufzeiten fordern. Wenn die Umsatzzahlen tatsächlich Anthropic vorne zeigen, verschiebt sich der Safe-Default-Aufschlag, und OpenAIs Preissetzungsmacht bei Unternehmensverträgen komprimiert sich innerhalb von zwei bis drei Quartalen.
Für Teams in Fintech, iGaming und Ad-Tech ist die Preisimplikation konkret: Ein wettbewerbsfähiger Enterprise-LLM-Markt ohne klaren Einzelführer ist der beste mögliche Zustand für Käufer. Mehrjährige Commitments werden verhandelbar. Individuelle Rate Limits werden verhandelbar. Datenhaltungsbedingungen werden verhandelbar. Die unbeantwortete Frage, die ich aus der Quelle nicht klären kann, ist, ob der Abstand – falls er existiert – groß genug ist, um Anthropics Verhandlungsposition tatsächlich vom hungrigen Herausforderer zum selbstsicheren Marktführer zu verschieben. Die Grenze: Wenn Anthropics Unternehmensrabatt-Aggressivität in Q3-2026-Ausschreibungen merklich nachlässt, ist das das Zeichen, dass sie glauben, der Vorsprung ist real und dauerhaft.
Die Gegenmeinung
Die entgegengesetzte Lesart ist, dass der Umsatzanteil unter Frontier-Labs die falsche Kennzahl zum Verfolgen ist – und dass die Fixierung darauf, welches Lab 2026 „führt", bis 2028 genauso veraltet wirken wird, wie es aussah, Datenbankanbietern 2015 noch nach Lizenzumsatz zu ranken.
Das Gegenargument: Der Wert migriert zur Anwendungs- und Orchestrierungsschicht, nicht zum Modellanbieter. Wenn die eigene Retrieval-Pipeline, das Eval-Harness, das Agenten-Framework und die Prompt-Bibliothek anbieterunabhängig sind, ist es tatsächlich egal, welches Lab letztes Quartal mehr Umsatz gemacht hat. Wichtig sind Latenz, Kosten pro Aufgabe für den eigenen spezifischen Workload und ob das Modell die eigenen Evals besteht. Open-Weights-Modelle, die über Hugging Face-Infrastruktur oder selbst gehostet auf dedizierten GPUs betrieben werden, absorbieren still und leise Workloads, bei denen die Frontier-Labs zu viel für zu wenig marginale Qualität verlangten.
Unter dieser Betrachtung ist eine Anthropic-überholt-OpenAI-Schlagzeile eine Eitelkeitskennzahl für die Labs und ihre Investoren, keine handlungsrelevante Information für die Menschen, die tatsächlich KI-Produkte entwickeln. Das Signal, das man stattdessen beobachten sollte, ist, welcher Prozentsatz neuer KI-Features in der Produktion bei Mid-Market-SaaS-Unternehmen überhaupt noch eine Frontier-API nutzt – gegenüber einem feinabgestimmten Open-Source-Modell. Diese Zahl haben wir aus dieser Quelle ebenfalls nicht, aber sie wäre die, die tatsächlich die nächste Phase vorhersagen würde.
Wichtigste Erkenntnisse
- Der Ursprungsartikel für die Anthropic-überholt-OpenAI-Umsatzbehauptung ist derzeit hinter einer Browser-Verifikationsseite nicht zugänglich, sodass die konkrete Zahl, das Zeitfenster und die Methodik zum Zeitpunkt dieses Artikels ungeprüft sind.
- Ein glaubwürdiger LLM-Umsatzanteilsvergleich erfordert mindestens vier Angaben (Umsatzdefinition, Zeitfenster, Behandlung der Hyperscaler-Kanäle, Behandlung der Verbraucherlinie); ohne diese sind Trendbehauptungen plausibel, aber nicht handlungsrelevant.
- Die Wechselkosten zwischen Claude und GPT sind mit reifenden Agentenprotokollen und modellunabhängigem Eval-Tooling erheblich gesunken, was das strategische Gewicht eines einzelnen Quartals Umsatzführerschaft mindert.
- Das eigentliche Signal, das man beobachten sollte, ist, ob Anthropics Unternehmensrabattierung in Mitte-2026-Ausschreibungen enger wird – das würde anzeigen, dass sie einen dauerhaften Umsatzvorsprung für real halten.
- Überprüfbare Prognose: Wenn der zugrundeliegende Bericht solide ist, sind innerhalb von vierzehn Tagen Sekundärzitate von mindestens einem Tier-1-Outlet (Bloomberg, The Information oder einer namentlich genannten Analysefirma) zu erwarten. Geschieht das nicht bis zum 15. Mai 2026, sollte die Schlagzeile als unbestätigt behandelt werden.
Häufig gestellte Fragen
F: Hat Anthropic OpenAI beim LLM-Umsatzanteil tatsächlich überholt?
Zum Zeitpunkt dieses Artikels ist der Quellartikel mit dieser Behauptung hinter einer Browser-Verifikationsseite gesperrt, sodass die konkreten Zahlen, die Methodik und das Zeitfenster nicht unabhängig überprüft werden können. Der Trendverlauf, dass Anthropic Unternehmensanteile gewinnt, ist seit mehreren Quartalen sichtbar, aber die konkrete Überholungsbehauptung braucht eine Bestätigung von einem Tier-1-Outlet, bevor sie Beschaffungsentscheidungen beeinflussen sollte.
F: Wie sollten Engineering-Teams auf Neuigkeiten über LLM-Anbieter-Umsatzanteile reagieren?
Behandle es als Anlass, die eigene Abstraktionsschicht zu prüfen, nicht als Wechsel-Auslöser. Wenn der Anwendungscode zu Claude oder GPT (oder Gemini oder einem Open-Weights-Modell) routen kann, ohne größere Refaktorierungen, werden Anbieterführungswechsel zu einem Preisverhandlungshebel statt zu einer Migrationskrise. Die Teams, die von diesen Wechseln getroffen werden, sind jene mit hartcodierten Anbieterannahmen in ihren Prompt-Bibliotheken und Tool-Calling-Logiken.
F: Welche Kennzahlen sind wichtiger als der Frontier-Lab-Umsatzanteil?
Kosten pro Aufgabe für den eigenen spezifischen Workload, Eval-Bestehensraten gegenüber der eigenen Test-Suite und der Prozentsatz der KI-Features, die von einem feinabgestimmten Open-Source-Modell in akzeptabler Qualität bedient werden könnten. Der Umsatzanteil zwischen OpenAI und Anthropic sagt etwas über Lab-Bewertungen und Fundraising-Verwendung aus; er sagt sehr wenig darüber, welches Modell der eigene spezifische Anwendungsfall nächstes Quartal nutzen sollte.
LMDeploy SSRF-Lücke in 13 Stunden ausgenutzt – KI-Stacks betroffen
Eine kritische SSRF-Schwachstelle in LMDeploys load_image()-Funktion wurde binnen 13 Stunden nach der Offenlegung aktiv ausgenutzt. Sysdig entdeckte Angriffe auf AWS IMDS und Redis in produktiven KI-Stacks.
Isle of Man reformiert Glücksspielrecht: Persönliche Haftung kommt
Das Glücksspielreformgesetz der Isle of Man hat Tynwald passiert und ersetzt zwei Jahrzehnte fragmentierter Gesetze durch einen einheitlichen Eignungstest sowie persönliche Zivilstrafen für Führungskräfte.
Visa erweitert Stablecoin-Settlement auf fünf Blockchains: Der Build-vs-Buy-Reset
Visa hat das Stablecoin-Settlement auf fünf weitere Blockchains ausgeweitet. Für Plattform-Verantwortliche mit 90-Tage-Roadmap-Entscheidungen hat sich die Build-vs-Buy-Rechnung verschoben.

