W eskalacji wyścigu zbrojeń AI, Anthropic odciął konkurencyjnego dostępu Openai do swoich modeli Claude we wtorek 1 sierpnia. Anthropic twierdzi, że Openai naruszył swoje warunki usług, wykorzystując interfejs API Claude’a, aby pomóc w opracowaniu nadchodzącego modelu GPT-5.
antropika i antropika SpokeSperson Powiedział WIRIED: „Niestety, jest to bezpośrednie naruszenie naszych warunków służby”. Openai odpalił, wraz ze swoim szefem komunikacji, Hannah Wong, nazywając praktykę „standardem branżowym do oceny innych systemów AI w celu uzyskania referencji postępu i poprawy bezpieczeństwa”. Publiczna feuda ujawnia głębokie napięcia między najlepszymi graczami branży na kilka tygodni przed uruchomieniem wysokich stawek GPT-5.
„bezpośrednie naruszenie” lub „standard branżowy”?
Rdzeń sporu leży w dwóch wyraźnie różnych interpretacjach akceptowalnej praktyki konkurencyjnej. Anthropic twierdzi, że Openai używał specjalnego dostępu do programistów API do celów wyraźnie zabranione przez swoje komercyjne warunki świadczenia usług . Polityki pobiera klientów korzystanie z usługi do „zbudowania konkurującego produktu lub usługi, w tym do szkolenia konkurencyjnych modeli AI” lub „odwrotnego inżyniera lub powielania” usług.
w oświadczeniu do wirimy, aPORICORESPERSINES, aPORIED, ARPOID, ANTORIPOSPERSINED, ANPORICER, ANTORIPER, ANTORYPER, ARPORESPERS. Nulty bezpośrednio powiązał działalność z kolejną główną wersją Openai, stwierdzając: „Claude Code stał się wyborem dla programistów na całym świecie, więc nie było zaskoczeniem, aby dowiedzieć się, że własny personel techniczny Openai również korzystał z naszych narzędzi kodowania przed uruchomieniem GPT-5″. Podsumował wprost: „Niestety, jest to bezpośrednie naruszenie naszych warunków usług.”
Źródła potwierdzają, że OpenAI nie używał standardowego interfejsu czatu publicznego, ale zamiast tego podłączał Claude bezpośrednio do jego wewnętrznych narzędzi za pośrednictwem interfejsu API. To pozwoliło firmie przeprowadzić obszerne testy oceniające możliwości Claude w kodowaniu i kreatywnym pisaniu. Oceny wzrosły również, w jaki sposób Claude zareagował na podpowiedzi związane z bezpieczeństwem dotyczące wrażliwych kategorii, takich jak samookaleczenie i zniesławienie, umożliwiając openai porównanie zachowania własnych modeli.
Openai nie kwestionuje tego działania, ale określa ją jako standardową i konieczną pracę. Dyrektor ds. Komunikacji firmy, Hannah Wong, bronił tej praktyki jako „standard branżowy w celu oceny innych systemów AI w celu uzyskania referencji postępu i poprawy bezpieczeństwa”. Wyraziła rozczarowanie decyzją, dodając: „Chociaż szanujemy decyzję Antropica o odcięciu naszego dostępu do interfejsu API, rozczarowuje się, biorąc pod uwagę, że nasz API pozostaje dla nich dostępny”. Ta obrona pozycjonuje działanie jako rutynowe badania i rozwój niezbędne dla postępu w polu konkurencyjnym.
Jednak antropiki sugeruje, że problem nie jest porównywany, ale skala i cel wykorzystania Openai. Nulty wyjaśnił, że antropijczyk „nadal zapewni Openai dostęp do API w celu testów porównawczych i bezpieczeństwa, co jest standardową praktyką”. Ta niuansowa postawa oznacza, że Anthropic uważa, że działania Openai przekroczyły linię od prostej oceny do rozwoju konkurencyjnego.
, szokując w przestrzeni AI, wykorzystanie API Access jako konkurencyjnej dźwigni jest klasyczną taktyką branży technologicznej. Echa przechodzi od innych epok, takich jak Facebook odcinanie dostępu do interfejsu API do Vine należącej do Twittera wśród zarzutów dotyczących zachowań antykonkurencyjnych lub Salesforce, niedawno ograniczającym konkurentów dostęp do niektórych danych za pośrednictwem API Slack.
Rywale z historią strategicznej sabotażu
niniejszy incydent jest izolowany, ale najnowszy rozdział w historii A History of History of Sioth of Histor eskalacyjne napięcia, a startup kodujący AI Windsurf służy jako niedawne pole bitwy. Przeniesienie do blokowania Openai bezpośrednio odzwierciedla strategiczny blok antropiczny zaledwie dwa miesiące wcześniej, ujawniając spójną i stwardnieniem politykę przeciwko głównemu rywala.
w czerwcu 2025 r., Gdy plotki wirowały, że Openai nabył Windsurfa za zgłoszone 3 miliardy dolarów, antropic podjął decyzję. Zmniejszył bezpośredni dostęp Windsurf do popularnych modeli kodowania, Claude 3.5 Sonnet i Claude 3.7 Sonnet. Ten ruch był obliczonym aktem sabotażu korporacyjnego, zmuszającego startup do wspinania się na dostawców stron trzecich w krótkim czasie i tworzenie tego, co Windsurf opisał jako potencjalną „krótkoterminową niestabilność” dla użytkowników.
Cel był jasny: zdegraduj wartość Asset Openai. Podczas wydarzenia TechCrunch w tym czasie współzałożyciel antropika i dyrektor naukowy Jared Kaplan był tępy na temat motywów firmy. Powiedział publiczności: „Myślę, że dziwne byłoby sprzedawanie Claude do Openai.”
Kaplan opracował strategiczne myślenie firmy, określając decyzję jako niezbędną alokacja ograniczonych zasobów. Wyjaśnił, że antropic jest „dość ograniczony obliczeniami” i musi priorytetowo traktować to, co charakteryzował jako „trwałe partnerstwa”. Stwierdził: „Naprawdę staramy się tylko umożliwić naszym klientom, którzy w przyszłości będą z nami współpracować.”
Aby podkreślić ten punkt, Kaplan podkreślił ciągłą współpracę Anthropica z innymi firmami narzędziami kodowania AI, takimi jak kursor, które, jak powiedział, antropic spodziewa się, że „przez długi czas”. To rozróżnienie przyciąga ostrą linię: partnerzy są mile widziani, ale każdy podmiot, który zostałby wchłonięty przez głównego konkurenta, zostanie odcięty.
Romans Windsurf był wyraźną próbą dla obecnej, bardziej bezpośredniej konfrontacji. Logiczny antropic zastosowany do celu pozyskiwania Openai został teraz zastosowany do samego Openai. Historia ta ujawnia wyraźny wzór antropika przy użyciu dostępu do interfejsu API nie tylko jako narzędzie komercyjne, ale jako broń strategiczną do obrony swojej pozycji konkurencyjnej i kontroli ekosystemu zbudowanego wokół jego potężnych modeli.
wysokie stawki poruszają się w szerszym wyścigu zbrojeń AI
antropijne, aby cofnąć dostęp do szczególnie wrażliwego, a także As Openai to, co jest operacją, a także operatorów, a także operator, a także operator. W pełni „tryb kryzysowy”. Podobno firma znajduje się zaledwie kilka tygodni od uruchomienia swojego modelu nowej generacji, GPT-5 w sierpniu. To wydanie jest postrzegane jako krytyczny moment prawdy, aby potwierdzić swoje przywództwo po okresie wewnętrznych zawirowań i serii strategicznych błędów, w tym publicznego upadku planowanego przejęcia Windsurfa o wartości 3 miliardów dolarów.
Presja na GPT-5 jest ogromna, szczególnie po rozwinieniu branżowym w branży GPT-4,5, co było postrzegane jako uzbrojenia jedynie marginal. Czas ruchu Anthropiku wydaje się zatem wysoce strategiczny, potencjalnie zamieszkał ostateczne przygotowania Openai na produkt, o którym mowa, ma najwyższe zdolności kodowania-domena, w której antropiki wyraźnie ustawił własne modele jako liderzy rynku.
Kiedy uruchomił swój program Claude 4, antropic pozycjonowany OPUS 4. Benchmarks.
Ten bezpośredni konflikt jest również zgodny z najnowszymi dostosowaniami platformy Anthropica, co sugeruje szerszą strategię kontroli zaostrzenia. 28 lipca firma sformalizowała nowe tygodniowe limity stawek dla swojej usługi Claude Code. Była to bezpośrednia odpowiedź na tygodnie powszechnego dewelopera po tym, jak firma po cichu narzuciła restrykcyjne, niekwestionowane czapki w połowie lipca, pozostawiając płacąc subskrybentów z zakłóconymi przepływami pracy i to, co nazywali „czarnym” limitami użytkowania.
W swoim ogłoszeniu, antropijne wyjaśniono, że nowa zasada była konieczna do ograniczenia niezależnego użycia, w tym zasadów. 24/7″i inne dzielące się lub odsprzedażą konta. Firma zauważyła, że niektóre przypadki były „bardzo kosztowne na wsparcie”, powołując się na jeden ekstremalny przypadek, w którym „jeden użytkownik spożywał dziesiątki tysięcy zużycia modelu na planie za 200 USD.”
Ta szersza strategia zaostrzenia kontroli platformy-po raz pierwszy dla zrównoważonego rozwoju finansowego, a teraz dla konkurencyjnej obrony-obrońcy na rynku i coraz agresywnym rynku. Wyścig zbrojeń AI nieustannie się eskaluje, a rywale, tacy jak Mark Zuckerberg, ogłaszają plany wydania „setek miliardów” na nowe centra danych, a XAI Elona Muska wprowadzają swój potężny model Grok 4. W tym środowisku o wysokim stawce dostęp do rywalizującej technologii w zakresie testów porównawczych przekształcił się z normy zakulisowej w publiczne pole bitwy.