In una svolta sfumata nella crescente corsa agli armamenti AI, Antropic ha chiarito la sua decisione di revocare l’accesso API di Openai. Dopo aver bloccato il suo rivale il 1 agosto, un portavoce ha confermato che Antropico consentirà comunque l’accesso per la sicurezza e il benchmarking standard.
La società mantiene il blocco target ciò che chiama una”violazione diretta dei nostri termini di servizio”-Opens usando i potenti strumenti di codifica di Claude per costruire il modello GPT-5 in competizione. Mentre Openai difende le sue azioni come”è lo standard del settore valutare altri sistemi di intelligenza artificiale per confrontare i progressi e migliorare la sicurezza”, il chiarimento di Antropico riformula la faida pubblica.
Questa mossa sposta l’attenzione dalla pratica di usare la tecnologia rivale allo scopo specifico di tale uso, una distinzione fatta poche settimane prima del lancio di Open-Stakes di Open. La controversia espone profonde tensioni tra i migliori giocatori del settore.
una posizione nudata:”violazione”vs.”standard”risiede in due interpretazioni nettamente diverse della pratica accettabile. Antropico sostiene che Openai ha usato l’accesso API per sviluppatori speciali a fini esplicitamente vietati dal suo termini commerciali di servizio , che bar utilizzando il servizio per costruire o formare modelli in competizione.
ha difeso la pratica a Wired . Ha espresso delusione, aggiungendo:”Mentre rispettiamo la decisione di Antropi di tagliare il nostro accesso API, è deludente considerando che la nostra API resti disponibili per loro”. Ciò posiziona l’azione come R&D di routine
Tuttavia, antropico suggerisce che il problema non si sta benchmarking stesso, ma la scala e lo scopo dell’uso di Openi. Sam McAllister di Antropico ha chiarito che l’antropico”continuerà a garantire che Openi abbia accesso API ai fini delle valutazioni di benchmarking e sicurezza come pratiche standard”.
Questa ripresa è triste da vedere ma potresti non avere il pieno contesto. Abbiamo tagliato l’accesso di Openal per violare i nostri termini APL e per il pesante utilizzo del codice Claude tra il personale della tecnologia OAI.
Continueremo a fornire accesso API per evali di sicurezza e benchmarking. Questo è importante per noi. ; href=”https://twitter.com/sammcallister/status/1951642025381511608?ref_src=twsrc%5etfw”bersaglio=”_ blank”> 2 agosto 2025
API Access non è un buon bene. Sia i termini antropici che quelli di Openi sono protezioni reciproche piuttosto standard. Senza di loro, avresti un operatore operativo più forti.
Le persone che lavorano ad Openi possono anche usare Claude o altri modelli di intelligenza artificiale a capacità personale.
-Sam McAllister (@sammcallister) 2 agosto 2025
Actions Actions Actions di Openai. Valutazione semplice sullo sviluppo competitivo, una distinzione critica in hyper-comot-scenefic . messaggistica. Permettendo l’accesso alla sicurezza, si posiziona antropica come amministratore responsabile dell’IA. Contemporaneamente, si rivolge alla capacità di Openi di utilizzare Claude per ciò che conta di più: migliorare il suo prossimo prodotto di punta.
Sebbene scioccante nello spazio AI, usando l’accesso API come leva competitiva è una classica tattica del settore tecnologico. Fa eco si sposta da altre epoche, come Facebook che taglia l’accesso API a Vine di proprietà di Twitter o Salesforce più recentemente limitando i concorrenti dall’accesso a determinati dati.
La mossa per bloccare Openai rispecchia direttamente un blocco strategico da parte di antropici appena due mesi prima, rivelando una politica coerente contro il suo principale rivale.
Nel giugno 2025, mentre le voci hanno fatto turbinare che Openai stava acquisendo la startup di codifica AI Windsurf, Antropic ha tagliato l’accesso diretto della startup ai suoi popolari modelli di codifica clauuda. La mossa era un atto calcolato di sabotaggio aziendale progettato per degradare il valore dell’asset.
In un evento TechCrunch all’epoca, il co-fondatore e direttore scientifico antropico Jared Kaplan era schietto sui motivi dell’azienda. Ha detto al pubblico:”Penso che sarebbe strano per noi vendere Claude ad Openai.”
Kaplan ha elaborato il pensiero strategico dell’azienda, inquadrando la decisione come una necessaria allocazione delle risorse scarse. Ha spiegato che l’antropico deve dare la priorità a ciò che ha caratterizzato da”partnership durature”, affermando:”Stiamo davvero solo cercando di consentire ai nostri clienti che stanno lavorando in modo sostenibile in futuro.”
La faccenda di Windsurf è stata una chiara prova di abbigliamento per l’attuale, più confronto diretto. L’antropico logico applicato a un target di acquisizione Openi è stato ora applicato per OpenAI stesso, mostrando un chiaro modello di usando l’accesso api come un aria strategica .
La mossa di alto livello nella più ampia corsa agli armamenti AI
La decisione di Antropico arriva in un momento particolarmente sensibile, atterrando proprio come Openi entra in quella che molti addetti ai lavori descrivono come una”modalità di crisi”in piena regola. Secondo quanto riferito, la società è a pochi giorni o settimane dal lancio del suo modello di prossima generazione, GPT-5.
Questa versione è vista come un momento critico per riaffermare la sua leadership dopo un periodo di tumulti interni e errori strategici. La pressione è immensa, soprattutto a seguito dell’accoglienza del settore poco brillante di GPT-4.5, che è stato visto come offrire solo miglioramenti marginali.
I tempi della mossa di Antropico sembrano quindi altamente strategici, potenzialmente destinati a interrompere i suoi modelli di mercato di Openai.
Questo conflitto diretto segue anche le recenti aggiustamenti della piattaforma di Antropi, suggerendo una strategia più ampia di rafforzamento del controllo. Il 28 luglio, la società ha formalizzato i nuovi limiti di tariffe settimanali per il suo servizio Claude Code per frenare i modelli di utilizzo insostenibili.
Questa strategia più ampia-prima per la sostenibilità finanziaria e ora per la difesa competitiva-conduce un mercato maturità. La corsa agli armamenti AI sta aumentando incessantemente, con rivali come la meta pianificazione di spendere”centinaia di miliardi”su nuovi data center e Xai di Elon Musk lanciano potenti nuovi modelli.
Questa ripresa è triste da vedere ma potresti non avere il pieno contesto. Abbiamo tagliato l’accesso di Openal per violare i nostri termini APL e per il pesante utilizzo del codice Claude tra il personale della tecnologia OAI.
Continueremo a fornire accesso API per evali di sicurezza e benchmarking. Questo è importante per noi. ; href=”https://twitter.com/sammcallister/status/1951642025381511608?ref_src=twsrc%5etfw”bersaglio=”_ blank”> 2 agosto 2025
Nel giugno 2025, mentre le voci hanno fatto turbinare che Openai stava acquisendo la startup di codifica AI Windsurf, Antropic ha tagliato l’accesso diretto della startup ai suoi popolari modelli di codifica clauuda. La mossa era un atto calcolato di sabotaggio aziendale progettato per degradare il valore dell’asset.
In un evento TechCrunch all’epoca, il co-fondatore e direttore scientifico antropico Jared Kaplan era schietto sui motivi dell’azienda. Ha detto al pubblico:”Penso che sarebbe strano per noi vendere Claude ad Openai.”
Kaplan ha elaborato il pensiero strategico dell’azienda, inquadrando la decisione come una necessaria allocazione delle risorse scarse. Ha spiegato che l’antropico deve dare la priorità a ciò che ha caratterizzato da”partnership durature”, affermando:”Stiamo davvero solo cercando di consentire ai nostri clienti che stanno lavorando in modo sostenibile in futuro.”
La faccenda di Windsurf è stata una chiara prova di abbigliamento per l’attuale, più confronto diretto. L’antropico logico applicato a un target di acquisizione Openi è stato ora applicato per OpenAI stesso, mostrando un chiaro modello di usando l’accesso api come un aria strategica .
La mossa di alto livello nella più ampia corsa agli armamenti AI
La decisione di Antropico arriva in un momento particolarmente sensibile, atterrando proprio come Openi entra in quella che molti addetti ai lavori descrivono come una”modalità di crisi”in piena regola. Secondo quanto riferito, la società è a pochi giorni o settimane dal lancio del suo modello di prossima generazione, GPT-5.
Questa versione è vista come un momento critico per riaffermare la sua leadership dopo un periodo di tumulti interni e errori strategici. La pressione è immensa, soprattutto a seguito dell’accoglienza del settore poco brillante di GPT-4.5, che è stato visto come offrire solo miglioramenti marginali.
I tempi della mossa di Antropico sembrano quindi altamente strategici, potenzialmente destinati a interrompere i suoi modelli di mercato di Openai.
Questo conflitto diretto segue anche le recenti aggiustamenti della piattaforma di Antropi, suggerendo una strategia più ampia di rafforzamento del controllo. Il 28 luglio, la società ha formalizzato i nuovi limiti di tariffe settimanali per il suo servizio Claude Code per frenare i modelli di utilizzo insostenibili.
Questa strategia più ampia-prima per la sostenibilità finanziaria e ora per la difesa competitiva-conduce un mercato maturità. La corsa agli armamenti AI sta aumentando incessantemente, con rivali come la meta pianificazione di spendere”centinaia di miliardi”su nuovi data center e Xai di Elon Musk lanciano potenti nuovi modelli.