In un’escalation della corsa agli armamenti AI, Antropico ha interrotto l’accesso di Openai al rivale ai suoi modelli Claude martedì 1 agosto. Antropico sostiene Openai ha violato i suoi termini di servizio utilizzando l’API di Claude per aiutare a sviluppare il prossimo modello GPT-5.
uno spokesperson antropico detto cablato:”Sfortunatamente, questa è una violazione diretta dei nostri termini di servizio.”Openi ha risposto, con il suo capo delle comunicazioni, Hannah Wong, definendo la pratica”è lo standard del settore valutare altri sistemi di intelligenza artificiale per confrontare i progressi e migliorare la sicurezza”. La faida pubblica espone tensioni profonde tra i principali attori del settore solo settimane prima del lancio di alto livello di GPT-5.
Una”violazione diretta”o”standard del settore”?
Il nucleo della controversia risiede in due interpretazioni molto diverse della pratica competitiva accettabile. Antropico sostiene che Openai stava utilizzando Special Developer API Access per scopi esplicitamente vietato dai suoi termini commerciali di servizio . La politica impedisce ai clienti di utilizzare il servizio per”costruire un prodotto o servizio concorrenti, incluso per formare modelli AI in competizione”o per”invertire o duplicare”i Servizi.
Fonti confermano che Openai non utilizzava l’interfaccia di chat pubblica standard ma stava invece collegando Claude direttamente ai suoi strumenti interni tramite API. Ciò ha permesso all’azienda di eseguire estesi test valutando le capacità di Claude nella codifica e nella scrittura creativa. Le valutazioni hanno anche confrontato il modo in cui Claude ha risposto a istruzioni relative alla sicurezza riguardanti categorie sensibili come autolesionismo e diffamazione, consentendo a Openai di confrontare il comportamento dei propri modelli.
Openai non contesta l’attività ma lo incornicia come standard e lavoro necessario. Il Chief Communications Officer dell’azienda, Hannah Wong, ha difeso la pratica come”standard del settore per valutare altri sistemi di intelligenza artificiale per confrontare i progressi e migliorare la sicurezza”. Ha espresso delusione per la decisione, aggiungendo:”Mentre rispettiamo la decisione di Antropico di tagliare il nostro accesso API, è deludente considerando che la nostra API resti a loro disposizione”. Questa difesa posiziona l’azione come R&D di routine essenziale per il progresso in un campo competitivo.
Tuttavia, antropico suggerisce che il problema non si sta benchmarking stesso, ma la scala e lo scopo dell’uso di Openai. Nolcy ha chiarito che Antropico”continuerà a garantire che Openi abbia accesso API ai fini del benchmarking e delle valutazioni della sicurezza come la pratica standard”. Questa posizione sfumata implica che le azioni antropiche credono che le azioni di OpenAI abbiano attraversato una linea dalla semplice valutazione allo sviluppo competitivo.
Sebbene scioccante nello spazio AI, l’uso dell’accesso API come leva competitiva è una classica tattica del settore tecnologico. Fa eco si sposta da altre epoche, come Facebook che taglia l’accesso API alla vite di proprietà di Twitter tra accuse di comportamento anticonnessivo o Salesforce più recentemente limitando i concorrenti dall’accesso a determinati dati attraverso l’API SLAK. Tensioni crescenti, con la startup che codifica AI Windsurf che funge da recente campo di battaglia. La mossa per bloccare Openai rispecchia direttamente un blocco strategico da parte di antropici appena due mesi prima, rivelando una politica coerente e indurita contro il suo principale rivale.
Nel giugno 2025, mentre le voci hanno fatto turbinare che Openi stava acquisendo Windsurf per un miliardo di dollari segnalato, Antropic ha intrapreso un’azione decisiva. Ha tagliato l’accesso diretto di Windsurf ai suoi popolari modelli di codifica, Sonetto Claude 3.5 e Sonetto Claude 3.7. La mossa è stata un atto calcolato di sabotaggio aziendale, costringendo la startup a rimescolare per i fornitori di terze parti con breve preavviso e creando ciò che Windsurf ha descritto come potenziale”instabilità a breve termine”per i suoi utenti.
L’obiettivo era chiaro: degradare il valore di Asset Open. In un evento TechCrunch all’epoca, il co-fondatore e direttore scientifico antropico Jared Kaplan era schietto per i motivi dell’azienda. Ha detto al pubblico:”Penso che sarebbe strano per noi vendere Claude ad Openai.”
Kaplan ha elaborato il pensiero strategico dell’azienda, inquadrando la decisione come una necessaria allocazione delle risorse scarse. Ha spiegato che l’antropico è”abbastanza limitato al calcolo oggi”e deve dare la priorità a ciò che ha caratterizzato come”partnership durature”. Ha dichiarato:”Stiamo davvero solo cercando di consentire ai nostri clienti che lavoreranno in modo sostenibile con noi in futuro.”
per sottolineare questo punto, Kaplan ha messo in evidenza la continua collaborazione di Antropic con altre società di strumenti di codifica AI come Cursor, che ha detto che Antropic prevede di lavorare con”per molto tempo”. Questa distinzione trae una linea acuta: i partner sono i benvenuti, ma qualsiasi entità pronta ad essere assorbita dal suo principale concorrente verrà tagliata.
L’affare Windsurf è stata una prova chiara per il confronto attuale e più diretto. L’antropico logico applicato a un obiettivo di acquisizione OpenIA è stato ora applicato per Openai stesso. Questa storia rivela un chiaro modello di antropico che utilizza l’accesso API non solo come strumento commerciale, ma come un’arma strategica per difendere la sua posizione competitiva e controllare l’ecosistema costruito attorno ai suoi potenti modelli.