En una escalada de la carrera armamentista de AI, Anthrope ha cortado el acceso de su rival OpenAi a sus modelos Claude el martes 1 de agosto. Anthrope alega que OpenAi violó sus términos de servicio al usar la API de Claude para ayudar a desarrollar el próximo modelo GPT-5. href=”https://www.wired.com/story/anthropic-revokes-openais-access-to-claude/”target=”_ en blanco”> dijo a Wired:”Desafortunadamente, esta es una violación directa de nuestros términos de servicio”. Operai respondió, con su jefe de comunicaciones, Hannah Wong, calificando la práctica”es un estándar de la industria evaluar otros sistemas de IA para comparar el progreso y mejorar la seguridad”. La disputa pública expone tensiones profundas entre los principales actores de la industria solo semanas antes del lanzamiento de alto riesgo de GPT-5.

una”violación directa”o”estándar de la industria”?

El núcleo de la disputa radica en dos interpretaciones muy diferentes de práctica competitiva aceptable. Anthrope alega que Openai estaba utilizando el acceso especial de API de desarrollador para fines prohibido explícitamente por sus términos comerciales de servicio . The policy bars customers from using the service to “build a competing product or service, including to train competing AI models”or to “reverse engineer or duplicate”the services.

In a statement to WIRED, Anthropic spokesperson Christopher Nulty vinculó directamente la actividad con el próximo lanzamiento importante de OpenAI, afirmando:”El código de Claude se ha convertido en la opción para codificadores en todas partes, por lo que no fue una sorpresa aprender que el personal técnico de OpenAi también estaba utilizando nuestras herramientas de codificación antes del lanzamiento de GPT-5″. Concluyó sin rodeos:”Desafortunadamente, esta es una violación directa de nuestros Términos de servicio”.

Las fuentes confirman que OpenAi no estaba utilizando la interfaz de chat público estándar, sino que estaba conectando a Claude directamente a sus herramientas internas a través de API. Esto permitió a la compañía ejecutar pruebas extensas que evalúan las capacidades de Claude en la codificación y la escritura creativa. Las evaluaciones también compararon cómo Claude respondió a las indicaciones relacionadas con la seguridad sobre categorías sensibles como la autolesión y la difamación, lo que permite a OpenAi comparar el comportamiento de sus propios modelos.

OpenAi no disputa la actividad, sino que la enmarca como un trabajo estándar y necesario. La directora de comunicaciones de la compañía, Hannah Wong, defendió la práctica como”estándar de la industria para evaluar otros sistemas de IA para comparar el progreso y mejorar la seguridad”. Ella expresó su decepción con la decisión, y agregó:”Si bien respetamos la decisión de Anthrope de cortar nuestro acceso de API, es decepcionante teniendo en cuenta que nuestra API permanece disponible para ellos”. Esta defensa posiciona la acción como I + D de rutina esencial para el progreso en un campo competitivo.

Sin embargo, Anthrope sugiere que el problema no se está compuesto por sí mismo, sino la escala y el propósito del uso de OpenAI. Nulty aclaró que Anthrope”continuará asegurándose de que OpenAI tenga acceso a API con el propósito de evaluaciones de evaluación comparativa y seguridad como es la práctica estándar”. Esta postura matizada implica que Anthrope cree que las acciones de OpenAi cruzaron una línea desde una simple evaluación hasta un desarrollo competitivo.

mientras están impactantes en el espacio de IA, el uso de acceso de API como una palanca competitiva es una táctica clásica de la industria tecnológica. Se hace eco de otras épocas, como el corte de API de Facebook a la vid propiedad de Twitter en medio de acusaciones de comportamiento anticompetitivo o Salesforce más recientemente restringiendo a los competidores para acceder a ciertos datos a través de la API de Slack.

una rivalia con una historia de sabotaje estratégico

este contexto público no es una aislada que no es una aislada, sino un aislamiento que no es un aislamiento de la Confrotación. Una historia de tensiones crecientes, con la startup de codificación AI Windsurf que sirve como un campo de batalla reciente. El movimiento para bloquear OpenAi refleja directamente un bloque estratégico de Anthrope solo dos meses antes, revelando una política consistente y endureciente contra su principal rival.

en junio de 2025, ya que los rumores de que OpenAi estaba adquiriendo Windsurf por un antrópico de $ 3 mil millones reportado tomó medidas decisivas. Cortó el acceso directo de Windsurf a sus populares modelos de codificación, el soneto Claude 3.5 y el soneto Claude 3.7. La medida fue un acto calculado de sabotaje corporativo, obligando a la startup a luchar por los proveedores de terceros en breve notificación y crear lo que Windsurf describió como una posible”inestabilidad a corto plazo”para sus usuarios.

El objetivo era claro: degradar el valor del activo OpenAI intentaba comprar y evitar que su competencia se beneficiara indirectamente de la tecnología de antropic. En un evento de TechCrunch en ese momento, el cofundador y director de ciencias de Anthrope, Jared Kaplan, fue contundente sobre los motivos de la compañía. Le dijo a la audiencia:”Creo que sería extraño para nosotros vendiendo a Claude a OpenAi”.

Kaplan elaboró el pensamiento estratégico de la compañía, enmarcando la decisión como una asignación necesaria de recursos escasos. Explicó que Anthrope está”bastante limitado por la computación hoy”y debe priorizar lo que caracterizó como”asociaciones duraderas”. Él dijo:”Realmente solo estamos tratando de permitir que nuestros clientes que van a trabajar de manera sostenible trabajen con nosotros en el futuro”.

Para subrayar este punto, Kaplan destacó la colaboración continua de Anthrope con otras compañías de herramientas de codificación de inteligencia artificial como Cursor, que dijo que antrópico espera trabajar con”durante mucho tiempo”. Esta distinción dibuja una línea aguda: los socios son bienvenidos, pero cualquier entidad preparada para ser absorbida por su principal competidor será cortado. La lógica antrópica aplicada a un objetivo de adquisición de OpenAI ahora se ha aplicado a OpenAI. This history reveals a clear pattern of Anthropic using API access not just as a commercial tool, but as a strategic weapon to defend its competitive position and control the ecosystem built around its powerful models.

High-Stakes Move in a Broader AI Arms Race

Anthropic’s decision to revoke access comes at a particularly sensitive moment, landing just as OpenAI enters what many insiders describe as a”Modo de crisis”completo. Según los informes, la compañía está a solo unas semanas de lanzar su modelo de próxima generación, GPT-5, en agosto. Este lanzamiento se ve como un momento crítico de verdad para reafirmar su liderazgo después de un período de agitación interna y una serie de errores estratégicos, incluido el colapso público de su adquisición de Windsurf de $ 3 mil millones planificada.

La presión de GPT-5 es inmensa, especialmente después de la recepción de la industria del mediocre de GPT-4.5, que se consideró solo una oferta marginal. Por lo tanto, el momento del movimiento de Anthrope parece muy estratégico, potencialmente destinado a interrumpir los preparativos finales de OpenAi para que un producto se rumoree que tenga habilidades de codificación superiores: un dominio donde Anthrope ha posicionado explícitamente sus propios modelos como líderes de mercado.

Cuando lanzó su serie 4 de ingeniería Claude, posicionó OPUS 4 como”el mejor modelo de codificación”, una reclamación de Backing con el llaget de Backeed con el llagis con Key Key, con el llaget. Benchmarks.

Este conflicto directo también sigue los ajustes de la plataforma recientes de Anthrope, sugiriendo una estrategia más amplia de control de control. El 28 de julio, la compañía formalizó nuevos límites de tarifa semanal para su servicio de código Claude. Esta fue una respuesta directa a las semanas de reacción generalizada del desarrollador después de que la compañía impuso en silencio los límites restrictivos y no anunciados a mediados de julio, dejando a los suscriptores que pagan con flujos de trabajo interrumpidos y lo que llamaron un”cuadro negro”de límites de uso.

En su anuncio, Anthrope explicó que la nueva política era necesaria a los patrones de uso no sostenibles, incluidos los subscribes, incluidos los subscribes, los subscriptores que corrían los antecedentes en los antecedentes de los antecedentes. 24/7″y otros compartiendo o revenden cuentas. La compañía señaló que algunos casos eran”muy costosos de soportar”, citando una instancia extrema en la que”un usuario consumió decenas de miles en el uso del modelo en un plan de $ 200″.

Esta estrategia más amplia de ajuste de los controles de la plataforma, primero para la sostenibilidad financiera y ahora para la defensa competitiva: los acumulados un mercado cada vez más agresivo y cada vez más agresivo. La carrera armamentista AI se está intensificando sin descanso, con rivales como Mark Zuckerberg de Meta anunciando planes para gastar”cientos de miles de millones”en nuevos centros de datos y el XAI de Elon Musk lanzando su poderoso modelo Grok 4. En este entorno de alto riesgo, el acceso a la tecnología rival para la evaluación comparativa se ha transformado de una norma detrás de escena en un campo de batalla público.

Categories: IT Info