En una escalada de la carrera armamentista de AI, Anthrope ha cortado el acceso de su rival OpenAi a sus modelos Claude el martes 1 de agosto. Anthrope alega que OpenAi violó sus términos de servicio al usar la API de Claude para ayudar a desarrollar el próximo modelo GPT-5. href=”https://www.wired.com/story/anthropic-revokes-openais-access-to-claude/”target=”_ en blanco”> dijo a Wired:”Desafortunadamente, esta es una violación directa de nuestros términos de servicio”. Operai respondió, con su jefe de comunicaciones, Hannah Wong, calificando la práctica”es un estándar de la industria evaluar otros sistemas de IA para comparar el progreso y mejorar la seguridad”. La disputa pública expone tensiones profundas entre los principales actores de la industria solo semanas antes del lanzamiento de alto riesgo de GPT-5.
una”violación directa”o”estándar de la industria”?
El núcleo de la disputa radica en dos interpretaciones muy diferentes de práctica competitiva aceptable. Anthrope alega que Openai estaba utilizando el acceso especial de API de desarrollador para fines prohibido explícitamente por sus términos comerciales de servicio . The policy bars customers from using the service to “build a competing product or service, including to train competing AI models”or to “reverse engineer or duplicate”the services.
In a statement to WIRED, Anthropic spokesperson Christopher Nulty vinculó directamente la actividad con el próximo lanzamiento importante de OpenAI, afirmando:”El código de Claude se ha convertido en la opción para codificadores en todas partes, por lo que no fue una sorpresa aprender que el personal técnico de OpenAi también estaba utilizando nuestras herramientas de codificación antes del lanzamiento de GPT-5″. Concluyó sin rodeos:”Desafortunadamente, esta es una violación directa de nuestros Términos de servicio”.
Las fuentes confirman que OpenAi no estaba utilizando la interfaz de chat público estándar, sino que estaba conectando a Claude directamente a sus herramientas internas a través de API. Esto permitió a la compañía ejecutar pruebas extensas que evalúan las capacidades de Claude en la codificación y la escritura creativa. Las evaluaciones también compararon cómo Claude respondió a las indicaciones relacionadas con la seguridad sobre categorías sensibles como la autolesión y la difamación, lo que permite a OpenAi comparar el comportamiento de sus propios modelos.
OpenAi no disputa la actividad, sino que la enmarca como un trabajo estándar y necesario. La directora de comunicaciones de la compañía, Hannah Wong, defendió la práctica como”estándar de la industria para evaluar otros sistemas de IA para comparar el progreso y mejorar la seguridad”. Ella expresó su decepción con la decisión, y agregó:”Si bien respetamos la decisión de Anthrope de cortar nuestro acceso de API, es decepcionante teniendo en cuenta que nuestra API permanece disponible para ellos”. Esta defensa posiciona la acción como I + D de rutina esencial para el progreso en un campo competitivo.
Sin embargo, Anthrope sugiere que el problema no se está compuesto por sí mismo, sino la escala y el propósito del uso de OpenAI. Nulty aclaró que Anthrope”continuará asegurándose de que OpenAI tenga acceso a API con el propósito de evaluaciones de evaluación comparativa y seguridad como es la práctica estándar”. Esta postura matizada implica que Anthrope cree que las acciones de OpenAi cruzaron una línea desde una simple evaluación hasta un desarrollo competitivo.
mientras están impactantes en el espacio de IA, el uso de acceso de API como una palanca competitiva es una táctica clásica de la industria tecnológica. Se hace eco de otras épocas, como el corte de API de Facebook a la vid propiedad de Twitter en medio de acusaciones de comportamiento anticompetitivo o Salesforce más recientemente restringiendo a los competidores para acceder a ciertos datos a través de la API de Slack.