Microsoft ha agregado Deepseek R1, el innovador modelo de razonamiento de IA desarrollado por Deepseek, con sede en China, a su plataforma Azure AI Foundry a pesar de una investigación en curso sobre si la compañía accedió incorrectamente los datos de API de OpenAI.
La decisión de integrar Deepseek R1 en la oferta de la nube de Microsoft plantea preguntas sobre la seguridad de datos de IA, la dinámica competitiva y la supervisión regulatoria como OpenAI y Microsoft examinan el uso potencial no autorizado de resultados de modelos propietarios.
relacionado: El nuevo modelo QWEN 2.5-max de Alibaba adquiere Deepseek en puntos de referencia de AI
acordeando a Bloomberg , Microsoft Security Researchers Investigadores de seguridad detectó un aumento inusual en el tráfico de API de OpenAI que se origina en cuentas de desarrolladores vinculadas a China a fines de 2024.
El informe planteó preocupaciones de que los resultados generados por OpenAI pueden haberse utilizado para entrenar modelos de IA competidores a una fracción del costo del costo requerido para desarrollar un modelo de base desde cero.
Ni Openai ni Microsoft han confirmado públicamente si Deepseek estaba directamente involucrado en este acceso de datos. Sin embargo, Openai ha reconocido que está revisando activamente los patrones de uso de API y ya ha implementado políticas de API más estrictas para evitar la extracción de datos a gran escala por parte de desarrolladores externos.
La investigación está en curso, y OpenAI no ha indicado si tomará medidas legales o introducirá mayores restricciones en el acceso a sus modelos.
La eficiencia de capacitación de Deepseek R1 y el impacto del mercado
Deepseek R1 se destaca en la industria de la IA por su capacidad para lograr un alto rendimiento de razonamiento mientras usa menos recursos computacionales que los modelos competidores de OpenAI y Google Deepmind.
A diferencia de los últimos sistemas de Openai, que requieren grupos extensos de GPU, Deepseek R1 fue capacitado en 2,048 GPU H800 NVIDIA, un modelo diseñado para cumplir con las restricciones comerciales de EE. UU. En las exportaciones de hardware de IA a China. La eficiencia del modelo contribuyó a una disminución temporal en las acciones de Nvidia, que cayó en casi $ 600 mil millones a medida que los inversores reevaluaron la demanda a largo plazo de chips AI de alta gama.
La aparición de Deepseek R1 ha provocado discusiones sobre AI. Dependencia de hardware para el entrenamiento de modelos. Si bien los modelos como GPT-4 requerían una vasta infraestructura computacional, la capacidad de Deepseek R1 para realizar tareas de razonamiento complejas con una huella de GPU más pequeña sugiere un enfoque alternativo para el entrenamiento de IA que podría hacer que los modelos de alto rendimiento sean más accesibles a una gama más amplia de desarrolladores. >
U.S. y los reguladores europeos examinan a Deepseek Ai
Deepseek R1 también ha atraído la atención de las agencias gubernamentales y los organismos regulatorios debido a las preocupaciones sobre la seguridad de los datos y el cumplimiento de las leyes de privacidad internacional y la censura del PCCh aplicado para ciertos temas Al igual que 1989 Tiananmen Square Protests and Massacre o el liderazgo chino en general.
en Europa, profundos R1 está bajo investigación por posibles violaciones del Reglamento General de Protección de Datos (GDPR). La Autoridad de Protección de Datos de Italia, Garante, ha lanzado una investigación sobre si Deepseek transfiere los datos de los usuarios europeos a China sin salvaguardas o divulgaciones adecuadas.
Si la investigación encuentra que Deepseek no ha podido cumplir con los requisitos de GDPR, la compañía podría enfrentar multas o restricciones sobre su capacidad para operar en los mercados europeos.
El aumento del enfoque regulatorio en Deepseek La IA refleja las crecientes preocupaciones sobre la seguridad y la transparencia de los modelos de IA desarrollados fuera de los Estados Unidos y Europa.
Más allá de estos problemas de seguridad y regulación de datos, Deepseek R1 ha generado preocupaciones sobre la moderación de contenido y la posible censura. An Análisis realizado por Newsguard Descubrió que el modelo demostró un gran filtrado en temas políticamente sensibles.
El estudio informó que Deepseek R1 se negó a responder 85 Porcentaje de consultas relacionadas con China, particularmente aquellas relacionadas con la gobernanza, los derechos humanos y los eventos históricos. Además, el modelo proporcionó respuestas incompletas o engañosas en el 83 por ciento de las indicaciones de noticias basadas en hechos, lo que plantea inquietudes sobre si su moderación se alinea con las restricciones del gobierno chino en el acceso a la información.
Microsoft no ha comentado públicamente si lo hará. Implemente medidas adicionales de moderación de contenido para Deepseek R1 antes de integrarlo completamente en su ecosistema de IA. Los resultados del estudio de Newsguard sugieren que las empresas que implementan Deepseek R1 deben ser conscientes de las limitaciones potenciales en la capacidad del modelo para proporcionar información imparcial.
La Marina de los EE. UU. Emitió recientemente una directiva que prohíbe el uso de modelos de IA Deepseek en ambos entornos oficiales y personales, citando riesgos de seguridad asociados con las políticas de datos de China. La medida es parte de un esfuerzo más amplio de las agencias de defensa de EE. UU. Para limitar el uso de sistemas de IA desarrollados por el extranjero en operaciones sensibles.
Si Microsoft ha enfatizado que Deepseek R1 aprobó evaluaciones de seguridad antes de ser agregado a Azure Ai Foundry, el escrutinio regulatorio en curso sugiere que las empresas que usan el modelo aún pueden enfrentar desafíos de cumplimiento.
La cartera de modelos de IA en expansión de Microsoft y sus riesgos
agregando Deepseek R1 a Azure AI Foundry, Microsoft está diversificando aún más sus ofertas de IA para proporcionar a las empresas múltiples opciones de modelos.
La compañía ha enfatizado la importancia de apoyar una amplia gama de modelos de IA para permitir a los desarrolladores seleccionar la tecnología más adecuada para sus necesidades específicas. Sin embargo, la inclusión de Deepseek R1, mientras que una investigación de OpenAI está en curso, ha planteado preguntas sobre el proceso de investigación de Microsoft para las asociaciones de IA y su enfoque para administrar posibles riesgos de seguridad de datos.
A medida que OpenAI continúa revisando los patrones de uso de API, Microsoft’s, Microsoft’s, Microsoft’s, Microsoft’s, Microsoft’s. Es probable que el papel en la evaluación de la integridad de los modelos de IA alojados en sus servicios en la nube enfrente un mayor escrutinio.