Microsoft đã bổ sung Deepseek R1, mô hình lý luận AI đột phá được phát triển bởi Deepseek có trụ sở tại Trung Quốc, vào nền tảng Foundry Azure AI của mình mặc dù có một cuộc điều tra đang diễn ra về việc công ty có truy cập không đúng dữ liệu API Openai.
Quyết định tích hợp DeepSeek R1 vào đám mây của Microsoft đặt ra câu hỏi về bảo mật dữ liệu AI, động lực cạnh tranh và giám sát quy định khi OpenAI và Microsoft kiểm tra tiềm năng sử dụng trái phép đầu ra mô hình độc quyền. Liên quan: Mô hình QWEN 2.5-Max mới của Alibaba đảm nhận DeepSeek trong điểm chuẩn AI
The inclusion of DeepSeek R1 in Azure AI Foundry reflects Microsoft’s continued expansion of its AI ecosystem, which already features models from OpenAI, Meta, Mistral, and Cohere.
Microsoft tuyên bố rằng mô hình đã trải qua các đánh giá bảo mật trước khi được cung cấp cho khách hàng doanh nghiệp. Trong một tuyên bố chính thức, Asha Sharma, phó chủ tịch AI Platform của Microsoft, cho biết, một trong những lợi thế chính của việc sử dụng DeepSeek R1 hoặc bất kỳ mô hình nào khác trên Azure AI Foundry là tốc độ mà các nhà phát triển có thể thử nghiệm, lặp lại và tích hợp AI vào Quy trình công việc của họ.”Kế hoạch phát hành các phiên bản tối ưu của DeepSeek R1 cho Copilot+ PC, cho phép thực hiện cục bộ thông qua các đơn vị xử lý thần kinh (NPU). và Openai điều tra các mẫu truy cập API bất thường
Trong khi các khả năng kỹ thuật của DeepSeek R1 đã được ca ngợi rộng rãi, mô hình cũng đã rút ra sự xem xét kỹ lưỡng về các liên kết tiềm năng của nó đến dữ liệu độc quyền của Openai.//www.bloomberg.com/news/articles/2025-01-29/microsoft-probing-if-deepseek-linked-group-improperly-optained-openai-data”> đã phát hiện một sự tăng đột biến khác thường trong lưu lượng truy cập API OpenAI có nguồn gốc từ các tài khoản nhà phát triển được liên kết với Trung Quốc vào cuối năm 2024. Yêu cầu phát triển mô hình nền tảng từ đầu. Tuy nhiên, Openai đã thừa nhận rằng họ đang tích cực xem xét các mẫu sử dụng API và đã thực hiện các chính sách API chặt chẽ hơn để ngăn chặn việc trích xuất dữ liệu quy mô lớn của các nhà phát triển bên ngoài.
Cuộc điều tra đang diễn ra và OpenAI không cho biết liệu nó có thực hiện hành động pháp lý hay đưa ra các hạn chế hơn nữa đối với quyền truy cập vào các mô hình của nó.
Deepseek R1 nổi bật trong ngành AI vì khả năng đạt được hiệu suất lý luận cao trong khi sử dụng ít tài nguyên tính toán hơn so với các mô hình cạnh tranh từ Openai và Google DeepMind.
Không giống như các hệ thống mới nhất của Openai, yêu cầu các cụm GPU rộng lớn, Deepseek R1 đã được đào tạo trên 2.048 GPU NVIDIA H800, một mô hình được thiết kế để tuân thủ các hạn chế thương mại của Hoa Kỳ đối với xuất khẩu phần cứng AI sang Trung Quốc. Hiệu quả của mô hình đã góp phần vào sự sụt giảm tạm thời trong cổ phiếu của NVIDIA, đã giảm gần 600 tỷ đô la khi các nhà đầu tư đánh giá lại nhu cầu dài hạn đối với các chip AI cao cấp. phụ thuộc phần cứng cho đào tạo mô hình. Trong khi các mô hình như GPT-4 yêu cầu cơ sở hạ tầng tính toán rộng lớn, khả năng thực hiện các nhiệm vụ lý luận phức tạp của Deepseek R1 với dấu chân GPU nhỏ hơn cho thấy cách tiếp cận thay thế để đào tạo AI có thể làm cho các mô hình hiệu suất cao dễ tiếp cận hơn với phạm vi phát triển rộng hơn.
U.S. và các cơ quan quản lý châu Âu xem xét kỹ lưỡng Deepseek AI
Deepseek R1 cũng đã thu hút sự chú ý từ các cơ quan chính phủ và các cơ quan quản lý do lo ngại về bảo mật dữ liệu và tuân thủ luật riêng tư quốc tế và đối với việc kiểm duyệt ĐCST Giống như 1989 Các cuộc biểu tình và thảm sát của Quảng trường Tiananmen hoặc lãnh đạo Trung Quốc nói chung. R1 đang được điều tra các vi phạm tiềm năng của Quy định bảo vệ dữ liệu chung (GDPR). Cơ quan bảo vệ dữ liệu của Ý, Garante, đã đưa ra một cuộc điều tra về việc Deepseek chuyển dữ liệu người dùng châu Âu sang Trung Quốc mà không cần bảo vệ hoặc tiết lộ đầy đủ.
Nếu cuộc điều tra phát hiện ra rằng Deepseek đã không tuân thủ các yêu cầu GDPR, công ty có thể phải đối mặt với các khoản tiền phạt hoặc hạn chế về khả năng hoạt động tại các thị trường châu Âu. AI phản ánh mối quan tâm ngày càng tăng về tính bảo mật và tính minh bạch của các mô hình AI được phát triển bên ngoài Hoa Kỳ và Châu Âu. A Phân tích được thực hiện bởi Newsguard phát hiện ra rằng mô hình đã chứng minh lọc nặng về các chủ đề nhạy cảm về mặt chính trị. Phần trăm các truy vấn liên quan đến Trung Quốc, đặc biệt là những người liên quan đến quản trị, nhân quyền và các sự kiện lịch sử. Ngoài ra, mô hình cung cấp các phản hồi không đầy đủ hoặc gây hiểu lầm trong 83 % các lời nhắc tin tức dựa trên thực tế, làm tăng mối lo ngại về việc liệu điều độ của nó có phù hợp với các hạn chế của chính phủ Trung Quốc về việc truy cập thông tin hay không. Thực hiện các biện pháp kiểm duyệt nội dung bổ sung cho DeepSeek R1 trước khi tích hợp đầy đủ nó vào hệ sinh thái AI của nó. Những phát hiện từ nghiên cứu Newsguard cho thấy các doanh nghiệp triển khai Deepseek R1 nên nhận thức được những hạn chế tiềm năng trong khả năng của mô hình để cung cấp thông tin không thiên vị. Các thiết lập chính thức và cá nhân, trích dẫn rủi ro bảo mật liên quan đến chính sách dữ liệu của Trung Quốc. Động thái này là một phần trong nỗ lực rộng lớn hơn của các cơ quan quốc phòng Hoa Kỳ để hạn chế việc sử dụng các hệ thống AI do nước ngoài phát triển trong các hoạt động nhạy cảm.
Trong khi Microsoft đã nhấn mạnh rằng Deepseek R1 đã thông qua các đánh giá bảo mật trước khi được thêm vào Azure AI Foundry, sự giám sát quy định đang diễn ra cho thấy các doanh nghiệp sử dụng mô hình vẫn có thể phải đối mặt với các thách thức tuân thủ.
<> Danh mục mô hình AI mở rộng của Microsoft và rủi ro của nó
Bằng cách thêm Deepseek R1 vào Azure AI Foundry, Microsoft đang đa dạng hóa các dịch vụ AI của mình để cung cấp cho doanh nghiệp nhiều lựa chọn mô hình.
Công ty đã nhấn mạnh tầm quan trọng của việc hỗ trợ một loạt các mô hình AI để cho phép các nhà phát triển chọn công nghệ phù hợp nhất cho các nhu cầu cụ thể của họ. Tuy nhiên, việc bao gồm Deepseek R1 trong khi một cuộc điều tra OpenAI đang diễn ra đã đặt ra câu hỏi về quy trình kiểm tra của Microsoft đối với quan hệ đối tác AI và cách tiếp cận của nó để quản lý rủi ro bảo mật dữ liệu tiềm năng. Vai trò trong việc đánh giá tính toàn vẹn của các mô hình AI được lưu trữ trên các dịch vụ đám mây của nó có khả năng phải đối mặt với sự giám sát tăng lên.