Microsoft dodał Deepseek R1, przełomowy model rozumowania sztucznej inteligencji opracowany przez China Deepseek, do platformy Azure AI Foundry, pomimo ciągłego badania, czy firma niewłaściwie uzyskuje dostęp do danych API Openai.
Decyzja o zintegrowaniu Deepseek R1 z Cloud Oferującą Microsoft rodzi pytania dotyczące bezpieczeństwa danych AI, dynamiki konkurencyjnej i nadzoru regulacyjnego, ponieważ Openai i Microsoft badają potencjalne nieautoryzowane użycie wyników modeli zastrzeżonych.
Powiązane: nowy model QWEN 2.5-Max Alibaba przyjmuje Deepseek w testach porównawczych AI
Microsoft stwierdził, że model przeszedł oceny bezpieczeństwa, zanim został udostępniony klientom korporacyjnym. W oficjalnym oświadczeniu Asha Sharma, wiceprezes Microsoft ds. Platformy AI, powiedział: „Jedną z kluczowych zalet korzystania z Deepseek R1 lub dowolnego innego modelu na odlewni Azure AI jest szybkość, z jaką programiści mogą eksperymentować, iterować i zintegrować AI z AI Ich przepływy pracy.”
Źródło: Microsoft
Powiązane: Deepseek upuszcza kolejny buster openai z modelem multimodalnymi Janus, wyprzedzając Dall-e 3
Microsoft również ogłosił Planuje zwolnienie zoptymalizowanych wersji Deepseek R1 dla komputerów Copilot+, umożliwiając lokalne wykonanie za pośrednictwem jednostek przetwarzania neuronowych (NPU). OpenAI badają nietypowe wzorce dostępu do API
Podczas gdy możliwości techniczne Deepseek R1 zostały powszechnie chwalone, model narysował również jego potencjalne linki do zastrzeżonych danych Openai.//www.bloomberg.com/news/articles/2025-01-29/microsoft-probing-if-deepseek-linked-group-improperly-openai-data”> zgodnie z Bloomberg , badacze bezpieczeństwa Microsoft Security, naukowcy z Microsoft Security. wykrył niezwykły wzrost ruchu API Openai pochodzący z rachunków deweloperów powiązanych z Chinami pod koniec 2024 r.
Raport podniósł obawy, że wyniki generowane przez OpenAi mogły być używane do szkolenia konkurencyjnych modeli AI za ułamek kosztów Wymagane do opracowania modelu fundamentu od zera.
Ani Openai, ani Microsoft publicznie nie potwierdziły, czy Deepseek był bezpośrednio zaangażowany w ten dostęp do danych. Jednak Openai potwierdził, że aktywnie dokonuje przeglądu wzorców użytkowania API i już zaimplementował surowsze zasady API, aby zapobiec ekstrakcji danych na dużą skalę przez zewnętrznych programistów.
Dochodzenie jest w toku, a Openai nie wskazało, czy podejmie działania prawne, czy wprowadzi dalsze ograniczenia dostępu do swoich modeli.
Efektywność szkolenia Deepseek R1 i wpływ na rynek
Deepseek R1 wyróżnia się w branży AI ze względu na jego zdolność do osiągnięcia wysokiej wydajności rozumowania, jednocześnie korzystania z mniejszych zasobów obliczeniowych niż konkurencyjne modele Openai i Google Deepmind.
W przeciwieństwie do najnowszych systemów Openai, które wymagają rozległych klastrów GPU, Deepseek R1 został przeszkolony na temat procesorów graficznych o wartości 2 048 NVIDIA H800, modelu mającym zastosowanie do ograniczeń handlowych w USA dotyczących eksportu sprzętowego AI do Chin. Wydajność modelu przyczyniła się do tymczasowego spadku akcji NVIDIA, który spadł o prawie 600 miliardów dolarów, gdy inwestorzy ponownie ocenili długoterminowe zapotrzebowanie na wysokiej jakości układy AI.
Pojawienie się Deepseek R1 skłoniło do dyskusji na temat AI Zależność sprzętowa od treningu modelu. Podczas gdy modele takie jak GPT-4 wymagały ogromnej infrastruktury obliczeniowej, zdolność Deepseek R1 do wykonywania złożonych zadań rozumowania z mniejszym śladem GPU sugeruje alternatywne podejście do szkolenia AI, które mogłyby uczynić modele o wysokiej wydajności dla szerszego zakresu programistów.
U.S. a europejskie organy regulacyjne analizują Deepseek AI
Deepseek R1, zwróciły uwagę agencji rządowych i organów regulacyjnych ze względu na obawy dotyczące bezpieczeństwa danych i zgodności z międzynarodowymi przepisami dotyczącymi prywatności oraz stosowanego cenzury CCP dla niektórych tematów jak 1989 Protesty placu Tiananmen i masakra lub chińskie przywództwo w ogólnie. R1 jest badany w sprawie potencjalnych naruszeń ogólnego rozporządzenia w zakresie ochrony danych (RODO). Włoski organ ochrony danych, Garante, przeprowadził zapytanie o to, czy DeepSeek przenosi dane użytkownika europejskiego do Chin bez odpowiednich zabezpieczeń lub ujawnień.
Jeśli dochodzenie okaże się, że Deepseek nie spełniło wymagań RODO, firma może stawić czoła grzywnom lub ograniczeniom dotyczącym jej zdolności do działania na rynkach europejskich.
Zwiększony koncentracja regulacyjna na Deepseek AI odzwierciedla rosnące obawy dotyczące bezpieczeństwa i przejrzystości modeli AI opracowanych poza Stanami Zjednoczonymi i Europą.
Poza tymi problemami bezpieczeństwa danych i regulacyjnymi, Deepseek R1 podniósł obawy dotyczące moderacji treści i potencjalnej cenzury. Analiza przeprowadzona przez Newsguard stwierdzono, że model wykazywał ciężkie filtrowanie na temat wrażliwych tematów.
Badanie wykazało, że Deepseek R1 odmówił odpowiedzi 85 Procent zapytań związanych z Chinami, szczególnie tych dotyczących zarządzania, praw człowieka i wydarzeń historycznych. Ponadto model zapewnił niekompletne lub wprowadzające w błąd odpowiedzi w 83 procentach opartych na faktach podpowiedzi, zwiększając obawy dotyczące tego, czy jego moderacja jest zgodna z ograniczeniami chińskiego rządu dostępu.
Microsoft nie skomentował publicznie, czy będzie to Wdrożyć dodatkowe środki moderacji treści dla Deepseek R1, zanim całkowicie zintegruje go z ekosystemem AI. Ustalenia z badania Newsguard sugerują, że przedsiębiorstwa wdrażające Deepseek R1 powinny być świadome potencjalnych ograniczeń w zakresie zdolności modelu do dostarczania bezstronnych informacji.
Marynarka wojenna USA niedawno wydała dyrektywę zakazującą korzystania z modeli Deepseek AI w obu Ustawienia oficjalne i osobiste, powołując się na ryzyko bezpieczeństwa związane z chińskimi zasadami danych. Przeniesienie to jest częścią szerszego wysiłku agencji obrony amerykańskich w celu ograniczenia stosowania opracowanych przez zagranicznych systemów AI w wrażliwych operacjach.
Podczas gdy Microsoft podkreślił, że Deepseek R1 przeszedł oceny bezpieczeństwa przed dodaniem do Azure AI Foundry, trwające kontrola regulacyjna sugeruje, że przedsiębiorstwa korzystające z modelu mogą nadal stawić czoła wyzwaniom związanym z zgodnością.
Rozszerzające się portfolio modelu AI Microsoft i jego ryzyko
, dodając Deepseek R1 do Azure AI Foundry, Microsoft dodatkowo dywersyfikuje ofertę sztucznej inteligencji, aby zapewnić firmom wiele modeli.
Firma podkreśliła znaczenie wspierania szerokiej gamy modeli AI, aby umożliwić programistom wybrać najbardziej odpowiednią technologię dla ich konkretnych potrzeb. Jednak włączenie DeepSeek R1 podczas trwania dochodzenia OpenAI wywołało pytania dotyczące procesu weryfikacji Microsoft dla partnerstw AI i jego podejściu do zarządzania potencjalnymi zagrożeniami bezpieczeństwa danych.
Jako OpenAI nadal dokonuje przeglądu wzorów użytkowania interfejsu API, Microsoft’s, Microsoft’s, Microsoft’s, Microsoft’s, Microsoft’s Rola w ocenie integralności modeli AI hostowanych w jego usługach chmurowych prawdopodobnie będzie musiała zwiększyć kontrolę.