Microsoft a adăugat Deepseek R1, modelul de raționament AI de ultimă generație dezvoltat de Deepseek, cu sediul în China, pe platforma sa de turnare AI AI, în ciuda unei investigații în curs de desfășurare dacă compania a accesat în mod necorespunzător datele API ale OpenAI.

Decizia de a integra Deepseek R1 în oferta cloud Microsoft ridică întrebări despre securitatea datelor AI, dinamica competitivă și supravegherea de reglementare, întrucât OpenAI și Microsoft examinează potențialele utilizări neautorizate a producției de modele proprii.

înrudit: Noul model QWEN 2.5-Max al Alibaba preia Deepseek în Benchmarks AI

The inclusion of DeepSeek R1 in Azure AI Foundry reflects Microsoft’s continued expansion of its AI ecosystem, which already features models from OpenAI, Meta, Mistral, and Cohere.

Microsoft a declarat că modelul a suferit evaluări de securitate înainte de a fi pus la dispoziția clienților întreprinderii. Într-o declarație oficială, Asha Sharma, vicepreședintele Microsoft al platformei AI, a declarat: „Unul dintre avantajele cheie ale utilizării Deepseek R1 sau a oricărui alt model pe Azure AI Foundry este viteza cu care dezvoltatorii pot experimenta, itera și integra AI în Fluxurile lor de lucru.”

Sursa: Microsoft

înrudit: Deepseek renunță la un alt OpenAI-Buster cu modele multimodale Janus, depășind Dall-e 3

Microsoft a anunțat și Planuri de eliberare a versiunilor optimizate ale Deepseek R1 pentru PILT+ PC-uri, permițând execuția locală prin unități de procesare neuronală (NPU). și OpenAI investighează modele de acces API neobișnuite

În timp ce capacitățile tehnice ale Deepseek R1 au fost lăudați pe scară largă, modelul a atras și controlul asupra potențialelor sale legături cu datele proprii ale lui Openai.//www.bloomberg.com/news/articles/2025-01-29/microsoft-probing-if-deepseek-linked-group-improperly-obtained-openai-data”> acondare la Bloomberg , cercetători de securitate Microsoft, cercetători de securitate Microsoft a detectat un vârf neobișnuit în traficul API Openai, provenit din conturile de dezvoltatori legate de China la sfârșitul anului 2024.

Raportul a ridicat îngrijorări că rezultatele generate de OpenAI ar fi putut fi utilizate pentru a instrui modele AI concurente la o fracțiune din cost necesar pentru a dezvolta un model de fundație de la zero.

Nici Openai, nici Microsoft nu au confirmat public dacă Deepseek a fost implicat direct în acest acces la date. Cu toate acestea, OpenAI a recunoscut că revizuiește în mod activ tiparele de utilizare a API și a implementat deja politici API mai stricte pentru a preveni extragerea datelor pe scară largă de către dezvoltatorii externi.

Investigația este în desfășurare, iar OpenAI nu a indicat dacă va lua măsuri legale sau va introduce restricții suplimentare privind accesul la modelele sale.

Deepseek R1 Eficiența de formare și impactul pe piață

Deepseek R1 iese în evidență în industria AI pentru capacitatea sa de a obține performanțe ridicate de raționament, utilizând mai puține resurse de calcul decât modelele concurente de la OpenAI și Google DeepMind.

Spre deosebire de cele mai recente sisteme ale lui Openai, care necesită grupuri de GPU extinse, Deepseek R1 a fost instruit pe 2.048 NVIDIA H800 GPU, un model conceput pentru a respecta restricțiile comerciale din SUA la exporturile de hardware AI în China. Eficiența modelului a contribuit la o scădere temporară a stocului Nvidia, care a scăzut cu aproape 600 de miliarde de dolari, deoarece investitorii au reevaluat cererea pe termen lung de cipuri AI de înaltă calitate.

Apariția Deepseek R1 a determinat discuții despre AI Dependență hardware pentru antrenamentul modelului. În timp ce modele precum GPT-4 au necesitat o infrastructură de calcul vastă, capacitatea Deepseek R1 de a îndeplini sarcini de raționament complexe cu o amprentă GPU mai mică sugerează o abordare alternativă a instruirii AI care ar putea face ca modelele de înaltă performanță să fie mai accesibile pentru o gamă mai largă de dezvoltatori.

S.U.A. Și autoritățile de reglementare europene examinează Deepseek AI

Deepseek R1 a atras atenția și din partea agențiilor guvernamentale și a organismelor de reglementare din cauza preocupărilor cu privire la securitatea datelor și respectarea legilor internaționale privind confidențialitatea și pentru cenzura CCP aplicată pentru anumite subiecte subiecte ca 1989 Tiananmen Square Protests and Massacre sau conducerea chineză în general.

în Europa, Deepseek R1 este cercetat pentru încălcări potențiale ale Regulamentului general de protecție a datelor (GDPR). Autoritatea de protecție a datelor din Italia, Garante, a lansat o anchetă dacă Deepseek transferă datele utilizatorilor europeni în China, fără garanții sau dezvăluiri adecvate.

Dacă ancheta constată că Deepseek nu a respectat cerințele GDPR, compania ar putea face față amenzilor sau restricțiilor asupra capacității sale de a opera pe piețele europene. AI reflectă îngrijorări crescânde cu privire la securitatea și transparența modelelor AI dezvoltate în afara Statelor Unite și Europa.

Dincolo de aceste probleme de securitate și reglementare a datelor, Deepseek R1 a ridicat îngrijorări cu privire la moderarea conținutului și potențialul cenzură. An Analiza realizată de NewsGuard a constatat că modelul a demonstrat filtrarea grea pe subiecte sensibile din punct de vedere politic.

Studiul a raportat că Deepseek R1 a refuzat să răspundă la 85 Procentul de întrebări legate de China, în special cele referitoare la guvernare, drepturile omului și evenimente istorice. În plus, modelul a oferit răspunsuri incomplete sau înșelătoare în 83 la sută din solicitările de știri bazate pe fapte, ridicând îngrijorări cu privire la faptul dacă moderația sa se aliniază cu restricțiile guvernamentale chineze privind accesul informațional.

Microsoft nu a comentat public dacă acesta va fi acesta Implementați măsuri suplimentare de moderare a conținutului pentru Deepseek R1 înainte de a-l integra complet în ecosistemul său AI. Rezultatele studiului de la Newsguard sugerează că întreprinderile care implementează Deepseek R1 ar trebui să fie conștiente de limitările potențiale ale capacității modelului de a furniza informații nepărtinitoare.

Marina SUA a emis recent o directivă care interzice utilizarea modelelor AI Deepseek în ambele în ambele în ambele Setări oficiale și personale, citând riscuri de securitate asociate cu politicile de date ale Chinei. Mișcarea face parte dintr-un efort mai larg al agențiilor de apărare din SUA pentru a limita utilizarea sistemelor AI dezvoltate în străinătate în operațiuni sensibile.

În timp ce Microsoft a subliniat că Deepseek R1 a trecut evaluările de securitate înainte de a fi adăugat la Azure AI Foundry, controlul reglementat în curs de desfășurare sugerează că întreprinderile care utilizează modelul se pot confrunta în continuare cu provocări de conformitate.

Portofoliul de model AI extind Microsoft și riscurile sale

Adăugând Deepseek R1 la Azure AI Foundry, Microsoft își diversifică în continuare ofertele AI pentru a oferi întreprinderilor opțiuni multiple de model.

Compania a subliniat importanța susținerii unei game largi de modele AI pentru a permite dezvoltatorilor să selecteze cea mai potrivită tehnologie pentru nevoile lor specifice. Cu toate acestea, includerea Deepseek R1, în timp ce o investigație OpenAI este în desfășurare a ridicat întrebări cu privire la procesul de verificare a Microsoft pentru parteneriatele AI și abordarea sa pentru gestionarea riscurilor potențiale de securitate a datelor.

ca OpenAI continuă să revizuiască modelele de utilizare a API, Microsoft’s’s Rolul în evaluarea integrității modelelor AI găzduite pe serviciile sale cloud este probabil să se confrunte cu un control crescut.

Categories: IT Info