Microsoft ha aggiunto DeepSeek R1, il rivoluzionario modello di ragionamento AI sviluppato da DeepSeek con sede in Cina, alla sua piattaforma di fonderia di Ai di Azure nonostante un’indagine in corso sul fatto che la società accedesse in modo improprio ai dati API di Openi.
La decisione di integrare DeepSeek R1 nell’offerta di cloud di Microsoft solleva domande sulla sicurezza dei dati AI, le dinamiche competitive e la supervisione normativa come Openai e Microsoft esaminano il potenziale uso non autorizzato di output di modelli proprietari.
correlato: il nuovo modello Qwen 2.5-Max di Alibaba assume DeepSeek nei benchmark AI
L’inclusione di DeepSeek R1 in Azure Ai Foundry riflette la continua espansione di Microsoft del suo ecosistema AI, che presenta già modelli di Openai, Meta, Mistral e Cohere.
Microsoft ha dichiarato che il modello è stato sottoposto a valutazioni di sicurezza prima di essere reso disponibile ai clienti aziendali. In una dichiarazione ufficiale, Asha Sharma, vicepresidente della piattaforma AI di Microsoft, ha dichiarato: “Uno dei vantaggi chiave dell’utilizzo di Deepseek R1 o di qualsiasi altro modello su Azure Ai Foundry è la velocità con cui gli sviluppatori possono sperimentare, iterare e integrare l’IA in I loro flussi di lavoro.”
Fonte: Microsoft
correlato: DeepSeek rilascia un altro OpenAI-Buster con i modelli multimodali di Janus, superando anche Dall-E 3
Microsoft ha annunciato I piani per rilasciare versioni ottimizzate di DeepSeek R1 per Copilot+ PCS, consentendo l’esecuzione locale attraverso le unità di elaborazione neurale (NPU). e Openai indagano insoliti modelli di accesso API
Mentre le capacità tecniche di DeepSeek R1 sono state ampiamente elogiato, il modello ha anche tratto il controllo dei suoi potenziali collegamenti ai dati del proprietario di Openi.//www.bloomberg.com/news/articles/2025-01-29/microsoft-probing-if-deepseek-linked-group-improperly-obtained-openai-data”> According to Bloomberg , MicroSoft Security Researchers rilevato un picco insolito nel traffico API OpenAI originato dai conti degli sviluppatori collegati alla Cina alla fine del 2024.
Il rapporto ha sollevato preoccupazioni che i risultati generati da OpenAI potrebbero essere stati utilizzati per addestrare i modelli AI concorrenti a una frazione richiesto per sviluppare un modello di fondazione da zero.
Né Openi né Microsoft hanno confermato pubblicamente se DeepSeek fosse direttamente coinvolto in questo accesso ai dati. Tuttavia, Openi ha riconosciuto che sta rivedendo attivamente i modelli di utilizzo dell’API e ha già implementato politiche API più rigorose per prevenire l’estrazione di dati su larga scala da parte di sviluppatori esterni.
L’indagine è in corso e Openi non ha indicato se intraprenderà un’azione legale o introdurrà ulteriori restrizioni all’accesso ai suoi modelli.
Efficienza di formazione di Deepseek R1 e impatto sul mercato
DeepSeek R1 si distingue nel settore dell’IA per la sua capacità di ottenere alte prestazioni di ragionamento, utilizzando meno risorse computazionali rispetto ai modelli concorrenti di Openi e Google DeepMind.
A differenza degli ultimi sistemi di Openai, che richiedono ampi cluster GPU, DeepSeek R1 è stato addestrato su 2.048 GPU NVIDIA H800, un modello progettato per rispettare le restrizioni commerciali statunitensi sulle esportazioni hardware AI in Cina. L’efficienza del modello ha contribuito a un calo temporaneo delle azioni di Nvidia, che è diminuito di quasi $ 600 miliardi, poiché gli investitori hanno rivalutato la domanda a lungo termine di chip di intelligenza artificiale di fascia alta.
L’emergere di DeepSeek R1 ha spinto le discussioni sull’intelligenza artificiale Dipendenza hardware per la formazione del modello. Mentre modelli come GPT-4 richiedevano una vasta infrastruttura computazionale, la capacità di DeepSeek R1 di eseguire compiti di ragionamento complessi con un’impronta GPU più piccola suggerisce un approccio alternativo alla formazione dell’IA che potrebbe rendere più accessibili i modelli ad alte prestazioni a una gamma più ampia di sviluppatori. >
U.S. e i regolatori europei esaminano DeepSeek Ai
DeepSeek R1 ha anche attirato l’attenzione delle agenzie governative e degli enti di regolamentazione a causa delle preoccupazioni per la sicurezza dei dati e la conformità con le leggi internazionali sulla privacy e per la censura CCP applicata per alcune argomenti come il 1989 Tiananmen Square proteste e massacre o la leadership cinese in generale.
in Europa, Deep-seek R1 è sotto inchiesta per le potenziali violazioni del regolamento generale sulla protezione dei dati (GDPR). L’autorità di protezione dei dati italiana, Garante, ha avviato un’indagine sul fatto che DeepSeek trasferisca i dati degli utenti europei in Cina senza adeguate garanzie o informazioni.
Se l’indagine rileva che DeepSeek non ha rispettato i requisiti del GDPR, la società potrebbe affrontare multe o restrizioni sulla sua capacità di operare nei mercati europei.
La maggiore attenzione normativa su DeepSeek L’intelligenza artificiale riflette crescenti preoccupazioni per la sicurezza e la trasparenza dei modelli di intelligenza artificiale sviluppati al di fuori degli Stati Uniti e dell’Europa.
Oltre a queste questioni di sicurezza dei dati e normative, Deepseek R1 ha sollevato preoccupazioni sulla moderazione dei contenuti e la potenziale censura. An Analisi condotta da NewsGuard ha scoperto che il modello ha dimostrato un forte filtro su argomenti politicamente sensibili.
Lo studio ha riferito che Deepseek R1 ha rifiutato di rispondere a 85 Percentuale delle domande relative alla Cina, in particolare quelle relative alla governance, ai diritti umani ed eventi storici. Inoltre, il modello ha fornito risposte incomplete o fuorvianti nell’83 percento delle istruzioni di notizie basate sui fatti, sollevando preoccupazioni sul fatto che la sua moderazione si allinei con le restrizioni del governo cinese sull’accesso alle informazioni.
Microsoft non ha commentato pubblicamente se lo farà Implementare ulteriori misure di moderazione dei contenuti per DeepSeek R1 prima di integrarlo completamente nel suo ecosistema AI. I risultati dello studio di NewsGuard suggeriscono che le imprese che distribuiscono DeepSeek R1 dovrebbero essere consapevoli delle potenziali limitazioni nella capacità del modello di fornire informazioni imparziali.
La Marina degli Stati Uniti ha recentemente emesso una direttiva che vieta l’uso dei modelli di AI DeepSeek in entrambi Impostazioni ufficiali e personali, citando i rischi per la sicurezza associati alle politiche dei dati della Cina. La mossa fa parte di uno sforzo più ampio da parte delle agenzie di difesa statunitensi per limitare l’uso di sistemi AI sviluppati dall’estero in operazioni sensibili.
Mentre Microsoft ha sottolineato che DeepSeek R1 ha superato le valutazioni della sicurezza prima di essere aggiunta a Azure Ai Foundry, il controllo normativo in corso suggerisce che le aziende che utilizzano il modello potrebbero ancora affrontare sfide di conformità.
Il portafoglio di modelli AI in espansione di Microsoft e i suoi rischi
aggiungendo DeepSeek R1 a Azure AI Foundry, Microsoft sta diversificando ulteriormente le sue offerte di intelligenza artificiale per fornire alle aziende scelte di più modelli.
La società ha sottolineato l’importanza di supportare una vasta gamma di modelli di intelligenza artificiale per consentire agli sviluppatori di selezionare la tecnologia più adatta per le loro esigenze specifiche. Tuttavia, l’inclusione di DeepSeek R1 mentre è in corso un’indagine OpenAI ha sollevato domande sul processo di controllo di Microsoft per le partnership di intelligenza artificiale e il suo approccio alla gestione dei potenziali rischi per la sicurezza dei dati.
Mentre Openi continua a rivedere i modelli di utilizzo delle API, Microsoft’s Il ruolo nella valutazione dell’integrità dei modelli AI ospitati sui suoi servizi cloud probabilmente dovrà affrontare un maggiore controllo.