Microsoft telah menambahkan Deepseek R1, model penalaran AI inovatif yang dikembangkan oleh Deepseek yang berbasis di China, ke platform pengecoran AIure AI-nya meskipun ada penyelidikan yang berkelanjutan tentang apakah perusahaan mengakses data API Openai secara tidak patut.
Keputusan untuk mengintegrasikan Deepseek R1 ke dalam penawaran cloud Microsoft menimbulkan pertanyaan tentang keamanan data AI, dinamika kompetitif, dan pengawasan peraturan ketika OpenAi dan Microsoft memeriksa potensi penggunaan output model eksklusif yang tidak sah.
Terkait: Model Qwen 2.5-Max baru Alibaba mengambil Deepseek dalam tolok ukur AI
Dimasukkannya Deepseek R1 di Azure AI Foundry mencerminkan ekspansi Microsoft yang berkelanjutan dari ekosistem AI-nya, yang sudah menampilkan model dari Openai, Meta, Mistral, dan Cohere.
Microsoft menyatakan bahwa model menjalani penilaian keamanan sebelum tersedia untuk pelanggan perusahaan. Dalam sebuah pernyataan resmi, Asha Sharma, wakil presiden platform AI Microsoft, mengatakan, “Salah satu keunggulan utama menggunakan Deepseek R1 atau model lain di Azure AI Foundry adalah kecepatan di mana pengembang dapat bereksperimen, berulang, dan mengintegrasikan AI ke alur kerja mereka.”
Sumber: Microsoft
Terkait: Deepseek menjatuhkan buster openai lain dengan model multimodal Janus, melebihi Dall-E 3
Microsoft juga telah mengumumkan telah mengumumkan Rencana untuk merilis versi yang dioptimalkan dari Deepseek R1 untuk Copilot+ PC, yang memungkinkan eksekusi lokal melalui unit pemrosesan saraf (NPU). dan Openai menyelidiki pola akses API yang tidak biasa
Sementara kemampuan teknis Deepseek R1 telah dipuji secara luas, model ini juga telah menarik perhatian atas tautan potensial ke data hak milik Openai.//www.bloomberg.com/news/articles/2025-01-29/microsoft-probing-if-deepseek-linked-group-mproperly-obtained-openai-data”> Menurut Bloomberg , Microsoft Securityer Mendeteksi lonjakan yang tidak biasa dalam lalu lintas API OpenAI yang berasal dari akun pengembang yang ditautkan ke Cina pada akhir 2024.
Laporan tersebut menimbulkan kekhawatiran bahwa output yang dihasilkan OpenAi mungkin telah digunakan untuk melatih model AI yang bersaing di sebagian kecil dari biaya dari biaya tersebut dari biaya tersebut dari biaya tersebut dari biaya dari biaya tersebut dari biaya tersebut dari biaya tersebut dari biaya dari biaya dari biaya dari biaya tersebut dari biaya yang dikenakan biaya dari biaya dari biaya tersebut dari biaya yang dikenakan biaya dari biaya dari biaya dari biaya dari biaya tersebut dari biaya yang biaya dari biaya tersebut dari biaya tersebut. Diperlukan untuk mengembangkan model fondasi dari awal.
Baik OpenAi maupun Microsoft tidak secara publik mengkonfirmasi apakah Deepseek terlibat langsung dalam akses data ini. Namun, Openai telah mengakui bahwa mereka secara aktif meninjau pola penggunaan API dan telah menerapkan kebijakan API yang lebih ketat untuk mencegah ekstraksi data skala besar oleh pengembang eksternal.
Investigasi sedang berlangsung, dan Openai belum mengindikasikan apakah itu akan mengambil tindakan hukum atau memperkenalkan pembatasan lebih lanjut pada akses ke modelnya.
Efisiensi pelatihan Deepseek R1 dan dampak pasar
Deepseek R1 menonjol di industri AI karena kemampuannya untuk mencapai kinerja penalaran yang tinggi sambil menggunakan sumber daya komputasi yang lebih sedikit daripada model yang bersaing dari Openai dan Google DeepMind.
Tidak seperti sistem terbaru Openai, yang membutuhkan kelompok GPU yang luas, Deepseek R1 dilatih pada 2.048 NVIDIA H800 GPU, model yang dirancang untuk mematuhi pembatasan perdagangan A.S. pada ekspor perangkat keras AI ke Cina. Efisiensi model berkontribusi pada penurunan sementara dalam saham NVIDIA, yang turun hampir $ 600 miliar karena investor menilai kembali permintaan jangka panjang untuk chip AI high-end.
Munculnya Deepseek R1 telah mendorong diskusi tentang AI Ketergantungan perangkat keras untuk pelatihan model. Sementara model seperti GPT-4 membutuhkan infrastruktur komputasi yang luas, kemampuan Deepseek R1 untuk melakukan tugas penalaran yang kompleks dengan jejak GPU yang lebih kecil menunjukkan pendekatan alternatif untuk pelatihan AI yang dapat membuat model kinerja tinggi lebih mudah diakses oleh berbagai pengembang.
u.s. dan regulator Eropa meneliti deepseek ai
Deepseek R1 juga telah menarik perhatian dari lembaga pemerintah dan badan pengatur karena kekhawatiran atas keamanan data dan kepatuhan terhadap undang-undang privasi internasional dan untuk sensor PKC yang diterapkan untuk topik tertentu untuk topik tertentu dan kepatuhan tertentu seperti 1989 Tiananmen Square Protes dan Pembantaian atau kepemimpinan Tiongkok pada umumnya.
P> di Eropa, DEEPSED atau kepemimpinan Tiongkok pada umumnya.
P> di Eropa, DEEPSED, atau kepemimpinan Tiongkok secara umum.
P> P> PREADE, PEOURE> R1 sedang diselidiki untuk potensi pelanggaran Peraturan Perlindungan Data Umum (GDPR). Otoritas Perlindungan Data Italia, Garante, telah meluncurkan penyelidikan apakah Deepseek mentransfer data pengguna Eropa ke Cina tanpa perlindungan atau pengungkapan yang memadai.
Jika penyelidikan menemukan bahwa Deepseek telah gagal memenuhi persyaratan GDPR, perusahaan dapat menghadapi denda atau pembatasan kemampuannya untuk beroperasi di pasar Eropa.
Peningkatan fokus peraturan pada Deepseek AI mencerminkan kekhawatiran yang semakin besar tentang keamanan dan transparansi model AI yang dikembangkan di luar Amerika Serikat dan Eropa.
Di luar masalah keamanan dan peraturan data ini, Deepseek R1 telah menimbulkan kekhawatiran tentang moderasi konten dan potensi sensor. Sebuah analisis yang dilakukan oleh NewsGuard menemukan bahwa model tersebut menunjukkan penyaringan berat pada topik yang sensitif secara politis.
Studi ini melaporkan bahwa Deepseek R1 menolak untuk menjawab 85 Persentase pertanyaan yang terkait dengan Cina, terutama yang mengenai tata kelola, hak asasi manusia, dan peristiwa sejarah. Selain itu, model ini memberikan tanggapan yang tidak lengkap atau menyesatkan dalam 83 persen dari permintaan berita berbasis fakta, meningkatkan kekhawatiran tentang apakah moderasinya selaras dengan pembatasan pemerintah Cina pada akses informasi.
Microsoft belum secara publik berkomentar tentang apakah itu akan Terapkan langkah-langkah moderasi konten tambahan untuk Deepseek R1 sebelum sepenuhnya mengintegrasikannya ke dalam ekosistem AI-nya. Temuan dari Studi Newsguard menunjukkan bahwa perusahaan yang menggunakan Deepseek R1 harus menyadari keterbatasan potensial dalam kemampuan model untuk memberikan informasi yang tidak memihak.
Angkatan Laut AS baru-baru ini mengeluarkan arahan yang melarang penggunaan model AI Deepseek di keduanya dalam keduanya dalam keduanya dalam keduanya dalam keduanya dalam keduanya di keduanya di keduanya di keduanya di dalam model AI Deepseek di keduanya di keduanya di dalam keduanya di keduanya di dalam model AI Deepseek di keduanya di keduanya di Deepseek AI di keduanya di Deepseek di keduanya di Deepseek di keduanya di Deepseek di keduanya di Deepseek di keduanya di Deepseek di keduanya di Deepseek di keduanya di Deepseek di keduanya di Deepseek di Deepseek Pengaturan resmi dan pribadi, mengutip risiko keamanan yang terkait dengan kebijakan data China. Langkah ini merupakan bagian dari upaya yang lebih luas oleh lembaga pertahanan A.S. untuk membatasi penggunaan sistem AI yang dikembangkan asing dalam operasi sensitif.
Sementara Microsoft telah menekankan bahwa Deepseek R1 melewati penilaian keamanan sebelum ditambahkan ke Azure AI Foundry, pengawasan peraturan yang sedang berlangsung menunjukkan bahwa perusahaan yang menggunakan model mungkin masih menghadapi tantangan kepatuhan.
Portofolio model AI Microsoft yang berkembang dan risikonya
Dengan menambahkan Deepseek R1 ke Azure AI Foundry, Microsoft semakin mendiversifikasi penawaran AI-nya untuk menyediakan berbagai pilihan model.
Perusahaan telah menekankan pentingnya mendukung berbagai model AI untuk memungkinkan pengembang memilih teknologi yang paling cocok untuk kebutuhan spesifik mereka. Namun, dimasukkannya Deepseek R1 sementara investigasi OpenAI sedang berlangsung telah menimbulkan pertanyaan tentang proses pemeriksaan Microsoft untuk kemitraan AI dan pendekatannya untuk mengelola potensi risiko keamanan data.
Saat Openai terus meninjau pola penggunaan API, Microsoft’s Peran dalam mengevaluasi integritas model AI yang di-host pada layanan cloud-nya cenderung menghadapi peningkatan pengawasan.