Microsoft telah menambah DeepSeek R1, model penaakulan AI yang dibangunkan oleh DeepSeek yang berpangkalan di China, kepada platform Azure AI Foundry walaupun siasatan berterusan sama ada syarikat itu tidak mengakses data API OpenAI.

Keputusan untuk mengintegrasikan DeepSeek R1 ke dalam tawaran awan Microsoft menimbulkan persoalan mengenai keselamatan data AI, dinamik kompetitif, dan pengawasan pengawalseliaan sebagai OpenAI dan Microsoft memeriksa potensi penggunaan output model proprietari yang tidak dibenarkan.

Berkaitan: Model Qwen 2.5-max baru Alibaba mengambil DeepSeek dalam penanda aras AI

Kemasukan DeepSeek R1 dalam Azure AI Foundry mencerminkan pengembangan Microsoft berterusan ekosistem AI, yang sudah mempunyai model dari OpenAI, Meta, Mistral, dan Cohere.

Microsoft menyatakan bahawa model menjalani penilaian keselamatan sebelum disediakan kepada pelanggan perusahaan. Dalam satu kenyataan rasmi, Asha Sharma, naib presiden Microsoft platform AI, berkata,”Salah satu kelebihan utama menggunakan DeepSeek R1 atau mana-mana model lain pada Azure AI Foundry adalah kelajuan di mana pemaju boleh bereksperimen, berulang, dan mengintegrasikan AI ke dalam Aliran kerja mereka.”

Sumber: Microsoft

Berkaitan: DeepSeek menjatuhkan satu lagi Openai-Buster dengan model multimodal Janus, melampaui Dall-e 3

Microsoft juga telah mengumumkan Rancangan untuk melepaskan versi yang dioptimumkan R1 DeepSeek untuk Copilot+ PCS, yang membolehkan pelaksanaan tempatan melalui unit pemprosesan saraf (NPU). Dan OpenAI menyiasat corak akses API yang luar biasa

Walaupun keupayaan teknikal Deepseek R1 telah dipuji secara meluas, model itu juga telah diteliti dengan potensi hubungannya dengan data proprietari Openai.”Mengesan kenaikan luar biasa dalam trafik API terbuka yang berasal dari akaun pemaju yang dikaitkan dengan China pada akhir 2024. Diperlukan untuk membangunkan model asas dari awal.

Baik Openai atau Microsoft telah mengesahkan secara terbuka sama ada DeepSeek terlibat secara langsung dalam akses data ini. Walau bagaimanapun, OpenAI telah mengakui bahawa ia secara aktif mengkaji corak penggunaan API dan telah melaksanakan dasar API yang lebih ketat untuk mencegah pengekstrakan data berskala besar oleh pemaju luaran.

Siasatan sedang dijalankan, dan Openai tidak menunjukkan sama ada ia akan mengambil tindakan undang-undang atau memperkenalkan sekatan selanjutnya ke atas akses kepada modelnya.

DeepSeek R1 menonjol dalam industri AI untuk keupayaannya untuk mencapai prestasi penalaran yang tinggi semasa menggunakan sumber pengiraan yang lebih sedikit daripada model bersaing dari Openai dan Google DeepMind.

Tidak seperti sistem terbaru OpenAI, yang memerlukan kelompok GPU yang luas, DeepSeek R1 dilatih pada 2,048 NVIDIA H800 GPU, model yang direka untuk mematuhi sekatan perdagangan A.S. ke atas eksport perkakasan AI ke China. Kecekapan model menyumbang kepada penurunan sementara dalam stok Nvidia, yang jatuh hampir $ 600 bilion apabila pelabur menilai semula permintaan jangka panjang untuk cip AI mewah. Ketergantungan perkakasan untuk latihan model. Walaupun model seperti GPT-4 memerlukan infrastruktur pengiraan yang luas, keupayaan DeepSeek R1 untuk melaksanakan tugas-tugas penalaran yang kompleks dengan jejak GPU yang lebih kecil menunjukkan pendekatan alternatif kepada latihan AI yang dapat membuat model berprestasi tinggi lebih mudah diakses oleh pemaju yang lebih luas. >

U.S. dan pengawal selia Eropah meneliti Deepseek AI

DeepSeek R1 juga menarik perhatian dari agensi kerajaan dan badan pengawalseliaan kerana kebimbangan mengenai keselamatan data dan pematuhan terhadap undang-undang privasi antarabangsa dan penapisan CCP yang digunakan untuk topik tertentu seperti 1989 Tiananmen persegi protes dan pembunuhan R1 sedang disiasat untuk pelanggaran potensi Peraturan Perlindungan Data Umum (GDPR). Pihak Berkuasa Perlindungan Data Itali, Garante, telah melancarkan siasatan sama ada DeepSeek memindahkan data pengguna Eropah ke China tanpa perlindungan atau pendedahan yang mencukupi.

Jika siasatan mendapati bahawa DeepSeek gagal mematuhi keperluan GDPR, syarikat itu boleh menghadapi denda atau sekatan ke atas keupayaannya untuk beroperasi di pasaran Eropah.

Fokus pengawalseliaan yang meningkat pada DeepSeek AI mencerminkan kebimbangan yang semakin meningkat mengenai keselamatan dan ketelusan model AI yang dibangunkan di luar Amerika Syarikat dan Eropah. Analisis yang dijalankan oleh NewsGuard mendapati bahawa model itu menunjukkan penapisan berat mengenai topik sensitif politik.

Kajian melaporkan bahawa Deepseek R1 enggan menjawab 85 peratus pertanyaan yang berkaitan dengan China, terutamanya yang berkaitan dengan tadbir urus, hak asasi manusia, dan peristiwa sejarah. Di samping itu, model ini memberikan respons yang tidak lengkap atau mengelirukan dalam 83 peratus daripada berita berasaskan fakta, menimbulkan kebimbangan mengenai sama ada kesederhanaannya sejajar dengan sekatan kerajaan China ke atas akses maklumat.

Microsoft tidak mengulas secara terbuka sama ada ia akan Melaksanakan langkah-langkah kesederhanaan kandungan tambahan untuk DeepSeek R1 sebelum mengintegrasikan sepenuhnya ke dalam ekosistem AInya. Penemuan dari Kajian NewsGuard menunjukkan bahawa perusahaan yang mengerahkan DeepSeek R1 harus menyedari batasan potensi dalam keupayaan model untuk memberikan maklumat yang tidak berat sebelah.

Tentera Laut A.S. baru Tetapan rasmi dan peribadi, memetik risiko keselamatan yang berkaitan dengan dasar data China. Langkah ini adalah sebahagian daripada usaha yang lebih luas oleh agensi pertahanan A.S. untuk mengehadkan penggunaan sistem AI yang dibangunkan asing dalam operasi sensitif.

Walaupun Microsoft telah menekankan bahawa DeepSeek R1 meluluskan penilaian keselamatan sebelum ditambah kepada Azure AI Foundry, pengawasan pengawalseliaan yang berterusan menunjukkan bahawa perusahaan menggunakan model mungkin masih menghadapi cabaran pematuhan. > Portfolio model AI yang berkembang Microsoft dan risikonya

Dengan menambah DeepSeek R1 kepada Azure AI Foundry, Microsoft terus mempelbagaikan tawaran AInya untuk menyediakan perniagaan dengan pelbagai pilihan model.

Syarikat telah menekankan pentingnya menyokong pelbagai model AI untuk membolehkan pemaju memilih teknologi yang paling sesuai untuk keperluan khusus mereka. Walau bagaimanapun, kemasukan DeepSeek R1 sementara siasatan terbuka berterusan telah menimbulkan persoalan mengenai proses pemeriksaan Microsoft untuk perkongsian AI dan pendekatannya untuk menguruskan risiko keselamatan data yang berpotensi.

Peranan dalam menilai integriti model AI yang dihoskan pada perkhidmatan awannya mungkin menghadapi penelitian yang meningkat.

Categories: IT Info