Microsoft ได้เพิ่ม Deepseek R1 ซึ่งเป็นรูปแบบการใช้เหตุผล AI ที่ก้าวล้ำซึ่งพัฒนาโดย Deepseek ในประเทศจีนไปยังแพลตฟอร์ม Azure AI Foundry แม้จะมีการตรวจสอบอย่างต่อเนื่องว่า บริษัท เข้าถึงข้อมูล API ของ OpenAI อย่างไม่เหมาะสมหรือไม่
การตัดสินใจรวม Deepseek R1 เข้ากับคลาวด์ของ Microsoft ที่เสนอคำถามเกี่ยวกับความปลอดภัยของข้อมูล AI การเปลี่ยนแปลงการแข่งขันและการกำกับดูแลด้านกฎระเบียบในขณะที่ OpenAI และ Microsoft ตรวจสอบการใช้งานโมเดลที่เป็นกรรมสิทธิ์โดยไม่ได้รับอนุญาต
ที่เกี่ยวข้อง: โมเดล Qwen 2.5-max ใหม่ของอาลีบาบาใช้เวลาใน Deepseek ในมาตรฐาน AI
การรวม Deepseek R1 ใน Azure AI Foundry สะท้อนให้เห็นถึงการขยายตัวของระบบนิเวศ AI อย่างต่อเนื่องของ Microsoft ซึ่งมีรูปแบบจาก OpenAI, Meta, Mistral และ Cohere
Microsoft ระบุว่ารูปแบบได้รับการประเมินความปลอดภัยก่อนที่จะมีให้กับลูกค้าองค์กร ในแถลงการณ์อย่างเป็นทางการ Asha Sharma รองประธานแพลตฟอร์ม AI ของ Microsoft กล่าวว่า“ หนึ่งในข้อได้เปรียบที่สำคัญของการใช้ Deepseek R1 หรือรุ่นอื่น ๆ ใน Azure AI Foundry คือความเร็วที่นักพัฒนาสามารถทดลองทำซ้ำและรวม AI เข้ากับ AI เข้ากับ AI เวิร์กโฟลว์ของพวกเขา”
แหล่งที่มา: Microsoft
ที่เกี่ยวข้อง: Deepseek วาง Openai-Buster อีกรุ่นหนึ่งด้วย Janus Multimodal รุ่น Oxpacing Dall-E 3
Microsoft ได้ประกาศ วางแผนที่จะเปิดตัว Deepseek R1 เวอร์ชันที่เหมาะสมสำหรับ Copilot+ PCS ช่วยให้การดำเนินการในท้องถิ่นผ่านหน่วยประมวลผลระบบประสาท (NPUs) และ Openai ตรวจสอบรูปแบบการเข้าถึง API ที่ผิดปกติ
ในขณะที่ความสามารถทางเทคนิคของ Deepseek R1 ได้รับการยกย่องอย่างกว้างขวาง แต่แบบจำลองได้ทำการตรวจสอบการเชื่อมโยงที่เป็นไปได้กับข้อมูลที่เป็นกรรมสิทธิ์ของ OpenAI//www.bloomberg.com/news/articles/2025-01-29/microsoft-probing-if-deepseek-linked-group-improperly-obtained-openai-data”> ตามบลูมเบิร์ก นักวิจัยด้านความปลอดภัยของ Microsoft ตรวจพบสไปค์ที่ผิดปกติในการรับส่งข้อมูล OpenAI API ที่เกิดจากบัญชีนักพัฒนาที่เชื่อมโยงกับจีนในช่วงปลายปี 2567
รายงานทำให้เกิดความกังวลว่าเอาต์พุตที่สร้างขึ้นจาก OpenAI อาจถูกนำมาใช้ในการฝึกอบรมโมเดล AI ที่แข่งขันกัน จำเป็นต้องพัฒนารูปแบบพื้นฐานตั้งแต่เริ่มต้น
ทั้ง Openai และ Microsoft ไม่ได้ยืนยันต่อสาธารณะว่า Deepseek มีส่วนร่วมโดยตรงในการเข้าถึงข้อมูลนี้หรือไม่ อย่างไรก็ตาม OpenAI ได้รับการยอมรับว่ากำลังตรวจสอบรูปแบบการใช้ API อย่างแข็งขันและได้ดำเนินการตามนโยบาย API ที่เข้มงวดขึ้นเพื่อป้องกันการสกัดข้อมูลขนาดใหญ่โดยนักพัฒนาภายนอก
การสอบสวนยังดำเนินอยู่และ OpenAI ไม่ได้ระบุว่าจะดำเนินการทางกฎหมายหรือแนะนำข้อ จำกัด เพิ่มเติมเกี่ยวกับการเข้าถึงแบบจำลอง
ประสิทธิภาพการฝึกอบรมของ Deepseek R1 และผลกระทบของตลาด
Deepseek R1 โดดเด่นในอุตสาหกรรม AI สำหรับความสามารถในการบรรลุประสิทธิภาพการใช้เหตุผลสูงในขณะที่ใช้ทรัพยากรการคำนวณน้อยกว่าแบบจำลองการแข่งขันจาก OpenAI และ Google DeepMind
ซึ่งแตกต่างจากระบบล่าสุดของ OpenAI ซึ่งต้องการกลุ่ม GPU ที่กว้างขวาง Deepseek R1 ได้รับการฝึกฝนใน 2,048 Nvidia H800 GPU ซึ่งเป็นแบบจำลองที่ออกแบบมาเพื่อให้สอดคล้องกับข้อ จำกัด ทางการค้าของสหรัฐอเมริกาในการส่งออกฮาร์ดแวร์ AI ไปยังประเทศจีน ประสิทธิภาพของโมเดลมีส่วนทำให้หุ้นของ Nvidia ลดลงชั่วคราวซึ่งลดลงเกือบ 600 พันล้านเหรียญสหรัฐเนื่องจากนักลงทุนประเมินความต้องการระยะยาวสำหรับชิป AI ระดับสูง
การเกิดขึ้นของ Deepseek R1 ได้กระตุ้นให้มีการหารือเกี่ยวกับ AI AI การพึ่งพาฮาร์ดแวร์สำหรับการฝึกอบรมแบบจำลอง ในขณะที่แบบจำลองเช่น GPT-4 ต้องการโครงสร้างพื้นฐานการคำนวณที่กว้างใหญ่ความสามารถของ Deepseek R1 ในการดำเนินงานการให้เหตุผลที่ซับซ้อนด้วยรอยเท้า GPU ขนาดเล็กแสดงถึงวิธีการทางเลือกในการฝึกอบรม AI >
สหรัฐอเมริกา และหน่วยงานกำกับดูแลของยุโรปกลั่นกรอง Deepseek AI
Deepseek R1 ได้ดึงดูดความสนใจจากหน่วยงานภาครัฐและหน่วยงานกำกับดูแลเนื่องจากความกังวลเกี่ยวกับความปลอดภัยของข้อมูลและการปฏิบัติตามกฎหมายความเป็นส่วนตัวระหว่างประเทศ เช่น 1989 Tiananmen Square ประท้วงและการสังหารหมู่ หรือผู้นำจีน R1 อยู่ระหว่างการตรวจสอบการละเมิดที่อาจเกิดขึ้นจากกฎระเบียบคุ้มครองข้อมูลทั่วไป (GDPR) Garante หน่วยงานคุ้มครองข้อมูลของอิตาลีได้เปิดตัวการสอบสวนว่าการถ่ายโอนข้อมูลผู้ใช้ในยุโรปไปยังประเทศจีนไปยังประเทศจีนโดยไม่มีการป้องกันหรือการเปิดเผยข้อมูลที่เพียงพอหรือไม่
หากการสอบสวนพบว่า Deepseek ล้มเหลวในการปฏิบัติตามข้อกำหนดของ GDPR บริษัท อาจต้องเผชิญกับค่าปรับหรือข้อ จำกัด เกี่ยวกับความสามารถในการดำเนินงานในตลาดยุโรป
การมุ่งเน้นด้านกฎระเบียบที่เพิ่มขึ้น AI สะท้อนให้เห็นถึงความกังวลที่เพิ่มขึ้นเกี่ยวกับความปลอดภัยและความโปร่งใสของโมเดล AI ที่พัฒนาขึ้นนอกสหรัฐอเมริกาและยุโรป
นอกเหนือจากปัญหาด้านความปลอดภัยของข้อมูลและกฎระเบียบเหล่านี้ Deepseek R1 ได้ทำให้เกิดความกังวลเกี่ยวกับการกลั่นกรองเนื้อหาและการเซ็นเซอร์ที่มีศักยภาพ การวิเคราะห์ การวิเคราะห์ที่ดำเนินการโดยผู้ตรวจสอบ พบว่าแบบจำลองดังกล่าวแสดงให้เห็นถึงการกรองอย่างหนักในหัวข้อที่อ่อนไหวทางการเมือง
การศึกษารายงานว่า Deepseek R1 ปฏิเสธที่จะตอบ 85 เปอร์เซ็นต์ของการสอบถามที่เกี่ยวข้องกับจีนโดยเฉพาะอย่างยิ่งผู้ที่เกี่ยวข้องกับการกำกับดูแลสิทธิมนุษยชนและเหตุการณ์ทางประวัติศาสตร์ นอกจากนี้รูปแบบดังกล่าวยังให้การตอบสนองที่ไม่สมบูรณ์หรือทำให้เข้าใจผิดใน 83 เปอร์เซ็นต์ของข่าวที่ได้รับการแจ้งเตือนจากข้อเท็จจริงทำให้เกิดความกังวลว่าการกลั่นกรองสอดคล้องกับข้อ จำกัด ของรัฐบาลจีนในการเข้าถึงข้อมูล
Microsoft ไม่ได้แสดงความคิดเห็นต่อสาธารณชนว่าจะเป็น ใช้มาตรการการกลั่นกรองเนื้อหาเพิ่มเติมสำหรับ Deepseek R1 ก่อนที่จะรวมเข้ากับระบบนิเวศของ AI อย่างเต็มที่ ผลการศึกษาจากการศึกษาของผู้ประกาศข่าวชี้ให้เห็นว่าองค์กรที่ปรับใช้ Deepseek R1 ควรตระหนักถึงข้อ จำกัด ที่อาจเกิดขึ้นในความสามารถของโมเดลในการให้ข้อมูลที่เป็นกลาง
กองทัพเรือสหรัฐฯเพิ่งออกคำสั่งห้ามใช้แบบจำลอง AI Deepseek ในทั้งคู่ การตั้งค่าอย่างเป็นทางการและส่วนบุคคลโดยอ้างถึงความเสี่ยงด้านความปลอดภัยที่เกี่ยวข้องกับนโยบายข้อมูลของจีน การย้ายครั้งนี้เป็นส่วนหนึ่งของความพยายามที่กว้างขึ้นโดยหน่วยงานกลาโหมของสหรัฐอเมริกาเพื่อ จำกัด การใช้ระบบ AI ที่ได้รับการพัฒนาจากต่างประเทศในการดำเนินงานที่ละเอียดอ่อน
ในขณะที่ Microsoft ได้เน้นว่า Deepseek R1 ผ่านการประเมินความปลอดภัยก่อนที่จะถูกเพิ่มเข้าไปใน Azure AI Foundry การตรวจสอบข้อบังคับด้านกฎระเบียบอย่างต่อเนื่องแสดงให้เห็นว่าองค์กรที่ใช้แบบจำลองอาจยังคงเผชิญกับความท้าทายในการปฏิบัติตาม > พอร์ตโฟลิโอโมเดล AI ที่ขยายตัวของ Microsoft และความเสี่ยง
โดยการเพิ่ม Deepseek R1 ไปยัง Azure AI Foundry, Microsoft ได้เพิ่มความหลากหลายให้กับข้อเสนอ AI เพื่อให้ธุรกิจมีตัวเลือกหลายแบบ
บริษัท ได้เน้นถึงความสำคัญของการสนับสนุนโมเดล AI ที่หลากหลายเพื่อให้นักพัฒนาเลือกเทคโนโลยีที่เหมาะสมที่สุดสำหรับความต้องการเฉพาะของพวกเขา อย่างไรก็ตามการรวม Deepseek R1 ในขณะที่การสอบสวน OpenAI กำลังดำเนินอยู่ได้ตั้งคำถามเกี่ยวกับกระบวนการตรวจสอบของ Microsoft สำหรับการเป็นพันธมิตร AI และแนวทางในการจัดการความเสี่ยงด้านความปลอดภัยของข้อมูลที่อาจเกิดขึ้น
ในขณะที่ OpenAI ยังคงตรวจสอบรูปแบบการใช้ API บทบาทในการประเมินความสมบูรณ์ของโมเดล AI ที่โฮสต์บนบริการคลาวด์มีแนวโน้มที่จะต้องเผชิญกับการตรวจสอบที่เพิ่มขึ้น