การวิเคราะห์ทางนิติวิทยาศาสตร์โดย Copyleaks ดูเหมือนจะยืนยันข้อกล่าวหาก่อนหน้านี้เกี่ยวกับห้องปฏิบัติการ AI Deepseek ของจีนที่มีความรู้แยกออกจากโมเดลของ Openai ในขนาดใหญ่

ตามที่นักวิจัยพบว่ารูปแบบการเขียนของ R1 นั้นมีการฝึกซ้อมที่ไม่ได้รับ เทคนิคการเพิ่มความกังวลด้านจริยธรรมและทางกฎหมายเกี่ยวกับการพัฒนาแบบจำลอง AI

copyleaks การศึกษาของพวกเขา Openai.

ตัวแยกประเภทเหล่านี้วิเคราะห์องค์ประกอบโวหารที่ละเอียดอ่อนรวมถึงโครงสร้างประโยคการเลือกคำและรูปแบบการใช้ถ้อยคำ แง่มุมที่สำคัญของวิธีการคือระบบ”เป็นเอกฉันท์คณะลูกขุน”ซึ่งต้องการตัวแยกประเภททั้งสามเพื่อให้ได้ข้อสรุปเดียวกันก่อนที่จะจัดประเภท

ข้อผิดพลาดที่ลดลงนี้และสร้างผลลัพธ์ที่เชื่อถือได้สูงบรรลุอัตราความแม่นยำ 99.88% 74.2% ของข้อความของ Deepseek แบ่งปันลายนิ้วมือโวหารกับโมเดลของ OpenAI ระดับความคล้ายคลึงกันที่ไม่พบในระบบ AI อื่น ๆ ที่ผ่านการทดสอบ

Microsoft นักลงทุนที่ใหญ่ที่สุดของ OpenAi ได้รวม Deepseek-R1 เข้ากับ Azure AI Foundry ทำให้นักพัฒนาสามารถเข้าถึงได้ทั่วโลก การเข้าถึง หาก OpenAI กำหนดว่า Deepseek ได้รับการฝึกฝนโดยใช้ข้อมูลโดยไม่ได้รับอนุญาต Microsoft อาจเผชิญกับแรงกดดันในการพิจารณาการสนับสนุนแบบจำลอง

ผลกระทบของตลาด: หุ้นของ Nvidia ลดลง 593 พันล้านเหรียญสหรัฐ

ไม่นานหลังจากการเพิ่มขึ้นของความโดดเด่น Nvidia ได้สูญเสียมูลค่าตลาดไป 593 พันล้านเหรียญสหรัฐในขณะที่นักลงทุนประเมินความต้องการ GPU ที่มีประสิทธิภาพสูง

ความสามารถของ Deepseek ในการสร้างการตอบสนองของ AI Nvidia ยังคงเป็นซัพพลายเออร์ชั้นนำของชิป AI วิธีการของ Deepseek อาจบ่งบอกถึงการเปลี่ยนแปลงวิธีการที่ บริษัท จัดลำดับความสำคัญของประสิทธิภาพต้นทุนมากกว่าพลังการคำนวณแบบดิบซึ่งอาจเปลี่ยนแปลงความคาดหวังของตลาดสำหรับการพัฒนาโมเดล AI

จุดรุ่น GPT-4.5 ที่เพิ่งเปิดตัวของ OpenAI GPT-4.5 ถูกสร้างขึ้นบนกระบวนทัศน์การฝึกอบรมเก่าของการเพิ่มจำนวนข้อมูลการฝึกอบรมอย่างต่อเนื่องและพบว่ามีประสิทธิภาพต่ำกว่ารุ่นอื่น ๆ ซึ่งเน้นวิธีการให้เหตุผลเช่นการผสมผสานส่วนผสมและห่วงโซ่ความคิด

การศึกษาข่าวเมื่อเร็ว ๆ นี้พบว่า Deepseek-R1 ล้มเหลว 83% ของการทดสอบความแม่นยำตามข้อเท็จจริงซึ่งจัดอันดับให้เป็นแบบจำลอง AI ที่เชื่อถือได้น้อยที่สุด ผู้ใช้รายงานอินสแตนซ์ของการตอบสนองที่ไม่ถูกต้องหรือทำให้เข้าใจผิดทำให้เกิดความกังวลเกี่ยวกับความน่าเชื่อถือของโมเดลสำหรับการใช้งานที่สำคัญ

นอกจากนี้การศึกษาพบว่าผลลัพธ์ของ Deepseek มักจะสอดคล้องกับเรื่องเล่าของรัฐบาลจีน อคติที่ชัดเจนของโมเดลเมื่อรวมกับความไม่ถูกต้องตามความเป็นจริงได้นำไปสู่การเก็งกำไรเกี่ยวกับว่ามันได้รับการฝึกฝนกับชุดข้อมูลที่ได้รับการรับรองจากรัฐหรือไม่ทำให้ความน่าเชื่อถือในตลาดต่างประเทศมีความซับซ้อนยิ่งขึ้น

หัวข้อ.

Deepseek ล้าสมัยและง่ายต่อการแหกคุก

ปัญหาอื่น ๆ ของ Deepseek R1 คือฐานความรู้ของมันปรากฏว่าล้าสมัยบ่อยครั้ง สิ่งนี้ทำให้เกิดความกังวลว่าแบบจำลองนั้นได้รับการดูแลอย่างแข็งขันหรือไม่หรือหากข้อมูลการฝึกอบรมถูก จำกัด ด้วยข้อ จำกัด ภายนอก

การประเมินความปลอดภัยได้เปิดเผยช่องโหว่ในการป้องกันของ Deepseek-R1 การศึกษาของ Palo Alto Networks พบว่าการป้องกันของโมเดลล้มเหลวในความพยายามในการแหกคุกทั้งหมดของพวกเขาแสดงให้เห็นว่า Deepseek ขาดการป้องกันที่เพียงพอจากการใช้งานในทางที่ผิด

ในทำนองเดียวกันการวิจัยของ Adversa AI ยืนยันว่า Deepseek นั้นมีความอ่อนไหวต่อการฉีด ซึ่งแตกต่างจาก chatgpt ของ OpenAi ซึ่งได้รับการปรับปรุงความปลอดภัยหลายครั้ง Deepseek ดูเหมือนจะไม่มีการป้องกันการปรับเปลี่ยนเนื้อหาที่เปรียบเทียบได้

สหรัฐอเมริกา ผู้ร่างกฎหมายและหน่วยงานกำกับดูแลของยุโรปกำหนดเป้าหมาย Deepseek

ความกังวลเกี่ยวกับ Deepseek ได้กระตุ้นการตอบสนองจากผู้กำหนดนโยบายทั้งในสหรัฐอเมริกาและยุโรป ในวอชิงตันสมาชิกสภานิติบัญญัติกำลังทบทวนข้อเสนอที่จะห้าม AI Deepseek จากหน่วยงานรัฐบาลกลางโดยอ้างถึงความเสี่ยงด้านความปลอดภัยและความกังวลเกี่ยวกับความสัมพันธ์กับจีน

เจ้าหน้าที่กังวลว่าช่องโหว่ของมันอาจถูกนำไปใช้ประโยชน์จากการดำเนินการที่ไม่เป็นอิสระ การตัดสินใจดังต่อไปนี้ความพยายามที่นำโดยรัฐที่นำไปสู่การควบคุมโมเดล AI ต่างประเทศท่ามกลางความกังวลเกี่ยวกับความเป็นส่วนตัวของข้อมูลและภัยคุกคามความปลอดภัยทางไซเบอร์ที่อาจเกิดขึ้น

ในยุโรปการตรวจสอบได้มุ่งเน้นไปที่การปกป้องข้อมูล หน่วยงานคุ้มครองข้อมูลของอิตาลีได้เปิดตัวการสอบสวนว่า Deepseek ปฏิบัติตาม GDPR หรือไม่ หากโมเดล AI พบว่าเป็นการประมวลผลข้อมูลในรูปแบบที่ละเมิดกฎหมายความเป็นส่วนตัวของสหภาพยุโรปอาจต้องเผชิญกับข้อ จำกัด การปฏิบัติงานที่สำคัญในภูมิภาค

การขยายตัวของ AI ของจีน ข้อกังวล

ในขณะที่สหรัฐอเมริกากระชับการควบคุมการส่งออกบนชิปประสิทธิภาพสูง บริษัท จีนได้รับการสนับสนุนโปรเซสเซอร์ AI ให้มากที่สุดเท่าที่จะทำได้ Deepseek เป็นหนึ่งใน บริษัท ที่มีส่วนร่วมในความต้องการโปรเซสเซอร์ H20 ของ Nvidia ซึ่งเป็นหนึ่งในชิป AI ไม่กี่แห่งที่ยังคงมีอยู่สำหรับการส่งออกไปยังประเทศจีน

ข้อ จำกัด ได้บังคับให้นักพัฒนา AI ชาวจีนปรับตัว การเน้นย้ำของ Deepseek ในการบรรลุประสิทธิภาพสูงด้วยความต้องการการคำนวณที่ลดลงแสดงให้เห็นถึงการเปลี่ยนแปลงกลยุทธ์ในการทำงานภายในข้อ จำกัด เหล่านี้

เผ่าพันธุ์ Deepseek ที่จะปล่อยโมเดล R2 ท่ามกลางการตรวจสอบที่ทวีความรุนแรงมากขึ้น

แม้จะมีความท้าทาย บริษัท เลือกที่จะติดตามการเปิดตัวรุ่น R2 อย่างรวดเร็วขยับตารางการเปิดตัวในความพยายามที่จะรักษาโมเมนตัมในการแข่งขัน AI

การตัดสินใจครั้งนี้ชี้ให้เห็นว่า Deepseek จัดลำดับความสำคัญของตลาด Openai, Google และ Alibaba อย่างไรก็ตามหากโมเดลใหม่ได้รับความทุกข์ทรมานจากจุดอ่อนเช่นเดียวกับ R1 รวมถึงความไม่ถูกต้องและช่องว่างด้านความปลอดภัยมันอาจเผชิญกับการต่อต้านในตลาดตะวันตก

อนาคตของจริยธรรม AI ความปลอดภัยและการควบคุม

เมื่อโมเดล AI มีความซับซ้อนมากขึ้นคำถามเกี่ยวกับวิธีการพัฒนา-และไม่ว่าพวกเขาจะพึ่งพาข้อมูลที่สกัดจากคู่แข่ง-กลายเป็นศูนย์กลางในการอภิปรายเกี่ยวกับการกำกับดูแล AI

หาก Openai สรุปอย่างเป็นทางการ ในชุดข้อมูลการฝึกอบรม AI และผลที่ตามมาทางกฎหมายสำหรับ บริษัท ที่พบว่ามีการใช้ข้อมูลที่สร้างขึ้นโดยไม่ได้รับอนุญาต

ผู้กำกับดูแลมีแนวโน้มที่จะกำหนดมาตรการการปฏิบัติตามกฎระเบียบที่เข้มงวดขึ้นในแบบจำลอง AI ที่ดำเนินงานในตลาดใหญ่ ด้วยการตรวจสอบข้อเท็จจริงจากฝ่ายนิติบัญญัติของสหรัฐอเมริกาและหน่วยงานกำกับดูแลในยุโรปที่เพิ่มขึ้น บริษัท AI อาจเผชิญกับการกำกับดูแลความเป็นส่วนตัวของข้อมูลความปลอดภัยและการควบคุมเนื้อหาในไม่ช้า

Categories: IT Info