Anthropic ได้แชร์รายละเอียดเกี่ยวกับ Clio ซึ่งเป็นเครื่องมือวิเคราะห์ที่ซับซ้อนที่ให้ข้อมูลเชิงลึกเกี่ยวกับวิธีการใช้ผู้ช่วย Claude AI ในการสนทนานับล้านรายการ

ออกแบบมาเพื่อจัดการกับความท้าทายในการทำความเข้าใจปฏิสัมพันธ์ของ AI ในขณะที่ยังคงรักษาความเป็นส่วนตัวของผู้ใช้ Clio มอบข้อมูลเชิงลึกแบบเรียลไทม์ที่แจ้งการปรับปรุงด้านความปลอดภัยและเปิดเผยการใช้งานในทางที่ผิดที่อาจเกิดขึ้น ในขณะที่การใช้ระบบ AI เติบโตขึ้นทั่วโลก เครื่องมืออย่าง Clio ก็แสดงให้เห็นว่าห้องปฏิบัติการ AI พยายามสร้างสมดุลระหว่างการกำกับดูแลด้านจริยธรรมกับนวัตกรรมอย่างไร

กระบวนทัศน์ใหม่สำหรับการทำความเข้าใจปฏิสัมพันธ์ของ AI

ระบบ AI เช่น Claude ได้บูรณาการเข้ากับชีวิตมนุษย์ในด้านต่างๆ อย่างรวดเร็ว โดยดำเนินงานตั้งแต่การพัฒนาซอฟต์แวร์ไปจนถึงการศึกษา อย่างไรก็ตาม การทำความเข้าใจว่าระบบเหล่านี้ถูกนำมาใช้อย่างไรยังคงมีความท้าทายเนื่องจากข้อกังวลด้านความเป็นส่วนตัวและข้อมูลปริมาณมหาศาล

แตกต่างจากวิธีการแบบดั้งเดิมที่อาศัยความเสี่ยงที่ระบุล่วงหน้า Clio ใช้วิธีการวิเคราะห์จากล่างขึ้นบนเพื่อค้นหารูปแบบและแนวโน้มที่ซ่อนอยู่ในการใช้งาน AI เครื่องมือนี้แสดงถึงการเปลี่ยนแปลงวิธีที่บริษัทต่างๆ ประเมินผลกระทบของระบบ AI ของตน โดยเปลี่ยนจากการวิเคราะห์ด้วยตนเองไปเป็นเฟรมเวิร์กการรักษาความเป็นส่วนตัวที่ปรับขนาดได้

Clio ใช้การประมวลผลภาษาธรรมชาติ (NLP) และเทคนิคการฝังเพื่อดึงคุณลักษณะ— เรียกว่าแง่มุม—จากการสนทนา รวมถึงหัวข้อ ภาษา และประเภทการโต้ตอบ

รูปภาพ: มานุษยวิทยา

แง่มุมเหล่านี้จัดกลุ่มตามความหมาย โดยมีการสนทนาที่คล้ายกันจัดกลุ่มตามความใกล้เคียงเฉพาะเรื่องโดยใช้อัลกอริทึม เช่น k-mean กระบวนการนี้จะสิ้นสุดในกลุ่มที่มีลำดับชั้น ช่วยให้นักวิเคราะห์สามารถนำทางจากหมวดหมู่กว้างๆ ไปยังหัวข้อย่อยที่เฉพาะเจาะจงได้ ผลลัพธ์ที่ได้คือมุมมองระดับสูงว่าผู้ใช้มีส่วนร่วมกับ AI อย่างไรโดยไม่กระทบต่อข้อมูลที่ละเอียดอ่อน

สิ่งที่เกี่ยวข้อง: โปรโตคอลบริบทรูปแบบใหม่ของ Anthropic ปฏิวัติการเชื่อมต่อข้อมูล AI

การปกป้องความเป็นส่วนตัวในทุกขั้นตอน

Anthropic เน้นย้ำว่าความเป็นส่วนตัวเป็นส่วนสำคัญในการออกแบบของ Clio ระบบรวมการป้องกันหลายชั้นเพื่อให้แน่ใจว่าการสนทนาแต่ละรายการจะไม่เปิดเผยตัวตนและไม่สามารถระบุตัวตนได้ตลอดการวิเคราะห์

การป้องกันของ Clio ประกอบด้วยข้อความแจ้งการสรุปที่ละเว้นรายละเอียดส่วนบุคคล เกณฑ์ในการละทิ้งคลัสเตอร์ขนาดเล็กหรือหายาก และการตรวจสอบที่ครอบคลุมเพื่อตรวจสอบความถูกต้องของผลลัพธ์ มาตรการเหล่านี้สอดคล้องกับหลักความเชื่อถือของผู้ใช้และความรับผิดชอบต่อข้อมูลของ Anthropic

“การปกป้องความเป็นส่วนตัวฝังอยู่ในทุกชั้นของการออกแบบของ Clio” Alex Tamkin ผู้เขียนรายงานการวิจัยของ Clio กล่าวกับ Platformer “ระบบช่วยให้เราแสดงข้อมูลเชิงลึกโดยไม่กระทบต่อแต่ละบุคคล หรือการรักษาความลับขององค์กร”

แนวทางที่เข้มงวดนี้ได้รับการตรวจสอบในระหว่างการทดสอบ โดย Clio มีอัตราความแม่นยำ 94% ในการสร้างรูปแบบขึ้นใหม่ ขณะเดียวกันก็รักษาการปฏิบัติตามนโยบายความเป็นส่วนตัว ความสามารถของเครื่องมือในการบรรลุข้อมูลเชิงลึกที่นำไปใช้ได้จริงโดยไม่ต้องเปิดเผยข้อมูลที่ละเอียดอ่อนแสดงให้เห็นว่าระบบ AI สามารถควบคุมได้อย่างมีจริยธรรมอย่างไร

ที่เกี่ยวข้อง: Amazon มอบเงิน 4 พันล้านดอลลาร์เพื่อมนุษยชาติเพื่อเป็นศูนย์กลางการฝึกอบรม AI ของ Claude

ข้อมูลเชิงลึกที่สำคัญเกี่ยวกับกรณีการใช้งาน AI

การวิเคราะห์บทสนทนาของ Claude มากกว่าหนึ่งล้านรายการของ Clio เผยให้เห็นแนวโน้มสำคัญหลายประการ การเข้ารหัส AI และการพัฒนาซอฟต์แวร์กลายเป็นกรณีการใช้งานชั้นนำ ซึ่งคิดเป็นสัดส่วนมากกว่า 10% ของการโต้ตอบ ผู้ใช้มักขอความช่วยเหลือเกี่ยวกับการดีบัก สำรวจแนวคิด Git และการสร้างแอปพลิเคชัน

การใช้งานด้านการศึกษาเป็นหมวดหมู่ที่โดดเด่นอีกหมวดหมู่หนึ่ง ซึ่งครอบคลุมการสนทนามากกว่า 7% โดยครูและนักเรียนใช้ประโยชน์จาก Claude สำหรับงานการเรียนรู้ การดำเนินธุรกิจ รวมถึงการร่างอีเมลและการวิเคราะห์ข้อมูล คิดเป็นเกือบ 6% ของการโต้ตอบ

แหล่งที่มา: Anthropic

Clio ยังให้ความกระจ่างถึงความแตกต่างทางวัฒนธรรมและบริบทอันเป็นเอกลักษณ์ ตัวอย่างเช่น ผู้ใช้ชาวญี่ปุ่นอภิปรายเรื่องการดูแลผู้สูงอายุอย่างไม่สมสัดส่วน ซึ่งสะท้อนถึงความสนใจทางสังคมโดยเฉพาะ กลุ่มเล็กๆ เน้นการใช้งานที่สร้างสรรค์และคาดไม่ถึง เช่น การตีความความฝัน การเตรียมพร้อมรับมือกับภัยพิบัติ และการสวมบทบาทเป็น Dungeon Masters สำหรับเกมบนโต๊ะ

“ปรากฎว่าหากคุณสร้างเทคโนโลยีสำหรับวัตถุประสงค์ทั่วไปแล้วเผยแพร่ ผู้คนพบจุดประสงค์มากมายสำหรับสิ่งนี้”Deep Ganguli ซึ่งเป็นหัวหน้าทีมสร้างผลกระทบทางสังคมของ Anthropic กล่าว

[เนื้อหาที่ฝังไว้]

การเสริมสร้างความปลอดภัยและความไว้วางใจ

หนึ่งในแอปพลิเคชันที่สำคัญที่สุดของ Clio คือความสามารถในการเพิ่มความปลอดภัยโดยการระบุรูปแบบการใช้งานในทางที่ผิด ในระหว่างการวิเคราะห์ตามปกติ Clio ได้ค้นพบแคมเปญสแปม SEO ที่ประสานงานกัน ซึ่งผู้ใช้จัดการข้อความแจ้งเพื่อสร้างเนื้อหาที่ปรับให้เหมาะสมสำหรับการค้นหา แม้ว่าข้อความค้นหาแต่ละรายการจะดูไม่เป็นอันตรายก็ตาม การรวมกลุ่มของ Clio เผยให้เห็นถึงการใช้ในทางที่ผิดร่วมกัน ทำให้ทีมความไว้วางใจและความปลอดภัยของ Anthropic สามารถเข้ามาแทรกแซงได้

เพื่อเตรียมพร้อมสำหรับนายพลแห่งสหรัฐอเมริกาปี 2024 การเลือกตั้ง Clio ติดตามการโต้ตอบของ AI เพื่อหาความเสี่ยงที่เกี่ยวข้องกับการลงคะแนนเสียงและเนื้อหาทางการเมือง ระบบระบุการใช้งานที่ไม่เป็นอันตราย เช่น การอธิบายกระบวนการเลือกตั้ง ควบคู่ไปกับความพยายามในการใช้ Claude ในทางที่ผิดเพื่อสร้างสื่อระดมทุนสำหรับแคมเปญ

“มันแสดงให้เห็นจริงๆ คุณสามารถตรวจสอบและทำความเข้าใจสิ่งที่เกิดขึ้นได้จากล่างขึ้นบน โดยที่ยังคงรักษาความเป็นส่วนตัวของผู้ใช้ Miles McCain สมาชิกของเจ้าหน้าที่ด้านเทคนิคของ Anthropic กล่าวกับ เห็นสิ่งต่างๆ ก่อนที่จะกลายเป็น “มันช่วยให้คุณเห็นสิ่งต่าง ๆ ก่อนที่จะกลายเป็นปัญหาต่อหน้าสาธารณะ”

ที่เกี่ยวข้อง: หน่วยงานกำกับดูแลของสหราชอาณาจักร เคลียร์ข้อตกลงด้านมานุษยวิทยามูลค่า 2 พันล้านดอลลาร์ของ Alphabet ไม่เห็นอิทธิพลที่สำคัญใด ๆ

การลดข้อผิดพลาดในตัวแยกประเภท AI

Clio ยังได้ปรับปรุงตัวแยกประเภทความปลอดภัยของ Anthropic ด้วยการแก้ไขปัญหาทั่วไป เช่น ผลบวกลวงและผลลบ ก่อนหน้านี้มีบางประเด็น ข้อความค้นหา เช่น ผู้หางานที่อัปโหลดประวัติย่อหรือการโต้ตอบในเกมสวมบทบาท ถูกตั้งค่าสถานะว่าเป็นอันตรายเนื่องจากการตีความเนื้อหาผิด

รูปภาพ: การวิเคราะห์ของ Anthropic

Clio ช่วยปรับเทียบตัวแยกประเภทเหล่านี้ใหม่ ซึ่งช่วยลดการหยุดชะงักที่ไม่จำเป็นสำหรับผู้ใช้ ขณะเดียวกันก็รักษามาตรฐานความปลอดภัยที่แข็งแกร่ง Alex Tamkin ผู้เขียนรายงานและนักวิทยาศาสตร์การวิจัย แสดงความคิดเห็นต่อ Platformer:

“คุณสามารถใช้ Clio เพื่อติดตามอย่างต่อเนื่องในระดับสูงว่าประเภทใด ของสิ่งต่างๆ ที่ผู้คนใช้เทคโนโลยีพื้นฐานใหม่นี้เพื่อ คุณสามารถส่งต่อสิ่งใดก็ตามที่ดูน่าสงสัยหรือน่ากังวลไปยังทีมความไว้วางใจและความปลอดภัย และอัปเดตการป้องกันเหล่านั้นเมื่อเทคโนโลยีเปิดตัว”

ที่เกี่ยวข้อง: Anthropic Urges Immediate Global AI Regulation: 18 เดือนหรือสายเกินไป

ผลกระทบที่กว้างขึ้นสำหรับการกำกับดูแล AI

มานุษยวิทยามองว่า Clio เป็นมากกว่าเครื่องมือด้านความปลอดภัย โดยมองว่าระบบนี้เป็นพิมพ์เขียวสำหรับการกำกับดูแล AI อย่างมีจริยธรรม ด้วยการแบ่งปันรายละเอียดทางเทคนิคอย่างเปิดเผย ซึ่งรวมถึงค่าใช้จ่ายของ Clio ที่ 48.81 ดอลลาร์ต่อการสนทนา 100,000 ครั้ง Anthropic ตั้งเป้าที่จะส่งเสริมการนำการวิเคราะห์ที่รักษาความเป็นส่วนตัวที่คล้ายกันมาใช้ทั่วทั้งอุตสาหกรรม สะท้อนให้เห็นถึงความมุ่งมั่นที่กว้างขึ้น การพัฒนา AI ที่มีความรับผิดชอบและความรับผิดชอบต่อสังคม

“ด้วยการพูดคุยอย่างเปิดเผยกับ Clio เรามุ่งมั่นที่จะมีส่วนสนับสนุนเชิงบวก บรรทัดฐานในการพัฒนาอย่างรับผิดชอบและการใช้เครื่องมือดังกล่าว” Tamkin บอกกับ Platformer Clio ยังนำเสนอข้อมูลเชิงลึกเกี่ยวกับแนวโน้มทางเศรษฐกิจและวัฒนธรรม โดยกำหนดให้เป็นเครื่องมือสำคัญในการทำความเข้าใจผลกระทบทางสังคมของ AI

อนาคตของการวิเคราะห์ AI ที่รักษาความเป็นส่วนตัว

ความสำเร็จของ Clio เน้นย้ำถึงศักยภาพของเครื่องมือตรวจสอบ AI ที่เคารพความเป็นส่วนตัวของผู้ใช้พร้อมทั้งให้ข้อมูลเชิงลึกที่นำไปใช้ได้จริง ในขณะที่ระบบ AI ยังคงบูรณาการเข้ากับชีวิตประจำวัน เครื่องมืออย่าง Clio จะมีบทบาทสำคัญในการรับประกันการใช้งานอย่างปลอดภัยและมีจริยธรรม ด้วยการจัดการกับความซับซ้อนของแอปพลิเคชันในโลกแห่งความเป็นจริงและความเสี่ยงที่เกิดขึ้น Clio ของ Anthropic แสดงให้เห็นถึงก้าวไปข้างหน้าในการทำความเข้าใจ ควบคุม และไว้วางใจ AI

Categories: IT Info