Microsoft กำลังเปิดตัวเกณฑ์มาตรฐานการใช้งาน Copilot ใหม่บนแพลตฟอร์ม Viva Insights ซึ่งเป็นความเคลื่อนไหวที่ช่วยให้ผู้จัดการตรวจสอบและเปรียบเทียบว่าทีมใช้งานผู้ช่วย AI หลักของบริษัทอย่างไร

ฟีเจอร์นี้ช่วยให้องค์กรสามารถติดตามการใช้งานภายในแผนกของตนเอง และเทียบกับข้อมูลที่ไม่เปิดเผยตัวตนจากบริษัทที่คล้ายกัน

ในขณะที่ Microsoft ระบุเป้าหมายคือการปรับปรุงการมีส่วนร่วม แต่เครื่องมือก็กระตุ้นความทรงจำของ”คะแนนประสิทธิภาพการทำงาน”ที่เป็นที่ถกเถียงกัน ฟีเจอร์ดังกล่าวถูกวิพากษ์วิจารณ์อย่างหนักในปี 2020 ว่าเป็นเครื่องมือเฝ้าระวังในที่ทำงาน ก่อนที่จะมีการเปลี่ยนแปลงเพื่อปกป้องความเป็นส่วนตัวของพนักงาน การวัดประสิทธิภาพใหม่อยู่ในการแสดงตัวอย่างแบบส่วนตัวแล้ว โดยคาดว่าจะเปิดตัวเต็มรูปแบบในปลายเดือนนี้

การวัดการนำ AI มาใช้ด้วยเกณฑ์มาตรฐานใหม่

ฟีเจอร์ใหม่ที่มีชื่ออย่างเป็นทางการว่า เกณฑ์มาตรฐานถูกรวมเข้ากับ Microsoft Copilot Dashboard โดยตรงภายใน Viva Insights Viva Insights เป็นแพลตฟอร์มการวิเคราะห์ของบริษัทที่ออกแบบมาเพื่อ”รวบรวมข้อมูลจากกิจกรรมของพนักงาน”ดังที่รายงานฉบับหนึ่งระบุไว้ ช่วยให้ผู้นำระบุรูปแบบในการทำงานร่วมกัน ประสิทธิภาพ และความเหนื่อยหน่ายที่อาจเกิดขึ้นทั่วทั้งบุคลากร

ใบอนุญาต Copilot แสดงถึงการลงทุนอย่างต่อเนื่องที่สำคัญสำหรับองค์กรต่างๆ เกณฑ์มาตรฐานเหล่านี้มอบวิธีที่เป็นรูปธรรมสำหรับผู้จัดการในการวัดการมีส่วนร่วมและปรับค่าใช้จ่าย ระบบอนุญาตให้มีโหมดการเปรียบเทียบหลักสองโหมด: การวิเคราะห์ภายในและภายนอก

ภายใน ผู้จัดการสามารถเปรียบเทียบ “กลุ่มรุ่น”ที่แตกต่างกันภายในองค์กรของตนตามคุณลักษณะ เช่น ฟังก์ชันงาน ภูมิภาคทางภูมิศาสตร์ หรือประเภทผู้จัดการ

แดชบอร์ดจะแสดงตัวชี้วัดที่สำคัญ เช่น เปอร์เซ็นต์ของผู้ใช้ Copilot ที่ใช้งานอยู่ อัตราการยอมรับภายในแอปพลิเคชัน Microsoft 365 ที่เฉพาะเจาะจง และเปอร์เซ็นต์ของผู้ใช้ที่กลับมา ตัวอย่างเช่น อัตราที่ต่ำของผู้ใช้ที่กลับมาอาจส่งสัญญาณว่าพนักงานกำลังทดลองกับ AI แต่ไม่พบคุณค่าที่ยั่งยืนในขั้นตอนการทำงานประจำวันของตน

คุณลักษณะการเปรียบเทียบภายนอกทำให้เกิดไดนามิกทางการแข่งขัน ซึ่งช่วยให้บริษัทสามารถวัดอัตราการนำไปใช้เทียบกับคู่แข่งในอุตสาหกรรมที่ไม่ระบุชื่อได้

องค์กรต่างๆ สามารถดูได้ว่าเปอร์เซ็นต์ของผู้ใช้ที่ใช้งานอยู่เทียบกับ”10% อันดับแรกและอันดับสูงสุด”25%”ของบริษัทที่คล้ายกันหรือเทียบกับค่าเฉลี่ยโดยรวมของลูกค้าทั้งหมด ซึ่งอาจกดดันให้ทีมเพิ่มการใช้งานเพื่อให้เป็นไปตามหรือเกินกว่ามาตรฐานอุตสาหกรรม

เพื่อให้เกิดความชัดเจน Microsoft จึงเสนอคำจำกัดความเฉพาะของสิ่งที่ติดตาม “ผู้ใช้ Copilot ที่กระตือรือร้น” คือผู้ที่ “ดำเนินการโดยเจตนาสำหรับความสามารถที่ขับเคลื่อนด้วย AI” ในผลิตภัณฑ์ที่หลากหลาย รวมถึง Teams, Outlook, Word, Excel, PowerPoint, OneNote และ Loop

บริษัทวางกรอบวัตถุประสงค์ของเครื่องมือในเชิงบวก โดยระบุว่า “ข้อมูลเชิงลึกเหล่านี้ช่วยระบุแนวโน้มการใช้งาน และให้บริบทที่กว้างขึ้นและโอกาสใหม่ๆ ในการปรับปรุงการมีส่วนร่วมของ Copilot”

เดจาวู? เสียงสะท้อนของการโต้เถียงเรื่อง”คะแนนประสิทธิภาพการทำงาน”

การเคลื่อนไหวนี้ไม่ได้เกิดขึ้นในสุญญากาศ ในปี 2020 Microsoft เผชิญกับการฟันเฟืองด้านความเป็นส่วนตัวอย่างมีนัยสำคัญในเรื่อง”คะแนนประสิทธิภาพการทำงาน”ใน Microsoft 365 นักวิจารณ์และผู้สนับสนุนความเป็นส่วนตัวได้ประณามฟีเจอร์นี้สำหรับการเปิดใช้การตรวจสอบติดตามพนักงานแต่ละคน โดยบางคนเรียกมันว่าเครื่องมือ”การเฝ้าระวังในสถานที่ทำงาน”

คะแนนดั้งเดิมสามารถแสดงผู้จัดการตามชื่อได้ว่าใครมีความกระตือรือร้นน้อยกว่าในช่องทาง Teams หรือมีส่วนร่วมในเอกสารที่แชร์น้อยกว่า Wolfie Christl นักวิจัยชาวออสเตรียทวีตอย่างโด่งดังว่า”นี่เป็นปัญหาในหลายระดับ”โดยกล่าวถึงความกังวลอย่างกว้างขวางว่าเครื่องมือดังกล่าวเป็นก้าวหนึ่งไปสู่การจัดการอัลกอริทึมแบบรุกราน

ในแถลงการณ์ในขณะนั้น Microsoft ยืนยันว่า”คะแนนประสิทธิภาพการทำงานไม่ใช่เครื่องมือติดตามการทำงาน คะแนนประสิทธิภาพการทำงานเป็นเรื่องเกี่ยวกับการค้นพบวิธีการทำงานใหม่ๆ โดยมอบประสบการณ์การทำงานร่วมกันและเทคโนโลยีที่ยอดเยี่ยมแก่พนักงานของคุณ”อย่างไรก็ตาม เสียงโวยวายของสาธารณชนมีมากพอที่จะบังคับให้เกิดการเปลี่ยนแปลง

เพียงหนึ่งสัปดาห์หลังจากการโต้เถียงครั้งแรก Jared Spataro ของ Microsoft 365 CVP ได้ประกาศการเปลี่ยนแปลงที่สำคัญกับเครื่องมือ

เขากล่าวว่า”เราได้ยินคำติชมแล้ว และวันนี้เรากำลังตอบสนองด้วยการเปลี่ยนแปลงผลิตภัณฑ์เพื่อเพิ่มความเป็นส่วนตัวให้กับลูกค้า”โดยยืนยันว่า Microsoft จะลบชื่อผู้ใช้และมุ่งเน้นไปที่ข้อมูลที่รวบรวมไว้เพียงอย่างเดียว ประวัตินี้มีความสำคัญมากกว่าเกณฑ์มาตรฐานใหม่ของ Copilot

การคุ้มครองความเป็นส่วนตัวและข้อกังวลที่ยังคงอยู่

ดูเหมือนว่า Microsoft จะได้เรียนรู้จากความผิดพลาดในอดีต โดยคำนึงถึงความเป็นส่วนตัวเป็นเกณฑ์มาตรฐานใหม่ตั้งแต่เริ่มต้น สำหรับการเปรียบเทียบภายนอก บริษัทกล่าวว่า ใช้”แบบจำลองทางคณิตศาสตร์แบบสุ่ม”เพื่อให้แน่ใจว่าจะไม่มีข้อมูลของบริษัทใดเลย ระบุได้

นอกจากนี้ กลุ่มเกณฑ์มาตรฐานภายนอกแต่ละกลุ่มยังประกอบด้วยบริษัทที่แตกต่างกันอย่างน้อย 20 แห่ง โดยเพิ่มการลบข้อมูลระบุตัวตนอีกชั้นหนึ่ง

สำหรับการเปรียบเทียบภายใน Microsoft อธิบายว่าจะคำนวณผลลัพธ์ที่คาดหวังได้อย่างไร จากข้อมูลของบริษัท “ผลลัพธ์ตามรุ่นจะพิจารณาองค์ประกอบบทบาทของกลุ่มที่เลือก และสร้างผลลัพธ์ที่คาดหวังโดยเฉลี่ยแบบถ่วงน้ำหนักโดยพิจารณาจากบทบาทที่ตรงกันของผู้เช่า”

แม้จะมีการป้องกันเหล่านี้ แต่การมีอยู่ของเครื่องมือก็ทำให้เกิดคำถาม ความกลัวหลักคือผู้จัดการอาจตีความข้อมูลผิด ซึ่งเท่ากับการใช้งาน Copilot ในระดับสูงพร้อมกับประสิทธิภาพสูง สิ่งนี้อาจทำให้พนักงาน”ควบคุมระบบ”ด้วยการกระทำของ AI แบบผิวเผินเพียงเพื่อเพิ่มการวัดผล

พฤติกรรมนี้จะบ่อนทำลายเป้าหมายการเพิ่มผลิตภาพที่แท้จริง และอาจส่งผลเสียต่อขวัญกำลังใจ ในขณะที่องค์กรต่างๆ ก้าวไปสู่การเปลี่ยนแปลงของ AI เส้นแบ่งระหว่างการส่งเสริมให้เกิดการใช้งานและการเปิดใช้งานการเฝ้าระวังยังคงเป็นปัญหาที่สำคัญและละเอียดอ่อนที่ Microsoft ต้องดำเนินการอย่างระมัดระวัง

Categories: IT Info