Microsoft está introduciendo nuevos puntos de referencia de adopción de Copilot en su plataforma Viva Insights, una medida que permite a los gerentes monitorear y comparar cómo los equipos usan el asistente de inteligencia artificial insignia de la compañía.

La función permite a las organizaciones rastrear el uso dentro de sus propios departamentos y compararlos con datos anónimos de compañías similares.

Si bien Microsoft afirma que el objetivo es mejorar el compromiso, la herramienta evoca recuerdos de su controvertido”Puntuación de productividad”. Esa característica fue fuertemente criticada en 2020 como herramienta de vigilancia en el lugar de trabajo antes de ser modificada para proteger la privacidad de los empleados. Los nuevos puntos de referencia se encuentran ahora en versión preliminar privada y se espera su lanzamiento completo a finales de este mes.

Medición de la adopción de IA con nuevos puntos de referencia

La nueva característica, oficialmente llamada Benchmarks, está integrado directamente en el panel de Microsoft Copilot dentro de Viva Insights. Viva Insights es la plataforma de análisis de la empresa diseñada para”absorber datos de las actividades de los empleados”, como lo expresa un informe, ayudando a los líderes a identificar patrones de colaboración, eficiencia y posible agotamiento en toda la fuerza laboral.

Dado que las licencias Copilot representan una importante inversión continua para las empresas, estos puntos de referencia brindan una forma tangible para que los gerentes midan el compromiso y justifiquen el gasto. El sistema permite dos modos principales de comparación: análisis interno y externo.

Internamente, los gerentes pueden comparar diferentes”cohortes”dentro de su organización en función de atributos como función laboral, región geográfica o tipo de gerente.

El panel muestra métricas clave como el porcentaje de usuarios activos de Copilot, las tasas de adopción dentro de aplicaciones específicas de Microsoft 365 y el porcentaje de usuarios que regresan. Una tasa baja de usuarios que regresan, por ejemplo, podría indicar que los empleados están experimentando con la IA pero no encuentran un valor sostenido en sus flujos de trabajo diarios.

La función de evaluación comparativa externa introduce una dinámica competitiva, lo que permite a una empresa medir sus tasas de adopción frente a pares anónimos de la industria.

Las organizaciones pueden ver cómo su porcentaje de usuarios activos se compara con el”10% y 25% principales”de empresas similares o frente a un promedio general de todos los clientes. Esto podría presionar a los equipos a aumentar su uso para cumplir o superar las normas de la industria.

Para brindar claridad, Microsoft ofrece una definición específica de lo que rastrea. Un”usuario activo de Copilot”es alguien que ha”realizado una acción intencional para una capacidad impulsada por IA”en una amplia gama de productos, incluidos Teams, Outlook, Word, Excel, PowerPoint, OneNote y Loop.

La empresa enmarca el propósito de la herramienta de manera positiva, afirmando que”estos conocimientos ayudan a identificar tendencias de adopción y brindan un contexto más amplio y nuevas oportunidades para mejorar la participación de Copilot”.

¿Déjà Vu? Ecos de la controversia sobre el’puntuación de productividad’

Este movimiento no ocurre en el vacío. En 2020, Microsoft enfrentó una importante reacción en materia de privacidad por su”Puntuación de productividad”en Microsoft 365. Los críticos y defensores de la privacidad criticaron la función por permitir el monitoreo individual de los empleados, y algunos la llamaron una herramienta de”vigilancia en el lugar de trabajo”.

La puntuación original podía mostrar a los gerentes, por nombre, quién era menos activo en los canales de Teams o contribuía menos a los documentos compartidos. El investigador austriaco Wolfie Christl tuiteó:”Esto es muy problemático en muchos niveles”, capturando la preocupación generalizada de que la herramienta era un paso hacia una gestión algorítmica invasiva.

En una declaración en ese momento, Microsoft insistió en que”la puntuación de productividad no es una herramienta de seguimiento del trabajo. La puntuación de productividad trata de descubrir nuevas formas de trabajar, proporcionando a su gente una gran colaboración y experiencias tecnológicas”. Sin embargo, la protesta pública fue lo suficientemente sustancial como para forzar un cambio.

Apenas una semana después de la controversia inicial, el CVP de Microsoft 365, Jared Spataro, anunció cambios importantes en la herramienta.

Declaró:”Hemos escuchado los comentarios y hoy respondemos realizando cambios en el producto para reforzar aún más la privacidad de los clientes”, confirmando que Microsoft eliminaría los nombres de usuario y se centraría únicamente en los datos agregados. Esta historia ocupa un lugar preponderante en los nuevos puntos de referencia de Copilot.

Protecciones de privacidad y preocupaciones persistentes

Microsoft parece haber aprendido de sus errores pasados, incorporando consideraciones de privacidad en los nuevos puntos de referencia desde el principio. Para comparaciones externas, la compañía dice que utiliza”modelos matemáticos aleatorios”para garantizar que los datos de ninguna empresa puedan ser identificado.

Además, cada grupo de referencia externo está compuesto por al menos 20 empresas diferentes, lo que añade otra capa de anonimización.

Para las comparaciones internas, Microsoft explica cómo calcula los resultados esperados. Según la empresa,”el resultado de la cohorte analiza la composición de roles del grupo seleccionado y construye un resultado esperado promedio ponderado basado en roles coincidentes en todo el inquilino”.

A pesar de estas salvaguardas, la existencia misma de la herramienta plantea preguntas. El principal temor es que los gerentes puedan malinterpretar los datos, equiparando el uso elevado de Copilot con un alto rendimiento. Esto podría llevar a los empleados a”engañar al sistema”realizando acciones superficiales de IA simplemente para mejorar sus métricas.

Este comportamiento socavaría el objetivo de ganancias genuinas de productividad y podría dañar potencialmente la moral. A medida que las organizaciones navegan por la transición a la IA, la línea entre fomentar la adopción y permitir la vigilancia sigue siendo un tema crítico y delicado que Microsoft debe navegar con cuidado.

Categories: IT Info