Microsoft introduit de nouveaux tests d’adoption de Copilot sur sa plate-forme Viva Insights, une initiative qui permet aux managers de surveiller et de comparer la manière dont les équipes utilisent l’assistant IA phare de l’entreprise.
La fonctionnalité permet aux organisations de suivre l’utilisation au sein de leurs propres services et par rapport aux données anonymisées d’entreprises similaires.
Bien que Microsoft affirme que l’objectif est d’améliorer l’engagement, l’outil évoque des souvenirs de son « Score de productivité » controversé. Cette fonctionnalité a été fortement critiquée en 2020 en tant qu’outil de surveillance du lieu de travail avant d’être modifiée pour protéger la vie privée des employés. Les nouveaux benchmarks sont désormais en préversion privée, avec un déploiement complet attendu plus tard ce mois-ci.
Mesurer l’adoption de l’IA avec de nouveaux benchmarks
La nouvelle fonctionnalité, officiellement appelée Benchmarks, est intégré directement dans le tableau de bord Microsoft Copilot au sein de Viva Insights. Viva Insights est la plateforme d’analyse de l’entreprise conçue pour « extraire les données des activités des employés », comme le dit un rapport, aidant ainsi les dirigeants à identifier les modèles de collaboration, d’efficacité et d’épuisement potentiel au sein du personnel.
Les licences Copilot représentant un investissement continu important pour les entreprises, ces références fournissent aux managers un moyen tangible de mesurer l’engagement et de justifier les dépenses. Le système permet deux principaux modes de comparaison : analyse interne et externe.
En interne, les responsables peuvent comparer différentes « cohortes » au sein de leur organisation en fonction d’attributs tels que la fonction professionnelle, la région géographique ou le type de responsable.
Le tableau de bord présente des indicateurs clés tels que le pourcentage d’utilisateurs Copilot actifs, les taux d’adoption dans des applications Microsoft 365 spécifiques et le pourcentage d’utilisateurs récurrents. Un faible taux d’utilisateurs récurrents, par exemple, pourrait indiquer que les employés expérimentent l’IA mais ne trouvent pas de valeur durable dans leurs flux de travail quotidiens.
La fonctionnalité d’analyse comparative externe introduit une dynamique concurrentielle, permettant à une entreprise de mesurer ses taux d’adoption par rapport à ses pairs anonymes du secteur.
Les organisations peuvent voir comment leur pourcentage d’utilisateurs actifs se compare aux « 10 % supérieurs et aux meilleurs 25%”d’entreprises similaires ou contre une moyenne globale de tous les clients. Cela pourrait pousser les équipes à augmenter leur utilisation pour atteindre ou dépasser les normes de l’industrie.
Pour plus de clarté, Microsoft propose une définition spécifique de ce qu’il suit. Un « utilisateur actif de Copilot » est une personne qui a « effectué une action intentionnelle pour une fonctionnalité basée sur l’IA » sur une large gamme de produits, notamment Teams, Outlook, Word, Excel, PowerPoint, OneNote et Loop.
L’entreprise présente l’objectif de l’outil de manière positive, déclarant que « ces informations aident à identifier les tendances d’adoption et fournissent un contexte plus large et de nouvelles opportunités pour améliorer l’engagement de Copilot. »
Déjà Vu ? Échos de la controverse sur le « score de productivité »
Cette décision ne se produit pas en vase clos. En 2020, Microsoft a été confronté à une réaction importante en matière de confidentialité à propos de son « score de productivité » dans Microsoft 365. Les critiques et les défenseurs de la vie privée ont critiqué la fonctionnalité pour permettre la surveillance individuelle des employés, certains la qualifiant d’outil de « surveillance du lieu de travail ».
Le score original pouvait montrer, par leur nom, les managers qui étaient moins actifs dans les canaux Teams ou qui contribuaient moins aux documents partagés. Le chercheur autrichien Wolfie Christl a tweeté: « C’est tellement problématique à plusieurs niveaux », capturant l’inquiétude largement répandue selon laquelle l’outil constituait une étape vers une gestion algorithmique invasive.
Dans une déclaration de l’époque, Microsoft insistait sur le fait que « le score de productivité n’est pas un outil de surveillance du travail. Le score de productivité consiste à découvrir de nouvelles façons de travailler, en offrant à vos collaborateurs une excellente collaboration et des expériences technologiques. » Cependant, le tollé général a été suffisamment important pour forcer un changement.
Une semaine seulement après la controverse initiale, Jared Spataro, CVP de Microsoft 365, a annoncé des changements majeurs à l’outil.
Il a déclaré :”Nous avons entendu les commentaires et aujourd’hui, nous répondons en apportant des modifications au produit pour renforcer davantage la confidentialité des clients”, confirmant que Microsoft supprimerait les noms d’utilisateurs et se concentrerait uniquement sur les données globales. Cet l’histoire pèse lourd sur les nouveaux benchmarks Copilot.
Protections de la vie privée et préoccupations persistantes
Microsoft semble avoir tiré les leçons de ses faux pas passés, en intégrant dès le départ les considérations relatives à la confidentialité dans les nouveaux critères. Pour les comparaisons externes, l’entreprise affirme qu’elle utilise des « modèles mathématiques randomisés » pour garantir qu’aucune donnée d’une seule entreprise ne puisse être identifiés.
De plus, chaque groupe de référence externe est composé d’au moins 20 sociétés différentes, ce qui ajoute une autre couche d’anonymisation.
Pour les comparaisons internes, Microsoft explique comment il calcule les résultats attendus. Selon l’entreprise,”le résultat de la cohorte examine la composition des rôles du groupe sélectionné et construit un résultat attendu moyen pondéré basé sur la correspondance des rôles au sein du locataire.”
Malgré ces garanties, l’existence même de l’outil soulève des questions. La principale crainte est que les managers puissent mal interpréter les données, assimilant une utilisation élevée de Copilot à des performances élevées. Cela pourrait amener les employés à « jouer avec le système » en effectuant des actions superficielles d’IA simplement pour améliorer leurs indicateurs.
Ce comportement nuirait à l’objectif de véritables gains de productivité et pourrait potentiellement nuire au moral. Alors que les organisations naviguent dans la transition vers l’IA, la frontière entre encourager l’adoption et permettre la surveillance reste une question critique et sensible que Microsoft doit gérer avec prudence.