Microsoft introduceert nieuwe Copilot-adoptiebenchmarks voor zijn Viva Insights-platform, een stap waarmee managers kunnen monitoren en vergelijken hoe teams de vlaggenschip-AI-assistent van het bedrijf gebruiken.
Met deze functie kunnen organisaties het gebruik binnen hun eigen afdelingen en aan de hand van geanonimiseerde gegevens van vergelijkbare bedrijven volgen.
Hoewel Microsoft stelt dat het doel is om de betrokkenheid te verbeteren, roept de tool herinneringen op aan zijn eigen platform. controversiële ‘productiviteitsscore’. Die functie werd in 2020 zwaar bekritiseerd als hulpmiddel voor bewaking op de werkplek, voordat het werd gewijzigd om de privacy van werknemers te beschermen. De nieuwe benchmarks bevinden zich nu in een privé preview, en een volledige uitrol wordt later deze maand verwacht.
AI-adoptie meten met nieuwe benchmarks
De nieuwe functie, officieel Benchmarks, is rechtstreeks geïntegreerd in het Microsoft Copilot Dashboard binnen Viva Insights. Viva Insights is het analyseplatform van het bedrijf dat is ontworpen om ‘gegevens uit werknemersactiviteiten op te slurpen’, zoals een rapport het stelt, en leiderschap te helpen patronen in samenwerking, efficiëntie en potentiële burn-out onder het personeel te identificeren.
Omdat Copilot-licenties een aanzienlijke voortdurende investering voor ondernemingen vertegenwoordigen, bieden deze benchmarks managers een tastbare manier om de betrokkenheid te meten en de uitgaven te rechtvaardigen. Het systeem maakt twee primaire vergelijkingsmodi mogelijk: interne en externe analyse.
Intern kunnen managers verschillende’cohorten’binnen hun organisatie vergelijken op basis van kenmerken zoals functie, geografische regio of managertype.
Het dashboard geeft belangrijke statistieken weer, zoals het percentage actieve Copilot-gebruikers, de acceptatiegraad binnen specifieke Microsoft 365-applicaties en het percentage terugkerende gebruikers. Een laag aantal terugkerende gebruikers zou er bijvoorbeeld op kunnen wijzen dat werknemers met de AI experimenteren, maar geen duurzame waarde vinden in hun dagelijkse workflows.
De externe benchmarkfunctie introduceert een concurrentiedynamiek, waardoor een bedrijf zijn adoptiepercentages kan meten ten opzichte van geanonimiseerde branchegenoten.
Organisaties kunnen zien hoe hun percentage actieve gebruikers zich verhoudt tot de “Top 10% en Top 25%” van vergelijkbare bedrijven of ten opzichte van een algemeen gemiddelde van alle klanten. Dit zou teams onder druk kunnen zetten om hun gebruik te verhogen om aan de industrienormen te voldoen of deze te overtreffen.
Om duidelijkheid te verschaffen, biedt Microsoft een specifieke definitie van wat het bijhoudt. Een “actieve Copilot-gebruiker” is iemand die “een opzettelijke actie heeft uitgevoerd voor een door AI aangedreven mogelijkheid” voor een breed scala aan producten, waaronder Teams, Outlook, Word, Excel, PowerPoint, OneNote en Loop.
Het bedrijf omschrijft het doel van de tool positief en stelt dat “deze inzichten helpen adoptietrends te identificeren en een bredere context en nieuwe mogelijkheden bieden om de betrokkenheid van Copilot te verbeteren.”
Déjà Vu? Echo’s van de controverse over de’productiviteitsscore’
Deze stap vindt niet in een vacuüm plaats. In 2020 kreeg Microsoft te maken met aanzienlijke privacyreacties vanwege de’Productiviteitsscore’in Microsoft 365. Critici en voorstanders van privacy hadden kritiek op de functie voor het mogelijk maken van individuele werknemersmonitoring, en sommigen noemden het een’werkplektoezicht’-tool.
De oorspronkelijke Score zou bij naam managers kunnen laten zien die minder actief waren in Teams-kanalen of minder bijdroegen aan gedeelde documenten. De Oostenrijkse onderzoeker Wolfie Christl tweette op beroemde wijze: “Dit is op veel niveaus zo problematisch”, waarmee hij de wijdverbreide bezorgdheid vastlegde dat de tool een stap was in de richting van invasief algoritmisch beheer.
In een verklaring destijds benadrukte Microsoft dat de “productiviteitsscore geen werkmonitoringtool is. De productiviteitsscore gaat over het ontdekken van nieuwe manieren van werken, waardoor uw mensen geweldige samenwerkings-en technologie-ervaringen krijgen.”De publieke verontwaardiging was echter substantieel genoeg om een verandering af te dwingen.
Slechts een week na de aanvankelijke controverse kondigde Microsoft 365 CVP Jared Spataro grote wijzigingen in de tool aan.
Hij verklaarde:”We hebben de feedback gehoord en vandaag reageren we door wijzigingen aan te brengen in het product om de privacy voor klanten verder te versterken”, waarmee hij bevestigde dat Microsoft gebruikersnamen zou verwijderen en zich uitsluitend op geaggregeerde gegevens zou richten. Deze geschiedenis doemt op boven de nieuwe Copilot-benchmarks.
Privacybescherming en aanhoudende zorgen
Microsoft lijkt te hebben geleerd van zijn fouten uit het verleden en heeft vanaf het begin privacyoverwegingen in de nieuwe benchmarks ingebouwd. Voor externe vergelijkingen zegt het bedrijf dat het”gerandomiseerde wiskundige modellen”gebruikt om ervoor te zorgen dat de gegevens van geen enkel bedrijf kunnen worden geïdentificeerd.
Bovendien bestaat elke externe benchmarkgroep uit ten minste twintig verschillende bedrijven, wat een extra anonimiseringslaag toevoegt.
Voor interne vergelijkingen legt Microsoft uit hoe het de verwachte resultaten berekent. Volgens het bedrijf “kijkt het cohortresultaat naar de rolsamenstelling van de geselecteerde groep, en construeert het een gewogen gemiddeld verwacht resultaat op basis van het matchen van rollen binnen de huurder.”
Ondanks deze waarborgen roept het bestaan van de tool vragen op. De voornaamste angst is dat managers de gegevens verkeerd kunnen interpreteren, waardoor een hoog Copilot-gebruik gelijk wordt gesteld aan hoge prestaties. Dit zou ertoe kunnen leiden dat werknemers ‘het systeem bespelen’ door oppervlakkige AI-acties uit te voeren, simpelweg om hun statistieken te verbeteren.
Dit gedrag zou het doel van echte productiviteitswinst ondermijnen en mogelijk het moreel schaden. Terwijl organisaties door de AI-transitie navigeren, blijft de grens tussen het aanmoedigen van adoptie en het mogelijk maken van toezicht een kritieke en gevoelige kwestie waar Microsoft zorgvuldig mee moet omgaan.