Microsoft sta introducendo nuovi benchmark di adozione di Copilot nella sua piattaforma Viva Insights, una mossa che consente ai manager di monitorare e confrontare il modo in cui i team utilizzano l’assistente AI di punta dell’azienda.

La funzionalità consente alle organizzazioni di monitorare l’utilizzo all’interno dei propri dipartimenti e confrontandolo con dati anonimi di aziende simili.

Mentre Microsoft afferma che l’obiettivo è migliorare il coinvolgimento, lo strumento evoca ricordi della sua controverso”punteggio di produttività”. Questa funzionalità è stata pesantemente criticata nel 2020 come strumento di sorveglianza sul posto di lavoro prima di essere modificata per proteggere la privacy dei dipendenti. I nuovi benchmark sono ora in anteprima privata, con un lancio completo previsto entro la fine del mese.

Misurare l’adozione dell’intelligenza artificiale con nuovi benchmark

La nuova funzionalità, ufficialmente chiamata Benchmarks, è integrato direttamente nella dashboard di Microsoft Copilot all’interno di Viva Insights. Viva Insights è la piattaforma di analisi dell’azienda progettata per”assorbire dati dalle attività dei dipendenti”, come afferma un rapporto, aiutando la leadership a identificare modelli di collaborazione, efficienza e potenziale esaurimento all’interno della forza lavoro.

Poiché le licenze Copilot rappresentano un significativo investimento continuo per le aziende, questi parametri di riferimento forniscono ai manager un modo tangibile per misurare il coinvolgimento e giustificare la spesa. Il sistema consente due modalità principali di confronto: analisi interna ed esterna.

Internamente, i manager possono confrontare diverse”coorti”all’interno della propria organizzazione in base ad attributi come funzione lavorativa, regione geografica o tipo di manager.

Il dashboard mostra metriche chiave come la percentuale di utenti Copilot attivi, i tassi di adozione all’interno di specifiche applicazioni Microsoft 365 e la percentuale di utenti di ritorno. Un basso tasso di utenti di ritorno, ad esempio, potrebbe segnalare che i dipendenti stanno sperimentando l’intelligenza artificiale ma non trovano un valore duraturo nei loro flussi di lavoro quotidiani.

La funzionalità di benchmarking esterno introduce una dinamica competitiva, consentendo a un’azienda di misurare i propri tassi di adozione rispetto a colleghi del settore resi anonimi.

Le organizzazioni possono vedere come la loro percentuale di utenti attivi si posiziona rispetto al”Top 10%”e ai”Top 10%”25%”di aziende simili o contro una media complessiva di tutti i clienti. Ciò potrebbe spingere i team ad aumentare il loro utilizzo per soddisfare o superare gli standard del settore.

Per maggiore chiarezza, Microsoft offre una definizione specifica di ciò che tiene traccia. Un”utente Copilot attivo”è qualcuno che ha”eseguito un’azione intenzionale per una funzionalità basata sull’intelligenza artificiale”in un’ampia gamma di prodotti, tra cui Teams, Outlook, Word, Excel, PowerPoint, OneNote e Loop.

L’azienda inquadra positivamente lo scopo dello strumento, affermando che”queste informazioni aiutano a identificare le tendenze di adozione e forniscono un contesto più ampio e nuove opportunità per migliorare il coinvolgimento di Copilot.”

Déjà Vu? Echi della controversia sul “punteggio di produttività”

Questa mossa non avviene nel vuoto. Nel 2020, Microsoft ha dovuto affrontare un significativo contraccolpo sulla privacy rispetto al suo”punteggio di produttività”in Microsoft 365. I critici e i difensori della privacy hanno criticato la funzionalità per consentire il monitoraggio dei singoli dipendenti, con alcuni definendola uno strumento di”sorveglianza del posto di lavoro”.

Il punteggio originale poteva mostrare ai manager, per nome, chi era meno attivo nei canali di Teams o contribuiva meno ai documenti condivisi. Il ricercatore austriaco Wolfie Christl ha twittato,”questo è così problematico a molti livelli”, catturando la diffusa preoccupazione che lo strumento fosse un passo verso una gestione algoritmica invasiva.

In una dichiarazione dell’epoca, Microsoft ha insistito sul fatto che”il punteggio di produttività non è uno strumento di monitoraggio del lavoro. Il punteggio di produttività riguarda la scoperta di nuovi modi di lavorare, offrendo ai tuoi dipendenti ottime esperienze di collaborazione ed esperienze tecnologiche”. Tuttavia, la protesta pubblica è stata sufficientemente consistente da imporre un cambiamento.

Solo una settimana dopo la controversia iniziale, il CVP di Microsoft 365 Jared Spataro ha annunciato importanti modifiche allo strumento.

Ha dichiarato:”Abbiamo ascoltato il feedback e oggi stiamo rispondendo apportando modifiche al prodotto per rafforzare ulteriormente la privacy dei clienti”, confermando che Microsoft rimuoverà i nomi utente e si concentrerà esclusivamente sui dati aggregati. Questa storia incombe sui nuovi benchmark Copilot.

Tutela della privacy e preoccupazioni persistenti

Microsoft sembra aver imparato dai passi falsi del passato, inserendo fin dall’inizio considerazioni sulla privacy nei nuovi parametri di riferimento. Per i confronti esterni, l’azienda afferma che utilizza”modelli matematici casuali”per garantire che i dati di una singola azienda non possano essere identificato.

Inoltre, ogni gruppo di benchmark esterno è composto da almeno 20 aziende diverse, aggiungendo un altro livello di anonimizzazione.

Per i confronti interni, Microsoft spiega come calcola i risultati attesi. Secondo l’azienda,”il risultato della coorte esamina la composizione dei ruoli del gruppo selezionato e costruisce una media ponderata del risultato atteso basato sulla corrispondenza dei ruoli tra gli inquilini.”

Nonostante queste garanzie, l’esistenza stessa dello strumento solleva interrogativi. Il timore principale è che i manager possano interpretare erroneamente i dati, equiparando un utilizzo elevato di Copilot a prestazioni elevate. Ciò potrebbe indurre i dipendenti a”ingannare il sistema”eseguendo azioni superficiali di intelligenza artificiale semplicemente per migliorare i propri parametri.

Questo comportamento minerebbe l’obiettivo di reali guadagni di produttività e potrebbe potenzialmente danneggiare il morale. Mentre le organizzazioni affrontano la transizione all’intelligenza artificiale, il confine tra incoraggiare l’adozione e consentire la sorveglianza rimane una questione critica e delicata che Microsoft deve affrontare con attenzione.

Categories: IT Info