Aware, società di intelligenza artificiale specializzata nell’analisi dei messaggi dei dipendenti, ha dichiarato che aziende come Walmart, Delta, T-Mobile, Chevron e Starbucks utilizzano la sua tecnologia, e che il suo repository di dati contiene messaggi che rappresentano circa 20 miliardi di interazioni individuali tra più di 3 milioni di dipendenti. Al “crimine di pensiero” grida Jutta Williams, co-fondatrice di Humane Intelligence, parlando in generale della tecnologia di sorveglianza dei dipendenti tramite IA: “Questo significa trattare le persone come inventari, in un modo mai visto finora”.

Fonte: CNBC


A seconda di dove lavori, c’è una significativa possibilità che l’intelligenza artificiale analizzi i tuoi messaggi su Slack, Microsoft Teams, Zoom e altre app popolari. Grandi datori di lavoro statunitensi come Walmart, Delta Air Lines, T-Mobile, Chevron e Starbucks, nonché marchi europei tra cui Nestlé e AstraZeneca, si sono rivolti a una startup attiva da sette anni, Aware, per monitorare le chiacchierate tra i loro dipendenti, secondo quanto afferma la stessa società.

Jeff Schumann, co-fondatore e CEO della startup con sede a Columbus, Ohio, afferma che l’intelligenza artificiale aiuta le aziende a “comprendere i rischi partendo dalle comunicazioni interne”, attraverso una lettura del sentiment dei dipendenti in tempo reale, anziché tramite un sondaggio effettuato una o due volte l’anno. Utilizzando i dati anonimizzati nel prodotto di analisi di Aware, dice Schumann, i clienti possono vedere come i dipendenti di una certa fascia d’età o in una particolare area geografica stiano rispondendo a una nuova politica aziendale o a una campagna di marketing. Le dozzine di modelli di intelligenza artificiale di Aware, costruiti per leggere il testo ed elaborare le immagini, possono anche individuare atteggiamenti bullistici, molestie, discriminazioni, non conformità, pornografia, nudità e altro. A detta di Schumann, lo strumento di analisi di Aware, quello che monitora il sentiment e la tossicità dei dipendenti, non può identificare i nomi dei singoli, ma il suo strumento di eDiscovery, separatamente, in caso di minacce estreme o altri comportamenti a rischio predeterminati dal cliente, può farlo.

Aware ha dichiarato che Walmart, T-Mobile, Chevron e Starbucks utilizzano la sua tecnologia per quanto concerne il rischio di governance e la conformità, e questo tipo di lavoro rappresenta circa l’80% del business dell’azienda. CNBC non ha ricevuto una risposta da Walmart, T-Mobile, Chevron, Starbucks o Nestlé in merito al loro uso di Aware. Un rappresentante di AstraZeneca ha affermato che l’azienda utilizza il prodotto eDiscovery, ma che non utilizza l’analisi per monitorare il sentiment o la tossicità. Delta ha dichiarato alla CNBC di utilizzare l’analisi e l’eDiscovery di Aware per monitorare le tendenze e il sentiment come un modo per raccogliere feedback dai dipendenti e da altre parti interessate, nonché per la conservazione dei documenti legali nella propria piattaforma di social media.

Non ci vuole un appassionato di romanzi distopici per capire dove tutto ciò potrebbe portare. Jutta Williams, co-fondatrice dell’organizzazione no-profit Humane Intelligence, ha affermato che l’IA aggiunge una nuova – e potenzialmente problematica – ruga ai cosiddetti programmi di rischio interno, che esistono da anni al fine di valutare ambiti come lo spionaggio aziendale, specialmente all’interno delle comunicazioni e-mail. Parlando in generale dell’intelligenza artificiale per la sorveglianza dei dipendenti, e non in modo specifico della tecnologia di Aware, Williams ha detto alla CNBC: “Molte di queste cose diventano crimini di pensiero”. E ha aggiunto: “Questo significa trattare le persone come un inventario, in un modo che non ho mai visto”.

L’intelligenza artificiale per la sorveglianza dei dipendenti è in rapida espansione, ma è una nicchia nel più ampio mercato esploso nell’ultimo anno, in seguito al lancio del chatbot ChatGPT di OpenAI alla fine del 2022. L’intelligenza artificiale generativa è diventata rapidamente la parola d’ordine per le conferenze sugli utili aziendali, e una qualche forma di tecnologia sta automatizzando le attività in quasi tutti i settori, dai servizi finanziari e dalla ricerca biomedica alla logistica, ai viaggi online e ai servizi pubblici.

Le entrate di Aware sono aumentate in media del 150% all’anno negli ultimi cinque anni, come ha detto Schumann alla CNBC, e il suo cliente-tipo ha in media 30.000 dipendenti. I principali concorrenti sono Qualtrics, Relativity, Proofpoint, Smarsh e Netskope. Per gli standard del settore, Aware rimane ancora piccola. L’ultima volta che la società ha raccolto fondi è stato nel 2021, quando ha incassato 60 milioni di dollari in un round guidato dalla Gestione Risorse di Goldman Sachs (si faccia il confronto con aziende che utilizzano modelli linguistici di grandi dimensioni, o LLM, come OpenAI e Anthropic, le quali hanno raccolto miliardi di dollari ciascuna, in gran parte da partner strategici).

“Monitoraggio della tossicità in tempo reale”

Schumann ha fondato l’azienda nel 2017, dopo aver trascorso quasi otto anni a lavorare nel settore della collaborazione aziendale presso la compagnia assicurativa Nationwide. Prima di allora era un imprenditore. E Aware non è la prima azienda da lui fondata che abbia suscitato pensieri orwelliani. Già nel 2005 Schumann aveva fondato un’azienda chiamata BigBrotherLite.com. Secondo il relativo profilo LinkedIn, l’azienda ha sviluppato un software che “ha migliorato l’esperienza di visione digitale e mobile” della serie reality della CBS “Big Brother” (nel romanzo classico di Orwell “1984”, il Grande Fratello era il leader di uno stato totalitario in cui i cittadini erano sotto sorveglianza perpetua). “Ho costruito un lettore semplice incentrato su un’esperienza di consumo più pulita e facile per le persone che guardavano il programma televisivo sul proprio computer”, ha detto Schumann in una e-mail.

In Aware sta facendo qualcosa di molto diverso. Ogni anno, l’azienda pubblica un rapporto che aggrega le informazioni provenienti dai miliardi (nel 2023 il numero è stato di 6,5 miliardi) di messaggi inviati alle grandi aziende, tabulando i fattori di rischio percepiti e i punteggi relativi al sentiment sul posto di lavoro. Schumann si riferisce ai trilioni di messaggi inviati ogni anno attraverso le piattaforme di comunicazione sul posto di lavoro come al “set di dati non strutturati in più rapida crescita al mondo”. Includendo anche altri tipi di contenuti condivisi, come immagini e video, l’intelligenza artificiale di analisi di Aware arriva ad analizzare più di 100 milioni di contenuti ogni giorno. In tal modo, la tecnologia crea un grafico sociale aziendale, osservando quali team internamente comunicano tra loro più di altri.

“Monitora sempre il sentiment dei dipendenti e la tossicità in tempo reale”, ha detto Schumann a proposito dello strumento di analisi. “Se fossi una banca che utilizza Aware e il sentiment della forza lavoro aumentasse negli ultimi 20 minuti, ciò avverrebbe perché i dipendenti starebbero parlando di qualcosa di positivo, collettivamente. Questa tecnologia sarebbe in grado di dire di cosa si tratta”.

Aware ha confermato alla CNBC che utilizza i dati dei suoi clienti aziendali per addestrare i propri modelli di apprendimento automatico. Il repository di dati dell’azienda contiene circa 6,5 miliardi di messaggi, che rappresentano circa 20 miliardi di interazioni individuali tra più di 3 milioni di dipendenti unici. Quando un nuovo cliente si iscrive allo strumento di analisi, i modelli di intelligenza artificiale di Aware impiegano circa due settimane per addestrarsi sui messaggi dei dipendenti e conoscere i modelli di emozioni e sentimenti all’interno dell’azienda in modo che si possa vedere cosa è normale rispetto a ciò che è anormale, dice Schumann. “Non avrà nomi di persone, per proteggere la privacy”, aggiunge: piuttosto, i clienti vedranno che “forse la forza lavoro di età superiore ai 40 anni in questa parte degli Stati Uniti sta valutando molto negativamente i cambiamenti di politica aziendale a causa dei costi, mentre al di fuori di quella fascia di età e di quella zona, tutti la vedono positivamente, perché su di loro impatta in modo diverso”.

Tuttavia lo strumento di eDiscovery di Aware funziona in modo diverso. Un’azienda può collegare l’accesso basato sui ruoli ai nomi dei dipendenti a seconda della categoria di “rischio estremo” scelte dall’azienda stessa, la quale istruisce la tecnologia di Aware a estrarre il nome di un individuo, in alcuni casi, per le risorse umane o altri rappresentanti dell’azienda. “Alcuni dei casi più comuniriguardano violenza estrema, bullismo estremo o molestie, ma si varia a seconda del settore”, ha detto Schumann (nei servizi finanziari verrebbe monitorato anche il sospetto insider trading, ha aggiunto). Ad esempio, utilizzando la tecnologia di Aware, un cliente può dettagliare una precisa policy per le “minacce violente” o qualunque altra categoria e fare in modo che i modelli di intelligenza artificiale monitorino le violazioni in Slack. Microsoft Teams e Workplace di Meta. Il client potrebbe anche abbinarlo a flag basati su regole per determinate frasi, istruzioni e altro ancora. Se l’IA trovasse qualcosa che viola le politiche specificate di un’azienda, potrebbe fornire il nome del dipendente al rappresentante designato dal cliente. Questa pratica è stata utilizzata per anni all’interno delle comunicazioni via e-mail. La novità è l’uso dell’intelligenza artificiale, nonché la sua applicazione a piattaforme di messaggistica sul posto di lavoro, come Slack e Teams.

Amba Kak, direttrice esecutiva dell’AI Now Institute presso la New York University, è preoccupata per l’utilizzo dell’IA al fine di determinare comportamenti considerati rischiosi. “Si ottiene un effetto di raffreddamento su quello che le persone dicono sul posto di lavoro”, ha detto Kak, aggiungendo – sebbene non riferendosi nello specifico alla tecnologia di Aware – che la Federal Trade Commission, il Dipartimento di Giustizia e la Equal Employment Opportunity Commission hanno tutti espresso preoccupazioni sulla questione. “Si tratta tanto di diritti dei lavoratori quanto di privacy”.

Schumann ha affermato che, a prescindere dallo strumento di eDiscovery di Aware – che consente ai team di sicurezza o di indagini sulle risorse umane di utilizzare l’intelligenza artificiale per cercare enormi quantità di dati – una “funzionalità simile, ma di base, esiste già oggi” in Slack, Teams e altre piattaforme. “Una distinzione chiave qui è che Aware e i suoi modelli di intelligenza artificiale non prendono decisioni”, afferma Schumann. “La nostra intelligenza artificiale rende semplicemente più facile setacciare questo nuovo set di dati per identificare potenziali rischi o violazioni delle norme”.

Problemi di privacy

Anche se i dati sono aggregati o resi anonimi, suggerisce la ricerca, il concetto stesso è piuttosto imperfetto. Uno studio di riferimento sulla privacy dei dati, realizzato utilizzando i dati del censimento degli Stati Uniti del 1990, ha mostrato che l’87% degli americani poteva essere identificato solo utilizzando il codice postale, la data di nascita e il sesso. I clienti consapevoli che utilizzano gli strumenti di analisi di Aware hanno la possibilità di aggiungere al monitoraggio dei messaggi metadati come l’età, la posizione, la divisione, il mandato o la funzione lavorativa dei dipendenti. “Ciò che sostengono si basa su un’idea obsoleta e, direi, ormai completamente smentita, cioè che l’anonimizzazione o l’aggregazione sarebbe come una bacchetta magica relativamente alle preoccupazioni per la privacy”, dice Kak. Inoltre, secondo una recente ricerca, il tipo di modello di intelligenza artificiale utilizzato da Aware può essere efficace nel generare inferenze da dati aggregati tramite ipotesi accurate, ad esempio, sugli identificatori personali in base alla lingua, al contesto, ai termini gergali e altro ancora.

“Nessuna azienda è essenzialmente in grado di fornire garanzie generali sulla privacy e la sicurezza degli LLM e di questo tipo di sistemi”, ha affermato Kak. “Non c’è nessuno che possa dirti seriamente che queste sfide sono risolte”. E i possibili ricorsi dei dipendenti? Se un’interazione viene segnalata e un lavoratore viene disciplinato o licenziato, è difficile per lui difendersi se non è a conoscenza di tutti i dati impiegati, dice Williams. “Come affronti il tuo accusatore quando sappiamo che l’accountability dell’IA è ancora immatura?”
Schumann ha risposto affermando: “Nessuno dei nostri modelli di intelligenza artificiale prende decisioni o raccomandazioni in merito alla disciplina dei dipendenti”. “Quando il modello segnala un’interazione”, ha dichiarato, “fornisce un contesto completo su ciò che è accaduto e su quale politica ha violato, fornendo ai team di indagine le informazioni necessarie per valutare i passi successivi in coerenza con le politiche aziendali e la legge”.

Condividi!

Shares

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *