ADAPT - Scuola di alta formazione sulle relazioni industriali e di lavoro Per iscriverti al Bollettino ADAPT clicca qui Per entrare nella Scuola di ADAPT e nel progetto Fabbrica dei talenti scrivi a: selezione@adapt.it
Bollettino ADAPT 18 febbraio 2019, n. 7
Gli strumenti di Intelligenza Artificiale sono in grado di individuare le preferenze politiche (oppure le propensioni all’acquisto) analizzando poche decine di likes postati su Facebook (o su altri social), con un tasso di esattezza molto elevato. Lo abbiamo imparato in occasione dello scandalo Facebook – Cambridge Analytica.
Di fatto, si tratta di elaborare dati e informazioni relativi a preferenze espresse o comportamenti agiti nel passato, unitamente ad altre informazioni sull’individuo in esame allo scopo di definire in modo predittivo i suoi comportamenti futuri. Stiamo infatti parlando di tecniche che, basandosi su elementi di logica, semantica, ma anche simulando il funzionamento delle reti neurali umane, forniscono risposte a specifici problemi dati. La grande capacità elaborativa di questi sistemi è spesso accompagnata dall’etichetta della oggettività del risultato.
La diffusione di tali sistemi è in atto anche nei processi relativi alla gestione delle risorse umane. Concentreremo quindi la nostra analisi sull’applicazione dei tali sistemi nell’ottica di una trasparente gestione del personale, cercando di evidenziare alcune perplessità e pericoli (cfr. F. Pizzetti “Intelligenza artificiale, quali rischi per la democrazia (e quali regole), agendadigitale.eu).
È innegabile che si stia profilando per le direzioni HR la possibilità di disporre di strumenti che, unitamente alle indiscusse (?) potenzialità dei Big Data, supportati dagli algoritmi dell’intelligenza artificiale, aprono la via a valutazioni sulle risorse umane sino a poco tempo fa impensabili. Tali valutazioni possono oggi estendersi a diversi aspetti della gestione del rapporto di lavoro: comportamenti organizzativi, richieste di formazione, richieste di avanzamento di carriera, analisi di corrispondenza delle caratteristiche professionali e (soprattutto) personali rispetto a una certa posizione in organigramma, matching automatico delle competenze per job applications interne, e così via…
Più in particolare, stando alle più recenti evoluzioni dei software di Intelligenza Artificiale, il moderno direttore HR, utilizzando i dati personali forniti dal lavoratore e ulteriori elementi tratti dalla sua attività lavorativa o sociale (ivi comprese le attività svolte sul web nel tempo libero), sarà in grado di ottenere una precisa profilazione dello stesso, utile per uno svariato numero di decisioni da prendere in relazione al rapporto di lavoro: attitudini collaborative, aspettative di crescita, preferenze relazionali, motivazione sul lavoro, propensione alla “stabilità”, saranno elementi deducibili dalla elaborazione dei big data alimentata dall’Intelligenza artificiale.
Come sappiamo, il miglior gruppo di lavoro non è quello formato dalle persone in assoluto migliori (i c.d. top performers), ma dalle persone che meglio si integrano, si relazionano, si completano e più contribuiscono al raggiungimento del risultato collettivo. E quindi, tracciando il flusso di email, la lunghezza dei messaggi, il loro contenuto (tracciando le opportune parole chiave), sarà possibile capire con chi la persona in esame ha maggiori relazioni e di migliore qualità. E magari scopriremo chi tra questi soggetti ha anche interessi extra lavorativi in comune: il che potrà rafforzare la loro collaborazione in azienda. È innegabile che, composto in tal modo, un gruppo di lavoro dedicato a un progetto specifico avrà maggiori chances di successo.
E così, allo stesso modo, tracciando la lunghezza dei messaggi, la velocità di risposta, la sintassi (anche l’uso di minuscole/maiuscole e segni interpunzione), la frequenza e l’intensità nella partecipazione alle piattaforme collaborative, scopriremo eventuali sacche di demotivazione, di non collaborazione, insomma comportamenti se non ostativi, quanto meno passivi.
Non stiamo parlando di fantascienza. Stiamo parlando di cose tecnicamente possibili. Oggi.
Dobbiamo però decidere quanto di ciò che è tecnicamente fattibile, è anche eticamente (e poi giuridicamente) accettabile nella gestione del rapporto di lavoro, con riferimento, per quanto qui ci riguarda, ai temi della riservatezza (e proprietà) dei dati personali.
Di solito, i sostenitori dell’Intelligenza Artificiale obbiettano che a dispetto della invasività nella acquisizione e utilizzo dei dati personali, l’analisi del comportamento “informatico” (e non solo) del lavoratore potrebbe portare benefici diretti per l’interessato. Ad esempio, si potrebbero acquisire indicazioni su carichi di lavoro anomali, trarre evidenze di stress da lavoro correlato, e così via. Un’ analisi predittiva può mettere in grado l’azienda di intervenire per tempo introducendo dei correttivi per evitare la possibile insorgenza di patologie legate alla prestazione lavorativa. Certamente vero, ma qui va comparato il carattere intrusivo del mezzo con l’ammissibilità del fine. Il quale fine (la tutela della salute) potrà essere forse perseguito anche con mezzi di indagine tradizionale, peraltro già previsti dalla normativa della sorveglianza sanitaria, e quindi più facilmente accettate dal lavoratore.
Va inoltre precisato, a dispetto della indubbia capacità di calcolo e di elaborazione, nonché della validità di molte risposte, che tali sistemi non sono perfetti. E il fatto che non lo siano apre le porte alla soggettività, il che genera, come vedremo, più di una criticità nel loro utilizzo.
Senza velleità di completezza evidenziamo alcuni limiti degli attuali sistemi di Intelligenza Artificiale, da una parte legati alla infrastruttura messa a disposizione, che può limitare la capacità di calcolo, e dall’altra legati alla stessa “logica di ragionamento”, basata su sillogismo ma non su correlazione di diversi eventi (cfr. P. Poccianti “Tutti i paradigmi per capire l’Intelligenza artificiale, non solo deep learning”, agendadigitale.eu). Attualmente gli attuali sistemi evidenziano:
- la necessità di potere disporre di un elevato numero di esempi (e da qui la difficoltà dei programmatori di fornire formalizzazioni esaustive delle conoscenze di base, ma anche l’incapacità di comprendere le associazioni che l’algoritmo effettuerà tra gli esempi dati);
- la difficoltà di gestire l’inferenza (vale a dire la veridicità di un risultato collegato ad un assunto di partenza vero), quando la proposizione dedotta dipenda da fattori molteplici dotati di diversi “pesi”, elemento tipico del processo per abduzione ove la risposta prevede una capacità “inventiva” delle scelte possibili;
- la difficoltà di discernere tra il concetto, automatico, di “causa-effetto” e la semplice “correlazione” non esattamente statistica tra due eventi;
- l’incapacità di generalizzare fuori dal perimetro determinato e quindi l’impossibilità, attraverso un “ragionamento”, di trarre per analogia conclusioni valide per una pluralità di contesti, simili ma non uguali a quelli dati.
Ciononostante, il sistema è chiamato dall’utilizzatore a fornire delle risposte. L’Intelligenza Artificiale fornisce quindi (per ragioni di tempo disponibile o per limitata capacità elaborativa) risposte basate anche su valutazioni probabilistiche, e pertanto intrinsecamente non vere.
E sin qui abbiamo ragionato all’interno del perimetro tecnico, ma non possiamo dimenticare il fatto e il rischio che i parametri degli algoritmi possano avere ereditato alcuni preconcetti del programmatore (o del committente) e quindi essere potenzialmente discriminatori. Ciò getta ulteriore ombra sulla genuinità del risultato finale.
Torneremo in seguito sulla (oscura) logica di funzionamento dell’algoritmo quando parleremo della “accettabilità” e della condivisone di tali sistemi.
Le aree legate alle risorse umane ove attualmente troviamo impiegata l’intelligenza artificiale sono quelle del recruiting, selezione (anche interna), induction (processo di inserimento in azienda), formazione, gestione della carriera. In questi ambiti la capacità e velocità di elaborazione, la capacità di correlare un gran volume di dati rendono obbiettivamente più efficienti i processi operativi sopra citati. Vi sono inoltre casi di applicazione della IA anche nell’ambito della gestione delle politiche retributive. E qui il tema si fa ancor più delicato. Grandi organizzazioni, con l’obbiettivo di strutturare un sistema di compensation equo e per quanto possibile uniforme, utilizzano l’Intelligenza Artificiale per incrociare retribuzioni, posizioni in organigramma, profili professionali, competenze, valutazione delle posizioni. Il sistema genera quindi dei “suggerimenti” di modifica delle retribuzioni. L’esito è certamente soggetto alla valutazione del manager. La valutazione è però fatta su elementi forniti dal sistema.
Il tema dei processi di Valutazione (non solo ai fini retributivi) è però centrale per la gestione delle risorse umane. Ancor di più se si utilizzano processi valutativi automatizzati.
Le regole auree di Management ci dicono che la condizione di ogni sistema di valutazione perché possa essere condiviso o quanto meno accettato dal valutato è la trasparenza. Soprattutto la trasparenza della soggettività, giacché nessun giudizio è completamente oggettivo, ma conoscere il perché di un certo giudizio, sana e talvolta nobilita la soggettività. “L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato (…) che produca effetti giuridici che lo riguardano (…)”. Così il comma 1 dell’art 22 del GDPR. A meno che non vi sia il consenso espresso dell’interessato. E il consenso deve essere informato. Ma informativa e consenso sono condizioni sufficienti per i giuristi: un Direttore HR deve garantire non solo accettazione o consenso.
Deve garantire soprattutto la Condivisione, che è qualcosa di più del semplice consenso, in un regime di correttezza e fiducia nelle relazioni tra azienda e lavoratore.
La condivisione è necessaria perché sugli esiti dati dal sistema di valutazione verranno prese decisioni rilevanti. Il collaboratore prenderà decisioni con riferimento al suo rapporto in azienda e la fiducia nel sistema di valutazione sta alla base del perché deciderà e costruirà il proprio futuro personale in quell’azienda. E dall’altra, l’esito della valutazione sarà la base per l’Azienda per pianificare il proprio futuro con tale collaboratore. Non si tratta, come si vede, di decidere semplicemente se o non concedere un aumento di stipendio o avviare o meno una persona ad un percorso di formazione e sviluppo.
Ma la condivisione non si ottiene scatola chiusa.
Così, se applico l’lntelligenza Artificiale per capire se la struttura retributiva della mia azienda è equa e priva di squilibri rispetto alle competenze delle persone e alle posizioni ricoperte, dovremo essere in grado di capire e spiegare perché l’algoritmo abbia suggerito un incremento per Tizio e non per Caio. Altrimenti la condivisione non è garantita.
Ma riprendiamo il tema dell’indagine della motivazione del lavoratore. Uno dei risultati che potremmo ottenere è, come si accennava, la possibilità di individuare le “sacche di demotivazione” a cui i direttori HR sono spesso chiamati a rimediare. Questo peraltro è uno dei benefici della tecnica che più spesso vengono presentati, se non altro come compensazione dell’investimento.
Talché, la Motivazione (o il coinvolgimento, l’engagement …), assurge a causa di indagine invasiva, così da divenire una sorta di elemento fondamentale del rapporto di lavoro, al punto da assumere la dignità di oggetto o magari causa del contratto di lavoro stesso. Quindi suscettibile di essere verificata da una delle parti contrattuali. Come se, la sussistenza di tale elemento possa influenzare la conservazione delle condizioni del contratto di lavoro.
Il lavoratore non sarebbe più chiamato a mettere a disposizione il proprio tempo in cambio di una controprestazione in denaro, non sarebbe più legato anche al risultato (secondo l’interpretazione più moderna del contratto di lavoro), ma sarebbe chiamato anche a partecipare motivato alla vita aziendale. Sarebbe quindi obbligato anche al come operare in azienda.
D’altra parte la motivazione, come è naturale che sia, è uno degli usuali elementi di valutazione del personale, elemento su cui si basano le decisioni di assunzione, promozione, assegnazione di nuovi compiti, ecc. Il modo e l’elemento psicologico che accompagna la prestazione divengono elemento di valutazione dell’attività stessa.
E in ragione di ciò, l’azienda interviene organizzativamente intorno ai compiti del lavoratore.
Ma ammettiamo pure che l’esito dell’algoritmo sia corretto: il lavoratore in esame è effettivamente demotivato. L’analisi è comunque ingannevole, nonché superficiale. Per diverse ragioni.
Ingannevole perché chi ha sufficiente esperienza nella gestione del personale sa benissimo che persone demotivate possono garantire anche una prestazione sufficiente (seppur non eccellente), solo perché dotati di un certo grado di senso di responsabilità che faccia premio sulla demotivazione.
L’assioma demotivazione = prestazione insufficiente, non vale in assoluto. Per fortuna gli umani sono molto più complessi e le dinamiche emotive e comportamentali che hanno impatto sulla qualità della prestazione non sono mai del tutto intellegibili. Ma se l’assioma non vale, non può giustificare l’indagine.
Superficiale, perché non esiste un lavoratore demotivato tout court. E cos’è poi la Motivazione? Le dimensioni della motivazione attengono al set di priorità che l’individuo definisce in relazione al suo lavoro. Volontà di crescita, realizzazione personale (credito verso l’esterno), di sicurezza, di incremento economico, di socialità, sono alcune delle leve motivazionali. Non sono le uniche e non sono sempre le stesse, perché cambiano in ragione della particolare contingenza dell’individuo, che vive, più o meno inconsapevolmente, una contiua negoziazione con il datore di lavoro sulle condizioni dello stare e del fare in azienda. Il tema della motivazione merita un’analisi ben più complessa di un semplice algoritmo che incrocia le transazioni in Internet dell’individuo … Farebbe un cattivo lavoro il quel responsabile del personale che divida in “buoni e cattivi” solo in base ai riscontri dell’Intelligenza Artificiale.
Si ritorna quindi al problema della condivisione di tali sistemi. Che deve essere diffusa, quale condizione per la loro operabilità. Se assumiamo che i sistemi di Intelligenza Artificiale siano oggettivi, tale oggettività non risiede in sé nel sistema, ma deve trovare riscontro nella valutazione soggettiva del lavoratore, la quale ne permette l’applicazione e l’inserimento nella politica (e filosofia) di gestione delle risorse umane.
L’elemento soggettivo umano diviene condizione per l’applicazione del sistema oggettivo.
Tuttavia non siamo ancora usciti dall’impasse: se i criteri di (quasi) libera associazione dell’algoritmo sono oscuri anche agli stessi programmatori, come faccio a vendere Trasparenza e Oggettività in cambio di Condivisione?
Prima di lanciarci forse è meglio controllare se abbiamo il paracadute.
Marco Crippa
Data Protection Officer
HR Consultant