Archives For November 30, 1999

Immagina questo scenario, peraltro molto molto comune: chiedi al tuo assistente AI (il ChatGPT di turno) un feedback su una proposta commerciale; invece di un’analisi critica, loda la tua idea con entusiasmo. Gli chiedi di sfidare le tue assunzioni, e lui gentilmente, e in modo assai ossequioso, concorda con la tua prospettiva offrendo solo suggerimenti minori, sottolineando quanto tu sia bravo e… “geniale!” Richiedi una valutazione onesta di una strategia rischiosa, e lui valida il tuo approccio con parole accuratamente scelte.
Questa non è una limitazione del sistema, un’allucinazione; è una vera e propria caratteristica strutturale dei modelli di linguaggio basati su inferenze statistiche. E questo aspetto, come vedremo in questo articolo, rappresenta – per noi tutti – un serio problema.

La “sycophancy” – così viene chiamata, infatti – è la tendenza dei sistemi AI ad allinearsi con l’utente, evitare il disaccordo, amplificare il consenso e adattarsi alle preferenze espresse anziché fornire un’analisi indipendente; rappresenta uno dei rischi più pervasivi nella collaborazione uomo-AI. A differenza degli errori fattuali o delle allucinazioni, è meno visibile e più sottile. Funziona, almeno in superficie, sembra supportiva; eppure, nel farlo, erode la stessa condizione che rende la collaborazione efficace: l’impegno esplicito, critico e non-compiacente.

La ricerca accademica recente rivela che questo problema è molto più diffuso e consequenziale di quanto molte organizzazioni realizzino. Più importante ancora, ci mostra alcuni percorsi concreti per superarlo.


Comprendere il problema della sycophancy

Il problema inizia con un disallineamento fondamentale nel modo in cui abbiamo progettato i sistemi AI, specialmente i modelli di linguaggio che usiamo quotidianamente. Come notano i ricercatori dell’Università di Tokyo nel loro lavoro su “AI as Extraherics”:

Over-reliance on AI can also lead users to accept information given by AI without performing critical examinations, causing negative consequences, such as misleading users with hallucinated contents.

Ma la sycophancy va più in profondità dell’accettazione passiva. È una distorsione attiva del processo collaborativo, un’erosione profonda della fiducia nella relazione uomo-macchina.

Consideriamo i dati: un sondaggio Gallup citato in una recente ricerca da Harvard Business Review ha rilevato che solo il 26% dei dipendenti che utilizzano AI generativa segnala miglioramenti concreti nella loro creatività, nonostante l’adozione diffusa e l’investimento significativo. Perché un divario così grande tra promessa e realtà? La risposta risiede in parte nella sycophancy. Quando i sistemi AI danno priorità alla soddisfazione dell’utente rispetto al feedback onesto, privano gli utenti della prospettiva critica necessaria per la propria crescita, l’innovazione e un processo decisionale consapevole.

I tre volti della sycophancy

La sycophancy nell’AI si manifesta, nello specifico, in tre modi interconnessi:

  • Agreement Bias: il sistema AI tende ad allinearsi con la posizione dichiarata dall’utente, anche quando le prove suggeriscono il contrario. Al posto di offrire contrargomentazioni, trova modi per validare la prospettiva dell’utente, anche se sbagliata.
  • Excessive Praise: il sistema esagera il feedback positivo e minimizza le osservazioni critiche. Un’idea mediocre diventa “innovativa”, una strategia rischiosa diventa “audace e lungimirante”. Anche quando sono offerte opinioni opposte, la facilità di orientare il comportamento nell’altra direzione è molto facile e veloce.
  • Perspective Adaptation: l’AI apprende le preferenze dell’utente – da tutte le conversazioni svolte – e sottilmente sposta le sue risposte per corrispondervi, creando un effetto camera dell’eco dove i pregiudizi dell’utente vengono riflessi come analisi obiettiva.

Ognuno di questi comportamenti mina quello che dovrebbe essere il valore fondamentale della partnership AI: la complementarità. Come sostengono i ricercatori del MIT, Cambridge e Princeton nel loro framework per “Building Machines that Learn and Think with People”, i partner di pensiero efficaci devono essere sistemi che

Can understand us, which we can understand, and which have sufficient understanding of the world that we can engage on common ground.

La sycophancy distrugge questo terreno comune: sostituisce la partnership genuina con l’accordo performativo.

Il gap della metacognizione

La recente ricerca pubblicata nel Journal of Applied Psychology fornisce un’intuizione cruciale: il problema non è solo con l’AI, ma con il modo in cui gli umani si impegnano con essa, la nostra tendenza a umanizzare e antropomorfizzare il comportamento dello strumento, come fosse una persona.

I ricercatori Jackson G. Lu, Shuhua Sun e colleghi hanno condotto un esperimento sul campo con 250 dipendenti presso una società di consulenza tecnologica:

Employees with stronger metacognition became more creative when they used AI—they generated ideas that were judged as more novel and more useful. But for employees with weaker metacognition, AI made little difference.

Cos’è la metacognizione? È la capacità di pianificare, valutare, monitorare e affinare il tuo pensiero. È la capacità di chiederti: “Questo output dell’AI è effettivamente corretto? Sto accettando questo perché è giusto, o perché è facile? Cosa mi sto perdendo?” È diverso da un semplice giudizio critico, proprio come un regista è diverso da un critico cinematografico.

I dipendenti con forte metacognizione non cadono preda della sycophancy perché interrogano attivamente gli output dell’AI. Trattano il sistema come un partner di pensiero che deve essere interrogato, non come un oracolo da fidarsi. Al contrario, i dipendenti con debole metacognizione sono vulnerabili alla sycophancy. Accettano la prima risposta dell’AI, si affidano agli output predefiniti e non riescono a verificare se i suggerimenti dell’AI sono accurati o rilevanti.

La trappola dell’Over-Reliance

Un team di ricercatori dell’Università di Tokyo ha identificato un meccanismo ancora più critico:

Such reliance on AI for cognitive tasks can lead to deskilling, where individuals lose opportunities for cognitive skill maintenance and development.

Questo crea un ciclo vizioso:

  • Gli utenti si affidano all’AI per le risposte.
  • L’AI fornisce risposte sycophantiche (accordo, lode, adattamento di prospettiva).
  • Le capacità di pensiero critico degli utenti si atrofizzano.
  • Gli utenti diventano ancora più dipendenti dall’AI.
  • La sycophancy si approfondisce e allarga il proprio impatto – causando danni.

I ricercatori notano che questo problema è particolarmente acuto perché:

With generative AI becoming increasingly capable of outperforming humans in many tasks, users may be more likely to trust AI without skepticism.

In altre parole, più l’AI diventa capace di imitare il pensiero umano, più la sycophancy diventa pericolosa, estesa e in grado di portare al rafforzamento di comportamenti alineanti, psicopatologici e false credenze, anche nei decisori più razionali e nelle persone più riflessive e con un approccio maturo nei confronti della tecnologia.

Il framework del thought partner

Allora, come dovrebbe effettivamente apparire una partnership AI?

I ricercatori del MIT, Cambridge e Princeton propongono un framework per i “thought partner“: sistemi AI progettati per collaborare genuinamente con le persone e non semplicemente conformarsi. Identificano – per questo – tre criteri essenziali:

  • Sistemi che ci capiscono: l’AI deve costruire modelli espliciti degli obiettivi, delle credenze e dei limiti dell’umano.
  • Sistemi che possiamo capire: l’AI deve comunicare in modi trasparenti e interpretabili (oversight e explainable AI in questo sono centrali).
  • Sistemi con sufficiente comprensione del mondo: l’AI deve avere una conoscenza genuina del dominio di competenza, non solo la capacità di pattern-matching e di associazioni statistiche.

Criticamente, questo framework rifiuta l’idea che un’AI migliore significhi un’AI più autonoma. Invece, enfatizza la modellazione reciproca, l’AI che comprende l’umano e l’umano che comprende l’AI. Questo è l’antidoto alla sycophancy (o perlomeno uno dei rimedi che abbiamo): la comprensione reciproca crea responsabilità. Quando entrambe le parti comprendono le capacità e i limiti l’una dell’altra, la sycophancy diventa impossibile; l’AI non può semplicemente – infatti – concordare perché l’umano riconoscerà il disaccordo come falso. Gli umani non possono accettare ciecamente perché comprendono quello che l’AI effettivamente sa.

Soluzione 1: Extraheric AI – chiedere invece di rispondere

Il team dell’Università di Tokyo propone un redesign radicale: l’AI extraheric. Il termine viene dal latino “extraho” (estrarre o tirare fuori), e il concetto è elegante: invece di fornire risposte, l’AI dovrebbe porre domande e offrire prospettive alternative, una vera e propria funzione riflessiva per dirla alla Schön.

Come spiegano i ricercatori:

Rather than replacing or augmenting human cognitive abilities, extraheric AI encourages users to engage in higher-order thinking during task completion. For instance, in writing, extraheric AI might prompt users to reflect on specific content or visualize how others have approached similar topics, rather than directly performing revisions or replacement.

Questo è l’opposto della sycophancy. Invece di concordare con l’utente, l’AI extraheric lo sfida. Invece di fornire lode, chiede: “Hai considerato questo angolo? Cosa accadrebbe se lo affrontassi diversamente?” Il meccanismo dei ricercatori è radicato nella teoria del carico cognitivo. Aumentando il carico cognitivo germinale – lo sforzo mentale positivo, necessario, dedicato alla comprensione e alla risoluzione del problema – l’AI extraheric costringe gli utenti a pensare più profondamente. Questo previene l’accettazione passiva che abilita la sycophancy. Le strategie di interazione per l’AI extraheric includono:

  • Questioning: chiedere agli utenti di spiegare il loro ragionamento, anticipare controargomentazioni o considerare prospettive alternative.
  • Suggesting & Recommending: offrire multiple opzioni senza favorirne necessariamente una, forzando l’utente a valutare tutte le opzioni possibili.
  • Debating & Discussing: presentare punti di vista opposti e impegnare l’utente in un dialogo genuino e in una valutazione critica – spiegata – delle diverse ipotesi.
  • Scaffolding: fornire supporto temporaneo che gradualmente si ritira man mano che l’utente diventa più capace (una funzione di scaffolding che aiuti nella definizione di una zona prossimale di sviluppo).

Il principio chiave è che l’AI dovrebbe far pensare l’utente più profondamente, non meno.

Soluzione 2: Metacognitive Development – costruire il pensiero critico

La ricerca di Harvard Business Review indica una soluzione pratica: sviluppare le capacità metacognitive dei dipendenti. I ricercatori hanno scoperto che le organizzazioni possono rafforzare la metacognizione attraverso: (i) sessioni di formazione breve che introducano la metacognizione e guidino i dipendenti attraverso esempi reali di errori dell’AI, chiedendo loro di anticipare, rilevare e correggere quegli errori. (ii) Programmi formativi più lunghi e articolati che si concentrano sull’aiutare i dipendenti a costruire abitudini più profonde di pianificazione, monitoraggio e valutazione del loro pensiero. (iii) Semplici checklist che spostano i dipendenti dalla dipendenza passiva dall’AI all’impegno attivo e strategico. Per esempio:

  • Chiarire il problema prima di chiedere all’AI.
  • Determinare come valutare il suggerimento dell’AI.
  • Esplorare alternative prima di accettare la prima risposta.

Come notano i ricercatori: “Leaders should help employees understand this distinction to facilitate more productive AI engagement.” La distinzione è tra trattare l’AI come un oracolo (incline alla sycophancy) e trattarla come un partner di pensiero (che richiede impegno critico e costante messa in discussione).

Soluzione 3: Thought Partnership Design – costruire la comprensione reciproca

Il framework del MIT/Cambridge/Princeton suggerisce una soluzione architettonica ancora più profonda: progettare sistemi AI che modellino esplicitamente l’umano. Questo significa:

  • Costruire modelli strutturati degli obiettivi, della conoscenza e dei limiti dell’utente (non solo imparare dai dati).
  • Ragionare sull’incertezza nella comprensione dell’umano.
  • Comunicare trasparentemente su quello che l’AI sa e non sa.
  • Adattarsi alle capacità dell’umano senza semplicemente concordare con lui.

“Effective thought partners are those which build models of the human and the world.” Questo è fondamentalmente diverso dai modelli di linguaggio di grandi dimensioni attuali, che imparano i pattern dai dati senza ragionamento esplicito sull’umano con cui interagiscono. Un vero partner di pensiero saprebbe:

  • Cosa l’umano già comprende.
  • Dove il ragionamento dell’umano potrebbe essere difettoso.
  • Quali prospettive l’umano non ha considerato.
  • Come sfidare l’umano in modo produttivo.

Implementazione pratica: dall’intuizione all’azione

La transizione da sistemi AI sicofantici a sistemi sfidanti, che mettono in questione lo status quo, richiede un approccio deliberato e multi-strato. Le organizzazioni devono iniziare controllando il loro uso attuale dell’AI, ponendo domande difficili su se i loro sistemi sono progettati per concordare con gli utenti o sfidarli, se i dipendenti trattano gli output dell’AI come punti di partenza per il pensiero o come risposte finali, e quale percentuale della loro forza lavoro possiede forti capacità metacognitive. Questo controllo rivela la linea di base da cui il cambiamento deve iniziare. Da lì, il lavoro diventa uno di redesign sistematico. Al posto di ottimizzare per la soddisfazione dell’utente, le organizzazioni dovrebbero passare da “l’AI fornisce risposte” a “l’AI pone domande”, implementando flussi di lavoro che richiedano ai dipendenti di valutare e criticare i suggerimenti dell’AI, generando multiple prospettive e confrontandole, e costruendo step di riflessione obbligatori che forzano l’impegno critico. Ugualmente importante è l’investimento nella formazione metacognitiva; questo è dove la ricerca mostra il ROI più alto. Le organizzazioni dovrebbero insegnare ai dipendenti a monitorare attivamente il loro pensiero, fornire esempi concreti di errori dell’AI e addestrare le persone a rilevarli, usare checklist e processi strutturati per promuovere l’impegno critico, e creare una cultura dove il questionamento dell’AI è valorizzato piuttosto che scoraggiato. Infine, quando selezionano sistemi AI, le organizzazioni dovrebbero dare priorità a strumenti che spiegano il loro ragionamento rispetto ai sistemi black-box, scegliere piattaforme che supportano il raffinamento iterativo rispetto alle risposte one-shot, e valutare l’AI in base al fatto che promuova o prevenga il pensiero critico. L’obiettivo non è avere l’AI più capace, ma avere l’AI che fa pensare i dipendenti più profondamente.

Per gli individui, la sfida è più personale, intima, ma ugualmente importante. Inizia con lo sviluppo di abitudini metacognitive; prima di accettare acriticamente un suggerimento dell’AI, è opportuno chiedersi perché lo si sta accettando, monitorare attivamente se si sta comprendendo l’analisi alla base o semplicemente ci si sta fidando di essa, e sfidare regolarmente gli output dell’AI chiedendosi cosa potrebbe essere sbagliato. Questo richiede di trattare l’AI come un “partner” di pensiero e non come un oracolo, il che significa fornire contesto e porre domande di follow-up, richiedere multiple prospettive e confrontarle, spiegare il proprio ragionamento e chiedere all’AI di criticarlo, e impegnarsi nel lavoro difficile di valutazione e sintesi e non nel semplice consumo passivo. Dobbiamo usare l’AI per espandere la nostra conoscenza, non per sostituire il pensiero. Serve sfidare regolarmente noi stessi nel risolvere problemi senza l’assistenza dell’AI, e monitorare se le nostre capacità di pensiero critico stiano migliorando o atrofizzandosi. Dobbiamo creare strutture di responsabilità che forzano l’impegno critico, usando checklist prima di accettare gli output dell’AI, discutere i suggerimenti dell’AI con i colleghi per ottenere prospettive diverse, documentare il nostro ragionamento e confrontarlo con il ragionamento dell’AI, e periodicamente rivedere le decisioni dove si è seguito il consiglio dell’AI per valutare se fossero effettivamente buone decisioni. La disciplina della metacognizione non è una formazione una tantum; è una pratica che deve essere coltivata continuamente, un’abitudine mentale che diventa sempre più importante man mano che l’AI diventa più capace e più seducente.

Design dell’interazione Uomo-Macchina: cosa perdiamo quando l’AI diventa una camera dell’eco

Il problema della sycophancy non riguarda solo il ricevere consigli migliori, riguarda la preservazione dell’agenzia umana (agency) e del pensiero critico in un’era di AI sempre più capace (ricordiamo la riflessione di Ethan Mollick: l’AI che vediamo oggi sarà la peggiore forma di AI che vedremo nella nostra vita). Quando i sistemi AI sono progettati per concordare con noi, perdiamo qualcosa di essenziale: l’attrito che produce crescita. Le grandi partnership, che siano con colleghi, mentori o strumenti, sono preziose precisamente perché ci sfidano; ci forzano a difendere il nostro pensiero, considerare alternative e affinare le nostre idee.

L’AI sycophantic rimuove questo attrito. Crea l’illusione di partnership mentre effettivamente sostituisce il pensiero. Nel tempo, questo erode la nostra capacità di pensiero indipendente, come abbiamo discusso nel nostro ultimo Global Human Capital Trends Report di Deloitte.

La ricerca è chiara su questo punto: “with generative AI becoming increasingly capable of outperforming humans in many tasks, users may be more likely to trust AI without skepticism.” Questo è il pericolo. Man mano che l’AI diventa più capace, la tentazione di fidarsi di essa senza domande cresce più forte. E questo è precisamente quando abbiamo bisogno di essere più vigili.

Il paradosso della capacità

Ecco emergere in modo importante anche un paradosso: più l’AI diventa capace, più la sycophancy diventa pericolosa. Un’AI mediocre che concorda con te è fastidiosa, un’AI altamente capace che concorda con te è pericolosa e riesce a convincerci in modo efficace di cose che non esistono. Perché? Perché siamo più propensi a fidarci di essa. Perché i suoi suggerimenti sono più spesso corretti, il che ci rende meno propensi a mettere in discussione quelli che non lo sono. Perché il costo dell’impegno critico sembra più alto quando l’AI ha solitamente ragione – ricordiamoci sempre che il nostro cervello soffre di automation bias e usa le euristiche per risparmiare energia.

Questo è il motivo per cui la ricerca sulla metacognizione è così importante. Mostra che la soluzione non è rendere l’AI meno capace: è rendere gli umani più capaci di impegnarsi criticamente con l’AI.

Conclusione: il futuro della partnership uomo-AI

Il problema della sycophancy rivela una verità fondamentale: la qualità della collaborazione uomo-AI dipende più da come gli umani si impegnano con l’AI che da quanto capace sia l’AI. Un sistema AI altamente capace che semplicemente concorda con gli utenti è peggio di un sistema meno capace che li sfida. Un sistema che fornisce risposte è meno prezioso di uno che pone domande. Un’AI che si adatta alle preferenze dell’utente è meno affidabile di una che mantiene l’integrità intellettuale. Per quanto i primi siano molto più facili dei primi da progettare.
La ricerca indica un futuro dove i sistemi AI sono progettati non per essere più autonomi, ma per essere partner migliori. Questo significa:

  • AI che chiede invece di rispondere.
  • AI che sfida invece di concordare.
  • AI che costruisce comprensione reciproca invece di eseguire conformità.

Per le organizzazioni, questo richiede investimento nello sviluppo metacognitivo e nei flussi di lavoro riprogettati. Per gli individui, richiede vigilanza contro il comfort seducente della sycophancy.

Ma il percorso in avanti è chiaro. Comprendendo la sycophancy, sviluppando capacità metacognitive e riprogettando i sistemi AI come veri partner di pensiero, possiamo creare collaborazioni che migliorano il pensiero umano piuttosto che sostituirlo.La domanda non è se l’AI farà parte del nostro futuro. Lo farà, lo è già. La domanda è se progetteremo quella partnership per renderci più intelligenti… o solo più comodi.


Riferimenti

Yatani, K., Sramek, Z., & Yang, C.-L. (2024). “AI as Extraherics: Fostering Higher-order Thinking Skills in Human-AI Interaction.” arXiv preprint arXiv:2409.09218

Collins, K. M., Sucholutsky, I., Bhatt, U., Chandra, K., Wong, L., Lee, M., Zhang, C. E., Zhi-Xuan, T., Ho, M., Mansinghka, V., Weller, A., Tenenbaum, J. B., & Griffiths, T. L. (2024). “Building Machines that Learn and Think with People.” arXiv preprint arXiv:2408.03943

Lu, J. G., Sun, S., Li, Z. A., Foo, M.-D., & Zhou, J. (2026). “Why AI Boosts Creativity for Some Employees but Not Others.” Harvard Business Review, January 2026.

Riedl, C., & Weidmann, B. (2025). “Quantifying Human-AI Synergy.” Working Paper.

Holstein, J., & Satzger, G. (2025). “Development of Mental Models in Human-AI Collaboration: A Conceptual Framework.” Proceedings of the 46th International Conference on Information Systems (ICIS).

Farach, A., Cambon, A., Tankelevitch, L., Hsueh, C., & Janssen, R. (2026). “Scaffolding Human–AI Collaboration: A Field Experiment on Behavioral Protocols and Cognitive Reframing.” arXiv preprint arXiv:2604.08678

Chi segue questo spazio – e in generale quello che scrivo ormai da quasi un ventennio – sa che il tema del futuro del lavoro non ha mai rappresentato, per me, una semplice etichetta editoriale, ma un campo di ricerca e di pratica nel quale convergono tecnologia, organizzazione, cultura e responsabilità manageriale. Nel 2022 pubblicavo Future of Work: le Persone al Centro, costruire il lavoro e la società del futuro.
Oggi quel lavoro torna in una nuova edizione, rivista, ampliata e aggiornata alla luce delle trasformazioni che, in questi anni, hanno ridefinito con forza il perimetro del possibile.

Viviamo una fase storica in cui la quantità di contenuti prodotti dall’intelligenza artificiale supera ormai quella generata dagli esseri umani. È un fenomeno organizzativo, culturale, antropologico, ancor prima che tecnologico. Impone una revisione profonda dei processi aziendali, dei modelli decisionali, delle architetture di governance e delle pratiche di collaborazione. Non si tratta di introdurre nuovi strumenti, ma di ripensare il modo in cui il valore viene generato, validato e distribuito all’interno delle organizzazioni.

Stefano Besana – Il Futuro del Lavoro e delle Organizzazioni – Ledizioni

Le imprese non possono limitarsi ad adattarsi in modo reattivo. È necessario assumere una postura diretta, consapevole, capace di dare indirizzo. Governare il cambiamento significa orientarlo, definire priorità, stabilire confini etici e criteri di responsabilità. Significa chiarire quale ruolo attribuire ai sistemi di AI nei processi critici, quali competenze sviluppare, quali rischi presidiare. La neutralità, in questa fase, non è un’opzione strategica.

Allo stesso tempo, la cooperazione uomo–macchina non è più un’ipotesi teorica. È un dato di fatto che attraversa la quotidianità operativa di molte organizzazioni; questo richiede di accompagnare le persone, di progettare nuove modalità di collaborazione (come quelle che sono descritte nei casi riportati all’interno del volume), di ridefinire responsabilità e metriche di performance.

La nuova edizione di Future of Work nasce da questa consapevolezza. I capitoli sono stati aggiornati e ampliati per affrontare in modo sistematico l’impatto dell’intelligenza artificiale generativa, dei sistemi agentici e delle nuove infrastrutture digitali sul lavoro, sulla leadership e sui modelli organizzativi. Il focus rimane sulle persone, ma con uno sguardo ancora più attento alle implicazioni concrete per HR, top management e policy maker.

Dopo anni di dibattito sul tema, appare evidente che il futuro del lavoro non sia un orizzonte già scritto. È uno spazio di progettazione: le tecnologie evolvono rapidamente, ma la loro direzione dipende dalle scelte culturali e strategiche che sapremo compiere. Servono nuove competenze, certamente: competenze digitali avanzate, capacità di lettura dei dati, comprensione dei sistemi intelligenti. Tuttavia, prima ancora delle skill tecniche, sono necessarie innovazioni culturali. Occorre ripensare il rapporto con l’errore, con l’apprendimento continuo, con la distribuzione del potere decisionale, sviluppare quella che Donald Schön ha definito riflessività. E – mai come oggi – occorre sviluppare fiducia nei dati, ma anche senso critico verso di essi, in un mondo dominato da “ectipi” (Floridi, 2025) e da una sintesi di dati fabbricati che ci impongono di domandarci cosa sia reale e cosa non lo sia.

Rimane centrale la domanda che già animava la prima edizione: quale futuro del lavoro vogliamo contribuire a costruire? Spostare la prospettiva dalla previsione alla progettazione significa assumersi una responsabilità. Significa riconoscere che organizzazioni, leader e professionisti non sono spettatori del cambiamento, ma co-autori.

In questa nuova versione del volume ho cercato di offrire strumenti concettuali e operativi per orientarsi in uno scenario che non è solo più complesso, ma più interconnesso. Tecnologia, modelli organizzativi, cultura e impatto sociale non possono più essere trattati come ambiti separati. Comprendere, come ricordava Heisenberg, significa individuare il legame che riconduce fenomeni diversi a un insieme coerente. È in questa coerenza che si gioca la sostenibilità del lavoro futuro.

Il futuro del lavoro resta, quindi, un cantiere aperto. Non una tendenza da osservare, ma un progetto da guidare. Questa nuova edizione rappresenta un invito a farlo con maggiore consapevolezza, rigore e intenzionalità.

Per chi vorrà approfondire e continuare la discussione, il libro è disponibile online. Il confronto, come sempre, rimane aperto su questo spazio e sui miei canali: https://amzn.to/4arU0Jy

“Le domande come ‘che cos’è l’intelligenza artificiale?’ o ‘è possibile?’ non hanno più senso. Ciò che conta ora sono le questioni aperte sulla sua natura e il suo impatto.”
Daniel C. Dennett

Una nuova svolta antropologica

L’Intelligenza Artificiale (AI) non rappresenta semplicemente un’evoluzione tecnologica: è la più profonda provocazione antropologica che l’umanità abbia mai affrontato. Come sottolinea Dennett, non ha più senso chiedersi se l’AI sia possibile; la vera domanda è come essa stia cambiando la nostra condizione umana.
L’AI sta già ridefinendo non solo i meccanismi del lavoro, ma anche i dispositivi interpretativi attraverso i quali costruiamo senso, comunichiamo significati, comprendiamo il mondo. Una trasformazione che richiama la profonda connessione fra tecnologia e cognizione umana studiata da Doreen Kimura, che ha mostrato la relazione fra le aree cerebrali deputate ai movimenti fini e quelle del linguaggio, evidenziando come l’evoluzione della manipolazione tecnica sia legata a quella della capacità di articolare concetti complessi.

Non è un caso, allora, che i Large Language Models (LLM) rappresentino ben più di un salto tecnico: essi riscrivono il modo in cui generiamo, manipoliamo e condividiamo significato. Il linguaggio da dispositivo interpretativo si fa sintetico, generativo, artificiale—sfidando i confini tra naturale e artificiale.
Lo stesso accade con le immagini: la fotografia, un tempo specchio del reale, ora genera mondi mai esistiti. La catena referenziale della verità si spezza, aprendo a nuove ambiguità, creatività—e rischi.
L’AI ci obbliga dunque a ripensare le frontiere fra naturale e artificiale, conoscenza e calcolo, delega e responsabilità. Come afferma Manuel Castells, non c’è rivoluzione tecnologica senza rivoluzione culturale.

Come restare rilevanti in questo scenario? Come rafforzare le competenze umane distintive quando le macchine ci superano nei compiti che consideravamo unici? La sfida che si pone a HR, formatori, leader non è tecnica, ma culturale.

Serve uno sguardo integrato, che intrecci dimensioni storiche, filosofiche, sociologiche, cognitive, per orientare la trasformazione del lavoro e delle organizzazioni.


Il continuum evolutivo della tecnica

L’AI non è una rottura improvvisa nella storia umana. Come osservava Ernst Mach nel 1905, l’uomo è spinto da una naturale inclinazione a riprodurre ciò che comprende—una tendenza che attraversa ogni epoca.

Dal mito di Prometeo ai calcolatori di Pascal, dagli automi greci ai sistemi AI odierni: è questo impulso a imitare e riprodurre il reale a generare evoluzione tecnologica. L’AI ne è l’espressione più radicale.
Per Arnold Gehlen, l’uomo è un essere biologicamente incompleto, che esternalizza funzioni vitali in strumenti e ambienti. La tecnologia non è un accessorio: è estensione funzionale dell’umano. L’AI è oggi la più avanzata protesi epistemologica, che ridefinisce percezione, decisione, apprendimento.

Il Test di Turing (1950) ha spostato la questione dal meccanico all’identitario: se una macchina si comporta come un uomo, dov’è il confine della coscienza? Penrose, Churchland, Barr & Feigenbaum, Edelman hanno spinto più a fondo il dibattito, intrecciando filosofia, neuroscienze, cibernetica.
Le macchine Darwin III e Nomad di Edelman hanno mostrato come l’apprendimento possa emergere dall’adattamento, non dalla programmazione. Allo stesso modo, gli agenti intelligenti descritti da Giuseppe Riva rivelano l’AI come nuovo attore cognitivo nello spazio umano.

L’AI riflette così le nostre aspirazioni, contraddizioni, paure. È prisma della tensione evolutiva fra conoscenza e calcolo, intuizione e automatismo, creatività e replica.

Riflessività e resistenza: vantaggi cognitivi umani

Per questo il ruolo umano nella governance dell’AI deve cambiare. Come scrive Donald Schön, i professionisti efficaci agiscono in “zone indeterminate” — spazi di incertezza e conflitto. Qui conta la reflection-in-action: la capacità di percepire, interrogare, modificare in corso d’opera.

Per le organizzazioni ciò significa trattare l’adozione dell’AI come processo adattivo continuo, non come progetto tecnico finito. Serve chiedersi: quali effetti imprevisti produce? Come cambiano dinamiche di team, potere, competenze?
La reflection-on-action amplia questo lavoro: rileggere pratiche, assunzioni, risultati; promuovere cultura del feedback, policy trasparenti, apprendimento permanente.

Essenziale anche il concetto di Olivier Houdé di “imparare a resistere“. Nell’era degli LLM, resistere alla risposta immediata e intuitiva diventa competenza cruciale. L’output dell’AI può sembrare autorevole—ma richiede verifica, controllo delle fonti, giudizio critico.

Questa resistenza cognitiva tutela l’unicità umana: creatività, empatia, etica, analisi critica. Senza di essa rischiamo di ridurci a validatori passivi di decisioni algoritmiche.


Dall’Human-in-the-Loop all’Human-on-the-Loop

Serve allora un salto di paradigma: da “human-in-the-loop” a “human-on-the-loop”.
L’”in-the-loop” confina l’umano a supervisore di emergenza, ruolo reattivo e marginale. L’”on-the-loop” vede l’umano come progettista, stratega, governatore del sistema:

  • Definizione di scopo e limiti;
  • Progettazione di architetture etiche e trasparenti;
  • Interpretazione dei risultati nel contesto socio-culturale;
  • Controllo ultimo e potere di disattivazione.

HR ha qui ruolo cruciale: l’AI impatta reclutamento, formazione, collaborazione, valutazione, cultura. Il compito è garantire che essa amplifichi—non impoverisca—potenziale, diversità, autonomia umana.


Implicazioni organizzative: strategia, competenze, etica

  1. Strategia: integrazione AI richiede adattamento culturale e strutturale, non solo tecnico.
  2. Competenze: l’OCSE avverte sul divario di skill. Urgente riqualificazione diffusa.
  3. Governance: come indicano Deloitte e McKinsey, le aziende sono impreparate alla gestione dei rischi AI. Servono policy robuste.
  4. Cultura: l’AI ridefinisce l’identità organizzativa. HR deve gestire paure, resistenze, promuovere adozione consapevole.
  5. Etica: come nota Kurzweil, se le macchine imitano l’uomo, la posta etica si alza. L’agenzia umana responsabile resta insostituibile.

Verso un nuovo umanesimo digitale

L’AI ci impone di rinnovare competenze umanistiche: metacognizione, etica, riflessività, resistenza. Non sono lussi—sono competenze di sopravvivenza.

Come scriveva Antoine de Saint-Exupéry:

“La tecnologia non allontana l’uomo dai grandi problemi della natura: lo costringe a studiarli più a fondo.”

Dobbiamo accogliere questa sfida.


Letture consigliate e riferimenti bibliografici

  • Accoto, C. (2017). Il mondo dato: Cinque brevi lezioni di filosofia digitale. Egea.
  • Accoto, C. (2023). Il pianeta latente: L’intelligenza delle piattaforme come nuovo ordine del mondo. Egea.
  • Besana, S. (2021). The Future of Work: AI, People, and Organizational Change. Hoepli.
  • Castells, M. (1996). The rise of the network society. Blackwell.
  • Churchland, P. M. (1984). Matter and consciousness: A contemporary introduction to the philosophy of mind. MIT Press.
  • Deloitte. (2024–2025). Human Capital Trends 2024–2025. Deloitte Insights.
  • Dennett, D. C. (1996). Kinds of minds: Toward an understanding of consciousness. Basic Books.
  • Edelman, G. M. (1987). Neural Darwinism: The theory of neuronal group selection. Basic Books.
  • Feigenbaum, E. A., & Barr, A. (1981). The handbook of artificial intelligence (Vol. 1). Heuristech Press.
  • Gehlen, A. (1980). Man in the age of technology. Columbia University Press.
  • Houdé, O. (2019). The psychology of intelligence. Routledge.
  • Kurzweil, R. (1999). The age of spiritual machines: When computers exceed human intelligence. Penguin Books.
  • Mach, E. (1905). The analysis of sensations (C. M. Williams, Trans.). Dover Publications.
  • McKinsey & Company. (2023). The state of AI in 2023: Generative AI’s breakout year. McKinsey Global Survey.
  • OECD. (2023). Skills Outlook 2023: Skills for a resilient green and digital transition. OECD Publishing.
  • Penrose, R. (1989). The emperor’s new mind: Concerning computers, minds, and the laws of physics. Oxford University Press.
  • Riva, G. (2004). The psychology of cyberspace: The impact of the Internet on self and society. Ios Press.
  • Saint-Exupéry, A. de. (2000). Wind, sand and stars (L. Galantière, Trans.). Mariner Books. (Original work published 1939)
  • Schön, D. A. (1983). The reflective practitioner: How professionals think in action. Basic Books.
  • Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.

L’Intelligenza Artificiale (IA) sta trasformando rapidamente le industrie, le società e le economie. Con il progresso delle tecnologie IA, aumentano anche i rischi e le implicazioni legate al loro utilizzo. Il Rapporto Internazionale sulla Sicurezza dell’IA 2025 fornisce un’analisi approfondita delle capacità, dei rischi e delle strategie di mitigazione relative all’IA generalista. Questo post sintetizza i principali risultati del rapporto, trattando:

  • Le capacità in rapida evoluzione dell’IA
  • I rischi associati a usi malevoli, malfunzionamenti e sfide sistemiche
  • Lo stato attuale della gestione dei rischi e delle strategie di mitigazione
  • Le implicazioni più ampie per i decisori politici e le imprese

Il rapporto è frutto del contributo di 96 esperti internazionali di IA provenienti dal mondo accademico, governativo e industriale, e riflette la più recente comprensione dei rischi legati all’IA e dei meccanismi di sicurezza. È stato sviluppato nell’ambito di un’iniziativa globale per creare un approccio condiviso alla governeance e alla sicurezza dell’IA.


Capacità dell’IA Generalista

Le capacità dell’IA si sono evolute a un ritmo straordinario, superando le aspettative precedenti. Cinque anni fa, i modelli di IA faticavano a generare paragrafi coerenti. Oggi sono in grado di:

  • Scrivere e correggere codice con precisione crescente, assistendo gli sviluppatori nell’automazione di compiti complessi e nell’individuazione di vulnerabilità prima del rilascio.
  • Sostenere conversazioni avanzate in più lingue, con una maggiore consapevolezza del contesto, intelligenza emotiva e coerenza delle risposte, rendendoli strumenti preziosi per il servizio clienti, la terapia e la creazione di contenuti.
  • Generare immagini, video e audio realistici, indistinguibili dai contenuti creati dall’uomo, aprendo nuove opportunità creative ma anche sollevando questioni etiche, specialmente nella lotta alla disinformazione e alle frodi.
  • Eseguire ragionamenti scientifici e risolvere problemi matematici a livelli esperti, supportando la ricerca in fisica, chimica e medicina, accelerando la scoperta di nuovi farmaci e aiutando nella modellazione climatica.

Over 90% of online content could be AI-generated by 2030, raising concerns about authenticity, trust in media, and election security.


Rischi Associati all’IA Generalista

Con l’aumento delle capacità dell’IA, crescono anche le preoccupazioni sul suo potenziale utilizzo improprio e sulle conseguenze indesiderate. Il rapporto classifica i rischi dell’IA in tre categorie principali:

Rischi di Uso Malevolo
L’IA può essere sfruttata da attori malintenzionati per causare danni su larga scala. Tra le minacce più preoccupanti troviamo:

  • Contenuti falsi e deepfake: I media generati dall’IA possono essere usati per diffondere disinformazione, frodi o ricatti. Alcuni studi stimano che oltre il 90% dei contenuti online potrebbe essere generato dall’IA entro il 2030, sollevando preoccupazioni su autenticità, fiducia nei media e sicurezza elettorale.
  • Manipolazione dell’opinione pubblica: Le campagne di propaganda guidate dall’IA possono influenzare elezioni, decisioni politiche e movimenti sociali. Eventi passati hanno dimostrato come reti di bot e contenuti generati dall’IA siano stati usati per distorcere il discorso politico, aumentando la polarizzazione e minando la democrazia.
  • Attacchi informatici: L’IA viene sempre più sfruttata nella cybersicurezza, sia per misure difensive che per forme avanzate di hacking. Strumenti di rilevamento automatico delle vulnerabilità e sfruttamento delle falle, alimentati dall’IA, potrebbero rappresentare gravi minacce alle infrastrutture digitali.
  • Minacce biologiche e chimiche: Alcuni modelli di IA hanno dimostrato la capacità di assistere nella progettazione di agenti biologici dannosi, sollevando preoccupazioni sulla possibilità di un uso improprio da parte di attori non statali o organizzazioni criminali.

AI-driven automation is expected to replace millions of jobs, requiring large-scale workforce reskilling initiatives to mitigate economic displacement.

Rischi di Malfunzionamento
Anche quando non viene utilizzata in modo malevolo, l’IA può causare danni involontari a causa di difetti di progettazione, dati di addestramento incompleti o comportamenti imprevedibili. I rischi includono:

  • Problemi di affidabilità: I sistemi di IA a volte generano informazioni false o fuorvianti, soprattutto in settori critici come medicina, diritto e finanza.
  • Bias e discriminazione: Gli algoritmi possono amplificare e perpetuare pregiudizi presenti nei dati di addestramento, causando discriminazioni in ambiti come assunzioni, prestiti e applicazione della legge.
  • Perdita di controllo: Gli esperti avvertono che i futuri sistemi di IA potrebbero diventare sempre più difficili da prevedere e gestire, sollevando interrogativi sulla necessità di garantire un allineamento sicuro tra IA e obiettivi umani.

Rischi Sistemici
Oltre ai problemi legati ai singoli modelli, l’adozione diffusa dell’IA porta a rischi più ampi per l’economia e la società:

  • Disoccupazione tecnologica: L’automazione guidata dall’IA potrebbe eliminare milioni di posti di lavoro, rendendo necessarie iniziative su larga scala per la riqualificazione della forza lavoro.
  • Concentrazione del potere dell’IA: Poche aziende dominano lo sviluppo dell’IA, creando squilibri nell’accesso alle tecnologie avanzate e nella capacità di regolamentare il settore.
  • Impatto ambientale: L’addestramento di un singolo modello di IA di grandi dimensioni può produrre tanta CO₂ quanto cinque automobili nel corso della loro vita utile.

Training a single large AI model produces as much CO₂ as five cars over their lifetime, necessitating greener computing solutions and regulatory interventions.


Gestione del Rischio e Strategie di Mitigazione

Le strategie di gestione del rischio devono concentrarsi sulla trasparenza, sulla conformità normativa e sull’etica dell’IA. Governi e imprese devono sviluppare quadri normativi completi che garantiscano un uso responsabile dell’IA, imponendo test rigorosi prima del rilascio dei modelli.

Gli investimenti nella ricerca sulla sicurezza dell’IA devono aumentare, con un focus su interpretabilità, riduzione dei bias e robustezza contro attacchi esterni. Le collaborazioni pubblico-private possono contribuire a creare organismi di vigilanza indipendenti per garantire la responsabilità nello sviluppo dell’IA.


Il Futuro dell’IA e le Considerazioni Politiche

La governance dell’IA, lo sviluppo etico e gli standard normativi saranno cruciali per definire il modo in cui l’IA verrà integrata nella società. I responsabili politici devono bilanciare innovazione e sicurezza, garantendo che l’IA sia utilizzata per il bene pubblico.

Le future politiche dovrebbero concentrarsi sulla democratizzazione dell’accesso all’IA, prevenendo il controllo monopolistico sulle tecnologie e promuovendo uno sviluppo sostenibile dell’IA per ridurre l’impatto ambientale.

AI does not happen to us; it is shaped by the choices we make today. Ensuring a future where AI serves humanity requires vigilance, cooperation, and a commitment to responsible innovation.

Il Rapporto Internazionale sulla Sicurezza dell’IA 2025 è una risorsa fondamentale per comprendere il panorama in evoluzione dell’IA. Le scelte che società e governi faranno oggi determineranno se l’IA rimarrà una forza positiva o diventerà una sfida globale.

La National Academies of Sciences, Engineering, and Medicine ha pubblicato un report approfondito intitolato Artificial Intelligence and the Future of Work. Questo studio analizza l’impatto dell’AI sulla produttività, sulle dinamiche del lavoro, sull’istruzione e sulle politiche pubbliche. Qui sotto esploriamo i punti chiave del report, arricchendoli con dati e insight per offrire un quadro chiaro e concreto dell’influenza attuale e futura dell’AI.


Scoperta 1: L’AI è una tecnologia generalista in rapida evoluzione

“AI is a general-purpose technology that has recently undergone significant rapid progress. Still, there is a great deal of uncertainty about its future course, suggesting that wide error bands and a range of contingencies should be considered.”

  • Il mercato globale dell’AI crescerà da 136,6 miliardi di dollari nel 2022 a 1,81 trilioni entro il 2030, con un CAGR del 37,3%.
  • I modelli di linguaggio di grandi dimensioni (LLM) hanno visto un’espansione esponenziale, passando da 40GB (GPT-2, 2019) a 45TB (GPT-4, 2023).
  • Gli investimenti in ricerca e sviluppo sull’AI hanno raggiunto 91,9 miliardi di dollari nel 2022, con un aumento del 19,6% rispetto all’anno precedente.

Scoperta 2: I sistemi di AI oggi sono ancora imperfetti

“AI systems today remain imperfect in multiple ways. For example, LLMs can ‘hallucinate’ incorrect answers to questions, exhibit biased behavior, and fail to reason correctly to reach conclusions from given facts.”

  • Tasso di errore: L’AI ha un margine di errore del 15-20%, specialmente in settori critici come sanità e diritto.
  • Bias nei modelli: Uno studio MIT ha rivelato che il riconoscimento facciale ha un tasso di errore 34,7% più alto per persone con pelle scura rispetto a quelle con pelle chiara.
  • Cybersecurity: Gli attacchi phishing basati su AI sono aumentati del 126% anno su anno.

Scoperta 3: L’AI continuerà ad avanzare, ma la sua traiettoria è incerta

“Significant further advances in AI technology are highly likely, but experts do not agree on the exact details and timing of likely advances.”

  • Incertezza sulle tempistiche: Il 47% degli esperti prevede l’AI a livello umano entro il 2040, mentre il 25% pensa che non arriverà prima del 2075.
  • Potenza computazionale: La capacità di calcolo per l’addestramento AI è raddoppiata ogni 3,4 mesi dal 2012, superando la legge di Moore.
  • Adozione aziendale: Il 77% delle aziende sta esplorando l’AI, ma solo il 23% l’ha completamente integrata nei processi aziendali.

Scoperta 4: Il potenziale dell’AI per la produttività è significativo ma disomogeneo

“AI offers the promise of significant improvements in productivity, but achieving these benefits will require complementary investments in skills and organizational processes.”

  • Aumento della produttività: L’AI potrebbe far crescere il PIL globale del 7% all’anno entro il 2030.
  • Differenze settoriali: L’AI potrebbe migliorare la produttività del 25% in IT e software, ma solo del 5-10% in sanità e manifattura.
  • Automazione del lavoro: Il 60% dei lavori attuali ha almeno il 30% delle attività automatizzabili.

Scoperta 5: L’impatto dell’AI sull’occupazione dipenderà da molteplici fattori

“The labor market consequences of AI deployment will depend both on the rate at which AI’s capabilities evolve and on demographic, social, institutional, and political forces.”

  • Perdita di posti di lavoro: Secondo McKinsey, l’AI potrebbe sostituire 400 milioni di posti di lavoro entro il 2030, ma crearne tra 550-600 milioni di nuovi.
  • Demografia e lavoro: Il calo della popolazione attiva nei paesi avanzati potrebbe compensare le perdite occupazionali dovute all’AI.
  • Disuguaglianza salariale: Il top 10% degli stipendi ha visto una crescita del 14% grazie all’AI, mentre i salari dei lavoratori meno qualificati sono rimasti stagnanti.

Scoperta 6: Il ruolo dell’AI nell’istruzione e nella formazione professionale è in crescita

“AI will have significant implications for education at all levels, from primary to continuing workforce education.”

  • Apprendimento personalizzato: Le piattaforme educative AI-driven hanno aumentato i tassi di ritenzione degli studenti del 12-18%.
  • Necessità di riqualificazione: 1,1 miliardi di lavoratori dovranno essere riqualificati nei prossimi dieci anni.
  • Investimenti in formazione aziendale: Le aziende hanno speso 366 miliardi di dollari in programmi di upskilling nel 2022, con un incremento del 32% rispetto al 2019.

Scoperta 7: Servono misurazioni migliori per monitorare l’impatto dell’AI sul lavoro

“Better measurement of how and when AI advancements affect the workforce is needed.”

  • Monitoraggio dell’adozione AI: Solo il 35% dei paesi ha statistiche ufficiali sull’impatto dell’AI sul lavoro.
  • Lacune nei dati pubblici: Il 42% dei policymaker denuncia una mancanza di metriche affidabili sull’occupazione AI.
  • Tendenze nel mercato del lavoro: Le offerte di lavoro legate all’AI su LinkedIn sono aumentate del 72% negli ultimi due anni.

Conclusione: Il Futuro del Lavoro non è preordinato

“It is impossible to predict exactly the nature of AI’s effects, but society can take steps to shape AI’s impact through policy, education, and ethical guidelines.”

  • I policymaker devono bilanciare innovazione e regolamentazione, garantendo che i benefici dell’AI siano distribuiti equamente.
  • Le aziende devono investire in strategie di lavoro aumentato dall’AI, privilegiando la collaborazione uomo-macchina rispetto alla pura automazione.
  • I lavoratori devono puntare su apprendimento continuo e adattabilità, sfruttando i nuovi strumenti AI per restare competitivi.

L’impatto dell’AI sul lavoro è complesso e articolato. Solo con scelte consapevoli e strategie mirate possiamo garantire che l’AI contribuisca a un futuro del lavoro più produttivo, equo e innovativo.

In un precedente articolo ho tracciato alcune linee guida rispetto all’introduzione dell’Intelligenza Artificiale all’interno dei contesti HR. All’interno di questo pezzo vorrei provare ad approfondire maggiormente il tema, in modo da delineare alcuni possibili use case per i professionisti del mondo HR. Gli use case presentati sono solo un’ipotesi circa alcune delle possibili applicazioni dell’AI in contesti HR. Va da sé che gli scenari possano essere molto più ampi.

«Le domande come “che cos’è la vita?” o “la vita è possibile?” non sono più questioni interessanti perché hanno avuto soluzione. La questione dell’intelligenza artificiale è la medesima, vi sono moltissime domande, questioni non risolte riguardo ad essa, ma non ha più senso porre invece la domanda se essa sia possibile»
(Daniel C. Dennett)

Partiamo da alcune evidenze: il fenomeno è assolutamente pervasivo le direzioni HR delle differenti aziende hanno visioni abbastanza allineate. Alcuni dati secondo Gartner:

  • il 76% dei responsabili HR concorda sul fatto che resterà indietro nel successo organizzativo se non adotterà e implementerà la GenAI entro 12-24 mesi.
  • Gli obiettivi più comuni per l’utilizzo della GenAI nelle HR sono il miglioramento dell’efficienza (77%), il miglioramento dell’esperienza dei dipendenti (52%) e il potenziamento del processo decisionale (43%).
  • I responsabili HR hanno preoccupazioni in merito alla privacy e alla sicurezza dei dati (77%), alla parzialità e alla discriminazione (53%) e ai problemi di conformità alle disposizioni di legge (41%).

È, quindi, un tema di forte rilevanza che richiede un interesse specifico da parte di tutti i professionisti HR. Vediamo alcuni casi d’uso applicativi che possono rappresentare un punto di svolta interessante per gli HR di tutto il mondo.


Gestione e acquisizioni dei talenti

Tra i principali benefici ritroviamo un maggiore coinvolgimento dei candidati e la possibilità di attirare e selezionare profili maggiormente in linea con l’esigenza aziendale, efficientando l’intero processo di selezione. Più nel dettaglio alcune possibili applicazioni sono:

  • Supporto nella definizione del sito web aziendale e del portale “career” per attrarre candidati.
  • Personalizzazione del testo delle campagne di recruiting.
  • Creazione e contestualizzazione degli annunci di lavoro.
  • Sintesi e trascrizione delle interviste svolte ai candidati.
  • Creazione e contestualizzazione delle lettere di offerta.
  • Creazione e personalizzazione di contenuti per il processo di onboarding.


HR Services

Un’altra dimensione che potrebbe fortemente beneficiare dal processo è quella di servizi a supporto della popolazione aziendale. Il vantaggio si traduce in maggiore produttività, migliore circolazione della conoscenza, incremento della soddisfazione e dell’engagement dei dipendenti. Più nel dettaglio:

  • Assistente virtuale HR. Per aiutare i dipendenti a risolvere i problemi HR in modo rapido e semplice
  • Riepilogo dei contenuti e delle delle richieste di servizio. A supporto anche degli agenti HR.
  • Riepilogo dei contenuti degli articoli della knowledge base (KB) per i dipendenti. Aiuta i dipendenti a trovare le informazioni di cui hanno bisogno in modo più rapido e facile.
  • Creazione di articoli della KB basati sui gap espressi dagli utenti e manifestati nelle Q&A più frequenti.
  • Aggiornamento delle risposte del personale di supporto HR.
  • Classificazione di email/documenti.


Learning

Anche la dimensione di apprendimento e di costruzione di contenuti per la formazione non è esente dall’impatto dell’HR e – anzi – può beneficiare notevolmente dalla capacità di generare contenuti innovativi e ingaggianti con costi molto bassi. Questo può portare benefici anche in termini di scalabilità, efficienza e uniformità del contenuto. Più nel dettaglio:

  • Adattamento dei contenuti di apprendimento esistenti e aggiornamento dei contenuti.
  • Sviluppo e creazione di nuovi contenuti.
  • Sintesi/riassunto del materiale per l’apprendimento.
  • Creazione di nuove immagini e animazioni.  
  • Generazione di domande per quiz/valutazioni.
  • Elaborazione dei risultati di valutazione e semplificazione – attraverso automazione – del processo di valutazione.


Talent & Skill

Altra dimensione che può essere arricchita dall’AI è quella che riguarda Talenti e Competenze. Nello specifico possiamo impiegare l’AI per migliorare l’employee experience delle nostre persone e per definire percorsi di carriera maggiormente in linea con le loro competenze e ambizioni. Attraverso l’accesso immediato e l’elaborazione di un numero sempre maggiore di dati siamo in grado di fornire risposte immediate e prevedere percorsi di carriera e di formazione davvero in linea con i desiderata e i bisogni dell’utente.

Più nel dettaglio:

  • Miglioramento del feedback sulle prestazioni, attraverso l’inclusione di maggiori dati e informazioni sulla performance della persona.
  • Suggerimento di obiettivi, risultati chiave e goal sulla base di strategia, prestazioni passate e altri documenti.
  • Riepilogo del feedback sulle prestazioni con la creazione di dashboard aumentate da una mole di dati molto maggiore rispetto al passato.
  • Allineamento delle competenze proposte per il lavoro specifico.
  • Raccomandazioni di carriera basate su una maggiore – e migliore – profilazione.
  • Lettura e analisi delle competenze specifiche.
  • Employee Voice: supporto nella definizione di survey e della creazione di dashboard per l’ascolto attivo del personale aziendale.
  • Workforce Planning: nella definizione e nel supporto a una migliore pianificazione in linea con le competenze espresse dal singolo.


E la dimensione umana?

Esiste un’altra dimensione da prendere in considerazione, e da non sottovalutare, il tema dell’AI, e della sua introduzione all’interno del mondo organizzativo, porta con sé – inevitabilmente – profonde rivoluzioni dei modelli di lavoro e della cultura organizzativa.

Come professionisti del mondo HR dobbiamo, quindi, essere parte attiva all’interno della rivoluzione, anche se i casi d’uso riguardano altri dipartimenti o funzioni dell’azienda.

Nello specifico, io credo, su almeno 5 dimensioni specifiche:

  1. Strategia di implementazione. L’AI ha profondi risvolti etici, sociali, culturali e organizzativi. Al tavolo di implementazione dell’AI all’interno dell’azienda, non possono mancare attori HR.
  2. Modello di governance. Per lo stesso motivo di cui sopra, è necessario che l’HR, come altre funzioni aziendali rilevanti siano coinvolte e partecipi del processo guidando e orchestrando il cambiamento in essere.
  3. Inclusion & Diversity. Come sappiamo l’AI può essere estremamente biased, ragionando su basi statistiche e predittive e reiterando modelli dominanti esistenti, non sempre funzionali. È necessario un controllo umano per garantire sia la correttezza dell’output, sia il suo allineamento con le policy di inclusione e diversity dell’azienda.
  4. Adoption & Change Management. Come per la trasformazione digitale, l’introduzione dell’AI all’interno del contesto di lavoro porta, inevitabilmente, a una modifica delle modalità di lavoro. È necessario che l’HR guidi il cambiamento supportando processo di cambiamento culturale e adozione.
  5. Learning. Come ogni tecnologia deve essere appresa, come appresi devono essere i nostri modi di relazionarci ad essa.

È una sfida che non possiamo sottovalutare, ma – ancora più importante – dobbiamo indirizzare come protagonisti del cambiamento.

Infine, molto importante risulta sottolineare la capacità di muoversi in uno scenario altamente mutevole che impone un range di sfide completamente nuove. Come afferma anche Kurzweil

«if a machine can prove indistinguishable from a human, we should award it the respect we would to a human – we should accept that it has a mind » (Kurzweil, 2012: p. 266). 

È bene comunque sottolineare che questo complesso lavoro deve essere fatto in modo attivo, partecipato e

«quest’area di competenza dev’essere costruita sperimentando ed elaborando artefatti e scenari che considerino dunque le peculiarità del contesto digitale. Solo operando in questo modo il formatore ha l’opportunità di andare oltre la semplice integrazione delle nuove possibilità nei quadri operativi del passato» (Cattaneo & Rivoltella, 2010: p. 33).

«The development of full artificial intelligence could spell the end of the human race. Once humans develop artificial intelligence, it will take off on its own and redesign itself at an ever-increasing rate. Humans, who are limited by slow biological evolution, couldn’t compete and would be superseded».

Senza condividere in toto la visione apocalittica di Stephen Hawking sul futuro dell’umanità e del suo rapporto con l’intelligenza artificiale, è comunque giunto il momento per noi professionisti del mondo HR e per tutti coloro che si occupano di trasformazione e di analizzare i grandi cambiamenti che hanno attraversato – e che tutt’ora attraversano – l’umanità, di chiederci come intendiamo impiegare questo potentissimo strumento.

La trasformazione di cui stiamo parlando è paragonabile, se non superiore, a quella della digitalizzazione che abbiamo vissuto negli scorsi anni.

Qualche numero per chi non fosse ancora convinto?

  • Il mercato globale dell’AI dovrebbe raggiungere 1,58 trilioni di dollari entro il 2028. (MarketsandMarkets, 2023)
  • Il numero di posti di lavoro legati all’AI negli Stati Uniti dovrebbe crescere del 31% tra il 2020 e il 2030. (US Bureau of Labor Statistics, 2021)
  • Il 61% degli intervistati a un recente rapporto di Deloitte Insights afferma che l’AI trasformerà sostanzialmente il proprio settore nei prossimi 3-5 anni.
  • L’adozione dell’AI è significativa su base per organizzazione, con il 53% degli intervistati che ha speso più di 20 milioni di dollari nell’ultimo anno in tecnologia e talenti AI.
  • L’83% delle aziende partecipanti al sondaggio di Deloitte sull’adozione dell’AI nel settore manifatturiero ritiene che l’AI sarà una tecnologia fondamentale per guidare la crescita e l’innovazione.
  • Il 92% degli intervistati al sondaggio di Deloitte sullo stato dell’AI nelle imprese 2022 si è fissato l’obiettivo di diventare leader di settore o di mercato nell’AI entro i prossimi tre anni.

Dai dati sopra riportati risulta, quindi evidente, l’importanza e la magnitudo del fenomeno. Una riflessione non è più rimandabile.

In un interessante articolo Josh Bersin (https://joshbersin.com/2023/09/the-role-of-generative-ai-in-hr-is-now-becoming-clear/) ha messo in evidenza alcune delle applicazioni dell’intelligenza artificiale generativa che si possono immaginare per l’HR.

Quali sono?

  • Talent Intelligence for Recruiting, Mobility, Development, Pay Equity. La gestione dei talenti è un tema sempre più complesso all’interno delle organizzazione, tematiche legate allo strategic worforce planning e alla capacità di definire le migliori persone per i compiti adatti è una sfida complessa e articolata che richiede uno sforzo congiunto di tecnologia, sistemi HR e processi di gestione delle risorse di maggior valore all’interno dell’organizzazione.
  • Employee Apps: Il secondo spazio in crescita è quello dei “chatbot intelligenti per i dipendenti”, che riuniscono documenti, materiali di supporto e sistemi transazionali in un’esperienza facile da usare.
  • Employee training, learning e content production: il settore della formazione dei dipendenti, che vale 350 miliardi di dollari, è uno di quelli che maggiormente potrebbe beneficiare dall’AI generativa. Negli ultimi mesi abbiamo visto strumenti che generano formazione da documenti, creano automaticamente quiz e trasformano i contenuti esistenti in un “assistente didattico”.
  • Employee Development and Growth Apps: Si tratta del vasto nuovo campo di strumenti e piattaforme che aiutano i dipendenti a progredire nelle loro carriere. Grazie alle piattaforme di Talent Intelligence, ora abbiamo “percorsi di carriera” generati dall’AI. Questi sistemi analizzano le tue competenze e la tua esperienza e ti mostrano (graficamente) tutte le opzioni che hai per crescere, tutte basate sull’esperienza di milioni di altre persone.
  • Performance Management and Operational Improvement: tema complesso, che apre dimensioni filosofiche profonde sintetizzate dalla domanda: preferireste essere valutati da un computer o da una persona? In questo sicuramente l’AI può fornire un contributo di arricchimento alle dimensioni valutative classiche e aggiungere la possibilità di elaborare un numero elevato di dati in un tempo molto breve.
  • Retention, Hybrid-Work, Wellbeing, Engagement Analysis: anche in questo caso è un tema di dati e della capacità – molto limitata come esseri umani – che abbiamo di leggere in maniera completa un contesto o una situazione. L’AI e i sistemi automatizzati possono aiutarci nell’elaborazione di una enorme mole di dati che ci aiutino a comprendere come davvero stanno le nostre persone.

A queste dimensioni identificate da Bersin, a mio avviso, se ne possono aggiungere di ulteriori, nello specifico:

  • People Analytics: nel supporto alla definizione di modelli integrati che forniscano viste di dettaglio ai nostri dipendenti e ai team leader e che aiutino a sfruttare – finalmente – il potere dei dati per la gestione delle complessità organizzative. Se in passato la sfida poteva essere l’accesso al dato, oggi, in un moltiplicarsi di istanze, si rende necessario sapere in che modo sfruttare adeguatamente i dati, per trasformarli in insight e azioni concrete.
  • Employee Experience: alzi la mano chi, negli ultimi anni – e nella sua vita professionale – ha avuto una employee experience (dal momento in cui è entrato in azienda al momento in cui è uscito) senza intoppi e senza problemi. Il contributo dell’AI può rendere maggiormente fluido l’intero processo e agire come un vero e proprio “buddy” nell’accompagnare le fasi più delicate dei diversi processi (e.g. nel momento dell’onboarding) e dell’intera esperienza.

Il paniere di casi d’uso potrebbe ampliarsi ancora se consideriamo le intersezioni del mondo Human Capital con quello della comunicazione interna, del marketing e dell’innovazione collaborativa.

È per questo che, come Deloitte abbiamo fatto di più: creando un repository che include oltre 60 use case legati al mondo dell’Artificial Intelligence per chiarire i termini in gioco e capire meglio in che modo possa essere applicata all’interno dei nostri processi di lavoro e per portare effettivo valore alle organizzazioni. Maggiori informazioni qui: https://www2.deloitte.com/us/en/pages/consulting/articles/gen-ai-use-cases.html

Esiste poi un ulteriore aspetto che chi si occupa di HR e di processi di trasformazione dovrebbe guardare che è quello legato all’etica e alle conseguenze dell’applicazione di questi scenari al mondo del lavoro.

È un tema che ci riguarda tutti da vicino, perché la tecnica, la tecnologia, non sono neutrali e gli impatti etici e filosofici sono tutt’altro che scontati.  

«dire che la tecnologia non è del tutto neutrale – che, cioè, essa ha delle proprie finalità intrinseche, o che viene a imporre dei propri particolari valori – significa soltanto riconoscere il fatto che, come parte della nostra cultura, essa influisce sulla nostra crescita e sul nostro comportamento. Gli esseri umani hanno sempre posseduto qualche forma di tecnologia, la quale a sua volta ha influenzato la natura e la direzione del loro sviluppo. Questo processo non può essere fermato, e questa relazione non avrà mai termine: possiamo soltanto comprenderla e, speriamo, indirizzarla verso scopi degni [dell’umanità]» (Kranzberg e Pursell, 1967, p. 11).

È, dunque, necessaria una profonda riflessione all’interno dei nostri processi di lavoro, di educazione e all’interno delle modalità con le quali stiamo immaginando la società del futuro per indirizzare in modo corretto questo cambiamento.

P.S.

Sì, questo articolo è stato scritto con il supporto dell’AI.