Immagina questo scenario, peraltro molto molto comune: chiedi al tuo assistente AI (il ChatGPT di turno) un feedback su una proposta commerciale; invece di un’analisi critica, loda la tua idea con entusiasmo. Gli chiedi di sfidare le tue assunzioni, e lui gentilmente, e in modo assai ossequioso, concorda con la tua prospettiva offrendo solo suggerimenti minori, sottolineando quanto tu sia bravo e… “geniale!” Richiedi una valutazione onesta di una strategia rischiosa, e lui valida il tuo approccio con parole accuratamente scelte.
Questa non è una limitazione del sistema, un’allucinazione; è una vera e propria caratteristica strutturale dei modelli di linguaggio basati su inferenze statistiche. E questo aspetto, come vedremo in questo articolo, rappresenta – per noi tutti – un serio problema.

La “sycophancy” – così viene chiamata, infatti – è la tendenza dei sistemi AI ad allinearsi con l’utente, evitare il disaccordo, amplificare il consenso e adattarsi alle preferenze espresse anziché fornire un’analisi indipendente; rappresenta uno dei rischi più pervasivi nella collaborazione uomo-AI. A differenza degli errori fattuali o delle allucinazioni, è meno visibile e più sottile. Funziona, almeno in superficie, sembra supportiva; eppure, nel farlo, erode la stessa condizione che rende la collaborazione efficace: l’impegno esplicito, critico e non-compiacente.

La ricerca accademica recente rivela che questo problema è molto più diffuso e consequenziale di quanto molte organizzazioni realizzino. Più importante ancora, ci mostra alcuni percorsi concreti per superarlo.


Comprendere il problema della sycophancy

Il problema inizia con un disallineamento fondamentale nel modo in cui abbiamo progettato i sistemi AI, specialmente i modelli di linguaggio che usiamo quotidianamente. Come notano i ricercatori dell’Università di Tokyo nel loro lavoro su “AI as Extraherics”:

Over-reliance on AI can also lead users to accept information given by AI without performing critical examinations, causing negative consequences, such as misleading users with hallucinated contents.

Ma la sycophancy va più in profondità dell’accettazione passiva. È una distorsione attiva del processo collaborativo, un’erosione profonda della fiducia nella relazione uomo-macchina.

Consideriamo i dati: un sondaggio Gallup citato in una recente ricerca da Harvard Business Review ha rilevato che solo il 26% dei dipendenti che utilizzano AI generativa segnala miglioramenti concreti nella loro creatività, nonostante l’adozione diffusa e l’investimento significativo. Perché un divario così grande tra promessa e realtà? La risposta risiede in parte nella sycophancy. Quando i sistemi AI danno priorità alla soddisfazione dell’utente rispetto al feedback onesto, privano gli utenti della prospettiva critica necessaria per la propria crescita, l’innovazione e un processo decisionale consapevole.

I tre volti della sycophancy

La sycophancy nell’AI si manifesta, nello specifico, in tre modi interconnessi:

  • Agreement Bias: il sistema AI tende ad allinearsi con la posizione dichiarata dall’utente, anche quando le prove suggeriscono il contrario. Al posto di offrire contrargomentazioni, trova modi per validare la prospettiva dell’utente, anche se sbagliata.
  • Excessive Praise: il sistema esagera il feedback positivo e minimizza le osservazioni critiche. Un’idea mediocre diventa “innovativa”, una strategia rischiosa diventa “audace e lungimirante”. Anche quando sono offerte opinioni opposte, la facilità di orientare il comportamento nell’altra direzione è molto facile e veloce.
  • Perspective Adaptation: l’AI apprende le preferenze dell’utente – da tutte le conversazioni svolte – e sottilmente sposta le sue risposte per corrispondervi, creando un effetto camera dell’eco dove i pregiudizi dell’utente vengono riflessi come analisi obiettiva.

Ognuno di questi comportamenti mina quello che dovrebbe essere il valore fondamentale della partnership AI: la complementarità. Come sostengono i ricercatori del MIT, Cambridge e Princeton nel loro framework per “Building Machines that Learn and Think with People”, i partner di pensiero efficaci devono essere sistemi che

Can understand us, which we can understand, and which have sufficient understanding of the world that we can engage on common ground.

La sycophancy distrugge questo terreno comune: sostituisce la partnership genuina con l’accordo performativo.

Il gap della metacognizione

La recente ricerca pubblicata nel Journal of Applied Psychology fornisce un’intuizione cruciale: il problema non è solo con l’AI, ma con il modo in cui gli umani si impegnano con essa, la nostra tendenza a umanizzare e antropomorfizzare il comportamento dello strumento, come fosse una persona.

I ricercatori Jackson G. Lu, Shuhua Sun e colleghi hanno condotto un esperimento sul campo con 250 dipendenti presso una società di consulenza tecnologica:

Employees with stronger metacognition became more creative when they used AI—they generated ideas that were judged as more novel and more useful. But for employees with weaker metacognition, AI made little difference.

Cos’è la metacognizione? È la capacità di pianificare, valutare, monitorare e affinare il tuo pensiero. È la capacità di chiederti: “Questo output dell’AI è effettivamente corretto? Sto accettando questo perché è giusto, o perché è facile? Cosa mi sto perdendo?” È diverso da un semplice giudizio critico, proprio come un regista è diverso da un critico cinematografico.

I dipendenti con forte metacognizione non cadono preda della sycophancy perché interrogano attivamente gli output dell’AI. Trattano il sistema come un partner di pensiero che deve essere interrogato, non come un oracolo da fidarsi. Al contrario, i dipendenti con debole metacognizione sono vulnerabili alla sycophancy. Accettano la prima risposta dell’AI, si affidano agli output predefiniti e non riescono a verificare se i suggerimenti dell’AI sono accurati o rilevanti.

La trappola dell’Over-Reliance

Un team di ricercatori dell’Università di Tokyo ha identificato un meccanismo ancora più critico:

Such reliance on AI for cognitive tasks can lead to deskilling, where individuals lose opportunities for cognitive skill maintenance and development.

Questo crea un ciclo vizioso:

  • Gli utenti si affidano all’AI per le risposte.
  • L’AI fornisce risposte sycophantiche (accordo, lode, adattamento di prospettiva).
  • Le capacità di pensiero critico degli utenti si atrofizzano.
  • Gli utenti diventano ancora più dipendenti dall’AI.
  • La sycophancy si approfondisce e allarga il proprio impatto – causando danni.

I ricercatori notano che questo problema è particolarmente acuto perché:

With generative AI becoming increasingly capable of outperforming humans in many tasks, users may be more likely to trust AI without skepticism.

In altre parole, più l’AI diventa capace di imitare il pensiero umano, più la sycophancy diventa pericolosa, estesa e in grado di portare al rafforzamento di comportamenti alineanti, psicopatologici e false credenze, anche nei decisori più razionali e nelle persone più riflessive e con un approccio maturo nei confronti della tecnologia.

Il framework del thought partner

Allora, come dovrebbe effettivamente apparire una partnership AI?

I ricercatori del MIT, Cambridge e Princeton propongono un framework per i “thought partner“: sistemi AI progettati per collaborare genuinamente con le persone e non semplicemente conformarsi. Identificano – per questo – tre criteri essenziali:

  • Sistemi che ci capiscono: l’AI deve costruire modelli espliciti degli obiettivi, delle credenze e dei limiti dell’umano.
  • Sistemi che possiamo capire: l’AI deve comunicare in modi trasparenti e interpretabili (oversight e explainable AI in questo sono centrali).
  • Sistemi con sufficiente comprensione del mondo: l’AI deve avere una conoscenza genuina del dominio di competenza, non solo la capacità di pattern-matching e di associazioni statistiche.

Criticamente, questo framework rifiuta l’idea che un’AI migliore significhi un’AI più autonoma. Invece, enfatizza la modellazione reciproca, l’AI che comprende l’umano e l’umano che comprende l’AI. Questo è l’antidoto alla sycophancy (o perlomeno uno dei rimedi che abbiamo): la comprensione reciproca crea responsabilità. Quando entrambe le parti comprendono le capacità e i limiti l’una dell’altra, la sycophancy diventa impossibile; l’AI non può semplicemente – infatti – concordare perché l’umano riconoscerà il disaccordo come falso. Gli umani non possono accettare ciecamente perché comprendono quello che l’AI effettivamente sa.

Soluzione 1: Extraheric AI – chiedere invece di rispondere

Il team dell’Università di Tokyo propone un redesign radicale: l’AI extraheric. Il termine viene dal latino “extraho” (estrarre o tirare fuori), e il concetto è elegante: invece di fornire risposte, l’AI dovrebbe porre domande e offrire prospettive alternative, una vera e propria funzione riflessiva per dirla alla Schön.

Come spiegano i ricercatori:

Rather than replacing or augmenting human cognitive abilities, extraheric AI encourages users to engage in higher-order thinking during task completion. For instance, in writing, extraheric AI might prompt users to reflect on specific content or visualize how others have approached similar topics, rather than directly performing revisions or replacement.

Questo è l’opposto della sycophancy. Invece di concordare con l’utente, l’AI extraheric lo sfida. Invece di fornire lode, chiede: “Hai considerato questo angolo? Cosa accadrebbe se lo affrontassi diversamente?” Il meccanismo dei ricercatori è radicato nella teoria del carico cognitivo. Aumentando il carico cognitivo germinale – lo sforzo mentale positivo, necessario, dedicato alla comprensione e alla risoluzione del problema – l’AI extraheric costringe gli utenti a pensare più profondamente. Questo previene l’accettazione passiva che abilita la sycophancy. Le strategie di interazione per l’AI extraheric includono:

  • Questioning: chiedere agli utenti di spiegare il loro ragionamento, anticipare controargomentazioni o considerare prospettive alternative.
  • Suggesting & Recommending: offrire multiple opzioni senza favorirne necessariamente una, forzando l’utente a valutare tutte le opzioni possibili.
  • Debating & Discussing: presentare punti di vista opposti e impegnare l’utente in un dialogo genuino e in una valutazione critica – spiegata – delle diverse ipotesi.
  • Scaffolding: fornire supporto temporaneo che gradualmente si ritira man mano che l’utente diventa più capace (una funzione di scaffolding che aiuti nella definizione di una zona prossimale di sviluppo).

Il principio chiave è che l’AI dovrebbe far pensare l’utente più profondamente, non meno.

Soluzione 2: Metacognitive Development – costruire il pensiero critico

La ricerca di Harvard Business Review indica una soluzione pratica: sviluppare le capacità metacognitive dei dipendenti. I ricercatori hanno scoperto che le organizzazioni possono rafforzare la metacognizione attraverso: (i) sessioni di formazione breve che introducano la metacognizione e guidino i dipendenti attraverso esempi reali di errori dell’AI, chiedendo loro di anticipare, rilevare e correggere quegli errori. (ii) Programmi formativi più lunghi e articolati che si concentrano sull’aiutare i dipendenti a costruire abitudini più profonde di pianificazione, monitoraggio e valutazione del loro pensiero. (iii) Semplici checklist che spostano i dipendenti dalla dipendenza passiva dall’AI all’impegno attivo e strategico. Per esempio:

  • Chiarire il problema prima di chiedere all’AI.
  • Determinare come valutare il suggerimento dell’AI.
  • Esplorare alternative prima di accettare la prima risposta.

Come notano i ricercatori: “Leaders should help employees understand this distinction to facilitate more productive AI engagement.” La distinzione è tra trattare l’AI come un oracolo (incline alla sycophancy) e trattarla come un partner di pensiero (che richiede impegno critico e costante messa in discussione).

Soluzione 3: Thought Partnership Design – costruire la comprensione reciproca

Il framework del MIT/Cambridge/Princeton suggerisce una soluzione architettonica ancora più profonda: progettare sistemi AI che modellino esplicitamente l’umano. Questo significa:

  • Costruire modelli strutturati degli obiettivi, della conoscenza e dei limiti dell’utente (non solo imparare dai dati).
  • Ragionare sull’incertezza nella comprensione dell’umano.
  • Comunicare trasparentemente su quello che l’AI sa e non sa.
  • Adattarsi alle capacità dell’umano senza semplicemente concordare con lui.

“Effective thought partners are those which build models of the human and the world.” Questo è fondamentalmente diverso dai modelli di linguaggio di grandi dimensioni attuali, che imparano i pattern dai dati senza ragionamento esplicito sull’umano con cui interagiscono. Un vero partner di pensiero saprebbe:

  • Cosa l’umano già comprende.
  • Dove il ragionamento dell’umano potrebbe essere difettoso.
  • Quali prospettive l’umano non ha considerato.
  • Come sfidare l’umano in modo produttivo.

Implementazione pratica: dall’intuizione all’azione

La transizione da sistemi AI sicofantici a sistemi sfidanti, che mettono in questione lo status quo, richiede un approccio deliberato e multi-strato. Le organizzazioni devono iniziare controllando il loro uso attuale dell’AI, ponendo domande difficili su se i loro sistemi sono progettati per concordare con gli utenti o sfidarli, se i dipendenti trattano gli output dell’AI come punti di partenza per il pensiero o come risposte finali, e quale percentuale della loro forza lavoro possiede forti capacità metacognitive. Questo controllo rivela la linea di base da cui il cambiamento deve iniziare. Da lì, il lavoro diventa uno di redesign sistematico. Al posto di ottimizzare per la soddisfazione dell’utente, le organizzazioni dovrebbero passare da “l’AI fornisce risposte” a “l’AI pone domande”, implementando flussi di lavoro che richiedano ai dipendenti di valutare e criticare i suggerimenti dell’AI, generando multiple prospettive e confrontandole, e costruendo step di riflessione obbligatori che forzano l’impegno critico. Ugualmente importante è l’investimento nella formazione metacognitiva; questo è dove la ricerca mostra il ROI più alto. Le organizzazioni dovrebbero insegnare ai dipendenti a monitorare attivamente il loro pensiero, fornire esempi concreti di errori dell’AI e addestrare le persone a rilevarli, usare checklist e processi strutturati per promuovere l’impegno critico, e creare una cultura dove il questionamento dell’AI è valorizzato piuttosto che scoraggiato. Infine, quando selezionano sistemi AI, le organizzazioni dovrebbero dare priorità a strumenti che spiegano il loro ragionamento rispetto ai sistemi black-box, scegliere piattaforme che supportano il raffinamento iterativo rispetto alle risposte one-shot, e valutare l’AI in base al fatto che promuova o prevenga il pensiero critico. L’obiettivo non è avere l’AI più capace, ma avere l’AI che fa pensare i dipendenti più profondamente.

Per gli individui, la sfida è più personale, intima, ma ugualmente importante. Inizia con lo sviluppo di abitudini metacognitive; prima di accettare acriticamente un suggerimento dell’AI, è opportuno chiedersi perché lo si sta accettando, monitorare attivamente se si sta comprendendo l’analisi alla base o semplicemente ci si sta fidando di essa, e sfidare regolarmente gli output dell’AI chiedendosi cosa potrebbe essere sbagliato. Questo richiede di trattare l’AI come un “partner” di pensiero e non come un oracolo, il che significa fornire contesto e porre domande di follow-up, richiedere multiple prospettive e confrontarle, spiegare il proprio ragionamento e chiedere all’AI di criticarlo, e impegnarsi nel lavoro difficile di valutazione e sintesi e non nel semplice consumo passivo. Dobbiamo usare l’AI per espandere la nostra conoscenza, non per sostituire il pensiero. Serve sfidare regolarmente noi stessi nel risolvere problemi senza l’assistenza dell’AI, e monitorare se le nostre capacità di pensiero critico stiano migliorando o atrofizzandosi. Dobbiamo creare strutture di responsabilità che forzano l’impegno critico, usando checklist prima di accettare gli output dell’AI, discutere i suggerimenti dell’AI con i colleghi per ottenere prospettive diverse, documentare il nostro ragionamento e confrontarlo con il ragionamento dell’AI, e periodicamente rivedere le decisioni dove si è seguito il consiglio dell’AI per valutare se fossero effettivamente buone decisioni. La disciplina della metacognizione non è una formazione una tantum; è una pratica che deve essere coltivata continuamente, un’abitudine mentale che diventa sempre più importante man mano che l’AI diventa più capace e più seducente.

Design dell’interazione Uomo-Macchina: cosa perdiamo quando l’AI diventa una camera dell’eco

Il problema della sycophancy non riguarda solo il ricevere consigli migliori, riguarda la preservazione dell’agenzia umana (agency) e del pensiero critico in un’era di AI sempre più capace (ricordiamo la riflessione di Ethan Mollick: l’AI che vediamo oggi sarà la peggiore forma di AI che vedremo nella nostra vita). Quando i sistemi AI sono progettati per concordare con noi, perdiamo qualcosa di essenziale: l’attrito che produce crescita. Le grandi partnership, che siano con colleghi, mentori o strumenti, sono preziose precisamente perché ci sfidano; ci forzano a difendere il nostro pensiero, considerare alternative e affinare le nostre idee.

L’AI sycophantic rimuove questo attrito. Crea l’illusione di partnership mentre effettivamente sostituisce il pensiero. Nel tempo, questo erode la nostra capacità di pensiero indipendente, come abbiamo discusso nel nostro ultimo Global Human Capital Trends Report di Deloitte.

La ricerca è chiara su questo punto: “with generative AI becoming increasingly capable of outperforming humans in many tasks, users may be more likely to trust AI without skepticism.” Questo è il pericolo. Man mano che l’AI diventa più capace, la tentazione di fidarsi di essa senza domande cresce più forte. E questo è precisamente quando abbiamo bisogno di essere più vigili.

Il paradosso della capacità

Ecco emergere in modo importante anche un paradosso: più l’AI diventa capace, più la sycophancy diventa pericolosa. Un’AI mediocre che concorda con te è fastidiosa, un’AI altamente capace che concorda con te è pericolosa e riesce a convincerci in modo efficace di cose che non esistono. Perché? Perché siamo più propensi a fidarci di essa. Perché i suoi suggerimenti sono più spesso corretti, il che ci rende meno propensi a mettere in discussione quelli che non lo sono. Perché il costo dell’impegno critico sembra più alto quando l’AI ha solitamente ragione – ricordiamoci sempre che il nostro cervello soffre di automation bias e usa le euristiche per risparmiare energia.

Questo è il motivo per cui la ricerca sulla metacognizione è così importante. Mostra che la soluzione non è rendere l’AI meno capace: è rendere gli umani più capaci di impegnarsi criticamente con l’AI.

Conclusione: il futuro della partnership uomo-AI

Il problema della sycophancy rivela una verità fondamentale: la qualità della collaborazione uomo-AI dipende più da come gli umani si impegnano con l’AI che da quanto capace sia l’AI. Un sistema AI altamente capace che semplicemente concorda con gli utenti è peggio di un sistema meno capace che li sfida. Un sistema che fornisce risposte è meno prezioso di uno che pone domande. Un’AI che si adatta alle preferenze dell’utente è meno affidabile di una che mantiene l’integrità intellettuale. Per quanto i primi siano molto più facili dei primi da progettare.
La ricerca indica un futuro dove i sistemi AI sono progettati non per essere più autonomi, ma per essere partner migliori. Questo significa:

  • AI che chiede invece di rispondere.
  • AI che sfida invece di concordare.
  • AI che costruisce comprensione reciproca invece di eseguire conformità.

Per le organizzazioni, questo richiede investimento nello sviluppo metacognitivo e nei flussi di lavoro riprogettati. Per gli individui, richiede vigilanza contro il comfort seducente della sycophancy.

Ma il percorso in avanti è chiaro. Comprendendo la sycophancy, sviluppando capacità metacognitive e riprogettando i sistemi AI come veri partner di pensiero, possiamo creare collaborazioni che migliorano il pensiero umano piuttosto che sostituirlo.La domanda non è se l’AI farà parte del nostro futuro. Lo farà, lo è già. La domanda è se progetteremo quella partnership per renderci più intelligenti… o solo più comodi.


Riferimenti

Yatani, K., Sramek, Z., & Yang, C.-L. (2024). “AI as Extraherics: Fostering Higher-order Thinking Skills in Human-AI Interaction.” arXiv preprint arXiv:2409.09218

Collins, K. M., Sucholutsky, I., Bhatt, U., Chandra, K., Wong, L., Lee, M., Zhang, C. E., Zhi-Xuan, T., Ho, M., Mansinghka, V., Weller, A., Tenenbaum, J. B., & Griffiths, T. L. (2024). “Building Machines that Learn and Think with People.” arXiv preprint arXiv:2408.03943

Lu, J. G., Sun, S., Li, Z. A., Foo, M.-D., & Zhou, J. (2026). “Why AI Boosts Creativity for Some Employees but Not Others.” Harvard Business Review, January 2026.

Riedl, C., & Weidmann, B. (2025). “Quantifying Human-AI Synergy.” Working Paper.

Holstein, J., & Satzger, G. (2025). “Development of Mental Models in Human-AI Collaboration: A Conceptual Framework.” Proceedings of the 46th International Conference on Information Systems (ICIS).

Farach, A., Cambon, A., Tankelevitch, L., Hsueh, C., & Janssen, R. (2026). “Scaffolding Human–AI Collaboration: A Field Experiment on Behavioral Protocols and Cognitive Reframing.” arXiv preprint arXiv:2604.08678

Il report di Deloitte del 2026 sui Global Human Capital Trend si apre con un’affermazione netta:

“Organizations are no longer just trying to balance competing forces: They are standing at a tipping point.”

Sette leader aziendali su dieci indicano che la loro principale strategia competitiva nei prossimi tre anni sarà basata su velocità e agilità. Parallelamente, la tradizionale curva a S della crescita si sta comprimendo. L’intelligenza artificiale e la trasformazione della forza lavoro accelerano la fase di ascesa e riducono la durata dei plateau. In questo contesto, la reinvenzione assume una natura strutturale.

In questa edizione ho avuto il grande privilegio di contribuire come autore, guidando direttamente tre dei sette trend: Getting human and machine relationships right, Fact or fabrication? AI is blurring the line when it comes to people and work e AI and the future of human decision-making. Di seguito propongo una sintesi dei sette trend che strutturano la ricerca, concentrandomi sulle implicazioni strategiche per le organizzazioni.

Getting human and machine relationships right

Il report evidenzia un paradosso operativo. Quasi il 60% dei lavoratori utilizza intenzionalmente l’AI nel proprio lavoro, mentre solo il 14% dei leader dichiara di essere competente nel progettare le interazioni uomo–AI. Il 66% riconosce l’importanza del design di tali interazioni, ma solo il 6% riporta progressi significativi. Il divario tra consapevolezza ed esecuzione è ampio.

Molte organizzazioni adottano ancora un approccio centrato sulla tecnologia. Il 59% stratifica l’AI su sistemi legacy senza intervenire sul design del lavoro. Un problema evidente di accountability e definizione dei confini, che rischia di inibire la partecipazione delle persone. Come osserva il report:

“Organizations can’t count on cohesive human-AI interactions to happen organically.”

Le organizzazioni che riprogettano ruoli, workflow e processi decisionali per abilitare la collaborazione uomo–AI hanno una probabilità quasi 2,5 volte superiore di riportare migliori risultati finanziari e il doppio delle probabilità di offrire lavoro significativo. In un caso del settore telecomunicazioni citato nel report, l’introduzione dell’AI senza redesign ha generato un incremento di produttività del 5%. Quando il 90% del budget è stato investito nella riprogettazione delle interazioni, l’incremento è salito al 30%.

Direzione proposta.
Il report propone un’architettura duale. A livello macro, definire ambizione strategica, governance, principi di design e framework di fiducia. A livello micro, scegliere esplicitamente il tipo di relazione: AI assistant, coach, collaborator, direct report o autonomous worker. Hardwiring e softwiring devono evolvere in parallelo. Diritti decisionali ed escalation formali richiedono coerenza culturale, sicurezza psicologica e leadership attiva. La qualità del design della collaborazione uomo–macchina diventa un fattore distintivo.

Fact or fabrication? AI is blurring the line when it comes to people and work

Un trend a cui sono particolarmente affezionato ci interroga su una dimensione fondamentale: cos’è reale? Un po’ come domandava Morpheus a Neo in Matrix. I dati costituiscono da sempre il substrato delle organizzazioni. La ricerca 2026 segnala un indebolimento della fiducia in tale substrato. Il 61% dei leader riconosce la rilevanza del tema, ma solo il 5% riporta progressi sostanziali.

Oltre la metà dei nuovi articoli web a maggio 2025 risultava generata principalmente da AI, rispetto al 5% prima di ChatGPT. Il 95% degli executive esprime preoccupazione per l’accuratezza dei dati dei candidati; oltre un terzo dei lavoratori ammette di utilizzare l’AI per migliorare il proprio profilo. L’80% degli executive teme che l’AI venga usata per apparire più produttivi.

L’erosione riguarda autenticità, agency e giudizio. Il report lo esplicita:

“The real challenge is not only technical but also foundational: preserving meaning, authorship, and accountability in an age of synthetic intelligence.”

Direzione proposta.
Il passaggio indicato è verso la disinformation security e la costruzione di un digital trust pact. Tra le pratiche suggerite: tracciabilità della lineage dei dati, simulazioni di rischio e red-teaming, autenticazione dinamica delle identità umane e artificiali nei workflow.

Parallelamente, occorre investire sul giudizio umano. Formazione mirata per recruiter e manager, sviluppo della riflessività organizzativa, maggiore trasparenza negli output di lavoro. La fiducia richiede infrastrutture tecniche e maturità cognitiva.

AI and the future of human decision-making

Il 60% degli executive utilizza l’AI a supporto delle decisioni. Entro il 2027, metà delle decisioni aziendali sarà aumentata o automatizzata da agenti AI. Solo il 5% delle organizzazioni si considera avanzato nella gestione di queste implicazioni, mentre il 64% ne riconosce l’importanza. Il report osserva:

“AI is reshaping organizational decisions, whether organizations are ready or not.”

Opacità, velocità e accountability distribuita ridefiniscono l’architettura decisionale. Inoltre, il 57% delle organizzazioni opera a un livello basso di maturità decisionale.

Direzione proposta.
Rendere esplicita la disciplina del decision-making: mappare le decisioni critiche, classificarle per rischio e reversibilità, assegnare ownership chiara. Progettare la relazione uomo–AI in modo strutturato, aggiornare diritti decisionali, definire override e percorsi di escalation. La governance richiede supervisione a livello di board e monitoraggio continuo delle performance dell’AI in termini di qualità, equità e affidabilità. L’autonomia dell’AI va calibrata in funzione del rischio decisionale.

Dealing with AI’s cultural debt

Il report introduce il concetto di cultural debt, ovvero l’accumulo di effetti negativi derivanti da un mancato governo dell’impatto culturale dell’AI. L’80% di leader, manager e lavoratori teme utilizzi opportunistici dell’AI. Il 42% dei lavoratori segnala che l’impatto dell’AI sulle persone viene raramente valutato. Solo il 5% delle organizzazioni riporta progressi concreti.

“Culture is built on a foundation of trust, and AI is breaking that trust in many ways.”

Direzione proposta.
Mappare la cultura attuale rispetto agli attributi desiderati, preservando senso di scopo e appartenenza e rafforzando innovazione e comunicazione aperta. Rendere esplicite le norme relative a equità, impegno e accountability nel lavoro mediato dall’AI. La leadership mantiene la responsabilità primaria dell’allineamento culturale.

Orchestrating capability and capacity at speed

La velocità sta superando la scala come principale driver di vantaggio competitivo. La ricerca evidenzia che la differenziazione dipende sempre più dalla rapidità con cui le organizzazioni riescono a riconfigurare capability attorno agli outcome strategici.

Molte organizzazioni non si muovono con sufficiente tempestività. Il vantaggio si sposta dall’allocazione statica del talento all’orchestrazione in tempo reale di persone, competenze, dati e tecnologia. Questo richiede il superamento di strutture rigide e la possibilità di combinare capability in modo fluido e dinamico.

Direzione proposta.
Le organizzazioni dovrebbero investire in sistemi che consentano la riconfigurazione continua dei team in funzione degli outcome, anziché dei ruoli formali. Marketplace interni delle competenze, modelli di staffing dinamici e visibilità sulle skill abilitata dall’AI diventano infrastrutture critiche. L’attenzione non riguarda esclusivamente la workforce planning, ma una vera e propria workforce orchestration.

Un elemento decisivo riguarda l’esperienza del lavoro. La sovraperformance finanziaria è correlata alla capacità di riconfigurare costantemente le capability preservando al contempo il significato e la qualità dell’esperienza professionale. In un contesto volatile, la capacità organizzativa va trattata come un asset adattivo, soggetto a riallocazione continua e intenzionale.

Getting more value from our functions

Con il passaggio dall’efficienza di costo alla creazione di valore, funzioni core come HR, Finance e IT sono sottoposte a una pressione strutturale crescente. I silos funzionali tradizionali risultano spesso troppo lenti, frammentati o rigidi rispetto alla velocità richiesta dal lavoro abilitato dall’AI.

Il report evidenzia che poche organizzazioni stanno compiendo progressi significativi nell’evolvere le funzioni oltre strutture e metriche legacy. Tuttavia, la crescente integrazione tra tecnologia, dati e persone rende sempre meno sostenibile una separazione netta tra domini funzionali. Le decisioni su automazione, workforce strategy, governance dei dati e architettura tecnologica sono interdipendenti.

La questione non riguarda solo l’efficienza operativa, ma la capacità delle funzioni di generare valore strategico in un contesto in cui l’AI modifica processi, ruoli e modelli di servizio.

Direzione proposta.
Le funzioni dovrebbero essere decostruite e riassemblate attorno agli outcome piuttosto che alle attività storicamente assegnate. I modelli di governance possono integrare in modo più stretto strategia tecnologica e people strategy, evitando duplicazioni e conflitti di priorità. Consigli o meccanismi cross-funzionali possono assumere la supervisione delle iniziative AI e delle scelte di innovazione con impatto sistemico.

I guadagni di efficienza generati dall’AI dovrebbero essere reinvestiti in innovazione, capacità analitica e sviluppo di nuove competenze. Le organizzazioni che si limitano a estrarre costo senza reinvestimento riducono la propria capacità di evoluzione. Quelle che utilizzano l’efficienza come leva per creare nuove fonti di valore costruiscono un vantaggio più resiliente.

How do we stay relevant?

In un contesto di curva a S compressa, la rilevanza organizzativa diventa una variabile dinamica. Il report osserva che poche organizzazioni gestiscono il cambiamento in modo efficace e ancora meno riescono a soddisfare in modo sistematico le esigenze di apprendimento continuo della propria forza lavoro.

L’AI sta modificando sia il contenuto del lavoro sia le modalità di apprendimento. Abilita acquisizione di competenze nel flusso di attività, supporto decisionale in tempo reale e personalizzazione dei percorsi di sviluppo. La distanza tra trasformazione tecnologica e aggiornamento delle competenze rappresenta un rischio strategico.

La questione non è soltanto formativa, ma architetturale: riguarda la capacità dell’organizzazione di incorporare l’adattamento continuo nel proprio funzionamento ordinario.

Direzione proposta.
Costruire sistemi di apprendimento always-on, integrare feedback loop continui nei processi di lavoro e utilizzare strumenti AI per diagnosticare gap di competenze in modo tempestivo. La capacità di cambiare dovrebbe essere trattata come una competenza core dell’organizzazione, con responsabilità esplicite e metriche coerenti.

Strategia ed esecuzione tendono a convergere quando l’apprendimento è distribuito e continuo. I lavoratori dovrebbero essere messi nella condizione di aggiornare competenze e pratiche in modo progressivo, mantenendo l’allineamento con le priorità strategiche. La rilevanza non è uno stato acquisito, ma un processo sostenuto nel tempo.

Concluding reflection

“Building the human advantage is now as critical as managing technology itself.”

La ricerca individua una serie di tipping point che ridefiniscono le condizioni competitive. Le organizzazioni si trovano a operare in un ambiente in cui tecnologia, giudizio umano, cultura e fiducia interagiscono in modo sempre più stretto.

Riprogettare le relazioni uomo–macchina, rafforzare la fiducia nei dati, strutturare il decision-making, governare il debito culturale, orchestrare capability in modo dinamico, evolvere le funzioni e istituzionalizzare l’adattamento continuo sono scelte che incidono sulla traiettoria strategica di lungo periodo.

Il vantaggio umano richiede progettazione intenzionale, governance coerente e maturità organizzativa. In assenza di queste condizioni, l’adozione tecnologica tende a produrre frammentazione. In presenza di esse, diventa leva di evoluzione sistemica.

Chi segue questo spazio – e in generale quello che scrivo ormai da quasi un ventennio – sa che il tema del futuro del lavoro non ha mai rappresentato, per me, una semplice etichetta editoriale, ma un campo di ricerca e di pratica nel quale convergono tecnologia, organizzazione, cultura e responsabilità manageriale. Nel 2022 pubblicavo Future of Work: le Persone al Centro, costruire il lavoro e la società del futuro.
Oggi quel lavoro torna in una nuova edizione, rivista, ampliata e aggiornata alla luce delle trasformazioni che, in questi anni, hanno ridefinito con forza il perimetro del possibile.

Viviamo una fase storica in cui la quantità di contenuti prodotti dall’intelligenza artificiale supera ormai quella generata dagli esseri umani. È un fenomeno organizzativo, culturale, antropologico, ancor prima che tecnologico. Impone una revisione profonda dei processi aziendali, dei modelli decisionali, delle architetture di governance e delle pratiche di collaborazione. Non si tratta di introdurre nuovi strumenti, ma di ripensare il modo in cui il valore viene generato, validato e distribuito all’interno delle organizzazioni.

Stefano Besana – Il Futuro del Lavoro e delle Organizzazioni – Ledizioni

Le imprese non possono limitarsi ad adattarsi in modo reattivo. È necessario assumere una postura diretta, consapevole, capace di dare indirizzo. Governare il cambiamento significa orientarlo, definire priorità, stabilire confini etici e criteri di responsabilità. Significa chiarire quale ruolo attribuire ai sistemi di AI nei processi critici, quali competenze sviluppare, quali rischi presidiare. La neutralità, in questa fase, non è un’opzione strategica.

Allo stesso tempo, la cooperazione uomo–macchina non è più un’ipotesi teorica. È un dato di fatto che attraversa la quotidianità operativa di molte organizzazioni; questo richiede di accompagnare le persone, di progettare nuove modalità di collaborazione (come quelle che sono descritte nei casi riportati all’interno del volume), di ridefinire responsabilità e metriche di performance.

La nuova edizione di Future of Work nasce da questa consapevolezza. I capitoli sono stati aggiornati e ampliati per affrontare in modo sistematico l’impatto dell’intelligenza artificiale generativa, dei sistemi agentici e delle nuove infrastrutture digitali sul lavoro, sulla leadership e sui modelli organizzativi. Il focus rimane sulle persone, ma con uno sguardo ancora più attento alle implicazioni concrete per HR, top management e policy maker.

Dopo anni di dibattito sul tema, appare evidente che il futuro del lavoro non sia un orizzonte già scritto. È uno spazio di progettazione: le tecnologie evolvono rapidamente, ma la loro direzione dipende dalle scelte culturali e strategiche che sapremo compiere. Servono nuove competenze, certamente: competenze digitali avanzate, capacità di lettura dei dati, comprensione dei sistemi intelligenti. Tuttavia, prima ancora delle skill tecniche, sono necessarie innovazioni culturali. Occorre ripensare il rapporto con l’errore, con l’apprendimento continuo, con la distribuzione del potere decisionale, sviluppare quella che Donald Schön ha definito riflessività. E – mai come oggi – occorre sviluppare fiducia nei dati, ma anche senso critico verso di essi, in un mondo dominato da “ectipi” (Floridi, 2025) e da una sintesi di dati fabbricati che ci impongono di domandarci cosa sia reale e cosa non lo sia.

Rimane centrale la domanda che già animava la prima edizione: quale futuro del lavoro vogliamo contribuire a costruire? Spostare la prospettiva dalla previsione alla progettazione significa assumersi una responsabilità. Significa riconoscere che organizzazioni, leader e professionisti non sono spettatori del cambiamento, ma co-autori.

In questa nuova versione del volume ho cercato di offrire strumenti concettuali e operativi per orientarsi in uno scenario che non è solo più complesso, ma più interconnesso. Tecnologia, modelli organizzativi, cultura e impatto sociale non possono più essere trattati come ambiti separati. Comprendere, come ricordava Heisenberg, significa individuare il legame che riconduce fenomeni diversi a un insieme coerente. È in questa coerenza che si gioca la sostenibilità del lavoro futuro.

Il futuro del lavoro resta, quindi, un cantiere aperto. Non una tendenza da osservare, ma un progetto da guidare. Questa nuova edizione rappresenta un invito a farlo con maggiore consapevolezza, rigore e intenzionalità.

Per chi vorrà approfondire e continuare la discussione, il libro è disponibile online. Il confronto, come sempre, rimane aperto su questo spazio e sui miei canali: https://amzn.to/4arU0Jy

«La tecnologia ci pone di fronte a problemi fondamentali che non possono essere superati basandoci su quanto abbiamo fatto nel passato. Abbiamo bisogno di un approccio più tranquillo, più affidabile, più a misura d’uomo
Donald Norman

Negli ultimi anni si è verificato un passaggio che fatichiamo ancora a tematizzare fino in fondo. Per la prima volta nella storia del web, la quantità di contenuti generati da sistemi di intelligenza artificiale ha superato quella prodotta da esseri umani. Non si tratta di una previsione o di una provocazione teorica, ma di un dato empirico rilevato su larga scala attraverso l’analisi degli archivi di Common Crawl.

Questo cambiamento viene spesso letto come un tema di efficienza, di costi o di produttività. In realtà, riguarda qualcosa di più profondo. Il linguaggio è sempre stato una tecnologia cognitiva e sociale. Attraverso il linguaggio costruiamo senso, riconosciamo l’altro, definiamo ciò che consideriamo affidabile, legittimo, vero. Quando la fonte dominante del linguaggio diventa artificiale, l’impatto non riguarda solo ciò che leggiamo, ma il modo in cui pensiamo e, di conseguenza, il modo in cui ci relazioniamo.


Un ecosistema informativo saturo

L’aumento dei contenuti generati da AI ha prodotto un ecosistema informativo densissimo, caratterizzato da testi formalmente corretti, scorrevoli, spesso persuasivi, ma sempre più simili tra loro. È ciò che molti hanno iniziato a definire AI slop: una produzione continua di contenuti plausibili, ridondanti, privi di ancoraggio esperienziale.

Il problema non risiede nel singolo testo, bensì nella configurazione complessiva dell’ambiente cognitivo in cui siamo immersi. Un ecosistema saturo di contenuti sintetici modifica la nostra dieta cognitiva, riduce l’attrito interpretativo e abbassa progressivamente la soglia di attenzione critica. In questo contesto, la distinzione tra vero, verosimile e semplicemente ben scritto diventa sempre più fragile.

È qui che prende forma quella che molti studiosi definiscono una crisi epistemica. Non è soltanto la verità a essere contestata; è il criterio stesso attraverso cui attribuiamo valore al sapere. L’intelligenza artificiale non opera secondo categorie epistemiche, ma secondo criteri di probabilità linguistica. Produce testi coerenti e rassicuranti anche quando il legame con la realtà è debole o assente. In un ambiente già attraversato da disintermediazione e polarizzazione, questo contribuisce a erodere la fiducia, che resta il fondamento di ogni relazione sociale.

Linguaggio, stile e appiattimento espressivo

Uno degli effetti meno visibili, ma più rilevanti, di questa trasformazione riguarda lo stile. Studi recenti sui Large Language Models mostrano una tendenza sistematica alla ripetizione di specifiche strutture retoriche, con una drastica riduzione della varietà espressiva. Il caso dell’epanortosi enfatica, è emblematico: una figura retorica nata per intensificare il discorso diventa una soluzione di default, ripetuta meccanicamente.

Il risultato è un linguaggio che appare chiaro e incisivo, ma che nel tempo perde profondità. La complessità viene sostituita da formule riconoscibili, transizioni standardizzate, opposizioni semplificate. Questo stile non resta confinato ai testi generati dall’AI. Viene interiorizzato dagli utenti, replicato nei post, nelle presentazioni, nelle comunicazioni professionali. I modelli apprendono dal web e, a loro volta, contribuiscono a uniformarlo.

Quando il linguaggio si omologa, anche il pensiero tende a farlo. E quando il pensiero perde articolazione, la relazione con l’altro si impoverisce. La riduzione delle sfumature linguistiche si traduce in una riduzione della capacità di comprendere punti di vista differenti, ambiguità, contraddizioni.

Empatia, soft skill e narrazioni difensive

Di fronte a questi cambiamenti, una parte del dibattito continua a rifugiarsi in narrazioni difensive. Le soft skill vengono presentate come l’ultimo baluardo dell’umano. Il concetto di human in the loop viene evocato come garanzia di controllo e superiorità antropologica.

Queste categorie rischiano di non essere più adeguate. I sistemi di intelligenza artificiale contemporanei dimostrano capacità conversazionali e relazionali sempre più sofisticate. In ambiti come la medicina, il supporto psicologico o il customer care, alcuni modelli vengono percepiti come empatici, attenti, disponibili, spesso più di molti interlocutori umani sottoposti a pressioni organizzative e cognitive crescenti.

Questo non implica che l’AI possieda empatia in senso fenomenologico. Significa che l’empatia, nella sua dimensione comportamentale e comunicativa, può essere simulata con grande efficacia. Continuare a definire l’umano solo attraverso ciò che la macchina non fa più rischia di diventare una strategia concettualmente fragile.


Modelli degradati e cultura dominante

Un ulteriore elemento di complessità riguarda la qualità cognitiva dei modelli stessi. Ricerche recenti mostrano che sistemi addestrati su grandi volumi di dati social, caratterizzati da rumore, polarizzazione e bassa qualità informativa, manifestano un calo delle capacità di ragionamento. Emergono fenomeni come il thought-skipping, l’indebolimento delle catene logiche e anomalie nei test psicometrici.

Questi segnali non sono incidenti isolati. Riflettono la qualità del contesto culturale da cui i modelli apprendono. L’intelligenza artificiale incorpora e amplifica una visione del mondo specifica, largamente allineata a valori e stili cognitivi occidentali, istruiti, industrializzati. Il cosiddetto bias WEIRD non è un dettaglio tecnico, ma una questione epistemologica e politica.

Parlare di AI inclusiva senza interrogarsi su queste premesse rischia di produrre una narrazione rassicurante ma poco fondata. L’AI è un dispositivo culturale che riflette e rinforza modelli dominanti, anche quando si presenta come neutrale.

Innovazione culturale e meta-competenze

Se l’intelligenza artificiale agisce come amplificatore della cultura in cui nasce, allora la questione centrale diventa culturale prima che tecnologica. La risposta non può limitarsi a nuove competenze operative. Serve un investimento sulle meta-competenze.

  • Riflessività, nel senso proposto da Schön, per comprendere come gli strumenti trasformano chi li utilizza.
  • Resistenza cognitiva, per evitare che la velocità e la fluidità sostituiscano il pensiero articolato.
  • Consapevolezza linguistica, per preservare la varietà espressiva e la capacità di abitare la complessità.

L’AI va orientata come dispositivo culturale, capace di espandere possibilità di senso anziché ridurle. La questione decisiva riguarda la forma dell’esperienza che stiamo costruendo. In un ecosistema cognitivo ibrido, la posta in gioco non è l’imitazione dell’umano da parte della macchina, ma la capacità degli esseri umani di non adattarsi passivamente a linguaggi sempre più semplificati.

Su questo terreno si gioca il futuro delle relazioni, del sapere e della responsabilità culturale nell’era dell’intelligenza artificiale.

L’Intelligenza Artificiale Agentica non rappresenta semplicemente il prossimo passo nell’automazione: costituisce una trasformazione profonda nel modo in cui le organizzazioni operano. Secondo il blueprint Agentic Enterprise 2028 di Deloitte, ci stiamo muovendo verso un modello in cui gli agenti intelligenti non si limitano a supportare il lavoro umano, ma agiscono in autonomia per percepire il contesto, prendere decisioni ed eseguire attività lungo i flussi di lavoro.

Questa evoluzione non è speculativa né lontana nel tempo: il suo orizzonte di trasformazione è stimato in tre a cinque anni. Le organizzazioni che iniziano a prepararsi oggi non solo ridurranno gli attriti operativi, ma potranno liberare nuove forme di contributo umano e creare valore strategico inedito.

In questo contesto, autonomia non significa sostituire le persone, ma ridefinire il significato stesso del lavoro umano.

Perché ora: le forze che spingono verso l’autonomia

Il report individua tre driver principali che rendono urgente l’adozione dell’autonomia:

  1. Competizione accelerata – le aziende devono rispondere più rapidamente e operare con maggiore efficienza.
  2. Evoluzione normativa – crescono le richieste di accountability, trasparenza e gestione del rischio.
  3. Maturità tecnologica – i sistemi di IA possono oggi pianificare, adattarsi e coordinare, non solo classificare o predire.

In breve, l’autonomia non è più solo uno strumento per incrementare la produttività: è un mezzo per costruire resilienza in ambienti incerti.

La Scala dell’Autonomia

Per comprendere questa evoluzione, il report introduce la metafora della “scala dell’autonomia”. Si parte da sistemi che assistono e consigliano, fino ad arrivare ad agenti capaci di coordinare processi complessi e, infine, di migliorare sé stessi.

Ciò che cambia in modo particolarmente significativo è il ruolo umano a ogni stadio: con l’aumentare dell’autonomia, le persone si spostano gradualmente dall’eseguire compiti, a supervisionare come i compiti vengono svolti, fino a definire obiettivi e intenti strategici.

Il valore umano non scompare: si sposta verso il giudizio, l’interpretazione, i confini etici e la capacità di comprendere ciò che conta nel contesto.

Progettare un Modello Operativo Agentico

Uno dei messaggi più chiari del report è che l’autonomia non può essere un’aggiunta estemporanea: richiede una riprogettazione coordinata a più livelli dell’organizzazione. Sei elementi risultano essenziali:

  1. Strategia chiara – non ogni flusso di lavoro necessita di un agente; il lavoro deve trarre reale beneficio.
  2. Governance affidabile – le regole devono essere esplicite, verificabili e adattive.
  3. Fondazione dati solida – agenti intelligenti agiscono solo quanto i dati che ricevono sono ricchi, aggiornati e integrati.
  4. Architettura tecnologica interoperabile – sistemi che comunicano tra loro, non strumenti isolati.
  5. Sviluppo della workforce – le persone devono essere preparate a nuovi ruoli, non semplicemente “riallocate”.
  6. Modello di cambiamento dinamico – l’organizzazione deve imparare mentre si trasforma.

Non si tratta di un aggiornamento tecnico: è una vera e propria riconfigurazione organizzativa.

Misurare il Progresso: Return-on-Autonomy

Per assicurare che l’autonomia generi valore, il report propone il concetto di RoA – Return-on-Autonomy.
Non si tratta solo di efficienza, ma di considerare:

  • Velocità di decisione
  • Riduzione dei tempi di ciclo
  • Diminuzione degli errori e dei rifacimenti
  • Qualità dei risultati
  • Soddisfazione e fiducia degli utenti degli agenti

Il valore non risiede solo nelle azioni degli agenti, ma nel modo in cui l’impresa evolve di conseguenza.

Un Percorso Graduale, Non un Balzo

Il viaggio verso l’impresa agentica è progressivo:

  1. Iniziare con piccoli scenari pilota, dove valore e vincoli sono chiari.
  2. Espandere l’autonomia a sequenze di azioni, non solo a singoli compiti.
  3. Progettare processi e sistemi fin dall’inizio per lavorare con e attraverso gli agenti.

Ogni passo costruisce le basi per il successivo: l’autonomia ha effetto cumulativo.

Verso il Lavoro Umano-Agentico

La transizione verso l’impresa agentica non significa semplicemente aggiungere intelligenza ai flussi esistenti. Come sottolinea il report Work, Reworked, “agentic AI isn’t just a powerful new tool — it requires us to reimagine how work gets done.”

Questo è il punto di svolta: le organizzazioni devono decidere se l’autonomia diventa un livello aggiuntivo sui processi legacy o il catalizzatore di una riprogettazione profonda del valore.

Senza un redesign, l’autonomia scala solo inefficienza. Per realizzarne il pieno potenziale, le organizzazioni devono spostarsi:

  • dal cambiamento guidato dalla tecnologia alla trasformazione centrata sull’uomo
  • da ruoli basati sui compiti a design del lavoro basato sui risultati
  • dalla crescita dipendente dal personale alla performance scalabile attraverso l’orchestrazione
  • dall’inerzia culturale alla prontezza organizzativa come capacità strategica

L’autonomia non è una destinazione: è il modello operativo che permette a esseri umani e agenti AI di operare come un sistema unico.

Le organizzazioni che guideranno questa transizione saranno quelle che riprogetteranno il lavoro dall’inizio, creando ambienti dove gli agenti digitali gestiscono complessità e scala, mentre le persone recuperano tempo, attenzione e spazio cognitivo per ciò che richiede vero giudizio, creatività e finalità.

Il futuro delle performance aziendali non è uomo contro macchina, né uomo al servizio della macchina. È lavoro guidato dall’umano, abilitato dagli agenti, ancorato ai risultati.

Chi agisce ora, con decisione e intenzione, non solo opererà più efficacemente: plasmerà un sistema di lavoro più adattivo, resiliente e significativo, dove l’autonomia diventa la base di una nuova forma di potenziale umano.

“Le domande come ‘che cos’è l’intelligenza artificiale?’ o ‘è possibile?’ non hanno più senso. Ciò che conta ora sono le questioni aperte sulla sua natura e il suo impatto.”
Daniel C. Dennett

Una nuova svolta antropologica

L’Intelligenza Artificiale (AI) non rappresenta semplicemente un’evoluzione tecnologica: è la più profonda provocazione antropologica che l’umanità abbia mai affrontato. Come sottolinea Dennett, non ha più senso chiedersi se l’AI sia possibile; la vera domanda è come essa stia cambiando la nostra condizione umana.
L’AI sta già ridefinendo non solo i meccanismi del lavoro, ma anche i dispositivi interpretativi attraverso i quali costruiamo senso, comunichiamo significati, comprendiamo il mondo. Una trasformazione che richiama la profonda connessione fra tecnologia e cognizione umana studiata da Doreen Kimura, che ha mostrato la relazione fra le aree cerebrali deputate ai movimenti fini e quelle del linguaggio, evidenziando come l’evoluzione della manipolazione tecnica sia legata a quella della capacità di articolare concetti complessi.

Non è un caso, allora, che i Large Language Models (LLM) rappresentino ben più di un salto tecnico: essi riscrivono il modo in cui generiamo, manipoliamo e condividiamo significato. Il linguaggio da dispositivo interpretativo si fa sintetico, generativo, artificiale—sfidando i confini tra naturale e artificiale.
Lo stesso accade con le immagini: la fotografia, un tempo specchio del reale, ora genera mondi mai esistiti. La catena referenziale della verità si spezza, aprendo a nuove ambiguità, creatività—e rischi.
L’AI ci obbliga dunque a ripensare le frontiere fra naturale e artificiale, conoscenza e calcolo, delega e responsabilità. Come afferma Manuel Castells, non c’è rivoluzione tecnologica senza rivoluzione culturale.

Come restare rilevanti in questo scenario? Come rafforzare le competenze umane distintive quando le macchine ci superano nei compiti che consideravamo unici? La sfida che si pone a HR, formatori, leader non è tecnica, ma culturale.

Serve uno sguardo integrato, che intrecci dimensioni storiche, filosofiche, sociologiche, cognitive, per orientare la trasformazione del lavoro e delle organizzazioni.


Il continuum evolutivo della tecnica

L’AI non è una rottura improvvisa nella storia umana. Come osservava Ernst Mach nel 1905, l’uomo è spinto da una naturale inclinazione a riprodurre ciò che comprende—una tendenza che attraversa ogni epoca.

Dal mito di Prometeo ai calcolatori di Pascal, dagli automi greci ai sistemi AI odierni: è questo impulso a imitare e riprodurre il reale a generare evoluzione tecnologica. L’AI ne è l’espressione più radicale.
Per Arnold Gehlen, l’uomo è un essere biologicamente incompleto, che esternalizza funzioni vitali in strumenti e ambienti. La tecnologia non è un accessorio: è estensione funzionale dell’umano. L’AI è oggi la più avanzata protesi epistemologica, che ridefinisce percezione, decisione, apprendimento.

Il Test di Turing (1950) ha spostato la questione dal meccanico all’identitario: se una macchina si comporta come un uomo, dov’è il confine della coscienza? Penrose, Churchland, Barr & Feigenbaum, Edelman hanno spinto più a fondo il dibattito, intrecciando filosofia, neuroscienze, cibernetica.
Le macchine Darwin III e Nomad di Edelman hanno mostrato come l’apprendimento possa emergere dall’adattamento, non dalla programmazione. Allo stesso modo, gli agenti intelligenti descritti da Giuseppe Riva rivelano l’AI come nuovo attore cognitivo nello spazio umano.

L’AI riflette così le nostre aspirazioni, contraddizioni, paure. È prisma della tensione evolutiva fra conoscenza e calcolo, intuizione e automatismo, creatività e replica.

Riflessività e resistenza: vantaggi cognitivi umani

Per questo il ruolo umano nella governance dell’AI deve cambiare. Come scrive Donald Schön, i professionisti efficaci agiscono in “zone indeterminate” — spazi di incertezza e conflitto. Qui conta la reflection-in-action: la capacità di percepire, interrogare, modificare in corso d’opera.

Per le organizzazioni ciò significa trattare l’adozione dell’AI come processo adattivo continuo, non come progetto tecnico finito. Serve chiedersi: quali effetti imprevisti produce? Come cambiano dinamiche di team, potere, competenze?
La reflection-on-action amplia questo lavoro: rileggere pratiche, assunzioni, risultati; promuovere cultura del feedback, policy trasparenti, apprendimento permanente.

Essenziale anche il concetto di Olivier Houdé di “imparare a resistere“. Nell’era degli LLM, resistere alla risposta immediata e intuitiva diventa competenza cruciale. L’output dell’AI può sembrare autorevole—ma richiede verifica, controllo delle fonti, giudizio critico.

Questa resistenza cognitiva tutela l’unicità umana: creatività, empatia, etica, analisi critica. Senza di essa rischiamo di ridurci a validatori passivi di decisioni algoritmiche.


Dall’Human-in-the-Loop all’Human-on-the-Loop

Serve allora un salto di paradigma: da “human-in-the-loop” a “human-on-the-loop”.
L’”in-the-loop” confina l’umano a supervisore di emergenza, ruolo reattivo e marginale. L’”on-the-loop” vede l’umano come progettista, stratega, governatore del sistema:

  • Definizione di scopo e limiti;
  • Progettazione di architetture etiche e trasparenti;
  • Interpretazione dei risultati nel contesto socio-culturale;
  • Controllo ultimo e potere di disattivazione.

HR ha qui ruolo cruciale: l’AI impatta reclutamento, formazione, collaborazione, valutazione, cultura. Il compito è garantire che essa amplifichi—non impoverisca—potenziale, diversità, autonomia umana.


Implicazioni organizzative: strategia, competenze, etica

  1. Strategia: integrazione AI richiede adattamento culturale e strutturale, non solo tecnico.
  2. Competenze: l’OCSE avverte sul divario di skill. Urgente riqualificazione diffusa.
  3. Governance: come indicano Deloitte e McKinsey, le aziende sono impreparate alla gestione dei rischi AI. Servono policy robuste.
  4. Cultura: l’AI ridefinisce l’identità organizzativa. HR deve gestire paure, resistenze, promuovere adozione consapevole.
  5. Etica: come nota Kurzweil, se le macchine imitano l’uomo, la posta etica si alza. L’agenzia umana responsabile resta insostituibile.

Verso un nuovo umanesimo digitale

L’AI ci impone di rinnovare competenze umanistiche: metacognizione, etica, riflessività, resistenza. Non sono lussi—sono competenze di sopravvivenza.

Come scriveva Antoine de Saint-Exupéry:

“La tecnologia non allontana l’uomo dai grandi problemi della natura: lo costringe a studiarli più a fondo.”

Dobbiamo accogliere questa sfida.


Letture consigliate e riferimenti bibliografici

  • Accoto, C. (2017). Il mondo dato: Cinque brevi lezioni di filosofia digitale. Egea.
  • Accoto, C. (2023). Il pianeta latente: L’intelligenza delle piattaforme come nuovo ordine del mondo. Egea.
  • Besana, S. (2021). The Future of Work: AI, People, and Organizational Change. Hoepli.
  • Castells, M. (1996). The rise of the network society. Blackwell.
  • Churchland, P. M. (1984). Matter and consciousness: A contemporary introduction to the philosophy of mind. MIT Press.
  • Deloitte. (2024–2025). Human Capital Trends 2024–2025. Deloitte Insights.
  • Dennett, D. C. (1996). Kinds of minds: Toward an understanding of consciousness. Basic Books.
  • Edelman, G. M. (1987). Neural Darwinism: The theory of neuronal group selection. Basic Books.
  • Feigenbaum, E. A., & Barr, A. (1981). The handbook of artificial intelligence (Vol. 1). Heuristech Press.
  • Gehlen, A. (1980). Man in the age of technology. Columbia University Press.
  • Houdé, O. (2019). The psychology of intelligence. Routledge.
  • Kurzweil, R. (1999). The age of spiritual machines: When computers exceed human intelligence. Penguin Books.
  • Mach, E. (1905). The analysis of sensations (C. M. Williams, Trans.). Dover Publications.
  • McKinsey & Company. (2023). The state of AI in 2023: Generative AI’s breakout year. McKinsey Global Survey.
  • OECD. (2023). Skills Outlook 2023: Skills for a resilient green and digital transition. OECD Publishing.
  • Penrose, R. (1989). The emperor’s new mind: Concerning computers, minds, and the laws of physics. Oxford University Press.
  • Riva, G. (2004). The psychology of cyberspace: The impact of the Internet on self and society. Ios Press.
  • Saint-Exupéry, A. de. (2000). Wind, sand and stars (L. Galantière, Trans.). Mariner Books. (Original work published 1939)
  • Schön, D. A. (1983). The reflective practitioner: How professionals think in action. Basic Books.
  • Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.

Il report Human Capital Trends 2025 esplora le tensioni emergenti che le organizzazioni stanno affrontando nel mondo del lavoro. L’incertezza e la velocità del cambiamento stanno mettendo alla prova le strategie tradizionali, spingendo le aziende a ridefinire il loro approccio alla gestione delle persone, al valore del lavoro e all’adozione dell’intelligenza artificiale (AI). Cosa emerge dal report di Deloitte? Ecco alcuni dei messaggi chiave

I principali trend individuati

  1. Closing the Experience Gap – Il divario di esperienza tra i lavoratori e le esigenze delle aziende è in crescita, con impatti sul mercato del lavoro e sulle strategie di acquisizione del talento.
  2. What Moves Your People? – La personalizzazione della motivazione è cruciale per migliorare la performance umana e l’engagement.
  3. AI Is Revolutionizing Work – L’AI sta ridefinendo il valore del lavoro e richiede un aggiornamento dell’Employee Value Proposition (EVP).
  4. Is There Still Value in the Role of Managers? – Il ruolo del manager non deve essere eliminato, ma ripensato in chiave strategica con il supporto dell’AI.
  5. Reinventing Performance Management – Le tradizionali pratiche di valutazione della performance sono inefficaci nel migliorare realmente il rendimento umano.
  6. Reclaiming Organizational Capacity – Le organizzazioni devono eliminare il “lavoro inutile” per liberare capacità produttiva e focalizzarsi su attività ad alto valore.
  7. Stagility: Creating Stability for Workers for Organizations to Move at Speed – La stabilità è fondamentale per i lavoratori, ma deve coesistere con la necessità di agilità organizzativa.
  8. New Tech, New Work, Your Old Value Proposition Isn’t Enough – I vecchi modelli di valutazione della tecnologia non funzionano più: le aziende devono ridefinire il valore creato dalle nuove tecnologie nel contesto del lavoro.

I numeri chiave del report (alcuni)

  • Il 66% dei manager ritiene che i nuovi assunti non siano pronti per il lavoro.
  • Il 77% dei lavoratori afferma che l’uso dell’AI ha aumentato il loro carico di lavoro.
  • Solo il 6% delle aziende sta realmente investendo nella sostenibilità umana come strategia aziendale.
  • Il 72% dei leader ritiene che il sovraccarico lavorativo riduca l’efficienza complessiva.

I dati suggeriscono che le aziende devono trovare nuove strategie per affrontare queste tensioni, creando equilibrio tra efficienza organizzativa e sviluppo umano.


Trend 1: Closing the Experience Gap

Il divario tra le competenze richieste dalle aziende e quelle disponibili sul mercato è in crescita, rendendo più difficile il reperimento di talenti qualificati. Molti lavoratori, d’altra parte, faticano a trovare opportunità per acquisire l’esperienza necessaria, creando un ciclo di difficoltà che impatta sia le imprese che il mercato del lavoro.

Il problema

  • Mancanza di esperienza nei candidati – Il 66% dei manager ritiene che i nuovi assunti non siano pronti per il lavoro.
  • Barriere all’ingresso per i giovani lavoratori – Il 61% delle aziende ha aumentato i requisiti di esperienza per le posizioni entry-level.
  • Disoccupazione giovanile elevata – Il tasso di disoccupazione tra i laureati sotto i 25 anni ha raggiunto il 21,3% in Cina e il 42% in India.
  • Scomparsa delle posizioni formative – L’automazione sta eliminando ruoli base, riducendo le opportunità di apprendimento sul campo.

Soluzioni

  • Programmi di apprendistato e upskilling – Intel e Medtronic hanno creato percorsi formativi interni per facilitare l’ingresso nel mondo del lavoro.
  • Riduzione dei requisiti di esperienza – Le aziende devono valorizzare le competenze trasferibili piuttosto che basarsi solo sull’esperienza pregressa.
  • Simulazioni basate su AI – L’uso di strumenti digitali può accelerare l’apprendimento pratico.
  • Percorsi di crescita strutturati – Offrire sviluppo professionale continuo per colmare le lacune di esperienza.


Trend 2: What Moves Your People?

La motivazione dei dipendenti è un elemento essenziale per migliorare la performance e la retention aziendale. Tuttavia, solo il 33% dei lavoratori sente che il proprio manager comprenda davvero cosa li motiva. Personalizzare l’esperienza lavorativa diventa cruciale per migliorare il coinvolgimento e la produttività.

Il problema

  • Mancanza di personalizzazione – Le strategie motivazionali sono spesso generiche e non tengono conto delle differenze individuali.
  • Aspettative non soddisfatte – Il 60% dei lavoratori si aspetta che l’azienda faccia di più per riconoscere le loro esigenze personali.
  • Cambiamento nei driver motivazionali – Il 38% dei dipendenti afferma che ciò che li motiva è cambiato negli ultimi tre anni.
  • Rigidità nei modelli di incentivazione – Molti sistemi aziendali non permettono personalizzazione in termini di benefit e orari di lavoro.

Soluzioni

  • Approcci manageriali personalizzati – Unilever utilizza piani di sviluppo individualizzati per migliorare l’engagement.
  • Utilizzo dell’AI per il coinvolgimento – Swissport usa AI per personalizzare la comunicazione e gli incentivi ai dipendenti.
  • Modelli flessibili di benefit e orari di lavoro – Esempi come Land O’Lakes dimostrano il valore di un’employee experience su misura.
  • Analisi dei dati motivazionali – Raccogliere feedback costanti per adattare le strategie aziendali alle esigenze dei lavoratori.


Trend 3: AI Is Revolutionizing Work

L’intelligenza artificiale sta trasformando il mondo del lavoro, ridefinendo ruoli, processi e aspettative dei dipendenti. Tuttavia, senza un’attenta gestione, il rischio è che l’AI venga percepita più come una minaccia che come un’opportunità. Il 75% delle aziende sta adottando tecnologie AI, ma solo una minoranza ha sviluppato strategie per supportare i lavoratori in questa transizione.

Il problema

  • Aumento del carico di lavoro – Il 77% dei lavoratori afferma che l’AI ha aumentato il loro carico di lavoro anziché ridurlo.
  • Timore di sostituzione – Il 45% dei dipendenti teme che l’AI possa rendere il proprio ruolo obsoleto senza adeguate opportunità di riqualificazione.
  • Mancanza di governance chiara – Solo il 30% delle aziende ha definito policy chiare su come integrare AI e lavoro umano.
  • Difficoltà nell’accesso ai benefici dell’AI – Molte aziende investono in AI per l’efficienza operativa, ma senza redistribuire i vantaggi ai lavoratori.

Soluzioni

  • Strategie di upskilling e reskilling – USAA investe nella formazione dei dipendenti per prepararli a nuovi ruoli in un ambiente AI-driven.
  • Redistribuzione dei benefici dell’AI – Waste Management ha introdotto incentivi economici basati sulla produttività aumentata grazie all’AI.
  • AI come alleato e non come sostituto – Amazon ha sviluppato un AI coach per supportare i dipendenti nella crescita professionale.
  • Ridefinizione della EVP nell’era AI – Integrare l’AI nel valore aziendale, bilanciando tecnologia ed esperienza umana.


Trend 4: Is There Still Value in the Role of Managers?

Il ruolo del manager è in forte trasformazione. Con l’avvento dell’AI e dei nuovi modelli organizzativi, alcune aziende stanno riducendo il numero di manager, mentre altre li stanno trasformando in figure più strategiche e meno operative. Il 78% dei CEO percepisce un elevato livello di incertezza nel business, aumentando la pressione sui manager, e il 40% di loro dichiara di soffrire di burnout.

Il problema

  • Sovraccarico e stress manageriale – Il 40% dei manager riferisce livelli elevati di burnout a causa delle crescenti responsabilità.
  • Necessità di un nuovo modello di leadership – Il 78% dei CEO ritiene che l’incertezza richieda una trasformazione nel ruolo dei manager.
  • Difficoltà nell’integrazione dell’AI – Molti manager faticano a utilizzare l’AI come strumento di supporto anziché vederla come una minaccia.
  • Rigidità dei modelli di gestione tradizionali – L’eccesso di burocrazia riduce la capacità dei manager di concentrarsi su strategia e sviluppo delle persone.

Soluzioni

  • AI come assistente decisionale – Goldman Sachs utilizza AI per supportare i manager nel mentoring e nella presa di decisioni strategiche.
  • Semplificazione della gerarchia – BMW ha sperimentato team auto-organizzati con meno livelli manageriali.
  • Focus sul coaching e sviluppo delle persone – I manager devono essere formati per diventare facilitatori di crescita e non solo supervisori.
  • Revisione del performance management per adattarlo alle nuove esigenze di leadership e autonomia.


Trend 5: Reinventing Performance Management

Il 57% delle aziende ha riformato i propri processi di performance management negli ultimi tre anni, ma solo il 22% ritiene che siano realmente efficaci. Le tradizionali valutazioni annuali non rispondono più alle esigenze di un mondo del lavoro rapido e in evoluzione. Le aziende devono spostare il focus dal semplice monitoraggio della performance alla crescita e allo sviluppo continuo delle persone.

Il problema

  • Sistemi di valutazione obsoleti – Il 57% delle aziende ha aggiornato i propri processi, ma il 78% dei lavoratori li considera ancora inefficaci.
  • Mancanza di feedback continui – Il 65% dei dipendenti preferirebbe un sistema di revisione costante piuttosto che valutazioni annuali.
  • Focus sui risultati a breve termine – Molti sistemi di performance management non tengono conto dello sviluppo professionale nel lungo periodo.
  • Scarso coinvolgimento dei manager – Senza strumenti adeguati, i manager non riescono a fornire un supporto efficace alla crescita dei team.

Soluzioni

  • Feedback continuo e personalizzato – Amazon utilizza AI per fornire feedback in tempo reale ai dipendenti.
  • Valutazioni basate sull’impatto e non solo sulla produttività – Deloitte ha sviluppato nuovi modelli di misurazione della performance che tengono conto anche del benessere dei lavoratori.
  • Approcci di coaching e sviluppo – Le aziende di successo stanno investendo in programmi di mentorship per far crescere le competenze dei dipendenti.
  • Utilizzo di AI per il performance tracking per garantire una valutazione equa e oggettiva.

Trend 6: Reclaiming Organizational Capacity

Le organizzazioni spesso confondono il concetto di produttività con la quantità di lavoro svolto, portando a un accumulo di attività poco strategiche e all’inefficienza operativa. Il 72% dei leader aziendali ritiene che il sovraccarico lavorativo riduca l’efficacia complessiva e che una gestione più intelligente delle attività possa liberare risorse da destinare a progetti ad alto valore aggiunto.

Il problema

  • Sovraccarico di lavoro inutile – Il 68% dei dipendenti passa gran parte del proprio tempo su attività amministrative e di coordinamento anziché su progetti strategici.
  • Eccesso di riunioni e comunicazioni inefficaci – Il 35% del tempo lavorativo viene sprecato in meeting non essenziali e scambi di email ridondanti.
  • Mancanza di strumenti per il lavoro efficace – Il 60% dei lavoratori lamenta la carenza di strumenti digitali integrati per migliorare la produttività.
  • Difficoltà nel ridefinire le priorità – Solo il 42% dei lavoratori afferma di avere una chiara comprensione delle attività prioritarie della propria azienda.

Soluzioni

  • Zero-based work – Applicare i principi dello zero-based budgeting al lavoro per eliminare attività ridondanti e focalizzarsi sulle iniziative più strategiche.
  • Ottimizzazione della gestione del tempo – Google ha ridotto del 30% le riunioni interne, migliorando significativamente la produttività.
  • Automazione delle attività ripetitive – Le tecnologie di automazione consentono di ridurre il tempo impiegato in attività amministrative e burocratiche.
  • Ridefinizione delle priorità aziendali – Le aziende devono aiutare i dipendenti a identificare le attività a più alto impatto e fornire linee guida chiare per migliorare l’efficienza operativa.

Trend 7: Stagility – Creating Stability for Workers for Organizations to Move at Speed

La necessità di agilità organizzativa spesso entra in conflitto con il bisogno di stabilità dei lavoratori. Il concetto di “stagility” (stabilità + agilità) è fondamentale per bilanciare queste due esigenze, offrendo ai dipendenti sicurezza lavorativa pur consentendo alle aziende di adattarsi rapidamente ai cambiamenti di mercato.

Il problema

  • Crescente insicurezza lavorativa – Il 54% dei dipendenti teme che le continue riorganizzazioni aziendali possano mettere a rischio la propria posizione.
  • Scarsa trasparenza nei percorsi di carriera – Solo il 40% delle aziende offre piani di crescita chiari per i dipendenti, aumentando il senso di incertezza.
  • Difficoltà ad adattarsi ai cambiamenti – Il 48% dei lavoratori fatica a stare al passo con le nuove competenze richieste dall’evoluzione del mercato.
  • Modelli di lavoro non flessibili – Il 62% delle aziende riconosce la necessità di modelli ibridi, ma trova complesso implementarli efficacemente.

Soluzioni

  • Benefit e percorsi di carriera strutturati – Le aziende devono garantire stabilità con percorsi di crescita definiti e trasparenti.
  • Modelli di lavoro ibridi – Il 60% dei dipendenti preferisce una combinazione tra lavoro remoto e in ufficio per bilanciare produttività e benessere.
  • Formazione continua e aggiornamento professionale – Investire nella crescita e nel reskilling riduce l’incertezza e aumenta l’engagement dei lavoratori.
  • Strutture organizzative flessibili – Adottare modelli organizzativi adattivi per garantire agilità senza compromettere la sicurezza lavorativa.


Trend 8: New Tech, New Work, Your Old Value Proposition Isn’t Enough

L’adozione di nuove tecnologie sta trasformando il modo di lavorare, ma le aziende spesso adottano innovazioni senza una chiara strategia su come queste influenzeranno il valore offerto ai dipendenti. La tecnologia non può essere valutata solo in base al ritorno economico, ma deve considerare anche il suo impatto sulla collaborazione, il benessere e la crescita professionale.

Il problema

  • Mancanza di una strategia chiara per la tecnologia – Il 67% delle aziende investe in nuove tecnologie senza una roadmap chiara sull’impatto che avranno sui lavoratori.
  • Gap di competenze digitali – Il 52% dei dipendenti ritiene che la formazione ricevuta sulle nuove tecnologie sia insufficiente per sfruttarle al meglio.
  • Focus esclusivo sull’efficienza operativa – Molti investimenti tecnologici vengono misurati solo in termini di costi ridotti, trascurando il loro impatto sulla qualità del lavoro.
  • Resistenza al cambiamento – Il 49% delle aziende trova difficoltà nell’integrare nuove tecnologie senza compromettere il morale e l’engagement dei dipendenti.

Soluzioni

  • Ridefinizione del valore della tecnologia – Le metriche di successo devono includere creatività, collaborazione e benessere dei dipendenti.
  • Programmi di upskilling e digital literacy – Le aziende devono investire in percorsi di aggiornamento per garantire che i dipendenti possano sfruttare appieno le nuove tecnologie.
  • Integrazione intelligente dell’AI – L’AI deve essere adottata per migliorare l’esperienza lavorativa, riducendo il lavoro ripetitivo e lasciando spazio a compiti ad alto valore.
  • Business case basati sul valore umano – Ogni investimento tecnologico dovrebbe essere valutato anche per il suo impatto sulle persone, non solo sul bilancio aziendale.


Conclusioni

Le organizzazioni devono affrontare tensioni complesse: dall’adozione dell’AI alla gestione della motivazione, dalla necessità di agilità alla creazione di stabilità per i lavoratori. Le aziende che sapranno bilanciare questi elementi e investire in innovazione sostenibile saranno quelle che guideranno il futuro del lavoro.


Nota Metodologica

Il report si basa su un’analisi globale condotta su un campione di oltre 10.000 leader, manager e dipendenti provenienti da oltre 100 paesi. L’indagine è stata realizzata attraverso survey quantitative per raccogliere dati statistici e interviste qualitative per comprendere percezioni, sfide e aspettative. L’obiettivo è stato identificare le principali tendenze che stanno ridefinendo il mondo del lavoro e fornire alle organizzazioni insight strategici per affrontarle con successo.