Archives For November 30, 1999

Il report di Deloitte del 2026 sui Global Human Capital Trend si apre con un’affermazione netta:

“Organizations are no longer just trying to balance competing forces: They are standing at a tipping point.”

Sette leader aziendali su dieci indicano che la loro principale strategia competitiva nei prossimi tre anni sarà basata su velocità e agilità. Parallelamente, la tradizionale curva a S della crescita si sta comprimendo. L’intelligenza artificiale e la trasformazione della forza lavoro accelerano la fase di ascesa e riducono la durata dei plateau. In questo contesto, la reinvenzione assume una natura strutturale.

In questa edizione ho avuto il grande privilegio di contribuire come autore, guidando direttamente tre dei sette trend: Getting human and machine relationships right, Fact or fabrication? AI is blurring the line when it comes to people and work e AI and the future of human decision-making. Di seguito propongo una sintesi dei sette trend che strutturano la ricerca, concentrandomi sulle implicazioni strategiche per le organizzazioni.

Getting human and machine relationships right

Il report evidenzia un paradosso operativo. Quasi il 60% dei lavoratori utilizza intenzionalmente l’AI nel proprio lavoro, mentre solo il 14% dei leader dichiara di essere competente nel progettare le interazioni uomo–AI. Il 66% riconosce l’importanza del design di tali interazioni, ma solo il 6% riporta progressi significativi. Il divario tra consapevolezza ed esecuzione è ampio.

Molte organizzazioni adottano ancora un approccio centrato sulla tecnologia. Il 59% stratifica l’AI su sistemi legacy senza intervenire sul design del lavoro. Un problema evidente di accountability e definizione dei confini, che rischia di inibire la partecipazione delle persone. Come osserva il report:

“Organizations can’t count on cohesive human-AI interactions to happen organically.”

Le organizzazioni che riprogettano ruoli, workflow e processi decisionali per abilitare la collaborazione uomo–AI hanno una probabilità quasi 2,5 volte superiore di riportare migliori risultati finanziari e il doppio delle probabilità di offrire lavoro significativo. In un caso del settore telecomunicazioni citato nel report, l’introduzione dell’AI senza redesign ha generato un incremento di produttività del 5%. Quando il 90% del budget è stato investito nella riprogettazione delle interazioni, l’incremento è salito al 30%.

Direzione proposta.
Il report propone un’architettura duale. A livello macro, definire ambizione strategica, governance, principi di design e framework di fiducia. A livello micro, scegliere esplicitamente il tipo di relazione: AI assistant, coach, collaborator, direct report o autonomous worker. Hardwiring e softwiring devono evolvere in parallelo. Diritti decisionali ed escalation formali richiedono coerenza culturale, sicurezza psicologica e leadership attiva. La qualità del design della collaborazione uomo–macchina diventa un fattore distintivo.

Fact or fabrication? AI is blurring the line when it comes to people and work

Un trend a cui sono particolarmente affezionato ci interroga su una dimensione fondamentale: cos’è reale? Un po’ come domandava Morpheus a Neo in Matrix. I dati costituiscono da sempre il substrato delle organizzazioni. La ricerca 2026 segnala un indebolimento della fiducia in tale substrato. Il 61% dei leader riconosce la rilevanza del tema, ma solo il 5% riporta progressi sostanziali.

Oltre la metà dei nuovi articoli web a maggio 2025 risultava generata principalmente da AI, rispetto al 5% prima di ChatGPT. Il 95% degli executive esprime preoccupazione per l’accuratezza dei dati dei candidati; oltre un terzo dei lavoratori ammette di utilizzare l’AI per migliorare il proprio profilo. L’80% degli executive teme che l’AI venga usata per apparire più produttivi.

L’erosione riguarda autenticità, agency e giudizio. Il report lo esplicita:

“The real challenge is not only technical but also foundational: preserving meaning, authorship, and accountability in an age of synthetic intelligence.”

Direzione proposta.
Il passaggio indicato è verso la disinformation security e la costruzione di un digital trust pact. Tra le pratiche suggerite: tracciabilità della lineage dei dati, simulazioni di rischio e red-teaming, autenticazione dinamica delle identità umane e artificiali nei workflow.

Parallelamente, occorre investire sul giudizio umano. Formazione mirata per recruiter e manager, sviluppo della riflessività organizzativa, maggiore trasparenza negli output di lavoro. La fiducia richiede infrastrutture tecniche e maturità cognitiva.

AI and the future of human decision-making

Il 60% degli executive utilizza l’AI a supporto delle decisioni. Entro il 2027, metà delle decisioni aziendali sarà aumentata o automatizzata da agenti AI. Solo il 5% delle organizzazioni si considera avanzato nella gestione di queste implicazioni, mentre il 64% ne riconosce l’importanza. Il report osserva:

“AI is reshaping organizational decisions, whether organizations are ready or not.”

Opacità, velocità e accountability distribuita ridefiniscono l’architettura decisionale. Inoltre, il 57% delle organizzazioni opera a un livello basso di maturità decisionale.

Direzione proposta.
Rendere esplicita la disciplina del decision-making: mappare le decisioni critiche, classificarle per rischio e reversibilità, assegnare ownership chiara. Progettare la relazione uomo–AI in modo strutturato, aggiornare diritti decisionali, definire override e percorsi di escalation. La governance richiede supervisione a livello di board e monitoraggio continuo delle performance dell’AI in termini di qualità, equità e affidabilità. L’autonomia dell’AI va calibrata in funzione del rischio decisionale.

Dealing with AI’s cultural debt

Il report introduce il concetto di cultural debt, ovvero l’accumulo di effetti negativi derivanti da un mancato governo dell’impatto culturale dell’AI. L’80% di leader, manager e lavoratori teme utilizzi opportunistici dell’AI. Il 42% dei lavoratori segnala che l’impatto dell’AI sulle persone viene raramente valutato. Solo il 5% delle organizzazioni riporta progressi concreti.

“Culture is built on a foundation of trust, and AI is breaking that trust in many ways.”

Direzione proposta.
Mappare la cultura attuale rispetto agli attributi desiderati, preservando senso di scopo e appartenenza e rafforzando innovazione e comunicazione aperta. Rendere esplicite le norme relative a equità, impegno e accountability nel lavoro mediato dall’AI. La leadership mantiene la responsabilità primaria dell’allineamento culturale.

Orchestrating capability and capacity at speed

La velocità sta superando la scala come principale driver di vantaggio competitivo. La ricerca evidenzia che la differenziazione dipende sempre più dalla rapidità con cui le organizzazioni riescono a riconfigurare capability attorno agli outcome strategici.

Molte organizzazioni non si muovono con sufficiente tempestività. Il vantaggio si sposta dall’allocazione statica del talento all’orchestrazione in tempo reale di persone, competenze, dati e tecnologia. Questo richiede il superamento di strutture rigide e la possibilità di combinare capability in modo fluido e dinamico.

Direzione proposta.
Le organizzazioni dovrebbero investire in sistemi che consentano la riconfigurazione continua dei team in funzione degli outcome, anziché dei ruoli formali. Marketplace interni delle competenze, modelli di staffing dinamici e visibilità sulle skill abilitata dall’AI diventano infrastrutture critiche. L’attenzione non riguarda esclusivamente la workforce planning, ma una vera e propria workforce orchestration.

Un elemento decisivo riguarda l’esperienza del lavoro. La sovraperformance finanziaria è correlata alla capacità di riconfigurare costantemente le capability preservando al contempo il significato e la qualità dell’esperienza professionale. In un contesto volatile, la capacità organizzativa va trattata come un asset adattivo, soggetto a riallocazione continua e intenzionale.

Getting more value from our functions

Con il passaggio dall’efficienza di costo alla creazione di valore, funzioni core come HR, Finance e IT sono sottoposte a una pressione strutturale crescente. I silos funzionali tradizionali risultano spesso troppo lenti, frammentati o rigidi rispetto alla velocità richiesta dal lavoro abilitato dall’AI.

Il report evidenzia che poche organizzazioni stanno compiendo progressi significativi nell’evolvere le funzioni oltre strutture e metriche legacy. Tuttavia, la crescente integrazione tra tecnologia, dati e persone rende sempre meno sostenibile una separazione netta tra domini funzionali. Le decisioni su automazione, workforce strategy, governance dei dati e architettura tecnologica sono interdipendenti.

La questione non riguarda solo l’efficienza operativa, ma la capacità delle funzioni di generare valore strategico in un contesto in cui l’AI modifica processi, ruoli e modelli di servizio.

Direzione proposta.
Le funzioni dovrebbero essere decostruite e riassemblate attorno agli outcome piuttosto che alle attività storicamente assegnate. I modelli di governance possono integrare in modo più stretto strategia tecnologica e people strategy, evitando duplicazioni e conflitti di priorità. Consigli o meccanismi cross-funzionali possono assumere la supervisione delle iniziative AI e delle scelte di innovazione con impatto sistemico.

I guadagni di efficienza generati dall’AI dovrebbero essere reinvestiti in innovazione, capacità analitica e sviluppo di nuove competenze. Le organizzazioni che si limitano a estrarre costo senza reinvestimento riducono la propria capacità di evoluzione. Quelle che utilizzano l’efficienza come leva per creare nuove fonti di valore costruiscono un vantaggio più resiliente.

How do we stay relevant?

In un contesto di curva a S compressa, la rilevanza organizzativa diventa una variabile dinamica. Il report osserva che poche organizzazioni gestiscono il cambiamento in modo efficace e ancora meno riescono a soddisfare in modo sistematico le esigenze di apprendimento continuo della propria forza lavoro.

L’AI sta modificando sia il contenuto del lavoro sia le modalità di apprendimento. Abilita acquisizione di competenze nel flusso di attività, supporto decisionale in tempo reale e personalizzazione dei percorsi di sviluppo. La distanza tra trasformazione tecnologica e aggiornamento delle competenze rappresenta un rischio strategico.

La questione non è soltanto formativa, ma architetturale: riguarda la capacità dell’organizzazione di incorporare l’adattamento continuo nel proprio funzionamento ordinario.

Direzione proposta.
Costruire sistemi di apprendimento always-on, integrare feedback loop continui nei processi di lavoro e utilizzare strumenti AI per diagnosticare gap di competenze in modo tempestivo. La capacità di cambiare dovrebbe essere trattata come una competenza core dell’organizzazione, con responsabilità esplicite e metriche coerenti.

Strategia ed esecuzione tendono a convergere quando l’apprendimento è distribuito e continuo. I lavoratori dovrebbero essere messi nella condizione di aggiornare competenze e pratiche in modo progressivo, mantenendo l’allineamento con le priorità strategiche. La rilevanza non è uno stato acquisito, ma un processo sostenuto nel tempo.

Concluding reflection

“Building the human advantage is now as critical as managing technology itself.”

La ricerca individua una serie di tipping point che ridefiniscono le condizioni competitive. Le organizzazioni si trovano a operare in un ambiente in cui tecnologia, giudizio umano, cultura e fiducia interagiscono in modo sempre più stretto.

Riprogettare le relazioni uomo–macchina, rafforzare la fiducia nei dati, strutturare il decision-making, governare il debito culturale, orchestrare capability in modo dinamico, evolvere le funzioni e istituzionalizzare l’adattamento continuo sono scelte che incidono sulla traiettoria strategica di lungo periodo.

Il vantaggio umano richiede progettazione intenzionale, governance coerente e maturità organizzativa. In assenza di queste condizioni, l’adozione tecnologica tende a produrre frammentazione. In presenza di esse, diventa leva di evoluzione sistemica.

Chi segue questo spazio – e in generale quello che scrivo ormai da quasi un ventennio – sa che il tema del futuro del lavoro non ha mai rappresentato, per me, una semplice etichetta editoriale, ma un campo di ricerca e di pratica nel quale convergono tecnologia, organizzazione, cultura e responsabilità manageriale. Nel 2022 pubblicavo Future of Work: le Persone al Centro, costruire il lavoro e la società del futuro.
Oggi quel lavoro torna in una nuova edizione, rivista, ampliata e aggiornata alla luce delle trasformazioni che, in questi anni, hanno ridefinito con forza il perimetro del possibile.

Viviamo una fase storica in cui la quantità di contenuti prodotti dall’intelligenza artificiale supera ormai quella generata dagli esseri umani. È un fenomeno organizzativo, culturale, antropologico, ancor prima che tecnologico. Impone una revisione profonda dei processi aziendali, dei modelli decisionali, delle architetture di governance e delle pratiche di collaborazione. Non si tratta di introdurre nuovi strumenti, ma di ripensare il modo in cui il valore viene generato, validato e distribuito all’interno delle organizzazioni.

Stefano Besana – Il Futuro del Lavoro e delle Organizzazioni – Ledizioni

Le imprese non possono limitarsi ad adattarsi in modo reattivo. È necessario assumere una postura diretta, consapevole, capace di dare indirizzo. Governare il cambiamento significa orientarlo, definire priorità, stabilire confini etici e criteri di responsabilità. Significa chiarire quale ruolo attribuire ai sistemi di AI nei processi critici, quali competenze sviluppare, quali rischi presidiare. La neutralità, in questa fase, non è un’opzione strategica.

Allo stesso tempo, la cooperazione uomo–macchina non è più un’ipotesi teorica. È un dato di fatto che attraversa la quotidianità operativa di molte organizzazioni; questo richiede di accompagnare le persone, di progettare nuove modalità di collaborazione (come quelle che sono descritte nei casi riportati all’interno del volume), di ridefinire responsabilità e metriche di performance.

La nuova edizione di Future of Work nasce da questa consapevolezza. I capitoli sono stati aggiornati e ampliati per affrontare in modo sistematico l’impatto dell’intelligenza artificiale generativa, dei sistemi agentici e delle nuove infrastrutture digitali sul lavoro, sulla leadership e sui modelli organizzativi. Il focus rimane sulle persone, ma con uno sguardo ancora più attento alle implicazioni concrete per HR, top management e policy maker.

Dopo anni di dibattito sul tema, appare evidente che il futuro del lavoro non sia un orizzonte già scritto. È uno spazio di progettazione: le tecnologie evolvono rapidamente, ma la loro direzione dipende dalle scelte culturali e strategiche che sapremo compiere. Servono nuove competenze, certamente: competenze digitali avanzate, capacità di lettura dei dati, comprensione dei sistemi intelligenti. Tuttavia, prima ancora delle skill tecniche, sono necessarie innovazioni culturali. Occorre ripensare il rapporto con l’errore, con l’apprendimento continuo, con la distribuzione del potere decisionale, sviluppare quella che Donald Schön ha definito riflessività. E – mai come oggi – occorre sviluppare fiducia nei dati, ma anche senso critico verso di essi, in un mondo dominato da “ectipi” (Floridi, 2025) e da una sintesi di dati fabbricati che ci impongono di domandarci cosa sia reale e cosa non lo sia.

Rimane centrale la domanda che già animava la prima edizione: quale futuro del lavoro vogliamo contribuire a costruire? Spostare la prospettiva dalla previsione alla progettazione significa assumersi una responsabilità. Significa riconoscere che organizzazioni, leader e professionisti non sono spettatori del cambiamento, ma co-autori.

In questa nuova versione del volume ho cercato di offrire strumenti concettuali e operativi per orientarsi in uno scenario che non è solo più complesso, ma più interconnesso. Tecnologia, modelli organizzativi, cultura e impatto sociale non possono più essere trattati come ambiti separati. Comprendere, come ricordava Heisenberg, significa individuare il legame che riconduce fenomeni diversi a un insieme coerente. È in questa coerenza che si gioca la sostenibilità del lavoro futuro.

Il futuro del lavoro resta, quindi, un cantiere aperto. Non una tendenza da osservare, ma un progetto da guidare. Questa nuova edizione rappresenta un invito a farlo con maggiore consapevolezza, rigore e intenzionalità.

Per chi vorrà approfondire e continuare la discussione, il libro è disponibile online. Il confronto, come sempre, rimane aperto su questo spazio e sui miei canali: https://amzn.to/4arU0Jy

«La tecnologia ci pone di fronte a problemi fondamentali che non possono essere superati basandoci su quanto abbiamo fatto nel passato. Abbiamo bisogno di un approccio più tranquillo, più affidabile, più a misura d’uomo
Donald Norman

Negli ultimi anni si è verificato un passaggio che fatichiamo ancora a tematizzare fino in fondo. Per la prima volta nella storia del web, la quantità di contenuti generati da sistemi di intelligenza artificiale ha superato quella prodotta da esseri umani. Non si tratta di una previsione o di una provocazione teorica, ma di un dato empirico rilevato su larga scala attraverso l’analisi degli archivi di Common Crawl.

Questo cambiamento viene spesso letto come un tema di efficienza, di costi o di produttività. In realtà, riguarda qualcosa di più profondo. Il linguaggio è sempre stato una tecnologia cognitiva e sociale. Attraverso il linguaggio costruiamo senso, riconosciamo l’altro, definiamo ciò che consideriamo affidabile, legittimo, vero. Quando la fonte dominante del linguaggio diventa artificiale, l’impatto non riguarda solo ciò che leggiamo, ma il modo in cui pensiamo e, di conseguenza, il modo in cui ci relazioniamo.


Un ecosistema informativo saturo

L’aumento dei contenuti generati da AI ha prodotto un ecosistema informativo densissimo, caratterizzato da testi formalmente corretti, scorrevoli, spesso persuasivi, ma sempre più simili tra loro. È ciò che molti hanno iniziato a definire AI slop: una produzione continua di contenuti plausibili, ridondanti, privi di ancoraggio esperienziale.

Il problema non risiede nel singolo testo, bensì nella configurazione complessiva dell’ambiente cognitivo in cui siamo immersi. Un ecosistema saturo di contenuti sintetici modifica la nostra dieta cognitiva, riduce l’attrito interpretativo e abbassa progressivamente la soglia di attenzione critica. In questo contesto, la distinzione tra vero, verosimile e semplicemente ben scritto diventa sempre più fragile.

È qui che prende forma quella che molti studiosi definiscono una crisi epistemica. Non è soltanto la verità a essere contestata; è il criterio stesso attraverso cui attribuiamo valore al sapere. L’intelligenza artificiale non opera secondo categorie epistemiche, ma secondo criteri di probabilità linguistica. Produce testi coerenti e rassicuranti anche quando il legame con la realtà è debole o assente. In un ambiente già attraversato da disintermediazione e polarizzazione, questo contribuisce a erodere la fiducia, che resta il fondamento di ogni relazione sociale.

Linguaggio, stile e appiattimento espressivo

Uno degli effetti meno visibili, ma più rilevanti, di questa trasformazione riguarda lo stile. Studi recenti sui Large Language Models mostrano una tendenza sistematica alla ripetizione di specifiche strutture retoriche, con una drastica riduzione della varietà espressiva. Il caso dell’epanortosi enfatica, è emblematico: una figura retorica nata per intensificare il discorso diventa una soluzione di default, ripetuta meccanicamente.

Il risultato è un linguaggio che appare chiaro e incisivo, ma che nel tempo perde profondità. La complessità viene sostituita da formule riconoscibili, transizioni standardizzate, opposizioni semplificate. Questo stile non resta confinato ai testi generati dall’AI. Viene interiorizzato dagli utenti, replicato nei post, nelle presentazioni, nelle comunicazioni professionali. I modelli apprendono dal web e, a loro volta, contribuiscono a uniformarlo.

Quando il linguaggio si omologa, anche il pensiero tende a farlo. E quando il pensiero perde articolazione, la relazione con l’altro si impoverisce. La riduzione delle sfumature linguistiche si traduce in una riduzione della capacità di comprendere punti di vista differenti, ambiguità, contraddizioni.

Empatia, soft skill e narrazioni difensive

Di fronte a questi cambiamenti, una parte del dibattito continua a rifugiarsi in narrazioni difensive. Le soft skill vengono presentate come l’ultimo baluardo dell’umano. Il concetto di human in the loop viene evocato come garanzia di controllo e superiorità antropologica.

Queste categorie rischiano di non essere più adeguate. I sistemi di intelligenza artificiale contemporanei dimostrano capacità conversazionali e relazionali sempre più sofisticate. In ambiti come la medicina, il supporto psicologico o il customer care, alcuni modelli vengono percepiti come empatici, attenti, disponibili, spesso più di molti interlocutori umani sottoposti a pressioni organizzative e cognitive crescenti.

Questo non implica che l’AI possieda empatia in senso fenomenologico. Significa che l’empatia, nella sua dimensione comportamentale e comunicativa, può essere simulata con grande efficacia. Continuare a definire l’umano solo attraverso ciò che la macchina non fa più rischia di diventare una strategia concettualmente fragile.


Modelli degradati e cultura dominante

Un ulteriore elemento di complessità riguarda la qualità cognitiva dei modelli stessi. Ricerche recenti mostrano che sistemi addestrati su grandi volumi di dati social, caratterizzati da rumore, polarizzazione e bassa qualità informativa, manifestano un calo delle capacità di ragionamento. Emergono fenomeni come il thought-skipping, l’indebolimento delle catene logiche e anomalie nei test psicometrici.

Questi segnali non sono incidenti isolati. Riflettono la qualità del contesto culturale da cui i modelli apprendono. L’intelligenza artificiale incorpora e amplifica una visione del mondo specifica, largamente allineata a valori e stili cognitivi occidentali, istruiti, industrializzati. Il cosiddetto bias WEIRD non è un dettaglio tecnico, ma una questione epistemologica e politica.

Parlare di AI inclusiva senza interrogarsi su queste premesse rischia di produrre una narrazione rassicurante ma poco fondata. L’AI è un dispositivo culturale che riflette e rinforza modelli dominanti, anche quando si presenta come neutrale.

Innovazione culturale e meta-competenze

Se l’intelligenza artificiale agisce come amplificatore della cultura in cui nasce, allora la questione centrale diventa culturale prima che tecnologica. La risposta non può limitarsi a nuove competenze operative. Serve un investimento sulle meta-competenze.

  • Riflessività, nel senso proposto da Schön, per comprendere come gli strumenti trasformano chi li utilizza.
  • Resistenza cognitiva, per evitare che la velocità e la fluidità sostituiscano il pensiero articolato.
  • Consapevolezza linguistica, per preservare la varietà espressiva e la capacità di abitare la complessità.

L’AI va orientata come dispositivo culturale, capace di espandere possibilità di senso anziché ridurle. La questione decisiva riguarda la forma dell’esperienza che stiamo costruendo. In un ecosistema cognitivo ibrido, la posta in gioco non è l’imitazione dell’umano da parte della macchina, ma la capacità degli esseri umani di non adattarsi passivamente a linguaggi sempre più semplificati.

Su questo terreno si gioca il futuro delle relazioni, del sapere e della responsabilità culturale nell’era dell’intelligenza artificiale.

L’Intelligenza Artificiale Agentica non rappresenta semplicemente il prossimo passo nell’automazione: costituisce una trasformazione profonda nel modo in cui le organizzazioni operano. Secondo il blueprint Agentic Enterprise 2028 di Deloitte, ci stiamo muovendo verso un modello in cui gli agenti intelligenti non si limitano a supportare il lavoro umano, ma agiscono in autonomia per percepire il contesto, prendere decisioni ed eseguire attività lungo i flussi di lavoro.

Questa evoluzione non è speculativa né lontana nel tempo: il suo orizzonte di trasformazione è stimato in tre a cinque anni. Le organizzazioni che iniziano a prepararsi oggi non solo ridurranno gli attriti operativi, ma potranno liberare nuove forme di contributo umano e creare valore strategico inedito.

In questo contesto, autonomia non significa sostituire le persone, ma ridefinire il significato stesso del lavoro umano.

Perché ora: le forze che spingono verso l’autonomia

Il report individua tre driver principali che rendono urgente l’adozione dell’autonomia:

  1. Competizione accelerata – le aziende devono rispondere più rapidamente e operare con maggiore efficienza.
  2. Evoluzione normativa – crescono le richieste di accountability, trasparenza e gestione del rischio.
  3. Maturità tecnologica – i sistemi di IA possono oggi pianificare, adattarsi e coordinare, non solo classificare o predire.

In breve, l’autonomia non è più solo uno strumento per incrementare la produttività: è un mezzo per costruire resilienza in ambienti incerti.

La Scala dell’Autonomia

Per comprendere questa evoluzione, il report introduce la metafora della “scala dell’autonomia”. Si parte da sistemi che assistono e consigliano, fino ad arrivare ad agenti capaci di coordinare processi complessi e, infine, di migliorare sé stessi.

Ciò che cambia in modo particolarmente significativo è il ruolo umano a ogni stadio: con l’aumentare dell’autonomia, le persone si spostano gradualmente dall’eseguire compiti, a supervisionare come i compiti vengono svolti, fino a definire obiettivi e intenti strategici.

Il valore umano non scompare: si sposta verso il giudizio, l’interpretazione, i confini etici e la capacità di comprendere ciò che conta nel contesto.

Progettare un Modello Operativo Agentico

Uno dei messaggi più chiari del report è che l’autonomia non può essere un’aggiunta estemporanea: richiede una riprogettazione coordinata a più livelli dell’organizzazione. Sei elementi risultano essenziali:

  1. Strategia chiara – non ogni flusso di lavoro necessita di un agente; il lavoro deve trarre reale beneficio.
  2. Governance affidabile – le regole devono essere esplicite, verificabili e adattive.
  3. Fondazione dati solida – agenti intelligenti agiscono solo quanto i dati che ricevono sono ricchi, aggiornati e integrati.
  4. Architettura tecnologica interoperabile – sistemi che comunicano tra loro, non strumenti isolati.
  5. Sviluppo della workforce – le persone devono essere preparate a nuovi ruoli, non semplicemente “riallocate”.
  6. Modello di cambiamento dinamico – l’organizzazione deve imparare mentre si trasforma.

Non si tratta di un aggiornamento tecnico: è una vera e propria riconfigurazione organizzativa.

Misurare il Progresso: Return-on-Autonomy

Per assicurare che l’autonomia generi valore, il report propone il concetto di RoA – Return-on-Autonomy.
Non si tratta solo di efficienza, ma di considerare:

  • Velocità di decisione
  • Riduzione dei tempi di ciclo
  • Diminuzione degli errori e dei rifacimenti
  • Qualità dei risultati
  • Soddisfazione e fiducia degli utenti degli agenti

Il valore non risiede solo nelle azioni degli agenti, ma nel modo in cui l’impresa evolve di conseguenza.

Un Percorso Graduale, Non un Balzo

Il viaggio verso l’impresa agentica è progressivo:

  1. Iniziare con piccoli scenari pilota, dove valore e vincoli sono chiari.
  2. Espandere l’autonomia a sequenze di azioni, non solo a singoli compiti.
  3. Progettare processi e sistemi fin dall’inizio per lavorare con e attraverso gli agenti.

Ogni passo costruisce le basi per il successivo: l’autonomia ha effetto cumulativo.

Verso il Lavoro Umano-Agentico

La transizione verso l’impresa agentica non significa semplicemente aggiungere intelligenza ai flussi esistenti. Come sottolinea il report Work, Reworked, “agentic AI isn’t just a powerful new tool — it requires us to reimagine how work gets done.”

Questo è il punto di svolta: le organizzazioni devono decidere se l’autonomia diventa un livello aggiuntivo sui processi legacy o il catalizzatore di una riprogettazione profonda del valore.

Senza un redesign, l’autonomia scala solo inefficienza. Per realizzarne il pieno potenziale, le organizzazioni devono spostarsi:

  • dal cambiamento guidato dalla tecnologia alla trasformazione centrata sull’uomo
  • da ruoli basati sui compiti a design del lavoro basato sui risultati
  • dalla crescita dipendente dal personale alla performance scalabile attraverso l’orchestrazione
  • dall’inerzia culturale alla prontezza organizzativa come capacità strategica

L’autonomia non è una destinazione: è il modello operativo che permette a esseri umani e agenti AI di operare come un sistema unico.

Le organizzazioni che guideranno questa transizione saranno quelle che riprogetteranno il lavoro dall’inizio, creando ambienti dove gli agenti digitali gestiscono complessità e scala, mentre le persone recuperano tempo, attenzione e spazio cognitivo per ciò che richiede vero giudizio, creatività e finalità.

Il futuro delle performance aziendali non è uomo contro macchina, né uomo al servizio della macchina. È lavoro guidato dall’umano, abilitato dagli agenti, ancorato ai risultati.

Chi agisce ora, con decisione e intenzione, non solo opererà più efficacemente: plasmerà un sistema di lavoro più adattivo, resiliente e significativo, dove l’autonomia diventa la base di una nuova forma di potenziale umano.

“Le domande come ‘che cos’è l’intelligenza artificiale?’ o ‘è possibile?’ non hanno più senso. Ciò che conta ora sono le questioni aperte sulla sua natura e il suo impatto.”
Daniel C. Dennett

Una nuova svolta antropologica

L’Intelligenza Artificiale (AI) non rappresenta semplicemente un’evoluzione tecnologica: è la più profonda provocazione antropologica che l’umanità abbia mai affrontato. Come sottolinea Dennett, non ha più senso chiedersi se l’AI sia possibile; la vera domanda è come essa stia cambiando la nostra condizione umana.
L’AI sta già ridefinendo non solo i meccanismi del lavoro, ma anche i dispositivi interpretativi attraverso i quali costruiamo senso, comunichiamo significati, comprendiamo il mondo. Una trasformazione che richiama la profonda connessione fra tecnologia e cognizione umana studiata da Doreen Kimura, che ha mostrato la relazione fra le aree cerebrali deputate ai movimenti fini e quelle del linguaggio, evidenziando come l’evoluzione della manipolazione tecnica sia legata a quella della capacità di articolare concetti complessi.

Non è un caso, allora, che i Large Language Models (LLM) rappresentino ben più di un salto tecnico: essi riscrivono il modo in cui generiamo, manipoliamo e condividiamo significato. Il linguaggio da dispositivo interpretativo si fa sintetico, generativo, artificiale—sfidando i confini tra naturale e artificiale.
Lo stesso accade con le immagini: la fotografia, un tempo specchio del reale, ora genera mondi mai esistiti. La catena referenziale della verità si spezza, aprendo a nuove ambiguità, creatività—e rischi.
L’AI ci obbliga dunque a ripensare le frontiere fra naturale e artificiale, conoscenza e calcolo, delega e responsabilità. Come afferma Manuel Castells, non c’è rivoluzione tecnologica senza rivoluzione culturale.

Come restare rilevanti in questo scenario? Come rafforzare le competenze umane distintive quando le macchine ci superano nei compiti che consideravamo unici? La sfida che si pone a HR, formatori, leader non è tecnica, ma culturale.

Serve uno sguardo integrato, che intrecci dimensioni storiche, filosofiche, sociologiche, cognitive, per orientare la trasformazione del lavoro e delle organizzazioni.


Il continuum evolutivo della tecnica

L’AI non è una rottura improvvisa nella storia umana. Come osservava Ernst Mach nel 1905, l’uomo è spinto da una naturale inclinazione a riprodurre ciò che comprende—una tendenza che attraversa ogni epoca.

Dal mito di Prometeo ai calcolatori di Pascal, dagli automi greci ai sistemi AI odierni: è questo impulso a imitare e riprodurre il reale a generare evoluzione tecnologica. L’AI ne è l’espressione più radicale.
Per Arnold Gehlen, l’uomo è un essere biologicamente incompleto, che esternalizza funzioni vitali in strumenti e ambienti. La tecnologia non è un accessorio: è estensione funzionale dell’umano. L’AI è oggi la più avanzata protesi epistemologica, che ridefinisce percezione, decisione, apprendimento.

Il Test di Turing (1950) ha spostato la questione dal meccanico all’identitario: se una macchina si comporta come un uomo, dov’è il confine della coscienza? Penrose, Churchland, Barr & Feigenbaum, Edelman hanno spinto più a fondo il dibattito, intrecciando filosofia, neuroscienze, cibernetica.
Le macchine Darwin III e Nomad di Edelman hanno mostrato come l’apprendimento possa emergere dall’adattamento, non dalla programmazione. Allo stesso modo, gli agenti intelligenti descritti da Giuseppe Riva rivelano l’AI come nuovo attore cognitivo nello spazio umano.

L’AI riflette così le nostre aspirazioni, contraddizioni, paure. È prisma della tensione evolutiva fra conoscenza e calcolo, intuizione e automatismo, creatività e replica.

Riflessività e resistenza: vantaggi cognitivi umani

Per questo il ruolo umano nella governance dell’AI deve cambiare. Come scrive Donald Schön, i professionisti efficaci agiscono in “zone indeterminate” — spazi di incertezza e conflitto. Qui conta la reflection-in-action: la capacità di percepire, interrogare, modificare in corso d’opera.

Per le organizzazioni ciò significa trattare l’adozione dell’AI come processo adattivo continuo, non come progetto tecnico finito. Serve chiedersi: quali effetti imprevisti produce? Come cambiano dinamiche di team, potere, competenze?
La reflection-on-action amplia questo lavoro: rileggere pratiche, assunzioni, risultati; promuovere cultura del feedback, policy trasparenti, apprendimento permanente.

Essenziale anche il concetto di Olivier Houdé di “imparare a resistere“. Nell’era degli LLM, resistere alla risposta immediata e intuitiva diventa competenza cruciale. L’output dell’AI può sembrare autorevole—ma richiede verifica, controllo delle fonti, giudizio critico.

Questa resistenza cognitiva tutela l’unicità umana: creatività, empatia, etica, analisi critica. Senza di essa rischiamo di ridurci a validatori passivi di decisioni algoritmiche.


Dall’Human-in-the-Loop all’Human-on-the-Loop

Serve allora un salto di paradigma: da “human-in-the-loop” a “human-on-the-loop”.
L’”in-the-loop” confina l’umano a supervisore di emergenza, ruolo reattivo e marginale. L’”on-the-loop” vede l’umano come progettista, stratega, governatore del sistema:

  • Definizione di scopo e limiti;
  • Progettazione di architetture etiche e trasparenti;
  • Interpretazione dei risultati nel contesto socio-culturale;
  • Controllo ultimo e potere di disattivazione.

HR ha qui ruolo cruciale: l’AI impatta reclutamento, formazione, collaborazione, valutazione, cultura. Il compito è garantire che essa amplifichi—non impoverisca—potenziale, diversità, autonomia umana.


Implicazioni organizzative: strategia, competenze, etica

  1. Strategia: integrazione AI richiede adattamento culturale e strutturale, non solo tecnico.
  2. Competenze: l’OCSE avverte sul divario di skill. Urgente riqualificazione diffusa.
  3. Governance: come indicano Deloitte e McKinsey, le aziende sono impreparate alla gestione dei rischi AI. Servono policy robuste.
  4. Cultura: l’AI ridefinisce l’identità organizzativa. HR deve gestire paure, resistenze, promuovere adozione consapevole.
  5. Etica: come nota Kurzweil, se le macchine imitano l’uomo, la posta etica si alza. L’agenzia umana responsabile resta insostituibile.

Verso un nuovo umanesimo digitale

L’AI ci impone di rinnovare competenze umanistiche: metacognizione, etica, riflessività, resistenza. Non sono lussi—sono competenze di sopravvivenza.

Come scriveva Antoine de Saint-Exupéry:

“La tecnologia non allontana l’uomo dai grandi problemi della natura: lo costringe a studiarli più a fondo.”

Dobbiamo accogliere questa sfida.


Letture consigliate e riferimenti bibliografici

  • Accoto, C. (2017). Il mondo dato: Cinque brevi lezioni di filosofia digitale. Egea.
  • Accoto, C. (2023). Il pianeta latente: L’intelligenza delle piattaforme come nuovo ordine del mondo. Egea.
  • Besana, S. (2021). The Future of Work: AI, People, and Organizational Change. Hoepli.
  • Castells, M. (1996). The rise of the network society. Blackwell.
  • Churchland, P. M. (1984). Matter and consciousness: A contemporary introduction to the philosophy of mind. MIT Press.
  • Deloitte. (2024–2025). Human Capital Trends 2024–2025. Deloitte Insights.
  • Dennett, D. C. (1996). Kinds of minds: Toward an understanding of consciousness. Basic Books.
  • Edelman, G. M. (1987). Neural Darwinism: The theory of neuronal group selection. Basic Books.
  • Feigenbaum, E. A., & Barr, A. (1981). The handbook of artificial intelligence (Vol. 1). Heuristech Press.
  • Gehlen, A. (1980). Man in the age of technology. Columbia University Press.
  • Houdé, O. (2019). The psychology of intelligence. Routledge.
  • Kurzweil, R. (1999). The age of spiritual machines: When computers exceed human intelligence. Penguin Books.
  • Mach, E. (1905). The analysis of sensations (C. M. Williams, Trans.). Dover Publications.
  • McKinsey & Company. (2023). The state of AI in 2023: Generative AI’s breakout year. McKinsey Global Survey.
  • OECD. (2023). Skills Outlook 2023: Skills for a resilient green and digital transition. OECD Publishing.
  • Penrose, R. (1989). The emperor’s new mind: Concerning computers, minds, and the laws of physics. Oxford University Press.
  • Riva, G. (2004). The psychology of cyberspace: The impact of the Internet on self and society. Ios Press.
  • Saint-Exupéry, A. de. (2000). Wind, sand and stars (L. Galantière, Trans.). Mariner Books. (Original work published 1939)
  • Schön, D. A. (1983). The reflective practitioner: How professionals think in action. Basic Books.
  • Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.

L’Intelligenza Artificiale (IA) sta trasformando rapidamente le industrie, le società e le economie. Con il progresso delle tecnologie IA, aumentano anche i rischi e le implicazioni legate al loro utilizzo. Il Rapporto Internazionale sulla Sicurezza dell’IA 2025 fornisce un’analisi approfondita delle capacità, dei rischi e delle strategie di mitigazione relative all’IA generalista. Questo post sintetizza i principali risultati del rapporto, trattando:

  • Le capacità in rapida evoluzione dell’IA
  • I rischi associati a usi malevoli, malfunzionamenti e sfide sistemiche
  • Lo stato attuale della gestione dei rischi e delle strategie di mitigazione
  • Le implicazioni più ampie per i decisori politici e le imprese

Il rapporto è frutto del contributo di 96 esperti internazionali di IA provenienti dal mondo accademico, governativo e industriale, e riflette la più recente comprensione dei rischi legati all’IA e dei meccanismi di sicurezza. È stato sviluppato nell’ambito di un’iniziativa globale per creare un approccio condiviso alla governeance e alla sicurezza dell’IA.


Capacità dell’IA Generalista

Le capacità dell’IA si sono evolute a un ritmo straordinario, superando le aspettative precedenti. Cinque anni fa, i modelli di IA faticavano a generare paragrafi coerenti. Oggi sono in grado di:

  • Scrivere e correggere codice con precisione crescente, assistendo gli sviluppatori nell’automazione di compiti complessi e nell’individuazione di vulnerabilità prima del rilascio.
  • Sostenere conversazioni avanzate in più lingue, con una maggiore consapevolezza del contesto, intelligenza emotiva e coerenza delle risposte, rendendoli strumenti preziosi per il servizio clienti, la terapia e la creazione di contenuti.
  • Generare immagini, video e audio realistici, indistinguibili dai contenuti creati dall’uomo, aprendo nuove opportunità creative ma anche sollevando questioni etiche, specialmente nella lotta alla disinformazione e alle frodi.
  • Eseguire ragionamenti scientifici e risolvere problemi matematici a livelli esperti, supportando la ricerca in fisica, chimica e medicina, accelerando la scoperta di nuovi farmaci e aiutando nella modellazione climatica.

Over 90% of online content could be AI-generated by 2030, raising concerns about authenticity, trust in media, and election security.


Rischi Associati all’IA Generalista

Con l’aumento delle capacità dell’IA, crescono anche le preoccupazioni sul suo potenziale utilizzo improprio e sulle conseguenze indesiderate. Il rapporto classifica i rischi dell’IA in tre categorie principali:

Rischi di Uso Malevolo
L’IA può essere sfruttata da attori malintenzionati per causare danni su larga scala. Tra le minacce più preoccupanti troviamo:

  • Contenuti falsi e deepfake: I media generati dall’IA possono essere usati per diffondere disinformazione, frodi o ricatti. Alcuni studi stimano che oltre il 90% dei contenuti online potrebbe essere generato dall’IA entro il 2030, sollevando preoccupazioni su autenticità, fiducia nei media e sicurezza elettorale.
  • Manipolazione dell’opinione pubblica: Le campagne di propaganda guidate dall’IA possono influenzare elezioni, decisioni politiche e movimenti sociali. Eventi passati hanno dimostrato come reti di bot e contenuti generati dall’IA siano stati usati per distorcere il discorso politico, aumentando la polarizzazione e minando la democrazia.
  • Attacchi informatici: L’IA viene sempre più sfruttata nella cybersicurezza, sia per misure difensive che per forme avanzate di hacking. Strumenti di rilevamento automatico delle vulnerabilità e sfruttamento delle falle, alimentati dall’IA, potrebbero rappresentare gravi minacce alle infrastrutture digitali.
  • Minacce biologiche e chimiche: Alcuni modelli di IA hanno dimostrato la capacità di assistere nella progettazione di agenti biologici dannosi, sollevando preoccupazioni sulla possibilità di un uso improprio da parte di attori non statali o organizzazioni criminali.

AI-driven automation is expected to replace millions of jobs, requiring large-scale workforce reskilling initiatives to mitigate economic displacement.

Rischi di Malfunzionamento
Anche quando non viene utilizzata in modo malevolo, l’IA può causare danni involontari a causa di difetti di progettazione, dati di addestramento incompleti o comportamenti imprevedibili. I rischi includono:

  • Problemi di affidabilità: I sistemi di IA a volte generano informazioni false o fuorvianti, soprattutto in settori critici come medicina, diritto e finanza.
  • Bias e discriminazione: Gli algoritmi possono amplificare e perpetuare pregiudizi presenti nei dati di addestramento, causando discriminazioni in ambiti come assunzioni, prestiti e applicazione della legge.
  • Perdita di controllo: Gli esperti avvertono che i futuri sistemi di IA potrebbero diventare sempre più difficili da prevedere e gestire, sollevando interrogativi sulla necessità di garantire un allineamento sicuro tra IA e obiettivi umani.

Rischi Sistemici
Oltre ai problemi legati ai singoli modelli, l’adozione diffusa dell’IA porta a rischi più ampi per l’economia e la società:

  • Disoccupazione tecnologica: L’automazione guidata dall’IA potrebbe eliminare milioni di posti di lavoro, rendendo necessarie iniziative su larga scala per la riqualificazione della forza lavoro.
  • Concentrazione del potere dell’IA: Poche aziende dominano lo sviluppo dell’IA, creando squilibri nell’accesso alle tecnologie avanzate e nella capacità di regolamentare il settore.
  • Impatto ambientale: L’addestramento di un singolo modello di IA di grandi dimensioni può produrre tanta CO₂ quanto cinque automobili nel corso della loro vita utile.

Training a single large AI model produces as much CO₂ as five cars over their lifetime, necessitating greener computing solutions and regulatory interventions.


Gestione del Rischio e Strategie di Mitigazione

Le strategie di gestione del rischio devono concentrarsi sulla trasparenza, sulla conformità normativa e sull’etica dell’IA. Governi e imprese devono sviluppare quadri normativi completi che garantiscano un uso responsabile dell’IA, imponendo test rigorosi prima del rilascio dei modelli.

Gli investimenti nella ricerca sulla sicurezza dell’IA devono aumentare, con un focus su interpretabilità, riduzione dei bias e robustezza contro attacchi esterni. Le collaborazioni pubblico-private possono contribuire a creare organismi di vigilanza indipendenti per garantire la responsabilità nello sviluppo dell’IA.


Il Futuro dell’IA e le Considerazioni Politiche

La governance dell’IA, lo sviluppo etico e gli standard normativi saranno cruciali per definire il modo in cui l’IA verrà integrata nella società. I responsabili politici devono bilanciare innovazione e sicurezza, garantendo che l’IA sia utilizzata per il bene pubblico.

Le future politiche dovrebbero concentrarsi sulla democratizzazione dell’accesso all’IA, prevenendo il controllo monopolistico sulle tecnologie e promuovendo uno sviluppo sostenibile dell’IA per ridurre l’impatto ambientale.

AI does not happen to us; it is shaped by the choices we make today. Ensuring a future where AI serves humanity requires vigilance, cooperation, and a commitment to responsible innovation.

Il Rapporto Internazionale sulla Sicurezza dell’IA 2025 è una risorsa fondamentale per comprendere il panorama in evoluzione dell’IA. Le scelte che società e governi faranno oggi determineranno se l’IA rimarrà una forza positiva o diventerà una sfida globale.

La National Academies of Sciences, Engineering, and Medicine ha pubblicato un report approfondito intitolato Artificial Intelligence and the Future of Work. Questo studio analizza l’impatto dell’AI sulla produttività, sulle dinamiche del lavoro, sull’istruzione e sulle politiche pubbliche. Qui sotto esploriamo i punti chiave del report, arricchendoli con dati e insight per offrire un quadro chiaro e concreto dell’influenza attuale e futura dell’AI.


Scoperta 1: L’AI è una tecnologia generalista in rapida evoluzione

“AI is a general-purpose technology that has recently undergone significant rapid progress. Still, there is a great deal of uncertainty about its future course, suggesting that wide error bands and a range of contingencies should be considered.”

  • Il mercato globale dell’AI crescerà da 136,6 miliardi di dollari nel 2022 a 1,81 trilioni entro il 2030, con un CAGR del 37,3%.
  • I modelli di linguaggio di grandi dimensioni (LLM) hanno visto un’espansione esponenziale, passando da 40GB (GPT-2, 2019) a 45TB (GPT-4, 2023).
  • Gli investimenti in ricerca e sviluppo sull’AI hanno raggiunto 91,9 miliardi di dollari nel 2022, con un aumento del 19,6% rispetto all’anno precedente.

Scoperta 2: I sistemi di AI oggi sono ancora imperfetti

“AI systems today remain imperfect in multiple ways. For example, LLMs can ‘hallucinate’ incorrect answers to questions, exhibit biased behavior, and fail to reason correctly to reach conclusions from given facts.”

  • Tasso di errore: L’AI ha un margine di errore del 15-20%, specialmente in settori critici come sanità e diritto.
  • Bias nei modelli: Uno studio MIT ha rivelato che il riconoscimento facciale ha un tasso di errore 34,7% più alto per persone con pelle scura rispetto a quelle con pelle chiara.
  • Cybersecurity: Gli attacchi phishing basati su AI sono aumentati del 126% anno su anno.

Scoperta 3: L’AI continuerà ad avanzare, ma la sua traiettoria è incerta

“Significant further advances in AI technology are highly likely, but experts do not agree on the exact details and timing of likely advances.”

  • Incertezza sulle tempistiche: Il 47% degli esperti prevede l’AI a livello umano entro il 2040, mentre il 25% pensa che non arriverà prima del 2075.
  • Potenza computazionale: La capacità di calcolo per l’addestramento AI è raddoppiata ogni 3,4 mesi dal 2012, superando la legge di Moore.
  • Adozione aziendale: Il 77% delle aziende sta esplorando l’AI, ma solo il 23% l’ha completamente integrata nei processi aziendali.

Scoperta 4: Il potenziale dell’AI per la produttività è significativo ma disomogeneo

“AI offers the promise of significant improvements in productivity, but achieving these benefits will require complementary investments in skills and organizational processes.”

  • Aumento della produttività: L’AI potrebbe far crescere il PIL globale del 7% all’anno entro il 2030.
  • Differenze settoriali: L’AI potrebbe migliorare la produttività del 25% in IT e software, ma solo del 5-10% in sanità e manifattura.
  • Automazione del lavoro: Il 60% dei lavori attuali ha almeno il 30% delle attività automatizzabili.

Scoperta 5: L’impatto dell’AI sull’occupazione dipenderà da molteplici fattori

“The labor market consequences of AI deployment will depend both on the rate at which AI’s capabilities evolve and on demographic, social, institutional, and political forces.”

  • Perdita di posti di lavoro: Secondo McKinsey, l’AI potrebbe sostituire 400 milioni di posti di lavoro entro il 2030, ma crearne tra 550-600 milioni di nuovi.
  • Demografia e lavoro: Il calo della popolazione attiva nei paesi avanzati potrebbe compensare le perdite occupazionali dovute all’AI.
  • Disuguaglianza salariale: Il top 10% degli stipendi ha visto una crescita del 14% grazie all’AI, mentre i salari dei lavoratori meno qualificati sono rimasti stagnanti.

Scoperta 6: Il ruolo dell’AI nell’istruzione e nella formazione professionale è in crescita

“AI will have significant implications for education at all levels, from primary to continuing workforce education.”

  • Apprendimento personalizzato: Le piattaforme educative AI-driven hanno aumentato i tassi di ritenzione degli studenti del 12-18%.
  • Necessità di riqualificazione: 1,1 miliardi di lavoratori dovranno essere riqualificati nei prossimi dieci anni.
  • Investimenti in formazione aziendale: Le aziende hanno speso 366 miliardi di dollari in programmi di upskilling nel 2022, con un incremento del 32% rispetto al 2019.

Scoperta 7: Servono misurazioni migliori per monitorare l’impatto dell’AI sul lavoro

“Better measurement of how and when AI advancements affect the workforce is needed.”

  • Monitoraggio dell’adozione AI: Solo il 35% dei paesi ha statistiche ufficiali sull’impatto dell’AI sul lavoro.
  • Lacune nei dati pubblici: Il 42% dei policymaker denuncia una mancanza di metriche affidabili sull’occupazione AI.
  • Tendenze nel mercato del lavoro: Le offerte di lavoro legate all’AI su LinkedIn sono aumentate del 72% negli ultimi due anni.

Conclusione: Il Futuro del Lavoro non è preordinato

“It is impossible to predict exactly the nature of AI’s effects, but society can take steps to shape AI’s impact through policy, education, and ethical guidelines.”

  • I policymaker devono bilanciare innovazione e regolamentazione, garantendo che i benefici dell’AI siano distribuiti equamente.
  • Le aziende devono investire in strategie di lavoro aumentato dall’AI, privilegiando la collaborazione uomo-macchina rispetto alla pura automazione.
  • I lavoratori devono puntare su apprendimento continuo e adattabilità, sfruttando i nuovi strumenti AI per restare competitivi.

L’impatto dell’AI sul lavoro è complesso e articolato. Solo con scelte consapevoli e strategie mirate possiamo garantire che l’AI contribuisca a un futuro del lavoro più produttivo, equo e innovativo.