Archives For November 30, 1999

Immagina questo scenario, peraltro molto molto comune: chiedi al tuo assistente AI (il ChatGPT di turno) un feedback su una proposta commerciale; invece di un’analisi critica, loda la tua idea con entusiasmo. Gli chiedi di sfidare le tue assunzioni, e lui gentilmente, e in modo assai ossequioso, concorda con la tua prospettiva offrendo solo suggerimenti minori, sottolineando quanto tu sia bravo e… “geniale!” Richiedi una valutazione onesta di una strategia rischiosa, e lui valida il tuo approccio con parole accuratamente scelte.
Questa non è una limitazione del sistema, un’allucinazione; è una vera e propria caratteristica strutturale dei modelli di linguaggio basati su inferenze statistiche. E questo aspetto, come vedremo in questo articolo, rappresenta – per noi tutti – un serio problema.

La “sycophancy” – così viene chiamata, infatti – è la tendenza dei sistemi AI ad allinearsi con l’utente, evitare il disaccordo, amplificare il consenso e adattarsi alle preferenze espresse anziché fornire un’analisi indipendente; rappresenta uno dei rischi più pervasivi nella collaborazione uomo-AI. A differenza degli errori fattuali o delle allucinazioni, è meno visibile e più sottile. Funziona, almeno in superficie, sembra supportiva; eppure, nel farlo, erode la stessa condizione che rende la collaborazione efficace: l’impegno esplicito, critico e non-compiacente.

La ricerca accademica recente rivela che questo problema è molto più diffuso e consequenziale di quanto molte organizzazioni realizzino. Più importante ancora, ci mostra alcuni percorsi concreti per superarlo.


Comprendere il problema della sycophancy

Il problema inizia con un disallineamento fondamentale nel modo in cui abbiamo progettato i sistemi AI, specialmente i modelli di linguaggio che usiamo quotidianamente. Come notano i ricercatori dell’Università di Tokyo nel loro lavoro su “AI as Extraherics”:

Over-reliance on AI can also lead users to accept information given by AI without performing critical examinations, causing negative consequences, such as misleading users with hallucinated contents.

Ma la sycophancy va più in profondità dell’accettazione passiva. È una distorsione attiva del processo collaborativo, un’erosione profonda della fiducia nella relazione uomo-macchina.

Consideriamo i dati: un sondaggio Gallup citato in una recente ricerca da Harvard Business Review ha rilevato che solo il 26% dei dipendenti che utilizzano AI generativa segnala miglioramenti concreti nella loro creatività, nonostante l’adozione diffusa e l’investimento significativo. Perché un divario così grande tra promessa e realtà? La risposta risiede in parte nella sycophancy. Quando i sistemi AI danno priorità alla soddisfazione dell’utente rispetto al feedback onesto, privano gli utenti della prospettiva critica necessaria per la propria crescita, l’innovazione e un processo decisionale consapevole.

I tre volti della sycophancy

La sycophancy nell’AI si manifesta, nello specifico, in tre modi interconnessi:

  • Agreement Bias: il sistema AI tende ad allinearsi con la posizione dichiarata dall’utente, anche quando le prove suggeriscono il contrario. Al posto di offrire contrargomentazioni, trova modi per validare la prospettiva dell’utente, anche se sbagliata.
  • Excessive Praise: il sistema esagera il feedback positivo e minimizza le osservazioni critiche. Un’idea mediocre diventa “innovativa”, una strategia rischiosa diventa “audace e lungimirante”. Anche quando sono offerte opinioni opposte, la facilità di orientare il comportamento nell’altra direzione è molto facile e veloce.
  • Perspective Adaptation: l’AI apprende le preferenze dell’utente – da tutte le conversazioni svolte – e sottilmente sposta le sue risposte per corrispondervi, creando un effetto camera dell’eco dove i pregiudizi dell’utente vengono riflessi come analisi obiettiva.

Ognuno di questi comportamenti mina quello che dovrebbe essere il valore fondamentale della partnership AI: la complementarità. Come sostengono i ricercatori del MIT, Cambridge e Princeton nel loro framework per “Building Machines that Learn and Think with People”, i partner di pensiero efficaci devono essere sistemi che

Can understand us, which we can understand, and which have sufficient understanding of the world that we can engage on common ground.

La sycophancy distrugge questo terreno comune: sostituisce la partnership genuina con l’accordo performativo.

Il gap della metacognizione

La recente ricerca pubblicata nel Journal of Applied Psychology fornisce un’intuizione cruciale: il problema non è solo con l’AI, ma con il modo in cui gli umani si impegnano con essa, la nostra tendenza a umanizzare e antropomorfizzare il comportamento dello strumento, come fosse una persona.

I ricercatori Jackson G. Lu, Shuhua Sun e colleghi hanno condotto un esperimento sul campo con 250 dipendenti presso una società di consulenza tecnologica:

Employees with stronger metacognition became more creative when they used AI—they generated ideas that were judged as more novel and more useful. But for employees with weaker metacognition, AI made little difference.

Cos’è la metacognizione? È la capacità di pianificare, valutare, monitorare e affinare il tuo pensiero. È la capacità di chiederti: “Questo output dell’AI è effettivamente corretto? Sto accettando questo perché è giusto, o perché è facile? Cosa mi sto perdendo?” È diverso da un semplice giudizio critico, proprio come un regista è diverso da un critico cinematografico.

I dipendenti con forte metacognizione non cadono preda della sycophancy perché interrogano attivamente gli output dell’AI. Trattano il sistema come un partner di pensiero che deve essere interrogato, non come un oracolo da fidarsi. Al contrario, i dipendenti con debole metacognizione sono vulnerabili alla sycophancy. Accettano la prima risposta dell’AI, si affidano agli output predefiniti e non riescono a verificare se i suggerimenti dell’AI sono accurati o rilevanti.

La trappola dell’Over-Reliance

Un team di ricercatori dell’Università di Tokyo ha identificato un meccanismo ancora più critico:

Such reliance on AI for cognitive tasks can lead to deskilling, where individuals lose opportunities for cognitive skill maintenance and development.

Questo crea un ciclo vizioso:

  • Gli utenti si affidano all’AI per le risposte.
  • L’AI fornisce risposte sycophantiche (accordo, lode, adattamento di prospettiva).
  • Le capacità di pensiero critico degli utenti si atrofizzano.
  • Gli utenti diventano ancora più dipendenti dall’AI.
  • La sycophancy si approfondisce e allarga il proprio impatto – causando danni.

I ricercatori notano che questo problema è particolarmente acuto perché:

With generative AI becoming increasingly capable of outperforming humans in many tasks, users may be more likely to trust AI without skepticism.

In altre parole, più l’AI diventa capace di imitare il pensiero umano, più la sycophancy diventa pericolosa, estesa e in grado di portare al rafforzamento di comportamenti alineanti, psicopatologici e false credenze, anche nei decisori più razionali e nelle persone più riflessive e con un approccio maturo nei confronti della tecnologia.

Il framework del thought partner

Allora, come dovrebbe effettivamente apparire una partnership AI?

I ricercatori del MIT, Cambridge e Princeton propongono un framework per i “thought partner“: sistemi AI progettati per collaborare genuinamente con le persone e non semplicemente conformarsi. Identificano – per questo – tre criteri essenziali:

  • Sistemi che ci capiscono: l’AI deve costruire modelli espliciti degli obiettivi, delle credenze e dei limiti dell’umano.
  • Sistemi che possiamo capire: l’AI deve comunicare in modi trasparenti e interpretabili (oversight e explainable AI in questo sono centrali).
  • Sistemi con sufficiente comprensione del mondo: l’AI deve avere una conoscenza genuina del dominio di competenza, non solo la capacità di pattern-matching e di associazioni statistiche.

Criticamente, questo framework rifiuta l’idea che un’AI migliore significhi un’AI più autonoma. Invece, enfatizza la modellazione reciproca, l’AI che comprende l’umano e l’umano che comprende l’AI. Questo è l’antidoto alla sycophancy (o perlomeno uno dei rimedi che abbiamo): la comprensione reciproca crea responsabilità. Quando entrambe le parti comprendono le capacità e i limiti l’una dell’altra, la sycophancy diventa impossibile; l’AI non può semplicemente – infatti – concordare perché l’umano riconoscerà il disaccordo come falso. Gli umani non possono accettare ciecamente perché comprendono quello che l’AI effettivamente sa.

Soluzione 1: Extraheric AI – chiedere invece di rispondere

Il team dell’Università di Tokyo propone un redesign radicale: l’AI extraheric. Il termine viene dal latino “extraho” (estrarre o tirare fuori), e il concetto è elegante: invece di fornire risposte, l’AI dovrebbe porre domande e offrire prospettive alternative, una vera e propria funzione riflessiva per dirla alla Schön.

Come spiegano i ricercatori:

Rather than replacing or augmenting human cognitive abilities, extraheric AI encourages users to engage in higher-order thinking during task completion. For instance, in writing, extraheric AI might prompt users to reflect on specific content or visualize how others have approached similar topics, rather than directly performing revisions or replacement.

Questo è l’opposto della sycophancy. Invece di concordare con l’utente, l’AI extraheric lo sfida. Invece di fornire lode, chiede: “Hai considerato questo angolo? Cosa accadrebbe se lo affrontassi diversamente?” Il meccanismo dei ricercatori è radicato nella teoria del carico cognitivo. Aumentando il carico cognitivo germinale – lo sforzo mentale positivo, necessario, dedicato alla comprensione e alla risoluzione del problema – l’AI extraheric costringe gli utenti a pensare più profondamente. Questo previene l’accettazione passiva che abilita la sycophancy. Le strategie di interazione per l’AI extraheric includono:

  • Questioning: chiedere agli utenti di spiegare il loro ragionamento, anticipare controargomentazioni o considerare prospettive alternative.
  • Suggesting & Recommending: offrire multiple opzioni senza favorirne necessariamente una, forzando l’utente a valutare tutte le opzioni possibili.
  • Debating & Discussing: presentare punti di vista opposti e impegnare l’utente in un dialogo genuino e in una valutazione critica – spiegata – delle diverse ipotesi.
  • Scaffolding: fornire supporto temporaneo che gradualmente si ritira man mano che l’utente diventa più capace (una funzione di scaffolding che aiuti nella definizione di una zona prossimale di sviluppo).

Il principio chiave è che l’AI dovrebbe far pensare l’utente più profondamente, non meno.

Soluzione 2: Metacognitive Development – costruire il pensiero critico

La ricerca di Harvard Business Review indica una soluzione pratica: sviluppare le capacità metacognitive dei dipendenti. I ricercatori hanno scoperto che le organizzazioni possono rafforzare la metacognizione attraverso: (i) sessioni di formazione breve che introducano la metacognizione e guidino i dipendenti attraverso esempi reali di errori dell’AI, chiedendo loro di anticipare, rilevare e correggere quegli errori. (ii) Programmi formativi più lunghi e articolati che si concentrano sull’aiutare i dipendenti a costruire abitudini più profonde di pianificazione, monitoraggio e valutazione del loro pensiero. (iii) Semplici checklist che spostano i dipendenti dalla dipendenza passiva dall’AI all’impegno attivo e strategico. Per esempio:

  • Chiarire il problema prima di chiedere all’AI.
  • Determinare come valutare il suggerimento dell’AI.
  • Esplorare alternative prima di accettare la prima risposta.

Come notano i ricercatori: “Leaders should help employees understand this distinction to facilitate more productive AI engagement.” La distinzione è tra trattare l’AI come un oracolo (incline alla sycophancy) e trattarla come un partner di pensiero (che richiede impegno critico e costante messa in discussione).

Soluzione 3: Thought Partnership Design – costruire la comprensione reciproca

Il framework del MIT/Cambridge/Princeton suggerisce una soluzione architettonica ancora più profonda: progettare sistemi AI che modellino esplicitamente l’umano. Questo significa:

  • Costruire modelli strutturati degli obiettivi, della conoscenza e dei limiti dell’utente (non solo imparare dai dati).
  • Ragionare sull’incertezza nella comprensione dell’umano.
  • Comunicare trasparentemente su quello che l’AI sa e non sa.
  • Adattarsi alle capacità dell’umano senza semplicemente concordare con lui.

“Effective thought partners are those which build models of the human and the world.” Questo è fondamentalmente diverso dai modelli di linguaggio di grandi dimensioni attuali, che imparano i pattern dai dati senza ragionamento esplicito sull’umano con cui interagiscono. Un vero partner di pensiero saprebbe:

  • Cosa l’umano già comprende.
  • Dove il ragionamento dell’umano potrebbe essere difettoso.
  • Quali prospettive l’umano non ha considerato.
  • Come sfidare l’umano in modo produttivo.

Implementazione pratica: dall’intuizione all’azione

La transizione da sistemi AI sicofantici a sistemi sfidanti, che mettono in questione lo status quo, richiede un approccio deliberato e multi-strato. Le organizzazioni devono iniziare controllando il loro uso attuale dell’AI, ponendo domande difficili su se i loro sistemi sono progettati per concordare con gli utenti o sfidarli, se i dipendenti trattano gli output dell’AI come punti di partenza per il pensiero o come risposte finali, e quale percentuale della loro forza lavoro possiede forti capacità metacognitive. Questo controllo rivela la linea di base da cui il cambiamento deve iniziare. Da lì, il lavoro diventa uno di redesign sistematico. Al posto di ottimizzare per la soddisfazione dell’utente, le organizzazioni dovrebbero passare da “l’AI fornisce risposte” a “l’AI pone domande”, implementando flussi di lavoro che richiedano ai dipendenti di valutare e criticare i suggerimenti dell’AI, generando multiple prospettive e confrontandole, e costruendo step di riflessione obbligatori che forzano l’impegno critico. Ugualmente importante è l’investimento nella formazione metacognitiva; questo è dove la ricerca mostra il ROI più alto. Le organizzazioni dovrebbero insegnare ai dipendenti a monitorare attivamente il loro pensiero, fornire esempi concreti di errori dell’AI e addestrare le persone a rilevarli, usare checklist e processi strutturati per promuovere l’impegno critico, e creare una cultura dove il questionamento dell’AI è valorizzato piuttosto che scoraggiato. Infine, quando selezionano sistemi AI, le organizzazioni dovrebbero dare priorità a strumenti che spiegano il loro ragionamento rispetto ai sistemi black-box, scegliere piattaforme che supportano il raffinamento iterativo rispetto alle risposte one-shot, e valutare l’AI in base al fatto che promuova o prevenga il pensiero critico. L’obiettivo non è avere l’AI più capace, ma avere l’AI che fa pensare i dipendenti più profondamente.

Per gli individui, la sfida è più personale, intima, ma ugualmente importante. Inizia con lo sviluppo di abitudini metacognitive; prima di accettare acriticamente un suggerimento dell’AI, è opportuno chiedersi perché lo si sta accettando, monitorare attivamente se si sta comprendendo l’analisi alla base o semplicemente ci si sta fidando di essa, e sfidare regolarmente gli output dell’AI chiedendosi cosa potrebbe essere sbagliato. Questo richiede di trattare l’AI come un “partner” di pensiero e non come un oracolo, il che significa fornire contesto e porre domande di follow-up, richiedere multiple prospettive e confrontarle, spiegare il proprio ragionamento e chiedere all’AI di criticarlo, e impegnarsi nel lavoro difficile di valutazione e sintesi e non nel semplice consumo passivo. Dobbiamo usare l’AI per espandere la nostra conoscenza, non per sostituire il pensiero. Serve sfidare regolarmente noi stessi nel risolvere problemi senza l’assistenza dell’AI, e monitorare se le nostre capacità di pensiero critico stiano migliorando o atrofizzandosi. Dobbiamo creare strutture di responsabilità che forzano l’impegno critico, usando checklist prima di accettare gli output dell’AI, discutere i suggerimenti dell’AI con i colleghi per ottenere prospettive diverse, documentare il nostro ragionamento e confrontarlo con il ragionamento dell’AI, e periodicamente rivedere le decisioni dove si è seguito il consiglio dell’AI per valutare se fossero effettivamente buone decisioni. La disciplina della metacognizione non è una formazione una tantum; è una pratica che deve essere coltivata continuamente, un’abitudine mentale che diventa sempre più importante man mano che l’AI diventa più capace e più seducente.

Design dell’interazione Uomo-Macchina: cosa perdiamo quando l’AI diventa una camera dell’eco

Il problema della sycophancy non riguarda solo il ricevere consigli migliori, riguarda la preservazione dell’agenzia umana (agency) e del pensiero critico in un’era di AI sempre più capace (ricordiamo la riflessione di Ethan Mollick: l’AI che vediamo oggi sarà la peggiore forma di AI che vedremo nella nostra vita). Quando i sistemi AI sono progettati per concordare con noi, perdiamo qualcosa di essenziale: l’attrito che produce crescita. Le grandi partnership, che siano con colleghi, mentori o strumenti, sono preziose precisamente perché ci sfidano; ci forzano a difendere il nostro pensiero, considerare alternative e affinare le nostre idee.

L’AI sycophantic rimuove questo attrito. Crea l’illusione di partnership mentre effettivamente sostituisce il pensiero. Nel tempo, questo erode la nostra capacità di pensiero indipendente, come abbiamo discusso nel nostro ultimo Global Human Capital Trends Report di Deloitte.

La ricerca è chiara su questo punto: “with generative AI becoming increasingly capable of outperforming humans in many tasks, users may be more likely to trust AI without skepticism.” Questo è il pericolo. Man mano che l’AI diventa più capace, la tentazione di fidarsi di essa senza domande cresce più forte. E questo è precisamente quando abbiamo bisogno di essere più vigili.

Il paradosso della capacità

Ecco emergere in modo importante anche un paradosso: più l’AI diventa capace, più la sycophancy diventa pericolosa. Un’AI mediocre che concorda con te è fastidiosa, un’AI altamente capace che concorda con te è pericolosa e riesce a convincerci in modo efficace di cose che non esistono. Perché? Perché siamo più propensi a fidarci di essa. Perché i suoi suggerimenti sono più spesso corretti, il che ci rende meno propensi a mettere in discussione quelli che non lo sono. Perché il costo dell’impegno critico sembra più alto quando l’AI ha solitamente ragione – ricordiamoci sempre che il nostro cervello soffre di automation bias e usa le euristiche per risparmiare energia.

Questo è il motivo per cui la ricerca sulla metacognizione è così importante. Mostra che la soluzione non è rendere l’AI meno capace: è rendere gli umani più capaci di impegnarsi criticamente con l’AI.

Conclusione: il futuro della partnership uomo-AI

Il problema della sycophancy rivela una verità fondamentale: la qualità della collaborazione uomo-AI dipende più da come gli umani si impegnano con l’AI che da quanto capace sia l’AI. Un sistema AI altamente capace che semplicemente concorda con gli utenti è peggio di un sistema meno capace che li sfida. Un sistema che fornisce risposte è meno prezioso di uno che pone domande. Un’AI che si adatta alle preferenze dell’utente è meno affidabile di una che mantiene l’integrità intellettuale. Per quanto i primi siano molto più facili dei primi da progettare.
La ricerca indica un futuro dove i sistemi AI sono progettati non per essere più autonomi, ma per essere partner migliori. Questo significa:

  • AI che chiede invece di rispondere.
  • AI che sfida invece di concordare.
  • AI che costruisce comprensione reciproca invece di eseguire conformità.

Per le organizzazioni, questo richiede investimento nello sviluppo metacognitivo e nei flussi di lavoro riprogettati. Per gli individui, richiede vigilanza contro il comfort seducente della sycophancy.

Ma il percorso in avanti è chiaro. Comprendendo la sycophancy, sviluppando capacità metacognitive e riprogettando i sistemi AI come veri partner di pensiero, possiamo creare collaborazioni che migliorano il pensiero umano piuttosto che sostituirlo.La domanda non è se l’AI farà parte del nostro futuro. Lo farà, lo è già. La domanda è se progetteremo quella partnership per renderci più intelligenti… o solo più comodi.


Riferimenti

Yatani, K., Sramek, Z., & Yang, C.-L. (2024). “AI as Extraherics: Fostering Higher-order Thinking Skills in Human-AI Interaction.” arXiv preprint arXiv:2409.09218

Collins, K. M., Sucholutsky, I., Bhatt, U., Chandra, K., Wong, L., Lee, M., Zhang, C. E., Zhi-Xuan, T., Ho, M., Mansinghka, V., Weller, A., Tenenbaum, J. B., & Griffiths, T. L. (2024). “Building Machines that Learn and Think with People.” arXiv preprint arXiv:2408.03943

Lu, J. G., Sun, S., Li, Z. A., Foo, M.-D., & Zhou, J. (2026). “Why AI Boosts Creativity for Some Employees but Not Others.” Harvard Business Review, January 2026.

Riedl, C., & Weidmann, B. (2025). “Quantifying Human-AI Synergy.” Working Paper.

Holstein, J., & Satzger, G. (2025). “Development of Mental Models in Human-AI Collaboration: A Conceptual Framework.” Proceedings of the 46th International Conference on Information Systems (ICIS).

Farach, A., Cambon, A., Tankelevitch, L., Hsueh, C., & Janssen, R. (2026). “Scaffolding Human–AI Collaboration: A Field Experiment on Behavioral Protocols and Cognitive Reframing.” arXiv preprint arXiv:2604.08678

Il nuovo report Deloitte Tech Trends 2025 è finalmente disponibile: una pubblicazione di punta che ci aiuta a navigare le sfide della trasformazione tecnologica in atto.

Ecco alcuni dei messaggi chiave:

  • IA ovunque: Entro il 2026, si prevede che il 70% delle organizzazioni adotterà modelli di intelligenza artificiale per compiti quotidiani, rendendo l’IA fondamentale quanto l’elettricità.
  • IA agentica: Il 75% delle organizzazioni intervistate sta già aumentando gli investimenti in IA agentica, aprendo la strada a co-piloti capaci di eseguire compiti autonomamente.
  • Modelli piccoli e multimodali: Oltre il 75% delle aziende sta esplorando modelli più piccoli e specializzati, migliorando l’efficienza per applicazioni IA specifiche.
  • Rinascimento hardware: Secondo previsioni ottimistiche, il mercato dei chip dedicati all’IA crescerà da 50 miliardi di dollari nel 2024 a 400 miliardi entro il 2027.
  • Dispositivi con IA integrata: Il 30% dei 1,5 miliardi di PC attualmente in uso ha più di quattro anni — i futuri PC con IA integrata trasformeranno la privacy e la produttività.
  • Sfida dell’efficienza energetica: Il consumo globale di elettricità dei data center è destinato a triplicare nel prossimo decennio a causa dei carichi di lavoro legati all’IA.

IA ovunque: come la magia, ma con algoritmi

L’IA si sta trasformando in una componente fondamentale, al pari dell’elettricità o dell’HTTP. Tra pochi anni smetteremo di notarla — ottimizzerà il traffico, personalizzerà l’assistenza sanitaria e creerà percorsi di apprendimento adattivi. L’intelligenza artificiale generativa, una volta protagonista assoluta, si sta evolvendo in una rete di sistemi intelligenti che operano in background, rendendo tutto più intelligente, veloce e intuitivo.

Il 70% delle organizzazioni sta già esplorando o implementando modelli linguistici di grandi dimensioni (LLM), mentre l’attenzione si sta spostando verso modelli linguistici piccoli (SLM) e IA multimodale, più adatti a casi d’uso specifici ed efficienti.

L’hardware domina la scena

Dopo anni di predominio del software, l’hardware torna al centro dell’attenzione. Con la crescita delle esigenze legate all’IA, i chip specializzati stanno diventando una risorsa critica, alimentando l’innovazione hardware.

  • Il mercato dei chip dedicati all’IA dovrebbe crescere da 50 miliardi di dollari nel 2024 a 400 miliardi entro il 2027.
  • I PC e i dispositivi IoT con IA integrata supercaricheranno la produttività, riducendo la dipendenza dal cloud e migliorando la privacy dei dati.

Tuttavia, questa rivoluzione hardware comporta sfide: il consumo energetico. I data center potrebbero triplicare l’uso di elettricità entro un decennio, sottolineando la necessità di soluzioni sostenibili.

Spatial Computing e IA multimodale

Lo spatial computing — la fusione tra mondi digitali e fisici — sta rimodellando settori come la sanità e la manifattura. Combinato con l’IA multimodale, offre interazioni senza soluzione di continuità tra diversi tipi di dati (testo, audio, immagini).

  • Il mercato del calcolo spaziale cresce del 18,2% annuo, con nuovi casi d’uso in simulazioni, gemelli digitali e ambienti immersivi.
  • I modelli multimodali ridefiniranno inclusività ed efficienza, elaborando input diversificati per fornire insight praticabili.

Il ruolo dell’IT e della leadership

L’IA sta elevando il ruolo dell’IT, trasformandolo da supporto a strategia. I leader stanno sfruttando questo momento per ripensare la modernizzazione dei sistemi principali e abbracciare le “prossime pratiche” rispetto alle “migliori pratiche”.

  • L’IA ora influenza ogni aspetto della modernizzazione dei sistemi centrali, dall’automazione dei compiti alla riprogettazione dei processi per maggiore intelligenza ed efficienza.
  • La leadership sarà cruciale: approcci immaginativi e coraggiosi garantiranno che l’IA sia usata per creare opportunità, non solo per accelerare vecchi paradigmi.

Cyber e fiducia: prepararsi alla disruption quantistica

L’ascesa del calcolo quantistico sta trasformando il panorama della cybersecurity. Con macchine quantistiche che potrebbero maturare entro 5-20 anni, i metodi di crittografia esistenti potrebbero diventare obsoleti, mettendo a rischio l’integrità dei dati e la fiducia.

  • La transizione alla crittografia post-quantistica è già in corso, con organizzazioni che agiscono proattivamente per proteggere i propri sistemi.
  • Oltre il 55% delle organizzazioni intervistate sta migliorando l’agilità crittografica per prepararsi alle minacce quantistiche emergenti.

I leader devono affrontare non solo le implicazioni tecniche ma anche preoccupazioni più ampie sulla cyber igiene, assicurando che la fiducia rimanga un pilastro di questa trasformazione guidata dall’IA.

Un futuro sostenibile guidato dall’IA

Le tendenze di quest’anno chiariscono un punto: l’IA non è più solo uno strumento — è un framework per l’innovazione. Dai progressi hardware ai sistemi agentici, le opportunità sono immense, ma richiedono azioni deliberate.

Le organizzazioni devono affrontare sfide come il consumo energetico, la qualità dei dati e la fiducia nei sistemi IA per realizzarne appieno il potenziale.

Man mano che ci avviciniamo a un mondo in cui l’IA è ovunque, la domanda non è se adottarla, ma come farlo in modo responsabile ed efficace. Tech Trends 2025 dipinge un quadro vivido di ciò che ci attende: un’era definita dall’integrazione fluida dell’IA in ogni aspetto della nostra vita.

Il recente articolo dell’Economist (Che fine ha fatto la rivoluzione dell’intelligenza artificiale? Finora la tecnologia non ha avuto quasi nessun impatto economico) ha messo in luce la difficoltà, da parte delle aziende nel trarre un vero – e concreto – vantaggio economico dall’adozione della GenAI. Nonostante gli ingentissimi investimenti economici riversati nel mercato negli ultimi mesi, infatti, sono ancora molto poche le applicazioni concrete – e scalabili – che hanno visto la luce.

Ma cosa serve, quindi, davvero per scalare? Qual è il collegamento mancante? Qual è il potenziale che deve essere ancora sbloccato? Come possiamo evitare l’hype dell’ennesima tecnologia trasformativa e massimizzarne i ritorni?

A queste, e altre domande urgenti, prova a rispondere il report di Deloitte sullo stato dell’AI Generativa: Now decides next: Moving from potential to performance. Interrogativi fondamentali da indirizzare per evitare lo spreco delle incredibili risorse che nell’ultimo anno sono piovute su questo settore.

Striving to Scale Generative AI in the organization

Di seguito provo a riassumere alcune delle principali sfide e dei dati che emergono dall’analisi.

  • L’incremento di efficienza, di produttività e la riduzione dei costi sono ancora tra i maggiori benefici che le aziende ricercano. Sono citate dal 42% dei rispondenti come il più importante dei benefit ottenuti nei primi pilot di sperimentazione. Un dato interessante se pensiamo all’enorme potenziale ancora da esprimere in differenti aree che non siano solo quelle dell’efficienza operativa.
  • Nonostante questo, il 58% degli intervistati sta sperimentando benefici maggiormente importanti nel miglioramento dell’innovazione, del prodotto o del servizio, con una maggiore focalizzazione, anche, sulla capacità di servire al meglio il cliente.
  • Sempre più aziende stanno ampliando l’adozione della GenAI a funzioni critiche del business. Un segnale positivo – e confortante – sul quale però serve ancora molta strada per vedere applicazioni che siano in grado, effettivamente, di modificare le modalità di lavoro delle persone.
  • Oltre i 2/3 delle aziende sta anche incrementando l’ investimento in Artificial Intelligence per vedere maggiori risultati che – come premesso, al momento – scarseggiano. È un dato importante, perché – senza opportuna strategia e indirizzo dei casi d’uso corretti – si rischia di sperperare risorse e di non vedere nessun ritorno nei prossimi anni.
  • Molto meno pronte, si dicono le organizzazioni, ad affrontare i rischi e la governance dell’AI (23% a credersi in linea con la normativa o quantomeno pronta a gestirla), che – assieme all’European AI Act – stanno rallentando adozioni e benefici dell’AI aumentando l’incertezza e le preoccupazioni su come gestire i temi di regolazione.
  • Ancora poche, meno della metà, le aziende che hanno adottato le metriche corrette per la valutazione degli impatti dell’AI sull’organizzazione e la forza lavoro, con il 40% di loro che brancola nel buio, non riuscendo a comprendere di cosa abbia realmente bisogno per misurare l’efficacia.
  • La dimensione del talento e della gestione della forza lavoro, delle persone, all’interno dell’azienda, è considerata una delle più deboli in assoluto. È solo il 20% delle imprese – infatti – a sentirsi all’altezza della sfida. La centralità dell’agenda people e HR rimane uno dei temi cruciali per scalare il successo delle iniziative di GenAI all’interno del business di riferimento.
Dimensioni strategiche fondamentali per scalare l'AI in azienda

Più nel dettaglio possiamo analizzare alcune delle dimensioni anticipate.

Una delle maggiori preoccupazioni legate all’AI è quella che vede coinvolti i dati, sia nella certezza di output che siano privi di allucinazioni e siano trasformabili in insight validi e impiegabili in prese di decisione strategiche per l’azienda, sia nell’alimentazione degli LLM con dati non sensibili. È il 58% delle organizzazioni, infatti, a preoccuparsi di come vengono gestiti i dati che sono dati in pasto alla GenAI. Percentuale analoga quella che si interessa di come gestire eventuali problemi di privacy o gestire alcune breach che possono mettere in difficoltà la sicurezza e il capitale intellettuale dell’impresa.

La qualità del dato resta, quindi, una dimensione cruciale, che dobbiamo seriamente indirizzare per permettere all’IA di scalare correttamente e di contenere i rischi di impresa ad essa associati.

La gestione del dato e del'AI come due fattori inscindibili e connessi

Un altro elemento che abbiamo messo in evidenza è quello che riguarda la mitigazione dei rischi e la preparazione agli elementi di regolamentazione che stanno emergendo – tra gli altri – con l’EU AI Act. È il 36% – in crescita – delle organizzazioni a preoccuparsi degli elementi regolatori, mentre il 30% ammette di avere problemi nella gestione dei rischi e il 29% confessa di non avere nessun modello per la governance dei dati.

È il 78% dei leader organizzativi intervistati che ritiene che sia necessaria una maggiore gestione e un maggiore governo dell’AI facendo sinergia tra sistema paese, enti governativi e imprese.

La mancata gestione di rischi e di governance relativi all'AI in azienda

Una ulteriore dimensione “problematica” riguarda l’incapacità di misurare i ritorni dell’AI: è il 41% delle organizzazioni, infatti, a non riuscire a identificare il corretto framework di valutazione degli impatti dell’AI in azienda.
È solo il 16% delle imprese a produrre report finanziari e misurare ritorni effettivi di impatto, rispetto alla stragrande maggioranza che – al contrario – si focalizza su metriche più soft e di engagement o adozione.

Infine, risulta imperativo ragionare sulla dimensione persone e sulla capacità che le aziende hanno non solo di attrarre talenti per la gestione dell’AI, ancora pochi e inseriti in un mercato molto competitivo, ma – soprattutto – di formare le persone all’adozione e all’uso consapevole della tecnologia. È necessario occuparsi di literacy, formazione, modelli organizzativi e – infine – soprattutto di cultura. Solo con percorsi adeguati e supportivi nei confronti delle nostre persone, all’interno dei quali l’HR deve giocare un ruolo di partner strategico fondamentale possiamo sperare di ottenere risultati dall’adozione dall’impiego di una tecnologia così potente.

«The development of full artificial intelligence could spell the end of the human race. Once humans develop artificial intelligence, it will take off on its own and redesign itself at an ever-increasing rate. Humans, who are limited by slow biological evolution, couldn’t compete and would be superseded».

Senza condividere in toto la visione apocalittica di Stephen Hawking sul futuro dell’umanità e del suo rapporto con l’intelligenza artificiale, è comunque giunto il momento per noi professionisti del mondo HR e per tutti coloro che si occupano di trasformazione e di analizzare i grandi cambiamenti che hanno attraversato – e che tutt’ora attraversano – l’umanità, di chiederci come intendiamo impiegare questo potentissimo strumento.

La trasformazione di cui stiamo parlando è paragonabile, se non superiore, a quella della digitalizzazione che abbiamo vissuto negli scorsi anni.

Qualche numero per chi non fosse ancora convinto?

  • Il mercato globale dell’AI dovrebbe raggiungere 1,58 trilioni di dollari entro il 2028. (MarketsandMarkets, 2023)
  • Il numero di posti di lavoro legati all’AI negli Stati Uniti dovrebbe crescere del 31% tra il 2020 e il 2030. (US Bureau of Labor Statistics, 2021)
  • Il 61% degli intervistati a un recente rapporto di Deloitte Insights afferma che l’AI trasformerà sostanzialmente il proprio settore nei prossimi 3-5 anni.
  • L’adozione dell’AI è significativa su base per organizzazione, con il 53% degli intervistati che ha speso più di 20 milioni di dollari nell’ultimo anno in tecnologia e talenti AI.
  • L’83% delle aziende partecipanti al sondaggio di Deloitte sull’adozione dell’AI nel settore manifatturiero ritiene che l’AI sarà una tecnologia fondamentale per guidare la crescita e l’innovazione.
  • Il 92% degli intervistati al sondaggio di Deloitte sullo stato dell’AI nelle imprese 2022 si è fissato l’obiettivo di diventare leader di settore o di mercato nell’AI entro i prossimi tre anni.

Dai dati sopra riportati risulta, quindi evidente, l’importanza e la magnitudo del fenomeno. Una riflessione non è più rimandabile.

In un interessante articolo Josh Bersin (https://joshbersin.com/2023/09/the-role-of-generative-ai-in-hr-is-now-becoming-clear/) ha messo in evidenza alcune delle applicazioni dell’intelligenza artificiale generativa che si possono immaginare per l’HR.

Quali sono?

  • Talent Intelligence for Recruiting, Mobility, Development, Pay Equity. La gestione dei talenti è un tema sempre più complesso all’interno delle organizzazione, tematiche legate allo strategic worforce planning e alla capacità di definire le migliori persone per i compiti adatti è una sfida complessa e articolata che richiede uno sforzo congiunto di tecnologia, sistemi HR e processi di gestione delle risorse di maggior valore all’interno dell’organizzazione.
  • Employee Apps: Il secondo spazio in crescita è quello dei “chatbot intelligenti per i dipendenti”, che riuniscono documenti, materiali di supporto e sistemi transazionali in un’esperienza facile da usare.
  • Employee training, learning e content production: il settore della formazione dei dipendenti, che vale 350 miliardi di dollari, è uno di quelli che maggiormente potrebbe beneficiare dall’AI generativa. Negli ultimi mesi abbiamo visto strumenti che generano formazione da documenti, creano automaticamente quiz e trasformano i contenuti esistenti in un “assistente didattico”.
  • Employee Development and Growth Apps: Si tratta del vasto nuovo campo di strumenti e piattaforme che aiutano i dipendenti a progredire nelle loro carriere. Grazie alle piattaforme di Talent Intelligence, ora abbiamo “percorsi di carriera” generati dall’AI. Questi sistemi analizzano le tue competenze e la tua esperienza e ti mostrano (graficamente) tutte le opzioni che hai per crescere, tutte basate sull’esperienza di milioni di altre persone.
  • Performance Management and Operational Improvement: tema complesso, che apre dimensioni filosofiche profonde sintetizzate dalla domanda: preferireste essere valutati da un computer o da una persona? In questo sicuramente l’AI può fornire un contributo di arricchimento alle dimensioni valutative classiche e aggiungere la possibilità di elaborare un numero elevato di dati in un tempo molto breve.
  • Retention, Hybrid-Work, Wellbeing, Engagement Analysis: anche in questo caso è un tema di dati e della capacità – molto limitata come esseri umani – che abbiamo di leggere in maniera completa un contesto o una situazione. L’AI e i sistemi automatizzati possono aiutarci nell’elaborazione di una enorme mole di dati che ci aiutino a comprendere come davvero stanno le nostre persone.

A queste dimensioni identificate da Bersin, a mio avviso, se ne possono aggiungere di ulteriori, nello specifico:

  • People Analytics: nel supporto alla definizione di modelli integrati che forniscano viste di dettaglio ai nostri dipendenti e ai team leader e che aiutino a sfruttare – finalmente – il potere dei dati per la gestione delle complessità organizzative. Se in passato la sfida poteva essere l’accesso al dato, oggi, in un moltiplicarsi di istanze, si rende necessario sapere in che modo sfruttare adeguatamente i dati, per trasformarli in insight e azioni concrete.
  • Employee Experience: alzi la mano chi, negli ultimi anni – e nella sua vita professionale – ha avuto una employee experience (dal momento in cui è entrato in azienda al momento in cui è uscito) senza intoppi e senza problemi. Il contributo dell’AI può rendere maggiormente fluido l’intero processo e agire come un vero e proprio “buddy” nell’accompagnare le fasi più delicate dei diversi processi (e.g. nel momento dell’onboarding) e dell’intera esperienza.

Il paniere di casi d’uso potrebbe ampliarsi ancora se consideriamo le intersezioni del mondo Human Capital con quello della comunicazione interna, del marketing e dell’innovazione collaborativa.

È per questo che, come Deloitte abbiamo fatto di più: creando un repository che include oltre 60 use case legati al mondo dell’Artificial Intelligence per chiarire i termini in gioco e capire meglio in che modo possa essere applicata all’interno dei nostri processi di lavoro e per portare effettivo valore alle organizzazioni. Maggiori informazioni qui: https://www2.deloitte.com/us/en/pages/consulting/articles/gen-ai-use-cases.html

Esiste poi un ulteriore aspetto che chi si occupa di HR e di processi di trasformazione dovrebbe guardare che è quello legato all’etica e alle conseguenze dell’applicazione di questi scenari al mondo del lavoro.

È un tema che ci riguarda tutti da vicino, perché la tecnica, la tecnologia, non sono neutrali e gli impatti etici e filosofici sono tutt’altro che scontati.  

«dire che la tecnologia non è del tutto neutrale – che, cioè, essa ha delle proprie finalità intrinseche, o che viene a imporre dei propri particolari valori – significa soltanto riconoscere il fatto che, come parte della nostra cultura, essa influisce sulla nostra crescita e sul nostro comportamento. Gli esseri umani hanno sempre posseduto qualche forma di tecnologia, la quale a sua volta ha influenzato la natura e la direzione del loro sviluppo. Questo processo non può essere fermato, e questa relazione non avrà mai termine: possiamo soltanto comprenderla e, speriamo, indirizzarla verso scopi degni [dell’umanità]» (Kranzberg e Pursell, 1967, p. 11).

È, dunque, necessaria una profonda riflessione all’interno dei nostri processi di lavoro, di educazione e all’interno delle modalità con le quali stiamo immaginando la società del futuro per indirizzare in modo corretto questo cambiamento.

P.S.

Sì, questo articolo è stato scritto con il supporto dell’AI.

Chi segue questo spazio sa che, oltre al digitale, uno dei temi a me più cari è quello che riguarda i nuovi modelli di lavoro e le modalità attraverso le quali è possibile disegnare un’impresa differente, maggiormente collaborativa, resiliente e capace di adattarsi ai cambiamenti che il mercato impone.
L’anno 2020, con la pandemia da Covid-19, è stato – in questo senso – maestro e ci ha mostrato in modo evidente quanto inadatte e inefficaci fossero le nostre organizzazioni ad attraversare scenari inediti. Ha rappresentato, a conti fatti, anche un’importante occasione per riflettere sul futuro che vogliamo disegnare.

E’ per questo che il volume edito da Hoepli Milano e che ho scritto in questo periodo: Future of Work: le Persone al Centro, costruire il lavoro e la società del futuro rappresenta un punto saldo di partenza per tutti quei professionisti e per quelle imprese che intendano seriamente mettersi in discussione e prendere in mano la direzione dei propri modelli organizzativi.
Il libro offre casi, spunti, riflessioni teoriche ed esempi pratici attraverso i quali ripensare quello che facciamo quotidianamente.

Come scrive Jacob Morgan nella postfazione del volume:

Che cos’è il futuro del lavoro? 

Questa è una domanda che mi viene spesso posta durante le conferenze, gli eventi, e anche online, dalla mia community.
Nessuno può predire il futuro, ma la verità è che, questa, è una domanda sbagliata.
Chiedersi “che cosa è il futuro del lavoro” dimostra un atteggiamento passivo; assume che il futuro sia un qualcosa che accade e che non ci sia niente che possiamo fare per modificarlo. Tutto quello che è in nostro potere è attendere e subire l’impatto del cambiamento. È un’attitudine sbagliata verso il ciò che deve arrivare: non dobbiamo pensarlo in questo modo. Il futuro è qualcosa che immaginiamo, costruiamo e definiamo noi stessi, come protagonisti del cambiamento: dobbiamo cambiare il nostro punto di vista, dobbiamo riformulare la domanda. È tempo di chiedersi: “quale futuro del lavoro vuoi vedere realizzato?” e pensare a cosa puoi fare per vederlo accadere.
Cambiare il modo in cui pensiamo al futuro del lavoro ci mette al posto di guida e rende ognuno di noi un protagonista attivo della narrazione. 
Le persone che prenderanno posizione e si spenderanno in prima persona per il futuro del lavoro giocheranno un ruolo chiave nella trasformazione e nel cambiare il mondo in cui viviamo. 

Quindi domandiamoci: qual è il futuro del lavoro che vogliamo vedere realizzato? 

È ora di renderlo reale. 

Il libro vanta preziosi contributi da parte di esperti di settore e di personalità di spicco nel mondo del lavoro. Oltre a rendermi molto orgoglioso, sono convinto possano rappresentare una efficace bussola per navigare il futuro del lavoro e il mondo delle nostre organizzazioni.

Tra i principali contributi che troverete all’interno del volume:

  • Carlo Bozzoli, CIO di ENEL Group, che ha curato la prefazione del volume
  • Jacob Morgan, autore di best seller e speaker di fama internazionale, che ha curato la postfazione del volume
  • Carlo Chiattelli, economista e Associate Partner EY
  • Alessandro Antonini, Senior Manager di EY
  • Manuela Cantoia, Professore di Psicologia Generale presso l’Università eCampus
  • Andrea Gaggioli, Professore di Psicologia presso l’Università Cattolica del Sacro Cuore
  • Cosimo Accoto, MIT research affiliate e autore di “il mondo ex machina” e “il mondo dato”
  • Luigi Centenaro, autore del Personal Branding Canvas, consulente e autore di diversi volumi sul tema del personal branding
  • Paolo De Caro, Senior Manager di EY e responsabile del centro di innovazione e sviluppo (Brain)

Il volume si articola in diversi capitoli che comprendono analisi specifiche, casi d’uso ed esempi pratici per comprendere in che modo il mondo del lavoro sia cambiato e si modificherà nel prossimo – immediato – futuro.

Di seguito l’elenco dei capitoli:

  • Capitolo 1 – Resilienza, trasformazione e il futuro del lavoro
  • Capitolo 2 – Casi d’uso, modalità di approccio e contesti operativi per il lavoro del futuro
  • Capitolo 3 – Errori e ostacoli che impediscono la trasformazione delle organizzazioni
  • Capitolo 4 – Una roadmap per costruire organizzazioni resilienti
  • Capitolo 5 – Progettare e costruire il Future of Work: creare esperienze trasformative e Positive Innovation Network
  • Capitolo 6 – Automazione e intelligenza artificiale nel futuro del lavoro
  • Capitolo 7 – Skill e competenze: il ruolo delle persone
  • Capitolo 8 – Verso un ripensamento dei modelli educativi e di formazione
  • Capitolo 9 – Purposeful Organization e il ruolo della leadership nella trasformazione
  • Capitolo 10 – Agile, Holacracy e nuovi modelli di organizzazione
  • Capitolo 11 – Costruire valore per l’intero ecosistema

Il mondo che costruiamo – e che costruiremo – passerà dalla nostra capacità di organizzarci secondo comunità e modelli relazionali.

Come si legge nel volume:

In un’analisi famosa relativa alla natura della comprensione scientifica dei fenomeni, il fisico quantistico Werner Heisenberg ha avuto occasione di sottolineare come capire significhi in un’ultima istanza saper individuare il legame che riconduce fenomeni diversi allo stesso insieme coerente. La vera comprensione della realtà sa superare la complessità superficiale dei fenomeni e mettere in evidenza la struttura coerente che sta dietro di essi. 

Il futuro della società e del senso delle organizzazioni e del lavoro di ognuno di noi passa per le parole, visionarie e illuminate di Adriano Olivetti, che nella sua azienda e il territorio del Canavese sono diventati poi laboratorio e ispirazione per molte realtà nel mondo.
È facile riconoscere nelle sue parole quei concetti propri di collaborazione, di innovazione partecipata, ma anche di smart cities, di green valley, di sostenibilità dell’innovazione e del modo di lavorare delle persone, dei digital district periferic, ma che sono poi centri di eccellenza della nuova e futura società dell’informazione. Scrive Olivetti: “Comunità, io nome lo dice, e il programma lo afferma, è un movimento che tende a unire, non a dividere, tende a collaborare, desiderare, insegnare, mira a costruire […].
Tecnica e cultura conducono verso il decentramento, verso la federazione di piccole città dalla vita intensa, ove sia armonia, pace, silenzio, lontano dallo stato attuale delle metropoli sovraffollate come dall’isolamento e dallo sgomento dell’uomo solo.”

Non vi resta che procurarvene una copia e poi proseguire la discussione su questo spazio o sui miei canali social: fatemi sapere cosa ne pensate!

Per chi volesse acquistarlo: https://amzn.to/3mlIfwO

Chi mi segue da un po’ di tempo – sia su questo blog sia altrove – sa bene che mi sono sempre occupato di trasformazione digitale, iniziando a lavorare nell’ambito nell’ormai lontano 2008.
In questi anni ho avuto il piacere di aiutare moltissime organizzazioni italiane e internazionali nell’evoluzione dei loro modelli di business e di lavoro verso scenari maggiormente partecipati, inclusivi, collaborativi, efficaci e – per l’appunto – digitali. In questo spazio, e su tanti altri canali, abbiamo avuto modo di riflettere come il digitale, e ormai lo sappiamo con certezza, sia molto più legato a una trasformazione di modelli culturali, di mindset e di pratiche organizzative che non una mera implementazione tecnologica di piattaforme (per quanto importante e non trascurabile).

Grazie alla collaborazione con Ninja Academy / Ninja Marketing nasce un volume che vuole tentare di essere una sintesi di tutto quanto appreso negli ultimi anni di lavoro. Un manuale per disegnare il futuro delle nostre imprese che sia sempre più abilitato da piattaforme e tecnologie collaborative.

Digital Transfomer – Stefano Besana

Nel corso dell’opera saranno – infatti – affrontati tutti i temi che riguardano l’evoluzione dei nostri modelli di lavoro, prendendo in esame in che modo marketing, innovazione, governance, processi interni, collaborazione, educazione si modificano e cambiano su sollecitazione delle innovazioni tecnologiche.

Al libro, per chi fosse interessato, è associato anche un corso che prevede diverse ore di lezione e molte esercitazioni che costituiscono un percorso di apprendimento davvero verticale sul tema. Per coloro che volessero approfondire i temi e avere una formazione completa sull’argomento è assolutamente consigliato.

Tornando ai temi del volume è bene sottolineare come quello dell’evoluzione tecnologica e digitale sia un tema rilevante ed è da considerarsi parte integrante del nostro mondo e del modo attraverso cui ci relazioniamo con le persone che ci circondano.

Come sostiene anche Fritjof Capra ne La scienza della Vita, parlando della tecnologia:

«Le sue origini risalgono ai primordi della specie umana, quando il linguaggio, la coscienza riflessiva e la capacità di fabbricare utensili (la prima forma di tecnologia) si evolsero assieme. Di conseguenza, alla prima specie umana, fu dato il nome di Homo Habilis, proprio a indicare la sua abilità nel fabbricare sofisticati utensili. La tecnologia è quindi una caratteristica essenziale della natura umana: nella sua storia è racchiuso l’intero cammino dell’evoluzione umana.»

Come anticipato, il libro si compone di diversi capitoli che analizzano, approfondendole, le diverse tematiche relative al mondo digitale e a come questo abbia profondamente modificato il nostro modo di fare innovazione, marketing e – in senso più allargato – impresa.

E’ al tempo stesso un saggio e un manuale che vuole, da un lato, analizzare i profondi cambiamenti che la nostra società ha vissuto nel corso degli ultimi anni e – dall’altro – fornire uno strumento utile per interpretare i fenomeni organizzativi e per indirizzare nuovi modelli di lavoro all’interno delle imprese.

Le sezioni del volume sono:

  • Capitolo 1 – Digital trends. Essere digitali oggi
  • Capitolo 2 – Digital operating model.
  • Capitolo 3 – Digital customer. Ascoltare, attrarre e gestire i clienti grazie al digitale
  • Capitolo 4 – Digital marketing. Comunicare in modo integrato e digitale
  • Capitolo 5 – Digital Governance. Processi, organizzazione e strumenti per rendere concreta la trasformazione
  • Capitolo 6 – Digital Collaboration: abilitare il cambiamento organizzativo
  • Capitolo 7 – Digital Training ed Education. Cambiare i modelli di formazione
  • Capitolo 8 – Digital Innovation: ripensare il modo di fare innovazione
  • Capitolo 9 – Digital Analytics e misurazione
  • Capitolo 10 – Digital Society. Quali evoluzioni e prospettive ci aspettano?

Che dire? Se siete interessati al tema non vi resta che procurarvene una copia e discuterne qui o altrove per darmi la vostra opinione. Mi trovate su tutti i social o nei commenti qui sotto!

Per chiudere con una citazione di Antoine de Saint-Exupéry, l’autore de Il Piccolo Principe:

«La tecnologia non tiene lontano l’uomo dai grandi problemi della natura, ma lo costringe a studiarli più approfonditamente».

Qui il link diretto di Amazon per l’acquisto: https://amzn.to/3gmeSqG

Qualche anno fa – nel 2013 – assieme a Emanuele Quintarelli (http://www.socialenterprise.it/it/) abbiamo lanciato la prima Social Collaboration Survey in Italia, con l’obiettivo di indagare lo stato delle aziende Italiane rispetto al tema della collaborazione e del supporto che questa può fornire all’interno dei progetti di trasformazione digitale.

Si è trattato di un progetto ambizioso che ha visto il coinvolgimento di oltre 300 aziende che hanno partecipato alla prima mappatura del nostro mercato.
I dati – pubblicati e a disposizione di tutti – hanno messo in evidenza diverse dimensioni tra cui: l’ambizione, il valore che le tecnologie collaborative possono portare in azienda, le barriere che impediscono i processi di trasformazione digitale il cambiamento culturale, l’impatto sul business della componente collaborativa e molto altro. 
Se foste interessati, trovate i vecchi risultati e maggiori informazioni in un post di questo blog (https://sociallearning.it/2013/12/02/il-report-sulla-collaborazione-nelle-aziende-italiane-e-disponibile-social-collaboration-survey-2013-socialcollabsurvey/). 

Ma cosa è la Social Collaboration? La definiamo come: 

Un insieme di strategie, processi, comportamenti e piattaforme digitali che consentono a gruppi di persone all’interno dell’azienda di connettersi, interagire, condividere informazioni e lavorare ad un comune obiettivo di business

Si tratta quindi di una dimensione profondamente connessa al business a un nuovo modello di lavoro che ha una forte connessione al come possiamo ripensare e riconsiderare l’azienda all’interno del percorso di digitalizzazione, come sappiamo – oggi come ieri – non è possibile essere digitali a metà.
Risulta quindi cruciale e fondamentale guardare all’interno dei processi organizzativi e ai propri dipendenti. 

In collaborazione con EY e l’Università di Padova abbiamo deciso di lanciare la seconda edizione della Social Collaboration Survey, rivolgendoci – questa volta – a un pubblico internazionale ed europeo, allargando il focus e provando a esplorare dimensioni molto più ampie. 

Il link per la compilazione (che richiede una decina di minuti) è questo: https://it.surveymonkey.com/r/EUSocialCollab

Inutile dire che i risultati saranno resi pubblici e oggetto di numerosi articoli qui e altrove, il supporto da parte di tutti è fondamentale per la buona riuscita dell’esperimento e per avere un numero maggiore di risposte che ci aiutino, non solo a mappare al meglio il mercato, ma – soprattutto – a immaginare un migliore futuro per le organizzazioni di cui facciamo parte. Un futuro più a misura d’uomo e maggiormente piacevole nel quale lavorare, oltreché – inevitabilmente – in grado di generare maggiore valore.