Archives For November 30, 1999

Immagina questo scenario, peraltro molto molto comune: chiedi al tuo assistente AI (il ChatGPT di turno) un feedback su una proposta commerciale; invece di un’analisi critica, loda la tua idea con entusiasmo. Gli chiedi di sfidare le tue assunzioni, e lui gentilmente, e in modo assai ossequioso, concorda con la tua prospettiva offrendo solo suggerimenti minori, sottolineando quanto tu sia bravo e… “geniale!” Richiedi una valutazione onesta di una strategia rischiosa, e lui valida il tuo approccio con parole accuratamente scelte.
Questa non è una limitazione del sistema, un’allucinazione; è una vera e propria caratteristica strutturale dei modelli di linguaggio basati su inferenze statistiche. E questo aspetto, come vedremo in questo articolo, rappresenta – per noi tutti – un serio problema.

La “sycophancy” – così viene chiamata, infatti – è la tendenza dei sistemi AI ad allinearsi con l’utente, evitare il disaccordo, amplificare il consenso e adattarsi alle preferenze espresse anziché fornire un’analisi indipendente; rappresenta uno dei rischi più pervasivi nella collaborazione uomo-AI. A differenza degli errori fattuali o delle allucinazioni, è meno visibile e più sottile. Funziona, almeno in superficie, sembra supportiva; eppure, nel farlo, erode la stessa condizione che rende la collaborazione efficace: l’impegno esplicito, critico e non-compiacente.

La ricerca accademica recente rivela che questo problema è molto più diffuso e consequenziale di quanto molte organizzazioni realizzino. Più importante ancora, ci mostra alcuni percorsi concreti per superarlo.


Comprendere il problema della sycophancy

Il problema inizia con un disallineamento fondamentale nel modo in cui abbiamo progettato i sistemi AI, specialmente i modelli di linguaggio che usiamo quotidianamente. Come notano i ricercatori dell’Università di Tokyo nel loro lavoro su “AI as Extraherics”:

Over-reliance on AI can also lead users to accept information given by AI without performing critical examinations, causing negative consequences, such as misleading users with hallucinated contents.

Ma la sycophancy va più in profondità dell’accettazione passiva. È una distorsione attiva del processo collaborativo, un’erosione profonda della fiducia nella relazione uomo-macchina.

Consideriamo i dati: un sondaggio Gallup citato in una recente ricerca da Harvard Business Review ha rilevato che solo il 26% dei dipendenti che utilizzano AI generativa segnala miglioramenti concreti nella loro creatività, nonostante l’adozione diffusa e l’investimento significativo. Perché un divario così grande tra promessa e realtà? La risposta risiede in parte nella sycophancy. Quando i sistemi AI danno priorità alla soddisfazione dell’utente rispetto al feedback onesto, privano gli utenti della prospettiva critica necessaria per la propria crescita, l’innovazione e un processo decisionale consapevole.

I tre volti della sycophancy

La sycophancy nell’AI si manifesta, nello specifico, in tre modi interconnessi:

  • Agreement Bias: il sistema AI tende ad allinearsi con la posizione dichiarata dall’utente, anche quando le prove suggeriscono il contrario. Al posto di offrire contrargomentazioni, trova modi per validare la prospettiva dell’utente, anche se sbagliata.
  • Excessive Praise: il sistema esagera il feedback positivo e minimizza le osservazioni critiche. Un’idea mediocre diventa “innovativa”, una strategia rischiosa diventa “audace e lungimirante”. Anche quando sono offerte opinioni opposte, la facilità di orientare il comportamento nell’altra direzione è molto facile e veloce.
  • Perspective Adaptation: l’AI apprende le preferenze dell’utente – da tutte le conversazioni svolte – e sottilmente sposta le sue risposte per corrispondervi, creando un effetto camera dell’eco dove i pregiudizi dell’utente vengono riflessi come analisi obiettiva.

Ognuno di questi comportamenti mina quello che dovrebbe essere il valore fondamentale della partnership AI: la complementarità. Come sostengono i ricercatori del MIT, Cambridge e Princeton nel loro framework per “Building Machines that Learn and Think with People”, i partner di pensiero efficaci devono essere sistemi che

Can understand us, which we can understand, and which have sufficient understanding of the world that we can engage on common ground.

La sycophancy distrugge questo terreno comune: sostituisce la partnership genuina con l’accordo performativo.

Il gap della metacognizione

La recente ricerca pubblicata nel Journal of Applied Psychology fornisce un’intuizione cruciale: il problema non è solo con l’AI, ma con il modo in cui gli umani si impegnano con essa, la nostra tendenza a umanizzare e antropomorfizzare il comportamento dello strumento, come fosse una persona.

I ricercatori Jackson G. Lu, Shuhua Sun e colleghi hanno condotto un esperimento sul campo con 250 dipendenti presso una società di consulenza tecnologica:

Employees with stronger metacognition became more creative when they used AI—they generated ideas that were judged as more novel and more useful. But for employees with weaker metacognition, AI made little difference.

Cos’è la metacognizione? È la capacità di pianificare, valutare, monitorare e affinare il tuo pensiero. È la capacità di chiederti: “Questo output dell’AI è effettivamente corretto? Sto accettando questo perché è giusto, o perché è facile? Cosa mi sto perdendo?” È diverso da un semplice giudizio critico, proprio come un regista è diverso da un critico cinematografico.

I dipendenti con forte metacognizione non cadono preda della sycophancy perché interrogano attivamente gli output dell’AI. Trattano il sistema come un partner di pensiero che deve essere interrogato, non come un oracolo da fidarsi. Al contrario, i dipendenti con debole metacognizione sono vulnerabili alla sycophancy. Accettano la prima risposta dell’AI, si affidano agli output predefiniti e non riescono a verificare se i suggerimenti dell’AI sono accurati o rilevanti.

La trappola dell’Over-Reliance

Un team di ricercatori dell’Università di Tokyo ha identificato un meccanismo ancora più critico:

Such reliance on AI for cognitive tasks can lead to deskilling, where individuals lose opportunities for cognitive skill maintenance and development.

Questo crea un ciclo vizioso:

  • Gli utenti si affidano all’AI per le risposte.
  • L’AI fornisce risposte sycophantiche (accordo, lode, adattamento di prospettiva).
  • Le capacità di pensiero critico degli utenti si atrofizzano.
  • Gli utenti diventano ancora più dipendenti dall’AI.
  • La sycophancy si approfondisce e allarga il proprio impatto – causando danni.

I ricercatori notano che questo problema è particolarmente acuto perché:

With generative AI becoming increasingly capable of outperforming humans in many tasks, users may be more likely to trust AI without skepticism.

In altre parole, più l’AI diventa capace di imitare il pensiero umano, più la sycophancy diventa pericolosa, estesa e in grado di portare al rafforzamento di comportamenti alineanti, psicopatologici e false credenze, anche nei decisori più razionali e nelle persone più riflessive e con un approccio maturo nei confronti della tecnologia.

Il framework del thought partner

Allora, come dovrebbe effettivamente apparire una partnership AI?

I ricercatori del MIT, Cambridge e Princeton propongono un framework per i “thought partner“: sistemi AI progettati per collaborare genuinamente con le persone e non semplicemente conformarsi. Identificano – per questo – tre criteri essenziali:

  • Sistemi che ci capiscono: l’AI deve costruire modelli espliciti degli obiettivi, delle credenze e dei limiti dell’umano.
  • Sistemi che possiamo capire: l’AI deve comunicare in modi trasparenti e interpretabili (oversight e explainable AI in questo sono centrali).
  • Sistemi con sufficiente comprensione del mondo: l’AI deve avere una conoscenza genuina del dominio di competenza, non solo la capacità di pattern-matching e di associazioni statistiche.

Criticamente, questo framework rifiuta l’idea che un’AI migliore significhi un’AI più autonoma. Invece, enfatizza la modellazione reciproca, l’AI che comprende l’umano e l’umano che comprende l’AI. Questo è l’antidoto alla sycophancy (o perlomeno uno dei rimedi che abbiamo): la comprensione reciproca crea responsabilità. Quando entrambe le parti comprendono le capacità e i limiti l’una dell’altra, la sycophancy diventa impossibile; l’AI non può semplicemente – infatti – concordare perché l’umano riconoscerà il disaccordo come falso. Gli umani non possono accettare ciecamente perché comprendono quello che l’AI effettivamente sa.

Soluzione 1: Extraheric AI – chiedere invece di rispondere

Il team dell’Università di Tokyo propone un redesign radicale: l’AI extraheric. Il termine viene dal latino “extraho” (estrarre o tirare fuori), e il concetto è elegante: invece di fornire risposte, l’AI dovrebbe porre domande e offrire prospettive alternative, una vera e propria funzione riflessiva per dirla alla Schön.

Come spiegano i ricercatori:

Rather than replacing or augmenting human cognitive abilities, extraheric AI encourages users to engage in higher-order thinking during task completion. For instance, in writing, extraheric AI might prompt users to reflect on specific content or visualize how others have approached similar topics, rather than directly performing revisions or replacement.

Questo è l’opposto della sycophancy. Invece di concordare con l’utente, l’AI extraheric lo sfida. Invece di fornire lode, chiede: “Hai considerato questo angolo? Cosa accadrebbe se lo affrontassi diversamente?” Il meccanismo dei ricercatori è radicato nella teoria del carico cognitivo. Aumentando il carico cognitivo germinale – lo sforzo mentale positivo, necessario, dedicato alla comprensione e alla risoluzione del problema – l’AI extraheric costringe gli utenti a pensare più profondamente. Questo previene l’accettazione passiva che abilita la sycophancy. Le strategie di interazione per l’AI extraheric includono:

  • Questioning: chiedere agli utenti di spiegare il loro ragionamento, anticipare controargomentazioni o considerare prospettive alternative.
  • Suggesting & Recommending: offrire multiple opzioni senza favorirne necessariamente una, forzando l’utente a valutare tutte le opzioni possibili.
  • Debating & Discussing: presentare punti di vista opposti e impegnare l’utente in un dialogo genuino e in una valutazione critica – spiegata – delle diverse ipotesi.
  • Scaffolding: fornire supporto temporaneo che gradualmente si ritira man mano che l’utente diventa più capace (una funzione di scaffolding che aiuti nella definizione di una zona prossimale di sviluppo).

Il principio chiave è che l’AI dovrebbe far pensare l’utente più profondamente, non meno.

Soluzione 2: Metacognitive Development – costruire il pensiero critico

La ricerca di Harvard Business Review indica una soluzione pratica: sviluppare le capacità metacognitive dei dipendenti. I ricercatori hanno scoperto che le organizzazioni possono rafforzare la metacognizione attraverso: (i) sessioni di formazione breve che introducano la metacognizione e guidino i dipendenti attraverso esempi reali di errori dell’AI, chiedendo loro di anticipare, rilevare e correggere quegli errori. (ii) Programmi formativi più lunghi e articolati che si concentrano sull’aiutare i dipendenti a costruire abitudini più profonde di pianificazione, monitoraggio e valutazione del loro pensiero. (iii) Semplici checklist che spostano i dipendenti dalla dipendenza passiva dall’AI all’impegno attivo e strategico. Per esempio:

  • Chiarire il problema prima di chiedere all’AI.
  • Determinare come valutare il suggerimento dell’AI.
  • Esplorare alternative prima di accettare la prima risposta.

Come notano i ricercatori: “Leaders should help employees understand this distinction to facilitate more productive AI engagement.” La distinzione è tra trattare l’AI come un oracolo (incline alla sycophancy) e trattarla come un partner di pensiero (che richiede impegno critico e costante messa in discussione).

Soluzione 3: Thought Partnership Design – costruire la comprensione reciproca

Il framework del MIT/Cambridge/Princeton suggerisce una soluzione architettonica ancora più profonda: progettare sistemi AI che modellino esplicitamente l’umano. Questo significa:

  • Costruire modelli strutturati degli obiettivi, della conoscenza e dei limiti dell’utente (non solo imparare dai dati).
  • Ragionare sull’incertezza nella comprensione dell’umano.
  • Comunicare trasparentemente su quello che l’AI sa e non sa.
  • Adattarsi alle capacità dell’umano senza semplicemente concordare con lui.

“Effective thought partners are those which build models of the human and the world.” Questo è fondamentalmente diverso dai modelli di linguaggio di grandi dimensioni attuali, che imparano i pattern dai dati senza ragionamento esplicito sull’umano con cui interagiscono. Un vero partner di pensiero saprebbe:

  • Cosa l’umano già comprende.
  • Dove il ragionamento dell’umano potrebbe essere difettoso.
  • Quali prospettive l’umano non ha considerato.
  • Come sfidare l’umano in modo produttivo.

Implementazione pratica: dall’intuizione all’azione

La transizione da sistemi AI sicofantici a sistemi sfidanti, che mettono in questione lo status quo, richiede un approccio deliberato e multi-strato. Le organizzazioni devono iniziare controllando il loro uso attuale dell’AI, ponendo domande difficili su se i loro sistemi sono progettati per concordare con gli utenti o sfidarli, se i dipendenti trattano gli output dell’AI come punti di partenza per il pensiero o come risposte finali, e quale percentuale della loro forza lavoro possiede forti capacità metacognitive. Questo controllo rivela la linea di base da cui il cambiamento deve iniziare. Da lì, il lavoro diventa uno di redesign sistematico. Al posto di ottimizzare per la soddisfazione dell’utente, le organizzazioni dovrebbero passare da “l’AI fornisce risposte” a “l’AI pone domande”, implementando flussi di lavoro che richiedano ai dipendenti di valutare e criticare i suggerimenti dell’AI, generando multiple prospettive e confrontandole, e costruendo step di riflessione obbligatori che forzano l’impegno critico. Ugualmente importante è l’investimento nella formazione metacognitiva; questo è dove la ricerca mostra il ROI più alto. Le organizzazioni dovrebbero insegnare ai dipendenti a monitorare attivamente il loro pensiero, fornire esempi concreti di errori dell’AI e addestrare le persone a rilevarli, usare checklist e processi strutturati per promuovere l’impegno critico, e creare una cultura dove il questionamento dell’AI è valorizzato piuttosto che scoraggiato. Infine, quando selezionano sistemi AI, le organizzazioni dovrebbero dare priorità a strumenti che spiegano il loro ragionamento rispetto ai sistemi black-box, scegliere piattaforme che supportano il raffinamento iterativo rispetto alle risposte one-shot, e valutare l’AI in base al fatto che promuova o prevenga il pensiero critico. L’obiettivo non è avere l’AI più capace, ma avere l’AI che fa pensare i dipendenti più profondamente.

Per gli individui, la sfida è più personale, intima, ma ugualmente importante. Inizia con lo sviluppo di abitudini metacognitive; prima di accettare acriticamente un suggerimento dell’AI, è opportuno chiedersi perché lo si sta accettando, monitorare attivamente se si sta comprendendo l’analisi alla base o semplicemente ci si sta fidando di essa, e sfidare regolarmente gli output dell’AI chiedendosi cosa potrebbe essere sbagliato. Questo richiede di trattare l’AI come un “partner” di pensiero e non come un oracolo, il che significa fornire contesto e porre domande di follow-up, richiedere multiple prospettive e confrontarle, spiegare il proprio ragionamento e chiedere all’AI di criticarlo, e impegnarsi nel lavoro difficile di valutazione e sintesi e non nel semplice consumo passivo. Dobbiamo usare l’AI per espandere la nostra conoscenza, non per sostituire il pensiero. Serve sfidare regolarmente noi stessi nel risolvere problemi senza l’assistenza dell’AI, e monitorare se le nostre capacità di pensiero critico stiano migliorando o atrofizzandosi. Dobbiamo creare strutture di responsabilità che forzano l’impegno critico, usando checklist prima di accettare gli output dell’AI, discutere i suggerimenti dell’AI con i colleghi per ottenere prospettive diverse, documentare il nostro ragionamento e confrontarlo con il ragionamento dell’AI, e periodicamente rivedere le decisioni dove si è seguito il consiglio dell’AI per valutare se fossero effettivamente buone decisioni. La disciplina della metacognizione non è una formazione una tantum; è una pratica che deve essere coltivata continuamente, un’abitudine mentale che diventa sempre più importante man mano che l’AI diventa più capace e più seducente.

Design dell’interazione Uomo-Macchina: cosa perdiamo quando l’AI diventa una camera dell’eco

Il problema della sycophancy non riguarda solo il ricevere consigli migliori, riguarda la preservazione dell’agenzia umana (agency) e del pensiero critico in un’era di AI sempre più capace (ricordiamo la riflessione di Ethan Mollick: l’AI che vediamo oggi sarà la peggiore forma di AI che vedremo nella nostra vita). Quando i sistemi AI sono progettati per concordare con noi, perdiamo qualcosa di essenziale: l’attrito che produce crescita. Le grandi partnership, che siano con colleghi, mentori o strumenti, sono preziose precisamente perché ci sfidano; ci forzano a difendere il nostro pensiero, considerare alternative e affinare le nostre idee.

L’AI sycophantic rimuove questo attrito. Crea l’illusione di partnership mentre effettivamente sostituisce il pensiero. Nel tempo, questo erode la nostra capacità di pensiero indipendente, come abbiamo discusso nel nostro ultimo Global Human Capital Trends Report di Deloitte.

La ricerca è chiara su questo punto: “with generative AI becoming increasingly capable of outperforming humans in many tasks, users may be more likely to trust AI without skepticism.” Questo è il pericolo. Man mano che l’AI diventa più capace, la tentazione di fidarsi di essa senza domande cresce più forte. E questo è precisamente quando abbiamo bisogno di essere più vigili.

Il paradosso della capacità

Ecco emergere in modo importante anche un paradosso: più l’AI diventa capace, più la sycophancy diventa pericolosa. Un’AI mediocre che concorda con te è fastidiosa, un’AI altamente capace che concorda con te è pericolosa e riesce a convincerci in modo efficace di cose che non esistono. Perché? Perché siamo più propensi a fidarci di essa. Perché i suoi suggerimenti sono più spesso corretti, il che ci rende meno propensi a mettere in discussione quelli che non lo sono. Perché il costo dell’impegno critico sembra più alto quando l’AI ha solitamente ragione – ricordiamoci sempre che il nostro cervello soffre di automation bias e usa le euristiche per risparmiare energia.

Questo è il motivo per cui la ricerca sulla metacognizione è così importante. Mostra che la soluzione non è rendere l’AI meno capace: è rendere gli umani più capaci di impegnarsi criticamente con l’AI.

Conclusione: il futuro della partnership uomo-AI

Il problema della sycophancy rivela una verità fondamentale: la qualità della collaborazione uomo-AI dipende più da come gli umani si impegnano con l’AI che da quanto capace sia l’AI. Un sistema AI altamente capace che semplicemente concorda con gli utenti è peggio di un sistema meno capace che li sfida. Un sistema che fornisce risposte è meno prezioso di uno che pone domande. Un’AI che si adatta alle preferenze dell’utente è meno affidabile di una che mantiene l’integrità intellettuale. Per quanto i primi siano molto più facili dei primi da progettare.
La ricerca indica un futuro dove i sistemi AI sono progettati non per essere più autonomi, ma per essere partner migliori. Questo significa:

  • AI che chiede invece di rispondere.
  • AI che sfida invece di concordare.
  • AI che costruisce comprensione reciproca invece di eseguire conformità.

Per le organizzazioni, questo richiede investimento nello sviluppo metacognitivo e nei flussi di lavoro riprogettati. Per gli individui, richiede vigilanza contro il comfort seducente della sycophancy.

Ma il percorso in avanti è chiaro. Comprendendo la sycophancy, sviluppando capacità metacognitive e riprogettando i sistemi AI come veri partner di pensiero, possiamo creare collaborazioni che migliorano il pensiero umano piuttosto che sostituirlo.La domanda non è se l’AI farà parte del nostro futuro. Lo farà, lo è già. La domanda è se progetteremo quella partnership per renderci più intelligenti… o solo più comodi.


Riferimenti

Yatani, K., Sramek, Z., & Yang, C.-L. (2024). “AI as Extraherics: Fostering Higher-order Thinking Skills in Human-AI Interaction.” arXiv preprint arXiv:2409.09218

Collins, K. M., Sucholutsky, I., Bhatt, U., Chandra, K., Wong, L., Lee, M., Zhang, C. E., Zhi-Xuan, T., Ho, M., Mansinghka, V., Weller, A., Tenenbaum, J. B., & Griffiths, T. L. (2024). “Building Machines that Learn and Think with People.” arXiv preprint arXiv:2408.03943

Lu, J. G., Sun, S., Li, Z. A., Foo, M.-D., & Zhou, J. (2026). “Why AI Boosts Creativity for Some Employees but Not Others.” Harvard Business Review, January 2026.

Riedl, C., & Weidmann, B. (2025). “Quantifying Human-AI Synergy.” Working Paper.

Holstein, J., & Satzger, G. (2025). “Development of Mental Models in Human-AI Collaboration: A Conceptual Framework.” Proceedings of the 46th International Conference on Information Systems (ICIS).

Farach, A., Cambon, A., Tankelevitch, L., Hsueh, C., & Janssen, R. (2026). “Scaffolding Human–AI Collaboration: A Field Experiment on Behavioral Protocols and Cognitive Reframing.” arXiv preprint arXiv:2604.08678

L’Intelligenza Artificiale (IA) sta trasformando rapidamente le industrie, le società e le economie. Con il progresso delle tecnologie IA, aumentano anche i rischi e le implicazioni legate al loro utilizzo. Il Rapporto Internazionale sulla Sicurezza dell’IA 2025 fornisce un’analisi approfondita delle capacità, dei rischi e delle strategie di mitigazione relative all’IA generalista. Questo post sintetizza i principali risultati del rapporto, trattando:

  • Le capacità in rapida evoluzione dell’IA
  • I rischi associati a usi malevoli, malfunzionamenti e sfide sistemiche
  • Lo stato attuale della gestione dei rischi e delle strategie di mitigazione
  • Le implicazioni più ampie per i decisori politici e le imprese

Il rapporto è frutto del contributo di 96 esperti internazionali di IA provenienti dal mondo accademico, governativo e industriale, e riflette la più recente comprensione dei rischi legati all’IA e dei meccanismi di sicurezza. È stato sviluppato nell’ambito di un’iniziativa globale per creare un approccio condiviso alla governeance e alla sicurezza dell’IA.


Capacità dell’IA Generalista

Le capacità dell’IA si sono evolute a un ritmo straordinario, superando le aspettative precedenti. Cinque anni fa, i modelli di IA faticavano a generare paragrafi coerenti. Oggi sono in grado di:

  • Scrivere e correggere codice con precisione crescente, assistendo gli sviluppatori nell’automazione di compiti complessi e nell’individuazione di vulnerabilità prima del rilascio.
  • Sostenere conversazioni avanzate in più lingue, con una maggiore consapevolezza del contesto, intelligenza emotiva e coerenza delle risposte, rendendoli strumenti preziosi per il servizio clienti, la terapia e la creazione di contenuti.
  • Generare immagini, video e audio realistici, indistinguibili dai contenuti creati dall’uomo, aprendo nuove opportunità creative ma anche sollevando questioni etiche, specialmente nella lotta alla disinformazione e alle frodi.
  • Eseguire ragionamenti scientifici e risolvere problemi matematici a livelli esperti, supportando la ricerca in fisica, chimica e medicina, accelerando la scoperta di nuovi farmaci e aiutando nella modellazione climatica.

Over 90% of online content could be AI-generated by 2030, raising concerns about authenticity, trust in media, and election security.


Rischi Associati all’IA Generalista

Con l’aumento delle capacità dell’IA, crescono anche le preoccupazioni sul suo potenziale utilizzo improprio e sulle conseguenze indesiderate. Il rapporto classifica i rischi dell’IA in tre categorie principali:

Rischi di Uso Malevolo
L’IA può essere sfruttata da attori malintenzionati per causare danni su larga scala. Tra le minacce più preoccupanti troviamo:

  • Contenuti falsi e deepfake: I media generati dall’IA possono essere usati per diffondere disinformazione, frodi o ricatti. Alcuni studi stimano che oltre il 90% dei contenuti online potrebbe essere generato dall’IA entro il 2030, sollevando preoccupazioni su autenticità, fiducia nei media e sicurezza elettorale.
  • Manipolazione dell’opinione pubblica: Le campagne di propaganda guidate dall’IA possono influenzare elezioni, decisioni politiche e movimenti sociali. Eventi passati hanno dimostrato come reti di bot e contenuti generati dall’IA siano stati usati per distorcere il discorso politico, aumentando la polarizzazione e minando la democrazia.
  • Attacchi informatici: L’IA viene sempre più sfruttata nella cybersicurezza, sia per misure difensive che per forme avanzate di hacking. Strumenti di rilevamento automatico delle vulnerabilità e sfruttamento delle falle, alimentati dall’IA, potrebbero rappresentare gravi minacce alle infrastrutture digitali.
  • Minacce biologiche e chimiche: Alcuni modelli di IA hanno dimostrato la capacità di assistere nella progettazione di agenti biologici dannosi, sollevando preoccupazioni sulla possibilità di un uso improprio da parte di attori non statali o organizzazioni criminali.

AI-driven automation is expected to replace millions of jobs, requiring large-scale workforce reskilling initiatives to mitigate economic displacement.

Rischi di Malfunzionamento
Anche quando non viene utilizzata in modo malevolo, l’IA può causare danni involontari a causa di difetti di progettazione, dati di addestramento incompleti o comportamenti imprevedibili. I rischi includono:

  • Problemi di affidabilità: I sistemi di IA a volte generano informazioni false o fuorvianti, soprattutto in settori critici come medicina, diritto e finanza.
  • Bias e discriminazione: Gli algoritmi possono amplificare e perpetuare pregiudizi presenti nei dati di addestramento, causando discriminazioni in ambiti come assunzioni, prestiti e applicazione della legge.
  • Perdita di controllo: Gli esperti avvertono che i futuri sistemi di IA potrebbero diventare sempre più difficili da prevedere e gestire, sollevando interrogativi sulla necessità di garantire un allineamento sicuro tra IA e obiettivi umani.

Rischi Sistemici
Oltre ai problemi legati ai singoli modelli, l’adozione diffusa dell’IA porta a rischi più ampi per l’economia e la società:

  • Disoccupazione tecnologica: L’automazione guidata dall’IA potrebbe eliminare milioni di posti di lavoro, rendendo necessarie iniziative su larga scala per la riqualificazione della forza lavoro.
  • Concentrazione del potere dell’IA: Poche aziende dominano lo sviluppo dell’IA, creando squilibri nell’accesso alle tecnologie avanzate e nella capacità di regolamentare il settore.
  • Impatto ambientale: L’addestramento di un singolo modello di IA di grandi dimensioni può produrre tanta CO₂ quanto cinque automobili nel corso della loro vita utile.

Training a single large AI model produces as much CO₂ as five cars over their lifetime, necessitating greener computing solutions and regulatory interventions.


Gestione del Rischio e Strategie di Mitigazione

Le strategie di gestione del rischio devono concentrarsi sulla trasparenza, sulla conformità normativa e sull’etica dell’IA. Governi e imprese devono sviluppare quadri normativi completi che garantiscano un uso responsabile dell’IA, imponendo test rigorosi prima del rilascio dei modelli.

Gli investimenti nella ricerca sulla sicurezza dell’IA devono aumentare, con un focus su interpretabilità, riduzione dei bias e robustezza contro attacchi esterni. Le collaborazioni pubblico-private possono contribuire a creare organismi di vigilanza indipendenti per garantire la responsabilità nello sviluppo dell’IA.


Il Futuro dell’IA e le Considerazioni Politiche

La governance dell’IA, lo sviluppo etico e gli standard normativi saranno cruciali per definire il modo in cui l’IA verrà integrata nella società. I responsabili politici devono bilanciare innovazione e sicurezza, garantendo che l’IA sia utilizzata per il bene pubblico.

Le future politiche dovrebbero concentrarsi sulla democratizzazione dell’accesso all’IA, prevenendo il controllo monopolistico sulle tecnologie e promuovendo uno sviluppo sostenibile dell’IA per ridurre l’impatto ambientale.

AI does not happen to us; it is shaped by the choices we make today. Ensuring a future where AI serves humanity requires vigilance, cooperation, and a commitment to responsible innovation.

Il Rapporto Internazionale sulla Sicurezza dell’IA 2025 è una risorsa fondamentale per comprendere il panorama in evoluzione dell’IA. Le scelte che società e governi faranno oggi determineranno se l’IA rimarrà una forza positiva o diventerà una sfida globale.

Il termine “spazio immersivo” viene spesso utilizzato per descrivere ambienti progettati per offrire un’esperienza sensoriale profonda e coinvolgente.

Uno spazio immersivo viene spesso creato per suscitare specifiche percezioni o sensazioni nelle persone, creare un senso di presenza e fornire un ambiente che incoraggia l’esplorazione e la scoperta.
D’altra parte, i principi di progettazione delle esperienze trasformative, come abbiamo già descritto in un articolo precedente, si riferiscono a un framework ben specifico volto alla progettazione di esperienze coinvolgenti capaci di trasformare le persone in modo significativo.

A conti fatti, uno spazio immersivo progettato secondo i principi del TED, Transformative Experience Design, può fornire, o aumentare in modo maggiormente elevato, il proprio senso di presenza (concetto già discusso quando si fa riferimento a Networked Flow e Realtà Virtuale): aspetto, questo, che permette alle persone di sentirsi profondamente coinvolte e connesse all’ambiente, incoraggiando allo stesso tempo l’esplorazione e la scoperta. La presenza è data dalla sensazione di poter sentire e vedere realizzate le proprie intenzioni. Questo senso di presenza viene spesso raggiunto attraverso l’uso della tecnologia, come la realtà virtuale o aumentata, o creando un ambiente ricco di stimoli visivi, sonori, olfattivi e tattili.
Al tempo stesso e inoltre, creare un ambiente che circonda le persone e fornisce un senso di immersione e curiosità può essere particolarmente efficace nel suscitare emozioni positive (meraviglia, flow, stupore, gioia, engagement, senso di appartenenza, purpose…), poiché offre alle persone l’opportunità di imparare e scoprire cose nuove.

Sull’importanza dello spazio e su quanto esso possa essere un facilitatore di nuove sensazioni ed emozioni, si esprime anche Cartwright (2017):

Bachelard, a philosopher of science, believed that the mind was insufficient to account for his observations about space and thus introduced the “soul” to his inquiries and the idea that pure poetic image of space has no causality — it is basic, primitive, and immediately knowable, much like Jung’s concept of the archetype. Bachelard distinguishes between the “intimate” space as seen in the domestic image of the house with its cellar, the stairs, the attic and nooks and crannies and the “exterior” space where images of immensity dominate. Bachelard and Searles explain why both intimate spaces and immense spaces can inspire us and stimulate our imaginations.

Un altro principio della progettazione dell’esperienza trasformativa (TED) è quello di fornire esperienze significative e rilevanti per la vita delle persone. Creando uno spazio coinvolgente progettato attorno a un tema o un’idea specifica, l’esperienza può essere personalizzata in modo da risuonare con gli interessi e i valori delle persone. Ciò può essere particolarmente efficace nel suscitare emozioni epistemiche – cioè quelle emozioni che detengono un legame privilegiato  con la conoscenza e la comprensione del mondo – come un senso di stupore, meraviglia o illuminazione, poiché le persone sono in grado di interagire con idee che sono rilevanti per la loro vita e il loro stesso senso di identità.

Alcuni esempi? Il Super Blue a Miami, l’Esperienza Immersiva di Van Gogh o il Museo del Futuro a Dubai o il TeamLab di Tokyo.

Inoltre, non si può sottovalutare l’importanza degli spazi nel plasmare le nostre narrazioni autobiografiche, poiché hanno un impatto significativo sulla nostra percezione delle storie della nostra vita. Secondo Lengen et al. (2019), gli spazi sono un elemento fondamentale per svelare le nostre esperienze nella memoria e nell’immaginazione. Pertanto, la dimensione spaziale svolge un ruolo dominante nel definire ed esperire il sé, sia a livello individuale che collettivo (Riva et al., 2021). Le nostre identità sono largamente definite dagli spazi che frequentiamo e dai luoghi che abitiamo, come il luogo di lavoro, un istituto educativo o il nostro paese di residenza. Ad esempio, ci identifichiamo come lavoratori se andiamo in ufficio, come studenti se frequentiamo un ateneo e come italiani se risiediamo in un determinato paese.

Come abbiamo discusso in precedenza, è essenziale che una trasformazione autentica coinvolga l’individuo nella generazione di nuovi significati e nella convinzione che l’esperienza vissuta sia rilevante. Tuttavia, a causa della natura soggettiva della trasformazione personale, è impossibile prevedere come un’esperienza verrà percepita prima che essa venga vissuta. Il Transformative Experience Design o Design dell’Esperienza Trasformativa (TED) offre linee guida per suscitare esperienze trasformative attraverso determinate caratteristiche.

Queste caratteristiche specifiche includono stimoli emotivi che suscitano curiosità, interesse e stupore, così come segnali e narrazioni progettati per ispirare riflessione, riformulazione e intuizione. Tra queste esperienze, quelle di meraviglia e flow sono state identificate come avendo significativi impatti psicologici positivi. La meraviglia (awe), spesso associata al senso di stupore, è difficile da studiare a causa della sua rarità ed è caratterizzata dalla percezione dell’immensità che mette alla prova gli schemi cognitivi. Il flow, d’altra parte, viene descritto come uno stato di completo assorbimento in un’attività, uno stato ampiamente teorizzato e dimostrato dallo psicologo ungherese Csikszentmihalyi.

La creazione di spazi coinvolgenti ed immerisvi, pertanto, oltre ad essere sempre più comune, dovrà seguire i principi del design trasformativo per fornirci la possibilità di creare qualcosa di veramente rilevante per la vita delle persone. Nell’economia dell’esperienza, come identificata da Pine e Gilmore, sarà sempre più necessario progettare nuovi modelli virtuosi capaci di avere un impatto reale sulla capacità delle persone di vivere esperienze trasformative ed emozioni positive.

Nelle parole di Alvin Toffler in Future Shock:

To survive, to avert what we have termed future shock, the individual must become infinitely more adaptable and capable than ever before. We must search out totally new ways to anchor ourselves, for all the old roots — religion, nation, community, family, or profession — are now shaking under the hurricane impact of the accelerative thrust. It is no longer resources that limit decisions, it is the decision that makes the resources.

Chi segue questo spazio sa che, oltre al digitale, uno dei temi a me più cari è quello che riguarda i nuovi modelli di lavoro e le modalità attraverso le quali è possibile disegnare un’impresa differente, maggiormente collaborativa, resiliente e capace di adattarsi ai cambiamenti che il mercato impone.
L’anno 2020, con la pandemia da Covid-19, è stato – in questo senso – maestro e ci ha mostrato in modo evidente quanto inadatte e inefficaci fossero le nostre organizzazioni ad attraversare scenari inediti. Ha rappresentato, a conti fatti, anche un’importante occasione per riflettere sul futuro che vogliamo disegnare.

E’ per questo che il volume edito da Hoepli Milano e che ho scritto in questo periodo: Future of Work: le Persone al Centro, costruire il lavoro e la società del futuro rappresenta un punto saldo di partenza per tutti quei professionisti e per quelle imprese che intendano seriamente mettersi in discussione e prendere in mano la direzione dei propri modelli organizzativi.
Il libro offre casi, spunti, riflessioni teoriche ed esempi pratici attraverso i quali ripensare quello che facciamo quotidianamente.

Come scrive Jacob Morgan nella postfazione del volume:

Che cos’è il futuro del lavoro? 

Questa è una domanda che mi viene spesso posta durante le conferenze, gli eventi, e anche online, dalla mia community.
Nessuno può predire il futuro, ma la verità è che, questa, è una domanda sbagliata.
Chiedersi “che cosa è il futuro del lavoro” dimostra un atteggiamento passivo; assume che il futuro sia un qualcosa che accade e che non ci sia niente che possiamo fare per modificarlo. Tutto quello che è in nostro potere è attendere e subire l’impatto del cambiamento. È un’attitudine sbagliata verso il ciò che deve arrivare: non dobbiamo pensarlo in questo modo. Il futuro è qualcosa che immaginiamo, costruiamo e definiamo noi stessi, come protagonisti del cambiamento: dobbiamo cambiare il nostro punto di vista, dobbiamo riformulare la domanda. È tempo di chiedersi: “quale futuro del lavoro vuoi vedere realizzato?” e pensare a cosa puoi fare per vederlo accadere.
Cambiare il modo in cui pensiamo al futuro del lavoro ci mette al posto di guida e rende ognuno di noi un protagonista attivo della narrazione. 
Le persone che prenderanno posizione e si spenderanno in prima persona per il futuro del lavoro giocheranno un ruolo chiave nella trasformazione e nel cambiare il mondo in cui viviamo. 

Quindi domandiamoci: qual è il futuro del lavoro che vogliamo vedere realizzato? 

È ora di renderlo reale. 

Il libro vanta preziosi contributi da parte di esperti di settore e di personalità di spicco nel mondo del lavoro. Oltre a rendermi molto orgoglioso, sono convinto possano rappresentare una efficace bussola per navigare il futuro del lavoro e il mondo delle nostre organizzazioni.

Tra i principali contributi che troverete all’interno del volume:

  • Carlo Bozzoli, CIO di ENEL Group, che ha curato la prefazione del volume
  • Jacob Morgan, autore di best seller e speaker di fama internazionale, che ha curato la postfazione del volume
  • Carlo Chiattelli, economista e Associate Partner EY
  • Alessandro Antonini, Senior Manager di EY
  • Manuela Cantoia, Professore di Psicologia Generale presso l’Università eCampus
  • Andrea Gaggioli, Professore di Psicologia presso l’Università Cattolica del Sacro Cuore
  • Cosimo Accoto, MIT research affiliate e autore di “il mondo ex machina” e “il mondo dato”
  • Luigi Centenaro, autore del Personal Branding Canvas, consulente e autore di diversi volumi sul tema del personal branding
  • Paolo De Caro, Senior Manager di EY e responsabile del centro di innovazione e sviluppo (Brain)

Il volume si articola in diversi capitoli che comprendono analisi specifiche, casi d’uso ed esempi pratici per comprendere in che modo il mondo del lavoro sia cambiato e si modificherà nel prossimo – immediato – futuro.

Di seguito l’elenco dei capitoli:

  • Capitolo 1 – Resilienza, trasformazione e il futuro del lavoro
  • Capitolo 2 – Casi d’uso, modalità di approccio e contesti operativi per il lavoro del futuro
  • Capitolo 3 – Errori e ostacoli che impediscono la trasformazione delle organizzazioni
  • Capitolo 4 – Una roadmap per costruire organizzazioni resilienti
  • Capitolo 5 – Progettare e costruire il Future of Work: creare esperienze trasformative e Positive Innovation Network
  • Capitolo 6 – Automazione e intelligenza artificiale nel futuro del lavoro
  • Capitolo 7 – Skill e competenze: il ruolo delle persone
  • Capitolo 8 – Verso un ripensamento dei modelli educativi e di formazione
  • Capitolo 9 – Purposeful Organization e il ruolo della leadership nella trasformazione
  • Capitolo 10 – Agile, Holacracy e nuovi modelli di organizzazione
  • Capitolo 11 – Costruire valore per l’intero ecosistema

Il mondo che costruiamo – e che costruiremo – passerà dalla nostra capacità di organizzarci secondo comunità e modelli relazionali.

Come si legge nel volume:

In un’analisi famosa relativa alla natura della comprensione scientifica dei fenomeni, il fisico quantistico Werner Heisenberg ha avuto occasione di sottolineare come capire significhi in un’ultima istanza saper individuare il legame che riconduce fenomeni diversi allo stesso insieme coerente. La vera comprensione della realtà sa superare la complessità superficiale dei fenomeni e mettere in evidenza la struttura coerente che sta dietro di essi. 

Il futuro della società e del senso delle organizzazioni e del lavoro di ognuno di noi passa per le parole, visionarie e illuminate di Adriano Olivetti, che nella sua azienda e il territorio del Canavese sono diventati poi laboratorio e ispirazione per molte realtà nel mondo.
È facile riconoscere nelle sue parole quei concetti propri di collaborazione, di innovazione partecipata, ma anche di smart cities, di green valley, di sostenibilità dell’innovazione e del modo di lavorare delle persone, dei digital district periferic, ma che sono poi centri di eccellenza della nuova e futura società dell’informazione. Scrive Olivetti: “Comunità, io nome lo dice, e il programma lo afferma, è un movimento che tende a unire, non a dividere, tende a collaborare, desiderare, insegnare, mira a costruire […].
Tecnica e cultura conducono verso il decentramento, verso la federazione di piccole città dalla vita intensa, ove sia armonia, pace, silenzio, lontano dallo stato attuale delle metropoli sovraffollate come dall’isolamento e dallo sgomento dell’uomo solo.”

Non vi resta che procurarvene una copia e poi proseguire la discussione su questo spazio o sui miei canali social: fatemi sapere cosa ne pensate!

Per chi volesse acquistarlo: https://amzn.to/3mlIfwO

Chi mi segue da un po’ di tempo – sia su questo blog sia altrove – sa bene che mi sono sempre occupato di trasformazione digitale, iniziando a lavorare nell’ambito nell’ormai lontano 2008.
In questi anni ho avuto il piacere di aiutare moltissime organizzazioni italiane e internazionali nell’evoluzione dei loro modelli di business e di lavoro verso scenari maggiormente partecipati, inclusivi, collaborativi, efficaci e – per l’appunto – digitali. In questo spazio, e su tanti altri canali, abbiamo avuto modo di riflettere come il digitale, e ormai lo sappiamo con certezza, sia molto più legato a una trasformazione di modelli culturali, di mindset e di pratiche organizzative che non una mera implementazione tecnologica di piattaforme (per quanto importante e non trascurabile).

Grazie alla collaborazione con Ninja Academy / Ninja Marketing nasce un volume che vuole tentare di essere una sintesi di tutto quanto appreso negli ultimi anni di lavoro. Un manuale per disegnare il futuro delle nostre imprese che sia sempre più abilitato da piattaforme e tecnologie collaborative.

Digital Transfomer – Stefano Besana

Nel corso dell’opera saranno – infatti – affrontati tutti i temi che riguardano l’evoluzione dei nostri modelli di lavoro, prendendo in esame in che modo marketing, innovazione, governance, processi interni, collaborazione, educazione si modificano e cambiano su sollecitazione delle innovazioni tecnologiche.

Al libro, per chi fosse interessato, è associato anche un corso che prevede diverse ore di lezione e molte esercitazioni che costituiscono un percorso di apprendimento davvero verticale sul tema. Per coloro che volessero approfondire i temi e avere una formazione completa sull’argomento è assolutamente consigliato.

Tornando ai temi del volume è bene sottolineare come quello dell’evoluzione tecnologica e digitale sia un tema rilevante ed è da considerarsi parte integrante del nostro mondo e del modo attraverso cui ci relazioniamo con le persone che ci circondano.

Come sostiene anche Fritjof Capra ne La scienza della Vita, parlando della tecnologia:

«Le sue origini risalgono ai primordi della specie umana, quando il linguaggio, la coscienza riflessiva e la capacità di fabbricare utensili (la prima forma di tecnologia) si evolsero assieme. Di conseguenza, alla prima specie umana, fu dato il nome di Homo Habilis, proprio a indicare la sua abilità nel fabbricare sofisticati utensili. La tecnologia è quindi una caratteristica essenziale della natura umana: nella sua storia è racchiuso l’intero cammino dell’evoluzione umana.»

Come anticipato, il libro si compone di diversi capitoli che analizzano, approfondendole, le diverse tematiche relative al mondo digitale e a come questo abbia profondamente modificato il nostro modo di fare innovazione, marketing e – in senso più allargato – impresa.

E’ al tempo stesso un saggio e un manuale che vuole, da un lato, analizzare i profondi cambiamenti che la nostra società ha vissuto nel corso degli ultimi anni e – dall’altro – fornire uno strumento utile per interpretare i fenomeni organizzativi e per indirizzare nuovi modelli di lavoro all’interno delle imprese.

Le sezioni del volume sono:

  • Capitolo 1 – Digital trends. Essere digitali oggi
  • Capitolo 2 – Digital operating model.
  • Capitolo 3 – Digital customer. Ascoltare, attrarre e gestire i clienti grazie al digitale
  • Capitolo 4 – Digital marketing. Comunicare in modo integrato e digitale
  • Capitolo 5 – Digital Governance. Processi, organizzazione e strumenti per rendere concreta la trasformazione
  • Capitolo 6 – Digital Collaboration: abilitare il cambiamento organizzativo
  • Capitolo 7 – Digital Training ed Education. Cambiare i modelli di formazione
  • Capitolo 8 – Digital Innovation: ripensare il modo di fare innovazione
  • Capitolo 9 – Digital Analytics e misurazione
  • Capitolo 10 – Digital Society. Quali evoluzioni e prospettive ci aspettano?

Che dire? Se siete interessati al tema non vi resta che procurarvene una copia e discuterne qui o altrove per darmi la vostra opinione. Mi trovate su tutti i social o nei commenti qui sotto!

Per chiudere con una citazione di Antoine de Saint-Exupéry, l’autore de Il Piccolo Principe:

«La tecnologia non tiene lontano l’uomo dai grandi problemi della natura, ma lo costringe a studiarli più approfonditamente».

Qui il link diretto di Amazon per l’acquisto: https://amzn.to/3gmeSqG

Chi segue questo blog da qualche tempo sa bene che uno dei temi – forse IL tema per eccellenza – di cui mi occupo è quello legato a come costruire organizzazioni maggiormente agili, resilienti e collaborative.

Negli ultimi 10 anni ho speso buona parte del mio tempo a supportare organizzazioni di medie e grandi dimensioni e a complessità variabile nella definizione della migliore strategia di cambiamento che rimettesse le persone al centro del business.
Modelli di aziende maggiormente innovative, trasparenti, collaborative sono possibili e generano un vantaggio competitivo notevole all’interno del mercato di cui fanno parte.
Non solo: questi modelli rimettono al centro le persone, motivandole a dare il meglio e costruendo con loro una nuova era di valore della quale possano beneficiare tutti gli stakeholder coinvolti.

Stefano Besana - Collaborative Company

Stefano Besana – Collaborative Company EGEA – Tag Innovation School Books

Da una collaborazione con Alessandro Rimassa e Talent Garden Innovation School è nato, quindi, “Collaborative Organization“: un piccolo breviario ricco di esempi e di considerazioni che assommano un decennio di lavoro nelle aziende e che si propone di divenire una piccola guida che possa contribuire a un cambiamento – anche minimo – all’interno del nostro modo di concepire le aziende.

Come si legge nel volume:

Il concetto non è nuovo e si applica a molte delle svolte che hanno condizionato il pensiero occidentale: Randall Collins nel suo The Sociology of Philosophies (1998) sottolinea come la Mittwochsgesellschaft (la società del mercoledì di Berlino, gruppo di pensatori tedeschi liberali) si ampliò progressivamente nel corso degli anni; o come Pisarro e Degas si iscrissero alla Ecole des Beaux Arts nello stesso momento e di come fecero poi la conoscenza di Cézanne e Renoir al Café Guerbois; cambiando paradigma di riferimento, le jam session funzionano allo stesso modo sviluppando una vera e propria group mind durante le sessioni e, ancora, Hegel, Schelling e Hölderlin furono compagni di scuola a Tubinga. Secondo Collins queste interazioni non casuali generano dei veri e propri rituali che si traducono in un capitale culturale di altissimo valore mettendo a fattor comune esperienze, conoscenze e soprattutto relazioni che un soggetto acquisisce nel corso della sua vita.

Si tratta di un modello che rimette al centro la nostra capacità di avere un impatto concreto sul mondo, poiché – come sottolinea tra gli altri Mihaly Csikszentmihalyi:

“Non si può condurre una vita che sia veramente eccellente senza sentire che si appartiene a qualcosa di più grande e permanente di se stessi”.

Un nuovo modello di lavoro è possibile e – per certi versi – è già in atto.

Curiosi?
Potete trovare – edito da Egea – sul sito ufficiale della casa editrice o su Amazon: http://amzn.eu/d/4GAi3rg

Già Wenger (1991; 2006) nel suo celebre lavoro sulle comunità di pratica ha sottolineato l’importanza, sia per le organizzazioni sia per gli individui, di cogliere quell’apprendimento inafferrabile, intangibile che rappresenta – però – il vero nucleo di conoscenze che si possiedono. Considerato in questo modo, l’apprendimento diviene un fenomeno emergente che si colloca in un orizzonte di riflessione sulle pratiche e sugli interessi soggettivi delle persone che fanno parte di comunità in cui scambi e relazioni oltreché attività concrete fanno da collante strutturale. La riflessione sulle CdP non riguarda però semplicemente l’apprendimento ma considera molto da vicino anche i cambiamenti organizzativi che sono connessi a un approccio di questo tipo. A livello molto generale possiamo considerare le tecnologie di digital collaboration – se opportunamente organizzate – come un’evoluzione del concetto di comunità di pratica teorizzato da Wenger.

In questa stessa direzione Lipari (2009) definisce la pratica come

un processo d’azione stabilizzato e al tempo stesso dinamico, ha luogo in un contesto storico-sociale determinato e coinvolge individui e gruppi nello svolgimento di attività le cui caratteristiche tecniche, operazionali e di significato si strutturano nel tempo consolidandosi in abitudini che a loro volta si fissano nella memoria collettiva, diventando tradizione e punto di riferimento per l’azione di tutti” (pp. 24-26).

A livello organizzativo le comunità di pratica rappresentano quindi un anello di congiunzione fondamentale tra la conoscenza tacita e non strutturata presente all’interno dell’impresa e la conoscenza formale, gerarchizzata e strutturata all’interno dei silos organizzativi. In questo la social collaboration si pone come veicolo ideale per: (1) portare alla luce e far emergere pratiche consolidate all’interno del modus operandi dei dipendenti, spesso inconsapevoli di quello che – effettivamente – conoscono; (2) cristallizzare la conoscenza all’interno di unità definite e organizzabili (e.g. un wiki, un forum, un’area di discussione condivisa); (3) diffondere e rendere riutilizzabile nel tempo la conoscenza acquista e formalizzata all’interno dell’impresa [1].

Il concetto di CdP non è però l’unico al quale il percorso di digitalizzazione dell’azienda fa riferimento. Un’altra dimensione importante è quella di cultura organizzativa, primariamente teorizzata da Jacques nel volume The Changing Culture of a Factory (1951) e ripresa da Schein (1990) in diversi studi. Sommariamente possiamo definire la cultura organizzativa come un insieme di assunti di base che si sono rivelati particolarmente validi tanto da essere trasmessi ed indicati come modo corretto di percepire, pensare e sentire all’interno dell’impresa. Il sapere e le conoscenze accumulate nel tempo dall’organizzazione sono poi trasmessi attraverso specifici processi di comunicazione. Secondo Schein la cultura organizzativa si compone di:

  • Artefatti: creazioni ed espressioni artistiche, tecnologie impiegate, comportamenti manifesti e linguaggio scritto e orale proprio di un’organizzazione
  • Valori: modalità operative, principi, credenze e idee, codici morali ed etici
  • Assunti di base: assunzioni implicite e inconsapevoli, modalità di percepire e di pensare, indicazioni fondamentali circa l’organizzazione.

A livello di digital transformation risulta fondamentale indagare la cultura organizzativa con un duplice scopo: (1) valutare e comprendere la prontezza individuale e dell’impresa nell’intraprendere un percorso di cambiamento organizzativo. Non necessariamente il digitale rappresenta una strada che l’impresa intende intraprendere e lanciare un progetto di questo tipo senza aver opportunamente indagato la cultura sottesa può rappresentare un rischio enorme per il successo del progetto. (2) Indagare la cultura e la prontezza dell’impresa risulta utile per identificare in anticipo eventuali possibili problemi e resistenze che potrebbero impedire l’adozione di un approccio collaborativo e indirizzarli in anticipo per poter trovare soluzioni significative.

Altre dimensioni di analisi che toccano il fenomeno della digital collaboration e che riguardano più da vicino il tema dell’employee engagement inteso come uno stato psicologico positivo dell’individuo sono rintracciabili nel percorso di evoluzione verso un modello maggiormente digitale e collaborativo. Sono molte – in questa direzione – le ricerche che hanno dimostrato gli effetti positivi che un elevato engagement dei dipendenti ha sull’intera azienda. Miglioramento dell’impegno organizzativo e alte prestazioni (Salanova, Agut e Peirò, 2005), basso assenteismo, capacità di servire meglio il cliente, migliore soddisfazione personale, riduzione del rischio di burn-out. Un migliore engagement stimolato dalle community interne di dipendenti basate sulla collaboration non solo darebbe numerosi benefici ai dipendenti, ma sarebbe in grado – in modo indiretto – di migliorare la produttività dell’impresa in una dinamica win-win.

A questo concetto strettamente si correla quello di clima organizzativo, un costrutto psicologico che sottolinea l’importanza di trovare un buon equilibrio tra produttività e soddisfazione personale dei dipendenti intesa anche come qualità della vita professionale condotta. Il clima organizzativo ci aiuta a porre in evidenza in che modo i processi di digital e social collaboration vadano a contribuire al rafforzamento di un clima positivo, basato su modalità di lavoro più snelle, immediate, agili e in grado di rispondere più velocemente alle sfide che sono imposte dal mercato. Il clima organizzativo influenza (ed è influenzato) da numerosi punti chiave sui quali si basano gli approcci collaborativi:

  • gerarchia e ruoli all’interno dell’azienda, contribuendo a rendere maggiormente rilevante la competenza rispetto alla posizione occupata all’interno dell’organizzazione;
  • sistemi di riconoscimento e incentivi nell’adozione di meccanismi che premino non soltanto i risultati, ma il modo attraverso cui si raggiungono, non solo l’ambito economico ma anche la reputazione personale e la visibilità interna ed esterna all’impresa;
  • responsabilità individuale: fornendo a tutti la capacità di esprimersi in prima persona e di rispondere delle proprie azioni aumentando il senso di autoefficacia complessivo e la capacità delle persone di costruirsi un network di fiducia personale;
  • motivazione delle persone: dell’employee engagement abbiamo parlato in precedenza, in questa sede basti sottolineare l’importanza e l’impatto – molto elevato – che ambienti collaborativi hanno nell’aumento della motivazione individuale delle persone che – a sua volta – gioca un ruolo decisamente significativo sul clima organizzativo
  • senso di appartenenza all’azienda: nessun uomo è un’isola e l’appartenenza a un gruppo rappresenta uno dei bisogni fondamentali dell’individuo. All’interno dell’azienda questo bisogno si esprime tramite il senso di appartenenza che può fortemente essere influenzato dalle modalità di lavoro collaborativo che consentono di socializzare esperienze (anche non necessariamente lavorative) e di mettere a fattor comune idee e progetti;
  • accesso alle informazioni: l’accesso alle informazioni viene notevolmente semplificato e il riutilizzo della conoscenza reso molto più immediato. Questo consente di ridurre i livelli di frustrazione complessiva e di migliorare l’ambiente di lavoro;
  • autonomia e coordinamento complessivi: ambienti collaborativi influiscono sul clima aziendale contribuendo alla creazione di spazi di maggiore autonomia e di coordinamento. Strumenti di questo tipo permettono – infatti – di rimanere allineati sul lavoro degli altri, di perdere meno tempo in riunioni e meeting di allineamento e di aggiornamento e di avere migliore visibilità su quanto accade all’interno dell’impresa. Tutto questo contribuisce, in maniera più o meno diretta a generare un clima aziendale più trasparente e meritocratico.

Un’ulteriore riflessione che si collega fortemente alla dimensione psicologica può essere fatta prendendo in considerazione direttamente lo strumento tecnologico che rende possibile l’introduzione di ambienti collaborativi nell’organizzazione. Le piattaforme digitali che entrano in gioco all’interno dei processi di definizione di social e digital collaboration, rappresentano di fatto dei medium. Riva (2008) rileva come i nuovi media portino sempre con sé quattro caratteristiche peculiari legate – appunto – al passaggio da un’informazione analogica a una digitale. Queste caratteristiche sono:

  • Modularità: riguarda la possibilità di scomporre il contenuto in una serie di elementi discreti (detti appunto moduli) ed è il coronamento della separazione tra i contenuti e il supporto fisico del medium.
  • Interattività: la possibilità di fruire il contenuto mediante la navigazione tra una serie di nodi che sono collegati tra loro.
  • Automazione: la possibilità di svolgere azioni in automatico, senza che l’utente ne sia necessariamente consapevole.
  • Variabilità: la possibilità che i nuovi media possiedono di essere riutilizzati e impiegati in modi differenti, producendo più versioni dello stesso oggetto.

L’introduzione di un medium all’interno di una cultura non implica una semplice rivoluzione tecnologica, ma, come sostenuto anche da Mantovani (1995) una vera e propria riconfigurazione delle opportunità di mediazione culturale a disposizione dei soggetti. Ancora una volta, e casomai ce ne fosse ancora bisogno, viene sottolineata l’importanza che la cultura gioca all’interno di processi di trasformazione di questo tipo. L’introduzione di un medium all’interno della situazione esperita dai soggetti – infatti – li impone e li obbliga ad adattarsi al cambiamento. Sempre Mantovani (1998) riprende l’interessante metafora del bastone del cieco elaborata da Gregory Bateson nel 1972 all’interno del suo celebre volume Verso un’ecologia della mente: il bastone di Bateson (il medium dei giorni nostri)

è una protesi che filtra l’informazione disponibile e rende accessibili solo determinate esperienze. Tutti noi siamo cechi, in un certo senso, ed esploriamo la realtà con l’aiuto di strumenti, gli artefatti, attraverso cui conosciamo le cose e agiamo nel mondo” (Mantovani, 1998 pp. 121-122).

In questo senso le piattaforme digitali di social collaboration possono essere lette non solo come un medium, ma come un’affordance in grado di fornire all’utente una vasta serie di potenzialità esplorabili che prima non erano nemmeno ipotizzabili.

Un altro concetto fondamentale per la comprensione dell’esperienza e di come questa viene modificata dai media digitali è quello di interfaccia. L’interfaccia può essere definita come

l’insieme di caratteristiche del medium che si pone in mezzo tra i diversi utenti consentendogli di raggiungere la propria intenzione” (Riva, 2008).

Ll’interfaccia assume una dimensione fondamentale e richiede una riflessione specifica non solo perché responsabile di come – effettivamente – è costruita l’intera esperienza, ma anche perché in grado di inibire o facilitare l’attuazione delle intenzioni all’interno del medium stesso [2]. L’interfaccia ha poi una funzione anche sulle informazioni che l’utente desidera fruire, attraverso la loro presentazione – infatti – guida l’utente nella scelta di ciò che deve essere colto dalla sua attenzione orientando la lettura della realtà che lo circonda. Riva (2008) rileva come – poi – l’interfaccia nei media digitali assuma caratteristiche specifiche che la portano a separarsi dal medium stesso e a porsi come una sorta di meta-medium, essendo caratterizzata da dimensioni fisiche, simboliche e pragmatiche proprie.

In sintesi si può dire che l’interfaccia all’interno dell’universo dei media digitali ricopra tre ruoli fondamentali:

  1. Rappresenta le caratteristiche del medium attraverso un modello.
  2. Rende “visibili” gli oggetti digitali contenuti al suo interno.
  3. Facilita l’uso mediante un’opera di filtro e selezione degli stimoli e dei contenuti.

Gli ambienti digitali possono essere, poi, analizzati alla luce della teoria dell’inter-azione situata che consente di comprendere meglio come i processi comunicativi e relazionali siano influenzati dall’essere all’interno di una situazione “aumentata” dai media.

Cercando di riassumere i concetti alla base di questa teoria, Riva (2008) chiarifica le dimensioni fondamentali che entrano in gioco durante una comunicazione mediata.

  • Intenzione: ogni comportamento è espressione di una complessa rete intenzionale organizzata su più livelli e messa in atto mediante una pluralità di canali, questa definizione è un’integrazione delle posizioni di Anolli (2006) e Pacherie (2008) con quelle della pragmatica della comunicazione (Watzlawick, Beavin e Jackson 1971). Le intenzioni sono una struttura dinamica organizzata su più livelli, questa si sviluppa gerarchicamente secondo tre fasi specifiche:
    • le intenzioni motorie (prensione, contrazione…): sono innate e la loro soddisfazione è data dall’azione stessa, l’oggetto di queste intenzioni è sempre il “semplice” movimento del corpo;
    • le intenzioni prossimali: nascono come combinazione di diverse intenzioni motorie dirette verso un oggetto del mondo presente, la loro soddisfazione dipende dal rapporto tra il contenuto intenzionale (prendere la macchina fotografica) e l’oggetto del mondo reale a cui è diretto (la macchina fotografica);
    • le intenzioni distali: sono composte da una catena d’intenzioni motorie e prossimali dirette verso un oggetto che può non far parte del mondo reale ma dell’universo del possibile.

La soddisfazione delle intenzioni motorie e prossimali riguarda sempre il rapporto tra il soggetto, il corpo e il mondo degli oggetti. La verifica delle intenzioni distali – invece – è sempre “situata”, in riferimento al rapporto tra il soggetto, le sue rappresentazioni e i suoi mondi possibili.

Accanto al concetto d’intenzione e del suo ruolo specifico nell’esperienza del soggetto, la teoria dell’inter-azione situata richiede l’ingresso in gioco di altri concetti ugualmente importanti, questi assunti riguardano la capacità di cogliere gli stimoli provenienti dall’ambiente (affordance) e la sensazione che sperimenta il soggetto (presenza e presenza sociale). Con il termine affordance s’intende l’opportunità di azione offerta dall’ambiente all’utente, una sorta d’invito – cioè – che l’ambiente rivolge a essere usato in un determinato modo . Le affordance si suddividono in due categorie:

  • Dirette: se sono il risultato di un flusso d’informazione. Sono stabili e non si modificano se non cambiando le proprietà fisiche dell’oggetto
  • Mediate: risultato di un’interpretazione che il soggetto attribuisce all’ambiente; a caratterizzare questo tipo di affordance è invece la sua relatività, infatti, è il risultato sia del significato attribuito all’oggetto, sia dell’analisi del contesto

L’affordance ha quindi carattere dinamico ed è il risultato di un’interpretazione di ciò che l’utente è in grado di cogliere dall’ambiente e non solo di ciò che l’ambiente (reale o digitale) è in grado di offrirgli.

Ma cosa ne è dell’esperienza del soggetto?  Quali sensazioni è possibile sperimentare all’interno di un ambiente digitale? Per rispondere a queste domande è possibile introdurre due concetti che forniscono una dimensione chiara di dove si collochi l’esperienza del soggetto all’interno di situazioni in cui entrano in gioco i media digitali.

  • Presenza: con questo termine s’intende la sensazione di “essere” all’interno di un ambiente fisico o digitale, che risulta dalla capacità/possibilità di attuare le proprie intenzioni (Riva, 2008: p. 127). Si divide, anch’essa, in tre livelli fondamentali:
    • protopresenza: ovvero, la capacità di attuazione delle intenzioni motorie attraverso il solo movimento del corpo;
    • presenza nucleare: la capacità – cioè – di attuazione delle intenzioni prossimali attraverso l’identificazione delle affordance dirette;
    • presenza estesa: capacità di attuazione delle intenzioni distali, attraverso l’identificazione delle affordance mediate.
  • Presenza sociale: la sensazione di “essere con altri da Sé” all’interno di un ambiente fisico o digitale, che risulta dalla capacità/possibilità di comprendere le intenzioni degli altri (Riva, 2008: p. 49). Anche in questo caso si possono distinguere tre differenti livelli:
    • proto-presenza sociale: la capacità di riconoscimento delle intenzioni motorie, che permettono al Sé di riconoscere un Altro intenzionale;
    • presenza sociale oggettuale: la capacità di riconoscimento delle intenzioni motorie e prossimali che consente al Sé di riconoscere un Altro la cui intenzione è rivolta verso di lui;
    • presenza sociale empatica: la capacità di riconoscimento delle intenzioni motorie, prossimali e distali, che consente al Sé di riconoscere un Altro le cui intenzioni corrispondano a quelle del Sé.

La teoria dell’inter-azione situata, quindi,

suppone che la coerenza dell’azione non sia spiegata adeguatamente da schemi cognitivi preconcetti, né da norme sociali istituzionali. Piuttosto, l’organizzazione dell’azione situata è una priorità emergente delle interazioni momento per momento degli attori” (Riva, 2008: p. 90).

Essere presenti all’interno di una specifica situazione riveste un ruolo importantissimo per l’apprendimento e per i processi di conoscenza ad esso legati: l’essere umano è tale in quanto immerso sempre in una situazione, in un ambiente che ne determina i confini e le possibilità. La situazione formativa e l’esperienza di apprendimento che ne deriva (sia essa auto-diretta dal soggetto o etero-diretta) è sempre la combinazione di più elementi che concorrono a determinare uno “sfondo” specifico (tempi, modalità, azioni, vincoli, relazioni…) all’interno del quale si muovono i soggetti (Reggio, 2003). A livello organizzativo questo legame si esplica molto bene nella relazione tra gestione della conoscenza e piattaforme collaborative e/o di apprendimento digitale.

Più in generale, sul duplice rapporto e influenza tra media (canali digitali e non) e cultura, esperienza del soggetto è stato scritto parecchio. Tra le posizioni maggiormente interessanti e in linea con la riflessione presentata all’interno di questo lavoro vi è sicuramente quella di Huges, che afferma:

un sistema tecnologico può essere la causa o l’effetto: può influenzare la società o essere influenzato da essa. Man mano che crescono e diventano più complessi, i sistemi tendono più a influenzare che a essere influenzati. Per questo motivo, il momento dei sistemi tecnologici è un concetto che può essere collocato a metà strada tra i poli del determinismo tecnologico e del costruttivismo sociale” (Hughes, 1994: pp. 103-104).

In questa stessa direzione si collocano anche le riflessioni del più recente modello bi-circolare bi-direzionale sviluppato da Antonietti & Colombo (2008) inizialmente introdotto per spiegare il rapporto tra studenti e Computer Supported Learning Tools (CSLT), ma il cui impianto si presta molto bene a descrivere il rapporto tra nuove pratiche, rappresentazioni mentali degli utilizzatori e media digitali in generale. Tale modello consente di tenere in considerazione come le rappresentazioni e le credenze (implicite o esplicite) delle persone circa il mezzo che utilizzano, influenzino concretamente i processi che sono attuati; al contempo, sottolinea anche le dinamiche bi-direzionali esercitate dal medium o dall’uso sull’utente e viceversa. La novità e insieme il pregio di questo modello è di porre l’accento su una dimensione spesso non considerata nelle ricerche che è quella relativa alle credenze implicite delle persone riguardo ad un determinato oggetto (tecnologia), sottolineandone il ruolo fondamentale sia nell’accettazione sia nell’utilizzo del nuovo strumento

Provando, quindi, a tracciare una sintesi di quanto espresso in queste prime pagine possiamo sostenere come l’influenza tra tecnologia, media ed esperienza umana sia una storia costellata da rapporti circolari e da feedback retroattivi più che da nessi di causalità lineare. L’analisi del rapporto tra uomo e tecnologia deve dunque – come sostenuto anche da Watzlawick (1976) – integrare le differenti prospettive al fine di allargare il più possibile l’orizzonte di comprensione.

A titolo conclusivo di questa breve rassegna, risulta quindi evidente il contributo fattivo che la psicologia della comunicazione può fornire nella comprensione dei contesti digitali e in particolar modo nel supportare il percorso di transizione dalle organizzazioni tradizionali a modelli maggiormente flessibili e agili basati sulla collaborazione e su una dimensione maggiormente umana, culturale e centrata sulla qualità dell’esperienza che viene percepita. In questo senso la psicologia della comunicazione può rappresentare sia il veicolo per comprendere al meglio i vari termini in gioco sia per supportare un cambiamento che sia più semplice ed efficace.

Bibliografia e riferimenti consultati

Anolli L. (2006), Fondamenti di psicologia della comunicazione, Il Mulino: Bologna

Antonietti A., Colombo B., (2008), Computer-supported learning tools: a bi-circular bi-directional framework, New Ideas in Psychology, 26, pp. 120-142

Hughes T.P. (1994), Technological momentum, in Smith M.R. e Leo M. (a cura di), Does technology drive history? The dilemma of technological determinism, MIT press: Cambridge, pp. 101-114

Lave’ J., Wenger E. (1991), Situated Learning: Legitimate Peripheral Participation, Cambridge University Press: Cambridge

Lipari D. (2009), La “comunità di pratica” come contesto di apprendimento. Personale e Lavoro, n. 509 pp. 24-26

Riva G. (2008), Psicologia dei nuovi media, Il Mulino: Bologna

Salanova M., Agut S., Peiro’ J. M. (2005), Linking Organizational Resources and Work Engagement to Employee Performance and Customer Loyalty: The Mediation of Service Climate. Journal of Applied Psychology, Vol 90(6)

Schein E. (1990), Cultura d’azienda e leadership, Guerini e Associati: Milano

Watzlawick P., Beavin J.H., Jackson D.D.  (1976), Pragmatica della comunicazione umana, Astrolabio: Roma

Wenger E. (2006), Comunità di pratica. Apprendimento, significato e identità, Raffaello Cortina Editore: Milano


[1] Su questo tema risulta estremamente significativa la citazione di Lew Platt sul sistema di knowledge management di HP, la famosa azienda produttrice di PC: “If only HP knew what HP knows, we would be three times more productive”. Per maggiori informazioni e una trattazione più approfondita del tema knowledge management all’interno di HP si rimanda a https://www.researchgate.net/publication/235269396_If_only_HP_knew_what_HP_knows_The_roots_of_knowledge_management_at_Hewlett-Packard

[2] Sull’importanza dell’interfaccia e della user experience all’interno di portali digitali di collaboration, intranet e – più in generale – di siti web è stato scritto parecchio. Tra i report e le fonti degne di nota si segnala, per approfondimenti, il lavoro che – ogni anno – Nielsen Group rilascia sulle Intranet: https://www.nngroup.com/reports/intranet-design-annual/