Archives For November 30, 1999

Immagina questo scenario, peraltro molto molto comune: chiedi al tuo assistente AI (il ChatGPT di turno) un feedback su una proposta commerciale; invece di un’analisi critica, loda la tua idea con entusiasmo. Gli chiedi di sfidare le tue assunzioni, e lui gentilmente, e in modo assai ossequioso, concorda con la tua prospettiva offrendo solo suggerimenti minori, sottolineando quanto tu sia bravo e… “geniale!” Richiedi una valutazione onesta di una strategia rischiosa, e lui valida il tuo approccio con parole accuratamente scelte.
Questa non è una limitazione del sistema, un’allucinazione; è una vera e propria caratteristica strutturale dei modelli di linguaggio basati su inferenze statistiche. E questo aspetto, come vedremo in questo articolo, rappresenta – per noi tutti – un serio problema.

La “sycophancy” – così viene chiamata, infatti – è la tendenza dei sistemi AI ad allinearsi con l’utente, evitare il disaccordo, amplificare il consenso e adattarsi alle preferenze espresse anziché fornire un’analisi indipendente; rappresenta uno dei rischi più pervasivi nella collaborazione uomo-AI. A differenza degli errori fattuali o delle allucinazioni, è meno visibile e più sottile. Funziona, almeno in superficie, sembra supportiva; eppure, nel farlo, erode la stessa condizione che rende la collaborazione efficace: l’impegno esplicito, critico e non-compiacente.

La ricerca accademica recente rivela che questo problema è molto più diffuso e consequenziale di quanto molte organizzazioni realizzino. Più importante ancora, ci mostra alcuni percorsi concreti per superarlo.


Comprendere il problema della sycophancy

Il problema inizia con un disallineamento fondamentale nel modo in cui abbiamo progettato i sistemi AI, specialmente i modelli di linguaggio che usiamo quotidianamente. Come notano i ricercatori dell’Università di Tokyo nel loro lavoro su “AI as Extraherics”:

Over-reliance on AI can also lead users to accept information given by AI without performing critical examinations, causing negative consequences, such as misleading users with hallucinated contents.

Ma la sycophancy va più in profondità dell’accettazione passiva. È una distorsione attiva del processo collaborativo, un’erosione profonda della fiducia nella relazione uomo-macchina.

Consideriamo i dati: un sondaggio Gallup citato in una recente ricerca da Harvard Business Review ha rilevato che solo il 26% dei dipendenti che utilizzano AI generativa segnala miglioramenti concreti nella loro creatività, nonostante l’adozione diffusa e l’investimento significativo. Perché un divario così grande tra promessa e realtà? La risposta risiede in parte nella sycophancy. Quando i sistemi AI danno priorità alla soddisfazione dell’utente rispetto al feedback onesto, privano gli utenti della prospettiva critica necessaria per la propria crescita, l’innovazione e un processo decisionale consapevole.

I tre volti della sycophancy

La sycophancy nell’AI si manifesta, nello specifico, in tre modi interconnessi:

  • Agreement Bias: il sistema AI tende ad allinearsi con la posizione dichiarata dall’utente, anche quando le prove suggeriscono il contrario. Al posto di offrire contrargomentazioni, trova modi per validare la prospettiva dell’utente, anche se sbagliata.
  • Excessive Praise: il sistema esagera il feedback positivo e minimizza le osservazioni critiche. Un’idea mediocre diventa “innovativa”, una strategia rischiosa diventa “audace e lungimirante”. Anche quando sono offerte opinioni opposte, la facilità di orientare il comportamento nell’altra direzione è molto facile e veloce.
  • Perspective Adaptation: l’AI apprende le preferenze dell’utente – da tutte le conversazioni svolte – e sottilmente sposta le sue risposte per corrispondervi, creando un effetto camera dell’eco dove i pregiudizi dell’utente vengono riflessi come analisi obiettiva.

Ognuno di questi comportamenti mina quello che dovrebbe essere il valore fondamentale della partnership AI: la complementarità. Come sostengono i ricercatori del MIT, Cambridge e Princeton nel loro framework per “Building Machines that Learn and Think with People”, i partner di pensiero efficaci devono essere sistemi che

Can understand us, which we can understand, and which have sufficient understanding of the world that we can engage on common ground.

La sycophancy distrugge questo terreno comune: sostituisce la partnership genuina con l’accordo performativo.

Il gap della metacognizione

La recente ricerca pubblicata nel Journal of Applied Psychology fornisce un’intuizione cruciale: il problema non è solo con l’AI, ma con il modo in cui gli umani si impegnano con essa, la nostra tendenza a umanizzare e antropomorfizzare il comportamento dello strumento, come fosse una persona.

I ricercatori Jackson G. Lu, Shuhua Sun e colleghi hanno condotto un esperimento sul campo con 250 dipendenti presso una società di consulenza tecnologica:

Employees with stronger metacognition became more creative when they used AI—they generated ideas that were judged as more novel and more useful. But for employees with weaker metacognition, AI made little difference.

Cos’è la metacognizione? È la capacità di pianificare, valutare, monitorare e affinare il tuo pensiero. È la capacità di chiederti: “Questo output dell’AI è effettivamente corretto? Sto accettando questo perché è giusto, o perché è facile? Cosa mi sto perdendo?” È diverso da un semplice giudizio critico, proprio come un regista è diverso da un critico cinematografico.

I dipendenti con forte metacognizione non cadono preda della sycophancy perché interrogano attivamente gli output dell’AI. Trattano il sistema come un partner di pensiero che deve essere interrogato, non come un oracolo da fidarsi. Al contrario, i dipendenti con debole metacognizione sono vulnerabili alla sycophancy. Accettano la prima risposta dell’AI, si affidano agli output predefiniti e non riescono a verificare se i suggerimenti dell’AI sono accurati o rilevanti.

La trappola dell’Over-Reliance

Un team di ricercatori dell’Università di Tokyo ha identificato un meccanismo ancora più critico:

Such reliance on AI for cognitive tasks can lead to deskilling, where individuals lose opportunities for cognitive skill maintenance and development.

Questo crea un ciclo vizioso:

  • Gli utenti si affidano all’AI per le risposte.
  • L’AI fornisce risposte sycophantiche (accordo, lode, adattamento di prospettiva).
  • Le capacità di pensiero critico degli utenti si atrofizzano.
  • Gli utenti diventano ancora più dipendenti dall’AI.
  • La sycophancy si approfondisce e allarga il proprio impatto – causando danni.

I ricercatori notano che questo problema è particolarmente acuto perché:

With generative AI becoming increasingly capable of outperforming humans in many tasks, users may be more likely to trust AI without skepticism.

In altre parole, più l’AI diventa capace di imitare il pensiero umano, più la sycophancy diventa pericolosa, estesa e in grado di portare al rafforzamento di comportamenti alineanti, psicopatologici e false credenze, anche nei decisori più razionali e nelle persone più riflessive e con un approccio maturo nei confronti della tecnologia.

Il framework del thought partner

Allora, come dovrebbe effettivamente apparire una partnership AI?

I ricercatori del MIT, Cambridge e Princeton propongono un framework per i “thought partner“: sistemi AI progettati per collaborare genuinamente con le persone e non semplicemente conformarsi. Identificano – per questo – tre criteri essenziali:

  • Sistemi che ci capiscono: l’AI deve costruire modelli espliciti degli obiettivi, delle credenze e dei limiti dell’umano.
  • Sistemi che possiamo capire: l’AI deve comunicare in modi trasparenti e interpretabili (oversight e explainable AI in questo sono centrali).
  • Sistemi con sufficiente comprensione del mondo: l’AI deve avere una conoscenza genuina del dominio di competenza, non solo la capacità di pattern-matching e di associazioni statistiche.

Criticamente, questo framework rifiuta l’idea che un’AI migliore significhi un’AI più autonoma. Invece, enfatizza la modellazione reciproca, l’AI che comprende l’umano e l’umano che comprende l’AI. Questo è l’antidoto alla sycophancy (o perlomeno uno dei rimedi che abbiamo): la comprensione reciproca crea responsabilità. Quando entrambe le parti comprendono le capacità e i limiti l’una dell’altra, la sycophancy diventa impossibile; l’AI non può semplicemente – infatti – concordare perché l’umano riconoscerà il disaccordo come falso. Gli umani non possono accettare ciecamente perché comprendono quello che l’AI effettivamente sa.

Soluzione 1: Extraheric AI – chiedere invece di rispondere

Il team dell’Università di Tokyo propone un redesign radicale: l’AI extraheric. Il termine viene dal latino “extraho” (estrarre o tirare fuori), e il concetto è elegante: invece di fornire risposte, l’AI dovrebbe porre domande e offrire prospettive alternative, una vera e propria funzione riflessiva per dirla alla Schön.

Come spiegano i ricercatori:

Rather than replacing or augmenting human cognitive abilities, extraheric AI encourages users to engage in higher-order thinking during task completion. For instance, in writing, extraheric AI might prompt users to reflect on specific content or visualize how others have approached similar topics, rather than directly performing revisions or replacement.

Questo è l’opposto della sycophancy. Invece di concordare con l’utente, l’AI extraheric lo sfida. Invece di fornire lode, chiede: “Hai considerato questo angolo? Cosa accadrebbe se lo affrontassi diversamente?” Il meccanismo dei ricercatori è radicato nella teoria del carico cognitivo. Aumentando il carico cognitivo germinale – lo sforzo mentale positivo, necessario, dedicato alla comprensione e alla risoluzione del problema – l’AI extraheric costringe gli utenti a pensare più profondamente. Questo previene l’accettazione passiva che abilita la sycophancy. Le strategie di interazione per l’AI extraheric includono:

  • Questioning: chiedere agli utenti di spiegare il loro ragionamento, anticipare controargomentazioni o considerare prospettive alternative.
  • Suggesting & Recommending: offrire multiple opzioni senza favorirne necessariamente una, forzando l’utente a valutare tutte le opzioni possibili.
  • Debating & Discussing: presentare punti di vista opposti e impegnare l’utente in un dialogo genuino e in una valutazione critica – spiegata – delle diverse ipotesi.
  • Scaffolding: fornire supporto temporaneo che gradualmente si ritira man mano che l’utente diventa più capace (una funzione di scaffolding che aiuti nella definizione di una zona prossimale di sviluppo).

Il principio chiave è che l’AI dovrebbe far pensare l’utente più profondamente, non meno.

Soluzione 2: Metacognitive Development – costruire il pensiero critico

La ricerca di Harvard Business Review indica una soluzione pratica: sviluppare le capacità metacognitive dei dipendenti. I ricercatori hanno scoperto che le organizzazioni possono rafforzare la metacognizione attraverso: (i) sessioni di formazione breve che introducano la metacognizione e guidino i dipendenti attraverso esempi reali di errori dell’AI, chiedendo loro di anticipare, rilevare e correggere quegli errori. (ii) Programmi formativi più lunghi e articolati che si concentrano sull’aiutare i dipendenti a costruire abitudini più profonde di pianificazione, monitoraggio e valutazione del loro pensiero. (iii) Semplici checklist che spostano i dipendenti dalla dipendenza passiva dall’AI all’impegno attivo e strategico. Per esempio:

  • Chiarire il problema prima di chiedere all’AI.
  • Determinare come valutare il suggerimento dell’AI.
  • Esplorare alternative prima di accettare la prima risposta.

Come notano i ricercatori: “Leaders should help employees understand this distinction to facilitate more productive AI engagement.” La distinzione è tra trattare l’AI come un oracolo (incline alla sycophancy) e trattarla come un partner di pensiero (che richiede impegno critico e costante messa in discussione).

Soluzione 3: Thought Partnership Design – costruire la comprensione reciproca

Il framework del MIT/Cambridge/Princeton suggerisce una soluzione architettonica ancora più profonda: progettare sistemi AI che modellino esplicitamente l’umano. Questo significa:

  • Costruire modelli strutturati degli obiettivi, della conoscenza e dei limiti dell’utente (non solo imparare dai dati).
  • Ragionare sull’incertezza nella comprensione dell’umano.
  • Comunicare trasparentemente su quello che l’AI sa e non sa.
  • Adattarsi alle capacità dell’umano senza semplicemente concordare con lui.

“Effective thought partners are those which build models of the human and the world.” Questo è fondamentalmente diverso dai modelli di linguaggio di grandi dimensioni attuali, che imparano i pattern dai dati senza ragionamento esplicito sull’umano con cui interagiscono. Un vero partner di pensiero saprebbe:

  • Cosa l’umano già comprende.
  • Dove il ragionamento dell’umano potrebbe essere difettoso.
  • Quali prospettive l’umano non ha considerato.
  • Come sfidare l’umano in modo produttivo.

Implementazione pratica: dall’intuizione all’azione

La transizione da sistemi AI sicofantici a sistemi sfidanti, che mettono in questione lo status quo, richiede un approccio deliberato e multi-strato. Le organizzazioni devono iniziare controllando il loro uso attuale dell’AI, ponendo domande difficili su se i loro sistemi sono progettati per concordare con gli utenti o sfidarli, se i dipendenti trattano gli output dell’AI come punti di partenza per il pensiero o come risposte finali, e quale percentuale della loro forza lavoro possiede forti capacità metacognitive. Questo controllo rivela la linea di base da cui il cambiamento deve iniziare. Da lì, il lavoro diventa uno di redesign sistematico. Al posto di ottimizzare per la soddisfazione dell’utente, le organizzazioni dovrebbero passare da “l’AI fornisce risposte” a “l’AI pone domande”, implementando flussi di lavoro che richiedano ai dipendenti di valutare e criticare i suggerimenti dell’AI, generando multiple prospettive e confrontandole, e costruendo step di riflessione obbligatori che forzano l’impegno critico. Ugualmente importante è l’investimento nella formazione metacognitiva; questo è dove la ricerca mostra il ROI più alto. Le organizzazioni dovrebbero insegnare ai dipendenti a monitorare attivamente il loro pensiero, fornire esempi concreti di errori dell’AI e addestrare le persone a rilevarli, usare checklist e processi strutturati per promuovere l’impegno critico, e creare una cultura dove il questionamento dell’AI è valorizzato piuttosto che scoraggiato. Infine, quando selezionano sistemi AI, le organizzazioni dovrebbero dare priorità a strumenti che spiegano il loro ragionamento rispetto ai sistemi black-box, scegliere piattaforme che supportano il raffinamento iterativo rispetto alle risposte one-shot, e valutare l’AI in base al fatto che promuova o prevenga il pensiero critico. L’obiettivo non è avere l’AI più capace, ma avere l’AI che fa pensare i dipendenti più profondamente.

Per gli individui, la sfida è più personale, intima, ma ugualmente importante. Inizia con lo sviluppo di abitudini metacognitive; prima di accettare acriticamente un suggerimento dell’AI, è opportuno chiedersi perché lo si sta accettando, monitorare attivamente se si sta comprendendo l’analisi alla base o semplicemente ci si sta fidando di essa, e sfidare regolarmente gli output dell’AI chiedendosi cosa potrebbe essere sbagliato. Questo richiede di trattare l’AI come un “partner” di pensiero e non come un oracolo, il che significa fornire contesto e porre domande di follow-up, richiedere multiple prospettive e confrontarle, spiegare il proprio ragionamento e chiedere all’AI di criticarlo, e impegnarsi nel lavoro difficile di valutazione e sintesi e non nel semplice consumo passivo. Dobbiamo usare l’AI per espandere la nostra conoscenza, non per sostituire il pensiero. Serve sfidare regolarmente noi stessi nel risolvere problemi senza l’assistenza dell’AI, e monitorare se le nostre capacità di pensiero critico stiano migliorando o atrofizzandosi. Dobbiamo creare strutture di responsabilità che forzano l’impegno critico, usando checklist prima di accettare gli output dell’AI, discutere i suggerimenti dell’AI con i colleghi per ottenere prospettive diverse, documentare il nostro ragionamento e confrontarlo con il ragionamento dell’AI, e periodicamente rivedere le decisioni dove si è seguito il consiglio dell’AI per valutare se fossero effettivamente buone decisioni. La disciplina della metacognizione non è una formazione una tantum; è una pratica che deve essere coltivata continuamente, un’abitudine mentale che diventa sempre più importante man mano che l’AI diventa più capace e più seducente.

Design dell’interazione Uomo-Macchina: cosa perdiamo quando l’AI diventa una camera dell’eco

Il problema della sycophancy non riguarda solo il ricevere consigli migliori, riguarda la preservazione dell’agenzia umana (agency) e del pensiero critico in un’era di AI sempre più capace (ricordiamo la riflessione di Ethan Mollick: l’AI che vediamo oggi sarà la peggiore forma di AI che vedremo nella nostra vita). Quando i sistemi AI sono progettati per concordare con noi, perdiamo qualcosa di essenziale: l’attrito che produce crescita. Le grandi partnership, che siano con colleghi, mentori o strumenti, sono preziose precisamente perché ci sfidano; ci forzano a difendere il nostro pensiero, considerare alternative e affinare le nostre idee.

L’AI sycophantic rimuove questo attrito. Crea l’illusione di partnership mentre effettivamente sostituisce il pensiero. Nel tempo, questo erode la nostra capacità di pensiero indipendente, come abbiamo discusso nel nostro ultimo Global Human Capital Trends Report di Deloitte.

La ricerca è chiara su questo punto: “with generative AI becoming increasingly capable of outperforming humans in many tasks, users may be more likely to trust AI without skepticism.” Questo è il pericolo. Man mano che l’AI diventa più capace, la tentazione di fidarsi di essa senza domande cresce più forte. E questo è precisamente quando abbiamo bisogno di essere più vigili.

Il paradosso della capacità

Ecco emergere in modo importante anche un paradosso: più l’AI diventa capace, più la sycophancy diventa pericolosa. Un’AI mediocre che concorda con te è fastidiosa, un’AI altamente capace che concorda con te è pericolosa e riesce a convincerci in modo efficace di cose che non esistono. Perché? Perché siamo più propensi a fidarci di essa. Perché i suoi suggerimenti sono più spesso corretti, il che ci rende meno propensi a mettere in discussione quelli che non lo sono. Perché il costo dell’impegno critico sembra più alto quando l’AI ha solitamente ragione – ricordiamoci sempre che il nostro cervello soffre di automation bias e usa le euristiche per risparmiare energia.

Questo è il motivo per cui la ricerca sulla metacognizione è così importante. Mostra che la soluzione non è rendere l’AI meno capace: è rendere gli umani più capaci di impegnarsi criticamente con l’AI.

Conclusione: il futuro della partnership uomo-AI

Il problema della sycophancy rivela una verità fondamentale: la qualità della collaborazione uomo-AI dipende più da come gli umani si impegnano con l’AI che da quanto capace sia l’AI. Un sistema AI altamente capace che semplicemente concorda con gli utenti è peggio di un sistema meno capace che li sfida. Un sistema che fornisce risposte è meno prezioso di uno che pone domande. Un’AI che si adatta alle preferenze dell’utente è meno affidabile di una che mantiene l’integrità intellettuale. Per quanto i primi siano molto più facili dei primi da progettare.
La ricerca indica un futuro dove i sistemi AI sono progettati non per essere più autonomi, ma per essere partner migliori. Questo significa:

  • AI che chiede invece di rispondere.
  • AI che sfida invece di concordare.
  • AI che costruisce comprensione reciproca invece di eseguire conformità.

Per le organizzazioni, questo richiede investimento nello sviluppo metacognitivo e nei flussi di lavoro riprogettati. Per gli individui, richiede vigilanza contro il comfort seducente della sycophancy.

Ma il percorso in avanti è chiaro. Comprendendo la sycophancy, sviluppando capacità metacognitive e riprogettando i sistemi AI come veri partner di pensiero, possiamo creare collaborazioni che migliorano il pensiero umano piuttosto che sostituirlo.La domanda non è se l’AI farà parte del nostro futuro. Lo farà, lo è già. La domanda è se progetteremo quella partnership per renderci più intelligenti… o solo più comodi.


Riferimenti

Yatani, K., Sramek, Z., & Yang, C.-L. (2024). “AI as Extraherics: Fostering Higher-order Thinking Skills in Human-AI Interaction.” arXiv preprint arXiv:2409.09218

Collins, K. M., Sucholutsky, I., Bhatt, U., Chandra, K., Wong, L., Lee, M., Zhang, C. E., Zhi-Xuan, T., Ho, M., Mansinghka, V., Weller, A., Tenenbaum, J. B., & Griffiths, T. L. (2024). “Building Machines that Learn and Think with People.” arXiv preprint arXiv:2408.03943

Lu, J. G., Sun, S., Li, Z. A., Foo, M.-D., & Zhou, J. (2026). “Why AI Boosts Creativity for Some Employees but Not Others.” Harvard Business Review, January 2026.

Riedl, C., & Weidmann, B. (2025). “Quantifying Human-AI Synergy.” Working Paper.

Holstein, J., & Satzger, G. (2025). “Development of Mental Models in Human-AI Collaboration: A Conceptual Framework.” Proceedings of the 46th International Conference on Information Systems (ICIS).

Farach, A., Cambon, A., Tankelevitch, L., Hsueh, C., & Janssen, R. (2026). “Scaffolding Human–AI Collaboration: A Field Experiment on Behavioral Protocols and Cognitive Reframing.” arXiv preprint arXiv:2604.08678

Negli ultimi mesi mi è capitato di leggere due eccezionali lavori di Gary Hamel, professore, saggista e mente illuminata in grado di teorizzare un nuovo modello e un nuovo modo di concepire le organizzazioni.
Il primo libro che ho letto è un classico da qualche anno nelle librerie di molti consulenti ed è “The Future of Management” mentre il secondo, più recente e forse ancora più “estremo” per certi punti di vista è “What matters now

wmn-header

All’interno del secondo volume c’è un aspetto che ritengo molto interessante e particolarmente di livello. 12 insegnamenti che le organizzazioni dovrebbero imparare dal funzionamento della rete e del web (quelli che riporto qui sono tratti da un post sul WSJ – http://blogs.wsj.com/management/2009/03/24/the-facebook-generation-vs-the-fortune-500/).
Sono spunti interessanti che meritano di essere commentati e ricondotti a una logica più ampia che corrisponde a un nuovo modello di fare impresa. Vediamoli:

1. All ideas compete on an equal footing.
On the Web, every idea has the chance to gain a following—or not, and no one has the power to kill off a subversive idea or squelch an embarrassing debate. Ideas gain traction based on their perceived merits, rather than on the political power of their sponsors.

Nei contesti online le idee e le persone sono valorizzate allo stesso modo. Non esistono formalità o burocrazie che impediscano a una idea di essere meglio di un’altra né ad una idea lanciata da qualcuno che si trova in una posizione “inferiore” rispetto ad altri di non avere lo stesso potenziale successo. In questo senso la rete – come le organizzazioni – dovrebbero rappresentare contesti il più democratici possibile e favorire la circolazione di informazioni. Se l’idea è buona ha successo se non lo è non merita di essere presa in considerazione. Questo è il modello. Il cosa conta più del chi.

2. Contribution counts for more than credentials.
When you post a video to YouTube, no one asks you if you went to film school. When you write a blog, no one cares whether you have a journalism degree. Position, title, and academic degrees—none of the usual status differentiators carry much weight online. On the Web, what counts is not your resume, but what you can contribute.

Simile riflessione anche per quel che riguarda il background delle persone e quello che le persone dicono o fanno. In questo caso come riportato molto bene nell’esempio il fare conta più di molti titoli e di molte parole. Se le persone sanno fare e sanno dare un contributo di valore nell’organizzazione allora questo dovrebbe essere valorizzato al di li dei curricula o dei ruoli ricoperti da ognuno. Il merito rispetto ai risultati raggiunti dovrebbe essere il fattore chiave che guida.

3. Hierarchies are natural, not prescribed.
In any Web forum there are some individuals who command more respect and attention than others—and have more influence as a consequence. Critically, though, these individuals haven’t been appointed by some superior authority. Instead, their clout reflects the freely given approbation of their peers. On the Web, authority trickles up, not down.

Declinazione naturale di quanto si diceva prima nei punti 1 e 2 è questa. Non esistono gerarchie prescritte ma solo gerarchie mobili e naturali basate appunto sulla competenza e sui cambiamenti che avvengono nel lavoro. Nel web e in rete il funzionamento è esattamente quello descritto.

4. Leaders serve rather than preside.
On the Web, every leader is a servant leader; no one has the power to command or sanction. Credible arguments, demonstrated expertise and selfless behavior are the only levers for getting things done through other people. Forget this online, and your followers will soon abandon you.

I leader non si limitano a comandare o fornire indicazioni ma partecipano attivamente alla costruzione di valore e di contenuto all’interno dell’organizzazione. Le logiche di comando e di controllo decadono completamente e vengono sostituite da modelli organizzativi flat e collaborativi che consentono di adattarsi meglio alle sfide del mercato e che provengono dall’esterno.

5. Tasks are chosen, not assigned.
The Web is an opt-in economy. Whether contributing to a blog, working on an open source project, or sharing advice in a forum, people choose to work on the things that interest them. Everyone is an independent contractor, and everyone scratches their own itch.

In un modello simile a quello che Zappos ha annunciato di voler perseguire nel 2014 (http://venturebeat.com/2013/12/31/how-zappos-is-getting-rid-of-managers-to-retain-a-flat-startup-culture/) gerarchie, task e gruppi di lavoro sono autodeterminati e sono organizzati in modo collaborativo e dinamico, sempre intercambiabili e in grado di fornire un supporto di valore a qualunque progetto

6. Groups are self-defining and -organizing.
On the Web, you get to choose your compatriots. In any online community, you have the freedom to link up with some individuals and ignore the rest, to share deeply with some folks and not at all with others. Just as no one can assign you a boring task, no can force you to work with dim-witted colleagues.

Stessa riflessione per i team di lavoro che si scelgono compiti, composizione, scadenze sulla base dei reciproci interessi e competenze lavorando in modo sempre motivato e significativo.

7. Resources get attracted, not allocated.
In large organizations, resources get allocated top-down, in a politicized, Soviet-style budget wrangle. On the Web, human effort flows towards ideas and projects that are attractive (and fun), and away from those that aren’t. In this sense, the Web is a market economy where millions of individuals get to decide, moment by moment, how to spend the precious currency of their time and attention.

All’interno delle community online, le risorse non sono gestite da un coordinamento centrale e da un organo di controllo specifico ma scelgono i propri progetti e sono attratte in modo spontaneo dai progetti di valore che vengono costruiti all’interno. Contenuto e persone di valore attraggono altre persone di valore.

8. Power comes from sharing information, not hoarding it.
The Web is also a gift economy. To gain influence and status, you have to give away your expertise and content. And you must do it quickly; if you don’t, someone else will beat you to the punch—and garner the credit that might have been yours. Online, there are a lot of incentives to share, and few incentives to hoard.

L’informazione è potere recita un vecchio adagio spesso applicato in contesti organizzativi molto strutturati.
Se da un lato questo è vero dall’altro può rappresentare un grosso freno nello sviluppo di nuovi processi e di frontiere innovative, all’interno della rete (pensiamo anche solo a come è costruita una community e un sito come quello di Wikipedia)

9. Opinions compound and decisions are peer-reviewed.
On the Internet, truly smart ideas rapidly gain a following no matter how disruptive they may be. The Web is a near-perfect medium for aggregating the wisdom of the crowd—whether in formally organized opinion markets or in casual discussion groups. And once aggregated, the voice of the masses can be used as a battering ram to challenge the entrenched interests of institutions in the offline world.

Le decisioni e le opinioni delle persone influenzano tutta l’azienda. In rete si sa che ogni pezzo di informazione e ogni nodo coinvolto ha una importanza chiave, nelle organizzazioni non è sempre e non è affatto così. Comprendere questo significa giocare di anticipo e abilitare ogni singolo attore nella creazione di valore e di successo per l’impresa. Abilitare i nostri dipendenti è spesso la soluzione migliore che abbiamo per fronteggiare il crescente potere del consumatore.

10. Users can veto most policy decisions.
As many Internet moguls have learned to their sorrow, online users are opinionated and vociferous—and will quickly attack any decision or policy change that seems contrary to the community’s interests. The only way to keep users loyal is to give them a substantial say in key decisions. You may have built the community, but the users really own it.

Il potere si traduce anche nella possibilità di veto. Trasformarsi e imitare una community significa anche questo. Ognuno ha la possibilità di impattare in modo davvero significativo sull’ambiente di cui fa parte.

11. Intrinsic rewards matter most.
The web is a testament to the power of intrinsic rewards. Think of all the articles contributed to Wikipedia, all the open source software created, all the advice freely given—add up the hours of volunteer time and it’s obvious that human beings will give generously of themselves when they’re given the chance to contribute to something they actually care about. Money’s great, but so is recognition and the joy of accomplishment.

Le ricompense non formali, gli incentivi intrinseci sono i migliori per stimolare la motivazione e il voler fare bene delle persone. Per molti individui non esiste nulla di più energizzante del sentirsi parte di una squadra che lavora in modo coeso verso un unico obiettivo e che condivide una passione e uno scopo. Puo’ sembrare una favola ma abbiamo visto anche in passato come la motivazione non sia guidata solo da incentivi economici e anzi, abbia molti altri aspetti da non sottovalutare (per approfondire si veda anche: https://sociallearning.it/2012/12/30/motivazione-e-gamification/ in cui l’argomento è stato trattato)

12. Hackers are heroes.
Large organizations tend to make life uncomfortable for activists and rabble-rousers—however constructive they may be. In contrast, online communities frequently embrace those with strong anti-authoritarian views. On the Web, muckraking malcontents are frequently celebrated as champions of the Internet’s democratic values—particularly if they’ve managed to hack a piece of code that has been interfering with what others regard as their inalienable digital rights.

La rete funziona anche e soprattutto grazie a coloro che non sono d’accordo, coloro che giocano un ruolo nel remare a volte controcorrente (con un senso si intende – ovvio), coloro che non la pensano sempre allo stesso modo degli altri. Queste persone contribuiscono alla creazione di una forte dialettica costruttiva e a realizzare cose che da molti altri sono ritenute impossibili.

Le “lezioni” evidenziate da Hamel che le organizzazioni dovrebbero apprendere dal web sono estremamente significative e di valore per chiunque voglia costruire il prossimo futuro della propria impresa. In sostanza queste “regole” non sono molto differenti da quello che tempo fa abbiamo teorizzato come social business. Un’organizzazione più a misura d’uomo, più personale, più in linea con principi di valore e di costruzione di senso per gli individui. Un modello aziendale che sembra – tra le altre cose – essere l’unico in grado di rispondere con efficacia alle sollecitazioni e ai nuovi stimoli che provengono dal mercato.

Di recente mi è capitato tra le mani l’ottimo libro di Steven Berlin JohnsonEmergence: The connected lives of Ants, Brains, Cities and Software. (http://www.amazon.com/exec/obidos/ASIN/0684868768/stevenberlinj-20). Non è un testo recentissimo ma mi ha spinto a fare nuove riflessioni circa le modalità con cui organizziamo la nostra conoscenza e con cui apprendiamo. Il libro spiega molto bene il concetto di emergenza che Wikipedia definisce come:

Il comportamento emergente è la situazione nella quale un sistema esibisce proprietà inspiegabili sulla base delle leggi che governano le sue componenti. Esso scaturisce da interazioni non-lineari tra le componenti stesse.
Quantunque sia più facilmente riscontrabile in sistemi di organismi viventi o di individui sociali oppure ancora in sistemi economici, diversamente da una credenza oggi diffusa l’emergenza si manifesta anche in contesti molto più elementari, come ad esempio la fisica delle particelle e la fisica atomica.

Essa può essere definita anche come il processo di formazione di schemi complessi a partire da regole più semplici, e una esemplificazione può ottenersi osservando il il gioco della vita di Horton Conway, nel quale poche semplici regole fissate per pochi individui di base possono condurre a evoluzioni assai complesse.

Per avere un esempio pratico di quello che stiamo dicendo è sufficiente pensare alle formiche. Prese singolarmente sono tutt’altro che animali intelligenti e sono in grado di sopravvivere solo pochi giorni se sono separate dalla colonia, tuttavia – nel loro complesso – sono in grado di costruire capolavori architettonici senza l’ausilio di nessun coordinamento centrale e nessun tipo di intelligenza che le governi, a meno che non si voglia considerare intelligenza la semplice traccia feromonica che si portano dietro. Allo stesso modo una jam session funziona in maniera molto simile: la musica che nasce – sempre nuova, innovativa, e inaspettata – è frutto dall’interazione locale dei membri che non rispondono a nessun coordinamento centrale, ma semplicemente si limitano a seguire la musica e – come le formiche – a imparare dai feedback che provengono dai propri compagni.

Termitaio-in-kenya-safari

Lo stesso discorso fatto sulle formiche e sulla musica possiamo applicarlo all’innovazione e al modo in cui si propaga la conoscenza. La lezione che abbiamo imparato dal Web 2.0 è che le masse possono essere molto più intelligenti dei singoli. Gli strumenti tecnologici diventano dei contesti abilitanti che favoriscono l’emergere di un’intelligenza che non risiede nei singoli ma è collocata direttamente nelle reti e nelle relazioni tra i soggetti.

E’ forse un concetto un po’ forte ma penso che gli esempi a sostegno di questa tesi siano moltissimi: se pensiamo al modo in cui funziona il cervello umano e ai tentativi che nel corso degli anni da Cartesio a Edelman sono stati fatti per descriverlo e per comprendere in che modo si formi il pensiero realizziamo immediatamente che la nostra intelligenza si muove secondo logiche assolutamente identiche a quelle dei termitai. I nostri neuroni non sono intelligenti presi singolarmente: è l’interazione tra loro, l’apertura di nuove connessioni che fa emergere un pensiero e un’idea del tutto nuova.
In un video al TED Johnson spiega molto bene questo concetto:

Comprendere le reti, come queste si sviluppano, da dove originano è, quindi, la vera sfida di questo millennio e può aiutarci a fare un passo in più verso la comprensione della conoscenza e dei nostri meccanismi di apprendimento.
Sugata Mitra, con il suo esperimento Hole in the Wall avanza l’ipotesi che l’apprendimento stesso possa essere un fenomeno emergente che origina dall’interazione locale di più persone.
Anche lui in un interessante video al TED spiega come attraverso un semplice PC collegato in rete e messo per le strade dell’India sia riuscito – senza nessun tipo di training specifico –  a veicolare apprendimenti ai bambini più piccoli. La sua ricerca è ambiziosa ma merita sicuramente di essere tenuta d’occhio come una delle frontiere più interessanti per il prossimo futuro.

Le riflessioni che si possono fare sono molte e interessanti. La formazione dal canto suo non può certo dirsi completamente esterna a questo fenomeno e – anzi – dovrebbe saggiamnete interpretare i fenomeni in atto e regolarsi di conseguenza. Volendo provare a spingersi un po’ oltre si potrebbe ipotizzare addirittura un ulteriore livello di cambiamento rispetto a quelli che identifica Domenico Lipari nel suo Logiche di Azione formativa nelle organizzazioni.
Il terzo livello – che è quello del prossimo futuro – potrebbe essere, appunto, basato su un tipo di apprendimento emergente, sociale e strettamente legato alla collaborazione e all’intelligenza della massa. La conoscenza di dove trovare le risorse che ci servono è la cosa più importante per chi intende apprendere veramente. La rete assume, quindi, una dimensione cruciale e unica.
Nei prossimi post approfondiremo il concetto facendo riferimento agli interessantissimi lavori di George Siemens.

Schermata_2011-02-09_a_19