Archives For November 30, 1999

«La tecnologia ci pone di fronte a problemi fondamentali che non possono essere superati basandoci su quanto abbiamo fatto nel passato. Abbiamo bisogno di un approccio più tranquillo, più affidabile, più a misura d’uomo
Donald Norman

Negli ultimi anni si è verificato un passaggio che fatichiamo ancora a tematizzare fino in fondo. Per la prima volta nella storia del web, la quantità di contenuti generati da sistemi di intelligenza artificiale ha superato quella prodotta da esseri umani. Non si tratta di una previsione o di una provocazione teorica, ma di un dato empirico rilevato su larga scala attraverso l’analisi degli archivi di Common Crawl.

Questo cambiamento viene spesso letto come un tema di efficienza, di costi o di produttività. In realtà, riguarda qualcosa di più profondo. Il linguaggio è sempre stato una tecnologia cognitiva e sociale. Attraverso il linguaggio costruiamo senso, riconosciamo l’altro, definiamo ciò che consideriamo affidabile, legittimo, vero. Quando la fonte dominante del linguaggio diventa artificiale, l’impatto non riguarda solo ciò che leggiamo, ma il modo in cui pensiamo e, di conseguenza, il modo in cui ci relazioniamo.


Un ecosistema informativo saturo

L’aumento dei contenuti generati da AI ha prodotto un ecosistema informativo densissimo, caratterizzato da testi formalmente corretti, scorrevoli, spesso persuasivi, ma sempre più simili tra loro. È ciò che molti hanno iniziato a definire AI slop: una produzione continua di contenuti plausibili, ridondanti, privi di ancoraggio esperienziale.

Il problema non risiede nel singolo testo, bensì nella configurazione complessiva dell’ambiente cognitivo in cui siamo immersi. Un ecosistema saturo di contenuti sintetici modifica la nostra dieta cognitiva, riduce l’attrito interpretativo e abbassa progressivamente la soglia di attenzione critica. In questo contesto, la distinzione tra vero, verosimile e semplicemente ben scritto diventa sempre più fragile.

È qui che prende forma quella che molti studiosi definiscono una crisi epistemica. Non è soltanto la verità a essere contestata; è il criterio stesso attraverso cui attribuiamo valore al sapere. L’intelligenza artificiale non opera secondo categorie epistemiche, ma secondo criteri di probabilità linguistica. Produce testi coerenti e rassicuranti anche quando il legame con la realtà è debole o assente. In un ambiente già attraversato da disintermediazione e polarizzazione, questo contribuisce a erodere la fiducia, che resta il fondamento di ogni relazione sociale.

Linguaggio, stile e appiattimento espressivo

Uno degli effetti meno visibili, ma più rilevanti, di questa trasformazione riguarda lo stile. Studi recenti sui Large Language Models mostrano una tendenza sistematica alla ripetizione di specifiche strutture retoriche, con una drastica riduzione della varietà espressiva. Il caso dell’epanortosi enfatica, è emblematico: una figura retorica nata per intensificare il discorso diventa una soluzione di default, ripetuta meccanicamente.

Il risultato è un linguaggio che appare chiaro e incisivo, ma che nel tempo perde profondità. La complessità viene sostituita da formule riconoscibili, transizioni standardizzate, opposizioni semplificate. Questo stile non resta confinato ai testi generati dall’AI. Viene interiorizzato dagli utenti, replicato nei post, nelle presentazioni, nelle comunicazioni professionali. I modelli apprendono dal web e, a loro volta, contribuiscono a uniformarlo.

Quando il linguaggio si omologa, anche il pensiero tende a farlo. E quando il pensiero perde articolazione, la relazione con l’altro si impoverisce. La riduzione delle sfumature linguistiche si traduce in una riduzione della capacità di comprendere punti di vista differenti, ambiguità, contraddizioni.

Empatia, soft skill e narrazioni difensive

Di fronte a questi cambiamenti, una parte del dibattito continua a rifugiarsi in narrazioni difensive. Le soft skill vengono presentate come l’ultimo baluardo dell’umano. Il concetto di human in the loop viene evocato come garanzia di controllo e superiorità antropologica.

Queste categorie rischiano di non essere più adeguate. I sistemi di intelligenza artificiale contemporanei dimostrano capacità conversazionali e relazionali sempre più sofisticate. In ambiti come la medicina, il supporto psicologico o il customer care, alcuni modelli vengono percepiti come empatici, attenti, disponibili, spesso più di molti interlocutori umani sottoposti a pressioni organizzative e cognitive crescenti.

Questo non implica che l’AI possieda empatia in senso fenomenologico. Significa che l’empatia, nella sua dimensione comportamentale e comunicativa, può essere simulata con grande efficacia. Continuare a definire l’umano solo attraverso ciò che la macchina non fa più rischia di diventare una strategia concettualmente fragile.


Modelli degradati e cultura dominante

Un ulteriore elemento di complessità riguarda la qualità cognitiva dei modelli stessi. Ricerche recenti mostrano che sistemi addestrati su grandi volumi di dati social, caratterizzati da rumore, polarizzazione e bassa qualità informativa, manifestano un calo delle capacità di ragionamento. Emergono fenomeni come il thought-skipping, l’indebolimento delle catene logiche e anomalie nei test psicometrici.

Questi segnali non sono incidenti isolati. Riflettono la qualità del contesto culturale da cui i modelli apprendono. L’intelligenza artificiale incorpora e amplifica una visione del mondo specifica, largamente allineata a valori e stili cognitivi occidentali, istruiti, industrializzati. Il cosiddetto bias WEIRD non è un dettaglio tecnico, ma una questione epistemologica e politica.

Parlare di AI inclusiva senza interrogarsi su queste premesse rischia di produrre una narrazione rassicurante ma poco fondata. L’AI è un dispositivo culturale che riflette e rinforza modelli dominanti, anche quando si presenta come neutrale.

Innovazione culturale e meta-competenze

Se l’intelligenza artificiale agisce come amplificatore della cultura in cui nasce, allora la questione centrale diventa culturale prima che tecnologica. La risposta non può limitarsi a nuove competenze operative. Serve un investimento sulle meta-competenze.

  • Riflessività, nel senso proposto da Schön, per comprendere come gli strumenti trasformano chi li utilizza.
  • Resistenza cognitiva, per evitare che la velocità e la fluidità sostituiscano il pensiero articolato.
  • Consapevolezza linguistica, per preservare la varietà espressiva e la capacità di abitare la complessità.

L’AI va orientata come dispositivo culturale, capace di espandere possibilità di senso anziché ridurle. La questione decisiva riguarda la forma dell’esperienza che stiamo costruendo. In un ecosistema cognitivo ibrido, la posta in gioco non è l’imitazione dell’umano da parte della macchina, ma la capacità degli esseri umani di non adattarsi passivamente a linguaggi sempre più semplificati.

Su questo terreno si gioca il futuro delle relazioni, del sapere e della responsabilità culturale nell’era dell’intelligenza artificiale.

Il report Human Capital Trends 2025 esplora le tensioni emergenti che le organizzazioni stanno affrontando nel mondo del lavoro. L’incertezza e la velocità del cambiamento stanno mettendo alla prova le strategie tradizionali, spingendo le aziende a ridefinire il loro approccio alla gestione delle persone, al valore del lavoro e all’adozione dell’intelligenza artificiale (AI). Cosa emerge dal report di Deloitte? Ecco alcuni dei messaggi chiave

I principali trend individuati

  1. Closing the Experience Gap – Il divario di esperienza tra i lavoratori e le esigenze delle aziende è in crescita, con impatti sul mercato del lavoro e sulle strategie di acquisizione del talento.
  2. What Moves Your People? – La personalizzazione della motivazione è cruciale per migliorare la performance umana e l’engagement.
  3. AI Is Revolutionizing Work – L’AI sta ridefinendo il valore del lavoro e richiede un aggiornamento dell’Employee Value Proposition (EVP).
  4. Is There Still Value in the Role of Managers? – Il ruolo del manager non deve essere eliminato, ma ripensato in chiave strategica con il supporto dell’AI.
  5. Reinventing Performance Management – Le tradizionali pratiche di valutazione della performance sono inefficaci nel migliorare realmente il rendimento umano.
  6. Reclaiming Organizational Capacity – Le organizzazioni devono eliminare il “lavoro inutile” per liberare capacità produttiva e focalizzarsi su attività ad alto valore.
  7. Stagility: Creating Stability for Workers for Organizations to Move at Speed – La stabilità è fondamentale per i lavoratori, ma deve coesistere con la necessità di agilità organizzativa.
  8. New Tech, New Work, Your Old Value Proposition Isn’t Enough – I vecchi modelli di valutazione della tecnologia non funzionano più: le aziende devono ridefinire il valore creato dalle nuove tecnologie nel contesto del lavoro.

I numeri chiave del report (alcuni)

  • Il 66% dei manager ritiene che i nuovi assunti non siano pronti per il lavoro.
  • Il 77% dei lavoratori afferma che l’uso dell’AI ha aumentato il loro carico di lavoro.
  • Solo il 6% delle aziende sta realmente investendo nella sostenibilità umana come strategia aziendale.
  • Il 72% dei leader ritiene che il sovraccarico lavorativo riduca l’efficienza complessiva.

I dati suggeriscono che le aziende devono trovare nuove strategie per affrontare queste tensioni, creando equilibrio tra efficienza organizzativa e sviluppo umano.


Trend 1: Closing the Experience Gap

Il divario tra le competenze richieste dalle aziende e quelle disponibili sul mercato è in crescita, rendendo più difficile il reperimento di talenti qualificati. Molti lavoratori, d’altra parte, faticano a trovare opportunità per acquisire l’esperienza necessaria, creando un ciclo di difficoltà che impatta sia le imprese che il mercato del lavoro.

Il problema

  • Mancanza di esperienza nei candidati – Il 66% dei manager ritiene che i nuovi assunti non siano pronti per il lavoro.
  • Barriere all’ingresso per i giovani lavoratori – Il 61% delle aziende ha aumentato i requisiti di esperienza per le posizioni entry-level.
  • Disoccupazione giovanile elevata – Il tasso di disoccupazione tra i laureati sotto i 25 anni ha raggiunto il 21,3% in Cina e il 42% in India.
  • Scomparsa delle posizioni formative – L’automazione sta eliminando ruoli base, riducendo le opportunità di apprendimento sul campo.

Soluzioni

  • Programmi di apprendistato e upskilling – Intel e Medtronic hanno creato percorsi formativi interni per facilitare l’ingresso nel mondo del lavoro.
  • Riduzione dei requisiti di esperienza – Le aziende devono valorizzare le competenze trasferibili piuttosto che basarsi solo sull’esperienza pregressa.
  • Simulazioni basate su AI – L’uso di strumenti digitali può accelerare l’apprendimento pratico.
  • Percorsi di crescita strutturati – Offrire sviluppo professionale continuo per colmare le lacune di esperienza.


Trend 2: What Moves Your People?

La motivazione dei dipendenti è un elemento essenziale per migliorare la performance e la retention aziendale. Tuttavia, solo il 33% dei lavoratori sente che il proprio manager comprenda davvero cosa li motiva. Personalizzare l’esperienza lavorativa diventa cruciale per migliorare il coinvolgimento e la produttività.

Il problema

  • Mancanza di personalizzazione – Le strategie motivazionali sono spesso generiche e non tengono conto delle differenze individuali.
  • Aspettative non soddisfatte – Il 60% dei lavoratori si aspetta che l’azienda faccia di più per riconoscere le loro esigenze personali.
  • Cambiamento nei driver motivazionali – Il 38% dei dipendenti afferma che ciò che li motiva è cambiato negli ultimi tre anni.
  • Rigidità nei modelli di incentivazione – Molti sistemi aziendali non permettono personalizzazione in termini di benefit e orari di lavoro.

Soluzioni

  • Approcci manageriali personalizzati – Unilever utilizza piani di sviluppo individualizzati per migliorare l’engagement.
  • Utilizzo dell’AI per il coinvolgimento – Swissport usa AI per personalizzare la comunicazione e gli incentivi ai dipendenti.
  • Modelli flessibili di benefit e orari di lavoro – Esempi come Land O’Lakes dimostrano il valore di un’employee experience su misura.
  • Analisi dei dati motivazionali – Raccogliere feedback costanti per adattare le strategie aziendali alle esigenze dei lavoratori.


Trend 3: AI Is Revolutionizing Work

L’intelligenza artificiale sta trasformando il mondo del lavoro, ridefinendo ruoli, processi e aspettative dei dipendenti. Tuttavia, senza un’attenta gestione, il rischio è che l’AI venga percepita più come una minaccia che come un’opportunità. Il 75% delle aziende sta adottando tecnologie AI, ma solo una minoranza ha sviluppato strategie per supportare i lavoratori in questa transizione.

Il problema

  • Aumento del carico di lavoro – Il 77% dei lavoratori afferma che l’AI ha aumentato il loro carico di lavoro anziché ridurlo.
  • Timore di sostituzione – Il 45% dei dipendenti teme che l’AI possa rendere il proprio ruolo obsoleto senza adeguate opportunità di riqualificazione.
  • Mancanza di governance chiara – Solo il 30% delle aziende ha definito policy chiare su come integrare AI e lavoro umano.
  • Difficoltà nell’accesso ai benefici dell’AI – Molte aziende investono in AI per l’efficienza operativa, ma senza redistribuire i vantaggi ai lavoratori.

Soluzioni

  • Strategie di upskilling e reskilling – USAA investe nella formazione dei dipendenti per prepararli a nuovi ruoli in un ambiente AI-driven.
  • Redistribuzione dei benefici dell’AI – Waste Management ha introdotto incentivi economici basati sulla produttività aumentata grazie all’AI.
  • AI come alleato e non come sostituto – Amazon ha sviluppato un AI coach per supportare i dipendenti nella crescita professionale.
  • Ridefinizione della EVP nell’era AI – Integrare l’AI nel valore aziendale, bilanciando tecnologia ed esperienza umana.


Trend 4: Is There Still Value in the Role of Managers?

Il ruolo del manager è in forte trasformazione. Con l’avvento dell’AI e dei nuovi modelli organizzativi, alcune aziende stanno riducendo il numero di manager, mentre altre li stanno trasformando in figure più strategiche e meno operative. Il 78% dei CEO percepisce un elevato livello di incertezza nel business, aumentando la pressione sui manager, e il 40% di loro dichiara di soffrire di burnout.

Il problema

  • Sovraccarico e stress manageriale – Il 40% dei manager riferisce livelli elevati di burnout a causa delle crescenti responsabilità.
  • Necessità di un nuovo modello di leadership – Il 78% dei CEO ritiene che l’incertezza richieda una trasformazione nel ruolo dei manager.
  • Difficoltà nell’integrazione dell’AI – Molti manager faticano a utilizzare l’AI come strumento di supporto anziché vederla come una minaccia.
  • Rigidità dei modelli di gestione tradizionali – L’eccesso di burocrazia riduce la capacità dei manager di concentrarsi su strategia e sviluppo delle persone.

Soluzioni

  • AI come assistente decisionale – Goldman Sachs utilizza AI per supportare i manager nel mentoring e nella presa di decisioni strategiche.
  • Semplificazione della gerarchia – BMW ha sperimentato team auto-organizzati con meno livelli manageriali.
  • Focus sul coaching e sviluppo delle persone – I manager devono essere formati per diventare facilitatori di crescita e non solo supervisori.
  • Revisione del performance management per adattarlo alle nuove esigenze di leadership e autonomia.


Trend 5: Reinventing Performance Management

Il 57% delle aziende ha riformato i propri processi di performance management negli ultimi tre anni, ma solo il 22% ritiene che siano realmente efficaci. Le tradizionali valutazioni annuali non rispondono più alle esigenze di un mondo del lavoro rapido e in evoluzione. Le aziende devono spostare il focus dal semplice monitoraggio della performance alla crescita e allo sviluppo continuo delle persone.

Il problema

  • Sistemi di valutazione obsoleti – Il 57% delle aziende ha aggiornato i propri processi, ma il 78% dei lavoratori li considera ancora inefficaci.
  • Mancanza di feedback continui – Il 65% dei dipendenti preferirebbe un sistema di revisione costante piuttosto che valutazioni annuali.
  • Focus sui risultati a breve termine – Molti sistemi di performance management non tengono conto dello sviluppo professionale nel lungo periodo.
  • Scarso coinvolgimento dei manager – Senza strumenti adeguati, i manager non riescono a fornire un supporto efficace alla crescita dei team.

Soluzioni

  • Feedback continuo e personalizzato – Amazon utilizza AI per fornire feedback in tempo reale ai dipendenti.
  • Valutazioni basate sull’impatto e non solo sulla produttività – Deloitte ha sviluppato nuovi modelli di misurazione della performance che tengono conto anche del benessere dei lavoratori.
  • Approcci di coaching e sviluppo – Le aziende di successo stanno investendo in programmi di mentorship per far crescere le competenze dei dipendenti.
  • Utilizzo di AI per il performance tracking per garantire una valutazione equa e oggettiva.

Trend 6: Reclaiming Organizational Capacity

Le organizzazioni spesso confondono il concetto di produttività con la quantità di lavoro svolto, portando a un accumulo di attività poco strategiche e all’inefficienza operativa. Il 72% dei leader aziendali ritiene che il sovraccarico lavorativo riduca l’efficacia complessiva e che una gestione più intelligente delle attività possa liberare risorse da destinare a progetti ad alto valore aggiunto.

Il problema

  • Sovraccarico di lavoro inutile – Il 68% dei dipendenti passa gran parte del proprio tempo su attività amministrative e di coordinamento anziché su progetti strategici.
  • Eccesso di riunioni e comunicazioni inefficaci – Il 35% del tempo lavorativo viene sprecato in meeting non essenziali e scambi di email ridondanti.
  • Mancanza di strumenti per il lavoro efficace – Il 60% dei lavoratori lamenta la carenza di strumenti digitali integrati per migliorare la produttività.
  • Difficoltà nel ridefinire le priorità – Solo il 42% dei lavoratori afferma di avere una chiara comprensione delle attività prioritarie della propria azienda.

Soluzioni

  • Zero-based work – Applicare i principi dello zero-based budgeting al lavoro per eliminare attività ridondanti e focalizzarsi sulle iniziative più strategiche.
  • Ottimizzazione della gestione del tempo – Google ha ridotto del 30% le riunioni interne, migliorando significativamente la produttività.
  • Automazione delle attività ripetitive – Le tecnologie di automazione consentono di ridurre il tempo impiegato in attività amministrative e burocratiche.
  • Ridefinizione delle priorità aziendali – Le aziende devono aiutare i dipendenti a identificare le attività a più alto impatto e fornire linee guida chiare per migliorare l’efficienza operativa.

Trend 7: Stagility – Creating Stability for Workers for Organizations to Move at Speed

La necessità di agilità organizzativa spesso entra in conflitto con il bisogno di stabilità dei lavoratori. Il concetto di “stagility” (stabilità + agilità) è fondamentale per bilanciare queste due esigenze, offrendo ai dipendenti sicurezza lavorativa pur consentendo alle aziende di adattarsi rapidamente ai cambiamenti di mercato.

Il problema

  • Crescente insicurezza lavorativa – Il 54% dei dipendenti teme che le continue riorganizzazioni aziendali possano mettere a rischio la propria posizione.
  • Scarsa trasparenza nei percorsi di carriera – Solo il 40% delle aziende offre piani di crescita chiari per i dipendenti, aumentando il senso di incertezza.
  • Difficoltà ad adattarsi ai cambiamenti – Il 48% dei lavoratori fatica a stare al passo con le nuove competenze richieste dall’evoluzione del mercato.
  • Modelli di lavoro non flessibili – Il 62% delle aziende riconosce la necessità di modelli ibridi, ma trova complesso implementarli efficacemente.

Soluzioni

  • Benefit e percorsi di carriera strutturati – Le aziende devono garantire stabilità con percorsi di crescita definiti e trasparenti.
  • Modelli di lavoro ibridi – Il 60% dei dipendenti preferisce una combinazione tra lavoro remoto e in ufficio per bilanciare produttività e benessere.
  • Formazione continua e aggiornamento professionale – Investire nella crescita e nel reskilling riduce l’incertezza e aumenta l’engagement dei lavoratori.
  • Strutture organizzative flessibili – Adottare modelli organizzativi adattivi per garantire agilità senza compromettere la sicurezza lavorativa.


Trend 8: New Tech, New Work, Your Old Value Proposition Isn’t Enough

L’adozione di nuove tecnologie sta trasformando il modo di lavorare, ma le aziende spesso adottano innovazioni senza una chiara strategia su come queste influenzeranno il valore offerto ai dipendenti. La tecnologia non può essere valutata solo in base al ritorno economico, ma deve considerare anche il suo impatto sulla collaborazione, il benessere e la crescita professionale.

Il problema

  • Mancanza di una strategia chiara per la tecnologia – Il 67% delle aziende investe in nuove tecnologie senza una roadmap chiara sull’impatto che avranno sui lavoratori.
  • Gap di competenze digitali – Il 52% dei dipendenti ritiene che la formazione ricevuta sulle nuove tecnologie sia insufficiente per sfruttarle al meglio.
  • Focus esclusivo sull’efficienza operativa – Molti investimenti tecnologici vengono misurati solo in termini di costi ridotti, trascurando il loro impatto sulla qualità del lavoro.
  • Resistenza al cambiamento – Il 49% delle aziende trova difficoltà nell’integrare nuove tecnologie senza compromettere il morale e l’engagement dei dipendenti.

Soluzioni

  • Ridefinizione del valore della tecnologia – Le metriche di successo devono includere creatività, collaborazione e benessere dei dipendenti.
  • Programmi di upskilling e digital literacy – Le aziende devono investire in percorsi di aggiornamento per garantire che i dipendenti possano sfruttare appieno le nuove tecnologie.
  • Integrazione intelligente dell’AI – L’AI deve essere adottata per migliorare l’esperienza lavorativa, riducendo il lavoro ripetitivo e lasciando spazio a compiti ad alto valore.
  • Business case basati sul valore umano – Ogni investimento tecnologico dovrebbe essere valutato anche per il suo impatto sulle persone, non solo sul bilancio aziendale.


Conclusioni

Le organizzazioni devono affrontare tensioni complesse: dall’adozione dell’AI alla gestione della motivazione, dalla necessità di agilità alla creazione di stabilità per i lavoratori. Le aziende che sapranno bilanciare questi elementi e investire in innovazione sostenibile saranno quelle che guideranno il futuro del lavoro.


Nota Metodologica

Il report si basa su un’analisi globale condotta su un campione di oltre 10.000 leader, manager e dipendenti provenienti da oltre 100 paesi. L’indagine è stata realizzata attraverso survey quantitative per raccogliere dati statistici e interviste qualitative per comprendere percezioni, sfide e aspettative. L’obiettivo è stato identificare le principali tendenze che stanno ridefinendo il mondo del lavoro e fornire alle organizzazioni insight strategici per affrontarle con successo.

L’Intelligenza Artificiale (IA) sta trasformando rapidamente le industrie, le società e le economie. Con il progresso delle tecnologie IA, aumentano anche i rischi e le implicazioni legate al loro utilizzo. Il Rapporto Internazionale sulla Sicurezza dell’IA 2025 fornisce un’analisi approfondita delle capacità, dei rischi e delle strategie di mitigazione relative all’IA generalista. Questo post sintetizza i principali risultati del rapporto, trattando:

  • Le capacità in rapida evoluzione dell’IA
  • I rischi associati a usi malevoli, malfunzionamenti e sfide sistemiche
  • Lo stato attuale della gestione dei rischi e delle strategie di mitigazione
  • Le implicazioni più ampie per i decisori politici e le imprese

Il rapporto è frutto del contributo di 96 esperti internazionali di IA provenienti dal mondo accademico, governativo e industriale, e riflette la più recente comprensione dei rischi legati all’IA e dei meccanismi di sicurezza. È stato sviluppato nell’ambito di un’iniziativa globale per creare un approccio condiviso alla governeance e alla sicurezza dell’IA.


Capacità dell’IA Generalista

Le capacità dell’IA si sono evolute a un ritmo straordinario, superando le aspettative precedenti. Cinque anni fa, i modelli di IA faticavano a generare paragrafi coerenti. Oggi sono in grado di:

  • Scrivere e correggere codice con precisione crescente, assistendo gli sviluppatori nell’automazione di compiti complessi e nell’individuazione di vulnerabilità prima del rilascio.
  • Sostenere conversazioni avanzate in più lingue, con una maggiore consapevolezza del contesto, intelligenza emotiva e coerenza delle risposte, rendendoli strumenti preziosi per il servizio clienti, la terapia e la creazione di contenuti.
  • Generare immagini, video e audio realistici, indistinguibili dai contenuti creati dall’uomo, aprendo nuove opportunità creative ma anche sollevando questioni etiche, specialmente nella lotta alla disinformazione e alle frodi.
  • Eseguire ragionamenti scientifici e risolvere problemi matematici a livelli esperti, supportando la ricerca in fisica, chimica e medicina, accelerando la scoperta di nuovi farmaci e aiutando nella modellazione climatica.

Over 90% of online content could be AI-generated by 2030, raising concerns about authenticity, trust in media, and election security.


Rischi Associati all’IA Generalista

Con l’aumento delle capacità dell’IA, crescono anche le preoccupazioni sul suo potenziale utilizzo improprio e sulle conseguenze indesiderate. Il rapporto classifica i rischi dell’IA in tre categorie principali:

Rischi di Uso Malevolo
L’IA può essere sfruttata da attori malintenzionati per causare danni su larga scala. Tra le minacce più preoccupanti troviamo:

  • Contenuti falsi e deepfake: I media generati dall’IA possono essere usati per diffondere disinformazione, frodi o ricatti. Alcuni studi stimano che oltre il 90% dei contenuti online potrebbe essere generato dall’IA entro il 2030, sollevando preoccupazioni su autenticità, fiducia nei media e sicurezza elettorale.
  • Manipolazione dell’opinione pubblica: Le campagne di propaganda guidate dall’IA possono influenzare elezioni, decisioni politiche e movimenti sociali. Eventi passati hanno dimostrato come reti di bot e contenuti generati dall’IA siano stati usati per distorcere il discorso politico, aumentando la polarizzazione e minando la democrazia.
  • Attacchi informatici: L’IA viene sempre più sfruttata nella cybersicurezza, sia per misure difensive che per forme avanzate di hacking. Strumenti di rilevamento automatico delle vulnerabilità e sfruttamento delle falle, alimentati dall’IA, potrebbero rappresentare gravi minacce alle infrastrutture digitali.
  • Minacce biologiche e chimiche: Alcuni modelli di IA hanno dimostrato la capacità di assistere nella progettazione di agenti biologici dannosi, sollevando preoccupazioni sulla possibilità di un uso improprio da parte di attori non statali o organizzazioni criminali.

AI-driven automation is expected to replace millions of jobs, requiring large-scale workforce reskilling initiatives to mitigate economic displacement.

Rischi di Malfunzionamento
Anche quando non viene utilizzata in modo malevolo, l’IA può causare danni involontari a causa di difetti di progettazione, dati di addestramento incompleti o comportamenti imprevedibili. I rischi includono:

  • Problemi di affidabilità: I sistemi di IA a volte generano informazioni false o fuorvianti, soprattutto in settori critici come medicina, diritto e finanza.
  • Bias e discriminazione: Gli algoritmi possono amplificare e perpetuare pregiudizi presenti nei dati di addestramento, causando discriminazioni in ambiti come assunzioni, prestiti e applicazione della legge.
  • Perdita di controllo: Gli esperti avvertono che i futuri sistemi di IA potrebbero diventare sempre più difficili da prevedere e gestire, sollevando interrogativi sulla necessità di garantire un allineamento sicuro tra IA e obiettivi umani.

Rischi Sistemici
Oltre ai problemi legati ai singoli modelli, l’adozione diffusa dell’IA porta a rischi più ampi per l’economia e la società:

  • Disoccupazione tecnologica: L’automazione guidata dall’IA potrebbe eliminare milioni di posti di lavoro, rendendo necessarie iniziative su larga scala per la riqualificazione della forza lavoro.
  • Concentrazione del potere dell’IA: Poche aziende dominano lo sviluppo dell’IA, creando squilibri nell’accesso alle tecnologie avanzate e nella capacità di regolamentare il settore.
  • Impatto ambientale: L’addestramento di un singolo modello di IA di grandi dimensioni può produrre tanta CO₂ quanto cinque automobili nel corso della loro vita utile.

Training a single large AI model produces as much CO₂ as five cars over their lifetime, necessitating greener computing solutions and regulatory interventions.


Gestione del Rischio e Strategie di Mitigazione

Le strategie di gestione del rischio devono concentrarsi sulla trasparenza, sulla conformità normativa e sull’etica dell’IA. Governi e imprese devono sviluppare quadri normativi completi che garantiscano un uso responsabile dell’IA, imponendo test rigorosi prima del rilascio dei modelli.

Gli investimenti nella ricerca sulla sicurezza dell’IA devono aumentare, con un focus su interpretabilità, riduzione dei bias e robustezza contro attacchi esterni. Le collaborazioni pubblico-private possono contribuire a creare organismi di vigilanza indipendenti per garantire la responsabilità nello sviluppo dell’IA.


Il Futuro dell’IA e le Considerazioni Politiche

La governance dell’IA, lo sviluppo etico e gli standard normativi saranno cruciali per definire il modo in cui l’IA verrà integrata nella società. I responsabili politici devono bilanciare innovazione e sicurezza, garantendo che l’IA sia utilizzata per il bene pubblico.

Le future politiche dovrebbero concentrarsi sulla democratizzazione dell’accesso all’IA, prevenendo il controllo monopolistico sulle tecnologie e promuovendo uno sviluppo sostenibile dell’IA per ridurre l’impatto ambientale.

AI does not happen to us; it is shaped by the choices we make today. Ensuring a future where AI serves humanity requires vigilance, cooperation, and a commitment to responsible innovation.

Il Rapporto Internazionale sulla Sicurezza dell’IA 2025 è una risorsa fondamentale per comprendere il panorama in evoluzione dell’IA. Le scelte che società e governi faranno oggi determineranno se l’IA rimarrà una forza positiva o diventerà una sfida globale.

La National Academies of Sciences, Engineering, and Medicine ha pubblicato un report approfondito intitolato Artificial Intelligence and the Future of Work. Questo studio analizza l’impatto dell’AI sulla produttività, sulle dinamiche del lavoro, sull’istruzione e sulle politiche pubbliche. Qui sotto esploriamo i punti chiave del report, arricchendoli con dati e insight per offrire un quadro chiaro e concreto dell’influenza attuale e futura dell’AI.


Scoperta 1: L’AI è una tecnologia generalista in rapida evoluzione

“AI is a general-purpose technology that has recently undergone significant rapid progress. Still, there is a great deal of uncertainty about its future course, suggesting that wide error bands and a range of contingencies should be considered.”

  • Il mercato globale dell’AI crescerà da 136,6 miliardi di dollari nel 2022 a 1,81 trilioni entro il 2030, con un CAGR del 37,3%.
  • I modelli di linguaggio di grandi dimensioni (LLM) hanno visto un’espansione esponenziale, passando da 40GB (GPT-2, 2019) a 45TB (GPT-4, 2023).
  • Gli investimenti in ricerca e sviluppo sull’AI hanno raggiunto 91,9 miliardi di dollari nel 2022, con un aumento del 19,6% rispetto all’anno precedente.

Scoperta 2: I sistemi di AI oggi sono ancora imperfetti

“AI systems today remain imperfect in multiple ways. For example, LLMs can ‘hallucinate’ incorrect answers to questions, exhibit biased behavior, and fail to reason correctly to reach conclusions from given facts.”

  • Tasso di errore: L’AI ha un margine di errore del 15-20%, specialmente in settori critici come sanità e diritto.
  • Bias nei modelli: Uno studio MIT ha rivelato che il riconoscimento facciale ha un tasso di errore 34,7% più alto per persone con pelle scura rispetto a quelle con pelle chiara.
  • Cybersecurity: Gli attacchi phishing basati su AI sono aumentati del 126% anno su anno.

Scoperta 3: L’AI continuerà ad avanzare, ma la sua traiettoria è incerta

“Significant further advances in AI technology are highly likely, but experts do not agree on the exact details and timing of likely advances.”

  • Incertezza sulle tempistiche: Il 47% degli esperti prevede l’AI a livello umano entro il 2040, mentre il 25% pensa che non arriverà prima del 2075.
  • Potenza computazionale: La capacità di calcolo per l’addestramento AI è raddoppiata ogni 3,4 mesi dal 2012, superando la legge di Moore.
  • Adozione aziendale: Il 77% delle aziende sta esplorando l’AI, ma solo il 23% l’ha completamente integrata nei processi aziendali.

Scoperta 4: Il potenziale dell’AI per la produttività è significativo ma disomogeneo

“AI offers the promise of significant improvements in productivity, but achieving these benefits will require complementary investments in skills and organizational processes.”

  • Aumento della produttività: L’AI potrebbe far crescere il PIL globale del 7% all’anno entro il 2030.
  • Differenze settoriali: L’AI potrebbe migliorare la produttività del 25% in IT e software, ma solo del 5-10% in sanità e manifattura.
  • Automazione del lavoro: Il 60% dei lavori attuali ha almeno il 30% delle attività automatizzabili.

Scoperta 5: L’impatto dell’AI sull’occupazione dipenderà da molteplici fattori

“The labor market consequences of AI deployment will depend both on the rate at which AI’s capabilities evolve and on demographic, social, institutional, and political forces.”

  • Perdita di posti di lavoro: Secondo McKinsey, l’AI potrebbe sostituire 400 milioni di posti di lavoro entro il 2030, ma crearne tra 550-600 milioni di nuovi.
  • Demografia e lavoro: Il calo della popolazione attiva nei paesi avanzati potrebbe compensare le perdite occupazionali dovute all’AI.
  • Disuguaglianza salariale: Il top 10% degli stipendi ha visto una crescita del 14% grazie all’AI, mentre i salari dei lavoratori meno qualificati sono rimasti stagnanti.

Scoperta 6: Il ruolo dell’AI nell’istruzione e nella formazione professionale è in crescita

“AI will have significant implications for education at all levels, from primary to continuing workforce education.”

  • Apprendimento personalizzato: Le piattaforme educative AI-driven hanno aumentato i tassi di ritenzione degli studenti del 12-18%.
  • Necessità di riqualificazione: 1,1 miliardi di lavoratori dovranno essere riqualificati nei prossimi dieci anni.
  • Investimenti in formazione aziendale: Le aziende hanno speso 366 miliardi di dollari in programmi di upskilling nel 2022, con un incremento del 32% rispetto al 2019.

Scoperta 7: Servono misurazioni migliori per monitorare l’impatto dell’AI sul lavoro

“Better measurement of how and when AI advancements affect the workforce is needed.”

  • Monitoraggio dell’adozione AI: Solo il 35% dei paesi ha statistiche ufficiali sull’impatto dell’AI sul lavoro.
  • Lacune nei dati pubblici: Il 42% dei policymaker denuncia una mancanza di metriche affidabili sull’occupazione AI.
  • Tendenze nel mercato del lavoro: Le offerte di lavoro legate all’AI su LinkedIn sono aumentate del 72% negli ultimi due anni.

Conclusione: Il Futuro del Lavoro non è preordinato

“It is impossible to predict exactly the nature of AI’s effects, but society can take steps to shape AI’s impact through policy, education, and ethical guidelines.”

  • I policymaker devono bilanciare innovazione e regolamentazione, garantendo che i benefici dell’AI siano distribuiti equamente.
  • Le aziende devono investire in strategie di lavoro aumentato dall’AI, privilegiando la collaborazione uomo-macchina rispetto alla pura automazione.
  • I lavoratori devono puntare su apprendimento continuo e adattabilità, sfruttando i nuovi strumenti AI per restare competitivi.

L’impatto dell’AI sul lavoro è complesso e articolato. Solo con scelte consapevoli e strategie mirate possiamo garantire che l’AI contribuisca a un futuro del lavoro più produttivo, equo e innovativo.

Il recente report di Google sugli Agenti IA mette in luce un cambiamento trasformativo nel campo dell’IA generativa. Questi agenti, ben lontani dall’essere semplici modelli autonomi, rappresentano una nuova classe di applicazioni capaci di combinare ragionamento, logica e utilizzo di strumenti per raggiungere obiettivi in autonomia. Colmano il divario tra modelli statici di machine learning e sistemi dinamici e attuabili che possono osservare, decidere e agire nel mondo reale.

  • Sistemi autonomi e proattivi: gli agenti IA operano indipendentemente, pianificando ed eseguendo compiti senza intervento umano. Ragionano e agiscono proattivamente per raggiungere obiettivi predefiniti.
  • Architetture cognitive: questi agenti integrano modelli, strumenti e uno strato di orchestrazione per ragionare, decidere e agire iterativamente, adattandosi a scenari dinamici.
  • Capacità ampliate tramite strumenti: gli agenti IA sfruttano strumenti come API, estensioni e data store per accedere a informazioni in tempo reale, recuperare dati ed eseguire compiti complessi in applicazioni del mondo reale.
  • Applicazioni trasversali: dal supporto clienti alla sanità, all’educazione e ai sistemi per smart home, gli agenti IA affrontano sfide multifaccettate con precisione ed efficienza.

Cosa sono gli agenti IA?

Alla base, un agente IA è un’applicazione autonoma progettata per raggiungere obiettivi specifici osservando il suo ambiente e agendo su di esso attraverso strumenti. A differenza dei tradizionali modelli di IA generativa che forniscono risposte statiche basate esclusivamente sui dati di training, gli agenti IA vanno oltre:

  1. Autonomia: Operano indipendentemente dall’intervento umano. Una volta fornito un obiettivo, pianificano ed eseguono proattivamente i compiti per raggiungerlo.
  2. Proattività: Anche senza istruzioni esplicite, gli agenti possono determinare cosa fare successivamente ragionando sui loro obiettivi e sulle risorse disponibili.

Questa capacità rende gli agenti IA un’evoluzione fondamentale rispetto ai modelli standalone, posizionandoli come componenti integrali dei moderni sistemi di IA.


Componenti di un agente IA

Gli agenti IA si basano su un’architettura cognitiva, un framework che governa come ragionano, decidono e agiscono. Questa architettura include tre componenti chiave:

  1. Il modello Il modello linguistico (LM) è il decisore fondamentale in un agente. A seconda della complessità del compito, gli agenti possono utilizzare un singolo modello o più modelli che lavorano insieme. Questi modelli possono:
    • Seguire framework di ragionamento basati su istruzioni come ReAct (Reasoning + Action), Chain-of-Thought (CoT) o Tree-of-Thoughts (ToT).

    • Essere ottimizzati per compiti specifici, integrando conoscenze di dominio o configurazioni di strumenti.

    Il modello, tuttavia, non opera da solo: è potenziato dagli strumenti e dai framework di ragionamento che guidano le sue decisioni.
  2. Gli strumenti Sebbene i modelli linguistici siano eccellenti nella generazione di testo, hanno limitazioni intrinseche nell’interazione con il mondo esterno. Gli strumenti permettono agli agenti di superare queste limitazioni, fungendo da ponti tra l’agente e dati o azioni esterne, consentendo capacità come:
    • Recupero di dati: Accesso a informazioni in tempo reale o specifiche tramite database o API.

    • Esecuzione di azioni: Compiti pratici come inviare email, aggiornare record o controllare dispositivi.

    • Generazione aumentata: Utilizzo di tecniche come il Retrieval-Augmented Generation (RAG) per fornire risposte factuali e contestuali.

    Un esempio? Un agente concierge potrebbe usare un’API per la prenotazione di voli per ottenere prezzi aggiornati o un servizio di mappe per suggerire percorsi ottimizzati.
  3. Lo strato di orchestrazione Qui avviene la magia. Lo strato di orchestrazione governa come l’agente integra gli input, ragiona e decide l’azione successiva. Questo strato consente:
    • Gestione dello stato: Mantenere la cronologia delle sessioni e il contesto attraverso le interazioni.

    • Ragionamento iterativo: Refinare decisioni e piani basandosi su output e osservazioni precedenti.

    • Applicazione di framework: Implementare tecniche come ReAct o CoT per migliorare le capacità di ragionamento.
    In sintesi, lo strato di orchestrazione trasforma un modello statico in un agente dinamico e adattivo.

Applicazioni pratiche degli agenti IA

Le potenziali applicazioni degli agenti IA sono vaste e in continua espansione. Ecco alcuni esempi:

  • Supporto clienti: Gestione di richieste complesse e multi-step, recupero di dati specifici del cliente, escalation di problemi o completamento autonomo di transazioni.
  • Sanità: Dalla gestione dei record dei pazienti all’assistenza diagnostica in tempo reale, gli agenti possono ottimizzare i processi e migliorare i risultati.
  • Sistemi per smart home: Controllo di dispositivi, pianificazione di attività e risposta intelligente alle preferenze degli utenti.
  • Educazione: Agenti tutor personalizzati che si adattano alle esigenze degli studenti, utilizzando dati in tempo reale per offrire esperienze di apprendimento su misura.

Sfide e prospettive future

Sebbene il potenziale degli agenti IA sia immenso, ci sono sfide da affrontare:

  • Complessità: Progettare e mantenere architetture cognitive richiede competenze significative.
  • Integrazione degli strumenti: Garantire interazioni fluide tra agenti e sistemi esterni può essere oneroso.
  • Etica e fiducia: L’autonomia decisionale solleva questioni su responsabilità e bias.

Tuttavia, il futuro appare promettente. I progressi nella sofisticazione degli strumenti, nei framework di ragionamento e nei sistemi multi-agente (ad esempio, agenti specializzati che lavorano collaborativamente) sbloccheranno possibilità ancora maggiori.

Gli agenti IA rappresentano un cambio di paradigma nel modo in cui affrontiamo l’IA generativa. Combinando i punti di forza dei modelli linguistici con strumenti esterni e ragionamento strutturato, aprono le porte a nuove applicazioni e settori. Dal problem-solving autonomo all’integrazione di dati in tempo reale, gli agenti sono destinati a diventare indispensabili per affrontare le sfide di domani.

Mentre questi sistemi evolvono, una cosa è chiara: stiamo solo grattando la superficie del loro potenziale.

La domanda non è più se gli agenti IA ridefiniranno il panorama, ma quanto rapidamente le organizzazioni si adatteranno per sfruttarne la potenza.

Il nuovo report Deloitte Tech Trends 2025 è finalmente disponibile: una pubblicazione di punta che ci aiuta a navigare le sfide della trasformazione tecnologica in atto.

Ecco alcuni dei messaggi chiave:

  • IA ovunque: Entro il 2026, si prevede che il 70% delle organizzazioni adotterà modelli di intelligenza artificiale per compiti quotidiani, rendendo l’IA fondamentale quanto l’elettricità.
  • IA agentica: Il 75% delle organizzazioni intervistate sta già aumentando gli investimenti in IA agentica, aprendo la strada a co-piloti capaci di eseguire compiti autonomamente.
  • Modelli piccoli e multimodali: Oltre il 75% delle aziende sta esplorando modelli più piccoli e specializzati, migliorando l’efficienza per applicazioni IA specifiche.
  • Rinascimento hardware: Secondo previsioni ottimistiche, il mercato dei chip dedicati all’IA crescerà da 50 miliardi di dollari nel 2024 a 400 miliardi entro il 2027.
  • Dispositivi con IA integrata: Il 30% dei 1,5 miliardi di PC attualmente in uso ha più di quattro anni — i futuri PC con IA integrata trasformeranno la privacy e la produttività.
  • Sfida dell’efficienza energetica: Il consumo globale di elettricità dei data center è destinato a triplicare nel prossimo decennio a causa dei carichi di lavoro legati all’IA.

IA ovunque: come la magia, ma con algoritmi

L’IA si sta trasformando in una componente fondamentale, al pari dell’elettricità o dell’HTTP. Tra pochi anni smetteremo di notarla — ottimizzerà il traffico, personalizzerà l’assistenza sanitaria e creerà percorsi di apprendimento adattivi. L’intelligenza artificiale generativa, una volta protagonista assoluta, si sta evolvendo in una rete di sistemi intelligenti che operano in background, rendendo tutto più intelligente, veloce e intuitivo.

Il 70% delle organizzazioni sta già esplorando o implementando modelli linguistici di grandi dimensioni (LLM), mentre l’attenzione si sta spostando verso modelli linguistici piccoli (SLM) e IA multimodale, più adatti a casi d’uso specifici ed efficienti.

L’hardware domina la scena

Dopo anni di predominio del software, l’hardware torna al centro dell’attenzione. Con la crescita delle esigenze legate all’IA, i chip specializzati stanno diventando una risorsa critica, alimentando l’innovazione hardware.

  • Il mercato dei chip dedicati all’IA dovrebbe crescere da 50 miliardi di dollari nel 2024 a 400 miliardi entro il 2027.
  • I PC e i dispositivi IoT con IA integrata supercaricheranno la produttività, riducendo la dipendenza dal cloud e migliorando la privacy dei dati.

Tuttavia, questa rivoluzione hardware comporta sfide: il consumo energetico. I data center potrebbero triplicare l’uso di elettricità entro un decennio, sottolineando la necessità di soluzioni sostenibili.

Spatial Computing e IA multimodale

Lo spatial computing — la fusione tra mondi digitali e fisici — sta rimodellando settori come la sanità e la manifattura. Combinato con l’IA multimodale, offre interazioni senza soluzione di continuità tra diversi tipi di dati (testo, audio, immagini).

  • Il mercato del calcolo spaziale cresce del 18,2% annuo, con nuovi casi d’uso in simulazioni, gemelli digitali e ambienti immersivi.
  • I modelli multimodali ridefiniranno inclusività ed efficienza, elaborando input diversificati per fornire insight praticabili.

Il ruolo dell’IT e della leadership

L’IA sta elevando il ruolo dell’IT, trasformandolo da supporto a strategia. I leader stanno sfruttando questo momento per ripensare la modernizzazione dei sistemi principali e abbracciare le “prossime pratiche” rispetto alle “migliori pratiche”.

  • L’IA ora influenza ogni aspetto della modernizzazione dei sistemi centrali, dall’automazione dei compiti alla riprogettazione dei processi per maggiore intelligenza ed efficienza.
  • La leadership sarà cruciale: approcci immaginativi e coraggiosi garantiranno che l’IA sia usata per creare opportunità, non solo per accelerare vecchi paradigmi.

Cyber e fiducia: prepararsi alla disruption quantistica

L’ascesa del calcolo quantistico sta trasformando il panorama della cybersecurity. Con macchine quantistiche che potrebbero maturare entro 5-20 anni, i metodi di crittografia esistenti potrebbero diventare obsoleti, mettendo a rischio l’integrità dei dati e la fiducia.

  • La transizione alla crittografia post-quantistica è già in corso, con organizzazioni che agiscono proattivamente per proteggere i propri sistemi.
  • Oltre il 55% delle organizzazioni intervistate sta migliorando l’agilità crittografica per prepararsi alle minacce quantistiche emergenti.

I leader devono affrontare non solo le implicazioni tecniche ma anche preoccupazioni più ampie sulla cyber igiene, assicurando che la fiducia rimanga un pilastro di questa trasformazione guidata dall’IA.

Un futuro sostenibile guidato dall’IA

Le tendenze di quest’anno chiariscono un punto: l’IA non è più solo uno strumento — è un framework per l’innovazione. Dai progressi hardware ai sistemi agentici, le opportunità sono immense, ma richiedono azioni deliberate.

Le organizzazioni devono affrontare sfide come il consumo energetico, la qualità dei dati e la fiducia nei sistemi IA per realizzarne appieno il potenziale.

Man mano che ci avviciniamo a un mondo in cui l’IA è ovunque, la domanda non è se adottarla, ma come farlo in modo responsabile ed efficace. Tech Trends 2025 dipinge un quadro vivido di ciò che ci attende: un’era definita dall’integrazione fluida dell’IA in ogni aspetto della nostra vita.

Il recente articolo dell’Economist (Che fine ha fatto la rivoluzione dell’intelligenza artificiale? Finora la tecnologia non ha avuto quasi nessun impatto economico) ha messo in luce la difficoltà, da parte delle aziende nel trarre un vero – e concreto – vantaggio economico dall’adozione della GenAI. Nonostante gli ingentissimi investimenti economici riversati nel mercato negli ultimi mesi, infatti, sono ancora molto poche le applicazioni concrete – e scalabili – che hanno visto la luce.

Ma cosa serve, quindi, davvero per scalare? Qual è il collegamento mancante? Qual è il potenziale che deve essere ancora sbloccato? Come possiamo evitare l’hype dell’ennesima tecnologia trasformativa e massimizzarne i ritorni?

A queste, e altre domande urgenti, prova a rispondere il report di Deloitte sullo stato dell’AI Generativa: Now decides next: Moving from potential to performance. Interrogativi fondamentali da indirizzare per evitare lo spreco delle incredibili risorse che nell’ultimo anno sono piovute su questo settore.

Striving to Scale Generative AI in the organization

Di seguito provo a riassumere alcune delle principali sfide e dei dati che emergono dall’analisi.

  • L’incremento di efficienza, di produttività e la riduzione dei costi sono ancora tra i maggiori benefici che le aziende ricercano. Sono citate dal 42% dei rispondenti come il più importante dei benefit ottenuti nei primi pilot di sperimentazione. Un dato interessante se pensiamo all’enorme potenziale ancora da esprimere in differenti aree che non siano solo quelle dell’efficienza operativa.
  • Nonostante questo, il 58% degli intervistati sta sperimentando benefici maggiormente importanti nel miglioramento dell’innovazione, del prodotto o del servizio, con una maggiore focalizzazione, anche, sulla capacità di servire al meglio il cliente.
  • Sempre più aziende stanno ampliando l’adozione della GenAI a funzioni critiche del business. Un segnale positivo – e confortante – sul quale però serve ancora molta strada per vedere applicazioni che siano in grado, effettivamente, di modificare le modalità di lavoro delle persone.
  • Oltre i 2/3 delle aziende sta anche incrementando l’ investimento in Artificial Intelligence per vedere maggiori risultati che – come premesso, al momento – scarseggiano. È un dato importante, perché – senza opportuna strategia e indirizzo dei casi d’uso corretti – si rischia di sperperare risorse e di non vedere nessun ritorno nei prossimi anni.
  • Molto meno pronte, si dicono le organizzazioni, ad affrontare i rischi e la governance dell’AI (23% a credersi in linea con la normativa o quantomeno pronta a gestirla), che – assieme all’European AI Act – stanno rallentando adozioni e benefici dell’AI aumentando l’incertezza e le preoccupazioni su come gestire i temi di regolazione.
  • Ancora poche, meno della metà, le aziende che hanno adottato le metriche corrette per la valutazione degli impatti dell’AI sull’organizzazione e la forza lavoro, con il 40% di loro che brancola nel buio, non riuscendo a comprendere di cosa abbia realmente bisogno per misurare l’efficacia.
  • La dimensione del talento e della gestione della forza lavoro, delle persone, all’interno dell’azienda, è considerata una delle più deboli in assoluto. È solo il 20% delle imprese – infatti – a sentirsi all’altezza della sfida. La centralità dell’agenda people e HR rimane uno dei temi cruciali per scalare il successo delle iniziative di GenAI all’interno del business di riferimento.
Dimensioni strategiche fondamentali per scalare l'AI in azienda

Più nel dettaglio possiamo analizzare alcune delle dimensioni anticipate.

Una delle maggiori preoccupazioni legate all’AI è quella che vede coinvolti i dati, sia nella certezza di output che siano privi di allucinazioni e siano trasformabili in insight validi e impiegabili in prese di decisione strategiche per l’azienda, sia nell’alimentazione degli LLM con dati non sensibili. È il 58% delle organizzazioni, infatti, a preoccuparsi di come vengono gestiti i dati che sono dati in pasto alla GenAI. Percentuale analoga quella che si interessa di come gestire eventuali problemi di privacy o gestire alcune breach che possono mettere in difficoltà la sicurezza e il capitale intellettuale dell’impresa.

La qualità del dato resta, quindi, una dimensione cruciale, che dobbiamo seriamente indirizzare per permettere all’IA di scalare correttamente e di contenere i rischi di impresa ad essa associati.

La gestione del dato e del'AI come due fattori inscindibili e connessi

Un altro elemento che abbiamo messo in evidenza è quello che riguarda la mitigazione dei rischi e la preparazione agli elementi di regolamentazione che stanno emergendo – tra gli altri – con l’EU AI Act. È il 36% – in crescita – delle organizzazioni a preoccuparsi degli elementi regolatori, mentre il 30% ammette di avere problemi nella gestione dei rischi e il 29% confessa di non avere nessun modello per la governance dei dati.

È il 78% dei leader organizzativi intervistati che ritiene che sia necessaria una maggiore gestione e un maggiore governo dell’AI facendo sinergia tra sistema paese, enti governativi e imprese.

La mancata gestione di rischi e di governance relativi all'AI in azienda

Una ulteriore dimensione “problematica” riguarda l’incapacità di misurare i ritorni dell’AI: è il 41% delle organizzazioni, infatti, a non riuscire a identificare il corretto framework di valutazione degli impatti dell’AI in azienda.
È solo il 16% delle imprese a produrre report finanziari e misurare ritorni effettivi di impatto, rispetto alla stragrande maggioranza che – al contrario – si focalizza su metriche più soft e di engagement o adozione.

Infine, risulta imperativo ragionare sulla dimensione persone e sulla capacità che le aziende hanno non solo di attrarre talenti per la gestione dell’AI, ancora pochi e inseriti in un mercato molto competitivo, ma – soprattutto – di formare le persone all’adozione e all’uso consapevole della tecnologia. È necessario occuparsi di literacy, formazione, modelli organizzativi e – infine – soprattutto di cultura. Solo con percorsi adeguati e supportivi nei confronti delle nostre persone, all’interno dei quali l’HR deve giocare un ruolo di partner strategico fondamentale possiamo sperare di ottenere risultati dall’adozione dall’impiego di una tecnologia così potente.