L'IA generativa doveva rendere il lavoro più leggero. Meno routine, più tempo per le cose importanti. Questa era la promessa. La realtà è diversa: in uno studio pubblicato nel febbraio 2026 sull'Harvard Business Review, Aruna Ranganathan e Xingqi Maggie Ye della UC Berkeley Haas School of Business dimostrano che gli strumenti IA non riducono il lavoro, lo intensificano. Ritmo più serrato, più compiti, meno pause, un esaurimento strisciante.
Parallelamente, il Workforce Trends Report 2026 di DHR Global: il 52 per cento dei lavoratori dichiara ormai che il burnout riduce il proprio engagement. L'anno precedente era il 34 per cento. Un aumento di oltre la metà in dodici mesi. L'83 per cento sperimenta almeno un certo grado di burnout; le cause principali sono carichi di lavoro opprimenti (48 per cento) e troppe ore lavorate (40 per cento).
Due studi, lo stesso quadro: l'IA non rende il lavoro più leggero, lo rende più duro.
200 persone intrinsecamente motivate che volevano davvero l'IA
Ciò che rende unico lo studio di Berkeley è il contesto. Le ricercatrici hanno accompagnato per otto mesi un'azienda tecnologica statunitense con circa 200 dipendenti. Due giorni alla settimana in sede, lettura dei canali Slack interni, oltre 40 interviste approfondite trasversali a engineering, prodotto, design, ricerca e operations.
Il punto cruciale: l'azienda aveva messo a disposizione strumenti IA, ma senza imporre a nessuno di usarli. Nessun mandato dal management, nessun KPI sull'utilizzo dell'IA, nessuna pressione. Chi usava gli strumenti, lo faceva di propria iniziativa. 200 persone intrinsecamente motivate che vedevano l'IA come un'opportunità e l'avevano integrata volontariamente nella propria routine lavorativa.
Ed è proprio questo a rendere i risultati così scomodi. Perché queste persone -- le entusiaste, le early adopter, quelle che ogni azienda vorrebbe avere in maggior numero -- non lavoravano di meno. Lavoravano di più. Non un po', ma in modo strutturalmente diverso: ritmo più serrato, ambito di competenze più ampio, meno confini tra lavoro e non-lavoro. Le ricercatrici lo chiamano "intensificazione" e descrivono tre meccanismi che si alimentano reciprocamente.
Meccanismo 1: Quando tutti improvvisamente fanno tutto
Il primo meccanismo: le persone si assumono compiti che non sono i loro. I product manager iniziano a programmare. I ricercatori risolvono ticket di engineering. I designer scrivono query per database. Non perché qualcuno lo pretenda, ma perché l'IA abbassa la soglia d'ingresso al punto che sembra di poter semplicemente provare.
E si può provare. È proprio questo l'aspetto seducente. L'IA fornisce feedback immediato, corregge gli errori, suggerisce i passi successivi. Ci si sente competenti in un ambito in cui il giorno prima si era impotenti. È una vera scarica cognitiva, quasi un'euforia.
Solo che, nell'insieme, l'ambito di ogni singolo ruolo si dilata. Compiti che prima andavano a specialisti o per i quali si sarebbe assunta una persona in più vengono assorbiti. Da persone che, accanto al proprio lavoro effettivo, ora fanno anche cose per le quali non sono né formate né previste. Nessuno aggiorna le job description. Nessuno riduce i compiti originari. I nuovi si sommano e basta.
Questo genera un effetto domino: i risultati di questo sperimentare devono prima o poi essere verificati da qualcuno. Nello studio erano i senior engineer che passavano sempre più giornate a rivedere pull request incomplete e artefatti di vibe coding dei colleghi. Non in code review formali, ma di passaggio: nei thread Slack, in brevi conversazioni alla scrivania, tra un proprio task e l'altro. Le persone più esperte del team diventano il filtro qualitativo per lavoro che prima non esisteva nemmeno.
Meccanismo 2: Il lavoro diventa qualcosa di sempre presente
Il secondo meccanismo è più sottile e forse per questo più pericoloso. L'IA rende fluido l'avvio di qualsiasi attività. Niente più fogli bianchi, niente punti di partenza sconosciuti, nessuno sforzo iniziale da superare. Basta un prompt.
Sembra efficienza. In pratica significa che ogni vuoto nella giornata diventa riempibile. La pausa pranzo, l'attesa prima di un meeting, il momento prima di uscire la sera. "Mando un prompt veloce così l'IA può lavorare mentre sono via." Ci vogliono 30 secondi e non sembra lavoro, perché il prompting somiglia più a una chat che a un'attività formale.
Ma quei momenti da 30 secondi si accumulano. Dopo qualche settimana si ha una giornata lavorativa senza pause naturali. La pausa pranzo diventa una sessione di prompt. La fine della giornata inizia con "controllo solo un attimo il risultato". La domenica sera diventa il momento in cui "si prepara qualcosina" perché tanto ci vuole un attimo.
Diverse persone intervistate nello studio hanno descritto come solo dopo settimane o mesi si fossero rese conto di ciò che era successo. Le fasi di recupero si erano erose, gradualmente, impercettibilmente. Il lavoro non era più qualcosa che si faceva in determinati momenti, ma qualcosa che girava sempre in sottofondo. Non invadente, non stressante, semplicemente: sempre presente. Il confine tra lavoro e non-lavoro non era scomparso, come scrivono le ricercatrici, ma era diventato più facile da oltrepassare.
Meccanismo 3: Tante palle in aria contemporaneamente
Il terzo meccanismo riguarda il modo in cui il lavoro assistito dall'IA è organizzato. Con l'IA ci sono sempre più filoni che procedono in parallelo. Si programma a mano mentre l'IA genera un'alternativa. Si avviano tre task contemporaneamente perché l'IA può gestirne due "in background". Si riattivano progetti accantonati da tempo perché improvvisamente sembrano fattibili.
Questo genera la sensazione di avere un partner. Qualcuno che lavora insieme a te mentre tu fai altro. Slancio. Throughput. Produttività.
La realtà è diversa: cambio di contesto permanente, verifica costante degli output, una lista di cose da fare che non fa che crescere. Non siamo multitasker. Siamo task-switcher, e ogni cambio costa energia cognitiva. Nel corso di una giornata questi micro-costi si accumulano fino a un esaurimento mentale profondo.
A ciò si aggiunge un effetto sociale. Quando tutti nel team consegnano più in fretta, la norma si sposta. Non per un ordine dall'alto, ma per ciò che diventa visibile e normale. Chi vede colleghi gestire tre task in parallelo sente una pressione implicita a fare altrettanto. La velocità diventa aspettativa, anche se nessuno la pronuncia a voce alta.
La spirale che gira da sola
Questi tre meccanismi non esistono l'uno accanto all'altro. Si rafforzano reciprocamente in una spirale: l'IA accelera i compiti, per cui le aspettative implicite di velocità aumentano. Aspettative più alte rendono più dipendenti dall'IA. Una dipendenza maggiore amplia l'ambito, perché si assumono sempre più cose in proprio. Un ambito più ampio genera più lavoro. Più lavoro deve essere svolto più velocemente. La spirale continua a girare.
Un ingegnere dallo studio di Berkeley: "Si pensava di risparmiare tempo e poter lavorare meno. In realtà si lavora altrettanto o addirittura di più."
Gli intervistati si sentivano più produttivi. Ma non meno impegnati. Anzi, il contrario. E dal sesto mese dello studio si sono moltiplicati i report di esaurimento, ansia e paralisi decisionale. Quello che nel primo trimestre sembrava un miracolo di produttività, nel terzo produceva problemi di qualità e i primi abbandoni.
L'aspetto insidioso di questo circolo è che si camuffa da progresso. Improvvisamente sai fare cose che prima sembravano impossibili. Produci di più. Ricevi complimenti. Non sembra sovraccarico; sembra empowerment. Finché non si ribalta.
Accenture: Cosa succede quando si impone l'adozione dell'IA
Lo studio di Berkeley mostra un estremo: l'utilizzo volontario dell'IA che diventa eccessivo. Accenture mostra l'altro.
Il colosso della consulenza, con quasi 800.000 dipendenti, monitora dal febbraio 2026 i login settimanali agli strumenti IA dei propri dipendenti senior e li trasforma in criterio di promozione. "L'utilizzo dei nostri strumenti chiave diventerà un input visibile per le discussioni sul talento", si legge in un'e-mail interna visionata dal Financial Times. Tra gli strumenti monitorati figurano l'interno AI Refinery e SynOps. I dipendenti in dodici Paesi europei sono esentati dalla regola, come anche quelli impiegati su commesse del governo statunitense.
La reazione interna è rivelatrice. Due persone a conoscenza della misura hanno definito alcuni strumenti, rivolgendosi al Financial Times, "generatori di slop rotti". Una persona ha dichiarato che "si dimetterebbe immediatamente" se la regola la riguardasse. L'azienda ha eliminato circa 11.000 posti nell'ultimo anno, speso quasi 2 miliardi di dollari in buonuscite, ribattezzato i propri dipendenti "Reinventors" e la CEO Julie Sweet ha annunciato che chi non sa adattarsi dovrà andarsene.
Qui emerge un problema di fondo: Accenture consiglia ad altre aziende come implementare la trasformazione IA. Tre dirigenti delle Big Four della consulenza hanno confermato indipendentemente al Financial Times che è più difficile convincere i senior manager e i partner a usare l'IA rispetto alle nuove leve. Le persone che vendono la trasformazione oppongono la resistenza maggiore al cambiamento.
La soluzione di Accenture è sorveglianza e pressione. Il risultato è prevedibile: compliance-teatro. Le persone fanno il login perché il contatore segni un numero, non perché lavorino meglio. Il prezzo dell'azione è sceso del 42 per cento in dodici mesi, da oltre 260 miliardi a circa 137 miliardi di dollari di capitalizzazione di mercato. Forse una conversazione con i propri dipendenti sarebbe costata meno di una policy di monitoraggio.
Entrambi gli scenari -- l'utilizzo eccessivo volontario e l'adozione imposta -- sono sintomi dello stesso errore: le organizzazioni trattano l'adozione dell'IA come una questione tecnica (Le persone hanno accesso? Usano gli strumenti?) quando è una questione profondamente umana (Come cambia l'IA il modo in cui le persone lavorano, pensano e si rigenerano?).
Tre misure contro il burnout IA per i team HR
Le ricercatrici di Berkeley raccomandano ciò che chiamano "AI Practice": regole consapevoli su come, quando e quanto si lavora con l'IA. Sembra astratto. In concreto si può declinare su tre leve.
Inserire pause consapevoli. Non come misura di benessere, ma come garanzia di qualità. Le ricercatrici propongono che prima di ogni decisione importante si debba formulare almeno un controargomento e un collegamento esplicito agli obiettivi aziendali. Ci vogliono cinque minuti e impedisce che la velocità sostituisca la capacità di giudizio. In pratica significa: i deliverable assistiti dall'IA ricevono un passaggio di riflessione obbligatorio prima di essere inoltrati.
Sequenzializzare il lavoro anziché parallelizzarlo. Non reagire immediatamente a ogni output dell'IA, ma raggruppare gli aggiornamenti, spostare le notifiche ai punti di pausa naturali, proteggere finestre di concentrazione. Invece di reattività costante, un ritmo di lavoro concentrato e revisione consapevole. Questo riduce il cambio di contesto che, secondo lo studio, è uno dei principali motori dell'esaurimento cognitivo.
Proteggere il radicamento umano. L'IA permette sempre più lavoro in solitaria. Non serve più chiedere alla collega; si chiede all'IA. Fa risparmiare tempo, ma elimina anche le conversazioni in cui le prospettive si scontrano e nascono idee creative. Le organizzazioni che non creano consapevolmente spazio per lo scambio umano rischiano team che lavorano più velocemente, ma pensano peggio.
Perché i sondaggi sull'engagement non rilevano il burnout IA
La maggior parte dei team HR misura con scale Likert, Net Promoter Score e pulse check trimestrali. Questi strumenti rilevano se qualcuno è soddisfatto. Non rilevano perché qualcuno possa essere contemporaneamente entusiasta ed esausto.
Eppure è esattamente ciò che mostra lo studio di Berkeley. Le persone non dicevano "Ho troppo lavoro." Avevano assunto volontariamente più compiti, e la cosa li faceva sentire bene. Finché non lo ha fatto più. Questo paradosso -- empowerment ed esaurimento come due facce della stessa esperienza -- non si cattura su una scala a cinque punti.
Per capire cosa succede davvero servono dati qualitativi. Bisogna parlare con le persone. Il problema: 40 interviste approfondite come nello studio di Berkeley significano settimane di lavoro sul campo, costi a cinque cifre, mesi fino al report. Le ricercatrici erano presenti due giorni alla settimana per otto mesi. Quale team HR dispone di queste risorse?
Interviste con IA come via d'uscita dal dilemma della misurabilità
Lo strumento che causa il problema può anche aiutare a renderlo visibile -- se utilizzato correttamente.
QUALLEE conduce interviste qualitative con l'IA. Un'IA pone domande, ascolta, approfondisce, segue il filo del discorso. Persone reali rispondono, con i propri tempi, con le proprie parole. L'analisi distilla pattern da decine o centinaia di queste conversazioni, in ore anziché mesi.
Per i team HR che vogliono comprendere l'effetto burnout IA nella propria organizzazione, queste sono le domande che nessun sondaggio sull'engagement può raggiungere: Come è cambiata la tua giornata lavorativa con l'IA? Quando l'uso dell'IA ti sembra produttivo, quando si ribalta? Nel weekend fai cose che sei mesi fa non avresti fatto? Di cosa hai bisogno perché l'uso dell'IA resti sostenibile?
Nessuna scala Likert risponde a questo. Una conversazione sì.
Provalo tu stesso
Lo studio di Berkeley si conclude con un'affermazione chiara: senza un intervento consapevole, il lavoro assistito dall'IA non porta sollievo, ma intensificazione. Il primo passo non è contare i login come Accenture o sperare che vada tutto bene. Il primo passo è ascoltare.
Domande frequenti
Cos'è il paradosso del burnout IA?
Il paradosso del burnout IA descrive il fenomeno per cui gli strumenti IA non alleggeriscono il lavoro, ma lo intensificano. Uno studio UC Berkeley del 2026 dimostra che le persone che utilizzano l'IA volontariamente e con entusiasmo non lavorano di meno, ma di più. L'intensificazione nasce da tre meccanismi: espansione dell'ambito dei compiti, sfumatura dei confini tra lavoro e tempo libero e multitasking cronico.
Cosa ha scoperto lo studio UC Berkeley 2026?
Le ricercatrici Aruna Ranganathan e Xingqi Maggie Ye hanno accompagnato per otto mesi 200 dipendenti intrinsecamente motivati di un'azienda tecnologica statunitense. Senza alcun obbligo di utilizzo dell'IA, queste persone hanno lavorato strutturalmente di più: ambito più ampio, meno pause, cambio di contesto permanente. Dal sesto mese si sono moltiplicati esaurimento, ansia e paralisi decisionale. Lo studio è stato pubblicato nel febbraio 2026 sull'Harvard Business Review.
Perché i sondaggi sull'engagement non rilevano il burnout IA?
Gli strumenti classici come scale Likert e pulse check misurano la soddisfazione su una scala. Non possono catturare perché qualcuno sia contemporaneamente entusiasta ed esausto. Il paradosso del burnout IA si manifesta come empowerment, non come insoddisfazione, e sfugge quindi alle metriche quantitative. Servono interviste qualitative per rendere visibili i reali cambiamenti nella quotidianità lavorativa.
Cosa possono fare i team HR contro il burnout IA?
Tre misure concrete: primo, inserire pause di riflessione consapevoli prima delle decisioni assistite dall'IA. Secondo, sequenzializzare il lavoro anziché parallelizzarlo, per ridurre il cambio di contesto. Terzo, proteggere lo spazio per lo scambio umano, affinché i team non solo lavorino più velocemente, ma pensino anche meglio. Le ricercatrici di Berkeley la chiamano "AI Practice": regole consapevoli per l'uso dell'IA.
Cosa c'entra Accenture con il burnout IA?
Accenture monitora dal febbraio 2026 i login agli strumenti IA dei propri dipendenti senior e li trasforma in criterio di promozione. I dipendenti hanno definito internamente gli strumenti "generatori di slop rotti". Il caso illustra l'opposto dello studio di Berkeley: non un utilizzo eccessivo volontario, ma un'adozione imposta. Entrambi gli scenari generano rischi di burnout, perché l'introduzione dell'IA viene trattata come questione tecnica anziché umana.



