La IA generativa iba a facilitarnos el trabajo. Menos rutina, más tiempo para lo importante. Esa era la promesa. La realidad es otra: en un estudio publicado en febrero de 2026 en Harvard Business Review, Aruna Ranganathan y Xingqi Maggie Ye, de la UC Berkeley Haas School of Business, demuestran que las herramientas de IA no reducen el trabajo, sino que lo intensifican. Más ritmo, más tareas, menos pausas, un agotamiento progresivo.
Paralelamente, el Workforce Trends Report 2026 de DHR Global revela que el 52 por ciento de los empleados afirma que el burnout reduce su compromiso laboral. El año anterior era el 34 por ciento. Un aumento de más de la mitad en doce meses. El 83 por ciento experimenta al menos cierto grado de burnout; las causas principales son cargas de trabajo aplastantes (48 por ciento) y demasiadas horas (40 por ciento).
Dos estudios, el mismo panorama: la IA no hace el trabajo más fácil, sino más duro.
200 personas intrínsecamente motivadas que realmente querían usar IA
Lo singular del estudio de Berkeley es su contexto. Las investigadoras acompañaron durante ocho meses a una empresa tecnológica estadounidense de unos 200 empleados. Dos días por semana presencialmente, acceso a los canales internos de Slack, más de 40 entrevistas en profundidad con personas de Engineering, Producto, Diseño, Research y Operaciones.
El punto clave: la empresa había puesto herramientas de IA a disposición, pero sin obligar a nadie a usarlas. Sin mandato directivo, sin KPIs de uso de IA, sin presión. Quien las utilizaba, lo hacía por voluntad propia. Doscientas personas intrínsecamente motivadas que veían la IA como una oportunidad y la integraron voluntariamente en su día a día.
Y eso es precisamente lo que hace que los resultados sean tan incómodos. Porque estas personas -- las entusiastas, las early adopters, las que cualquier empresa desearía tener -- no trabajaron menos. Trabajaron más. No un poco más, sino de forma estructuralmente distinta: mayor cadencia, mayor alcance de tareas, menos fronteras entre el trabajo y el no-trabajo. Las investigadoras lo denominan "intensificación" y describen tres mecanismos que se retroalimentan mutuamente.
Mecanismo 1: Cuando todos hacen de todo de repente
El primer mecanismo: las personas asumen tareas que no les corresponden. Product Managers empiezan a programar. Researchers resuelven tickets de ingeniería. Diseñadores escriben consultas a bases de datos. No porque alguien se lo pida, sino porque la IA baja tanto la barrera de entrada que parece que uno puede simplemente probarlo.
Y efectivamente se puede probar. Eso es lo seductor del asunto. La IA da feedback inmediato, corrige errores, sugiere los siguientes pasos. Uno se siente competente en un campo en el que ayer aún estaba perdido. Es un auténtico subidón cognitivo, casi una euforia.
Solo que, en conjunto, el alcance de cada puesto se infla. Tareas que antes iban a especialistas o para las que se habría contratado a alguien adicional se absorben. Por personas que, además de su trabajo habitual, ahora también hacen cosas para las que no están formadas ni planificadas. Nadie ajusta las descripciones de puesto ni reduce las tareas originales; las nuevas simplemente se suman encima.
Esto desencadena un efecto dominó: los resultados de esos experimentos tienen que ser revisados por alguien. En el estudio, eran los ingenieros senior quienes pasaban cada vez más tiempo revisando pull requests a medio hacer y artefactos de vibe-coding de sus colegas. No en revisiones formales de código, sino al margen: en hilos de Slack, en conversaciones rápidas junto al escritorio, entre dos tareas propias. Las personas más experimentadas del equipo se convierten en filtro de calidad de un trabajo que antes ni siquiera existía.
Mecanismo 2: El trabajo se convierte en algo que siempre está ahí
El segundo mecanismo es más sutil y quizá por eso más peligroso. La IA hace que el inicio de cualquier tarea sea tan fluido que la resistencia desaparece. Ya no hay una hoja en blanco, ni un punto de partida desconocido. Un prompt basta.
Suena a eficiencia. En la práctica significa que cualquier hueco del día se vuelve rellenable. La pausa del almuerzo, la espera antes de una reunión, el momento antes de irse por la tarde. "Lanzo un prompt rápido para que la IA trabaje mientras no estoy." Son 30 segundos y no se siente como trabajo, porque lanzar prompts se parece más a chatear que a un paso formal de trabajo.
Pero esos momentos de 30 segundos se acumulan. Tras unas semanas, el día laboral carece de pausas naturales. La comida se convierte en una sesión de prompts. El fin de la jornada empieza con "solo voy a revisar el resultado rápido". El domingo por la noche se transforma en el momento de "preparar algo de antemano", porque total, es muy rápido.
Varias personas entrevistadas en el estudio describieron que tardaron semanas o meses en darse cuenta de lo que había ocurrido. Las fases de recuperación se habían erosionado de forma gradual, imperceptible. El trabajo ya no era algo que se hacía en determinados horarios, sino algo que siempre estaba funcionando en segundo plano. No de forma intrusiva ni estresante, simplemente: siempre presente. La frontera entre trabajo y no-trabajo no había desaparecido, como escriben las investigadoras, sino que se había vuelto más fácil de cruzar.
Mecanismo 3: Demasiadas pelotas en el aire al mismo tiempo
El tercer mecanismo afecta a cómo se organiza el trabajo asistido por IA. Con IA, siempre hay varios hilos ejecutándose en paralelo. Se programa a mano mientras la IA genera una alternativa; se lanzan tres tareas a la vez porque la IA puede encargarse de dos "en segundo plano"; se retoman proyectos largamente aparcados porque de pronto parecen viables.
Esto genera la sensación de tener un compañero de trabajo. Alguien que avanza mientras uno está con otra cosa; una sensación de impulso y rendimiento.
La realidad es distinta: cambio de contexto permanente, comprobación constante de outputs, una lista de pendientes que solo crece. No somos multitarea. Somos alternadores de tareas, y cada cambio consume energía cognitiva. A lo largo del día, estos micro-costes se acumulan hasta convertirse en un agotamiento mental profundo.
A esto se suma un efecto social. Cuando todo el equipo entrega más rápido, la norma se desplaza. No por una directriz desde arriba, sino por lo que se hace visible y normal. Quien ve que sus colegas gestionan tres tareas en paralelo siente una presión implícita por hacer lo mismo. La velocidad se convierte en expectativa, aunque nadie la verbalice.
La espiral que gira sola
Estos tres mecanismos no existen de forma aislada. Se refuerzan mutuamente formando una espiral: la IA acelera las tareas, lo que eleva las expectativas implícitas de velocidad; las mayores expectativas generan más dependencia de la IA; una mayor dependencia amplía el alcance, porque uno asume cada vez más cosas. Un alcance más amplio genera más trabajo que debe completarse más rápido. La espiral sigue girando.
Un ingeniero del estudio de Berkeley: "Uno pensaba que ahorraba tiempo y podría trabajar menos. En realidad se trabaja igual o incluso más."
Los entrevistados se sentían más productivos, pero no menos ocupados; más bien al contrario. A partir del sexto mes del estudio se multiplicaron los informes de agotamiento, ansiedad y parálisis decisoria. Lo que en el primer trimestre parecía un milagro de productividad produjo en el tercero problemas de calidad y las primeras bajas.
Lo traicionero de este ciclo es que se disfraza de progreso. De repente puedes hacer cosas que antes parecían imposibles, entregas más, te felicitan. No se siente como sobrecarga; se siente como empoderamiento. Hasta que se rompe.
Accenture: Qué pasa cuando se fuerza la adopción de IA
El estudio de Berkeley muestra un extremo: el uso de IA que voluntariamente se vuelve excesivo. Accenture muestra el otro.
La consultora, con cerca de 800.000 empleados, rastrea desde febrero de 2026 los inicios de sesión semanales en herramientas de IA de sus profesionales senior y los convierte en criterio de promoción. "El uso de nuestras herramientas clave será un input visible en las conversaciones de talento", se lee en un correo interno al que accedió el Financial Times. Se monitorean, entre otros, AI Refinery y SynOps. Los empleados de doce países europeos están exentos de la medida, al igual que quienes trabajan en contratos con el gobierno de EE. UU.
La reacción desde dentro es reveladora. Dos personas familiarizadas con la medida describieron al Financial Times algunas de las herramientas como "generadores de basura averiados". Otra persona declaró que "dimitiría de inmediato" si la norma le afectase. La compañía recortó el año pasado unas 11.000 posiciones, gastó casi 2.000 millones de dólares en indemnizaciones, rebautizó a su plantilla como "Reinventors" y su CEO Julie Sweet anunció que quien no se adapte tendrá que irse.
Aquí hay un problema de fondo: Accenture asesora a otras empresas sobre cómo implementar la transformación con IA. Tres directivos de las Big Four confirmaron de forma independiente al Financial Times que es más difícil convencer a los senior managers y socios de usar IA que a los perfiles junior. Las personas que venden transformación son las que más se resisten a ella.
La solución de Accenture es vigilancia y presión. El resultado es predecible: teatro de cumplimiento. La gente inicia sesión para que el contador suba, no porque trabaje mejor. La cotización bursátil ha caído un 42 por ciento en doce meses, desde más de 260.000 millones hasta unos 137.000 millones de dólares de capitalización. Quizá una conversación con su propia gente habría salido más barata que una política de vigilancia.
Ambos escenarios -- el sobreuso voluntario y la adopción forzada -- son síntomas del mismo error: las organizaciones tratan la adopción de IA como una cuestión técnica (¿tiene la gente acceso?, ¿usan las herramientas?) cuando es una cuestión profundamente humana (¿cómo cambia la IA la forma en que las personas trabajan, piensan y se recuperan?).
Tres medidas contra el burnout IA para equipos de RRHH
Las investigadoras de Berkeley recomiendan lo que denominan "AI Practice": reglas de juego conscientes sobre cómo, cuándo y cuánto se trabaja con IA. Suena abstracto. En la práctica se concreta en tres palancas.
Introducir pausas deliberadas. No como medida de bienestar, sino como control de calidad. Las investigadoras proponen que antes de cada decisión importante se formule al menos un contraargumento y una conexión explícita con los objetivos de la empresa. Son cinco minutos que impiden que la velocidad sustituya a la capacidad de juicio. En la práctica esto significa que los entregables generados con IA pasan por un paso obligatorio de reflexión antes de seguir adelante.
Secuenciar el trabajo en vez de paralelizarlo. No reaccionar a cada resultado de la IA de inmediato, sino agrupar actualizaciones, desplazar notificaciones a puntos de parada naturales, proteger ventanas de concentración. En lugar de reactividad constante, un ritmo de trabajo concentrado y revisión consciente. Esto reduce el cambio de contexto que, según el estudio, es uno de los principales impulsores del agotamiento cognitivo.
Proteger el arraigo humano. La IA permite cada vez más trabajo en solitario. Ya no hace falta preguntar a la compañera; se le pregunta a la IA. Eso ahorra tiempo, pero también elimina las conversaciones en las que colisionan perspectivas y nacen ideas creativas. Las organizaciones que no crean espacio deliberado para el intercambio humano arriesgan equipos que trabajan más rápido, pero piensan peor.
Por qué las encuestas de engagement no detectan el burnout IA
La mayoría de los equipos de RRHH miden con escalas Likert, Net Promoter Scores y Pulse Checks trimestrales. Estos instrumentos captan si alguien está satisfecho. No captan por qué alguien puede estar entusiasmado y agotado al mismo tiempo.
Eso es exactamente lo que muestra el estudio de Berkeley. La gente no decía "Tengo demasiado trabajo." Al fin y al cabo, habían asumido más de forma voluntaria y se había sentido bien. Hasta que dejó de sentirse así. Esta paradoja -- empoderamiento y agotamiento como dos caras de la misma experiencia -- no se puede capturar en una escala de cinco puntos.
Para entender lo que realmente ocurre, hacen falta datos cualitativos. Hay que hablar con la gente.
El problema: 40 entrevistas en profundidad como las del estudio de Berkeley suponen semanas de trabajo de campo, costes de cinco cifras, meses hasta obtener el informe. Las investigadoras estuvieron dos días por semana presencialmente, durante ocho meses. Pocos equipos de RRHH disponen de esos recursos.
Entrevistas con IA como salida al dilema de la medición
La herramienta que causa el problema también puede ayudar a hacerlo visible -- si se utiliza correctamente.
QUALLEE realiza entrevistas cualitativas con IA. Una IA formula preguntas, escucha, profundiza, sigue el hilo de la conversación. Personas reales responden, a su ritmo, en su propio lenguaje. El análisis destila patrones de decenas o cientos de esas conversaciones, en horas en vez de meses.
Para los equipos de RRHH que quieren entender el efecto del burnout IA en su propia organización, estas son las preguntas a las que ninguna encuesta de engagement llega: ¿Cómo ha cambiado tu jornada laboral con la IA? ¿Cuándo el uso de IA se siente productivo y cuándo se tuerce? ¿Haces los fines de semana cosas que hace seis meses no habrías hecho? ¿Qué necesitas para que el uso de IA sea sostenible?
Ninguna escala Likert responde a eso; una conversación sí.
Pruébalo tú mismo
El estudio de Berkeley termina con una afirmación clara: sin una intervención consciente, el trabajo asistido por IA no conduce al alivio, sino a la intensificación. El primer paso no es contar inicios de sesión como Accenture ni esperar que todo salga bien, sino escuchar.
Preguntas frecuentes
¿Qué es la paradoja del burnout IA?
La paradoja del burnout IA describe el fenómeno por el cual las herramientas de IA no alivian el trabajo, sino que lo intensifican. Un estudio de UC Berkeley de 2026 demuestra que las personas que utilizan IA de forma voluntaria y entusiasta no trabajan menos, sino más. La intensificación se produce por tres mecanismos: expansión del ámbito de tareas, difuminación de los límites entre trabajo y tiempo libre, y multitarea crónica.
¿Qué descubrió el estudio de UC Berkeley 2026?
Las investigadoras Aruna Ranganathan y Xingqi Maggie Ye acompañaron durante ocho meses a 200 empleados intrínsecamente motivados de una empresa tecnológica estadounidense. Sin obligación de usar IA, estas personas trabajaron estructuralmente más: mayor alcance, menos pausas, cambio de contexto permanente. A partir del sexto mes se acumularon los casos de agotamiento, ansiedad y parálisis decisoria. El estudio se publicó en febrero de 2026 en Harvard Business Review.
¿Por qué las encuestas de engagement no detectan el burnout IA?
Los instrumentos clásicos como escalas Likert y Pulse Checks miden la satisfacción en una escala numérica. No pueden captar por qué alguien puede estar entusiasmado y agotado al mismo tiempo. La paradoja del burnout IA se manifiesta como empoderamiento, no como insatisfacción, y por tanto escapa a las métricas cuantitativas. Se necesitan entrevistas cualitativas para hacer visibles los cambios reales en el día a día laboral.
¿Qué pueden hacer los equipos de RRHH contra el burnout IA?
Tres medidas concretas: primero, introducir pausas de reflexión deliberadas antes de decisiones asistidas por IA. Segundo, secuenciar el trabajo en vez de paralelizarlo para reducir el cambio de contexto. Tercero, proteger los espacios de intercambio humano para que los equipos no solo trabajen más rápido, sino que también piensen mejor. Las investigadoras de Berkeley lo denominan "AI Practice": reglas de juego conscientes para el uso de IA.
¿Qué tiene que ver Accenture con el burnout IA?
Accenture rastrea desde febrero de 2026 los inicios de sesión en herramientas de IA de sus profesionales senior y los convierte en criterio de promoción. Internamente, empleados calificaron las herramientas como "generadores de basura averiados". El caso ilustra el polo opuesto al estudio de Berkeley: en lugar de sobreuso voluntario, adopción forzada. Ambos escenarios desembocan en riesgo de burnout porque la implantación de IA se trata como una cuestión técnica en vez de humana.



