Pose la question en retro : "Comment se passe le deploiement IA ?", et tu obtiens "ca avance". Envoie un sondage et tu recoltes 6,4 sur 10. Discute en tete-a-tete avec le team lead et tu obtiens une version diplomatique de la realite. Les trois reponses sont sinceres. Aucune n'est vraie.
Pas parce que les gens mentent, mais parce que tout le monde filtre des qu'une personne ayant une influence sur sa carriere ecoute. Ce n'est pas un defaut, c'est de l'intelligence sociale. Et c'est precisement ce filtre qui rend les entreprises aveugles au moment ou elles auraient le plus besoin de voir clair - quand une technologie change les regles du jeu et que personne ne sait ce que ca signifie pour son propre poste.
Trois formes de silence
Dans chaque deploiement IA, trois groupes ne disent pas ce qu'ils pensent. Leurs raisons n'ont rien en commun.
Un premier groupe rame. L'outil les depasse, mais ils ne peuvent pas l'admettre. Dans un contexte ou la competence IA est declaree qualite essentielle, "je n'y arrive pas" est un risque pour la carriere.
Alors ils sourient en formation, acquiescent en retro et cherchent discretement les bases le soir chez eux. Le AI at Work Report 2025{target=_blank} de BCG chiffre l'ecart : seul un bon tiers des collaborateurs juge les formations IA suffisantes. 18 pour cent des utilisateurs reguliers n'ont jamais recu de formation. L'outil est la, l'attente est la, la montee en competence ne suit pas.
Un deuxieme groupe pourrait deja aller bien plus loin. Il a cree ses propres workflows, developpe des prompts, pousse l'outil au-dela de ce qui etait prevu. Sauf qu'il ne le montre pas.
Aller trop vite, c'est deranger - le manager qui ne voit pas aussi loin, les collegues qui se sentent encore plus largues. Alors les meilleurs se retiennent, et l'entreprise ne decouvre jamais ce qui serait possible.
Le groupe le plus dangereux est invisible. Ces personnes ne sont ni depassees ni enthousiastes. Elles ne comprennent tout simplement pas ce qui est cense changer pour elles.
Elles ont suivi la formation, vu les slides, recu l'acces - et continuent comme avant. Pas par resistance, mais par perplexite. Leur silence ressemble a de l'approbation vu de l'exterieur, et donc personne ne s'en occupe.
Trois groupes, un seul probleme : les sujets dont il faudrait parler de toute urgence sont exactement ceux dont personne ne parle. Et plus la direction pousse l'adoption, plus le silence s'epaissit. La dissonance culturelle qui en resulte reste souvent invisible.
Le mensonge de l'adoption
73 pour cent d'utilisation active. Formations terminees. Phase pilote officiellement reussie. Au comite de pilotage, le deploiement est presente comme un succes. C'est ce que dit le dashboard.
Ce que le dashboard ne dit pas : trois personnes sur huit n'ouvrent l'outil que quand quelqu'un regarde. Celle qui travaille vraiment avec ne partage pas ses prompts.
En retro, tout le monde a hoche la tete. En realite, le quotidien n'a presque pas change - seules les statistiques ont meilleure mine.
Gartner a un nom pour ca : Regrettable Retention. Les gens sont physiquement la, apparaissent comme utilisateurs actifs dans chaque metrique, et ont interieurement tire un trait sur le projet depuis longtemps. Un phenomene qu'on observe aussi dans les enquetes collaborateurs : les chiffres officiels racontent une autre histoire que les vraies raisons.
Le taux d'adoption peut afficher 90 pour cent pendant que la valeur reellement creee stagne a zero. La difference entre "l'outil est installe" et "l'outil change notre facon de travailler" est enorme ; aucun dashboard au monde ne la capte.
Le probleme n'est pas que les entreprises mesurent les mauvaises metriques, mais que les bonnes informations ne naissent que dans des conversations qui n'ont pas lieu.
Ce qui change quand la hierarchie quitte la piece
"Comment ta journee de travail a change depuis le deploiement IA ?"
Pose cette question en retro et tu obtiens de la diplomatie. Dans un cadre ou aucun superieur n'ecoute, ou aucun compte rendu ne finit dans le dossier du personnel, ou personne ne risque de perdre la face, tu obtiens autre chose.
Il y a les workflows paralleles : "Je fais d'abord la tache manuellement puis j'injecte le resultat dans l'outil pour que ca ressemble a une utilisation." Ou l'enthousiasme cache : "J'ai appris tout seul le soir comment automatiser les rapports, mais en reunion je ne le dis pas parce que tout le monde penserait que je veux me faire remarquer." Et la surcharge qui n'a pas de nom : "Je ne comprends pas ce que l'outil fait de mieux que ma methode actuelle. Et je n'ose pas poser la question."
Ce ne sont pas des notes de bas de page. Ce sont les informations sur lesquelles on peut fonder des decisions - sur les formats de formation, les dynamiques d'equipe, la question de savoir si le deploiement fonctionne reellement ou fait juste bonne figure.
Pour que de telles reponses emergent, il faut trois choses : l'anonymat, la profondeur et le bon moment. L'anonymat seul ne suffit pas ; un questionnaire anonyme a cocher produit "Plus de formation serait bien" sans qu'on sache quelle formation, pour qui et pourquoi.
Ce qui manque, c'est la relance. Le moment ou quelqu'un rebondit "Qu'entends-tu par plus de formation ?" et ou la vraie reponse vient : "Je n'ai pas besoin de formation. J'ai besoin que quelqu'un me montre que c'est normal de faire des erreurs."
Un entretien qui ecoute et relance, mene de facon asynchrone, sans pression d'agenda, sans contexte social - ca change ce que les gens sont prets a dire. Pas parce que ca les manipule, mais parce que ca cree les conditions dans lesquelles l'honnetete n'est plus un risque.
Quand ecouter fait la plus grande difference
Quatre semaines apres le go-live, c'est le moment critique. La curiosite initiale est retombee, les effets de la formation se dissipent, le quotidien a repris le dessus.
C'est maintenant que les contournements apparaissent, que l'enthousiasme bascule en surcharge, qu'on voit quels workflows fonctionnent reellement et lesquels n'existent que sur le papier. Celui qui n'ecoute pas a ce moment-la rate la fenetre ou les corrections de trajectoire peuvent encore changer quelque chose. Le Continuous Discovery fait de cette ecoute un element permanent du processus.
Six mois plus tard, la question devient plus dure : la facon de travailler a-t-elle reellement change, ou ne fait-on qu'alimenter le dashboard ? Les gens ont-ils developpe de nouvelles habitudes, ou conserve les anciennes avec un vernis IA ? Celui qui pose la question pour la premiere fois ici la pose trop tard.
Mais meme avant le lancement, une conversation que la plupart sautent en vaut la peine. Les gens ont des attentes et des craintes qui ne sont jamais exprimees.
"Mon poste va-t-il devenir inutile ?" coexiste avec "Enfin je n'aurai plus a faire ce maudit reporting a la main." Celui qui connait cette tension avant le deploiement peut adapter l'introduction en consequence, au lieu de communiquer dans le vide face a une equipe silencieuse.
La question qui reste
Les deploiements IA les plus reussis ne seront pas ceux qui auront ete les plus rapides, mais ceux ou quelqu'un a ecoute systematiquement - avant que les contournements ne se solidifient, avant que les silencieux ne concluent que leur point de vue n'interesse personne, avant que le silence ne devienne si normal que plus personne ne le remarque.
La question n'est pas de savoir si ton equipe a des problemes avec le deploiement IA, mais si tu en es informe.
Sources
- BCG : AI at Work: Friends and Foes - Report 2025- Gartner : Top 9 Future of Work Trends for CHROs in 2026
Essaie par toi-meme
Comment ca fait, un entretien qui ecoute et relance au lieu de cocher des cases ? Essaie par toi-meme.



