Sommaire
ToggleTL;DR
Près d’un jeune salarié sur deux sabote délibérément les outils d’IA dans son entreprise — pas par incompétence, mais par peur de devenir obsolète. Le rapport Writer/Workplace Intelligence 2026 documente une fracture générationnelle massive entre dirigeants convaincus et équipes en résistance passive. Pendant que 92 % des directions cultivent une élite de « super-users », le reste de l’effectif freine des quatre fers. La solution n’est ni le licenciement ni la contrainte : c’est la co-construction, la formation et une gouvernance claire. Chez DeepDive, on appelle ça passer de « l’IA imposée » à « l’IA adoptée ».
Quand les digital natives deviennent les premiers résistants
Il y a un paradoxe savoureux dans les chiffres du rapport AI Adoption in the Enterprise 2026, publié le 7 avril 2026 par Writer en partenariat avec Workplace Intelligence. Sur 2 400 travailleurs du savoir interrogés aux États-Unis, au Royaume-Uni et en Europe, 29 % admettent avoir activement saboté le déploiement de l’IA chez leur employeur. Saisie de données confidentielles dans des outils publics, refus d’utiliser les plateformes internes, production délibérément médiocre pour discréditer la technologie — le répertoire est varié.
Mais c’est chez la génération Z que le phénomène prend une ampleur inattendue : 44 % d’entre eux avouent ces pratiques. Les natifs numériques, ceux qu’on nous vendait comme les ambassadeurs naturels de la transformation digitale, sont en réalité ses premiers saboteurs.

Le mot-clé derrière cette rébellion porte un acronyme anglais assez parlant : FOBO — Fear Of Becoming Obsolete. 30 % des jeunes salariés citent explicitement la crainte de perdre leur emploi comme motivation. On est loin du cliché du fainéant réfractaire au changement. On est face à une angoisse existentielle professionnelle, et elle est parfaitement rationnelle.
L’art subtil du sabotage en col blanc
Ne cherchez pas de clés à molette dans les engrenages. Le sabotage IA en 2026 est feutré, méthodique, presque élégant dans sa discrétion.
Les dirigeants ne sont pas dupes : 76 % d’entre eux considèrent que cette résistance représente un risque majeur pour l’avenir de leur entreprise. Et pour cause — les formes que prend cette guérilla silencieuse sont redoutablement efficaces.
Le shadow AI reste le vecteur principal. 67 % des dirigeants signalent déjà des fuites de données via des outils non autorisés. Un salarié qui colle des données clients dans ChatGPT plutôt que d’utiliser la plateforme interne ne se voit pas comme un saboteur — il se voit comme quelqu’un qui « fait le boulot ». Le résultat pour l’entreprise est pourtant le même : perte de contrôle sur les données, exposition réglementaire, et un joli trou dans la stratégie de gouvernance.
Viennent ensuite la manipulation des métriques — altérer les évaluations pour faire apparaître l’IA comme inefficace — et le grand classique du refus passif-agressif : « Ça ne marche pas chez moi », « J’ai pas reçu le mail », « Le logiciel a planté ». Quiconque a déjà tenté de déployer un CRM reconnaîtra le schéma.
Mais voici le détail le plus révélateur du rapport : 75 % des cadres dirigeants admettent que leur stratégie IA est davantage une façade qu’une réalité opérationnelle. Autrement dit, le sabotage vient aussi d’en haut — il prend simplement la forme de PowerPoints enthousiastes sans budget de formation derrière.
La fracture des super-users : quand l’IA creuse les inégalités internes
Le rapport dessine un paysage d’entreprise coupé en deux, et le tableau n’est pas joli.
D’un côté, 92 % des organisations cultivent une élite de « AI super-users » — ces salariés qui ont pris le virage, maîtrisent les outils, et en récoltent les bénéfices. Les chiffres sont sans appel : cinq fois plus productifs, trois fois plus promus. L’IA devient pour eux un accélérateur de carrière concret, mesurable, enviable.
De l’autre, le reste de l’effectif observe cette ascension avec un mélange de méfiance et de découragement. Et la réponse managériale à cette fracture est d’une brutalité remarquable : 60 % des entreprises prévoient des licenciements pour non-adoption de l’IA.
André Gentit le souligne régulièrement dans les formations DeepDive : créer une caste de super-users sans embarquer le reste de l’équipe, c’est construire un avion dont seul le cockpit est pressurisé. Le résultat est prévisible — et il n’est bon pour personne à bord.
Les vraies causes : arrêtons le procès en « flemmardise générationnelle »
Il serait tentant de réduire le problème à une question d’attitude. Ce serait aussi une erreur stratégique majeure. Les causes sont structurelles, documentées, et largement imputables aux organisations elles-mêmes.
Le déficit de formation et de cadrage arrive en tête. 56 % des DRH reconnaissent que les juniors utilisent des outils d’IA non approuvés faute de guidelines claires. Quand on ne dit pas aux gens quoi utiliser, ils utilisent ce qu’ils connaissent — et ce qu’ils connaissent, c’est la version gratuite de ChatGPT. Ce n’est pas du sabotage, c’est de la débrouille mal orientée.
Vient ensuite l’injonction paradoxale : 88 % des responsables RH attendent des nouvelles recrues qu’elles maîtrisent l’IA dès le premier mois. On exige la compétence sans fournir les moyens de l’acquérir — un classique managérial qui n’a pas attendu l’intelligence artificielle pour exister, mais que l’IA amplifie considérablement.
Et puis il y a le facteur économique brut. Goldman Sachs estime à 16 000 le nombre d’emplois nets supprimés chaque mois aux États-Unis du fait de l’automatisation, avec une concentration disproportionnée sur les postes juniors et les profils Gen Z. La peur de devenir obsolète n’est pas un caprice : c’est une lecture correcte du marché.
May Habib, CEO de Writer, pose le diagnostic avec clarté : les licenciements ne sont pas une stratégie IA viable. Les entreprises qui gagnent sont celles qui repensent leurs opérations autour d’une collaboration humain-agent, pas celles qui remplacent les uns par les autres.
Cinq leviers concrets pour transformer la résistance en adoption
Les 29 % d’entreprises qui affichent déjà un ROI significatif sur leur investissement IA — 33 % en moyenne selon le rapport — n’ont pas de recette magique.
Les entreprises qui réussissent ont simplement compris que l’adoption de l’ia est un problème humain avant d’être un problème technique.
Voici ce qui fonctionne pour faire adopter l’ia à la génération Z
Co-construire plutôt qu’imposer avec cette génération rebelle
Impliquer la Gen Z dans le choix et la personnalisation des outils change radicalement la dynamique. Un chiffre du rapport mérite qu’on s’y arrête : 80 % des jeunes salariés font davantage confiance à l’IA qu’à leur manager pour obtenir du feedback sur leur travail. Ce n’est pas une insulte au management — c’est un signal. Formez vos managers à devenir des « AI champions » plutôt que des contrôleurs d’usage, et la résistance fond.
Poser un cadre de gouvernance lisible pour l’exploitation de l’ia dans votre entreprise
Définir des règles simples : quels outils sont autorisés, quelles données ne doivent jamais quitter le périmètre interne, quel est le processus quand quelque chose dérape. 36 % des entreprises n’ont toujours pas de plan pour « débrancher » un agent IA défaillant. C’est l’équivalent de rouler sans freins en se disant qu’on n’a encore jamais eu d’accident.
Former au tandem humain-agent dès l’onboarding
Les super-users libèrent en moyenne neuf heures par semaine grâce à l’IA. Ce chiffre-là, il faut le montrer concrètement aux équipes, pas l’écrire dans un mémo que personne ne lira. Chez DeepDive, les formations commencent toujours par un exercice simple : prendre une tâche que le participant déteste, et la résoudre avec un seul prompt bien construit. L’adhésion vient de l’expérience, jamais du discours.
Mesurer l’impact humain, pas seulement les gains de productivité
Lier l’IA à des bénéfices tangibles pour le salarié — promotions, allègement des tâches ingrates, montée en compétences — plutôt qu’à des objectifs de rendement brut. Le « tout pour l’efficacité » est le meilleur moyen de confirmer les peurs de la Gen Z : si l’IA ne sert qu’à faire plus avec moins de monde, pourquoi collaborer à sa propre élimination ?
Jouer la transparence sur les transformations en cours
95 % des dirigeants reconnaissent que les structures d’équipe sont en train de changer. Alors autant le dire clairement, en montrant aussi ce qui se crée : prompt engineers, responsables éthique IA, coordinateurs humain-agent. L’IA supprime des postes et en invente d’autres — mais si personne ne communique sur les seconds, tout le monde ne voit que les premiers.
Le point de vue DeepDive : l’IA n’a pas un problème technique, elle a un problème de confiance
Ce rapport confirme ce qu’André Gentit observe sur le terrain depuis deux ans dans les formations DeepDive : le frein principal à l’adoption de l’IA n’est jamais l’outil. C’est la manière dont on l’introduit, dont on l’explique, dont on accompagne — ou pas — ceux qui doivent l’utiliser.
La génération Z ne sabote pas l’IA par caprice ou par ignorance. Elle la sabote parce qu’on lui demande de maîtriser des outils qu’on ne lui a pas appris à utiliser, dans un contexte où ces mêmes outils menacent concrètement son avenir professionnel, et sous la direction de managers qui avouent eux-mêmes faire semblant d’avoir une stratégie.
La bonne nouvelle, c’est que les entreprises qui investissent réellement dans la formation et la co-construction voient des résultats spectaculaires. La mauvaise, c’est que la majorité continue de confondre « déployer un outil » et « transformer une organisation ».
Chez DeepDive, on résume ça simplement : il y a une différence fondamentale entre utiliser l’IA et maîtriser l’IA. Et cette différence, c’est exactement celle qui sépare les 29 % qui rentabilisent leur investissement des 71 % qui financent du sabotage.
L’ouverture : à mesure que l’IA agentique se généralise — des agents autonomes capables d’agir, pas seulement de répondre — la question du sabotage va se reposer avec une intensité décuplée. On ne freine plus un chatbot, on freine un collègue virtuel. Les entreprises qui n’auront pas résolu le problème de la confiance d’ici là risquent de découvrir que la résistance passive était encore la forme la plus douce de l’opposition.
Téléchargez le rapport complet ici : [https://writer.com/blog/enterprise-ai-adoption-survey-results-press-release/ ]
André Gentit Formateur & Consultant en Stratégie Web et IA générative
Vous souhaitez bâtir une stratégie de communication efficace, booster la performance de votre site internet ou mieux comprendre les dynamiques des réseaux sociaux ?
👉 Avec DeepDive, je vous accompagne grâce à une expertise terrain (ex-dirigeant d’agence digitale depuis 2011) et une veille continue sur les nouvelles pratiques numériques.
👉 J’interviens auprès de TPE, PME et collectivités, mais aussi en écoles et organismes (CNAM, CCI, écoles de commerce) pour rendre le numérique accessible et opérationnel.
👉 Mes formations couvrent le webmarketing, l’e-commerce, l’IA générative appliquée et incluent également une sensibilisation aux risques liés aux usages du web en général, sans oublier les bonnes pratiques à mettre en œuvre avec l’intelligence artificielle.
Mon objectif : transmettre des savoirs concrets pour que chaque apprenant — étudiant, salarié, entrepreneur ou institution — puisse transformer le numérique et l’IA en véritable levier de réussite.
Découvrez mon petit robot PromptyBot qui vous propose des centaines de prompts optimisés

















