Étude Indeed : l’IA progresse, la gouvernance suit mal
- kmazou
- 21 juil.
- 4 min de lecture
À mesure que les entreprises françaises s’emparent des outils d’intelligence artificielle, un constat s’impose : l’usage se développe plus vite que le cadre censé le réguler. C’est toute l’ambiguïté révélée par l’étude menée par Indeed, en partenariat avec Censuswide, qui sonde les pratiques et les perceptions de l’IA chez les actifs comme chez les employeurs.
Derrière les chiffres d’une adoption massive, un paradoxe : la maturité structurelle ne suit pas la dynamique opérationnelle.
Une adoption rapide, mais à géométrie variable
80 % des entreprises interrogées déclarent avoir adopté des outils d’intelligence artificielle. Une donnée significative, qui témoigne d’un réel tournant technologique. Mais l’homogénéité de cette adoption reste toute relative : seuls 26 % affirment en faire un usage intensif, tandis que 24 % s’en servent encore ponctuellement.
Les secteurs d’activité affichent des écarts tout aussi marqués. Les entreprises de la finance (32 %) et de l’IT/télécoms (41 %) sont bien plus engagées que celles de la santé (14 %), ou encore du tourisme ou du BTP. L’IA s’impose donc, mais à des rythmes différents, reflétant des cultures métiers, des ressources et des objectifs qui ne convergent pas toujours.
Les usages les plus fréquents restent opérationnels : analyse de données (37 %), automatisation administrative (35 %), création de contenu (30 %), communication (30 %), ou encore gestion RH (25 %). En somme, l’IA répond aujourd’hui à un besoin d’optimisation plus qu’à une vision stratégique. Elle fluidifie les tâches, mais ne restructure pas encore les modèles.
Une IA encore confrontée à des freins structurels
Si l’adoption progresse, elle reste entravée par des obstacles bien identifiés. L’étude montre que seuls 8 % des employeurs n’ont rencontré aucun frein dans l’intégration de l’IA. Pour tous les autres, le chemin reste semé d’embûches : sécurité des données (32 %), difficulté d’intégration aux systèmes existants (30 %), manque de compétences éthiques ou juridiques (29 %), pénurie de profils qualifiés en interne (28 %).
Un autre frein, moins technique mais tout aussi structurant, apparaît clairement : la crainte d’une dépendance des salariés à l’IA (30 %). Cette inquiétude, exprimée par un tiers des employeurs, révèle une tension sous-jacente : l’IA est perçue comme un outil de productivité, mais aussi comme un risque potentiel d’appauvrissement des compétences ou d’aliénation technologique.
La résistance humaine est également à prendre au sérieux. 27 % des employeurs signalent une réticence ou une opposition au sein des équipes face à l’introduction de ces outils. Cette résistance, loin d’être irrationnelle, reflète souvent un manque d’accompagnement, de clarté sur les usages, ou de pédagogie autour de la valeur ajoutée réelle de l’IA.
Le cadre réglementaire et éthique reste largement sous-investi
La question de l’encadrement est centrale. Si 69 % des entreprises affirment avoir mis en place des règles, il ne s’agit que rarement de cadres robustes ou formalisés. Un tiers des structures n’ont encore rien prévu, et 10 % n’envisagent même pas de s’en doter. Un chiffre révélateur de la précarité de la gouvernance actuelle.
Ce décalage est accentué par la taille des entreprises : 81 % des structures de 250 à 500 salariés disposent d’un encadrement, contre seulement 43 % des très petites entreprises. En d’autres termes, plus on est petit, moins on est structuré, ce qui accroît les vulnérabilités face aux enjeux de cybersécurité, de conformité ou de respect des droits.
Et pourtant, la confiance reste de mise : 61 % des employeurs estiment que leurs salariés sont transparents dans l’usage de l’IA. Une perception qui contraste avec la réalité du terrain : seuls 11 % des salariés admettent utiliser explicitement ces outils, alors qu’ils sont 57 % à le faire réellement.
L’écart entre usage réel et usage déclaré illustre un déficit de transparence, mais aussi une forme de tabou autour de l’IA. Ce tabou est entretenu par l’opacité des outils eux-mêmes : 52 % des utilisateurs disent ne pas savoir comment leurs données sont traitées, et 40 % y renseignent tout de même des informations personnelles ou sensibles. Un risque important, qui met en lumière le besoin de régulation claire, de sensibilisation et de traçabilité.
Former, structurer, réguler : les trois piliers d’un usage durable
Face à ces constats, la formation apparaît comme l’un des leviers les plus évidents. 71 % des entreprises déclarent avoir mené des actions de sensibilisation ou de formation autour de l’IA. Mais là encore, les écarts sectoriels sont marqués : 83 % dans les secteurs financiers et technologiques, contre à peine 54 % dans la distribution, la restauration ou les loisirs.
La formation ne doit pas être vue comme une option, mais comme un prérequis. Non seulement pour sécuriser les usages, mais aussi pour accompagner les transformations des métiers, faire monter les collaborateurs en compétences et bâtir une culture du numérique responsable. Sans cela, l’IA risque de rester un outil réservé à quelques profils aguerris, voire de devenir un facteur de fracture interne.
Une IA qui interroge autant qu’elle transforme
L’étude d’Indeed met en lumière une réalité ambivalente. Oui, l’IA s’impose dans les entreprises françaises. Oui, ses usages se diversifient. Mais non, son intégration ne va pas de soi. Le cadre réglementaire reste lacunaire, la gouvernance encore balbutiante, la confiance fragile.
Ce moment charnière invite à une lucidité constructive : il ne s’agit pas de ralentir l’adoption de l’IA, mais de la faire entrer dans un environnement structuré, éthique et maîtrisé. Les entreprises doivent donc changer d’échelle : passer d’un usage opportuniste à une stratégie d’intégration, qui articule innovation, sécurité et responsabilité.
C’est à ce prix que l’IA pourra devenir un levier d’accélération réelle – et non une source de confusion supplémentaire.

Comentarios