Marcus Belke
CEO de 2B Advice GmbH, moteur de l'innovation dans le domaine de la vie privée conformité et de la gestion des risques, et a dirigé le développement d'Ailance, la nouvelle génération de conformité plateforme.
Intelligence artificielle fait depuis longtemps partie du quotidien des entreprises. Les domaines d'application vont de l'automatisation à l'aide à la décision en passant par les nouveaux modèles commerciaux. Mais alors que l'utilisation augmente rapidement, le développement de structures pour une IA responsable et sa gouvernance est à la traîne. Plusieurs études récentes montrent clairement comment les entreprises tirent profit de l'IA, tout en souffrant d'un manque de confiance en matière de gouvernance, Conformité et risquer la sécurité.
L'IA comme accélérateur et comme risque
La grande majorité des entreprises utilisent déjà l'IA, mais seule une infime minorité dispose d'une gouvernance mature pour une IA responsable. Selon une étude actuelle de McKinsey de janvier 2025 presque toutes les entreprises investissent dans l'IA, mais seulement 1 % de la mise en œuvre de l'IA est considérée comme "mature". Cela signifie que l'IA est intégrée dans les processus de travail et qu'elle a donc un impact positif mesurable sur le succès économique.
Les résultats sont similaires dans le "Rapport sur la gouvernance de l'AI de Trustmarque de juillet 202593 % des entreprises interrogées utilisent l'IA sous une forme ou une autre, mais seulement 7 % ont établi un cadre de gouvernance de l'IA entièrement intégré. En conséquence, Trustmarque qualifie l'écart de "fossé clair" entre une large utilisation de l'IA et un manque de gouvernance.
Cette lacune en matière de gouvernance se reflète également dans le manque d'intégration dans les processus de développement. Selon Trustmarque, seules 8 % des entreprises ont intégré la gouvernance de l'IA dans leur cycle de développement logiciel. Les processus et outils traditionnels n'ont souvent pas été adaptés aux risques spécifiques à l'IA. Par exemple, moins d'un tiers des entreprises appliquent des tests de biais ou des tests d'explicabilité des modèles. Dans de nombreux cas, l'infrastructure et la surveillance font également défaut : seules 4 % des entreprises considèrent leur environnement informatique comme prêt pour l'IA à l'échelle.
Source : Rapport sur la gouvernance de Trustmarque AI (publié le 21 juillet 2025)
Absence de directives pour une IA responsable
Les déficits de gouvernance commencent dès les bases. Ainsi, il est apparu une enquête de OneTrust/OCEGque 62 % des entreprises interrogées ne disposent pas d'un plan de gouvernance documenté et que 58 % ne savent pas quels systèmes d'IA sont utilisés. Il n'est donc guère surprenant que 70 % des personnes interrogées n'aient guère confiance dans leurs stratégies de risque.
Même désenchantement : selon un rapport de NTT Data, 72 % des cadres interrogés admettent ne pas avoir formulé de politique d'IA à l'échelle de l'entreprise pour une utilisation responsable. Dans le même temps, une majorité de cadres reconnaissent des lacunes dans leurs connaissances sur l'utilisation de l'IA. 67 % disent que leurs collaborateurs n'ont pas les compétences nécessaires pour travailler efficacement avec l'IA.
Ces résultats indiquent des lacunes importantes en matière de gouvernance et de formation, qui doivent être abordées afin d'utiliser l'IA de manière sûre et efficace.
IA responsable : des responsabilités fragmentées
La conséquence de ces lacunes est une responsabilité fragmentée. Dans de nombreuses entreprises, la gouvernance de l'IA n'existe que dans les silos de certains départements. Comme Trustmarque l'a constaté, seules 9 % des entreprises sont parvenues à une coordination entre la direction informatique et l'équipe de gouvernance, tandis que dans 19 %, aucun responsable clair n'a été désigné pour la gouvernance de l'IA.
La plupart du temps, la supervision de l'IA reste au niveau des départements au lieu d'être stratégiquement ancrée dans tous les domaines. Seules 20 % des organisations ont mis en place un organe de gouvernance de l'IA interfonctionnel. Cette approche isolée rend difficile une gouvernance cohérente et efficace et risque d'entraîner une prise en compte insuffisante de perspectives importantes, notamment dans les domaines du droit, de l'éthique ou des ressources humaines.
Tâche de direction : moderniser la gouvernance de l'IA
Entre-temps, de nombreuses organisations reconnaissent que les méthodes de gouvernance traditionnelles ne peuvent pas suivre le rythme du développement de l'IA. Selon le rapport "The 2025 AI-Ready Governance Report" de OneTrust, les responsables 37 % consacrent plus de temps à la gestion des risques liés à l'IA que l'année précédente. Cela indique à quel point l'IA pèse sur les processus actuels de gestion de la conformité et des risques.
Source : OneTrust "The 2025 AI-Ready Governance Report" (publié le 9 septembre 2025)
Les experts demandent donc un changement de cap au plus haut niveau. Selon le rapport NTT Data, le leadership est le "chaînon manquant" pour une IA responsable. Plus de 80 % des cadres sont d'avis que le leadership, la gouvernance et le développement du personnel ne peuvent actuellement pas suivre le rythme des progrès de l'IA. Il est donc nécessaire de mettre en place un changement guidé par la culture et le management.
Pour la direction de l'entreprise, cela signifie faire de la gouvernance de l'IA l'affaire de tous. C'est ce que conseillent les experts dans le rapport de NTT Data, responsable d'intégrer l'IA dès le début ("by design") et de mettre en place des structures de gouvernance transversales. Cela implique d'évaluer les risques liés à l'IA de manière proactive et de mettre en place des contrôles appropriés. Et ce, non pas juste avant la mise en service, mais tout au long du cycle de vie de l'IA. En outre, les dirigeants doivent s'assurer que les collaborateurs disposent des compétences nécessaires pour travailler de manière sûre et efficace avec les technologies d'IA. En définissant clairement les responsabilités, les politiques et les formations, il est possible de créer une culture de l'IA de confiance, dans laquelle innovation et contrôle vont de pair.
Conclusion : la gouvernance comme facteur de réussite à l'ère de l'IA
Les chiffres donnent une image claire : l'IA est certes déjà omniprésente dans les entreprises, mais les dispositions organisationnelles ne suivent pas. De nombreuses entreprises évoluent dans une zone grise dangereuse. Elles profitent certes de l'IA, mais mettent en péril leur réputation et leur sécurité. Conformité par manque de garde-fous. Pour exploiter pleinement le potentiel de l'IA sans tomber dans des crises de confiance ou des pièges réglementaires, les entreprises doivent agir dès maintenant et moderniser leur gouvernance :
- Développer des politiquesétablir des politiques claires pour une utilisation responsable de l'IA.
- Clarifier les responsabilitésCréer des structures de gouvernance intersectorielles.
- Développer les compétencesFormer les collaborateurs de manière ciblée à l'utilisation sûre de l'IA.
- Gérer les risques: faire l'inventaire de tous les systèmes d'IA, surveiller les risques en permanence.
- Prendre les devants: Ancrer la gouvernance en tant que thème stratégique dans le top management.
Les entreprises qui font ces devoirs auront un avantage concurrentiel. Elles peuvent créer de la valeur en toute confiance grâce à l'IA, alors que d'autres risquent d'être freinées par des pannes et des pertes de confiance. Le mot d'ordre est donc d'investir dès maintenant dans la gouvernance afin de rendre la révolution de l'IA durable et responsable.
Votre prochaine étape : la gouvernance de l'IA Ailance
Exploitez tout le potentiel de l'intelligence artificielle, sans lacunes en matière de gouvernance. Avec la gouvernance de l'IA d'Ailance, vous créez des structures claires, des processus documentés et des responsabilités transparentes. Vous gérez ainsi efficacement les initiatives d'IA, réduisez les risques et répondez aux exigences réglementaires.
Conseil Gouvernance de l'IA Ailance
Parlez à nos experts et découvrez comment Ailance peut aider votre entreprise à utiliser l'IA de manière responsable et profitable.
Marcus Belke est CEO de 2B Advice ainsi que juriste et expert en IT pour Protection des données et numérique Conformité. Il écrit régulièrement sur la gouvernance de l'IA, la conformité au RGPD et la gestion des risques. Pour en savoir plus sur lui, consultez son Page du profil de l'auteur.





