20/10/2025
Alors que l'IA s'intègre dans la détection des menaces, la surveillance des fraudes, la gestion des accès et la réponse aux incidents, une question cruciale se pose : comment les organisations peuvent-elles instaurer la confiance dans la sécurité basée sur l'IA à grande échelle ?
Dans ce contexte, la confiance revêt deux dimensions. Premièrement, les employés et les analystes doivent avoir confiance dans le fait que les outils d'IA facilitent leur travail plutôt que de nuire à leur jugement. Deuxièmement, les dirigeants doivent avoir confiance dans le fait que ces systèmes sont sécurisés, explicables et résilients dans des conditions réelles.
Sans ces deux dimensions, la sécurité basée sur l'IA ne peut pas évoluer : elle se fragmente. Les organisations qui réussissent ne considèrent pas la confiance comme un simple exercice de communication, mais comme un principe de conception intégré à la gouvernance, à la supervision et à la stratégie d'adoption.
La double signification de la confiance
Tout d'abord, qu'entendons-nous par confiance dans le contexte de l'IA et de la sécurité ? En fait, ce terme a deux significations différentes :
- L'aspect humain : Vos employés font-ils réellement confiance aux outils de sécurité IA que vous choisissez pour eux, ou les considèrent-ils comme une menace, un fardeau ou quelque chose à contourner ?
- L'aspect technique : Pouvez-vous faire confiance à vos outils de sécurité IA pour faire ce que leurs vendeurs ou développeurs disent qu'ils peuvent faire ?
Les deux aspects sont importants et déterminent si l'IA crée de la valeur ou simplement de nouveaux risques.
Si vous négligez l'aspect humain de la confiance lors de l'adoption de nouveaux outils d'IA, vous risquez un faible taux d'adoption, des pratiques parallèles qui contournent les systèmes officiels et un faux sentiment de sécurité qui expose davantage votre organisation. Vous trahissez également la confiance de votre équipe lorsque vous choisissez des outils qui ajoutent de la complexité au lieu d'améliorer l'efficacité. Cette tension explique pourquoi Gartner rapporte que 69 % des organisations soupçonnent ou ont des preuves que leurs employés utilisent des outils GenAI publics non autorisés (« shadow AI »). Lorsque les outils approuvés ne répondent pas aux besoins opérationnels réels, les employés cherchent des alternatives, souvent sans surveillance adéquate.
En ce qui concerne la technologie, les DSI doivent aller au-delà du battage médiatique et des promesses excessives que la communauté de l'IA a faites au cours des dernières années. Comme tout autre outil de sécurité, les outils alimentés par l'IA doivent faire leurs preuves dans des conditions réelles, avec transparence, auditabilité et résilience contre les menaces émergentes telles que l'injection rapide et les défaillances du contrôle d'accès.
Faire de la confiance un élément essentiel de l'adoption de l'IA
De nombreuses organisations sont confrontées à des difficultés d'adoption lorsqu'elles déploient de nouveaux outils d'IA. Cela est probablement dû au fait que près de la moitié (46 %) des employés considèrent l'IA comme une menace pour leur emploi, selon un rapport du BCG. Le fait que l'industrie de l'IA continue de vanter le potentiel de ses outils pour redéfinir le travail tel que nous le connaissons n'aide certainement pas. Les employés ont des préoccupations légitimes. Il appartient aux responsables de l'informatique et de la sécurité d'y répondre par des stratégies d'adoption soigneusement planifiées.
Histoire d'une réussite en matière d'IA : MinterEllison
Un exemple souvent cité est celui de MinterEllison, qui a mis en place un programme structuré de formation à l'IA afin d'encourager son adoption. Le cabinet a alloué du temps dédié à l'apprentissage, aligné la formation sur les objectifs de performance et nommé des champions numériques internes chargés de guider leurs collègues à travers des cas d'utilisation pratiques.
Les résultats rapportés comprenaient une augmentation significative de l'utilisation hebdomadaire de l'IA et un engagement soutenu dans tous les départements. Le point essentiel à retenir n'est pas les chiffres d'utilisation eux-mêmes, mais la structure : la confiance s'est accrue parce que la formation, l'allocation de temps et le renforcement par les pairs ont été délibérément intégrés dans le déploiement.
Éducation, transparence et communication
Le besoin d'une éducation structurée ne fera que croître. Dans son rapport "Predicts 2025 : AI and the Future of Work", Gartner indique que d'ici 2028, 40 % des employés seront d'abord formés ou coachés par l'IA lorsqu'ils entreront dans un nouveau rôle, contre moins de 5 % aujourd'hui. Si les employés s'attendent à ce que l'IA les guide dès le premier jour, les entreprises ne peuvent pas se permettre de laisser l'alphabétisation au hasard.
Une communication claire est également importante. Soyez franc et réaliste sur ce que les outils d'IA peuvent et ne peuvent pas faire. Montrez au personnel l'importance de la supervision humaine. Et ne vous contentez pas de dire "faites confiance à l'outil". Enseignez-leur et encouragez-les à remettre en question et à interpréter les résultats. Lorsque les employés savent que leur jugement est toujours apprécié, l'IA est moins perçue comme une menace et davantage comme une aide.
Choisir des outils de sécurité IA dignes de confiance
L'autre aspect de la question est de savoir si les responsables informatiques et de la sécurité peuvent faire confiance aux systèmes d'IA pour fonctionner de manière fiable et sécurisée. Là encore, les risques sont réels. Les prévisions du secteur indiquent que les faiblesses en matière de contrôle d'accès, notamment les risques d'injection rapide et d'escalade des privilèges, sont susceptibles de devenir les principaux vecteurs d'attaque pour les systèmes basés sur l'IA au cours des prochaines années. À mesure que les agents IA gagnent en autonomie opérationnelle, les lacunes en matière de gouvernance se transforment en failles de sécurité.
Parallèlement, les organisations doivent gérer les écarts de précision, l'exposition aux biais et l'escalade cloud . La sécurité de l'IA basée sur la confiance dépend donc non seulement de la défense contre les menaces, mais aussi d'une validation, d'une surveillance et d'une gouvernance des coûts continues.
Ces défis expliquent pourquoi la cybersécurité reste l'une des trois premières priorités des DSI dans les secteurs de la banque, de l'assurance et de la vente au détail. Mais la bonne nouvelle, c'est que des exemples de déploiements d'IA dignes de confiance émergent déjà, comme le montrent les études de cas de Gartner ci-dessous.
Citizens Bank, par exemple, a déployé un agent orchestrateur soigneusement sélectionné pour gérer les tâches de back-office en toute sécurité dans le cadre de workflows contrôlés. Dans le domaine de l'assurance, une société néerlandaise utilise l'IA pour traiter automatiquement les sinistres automobiles simples tout en confiant les cas complexes à des experts humains. Ces deux exemples nous enseignent la même chose : les dirigeants peuvent faire confiance à l'IA lorsqu'elle est bien adaptée au cas d'utilisation et que les garde-fous sont clairs, et lorsque les humains restent responsables des décisions à haut risque.
Perspectives sectorielles
Le défi lié à la confiance est légèrement différent d'un secteur à l'autre :
- La banque : La confiance est indissociable de la conformité. Les dirigeants ont besoin de systèmes d'IA capables de réduire les faux positifs dans la détection des fraudes et de conserver des pistes d'audit que les régulateurs peuvent suivre sans poser de questions.
- Assurance : La partialité dans les décisions de souscription ou d'indemnisation n'est pas seulement un problème éthique, c'est un risque réglementaire et de réputation. Les contrôles de partialité et les outils d'explication sont essentiels.
- Manufacturing : La sécurité n'est pas négociable. Les directeurs d'usine ne se fieront pas aux prédictions de l'IA concernant les pannes d'équipement, à moins qu'ils ne sachent quand et comment l'examen humain s'applique.
- Commerce de détail : Avec un taux de rotation du personnel élevé, la shadow IA représente un risque important. Les détaillants doivent traiter la maîtrise de l'IA avec autant de sérieux que la maîtrise des données pour que l'adoption reste sûre et productive.
Rendre la confiance évolutive
Alors, comment les dirigeants peuvent-ils rendre la confiance évolutive lorsqu'ils lancent des projets de sécurité de l'IA ? Quelques tendances se dégagent dans les différents secteurs d'activité :
- L'alphabétisation en matière d'IA d'abord. Les employés n'adopteront pas ce qu'ils ne comprennent pas. Des programmes comme celui de MinterEllison prouvent qu'une formation structurée est payante en termes d'adoption et d'utilisation en toute sécurité.
- Des règles de contrôle claires. Définissez quand les humains interviennent et assurez-vous que tout le monde le sait. Cela permet d'éviter à la fois une dépendance excessive à l'égard de l'IA et une méfiance à l'égard de ses résultats.
- Auditabilité. Chaque action assistée par l'IA doit laisser une trace qui puisse résister à l'examen réglementaire et à l'examen des clients.
- Gouvernance des coûts et des risques. Surveillez les dépenses liées au cloud , la dérive possible de précision et le contrôle d'accès avec autant d'attention que vous le feriez pour les contrôles financiers.
- Changement de culture. L'IA transformera sans aucun doute la culture du lieu de travail dans les années à venir. Les DSI, CISO et CHRO ont tous un rôle à jouer pour que l'IA soit digne de confiance à grande échelle.
La confiance dans la sécurité de l'IA ne naît pas automatiquement. Elle doit être conçue.
Les organisations qui réussissent leur expansion s'appuient sur cinq piliers : la maîtrise des outils, la clarté de la supervision, l'auditabilité, la surveillance continue des risques et la gouvernance interfonctionnelle. Lorsque ces fondements sont en place, l'IA devient un multiplicateur de force pour la cybersécurité plutôt qu'une nouvelle source d'exposition.
Les dirigeants qui prennent en compte à la fois les dimensions humaines et techniques de la confiance ne se contenteront pas de déployer l'IA en toute sécurité : ils renforceront la résilience, accéléreront l'innovation responsable et instaureront une confiance durable dans leur stratégie numérique.




