Comment mettre en place la sécurité de l'IA basée sur la confiance à grande échelle 

C'est le mois de la cybersécurité pour le secteur de l'informatique. Cette année, une question clé préoccupe de nombreux responsables informatiques : pouvons-nous vraiment faire confiance à la sécurité pilotée par l'IA à grande échelle ? 

La confiance a toujours été un concept fondamental en matière de sécurité. À mesure que les organisations développent des initiatives d'IA dans des domaines critiques tels que la détection des menaces, la surveillance des fraudes et la gestion des accès, nous pensons que la confiance devient encore plus décisive pour le succès. Après tout, si vos équipes ne peuvent pas faire confiance aux systèmes que vous mettez en place, ces systèmes finissent par créer des risques au lieu de les atténuer. 

Alors, comment les responsables de l'informatique et de la sécurité peuvent-ils faire confiance aux nouveaux outils pilotés par l'IA tout en veillant à ce que les employés leur fassent également confiance ? Voici un plan d'action pratique pour les responsables de l'informatique et de la sécurité, en particulier dans les industries axées sur la confiance comme la banque, l'assurance, la vente au détail et le manufacturing. Prenez contact avec nous pour savoir ce que Getronics peut faire pour soutenir votre adoption de la confiance.

La double signification de la confiance 

Tout d'abord, qu'entendons-nous par confiance dans le contexte de l'IA et de la sécurité ? En fait, ce terme a deux significations différentes : 

  1. L'aspect humain : Vos employés font-ils réellement confiance aux outils de sécurité IA que vous choisissez pour eux, ou les considèrent-ils comme une menace, un fardeau ou quelque chose à contourner ? 
  2. L'aspect technique : Pouvez-vous faire confiance à vos outils de sécurité IA pour faire ce que leurs vendeurs ou développeurs disent qu'ils peuvent faire ?

Les deux aspects sont importants et déterminent si l'IA crée de la valeur ou simplement de nouveaux risques. 

Si vous négligez l'aspect humain de la confiance lorsque vous adoptez de nouveaux outils d'IA, vous risquez une faible adoption, des pratiques parallèles qui contournent les systèmes officiels et un faux sentiment de sécurité qui expose davantage votre organisation. La confiance de votre équipe est également violée lorsque vous choisissez des outils qui ajoutent de la complexité au lieu d'améliorer l'efficacité. C'est l'une des raisons pour lesquelles 69 % des DSI soupçonnent leurs employés d'utiliser des outils d'IA non autorisés au travail, selon le rapport 2025 AI Hype Cycle de Gartner. 

En ce qui concerne la technologie, les DSI doivent aller au-delà du battage médiatique et des promesses excessives que la communauté de l'IA a faites au cours des dernières années. Comme tout autre outil de sécurité, les outils alimentés par l'IA doivent faire leurs preuves dans des conditions réelles, avec transparence, auditabilité et résilience contre les menaces émergentes telles que l'injection rapide et les défaillances du contrôle d'accès. 

Faire de la confiance un élément essentiel de l'adoption de l'IA 

De nombreuses organisations sont confrontées à des difficultés d'adoption lorsqu'elles déploient de nouveaux outils d'IA. Cela est probablement dû au fait que près de la moitié (46 %) des employés considèrent l'IA comme une menace pour leur emploi, selon un rapport du BCG. Le fait que l'industrie de l'IA continue de vanter le potentiel de ses outils pour redéfinir le travail tel que nous le connaissons n'aide certainement pas. Les employés ont des préoccupations légitimes. Il appartient aux responsables de l'informatique et de la sécurité d'y répondre par des stratégies d'adoption soigneusement planifiées. 

Histoire d'une réussite en matière d'IA : MinterEllison 

Une étude de cas de Gartner montre comment MinterEllison, un cabinet d'avocats international, a instauré la confiance parmi ses employés en lançant un programme de formation à l'IA qui était à la fois structuré et social. Parmi les mesures prises, citons le fait de consacrer 12 heures sur 12 semaines à l'apprentissage des employés, de créditer le temps de formation pour atteindre les objectifs de performance et de recruter des "coachs numériques" internes pour promouvoir l'adoption du programme.  

En l'espace de quelques mois, le nombre d'utilisateurs hebdomadaires de l'IA est passé de 250 à 1 600 (soit une augmentation de 6,5 fois), avec plus de 4 000 heures d'apprentissage créditées. Cette histoire montre que les employés font davantage confiance à l'IA lorsqu'ils se sentent structurellement soutenus et que les changements sont introduits progressivement. 

Éducation, transparence et communication 

Le besoin d'une éducation structurée ne fera que croître. Dans son rapport "Predicts 2025 : AI and the Future of Work", Gartner indique que d'ici 2028, 40 % des employés seront d'abord formés ou coachés par l'IA lorsqu'ils entreront dans un nouveau rôle, contre moins de 5 % aujourd'hui. Si les employés s'attendent à ce que l'IA les guide dès le premier jour, les entreprises ne peuvent pas se permettre de laisser l'alphabétisation au hasard. 

Une communication claire est également importante. Soyez franc et réaliste sur ce que les outils d'IA peuvent et ne peuvent pas faire. Montrez au personnel l'importance de la supervision humaine. Et ne vous contentez pas de dire "faites confiance à l'outil". Enseignez-leur et encouragez-les à remettre en question et à interpréter les résultats. Lorsque les employés savent que leur jugement est toujours apprécié, l'IA est moins perçue comme une menace et davantage comme une aide. 

Choisir des outils de sécurité IA dignes de confiance 

L'autre aspect de l'équation est de savoir si les responsables des technologies de l'information et de la sécurité peuvent faire confiance aux systèmes d'IA pour qu'ils fonctionnent de manière fiable et sécurisée. Là encore, les risques sont réels. Gartner prévient que plus de 50 % des cyberattaques réussies contre des agents d'IA jusqu'en 2029 exploiteront des problèmes de contrôle d'accès tels que la soumission de prompts. Dans le même temps, les organisations sont confrontées à des problématiques de précision, partialité et aux coûts imprévisibles liés au cloud qui érodent le retour sur investissement. 

Ces défis expliquent pourquoi la cybersécurité reste l'une des trois premières priorités des DSI dans les secteurs de la banque, de l'assurance et de la vente au détail. Mais la bonne nouvelle, c'est que des exemples de déploiements d'IA dignes de confiance émergent déjà, comme le montrent les études de cas de Gartner ci-dessous. 

Citizens Bank, par exemple, a déployé un agent orchestrateur soigneusement sélectionné pour gérer les tâches de back-office en toute sécurité dans le cadre de workflows contrôlés. Dans le domaine de l'assurance, une société néerlandaise utilise l'IA pour traiter automatiquement les sinistres automobiles simples tout en confiant les cas complexes à des experts humains. Ces deux exemples nous enseignent la même chose : les dirigeants peuvent faire confiance à l'IA lorsqu'elle est bien adaptée au cas d'utilisation et que les garde-fous sont clairs, et lorsque les humains restent responsables des décisions à haut risque. 

Perspectives sectorielles 

Le défi lié à la confiance est légèrement différent d'un secteur à l'autre : 

  • La banque : La confiance est indissociable de la conformité. Les dirigeants ont besoin de systèmes d'IA capables de réduire les faux positifs dans la détection des fraudes et de conserver des pistes d'audit que les régulateurs peuvent suivre sans poser de questions. 
  • Assurance : La partialité dans les décisions de souscription ou d'indemnisation n'est pas seulement un problème éthique, c'est un risque réglementaire et de réputation. Les contrôles de partialité et les outils d'explication sont essentiels. 
  • Manufacturing : La sécurité n'est pas négociable. Les directeurs d'usine ne se fieront pas aux prédictions de l'IA concernant les pannes d'équipement, à moins qu'ils ne sachent quand et comment l'examen humain s'applique. 
  • Commerce de détail : Avec un taux de rotation du personnel élevé, la shadow IA représente un risque important. Les détaillants doivent traiter la maîtrise de l'IA avec autant de sérieux que la maîtrise des données pour que l'adoption reste sûre et productive.

Rendre la confiance évolutive 

Alors, comment les dirigeants peuvent-ils rendre la confiance évolutive lorsqu'ils lancent des projets de sécurité de l'IA ? Quelques tendances se dégagent dans les différents secteurs d'activité : 

  • L'alphabétisation en matière d'IA d'abord. Les employés n'adopteront pas ce qu'ils ne comprennent pas. Des programmes comme celui de MinterEllison prouvent qu'une formation structurée est payante en termes d'adoption et d'utilisation en toute sécurité. 
  • Des règles de contrôle claires. Définissez quand les humains interviennent et assurez-vous que tout le monde le sait. Cela permet d'éviter à la fois une dépendance excessive à l'égard de l'IA et une méfiance à l'égard de ses résultats. 
  • Auditabilité. Chaque action assistée par l'IA doit laisser une trace qui puisse résister à l'examen réglementaire et à l'examen des clients. 
  • Gouvernance des coûts et des risques. Surveillez les dépenses liées au cloud , la dérive possible de précision et le contrôle d'accès avec autant d'attention que vous le feriez pour les contrôles financiers. 
  • Changement de culture. L'IA transformera sans aucun doute la culture du lieu de travail dans les années à venir. Les DSI, CISO et CHRO ont tous un rôle à jouer pour que l'IA soit digne de confiance à grande échelle.

Nous sommes tous enthousiasmés par les possibilités qu'offre une sécurité évolutive soutenue par l'IA. Mais en ce Mois de la cybersécurité, une chose est claire : les organisations doivent surmonter le manque de confiance si elles veulent réussir. Les employés n'utiliseront pas les outils auxquels ils ne croient pas. Les dirigeants ne peuvent pas mettre à l'échelle des systèmes sur lesquels ils ne peuvent pas compter.  

En abordant les aspects humains et techniques de la confiance, vous pouvez commencer à créer de la valeur à partir de vos initiatives d'IA plus rapidement, tout en renforçant votre personnel et en stimulant l'innovation à long terme. 

Équipe de rédaction de Getronics

Dans cet article :

Partager cet article

Image aléatoire

Parlez avec l'un de nos experts

Si vous envisagez une nouvelle expérience numérique, quelle que soit l'étape à laquelle vous vous trouvez, nous serions ravis de discuter avec vous.