Como criar segurança de IA baseada na confiança em escala 

É o mês da segurança cibernética no mundo da TI. E, neste ano, há uma questão fundamental na mente de muitos líderes de TI: podemos realmente confiar na segurança orientada por IA em escala? 

A confiança sempre foi um conceito fundamental na segurança. À medida que as organizações ampliam as iniciativas de IA em áreas críticas, como detecção de ameaças, monitoramento de fraudes e gerenciamento de acesso, acreditamos que a confiança se torna ainda mais decisiva para o sucesso. Afinal, se suas equipes não puderem confiar nos sistemas que você está implementando, esses sistemas acabarão criando riscos em vez de mitigá-los. 

Então, como os líderes de TI e de segurança podem confiar nas novas ferramentas orientadas por IA e, ao mesmo tempo, garantir que os funcionários também confiem nelas? Aqui está um plano de ação prático para os líderes de TI e segurança, especialmente em setores orientados para a confiança, como bancos, seguros, varejo e fabricação. Entre em contato para saber o que a Getronics pode fazer para apoiar sua adoção de confiança.

O duplo significado de confiança 

Primeiro: o que queremos dizer quando falamos de confiança no contexto de IA e segurança? Na verdade, ela tem dois significados diferentes: 

  1. O lado humano: Seus funcionários realmente confiam nas ferramentas de segurança de IA que você está escolhendo para eles ou eles as veem como uma ameaça, um fardo ou algo a ser contornado? 
  2. O lado técnico: Suas ferramentas de segurança de IA são confiáveis para fazer o que seus fornecedores ou desenvolvedores dizem que podem fazer?

Ambos os lados são importantes e determinam se a IA cria valor ou simplesmente cria novos riscos. 

Se você negligenciar o lado humano da confiança ao adotar novas ferramentas de IA, corre o risco de ter uma baixa adoção, práticas obscuras que contornam os sistemas oficiais e uma falsa sensação de segurança que deixa sua organização mais exposta. Isso também viola a confiança da sua equipe quando você escolhe ferramentas que aumentam a complexidade em vez de melhorar a eficiência. Esse é um grande motivo pelo qual 69% dos CIOs suspeitam que seus funcionários estejam usando ferramentas de IA não autorizadas no trabalho, de acordo com o relatório 2025 AI Hype Cycle da Gartner. 

Do lado da tecnologia, os CIOs precisam olhar além do hype avassalador e do constante excesso de promessas que vimos da comunidade de IA nos últimos anos. Assim como qualquer outra ferramenta de segurança, as ferramentas baseadas em IA precisam se provar em condições reais, com transparência, auditabilidade e resiliência contra ameaças emergentes, como injeção de prompt e falhas no controle de acesso. 

Integração da confiança na adoção da IA 

Muitas organizações enfrentam desafios de adoção ao implantar novas ferramentas de IA. Isso provavelmente se deve ao fato de que quase metade (46%) dos funcionários considera a IA uma ameaça a seus empregos, de acordo com um relatório do BCG. Certamente não ajuda o fato de o setor de IA continuar a alardear o potencial de suas ferramentas para redefinir o trabalho como o conhecemos. Os funcionários têm preocupações legítimas. Cabe aos líderes de TI e de segurança lidar com elas por meio de estratégias de adoção cuidadosamente planejadas. 

História de sucesso de IA: MinterEllison 

Um estudo de caso do Gartner mostra como a MinterEllison, um escritório de advocacia global, criou confiança entre os funcionários ao lançar um programa de alfabetização em IA que era estruturado e social. As medidas incluíam reservar 12 horas em 12 semanas para os funcionários aprenderem, creditar o tempo de treinamento em metas de desempenho e recrutar "coaches digitais" internos para promover a adoção.  

Em poucos meses, os usuários semanais de IA saltaram de 250 para 1.600 (um aumento de 6,5 vezes), com mais de 4.000 horas de aprendizagem creditadas registradas. Essa história mostra que os funcionários confiam mais na IA quando se sentem estruturalmente apoiados e as mudanças são introduzidas gradualmente. 

Educação, transparência e comunicação 

A necessidade de educação estruturada só tende a crescer. Em seu relatório "Predicts 2025: AI and the Future of Work", o Gartner afirma que, até 2028, 40% dos funcionários serão treinados ou orientados por IA ao ingressar em uma nova função, contra menos de 5% atualmente. Se os funcionários esperam que a IA os oriente desde o primeiro dia, as empresas não podem se dar ao luxo de deixar a alfabetização ao acaso. 

A comunicação clara também é importante. Seja franco e realista sobre o que as ferramentas de IA podem e não podem fazer. Mostre à equipe o quanto sua supervisão humana é importante. E não diga apenas "confie na ferramenta". Em vez disso, ensine-os e incentive-os a questionar e interpretar os resultados. Quando os funcionários sabem que seu julgamento ainda é valorizado, a IA parece menos uma ameaça e mais um apoio. 

Escolha de ferramentas de segurança de IA nas quais vale a pena confiar 

O outro lado da equação é se os líderes de TI e de segurança podem confiar que os sistemas de IA funcionarão de forma correta e segura. Aqui também os riscos são reais. O Gartner alerta que mais de 50% dos ataques cibernéticos bem-sucedidos contra agentes de IA até 2029 explorarão problemas de controle de acesso, como a injeção de prompt. Ao mesmo tempo, as organizações estão lutando contra o desvio de precisão, o viés e os custos imprevisíveis da nuvem que corroem o ROI. 

Esses desafios explicam por que a segurança cibernética continua sendo uma das três principais prioridades dos CIOs dos setores bancário, de seguros e de varejo. Mas a boa notícia é que já estão surgindo exemplos de implementações confiáveis de IA, como mostram abaixo os estudos de caso do Gartner. 

O Citizens Bank, por exemplo, implementou um agente orquestrador cuidadosamente selecionado para gerenciar tarefas de back-office com segurança dentro de fluxos de trabalho controlados. No setor de seguros, uma empresa holandesa está usando a IA para processar automaticamente sinistros automobilísticos simples e encaminhar casos complexos para avaliadores humanos. Ambos os exemplos nos ensinam a mesma lição: os líderes podem confiar na IA quando ela é bem adequada ao caso de uso e tem controles claros, e quando os humanos são responsáveis pelas decisões de alto risco. 

Perspectivas do setor 

O desafio da confiança é um pouco diferente de um setor para o outro: 

  • Serviços bancários: A confiança é inseparável do compliance. Os líderes precisam de sistemas de IA que possam reduzir os falsos positivos na detecção de fraudes e manter trilhas de auditoria que os reguladores possam seguir sem questionamentos. 
  • Seguros: O viés nas decisões de subscrição ou sinistros não é apenas um problema ético, é um risco regulatório e de reputação. As verificações de viés e as ferramentas de explicação são essenciais. 
  • Fabricação: A segurança não é negociável. Os gerentes de fábrica não confiarão nas previsões de IA sobre falhas de equipamentos, a menos que saibam quando e como a análise humana se aplica. 
  • Varejo: Com a alta rotatividade de pessoal, a IA invisível é o grande risco. Os varejistas devem levar a alfabetização em IA tão a sério quanto a alfabetização em dados para manter a adoção segura e produtiva.

Tornar a confiança escalável 

Então, como os líderes tornam a confiança escalável ao lançar projetos de segurança de IA? Alguns padrões se destacam em todos os setores: 

  • Primeiro, a alfabetização em IA. Os funcionários não adotarão o que não entendem. Programas como o da MinterEllison comprovam que o treinamento estruturado compensa a adoção e o uso seguro. 
  • Regras claras de supervisão. Defina quando os humanos devem intervir e certifique-se de que todos saibam disso. Isso evita tanto o excesso de confiança na IA quanto a desconfiança em seus resultados. 
  • Auditabilidade. Toda ação apoiada por IA deve deixar um rastro que possa resistir ao escrutínio regulatório e do cliente. 
  • Governança de custos e riscos. Monitore os gastos com a nuvem, o desvio de precisão e o controle de acesso com a mesma atenção com que monitora os controles financeiros. 
  • Mudança de cultura. A IA, sem dúvida, transformará a cultura do local de trabalho nos próximos anos. Os CIOs, CISOs e CHROs desempenham um papel importante para tornar a IA confiável em escala.

Estamos todos entusiasmados com as possibilidades de segurança escalonável e apoiada em IA. Mas neste Mês da Segurança Cibernética, uma coisa é certa: as organizações precisam superar a lacuna de confiança se quiserem ter sucesso. Os funcionários não usarão ferramentas nas quais não acreditam. Os líderes não podem dimensionar sistemas nos quais não podem confiar.  

Ao abordar os lados humano e técnico da confiança, você pode começar a criar valor com suas iniciativas de IA mais rapidamente, ao mesmo tempo em que fortalece sua força de trabalho e impulsiona a inovação a longo prazo. 

Equipe editorial da Getronics

Neste artigo:

Compartilhar esta publicação

Imagem aleatória

Fale com um de nossos especialistas

Se estiver considerando uma nova experiência digital, seja qual for o estágio da sua jornada, adoraríamos conversar.