20/10/2025
À medida que a IA se torna parte integrante da detecção de ameaças, monitoramento de fraudes, gerenciamento de acesso e resposta a incidentes, surge uma questão crítica: como as organizações constroem confiança na segurança impulsionada pela IA em grande escala?
A confiança, neste contexto, tem duas dimensões. Primeiro, os funcionários e analistas devem confiar que as ferramentas de IA apoiam seu trabalho, em vez de prejudicar seu julgamento. Segundo, os líderes devem confiar que esses sistemas são seguros, explicáveis e resilientes em condições reais.
Sem ambas as dimensões, a segurança baseada em IA não se expande — ela se fragmenta. As organizações bem-sucedidas tratam a confiança não como um exercício de comunicação, mas como um princípio de design incorporado à governança, supervisão e estratégia de adoção.
O duplo significado de confiança
Primeiro: o que queremos dizer quando falamos de confiança no contexto de IA e segurança? Na verdade, ela tem dois significados diferentes:
- O lado humano: Seus funcionários realmente confiam nas ferramentas de segurança de IA que você está escolhendo para eles ou eles as veem como uma ameaça, um fardo ou algo a ser contornado?
- O lado técnico: Suas ferramentas de segurança de IA são confiáveis para fazer o que seus fornecedores ou desenvolvedores dizem que podem fazer?
Ambos os lados são importantes e determinam se a IA cria valor ou simplesmente cria novos riscos.
Se você negligenciar o lado humano da confiança ao adotar novas ferramentas de IA, corre o risco de obter baixa adoção, práticas paralelas que contornam os sistemas oficiais e uma falsa sensação de segurança que deixa sua organização mais exposta. Isso também viola a confiança de sua equipe quando você escolhe ferramentas que aumentam a complexidade em vez de melhorar a eficiência. Essa tensão ajuda a explicar por que a Gartner relata que 69% das organizações suspeitam ou têm evidências de funcionários usando ferramentas GenAI públicas não autorizadas (“IA paralela”). Quando as ferramentas aprovadas não atendem às necessidades operacionais reais, os funcionários buscam alternativas — muitas vezes sem supervisão adequada.
Do lado da tecnologia, os CIOs precisam olhar além do hype avassalador e do constante excesso de promessas que vimos da comunidade de IA nos últimos anos. Assim como qualquer outra ferramenta de segurança, as ferramentas baseadas em IA precisam se provar em condições reais, com transparência, auditabilidade e resiliência contra ameaças emergentes, como injeção de prompt e falhas no controle de acesso.
Integração da confiança na adoção da IA
Muitas organizações enfrentam desafios de adoção ao implantar novas ferramentas de IA. Isso provavelmente se deve ao fato de que quase metade (46%) dos funcionários considera a IA uma ameaça a seus empregos, de acordo com um relatório do BCG. Certamente não ajuda o fato de o setor de IA continuar a alardear o potencial de suas ferramentas para redefinir o trabalho como o conhecemos. Os funcionários têm preocupações legítimas. Cabe aos líderes de TI e de segurança lidar com elas por meio de estratégias de adoção cuidadosamente planejadas.
História de sucesso de IA: MinterEllison
Um exemplo frequentemente citado é o da MinterEllison, que introduziu um programa estruturado de alfabetização em IA para apoiar a adoção. A empresa alocou tempo dedicado ao aprendizado, alinhou o treinamento com as metas de desempenho e nomeou campeões digitais internos para orientar os colegas por meio de casos de uso práticos.
Os resultados relatados incluíram um aumento significativo no uso semanal da IA e um envolvimento sustentado em todos os departamentos. A principal conclusão não são os números de uso em si, mas a estrutura: a confiança aumentou porque a educação, a alocação de tempo e o reforço dos colegas foram deliberadamente projetados na implementação.
Educação, transparência e comunicação
A necessidade de educação estruturada só tende a crescer. Em seu relatório "Predicts 2025: AI and the Future of Work", o Gartner afirma que, até 2028, 40% dos funcionários serão treinados ou orientados por IA ao ingressar em uma nova função, contra menos de 5% atualmente. Se os funcionários esperam que a IA os oriente desde o primeiro dia, as empresas não podem se dar ao luxo de deixar a alfabetização ao acaso.
A comunicação clara também é importante. Seja franco e realista sobre o que as ferramentas de IA podem e não podem fazer. Mostre à equipe o quanto sua supervisão humana é importante. E não diga apenas "confie na ferramenta". Em vez disso, ensine-os e incentive-os a questionar e interpretar os resultados. Quando os funcionários sabem que seu julgamento ainda é valorizado, a IA parece menos uma ameaça e mais um apoio.
Escolha de ferramentas de segurança de IA nas quais vale a pena confiar
O outro lado da equação é se os líderes de TI e segurança podem confiar que os sistemas de IA funcionam de forma confiável e segura. Aqui também, os riscos são reais. As previsões do setor indicam que as vulnerabilidades do controle de acesso — incluindo riscos de injeção imediata e escalonamento de privilégios — provavelmente se tornarão os principais vetores de ataque para sistemas habilitados para IA nos próximos anos. À medida que os agentes de IA ganham autonomia operacional, as lacunas de governança se tornam lacunas de segurança.
Paralelamente, as organizações devem gerenciar desvios de precisão, exposição a vieses e custos crescentes da nuvem. A segurança da IA baseada na confiança depende, portanto, não apenas da defesa contra ameaças, mas também da validação contínua, do monitoramento e da governança de custos.
Esses desafios explicam por que a segurança cibernética continua sendo uma das três principais prioridades dos CIOs dos setores bancário, de seguros e de varejo. Mas a boa notícia é que já estão surgindo exemplos de implementações confiáveis de IA, como mostram abaixo os estudos de caso do Gartner.
O Citizens Bank, por exemplo, implementou um agente orquestrador cuidadosamente selecionado para gerenciar tarefas de back-office com segurança dentro de fluxos de trabalho controlados. No setor de seguros, uma empresa holandesa está usando a IA para processar automaticamente sinistros automobilísticos simples e encaminhar casos complexos para avaliadores humanos. Ambos os exemplos nos ensinam a mesma lição: os líderes podem confiar na IA quando ela é bem adequada ao caso de uso e tem controles claros, e quando os humanos são responsáveis pelas decisões de alto risco.
Perspectivas do setor
O desafio da confiança é um pouco diferente de um setor para o outro:
- Serviços bancários: A confiança é inseparável do compliance. Os líderes precisam de sistemas de IA que possam reduzir os falsos positivos na detecção de fraudes e manter trilhas de auditoria que os reguladores possam seguir sem questionamentos.
- Seguros: O viés nas decisões de subscrição ou sinistros não é apenas um problema ético, é um risco regulatório e de reputação. As verificações de viés e as ferramentas de explicação são essenciais.
- Fabricação: A segurança não é negociável. Os gerentes de fábrica não confiarão nas previsões de IA sobre falhas de equipamentos, a menos que saibam quando e como a análise humana se aplica.
- Varejo: Com a alta rotatividade de pessoal, a IA invisível é o grande risco. Os varejistas devem levar a alfabetização em IA tão a sério quanto a alfabetização em dados para manter a adoção segura e produtiva.
Tornar a confiança escalável
Então, como os líderes tornam a confiança escalável ao lançar projetos de segurança de IA? Alguns padrões se destacam em todos os setores:
- Primeiro, a alfabetização em IA. Os funcionários não adotarão o que não entendem. Programas como o da MinterEllison comprovam que o treinamento estruturado compensa a adoção e o uso seguro.
- Regras claras de supervisão. Defina quando os humanos devem intervir e certifique-se de que todos saibam disso. Isso evita tanto o excesso de confiança na IA quanto a desconfiança em seus resultados.
- Auditabilidade. Toda ação apoiada por IA deve deixar um rastro que possa resistir ao escrutínio regulatório e do cliente.
- Governança de custos e riscos. Monitore os gastos com a nuvem, o desvio de precisão e o controle de acesso com a mesma atenção com que monitora os controles financeiros.
- Mudança de cultura. A IA, sem dúvida, transformará a cultura do local de trabalho nos próximos anos. Os CIOs, CISOs e CHROs desempenham um papel importante para tornar a IA confiável em escala.
A confiança na segurança da IA não surge automaticamente. Ela deve ser projetada.
As organizações que crescem com sucesso concentram-se em cinco pilares: alfabetização, clareza na supervisão, auditabilidade, monitoramento contínuo de riscos e governança multifuncional. Quando essas bases estão estabelecidas, a IA torna-se um multiplicador de força para a segurança cibernética, em vez de uma nova camada de exposição.
Os líderes que abordam tanto a dimensão humana quanto a técnica da confiança não apenas implementarão a IA com segurança, mas também fortalecerão a resiliência, acelerarão a inovação responsável e construirão uma confiança duradoura em sua estratégia digital.