13/11/2025
O surgimento da IA generativa não apenas transformou a criação de conteúdo, o desenvolvimento de software e o envolvimento do cliente, mas também mudou irreversivelmente a dinâmica dos riscos de segurança da IA. Nas salas de reuniões em toda a Europa e além, os líderes de segurança e tecnologia estão fazendo uma pergunta simples, mas urgente: Ainda estamos no controle? A resposta, cada vez mais, é não.
Em 2024, um funcionário do setor financeiro de uma empresa multinacional autorizou um pagamento de US$ 25 milhões depois de receber o que parecia ser uma chamada de vídeo do CEO. A voz, o rosto e o contexto pareciam autênticos, mas não eram. Era um deepfake: Uma personificação sintética, gerada por IA, indistinguível da realidade. Esse incidente não foi isolado e representou a aceleração de uma tendência mais ampla: O crime cibernético habilitado por IA está se expandindo mais rapidamente do que as defesas convencionais podem responder.
A IA não é apenas mais um vetor de ataque. É um multiplicador de forças, que está reduzindo a barreira de entrada para os agentes de ameaças e aumentando a sofisticação, o volume e a taxa de sucesso das campanhas mal-intencionadas. Em resposta, as estratégias de segurança devem mudar exponencialmente.
IA generativa nas mãos dos invasores
Embora a IA tenha um enorme potencial de inovação e eficiência, sua adoção por agentes mal-intencionados tem sido igualmente rápida. Somente nos últimos dois anos, a IBM X-Force relatou um aumento de 1000% nos volumes de phishing em todo o mundo, com grande parte desse crescimento atribuído ao conteúdo gerado por IA. Os invasores não precisam mais de habilidades linguísticas, experiência em engenharia social ou mesmo acesso a kits caros de desenvolvimento de malware. Um único modelo generativo pode agora compor milhares de mensagens de phishing personalizadas, completas com o idioma interno da empresa, em segundos.
Em muitos casos, essas mensagens não são apenas linguisticamente perfeitas, mas também contextualmente inteligentes. Elas imitam o tom dos executivos seniores, fazem referência a reuniões recentes e direcionam os indivíduos com base em sua função, região ou nível de acesso. O resultado: um aumento drástico nas taxas de sucesso e um declínio significativo na detecção do usuário.
Mas o phishing é apenas o começo. As tecnologias de clonagem de voz agora são usadas para criar imitações de áudio sintético de executivos. Vídeos deepfake estão sendo implantados em tempo real para validar transações fraudulentas ou influenciar decisões em nível de diretoria. O malware gerado por IA é escrito, testado e reimplantado em minutos, com variações de código projetadas para evitar a detecção baseada em assinatura. Em resumo, o crime cibernético se industrializou.
Amplificação de IA
No centro dessa transformação está o conceito de "amplificação da IA" - o efeito de combinação da aplicação da inteligência artificial às atividades de ameaças cibernéticas e a amplificação dos riscos de segurança da IA. O que antes levava semanas para ser preparado por uma equipe de operadores qualificados agora pode ser orquestrado por um único agente usando alguns comandos e um modelo pronto para uso. Tarefas como ofuscação de código, varredura de vulnerabilidades e criação de perfis de usuários estão sendo automatizadas em um grau nunca antes visto.
O que torna a amplificação da IA especialmente perigosa é sua adaptabilidade. Ao contrário dos ataques com script, as ameaças geradas por IA podem evoluir durante a execução, expandindo ainda mais o cenário dos riscos de segurança da IA. Por exemplo, uma campanha de phishing baseada em IA pode melhorar continuamente com base nos padrões de interação do usuário. Alguns malwares agora adaptam suas ações com base no dispositivo que infectam, monitorando as condições do sistema, as ferramentas de segurança instaladas ou o comportamento do usuário para decidir quando e como executar. Até mesmo vozes falsas podem alterar o tom no meio de uma conversa para imitar o estresse ou a urgência.

Por que as defesas estão ficando para trás
Apesar da crescente conscientização, muitas empresas continuam mal equipadas para combater essa mudança. Há quatro motivos para isso:
- Primeiro, a maioria dos sistemas de detecção não foi projetada para identificar ameaças geradas por IA. As ferramentas baseadas em assinaturas, embora ainda úteis, não conseguem sinalizar malware polimórfico ou mensagens de phishing de autoria sintética que se desviam de modelos conhecidos. Até mesmo a análise comportamental avançada tem dificuldade para identificar deepfakes entregues por meio de plataformas de colaboração legítimas.
- Em segundo lugar, os centros de operações de segurança (SOCs) estão sobrecarregados. O volume de alertas, muitos deles falsos positivos, consome o valioso tempo dos analistas. Quando surgem ameaças genuínas, principalmente as novas ou de baixa frequência, elas geralmente são enterradas. E, embora a IA possa ajudar a reduzir essa carga, apenas uma minoria de SOCs integra atualmente a análise orientada por IA em escala.
- Terceiro, a lacuna de talentos está aumentando. As organizações enfrentam uma escassez persistente de pessoal de segurança cibernética, sendo que os conhecimentos específicos de IA são particularmente escassos. De acordo com dados recentes, mais de 50% dos CISOs dizem que suas equipes não têm as habilidades necessárias para identificar ou mitigar ameaças habilitadas para IA. Além disso, a integração da nova geração na força de trabalho aumentará a ameaça de riscos gerados por humanos. Por exemplo, entre os funcionários dos Estados Unidos, apenas 31% da Geração Z relataram se sentir confiantes em reconhecer tentativas de phishing, enquanto 72% admitiram ter aberto pelo menos um link no trabalho que parecia suspeito - mais do que qualquer geração mais velha.
- Por fim, a inércia estrutural é um fator. Os investimentos em segurança geralmente priorizam a conformidade regulamentar em detrimento da adaptabilidade às ameaças. As estruturas são auditadas anualmente; os atacantes fazem iterações diariamente.
O resultado é uma desvantagem estratégica. Enquanto as empresas se adaptam de forma incremental, os atacantes evoluem continuamente.
Três cenários de ameaças que as organizações enfrentam atualmente
1. Phishing orientado por IA em escala
Em vários setores, as campanhas de phishing mudaram de e-mails brutos e genéricos para iscas com engenharia de precisão. Modelos de IA treinados com base em dados internos - de violações anteriores, comunicados à imprensa e biografias de executivos - criam mensagens que contornam tanto os filtros técnicos quanto o ceticismo humano. Em muitos incidentes, os funcionários não agiram por descuido, mas porque as mensagens eram simplesmente muito convincentes.
- Os e-mails imitam perfeitamente a linguagem e a formatação da empresa.
- As linhas de assunto e o tempo são adaptados aos eventos internos.
- Agora, a personalização vai além dos nomes e inclui cargos e histórico de reuniões.
2. Fraude habilitada por Deepfake
Os ataques de falsificação de identidade usando deepfakes estão se tornando mais comuns. Os alvos geralmente são profissionais de finanças ou de RH, solicitados a agir com urgência no que parece ser um vídeo ao vivo ou uma mensagem de voz de um executivo. A pressão psicológica, combinada com pistas visuais ou auditivas, geralmente leva ao compliance. O sucesso desses ataques não se deve ao brilhantismo tecnológico, mas à confiança que os usuários depositam em formatos familiares, como chamadas de vídeo, notas de voz ou canais internos.
- As chamadas de voz deepfake em tempo real são cada vez mais direcionadas aos aplicativos de mensagens móveis.
- Os deepfakes de áudio estão sendo usados para contornar os sistemas de verificação de voz.
- Os invasores geralmente combinam deepfakes com contexto de e-mail ou bate-papo para criar legitimidade.
Uma ameaça semelhante envolve o uso de IA para gerar personas digitais totalmente sintéticas, completas com rastros de e-mail falsos, perfis do LinkedIn e até mesmo impressões de voz. Elas são usadas para se infiltrar em organizações, acessar sistemas restritos ou criar credibilidade ao longo do tempo nos ecossistemas da cadeia de suprimentos. Essa ameaça é particularmente relevante para organizações com integração distribuída, políticas de acesso remoto ou portais de cadeia de suprimentos de terceiros.
- Os agentes de ameaças criam "funcionários fantasmas" para se registrar em portais de fornecedores ou solicitar acesso.
- Identidades sintéticas foram detectadas iniciando golpes B2B por meio de equipes de compras.
- Imagens e currículos gerados por IA são usados para se candidatar a cargos remotos em funções sensíveis.
3. Malware generativo e cargas úteis evasivas
O malware gerado por IA já está sendo observado na natureza. Essas cargas úteis não são apenas criadas rapidamente, elas são projetadas para sofrer mutações. Algumas podem se testar em ferramentas de segurança e adaptar suas assinaturas em tempo real. Outros incluem lógica integrada para detectar se estão sendo executados em uma sandbox, atrasando a execução até que as condições sejam "seguras". Para as ferramentas tradicionais de antivírus ou EDR, essas ameaças representam um desafio significativo.
- A ofuscação de malware agora é gerada dinamicamente e constantemente atualizada.
- Algumas cepas usam IA para evitar seletivamente a detecção apenas em ambientes monitorados.
- Ferramentas de IA ofensivas, como o WormGPT, estão diminuindo a barreira para escrever códigos evasivos.

Como as organizações podem responder aos riscos de segurança da IA
Lidar com threads em escala de IA como esses exige uma mudança total de mentalidade. Você não está mais apenas contendo ameaças, mas agindo proativamente para antecipá-las. Considere:
- Detecção moderna de ameaças com IA incorporada: as plataformas de segurança que usam aprendizado de máquina e análise comportamental podem detectar anomalias sutis, como o login de um executivo em um horário incomum ou o upload de volumes inesperados de dados por um dispositivo. Essas ferramentas não são uma bala de prata, mas são uma base necessária para operar em velocidade e escala. No futuro, os agentes de IA e os seres humanos trabalharão em conjunto para dar suporte à variedade de ataques futuros.
- Resiliência por meio da conscientização: Os usuários humanos continuam sendo uma vulnerabilidade e um ponto forte. Os programas de conscientização atualizados agora devem incluir treinamento em mídia sintética, detecção de deepfake e engenharia social alimentada por IA. O objetivo não é instilar a paranoia, mas o pensamento crítico: Confie, mas verifique, especialmente quando a solicitação vier de uma voz ou rosto familiar.
- Confiança zero como padrão: As estruturas Zero Trust, há muito discutidas, agora são essenciais. A verificação contínua de usuários, dispositivos e fluxos de dados evita que os invasores se movimentem lateralmente uma vez dentro do perímetro. A autenticação multifatorial (MFA), o acesso condicional e a microssegmentação não devem mais ser opcionais.
- Inteligência integrada contra ameaças: Compreender os métodos dos invasores exige mais do que telemetria interna. A integração com feeds de inteligência contra ameaças em tempo real - especialmente aqueles que rastreiam ferramentas assistidas por IA e atividades na dark web - dá aos defensores o contexto para agir antes que os incidentes aumentem. As estruturas colaborativas entre os setores também desempenharão um papel crucial.
Um vislumbre de como o futuro poderia ser na prática surgiu recentemente, quando o sistema "Big Sleep" do Google, orientado por IA, impediu a exploração de uma vulnerabilidade crítica do SQLite antes que os agentes da ameaça pudessem agir. Embora essa tecnologia ainda não esteja disponível publicamente, ela ilustra a próxima evolução da defesa cibernética: sistemas de IA capazes de identificar e neutralizar ameaças de forma autônoma, muitas vezes antes que a intervenção humana seja possível. Esses desenvolvimentos destacam um futuro em que as arquiteturas proativas e de autodefesa se tornarão padrão, transformando a defesa cibernética de resposta reativa em antecipação inteligente.
O fechamento da lacuna começa agora
A corrida armamentista da segurança cibernética entrou em uma nova fase. A IA mudou o equilíbrio de poder para o invasor, introduzindo uma nova era de riscos de segurança de IA, mas essa mudança não é permanente. As empresas que agirem agora, adotando a detecção moderna, aumentando a conscientização da força de trabalho e envolvendo parceiros estratégicos, podem recuperar a iniciativa.
A janela para adaptação é estreita. Mas a oportunidade é clara.
Na Getronics, já estamos trabalhando com organizações nas áreas de finanças, saúde, manufatura e governo para criar defesas prontas para IA. Convidamos você a se juntar a elas.
Entre em contato conosco ou faça o download do nosso whitepaper executivo para saber como a sua organização pode transformar a defesa em vantagem.
Vamos reunir automação com automação e vencer juntos.




