Uso indevido de IA: Criminosos cibernéticos usam a IA generativa como arma 

A Anthropic, empresa por trás da Claude AI, revelou que impediu o sucesso de ataques cibernéticos usando sua plataforma de IA generativa . "Os hackers tentaram abusar da ferramenta Claude AI para elaborar conteúdo de phishing, criar malware, contornar filtros de segurança e até mesmo coordenar campanhas de influência." 

Esse aviso está alinhado com o que muitos especialistas em segurança cibernética estão chamando de "corrida armamentista entre a IA boa (defensiva) e a IA ruim (ofensiva)". Em outras palavras, à medida que os criminosos procuram explorar as ferramentas de IA, as empresas estão investindo pesadamente em defesas baseadas em IA, como detecção de ameaças, resposta automatizada a incidentes, estruturas de confiança zero e detecção de anomalias, de acordo com o Fórum Econômico Mundial. 

O que está acontecendo e por que é importante 

O uso indevido da IA é muito mais do que hipotético, está acontecendo agora. Os criminosos cibernéticos não estão apenas planejando ataques; eles estão usando a IA para orquestrá-los. 

  • Os hackers tentaram usar o Claude para escrever e-mails de phishing, criar códigos maliciosos e burlar filtros de segurança, tentando até mesmo criar scripts de campanhas de influência e orientar hackers inexperientes com instruções passo a passo.  
  • Outro relatório criou um novo termo: "vibe-hacking". A IA agora escreve mensagens de extorsão tão perfeitamente direcionadas que o sucesso é quase garantido. Os criminosos atacaram pelo menos 17 organizações globais, incluindo instituições de saúde, religiosas, serviços de emergência e entidades governamentais, com pedidos de resgate superiores a £500.000 (€576.880) 
  • Em um caso particularmente assustador, um invasor usou o Claude para automatizar quase todo o processo: identificar vítimas, gerar malware, analisar dados roubados, calcular valores de resgate e redigir e-mails de extorsão. Acreditamos que esse é um grau sem precedentes" de crime cibernético assistido por IA, admite a Anthropic. 

Em conjunto, esses exemplos destacam a facilidade crescente com que até mesmo agentes pouco qualificados podem montar ataques cibernéticos complexos e prejudiciais, tudo graças ao uso indevido da IA.

A ameaça que você não pode ignorar 

Tudo isso faz parte de uma mudança global maior. O cenário da segurança cibernética agora é definido por uma nova realidade na qual os invasores estão ampliando suas operações, usando IA generativa para criar campanhas de phishing altamente realistas, deepfakes, malware e fraude de identidade. Essas ameaças não estão mais limitadas a criminosos sofisticados, mas estão cada vez mais acessíveis a agentes pouco qualificados. Ao mesmo tempo, as ameaças internas estão se tornando mais perigosas, sendo que 64% dos profissionais de segurança cibernética na Europa agora classificam pessoas internas mal-intencionadas ou negligentes, incluindo aquelas que podem usar indevidamente a IA, como uma preocupação maior do que os invasores externos.  

No lado defensivo, as organizações estão respondendo investindo em detecção de ameaças com tecnologia de IA, análise comportamental, resposta automatizada a incidentes e estruturas de confiança zero, um sinal inequívoco de que a corrida armamentista de IA defensiva está bem encaminhada. Tudo isso está se desenrolando em um cenário de crescente escrutínio regulatório, desde a Lei de IA da União Europeia até a evolução das orientações nos Estados Unidos, criando não apenas um desafio técnico, mas também de compliance para as empresas em todo o mundo. 

Como a Getronics pode ajudar 

O desafio para a maioria das organizações não é simplesmente entender que existem ameaças orientadas por IA, mas saber como responder de forma eficaz. É nesse ponto que uma empresa de serviços de TI experiente, como a Getronics, torna-se essencial. Ao reunir conhecimentos especializados em segurança cibernética tradicional e tecnologias avançadas de IA, podemos ajudar os clientes a se manterem à frente dos riscos em evolução. Eles podem implementar defesas modernas, como detecção de ameaças com IA, plataformas de detecção de anomalias, resposta automatizada a incidentes e arquiteturas robustas de confiança zero, garantindo que as empresas não estejam reagindo a incidentes após o fato, mas fortalecendo proativamente sua postura de segurança. 

A Getronics também pode atuar como tradutora de riscos, transformando ameaças cibernéticas altamente técnicas em orientações práticas que os executivos e as diretorias possam seguir. Ao usar exemplos do mundo real, como a forma como os invasores transformaram o Claude em uma arma para automatizar a criação de phishing e malware, os provedores podem tornar a urgência tangível e ajudar as organizações a justificar os investimentos certos. 

Além das ameaças externas, o risco interno tornou-se uma preocupação crescente. Nesse caso, os provedores podem integrar a análise comportamental e o monitoramento da atividade do usuário-entidade para ajudar os clientes a identificar padrões incomuns com antecedência, mitigando os riscos antes que eles aumentem. Crucialmente, as empresas de serviços de TI podem criar confiança implantando ferramentas de IA explicáveis que garantam que a tomada de decisões seja transparente e auditável, permitindo que os clientes tenham confiança não apenas em suas defesas, mas também na integridade dos próprios sistemas. 

Por fim, navegar pela regulamentação é uma área em que muitas organizações têm dificuldades. Com o surgimento de estruturas como a Lei de IA da UE e a evolução das expectativas regulatórias no Reino Unido e nos EUA, os provedores de serviços de TI estão em uma posição única para orientar as empresas em relação à conformidade, ajudando-as a se manterem seguras e alinhadas com os requisitos de governança.  

Em resumo, a função da Getronics é dar à sua organização a confiança de que suas defesas são fortes, seus riscos são gerenciados e que você está pronto para a próxima onda de ameaças orientadas por IA. 

Perguntas frequentes (FAQ)

A que se refere o "uso indevido de IA"?
Uso indevido de IA significa usar ferramentas de inteligência artificial para fins prejudiciais ou mal-intencionados, por exemplo, para criar e-mails de phishing, gerar malware, contornar filtros de segurança, realizar campanhas de influência ou automatizar ataques cibernéticos em grande escala.

Como os criminosos cibernéticos estão usando a IA generativa como arma?
Eles estão usando a IA generativa para:

  • elaborar conteúdo de phishing confiável,
  • escrever código malicioso,
  • automatizar operações de influência,
  • realizar "vibe-hacking" (extorsão sob medida), e
  • coordenar ataques complexos, desde a identificação da vítima até os pedidos de resgate.

Por que o uso indevido da IA é uma ameaça cada vez maior para as empresas?
Como as barreiras de entrada estão diminuindo, atores pouco qualificados agora podem implementar ataques sofisticados graças à assistência da IA. Além disso, as ameaças internas estão se tornando mais perigosas e o escrutínio regulatório está aumentando.