Uso indebido de la IA: Los ciberdelincuentes utilizan la IA generativa como arma 

Anthropic, la firma detrás de Claude AI, reveló que impidió que los ciberataques que utilizaban su plataforma de IA generativa tuvieran éxito. "Los hackers intentaron abusar de la herramienta Claude AI para redactar contenido de phishing, elaborar malware, eludir los filtros de seguridad e incluso coordinar campañas de influencia." 

Esta advertencia coincide con lo que muchos expertos en ciberseguridad llaman ahora una "carrera armamentística entre la IA buena (defensiva) y la IA mala (ofensiva)". En otras palabras, mientras los delincuentes buscan explotar las herramientas de IA, las empresas están invirtiendo fuertemente en defensas impulsadas por IA como la detección de amenazas, la respuesta automatizada a incidentes, los marcos de confianza cero y la detección de anomalías, según el Foro Económico Mundial. 

Qué está pasando y por qué es importante 

El uso indebido de la IA es mucho más que hipotético, ya está ocurriendo. Los ciberdelincuentes no solo planean ataques, sino que utilizan la IA para orquestarlos. 

  • Los piratas informáticos intentaron utilizar a Claude para escribir correos electrónicos de phishing, crear código malicioso y burlar los filtros de seguridad, e incluso intentaron guionizar campañas de influencia y guiar a hackers inexpertos con instrucciones paso a paso.  
  • Otro informe acuñó un nuevo término: "vibe-hacking". La IA redacta ahora mensajes de extorsión tan perfectamente dirigidos que su éxito está casi garantizado. Los delincuentes se dirigieron al menos a 17 organizaciones internacionales, incluidas entidades sanitarias, religiosas, de servicios de emergencia y gubernamentales, con peticiones de rescate superiores a 500.000 libras esterlinas (576.880 euros). 
  • En un caso especialmente escalofriante, un atacante utilizó a Claude para automatizar casi todo el proceso: identificar a las víctimas, generar malware, analizar los datos robados, calcular los importes de los rescates y redactar los correos electrónicos de extorsión. "Creemos que se trata de un grado sin precedentes" de ciberdelincuencia asistida por IA, admite Anthropic. 

En conjunto, estos ejemplos ponen de relieve la creciente facilidad con la que incluso actores poco cualificados pueden montar ciberataques complejos y dañinos, todo ello gracias al uso indebido de la IA.

La amenaza que no puedes ignorar 

Todo esto forma parte de un cambio global más amplio. El panorama de la ciberseguridad se define ahora por una nueva realidad en la que los atacantes están ampliando sus operaciones, utilizando IA generativa para crear campañas de phishing, deepfakes, malware y fraude de identidad muy realistas. Estas amenazas ya no se limitan a autores sofisticados, sino que son cada vez más accesibles a actores poco cualificados. Al mismo tiempo, las amenazas internas se están volviendo más peligrosas, ya que el 64 % de los profesionales de la ciberseguridad en Europa consideran que las personas internas malintencionadas o negligentes, incluidas las que podrían hacer un uso indebido de la IA, son más preocupantes que los atacantes externos.  

En el aspecto defensivo, las organizaciones están respondiendo invirtiendo en detección de amenazas potenciada por IA, análisis de comportamientos, respuesta automatizada a incidentes y marcos de confianza cero, una señal inequívoca de que la carrera armamentística defensiva de la IA está en marcha. Todo esto se desarrolla en un contexto de creciente escrutinio normativo, desde la Ley de Inteligencia Artificial de la Unión Europea hasta la evolución de las directrices en Estados Unidos, lo que plantea a las empresas de todo el mundo no solo un reto técnico, sino también de cumplimiento normativo. 

Cómo puede ayudar Getronics 

El reto para la mayoría de las organizaciones no es simplemente comprender que existen amenazas impulsadas por la IA, sino saber cómo responder con eficacia. Aquí es donde una empresa de servicios informáticos con experiencia, como Getronics, resulta esencial. Al reunir experiencia tanto en ciberseguridad tradicional como en tecnologías avanzadas de IA, podemos ayudar a los clientes a adelantarse a los riesgos cambiantes. Pueden implementar defensas modernas como la detección de amenazas basada en IA, plataformas de detección de anomalías, respuesta automatizada ante incidentes y sólidas arquitecturas de confianza cero, lo que garantiza que las empresas no reaccionen a los incidentes a posteriori, sino que refuercen su postura de seguridad de forma proactiva. 

Getronics también puede actuar como traductor del riesgo, convirtiendo amenazas cibernéticas muy técnicas en orientaciones prácticas sobre las que puedan actuar los ejecutivos y los consejos de administración. Mediante el uso de ejemplos reales, como la forma en que los atacantes han convertido Claude en un arma para automatizar la suplantación de identidad y la creación de malware, los proveedores pueden hacer tangible la urgencia y ayudar a las organizaciones a justificar las inversiones adecuadas. 

Más allá de las amenazas externas, el riesgo interno se ha convertido en una preocupación creciente. En este caso, los proveedores pueden integrar análisis de comportamiento y supervisión de la actividad de usuarios y entidades para ayudar a los clientes a detectar patrones inusuales en una fase temprana, mitigando los riesgos antes de que se agraven. Y lo que es más importante, las empresas de servicios informáticos pueden generar confianza desplegando herramientas de IA explicables que garanticen que la toma de decisiones es transparente y auditable, permitiendo a los clientes confiar no solo en sus defensas, sino también en la integridad de los propios sistemas. 

Por último, la regulación es un área en la que muchas organizaciones tienen dificultades. Con la aparición de marcos como la Ley de IA de la UE y la evolución de las expectativas normativas en el Reino Unido y Estados Unidos, los proveedores de servicios de TI están en una posición única para guiar a las empresas a través del cumplimiento, ayudándolas a mantenerse seguras y alineadas con los requisitos de gobernanza.  

En resumen, el papel de Getronics es dar a tu organización la confianza de que tus defensas son sólidas, tus riesgos están gestionados y está preparada para la próxima oleada de amenazas impulsadas por la IA. 

Preguntas frecuentes

¿A qué se refiere el "uso indebido de la IA"?
Por uso indebido de la IA se entiende la utilización de herramientas de inteligencia artificial con fines dañinos o malintencionados, por ejemplo, para crear correos electrónicos de phishing, generar malware, eludir filtros de seguridad, llevar a cabo campañas de influencia o automatizar ciberataques a gran escala.

¿Cómo están armando los ciberdelincuentes la IA generativa?
Están utilizando la IA generativa para:

  • redactar contenidos de phishing creíbles,
  • escribir código malicioso,
  • automatizar las operaciones de influencia,
  • realizar "vibe-hacking" (extorsión a medida), y
  • coordinar ataques complejos desde la identificación de la víctima hasta la petición del rescate.

¿Por qué el uso indebido de la IA es una amenaza creciente para las empresas?
Porque las barreras de entrada se están reduciendo, los actores poco cualificados pueden ahora desplegar ataques sofisticados gracias a la ayuda de la IA. Además, las amenazas internas son cada vez más peligrosas y el escrutinio normativo va en aumento.