01/09/2025
Las recientes revelaciones de los desarrolladores de IA ponen de relieve una tendencia creciente: los actores maliciosos están intentando hacer un uso indebido de las plataformas de IA generativa para redactar contenido de phishing, generar código malicioso y eludir los controles de seguridad.
Estos avances reflejan una dinámica más amplia dentro de la ciberseguridad. A medida que los atacantes experimentan con tácticas basadas en la inteligencia artificial, las organizaciones están acelerando la inversión en capacidades defensivas impulsadas por la inteligencia artificial, incluyendo el análisis del comportamiento, la respuesta automatizada a incidentes y las arquitecturas de confianza cero. El resultado es un panorama en evolución en el que las capacidades ofensivas y defensivas de la inteligencia artificial avanzan en paralelo.
Qué está pasando y por qué es importante
El uso indebido de la IA es mucho más que una hipótesis, es algo que está ocurriendo ahora mismo. Los ciberdelincuentes no solo están planeando ataques, sino que están utilizando la IA para organizarlos.
Los informes sobre amenazas indican varios patrones emergentes:
- La IA generativa se está utilizando para crear campañas de phishing muy convincentes, con una calidad lingüística mejorada y una orientación contextual.
- Se están probando grandes modelos lingüísticos para generar o perfeccionar scripts maliciosos y automatizar elementos de ingeniería social.
- Los flujos de trabajo asistidos por IA pueden agilizar la preparación de los ataques, desde el reconocimiento y la elaboración de perfiles de las víctimas hasta la redacción de comunicaciones de extorsión.
Aunque la mayoría de las plataformas de IA convencionales implementan medidas de seguridad, la disponibilidad de modelos de código abierto y sistemas modificados reduce las barreras para su uso indebido. Esto aumenta el riesgo de que incluso actores con conocimientos moderados puedan desplegar tácticas que antes requerían conocimientos especializados.
En conjunto, estos ejemplos ponen de relieve la creciente facilidad con la que incluso actores poco cualificados pueden montar ciberataques complejos y dañinos, todo ello gracias al uso indebido de la IA.
La amenaza que no puedes ignorar
Todo esto forma parte de un cambio global más amplio. El panorama de la ciberseguridad se define ahora por una nueva realidad en la que los atacantes están ampliando sus operaciones, utilizando la IA generativa para crear campañas de phishing, deepfakes, malware y fraudes de identidad muy realistas. Estas amenazas ya no se limitan a los delincuentes sofisticados, sino que son cada vez más accesibles para los actores poco cualificados. El panorama general de la ciberseguridad está cambiando. La IA generativa permite a los atacantes ampliar sus operaciones, personalizar el engaño y automatizar aspectos del desarrollo de malware y la ingeniería social. Técnicas como la clonación de voz deepfake, la creación de identidades sintéticas y el phishing generado por IA son cada vez más accesibles.
Al mismo tiempo, el riesgo interno sigue siendo una preocupación constante. La disponibilidad de potentes herramientas de IA aumenta la probabilidad de uso indebido accidental, eludir las políticas o la adopción paralela dentro de las organizaciones.
Las respuestas defensivas están evolucionando en consecuencia. Las organizaciones están implementando sistemas de detección de anomalías basados en inteligencia artificial, análisis del comportamiento de usuarios y entidades (UEBA), coordinación de respuestas automatizadas y arquitecturas de confianza cero. Estas medidas tienen como objetivo detectar desviaciones sutiles en el comportamiento, en lugar de basarse únicamente en la detección basada en firmas.
Los marcos normativos —incluida la Ley de IA de la UE y las normas de ciberseguridad específicas de cada sector— añaden otra capa de complejidad, ya que exigen a las organizaciones encontrar un equilibrio entre la innovación y la gobernanza y la rendición de cuentas.
En el ámbito defensivo, las organizaciones están respondiendo invirtiendo en detección de amenazas basada en IA, análisis de comportamiento, respuesta automatizada a incidentes y marcos de confianza cero, una señal inequívoca de que la carrera armamentística defensiva en materia de IA está en pleno apogeo. Todo ello se desarrolla en un contexto de creciente escrutinio normativo, desde la Ley de IA de la Unión Europea hasta la evolución de las directrices en Estados Unidos, lo que supone un reto no solo técnico, sino también de cumplimiento normativo para las empresas de todo el mundo.
Cómo deben responder las organizaciones
Comprender las amenazas relacionadas con la inteligencia artificial es solo el primer paso. Una respuesta eficaz requiere un enfoque estructurado que combine tecnología, gobernanza y concienciación de los trabajadores.
Las organizaciones deben dar prioridad a:
- Supervisión continua basada en análisis de comportamiento en lugar de reglas estáticas.
- Gobernanza clara sobre el uso de la IA, incluidas políticas que aborden la experimentación interna y la IA oculta.
- Herramientas de seguridad transparentes y explicables que respaldan la auditabilidad y el cumplimiento normativo.
- Traducción de riesgos a nivel ejecutivo, garantizando que los consejos de administración comprendan tanto la exposición técnica como las implicaciones estratégicas.
La IA no cambia de forma fundamental los principios básicos de la ciberseguridad. Los acelera. Las organizaciones que ya operan con una gobernanza sólida, estrategias de defensa por capas y supervisión proactiva están mejor posicionadas para absorber la evolución de las amenazas impulsadas por la IA.
Preguntas frecuentes
¿A qué se refiere el "uso indebido de la IA"?
Por uso indebido de la IA se entiende la utilización de herramientas de inteligencia artificial con fines dañinos o malintencionados, por ejemplo, para crear correos electrónicos de phishing, generar malware, eludir filtros de seguridad, llevar a cabo campañas de influencia o automatizar ciberataques a gran escala.
¿Cómo están armando los ciberdelincuentes la IA generativa?
Están utilizando la IA generativa para:
- redactar contenidos de phishing creíbles,
- escribir código malicioso,
- automatizar las operaciones de influencia,
- realizar "vibe-hacking" (extorsión a medida), y
- coordinar ataques complejos desde la identificación de la víctima hasta la petición del rescate.
¿Por qué el uso indebido de la IA es una amenaza creciente para las empresas?
Porque las barreras de entrada se están reduciendo, los actores poco cualificados pueden ahora desplegar ataques sofisticados gracias a la ayuda de la IA. Además, las amenazas internas son cada vez más peligrosas y el escrutinio normativo va en aumento.




