13/11/2025
La aparición de la IA generativa no solo ha transformado la creación de contenidos, el desarrollo de software y la captación de clientes, sino que también ha cambiado irreversiblemente la dinámica de los riesgos de seguridad de la IA. En las salas de juntas de toda Europa y fuera de ella, los responsables de seguridad y tecnología se plantean una pregunta sencilla pero urgente: ¿Todavía tenemos el control? La respuesta, cada vez más, es no.
En 2024, un empleado del equipo financiero de una empresa multinacional autorizó un pago de 25 millones de dólares tras recibir lo que parecía ser una videollamada de su director general. La voz, la cara y el contexto parecían auténticos, pero no lo eran. Era una deepfake: una suplantación sintética, generada por IA, indistinguible de la realidad. Este incidente no fue aislado y representó la aceleración de una tendencia más amplia: la ciberdelincuencia basada en IA crece más rápido de lo que pueden responder las defensas convencionales.
La IA no es sólo otro vector de ataque. Es un multiplicador de fuerza, que está reduciendo la barrera de entrada para los atacantes y aumentando la sofisticación, el volumen y la tasa de éxito de los incidentes maliciosos. En respuesta, las estrategias de seguridad deben cambiar exponencialmente.
La IA generativa en manos de los atacantes
Si bien la IA encierra un enorme potencial de innovación y eficiencia, su adopción por parte de atacantes ha sido igualmente rápida. Solo en los dos últimos años, IBM X-Force ha informado de un aumento del 1000% en los volúmenes de phishing en todo el mundo, y gran parte de ese crecimiento se atribuye al contenido generado por IA. Los atacantes ya no necesitan conocimientos lingüísticos, experiencia en ingeniería social o incluso acceso a costosos kits de desarrollo de malware. Un único modelo generativo puede componer miles de mensajes de phishing personalizados, con el lenguaje interno de la empresa, en cuestión de segundos.
En muchos casos, estos mensajes no sólo son lingüísticamente impecables, sino también contextualmente inteligentes. Imitan el tono de los altos ejecutivos, hacen referencia a reuniones recientes y se dirigen a las personas en función de su cargo, región o nivel de acceso. El resultado: un aumento espectacular de las tasas de éxito y una disminución significativa de la detección por parte de los usuarios.
Pero el phishing es sólo el principio. Las tecnologías de clonación de voz se utilizan ahora para crear imitaciones de audio sintéticas de directivos. Los vídeos de imitación profunda se utilizan en tiempo real para validar transacciones fraudulentas o influir en las decisiones de los consejos de administración. El malware generado por IA se escribe, se prueba y se vuelve a desplegar en cuestión de minutos, con variaciones de código diseñadas para evadir la detección basada en firmas. En resumen, la ciberdelincuencia se ha industrializado.
Amplificación de IA
En el centro de esta transformación se encuentra el concepto de "amplificación de la IA": el efecto combinado de aplicar la inteligencia artificial a las actividades de ciberamenazas y amplificar los riesgos de seguridad de la IA. Lo que antes requería semanas de preparación por parte de un equipo de operadores cualificados, ahora puede ser orquestado por un único actor con unas pocas instrucciones y un modelo estándar. Tareas como la ofuscación de código, el escaneado de vulnerabilidades y la creación de perfiles de usuario se están automatizando hasta un punto nunca visto.
Lo que hace que la amplificación de la IA sea especialmente peligrosa es su adaptabilidad. A diferencia de los ataques con guiones, las amenazas generadas por IA pueden evolucionar durante su ejecución, ampliando aún más el panorama de los riesgos de seguridad de la IA. Por ejemplo, una campaña de phishing basada en IA puede mejorar continuamente en función de los patrones de interacción del usuario. Algunos programas maliciosos adaptan ahora sus acciones en función del dispositivo que infectan, vigilando las condiciones del sistema, las herramientas de seguridad instaladas o el comportamiento del usuario para decidir cuándo y cómo ejecutarse. Incluso las voces falsas pueden alterar el tono en mitad de la conversación para imitar el estrés o la urgencia.

Por qué las defensas se están quedando atrás
A pesar de la creciente concienciación, muchas empresas siguen estando mal equipadas para contrarrestar este cambio. Esto se debe a cuatro razones:
- En primer lugar, la mayoría de los sistemas de detección no están diseñados para identificar amenazas generadas por IA. Las herramientas basadas en firmas, aunque siguen siendo útiles, no detectan el malware polimórfico ni los mensajes de phishing de autoría sintética que se desvían de las plantillas conocidas. Incluso los análisis de comportamiento avanzados tienen dificultades para detectar deepfakes enviados a través de plataformas de colaboración legítimas.
- En segundo lugar, los centros de operaciones de seguridad (SOC) están desbordados. El volumen de alertas, muchas de ellas falsos positivos, consume un valioso tiempo de los analistas. Cuando surgen amenazas reales, sobre todo nuevas o de baja frecuencia, a menudo quedan ocultas. Y aunque la IA puede ayudar a reducir esta carga, solo una minoría de los SOC integra actualmente análisis basados en IA a escala.
- En tercer lugar, la brecha de talento es cada vez mayor. Las organizaciones se enfrentan a una escasez persistente de personal de ciberseguridad, y los conocimientos específicos de IA son especialmente escasos. Según datos recientes, más del 50% de los CISO afirman que sus equipos carecen de las competencias necesarias para identificar o mitigar las amenazas habilitadas por la IA. Además, la integración de nuevas generaciones en la plantilla va a aumentar la amenaza de riesgos generados por el ser humano. Por ejemplo, entre los empleados de Estados Unidos, solo el 31% de la generación Z declaró sentirse seguros a la hora de reconocer intentos de phishing, mientras que el 72% admitió haber abierto al menos un enlace en el trabajo que parecía sospechoso, más que cualquier generación anterior.
- Por último, la inercia estructural es un factor. Las inversiones en seguridad suelen dar prioridad al cumplimiento de la normativa frente a la adaptabilidad a las amenazas. Los marcos se auditan anualmente; los atacantes iteran a diario.
El resultado es una desventaja estratégica. Mientras que las empresas se adaptan gradualmente, los atacantes evolucionan continuamente.
Tres escenarios de amenazas a los que se enfrentan ahora las organizaciones
1. Phishing basado en IA a gran escala
En múltiples sectores, las campañas de phishing han pasado de los burdos correos genéricos a señuelos diseñados con precisión. Modelos de inteligencia artificial entrenados a partir de datos internos (filtraciones anteriores, comunicados de prensa y biografías de directivos) elaboran mensajes que sortean tanto los filtros técnicos como el escepticismo humano. En muchos incidentes, los empleados no actuaron por descuido, sino porque los mensajes eran demasiado convincentes.
- Los correos electrónicos imitan a la perfección el lenguaje y el formato de la empresa.
- Las líneas de asunto y el calendario se adaptan a los acontecimientos internos.
- La personalización va ahora más allá de los nombres y abarca también las funciones laborales y el historial de reuniones.
2. Fraude impulsado por deepfakes
Los ataques de suplantación de identidad mediante deepfakes son cada vez más frecuentes. Los objetivos suelen ser profesionales de los equipos financieros o de recursos humanos, a los que se pide que actúen con urgencia ante lo que parece ser un vídeo en directo o un mensaje de voz de un directivo. La presión psicológica, combinada con pistas visuales o auditivas, a menudo conduce a la conformidad. El éxito de estos ataques no se debe a la brillantez tecnológica, sino a la confianza que los usuarios depositan en formatos familiares como las videollamadas, las notas de voz o los canales internos.
- Las llamadas de voz falsas en tiempo real se dirigen cada vez más a las aplicaciones de mensajería móvil.
- Las falsificaciones de audio se utilizan para eludir los sistemas de verificación de voz.
- Los atacantes suelen emparejar deepfakes con mensajes de correo electrónico o chats para darles legitimidad.
Una amenaza similar implica el uso de la IA para generar personas digitales totalmente sintéticas, con rastros de correo electrónico, perfiles de LinkedIn e incluso huellas de voz falsos. Estos se utilizan para infiltrarse en las organizaciones, acceder a sistemas restringidos, o construir credibilidad con el tiempo en los ecosistemas de la cadena de suministro. Esta amenaza es especialmente relevante para las organizaciones con políticas de incorporación distribuida, acceso remoto o portales de terceros en la cadena de suministro.
- Los actores de la amenaza crean "empleados fantasma" para inscribirse en los portales de los proveedores o solicitar acceso.
- Se han detectado identidades sintéticas que iniciaban estafas B2B a través de equipos de contratación.
- Se utilizan imágenes y currículums generados por IA para solicitar puestos a distancia en funciones sensibles.
3. Malware generativo y cargas maliciosas evasivas
Ya se está observando malware generado por inteligencia artificial. Estas cargas útiles no sólo se crean rápidamente, sino que están diseñadas para mutar. Algunos pueden probarse a sí mismos con herramientas de seguridad y adaptar sus firmas en tiempo real. Otros incluyen una lógica integrada para detectar si se están ejecutando en un sandbox, retrasando la ejecución hasta que las condiciones sean "seguras". Para las herramientas antivirus o EDR tradicionales, estas amenazas representan un reto importante.
- La ofuscación de malware ahora se genera dinámicamente y se actualiza constantemente.
- Algunas cepas utilizan la IA para evitar selectivamente la detección sólo en entornos vigilados.
- Las herramientas de IA ofensiva como WormGPT están reduciendo la barrera para escribir código evasivo.

Cómo pueden responder las organizaciones a los riesgos de seguridad de la IA
Abordar este tipo de amenazas a escala de la IA exige un cambio total de mentalidad. Ya no se trata sólo de contener las amenazas, sino de actuar de forma proactiva para anticiparse a ellas. Piensa en ello:
- Detección moderna de amenazas con IA integrada: las plataformas de seguridad que utilizan el aprendizaje automático y el análisis del comportamiento pueden detectar anomalías sutiles, como el inicio de sesión de un directivo a una hora inusual o la carga de volúmenes inesperados de datos en un dispositivo. Estas herramientas no son soluciones milagrosas, pero constituyen una base necesaria para operar a velocidad y escala. En el futuro, los agentes de IA y los humanos colaborarán estrechamente para dar soporte al abanico de futuros ataques.
- Resiliencia a través de la concienciación: Los usuarios humanos siguen siendo a la vez una vulnerabilidad y una fortaleza. Los programas de concienciación actualizados deben incluir ahora formación sobre medios sintéticos, detección de falsificaciones profundas e ingeniería social basada en IA. El objetivo no es inculcar la paranoia, sino el pensamiento crítico: confía, pero verifica, especialmente cuando la solicitud provenga de una voz o un rostro familiar.
- Confianza cero por defecto: Los marcos de confianza cero, largamente discutidos, son ahora esenciales. La verificación continua de usuarios, dispositivos y flujos de datos impide que los atacantes se desplacen lateralmente una vez dentro del perímetro. La autenticación multifactor (MFA), el acceso condicional y la microsegmentación ya no deben ser opcionales.
- Inteligencia integrada sobre amenazas: Comprender los métodos de los agresores requiere algo más que telemetría interna. La integración con fuentes de inteligencia sobre amenazas en tiempo real -en particular las que rastrean herramientas asistidas por IA y la actividad en la Web oscura- proporciona a los defensores el contexto para actuar antes de que los incidentes se intensifiquen. Los marcos de colaboración entre sectores también desempeñarán un papel crucial.
El sistema "Big Sleep" de Google, basado en IA, impidió la explotación de una vulnerabilidad crítica de SQLite antes de que las amenazas pudieran actuar. Aunque esta tecnología aún no está a disposición del público, ilustra la próxima evolución de la ciberdefensa: sistemas de IA capaces de identificar y neutralizar amenazas de forma autónoma, a menudo incluso antes de que sea posible la intervención humana. Estos avances apuntan a un futuro en el que las arquitecturas proactivas y autodefensivas se convertirán en estándar, transformando la ciberdefensa de una respuesta reactiva a una anticipación inteligente.
Cerrar la brecha empieza ahora
La carrera armamentística de la ciberseguridad ha entrado en una nueva fase. La IA ha inclinado la balanza del poder hacia el atacante, introduciendo una nueva era de riesgos para la seguridad de la IA, pero ese cambio no es permanente. Las empresas que actúen ahora adoptando una detección moderna, mejorando la concienciación de sus empleados e implicando a socios estratégicos pueden recuperar la iniciativa.
La ventana para adaptarse es estrecha. Pero la oportunidad es clara.
En Getronics, ya estamos trabajando con organizaciones de los sectores financiero, sanitario, industria y administraciones públicas para crear defensas preparadas para la IA. Te invitamos a unirte a ellos.
Ponte en contacto con nosotros o descarga nuestro whitepaper para saber cómo tu organización puede convertir la defensa en ventaja.
Hagamos frente a la automatización con automatización y ganemos juntos.




