20/10/2025
Octubre es el Mes de la Ciberseguridad en el mundo de las TI. Y este año, hay una pregunta clave en la mente de muchos responsables de TI: ¿podemos confiar realmente en la seguridad impulsada por IA a escala?
La confianza siempre ha sido un concepto fundamental en la seguridad. A medida que las organizaciones amplían las iniciativas de IA en áreas críticas como la detección de amenazas, la supervisión del fraude y la gestión de accesos, creemos que la confianza se vuelve aún más decisiva para el éxito. Al fin y al cabo, si tus equipos no pueden confiar en los sistemas que estás implantando, esos sistemas acaban creando riesgos en lugar de mitigarlos.
Entonces, ¿cómo pueden los responsables de TI y seguridad confiar en las nuevas herramientas basadas en IA y, al mismo tiempo, asegurarse de que los empleados también confían en ellas? He aquí un plan de acción práctico para los responsables de TI y seguridad, especialmente en sectores impulsados por la confianza como la banca, los seguros, el comercio minorista y la fabricación. Ponte en contacto con nosotros para saber qué puede hacer Getronics para ayudarte en la adopción de la IA con confianza.
El doble sentido de la confianza
En primer lugar: ¿qué queremos decir cuando hablamos de confianza en el contexto de la IA y la seguridad? En realidad, tiene dos significados diferentes:
- El lado humano: ¿confían realmente tus empleados en las herramientas de seguridad de IA que estás eligiendo para ellos, o las ven como una amenaza, una carga o algo con lo que hay que trabajar?
- El lado tecnológico: ¿se puede confiar en que sus herramientas de seguridad de IA hagan lo que sus vendedores o desarrolladores dicen que pueden hacer?
Ambas partes son importantes, y ambas determinan si la IA crea valor o simplemente genera nuevos riesgos.
Si se descuida el lado humano de la confianza al adoptar nuevas herramientas de IA, se corre el riesgo de una baja adopción, prácticas en la sombra que eluden los sistemas oficiales y una falsa sensación de seguridad que deja a tu organización más expuesta. También viola la confianza de tu equipo cuando elige herramientas que añaden complejidad en lugar de mejorar la eficiencia. Esta es una de las principales razones por las que el 69 % de los CIO sospechan que sus empleados utilizan herramientas de IA no autorizadas en el trabajo, según el informe 2025 AI Hype Cycle de Gartner.
Desde el punto de vista tecnológico, los directores de sistemas de información tienen que ir más allá del bombo y platillo y de las constantes promesas excesivas que hemos visto en la comunidad de la inteligencia artificial en los últimos años. Al igual que cualquier otra herramienta de seguridad, las herramientas basadas en IA deben demostrar su valía en condiciones reales, con transparencia, auditabilidad y resistencia frente a amenazas emergentes como la inyección inmediata y los fallos en el control de acceso.
Integrar la confianza en la adopción de la IA
Muchas organizaciones se enfrentan a problemas de adopción cuando implantan nuevas herramientas de IA. Esto se debe probablemente a que casi la mitad (46%) de los empleados consideran la IA una amenaza para sus puestos de trabajo, según un informe de BCG. No ayuda en absoluto que el sector de la IA siga exagerando el potencial de sus herramientas para redefinir el trabajo tal y como lo conocemos. Los empleados tienen preocupaciones legítimas. Corresponde a los responsables de TI y seguridad abordarlas mediante estrategias de adopción cuidadosamente planificadas.
Éxito de la IA: MinterEllison
Un case study de Gartner muestra cómo MinterEllison, un bufete de abogados internacional, generó confianza entre los empleados poniendo en marcha un programa de alfabetización en IA estructurado y social. Las medidas incluían reservar 12 horas a lo largo de 12 semanas para que los empleados aprendieran, acreditar el tiempo de formación a los objetivos de rendimiento y contratar "entrenadores digitales" internos para promover la adopción.
En unos meses, los usuarios semanales de IA pasaron de 250 a 1.600 (un aumento de 6,5 veces), con más de 4.000 horas de aprendizaje acreditado registradas. Esta historia demuestra que los empleados confían más en la IA cuando se sienten respaldados estructuralmente y los cambios se introducen de forma gradual.
Educación, transparencia y comunicación
La necesidad de una educación estructurada no hará sino crecer. En su informe "Predicts 2025: AI and the Future of Work", Gartner afirma que, en 2028, el 40% de los empleados recibirán primero formación o entrenamiento por parte de la IA al incorporarse a un nuevo puesto, frente a menos del 5% en la actualidad. Si los empleados esperan que la IA les guíe desde el primer día, las empresas no pueden permitirse dejar la alfabetización al azar.
También es importante una comunicación clara. Sé sincero y realista sobre lo que las herramientas de IA pueden y no pueden hacer. Demuestra al personal lo mucho que importa su supervisión humana. Y no te limites a decir "confía en la herramienta". Enséñales y anímales a cuestionar e interpretar los resultados. Cuando los empleados saben que se sigue valorando su criterio, la IA se siente menos como una amenaza y más como un apoyo.
Elegir herramientas de seguridad de IA en las que merezca la pena confiar
El otro lado de la ecuación es si los responsables de TI y seguridad pueden confiar en que los sistemas de IA funcionen de forma fiable y segura. También en este caso los riesgos son reales. Gartner advierte de que más del 50 % de los ciberataques contra agentes de IA que se produzcan con éxito hasta 2029 aprovecharán problemas de control de acceso como la inyección puntual. Al mismo tiempo, las organizaciones luchan contra la desviación de la precisión, los sesgos y los costes impredecibles de la nube que erosionan el retorno de la inversión.
Estos retos explican por qué la ciberseguridad sigue siendo una de las tres principales prioridades de los directores de sistemas de información de los sectores bancario, de seguros y minorista. Pero la buena noticia es que ya están surgiendo ejemplos de despliegues fiables de IA, como muestran los case studies de Gartner que se presentan a continuación.
Citizens Bank, por ejemplo, ha desplegado un agente orquestador cuidadosamente seleccionado para gestionar tareas administrativas de forma segura dentro de flujos de trabajo controlados. En el sector de los seguros, una empresa holandesa utiliza la IA para tramitar automáticamente siniestros sencillos de automóviles y derivar los casos complejos a peritos humanos. Ambos ejemplos nos enseñan la misma lección: los directivos pueden confiar en la IA cuando se adapta bien al caso de uso y tiene unos límites claros, y cuando los humanos son responsables de las decisiones de alto riesgo.
Perspectivas del sector
El reto de la confianza varía ligeramente de un sector a otro:
- La banca: la confianza es inseparable del cumplimiento. Los líderes necesitan sistemas de IA que puedan reducir los falsos positivos en la detección de fraudes y mantener pistas de auditoría que los reguladores puedan seguir sin cuestionar.
- Seguros: la parcialidad en las decisiones de suscripción o siniestros no es sólo un problema ético, sino un riesgo normativo y de reputación. Los controles de sesgo y las herramientas de explicabilidad son esenciales.
- Industria: la seguridad no es negociable. Los directores de planta no confiarán en las predicciones de la IA sobre fallos de los equipos a menos que sepan cuándo y cómo se aplica la revisión humana.
- Comercio minorista: con una alta rotación de personal, la IA en la sombra es el gran riesgo. Los minoristas deben tratar la alfabetización en IA con la misma seriedad que la alfabetización en datos para mantener la adopción segura y productiva.
Escalabilidad de la confianza
Entonces, ¿cómo consiguen los directivos que la confianza sea escalable a la hora de lanzar proyectos de seguridad de IA? Hay algunas pautas que destacan en todos los sectores:
- La alfabetización en IA es lo primero. Los empleados no adoptarán lo que no entienden. Programas como el de MinterEllison demuestran que una formación estructurada da sus frutos en cuanto a adopción y uso seguro.
- Reglas claras de supervisión. Define cuándo intervienen los humanos y asegúrate de que todo el mundo lo sabe. Esto evita tanto la dependencia excesiva de la IA como la desconfianza en sus resultados.
- Auditabilidad. Cada acción respaldada por IA debe dejar un rastro que pueda resistir el escrutinio de las normativas y los clientes.
- Control de costes y riesgos. Supervisa el gasto en la nube, la precisión y el control de acceso tan de cerca como lo harías con los controles financieros.
- Cambio cultural. Sin duda, la IA transformará la cultura del lugar de trabajo en los próximos años. Los CIO, los CISO y los CHRO desempeñan un papel importante para que la IA sea fiable a gran escala.
Todos estamos entusiasmados con las posibilidades de una seguridad escalable y respaldada por IA. Pero en este Mes de la Ciberseguridad, una cosa está clara: las organizaciones tienen que superar la brecha de la confianza si quieren tener éxito. Los empleados no utilizarán herramientas en las que no crean. Los líderes no pueden ampliar sistemas en los que no pueden confiar.
Al abordar tanto el aspecto humano como el tecnológico de la confianza, puedes empezar a crear valor a partir de tus iniciativas de IA más rápidamente, al tiempo que refuerzas tu plantilla e impulsas la innovación a largo plazo.




