Select your country

Not finding what you are looking for, select your country from our regional selector:

Buscar

| Noticias

La IA generativa: un motor de rendimiento y de riesgos

Lo más importante sobre tu hack’tu de ciberseguridad

  • Ciberataques potenciados por la IA generativa: la IA generativa permite a los ciberdelincuentes automatizar, personalizar y sofisticar ataques como el phishing, la manipulación de contenidos (deepfakes) y la suplantación de identidad, al tiempo que reduce las barreras técnicas para llevar a cabo ataques más rápidos y difíciles de detectar;
  • Riesgos internos derivados de la «Shadow AI»: el uso incontrolado de herramientas de IA por parte de empleados o equipos operativos expone a la empresa a fugas de información confidencial, vulnerabilidades de seguridad y a la creación de aplicaciones de IA no supervisadas, lo que aumenta la superficie de ataque;
  • Establecer una estrategia de defensa proactiva: la implantación de una gobernanza clara, la sensibilización de los equipos y el uso de soluciones de seguridad específicas («CASB», «DLP», «AISPM») son esenciales para controlar el uso de la IA generativa, proteger el ciclo de vida de las aplicaciones y poner a prueba su resiliencia frente a ataques simulados.

Cuando la IA generativa amplía la superficie de ataque

La IA generativa (IA Gen) no es solo una revolución tecnológica, sino también un potente catalizador que está redefiniendo el panorama de la ciberseguridad. Analicemos juntos los distintos riesgos asociados a su aparición.

Amenazas externas potenciadas por la IA generativa

La inteligencia artificial generativa (también conocida como GenAI, IA Gen o IA generativa) no es solo una revolución tecnológica. Multiplica la potencia de los ataques tradicionales y actúa como catalizador para los ciberdelincuentes, permitiéndoles:

  • Automatizar y personalizar los ataques: la ingeniería social, el phishing y el fraude alcanzan un nivel de sofisticación y personalización sin precedentes, lo que dificulta su detección, ya que se nutren de las «huellas digitales» que dejamos en la red;
  • Reducir las barreras técnicas: la creación de deepfakes de audio y vídeo, ahora al alcance de todos, facilita además la suplantación de identidad y la manipulación a gran escala. La IA generativa hace que las amenazas sean más eficaces, más rápidas de poner en marcha y más difíciles de detectar.

El riesgo interno o la doble cara de la «Shadow AI»

Uno de los riesgos más insidiosos proviene de tu propia empresa, a menudo motivado por la búsqueda de productividad:

  • La Shadow AI de los «usuarios»: el uso por parte de los empleados de herramientas de IA de generación de contenido no autorizadas se ha generalizado. Al compartir datos internos —informes, correos electrónicos, secretos industriales y comerciales y hojas de ruta estratégicas— exponen a la empresa a fugas de información crítica y a incumplimientos normativos;
  • Los «artesanos» de la Shadow AI: el riesgo aumenta cuando los equipos crean sus propias aplicaciones de IA de generación sin la supervisión de los equipos de TI o de seguridad. Estas iniciativas pueden generar importantes fallos de seguridad (vulnerabilidades, configuraciones incorrectas, uso indebido de datos sensibles, etc.), generar una deuda técnica y crear un frente de ataque invisible para tus equipos de seguridad;
  • La generación de código: al utilizar la IA generativa para programar, los desarrolladores pueden introducir sin querer vulnerabilidades, código sujeto a licencias restrictivas o incluso «troyanos» ocultos en los componentes.

La IA, un nuevo objetivo estratégico

Cuando la IA generativa se integra en el núcleo de tus procesos, se convierte en un objetivo prioritario. Esta amenaza adquiere una dimensión crítica con la aparición de la IA agéntica. Estos sistemas ya no se limitan a generar contenido. Dotados de capacidades de percepción, razonamiento y planificación, son capaces de coordinar diferentes recursos y herramientas de forma autónoma.

Ante la amenaza de la IA generativa: desarrollar una estrategia de defensa sólida

Aunque la IA generativa aumenta los riesgos, no es una fatalidad. Un enfoque proactivo y multifacético permite convertir este reto en una oportunidad que se puede gestionar. Para los directivos, no se trata de prohibir, sino de regularlo para poder innovar con total seguridad.

Gobernanza y sensibilización

La primera línea de defensa es humana y organizativa. Una estrategia de seguridad eficaz comienza por establecer normas claras y formar a los equipos.

  • Sensibilizar para fomentar la responsabilidad: la ignorancia es el principal aliado del atacante. Es fundamental formar a todos los equipos, y no solo a los expertos, sobre las nuevas amenazas;
  • Evaluar para proteger mejor: no todas las aplicaciones de IA Gen presentan el mismo nivel de criticidad. Es imprescindible realizar análisis de riesgos para cada caso de uso con el fin de adaptar las medidas de seguridad. Marcos metodológicos reconocidos como «NIST AI RMF», «EBIOS RM» o la norma «ISO/IEC 23894»(1) permiten estructurar este proceso.

Dominar el ecosistema de la IA generativa: las herramientas de seguridad

Una vez establecida la gobernanza, existen soluciones de seguridad para aplicarla y garantizar su cumplimiento a lo largo de todo el ciclo de vida de la IA:

  • Controlar el uso de la «Shadow AI»: para supervisar el uso de herramientas externas o de la «Shadow AI de los usuarios», las soluciones CASB («Cloud Access Security Broker») y DLP («Data Loss Prevention»)(2) son fundamentales. CASB permite un control de acceso granular (autorizar, bloquear, alertar) a las aplicaciones, mientras que DLP evita que la información clasificada (secretos comerciales, datos personales, etc.) se transmita a través de estas herramientas no controladas;
  • Garantizar la seguridad del ciclo de vida de las aplicaciones de IA generativa o GenAI «internas»: el AISPM («AI Security Posture Management»)(3) ofrece una visibilidad completa del entorno de desarrollo de IA generativa (modelos de IA, conjuntos de datos, API, bases de datos). Detecta configuraciones incorrectas, vulnerabilidades y posibles vías de ataque y permite a los equipos de TI solucionarlas.
  • El análisis de los componentes de código abierto (plantillas, conjuntos de datos) es fundamental para protegerse contra «puertas traseras» y otro tipo de malware que podría estar oculto en estos componentes de software y activarse una vez integrados en sus sistemas.
  • Proteger las aplicaciones en producción: durante la ejecución, las soluciones de filtrado de mensajes actúan como un cortafuegos inteligente. Analizan las solicitudes entrantes para bloquear los intentos de inyección de comandos y controlan las respuestas salientes para evitar fugas de datos.

Las soluciones disponibles actualmente en el mercado evolucionan constantemente para adaptarse tanto a las nuevas técnicas de ataque como a los usos emergentes, como la llegada de la IA agéntica. Esto incluye, en particular, el control entre agentes (Agent-to-Agent) y la gestión de accesos de terceros, especialmente a través de los MCP («Model Context Protocol») (4).

Validar para reforzar: la prueba de fuego

No basta con desplegar defensas. Es necesario poner a prueba su resistencia ante ataques realistas.

  • Prueba de penetración de aplicaciones de IA generativa: este ejercicio de prueba de penetración está diseñado para evaluar la solidez de tus aplicaciones de IA generativa. Su objetivo es identificar y detectar las vulnerabilidades propias de estos sistemas para corregirlas antes de que un atacante las aproveche;
  • El «AI Red Teaming»(5): la IA generativa o Gen AI se convierte aquí en una herramienta para simular numerosas variantes de ataques adversos, poniendo a prueba los límites de tus medidas de protección con una eficacia y una rapidez multiplicadas por diez.

Fuentes y notas

(1) NIS AIRMF: el «Marco de gestión de riesgos de redes y sistemas de información - Inteligencia artificial»

es un marco para la gestión de los riesgos relacionados con la IA en los sistemas de información. ; ISO/IEC 23894: una norma internacional para la gestión

de la seguridad y la confidencialidad en el uso de la IA.

(2) CASB: «Cloud Access Security Broker» es una solución de seguridad que actúa como intermediario entre los usuarios y los servicios en la nube. Su función principal es controlar, supervisar y proteger el acceso a las aplicaciones en la nube y a los datos que circulan por ella. ; DLP: «Data Loss Prevention» (prevención de la pérdida de datos) hace referencia a las soluciones y prácticas destinadas a evitar la fuga o la exfiltración de datos sensibles, incluso en los flujos de IA generativa.

(3) AISPM: «Ai Security Posture Management» es la gestión continua de la postura de seguridad de los sistemas de IA generativa, lo que incluye la visibilidad de los activos, la supervisión,

cumplimiento normativo y reducción de riesgos.

(4) MCP: «Model Context Protocol» permite a los modelos de IA generativa interactuar con herramientas y datos externos.

(5) AI Red Teaming: un proceso que simula ataques reales con el fin de detectar las vulnerabilidades de la arquitectura, los datos de entrenamiento y los resultados de un sistema de IA antes de que lo hagan los atacantes.

Inteligencia artificial: ¿Ángel y demonio?

Descubre la segunda edición de «Ctrl: 8 minutos para mantener el control».

Descargar nuestra revista

Nuestra serie de artículos sobre IA y ciberseguridad

Visage d'une femme avec un visage d'ange

2 February 2026 | Informe

Artificial intelligence: from innocence to governance - 8 minutes to stay in control

Read more

15 January 2026 | Blog

De «Dinootoo» a «Live Intelligence»: los entresijos de una plataforma de IA segura con Steve Jarrett

Read more

20 April 2026 | Blog

Entre Mythos y GPT-5.4-Cyber: los LLM se adentran en el ámbito de la ciberseguridad automatizada

Read more