¿Desea recibir notificaciones de www.defensa.com?
X
Domingo, 14 de diciembre de 2025 Iniciar Sesión Suscríbase

Implicaciones de la IA generativa en la guerra híbrida

Desinformación, propaganda, noticias falsas (fake news), ciberataques y otras muchas técnicas para desgastar al adversario son estrategias ampliamente reconocidas en el ámbito de la guerra híbrida.

La desinformación y la propaganda no son técnicas nuevas, ni mucho menos, ya que cuentan con varias décadas de uso a sus espaldas, pero es cierto que tras la aparición de Internet (la era de la información) y especialmente con el uso de las Redes Sociales, se han convertido en armas usadas a gran escala y con unos resultados muy efectivos para transmitir narrativas favorables, sembrando dudas y confusión en la audiencia objetivo.

A diferencia de la propaganda y la desinformación limitada a radio, televisión o panfletos como en la Guerra Fría, hoy en día mediante la creación de esas fake news emotivas, el uso de trolls o bots automatizados en redes sociales para acosar o influir, es posible crear de manera rápida y fácil campañas de influencia encubiertas.

Por lo tanto, una gran falsedad puede hacerse viral mundialmente en minutos, lo cual permite al enemigo producir operaciones psicológicas (PSYOPS) altamente efectivas aprovechándose de las vulnerabilidades cognitivas humanas, explotando miedos o sesgos para desmoralizar tropas enemigas o incluso, más ampliamente, polarizar sociedades civiles extranjeras mediante teorías conspirativas.

En definitiva, la información se ha vuelto un dominio de la guerra en sí mismo, donde controlar la narrativa otorga una ventaja estratégica.

IA Generativa

Nada de lo dicho hasta ahora es algo nuevo. Ahora bien, desde hace simplemente un par de años hemos entrado en una nueva era, con un impacto equiparable a la irrupción de Internet y las Redes Sociales, o incluso mayor (eso el tiempo lo dirá).

Me refiero a la irrupción de la nueva Inteligencia Artificial (IA) Generativa basada en Modelos Grandes de Lenguaje o Large Language Models en inglés (LLMs). Dichos modelos como los más famosos de la empresa OpenAI que se usan en el conocido ChatGPT, son capaces de realizar dos tareas principales: comprender y generar información, de ahí que se le denomine IA Generativa.

Es importante destacar que muchas empresas y organizaciones como Microsoft, Google, Meta y muchas otras están desarrollando ese tipo de modelos. Otros ejemplos son la china DeepSeek o en Europa el modelo Mistral francés. Además, la mayoría de los gobiernos parecen subirse al carro de la IA Generativa favoreciendo colaboraciones para el desarrollo de modelos propios. En España existe una iniciativa pública para el desarrollo de "ALIA".

IA generativa: un nuevo frente de desinformación masiva

El ritmo al cual está evolucionando la IA Generativa no tiene precedentes en la historia. En menos de tres años hemos visto como hemos pasado de modelos capaces de entender y generar texto a, hoy en día, entender y generar imágenes, video y audio de una manera cercana al sobresaliente. No seré yo el que esté en contra de esta tecnología ni mucho menos, pero la historia nos ha enseñado que cualquier herramienta puede ser usada para hacer el bien o el mal.

Empecemos pues con los riesgos.

La IA Generativa es capaz de crear contenido falso de apariencia creíble a escala industrial, abarcando, por ejemplo, desde noticias escritas por IA que imitan el estilo periodístico, hasta los famosos videos o audios falsos (Deepfakes) que pueden llegar a ser tan realistas que pueden fácilmente engañar a la audiencia.

Aunque muchas empresas de IA tienen restringidas algunas de estas funcionalidades mediante el uso de filtros de contenido, políticas de IA responsable, restricciones de entrenamiento, etc., lo cierto es que realizar un video falso hiperrealista o clonar una voz y generar un audio a partir de ella es algo relativamente simple y accesible hoy en día, especialmente por parte de actores maliciosos.

La gran diferencia entre la nueva IA Generativa y la IA tradicional a la hora de crear este tipo de contenido falso es que ahora con estos nuevos modelos cualquier persona es o será capaz de hacerlo en segundos y prácticamente sin grandes conocimientos técnicos. En definitiva, la IA Generativa puede ser usada (ya lo está siendo) como un multiplicador de desinformación, permitiendo crear narrativas falsas con un alcance y sofisticación inéditos, y con un costo muchísimo menor en lo relativo a los recursos humanos y materiales para generarla, planteando un grandísimo desafío para la seguridad en conflictos presentes y futuros.

Implicaciones a corto y medio plazo

En el horizonte inmediato, probablemente el mayor riesgo es que la brecha entre la realidad y la ficción será cada vez más difícil de discernir ya que se prevé que se puedan generar contenidos sintéticos incluso aún más realistas y por tanto las deepfakes basadas en imágenes, audios o videos sean prácticamente indetectables por el público general.

Respecto a ello, todos juntos, compañías, organizaciones, gobiernos e instituciones como la Unión Europea deben hacer un gran esfuerzo en desarrollar herramientas para detectar este tipo de desinformación basada en IA y, sobre todo, deben formar concienzudamente tanto a la sociedad civil como a las fuerzas de seguridad e inteligencia para aprender técnicas y estrategias para reconocerla. Lamentablemente esta debe ser una prioridad absoluta y debe realizarse de manera rápida y eficaz.

En el campo militar, las fuerzas armadas deberían integrar la defensa cognitiva en sus doctrinas. Esto incluye, por ejemplo, entrenar a tropas para verificar órdenes ante la posibilidad de encontrarse con órdenes falsificadas vía audio generado por IA.

Imaginemos un soldado recibiendo una instrucción por radio de su “comandante” que en realidad fue generada por el enemigo. Asimismo, las operaciones de engaño estratégico (militar deception) podrían incorporar gemelos digitales de unidades o comandantes para confundir al rival. Todo esto complicará la labor de inteligencia: habrá que invertir tanto en monitorizar flujos informativos como en los tradicionales movimientos físicos del adversario.

Respuestas y soluciones: IA defensiva, detección y resiliencia

Una vez repasado algunos de los riesgos principales, centrémonos ahora en las ventajas del uso de la IA Generativa. Estoy convencido de que el potencial del uso de esta tecnología para el bien es inmenso, y tal vez estamos ante uno de los avances que van a tener una repercusión real e inmediata inconmensurable en aspectos clave como la investigación, medicina, sostenibilidad, bienestar, desarrollo, energía, etc.

Si internet empezó a democratizar el conocimiento, ahora con la IA Generativa damos un paso más al ser capaces no sólo de acceder a la información, sino también de extraer, analizar e incluso producir conocimiento usando la herramienta básica de los humanos: el lenguaje natural.

En cuanto al tema que nos ocupa, la IA Generativa además de constituir un riesgo tal y como he comentado anteriormente, paradójicamente forma parte de la solución. De hecho, está empezando a ser usada precisamente para detectar y combatir la desinformación y publicaciones relacionadas con temas de terrorismo, ataques etc., analizando patrones lingüísticos o de difusión para identificar contenidos sospechosos.

Esto no es algo nuevo, ya que las agencias de inteligencia llevan utilizando modelos de IA tradicional basados en Aprendizaje Automático (Machine Learning) para examinar en tiempo real grandes volúmenes de posts en redes buscando señales de inautenticidad (como picos inusuales de coordinación, uso de ciertas frases clave, o rastros forenses en imágenes digitales) que delaten una campaña artificial, o por ejemplo posibles acciones de terrorismo u otros delitos.

Pero también es cierto que dichos modelos de IA tradicionales (no de la nueva Generativa) siempre se topan con un problema: la complejidad del lenguaje humano. Sin entrar en explicaciones técnicas, cualquier persona que haya tenido la oportunidad de trabajar con IA en aplicaciones relacionadas con lenguaje (Procesamiento del Lenguaje Natural o NLP por sus siglas en inglés), se ha encontrado con la dificultad de dichos algoritmos para lidiar con la gran complejidad que conlleva que podamos expresar algo utilizando diferentes palabras y que, además, haya palabras que tienen diferentes significados en función del contexto. 

Por ejemplo, la palabra "bomba" puede utilizarse para referirse a un explosivo para causar daño o para referir que algo es positivo como: "esta canción es la bomba". Por suerte, los modelos basados en la nueva IA Generativa sí que son capaces de entender perfectamente el contexto al igual que hacemos los humanos y, por lo tanto, han solucionado el gran problema al que se enfrentaban las aplicaciones tradicionales destinadas a realizar tareas relacionadas con el lenguaje natural como la detección de desinformación, prevención de delitos, terrorismo, etc.

Conclusión: Equilibrando riesgos y resiliencia en la era de la IA Generativa

En definitiva, podemos afirmar que la guerra híbrida moderna ha extendido el campo de batalla al espacio informativo, donde la mente y la percepción de millones de personas son el botín por disputar. La irrupción de la IA generativa presenta amenazas serias e inmediatas: desde campañas masivas de noticias falsas hasta manipulación personalizada de narrativas, pasando por deepfakes capaces de engañar incluso a especialistas.

Pero por cada uso ofensivo de estas herramientas, también surgen estrategias defensivas e iniciativas éticas para contrarrestarlas. A corto plazo, es vital que analistas de inteligencia y personal militar incorporen este entendimiento en su planificación: ningún operativo en el terreno está completo sin considerar la dimensión informativa. La colaboración interdisciplinaria entre ingenieros, psicólogos, estrategas y comunicadores será clave para desarrollar respuestas efectivas.

Igualmente, se requieren marcos legales y acuerdos internacionales que limiten la proliferación descontrolada de armas informativas basadas en IA Generativa, a la vez que aprovechen la IA para reforzar la verdad y la seguridad cognitiva colectiva. (Alfonso Rodríguez Cotes, psicólogo, especialista en IA Generativa y Seguridad. Doctorando sobre Desinformación e IA Generativa) 


Copyright © Grupo Edefa S.A. defensa.com ISSN: 3045-5170. Prohibida la reproducción total o parcial de este artículo sin permiso y autorización previa por parte de la empresa editora.

Deje un comentario

*

*

*



Su e-mail no será publicado.

Los comentarios que no se atengan a las normas de participación podrán ser motivo de expulsión.