Desde que ChatGPT vió la luz en 2023, los LLM (Large Language Models, modelos extensos de lenguaje) han entrado de lleno en nuestras vidas. Esta tecnología de inteligencia artificial ahora ya nos ofrece resúmenes de textos o páginas web, responde a preguntas de todo tipo y también ha entrado ya en el sector de la defensa y la seguridad nacional.
LLM: inteligencia artificial generativa
Los LLM son parte de un grupo de tecnologías que se denominan “inteligencia artificial generativa”. Estos son modelos de IA que se entrenan sobre enormes cantidades de datos (libros, textos, artículos) y luego son capaces de generar contenidos nuevos en base a preguntas (o prompts por utilizar el término en inglés). Los LLM son IAs generativas de texto, pero también hay otros tipos, que generan audio, imágenes o incluso vídeo. En este momento, ChatGPT de OpenAI es probablemente el más conocido de los LLM actuales, pero hay muchos otros, como Gemini de Google, Claude de Anthropic y DeepSeek.
Muchos seguramente habrán entrado ya en contacto con ChatGPT o similar, para hacer preguntas, o habrán visto los resúmenes de IA que ofrecen hoy en día la mayoría de los buscadores. Estos también son generados por un LLM. ¿Pero cuáles son los usos exactos de estos modelos de lenguaje?
Aunque los modelos de IA en los que están basados los LLM se pueden entrenar de múltiples formas, en general, las funcionalidades esperadas habitualmente de un LLM son las siguientes:
- Responder a preguntas
- Resumir documentos
- Clasificar información
- Traducir textos
- Extraer elementos clave de conjuntos de información extensos
- Escribir software
Estas posibilidades tan genéricas son las que le han proporcionado a los LLM la popularidad que tienen hoy en día, ya que se pueden emplear de múltiples formas y resuelven una de las carencias del ser humano: extraer lo importante de documentos extensos en muy poco tiempo. Pero no sólo eso, sino que los LLM, debido a que han sido entrenados sobre miles de millones de palabras, son capaces de percibir los matices en los textos, no sólo el simple contenido. Y eso los hace muy adecuados para usos en defensa y seguridad nacional.
La problemática de los datos
Como hemos mencionado anteriormente, los modelos de inteligencia artificial de los LLM se entrenan sobre grandes conjuntos de datos. En el caso de ChatGPT se trata de millones de libros e información procedente de Internet. Para el ámbito militar, en cambio, existen problemáticas específicas. La primera es que no siempre se dispone de toda la información militar necesaria para entrenar un modelo. La segunda, y más importante, es que esa información puede estar clasificada como secreta.
Esto representa un problema, ya que los LLM suelen aprender de los datos que se les suministra, y podría ocurrir que una pregunta posterior produzca una respuesta que contenga información clasificada y que llegue a personas sin la autorización correspondiente. Esto es algo inaceptable en el ámbito militar o de inteligencia.
Una posible solución es utilizar modelos sin memoria. El inconveniente (y a la vez ventaja) es que con cada pregunta hay que suministrar los datos necesarios. El modelo utiliza esa información para generar las respuestas o resúmenes, pero luego los “olvida” y no aprende de ellos. Eso significa que no es posible que información secreta acabe formando parte del modelo de IA del LLM.
Por otro lado, la necesidad de tener que añadir los datos cada vez puede llegar a ser un problema. Y, lo que es peor, las respuestas sólo serán tan buenas como lo sean los datos proporcionados. Si estos tienen sesgo, están incompletos o son incorrectos, las respuestas tendrán todos esos defectos.
La alternativa es emplear sistemas específicos, aislados y seguros, a los que sólo pueden acceder aquellas personas con la autorización de seguridad apropiada. Estos sistemas suelen emplear lo que se llama air-gapping, es decir, que no tienen conexión alguna con el exterior y, especialmente, Internet. Eso evita intentos de hackeo o accesos indebidos o accidentales.
Pero hay un problema potencial más: la manipulación maliciosa de los datos. Como ya hemos dicho, las respuestas sólo serán tan buenas como los datos en los que se han basado. Pero si un actor malicioso introduce a propósito datos falsos o sesgados las respuestas ya no serán fiables. O peor aún: favorecerán las intenciones de ese actor malicioso. Aunque esto es un escenario poco probable, debido a la seguridad que rodea estos sistemas militares, si llegara a ocurrir representa un verdadero problema, porque es muy difícil hacer que un LLM olvide algo que ha aprendido. Algunos modelos disponen de la posibilidad eliminar las últimas consultas y sus datos, pero investigaciones han demostrado que, a pesar de todo, sí recuerdan ciertos detalles en determinados casos.
Transparencia, alucinaciones y fiabilidad
En ámbitos tan delicados como el militar y la seguridad nacional, es de vital importancia que los sistemas que toman decisiones o que ayudan a la toma de decisiones por parte de seres humanos, sean totalmente transparentes. Y eso, hasta cierto punto, está enfrentado con cómo funcionan los LLM.
Estos son, a todos los efectos, una caja negra que ofrece respuestas a preguntas, pero nadie sabe cómo se ha llegado a la conclusión que se ofrece. Las redes neuronales que contienen son tan complejas, que es imposible seguir el proceso para saber el porqué de una respuesta.
Como solución a este problema se han creado LLM basados en modelos razonados, que al menos explican paso a paso cómo han llegado a la respuesta que ofrecen, qué fuentes de información han utilizado y qué han entendido exactamente que espera el usuario. Muchos de estos modelos utilizan lo que se llama “diálogo interno”, donde partes de las redes neuronales “discuten” entre si y llegan a una conclusión utilizando el consenso.
.jpg)
La posibilidad de que los LLM faciliten el trabajo estratégico es real.
Otra opción es la metodología MoE (Mixture of Experts) en donde varias redes neuronales o LLM especializados (expertos) “hablan entre ellos” y cada uno aporta la información que mejor conoce. Este sistema dispone de un modelo adicional, que se encarga de analizar las preguntas y distribuirlas al experto más apropiado para cada caso.
Finalmente, queda el problema de las alucinaciones. Se llama “alucinación” de un modelo de IA a la generación de contenido irrelevante, inventado o inconsistente con la información proporcionado. Esto ocurre porque los LLM se han diseñado para contestar y, cuando no saben la respuesta, no se dan por vencidos y se inventan cosas. Se está trabajando en esta dirección, para conseguir que el LLM, al igual que un ser humano, sea capaz de decir “pues no lo sé”.
En ámbitos militares y especialmente en combate u operaciones activas, es muy importante que la información utilizada para tomar decisiones tenga un origen transparente. Por ello los modelos militares necesitan mucha más trazabilidad que los convencionales. Y, hasta que su fiabilidad sea constatada en múltiples escenarios y situaciones, serán sólo una fuente más de información que tener en cuenta, un sistema de apoyo, no un decisor primario.
Aplicaciones de un LLM en el ámbito militar
Como todas las nuevas tecnologías, se requiere un tiempo de adaptación a las mismas, para saber dónde se pueden aplicar de la forma más eficiente y para descubrir nuevas formas de emplearlas. Aunque el enorme potencial de los LLM puede encender la imaginación de mandos y soldados con respecto a los campos de aplicación, habrá que ir viendo cuáles son los casos de uso más racionales. No obstante, ya hay muchos ámbitos de aplicación:
- Automatización de la inteligencia militar. En el área de la inteligencia, los analistas disponen hoy en día de tal cantidad de información procedente de comunicaciones, informes, sensores, resúmenes de vigilancias, etc. que es difícil procesarlo todo, para extraer los elementos más importantes. Con un LLM esta tarea se simplifica enormemente, ya que basta con proporcionarle todos los datos y luego hacer preguntas. Como por ejemplo “en los documentos anteriores, ¿dónde se habla de ataques mediante drones?”.
- Resumir informes de combate para comandantes. Este es un caso similar al anterior, donde grandes cantidades de información se deben utilizar para decidir los próximos pasos y puntos de intervención.
- Chatbots para tareas administrativas o de formación. Gracias a la capacidad de los LLM para tratar con el lenguaje, el uso de chatbots para tareas administrativas de tropa o logística resulta muy conveniente, ya que ahorra personal que se puede dedicar a tareas de más valor y ofrecer un servicio permanente. Lo mismo se aplica a la formación de soldados y oficiales, ya que los LLM pueden generar exámenes, crear cursos y controlar su seguimiento.
- Descubrimiento de patrones. Dentro de las funciones de análisis de los datos que se le proporcionan al LLM, está el descubrimiento de posibles patrones. A partir de informes de movimientos de tropas o material militar, el LLM puede encontrar patrones y correlaciones que, a primera vista, podrían pasar desapercibidos. Lo mismo ocurre cuando se analizan comunicaciones enemigas. Incluso si están cifradas y no se puede acceder al contenido, los participantes, la hora, origen y la longitud de las comunicaciones puede proporcionar datos importantes.
- Simulaciones. Los LLM pueden generar simulaciones de combate a partir de descripciones textuales, crear escenarios narrativos de entrenamiento o, en general, inventar situaciones plausibles, que pueden utilizarse para entrenamiento de tropa y mandos, maniobras, etc.
- Análisis de sentimiento. Relacionado con los LLM está el NLP (procesamiento del lenguaje natural) que es capaz de determinar el sentimiento de un cierto texto, comunicación o documento (positivo, negativo, neutro, etc.). Esto permite sacar conclusiones muy matizadas con respecto al contenido, más allá de lo que dice este de forma explícita.
Como muchos de los usos superiores pueden tener un profundo impacto en el día a día castrense, la mayoría de las fuerzas armadas del mundo optan por comenzar con un método de sandboxing, en donde los LLM se despliegan en un sistema aparte, sin impacto real, para ir evaluando las respuestas y lo que aportan a los procesos que se desarrollan habitualmente. Sólo cuando se ha comprobado la fiabilidad y utilidad del despliegue, este se realiza de forma efectiva, conectado con otros equipos o redes de comunicaciones.
La guerra cognitiva
Además de los tres dominios militares tradicionales (tierra, mar y aire), con los años y el avance de la tecnología se han añadido algunos más, como el espacio, ciberespacio y el dominio cognitivo. Los LLM generativos llevan usándose ya, desde hace algún tiempo, para generar campañas de desinformación o de formación de opinión pública. Algunos actores estatales se han especializado en crear disrupciones del orden e intentan formar opiniones con respecto a temáticas muy específicas, intentando así avanzar los intereses propios.
En España el MMCE y la FOCE se encargan de la defensa y la explotación del ciberespacio. Los LLM formarán una parte cada vez más importante de estos órganos, conforme se les encuentren ámbitos de aplicación, dentro de las necesidades de las Fuerzas Armadas Españolas.
La IA generativa está reduciendo enormemente el coste de las campañas de desinformación. Y esto no sólo se limita a los LLM, sino también a los modelos que generan imágenes o vídeos. Como la meta de la guerra cognitiva es alterar la percepción de la realidad que tienen los objetivos, la enorme capacidad que tienen los LLM para entender múltiples idiomas, contextos y matices, permiten automatizar la generación de mensajes (por ejemplo en redes sociales) que dirijan la opinión en la dirección deseada o contrarresten acciones similares realizadas por el adversario.
.jpg)
Los equipos IA de combate han de ser resistentes y resilientes.
Sistemas resilientes
Utilizar un sistema de IA en una zona de combate no es lo mismo que en una empresa. En muchas ocasiones no hay conectividad, con lo que estos sistemas han de poder operar de forma autónoma, con modelos almacenados de forma local. Por otro lado, los rigores de la vida castrense requieren que se trate de equipos robustos tanto a nivel de construcción, como electromagnético.
Pero incluso a nivel de software es importante que un sistema vital para el combate y del que pueden depender vidas humanas, no tenga fallos o deje de responder. Por ello se suelen implementar mecanismos de redundancia o failover, de modo que un dispositivo se puede hacer cargo del trabajo de otro, si el primero falla o ha sido destruido. Incluso dentro de un mismo dispositivo se pueden crear redundancias, para asegurar que los resultados se proporcionan siempre que se necesiten.
Conclusión
La integración de tecnologías de inteligencia artificial en el mundo militar presenta, a partes iguales, toda una serie de retos y de ventajas. Es necesario adaptar los LLM al vocabulario militar para que puedan ser realmente eficientes y hay que garantizar la seguridad de los datos, así como la fiabilidad de las respuestas. Los dispositivos tienen que estar preparados para resistir condiciones adversas, como la falta de comunicaciones, cortes de energía, entornos electromagnéticamente hostiles o ciberataques. Pero, a pesar de todo esto, el potencial que ofrecen los LLM a la profesión militar es enorme y, por ahora, aún se está terminando de descubrir.




