top of page

IA en el campo de batalla: ¿capacidad o vaporware?

Por Benjamin Cook

 

Paso mucho tiempo en Substack y Telegram. Pero últimamente, me he visto obligado a estar en LinkedIn. Lo odio. Está lleno de vendedores de aceite de serpiente y todo tipo de fabricantes de UAS que afirman que su dron es "IA". Si lees sus materiales de marketing, es una cacofonía de jerga y nomenclatura. Sin sustancia que encontrar. Esa experiencia inspiró esta "lista de verificación". Oh... Vaporware = software o hardware que se ha anunciado pero que aún no está disponible para comprar, ya sea porque es solo un concepto o porque aún se está escribiendo o diseñando.

 

Uso excesivo del término "IA"

En el mercado de defensa actual, "IA" es el acrónimo más abusado en circulación. Cualquier producto que utilice automatización, estadísticas o un modelo preentrenado ahora se vende como "impulsado por IA". Pero ¿qué hay realmente debajo del capó?

A menudo, la realidad es mucho más mundana:

 

● Un motor de reglas básicas.

● Automatización simple sin aprendizaje adaptativo.

● API listas para usar como OpenAI o bibliotecas de visión por computadora, renombradas con una interfaz de usuario elegante.

 

En resumen: no es inteligencia y no es autónomo en ningún sentido significativo.

En términos sencillos, la IA se refiere a realizar tareas que normalmente requerirían inteligencia humana. Eso significa que las herramientas que hemos tenido durante años, basadas puramente en la computación tradicional, no son realmente IA. Lo que hace que algo sea "artificialmente inteligente" no es el hardware en sí, sino los modelos y el entrenamiento detrás de él que conducen a una conclusión similar a la humana. Con suficiente tiempo, electricidad y computación, por ejemplo, encadenando suficientes PC domésticas, eventualmente podría alcanzar la misma salida, asumiendo entradas y arquitectura de modelo idénticas. El resultado no es exclusivo del hardware especializado. Lo que cambia es la rapidez y eficiencia con la que se llega allí. La velocidad mejora la utilidad, especialmente en aplicaciones en tiempo real, pero la velocidad por sí sola no hace que algo sea IA. Puedo minar Bitcoin en un chip de IA como un Jetson Nano. Eso no lo convierte en IA.

 

Evaluación de afirmaciones de IA en sistemas UxS y C4ISR

El problema empeora en el espacio de defensa y seguridad nacional, donde se cruzan el secreto, la complejidad y la exageración del marketing. Muchas empresas afirman que sus plataformas UxS (sistemas no tripulados) o C4ISR (Comando, Control, Comunicaciones, Computadoras, Inteligencia, Vigilancia y Reconocimiento) son "impulsadas por IA", "inteligentes" o "autónomas". Pero ¿qué están vendiendo realmente?

A continuación se muestra un marco escéptico para evaluar las afirmaciones de IA en el campo de batalla. Estas ocho categorías sirven como una lista de verificación, cada una de las cuales es un filtro para detectar vaporware, exageración o capacidad no probada.


ree

 

1. ¿En qué hardware se ejecuta la IA?

Propósito: ¿La arquitectura informática coincide con el rendimiento prometido?

Preguntar:

● ¿Qué procesador integrado se está utilizando? ¿Jetson Nano? ¿Xavier NX? ¿Raspberry Pi con coral? ¿SoC ARM?

● ¿Cuál es el consumo de energía, el perfil térmico y el impacto de la batería?

● ¿La inferencia se realiza en el dispositivo, en el borde o de forma remota en la nube?

 

Banderas rojas:

● Respuestas vagas como "chip personalizado" o "placa propietaria".

● No se reconocen las restricciones SWaP (tamaño, peso y potencia).

● Afirmaciones de rendimiento "en tiempo real", pero la IA se ejecuta solo en entornos de simulación o fuera de línea.

 

2. ¿Quién verificó el rendimiento del modelo y cómo?

Propósito: ¿El rendimiento es real o solo marketing?

Preguntar:

● ¿Se ha probado el sistema en entornos sin GPS o disputados por EW?

● ¿Cuáles son las tasas de falsos positivos, los intervalos de confianza o los resultados de la matriz de confusión?

● ¿Quién hizo la validación? ¿Un socio del gobierno? ¿Laboratorio independiente? ¿Usuarios finales operativos?

 

Banderas rojas:

● Todas las pruebas se realizan internamente o con datos sintéticos.

● No hay evaluación en el campo de batalla o en un entorno disputado.

● Sin auditoría ni verificación de terceros.

 

3. ¿Qué sucede cuando falla la IA?

Propósito: Los sistemas fallarán. ¿Qué pasa después?

Preguntar:

● ¿Existe una supervisión humana dentro del bucle (HITL) o sobre el bucle?

● ¿Cómo se comporta el sistema cuando la confianza es baja?

● ¿Pueden los operadores anular las decisiones de IA en tiempo real?

 

Banderas rojas:

● Afirmaciones de autonomía total sin redes de seguridad.

● Sin explicabilidad, registro o bucles de retroalimentación.

● Comportamiento de caja negra en escenarios de alto riesgo.

 

4. ¿Cómo se obtienen y actualizan los datos de entrenamiento?

Propósito: Una buena IA depende de buenos datos.

Preguntar:

● ¿El modelo se entrenó con datos del mundo real o aproximaciones sintéticas?

● ¿Cómo se etiquetaron y validaron los datos?

● ¿Se vuelve a entrenar el modelo a medida que evolucionan las amenazas?

 

Banderas rojas:

● "Conjunto de datos propietario" sin más detalles.

● Sin entrenamiento adversario ni defensa contra la suplantación de identidad / envenenamiento.

● No hay ciclo de actualización o proceso de ajuste establecido.

 

5. ¿Qué sensores alimentan la IA y cómo se fusionan?

Propósito: La fusión de sensores es difícil. La mayoría no lo hace bien.

Preguntar:

● ¿Qué sensores están involucrados: EO, IR, LiDAR, RF, acústicos?

● ¿La fusión se realiza en el borde o se devuelve a un nodo de comando?

● ¿Cómo maneja el sistema las entradas de sensores conflictivas?

 

Banderas rojas:

● Afirmaciones de "fusión completa" con solo 1 o 2 tipos de sensores.

● Sin puntuación ni priorización entre entradas.

● La lógica de fusión no es transparente o es inaccesible para el operador.

 

Imagen DC Studio
Imagen DC Studio

6. ¿Para qué dominio o misión está optimizada la IA?

Propósito: No existe tal cosa como la IA de propósito general en el campo de batalla.

Preguntar:

● ¿Este sistema está ajustado para ISR urbano? ¿Detección de convoyes rurales? ¿Búsqueda marítima?

● ¿Se ha personalizado para el teatro de operaciones? Ucrania, el estrecho de Taiwán, la frontera con Estados Unidos

● ¿Hay módulos específicos para adversarios?

 

Banderas rojas:

● Afirmaciones de utilidad plug-and-play en cualquier teatro.

● No se menciona la localización o el ajuste fino.

● Palabras de moda como "multidominio" sin sustancia.

 

7. ¿Qué ancho de banda se requiere para operar el sistema?

Propósito: El ancho de banda mata. La IA real debe sobrevivir desconectada.

Preguntar:

● ¿Puede funcionar con radios tácticas de baja velocidad de bits o con respaldo LTE?

● ¿La inferencia se realiza localmente o en la nube?

● ¿Qué sucede cuando las comunicaciones se apagan?

 

Banderas rojas:

● Requiere un enlace ascendente constante o "IA como servicio".

● Sin modo alternativo ni degradado.

● No puede funcionar en entornos denegados.

 

8. ¿Qué marcos normativos o legales se han aplicado?

Propósito: Especialmente para la OTAN y los aliados democráticos, el derecho operativo importa.

Preguntar:

● ¿Se ha revisado el sistema para determinar las ROE, los umbrales de daño civil o las restricciones de autonomía?

● ¿Se pueden auditar las decisiones a posteriori?

● ¿Cómo se evita la escalada?

 

Banderas rojas:

● El proveedor le dice al operador: "Ese es su problema".

● Sin pista de auditoría.

● No hay explicabilidad de cómo se toman las decisiones letales.

bottom of page