Content uploaded by Jorge Maestre Vidal
Author content
All content in this area was uploaded by Jorge Maestre Vidal on Aug 16, 2019
Content may be subject to copyright.
Desafíos de la aplicación de técnicas de aprendizaje
automático: Soporte a la fijación de objetivos
Resumen- En los últimos años, la adaptación de soluciones
tecnológicas basadas en Inteligencia Artificial se ha convertido en
un elemento disruptivo en tecnologías asociadas a sectores como el
financiero, comunicaciones o transporte. Estos avances permiten el
desarrollo de automatismos que también han demostrado jugar un
papel esencial en las tecnologías emergentes para la defensa, donde
se espera que la implementación de capacidades de aprendizaje
automático mejore la fiabilidad, el tiempo de respuesta y la
efectividad de gran parte de las soluciones existentes. Este estudio
se centra en revisar su impacto en los procesos más sensibles del
Ciclo de Targeting Conjunto, donde la correcta incorporación de
automatismos basados en aprendizaje automático va de la mano de
nuevos desafíos, como la deshumanización del desarrollo del
objetivo o su descontextualización; siendo necesaria su
consideración a la hora de reducir la probabilidad de fuego amigo,
daño colateral o tomas de decisiones que afecten a otros Cursos de
Acción (CoAs).
Palabras clave- Aprendizaje Automático, Artillería, Desarrollo
de Objetivos, Fijación de Objetivos, Targeting.
I. INTRODUCCIÓN
La evolución de la Inteligencia Artificial en los últimos 50
años ha resultado uno de los elementos de transformación y
disrupción tecnológica más relevantes en la historia de la
humanidad, habiendo renovado la manera de plantear
soluciones para sectores tan importantes como la educación,
el transporte o las finanzas [1]. En los últimos años, las
diferentes organizaciones militares han comenzado a adaptar
parte de estas soluciones a sus plataformas defensivas,
jugando un papel esencial en aspectos tan relevantes como la
adquisición de consciencia situacional, toma de decisiones o
planificación de los mejores cursos de acción. La Inteligencia
Artificial también está suponiendo un avance fundamental en
los sistemas de artillería de nueva generación, facilitando la
automatización de tareas y la comprensión del entorno
operacional, alcanzándose así mayor eficiencia y precisión, y
mejorándose las capacidades de fijación de objetivos en los
distintos dominios operacionales.
Con el fin de facilitar la comprensión del impacto de la
Inteligencia Artificial en los nuevos sistemas de artillería, este
estudio se centrará en su papel como soporte a la fijación de
objetivos, haciéndose una revisión de la adaptación de las
diferentes estrategias de aprendizaje automático (del inglés
machine learning) aplicadas a este problema y sus principales
Jorge Maestre Vidal, Indra Sistemas S.A, Digital Labs,
Avenida de Bruselas, 35, Alcobendas, Madrid, España. E-
mail: jmaestre@indra.es.
retos [2]. A diferencia de los métodos convencionales de
fijación de objetivos, la adaptación de técnicas de aprendizaje
automático permite a los sistemas de fuego mejorar su
eficacia a medida que adquieren experiencia sobre el entorno
operacional, automatizando cálculos y distinguiendo matices
imperceptibles para el operador humano. No obstante, su
correcta implementación tendrá que hacer frente a una gran
cantidad de desafíos, como el aprendizaje automático
adversario [3], cambios inesperados en el entorno operacional
[4] o la necesidad de procesar grandes volúmenes de datos en
intervalos muy pequeños de tiempo [5].
II. APRENDIZAJE AUTOMÁTICO
El aprendizaje automático es un área de la Inteligencia
Artificial donde la emulación de los procesos de percepción,
razonamiento y deducción humanos es mejorada a medida
que el sistema adquiere experiencia (conocimiento fáctico),
típicamente recopilada en colecciones de observaciones o
muestras (del inglés datasets). Laskov et al. [6] realizaron dos
observaciones esenciales necesarias para comprender las
diferentes estrategias de adquisición de conocimiento y
decidir la más apropiada para cada caso de uso: en primer
lugar, debe tenerse en cuenta que las muestras etiquetadas son
a menudo difíciles de obtener, situación que puede agravarse
si el sistema opera en tiempo real sobre escenarios donde por
limitaciones de cómputo, no es posible procesar toda la
información extraída. Por otro lado, es imposible disponer de
una colección de observaciones que abarque todas las
posibles situaciones a las que el sistema inteligente será
expuesto. Tradicionalmente el aprendizaje automático puede
ser supervisado, semi-supervisado, no supervisado, reforzado,
transductivo o multitarea; y permitirá la construcción de
modelos de información que facilitarán tareas de
clasificación, regresión, agrupamiento, asociación, reducción
de dimensionalidad o predicción sobre observaciones del
entorno operacional.
III. APRENDIZAJE AUTOMÁTICO Y FIJACIÓN DE OBJETIVOS
Tal y como indicó Lewis en un estudio sobre el impacto
de la Inteligencia Artificial en operaciones militares publicado
en el año 2017 por el Centro de Análisis Naval del
Departamento de Defensa de Estados Unidos [7], el
aprendizaje automático lleva dando soporte a la
automatización de tareas relacionadas con la fijación de
objetivos desde hace décadas. Esto incluye entre otros, la
implementación de técnicas de visión artificial (ver Fig. 1),
predicción de la evolución de objetivos o la asociación de
información procedente de sensores de diferente naturaleza.
Algunas iniciativas recientes como el Algorithm Warfare
Jorge Maestre Vidal, PhD
III Jornadas Conde de Gazola – La Inteligencia Artificial y la Artillería
Cross-Functional Team (Proyecto Maven), Organization for
Applied Scientific Research (TNO), Defense Innovation Unit
Exprimental (DIUx) o la National Geospatial-Intelligence
Agency llevan varios años investigando la manera de incluir
los avances más recientes del aprendizaje automático en estos
automatismos, destacando su uso como soporte a misiones
perpetradas por vehículos autónomos, principalmente UAVs
(del inglés Unmanned Aerial Vehicles). Ejemplos de ello son
el Northrop Grumman X-47B americano, el Dassault
nEUROn europeo o el Mikoyan Skat ruso, los cuales integran
parte de dichos avances. Es importante destacar que
tecnologías similares también han contribuido a mejorar la
automatización de respuestas, estando presentes en sistema de
misiles tierra-aire como los Phalanx CIWS o MIM-104
Patriot americanos, o en los sistemas Iron Dome israelíes,
quedando esta última aplicación fuera del alcance del estudio
realizado.
IV. DIFICULTADES OPERACIONALES
El estudio de Lewis llevó a cabo una revisión en
profundidad de fracasos operacionales, en parte derivados del
uso incorrecto de aprendizaje automático en operaciones
militares [7]. Entre otras, señaló algunas situaciones que
llevarían a causar fuego amigo: identificación errónea de
activos, confusión entre aliados y unidades hostiles, errores al
comunicar la naturaleza de los activos identificados o una
contextualización insuficiente durante el desarrollo del
objetivo. También mencionó varias causas que llevarían a
causar daños colaterales, como el pasar por alto la presencia
de civiles próximos al objetivo, o el confundir civiles con
unidades hostiles. Al aplicarse a la automatización de tares, se
dieron cuenta del uso incorrecto de la Paciencia Táctica, o la
desestimación del resto de CoAs inherentes a la misión. Por
ejemplo, el abatimiento de un objetivo ubicado sobre un
puente necesario para atravesar un rio, resultando en la
destrucción de ambos, y, por lo tanto, derivando en un retraso
inesperado de su finalización.
Otro trabajo, esta vez llevado a cabo por Ekelhof y
publicado en junio del 2018 por el Naval War College del
DoD americano [9], reafirmó el problema de la
descontextualización de objetivos. Además, señaló otras
dificultades operacionales a tener en cuenta, como la falta de
dinamismo al tratar TSTs (del inglés Time‐sensitive Targets),
insuficiencias en la agregación de información procedente de
fuentes heterogéneas, y su impacto en la degradación de la
“humanización” en la toma de decisiones. Ekelhof concluyó
matizando la necesidad de cambiar la mentalidad altamente
orientada al hardware de la armada (del inglés hardware-
mind), por una visión más lógica del entorno operacional y
sus capacidades defensivas (del inglés “software-mind”).
V. DIFICULTADES TÉCNICAS
Las principales dificultades técnicas relacionadas con la
aplicación de aprendizaje automático son generalmente
comunes a las presentes en otras áreas de investigación, como
la seguridad de la información y el reconocimiento de
anomalías. Dada la alta dependencia de su eficacia respecto al
conocimiento fáctico considerando durante los procesos de
entrenamiento, la adquisición de una colección de muestras lo
suficientemente extensa y significativa de las características
del entorno operacional, es sin duda la principal de ellas. El
Figura 1: Ejemplo de identificación de unidades navales
mediante técnicas de visión artificial [8]
aprendizaje deberá ser dinámico, adaptándose a cambios en la
caracterización de la información considerada como
referencia (ej. no estacionariedad, no linealidad, etc.),
evitándose así la problemática inherente al concepto deriva
(del inglés concept drift) [4]. Otra dificultad es la decisión del
mejor criterio de construcción de modelos y las distancias de
similitud a considerar: minimización de falsos positivos,
maximización de tasa de acierto, decisión de equilibrios
intermedios (ej. índice de Youden), etc. [10].
La popularidad del uso de técnicas de aprendizaje
automático en el ámbito de la detección de intrusiones, ha
dado lugar al desarrollo de técnicas para lograr su evasión,
conocidas por la comunidad investigadora como aprendizaje
automático adversario (del inglés, adversarial machine
learning) [3] [11]. También ha derivado en estrategias de
evasión basadas en imitación (del inglés mimicry) [12], que
aunque no tienen antecedentes en escenarios operacionales
reales, se espera que evolucionen de manera natural hacia sus
nuevas aplicaciones en sistemas militares.
Otros desafíos son el procesamiento de grandes volúmenes de
información en tiempo real [5], y la correcta transposición de
las conclusiones alcanzadas por automatismos a la lógica
humana, donde la incertidumbre inherente a los procesos
estocásticos (ver Fig. 2) tendrá que ser adecuadamente
interpretada tanto a lo largo del desarrollo del objetivo, como
en las subsecuentes tareas de toma de decisiones[13].
III Jornadas Conde de Gazola – La Inteligencia Artificial y la Artillería
Figura 2: Ejemplo de incertidumbre en sistema experto
basado en el Modelo Oculto de Markov
Finalmente, cabe destacar la necesidad de considerar la
susceptibilidad de los automatismos basados en aprendizaje
automático a acciones hostiles procedentes del ciberespacio,
las que podrían “envenenar” la información generada
derivando en un incorrecto desarrollo del objetivo [14].
VI. CONCLUSIONES
Este estudio ha revisado algunos de los principales
desafíos técnicos y operacionales inherentes al uso de
automatismos basados en aprendiza automático en los
procesos del desarrollo del objetivo. En vista de los resultados
obtenidos, cabe resaltar que debido a la sensibilidad de las
fases 2 y 3 del ciclo de Targeting conjunto en relación a la
causalidad de fuego fratricida y/o daños colaterales, la
adaptación de automatismos jugará un papel esencial en los
próximos años. No obstante, esto irá de la mano de nuevos
desafíos y riesgos que deberán de afrontarse, abarcando desde
el entrenamiento de sistemas inteligentes, hasta su integración
en activos que actuarán sobre escenarios operacionales reales.
Por otro lado, es de esperar que la automatización del
desarrollo del objetivo contribuya a la deshumanización de las
tareas de decisiones, por lo que la “softwarización” de la
mentalidad militar cada vez será más necesaria. Finalmente
cabe destacar la alta dependencia de estos automatismos y el
ciberespacio como dominio operacional, lo que conlleva la
necesidad de tener constantemente presentes las posibles ciber
amenazas que puedan llevar a un desarrollo de objetivos
insuficiente o envenenado por un adversario hostil.
REFERENCIAS
[1] K. Payne, "Strategy, Evolution, and War: From Apes to Artificial
Intelligence". Strategy, Evolution, and War: From Apes to Artificial
Intelligence. Georgetown University Press, 2018.
[2] P. Svenmarck, L. Luotsinen, M. Nilsson, J. Schubert, "Possibilities
and Challenges for Artificial Intelligence in Military Applications".
NATO STO-MP-IST-160, Nordeaux, Francia, 2018.
[3] B. Biggio, F. Roli, "Wild patterns: Ten years after the rise of
adversarial machine learning". Pattern Recognition, Vol. 84, pp. 317-
331, 2018.
[4] G. Ditzler, M. Roveri, C. Alippi, R. Polikar, "Learning in
Nonstationary Environments: A Survey". IEEE Computational
Intelligence Magazine, Vol. 10(4), pp. 12-25, 2015.
[5] A. Siddiqa, I.A.T. Hashem, I. Yaqoob, M. Marjani, S. Shamshirband,
A. Gani, F. Nasaruddin, "A survey of big data management:
Taxonomy and state-of-the-art". Journal of Network and Computer
Applications, Vol. 71, pp. 151-166, 2016.
[6] P. Laskov, P. Dussel, C. Schafer, K. Rieck, “Learning intrusion
detection: supervised or unsupervised?". En Proc. 13th International
Conference on Image Analysis and Processing (ICIAP 2005), Cagliari,
Italy, pp. 50-57, 2015.
[7] L. Lewis, " Insights for the Third Offset: Addressing Challenges of
Autonomy and Artificial Intelligence in Military Operations". Center
of Naval Analysis, U.S. Navy, Department of Defense (DOD), 2017.
[8] R. Zhanga, K. Zhang, C. Feng, J. Zhang, "S-CNN based ship
detection from high-reslution remote sensing images". En Proc. XXIII
ISPRS Congress, Prague, Czech Republic, 2016
[9] M.A.C. Ekelhof, "Lifting the Fog of Targeting “Autonomous
Weapons” and Human Control through the Lens of Military
Targeting". Naval War College Review, Vol. 71 (3), pp. 61-94, 2018.
[10] M.S. Zitouni, H. Bhaskar, J. Dias, M.E. Al-Mualla, "Advances and
trends in visual crowd analysis: A systematic survey and evaluation of
crowd modelling techniques". Neurocomputing, Vol. 186, 2016.
[11] I.J. Goodfellow, J. Shlens, C. Szegedy. "Explaining and Harnessing
Adversarial Examples", arXiv:1412.6572, 2015.
[12] Jorge Maestre Vidal, A.L.S. Orozco, L.J.G. Villalba, Online
masquerade detection resistant to mimicry, Expert Systems with
Applications, Vol. 61, No. 1, pp. 162-180, 2016.
[13] K. van den Bosch, A. Bronkhorst, "Human-AI Cooperation to Benefit
Military Decision Making". NATO STO-MP-IST-160, Nordeaux,
France, 2018.
[14] S. Jamie, "Cyberspace as a Domain of Operations: What Is NATO's
Vision and Strategy". MCU Journal Vol. 9, 2018.
Jorge Maestre Vidal es doctor en Ingeniería
Informática por la Universidad Complutense de
Madrid y antiguo investigador del Departamento de
Ingeniería del Software e inteligencia Artificial
(DISIA) de su Facultad de Informática.
Actualmente es Especialista Senior en
Ciberseguridad en Indra Sistemas S.A, formando
parte de su departamento Digital Labs. Jorge
Maestre Vidal es el coordinador técnico de los proyectos EDA Cyber
Defence Situation Awareness Package Rapid Research Prototype (CySAP-
RRP) y EDA Generation of Data Sets for Validation of Cyber Defence Tools
(Stage Three). Sus actividades de investigación en Inteligencia Artificial,
Ciberdefensa y su impacto en Escenarios Emergentes de Comunicaciones, le
han llevado a participar en proyectos H2020 como SPARTA, RAMSES,
SELFNET o CRYPTACUS.
III Jornadas Conde de Gazola – La Inteligencia Artificial y la Artillería