Conference PaperPDF Available

Sistema de simulación y entrenamiento: visualización de un entorno virtual de navegación

Authors:

Abstract and Figures

Resumen: El empleo de tecnología de simulación por parte de la Armada Argentina, resulta sumamente necesario para el adiestramiento de personal militar y civil. En los últimos años la Armada Argentina ha venido trabajando fuertemente en estos temas, vinculándose con institutos de investigación y universidades nacionales mediante convenios de colaboración, que han derivado en el desarrollo de tres simuladores de entrenamiento para diversas escuelas de la Armada: El simulador Melipal en operación en Puerto Gral. Belgrano, el simulador de periscopio SIPER instalado en la Escuela Nacional de Submarinos y Buceo, y el simulador de embarcación pesquera Melipal-P instalado en la Escuela Nacional de Pesca. En este contexto, se presenta un estudio sobre la aplicación de nuevas tecnologías para el mejoramiento y actualización de los simuladores de entrenamiento antes mencionados. Más concretamente se propone una serie de herramientas graficas para el desarrollo de entornos virtuales de entrenamiento, capaces de recrear todas las situaciones que se le presentan al operario a la hora de recibir la capacitación. Para esta presentación se considera el sistema Melipal como caso particular de aplicación. Palabras clave: simulación, entrenamiento, realidad virtual.
Content may be subject to copyright.
Sistema de simulación y entrenamiento: visualización
de un entorno virtual de navegación
Marcos Lazo
2,4
, Cristian García Bauza
3,4
, Juan D’Amato
1,2,4
, Gustavo Boroni
1,2,4
y
Oscar Grasso
1
1
SIAG - Servicio de Análisis Operativo, Armas y Guerra Electrónica.
2
CONICET - Consejo Nacional de Investigaciones Científicas y Técnicas
3
CIC - Comisión de Investigaciones Científicas
4
UNCPBA – Universidad Nacional del Centro de la Pcia. de Buenos Aires
Resumen: El empleo de tecnología de simulación por parte de la Armada Argentina, resulta
sumamente necesario para el adiestramiento de personal militar y civil. En los últimos años la
Armada Argentina ha venido trabajando fuertemente en estos temas, vinculándose con institutos
de investigación y universidades nacionales mediante convenios de colaboración, que han
derivado en el desarrollo de tres simuladores de entrenamiento para diversas escuelas de la
Armada: El simulador Melipal en operación en Puerto Gral. Belgrano, el simulador de
periscopio SIPER instalado en la Escuela Nacional de Submarinos y Buceo, y el simulador de
embarcación pesquera Melipal-P instalado en la Escuela Nacional de Pesca. En este contexto, se
presenta un estudio sobre la aplicación de nuevas tecnologías para el mejoramiento y
actualización de los simuladores de entrenamiento antes mencionados. Más concretamente se
propone una serie de herramientas graficas para el desarrollo de entornos virtuales de
entrenamiento, capaces de recrear todas las situaciones que se le presentan al operario a la hora
de recibir la capacitación. Para esta presentación se considera el sistema Melipal como caso
particular de aplicación.
Palabras clave: simulación, entrenamiento, realidad virtual.
1. Introducción: descripción del Simulador Melipal
El simulador Melipal fue desarrollado en el año 2001 conjuntamente entre la empresa
Invap S.E (www.invap.net) y la Universidad Nacional del Centro de la Pcia. de Buenos
Aires - UNCPBA (www.unicen.edu.ar) [Melipal 2001][Boroni 2002]. En el año 2005
fue cedido a la Armada Argentina y actualmente se encuentra en funcionamiento en la
ESOA (Escuela de Oficiales de la Armada) en la Base Puerto Belgrano.
El simulador de navegación por radar Melipal esta compuesto por un puesto
“instructor” y como mínimo dos puestos de entrenamiento, los cuales se denominan
“buques propios” (Figura 1).
Figura 1. Arquitectura del simulador Melipal.
El puesto de instructor es manipulado por la persona encargada de la formación de
pilotos de embarcaciones (Figura 2). Las operaciones que el instructor puede realizar
son:
Organizar un ejercicio a partir de un escenario (mapa digitalizado de una carta
de navegación). Sobre el mismo se puede agregar buques propios, boyas, condiciones
climáticas (viento, lluvias locales, etc.) y buques adicionales (blancos) con cursos
predefinidos o dirigidos interactivamente para generar tráfico.
Monitorear un ejercicio y generar eventos a los distintos buques propios.
Además, puede visualizar en tiempo real el estado del radar de cualquier cursante, con
el fin de determinar si está siendo correctamente utilizado.
Reproducir una simulación completa de un ejercicio con el fin de evaluar lo
acontecido durante la ejecución del mismo.
Figura 2. Interfaz del Módulo Instructor.
El puesto de entrenamiento o buque propio es la representación de un puente de mando
de un barco mediante un simulador. Sobre el mismo se dispone de la funcionalidad que
permite al aprendiz o cursante tener la sensación de estar en un “puente real” y que a su
vez pueda gobernar el buque y efectuar ejercicios de observación, punteo y navegación
en la pantalla de radar/ARPA [Otheguy 2002].
Para ello el puesto de entrenamiento esta provisto de los siguientes módulos o
elementos básicos:
Equipo radar/ARPA: este equipo constituye la consola principal del puesto y
representa a un radar genérico real con toda su funcionalidad, incluyendo los comandos
de seguimiento de blancos (ARPA). El mismo se emplea de igual forma que los equipos
reales (Figura 3).
Consola de maniobra: es utilizada para cambiar el rumbo, configurar la
velocidad del “buque propio”, controlar el ángulo de pala del timón, etc. En esta consola
se incluyen también otros instrumentos de navegación como GPS y ecosonda para
monitorear la profundidad. El control de timón y máquina se representan por pantalla,
operando los controles con joystick, rollerball o Mouse (Figura 4).
Carta electrónica (ECDIS): el ECDIS es un producto operacional opcional y es
el mismo utilizado a bordo de los buques. Puede elegirse cualquier sistema de carta
electrónica con el único requerimiento que este debe ser capaz de recibir y mostrar
información tal como profundidad, velocidad, rumbo, posición, etc. utilizando el
protocolo internacional NMEA (Figura 5).
Figura 3. Interfaz del módulo radar.
Figura 4. Interfaz del módulo comando.
Figura 5. Interfaz del módulo cartografía.
2. Ampliación de las capacidades del Simulador Melipal:
implementación de un módulo para la visualización 3D
En los inicios del proyecto Melipal el simulador fue pensado como un sistema de
adiestramiento mediante la utilización del radar [Melipal 2001]. Posteriormente con el
uso del sistema, el cual fue sumamente beneficioso para el entrenamiento de operarios,
surgió la necesidad de aumentar las capacidades funcionales, sobre todo en lo referido a
la visualización del puente del barco asociado al buque propio. Esto motivó a que en el
año 2007 se firmara otro convenio entre la Armada Argentina, Invap S.E. y la
UNCPBA, que condujo a la implementación de un nuevo módulo para el sistema
Melipal, conocido como modulo de Visualización 3D (Figura 6).
Para la implementación del módulo de Visualización 3D se utilizó un editor gráfico
[D’Amato 2005] estructurado en una jerarquía de módulos. Este editor, permite crear
distintos escenarios utilizando georeferenciación para los objetos 3D de la escena,
permitiendo además la personalización en la simulación de clima, definición de objetos
estáticos y móviles, incorporación de objetos con comportamiento complejo que pueden
requerir de simulaciones (como agua marítima, fuego o humo por ejemplo), etc.
La interacción de estos escenarios con el sistema MELIPAL se logra mediante la
tecnología de un motor gráfico desarrollado en la UNCPBA llamado IMPROMPTU, el
cual fue ya presentado en [D’Amato 2004].
El editor se conecta con una base de datos, la cual contiene un catálogo de modelos 3D
y un conjunto de imágenes satelitales de distintas zonas de entrenamiento. De esta
manera el usuario utiliza una de estas imágenes como base, en la cual va colocando
puntos georeferenciados a los que se les asignará un modelo 3D.
Este editor de escenarios, permite también cambiar la configuración de los estados
climáticos del día, tiempos de la simulación, etc. brindando la posibilidad de almacenar
los escenarios creados para que sean utilizados en los ejercicios de simulación.
El módulo de visualización (Figura 7) recibe como datos de entrada todos los objetos
que están interviniendo en el entorno de navegación (buques, boyas, etc.) (Figura 8) los
cuales tiene asignados un modelo 3D previamente establecido, cargando además los
modelos 3D (edificios, bosques, etc.) de los escenarios creados mediante el editor
(Figura 9).
Figura 6. Puesto de entrenamiento con la incorporación del módulo de visualización 3D (sobre el monitor
superior) en la base Puerto Belgrano.
Figura 7. Visualización desde el puente del barco.
Figura 8. Definición del escenario de visualización desde el módulo instructor, con puesta en marco de un
barco.
Figura 9. Visualización entrando al puerto de Mar del Plata.
2.1. Modelos para activación de luces
Apenas se pone el sol, las embarcaciones deben llevar encendidas las luces indicadas
por el reglamento internacional. Durante este intervalo de tiempo no debe exhibirse
ninguna otra luz salvo las que no puedan ser confundidas con las que especifica el
propio reglamento o perjudiquen su visibilidad (Figura 9). Asimismo deben exhibirse en
condiciones de escasa visibilidad o siempre que se considere necesario para señalizar el
barco.
Existen diferentes tipos de luces (luz de tope, luz de alcance, luz de remolque, etc.) con
distintas características (color, tamaño, posición, etc.) las cuales fueron recreadas en los
modelos 3D de los buques.
Adicionalmente se representaron las luces propias del escenario, (farolas, luces de costa,
etc.), teniendo en cuenta intermitencias, intensidad, etc (Figuras 10-11).
Figura 10. Visualización nocturna en el ingreso al puerto de Mar del Plata.
Figura 11. Visualización nocturna desde el puesto de entrenamiento.
2.2. Cielo y efectos climáticos
Para esta tarea se implementó sobre el visualizador 3D los estados de cielo despejado,
parcialmente nublado o totalmente nublado [Yang 2002, Ladner 2001 y Sitnik 2002].
Las nubes se implementaron mediante imágenes mapeadas a los polígonos utilizados
como background, las cuales son trasladados según la dirección del viento,
adicionalmente puede representarse como texturas de volumen para representar cielos
de tormenta. También se representó el sol para el caso de días despejados (Figura 12), o
la luna (Figura 11) y las estrellas en el caso nocturno. En ambos casos se tuvo en cuenta
los contraluces (Figura 12) y los efectos que los mismos producen sobre los
componentes ópticos, los cuales son de gran importancia durante el entrenamiento.
En el caso de la lluvia, nieve y granizo, se modelaron e implementaron mediante
texturas móviles y traslucidas mapeadas sobre polígonos colocados frente a la cámara.
Figura 24. Efecto del sol a contraluz.
3. Conclusiones
La tecnología aplicada en el desarrollo de módulo de Visualización 3D permitió
aumentar la capacidad y la calidad de aplicación del Simulador Melipal. En los últimos
años se han mejorado sustancialmente las herramientas utilizadas para el desarrollo de
dicho módulo, y en la actualidad se están gestando nuevos proyectos de desarrollo para
la actualización de otros simuladores de la Armada Argentina.
4. Referencias
[D’Amato 2004] D’ Amato J., García Bauza C., Vénere M., “Simulación del entorno de una
embarcación pesquera”, en 33º Jornadas Argentinas de Informática e Investig. Operativa,
JAIIO 2004, Córdoba, 2004.
[D’Amato 2005] D’Amato J., García Bauza C., Vénere M. “Editor de Escenarios para
Aplicaciones de Realidad Virtual”. 34 JAIIO, 2005. Actas de las 34 Jornadas Argentinas de
Informática e Investigación Operativa. ISSN 1666-1095
[Ladner 2001]. Ladner R., Shaw K. “An overview of 3D synthetic environment construction”.
3D Synthetic Environment Reconstruction (Series: Kluwer international series in engineering
and computer science), 2001, Vol 611, pp 11-34.
[Sitnik 2002]. Sitnik R., Kujawinska M. “From cloud-of-point coordinates to three-dimensional
virtual environment: the data conversion system”. Optical Engineering, 2002, Vol 41, Iss 2, pp
416-427.
[Yang 2002]. Yang YJ., Wang XS., Chen JX. “Rendering avatars in virtual reality: Integrating
a 3D model with 2D images”. Computing in Science & Engineering, 2002, Vol 4, Iss 1, pp 86-
91.
[Melipal 2001]. Melipal - Simulador en Tiempo Real de Navegación de Embarcaciones Basados
en Imagen Radar”. Destinatario INVAP - Armada Argentina. Convenio de cooperación y
desarrollo tecnológico Armada Argentina - INVAP – UNCPBA. Res. Nº: 1767/2001. Exp. Nº 1-
11643/2001.
[Boroni 2002]. Un simulador distribuido para entrenamiento de operarios”. G. Boroni, M.
Vénere. Proceedings VIII Congreso Argentino de Ciencias de la Computación. 2002. ISBN Nº:
987-96-288-6-1. pp. 727-738.
[Otheguy 2002]. Simulation in real time of radar of horizontal scan”. Otheguy I., Soriano M.,
Boroni G. y Vénere M.. Proceedings of First South American Congress on Computational
Mechanics. 2002. ISSN Nº: 1666-6070. pp. 1203-1212.
Conference Paper
Full-text available
In this work, we present a computational toolkit to perform neuroscience experiments with people inside virtual immersive environment like a CAVE (Computer Assisted Virtual Environment). Several experiments can be designed, performed and measured for customized virtual scenes. Each participant is exposed to experiences in which they search and collect objects within a three-dimensional space, where they have to use spatial strategies to solve the task. The purpose is to study cognitive functions such as perception, attention, cognition and short term memory. These tools can reduce the time of experiments formulations and helps to discover mechanisms of attention and spatial and episodic memory. All information about each participant trajectory, the virtual scene configuration , the location of objects in these scenes, and answers to particular questions regarding the experience is collected and presented in.
Article
Full-text available
RESUMEN En el presente trabajo se describen los desarrollos recientemente realizados en la Universidad Nacional del Centro de la Provincia de Buenos Aires (UNICEN) para simular tanto el entorno visual como el instrumental de embarcaciones pesqueras de alta-mar. Los instrumentos modelados son: ecosonda vertical, ecosonda de red y un sonar de exploración, para los cuales se han propuesto algoritmos originales que permiten una simulación realista en tiempos aceptables. Además se incluye la representación de la visual desde el puente de mando de una de estas embarcaciones, para lo cual se utilizó un motor gráfico recientemente desarrollado en la UNICEN orientado a la representación de escenarios tridimensionales exteriores. INTRODUCCION Después de tres décadas de crecimiento exponencial en la performance de las computadoras, no debería asombrarnos que una simple PC permita hoy realizar simulaciones que estaban restringidas a super-computadoras solo diez años atrás. Sin embargo no deja de ser impactante el cambio observado en los últimos tres años en materia de computación gráfica (sin duda impulsado por la industria de los juegos). Hoy una placa gráfica de 150u$s permite renderizar cientos de millones de polígonos por segundo, implementando completamente en hardware a lenguajes como OpenGL. Esta situación nos pone en un momento excitante en que un mundo de aplicaciones de computación gráfica y realidad virtual esperan a ser desarrolladas. Un ejemplo interesante son las aplicaciones en medicina (ver [1] por ejemplo) que están yendo más allá del diagnóstico por imágenes para comenzar con operaciones en base a imágenes virtuales. Los sistemas de realidad virtual son sin duda una herramienta de importancia para el entrenamiento de operarios, llegando en algunos casos a formar parte obligatoria de los cursos de formación. Por ejemplo, un piloto de aeronaves debe primero cumplir un cierto número de horas en un simulador antes de obtener su habilitación. La implementación de estos sistemas requiere del trabajo multidisciplinario de investigadores en computación gráfica, simulación computacional y hardware, como así también con los usuarios y operarios con experiencia en el área particular. Es sin duda por ello que son muy pocas las empresas en el mundo que ofrecen estos productos con la calidad requerida para formar y licenciar operarios en áreas estratégicas.
Article
The sequential steps of conversion of data gathered by a full-field 3-D shape measurement optical system into CAD/CAM and multimedia environments are discussed. The complete triangulation algorithm, which automatically creates the triangle mesh from the input cloud of points, is described. Each block of this algorithm is explained in detail with special attention paid to the parameters controlling the quality of the data conversion process. The adaptive process of reducing the number of the triangles based on a second derivative of local curvature of an objects' surface is explained. The error analysis is discussed at each step of the cloud data processing in dependency of the algorithm initial parameters. The three algorithms that process additional color information (R,G,B) into the texture mapped on the triangle mesh is presented. The usefulness of the complete conversion process is proved by the manufacturing of an exemplary object, exporting a human 3-D face to the Internet and an example object into a 3-D virtual environment.
Article
This report provides introductory material on three-dimensional synthetic environments. Readers are given an understanding of what synthetic environments are and how they are used in varied disciplines along with a look at some of the technologies used for synthetic environment visualization. Readers are provided with an outline of the sources and nature of synthetic environment data and are presented with the challenges associated with constructing realistic synthetic environments.
Article
Image-based rendering uses images or photographs to replace geometric models. This technique achieves shorter modeling time, faster rendering speed, and more realism. It also addresses different approaches for turning images into models and then into renderings - including panoramas, image warping, and light fields. In this article, we introduce a hybrid approach that integrates a 3D avatar geometric model with 2D images to achieve more realistic avatars as well as speed up avatar rendering in realtime virtual environments
An overview of 3D synthetic environment construction " . 3D Synthetic Environment Reconstruction (Series: Kluwer international series in engineering and computer science
  • R Ladner
  • K Shaw
[Ladner 2001]. Ladner R., Shaw K. " An overview of 3D synthetic environment construction ". 3D Synthetic Environment Reconstruction (Series: Kluwer international series in engineering and computer science), 2001, Vol 611, pp 11-34.
Simulation in real time of radar of horizontal scan
  • I Otheguy
  • M Soriano
  • G Boroni
  • M Vénere
[Otheguy 2002]. Simulation in real time of radar of horizontal scan". Otheguy I., Soriano M., Boroni G. y Vénere M.. Proceedings of First South American Congress on Computational Mechanics. 2002. ISSN Nº: 1666-6070. pp. 1203-1212.
Editor de Escenarios para Aplicaciones de Realidad Virtual
  • J D 'amato
  • García Bauza
  • C Vénere
[D'Amato 2005] D'Amato J., García Bauza C., Vénere M. " Editor de Escenarios para Aplicaciones de Realidad Virtual ". 34 JAIIO, 2005. Actas de las 34 Jornadas Argentinas de Informática e Investigación Operativa. ISSN 1666-1095
Simulador en Tiempo Real de Navegación de Embarcaciones Basados en Imagen Radar". Destinatario INVAP-Armada Argentina. Convenio de cooperación y desarrollo tecnológico Armada Argentina-INVAP-UNCPBA. Res. Nº: 1767
  • Melipal
Melipal-Simulador en Tiempo Real de Navegación de Embarcaciones Basados en Imagen Radar". Destinatario INVAP-Armada Argentina. Convenio de cooperación y desarrollo tecnológico Armada Argentina-INVAP-UNCPBA. Res. Nº: 1767/2001. Exp. Nº 111643/2001.