- Las pruebas con vehículos aéreos no tripulados son cada vez más importantes. Sin embargo, las pruebas con drones suelen consistir en costosas demostraciones en el mundo real o en simulaciones 3D genéricas y limitadas.
- La principal ventaja de esta plataforma es su capacidad para reproducir entornos reales en un entorno virtual, lo que hace que las pruebas con drones sean más realistas, accesibles y escalables.
- Se utilizan dos algoritmos de aprendizaje profundo, YOLO v4 y Mask R-CNN, para crear el entorno de simulación 3D.
Índice
- Necesidad actual de entornos de simulación realistas
- Comparación: Simuladores existentes
- Arquitectura de sistemas y uso de algoritmos de IA
- Heifu: el UAV utilizado en las simulaciones
- ¿Qué viene ahora? Mejoras en el generador de entornos autónomos
- Glosario
- Resumen en 3 minutos
- Respuestas a sus preguntas
Necesidad actual de entornos de simulación realistas
En su artículo, Autonomous Environment Generator for UAV-Based Simulation, proponen un novedoso banco de pruebas en el que el aprendizaje automático se utiliza para generar, escalar y colocar modelos 3D de forma procedimental, lo que da lugar a simulaciones cada vez más realistas. Las imágenes de satélite sirven de base para estos entornos, lo que permite a los usuarios probar vehículos aéreos no tripulados en una representación más detallada de los escenarios del mundo real.
Comparación: Simuladores existentes
Arquitectura de sistemas y uso de algoritmos de IA
Tecnologías clave del generador de entornos autónomos
- Frontend (Angular) - Una interfaz fácil de usar que permite a los usuarios capturar y seleccionar imágenes de satélite.
- Backend (Node.js) - Una rápida configuración del servidor que procesa los datos y gestiona la comunicación en tiempo real.
- Simulador de gazebo - Un entorno 3D que renderiza la simulación con modelos físicos.
- Sistema operativo para robots (ROS) - permite a los usuarios controlar manual o autónomamente los vehículos aéreos no tripulados durante la prueba.
Máscara R-CNNen cambio, se utiliza para la detección de carreteras, que requiere una segmentación a nivel de píxel. Genera máscaras que proporcionan más precisión para formas complejas que no encajan perfectamente en un cuadro delimitador. Este modelo se entrenó utilizando el conjunto de datos Spacenet Road Network Detection Challenge.
El generador se entrenó con conjuntos de datos de imágenes aéreas y logra un equilibrio entre velocidad y precisión. Una vez procesadas las imágenes de satélite y detectados los objetos, los datos se envían al backend, donde se almacenan para su uso futuro. A continuación, los modelos 3D de edificios, árboles y otros objetos se escalan y se colocan en el simulador Gazebo en sus posiciones geográficas correctas. La simulación se controla mediante el Sistema Operativo de Robots (ROS), que permite a los usuarios controlar manual o autónomamente los vehículos aéreos no tripulados durante la prueba. Los UAV interactúan con estos modelos, lo que permite a los probadores simular escenarios de vuelo reales, como la navegación por un entorno urbano.
Ambos modelos se probaron con diversas imágenes de satélite y, en general, obtuvieron buenos resultados. Sin embargo, siguen existiendo algunos problemas, sobre todo en la colocación de edificios de geometría compleja.
¿Qué viene ahora? Mejoras en el generador de entornos autónomos
- Más clases de objetos - Ampliación de la gama de objetos detectables para incluir más tipos de edificios, vegetación y elementos urbanos.
- Tiempos de carga más rápidos - Optimización de los procesos backend para reducir los tiempos de carga en entornos a gran escala.
- Simulaciones guardadas - Desarrollar la capacidad de recargar simulaciones anteriores y combinar distintas ubicaciones geográficas para obtener entornos de prueba más amplios.
Glosario
Generador de entornos autónomos
YOLO v4 (Sólo se mira una vez, versión 4)
Conjunto de datos DOTA
Máscara R-CNN
Conjunto de datos del reto de detección de redes viarias de Spacenet
Redes neuronales convolucionales (CNN)
Simulador Gazebo 3D
ROS (Sistema operativo para robots)
Resumen de 3 minutos
Utilizando algoritmos de aprendizaje automático como YOLO v4 y Mask R-CNN, el sistema puede detectar objetos como edificios, árboles y carreteras en imágenes de satélite y, a continuación, colocar modelos 3D de estos objetos en una simulación. El simulador Gazebo se utiliza para renderizar estos entornos, que luego pueden ser recorridos por drones controlados mediante el Sistema Operativo de Robots (ROS).
La principal ventaja de esta plataforma es su capacidad para reproducir entornos reales en un entorno virtual, lo que hace que las pruebas con UAV sean más realistas, accesibles y escalables. Las plataformas actuales carecen de precisión en el mundo real o requieren la colocación manual de objetos 3D, pero este sistema automatiza el proceso, lo que reduce significativamente el tiempo y el coste de las pruebas.
A pesar de su éxito, hay aspectos que mejorar, como la necesidad de modelos de objetos más detallados y tiempos de carga más rápidos. En el futuro, la plataforma pretende incluir la posibilidad de guardar y recargar simulaciones, lo que la haría aún más flexible para pruebas repetidas.
Respuestas a sus preguntas
- Compartir esta publicación