- Les essais de drones sont de plus en plus importants. Cependant, les essais de drones impliquent souvent soit des démonstrations coûteuses dans le monde réel, soit des simulations génériques limitées en 3D.
- Le principal avantage de cette plateforme est sa capacité à reproduire des environnements réels dans un cadre virtuel, ce qui rend les essais de drones plus réalistes, plus accessibles et plus évolutifs.
- Deux algorithmes d'apprentissage profond, YOLO v4 et Mask R-CNN, sont utilisés pour créer l'environnement de simulation 3D.
Index
- Besoin actuel d'environnements de simulation réalistes
- Comparaison : Comparaison des simulateurs existants
- Architecture des systèmes et utilisation d'algorithmes d'IA
- Technologies clés du générateur d'environnement autonome
- Heifu : le drone utilisé dans les simulations
- Prochaines étapes Améliorations du générateur d'environnement autonome
- Glossaire
- Résumé en 3 minutes
- Les réponses à vos questions
Besoin actuel d'environnements de simulation réalistes
Dans leur article intitulé Autonomous Environment Generator for UAV-Based Simulation, ils proposent un nouveau banc d'essai dans lequel l'apprentissage automatique est utilisé pour générer, mettre à l'échelle et placer des modèles 3D de manière procédurale, ce qui permet d'obtenir des simulations de plus en plus réalistes. Les images satellites servent de base à ces environnements, ce qui permet aux utilisateurs de tester les drones dans une représentation plus détaillée des scénarios du monde réel.
Comparaison : Comparaison des simulateurs existants
Architecture des systèmes et utilisation d'algorithmes d'IA
Technologies clés du générateur d'environnement autonome
- Frontend (Angular) - Une interface conviviale qui permet aux utilisateurs de capturer et de sélectionner des images satellites.
- Backend (Node.js) - Une installation rapide côté serveur qui traite les données et gère la communication en temps réel.
- Simulateur de gazebo - Un environnement 3D qui rend la simulation avec des modèles physiques.
- Système d'exploitation de robot (ROS) - permet aux utilisateurs de contrôler manuellement ou de manière autonome les drones pendant l'essai.
Masque R-CNNEn revanche, il est utilisé pour la détection des routes, qui nécessite une segmentation au niveau du pixel. Il génère des masques qui offrent plus de précision pour les formes complexes qui ne s'intègrent pas parfaitement dans une boîte de délimitation. Ce modèle a été entraîné à l'aide de l'ensemble de données Spacenet Road Network Detection Challenge.
Le générateur a été formé sur des ensembles de données d'images aériennes et atteint un équilibre entre vitesse et précision. Une fois les images satellite traitées et les objets détectés, les données sont envoyées au backend, où elles sont stockées en vue d'une utilisation ultérieure. Les modèles 3D de bâtiments, d'arbres et d'autres objets sont ensuite mis à l'échelle et placés dans le simulateur Gazebo à leur position géographique correcte. La simulation est contrôlée à l'aide du Robot Operating System (ROS), qui permet aux utilisateurs de contrôler manuellement ou de manière autonome les drones pendant le test. Les drones interagissent avec ces modèles, ce qui permet aux testeurs de simuler des scénarios de vol réels, tels que la navigation dans un environnement urbain.
Les deux modèles ont été testés sur une variété d'images satellites et ont donné de bons résultats dans l'ensemble. Toutefois, certains défis subsistent, notamment en ce qui concerne le placement de géométries de bâtiments complexes.
Prochaines étapes Améliorations du générateur d'environnement autonome
- Plus de classes d'objets - Élargissement de la gamme d'objets détectables afin d'inclure davantage de types de bâtiments, de végétation et d'éléments urbains.
- Des temps de chargement plus rapides - Optimisation des processus de backend afin de réduire les temps de chargement pour les environnements à grande échelle.
- Simulations sauvegardées - Développer la capacité de recharger les simulations passées et de combiner différents lieux géographiques pour obtenir des environnements d'essai plus vastes.
Glossaire
Générateur d'environnement autonome
YOLO v4 (You Only Look Once, Version 4)
Ensemble de données DOTA
Masque R-CNN
Jeu de données Spacenet pour la détection des réseaux routiers
Réseaux neuronaux convolutifs (CNN)
Gazebo 3D Simulator
ROS (Robot Operating System)
Résumé en 3 minutes
En utilisant des algorithmes d'apprentissage automatique tels que YOLO v4 et Mask R-CNN, le système peut détecter des objets tels que des bâtiments, des arbres et des routes dans des images satellites, puis placer des modèles 3D de ces objets dans une simulation. Le simulateur Gazebo est utilisé pour rendre ces environnements, qui peuvent ensuite être parcourus par des drones contrôlés par le système d'exploitation des robots (ROS).
Le principal avantage de cette plateforme est sa capacité à reproduire des environnements réels dans un cadre virtuel, ce qui rend les essais de drones plus réalistes, plus accessibles et plus évolutifs. Les plateformes actuelles manquent de précision dans le monde réel ou nécessitent le placement manuel d'objets en 3D, mais ce système automatise le processus, ce qui réduit considérablement le temps et le coût des essais.
Malgré son succès, il reste des points à améliorer, comme la nécessité d'avoir des modèles d'objets plus détaillés et des temps de chargement plus rapides. À l'avenir, la plateforme vise à inclure la possibilité de sauvegarder et de recharger les simulations, ce qui la rendra encore plus flexible pour des essais répétés.