- Drohnentests gewinnen zunehmend an Bedeutung. Bei Drohnentests werden jedoch häufig entweder teure reale Demonstrationen oder begrenzte, allgemeine 3D-Simulationen durchgeführt.
- Der Hauptvorteil dieser Plattform ist die Fähigkeit, reale Umgebungen in einer virtuellen Umgebung nachzubilden, was Drohnentests realistischer, zugänglicher und skalierbarer macht.
- Zwei Deep-Learning-Algorithmen, YOLO v4 und Mask R-CNN, werden zur Erstellung der 3D-Simulationsumgebung verwendet.
Index
- Aktueller Bedarf an realistischen Simulationsumgebungen
- Vergleich: Wie bestehende Simulatoren abschneiden
- Systemarchitektur und der Einsatz von KI-Algorithmen
- Schlüsseltechnologien für den Generator für autonome Umgebungen
- Heifu: das in den Simulationen verwendete UAV
- Was kommt als Nächstes? Verbesserungen am Generator für autonome Umgebungen
- Glossar
- 3 Minuten Zusammenfassung
- Ihre Fragen werden beantwortet
Aktueller Bedarf an realistischen Simulationsumgebungen
In ihrem Beitrag Autonomous Environment Generator for UAV-Based Simulation (Autonomer Umgebungsgenerator für UAV-basierte Simulation) schlagen sie eine neuartige Testumgebung vor, in der maschinelles Lernen zur prozeduralen Erzeugung, Skalierung und Platzierung von 3D-Modellen eingesetzt wird, was zu immer realistischeren Simulationen führt. Satellitenbilder dienen als Grundlage für diese Umgebungen und ermöglichen es den Benutzern, UAVs in einer detaillierteren Darstellung realer Szenarien zu testen.
Vergleich: Wie bestehende Simulatoren abschneiden
Systemarchitektur und der Einsatz von KI-Algorithmen
Schlüsseltechnologien für den Generator für autonome Umgebungen
- Frontend (Angular) - Eine benutzerfreundliche Schnittstelle, die es dem Benutzer ermöglicht, Satellitenbilder zu erfassen und auszuwählen.
- Backend (Node.js) - Eine schnelle serverseitige Einrichtung, die die Daten verarbeitet und die Kommunikation in Echtzeit abwickelt.
- Gartenlauben-Simulator - Eine 3D-Umgebung, die die Simulation mit physischen Modellen wiedergibt.
- Roboter-Betriebssystem (ROS) - ermöglicht den Nutzern die manuelle oder autonome Steuerung von UAVs während des Tests.
Maske R-CNNwird dagegen für die Straßenerkennung verwendet, die eine Segmentierung auf Pixelebene erfordert. Es erzeugt Masken, die eine höhere Präzision für komplexe Formen bieten, die nicht genau in eine Bounding Box passen. Dieses Modell wurde anhand des Spacenet Road Network Detection Challenge-Datensatzes trainiert.
Der Generator wurde auf Luftbilddatensätzen trainiert und erreicht ein ausgewogenes Verhältnis zwischen Geschwindigkeit und Genauigkeit. Nach der Verarbeitung der Satellitenbilder und der Erkennung von Objekten werden die Daten an das Backend gesendet, wo sie zur späteren Verwendung gespeichert werden. Die 3D-Modelle von Gebäuden, Bäumen und anderen Objekten werden dann skaliert und im Gazebo-Simulator an ihren korrekten geografischen Positionen platziert. Die Simulation wird mit dem Robot Operating System (ROS) gesteuert, mit dem die Benutzer die Drohnen während des Tests manuell oder autonom steuern können. Die Drohnen interagieren mit diesen Modellen und ermöglichen es den Testern, reale Flugszenarien zu simulieren, z. B. das Navigieren durch eine städtische Umgebung.
Beide Modelle wurden an einer Vielzahl von Satellitenbildern getestet und schnitten insgesamt gut ab. Allerdings gibt es noch einige Herausforderungen, insbesondere bei der Platzierung komplexer Gebäudegeometrien.
Was kommt als Nächstes? Verbesserungen am Generator für autonome Umgebungen
- Weitere Objektklassen - Erweiterung des Spektrums der erfassbaren Objekte, um mehr Gebäudetypen, Vegetation und städtische Merkmale zu erfassen.
- Schnellere Ladezeiten - Optimierung der Backend-Prozesse zur Verkürzung der Ladezeiten für große Umgebungen.
- Gespeicherte Simulationen - Entwicklung der Fähigkeit, frühere Simulationen neu zu laden und verschiedene geografische Standorte für größere Testumgebungen zu kombinieren.
Glossar
Autonomer Umweltgenerator
YOLO v4 (You Only Look Once, Version 4)
DOTA-Datensatz
Maske R-CNN
Spacenet Road Network Detection Challenge Datensatz
Faltungsneuronale Netze (CNNs)
Gartenlaube 3D Simulator
ROS (Roboter-Betriebssystem)
3-Minuten-Zusammenfassung
Durch den Einsatz von Algorithmen des maschinellen Lernens wie YOLO v4 und Mask R-CNN kann das System Objekte wie Gebäude, Bäume und Straßen in Satellitenbildern erkennen und dann 3D-Modelle dieser Objekte in einer Simulation platzieren. Der Gazebo-Simulator wird zum Rendern dieser Umgebungen verwendet, die dann von Drohnen navigiert werden können, die über das Robot Operating System (ROS) gesteuert werden.
Der Hauptvorteil dieser Plattform besteht darin, dass sie reale Umgebungen in einer virtuellen Umgebung nachbilden kann, was Drohnentests realistischer, zugänglicher und skalierbarer macht. Aktuelle Plattformen sind entweder nicht realitätsgetreu oder erfordern die manuelle Platzierung von 3D-Objekten. Dieses System automatisiert den Prozess und reduziert den Zeit- und Kostenaufwand für die Prüfung erheblich.
Trotz des Erfolges gibt es Verbesserungsmöglichkeiten, wie z. B. detailliertere Objektmodelle und schnellere Ladezeiten. In Zukunft soll die Plattform die Möglichkeit bieten, Simulationen zu speichern und neu zu laden, um sie für wiederholte Tests noch flexibler zu machen.