- Os ensaios com UAV estão a tornar-se cada vez mais importantes. No entanto, os ensaios com drones envolvem frequentemente demonstrações dispendiosas no mundo real ou simulações 3D genéricas e limitadas.
- A principal vantagem desta plataforma é a sua capacidade de reproduzir ambientes do mundo real num ambiente virtual, tornando os testes com drones mais realistas, acessíveis e escaláveis.
- Dois algoritmos de aprendizagem profunda, YOLO v4 e Mask R-CNN, são utilizados para criar o ambiente de simulação 3D.
Índice
- Necessidade atual de ambientes de simulação realistas
- Comparação: Como se comparam os simuladores existentes
- Arquitetura do sistema e utilização de algoritmos de IA
- Heifu: o UAV utilizado nas simulações
- O que vem a seguir? Melhorias no Gerador de Ambiente Autónomo
- Glossário
- Resumo de 3 minutos
- Respostas às suas perguntas
Necessidade atual de ambientes de simulação realistas
No seu artigo, Autonomous Environment Generator for UAV-Based Simulation, propõem um novo banco de ensaio em que a aprendizagem automática é utilizada para gerar, dimensionar e colocar modelos 3D de forma processual, resultando em simulações cada vez mais realistas. As imagens de satélite servem de base para estes ambientes, permitindo aos utilizadores testar UAVs numa representação mais detalhada de cenários do mundo real.
Comparação: Como se comparam os simuladores existentes
Arquitetura do sistema e utilização de algoritmos de IA
Tecnologias-chave por detrás do gerador de ambiente autónomo
- Frontend (Angular) - Uma interface de fácil utilização que permite aos utilizadores captar e selecionar imagens de satélite.
- Backend (Node.js) - Uma configuração rápida do lado do servidor que processa os dados e trata da comunicação em tempo real.
- Simulador de Gazebo - Um ambiente 3D que processa a simulação com modelos físicos.
- Sistema Operativo de Robôs (ROS) - permite aos utilizadores controlar manual ou autonomamente os UAV durante o ensaio.
Máscara R-CNNpor outro lado, é utilizado para a deteção de estradas, o que requer uma segmentação ao nível do pixel. Gera máscaras que fornecem mais precisão para formas complexas que não se encaixam perfeitamente numa caixa delimitadora. Este modelo foi treinado utilizando o conjunto de dados Spacenet Road Network Detection Challenge.
O gerador foi treinado em conjuntos de dados de imagens aéreas e consegue um equilíbrio entre velocidade e precisão. Quando as imagens de satélite são processadas e os objectos são detectados, os dados são enviados para o backend, onde são armazenados para utilização futura. Os modelos 3D de edifícios, árvores e outros objectos são então dimensionados e colocados no simulador Gazebo nas suas posições geográficas corretas. A simulação é controlada utilizando o Sistema Operativo de Robôs (ROS), que permite aos utilizadores controlar manual ou autonomamente os UAV durante o teste. Os UAVs interagem com estes modelos, permitindo aos testadores simular cenários de voo do mundo real, como a navegação num ambiente urbano.
Ambos os modelos foram testados numa variedade de imagens de satélite e tiveram um bom desempenho geral. No entanto, subsistem ainda alguns desafios, nomeadamente no que respeita à colocação de geometrias complexas de edifícios.
O que vem a seguir? Melhorias no Gerador de Ambiente Autónomo
- Mais classes de objectos - Alargar a gama de objectos detectáveis para incluir mais tipos de edifícios, vegetação e caraterísticas urbanas.
- Tempos de carregamento mais rápidos - Otimização dos processos backend para reduzir os tempos de carga em ambientes de grande escala.
- Simulações guardadas - Desenvolver a capacidade de recarregar simulações anteriores e combinar diferentes localizações geográficas para ambientes de teste maiores.
Glossário
Gerador de ambiente autónomo
YOLO v4 (You Only Look Once, Versão 4)
Conjunto de dados DOTA
Máscara R-CNN
Conjunto de dados do desafio de deteção de redes rodoviárias da Spacenet
Redes Neuronais Convolucionais (CNNs)
Simulador Gazebo 3D
ROS (Sistema Operativo de Robôs)
Resumo de 3 minutos
Ao utilizar algoritmos de aprendizagem automática como o YOLO v4 e o Mask R-CNN, o sistema pode detetar objectos como edifícios, árvores e estradas em imagens de satélite e, em seguida, colocar modelos 3D desses objectos numa simulação. O simulador Gazebo é utilizado para renderizar estes ambientes, que podem depois ser navegados por drones controlados através do Sistema Operativo de Robôs (ROS).
A principal vantagem desta plataforma é a sua capacidade de reproduzir ambientes do mundo real num ambiente virtual, tornando os testes de UAV mais realistas, acessíveis e escaláveis. As plataformas actuais não têm precisão no mundo real ou requerem a colocação manual de objectos 3D, mas este sistema automatiza o processo, reduzindo significativamente o tempo e o custo envolvidos nos testes.
Apesar do seu sucesso, há áreas a melhorar, como a necessidade de modelos de objectos mais detalhados e tempos de carregamento mais rápidos. No futuro, a plataforma pretende incluir a capacidade de guardar e recarregar simulações, tornando-a ainda mais flexível para testes repetidos.
Respostas às suas perguntas
- Partilhar esta publicação