dc.description.abstract |
A navegação autônoma de robôs e a percepção de ambiente por parte de máquinas, têm
motivado muitas pesquisas em diferentes áreas da ciência, graças ao desafio que representam
e às possibilidades de suas aplicações em praticamente todas as áreas de interação
humana, como indústria, comércio, agropecuária, vigilância e segurança, medicina, militar,
serviços, trânsito, smart city e muitas outras. Atualmente, muitas aplicações para
o controle de veículos autônomos apresentam bons resultados utilizando a visão computacional
como parte integrante do conjunto de sensores (BERTOZZI; FASCIOLI, 2000),
sempre com duas ou mais câmeras (visão estéreo e/ou combinada) e algoritmos para
tratar as imagens obtidas. O crescente número de uso de Aeronaves Remotamente Pilotadas
(ARPs) no Brasil e no mundo que, devido a suas reduzidas dimensões e necessidade
de minimizar o consumo de baterias aumentando a autonomia de voo, exigem soluções
compactas e leves, motivou a pesquisa apresentada nesta dissertação, que implementa
uma solução embarcada baseada em visão de computador para que uma ARP consiga
identificar obstáculos e áreas livres a sua frente, e se desviar pela área com maior espaço
livre, utilizando uma única câmera (monovisão) RGB, sistema de cores (Red, Green, Blue)
que se combinam em diferentes intensidades reproduzindo um largo espectro cromático,
representando imagens no espectro visível (imagens que nossos olhos conseguem ver) e
aplicando tratamentos matemáticos clássicos e elementares às mesmas. Foi desenvolvida
nesta pesquisa uma solução embarcada que permite o voo autônomo controlado de uma
ARP integrando software, como os programas Robot Operating System (ROS), simulador
de robôs Gazebo, e hardware, como as controladoras Pixhawk e Raspberry Pi, que foram
aplicadas a uma aeronave de asas rotativas do tipo quadrotor, popularmente conhecida
como “drone”. |
pt_BR |