Por favor, use este identificador para citar o enlazar este ítem:
http://ciateq.repositorioinstitucional.mx/jspui/handle/1020/558
Sistema visual con referencia de APRILTAGS para desplazamiento de un drón | |
FRANCISCO JAVIER CAMPOS NAVARRO | |
Luis Enrique Ramos Velasco Carolina Reta | |
Acceso Abierto | |
Atribución-NoComercial-CompartirIgual | |
Drón vuelo semiautónomo Sistema de visión Detección de AprilTags Tello Tellopy Semi-autonomous flight drone Vision system Detection of AprilTags | |
En esta tesis se presenta un algoritmo de asistencia de navegación en el desplazamiento de un micro drón para vuelo semiautónomo en interiores por medio del sistema de visión y marcadores AprilTag, como alternativa a otras infraestructuras. El desplazamiento del drón es guiado por la detección de las AprilTags por medio del sistema de visión; el algoritmo asigna los movimientos o acciones según el marcador visual detectado. El algoritmo de desplazamiento provee la funcionalidad de volar de forma semiautónoma, al colocar estas etiquetas bidimensionales en el campo de vuelo. El drón utilizado para este trabajo es un modelo Tello. El lenguaje de programación utilizando es Python con librerías de OpenCV, AprilTag que son de código abierto. Se evaluó la repetibilidad del algoritmo realizando pruebas en 2 escenarios en interior con condiciones de luz controladas, sin viento y sin obstáculos en el campo de vuelo. Se logró la detección de AprilTags en vuelo y recorrido de los trayectos. Los resultados se obtuvieron comparando las distancias obtenidas de los experimentos de los movimientos individuales contra la distancia de los experimentos finales; donde se combinan acciones y movimientos. Las distancias se midieron desde el punto de despegue al punto de aterrizaje. Se consideraron las distancias obtenidas a través de los experimentos individuales como distancias finales teóricas a comparar contra los resultados de los experimentos de los escenarios finales. En el escenario 1, de los 10 vuelos se tiene una distancia al punto de despegue de 2.88 m con un error relativo de 6% y en el escenario 2 se obtiene una distancia al punto de despegue de 2.93 m con un error relativo de 3 %, logrando un aterrizaje dentro de un área de 35 cm del destino final teórico. Se pudo observar que el sistema de visión dota al drón con la capacidad de guiar al drón en vuelo semiautónomo en interior, para completar una trayectoria con la detección de los marcadores AprilTags. Mediante el algoritmo desarrollado y nuevas mejoras se podrán cubrir actividades para los drones en interiores. In this thesis, an algorithm for navigation assistance in the movement of a micro drone for semi-autonomous flight in indoors is presented. The algorithm uses the AprilTag vision system and markers, as an alternative to other infrastructures. The drone movement is guided by the detection of AprilTags through the vision system; the algorithm assigns movements or actions according to the detected visual marker. The navigation assistance algorithm provides the functionality to fly semi-autonomously by placing two-dimensional AprilTags labels in the flight field. The repeatability of the algorithm was evaluated by carrying out tests in 2 indoor scenarios with controlled light conditions, without wind and obstacles in the flight field. In the scenarios, the following actions were performed: takeoff, forward displacement, then another lateral displacement, and finally landing. This allows achieving the detection of AprilTags in flight and completion of flying routes. The results were obtained by comparing the distances from the experiments of the individual movements against the distance of the final experiments, where drone actions and movements were combined. Distances were measured between take-off and landing points through individual experiments. Theoretical final distances were used to compare achieved results in the final scenarios. In scenario 1, based on 10 flights, there is a distance of 2.88 m between take-off and landing points, with a relative error of 6% against ground truth. In scenario 2, there is a distance of 2.93 m between take-off and landing points, and a relative error of 3% against ground truth. Conducted experimentation reveals that the drone can achieve a landing within an area of 35 cm from the theoretical destination. Also, it was observed that the vision system provides the drone with the ability to fly semi-autonomously in indoors and to complete a flying trajectory through the detection of AprilTags markers. By the developed algorithm and new improvements, it will be possible to cover indoor activities for drones that will help to perform repetitive or dangerous tasks for humans. | |
CIATEQ, A.C. | |
2020 | |
Tesis de maestría | |
Español | |
Público en general | |
TECNOLOGÍA DE LA AUTOMATIZACIÓN | |
Versión revisada | |
submittedVersion - Versión revisada | |
Aparece en las colecciones: | Maestría en Sistemas Inteligentes Multimedia |
Cargar archivos:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
CamposNavarroFrancisco MSIM 2020.pdf | Tesis de maestría en texto completo | 4.44 MB | Adobe PDF | Visualizar/Abrir |