DSpace logo

Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.utmachala.edu.ec/handle/48000/18767
Título : Desarrollo de una aplicación móvil para la detección de enfermedades en la mazorca de cacao utilizando deep learning.
Autor : Ruilova Cumbicos, Raúl Vinicio
Director(es): Rivas Asanza, Wilmer Braulio
Palabras clave : DEEP LEARNING;DETECCION DE OBJETO;YOLOV5;ENFERMEDAD DE CACAO
Fecha de publicación : 2022
Editorial : Machala: Universidad Tëcnica de Machala
Citación : Ruilova Cumbicos, Raúl Vinicio. (2022) Desarrollo de una aplicación móvil para la detección de enfermedades en la mazorca de cacao utilizando deep learning. (trabajo de titulación). UTMACH, Facultad de Ingeniería Civil, Machala, Ecuador.
Descripción : El cacao es susceptible a muchas enfermedades que pueden producir perdidas devastadoras, este es uno de los principales problemas para los pequeños y medianos productores, y hasta para los grandes. Por ello, es clave que en los cultivos de cacao se lleve un correcto control fitosanitario durante todo su ciclo de vida, principalmente en los primeros meses. Las malas prácticas en los cultivos favorecen en gran medida a la aparición de enfermedades y como consecuencia a la pérdida de plantaciones. Las condiciones ambientales también pueden influir al desarrollo de las mismas cuando estas se encuentran en un estado prematuro. Existen varias estrategias de prevención de enfermedades, sin embargo, ninguna de estas medidas asegura la eliminación completa de la afección en el cacao. Por ello es necesario adoptar un enfoque de control para identificar manualmente las mazorcas que han llegado a ser afectadas. Para resolver este problema, el presente trabajo tiene como propósito desarrollar un modelo deep learning capaz de reconocer las enfermedades fitóftora y monilia en mazorcas de cacao. Debido a la capacidad de poder identificar varios objetos en una imagen se decidió elegir un algoritmo de detección de objetos como lo es YOLO en su versión más actual. El modelo será incorporado en una aplicación móvil como producto final, donde se podrá capturar las imágenes mediante la cámara o galería para ejecutar la detección. El proceso de desarrollo se basó en primera instancia de la construcción de un dataset que contenga imágenes con mazorcas enfermas y sanas. Para ello se consideró la captura de fotos y la adición de un dataset encontrado en el repositorio Kaggle. Posteriormente se realizó el etiquetado de cada imagen mediante LabelImg, seleccionando las mazorcas con sus respectivas clases en un cuadro delimitador. Luego, se utilizó la plataforma Roboflow que permitió automatizar las tareas para que nuestro dataset posea el formato deseado. El entrenamiento del modelo con YOLOv5 se llevó a cabo en la nube, mediante el servicio de Google Colaboratory para hacer uso de una GPU. El entrenamiento se basó en la técnica de transfer learning para mejorar nuestro modelo final y obtener mejores resultados dada la limitación de nuestro dataset. El modelo final obtuvo valores de 0.80 de mAP, 0.88 de precisión y 0.73 de sensibilidad. Para utilizarlo en una aplicación móvil, el modelo fue convertido a un formato ONNX y luego con el framework Tencent NCNN a su respectivo formato. La implementación de la aplicación móvil se llevó a cabo según los procedimientos establecidos en la metodología Mobile-D, por lo que se trabajó cada fase con iteraciones. La aplicación se desarrolló utilizando Android Studio y se conformó de dos módulos que son: detección y galería. Permitiendo así realizar la ejecución del modelo dentro del módulo de detección y la visualización de las imágenes resultantes en el módulo galería. Para valorar el rendimiento de nuestro modelo, se realizaron las pruebas utilizando el conjunto test en la aplicación móvil. A partir de las pruebas se obtuvo una matriz de confusión para cada clase y las siguientes métricas: precisión del 0.85, sensibilidad del 0.84 y valor de referencia del 0.84. Con estos resultados se valida que nuestro modelo junto a la aplicación es capaz de detectar las mazorcas enfermas por fitóftora y monilia, además de las que no se encuentran afectadas mediante la clase sana.
Resumen : Cocoa is susceptible to many diseases that can cause devastating losses, this is one of the main problems for small and medium producers, and even for large ones. For this reason, it is key that cocoa crops carry out a correct phytosanitary control throughout their life cycle, mainly in the first months. Bad practices in crops greatly favor the appearance of diseases and, as a consequence, the loss of plantations. Environmental conditions can also influence their development when they are in a premature state. There are several disease prevention strategies, however, none of these measures ensures the complete elimination of the condition in cocoa. Therefore, it is necessary to adopt a control approach to manually identify the ears that have become affected. To solve this problem, the present work aims to develop a deep learning model capable of recognizing phytophthora and monilia diseases in cocoa pods. Due to the ability to identify several objects in an image, it was decided to choose an object detection algorithm such as YOLO in its most current version. The model will be incorporated into a mobile application as a final product, where images can be captured through the camera or gallery to execute the detection. The development process was based in the first instance on the construction of a dataset that contains images with sick and healthy ears. For this, the capture of photos and the addition of a dataset found in the Kaggle repository were considered. Subsequently, each image was labeled using LabelImg, selecting the ears with their respective classes in a bounding box. Then, the Roboflow platform was used, which allowed us to automate the tasks so that our dataset has the desired format. The training of the model with YOLOv5 was carried out in the cloud, using the Google Collaboratory service to make use of a GPU. The training was based on the transfer learning technique to improve our final model and obtain better results given the limitation of our dataset. The final model obtained values of 0.80 for mAP, 0.88 for precision and 0.73 for recall. To use it in a mobile application, the model was converted to an ONNX format and then with the Tencent NCNN framework to its respective format. The implementation of the mobile application was carried out according to the procedures established in the Mobile-D methodology, so the phases were worked with iterations. The application was developed using Android Studio and was made up of two modules: detection and gallery. Thus allowing the execution of the model within the detection module and the display of the resulting images in the gallery module. To assess the performance of our model, the tests were performed using the test set in the mobile application. From the tests, a confusion matrix was obtained for each class and the following metrics: precision of 0.85, recall of 0.84 and f-score of 0.84. With these results, it is validated that our model, together with the application, is capable of detecting cobs affected by phytophthora and monilia, in addition to those that are not affected.
URI : http://repositorio.utmachala.edu.ec/handle/48000/18767
Aparece en las colecciones: Trabajo de Titulación Ingeniería de sistemas

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
TTFIC-2022-IS-DE00021.pdfTRABAJO DE TITULACION3,77 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons