DSpace logo

Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.utmachala.edu.ec/handle/48000/13940
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorRivas Asanza, Wilmer Braulio-
dc.contributor.authorFarías Rivera, Fatima Katiuska-
dc.contributor.authorGuerrero Guerrero, Jessica Anabel-
dc.date.accessioned2019-02-19T14:05:35Z-
dc.date.available2019-02-19T14:05:35Z-
dc.date.issued2019-
dc.identifier.citationFarías Rivera, Fatima Katiuska., Guerrero Guerrero, Jessica Anabel (2019) Implementación de un sistema para el conteo volumétrico de objetos mediante redes neuronales convolucionales (trabajo de titulación). UTMACH, Unidad Académica de Ingeniería Civil, Machala, Ecuador. 77 p.es_ES
dc.identifier.urihttp://repositorio.utmachala.edu.ec/handle/48000/13940-
dc.descriptionEn la actualidad, la congestión del tráfico se ha convertido en un problema que afecta a toda la sociedad en general, tanto a conductores que ocupan mucho tiempo en filas inmensas de automóviles, así como también de transeúntes que al estar agobiados por la cantidad de autos se les dificulta el paso entre una acera a la otra. Para esto se ha implementado diferentes soluciones para reducir este problema desde la colocación de semáforos en puntos estratégicos, también el aumento de carriles, pero estas soluciones no disipan del todo la congestión del tráfico. Por consiguiente, la búsqueda de un mejor manejo de información de tráfico, ha dado lugar a la necesidad de beneficiarse de un sistema de detección vehicular y peatonal. Es por ello que surge la idea de implementar un sistema para el conteo de objetos volumétrico mediante redes neuronales. Esta investigación describe el proceso de detección y conteo de objetos en tiempo real los cuales serán de las siguientes clases: vehículos, motocicletas, bicicletas y personas, mediante el uso de redes neuronales convolucionales, a partir de la adquisición y preparación de un conjunto de imágenes, las cuales serán etiquetadas de acuerdo a cada clase a la que pertenezcan. Empleamos un total de 2320 imágenes tomadas en la ciudad de Machala que incluyen carros, motos, bicicletas y personas, de las cuales el 90% se escogió para el entrenamiento y el 10% para la validación. Para el etiquetado de las imágenes se utilizó la herramienta LabelImg, la cual es una herramienta gráfica de anotación de imágenes y soporta el formato YOLO. En el entrenamiento de las imágenes se utilizó la red neuronal Yolov3, la cual utiliza un algoritmo de detección de objetos más eficiente en tiempo real que las demás redes. Para evaluar nuestra red, se estableció el uso de métricas de evaluación, para lo cual hemos probado la red con el conjunto de datos que se ha construido. Las pruebas demuestran que la red tiene un rendimiento de detección eficiente con mAP(precisión promedio) de un 65% con alrededor de 8000 iteraciones, con entradas de imágenes de 416 x 416 en una NVIDIA Geforce 940M. Lo que tomó bastante tiempo solo para el entrenamiento de las imágenes alrededor de unos 5 días por entrenamiento. Para el conteo de objetos se utilizó el API de TensorFlow, Object Counting con el que se logró resultados eficientes con la red neuronal previamente entrenada, se utilizó el protocolo RTSP para la obtención de vídeo en tiempo real, con una cámara Dahua-1218 con resolución de 1280x720(720p) y 40 cuadros por segundo (fps), la cual se instaló en las calles Junín entre Guabo y Kléber Franco por situaciones de seguridad y porque dicha dirección se considera una zona con afluencia de carros, peatones, motos, entre otros. Se realizaron pruebas de rendimiento del sistema de conteo con diferentes archivos de pesos entrenados, con cantidades de imágenes distintas, así como variaciones en las iteraciones. El resultado de estas pruebas arrojaron resultados favorables para la red entrenada con 2320 imágenes con alrededor de 8000 iteraciones con respecto a la precisión (0.52), valor de referencia (0.53) y un mAP de 65.22%. Quedando así un sistema de conteo preciso y que detecta la mayoría de objetos que se presenten en tiempo real.es_ES
dc.description.abstractCurrently, traffic congestion has become a problem that affects the whole society, both drivers who spend a lot of time in huge rows of cars, as well as bystanders who are overwhelmed by the amount of cars they find it difficult to get from one sidewalk to the other. For this, different solutions have been implemented to reduce this problem from the placement of traffic lights at strategic points, also the increase of lanes, but these solutions do not completely dissipate the traffic congestion. Consequently, the search for better handling of traffic information has given rise to the need to benefit from a vehicular and pedestrian detection system. That is why the idea of implementing a system for counting volumetric objects through neural networks arises. This research describes the process of detection and counting of objects in real time which will be of the following classes: vehicles, motorcycles, bicycles and people, through the use of convolutional neural networks, from the acquisition and preparation of a set of images , which will be labeled according to each class to which they belong. We used a total of 2320 images taken in the city of Machala that include cars, motorcycles, bicycles and people, of which 90% was chosen for training and 10% for validation. For the labeling of the images, the LabelImg tool was used, which is a graphical image annotation tool and supports the YOLO format. In training the images, the Yolov3 neural network was used, which uses a more efficient object detection algorithm in real time than other networks. To evaluate our network, the use of evaluation metrics was established, for which we have tested the network with the data set that has been built. The tests show that the network has an efficient detection performance with mAP (average accuracy) of 65% with around 8000 iterations, with 416 x 416 image entries in an NVIDIA Geforce 940M. What took quite some time just for training the images around about 5 days per workout. For object counting we used the TensorFlow API, Object Counting with which we achieved efficient results with the previously trained neural network, we used the RTSP protocol to obtain real-time video, with a Dahua-1218 camera with resolution 1280x720 (720p) and 40 frames per second (fps), which was installed in the streets Junín between Guabo and Kléber Franco due to security situations and because said address is considered an area with an influx of cars, pedestrians, motorcycles, among others . Performance tests of the counting system were performed with different files of trained weights, with different image quantities, as well as variations in the iterations. The results of these tests yielded favorable results for the trained network with 2320 images with around 8000 iterations with respect to accuracy (0.52), reference value (0.53) and a mAP of 65.22%. Thus, an accurate counting system is available that detects most objects that appear in real time.es_ES
dc.format.extent77 p.es_ES
dc.language.isoeses_ES
dc.publisherMachala: Universidad Tëcnica de Machalaes_ES
dc.rightsopenAccesses_ES
dc.rights.urihttps://creativecommons.org/licenses/by-nc-sa/3.0/ec/es_ES
dc.subjectCONTEO DE OBJETOes_ES
dc.subjectDETECCION DE OBJETOes_ES
dc.subjectPROCESAMIENTO DE IMAGENESes_ES
dc.subjectRED NEURONAL CONVOLUCIONALes_ES
dc.titleImplementación de un sistema para el conteo volumétrico de objetos mediante redes neuronales convolucionaleses_ES
dc.typebachelorThesises_ES
dc.emailffarias_est@utmachala.edu.eces_ES
dc.emailjguerrero_est@utmachala.edu.eces_ES
dc.cedula0706790102es_ES
dc.cedula0706409786es_ES
dc.utmachtitulacion.titulacionPropuestas tecnológicases_ES
dc.utmachbibliotecario.bibliotecarioPeralta Mercyes_ES
dc.utmachproceso.procesoPT-011018 (2018-2)es_ES
Aparece en las colecciones: Trabajo de Titulación Ingeniería de sistemas

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
TTUAIC-2019-ISI-DE00001.pdfTRABAJO DE TITULACIÓN4,3 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons