Por favor, use este identificador para citar o enlazar este ítem: http://bibdigital.epn.edu.ec/handle/15000/25083
Registro completo de metadatos
Campo DCValorLengua/Idioma
dc.contributor.authorSalazar Franco, Marco Andrés-
dc.contributor.editorBarona López, Lorena Isabel-
dc.date.accessioned2023-11-15T18:23:19Z-
dc.date.available2023-11-15T18:23:19Z-
dc.date.issued2023-09-
dc.identifier.citationSalazar Franco, M.A. (2023). Plataforma para desarrollo y evaluación de modelos de reconocimiento de gestos de la mano : modelo de reconocimiento de 11 gestos de la mano usando deep learning y celdas de memoria desarrollado en Python. 42 páginas. Quito : EPN.es_ES
dc.identifier.otherT-IS 1780/CD 13593-
dc.identifier.urihttp://bibdigital.epn.edu.ec/handle/15000/25083-
dc.descriptionHoy en día, los progresos tecnológicos y su implementación en áreas como la automatización, la asistencia virtual y la interacción entre humanos y máquinas están en constante evolución. Sin embargo, a medida que la inteligencia artificial (IA) sigue expandiendo sus horizontes, también surgen desafíos significativos relacionados con la replicabilidad de los modelos en entornos reales. El presente componente de investigación se centra en el desarrollo de un modelo de Deep Learning basado en redes neuronales convolucionales (CNN) y redes con celdas de memoria (LSTM) para la clasificación y reconocimiento en tiempo real de 11 gestos de la mano. El modelo hace uso de señales electromiográficas (EMG) y de cuaternión (IMU) como entrada. En este documento, profundizaremos en el proceso de creación de un modelo utilizando la metodología CRISP-ML(Q) para el aprendizaje automático. Siguiendo cada etapa de esta metodología, incluyendo la adquisición de señales, el preprocesamiento, la extracción de características, la clasificación y el post procesamiento. Con esta metodología se obtuvieron resultados como un 60.61% de exactitud de clasificación del modelo y un 21.18% de exactitud de reconocimiento, para ejemplos de validación, haciendo uso de una aplicación para evaluación de modelos de reconocimiento de gestos de la mano.es_ES
dc.description.abstractNowadays, technological advancements and their implementation in areas such as automation, virtual assistance, and human-machine interaction are constantly evolving. However, as artificial intelligence (AI) continues to expand its horizons, significant challenges related to model replicability in real-world settings also arise. The present research component focuses on the development of a Deep Learning model based on Convolutional Neural Networks (CNN) and Long Short-Term Memory (LSTM) networks for real-time classification and recognition of 11 hand gestures. The model utilizes electromyographic (EMG) and quaternion (IMU) signals as input. In this document, we delve into the process of creating a model using the CRISP-ML(Q) methodology for machine learning. Following each stage of this methodology, including signal acquisition, pre-processing, feature extraction, classification, and post-processing. Using this methodology, results were achieved, including a classification accuracy of 60.61% for the model and a recognition accuracy of 21.18%, for validation examples, using an application for evaluating hand gesture recognition models.es_ES
dc.language.isospaes_ES
dc.publisherQuito : EPN, 2023.es_ES
dc.rightsopenAccesses_ES
dc.subjectPROGRAMA DE ORDENADORes_ES
dc.subjectDEEP LEARNINGes_ES
dc.subjectCONVOLUCIÓNes_ES
dc.subjectREDES NEURONALESes_ES
dc.subjectELECTROMIOGRAFÍAes_ES
dc.subjectCELDAS DE MEMORIAes_ES
dc.titlePlataforma para desarrollo y evaluación de modelos de reconocimiento de gestos de la mano : modelo de reconocimiento de 11 gestos de la mano usando deep learning y celdas de memoria desarrollado en Python.es_ES
dc.typeTrabajo de Integración Curriculares_ES
Aparece en las colecciones:TIC - Software

Ficheros en este ítem:
Fichero Descripción TamañoFormato 
CD 13593.pdf1,5 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.