Por favor, use este identificador para citar o enlazar este ítem: http://bibdigital.epn.edu.ec/handle/15000/23673
Título: Desarrollo de un intérprete de 20 frases en lengua de señas ecuatoriana a voz en tiempo real usando redes neuronales recurrentes.
Autor: Guevara Sanandrés, Juan Diego
Palabras clave: SISTEMA INFORMÁTICO
INTELIGENCIA ARTIFICIAL
REDES NEURONALES CONVOLUCIONALES
REDES NEURALES RECURRENTES
LENGUA DE SEÑAS
Fecha de publicación: jul-2022
Editorial: Quito : EPN, 2022.
Citación: Guevara Sanandrés J.D. (2022). Desarrollo de un intérprete de 20 frases en lengua de señas ecuatoriana a voz en tiempo real usando redes neuronales recurrentes.76 páginas. Quito : EPN.
Resumen: Nowadays, deaf signers have several problems to carry out their daily activities normally. The independence and accessibility of these people is affected as they usually need to be accompanied by a speaking person to help them in their daily life. This problem has negative effects on the quality of life of deaf signers. This project seeks to develop a real-time interpreter of 20 sentences of Ecuadorian sign language into speech using artificial intelligence to facilitate communication between deaf and hearing people. This interpreter will have a simple implementation so that it can be portable and, in the future, turn it into a mobile application. For the interpretation process in this work, a combination of a convolutional neural network and a recurrent neural network (CNN-LSTM) was used. The first one extracts the features from an input image that will be the region of interest obtained by Google's MediaPipe library. The second uses the feature vector as input to analyze and memorize the image sequences in the training videos to predict the signed sentence.
Descripción: En la actualidad las personas sordas signantes tienen varios problemas para realizar sus actividades diarias con normalidad. La independencia y accesibilidad de estas personas se ve afectada ya que por lo general necesitan estar acompañados de una persona de habla que les ayude en su día a día. La problemática en cuestión tiene efectos negativos en la calidad de vida de las personas sordas signantes. El presente proyecto busca desarrollar un intérprete en tiempo real de 20 frases de la lengua de señas ecuatoriana a voz mediante el uso de inteligencia artificial para facilitar la comunicación entre personas sordas y oyentes. Dicho intérprete tendrá una implementación simple de modo que este pueda ser portable y en un futuro convertirlo en una aplicación móvil. Para el proceso de interpretación en este trabajó se utilizó una combinación de una red neuronal convolucional y una red neuronal recurrente (CNN-LSTM). La primera extrae las características de una imagen de entrada que será la región de interés obtenida por la librería MediaPipe de Google. La segunda utiliza el vector de características como entrada para analizar y memorizar las secuencias de imágenes en los videos de entrenamiento para predecir la frase signada.
URI: http://bibdigital.epn.edu.ec/handle/15000/23673
Tipo: bachelorThesis
Aparece en las colecciones:Tesis Sistemas Informáticos y de Computación (ISIS)

Ficheros en este ítem:
Fichero Descripción TamañoFormato 
CD 12961.pdf3,18 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.