DSpace Comunidad: Tesis de la Maestría en Ciencias de la Computación y Comercio ElectrónicoTesis de la Maestría en Ciencias de la Computación y Comercio Electrónicohttp://bibdigital.epn.edu.ec/handle/15000/80262024-03-29T14:19:40Z2024-03-29T14:19:40ZDesarrollo de un modelo de reconocimiento de cinco gestos de la mano derecha usando redes neuronales transformers.Macías Santillán, Luis Gabriel.http://bibdigital.epn.edu.ec/handle/15000/252942024-02-21T21:52:38Z2024-01-01T00:00:00ZTítulo: Desarrollo de un modelo de reconocimiento de cinco gestos de la mano derecha usando redes neuronales transformers.
Autor: Macías Santillán, Luis Gabriel.
Director: Benalcázar Palacio, Marco Enrique; Barona López, Lorena Isabel
Resumen: Hand gestures represent a natural form of communication and device control. In the field of Hand Gesture Recognition (HGR), Electromyography (EMG) is used to detect the electrical impulses that muscles emit when a movement is generated. Currently, there are several HGR models that use EMG to predict hand gestures. However, most of these models have limited performance in practical applications. This study addresses this issue by using transformers to improve performance and mitigate ambiguity in HGR results. The architecture of our model is composed of a Convolutional Neural Network (CNN), a positional encoding layer and the transformer encoder. To obtain a generalizable model, the EMG-EPN-612 dataset was used. This dataset contains records of 612 individuals. The results were compared with previous research that used CNN, LSTM and transformers. The findings of this research reached a classification accuracy of 95.25 ±4.9% and a recognition accuracy of 91.73 ±8.19%.
Descripción: Los gestos de la mano representan una forma natural de comunicación y control de dispositivos. En el campo del Reconocimiento de Gestos de la Mano (HGR), se utiliza Electro miografía (EMG) para detectar los impulsos eléctricos que los músculos emiten cuando se genera un movimiento. Actualmente, existen varios modelos de HGR que emplean EMG para predecir gestos de la mano. Sin embargo, la mayoría de estos modelos presentan un rendimiento limitado en aplicaciones prácticas. Este estudio aborda esta problemática utilizando transformers para mejorar el rendimiento y mitigar la ambigüedad en los resultados del HGR. El modelo desarrollado incorpora en su arquitectura una Red Neuronal Convolucional (CNN), una capa de positional encoding y el encoder de transformer. Para obtener un modelo generalizable, se utilizó la base de datos EMG-EPN-612, que contiene registros de 612 individuos. Los resultados fueron comparados con investigaciones previas que utilizaron CNN, LSTM y transformers. Los hallazgos de esta investigación alcanzaron una exactitud de clasificación de 95.25 ±4.9% y una exactitud de reconocimiento de 91.73 ±8.19%.2024-01-01T00:00:00ZDesarrollo de un modelo de recomendación de rutas personalizadas para grupos de ciclistas empleando sequence-aware recommender systems.Aguirre Rojas, Marco Esteban.http://bibdigital.epn.edu.ec/handle/15000/252872024-02-06T21:36:30Z2024-01-01T00:00:00ZTítulo: Desarrollo de un modelo de recomendación de rutas personalizadas para grupos de ciclistas empleando sequence-aware recommender systems.
Autor: Aguirre Rojas, Marco Esteban.
Director: Recalde Cerda, Lorena Katherine.
Resumen: In recent times, there has been a notable increase in the adoption of technologies and interactive platforms within the realm of physical fitness and sports. This trend is exemplified by the emergence of products such as Strava, Garmin Connect, and ®Fitocracy. The competitive dynamics within this sector have driven progress in functional features, resulting in the development of more user-friendly applications that reshape the sociotechnical landscape of sports practices. At the same time, despite the widespread prevalence of recommendation systems in sectors like e-commerce and entertainment, their integration into new domains, particularly the sports industry, remains relatively limited. This study presents the creation of a Group Recommender System (GRS) designed for per-sonalized cycling routes, employing Sequence-Aware Recommender Systems. The main objective is to improve the user experience by providing route suggestions to groups of cyclists, encouraging the discovery of new routes. Anchored in the Design Science Research (DSR) framework, the project lays the foundation for an extensive conceptual framework governing the design and construction of artifacts. Experimental findings highlight a positive correlation between normalized discounted cumulative gain quality (NDCG) and user group size, underscoring enhanced performance in larger groups due to increased diversity. Additionally, in model training with the GoSS-Rec algorithm, the Prod2vec model consistently outperforms alternatives in diversity and novelty metrics for both small and large groups. This emphasizes the potential of the GoSS-Rec algorithm with Prod2vec to excel in providing diverse and novel recommendations across groups of varying sizes, contributing to the evolution of recommendation systems in nontraditional domains.
Descripción: En el contexto actual, se observa un crecimiento significativo en la adopción de tecnologías interactivas en el ámbito deportivo, ejemplificado por plataformas como Strava, Garmin Connect y Fitocracy. Este impulso competitivo ha catalizado avances en las características funcionales, resultando en aplicaciones deportivas más accesibles que transforman el panorama sociotécnico de las prácticas deportivas. Sin embargo, a pesar de la presencia generalizada de sistemas de recomendación en sectores como el comercio electrónico, su integración en la industria deportiva sigue siendo limitada. Este trabajo se centra en la creación de un Sistema de Recomendación de Grupos (GRS) para rutas ciclistas personalizadas, utilizando Sistemas de Recomendación conscientes de la Secuencia. El objetivo principal es mejorar la experiencia del usuario al ofrecer sugerencias de rutas a grupos de ciclistas, promoviendo la exploración de nuevas rutas. Enmarcado en la Investigación en Design Science Research (DSR), el proyecto establece un marco conceptual para el diseño y construcción de artefactos. Los resultados experimentales revelan una correlación positiva entre la calidad de la ganancia acumulativa normalizada descontada (NDCG) y el tamaño del grupo de usuarios, destacando mejoras en el rendimiento en grupos más grandes debido a la mayor diversidad. El modelo Prod2vec, entrenado con el algoritmo GoSS-Rec, supera consistentemente a las alternativas en métricas de diversidad y novedad, subrayando su potencial para ofrecer recomendaciones diversas y novedosas en grupos de diferentes tamaños. Este enfoque contribuye a la evolución de los sistemas de recomendación en ámbitos no tradicionales como el ciclismo, mejorando la experiencia deportiva para los usuarios.2024-01-01T00:00:00ZDesarrollo de un modelo “bias-aware” de recomendación de contenido para usuarios de twitter con uso de estrategias de aprendizaje automático y minería de texto.Guerra Almeida, Cleopatra Yomarahttp://bibdigital.epn.edu.ec/handle/15000/252712024-01-16T13:33:19Z2024-01-16T00:00:00ZTítulo: Desarrollo de un modelo “bias-aware” de recomendación de contenido para usuarios de twitter con uso de estrategias de aprendizaje automático y minería de texto.
Autor: Guerra Almeida, Cleopatra Yomara
Director: Recalde Cerda, Lorena Katherine
Resumen: This project proposes the development of a model that allows reducing bias in Twitter content
recommendations based on bias analysis strategies. The objective is to detect, simplify, minimize, and achieve
a certain degree of impartiality during the execution of algorithms that identify bias in Recommendation
Systems. With the development of the bias-aware model, this work aims to evaluate and demonstrate the
existence of bias. The corpus used in this project corresponds to the National Strike that occurred in June 2022
and the Crossed Death in June 2023. The procedure begins with data cleaning, employing techniques such as
tokenization, removal of stopwords, elimination of duplicate tweets, among others. Once the data is cleaned,
word2vec is used to create vectors of 50, 100, and 200 dimensions. Next, the k-means algorithm is applied to
identify clusters. The centroids of each cluster are calculated, and once the political cluster is determined,
tweets containing political content are labeled. Then, different classification algorithms such as SVM, decision
trees, KNN, and Naive Bayes are evaluated for the different dimensions. Finally, a model is proposed that will
use a new political dictionary formed from the minimum distances of words in the political cluster to other
clusters. With this new cluster, the algorithm evaluation procedure is repeated. The metrics used include
Accuracy, F1-score, Recall, Precision, F2, and F0.5
Descripción: Este proyecto propone el desarrollo de un modelo que permita disminuir el sesgo en las recomendaciones de
contenido de Twitter basado en estrategias de análisis de sesgo. El objetivo es que se pueda detectar,
simplificar, minimizar y alcanzar cierto grado de imparcialidad durante la ejecución de los algoritmos que
permiten identificar el sesgo en los Sistemas de Recomendación. Con el desarrollo del modelo bias-aware, este
trabajo persigue evaluar y demostrar la existencia de sesgo. El corpus con el que se trabaja corresponde al Paro
Nacional que se dio en junio 2022 y la Muerte Cruzada en junio 2023. El procedimiento empieza con la
limpieza de los datos, se emplea técnicas como: tokenización, eliminación de stopwords, tweets duplicados,
entre otras. Cuando los datos se encuentran limpios se emplea word2vec para crear vectores de 50, 100 y 200
dimensiones. A continuación, se aplica el algoritmo k-means para identificar clústers. Se calculan los
centroides de cada clúster y una vez que se determina el clúster de política se etiqueta los tweets que tienen
contenido político. Luego se evalúa con diferentes algoritmos de clasificación como: SVM, árboles de decisión,
KNN y Naive Bayes para las diferentes dimensiones. Finalmente, se propone un modelo que empleará un
nuevo diccionario de política formado a partir de las distancias mínimas de las palabras del clúster de política a
los otros clústers. Con este nuevo clúster se repite el procedimiento de evaluación de algoritmos. Las métricas
empleadas son: Accuracy, F1-score, Recall, Precisión, F2 y F0.5.2024-01-16T00:00:00ZConstrucción de un dataset de eventos de conducción utilizando modelos de generación de datos sintéticos mediante Generative Adversarial Networks (GAN).Tamayo Urgilés, Diego Armandohttp://bibdigital.epn.edu.ec/handle/15000/247662023-08-21T20:58:49Z2023-08-01T00:00:00ZTítulo: Construcción de un dataset de eventos de conducción utilizando modelos de generación de datos sintéticos mediante Generative Adversarial Networks (GAN).
Autor: Tamayo Urgilés, Diego Armando
Director: Álvarez Hernández, Myriam Beatriz
Resumen: The development of solutions to reduce traffic accidents in vehicles requires a lot of experimentation and, therefore, a large amount of data. However, due to data confidentiality issues, few free datasets are available in this area, so it is necessary to build datasets that contain several attributes and can be of general use in this field. Given this reality, this project uses the TimeGAN framework for synthetic data generation. TimeGAN is configured in this thesis work with four recurrent neural networks, which obtain a spatial and temporal distribution that seeks to approximate the real data. The synthetic data generated can replace or complement the real data in different scenarios, with the advantage that the synthetic data can be shared without the risk of exposing confidential information of persons or entities associated with these data. The synthetic data will serve to complete the information of an initial dataset built with driving data obtained from heterogeneous sources. In order to evaluate the results of synthetic data generation, qualitative and quantitative methods will be used to establish the usefulness of the data. The synthetic data dataset constructed will then be used in processes of classification of driving events that present a higher risk of causing traffic accidents.
Descripción: El desarrollo de soluciones que disminuyan los accidentes de tránsito en vehículos requiere de mucha experimentación y, por tanto, gran cantidad de datos. Sin embargo, por temas de confidencialidad de los datos, pocos datasets gratuitos se encuentran disponibles en esta área, por lo que se requiere construir datasets que contengan varios atributos y puedan ser de utilidad general dentro de este campo. Ante esta realidad, en este proyecto se utiliza el framework TimeGAN para la generación de datos sintéticos. TimeGAN se configura en este trabajo de tesis con cuatro redes neuronales recurrentes, las cuales obtienen una distribución espacial y temporal que busca aproximarse a la que tienen los datos reales. Los datos sintéticos generados pueden reemplazar o complementar a los datos reales en distintos escenarios, con la ventaja de que los datos sintéticos pueden ser compartidos sin riesgo de que se pueda exponer información confidencial de las personas o entidades asociadas a estos datos. Los datos sintéticos servirán para completar la información de un dataset inicial construido con datos de conducción obtenidos de fuentes heterogéneas. A fin de evaluar los resultados en la generación de datos sintéticos, se utilizarán métodos cualitativos y cuantitativos que permitan establecer la utilidad de los mismos. El dataset de datos sintéticos construido luego se utilizará en procesos de clasificación de eventos de conducción que presenten mayor riesgo de provocar accidentes de tránsito.2023-08-01T00:00:00ZReconocimiento del clima en imágenes utilizando aprendizaje profundo autosupervisado.Acuña Escobar, Diego Andréshttp://bibdigital.epn.edu.ec/handle/15000/245212023-08-08T17:21:04Z2023-05-01T00:00:00ZTítulo: Reconocimiento del clima en imágenes utilizando aprendizaje profundo autosupervisado.
Autor: Acuña Escobar, Diego Andrés
Resumen: Automatic weather recognition from digital images has important applications, such as: land and air traffic control, autonomous vehicles, road safety warnings, crop control, among others. Building deep learning models for weather recognition is a challenge for computer vision when it comes to extracting the deterministic characteristics of each type of weather. Therefore, several related works have proposed models based on binary classifiers, which allow mapping between positive and negative classes. These works have reported as main difficulties that the classes are not completely exclusive and the need for thousands or millions of labeled images for each class required for training deep learning models. To face several of the difficulties identified, in this research paper we propose to apply the concepts of "self-supervised deep learning". Self-supervised learning follows the traditional phases of deep learning and adds the stages of pre-training, transfer learning, and fine tuning. The pretraining stages are the ones that allow to reduce the number of labeled images required, while the later stages allow to generalize and improve the model. The Residual Learning Network Architecture, RESNET, has been selected for this work based on exhaustive research and several practical tests that allow to identify the benefits of using this architecture in the field of weather recognition. The proposed method was tested and adjusted to achieve metrics of 93% in detection rates.
Descripción: El reconocimiento automático del clima en imágenes digitales tiene importantes aplicaciones, tales como: control de tráfico terrestre y aéreo, vehículos autónomos, advertencias de seguridad vial, control de sembríos, entre otras. La construcción de modelos climáticos de aprendizaje profundo es un reto para la visión artificial a la hora de extraer las características determinísticas de cada tipo de clima. Por lo cual, varios trabajos relacionados han propuesto modelos basados en clasificadores binarios, que permiten catalogar entre clases positivas y negativas. Estos trabajos han reportado como principales dificultades que las clases no son completamente excluyentes y la necesidad de miles o millones de imágenes etiquetadas de cada clase para el entrenamiento supervisado de modelos de aprendizaje profundo. Para abordar varias de las dificultades identificadas, en este trabajo de investigación proponemos aplicar los conceptos de “aprendizaje profundo auto supervisado”. El aprendizaje auto supervisado sigue las fases tradicionales del aprendizaje profundo y adiciona las etapas de preentrenamiento, transfer learning, y fine tuning. Las etapas de preentrenamiento son las que permiten reducir la cantidad de imágenes etiquetadas requeridas, mientras que las etapas posteriores permiten generalizar y mejorar el modelo. La arquitectura de una red neuronal profunda de aprendizaje residual, RESNET por sus siglas en inglés, ha sido seleccionada para este trabajo basado en una investigación exhaustiva y varias pruebas prácticas que permitieron identificar los beneficios del uso de esta arquitectura en el campo del reconocimiento del clima. El método propuesto fue probado y ajustado hasta obtener métricas de desempeño del 93%.2023-05-01T00:00:00ZEstabilización de video en base a la discriminación de puntos de interés utilizando mapas de profundidad.Manotoa Sandoval, Hernando Heribertohttp://bibdigital.epn.edu.ec/handle/15000/244932023-08-08T13:28:21Z2022-11-01T00:00:00ZTítulo: Estabilización de video en base a la discriminación de puntos de interés utilizando mapas de profundidad.
Autor: Manotoa Sandoval, Hernando Heriberto
Resumen: The objective of video stabilization is to optimize the quality of the video, being important to eliminate involuntary movements of the camera, until now the existing methods do not discriminate the points of interest as an initial step for video stabilization. The main objective of this study is to define a video stabilization method that discriminates points of interest using depth maps. It begins by analyzing several methods based on CNN that allow obtaining a robust depth map. Where, the method used by the MiDaS v2.1 trained model is used for the first part of the algorithm that consists of taking each frame and obtaining a depth map. In the second part of the algorithm, a base video stabilization algorithm is defined that receives a sequence of frames as input, takes as input the applied frames a mask defined by the depth map. To achieve video stabilization, we use a validated depth mapping method in combination with a video stabilization method. The algorithm proposed in this work was evaluated in 24 videos in 4 different scenarios. Our algorithm achieves an improvement in the ITF of 5% compared between the metrics of the videos stabilized with the proposed method and the stabilized videos that do not use a depth mask as part of their method.
Descripción: El objetivo de la estabilización de video es optimizar la calidad del video, siendo importante eliminar los movimientos involuntarios de la cámara, hasta la actualidad los métodos existentes no discriminan los puntos de interés como paso inicial para la estabilización de video. El objetivo principal de este estudio es definir un método de estabilización de video que discrimine puntos de interés utilizando mapas de profundidad. Se inicia por analizar varios métodos basados en CNN que permitan la obtención de un mapa de profundad robusto. Donde, el método que utiliza el modelo entrenado MiDaS v2.1que es utilizado para primera parte del algoritmo que consiste en tomar cada fotograma y obtener un mapa de profundidad. En la segunda parte de algoritmo, se define un algoritmo base de estabilización de video que recibe como entrada una secuencia de fotogramas, toma como entrada las los fotogramas aplicados una máscara definida por el mapa de profundidad. Para lograr la estabilización de video utilizamos un método validado de obtención de mapas de profundidad en combinación con un método de estabilización de video. El algoritmo propuesto en este trabajo fue evaluado en 24 videos en 4 diferentes escenarios. Nuestro algoritmo logra una mejora en el ITF del 5% comparado entre métrica de los videos estabilizados con el método propuesto y los videos estabilizados que no utilizan una máscara de profundidad como parte de su método.2022-11-01T00:00:00ZDesign Of a multi-agent architecture using deep reinforcement learning to decrease the number of interactions between agents and environment by communicating knowledge.Cárdenas Guilcapi, David Alexanderhttp://bibdigital.epn.edu.ec/handle/15000/237712023-04-06T15:51:21Z2023-01-01T00:00:00ZTítulo: Design Of a multi-agent architecture using deep reinforcement learning to decrease the number of interactions between agents and environment by communicating knowledge.
Autor: Cárdenas Guilcapi, David Alexander
Resumen: The purpose of this integration is to create a communication system where agents can learn from the environment using a deep learning algorithm and communicate the knowledge obtained. Through communication, agents can take advantage of the knowledge of its peers in a way that the number of incorrect actions taken in the environment is reduced. Apart from the use of a pair-based multi-agent architecture with well-defined roles, some adjustments were performed in the deep q learning algorithm. One of them is the addition of information to the observations stored in the experience replay; this additional information is a flag which allows the agent to recognize a relevant state so the value of the rewards can be adjusted during the training of the network. In addition, the use of epsilon-greedy is limited to prevent an agent from exploring states that have already been explored and reported by other agents. These states have been identified as having errors and are therefore not worthy of further exploration. These adjustments proved to be effective since the agent reduces the number of episodes where errors are made in around 86%.
Descripción: El presente proyecto de investigación introduce una integración de tres técnicas de inteligencia artificial. El propósito es crear un sistema de comunicación en donde los agentes puedan aprender del ambiente utilizando un algoritmo de aprendizaje profundo y comunicar el conocimiento obtenido. Mediante la comunicación, los agentes pueden tomar ventaja del conocimiento de sus semejantes de manera que el número de acciones incorrectas tomadas en el ambiente se reducen. Aparte del uso de una arquitectura multi agente con roles bien definidos, algunos ajustes se realizaron en el algoritmo Deep Q Learning. Uno de ellos es la adición de información a las observaciones almacenadas en la experience replay; esta información adicional es una bandera que permite que el agente reconozca un estado relevante de manera que el valor de las recompensas pueda ajustarse durante el entrenamiento de la red neuronal. Otro ajuste es el uso limitado de 𝜀-greedy el cual previene que un agente explore un estado que ya ha sido comunicado por sus similares, ya que los estados que son comunicados representan una observación en donde se cometió un error. Estos ajustes demostraron ser efectivos ya que el agente reduce el número de episodios donde se cometen errores en un 86%. This research project introduces an integration of three artificial intelligence techniques.2023-01-01T00:00:00ZComparación de métodos de extracción de características en el dominio del tiempo, la frecuencia y tiempo-frecuencia usando datasets públicos para reconocimiento de emociones usando OpenBCI.Álvarez Jiménez, Mayra Isabelhttp://bibdigital.epn.edu.ec/handle/15000/230352022-10-03T21:07:52Z2022-09-01T00:00:00ZTítulo: Comparación de métodos de extracción de características en el dominio del tiempo, la frecuencia y tiempo-frecuencia usando datasets públicos para reconocimiento de emociones usando OpenBCI.
Autor: Álvarez Jiménez, Mayra Isabel
Resumen: In the literature, several works have focused on emotion recognition using psychological cues such as skin temperature, heart rate, and brain signals. The study of brain signals has gained much popularity in recent years, as it is unlikely to fake brain activity read through EEG signals. Analysis of EEG signals involves two main processes: feature extraction and classification. This study's main objective is to compare feature extraction methods in the time, frequency, and time-frequency domains using the SEED and DEAP public datasets for emotion classification in EEG signals. We analyzed different characteristics of the three domains; the efficiency of the classifiers' input vectors was validated using the SVM, KNN, and ANN classification algorithms that were selected for being more used and presenting better performances in the state_of_the_art. The proposed model can identify emotions in four quadrants of the valence-arousal representation space using the DEAP dataset and emotions according to their valence, such as neutral, sad, fear, and happiness, in the SEED dataset. We achieved a classification accuracy of 66.20% using time-domain features and the k-NN classifier and 66.0% using frequency domain features and the SVM classifier for the DEAP dataset, with the frequency domain the one with the lower computational cost. We obtained an accuracy of 67.40% for the SEED dataset using time domain features and the SVM classifier.
Descripción: El estudio de señales cerebrales ha ganado gran popularidad en los últimos años ya que resulta improbable fingir la actividad cerebral leída a través de señales EEG. El análisis de las señales EEG implica dos procesos principales: la extracción y clasificación de características. El principal objetivo de este estudio es proponer un modelo utilizando diferentes métodos de extracción de características en los dominios del tiempo, frecuencia y tiempo-frecuencia usando datasets públicos SEED y DEAP para clasificación de emociones en señales EEG. Además, se analizó diferentes características de los tres dominios de tiempo, frecuencia y tiempo-frecuencia, la eficacia de los vectores de entrada de los clasificadores se validó utilizando los algoritmos de clasificación SVM, KNN y ANN seleccionados por ser más utilizados y presentar un mejor rendimiento en el estado del arte. Una vez concluida la etapa de análisis se propuso un modelo capaz de identificar emociones en cuatro cuadrantes del espacio de representación valencia – arousal usando el dataset DEAP, y emociones de acuerdo a su valencia como neutral, triste, miedo y felicidad en el dataset SEED, logrando una precisión de clasificación del 66.20% utilizando características en el dominio del tiempo y el clasificador k-NN y el 66.0% utilizando características en el dominio de la frecuencia y el clasificador SVM para el dataset DEAP, siendo el dominio de la frecuencia el que representa un menor costo computacional. Para el dataset SEED se obtuvo una precisión de 67,40% empleando características en dominio del tiempo y el clasificador SVM.2022-09-01T00:00:00ZDesign and implementation of an agent using reinforcement learning to the operation of a myoelectric prosthesis using EMG signals.Zea Guachamín, Jonathan Alejandrohttp://bibdigital.epn.edu.ec/handle/15000/228332022-08-08T14:28:42Z2022-06-01T00:00:00ZTítulo: Design and implementation of an agent using reinforcement learning to the operation of a myoelectric prosthesis using EMG signals.
Autor: Zea Guachamín, Jonathan Alejandro
Resumen: In the world exists approximately 65 million amputees, 38.7% of which correspond to upper limb amputations, and most of them are found in developing countries. This leads to the necessity of an affordable, easy-to-made hand prosthesis to alleviate these people situation. This project proposes the use of reinforcement learning to train an agent for the operation of a myoelectric prosthesis. A prosthesis prototype with flexible materials was built from an open-source model chosen from the literature. The prothesis was modified and built as a low-cost 3D printed prototype with 4 degrees of freedom, 1 for each finger but the little. A commercial electromyography sensor is used, and just during evaluation a glove with flexion sensors. The training of the agent that operates the prosthesis was divided in two stages, simulation and fine-tuning. For this matter, a simplified model of the prosthesis dynamics was implemented for simulation. Simulation training allowed fast proof of concept testing and hyperparameters selection. Fine-tuning was necessary to adapt the agent to the real hardware. Three approaches for the reward function were considered, the best results were obtained with the combination of 2 of them: the distance to the target, and a discrete reward depending on the selected action by the agent. The performance of the prosthesis was measured using the success rate of the grasp and release tasks obtaining an 86%. From this, we conclude that this research was a successful first step towards achieving a fully functional myoelectric hand prosthesis
Descripción: En este trabajo se propone realizar un modelo de recomendación grupal y se demuestra que usando datos sintéticos se mantiene la protección de los datos en sistemas de recomendación para grupos. Para ello se usaron 2 enfoques para la generación de los datos sintéticos, y así poder ocultar la información privada de los usuarios del grupo. El primer enfoque que fue usado es el de ≪privacidad diferencial≫ el cual usa un modelo de red bayesiana que combina distribuciones de baja dimensión para aproximarse a la distribución de dimensión completa de un conjunto de datos. El segundo enfoque utilizado fue el método de ≪CART≫ el cual usa modelos secuenciales y aplica una transformación a los datos originales de tal forma que se cambian solo algunos valores. Los resultados con los datos sintéticos de ambos enfoques son bastante prometedores y se comprueba que manipulan información menos especifica acerca de las preferencias de los usuarios en el grupo. Nuestro trabajo también muestra que existe viabilidad para poder garantizar privacidad de los datos sin una perdida significativa de precisión en la recomendación grupal.2022-06-01T00:00:00ZSegmentación semántica 2D de la glándula prostática en imágenes de resonancia magnética usando redes neuronales convolucionales.Vacacela Sarango, Silvia Patriciahttp://bibdigital.epn.edu.ec/handle/15000/218902021-11-04T17:14:34Z2021-10-23T00:00:00ZTítulo: Segmentación semántica 2D de la glándula prostática en imágenes de resonancia magnética usando redes neuronales convolucionales.
Autor: Vacacela Sarango, Silvia Patricia
Resumen: Convolutional Neural Network (CNNs) is one of the most commonly used methods for
automatic prostate segmentation in Magnetic Resonance Images (MRI). However, the results of the
literature review in this work show that there is one research on the segmentation of the two main
zones of the prostate gland (peripheral and central zones). This work proposed two different 2D
semantic segmentation models to address the segmentation of the prostate in its main zones. The
first model (Model-A) used an encoder-decoder architecture composed by a global and local U-net.
The former segments the whole prostate, whereas the latter segments the central zone. The second
model (Model-B) used an encoder-classifier architecture, where pixel by pixel classification was
used to achieve the same segmentation goal. Moreover, model B used a VGGnet that was fine
tuned. The Prostate-3T collection of the NCI-ISBI 2013 Challenge database was use to evaluate the
performance of each model. The experimental results show a superior segmentation performance
for Model A (DSC = 96.79% ± 0.15% and IoU = 93.79% ± 0.29%) compared to Model B (DSC = 92.50%
± 1.19% and IoU = 86.13% ± 2.02%)
Descripción: La red neuronal convolucional (CNN) es uno de los métodos más utilizados para la
segmentación automática de la próstata en imágenes de resonancia magnética (MRI). Sin embargo,
los resultados de la revisión de la literatura en este trabajo muestran que existe una investigación
sobre la segmentación de las dos zonas principales de la glándula prostática (zonas periférica y
central). Este trabajo propuso dos modelos de segmentación semántica 2D diferentes para abordar
la segmentación de la próstata en sus zonas principales. El primer modelo (Modelo-A) utilizó una
arquitectura de codificador-decodificador compuesta por una U-net global y local. El primero
segmenta toda la próstata, mientras que la última segmenta la zona central. El segundo modelo
(Modelo-B) utilizó una arquitectura de codificador-clasificador, donde se utilizó la clasificación píxel
por píxel para lograr el mismo objetivo de segmentación. Además, el modelo B usó un VGGnet que
tiene un ajuste fino. Se utilizó la colección Prostate-3T de la base de datos del Desafío NCI-ISBI 2013
para evaluar el rendimiento de cada modelo. Los resultados experimentales muestran un
rendimiento de segmentación superior para el Modelo A (DSC = 96,79% ± 0,15% e IoU = 93,79% ±
0,29%) en comparación con el Modelo B (DSC = 92,50% ± 1,19% e IoU = 86,13% ± 2,02%)2021-10-23T00:00:00ZEvolución de un método basado en símbolos para clasificar series temporales usando minería de datos.Galarza Parra, Sandra Elizabethhttp://bibdigital.epn.edu.ec/handle/15000/217612021-08-06T21:38:29Z2021-07-29T00:00:00ZTítulo: Evolución de un método basado en símbolos para clasificar series temporales usando minería de datos.
Autor: Galarza Parra, Sandra Elizabeth
Resumen: The diagnostic analysis of pathologies related to the auditory system evaluated with brainstem auditory evoked potentials (BAEPs) has been performed manually by the specialist. To make up for the lack of automatic processes for the evaluation of BAEPs, a symbol-based method, Symbolic Pattern-based Classification (SPC), was proposed to support the diagnosis of the mentioned pathologies, which is based on the analysis of BAEPs converted into symbolic time series. In the present research, the algorithm for the numerical to symbolic transformation was modified using cubic splines to smooth the time series by eliminating the residual noise in the taking of these tests and the symbolic time series classification algorithm. our classification method gave very promising results: 99.4% accuracy, 97.8% sensitivity and 100% specificity, which are very similar to the results obtained with the original method, however the execution time of the implemented algorithms are much better than that of the original ones.
Descripción: El análisis del diagnóstico de patologías relacionados con el sistema auditivo evaluados con potenciales evocados auditivos de tronco cerebral (PEATC), se ha realizado por el especialista de forma manual. Para suplir la falta de procesos automáticos de evaluación de los PEATC, se propuso un método basado en símbolos, Symbolic Pattern-based Classification (SPC), para soportar el diagnóstico de las patologías mencionadas, que se basa en el análisis de los PEATC convertidos en series temporales simbólicas. En el presente trabajo se modificó el algoritmo para la transformación numérica a simbólica utilizando splines cúbicos para suavizar las series temporales eliminando el ruido residual en la toma de estas pruebas y el algoritmo de clasificación series temporales simbólicas. El método de clasificación proporcionó resultados muy alentadores: una exactitud de 99.4%, sensibilidad de 97.8% y especificidad del 100%, los cuales son muy similares a los obtenidos con el método original, sin embargo, el tiempo de ejecución de los algoritmos implementados supera con mucho al de los originales.2021-07-29T00:00:00ZDetección de incidentes automovilísticos usando técnicas de aprendizaje de máquinaMoreno Pallares, Mario Gerardohttp://bibdigital.epn.edu.ec/handle/15000/216252021-05-18T14:39:12Z2021-05-03T00:00:00ZTítulo: Detección de incidentes automovilísticos usando técnicas de aprendizaje de máquina
Autor: Moreno Pallares, Mario Gerardo
Resumen: The increase of automobiles on the roads has caused several types of problems, among the most serious are
traffic incidents, frequently caused by speeding. These directly influence the risk of an impact collision, as well
as the probability of death and serious injury.
Every year around 1.35 million deaths are registered worldwide due to traffic accidents and around 50 million
get injuries as a result of those accidents; originating an annual cost of 3% of GDP to the government of each
country.
In recent years, Artificial Intelligence has become a fundamental part of autonomous systems in the field of
transport because it helps control them with minimal human intervention, as in the case of video surveillance
on the roads.
It is important to develop automation tools that help security camera operators to detect traffic incidents,
because for every minute saved in early detection of traffic incidents, up to five minutes can be gained in the
road recovery phase.
The present work has created and compared 100 classification models such as kNN, logistic regression and
SVM. A dataset was created from videos from UCF and CADP which was used to calculate the estimated
speeds using detection and tracking algorithms. These speeds were used for the training and evaluation of the
models, obtaining a model with an accuracy of 0.95 and AUC ROC of 0.96.
Descripción: El aumento de automóviles en las carreteras ha causado varios tipos de problemas entre los más graves están
los incidentes de tránsito, producidos frecuentemente por el exceso de velocidad. Estos influyen directamente
con el riesgo de colisión de impacto, así como la probabilidad de muerte y lesiones graves.
Cada año a nivel mundial se registran alrededor de 1.35 millones de fallecidos a causa de los siniestros de
tránsito y alrededor de 50 millones sufren lesiones a causa de estos; originando un costo anual del 3% del PIB
al gobierno de cada país.
En los últimos años la Inteligencia Artificial ha pasado a formar parte fundamental de los sistemas autónomos
en la rama del transporte porque ayuda al control de los mismos con mínima intervención humana, como en el
caso de la videovigilancia en las vías.
Es importante desarrollar herramientas de automatización que ayuden a los operadores de cámaras de seguridad
a detectar incidentes de tránsito, debido a que por cada minuto ganado en detectar tempranamente los
incidentes de tránsito, se puede ganar hasta cinco minutos en la fase de recuperación de la vía.
El presente trabajo creó y comparó 100 modelos de clasificación como kNN, regresión logística y SVM. Se
creó un conjunto de datos a partir de videos de UCF y CADP el cual sirvió para calcular las velocidades
estimadas mediante algoritmos de detección y seguimiento. Estas velocidades sirvieron para el entrenamiento
y evaluación de los modelos, obteniendo un modelo con exactitud de 0.95 y AUC ROC de 0.96.2021-05-03T00:00:00ZCryptocurrency upward trend direction prediction to optimize trading strategy.Zaldumbide Cevallos, Efraín Gonzalohttp://bibdigital.epn.edu.ec/handle/15000/216102021-05-12T15:12:46Z2021-05-04T00:00:00ZTítulo: Cryptocurrency upward trend direction prediction to optimize trading strategy.
Autor: Zaldumbide Cevallos, Efraín Gonzalo
Resumen: La predicción del comportamiento del mercado de valores es de gran interés en una amplia comunidad de personas. No importa cuán pequeña sea una mejora en este campo, puede impulsar a los inversores a aumentar sus ganancias. En este estudio, analizamos una sección dentro del gran problema del micro-trading utilizando intervalos de tiempo cortos con el objetivo de reducir la influencia social y la especulación del mercado. Intentamos predecir cuándo el precio de una altcoin comienza a subir y alcanza un porcentaje de ganancia mínima que predefinimos.
Seleccionamos la criptomoneda Ethereum (ETH / BTC) como elemento de prueba de entre muchas altcoins existentes y llevamos a cabo experimentos utilizando support vector machine. Explicamos por qué elegimos SVM, la construcción de nuestro conjunto de datos y los procesos de entrenamiento y pruebas. Desglosamos los resultados comparándolos con trabajos relacionados con los objetivos de esta investigación que comparten nuestro interés.
Descripción: The prediction of stock market behavior is of high interest in an extensive community of people. No matter how small an improvement is in this field, it can drive investors to increase their profit. In this study, we analyze one section inside the big problem of micro trading by using intraday short time intervals to reduce the social influence and market speculation. We attempt to predict when an altcoin price starts to rise and reach a predefined minimum profit percentage.
We select the cryptocurrency Ethereum (ETH/BTC) as the test element from many existing altcoins and carry out experiments using a support vector machine algorithm. We explain why we chose SVM, our dataset construction, and the training and testing processes. We break down the results by comparing them with related works that share our interests.2021-05-04T00:00:00ZIdentificación de regiones libres de obstáculos utilizando una red neuronal convolucionalTinizaray Romero, Paúl Isaíashttp://bibdigital.epn.edu.ec/handle/15000/215542021-04-21T22:32:27Z2021-04-08T00:00:00ZTítulo: Identificación de regiones libres de obstáculos utilizando una red neuronal convolucional
Autor: Tinizaray Romero, Paúl Isaías
Resumen: This research presents the configuration, train and evaluation of a convolutional neural network intended to
detect floor regions in point clouds. This is part of the development of an assisted navigation device for visually impaired people. In order that network’s processing time is adequate for this device, the identification of floor regions was tackled as a classification problem of patches generated by a sliding window. But unlike other solutions that use this approach, this work proposes labeling all the pixels of the patch and not overlapping the window with which they are extracted. The net is evaluated in public datasets Labelmefacade and NYU-v2 as well as in a private dataset of scenes retrieved from Faculty of Engineering Systems of Escuela Politécnica Nacional building. Tests conducted in public datasets show a reduction in processing time with respect of state-of-the-art models. Tests conducted in the private dataset show that the net reduces the effect of the noise generated during information retrieving and keeps its compactness, thus guaranteeing a efficient information processing.
Descripción: Esta investigación presenta la configuración, entrenamiento y evaluación de una red neuronal convolucional dedicada a la identificación de regiones libres de obstáculos en nubes de puntos. Todo esto como parte del desarrollo de un dispositivo de navegación asistida para personas con discapacidad visual. Con la finalidad de que el tiempo de procesamiento de la red sea adecuado para este dispositivo, la identificación de regiones libres de obstáculos se abordada como un problema de clasificación de parches, generados a través de una ventana deslizante. Pero a diferencia de otras soluciones que utilizan este enfoque, se plantea etiquetar todos los pixeles del parche y no superponer la ventana con la que se extraen. La red se evalúa en los repositorios públicos Labelmefacade y NUY-v2 así como en un repositorio privado formado por escenas recolectadas en la Facultad de Sistemas de la Escuela Politécnica Nacional. Las pruebas realizadas sobre los repositorios públicos muestran disminución en el tiempo de procesamiento respecto del estado del arte. Las pruebas realizadas sobre el repositorio privado muestran que la red es capaz reducir la influencia del ruido generado durante la adquisición de los datos al mismo tiempo que mantiene una estructura compacta, garantizando así un procesamiento eficiente de la información.2021-04-08T00:00:00ZImplementación y análisis comparativo de algoritmos de clasificación supervisados para identificar a propietarios de firmas manuscritasCulqui Culqui, Germán Franciscohttp://bibdigital.epn.edu.ec/handle/15000/213522021-03-23T18:30:17Z2021-01-06T00:00:00ZTítulo: Implementación y análisis comparativo de algoritmos de clasificación supervisados para identificar a propietarios de firmas manuscritas
Autor: Culqui Culqui, Germán Francisco
Resumen: Financial institutions need to control the errors that the operational user may make when verifying the handwritten signature on documents such as withdrawal slips, checks, and loan promissory notes among others, that involve money transactions. In this work, a model based on convolutional neural networks is proposed to quickly and efficiently classify and identify a person's signature with an accuracy greater than 90%. Two datasets of signatures were used. The first one, entitled CEDAR available for public access, and the second collected by the researchers entitled GC-DB, composed of 121 local signers, who provided 45 signature specimens each one. Before classifying the images, image preprocessing was executed to eliminate implicit noise produced by the capturing device. A problem was found when capturing images on paper of different thicknesses, making the elimination of image noise to be a relatively complex operation. The proposed algorithm's efficiency was compared with two other algorithms that were implemented and validated with the same datasets. The results show that an efficient verification of the handwritten signatures can be executed in such a way as to exceed the established goal, and easy algorithm to implement.
Descripción: La firma manuscrita usada para la identificación personal es necesaria en documentos legales, cheques, contratos, entre otros documentos públicos y privados. Las instituciones financieras realizan controles para evitar errores que pueden cometer en la verificación de la firma manuscrita el personal operativo en documentos que involucran transacciones de dinero, tales como papeletas de retiros, cheques, pagarés, etc. Por esta razón es necesario encontrar e implementar métodos eficaces que nos permitan identificar a personas por su firma manuscrita. En este trabajo se propone un modelo basado en redes neuronales convolucionales que permita clasificar e identificar la firma de una persona con una exactitud superior al 90%, de manera rápida y eficaz. Posteriormente para verificar el desempeño de este algoritmo, se realiza una comparación con otros dos algoritmos. Para esta evaluación se usó dos bases de datos de firmas, la primera llamada CEDAR de acceso público y la segunda base de firmas recolectada por el autor, compuesto de 121 firmantes locales los que han firmado 45 veces cada uno. Los resultados obtenidos de este método propuesto, muestran que es posible realizar una verificación eficiente de firmas manuscritas superando la meta establecida y que el algoritmo propuesto es liviano y fácil de implementar.2021-01-06T00:00:00ZUn modelo para la obtención de interacciones medicamentosas mediante aprendizaje profundo sobre el corpus ’DDI EXTRACTION 2013’Jiménez Hernández, María Cristinahttp://bibdigital.epn.edu.ec/handle/15000/209382020-06-25T20:17:06Z2020-06-19T00:00:00ZTítulo: Un modelo para la obtención de interacciones medicamentosas mediante aprendizaje profundo sobre el corpus ’DDI EXTRACTION 2013’
Autor: Jiménez Hernández, María Cristina
Resumen: Drug-Drug interactions (DDI) constitutes essential and useful information for medical staffand patients, since they provide information on the effects of co-administered medications topatients, during therapy. This study uses a Piecewise Convolutional Neural Network (PCNN)to capture the relationship between pharmacological entities described in the biomedicaldatabases. Additionally, the model incorporates multichannel words to expand vocabularyand decrease the number of unknown words. The stochastic optimizer Adam is used forlearning the network parameters automatically, and Gaussian noise layer is added to improvethe extraction of DDI relationships. Experiments show an improved performance of thenew model, regard to the models found in the current technical literature, related to theDDIExtraction2013 Challenge, with verifiable and reproducible results.
Descripción: Las interacciones medicamentosas (DDI) constituyen información importante y útil para
el personal médico y los pacientes, puesto que proporcionan información sobre los efectos
que producen durante una terapia los medicamentos coadministrados a un paciente. Este
estudio utiliza un modelo convolucional por partes PCNN para capturar eficientemente
la relación que existe entre entidades farmacológicas descrita en la literatura biomédica.
Adicionalmente, este modelo utilizó la incorporación de palabras multicanal para ampliar el
vocabulario y disminuir la cantidad de palabras desconocidas, y el optimizador estocástico
Adam para aprender automáticamente los parámetros de red y se añadió una capa de ruido
Gausiano para la extracción eficaz de relaciones DDI. Los experimentos muestran una mejora
en el rendimiento del nuevo modelo, en relación con los modelos encontrados en la literatura
técnica actual, relacionados con el desafío DDIExtraction2013, con resultados verificables y
reproducibles.2020-06-19T00:00:00ZModelo para predecir las deudas de los contribuyentes con alta probabilidad de no pago en la administración tributariaOrdóñez Placencia, José Fernandohttp://bibdigital.epn.edu.ec/handle/15000/208822020-05-26T16:41:41Z2020-02-18T00:00:00ZTítulo: Modelo para predecir las deudas de los contribuyentes con alta probabilidad de no pago en la administración tributaria
Autor: Ordóñez Placencia, José Fernando
Resumen: One of the main processes in tax administrations is debt management. The objective of this process, among others, is to recover the economic resources declared on the statement made by taxpayers. Due to limitations in tax administrations, such as, staff, tools, time, etc., tax administrations seek to recover debts in the early stages of control, where the cost of collection is lower than in the subsequent stages. In order to optimize the debt management process and contribute to decision-making, this Master's Thesis proposes to carry out a data mining process to develop a model to predict debts of taxpayers with high probability of non-payment. The extraction of knowledge as a result of the data mining process identifies high-risk debts for the debt management process. In addition, our study also allows to develop a survival analysis of the debts of a dataset from a tax administration using machine learning techniques. Three groups of tax debtors with similar payment behavior were identified and a performance of up to 90% was obtained to estimate the payment time of taxpayers. Concordance index metric was used to measure the performance.
Descripción: Uno de los principales procesos en una administración tributaria es la gestión de cobranza. El objetivo de este proceso, entre otros, es recuperar los recursos económicos basados en las declaraciones hechas por los contribuyentes. Debido a las limitaciones en las administraciones tributarias, tales como personal, herramientas, tiempo, etc., las administraciones buscan recuperar valores en etapas tempranas de control donde el costo de cobro es menor para etapas posteriores. Para optimizar el proceso de gestión de cobranza y contribuir a la toma de decisiones, en este trabajo se propone llevar a cabo un proceso de minería de datos para desarrollar un modelo para predecir deudas de contribuyentes con alta probabilidad de no pago. La extracción de conocimiento como producto de la minería de datos permitirá identificar las deudas con alto riesgo para el proceso de gestión de cobranza de manera eficiente. Además, nuestro estudio se enfoca en realizar un análisis de supervivencia de las deudas de un proceso de cobranza en una administración tributaria usando técnicas de aprendizaje automático. Se identificó 3 grupos con comportamiento similar y se obtuvo un desempeño de hasta 90% usando la métrica índice de concordancia.2020-02-18T00:00:00ZTransfer and ensemble learning models in breast mammogram pathology classificationFalconí Estrada, Lenin Gonzalohttp://bibdigital.epn.edu.ec/handle/15000/208532020-05-11T20:23:22Z2020-02-26T00:00:00ZTítulo: Transfer and ensemble learning models in breast mammogram pathology classification
Autor: Falconí Estrada, Lenin Gonzalo
Resumen: Breast cancer is a global concern disease that specially affects women. Early detection of the disease,
through mammography, increases life expectancy and reduces serious consequences of it. However, the
sensitivity of mammography is variable; especially in dense breast. Therefore, it is important to develop
cost effective tools that help to reduce the false positive and negative rates in the radiologist's diagnosis by
providing a second opinion. Since year 2012, Deep Learning has achieved optimistic results in image
classification, object detection, and image segmentation through convolutional neural networks. This
master's thesis explores transfer learning, fine tuning, whole retrain, and ensemble learning techniques to
classify mammogram masses as benign or malignant. For this purpose, 20 pre-trained convolutional neural
networks on the ImageNet Dataset were compared. Furthermore, this work's proposed Automatic Soft
Voting Ensemble (ASVE), which used a Perceptron to automatically tune the soft voting weights of the
fine tuned convolutional neural networks ensemble, has achieved promising results on Inbreast (AUC =
98.2%), MIAS (AUC=97.8%), and in a merged dataset of both (AUC=91.8%). This suggests that this
work's approach is suitable to be implemented in a computer aided diagnostic tool.
Descripción: El cáncer de mama es una enfermedad que afecta especialmente a la mujer. La detección temprana de la enfermedad, a través de la mamografía, aumenta la esperanza de vida y reduce las graves consecuencias de la misma. Sin embargo, la sensitividad de la mamografía es variable; especialmente en senos densos. Por ello, es importante desarrollar herramientas rentables que ayuden al diagnóstico del radiólogo al proporcionar una segunda opinión que reduzca la tasa de falsos positivos y negativos. Desde el año 2012, Deep Learning ha logrado resultados optimistas en clasificación, segmentación de imágenes y detección de objetos, a través de redes neuronales convolucionales. Esta tesis explora transfer learning, fine tuning, re-entrenamiento completo y técnicas de ensemble learning para la clasificar las masas mamográficas como benignas o malignas. Un total de 20 redes pre-entrenadas en el conjunto de datos ImageNet fueron comparadas. El modelo propuesto por esta tesis de Ensamble Automático de Voto Ponderado ha logrado resultados prometedores en Inbreast (AUC = 98.2 %), MIAS (AUC = 97.8%) y en un conjunto de datos combinado de ambas (AUC = 91.8%). Esto sugiere que el enfoque propuesto es adecuado para implementarse en una herramienta de diagnóstico asistida por computadora.2020-02-26T00:00:00ZModelo de gestión de las capacidades aplicable a PYMES combinando ITIL Y COBITCastillo Tobar, Marcelo RaúlHernández López, Gladys Vivianahttp://bibdigital.epn.edu.ec/handle/15000/119582019-04-08T00:02:29Z2015-01-01T00:00:00ZTítulo: Modelo de gestión de las capacidades aplicable a PYMES combinando ITIL Y COBIT
Autor: Castillo Tobar, Marcelo Raúl; Hernández López, Gladys Viviana
Resumen: This research suggest a methodology to manage the Capacity of SMEs (Small and Medium Enterprises) in Ecuador, considering COBIT v4.1 and ITILv3 2007. By using this methodology, enterprises will be able to optimize and clarify their IT investments through some services which are supported by enough and required IT resources. With this elements, the companies will comply with the SLAs (service level agreements), the ones who demand key business processes. The document starts finding a main definition for the concept of capacity management, which establish that it is an IT process management whose goal allows to ensure that IT infrastructure is enough and necessary to comply with the agreements of IT service provision, both current and future requirements of the enterprise. This Capacity Management Model was applied to I.C.A. Cía. Ltda. Interesting information was extracted, for example, the need to work in the documentation as a support to IT operations. The main recommendation is to apply this model to the company at regular period of times to get better evaluations by making the suggested improvements in last evaluation.
Descripción: Esta propuesta es un trabajo de investigación mediante la cual se propone una metodología para Gestión de las Capacidades en las PYMEs del Ecuador tomando como base COBIT v4.1 e ITIL v3 2007, de manera que la empresa pueda optimizar y transparentar sus inversiones en TI a través de servicios informáticos soportados por recursos de TI suficientes y necesarios para cumplir con los acuerdos de provisión de servicios de TI que demandan los procesos claves del negocio. Se inicia encontrando una definición base para el concepto de Gestión de Capacidades, determinándose que: La Gestión de la Capacidad es un proceso de Gestión de las Tecnologías de Información cuyo objetivo es asegurar que la infraestructura de TI, sea lo suficiente y lo necesaria, para cumplir con los acuerdos de provisión de los servicios de TI que requiere la empresa en la actualidad y con proyección al futuro. Este modelo se aplicó en la empresa I.C.A. Cía. Ltda., donde se obtuvieron resultados de interés como por ejemplo la necesidad de trabajar en la documentación como medio de sustento de las operaciones de TI, recomendando aplicar este modelo de forma periódica, de manera que se pueda obtener mejores evaluaciones al aplicar las recomendaciones obtenidas en la evaluación anterior2015-01-01T00:00:00ZDiseño de un plan de gestión de servicios para PYMES, aplicando al marco de procesos ITILFalconí Ausay, Verónica Fernandahttp://bibdigital.epn.edu.ec/handle/15000/84862019-04-07T17:06:45Z2014-08-19T00:00:00ZTítulo: Diseño de un plan de gestión de servicios para PYMES, aplicando al marco de procesos ITIL
Autor: Falconí Ausay, Verónica Fernanda
Resumen: La presente investigación se compone de cuatro capítulos, el primer capítulo se refiere a la Evaluación de la Situación actual y Análisis de Impacto de las TI en los servicios que ofrecen las PYMES en el área de Quito, el segundo capítulo trata de la Determinación de los Procesos ITIL para el Plan de Gestión de Servicios, el tercer capítulo presenta un Plan de Gestión de Servicios para PYMES y el cuarto capítulo es una Aplicación del Plan a un Caso de Estudio. El proceso de investigación, se hizo evaluando la situación actual de las TICs en las PYMES en la ciudad de Quito, para ello se efectuó entrevistas a una muestra determinada de empresas, en la que se determinó la manera en que utilizaban las TICs en cada una de las empresas. Esto ayudará a mejorar las actividades realizadas por cada una de las empresas, para que mejoren sus servicios, optimicen tiempo, y satisfacción de cada uno de sus clientes.
Descripción: 113 hojas : ilustraciones, 21 x 29 cm + CD-ROM 21572014-08-19T00:00:00ZPropuesta de gestión de servicios tecnológicos para la educación en la Universidad Tecnológica Equinoccial (UTE)Auz Quelal, Patricia Aracelihttp://bibdigital.epn.edu.ec/handle/15000/80282019-04-07T12:44:20Z2013-01-01T00:00:00ZTítulo: Propuesta de gestión de servicios tecnológicos para la educación en la Universidad Tecnológica Equinoccial (UTE)
Autor: Auz Quelal, Patricia Araceli
Resumen: La Propuesta de Gestión de Servicios Tecnológicos para la Educación en la Universidad Tecnológica Equinoccial (UTE), se basó en el marco conceptual de referencia ITIL V3. La finalidad del proyecto es atender las demandas de la nueva sociedad tecnológica, mejorando la calidad del servicio e incrementando la productividad en la Comunidad Universitaria. Se realizó el análisis de la Institución describiendo la actividad principal, el esquema organizacional y la evaluación de los servicios prestados por el Departamento de TI. Se desarrolló la Propuesta de Gestión de Servicios Tecnológicos para la Educación, considerando todas las fases ITIL V3 que no cumplen los estándares establecidos en el Grado de Madurez, de acuerdo al resultado de esta evaluación la Estrategia de Servicio es aceptable y la Mejora Continua está inmersa en el diseño por lo que se estudió las fases : Diseño del Servicio, Transición del Servicio y Operación del Servicio; el trabajo incluye entre otros aspectos roles, responsabilidades y procesos estructurados según las recomendaciones de ITIL V3. Por otra parte cada fase tiene un conjunto de indicadores que permitirán evaluar el trabajo realizado. La aplicabilidad de la propuesta se valida mediante un análisis de factibilidad técnica, organizacional, legal y económica.
Descripción: 80 hojas : ilustraciones, 29 x 21 cm + CD-ROM 50202013-01-01T00:00:00Z