DSpace Comunidad:http://bibdigital.epn.edu.ec/handle/15000/75982023-12-30T01:52:56Z2023-12-30T01:52:56ZEvaluación de riesgos de seguridad de la información y generación del plan de gestión de incidentes. Caso de estudio fondo para la protección del agua (FONAG).Chicaiza Chabla, Paul Viniciohttp://bibdigital.epn.edu.ec/handle/15000/252232023-11-23T19:59:15Z2023-09-01T00:00:00ZTítulo: Evaluación de riesgos de seguridad de la información y generación del plan de gestión de incidentes. Caso de estudio fondo para la protección del agua (FONAG).
Autor: Chicaiza Chabla, Paul Vinicio
Director: Barona, Lorena
Resumen: In a highly competitive market, the quality of a software product is crucial as it allows the developer organization to have an advantage over other organizations. However, implementing quality standards represents a significant challenge for novice developers due to various factors such as lack of knowledge of the standards and lack of experience. Additionally, the limited resources of novice developer teams can also be an obstacle to implementing quality standards, thus limiting the growth of these teams. This study presents the results of an experiment carried out with six teams of novice software developers to explore the impact of implementing the standard ISO/IEC TR 29110-5-1-2:2011 on both the software process and product quality. In the experiment, three teams used this standard to guide developing a software product, while the other three did not. All teams used the same scope and requirements specification for the development of the product. The results of the experiment provide evidence that there is a positive impact on the quality of both process and product when ISO/IEC TR 29110 -5-1-2:2011 is implemented in novice developer environments. The software process quality assessment conducted identified the strengths and weaknesses of the process in question. The performance of the controlled teams was superior to the performance of the non-controlled teams. Likewise, the results of the product quality assessment indicate a marked difference between the controlled and non-controlled teams.
Descripción: El presente trabajo de titulación de maestría muestra el proceso que se llevó a cabo para realizar una evaluación de riesgos dentro de la infraestructura informática del Fondo Protección del Agua (FONAG), junto con la generación de un plan de gestión de incidentes a la seguridad de la información. Para llevar a cabo este procedimiento, primero se seleccionó una metodología adecuada para el caso de estudio; segundo, se hizo una exploración del trabajo de la institución y se seleccionó el proceso más importante y crítico dentro de la
estructura organizacional. Luego se aplicó las fases de la metodología MAGERIT, que permitió determinar el riesgo actual y residual de los activos de información en cuanto a la adquisición de bienes y servicios en la organización. En términos generales el nivel de riesgo que existe dentro del proceso seleccionado es bajo, gracias a las salvaguardas que tienen implementadas hasta el momento. Sin embargo, es necesario implementar normativas y ejecutar ciertas actividades para cerrar brechas de seguridad existentes.2023-09-01T00:00:00ZDiseño e implementacion de un sistema de bi, para analizar losprocesos mas criticos mediante indicadores estaticos y dinamicos. un caso de estudio.Ruiz Vaca, Esteban Marcelohttp://bibdigital.epn.edu.ec/handle/15000/252212023-11-23T18:56:13Z2023-10-01T00:00:00ZTítulo: Diseño e implementacion de un sistema de bi, para analizar losprocesos mas criticos mediante indicadores estaticos y dinamicos. un caso de estudio.
Autor: Ruiz Vaca, Esteban Marcelo
Director: Galindo, Julián; Pérez, María
Resumen: The project was based in the development of a Business Intelligence (BI) system for “Colegio de Médicos de Pichincha (CMP)” with the objective of analyzing the demand of affiliates and the money income of the CMP. HEFESTO methodology was used, which involves the management of tools and techniques such as the selection of software for data analysis, visualization tools and data mining techniques for the creation of a DHW that will help the CMP Directory to take decisions based on the improve of their services. Subsequently, it was maked the analysis of the demand for affiliates, reaffiliates, disaffiliations from 2011 to 2015 and a projection of money income for the year 2023 was carried out using Machine Learning based on the training of the linear regression model with estimated data and historical data obtained of the CMP Data Base. The final result was displayed on the web, using the Power BI tool, defining different components and visual graphics for a better understanding of the data. The validation of usability of the BI system was evaluated by 23 users based on SUS (System Usability Scale), between users of CMP Directory and users with basic knowledge in BI, which concluded that the BI system has well-structured management indicators and aesthetic details it observed to improve.
Descripción: El proyecto consistió en el desarrollo de un sistema de Inteligencia de Negocios (BI por sus siglas en inglés) para el Colegio de Médicos de Pichincha (CMP), con el objetivo del analizar la demanda de afiliados y los aportes económicos que ingresan al Colegio. Se utilizó la metodología HEFESTO la cual involucra el manejo de herramientas y técnicas como la selección de software para análisis de datos, herramientas de visualización y técnicas de minería de datos para la creación de un DHW que ayude a la toma de decisiones gerenciales del CMP. Posteriormente se realizó el análisis de la demanda de afiliados,reafiliados,desafiliaciones desde el año 2011 al 2015 y una proyección de ingreso de aportes para el año 2023 usando Machine Learning en base al entrenamiento del modelo de regresión lineal con datos estimados y la data histórica obtenida de ingresos,egresos,reingresos del CMP. El resultado final fue desplegado en la web, mediante la herramienta Power BI, definiendo diferentes componentes y gráficos visuales para el mejor entendimiento de los datos. La usabilidad del sistema de BI, fue evaluada por 23 usuarios en base SUS (Escala de Usabilidad del Sistema), entre los cuales se encontraban personas del directorio del CMP y usuarios con conocimientos básicos en la elaboración de Dashboards y análisis de datos los cuales concluyeron que el sistema BI posee indicadores de gestión bien estructurados y se observaron detalles estéticos por mejorar.2023-10-01T00:00:00ZDesarrollo de dos modelos de clasificación usando boosting y redes neuronales para codificar las actividades económicas y ocupaciones de investigaciones sociodemográficas del INEC.Méndez Moreno, Diana Carolinahttp://bibdigital.epn.edu.ec/handle/15000/250892023-11-15T20:28:00Z2023-09-01T00:00:00ZTítulo: Desarrollo de dos modelos de clasificación usando boosting y redes neuronales para codificar las actividades económicas y ocupaciones de investigaciones sociodemográficas del INEC.
Autor: Méndez Moreno, Diana Carolina
Director: Benalcázar Palacios, Marco Enrique
Resumen: In statistical offices and institutions that collect data on the labor characteristics of individuals, the textual variables economic activity and occupation are coded. This activity serves to facilitate data processing and generate relevant indicators for government planning. At the National Institute of Statistics and Census of Ecuador (INEC), coding is carried out by people trained for this activity. This type of coding, called manual coding, requires a large number of people and can take a long time depending on the amount of data. For example, in the 2010 Population and Housing Census, coding was performed by 310 people lasting 5 months. Because of this, in this master's thesis two classification models were developed to automatically code the economic activities and occupations of sociodemographic research of INEC. For the development of the models, we used Xgboost and Artificial Neural Networks of Feedforward and LSTM type algorithms. The best performing models were obtained using Feedforward Neural Networks, with an accuracy of 95.18% for economic activity and 86.85% for occupations. Compared to manual coding, the implementation of these models to automatically code around 15,000 economic activities and occupations, allowed the reduction time from days to minutes. Furthermore, considering a combined approach (automatic and manual), in which the error rate of the models was less than 5%, the time was reduced to a quarter regarding manual coding and the number of personnel to half.
Descripción: En las oficinas estadísticas e instituciones que recopilan datos de las características laborales de las personas, se realiza la codificación de las variables textuales actividad económica y ocupación. Dicha actividad sirve para facilitar el procesamiento de los datos y generar indicadores relevantes para la planificación gubernamental. En el Instituto Nacional de Estadística y Censos de Ecuador (INEC), la codificación es realizada por personas entrenadas para esta actividad. Este tipo de codificación denominada manual requiere de un gran número de personas y puede durar tiempos extensos dependiendo de la cantidad de datos. Por ejemplo, en el Censo de Población y Vivienda del 2010 la codificación fue realizada por 310 personas durante 5 meses. Por lo mencionado, en esta tesis de maestría se desarrolló dos modelos de clasificación para codificar automáticamente las actividades económicas y ocupaciones de investigaciones sociodemográficas del INEC. Para el desarrollo de los modelos se utilizó los algoritmos Xgboost y Redes Neuronales Artificiales de tipo Feedforward y LSTM. Los modelos con mejor rendimiento se obtuvieron usando las Redes Neuronales Feedforward, con una exactitud de 95.18% para actividad económica y 86.85% para ocupaciones. En comparación con la codificación manual, la implementación de los modelos para codificar automáticamente alrededor de 15.000 actividades económicas y ocupaciones permitió reducir el tiempo de días a minutos. Además, considerando un enfoque combinado (automático y manual), en el cual la tasa de error de los modelos fue menor al 5%, el tiempo se redujo a la cuarta parte y la cantidad de personal a la mitad respecto a la codificación manual.2023-09-01T00:00:00ZDiseño e implementación de un sistema de Inteligencia de Negocios BI, sobre la base de información de educación continua en Ecuador para analizar la oferta y demanda mediante indicadores estáticos y dinámicos.Báez Espinosa, Christian Viniciohttp://bibdigital.epn.edu.ec/handle/15000/250622023-11-14T15:04:26Z2023-11-14T00:00:00ZTítulo: Diseño e implementación de un sistema de Inteligencia de Negocios BI, sobre la base de información de educación continua en Ecuador para analizar la oferta y demanda mediante indicadores estáticos y dinámicos.
Autor: Báez Espinosa, Christian Vinicio
Director: Galindo Lozada, Julián Andrés
Resumen: This master's thesis has the purpose of designing and implementing a BI business intelligence
system, which allows us to carry out the analysis of the supply and demand of continuing education in higher
education institutions in Ecuador; For the supply, the information obtained through market research carried out
in the most important public/private educational institutions in the country was taken as a basis, and for the
demand, information was collected through a survey of different professionals, which allowed us to know the
training preferences. . With the help of the HEFESTO methodology, it was possible to create the Data WareHouse
that contains static and dynamic indicators, which respond to the questions posed in the initial stage of the
methodology. To build the dynamic indicators, the RapidMiner tool was used and the visualization of the
information contained in the Data WareHouse is captured in two DashBoards, one for supply and the other for
demand, prepared in PowerBI.
Descripción: Está tesis de maestría tiene la finalidad de diseñar e implementar un sistema de inteligencia de
negocios BI, que nos permita realizar el análisis de la oferta y la demanda de la educación continua
en las instituciones de educación superior en el Ecuador; para la oferta se tomó como base la
información obtenida mediante una investigación de mercado realizada a las más importantes
instituciones públicas/privadas de educación del país y para la demanda se recopiló información
mediante una encuesta a distintos profesionales lo que nos permitió conocer las preferencias de
capacitación. Con la ayuda de la metodología HEFESTO se logró crear el Data WareHouse que
contiene los indicadores estáticos y dinámicos, los cuales responden a las preguntas planteadas en
la etapa inicial de la metodología. Para la construcción de los indicadores dinámicos se utilizó la
herramienta RapidMiner y la visualización de la información contenida en el Data WareHouse está
plasmada en dos DashBoard uno para la oferta y otro para la demanda elaborados en PowerBI.2023-11-14T00:00:00ZAplicación y análisis de rendimiento de bases de datos cifradas para el almacenamiento seguro de registros médicos electrónicos: caso de estudio cryptdb.García Bautista, Fabián Santiagohttp://bibdigital.epn.edu.ec/handle/15000/250392023-11-09T22:15:12Z2023-10-01T00:00:00ZTítulo: Aplicación y análisis de rendimiento de bases de datos cifradas para el almacenamiento seguro de registros médicos electrónicos: caso de estudio cryptdb.
Autor: García Bautista, Fabián Santiago
Director: Suntaxi Oña, Gabriela Lorena
Resumen: This study presents an investigation into the performance of CryptDB, a database system providing practical and provable confidentiality in the face of an adversary who captures all stored data, under different cloud-based architectures. The research aims to determine how different configurations impact the scalability and efficiency of CryptDB. The cloud architectures examined include an encrypted environment with no scaling (EENS), an encrypted environment with scaling (EEWS), and an unencrypted data (UE) architecture. A load testing tool, k6, is used to simulate various concurrent user scenarios. The results demonstrate that the proposed EEWS architecture can reduce latency by up to 50%, though it also highlights CryptDB's limitations, including poor CPU utilization and inadequate documentation. Recommendations are provided for future enterprise projects considering CryptDB. Further research can expand upon this work by considering other alternative tools and their performance under high concurrency.
Descripción: En este artículo, exploramos la implementación de CryptDB en un ambiente productivo, enfocándonos especialmente en el rendimiento. A través de la aplicación del escalamiento horizontal, hemos logrado reducir la latencia hasta en un 50 % en las operaciones de lectura, lo cual representa un avance significativo hacia la posibilidad de utilizar CryptDB en entornos reales. No obstante, este beneficio no se extiende a las operaciones de escritura, ya que la complejidad del cifrado de datos presenta desafíos adicionales. Para abordar esta limitación, recomendamos la implementación de la arquitectura Command Query Responsibility Segregation (CQRS), que permite separar y optimizar las operaciones de lectura y escritura. Aunque estos resultados son prometedores,se deben considerar otros factores como la seguridad y la compatibilidad en la evaluación integral de la incorporación de CryptDB. El artículo destaca tanto los avances logrados como los desafíos que aún deben abordarse para una integración exitosa.2023-10-01T00:00:00ZDiseño de un modelo de aprendizaje automático para gestion de la flota vehicular de una Empresa Pública.Benalcázar De La Cruz, Cristian Robertohttp://bibdigital.epn.edu.ec/handle/15000/250382023-11-09T21:58:52Z2023-09-01T00:00:00ZTítulo: Diseño de un modelo de aprendizaje automático para gestion de la flota vehicular de una Empresa Pública.
Autor: Benalcázar De La Cruz, Cristian Roberto
Director: Calle Jiménez, Tania Elizabeth; Sánchez Gordón, Sandra Patricia
Resumen: This study presents the design of a machine learning model for managing the vehicle fleet of a Public Enterprise, focused on classifying drivers according to their level of risk during driving. To achieve this, driver characteristics, their behavior and the use of vehicles are analized to generate optimization recommendations for the fleet. Web scraping plays an important role in the development of this work, for obtaining data from drivers, vehicle fleet and its usage, which in turn facilitates the traditionally manual process of vehicle registration validity control performed by the Enterprise. In Chapter I, the generalities of this project are stated, its objectives, justification, and importance, and a literature review on web scraping, machine learning models and Information Systems (IS) are presented. In Chapter II, the methodology to be used is described, a descriptive analysis of the fleet, driver characteristics and behavior, and vehicle usage by departments and management to generate fleet optimization recommendations. It also involves the development of driver classification models and finally, a dashboard is developed to share the results of the fleet analysis, driver analysis, generated model and a map for visualizing vehicle usage. In Chapter III, the results obtained are presented and analyzed. Finally, in Chapter IV, the conclusions derived from the project development are detailed.
Descripción: Este estudio presenta el diseño de un modelo de aprendizaje automático para gestión de la flota vehicular de una Empresa Pública, centrado en la clasificación de conductores de acuerdo a su nivel de riesgo durante la conducción, para lo cual se analizan características y comportamiento de los conductores y el uso de los vehículos para generar a su vez recomendaciones de optimización de la flota vehicular. En el desarrollo de este trabajo tiene un papel importante el uso de web scraping para la obtención de datos, tanto de los conductores como de la flota vehicular y su uso, los cuales a su vez facilitan procesos de control realizados tradicionalmente de manera manual por la Empresa. Es así que, en el Capítulo I se enuncian las generalidades de este proyecto, objetivos que persigue el mismo, su justificación e importancia, se muestra una revisión literaria sobre el web scraping, modelos de aprendizaje automático y Sistemas de Información (SI). En el Capítulo II se describe la metodología a utilizar, se realiza un análisis descriptivo de la flota, conductores y uso de los vehículos, comprende además la generación de modelos de clasificación de los conductores; y, el desarrollo de un tablero para compartir los resultados del análisis de la flota, conductores y modelo generado, además de un mapa para visualizar el uso de los vehículos. En el Capítulo III se presentan y analizan los resultados. Finalmente, en el Capítulo IV se detallan las conclusiones derivadas del proyecto.2023-09-01T00:00:00ZDesarrollo de un modelo de predicción para los valores de las acciones del índice S&P500, sobre la base del estado del arte de la temática, usando un enfoque de análisis de datos, que incluya técnicas de minería de datos y de aprendizaje automático.Cárdenas Torres, Jorge Andrés.http://bibdigital.epn.edu.ec/handle/15000/249372023-10-18T15:50:28Z2023-09-01T00:00:00ZTítulo: Desarrollo de un modelo de predicción para los valores de las acciones del índice S&P500, sobre la base del estado del arte de la temática, usando un enfoque de análisis de datos, que incluya técnicas de minería de datos y de aprendizaje automático.
Autor: Cárdenas Torres, Jorge Andrés.
Director: Montenegro Armas, Carlos.
Resumen: The work proposes an approach based on LSTM (Long Short-Term Memory) neural networks to predict the actions of the S&P500, one of the most important indexes of the stock market. Predicting prices in the stock market is a complex challenge due to its dynamic and volatile nature. The model is trained using a historical data set of the S&P500 from January 2015 to May 2023, which includes information on open, close, high, and low prices, among others. The experimental results show that the proposed model outperforms other traditional prediction approaches. The LSTM-based approach achieves higher accuracy in S&P500 price prediction, which can be of great use to investors and financial analysts in making investment decisions. However, it is suggested that further research be done to explore other variants of LSTM models and further improve the prediction accuracy.
Descripción: La predicción de precios en el mercado de valores es un desafío complejo debido a su naturaleza dinámica y volátil. Este trabajo propone un enfoque basado en redes neuronales LSTM (Long Short-Term Memory) para predecir las acciones del S&P500, uno de los índices más importantes del mercado de valores. El modelo se entrena utilizando un conjunto de datos históricos del S&P500 desde enero de 2015 a mayo de 2023, que incluye información sobre precios de apertura, cierre, máximo y mínimo, y volumen. Los resultados experimentales demuestran que el modelo propuesto supera a otros enfoques de aprendizaje y predicción. Los resultados de este trabajo pueden ser de gran utilidad para los inversores y analistas financieros en la toma de decisiones de inversión. Sin embargo, se sugiere que se realicen investigaciones adicionales para explorar otras variantes de modelos LSTM y mejorar aún más la precisión de la predicción.2023-09-01T00:00:00ZDetección de ataques de denegación de servicio activados mediante botnets en redes definidas por software.Tamayo Portero, Jaime Orlandohttp://bibdigital.epn.edu.ec/handle/15000/248702023-10-18T16:07:38Z2023-09-18T00:00:00ZTítulo: Detección de ataques de denegación de servicio activados mediante botnets en redes definidas por software.
Autor: Tamayo Portero, Jaime Orlando
Director: Valdivieso Caraguay, Ángel Leonardo
Resumen: In recent years, the volume of traffic circulating on public and private networks has increased thanks to the
emergence of new online services. For this reason, networks periodically suffer from significant saturation and
complexity problems. Additionally, the number of IoT devices connected to the network constantly grows.
Thus, software-defined network (SDN) is a new architecture which offers innovative advantages that helps to
reduce saturation problems. Despite its advantages, SDNs introduce new security challenges. Both traditional
and SDNs networks are victims of the same types of attacks despite the difference in how their architecture
works. On this context, Distributed Denial of Service (DDoS) is considered one of the most important attacks
which can damage the normal operation of an SDN network. Furthermore, if these attacks are executed through
the use of botnets, they can harness the power of thousands of compromised devices to overwhelm and disrupt
critical online services. This paper proposes a framework for detecting DDoS attacks generated by a group of
botnets in an SDN network. The framework is implemented using open-source tools such as Mininet and
OpenDaylight and tested in a centralized network topology using BYOB and SNORT. The results of the
experiments demonstrate that the system can rapidly identify an attack in real-time by implementing an
intrusion detection mechanism in the victim client. Our proposed solution offers a quick and effective detection
method against DDoS attacks in SDN networks. The framework can successfully differentiate the type of attack
with high accuracy in a short time
Descripción: En los últimos años, el volumen de tráfico circulando en redes públicas y privadas ha aumentado gracias a la
aparición de nuevos servicios. Por esta razón, las redes periódicamente sufren problemas significativos por su
complejidad y saturación. Las redes definidas por software (SDN, por sus siglas en inglés) son una nueva
arquitectura que ofrece ventajas innovadoras que ayudan a reducir los problemas de saturación. Sin embargo,
tanto las redes tradicionales como las SDN son víctimas de los mismos tipos de ataques, a pesar de las
diferencias en el funcionamiento de su arquitectura. En este contexto, el Ataque Distribuido de Denegación de
Servicio (DDoS, por sus siglas en inglés) se considera uno de los ataques más importantes que puede afectar el
funcionamiento normal de una red SDN. Además, si estos ataques se ejecutan mediante el uso de botnets,
pueden aprovechar el poder de miles de dispositivos comprometidos para abrumar e interrumpir servicios en
línea críticos. Este artículo propone un framework para detectar ataques DDoS generados por un grupo de
botnets en una red SDN. Este se implementa utilizando herramientas de código abierto y se prueba en una
topología de red centralizada. Los resultados de los experimentos demuestran que el sistema puede identificar
rápidamente un ataque en tiempo real mediante la implementación de un mecanismo de detección de
intrusiones en la víctima. Nuestra solución propuesta ofrece un método de detección rápido y efectivo contra
ataques DDoS en SDN. La solución puede diferenciar con alta precisión el tipo de ataque en poco tiempo.2023-09-18T00:00:00ZModelo de clasificación de rasgos de adicción a los videojuegos en base a posts de Reddit mediante técnicas de minería de texto y aprendizaje de máquina.Benítez Orellana, Leonardo Andréshttp://bibdigital.epn.edu.ec/handle/15000/248482023-09-21T16:18:38Z2023-08-30T00:00:00ZTítulo: Modelo de clasificación de rasgos de adicción a los videojuegos en base a posts de Reddit mediante técnicas de minería de texto y aprendizaje de máquina.
Autor: Benítez Orellana, Leonardo Andrés
Resumen: In recent years, a large number of studies have been focusing on the identification of a wide range of mental illnesses through the use and application of data mining, data analysis and machine learning. Currently, addiction to video games is considered a global issue that has become increasingly frequent and that directly affects the life’s quality of the people who suffer from it and also their closest family environment. In the present work, we proposed to develop a novel framework for the detection of possible traits of addiction to video games focused on a group of users inside the Reddit social network. We extracted about 987 posts written by English-speaking users with the purpose of analyzing and processing the text obtained to generate six text models using BoW, TF-IDF, Word2vec, Empath, Emolex and BERT. Those models were also evaluated and tested using four supervised classification algorithms: Logistic Regression, KNN, Decision Tree and AdaBoost. The results obtained showed that it is possible to effectively identify video game addiction traits in a group of users at risk using Word2vec by generating word embeddings over a previously trained dataset.
Descripción: En los últimos años, una gran cantidad de estudios se han centrado en la identificación de una amplia gama de enfermedades mentales mediante el uso y la aplicación de minería de datos, análisis de datos y aprendizaje automático. Actualmente, la adicción a los videojuegos se considera un problema mundial que se ha vuelto cada vez más frecuente y que afecta directamente la calidad de vida de las personas que la padecen y también a su entorno familiar más cercano. En el presente trabajo, nos propusimos desarrollar un marco novedoso para la detección de posibles rasgos de adicción a los videojuegos enfocado en un grupo de usuarios dentro de la red social Reddit. Para ello se extrajeron alrededor de 987 publicaciones escritas por usuarios de habla inglesa con el fin de analizar y procesar el texto obtenido para generar seis modelos de texto utilizando BoW, TF-IDF, Word2vec, Empath, Emolex y BERT. Esos modelos también fueron evaluados y probados usando cuatro algoritmos de clasificación supervisados: Logistic Regression, KNN, Decision Tree y AdaBoost. Los resultados obtenidos demostraron que es posible identificar efectivamente los rasgos de adicción a los videojuegos en un grupo de usuarios en riesgo usando Word2vec mediante la generación de word embeddings, utilizando un conjunto de datos previamente entrenado.2023-08-30T00:00:00ZImplementación de un prototipo de sensado para el proceso de administración de basura utilizando LoRaWAN en el contexto de ciudades inteligentes.Echeverría Amores, Katherine Jeannethhttp://bibdigital.epn.edu.ec/handle/15000/248372023-09-13T22:25:35Z2023-09-01T00:00:00ZTítulo: Implementación de un prototipo de sensado para el proceso de administración de basura utilizando LoRaWAN en el contexto de ciudades inteligentes.
Autor: Echeverría Amores, Katherine Jeanneth
Director: Sinche Maita, Soraya Lucía
Resumen: Garbage management issues in the context of smart cities are a major concern. Although smart cities are designed to improve the quality of life for residents by integrating advanced technology and systems, they also present challenges related to waste management. The objective of this degree work is to implement a sensing prototype for the garbage management process using LoRaWAN in the context of smart cities. The development of the prototype includes four stages. In the first stage, the configuration of the Arduino LoRaWAN module is carried out so that it receives the distance values sent by the ultrasound sensor. The second stage is the establishment of LoRaWAN communication between the Arduino module and The Things Network cloud through the RAK 7243 Gateway, which is configured as a public gateway. In the third stage of the development of the prototype, the configurations are made in The Things Stack for the registration of the Gateway and the application, as well as the integration with a dashboard to present the data sent. Finally, the data is presented, collected in real time, through the Things Board platform.
Descripción: Los problemas de basura en el contexto de las ciudades inteligentes son una preocupación importante. Aunque las ciudades inteligentes están diseñadas para mejorar la calidad de vida de los residentes al integrar tecnología y sistemas avanzados, también presentan desafíos relacionados con la gestión de residuos. El presente trabajo de titulación tiene como objetivo implementar un prototipo de sensado para el proceso de administración de basura utilizando LoRaWAN en el contexto de ciudades inteligentes. El desarrollo del prototipo incluye cuatro etapas. En la primera etapa se realiza la configuración del módulo de Arduino LoRaWAN para que reciba los valores de distancia enviados por el sensor de ultrasonido. La segunda etapa se realiza el establecimiento de la comunicación LoRaWAN entre el módulo de Arduino y la nube de The Things Network mediante el Gateway RAK 7243, que se encuentra configurado como una puerta de enlace pública. En la tercera etapa del desarrollo del prototipo se realizan las configuraciones en The Things Stack para el registro del Gateway y de la aplicación, así como la integración con un dashboard para presentar los datos enviados. Finalmente, se presentan los datos, recopilados en tiempo real, mediante la plataforma Things Board.2023-09-01T00:00:00ZConstrucción de un dataset de eventos de conducción utilizando modelos de generación de datos sintéticos mediante Generative Adversarial Networks (GAN).Tamayo Urgilés, Diego Armandohttp://bibdigital.epn.edu.ec/handle/15000/247662023-08-21T20:58:49Z2023-08-01T00:00:00ZTítulo: Construcción de un dataset de eventos de conducción utilizando modelos de generación de datos sintéticos mediante Generative Adversarial Networks (GAN).
Autor: Tamayo Urgilés, Diego Armando
Director: Álvarez Hernández, Myriam Beatriz
Resumen: The development of solutions to reduce traffic accidents in vehicles requires a lot of experimentation and, therefore, a large amount of data. However, due to data confidentiality issues, few free datasets are available in this area, so it is necessary to build datasets that contain several attributes and can be of general use in this field. Given this reality, this project uses the TimeGAN framework for synthetic data generation. TimeGAN is configured in this thesis work with four recurrent neural networks, which obtain a spatial and temporal distribution that seeks to approximate the real data. The synthetic data generated can replace or complement the real data in different scenarios, with the advantage that the synthetic data can be shared without the risk of exposing confidential information of persons or entities associated with these data. The synthetic data will serve to complete the information of an initial dataset built with driving data obtained from heterogeneous sources. In order to evaluate the results of synthetic data generation, qualitative and quantitative methods will be used to establish the usefulness of the data. The synthetic data dataset constructed will then be used in processes of classification of driving events that present a higher risk of causing traffic accidents.
Descripción: El desarrollo de soluciones que disminuyan los accidentes de tránsito en vehículos requiere de mucha experimentación y, por tanto, gran cantidad de datos. Sin embargo, por temas de confidencialidad de los datos, pocos datasets gratuitos se encuentran disponibles en esta área, por lo que se requiere construir datasets que contengan varios atributos y puedan ser de utilidad general dentro de este campo. Ante esta realidad, en este proyecto se utiliza el framework TimeGAN para la generación de datos sintéticos. TimeGAN se configura en este trabajo de tesis con cuatro redes neuronales recurrentes, las cuales obtienen una distribución espacial y temporal que busca aproximarse a la que tienen los datos reales. Los datos sintéticos generados pueden reemplazar o complementar a los datos reales en distintos escenarios, con la ventaja de que los datos sintéticos pueden ser compartidos sin riesgo de que se pueda exponer información confidencial de las personas o entidades asociadas a estos datos. Los datos sintéticos servirán para completar la información de un dataset inicial construido con datos de conducción obtenidos de fuentes heterogéneas. A fin de evaluar los resultados en la generación de datos sintéticos, se utilizarán métodos cualitativos y cuantitativos que permitan establecer la utilidad de los mismos. El dataset de datos sintéticos construido luego se utilizará en procesos de clasificación de eventos de conducción que presenten mayor riesgo de provocar accidentes de tránsito.2023-08-01T00:00:00ZModelo de estimación del impacto de los titulares de noticias publicadas en Facebook en la audiencia ecuatoriana basado en minería de texto.Lema Vinlasaca, Roberto Carloshttp://bibdigital.epn.edu.ec/handle/15000/247612023-08-15T18:58:52Z2023-07-01T00:00:00ZTítulo: Modelo de estimación del impacto de los titulares de noticias publicadas en Facebook en la audiencia ecuatoriana basado en minería de texto.
Autor: Lema Vinlasaca, Roberto Carlos
Resumen: The emergence of social networks and their public access have allowed the criteria issued by groups or organizations to be received and interpreted by different types of audiences, which may affect their perception of reality. Depending on the interest, ethics and professionalism of the author, the message can have an impact on the social environment by redefining facts, truths, or beliefs and even more if it is about news of social interest. In this work, a supervised machine learning model is proposed to analyze and identify the sentiment transmitted in the news headlines published on Facebook by the main Ecuadorian newspapers, as well as their corresponding articles, and then estimate their impact on the local audience. The results show that the main newspapers in Ecuador meet the principle of neutrality in the publication of headlines on Facebook. However, their articles express defined positive and negative sentiments, which results in the fact that the contextualization of the words used in the publication influences the sentiments that it transmits due to the different meanings that these words may have.
Descripción: El surgimiento de las redes sociales y su acceso público ha permitido que los criterios emitidos por grupos u organizaciones sean recibidos e interpretados por diferentes tipos de audiencias, lo que puede afectar su percepción de la realidad. Dependiendo del interés, ética y profesionalismo del autor, el mensaje puede tener un impacto en el entorno social al redefinir hechos, verdades o creencias y más aún si se trata de noticias de interés social. En este trabajo se propone un modelo de aprendizaje automático supervisado para analizar e identificar el sentimiento transmitido tanto en los titulares de noticias publicados en Facebook por los principales diarios ecuatorianos, como en sus correspondientes artículos y luego, estimar su impacto sobre la audiencia local. Los resultados muestran que los principales diarios del Ecuador mantienen el principio de neutralidad en la publicación de los titulares en Facebook a diferencia de sus artículos. Los artículos expresan sentimientos positivos y negativos definidos. Este comportamiento evidencia que la contextualización de las palabras utilizadas en la publicación influye en el sentimiento que transmite dado los diversos significados que estos puedan tener.2023-07-01T00:00:00ZBarreras y motivadores para la incursión en la transformación digital empresarial en el Ecuador.Maldonado Palomeque, Marco Patriciohttp://bibdigital.epn.edu.ec/handle/15000/247582023-08-14T14:06:20Z2023-01-01T00:00:00ZTítulo: Barreras y motivadores para la incursión en la transformación digital empresarial en el Ecuador.
Autor: Maldonado Palomeque, Marco Patricio
Resumen: Digital Transformation (TD) is a component where people, processes and information technologies promote development focused on competitiveness, cost optimization and above all efficient decision making. Currently, TD has become a challenge for the industry in Ecuador, since its use will allow them to sustain themselves in the internal and external markets, where they can establish solid foundations for the proper execution of TD without imperatives, considering a framework corporate in accordance with strategic planning and the use of it to minimize the gap, not only in technology, but also in knowledge between developed and developing countries. The objective of this degree work is to determine the institutional barriers and motivators for the adoption of TD in companies in Ecuador, through the information obtained in interviews with the main governmental and non-governmental companies of various industries (energy, food and beverages, oil, water supply and cement). For this, semi-structured interviews were carried out with representatives of several companies where questions related to determining participation in TD were addressed, through a participatory dialogue, complemented by the analysis of documents and other sources of information and studies. Next, the responses of 11 interviewees within 10 selected leading companies in the Ecuadorian market were analyzed, obtaining their current perspective of each one in the management of TD under a neo-institutional analysis. The results of this research will be the starting point for companies to accelerate their adoption of TD, since there is no similar study and they show the lack of organizational structure, full knowledge of how to reach an effective TD and high-level involvement level to determine policies that promote this development.
Descripción: La Transformación Digital (TD) es un componente donde las personas, los procesos y las tecnologías de la información promueven el desarrollo enfocado en la competitividad, optimización de costos y sobre todo la toma eficiente de decisiones. Actualmente, la TD se ha convertido en un desafío para la industria en el Ecuador, ya que su uso permitirá sostener a las mismas en el mercado interno y externo, donde establecer bases sólidas para la ejecución adecuada de la TD sin imperiosas, considerando un marco corporativo acorde con la planeación estratégica y el aprovechamiento de esta para minimizar la brecha, no solo de tecnologías, sino también de conocimientos entre países desarrollados y países en vías de desarrollo. El presente trabajo de titulación tiene como objetivo determinar las barreras y motivadores institucionales para la adopción de la TD en empresas del Ecuador, a través de la información obtenida en entrevistas realizadas a las principales compañías gubernamentales y no gubernamentales de varias industrias (energía, alimentos y bebidas, petróleo, suministro de agua y cementos). Para ello se realizaron entrevistas semiestructuradas con representantes de varias empresas donde se abordaron preguntas ligadas a determinar la participación en la TD, mediante un dialogo participativo, complementando con el análisis de documentos y otras fuentes de información y estudios.2023-01-01T00:00:00ZPropuesta de un método de preservación de privacidad para la aplicación de inteligencia de fuentes abiertas (OSINT) durante investigaciones digitales forenses.Guevara Camas, Jhonny Javierhttp://bibdigital.epn.edu.ec/handle/15000/247512023-08-10T14:38:53Z2023-06-01T00:00:00ZTítulo: Propuesta de un método de preservación de privacidad para la aplicación de inteligencia de fuentes abiertas (OSINT) durante investigaciones digitales forenses.
Autor: Guevara Camas, Jhonny Javier
Resumen: This work proposes a privacy preservation method for the application of open-source intelligence
(OSINT) during digital forensic investigations. For the design of the method, a mapping of phases of a
forensic investigation, privacy principles, generic ethical principles given by PRECEPT and the phases of
the osint cycle were carried out, from this, privacy requirements were defined together with references to
articles of the LOPD (Organic Law on Data Protection). The phases of acquisition, collection and
preservation were particularly considered. Subsequently, the method was put into practice through a web
crawler using design security techniques, access control methods and security controls. The evaluation of
the method was carried out through a case study where functionality, performance and resilience were
evaluated. Functional evaluation, the effectiveness of the guidelines and privacy requirements of the
method during searches with the crawler versus a conventional browser was demonstrated. In terms of
performance, resource consumption was evidenced by three scenarios with different load where memory
was the most consumed. With regard to resilience, a threat modeling based on the adversary and another
with Microsoft Threat Modeling Tool was performed, on these threats, risk was managed through
controls of the proposed method and critical operating requirements were defined. Finally, attack
scenarios were executed where the system showed resilience according to the expected results in each
scenario.
Descripción: El presente trabajo propone un método de preservación de privacidad para la aplicación de inteligencia de
fuentes abiertas (osint) durante investigaciones digitales forenses. Para el diseño del método se realizó un
mapeo de las fases de una investigación forense, principios de privacidad, principios genéricos éticos
dados por PRECEPT y las fases del ciclo osint, a partir de esto se definieron requerimientos de privacidad
junto a referencias a artículos de la LOPD (Ley orgánica de protección de datos). Se abordan de manera
particular las fases de adquisición, recolección y preservación. Posteriormente el método fue
implementado de manera practica mediante un crawler web utilizando técnicas de seguridad por diseño,
métodos de control de acceso y controles de seguridad. La evaluación del método se llevó a cabo
mediante un caso de estudio en donde se evaluó funcionalidad, desempeño y resiliencia. En la evaluación
funcional se demostró la efectividad de los lineamientos y requerimientos de privacidad dados por
método durante las búsquedas con el crawler versus un navegador convencional. En cuanto a desempeño
se evidenció el consumo de recursos mediante tres escenarios con diferente carga en donde la memoria
resulto ser el más consumido. Con respecto a resiliencia se realizó un modelado de amenazas basado en el
adversario y otro con Microsoft Threat Modelling Tool, sobre estas amenazas se gestionó el riesgo
mediante controles del método propuesto y se definió requerimientos críticos de operación. Finalmente se
ejecutaron escenarios de ataque donde el sistema mostro resiliencia acorde a los resultados esperados en
cada escenario.2023-06-01T00:00:00ZReconocimiento del clima en imágenes utilizando aprendizaje profundo autosupervisado.Acuña Escobar, Diego Andréshttp://bibdigital.epn.edu.ec/handle/15000/245212023-08-08T17:21:04Z2023-05-01T00:00:00ZTítulo: Reconocimiento del clima en imágenes utilizando aprendizaje profundo autosupervisado.
Autor: Acuña Escobar, Diego Andrés
Resumen: Automatic weather recognition from digital images has important applications, such as: land and air traffic control, autonomous vehicles, road safety warnings, crop control, among others. Building deep learning models for weather recognition is a challenge for computer vision when it comes to extracting the deterministic characteristics of each type of weather. Therefore, several related works have proposed models based on binary classifiers, which allow mapping between positive and negative classes. These works have reported as main difficulties that the classes are not completely exclusive and the need for thousands or millions of labeled images for each class required for training deep learning models. To face several of the difficulties identified, in this research paper we propose to apply the concepts of "self-supervised deep learning". Self-supervised learning follows the traditional phases of deep learning and adds the stages of pre-training, transfer learning, and fine tuning. The pretraining stages are the ones that allow to reduce the number of labeled images required, while the later stages allow to generalize and improve the model. The Residual Learning Network Architecture, RESNET, has been selected for this work based on exhaustive research and several practical tests that allow to identify the benefits of using this architecture in the field of weather recognition. The proposed method was tested and adjusted to achieve metrics of 93% in detection rates.
Descripción: El reconocimiento automático del clima en imágenes digitales tiene importantes aplicaciones, tales como: control de tráfico terrestre y aéreo, vehículos autónomos, advertencias de seguridad vial, control de sembríos, entre otras. La construcción de modelos climáticos de aprendizaje profundo es un reto para la visión artificial a la hora de extraer las características determinísticas de cada tipo de clima. Por lo cual, varios trabajos relacionados han propuesto modelos basados en clasificadores binarios, que permiten catalogar entre clases positivas y negativas. Estos trabajos han reportado como principales dificultades que las clases no son completamente excluyentes y la necesidad de miles o millones de imágenes etiquetadas de cada clase para el entrenamiento supervisado de modelos de aprendizaje profundo. Para abordar varias de las dificultades identificadas, en este trabajo de investigación proponemos aplicar los conceptos de “aprendizaje profundo auto supervisado”. El aprendizaje auto supervisado sigue las fases tradicionales del aprendizaje profundo y adiciona las etapas de preentrenamiento, transfer learning, y fine tuning. Las etapas de preentrenamiento son las que permiten reducir la cantidad de imágenes etiquetadas requeridas, mientras que las etapas posteriores permiten generalizar y mejorar el modelo. La arquitectura de una red neuronal profunda de aprendizaje residual, RESNET por sus siglas en inglés, ha sido seleccionada para este trabajo basado en una investigación exhaustiva y varias pruebas prácticas que permitieron identificar los beneficios del uso de esta arquitectura en el campo del reconocimiento del clima. El método propuesto fue probado y ajustado hasta obtener métricas de desempeño del 93%.2023-05-01T00:00:00ZEvaluación experimental de la calidad de software utilizando la norma iso/iec 29110-5-1-2 con desarrolladores de software novatos.Zúñiga Ortiz, David Fabiánhttp://bibdigital.epn.edu.ec/handle/15000/245142023-08-08T16:03:13Z2023-06-01T00:00:00ZTítulo: Evaluación experimental de la calidad de software utilizando la norma iso/iec 29110-5-1-2 con desarrolladores de software novatos.
Autor: Zúñiga Ortiz, David Fabián
Resumen: In a highly competitive market, the quality of a software product is crucial as it allows the developer organization to have an advantage over other organizations. However, implementing quality standards represents a significant challenge for novice developers due to various factors such as lack of knowledge of the standards and lack of experience. Additionally, the limited resources of novice developer teams can also be an obstacle to implementing quality standards, thus limiting the growth of these teams. This study presents the results of an experiment carried out with six teams of novice software developers to explore the impact of implementing the standard ISO/IEC TR 29110-5-1-2:2011 on both the software process and product quality. In the experiment, three teams used this standard to guide developing a software product, while the other three did not. All teams used the same scope and requirements specification for the development of the product. The results of the experiment provide evidence that there is a positive impact on the quality of both process and product when ISO/IEC TR 29110 -5-1-2:2011 is implemented in novice developer environments. The software process quality assessment conducted identified the strengths and weaknesses of the process in question. The performance of the controlled teams was superior to the performance of the non-controlled teams. Likewise, the results of the product quality assessment indicate a marked difference between the controlled and non-controlled teams.
Descripción: En un mercado altamente competitivo, la calidad del producto final de software es crucial para las pequeñas entidades (VSEs), ya que les permite tener una ventaja competitiva frente a las demás. Sin embargo, implementar estándares de calidad representa un desafío significativo para las VSEs debido a varios factores, como el desconocimiento de los estándares de calidad y la falta de experiencia en su implementación. Además, el presupuesto y los recursos limitados de las VSEs, también pueden ser un obstáculo para implementar estándares de calidad, limitando así el crecimiento de estas pequeñas entidades. En este estudio se presentan los resultados obtenidos de una evaluación experimental llevada a cabo mediante la aplicación de la norma ISO/IEC 29110-5-1-2: 2011. En el experimento, tres equipos utilizaron esta norma como guía para el desarrollo de un producto de software, mientras que otros tres equipos no contaron con esta norma. Para el desarrollo del producto de software todos los equipos contaron con las mismas especificaciones y alcance. Los resultados obtenidos permiten analizar la efectividad de la norma en la mejora de los procesos de desarrollo de software. La evaluación de la calidad del proceso de software realizada identificó los puntos fuertes y débiles del proceso en cuestión. El rendimiento de los equipos controlados fue superior al de los equipos no controlados. Del mismo modo, los resultados de la evaluación de la calidad del producto indican una marcada diferencia entre los equipos controlados y los no controlados.2023-06-01T00:00:00ZEstabilización de video en base a la discriminación de puntos de interés utilizando mapas de profundidad.Manotoa Sandoval, Hernando Heribertohttp://bibdigital.epn.edu.ec/handle/15000/244932023-08-08T13:28:21Z2022-11-01T00:00:00ZTítulo: Estabilización de video en base a la discriminación de puntos de interés utilizando mapas de profundidad.
Autor: Manotoa Sandoval, Hernando Heriberto
Resumen: The objective of video stabilization is to optimize the quality of the video, being important to eliminate involuntary movements of the camera, until now the existing methods do not discriminate the points of interest as an initial step for video stabilization. The main objective of this study is to define a video stabilization method that discriminates points of interest using depth maps. It begins by analyzing several methods based on CNN that allow obtaining a robust depth map. Where, the method used by the MiDaS v2.1 trained model is used for the first part of the algorithm that consists of taking each frame and obtaining a depth map. In the second part of the algorithm, a base video stabilization algorithm is defined that receives a sequence of frames as input, takes as input the applied frames a mask defined by the depth map. To achieve video stabilization, we use a validated depth mapping method in combination with a video stabilization method. The algorithm proposed in this work was evaluated in 24 videos in 4 different scenarios. Our algorithm achieves an improvement in the ITF of 5% compared between the metrics of the videos stabilized with the proposed method and the stabilized videos that do not use a depth mask as part of their method.
Descripción: El objetivo de la estabilización de video es optimizar la calidad del video, siendo importante eliminar los movimientos involuntarios de la cámara, hasta la actualidad los métodos existentes no discriminan los puntos de interés como paso inicial para la estabilización de video. El objetivo principal de este estudio es definir un método de estabilización de video que discrimine puntos de interés utilizando mapas de profundidad. Se inicia por analizar varios métodos basados en CNN que permitan la obtención de un mapa de profundad robusto. Donde, el método que utiliza el modelo entrenado MiDaS v2.1que es utilizado para primera parte del algoritmo que consiste en tomar cada fotograma y obtener un mapa de profundidad. En la segunda parte de algoritmo, se define un algoritmo base de estabilización de video que recibe como entrada una secuencia de fotogramas, toma como entrada las los fotogramas aplicados una máscara definida por el mapa de profundidad. Para lograr la estabilización de video utilizamos un método validado de obtención de mapas de profundidad en combinación con un método de estabilización de video. El algoritmo propuesto en este trabajo fue evaluado en 24 videos en 4 diferentes escenarios. Nuestro algoritmo logra una mejora en el ITF del 5% comparado entre métrica de los videos estabilizados con el método propuesto y los videos estabilizados que no utilizan una máscara de profundidad como parte de su método.2022-11-01T00:00:00ZReconocimiento de estrés emocional en el plano Valencia-Arousal usando señales EEG y aprendizaje automático.Sánchez Vivanco, Jefferson Paúl.http://bibdigital.epn.edu.ec/handle/15000/242152023-07-07T17:04:40Z2023-01-01T00:00:00ZTítulo: Reconocimiento de estrés emocional en el plano Valencia-Arousal usando señales EEG y aprendizaje automático.
Autor: Sánchez Vivanco, Jefferson Paúl.
Resumen: In this study, we recognized which characteristics contribute to identifying stress using electroencephalographic (EEG) signals collected by a BCI and labeled in the valence-arousal plane. It will begin with the use of the DEAP database [1]. defined for their recognition in the valence-arousal plane. This step is critical since what is considered stress is labeled from this information according to the range of values of these indicators. The characteristics extraction is done through different techniques proposed in [3] and applied to the DEAP data set to obtain attributes in the domain of time, frequency, and time-frequency. With these characteristics together with the raw data, different input vectors are formed to enter them into various configurations of Convolutional Networks (CNN) with different compositions in each of their layers: input, hidden and output. Combinations that produce the best performance in terms of their accuracy (accuracy) will be obtained experimentally. Finally, this work also generates its own data. For this task, stimulation methods are used to cause stress in the participants during the experiments. For this, the method of applying arithmetic problems with a limited time to solve them is evaluated [5] [6]. With DEAP and the own database of stress stimuli, 84% and 69% were obtained respectively in the best combinations of the methods used.
Descripción: En este proyecto se reconoce las características que aportan en el reconocimiento del estrés, usando señales electroencefalográficas (EEG) que se recopilan con un dispositivo Brain-Computer-Interfase (BCI) y se etiquetan en el plano valencia-arousal. Se comenzará con la utilización de la base de datos DEAP [1]. En [3] se definen los límites de cuadrantes de estrés para su reconocimiento en el plano valencia-arousal, este paso es muy importante ya que a partir de esa información se etiqueta lo que, por sus valores dentro de un rango, se considera estrés. La extracción de características se hace a través de diferentes técnicas propuestas en [3], aplicadas sobre el conjunto de datos DEAP, las cuales obtienen características en el dominio de tiempo, frecuencia y tiempo-frecuencia. Con estas características junto con los datos crudos se procede a conformar distintos vectores de entrada para ingresarlos a varias configuraciones de Redes Convolucionales (CNN) con distintas composiciones en cada una de sus capas: de entrada, ocultas y de salida. Se obtendrán experimentalmente combinaciones que produzcan los mejores rendimientos en cuanto a su exactitud (accuracy). Por último, el presente trabajo también genera datos propios. Para esa tarea se utilizan métodos de estimulación para provocar estrés en los participantes durante los experimentos. Para ello, se evalúa el método de aplicar problemas aritméticos con tiempo límite para resolverlos [5] [6]. Con DEAP y la base de datos propias de estimulos de estrés se obtuvo un 84% y un 69% respectivamente en las mejores combinaciones de los métodos usados.2023-01-01T00:00:00ZDesign Of a multi-agent architecture using deep reinforcement learning to decrease the number of interactions between agents and environment by communicating knowledge.Cárdenas Guilcapi, David Alexanderhttp://bibdigital.epn.edu.ec/handle/15000/237712023-04-06T15:51:21Z2023-01-01T00:00:00ZTítulo: Design Of a multi-agent architecture using deep reinforcement learning to decrease the number of interactions between agents and environment by communicating knowledge.
Autor: Cárdenas Guilcapi, David Alexander
Resumen: The purpose of this integration is to create a communication system where agents can learn from the environment using a deep learning algorithm and communicate the knowledge obtained. Through communication, agents can take advantage of the knowledge of its peers in a way that the number of incorrect actions taken in the environment is reduced. Apart from the use of a pair-based multi-agent architecture with well-defined roles, some adjustments were performed in the deep q learning algorithm. One of them is the addition of information to the observations stored in the experience replay; this additional information is a flag which allows the agent to recognize a relevant state so the value of the rewards can be adjusted during the training of the network. In addition, the use of epsilon-greedy is limited to prevent an agent from exploring states that have already been explored and reported by other agents. These states have been identified as having errors and are therefore not worthy of further exploration. These adjustments proved to be effective since the agent reduces the number of episodes where errors are made in around 86%.
Descripción: El presente proyecto de investigación introduce una integración de tres técnicas de inteligencia artificial. El propósito es crear un sistema de comunicación en donde los agentes puedan aprender del ambiente utilizando un algoritmo de aprendizaje profundo y comunicar el conocimiento obtenido. Mediante la comunicación, los agentes pueden tomar ventaja del conocimiento de sus semejantes de manera que el número de acciones incorrectas tomadas en el ambiente se reducen. Aparte del uso de una arquitectura multi agente con roles bien definidos, algunos ajustes se realizaron en el algoritmo Deep Q Learning. Uno de ellos es la adición de información a las observaciones almacenadas en la experience replay; esta información adicional es una bandera que permite que el agente reconozca un estado relevante de manera que el valor de las recompensas pueda ajustarse durante el entrenamiento de la red neuronal. Otro ajuste es el uso limitado de 𝜀-greedy el cual previene que un agente explore un estado que ya ha sido comunicado por sus similares, ya que los estados que son comunicados representan una observación en donde se cometió un error. Estos ajustes demostraron ser efectivos ya que el agente reduce el número de episodios donde se cometen errores en un 86%. This research project introduces an integration of three artificial intelligence techniques.2023-01-01T00:00:00ZDiseño e implementación del data warehouse dw y tableros de inteligencia de negocio BI, para análisis de indicadores de rendimiento en el área de desarrollo y ventas de una empresa que brinda servicios tecnológicos de software para operadores de turismo.Panchi Guamangallo, Freddy Manuelhttp://bibdigital.epn.edu.ec/handle/15000/236852023-03-20T18:26:02Z2023-01-01T00:00:00ZTítulo: Diseño e implementación del data warehouse dw y tableros de inteligencia de negocio BI, para análisis de indicadores de rendimiento en el área de desarrollo y ventas de una empresa que brinda servicios tecnológicos de software para operadores de turismo.
Autor: Panchi Guamangallo, Freddy Manuel
Resumen: This degree project aims to apply business intelligence in a technology company that provides software services to tour operators. The project focuses on answering the most important questions that software development, sales and marketing areas have, as well as analyzing users, end customers and the company's chatbot. For this, all the points in the implementation of tools for business intelligence are addressed, such as: the selection, analysis and implementation of the most appropriate methodology, the analysis of the most convenient Open Source software tools to carry out the project, the creation of the Data Marts for each area of study, the application of artificial intelligence models to generate knowledge from the company's data and, of course, the visualization of the information in a dashboard that seeks to answer the different questions of the business. Finally, the results of this project showed that an advantageous tool for the company was generated and adds a lot of value when making intelligent decisions.
Descripción: Este proyecto de titulación tiene como objetivo aplicar inteligencia de negocios en una empresa tecnológica que brinda servicios de software a operadores de turismo. El proyecto se enfoca en responder a las preguntas más importantes que tienen las áreas de desarrollo de software, ventas y marketing, así como analizar también a los usuarios, clientes finales y el chatbot de la empresa. Para esto se abordan todos los puntos en la implementación de herramientas de inteligencia de negocios como son: la selección, el análisis e implementación de la metodología más adecuada, el análisis de las herramientas de software Open Source más convenientes para llevar a cabo el proyecto, la creación de los Data Mart para cada área de estudio, la aplicación de modelos de inteligencia artificial para generar conocimiento a partir de los datos de la empresa y por su puesto la visualización de la información en un tableros que buscan responder a las diferentes preguntas del negocio. Finalmente, los resultados de este proyecto demostraron que se generó una herramienta ventajosa para la empresa y que aporta mucho valor al momento de tomar decisiones inteligentes.2023-01-01T00:00:00ZWeb Scraping para análisis de los datos del personal del ministerio de educación en el periodo 2015-2021.Bonifaz Rosero, Erika Carolinahttp://bibdigital.epn.edu.ec/handle/15000/236162023-02-17T15:40:11Z2023-01-01T00:00:00ZTítulo: Web Scraping para análisis de los datos del personal del ministerio de educación en el periodo 2015-2021.
Autor: Bonifaz Rosero, Erika Carolina
Resumen: This Master's thesis is intended to extract the public information available on the official website of the
Ministry of Education, given the obligation to comply with the Organic Law on Transparency and Access to
Public Information. For this study, we will only focus on subparagraph (c) Monthly remuneration per post and
any additional income, including the compensation system, as established by the corresponding provisions. The
X
X
extraction of the data is done through the Web Scraping technique. In addition, the importance of this tool is
analyzed, and certain implementation procedures are suggested through the Python language and line
commands. The visualization of the findings provided by this data will be presented through a dynamic board
for public consumption.
Descripción: Esta tesis de Maestría tiene la intensión de extraer la información pública disponible en el sitio oficial del
Ministerio de Educación, dada la obligatoriedad de cumplimiento de la Ley Orgánica de Transparencia y
Acceso a la Información Pública. Para objeto de este estudio únicamente nos enfocaremos en el literal c) La
remuneración mensual por puesto y todo ingreso adicional, incluso el sistema de compensación, según lo
establezcan las disposiciones correspondientes. La extracción de los datos se lo realiza a través de la técnica de
Web Scraping. Adicionalmente se analiza la importancia de esta herramienta y se sugiere ciertos
procedimientos de implementación por medio del lenguaje Python y comandos de línea. La visualización de los
hallazgos proporcionados por esta data será presentada a través de un tablero dinámico para consumo público.2023-01-01T00:00:00ZDesarrollo de un modelo para predecir el rendimiento académico de estudiantes de la EPN en base a su nivel de acceso a TICS y factores socioeconómicos.Reinoso Quijo, Andrés Fernandohttp://bibdigital.epn.edu.ec/handle/15000/236152023-02-17T15:31:20Z2023-01-01T00:00:00ZTítulo: Desarrollo de un modelo para predecir el rendimiento académico de estudiantes de la EPN en base a su nivel de acceso a TICS y factores socioeconómicos.
Autor: Reinoso Quijo, Andrés Fernando
Resumen: The aim of this research was to stablish the academic performance of university students by identifying the relationship between socioeconomic factors and the level of access to the Information and Communication Technologies (ICTs).
The study took place in a public university, one of the largest and recognized higher education institutions in Ecuador, South America. Academic records, socioeconomic background and level access to ICT was considered for the research.
The study considers Action Research and CRISP DM as a framework; undertaking the steps of data analysis, data preparation, cleaning phases, and finally consider several machine learning algorithms.
The study revealed a solid dataset with 15 variables that reflect its correlation and affect academic performance. year of beginning of studies, age of beginning of studies, career that the student is studying, faculty, credits for registered subject, percentage of credits accumulated, number of members in the family environment, father´s salary, mother´s salary, father's social security affiliation, mother's social security affiliation, properties owned by the student, if the student has a vehicle, the student's IPF code, if the student's computer is for personal use, have a direct influence on the final grade and academic performance.
The result of this research represents an important information for academic control authorities in the higher education; in the task of improving the conditions of students, providing them with all the needs for success.
KEY WORDS: Academic Performance, Artificial Intelligence, Machine Learning, CRISP DM.
Descripción: Esta investigación tiene como objetivo determinar en qué relación los factores socioeconómicos y su nivel de acceso a las Tecnologías de la Información y la comunicación (TICs) afecta el rendimiento académico de estudiantes universitarios.
Para este estudio se hace uso de registros académicos, socioeconómicos y nivel de acceso a las TICs obtenidos de los registros de una de las universidades más grandes y reconocidas del país.
En todas sus fases se hace uso de metodologías de investigación formales con el objetivo de comprender el entorno educativo con los datos objeto de análisis, pasando por las fases de preparación y limpieza datos, para posteriormente modelar varios algoritmos de aprendizaje automático de máquina.
Con los resultados obtenidos se realiza una evaluación para determinar cuáles son los factores más influyentes en el rendimiento académico de los estudiantes. De donde se ha llegado a la determinación que los factores: año de inicio de estudios, edad de inicio de estudios, carrera que cursa el estudiante, facultad, créditos por materia registrada, porcentaje de créditos acumulados, número de miembros en el entorno familiar, ingresos económicos del padre, ingresos económicos de la madre, afiliación al seguro social del padre, afiliación al seguro social de la madre, propiedades que cuenta el estudiante, si el estudiante tiene vehículo, código Ipf del estudiante, si el computador del estudiante es para uso personal, influyen directamente en su calificación final y rendimiento académico.
Los resultados de este estudio constituyen información importante para autoridades de control académico en la tarea de mejorar las condiciones de estudiantes, brindándoles todos los medios para el éxito.2023-01-01T00:00:00ZAplicando la analítica de datos para analizar y visualizar el fenómeno de gentrificación como herramienta para la toma de decisiones estratégicas en ciudadesYulán Mendoza, Luis Enrique.http://bibdigital.epn.edu.ec/handle/15000/236032023-02-02T17:47:33Z2023-01-01T00:00:00ZTítulo: Aplicando la analítica de datos para analizar y visualizar el fenómeno de gentrificación como herramienta para la toma de decisiones estratégicas en ciudades
Autor: Yulán Mendoza, Luis Enrique.
Resumen: This research proposes to visualize areas with gentrification, which is a process of urban regeneration whose purpose is to take advantage of the rise in prices due to speculation, which causes the displacement of the original population of a neighborhood for one with a higher purchasing power. A special focus was made on intermediate cities, which are those with an approximate population of 50,000 to 1 million inhabitants with a unique and representative economic activity in Ecuador that by the year 2030 will have a greater role as populations are increasing and have representative mercantile movements such as: tourist sites, industrial activities, export of fruits, flowers, livestock, or assembly of some type of household appliances. These cities are not gentrified, evidencing gentrification only in commercial areas such as the city center, unlike metropolis such as Quito and Guayaquil, which have gentrified areas from north to south in several of their neighborhoods. For this purpose, an analysis of data on intermediate cities was proposed, where gentrified areas are represented so that central governments avoid having excessive expenses in the creation of new neighborhoods and health centers, giving the opportunity to create a policy of good living that would still be on time, something that did not happen in the metropolises.
Descripción: La presente investigación plantea visualizar zonas con gentrificación que es un proceso de regeneración urbanística cuya finalidad aprovecha del alza de precios debido a la especulación; lo cual provoca el desplazamiento de la población original de un barrio por una de un mayor poder adquisitivo. Se realizó un enfoque especial en ciudades intermedias que son aquellas que tienen un aproximado de 50.000 a 1 millón de habitantes con una actividad económica única y representativa de Ecuador que para el año 2030 tendrán un protagonismo mayor ya que las poblaciones se van incrementando y tiene movimientos mercantiles representativas como: sitios turísticos, actividades industriales, exportación de frutas, flores, ganadería o ensamblaje de algún tipo de electrodoméstico. Estas ciudades en su totalidad no se encuentran gentrificadas evidenciando únicamente la gentrificación en cascos comerciales como son el centro de la ciudad a diferencia de las metrópolis como Quito y Guayaquil que tiene zonas gentrificadas de norte a sur en varios de sus barrios. Para ello se planteó un análisis de datos sobre las ciudades intermedias donde se represente las zonas gentrificadas para que los gobiernos centrales eviten tener gastos excesivos en la creación de nuevos barrios y centros de salud dando oportunidad de crear una política de buen vivir que todavía se estaría a tiempo cosa que no paso en las metrópolis.2023-01-01T00:00:00ZDiseño de una arquitectura de datos masivos para el mapeo geográfico de la contaminación del aire en el DMQ entre los años 2005 al 2020.Mora Villacís, María Gabrielahttp://bibdigital.epn.edu.ec/handle/15000/236022023-02-02T17:31:04Z2023-01-01T00:00:00ZTítulo: Diseño de una arquitectura de datos masivos para el mapeo geográfico de la contaminación del aire en el DMQ entre los años 2005 al 2020.
Autor: Mora Villacís, María Gabriela
Resumen: The aim of this research is to integrate the processing and visualization of geographic data related to air pollution, within a massive data architecture. To achieve it, air pollutant data from Quito, Ecuador were used; it is measured by Atmospheric Monitoring Network of the city and were expressed by an index. The proposed architecture is open-source and is made up of a master node and two workers: it consists of a unified analysis computational system in Spark, managed by Yarn and linked to a graphical interface provided by Zeppelin; which stores data in HDFS, processes it and displays it visually through geographic maps. To measure its efficiency, a response time comparison was made with and without the system. Without its use, geographic interpolation took 4.52 seconds; while the proposed system showed an execution time of 2.0 seconds, obtaining a reduction of 56%. This shows an improvement in the traditional interpolation and map visualization processes and generating a new open-source alternative with resources and time optimization; in addition to contribute to making strategic decisions through a new way of analyzing environmental problems.
Descripción: Este trabajo de investigación tiene el propósito de integrar el procesamiento y visualización de datos geográficos relacionados a contaminación del aire, dentro de una arquitectura de datos masivos. Para alcanzarlo, se utilizaron datos de contaminantes atmosféricos de la ciudad de Quito, medidos a lo largo de la Red de Monitoreo Atmosférico, los cuales se expresaron mediante un índice. La arquitectura propuesta es open-source y se compone de un nodo máster y 2 workers, que consiste en un sistema computacional de análisis unificado en Spark, administrado por Yarn y enlazado a una interfaz gráfica proporcionada por Zeppelin; mismo que almacena los datos en HDFS, los procesa y los muestra visualmente mediante mapas geográficos. Para medir su eficiencia, se realizó una comparativa de tiempos de respuesta con y sin el empleo del sistema. Sin su uso, el proceso de interpolación geográfica tomó un tiempo de 4.52 segundos; mientras que el sistema propuesto mostró un tiempo de ejecución de 2.0 segundos, obteniendo una reducción del 56%, mejorando así el camino tradicional de interpolación y visualización de mapas y generando una nueva alternativa open-source con optimización de recursos y tiempo, además de contribuir en la toma de decisiones estratégicas mediante una nueva forma de análisis las problemáticas ambientales.2023-01-01T00:00:00ZDiseño de un sistema de recomendación basado en ganancias que usa machine learning para balancear los beneficios para el usuario y la empresa.Riofrío Valarezo, Juan Fernandohttp://bibdigital.epn.edu.ec/handle/15000/236012023-02-01T15:21:39Z2022-12-01T00:00:00ZTítulo: Diseño de un sistema de recomendación basado en ganancias que usa machine learning para balancear los beneficios para el usuario y la empresa.
Autor: Riofrío Valarezo, Juan Fernando
Resumen: This work proposes the design of a profit-aware recommender system named Multi-Aware Recommender System (MARS), where the impact on the user is subject to adjustment. The item re-ranking process is based on the profit generated for the business and other important attributes (i.e. price of the item), and it is performed using a weighted rank aggregation method. The weights are optimized iteratively using a variant of the Gradient Descent algorithm, in order to train the model and control the desired impact on the user. In this way, the model controls the impact on the user so as not to compromise the customer loyalty, while increasing the profit for the company. The weights can be unique for every user, making this approach personalized. The MARS method also controls the impact on the user by adjusting the ranking threshold TR, which determines the minimum rating that items must have to be re-ranked. Experiments showed that MARS models have the ability to control the impact on the user while increasing the profit by varying the weights associated to the considered attributes. It is important to notice that the training of the model can be parallelized; thus, the weights and results may be obtained for each user separately. By implementing MARS on 3 different data sets and various configurations, we obtained promising results in terms of the balance between impact on the user and profit generated.
Descripción: Este trabajo propone el diseño de un sistema de recomendación consciente de las ganancias denominado Sistema de Recomendación Multi-consciente (MARS, siglas en inglés), donde el impacto en el usuario está sujeto a ajustes. El proceso de re-ranqueo de artículos se basa en las ganancias generadas por el negocio y otros atributos importantes (el precio del artículo), y se realiza utilizando un método de agregación de ranking ponderada. Los pesos se optimizan iterativamente utilizando una variante del algoritmo de Gradiente Descendente, para entrenar el modelo y controlar el impacto deseado en el usuario. De esta forma, el modelo controla el impacto en el usuario para no comprometer la lealtad del cliente, al mismo tiempo que aumenta la rentabilidad para la empresa. Los pesos pueden ser únicos para cada usuario, lo que hace que este enfoque sea personalizado. El método MARS también controla el impacto en el usuario ajustando el límite de ranking TR, que determina la calificación mínima que deben tener los elementos para volver a ranquearlos. Los experimentos mostraron que los modelos MARS tienen la capacidad de controlar el impacto en el usuario mientras aumentan la ganancia al variar los pesos asociados a los atributos considerados. Es importante notar que el entrenamiento del modelo se puede paralelizar; así, los pesos y resultados se pueden obtener para cada usuario por separado. Al implementar MARS en 3 conjuntos de datos diferentes y varias configuraciones, obtuvimos resultados prometedores en términos de equilibrio entre el impacto en el usuario y la ganancia generada.2022-12-01T00:00:00ZModelo de detección de discurso de odio en Ecuador mediante clasificación supervisada de tweets y técnicas de NLP.Suntaxi Recalde, José Gabrielhttp://bibdigital.epn.edu.ec/handle/15000/234112022-11-07T13:36:02Z2022-10-01T00:00:00ZTítulo: Modelo de detección de discurso de odio en Ecuador mediante clasificación supervisada de tweets y técnicas de NLP.
Autor: Suntaxi Recalde, José Gabriel
Resumen: Hate speech on social networks refers to the posting of offensive language, generally, directed at vulnerable groups in society. In this context, some governments have proposed legislative actions to require social media platforms to control content that may incite hatred and violence. In Ecuador, no governmental actions have been proposed to regulate content on social networks. On this basis, the present study develops a first approach to the development of a theoretical-practical framework to identify the hate speech of users of the Twitter platform in Ecuador. In addition, this research aims to generate empirical evidence for the debate and discussion of legal artifacts that would regulate the offensive content of posts generated in Ecuador. For this, three machine learning models based on NLP techniques are used. The results showed that the word embedding techniques are better adapted to the linguistic idiosyncrasy of Ecuador, and therefore, are more accurate in identifying Hate Speech with semantics typical of this geographical area. The transfer learning with the pretrained BERT (Bidirectional Encoder Representations from Transformers) model is better suited to identify Hate Speech in general linguistic contexts.
Descripción: Hate Speech en redes sociales se refiere al posteo de lenguaje ofensivo generalmente dirigido a grupos vulnerables de la sociedad. Frente a este problema, algunos gobiernos han planteado acciones legislativas para exigir a las plataformas de redes sociales acciones de control de contenido que puedan incitar al odio y la violencia. En Ecuador, no se han planteado acciones gubernamentales de regulación de contenido en redes sociales. Sobre esta base, en el presente estudio se desarrolla una primera aproximación al desarrollo de un framework teórico-practico para identificar el discurso de odio de los usuarios de la plataforma Twitter en Ecuador. Además, esta investigación propone generar evidencia empírica para el debate y discusión de proyectos de Ley que regulen el contenido ofensivo de post generados en Ecuador. Para esto, se propone la especificación de tres modelos de aprendizaje automático basados en técnicas de NLP. Los resultados mostraron que las técnicas de word embeddings se adaptan de mejor manera a la idiosincrasia lingüística de Ecuador, y por lo tanto, son más precisas en identificar Hate Speech con semántica propia de esta zona geográfica, mientras que la técnica de aprendizaje por transferencia del modelo preentrenado BERT (Bidirectional Encoder Representations from Transformers) se adapta de mejor manera a identificar Hate Speech en contextos lingüísticos generales.2022-10-01T00:00:00ZComparación de métodos de extracción de características en el dominio del tiempo, la frecuencia y tiempo-frecuencia usando datasets públicos para reconocimiento de emociones usando OpenBCI.Álvarez Jiménez, Mayra Isabelhttp://bibdigital.epn.edu.ec/handle/15000/230352022-10-03T21:07:52Z2022-09-01T00:00:00ZTítulo: Comparación de métodos de extracción de características en el dominio del tiempo, la frecuencia y tiempo-frecuencia usando datasets públicos para reconocimiento de emociones usando OpenBCI.
Autor: Álvarez Jiménez, Mayra Isabel
Resumen: In the literature, several works have focused on emotion recognition using psychological cues such as skin temperature, heart rate, and brain signals. The study of brain signals has gained much popularity in recent years, as it is unlikely to fake brain activity read through EEG signals. Analysis of EEG signals involves two main processes: feature extraction and classification. This study's main objective is to compare feature extraction methods in the time, frequency, and time-frequency domains using the SEED and DEAP public datasets for emotion classification in EEG signals. We analyzed different characteristics of the three domains; the efficiency of the classifiers' input vectors was validated using the SVM, KNN, and ANN classification algorithms that were selected for being more used and presenting better performances in the state_of_the_art. The proposed model can identify emotions in four quadrants of the valence-arousal representation space using the DEAP dataset and emotions according to their valence, such as neutral, sad, fear, and happiness, in the SEED dataset. We achieved a classification accuracy of 66.20% using time-domain features and the k-NN classifier and 66.0% using frequency domain features and the SVM classifier for the DEAP dataset, with the frequency domain the one with the lower computational cost. We obtained an accuracy of 67.40% for the SEED dataset using time domain features and the SVM classifier.
Descripción: El estudio de señales cerebrales ha ganado gran popularidad en los últimos años ya que resulta improbable fingir la actividad cerebral leída a través de señales EEG. El análisis de las señales EEG implica dos procesos principales: la extracción y clasificación de características. El principal objetivo de este estudio es proponer un modelo utilizando diferentes métodos de extracción de características en los dominios del tiempo, frecuencia y tiempo-frecuencia usando datasets públicos SEED y DEAP para clasificación de emociones en señales EEG. Además, se analizó diferentes características de los tres dominios de tiempo, frecuencia y tiempo-frecuencia, la eficacia de los vectores de entrada de los clasificadores se validó utilizando los algoritmos de clasificación SVM, KNN y ANN seleccionados por ser más utilizados y presentar un mejor rendimiento en el estado del arte. Una vez concluida la etapa de análisis se propuso un modelo capaz de identificar emociones en cuatro cuadrantes del espacio de representación valencia – arousal usando el dataset DEAP, y emociones de acuerdo a su valencia como neutral, triste, miedo y felicidad en el dataset SEED, logrando una precisión de clasificación del 66.20% utilizando características en el dominio del tiempo y el clasificador k-NN y el 66.0% utilizando características en el dominio de la frecuencia y el clasificador SVM para el dataset DEAP, siendo el dominio de la frecuencia el que representa un menor costo computacional. Para el dataset SEED se obtuvo una precisión de 67,40% empleando características en dominio del tiempo y el clasificador SVM.2022-09-01T00:00:00ZDesarrollo e implementacion de modelos de segmentacion de clientes basados en machine learning para detectar riesgos de lavados de activos y financiacion del terrorismo. Caso de estudio en una aseguradora.Quishpe Oña, Jorge Bryanhttp://bibdigital.epn.edu.ec/handle/15000/230342022-09-30T21:51:32Z2022-09-01T00:00:00ZTítulo: Desarrollo e implementacion de modelos de segmentacion de clientes basados en machine learning para detectar riesgos de lavados de activos y financiacion del terrorismo. Caso de estudio en una aseguradora.
Autor: Quishpe Oña, Jorge Bryan
Resumen: Poder identificar actualmente transacciones monetarias sospechosas dentro de las entidades financieras resulta
una tarea compleja y de un proceso extenso de seguimiento a los clientes, dentro de esto se involucra la
experiencia de la organización y las medidas de control implementadas que se basan en reglas duras que
limitan el libre comportamiento usual de los clientes. El presente proyecto de desarrollo permitirá evaluar el
mejor escenario de los clientes en donde se identificarán transacciones con un alto riesgo LAFT detallando las
características que mejor describen a estos grupos o segmentos. Todo el desarrollo se lo realizará a través de
modelos matemáticos que clasificarán los movimientos inusuales de los clientes basado en aprendizaje
automático y bajo su fase de implementación enviarán alertas a las entidades de control de la organización en
archivos planos. Estos archivos incluyen el detalle de lo sucedido con un día de diferencia para la gestión de
seguimiento y toma de acciones
Descripción: Poder identificar actualmente transacciones monetarias sospechosas dentro de las entidades financieras resulta
una tarea compleja y de un proceso extenso de seguimiento a los clientes, dentro de esto se involucra la
experiencia de la organización y las medidas de control implementadas que se basan en reglas duras que
limitan el libre comportamiento usual de los clientes. El presente proyecto de desarrollo permitirá evaluar el
mejor escenario de los clientes en donde se identificarán transacciones con un alto riesgo LAFT detallando las
características que mejor describen a estos grupos o segmentos. Todo el desarrollo se lo realizará a través de
modelos matemáticos que clasificarán los movimientos inusuales de los clientes basado en aprendizaje
automático y bajo su fase de implementación enviarán alertas a las entidades de control de la organización en
archivos planos. Estos archivos incluyen el detalle de lo sucedido con un día de diferencia para la gestión de
seguimiento y toma de acciones2022-09-01T00:00:00ZAplicación de técnicas de machine learning en la predicción de la corrosión en las operaciones petroleras de Ecuador.Mera Shuguli, Kléver Alejandrohttp://bibdigital.epn.edu.ec/handle/15000/230322022-09-29T14:05:41Z2022-09-01T00:00:00ZTítulo: Aplicación de técnicas de machine learning en la predicción de la corrosión en las operaciones petroleras de Ecuador.
Autor: Mera Shuguli, Kléver Alejandro
Resumen: The presence of corrosion in oil extraction pipes not only generates economic losses for Ecuador, but also has harmful effects on both people's health and the environment. This Master's thesis proposes the use of Machine Learning algorithms to estimate the level of corrosion based on data collected regarding production and the chemical processes present in the extraction lines. In this work, the Support Vector Machine, Random Forest and XGBoost classification models are implemented, the same ones that are evaluated based on a set of metrics, that is, the comparison of the results of the accuracy, precision, sensitivity, specificity and f1-measure, and according to these results, a model is selected so that later a hyperparameter tuning is made to improve the performance of this model. In addition, a feature engineering stage is considered, which includes the normalization of the data, the elimination of variables with high correlation and the balancing of the data set. Also, a dashboard-type web application is included so that the end user can make the prediction in a friendly way. It is worth mentioning that this entire project was developed using the R programming language.
Descripción: La presencia de la corrosión en las tuberías de extracción de petróleo no solo genera pérdidas económicas para el Ecuador sino que también tiene efectos nocivos tanto para la salud de las personas como para el medio ambiente. Esta tesis de Maestría propone el uso de algorítmos de Machine Learning para estimar el nivel de corrosión en función de datos recabados respecto a la producción y a los procesos químicos presentes en las líneas de extracción. En este trabajo se implementan los modelos de clasificación Support Vector Machine, Random Forest y XGBoost, los mismos que son evaluados en función de un conjunto de métricas, es decir, se realiza la comparación de los resultados del accuracy, precision, sensitivity, specificity y f1-measure, y según dichos resultados se selecciona un modelo para que posteriormente se realice un ajuste de hiperparámetros para mejorar el performance de este modelo. Además, se considera una etapa de ingeniería de características en la que se incluye la normalización de los datos, la eliminación de las variables con alta correlación y el balanceo del conjunto de datos. También, se incluye una aplicación web tipo dashboard para que el usuario final pueda realizar la predicción de manera amigable. Cabe mencionar que todo este proyecto fue desarrollado utilizado el lenguaje de programación R.2022-09-01T00:00:00ZDesarrollo de un modelo predictivo para la detrminación del comportamiento de pago de los clientes de un banco ecuatoriano.García Guevara, Pablo Sebastiánhttp://bibdigital.epn.edu.ec/handle/15000/230142022-09-26T16:34:36Z2022-09-01T00:00:00ZTítulo: Desarrollo de un modelo predictivo para la detrminación del comportamiento de pago de los clientes de un banco ecuatoriano.
Autor: García Guevara, Pablo Sebastián
Resumen: This Master's thesis aims to develop a predictive model with the use of machine learning to determine the
payment behavior of customers with data from an Ecuadorian bank. This predictive model can help the Bank to
anticipate the behavior of clients who may be in default or stop paying a loan, so that appropriate measures can
be taken such as selling the portfolio or pressuring collections. The analysis of the customer's payment behavior
was carried out using time series and 4 machine learning models Recurrent Neural Networks, Temporal
Convolutional Networks, TRANSFORMER and NBEATS were used through the use of the DARTS library of
PYTHON. These models were compared with the classic Markov chain model and 3 metrics were used to
compare them i) The error, ii) F-Score, iii) Confusion Matrix, its behavior was analyzed by increasing the
number of predictions that were made. In the last part, the reasons for the models not being robust are analyzed
and how machine learning models could be applied in for this type of predictions is proposed.
Descripción: Esta tesis de Maestría Tiene como objetivo desarrollar un modelo predictivo con el uso de aprendizaje de
máquina para la determinación del comportamiento de pago de los clientes con los datos de un Banco
Ecuatoriano. Este modelo predictivo puede ayudar al Banco a anticipar el comportamiento de clientes que
posiblemente entraran en mora o dejaran de pagar un préstamo, de manera que se puedan tomar medidas
adecuadas como vender cartera o presionar en la cobranza. El análisis del comportamiento de pago del cliente
se lo realizo utilizando series de tiempo y se utilizaron 4 modelos de aprendizaje de máquina Modelo de Redes
Neuronales Recurrentes, Modelo Redes Temporales Convolucionales, Modelo TRANSFORMER y Modelo N BEATS mediante el uso de la librería DARTS de PYTHON. Estos modelos se los comparo con el modelo
clásico de cadenas de Markov y se utilizaron 3 métricas para compararlos i) El error, ii) F-Score, iv) Matriz de
Confusión, y se analizó su comportamiento aumentando el número de predicciones que se realiza. En la parte
final se analiza las razones para que los modelos no sean tan robustos y se propone como se podrían aplicar de
mejor manera los modelos de aprendizaje de máquina para este tipo de predicciones.
Esta tesis de Maestría Tiene como objetivo desarrollar un modelo predictivo con el uso de aprendizaje de
máquina para la determinación del comportamiento de pago de los clientes con los datos de un Banco
Ecuatoriano. Este modelo predictivo puede ayudar al Banco a anticipar el comportamiento de clientes que
posiblemente entraran en mora o dejaran de pagar un préstamo, de manera que se puedan tomar medidas
adecuadas como vender cartera o presionar en la cobranza. El análisis del comportamiento de pago del cliente
se lo realizo utilizando series de tiempo y se utilizaron 4 modelos de aprendizaje de máquina Modelo de Redes
Neuronales Recurrentes, Modelo Redes Temporales Convolucionales, Modelo TRANSFORMER y Modelo N BEATS mediante el uso de la librería DARTS de PYTHON. Estos modelos se los comparo con el modelo
clásico de cadenas de Markov y se utilizaron 3 métricas para compararlos i) El error, ii) F-Score, iv) Matriz de
Confusión, y se analizó su comportamiento aumentando el número de predicciones que se realiza. En la parte
final se analiza las razones para que los modelos no sean tan robustos y se propone como se podrían aplicar de
mejor manera los modelos de aprendizaje de máquina para este tipo de predicciones.2022-09-01T00:00:00ZPropuesta de mejora del rendimiento en la dinámica de la cadena de suministros de organizaciones productivas camaroneras locales en base a elementos de gestión tecnológica y sistémica.Albuja Bolaños, Rommel Rodrigohttp://bibdigital.epn.edu.ec/handle/15000/230012022-09-26T14:46:58Z2022-09-01T00:00:00ZTítulo: Propuesta de mejora del rendimiento en la dinámica de la cadena de suministros de organizaciones productivas camaroneras locales en base a elementos de gestión tecnológica y sistémica.
Autor: Albuja Bolaños, Rommel Rodrigo
Resumen: The supply chain in production systems plays a relevant role as a constituent part of their operation due to the logistics and supply of material inputs and services during the life cycle of a given product. Such is the case of the Ecuadorian shrimp that, during the execution of a specific run, requires a series of elements that sustain its production in each of its phases, from its larval stages and its development to its fishing and commercialization. In this sense, the present research work has analyzed how the information flows operate within the supply chain, determining how the relevant data of the production, logistics, and marketing processes are transferred between supply chain members, the risks involved in sharing information between these members during each of the production stages, and what are the actions aimed at supporting shrimp production management, to improve their performance. The objective seeks to establish support mechanisms through technologies to optimize the investment that is made dynamically and enhance information management and decision-making processes.
Descripción: La cadena de suministros en los sistemas productivos, cumple con un papel relevante como parte constituyente de la operación de estos, en mérito de la logística y aprovisionamiento de insumos materiales y servicios durante el ciclo de vida de un determinado producto. Tal es el caso del camarón ecuatoriano que durante la ejecución de una determinada corrida requiere de una serie de elementos que sostengan su producción en cada una de sus fases desde sus etapas larvarias, su desarrollo hasta su pesca y comercialización. En este sentido, en el presente trabajo de investigación se ha analizado como operan los flujos de información dentro de la cadena de suministros, determinando cómo son transferidos los datos relevantes de los procesos productivos, de logística y comercialización entre los miembros de la cadena de suministros, los riesgos inmersos al transferir información entre estos miembros durante cada una de las etapas productivas, y cuáles son las acciones tendientes a apoyar la gestión productiva camaronera, para mejorar su desempeño. El objetivo busca establecer mecanismos de ayuda a través del uso de tecnologías para optimizar la inversión que es realizada de manera dinámica y mejorar los procesos de gestión de información y la toma de decisiones.2022-09-01T00:00:00ZDesarrollo de un modelo adaptativo-dinámico de recomendación para grupos basado en aspectos temporales.Valdivieso Pinzón, Christian Alexanderhttp://bibdigital.epn.edu.ec/handle/15000/229082022-09-12T14:52:49Z2022-08-01T00:00:00ZTítulo: Desarrollo de un modelo adaptativo-dinámico de recomendación para grupos basado en aspectos temporales.
Autor: Valdivieso Pinzón, Christian Alexander
Resumen: Recommender systems (RS) implemented on Web platforms have reached a certain maturity and today, they are capable of finding the products or services that best suit the needs and interests of potential users or groups of users. Actually, group recommender systems (GRS) allow items to be recommended to a group of users who have common interests. The temporal aspects of GRS are based on the idea of generating a sequence of ratings where each rating belongs to a temporary space or period, so group interest drift is captured over time. Therefore, a temporal-sensitive GRS seeks to predict the group-item rating for the next time period in the future. As in other contexts, this also allows the generation of recommendation lists for groups. The approach on sequential aspects used for the design of a SRG considering the temporal aspects, is the one proposed in this research. This is based on the evaluation of some methods. Indeed, we used matrix factorization for individual rating predictions to later detect groups and extract the group models with strategies of aggregation. Finally, state-of-the-art sequence-aware RS model were applied in a GRS scenario. MovieLens and Amazon datasets having the timestamp field were selected to be able to evaluate the models. Metrics such as the RMSE and NDCG were reported.
Descripción: Los sistemas de recomendación (SR) implementados en plataformas Web han alcanzado cierta madurez y hoy en día son capaces de encontrar los productos o servicios que mejor se adaptan a las potenciales necesidades e intereses de los usuarios o grupos de usuarios. En realidad, los sistemas de recomendación de grupos (SRG) permiten recomendar artículos a un grupo de usuarios que tienen intereses comunes. Los aspectos temporales de SRG se basan en la idea de generar una secuencia de calificaciones donde cada calificación pertenece a un espacio o período temporal, de modo que se captura el interés del grupo a lo largo del tiempo. Por lo tanto, un SRG sensible al tiempo busca predecir la calificación de elementos grupales para el próximo período de tiempo en el futuro. Como en otros contextos, esto también permite generar listas de recomendaciones para grupos. El enfoque sobre aspectos secuenciales utilizados para el diseño de un SRG considerando aspectos temporales, es el que se propone en esta investigación. Esto se basa en la evaluación de algunos métodos. De hecho, utilizamos la factorización matricial para las predicciones de calificaciones individuales para luego detectar grupos y extraer los modelos grupales con estrategias de agregación. Finalmente, se aplicó un modelo SR con reconocimiento de secuencias de última generación en un escenario SRG. Se seleccionaron conjuntos de datos de MovieLens y Amazon que tenían el campo de timestamp para poder evaluar los modelos. Se reportaron métricas como RMSE y NDCG.2022-08-01T00:00:00ZDesarrollo de un asistente conversacional para gestión de compra-venta de ropa en línea usando Rasa Open-Source.Aguas Haro, Xavier Ivánhttp://bibdigital.epn.edu.ec/handle/15000/228672022-09-01T19:48:12Z2022-07-01T00:00:00ZTítulo: Desarrollo de un asistente conversacional para gestión de compra-venta de ropa en línea usando Rasa Open-Source.
Autor: Aguas Haro, Xavier Iván
Resumen: Technology has generated a significant impact on people's lives and has favored the development of e-commerce. Since the COVID-19 health crisis, social distancing and the closure of businesses have caused commercial activity to increase through digital channels in Ecuador. Although several businesses chose to hire more staff, it was not enough due to the high volume of questions they received. Chatbots offer immediate attention 24/7 and thus avoid the abandonment of shopping carts. Although efforts have been made to improve the effectiveness of chatbots, through machine learning algorithms, conversations remain rigid and with responses, in some cases, undesirable. This is because the context and history of the conversation between the chatbot and the user have not been considered. For this reason, this work proposes the development of a conversational assistant capable of accompanying the client throughout the clothing discovery process, using Rasa; a framework that combines the comprehension and processing of natural language based on transformer-type neural networks, allowing to improve the effectiveness of the responses of said assistant. In addition, Rasa was combined with a search engine “Algolia” to enhance the assistant's abilities to find the requested clothing and deliver instant results. Finally, the results of this work showed that through Rasa it is possible to create assistants as personalized as desired and that incorporating continuous training and evaluation processes with real users makes it possible for the model to be generalized to real-world scenarios, thus increasing the rate effectiveness.
Descripción: La tecnología ha generado un impacto significativo en la vida de las personas y ha favorecido el desarrollo del comercio electrónico. Desde que se produjo la crisis sanitaria del COVID-19, tanto el distanciamiento social como el cierre de varios negocios provocaron que la actividad comercial aumentara a través de canales electrónicos en Ecuador. A pesar de que varios negocios optaron por contratar más personal, no fue suficiente debido al gran volumen de preguntas que recibían por canales digitales. Los chatbots ofrecen una atención inmediata 24/7 y evitan así el abandono de carritos de compra. A pesar de que se han realizado esfuerzos para mejorar la efectividad de los chatbots, a través de algoritmos de aprendizaje de máquina, las conversaciones aún se mantienen rígidas y con respuestas, en algunos casos, indeseables. Por esta razón, en este trabajo se propone el desarrollo de un asistente conversacional capaz de acompañar al cliente en todo el proceso de descubrimiento de ropa, a través de Rasa; un framework que combina la comprensión y procesamiento de lenguaje natural basado en redes neuronales tipo transformer para mejorar la efectividad en las respuestas de dicho asistente. Rasa fue combinado con un motor de búsqueda “Algolia” para potencializar las habilidades del asistente para encontrar la ropa solicitada. Finalmente, los resultados de este trabajo demostraron que a través de Rasa se puede crear asistentes tan personalizados como se desee y que incorporar procesos de capacitación y evaluación continua con usuarios reales posibilita que el modelo pueda generalizarse a escenarios del mundo real.2022-07-01T00:00:00ZDesign and implementation of an agent using reinforcement learning to the operation of a myoelectric prosthesis using EMG signals.Zea Guachamín, Jonathan Alejandrohttp://bibdigital.epn.edu.ec/handle/15000/228332022-08-08T14:28:42Z2022-06-01T00:00:00ZTítulo: Design and implementation of an agent using reinforcement learning to the operation of a myoelectric prosthesis using EMG signals.
Autor: Zea Guachamín, Jonathan Alejandro
Resumen: In the world exists approximately 65 million amputees, 38.7% of which correspond to upper limb amputations, and most of them are found in developing countries. This leads to the necessity of an affordable, easy-to-made hand prosthesis to alleviate these people situation. This project proposes the use of reinforcement learning to train an agent for the operation of a myoelectric prosthesis. A prosthesis prototype with flexible materials was built from an open-source model chosen from the literature. The prothesis was modified and built as a low-cost 3D printed prototype with 4 degrees of freedom, 1 for each finger but the little. A commercial electromyography sensor is used, and just during evaluation a glove with flexion sensors. The training of the agent that operates the prosthesis was divided in two stages, simulation and fine-tuning. For this matter, a simplified model of the prosthesis dynamics was implemented for simulation. Simulation training allowed fast proof of concept testing and hyperparameters selection. Fine-tuning was necessary to adapt the agent to the real hardware. Three approaches for the reward function were considered, the best results were obtained with the combination of 2 of them: the distance to the target, and a discrete reward depending on the selected action by the agent. The performance of the prosthesis was measured using the success rate of the grasp and release tasks obtaining an 86%. From this, we conclude that this research was a successful first step towards achieving a fully functional myoelectric hand prosthesis
Descripción: En este trabajo se propone realizar un modelo de recomendación grupal y se demuestra que usando datos sintéticos se mantiene la protección de los datos en sistemas de recomendación para grupos. Para ello se usaron 2 enfoques para la generación de los datos sintéticos, y así poder ocultar la información privada de los usuarios del grupo. El primer enfoque que fue usado es el de ≪privacidad diferencial≫ el cual usa un modelo de red bayesiana que combina distribuciones de baja dimensión para aproximarse a la distribución de dimensión completa de un conjunto de datos. El segundo enfoque utilizado fue el método de ≪CART≫ el cual usa modelos secuenciales y aplica una transformación a los datos originales de tal forma que se cambian solo algunos valores. Los resultados con los datos sintéticos de ambos enfoques son bastante prometedores y se comprueba que manipulan información menos especifica acerca de las preferencias de los usuarios en el grupo. Nuestro trabajo también muestra que existe viabilidad para poder garantizar privacidad de los datos sin una perdida significativa de precisión en la recomendación grupal.2022-06-01T00:00:00ZDesarrollo de un modelo de recomendación grupal que considere la privacidad de los usuarios usando datos sintéticos y agregación de preferencias.Yépez Castillo, Carolina Elizabethhttp://bibdigital.epn.edu.ec/handle/15000/228082022-07-19T15:37:02Z2022-07-01T00:00:00ZTítulo: Desarrollo de un modelo de recomendación grupal que considere la privacidad de los usuarios usando datos sintéticos y agregación de preferencias.
Autor: Yépez Castillo, Carolina Elizabeth
Resumen: In this work, we propose a group recommendation model is proposed it is shown that using synthetic data, data protection is maintained. For this, two approaches were used to generate synthetic data and thus be able to hide the private information of the group’s users. The first one is ≪differential privacy≫ which uses a Bayesian network model that combines lowdimensional distributions to approximate the full-dimensional distribution of a data set. The second approach used was the ≪CART≫ method which uses sequential models and applies a transformation to the original data in such a way that only some values are changed. The results with the synthetic data of both approaches are quite promising and it is verified that they manipulate less specific information about the preferences of the users in the group. Our work also shows that it is possible to guarantee data privacy without a significant loss of accuracy in group recommendation.
Descripción: En este trabajo se propone realizar un modelo de recomendación grupal y se demuestra que usando datos sintéticos se mantiene la protección de los datos en sistemas de recomendación para grupos. Para ello se usaron 2 enfoques para la generación de los datos sintéticos, y así poder ocultar la información privada de los usuarios del grupo. El primer enfoque que fue usado es el de ≪privacidad diferencial≫ el cual usa un modelo de red bayesiana que combina distribuciones de baja dimensión para aproximarse a la distribución de dimensión completa de un conjunto de datos. El segundo enfoque utilizado fue el método de ≪CART≫ el cual usa modelos secuenciales y aplica una transformación a los datos originales de tal forma que se cambian solo algunos valores. Los resultados con los datos sintéticos de ambos enfoques son bastante prometedores y se comprueba que manipulan información menos especifica acerca de las preferencias de los usuarios en el grupo. Nuestro trabajo también muestra que existe viabilidad para poder garantizar privacidad de los datos sin una perdida significativa de precisión en la recomendación grupal.2022-07-01T00:00:00ZBarreras y motivadores para la adopción de soluciones de big data en empresas de telecomunicaciones en el Ecuador.Fray Aguirre, José Fernandohttp://bibdigital.epn.edu.ec/handle/15000/227372022-07-14T19:54:26Z2022-04-01T00:00:00ZTítulo: Barreras y motivadores para la adopción de soluciones de big data en empresas de telecomunicaciones en el Ecuador.
Autor: Fray Aguirre, José Fernando
Resumen: Big Data may be one of the most promising technologies of the new century, but at the same time, one of the least understood. The adoption of these technologies is uneven in the world and their use, or not, can influence the reduction of the digital divide between developed and developing countries. In Ecuador, these technologies are beginning to be adopted. The present work aims to determine the drivers and barriers for the adoption of Big Data solutions in telecommunications companies in Ecuador. For this, interviews were conducted with representatives of telecommunications companies in Ecuador affiliated with AEPROVI in which questions related to the subject in question were raised, through semi-structured interviews. Some analysis of documents and other sources of information and studies were also carried on. Next, the discourse of the actors involved was analyzed get conclusions about the notions handled by them in relation to Big Data, as well as a neo-institutional vision of the drivers and barriers for the adoption of these solutions. This research can help companies accelerate their entry into Industry 4.0 and become Data Driven companies.
Descripción: El Big Data puede ser una de las tecnologías más prometedoras del nuevo siglo, pero a la vez, una de las menos comprendidas. La adopción de estas tecnologías es desigual en el mundo y su aprovechamiento, o no, puede incidir en la reducción de la brecha digital entre países desarrollados y aquellos en vías de desarrollo. En el Ecuador, las tecnologías de procesamiento de datos masivos están empezando a ser adoptadas. El presente trabajo de titulación tiene como objetivo determinar las barreras y motivadores para la adopción de soluciones de Big Data en las empresas de telecomunicaciones del Ecuador. Para ello se realizaron entrevistas semiestructuradas con representantes de empresas de telecomunicaciones en el Ecuador agremiadas a la AEPROVI en las cuales se plantearon preguntas relacionadas al tema en cuestión, mediante un dialogo participativo con el entrevistado, del análisis de documentos y otras fuentes de información y estudios. A continuación, se analizó el discurso de los actores involucrados para obtener conclusiones en torno a las nociones manejadas por éstos en relación con el Big Data, así como una visión neo-institucional de los frenos y motivadores para la adopción de estas soluciones. Los resultados de esta investigación pueden servir para que empresas aceleren su ingreso a la industria 4.0 y acelerar su transformación hacia empresas Data Driven.2022-04-01T00:00:00ZDiseñar dashboards estratégicos como herramienta de negocios para la toma de decisiones en la empresa High Systems Analytics.Ñauñay Colcha, Jorge Luishttp://bibdigital.epn.edu.ec/handle/15000/225912022-06-29T22:07:31Z2022-03-01T00:00:00ZTítulo: Diseñar dashboards estratégicos como herramienta de negocios para la toma de decisiones en la empresa High Systems Analytics.
Autor: Ñauñay Colcha, Jorge Luis
Resumen: Due to the development of information technology, companies have a large amount of data stored, which creates great difficulties in processing the most relevant data. This can be solved through a dashboard that answers many questions from the company. Once a company has identified the need for a dashboard, senior management together with technicians must decide what to include in its dashboard, in order to support decision making. One of the objectives of this work is to use a tool that best suits the needs of the High Systems Analytics company. To do this, it begins by describing the main characteristics, types and benefits of dashboards. Then, an analysis of the most used software tools for creating dashboards has been carried out, which according to the Gartner quadrant of February 2021, the leading tools are Microsoft, Tableau and QlikView. Once the comparative analysis was completed evaluating characteristics, functionalities, costs, adaptability and processing of each one, QlikView was chosen, with an acceptance by the company of 82.5 points out of 100. Another objective of this work was to create a strategic dashboard that is addressed to senior management. The implementation of the dashboard was carried out using the VROps methodology, for which the following steps are followed: define the objective of the dashboard, plan a workflow, know the data, choose the widgets (types of graphs), plan interactions, tests of handling, and finally refinement and maintenance. In the phase of knowing the data, a data cleaning software module was generated, which allows validating and correcting the numerical values before loading them into the QlikView tool. With the initial data load, a strategic dashboard of sales and products was generated as a business tool, allowing effective management of products and sales. Finally, a survey was conducted aimed at the decision makers of the company, the result of which was greater than 90%, which allows us to conclude that the implementation of the strategic dashboard improved the decision-making process.
Descripción: Debido al desarrollo de la tecnología de la información, las empresas tienen una gran cantidad de data almacenada, lo que genera grandes dificultades para procesar la data más relevante. Uno de los objetivos de este trabajo es usar una herramienta que más se adapte a la necesidad de la empresa High Systems Analytics. Para ello, se inicia describiendo las principales características, tipos y beneficios de los dashboards. Después, se ha realizado un análisis de las herramientas de software más utilizadas para la creación de dashboard, que de acuerdo con el cuadrante de Gartner de febrero del 2021 las herramientas líderes son Microsoft, Tableau y QlikView, finalizado el análisis comparativo evaluando características, funcionalidades, costos, adaptabilidad y procesamiento de cada una, se eligió QlikView, con una aceptación por parte de la empresa de 82,5 puntos sobre 100. La implementación del dashboard se realizó mediante la metodología VROps, adicional se generó un módulo de software de limpieza de datos, que permite validar y corregir los valores numéricos antes de realizar la carga a la herramienta QlikView. Con la carga de datos inicial se generó un dashboard estratégico, permitiendo gestionar de forma efectiva los productos y ventas, finalmente mediante una encuesta dirigida a los decisores de la empresa, el resultado de ésta fue mayor al 90%, lo que nos permite concluir que la implementación del dashboard estratégico mejoró el proceso de toma de decisiones.2022-03-01T00:00:00ZDiseño de un modelo de credit scoring que fomente la inclusión social al sistema financiero haciendo énfasis en las características del bien a financiar mediante técnicas de inteligencia artificial explicables .Oquendo Villamizar, Andrés Juliánhttp://bibdigital.epn.edu.ec/handle/15000/225532022-06-20T17:47:19Z2022-02-01T00:00:00ZTítulo: Diseño de un modelo de credit scoring que fomente la inclusión social al sistema financiero haciendo énfasis en las características del bien a financiar mediante técnicas de inteligencia artificial explicables .
Autor: Oquendo Villamizar, Andrés Julián
Resumen: Nowadays, in Ecuador, to predict payment probabilities, financial institutions continue to use traditional techniques based on statistical models that analyze the capacity of an individual to pay, this even though there is a huge amount of transactional data that could better predict the probability of repayment and encourage financial inclusion, while at the same time preventing the illegal trade of personal data. This collection of data, which is unique to each financial institution, requires Artificial Intelligence techniques for its handling to better take advantage of the available computational capacities. This master thesis designs a Credit Scoring model that offers a better solution to predict the repayment of automotive microcredits, adding to the solution variables such as the characteristics of financed goods, destination of funds, economic activity of the candidate, and the benefits that the acquisition will bring. This work shows the effectiveness of Artificial Intelligence techniques, especially those not called “black boxes”, when additionally, data that is not related to the financial capacity of prospects are used. To achieve this, it proposes that an acquisition and quantification methodology be applied to the prospect’s information during the qualification process and later, during the handling of data. In this project, an artifact that improves the scoring process of applicants of automotive microcredits was designed
Descripción: Actualmente, en el Ecuador, las instituciones financieras, a pesar de la gran cantidad de datos transaccionales existentes para predecir la probabilidad de pago, continúan utilizando para este fin técnicas tradicionales basadas en modelos estadísticos que se centran básicamente en el análisis de la capacidad de pago y este enfoque por un lado no fomenta la inclusión social al sistema financiero y por otro alienta un comercio ilegal de datos personales. Esta masificación de los datos, que además son propios de cada institución financiera, requiere para su tratamiento de técnicas de Inteligencia Artificial que aprovechan de mejor manera las capacidades computacionales actuales. En esta tesis se pretende diseñar un modelo de Credit Scoring que brinde una mejor solución para predecir el pago de un microcrédito automotriz añadiendo a la solución variables tales como las características del bien financiado, destino, actividad económica del prospecto y el beneficio que esta adquisición con lleva. En este trabajo se demuestra la efectividad de las técnicas de Inteligencia Artificial, sobre todo de aquellas no denominadas “cajas negras”, cuando adicionalmente se utilizan datos que no están relacionados con la capacidad financiera de los prospectos. Para esto se planteó una metodología para la adquisición y cuantificación de la información de los prospectos en el proceso de calificación y el posterior tratamiento de los datos. En este proyecto se diseñó un artefacto que mejora el proceso de calificación de los prospectos a un crédito automotriz.2022-02-01T00:00:00ZAnálisis de colaboración y coautoría entre miembros del departamento de informática y ciencia de la computación de la escuela politécnica nacional mediante técnicas de análisis de redes socialesRosero Dávila, Wendy Adrianahttp://bibdigital.epn.edu.ec/handle/15000/222962022-03-30T20:14:54Z2022-03-09T00:00:00ZTítulo: Análisis de colaboración y coautoría entre miembros del departamento de informática y ciencia de la computación de la escuela politécnica nacional mediante técnicas de análisis de redes sociales
Autor: Rosero Dávila, Wendy Adriana
Resumen: El presente trabajo de titulación se enfoca en realizar un análisis de redes sociales que permita al Departamento de Informática y Ciencias de la Computación (DICC) de la Facultad de Sistemas de la Escuela Politécnica Nacional, visualizar la colaboración de sus miembros de la difusión y producción científica mediante la correlación de datos como autores y coautores, como directores y codirectores de tesis y como tribunales calificadores de trabajos de grado y postgrado realizados en el departamento en un periodo de 10 años. Los resultados permitirán que los miembros del DICC puedan proponer mejoras organizacionales, dinamizando más la producción científica y colaboración existentes. El alcance de este proyecto provee un insumo para el análisis sobre relaciones sociales utilizando la herramienta Pajek. En el primer capítulo trata el planteamiento de la problemática, objetivos del estudio, y literatura relacionada a las redes sociales, tratamiento de datos para estas redes y una breve revisión de la herramienta de código abierto Pajek. En el segundo capítulo se redacta la metodología de minería textual planteada para este estudio. En el tercer capítulo se realizan algunos cálculos sobre indicadores relacionados a las redes sociales estudiadas y entrega de resultados numéricos y gráficos.
Descripción: This study is a social network analysis that allows the Department of Informatics and Computer Science (DICC) of the Systems Faculty of the Escuela Politécnica Nacional to visualize the collaboration of its members regarding their scientific production. This purpose is achieved by correlating data about co-authorship of scientific papers as co direction of degree works and reviewing the undergraduate and postgraduate work carried out in the department for ten years. The results would enable the members of the DICC to propose organizational improvements, further energizing scientific production and collaboration. This project's scope provides data for analyzing social relations using Pajek. The first chapter describes the context of the problem, the objectives of the study and the literature about social networks, data processing for these networks, and the open-source tool Pajek. The second chapter deals with the textual mining methodology followed in the study. In the third chapter, some indicators related to the analyzed social networks are calculated and it includes the results numerically and graphically.2022-03-09T00:00:00ZDesarrollo de un modelo de predicción basado en Algoritmos de Machine Learning para medir el riesgo crediticio.Pucha Gualoto, Oscar Ivánhttp://bibdigital.epn.edu.ec/handle/15000/222902022-03-30T19:27:04Z2022-03-28T00:00:00ZTítulo: Desarrollo de un modelo de predicción basado en Algoritmos de Machine Learning para medir el riesgo crediticio.
Autor: Pucha Gualoto, Oscar Iván
Resumen: The main objective of this document is to propose a credit risk prediction model based on the use of machine learning, to be used in credit evaluation in financial or commercial institutions. In this way, it is intended to minimize the probability of giving a loan to a person who does not have sufficient capacity to repay the money given by the bank, cooperative or any other type of institution in the financial and commercial system. The methodology used has a mixed character, because qualitative and quantitative analysis tools were used. Agile methodologies were used to systematize the activities for the development of the model. The chosen machine learning models were Logistic Regression, Support Vector Machine, Decision Tree and Nearest Neighbor. The general conclusion of the document is associated with the fact that all the models used give satisfactory results and can be used for risk prediction. The models proposed to meet the stated objectives that have shown the best fit in their results were the Logistic Regression and the Support Vector Machine. However, it is the task of financial institutions to evaluate the model that best suits their credit processes and has a better relationship with their business objectives; since the prediction model used is a tool to support commercial management to safeguard the equity and profitability of the financial institution and does not constitute a mechanism to pressure the client to improve the loan portfolio.
Descripción: El presente documento tiene como objetivo central, plantear un modelo de predicción de riesgo de crédito basado en el uso de machine learning, con el fin de ser empleado en la evaluación crediticia en instituciones comerciales y financieras. De esta manera, se pretende minimizar la probabilidad de entregar un crédito a una persona que no tenga la capacidad suficiente para resarcir el dinero entregado por el banco, cooperativa o cualquier otro tipo de institución del sistema financiero o comercial. La metodología empleada tiene un carácter mixto, porque se emplearon herramientas de análisis cualitativo y cuantitativo. Para sistematizar las actividades para el desarrollo del modelo, se emplearon metodologías agiles. Los modelos de machine learning escogidos fueron Regresión Logística, Árboles de Decisión, Vecino más próximo y Support Vector Machine. La conclusión general del documento se asocia a que todos los modelos empleados arrojan resultados satisfactorios y pueden ser usados para la evaluación del riesgo crediticio. Los modelos propuestos para cumplir los objetivos planteados que han mostrado el mejor ajuste en sus resultados fueron la Regresión logística y el Support Vector Machine. Es tarea de las instituciones financieras, evaluar el modelo que mejore se adapte a sus procesos crediticios y tenga mejor relación con sus objetivos de negocio; ya que el modelo de predicción empleado es una herramienta de apoyo a la gestión comercial con el fin de precautelar el patrimonio y rentabilidad de la institución financiera y no se constituyen en un mecanismo de presión al cliente para mejorar la cartera de crédito.2022-03-28T00:00:00ZEvaluación de la usabilidad del modelo DPQ “Design Process Quality” mediante su aplicación a un caso de estudio del modelado de procesos organizacionales aplicando la norma ISO/IEC 25010.Luzuriaga Paredes, Jorge Franciscohttp://bibdigital.epn.edu.ec/handle/15000/222172022-03-02T16:44:32Z2022-03-02T00:00:00ZTítulo: Evaluación de la usabilidad del modelo DPQ “Design Process Quality” mediante su aplicación a un caso de estudio del modelado de procesos organizacionales aplicando la norma ISO/IEC 25010.
Autor: Luzuriaga Paredes, Jorge Francisco
Resumen: The best way in which an organization can carry out its business objectives, goals and expectations using
organizational processes, in which all its information is managed. For which it is important to consider that a
well-designed process requires some attention from the organization, think about a nomenclature, a
standardization, use the best effort, all this is part of a set of tools that support the improvement of the quality of
their design. Based on this idea, in 2018 in the city of Quito, a quality model was proposed for the design of
organizational processes (Galvez, 2018); which was based on the construction of a template supported by
semantic, syntactic and pragmatic perspectives; whose main objective was to build a model that replaces
traditional techniques by organizations when designing processes. Currently in this work this model known as
the "Design Process Quality" model is being evaluated, with the aim of validating its usability, which is
measured in the capacity in which it can be understood, learned and used by a specific user. Thus evaluating, if
its application continues being adequate for diverse needs, allowing its learning and correct handling; in
addition to verifying if the model pleases and satisfies in the interaction with users with different capacities,
protecting them from not making mistakes. This evaluation is carried out through the application of a case
study of an organization.
Descripción: Una organización puede llevar a cabo sus objetivos, metas y expectativas empresariales, mediante el uso de los procesos
organizacionales, en los cuales se gestiona toda su información. Para lo cual, es importante tener en cuenta que un proceso
bien diseñado requiere de cierta atención por parte de la organización, pensar en una nomenclatura, una estandarización
usar el mejor esfuerzo, todo como parte de un conjunto de herramientas que apoyan al mejoramiento de la calidad de los
diseños. Basado en esta idea (Gálvez, 2018) propone un modelo de calidad para el diseño de procesos organizacionales; que
se basó en la construcción de un modelo cíclico soportado por las perspectivas sintáctica, semántica y pragmática; con el
objetivo de construir un modelo que reemplace las técnicas tradicionales de las organizacionales al diseñar procesos.
Actualmente en este trabajo se evalúa al modelo DPQ “Design Process Quality” y sus perspectivas, con el objetivo de
evaluar su usabilidad y su aplicación práctica, para una posible evolución. Cabe mencionar que, dentro de la usabilidad, se
verificará el agrado y satisfacción que un usuario tiene como experiencia a usar el modelo en evaluación. Esta evaluación se
lleva a cabo mediante la aplicación de un caso de estudio y el análisis de la propuesta del modelo de calidad ISO/IEC
25010.2022-03-02T00:00:00ZDesarrollo de un modelo predictivo para el análisis de anomalías de desempeño en futbolistas profesionales utilizando minería de opiniones.Albuja González, Danny Cristóbalhttp://bibdigital.epn.edu.ec/handle/15000/222052022-02-24T16:51:37Z2022-02-24T00:00:00ZTítulo: Desarrollo de un modelo predictivo para el análisis de anomalías de desempeño en futbolistas profesionales utilizando minería de opiniones.
Autor: Albuja González, Danny Cristóbal
Resumen: Nowadays, soccer requires tools to confirm through statistics when a player’s performance is dropping, and consequently, propose corrective. The present project aims to accomplish two goals. The first one focuses on establishing a mechanism to identify anomalies in the performance of professional soccer players. We understand as an anomaly, the development (in terms of performance and financial valuation) of an athlete who has not fulfilled his projection as a future star. Secondly, based on the identification of these anomalous performances, we intend to develop a model that allows explaining these behaviours through opinion mining from what has been said about the athlete in Twitter. The relevant information will be extracted from people’s tweets and analysed through Sentiment Analysis, in addition to word cleaning and vectorization processes.
To do so, the CRISP-DM methodology will be followed, in addition to information extraction processes, execution of Python libraries for text processing, among other tools; all for implementing methods of Artificial Intelligence and Machine Learning.
At the end, it was possible to relate people’s opinions with players’ performance to predict if a player is risky and to support the decision-making process about the player’s future within the soccer team.
Descripción: En la actualidad el fútbol requiere herramientas que confirmen lo que se percibe de forma empírica, para corroborar mediante estadísticas, cuándo un jugador está bajando su desempeño y puedan tomarse los correctivos necesarios.
En el presente proyecto se pretende cumplir con dos metas. Primero, establecer un mecanismo que permita identificar anomalías en el rendimiento deportivo de los futbolistas profesionales, entendiéndose como anomalía, el desarrollo (en términos de rendimiento y valoración financiera) de un deportista que no haya cumplido su proyección como futura estrella. A partir de la identificación de estos rendimientos anómalos, en segundo lugar, se pretende desarrollar un modelo que permita explicar estos comportamientos mediante minería de opiniones tomando como fuente de dato lo que se ha dicho del deportista en la red social Twitter.
Para implementar estas tareas se seguirá la metodología CRISP-DM, además de procesos de extracción de información, ejecución de librerías de Python para procesamiento de texto, entre otras herramientas; implementando técnicas de Inteligencia Artificial y Aprendizaje de Máquina.
Al final, se pudo relacionar las opiniones de las personas con el desempeño del jugador, de forma que se pronostica si este jugador es riesgoso y sirva de apoyo en la toma de decisiones sobre el futuro del jugador dentro del equipo de fútbol.2022-02-24T00:00:00ZImplementación de un modelo de recomendación para la venta de flores aplicando técnicas de aprendizaje de máquina. un caso de estudio.Avila Gaibor, Edison Patriciohttp://bibdigital.epn.edu.ec/handle/15000/222022022-02-24T13:57:05Z2022-02-22T00:00:00ZTítulo: Implementación de un modelo de recomendación para la venta de flores aplicando técnicas de aprendizaje de máquina. un caso de estudio.
Autor: Avila Gaibor, Edison Patricio
Resumen: It is well known that online stores such as Amazon, eBay, Walmart, Alibaba, BestBuy, Flipkart, Ikea and many
more have exploited the advantage of recommendation algorithms to increase their sales and profitability.
Therefore, when an e-commerce has a recommendation system that leads the visitor to view items of interest as
well as related products according to their preferences, the probability of purchase increases. Additionally, that
will allow the clients to only choose articles based on their searching and not be overhelmed by endless product
lists, so that is how the web commerce sites have more options to achieve their sales. This means the
recommendation system should identify the customer needs to adjust the items of interest that are shown. This
is achieved when large amounts of data are processed using machine learning techniques to determine which
elements are highly likely to be purchased.
This project aims to build a model using the Company SAGAT INTERNATIONAL LLC database, and exploit
data mining techniques to obtain the most optimal model in the predictions of elements of interest, evaluating
the Apriori algorithms of association rules and K-means Clusters. The strategy of this project proposes the
development and installation of the recommender model so that it interacts with the company’s e-commerce
either within the store’s architecture or outside it through the consumption of a REST service.
Descripción: Diversas investigaciones han demostrado el aumento significativo de ventas de artículos en línea y el éxito de
tiendas como Amazon, Ebay, Walmart, Alibaba, Bestbuy, Flipkart, Ikea y muchas otras que han sabido
aprovechar las ventajas de los algoritmos de recomendación. Cuando un e-commerce cuenta con un sistema de
recomendación que conduce al visitante por elementos de interés y guía su experiencia a través de productos
asociados, presentando alta probabilidad de compra, permite que el cliente no se sienta abrumado por listas
interminables de productos y abandone la tienda sin completar la transacción. Un sistema recomendador filtrará
información relevante que se ajusta a elementos de interés, a partir del análisis de grandes cantidades de datos
que aplicando técnicas de aprendizaje de máquina permiten determinar elementos con alta probabilidad
compra. El objetivo del presente proyecto es construir un modelo que basado en las características de los datos
de la empresa SAGAT INTERNATIONAL LLC, se apliquen técnicas de minería de datos para obtener el
modelo óptimo en la predicción de elementos de interés, evaluando los algoritmos de reglas de asociación
Apriori y Clústeres K-means. La parte final del presente proyecto propone una estrategia de desarrollo e
instalación del modelo recomendador para que interactúe con el e-commerce de la empresa ya sea dentro de la
arquitectura de la tienda o fuera de ella a través del consumo de un servicio REST.2022-02-22T00:00:00ZConstrucción de un árbol de conocimiento para la identificación de emblemas en el interior del Departamento de Informática y Ciencias de la Computación de la Escuela Politécnica Nacional.Arias Navarrete, Yohandra Rubihttp://bibdigital.epn.edu.ec/handle/15000/221732022-02-15T22:50:48Z2022-02-15T00:00:00ZTítulo: Construcción de un árbol de conocimiento para la identificación de emblemas en el interior del Departamento de Informática y Ciencias de la Computación de la Escuela Politécnica Nacional.
Autor: Arias Navarrete, Yohandra Rubi
Resumen: Nowadays, knowledge has become a tool capable of enhancing the performance of an organization. Therefore, it is imperative to manage it to achieve organizational goals. Part of the mission of the different departments of the National Polytechnic School (EPN) is to provide the necessary teaching staff to meet the requirements of the careers offered. Currently, in the institution there is no process related to knowledge management that allows satisfying this mission, which causes: on the one hand, the inability to adequately define a training strategy to meet unmet needs; and, on the other hand, a loss of talent that can be used to propose new academic offerings that respond to the challenges of today’s society. In this degree work, the methodology called Action Research was used to map the knowledge of the Department of Informatics and Computer Science (DICC) of the EPN through a multifaceted approach and from a diverse corpus of information (publications, PEAs, subjects taught). As a result, four areas of knowledge were identified within the DICC. In addition, it was possible to establish that, among all the branches present in the knowledge trees, the subjects present in one of them present a great imbalance between the number of professors and the needs of the department, which revealed a shortage of teachers to teach various subjects.
Descripción: En la actualidad, el conocimiento se ha convertido en una herramienta capaz de potenciar el desempeño de una organización, por ello se hace imperativo su gestión en diversas áreas para lograr alcanzar las metas y objetivos organizacionales. Parte de la misión de los diferentes departamentos de la Escuela Politécnica Nacional (EPN) consiste en proveer del personal docente necesario para satisfacer los requerimientos de las carreras que se ofrecen. Actualmente, en la institución no existe un proceso relacionado con la gestión de conocimiento que permita satisfacer dicha misión, lo que provoca: por un lado, el no poder definir adecuadamente una estrategia de formación para cubrir las necesidades no satisfechas; y, por otra parte, produce una pérdida de talento que se puede aprovechar de una manera óptima en cuanto a proponer nuevas ofertas académicas que respondan a los desafíos de la sociedad actual. En el presente trabajo de titulación se utilizó la metodología denominada Investigación-Acción o Action Research para mapear el conocimiento del Departamento de Informática y Ciencias de la Computación (DICC) de la EPN mediante un enfoque multifacético y a partir de un corpus de información diverso (publicaciones, PEAs, materias dictadas). Como resultado se identificaron cuatro áreas de conocimiento en el interior del DICC. Además, se pudo establecer que, de entre todas las ramas presentes en los árboles de conocimiento, las materias presentes en una rama presentan un mayor desequilibrio entre el número de profesores disponibles y los requerimientos de los mismos en la carga académica, lo que permite evidenciar un déficit de docentes para impartir diversas materias.2022-02-15T00:00:00ZModelo de clasificación supervisado de fotografías de fachadas para evaluar el daño estructural ocasionado por sismos de acuerdo con la escala Macrosísmica europea para apoyo de toma de decisiones en el Instituto Geofísico – EPN.Tarapues Fuel, Blanca Damarishttp://bibdigital.epn.edu.ec/handle/15000/221672022-02-15T13:58:59Z2022-02-15T00:00:00ZTítulo: Modelo de clasificación supervisado de fotografías de fachadas para evaluar el daño estructural ocasionado por sismos de acuerdo con la escala Macrosísmica europea para apoyo de toma de decisiones en el Instituto Geofísico – EPN.
Autor: Tarapues Fuel, Blanca Damaris
Resumen: The estimation of the degree of damage of building structures after a seismic event is a very coveted objective within the field of
seismology, since it is a parameter used to determine the intensity of an earthquake.
The main objective of this work is to design a supervised classification model of façade photographs to evaluate the structural damage
caused by earthquakes. For this purpose, Machine Learning and Deep Learning methods are applied.
In the first instance, each image is preprocessed using nonlinear filtering techniques to obtain a set of candidate images with a high
probability of containing information that contributes to the model. The preprocessing reduces noise and performs image smoothing. Then,
the images are used to build a model through a convolutional neural network. The model will allow classify images according to the degree
of damage, ranging from one to five.
Out of a total of 605 candidate images, the network correctly classified 80% of the manually classified images. The accuracy achieved
indicates that the model developed is a good step in the implementation of a future system for classifying images of buildings destroyed by
an earthquake
Descripción: La estimación del grado de daño de estructuras de edificios después de un evento sísmico es un requerimiento muy importante dentro del
campo de la Sismología, ya que es un parámetro empleado para determinar la intensidad de un sismo.
El objetivo principal del presente trabajo de titulación es diseñar un modelo de clasificación supervisada de fotografías de fachadas que
permita evaluar el daño estructural ocasionado por sismos. Para ello se aplica técnicas de Aprendizaje de Máquina y Aprendizaje Profundo.
En primera instancia, cada imagen es preprocesada mediante técnicas de filtrado no lineal para, a partir de ello, obtener un conjunto de
imágenes con alta probabilidad de contener información que aporte al modelo. Este preprocesamiento reduce el ruido, y realiza un
suavizado de la imagen. Luego, las imágenes son utilizadas para crear un modelo gracias a una red neuronal convolucional, el cual
permitirá clasificar cada imagen según el grado de daño, comprendido entre uno a cinco.
De un total de 605 imágenes candidatas, la red clasificó correctamente el 80% de imágenes clasificadas manualmente. Esta precisión
alcanzada indica que el modelo desarrollado constituye un paso importante hacia la implementación de un futuro sistema de clasificación
de imágenes de edificios destruidos por un sismo.2022-02-15T00:00:00ZContrastación modelos de predicción de machine learning para la inflación en Ecuador para el período 2001-2020.Villarreal Veloz, Frank Giovannyhttp://bibdigital.epn.edu.ec/handle/15000/221482022-02-08T21:29:34Z2022-02-08T00:00:00ZTítulo: Contrastación modelos de predicción de machine learning para la inflación en Ecuador para el período 2001-2020.
Autor: Villarreal Veloz, Frank Giovanny
Resumen: Inflation forecast is relevant for economic policy makers and for perspectives that are directly related to the expected value of the aggregate activity in the economy. Regression analyzes have been the most frequently used techniques; nevertheless, the use of Neural Networks has become popular for time series forecasting, so in that way, this project aims to compare their predictive capability against regression analysis. In this sense, regression models (OLS, VAR, ARIMA, SARIMA) and their results were compared with the ANN model using the root-mean-square error (RMSE). The period of study started in January-2001 to December 2020, of which 80% was taken as the training group and the remaining 20% as the test group. In the first instance, the influence of the variables over Ecuadorian inflation was evaluated, which turned out to be exchange rates, international commodities prices and nominal wage. In the CPI forecast, the ordinary least squares model with short-term error correction (OLS CE) showed the best results, followed by the VAR model and the ANN model. However, it should be mentioned that the RNA model showed better results for predicting the first differences of log CPI.
Descripción: La predicción de la inflación es de relevancia para la toma de decisiones de política económica y en las perspectivas que están directamente relacionadas con el valor esperado del nivel de actividad agregado en la economía. Los análisis de regresión han sido las técnicas utilizadas con mayor frecuencia; sin embargo, el uso de Redes Neuronales se ha popularizado para el pronóstico de series temporales y el presente trabajo pretende comparar su capacidad predictiva frente a los análisis de regresión. En este sentido se realizaron modelos de regresión (MCO, VAR, ARMA, ARIMA, SARIMA) y se compararon los resultados con el modelo de RNA mediante el uso de la raíz del error cuadrático medio (RMSE). El período de estudio fue de enero-2001 a diciembre 2020, del cual el 80% se tomó como grupo de entrenamiento y el restante 20% como grupo de prueba de los modelos. En primera instancia, se evaluó la influencia de las variables sobre el comportamiento de la inflación, las cuales resultaron ser los tipos de cambio, precios internacionales de materias primas y el salario nominal. En cuanto al pronóstico del IPC, el modelo de mínimos cuadrados ordinarios con corrección de error de corto plazo (MCO CE) mostró los mejores resultados, seguido del modelo VAR y el modelo de RNA. Sin embargo, se debe mencionar que el modelo de RNA si mostró mejores resultados para el pronóstico de las primeras diferencias del logaritmo del IPC.2022-02-08T00:00:00ZHerramienta para la evaluación del nivel de confianza de los miembros postulantes de una organización virtual basada en la ISO 27001.Caguana Pozo, Javier Eduardohttp://bibdigital.epn.edu.ec/handle/15000/220132021-12-27T20:18:00Z2021-12-27T00:00:00ZTítulo: Herramienta para la evaluación del nivel de confianza de los miembros postulantes de una organización virtual basada en la ISO 27001.
Autor: Caguana Pozo, Javier Eduardo
Resumen: Virtual organizations represent modern forms of organizing based on new technologies.
Even though the concept is not new, how potential members of a virtual organization interact
with each other and the risks associated with the formation and operation of these
organizations have evolved.
The present work intends to give alternative solutions to the recurrent challenge of selecting
the members, to be more specific, to maximize the outcome of the trust invested in a certain
member aspirating to be part of the organization. Which will consider various perspectives
that will allow the determination of what criteria is more relevant or highly prioritized when
the organization is being formed. The selection process will take place following the ISO
27001 regulations, the same framework that provides guidelines and controls to assure the
protection of the active information from diverse points of view.
In conclusion, the criteria consulted with diverse sources altogether with the controls (ISO
27001) allow us to elaborate a checklist that evaluates the applicants. At last, algorithms will
be applied which lead to obtaining qualifications that will serve as a reliability measurement
for each candidate and as a milestone to analyze the possible acceptance of an applicant in
the virtual organization which is in the formation process.
Descripción: Las organizaciones virtuales son formas de organización basadas en las nuevas
tecnologías, si bien el concepto no es nuevo, sí lo son las formas de interacción
entre los miembros que pueden formar parte de una organización virtual y por lo
tanto los riesgos asociados con la formación y operación de estas han
evolucionado.
El presente trabajo pretende dar una alternativa a uno de los problemas recurrentes
de gran relevancia a la hora de formar organizaciones virtuales, como es la
selección de miembros y más específicamente la confianza que se puede depositar
en un miembro aspirante a formar parte de una organización virtual. Lo cual se
abordará desde varias perspectivas, que permitirán determinar qué criterios son
más relevantes o de mayor prioridad a la hora de formar organizaciones virtuales.
Esta selección se realizará empatando estos criterios con la norma ISO 27001, la
misma que nos provee lineamientos y controles para asegurar la protección de los
activos de información desde diversos puntos de vista. En conclusión, tanto los
criterios de diversas fuentes consultadas, como los controles proporcionados por la
norma ISO 27001, nos permiten elaborar una lista de sentencias que deben ser
evaluadas en los socios postulantes. Finalmente, se aplican algoritmos que
permitan obtener una calificación que servirá como medición del nivel de confianza
en cada postulante, y como punto de partida para analizar la posible inclusión o no
del postulante en la organización virtual que se está formando.2021-12-27T00:00:00ZSegmentación semántica 2D de la glándula prostática en imágenes de resonancia magnética usando redes neuronales convolucionales.Vacacela Sarango, Silvia Patriciahttp://bibdigital.epn.edu.ec/handle/15000/218902021-11-04T17:14:34Z2021-10-23T00:00:00ZTítulo: Segmentación semántica 2D de la glándula prostática en imágenes de resonancia magnética usando redes neuronales convolucionales.
Autor: Vacacela Sarango, Silvia Patricia
Resumen: Convolutional Neural Network (CNNs) is one of the most commonly used methods for
automatic prostate segmentation in Magnetic Resonance Images (MRI). However, the results of the
literature review in this work show that there is one research on the segmentation of the two main
zones of the prostate gland (peripheral and central zones). This work proposed two different 2D
semantic segmentation models to address the segmentation of the prostate in its main zones. The
first model (Model-A) used an encoder-decoder architecture composed by a global and local U-net.
The former segments the whole prostate, whereas the latter segments the central zone. The second
model (Model-B) used an encoder-classifier architecture, where pixel by pixel classification was
used to achieve the same segmentation goal. Moreover, model B used a VGGnet that was fine
tuned. The Prostate-3T collection of the NCI-ISBI 2013 Challenge database was use to evaluate the
performance of each model. The experimental results show a superior segmentation performance
for Model A (DSC = 96.79% ± 0.15% and IoU = 93.79% ± 0.29%) compared to Model B (DSC = 92.50%
± 1.19% and IoU = 86.13% ± 2.02%)
Descripción: La red neuronal convolucional (CNN) es uno de los métodos más utilizados para la
segmentación automática de la próstata en imágenes de resonancia magnética (MRI). Sin embargo,
los resultados de la revisión de la literatura en este trabajo muestran que existe una investigación
sobre la segmentación de las dos zonas principales de la glándula prostática (zonas periférica y
central). Este trabajo propuso dos modelos de segmentación semántica 2D diferentes para abordar
la segmentación de la próstata en sus zonas principales. El primer modelo (Modelo-A) utilizó una
arquitectura de codificador-decodificador compuesta por una U-net global y local. El primero
segmenta toda la próstata, mientras que la última segmenta la zona central. El segundo modelo
(Modelo-B) utilizó una arquitectura de codificador-clasificador, donde se utilizó la clasificación píxel
por píxel para lograr el mismo objetivo de segmentación. Además, el modelo B usó un VGGnet que
tiene un ajuste fino. Se utilizó la colección Prostate-3T de la base de datos del Desafío NCI-ISBI 2013
para evaluar el rendimiento de cada modelo. Los resultados experimentales muestran un
rendimiento de segmentación superior para el Modelo A (DSC = 96,79% ± 0,15% e IoU = 93,79% ±
0,29%) en comparación con el Modelo B (DSC = 92,50% ± 1,19% e IoU = 86,13% ± 2,02%)2021-10-23T00:00:00ZDesarrollo de un framework que identifica, describe y organiza recursos educativos disponibles en plataformas web de universidades mediante minería de datos.Rosero Correa, Luis Eduardohttp://bibdigital.epn.edu.ec/handle/15000/218842021-11-04T15:31:12Z2021-10-23T00:00:00ZTítulo: Desarrollo de un framework que identifica, describe y organiza recursos educativos disponibles en plataformas web de universidades mediante minería de datos.
Autor: Rosero Correa, Luis Eduardo
Resumen: This Master's thesis intends to analyze the degree of adoption of the semantic web with the Schema.org
vocabulary and the JSON-LD format by universities to publish and describe educational resources on
their websites. It is based on the fusion of the methodologies: Design Science Research (DSR) to guide
the creation of an artifact and CRISP-DM to address the data mining process. Since these methodologies
are not exclusive, it was possible to relate the various phases that compose them [1]. The result of this
work is a framework that consists of eleven components distributed in three well-defined layers: data
access layer, service layer and application layer. The components are developed throughout the combined
phases of the two methodologies and address the data mining process from download to final analysis of
the data to obtain information. The results show that universities do use the Schema vocabulary and the
JSON-LD format to publish resources, although not to the extent that would be expected. In addition, the
absence of properties of the Schema vocabulary that allow a specific definition of a resource in an
educational context was noted. The final part of this work proposes some actions to extend the
functionality of the framework to other contexts different from the educational one, as well as other
vocabularies or formats.
Descripción: Esta tesis de Maestría tiene la intención de analizar el grado de adopción de la web semántica con el
vocabulario Schema.org y el formato JSON-LD, por parte de las universidades, para publicar y describir
recursos educativos en sus sitios Web. Se basa en la fusión de las metodologías: Design Science Research
(DSR) para guiar la creación de un artefacto y CRISP-DM para abordar el proceso de minería de datos.
Puesto que estas metodologías no son excluyentes, se logró relacionar las diversas fases que las
componen [1]. El resultado de este trabajo es un framework que consta de once componentes distribuidos
en tres capas bien definidas: capa de acceso a datos, capa de servicio y capa de aplicación. Los
componentes se desarrollan a lo largo de las fases combinadas de las dos metodologías y abordan el
proceso de minería de datos desde la descarga hasta el análisis final de los datos para la obtención de
información. En los resultados se puede evidenciar que las universidades sí utilizan el vocabulario
Schema y el formato JSON-LD para publicar recursos, aunque no en la medida que se esperaría. Además,
se notó la ausencia de propiedades del vocabulario Schema que permiten definir de forma específica a un
recurso en un contexto educativo. La parte final de este trabajo propone algunas acciones para extender la
funcionalidad del framework hacia otros contextos diferentes del educativo, así como también otros
vocabularios o formatos2021-10-23T00:00:00ZImplementación de una arquitectura basada en blockchain para secuenciar la ocurrencia de eventos en bases de datos distribuidas.Alcívar Rodríguez, Gustavo Alfonsohttp://bibdigital.epn.edu.ec/handle/15000/218712021-11-17T14:19:34Z2021-10-11T00:00:00ZTítulo: Implementación de una arquitectura basada en blockchain para secuenciar la ocurrencia de eventos en bases de datos distribuidas.
Autor: Alcívar Rodríguez, Gustavo Alfonso
Resumen: Auditing distributed databases could be very challenging due to the difficulty of determining the time of
occurrence of any transaction. In fact, the higher the number of distributed transactions in a short period
of time, the harder it is to order their occurrence. Despite the importance of solving this problem, very
little research has been done in the last years, which has been mostly focused on improving databases'
performance rather than their security. Meanwhile, the emerging blockchain technology in recent years
has devised elegant solutions to guarantee transactional integrity between distributed database nodes. In
this paper, we propose a blockchain-based architecture focused on transactional sequencing of events in a
distributed environment. We use an open source blockchain technology to demonstrate its functionality
for auditing purposes. We enhance audit controllers proposed in previous research to make them
blockchain-compliant. Finally, we evaluate the architectural performance and its distributed consistency
using high transactional workload within a commercial Cloud platform. Besides providing detailed
implementation guidelines using open source blockchain technology, our main contribution is
demonstrating its application for generating, collecting, and preserving audit trails in a distributed
database
Descripción: La auditoría de bases de datos distribuidas podría ser un gran desafío debido a la dificultad de determinar
el momento de ocurrencia de una transacción. De hecho, cuanto mayor sea el número de transacciones
distribuidas en un período corto de tiempo, más difícil será ordenar su ocurrencia. A pesar de la
importancia de resolver este problema, se han realizado muy pocas investigaciones en los últimos años,
estas se han centrado principalmente en mejorar el rendimiento de las bases de datos más que en su
seguridad. Mientras tanto, la tecnología blockchain emergente en los últimos años puede sugerir
soluciones elegantes para garantizar la integridad transaccional entre los nodos de bases de datos
distribuidas. En este trabajo, se propone una arquitectura basada en blockchain centrada en la
secuenciación transaccional de eventos en un entorno distribuido. Se usa una tecnología blockchain de
código abierto para demostrar su funcionalidad con fines de auditoría. Mejoramos los controladores de
auditoría propuestos en investigaciones anteriores para que sean compatibles con blockchain. Finalmente,
se evalúa el rendimiento de la arquitectura y su consistencia distribuida utilizando una alta carga de
trabajo transaccional dentro de una plataforma comercial en la nube. Además de proporcionar pautas de
implementación detalladas utilizando la tecnología blockchain de código abierto, la principal contribución
es demostrar su aplicación para generar, recolectar y preservar pistas de auditoría en una base de datos
distribuida2021-10-11T00:00:00Z