DSpace Comunidad:http://bibdigital.epn.edu.ec/handle/15000/232023-12-30T01:42:46Z2023-12-30T01:42:46ZDiseño de experiencia de usuario de un editor gráfico web para la gestión y preparación de infraestructura : estudio comparativo de frameworks de desarrollo front-end y back-end para la implementación de un editor visual gráfico web para el aprovisionamiento de infraestructura en la nube.Montaluisa Toapanta, Elvis David.http://bibdigital.epn.edu.ec/handle/15000/252592023-12-07T21:59:21Z2022-08-01T00:00:00ZTítulo: Diseño de experiencia de usuario de un editor gráfico web para la gestión y preparación de infraestructura : estudio comparativo de frameworks de desarrollo front-end y back-end para la implementación de un editor visual gráfico web para el aprovisionamiento de infraestructura en la nube.
Autor: Montaluisa Toapanta, Elvis David.
Director: Iñiguez Jarrín, Carlos Efraín
Resumen: The development of web applications has become a requirement demanded by companies and people who need to advertise their products or services to the market in a different and innovative way. In this sense, speeding up the web applications development has become a topic of great interest for the web developer community. Currently, there are a wide range of frameworks that support the front-end and back-end web applications development. A framework is a set of tools that simplifies and speeds up the development process, ensuring good practices, avoiding repetition of code, and keeping the code consistent. Selecting the best fameworks, prior to the implementation of the project, becomes a key task that ensures the success of a project. The present work, framed in the macro project for implementing a graphical web editor that allows TI operators to manage the infrastructure in the cloud interactively, aims to define which frameworks are technically adequate for the implementation of the editor. This work presents a benchmark study, where different frameworks are analyzed and compared. After that, those that best adapt to the technical needs involved in the implementation of the graphical editor are identified. The result of the benchmark will allow developers to know the most suitable framework to implement the graphical editor.
Descripción: El desarrollo de aplicaciones web se ha convertido en un requerimiento demandado por empresas y personas quienes tienen la necesidad de publicitar sus productos o servicios al mercado de una forma diferente e innovadora. En este sentido, agilizar el desarrollo de aplicaciones web se ha convertido en un tema de gran interés para la comunidad de desarrolladores web. Actualmente, existe un amplio abanico de frameworks que soportan el desarrollo front-end y back-end de aplicaciones web. Un framework es un conjunto de herramientas que simplifica y agiliza el proceso de desarrollo, asegurando buenas prácticas, evitando la repetición de código y manteniendo consistente el código. Seleccionar los mejores fameworks, previo a la implementación del proyecto, se convierte en una tarea clave que asegura el éxito de un proyecto. El presente trabajo, enmarcado en el proyecto macro de implementación de un editor gráfico web que permita a los operadores de TI gestionar la infraestructura en la nube de forma interactiva, tiene como objetivo definir qué frameworks son técnicamente adecuados para la implementación del editor. Para esto, este trabajo presenta un estudio de Benchmark, donde se analiza y compara diferentes frameworks e identifica aquellos que mejor se adaptan a las necesidades técnicas involucradas en la implementación del editor gráfico. El resultado del Benchmark permitirá a los desarrolladores conocer el framework más idoneo para implementar el editor gráfico.2022-08-01T00:00:00ZDesarrollo de juego serio basado en realidad aumentada para prevención de contagio de covid-19.Carrera Diaz, Christian Javierhttp://bibdigital.epn.edu.ec/handle/15000/252572023-12-05T16:55:02Z2023-12-05T00:00:00ZTítulo: Desarrollo de juego serio basado en realidad aumentada para prevención de contagio de covid-19.
Autor: Carrera Diaz, Christian Javier
Director: Del Cisne Mayra, Toro Carrión
Resumen: In the last 2 years of the pandemic due to the Covid-19 disease, life as we knew it changed, social interactions were restricted and the mandatory use of prevention and protection measures against possible contagion was required. However, with the immunization of the population, infections have been reduced. The following project proposes the development of a serious game based on augmented reality to know, inform, interact and prevent contagion of covid-19 with important information about prevention measures. The game aims to reduce cases of Covid-19 infections by raising people's awareness of its dangers and prevention measures in an entertaining and participatory way.
Descripción: En los últimos 2 años de pandemia por la enfermedad del covid-19, la vida como la conocíamos cambio, las interacciones sociales fueron restringidas y se exigía el uso obligatorio de medidas de prevención y protección ante un posible contagio. No obstante, con la inmunización de la población se ha logrado disminuir los contagios. El siguiente proyecto propone el desarrollo de un juego serio basado en realidad aumentada para conocer, informar, interactuar y prevenir de un contagio de covid-19 con información importante sobre las medidas de prevención. El juego pretende disminuir los casos de contagios del covid-19 mediante la concientización a las personas de sus peligros y medidas de prevención de una manera entretenida y participativa2023-12-05T00:00:00ZEvaluación de riesgos de seguridad de la información y generación del plan de gestión de incidentes. Caso de estudio fondo para la protección del agua (FONAG).Chicaiza Chabla, Paul Viniciohttp://bibdigital.epn.edu.ec/handle/15000/252232023-11-23T19:59:15Z2023-09-01T00:00:00ZTítulo: Evaluación de riesgos de seguridad de la información y generación del plan de gestión de incidentes. Caso de estudio fondo para la protección del agua (FONAG).
Autor: Chicaiza Chabla, Paul Vinicio
Director: Barona, Lorena
Resumen: In a highly competitive market, the quality of a software product is crucial as it allows the developer organization to have an advantage over other organizations. However, implementing quality standards represents a significant challenge for novice developers due to various factors such as lack of knowledge of the standards and lack of experience. Additionally, the limited resources of novice developer teams can also be an obstacle to implementing quality standards, thus limiting the growth of these teams. This study presents the results of an experiment carried out with six teams of novice software developers to explore the impact of implementing the standard ISO/IEC TR 29110-5-1-2:2011 on both the software process and product quality. In the experiment, three teams used this standard to guide developing a software product, while the other three did not. All teams used the same scope and requirements specification for the development of the product. The results of the experiment provide evidence that there is a positive impact on the quality of both process and product when ISO/IEC TR 29110 -5-1-2:2011 is implemented in novice developer environments. The software process quality assessment conducted identified the strengths and weaknesses of the process in question. The performance of the controlled teams was superior to the performance of the non-controlled teams. Likewise, the results of the product quality assessment indicate a marked difference between the controlled and non-controlled teams.
Descripción: El presente trabajo de titulación de maestría muestra el proceso que se llevó a cabo para realizar una evaluación de riesgos dentro de la infraestructura informática del Fondo Protección del Agua (FONAG), junto con la generación de un plan de gestión de incidentes a la seguridad de la información. Para llevar a cabo este procedimiento, primero se seleccionó una metodología adecuada para el caso de estudio; segundo, se hizo una exploración del trabajo de la institución y se seleccionó el proceso más importante y crítico dentro de la
estructura organizacional. Luego se aplicó las fases de la metodología MAGERIT, que permitió determinar el riesgo actual y residual de los activos de información en cuanto a la adquisición de bienes y servicios en la organización. En términos generales el nivel de riesgo que existe dentro del proceso seleccionado es bajo, gracias a las salvaguardas que tienen implementadas hasta el momento. Sin embargo, es necesario implementar normativas y ejecutar ciertas actividades para cerrar brechas de seguridad existentes.2023-09-01T00:00:00ZDiseño e implementacion de un sistema de bi, para analizar losprocesos mas criticos mediante indicadores estaticos y dinamicos. un caso de estudio.Ruiz Vaca, Esteban Marcelohttp://bibdigital.epn.edu.ec/handle/15000/252212023-11-23T18:56:13Z2023-10-01T00:00:00ZTítulo: Diseño e implementacion de un sistema de bi, para analizar losprocesos mas criticos mediante indicadores estaticos y dinamicos. un caso de estudio.
Autor: Ruiz Vaca, Esteban Marcelo
Director: Galindo, Julián; Pérez, María
Resumen: The project was based in the development of a Business Intelligence (BI) system for “Colegio de Médicos de Pichincha (CMP)” with the objective of analyzing the demand of affiliates and the money income of the CMP. HEFESTO methodology was used, which involves the management of tools and techniques such as the selection of software for data analysis, visualization tools and data mining techniques for the creation of a DHW that will help the CMP Directory to take decisions based on the improve of their services. Subsequently, it was maked the analysis of the demand for affiliates, reaffiliates, disaffiliations from 2011 to 2015 and a projection of money income for the year 2023 was carried out using Machine Learning based on the training of the linear regression model with estimated data and historical data obtained of the CMP Data Base. The final result was displayed on the web, using the Power BI tool, defining different components and visual graphics for a better understanding of the data. The validation of usability of the BI system was evaluated by 23 users based on SUS (System Usability Scale), between users of CMP Directory and users with basic knowledge in BI, which concluded that the BI system has well-structured management indicators and aesthetic details it observed to improve.
Descripción: El proyecto consistió en el desarrollo de un sistema de Inteligencia de Negocios (BI por sus siglas en inglés) para el Colegio de Médicos de Pichincha (CMP), con el objetivo del analizar la demanda de afiliados y los aportes económicos que ingresan al Colegio. Se utilizó la metodología HEFESTO la cual involucra el manejo de herramientas y técnicas como la selección de software para análisis de datos, herramientas de visualización y técnicas de minería de datos para la creación de un DHW que ayude a la toma de decisiones gerenciales del CMP. Posteriormente se realizó el análisis de la demanda de afiliados,reafiliados,desafiliaciones desde el año 2011 al 2015 y una proyección de ingreso de aportes para el año 2023 usando Machine Learning en base al entrenamiento del modelo de regresión lineal con datos estimados y la data histórica obtenida de ingresos,egresos,reingresos del CMP. El resultado final fue desplegado en la web, mediante la herramienta Power BI, definiendo diferentes componentes y gráficos visuales para el mejor entendimiento de los datos. La usabilidad del sistema de BI, fue evaluada por 23 usuarios en base SUS (Escala de Usabilidad del Sistema), entre los cuales se encontraban personas del directorio del CMP y usuarios con conocimientos básicos en la elaboración de Dashboards y análisis de datos los cuales concluyeron que el sistema BI posee indicadores de gestión bien estructurados y se observaron detalles estéticos por mejorar.2023-10-01T00:00:00ZFraud detection by analyzing human behavior apply machine learning techniques.Sánchez Aguayo, Marco Polohttp://bibdigital.epn.edu.ec/handle/15000/252182023-11-23T17:56:00Z2023-10-01T00:00:00ZTítulo: Fraud detection by analyzing human behavior apply machine learning techniques.
Autor: Sánchez Aguayo, Marco Polo
Director: Urquiza Aguiar, Luis Felipe
Resumen: Currently, we are witnessing a sudden increase in fraud cases around the world, which makes it necessary to adopt proactive strategies to detect indications or suspicions before the crime materializes. Fortunately, the continuous development of computer technologies provides favorable opportunities to combat and mitigate this problem. Text mining and topic modeling are practical tools that, together with theories focused on analyzing this phenomenon, can help identify fraud-related issues and discover fraudulent activities to make accurate decisions. Since tangible information on fraud is limited, several synthetic datasets with phrases based on the fraud triangle theory were generated, which was used to develop the proposed model. To recognize patterns in documents, unsupervised topic modeling techniques were applied, followed by a semi-supervised approach that outperformed unsupervised models and provided superior interpretability; This allowed for establishing a relationship between the resulting topics and the vertices of the fraud triangle and obtaining high probabilities that a document belongs to a specific topic. These probabilities were used to train classification algorithms and predict behavior suspected of fraud, with promising results. Evaluating the model’s applicability to all the generated datasets allowed us to determine that the model was generalizable and, therefore, useful for fraud detection.
Descripción: En la actualidad, estamos presenciando un aumento repentino en los casos de fraude en todo el mundo, lo que hace necesario adoptar estrategias proactivas para detectar indicios o sospechas antes de que se materialice el delito. Afortunadamente, el desarrollo continuo de tecnologías informáticas brinda oportunidades favorables para combatir y mitigar este problema. La minería de textos y el modelado de tópicos son herramientas eficaces que, junto con las teorías enfocadas en el análisis de este fenómeno, pueden ayudar a identificar temas relacionados con el fraude y descubrir actividades fraudulentas para tomar decisiones precisas. Dado que la información tangible sobre el fraude es limitada, se generaron varios conjuntos de datos sintéticos con frases basadas en la teoría del triángulo de fraude, que se utilizó para desarrollar el modelo propuesto. Para reconocer patrones en los documentos, se aplicaron técnicas de modelado de tópicos no supervisadas, seguidas de un enfoque semisupervisado que superó a los modelos no supervisados y proporcionó una interpretabilidad superior. Esto permitió establecer una relación entre los temas resultantes y los vértices del triángulo de fraude, y obtener altas probabilidades de que un documento pertenezca a un tema específico. Estas probabilidades se utilizaron para entrenar algoritmos de clasificación y predecir comportamientos sospechosos de fraude, con resultados prometedores. La evaluación de la aplicabilidad del modelo a todos los conjuntos de datos generados permitió determinar que el modelo era generalizable y, por lo tanto, útil para la detección de fraudes.2023-10-01T00:00:00ZDesarrollo e implementación de una aplicación web para la gestión de facturación a partir de software libre para la empresa Ramos y Ramos.Ramos Ramos, Gabriela AlejandraPaguay Lema, Byron Armandohttp://bibdigital.epn.edu.ec/handle/15000/251622023-11-22T17:19:48Z2023-11-22T00:00:00ZTítulo: Desarrollo e implementación de una aplicación web para la gestión de facturación a partir de software libre para la empresa Ramos y Ramos.
Autor: Ramos Ramos, Gabriela Alejandra; Paguay Lema, Byron Armando
Director: Intriago Pazmiño, María Monserrate
Resumen: This degree work addresses the need to develop a web application for business billing management. The main objective is to optimize and expedite the invoice generation process, from registering customer purchases to issuing sales notes, as well as managing inventory and sales for the company. By using this application, the aim is to reduce response times and improve efficiency in generating invoices, inventory management, and sales administration within the company.
However, not all companies can afford the costs associated with an online web application, which is why this degree work has focused its development on a web application for local use to avoid the expenses of cloud usage. On the other hand, an abstraction has been sought that allows other companies to implement it with minimal changes and very little investment.
To develop this web application, software engineering theory will be implemented, making use of good practices from the agile SCRUM methodology. For the coding process, PHP and its Laravel framework will be the main technologies on the back end, while technologies such as HTML, CSS, and the Bootstrap framework will be used on the front end.
Descripción: En este trabajo de titulación, se aborda la necesidad de desarrollar una aplicación web para la gestión de facturación de un negocio. El objetivo principal es optimizar y agilizar el proceso de generación de facturas, desde el registro de las compras de los clientes hasta la emisión de la nota de venta, de igual manera la administración de inventario y ventas del negocio. Al utilizar esta aplicación, se busca reducir los tiempos de respuesta y mejorar la eficiencia en la generación de facturas, gestión de inventario y administración de ventas dentro del negocio.
Sin embargo, no todos los negocios pueden solventar los costos que una aplicación web en línea representa, y es por esto que este trabajo de titulación ha direccionado su desarrollo en una aplicación web con un despliegue local para evitar los gastos que representa el despliegue en la nube. Por otro lado, se ha buscado una abstracción que permita a otros negocios poder implementarla con casi ningún cambio y con muy poca inversión.
Para desarrollar la aplicación web antes mencionada, se pondrá en marcha el uso de la teoría de la ingeniería de software, haciendo uso de las buenas prácticas de la metodología ágil SCRUM. Para el proceso de codificación se utilizarán PHP y su framework LARAVEL como tecnologías principales en la parte de back end, mientras que en el front end se utilizarán tecnologías como HTML, CSS y el framework Bootstrap.2023-11-22T00:00:00ZAnálisis y comparación de la amenaza sísmica en el territorio fronterizo de Ecuador – Perú comparación : comparación edificación en amazonas zona 2 perú con edificación en Zamora Chinchipe zona ii Ecuador.Maiguashca Cueva, Victor Ivánhttp://bibdigital.epn.edu.ec/handle/15000/251522023-11-22T16:28:41Z2023-02-01T00:00:00ZTítulo: Análisis y comparación de la amenaza sísmica en el territorio fronterizo de Ecuador – Perú comparación : comparación edificación en amazonas zona 2 perú con edificación en Zamora Chinchipe zona ii Ecuador.
Autor: Maiguashca Cueva, Victor Iván
Director: Mafla Gallegos, Luis Enrique
Resumen: In this curricular integration work, the implementation of a data interconnection system for oversight of political campaign financing during election campaigns is carried out according to the provisions of the Democracy Code. The methodology of this work is structured in three phases: analysis, design, and prototype. In the analysis, the requirements of this system are obtained from laws and regulations. These requirements were organized into three layers: physical infrastructure, middleware, application. The design phase follows the same structure as the analysis and it presents the design of the physical infrastructure, the design of the middleware, and the design of the application. For the middleware and application design, the Hyperledger Fabric open-source software platform is used, which responds to the requirements obtained in the analysis phase through the use of distributed ledger technology and the use of blockchain. The prototype follows the same structure as the analysis and design, its implementation and tests are based on the Hyperledger Fabric test network, Fabric-Samples. The design, prototype, and testing carried out in this Curricular Integration Work demonstrate the feasibility of implementing a data interconnection system that ensures the integrity of electoral financing and spending, in accordance with current legal and regulatory requirements.
Descripción: En este Trabajo de Integración Curricular se realiza la implementación de un sistema de interconexión de datos para el control financiero a las organizaciones políticas durante las campañas electorales, de acuerdo a lo dispuesto en el Código de la Democracia. La metodología de este trabajo se estructura en tres fases: análisis, diseño y prototipo. En el análisis se obtienen los requerimientos de este sistema a partir de leyes y normativas. Dichos requerimientos fueron organizados en tres capas: infraestructura física, middleware, aplicación. La fase de diseño sigue la misma estructura del análisis y se presenta el diseño de la infraestructura física, el diseño de middleware y el diseño de la aplicación. Para el diseño del middleware y diseño de la aplicación se utiliza la plataforma de software libre Hyperledger Fabric que responde a los requerimientos obtenidos en la fase de análisis mediante el uso de tecnología de contabilidad distribuida y el uso de cadenas de bloques. El prototipo sigue la misma estructura del análisis y diseño, su implementación y pruebas están basadas en la red de prueba de Hyperledger Fabric, Fabric Samples. El diseño, prototipo y pruebas realizadas en el presente Trabajo de Integración Curricular, demuestran la factibilidad de implementar un Sistema de Interconexión de datos misma que asegura la integridad del financiamiento y gasto electoral, de acuerdo a los requerimientos legales y normativos vigentes.2023-02-01T00:00:00ZSistema de preplanificación de asignaturas del Período Académico Ordinario para la FIS: Un enfoque ágil para la entrega continua de incrementos funcionales y la gestión del producto software : herramientas para gestionar el desarrollo ágil del sistema de pre-planificación de asignaturas del Período Académico Ordinario para la FIS con el marco Scrum.Aguirre Gallardo, David Alexanderhttp://bibdigital.epn.edu.ec/handle/15000/250952023-11-15T21:04:54Z2023-09-01T00:00:00ZTítulo: Sistema de preplanificación de asignaturas del Período Académico Ordinario para la FIS: Un enfoque ágil para la entrega continua de incrementos funcionales y la gestión del producto software : herramientas para gestionar el desarrollo ágil del sistema de pre-planificación de asignaturas del Período Académico Ordinario para la FIS con el marco Scrum.
Autor: Aguirre Gallardo, David Alexander
Director: Sandobalín Guamán, Julio Cesar
Resumen: The document describes a management of tools to support the Scrum framework in the develop of a subjects pre-planning system for the Facultad de Ingeniería de Sistemas FIS. First, a study of tools based on experience, users quantity, and licenses was carried out. Then, a toolchain to support the Scrum framework was implemented. In this scenario, the Microsoft Teams tool helped the Daily Scrum, Azure DevOps managed the Product and Spring Backlog, the web Planning Poker application let the team estimate user stories, and Miro provided support in the retrospective meetings. During each Sprint, the team faced communication problems, lack of experience and compromise, etc. However, the Scrum events, such as Daily Scrum, Sprint Retrospectives, and Sprint Reviews, helped the team to achieve experience, confidence, and knowledge. At the same time, the system improves the delivery value by delivering functional software increments to the user. Finally, the first version of the subjects pre-planning system for the FIS was released after seven Sprints.
Descripción: En este documento se describe la gestión de herramientas que apoyan al marco Scrum para el desarrollo de un sistema de preplanificación de asignaturas para la Facultad de Ingeniería de Sistemas FIS. Primero, se realizó un estudio de las herramientas en base a criterios como la experiencia en el uso, cantidad de usuarios y licencias. Luego, se implementó un conjunto de herramientas que soportan el marco Scrum, tales como Microsoft Teams para apoyar el Daily Scrum; Azure DevOps para la gestión del Product Backlog y el Sprint Backlog; la aplicación web Planning Poker para la estimación de historias de usuario; y la aplicación Miro para las Sprint Retrospectives. En el desarrollo de cada Sprint el equipo afrontó diversos problemas como falencias de comunicación, falta de compromiso, falta de experiencia, entre otros. Sin embargo, en cada Daily Scrum, Sprint Review y Sprint Retrospective el equipo ganó confianza, conocimiento y experiencia; al mismo tiempo que el sistema mejoró la entrega de valor mediante la entrega de incrementos funcionales de software al usuario. Finalmente, luego de siete Sprints el equipo liberó la primera versión del sistema de preplanificación de asignaturas para la FIS.2023-09-01T00:00:00ZImplementación de computación en la nube en el laboratorio ADA de la facultad de sistemas para analítica de datos : diseño de una arquitectura en la nube para el laboratorio ada.Laje Barragán, Adrián Octaviohttp://bibdigital.epn.edu.ec/handle/15000/250942023-11-15T20:59:30Z2023-08-01T00:00:00ZTítulo: Implementación de computación en la nube en el laboratorio ADA de la facultad de sistemas para analítica de datos : diseño de una arquitectura en la nube para el laboratorio ada.
Autor: Laje Barragán, Adrián Octavio
Director: Martínez Mosquera, Silvia Diana
Resumen: In the curricular integration project, a cloud architecture was implemented at the hardware and operating system level on the high-performance server (Dell EMC PowerEdge R750) for the Data Analytics and Cybersecurity Laboratory - ADA LOVELACE of the National Polytechnic School using a descriptive methodology structured in three phases: requirements analysis using the IEEE 29148 standard, architecture design and implementation, and results evaluation. The specifications are based on the laboratory's needs, leading to the design of a SaaS model, a private architecture. The implementation involved configuring the server at the hardware and operating system levels based on the design. Once configured, Prometheus and Grafana monitoring tools were installed, ensuring continuous and detailed system performance monitoring. This document provides the ADA Laboratory with a cloud infrastructure to carry out activities and research in the field of data analysis. Among the challenges faced were the precise collection of requirements, the implementation of proposed solutions, and network configuration.
Descripción: En el trabajo de integracion curricular se implementó una arquitectura en la nube a nivel de hardware y de sistema operativo en el servidor de alto rendimiento (Dell EMC PowerEdge R750) para el Laboratorio de Analítica de Datos y Ciberseguridad - ADA LOVELACE de la Escuela Politécnica Nacional usando una metodología descriptiva, estructurada en tres fases: análisis de requerimientos usando la norma IEEE 29148, diseño de arquitectura y implementación, y evaluación de resultados. Las especificaciones se basan en las necesidades del laboratorio, llevando al diseño de un modelo SaaS, una arquitectura privada. En la implementación se realizó la configuración del servidor a nivel de hardware y sistema operativo basado en el diseño. Una vez configurado, se instaló herramientas de monitoreo Prometheus y Grafana, garantizando una supervisión continua y detallada del rendimiento del sistema. Este documento provee al Laboratorio ADA de una infraestructura en la nube para realizar actividades e investigaciones en el ámbito de análisis de datos. Entre los desafíos enfrentados estuvo la recolección precisa de requerimientos, la implementación de las soluciones propuestas y la configuración de la red.2023-08-01T00:00:00ZImplementación de computación en la nube en el laboratorio ADA de la Facultad de Sistemas para analítica de datos : implementación de un lago de datos en los servidores del laboratorio ADA.Chuga Portilla, Hernán Alexishttp://bibdigital.epn.edu.ec/handle/15000/250932023-11-15T20:54:21Z2023-08-01T00:00:00ZTítulo: Implementación de computación en la nube en el laboratorio ADA de la Facultad de Sistemas para analítica de datos : implementación de un lago de datos en los servidores del laboratorio ADA.
Autor: Chuga Portilla, Hernán Alexis
Director: Martínez Mosquera, Silvia Diana
Resumen: In this project, the process of designing and implementing a data lake with Hadoop was carried out in a cluster with one master node and four slave nodes using Docker containers. It began with an investigation and analysis of the requirements and objectives of the project, focusing on the importance of the architecture and its adaptation to the resources of the high-performance server of the ADA laboratory. To achieve a successful implementation, a previous experimentation with different configurations and tools was carried out, which allowed understanding the operation of Hadoop and Docker, as well as their interactions. The data lake architecture was designed, including the NameNode, ResourceManager and DataNodes coexisting in a single container with their NodeManagers to improve efficiency and resource utilization. The process of saving data in the data lake was carried out by executing data analysis scripts from the end users of the ADA laboratory, verifying the division into blocks and their replication in the DataNodes to guarantee fault tolerance and high availability. The operation of the internal network, the NameNode, the ResourceManager and the DataNodes was verified by accessing their web interfaces and verifying that all the containers were correctly connected. The project culminated in the successful implementation of a data lake, meeting the objectives and requirements set, and whose architecture was tested and validated by end users belonging to the ADA laboratory.
Descripción: En este proyecto, se llevó a cabo el proceso de diseño e implementación de un lago de datos con Hadoop en un clúster con un nodo maestro y cuatro nodos esclavos utilizando contenedores Docker. Se comenzó con una investigación y análisis de los requerimientos y objetivos del proyecto, centrándose en la importancia de la arquitectura y su adaptación a los recursos del servidor de altas prestaciones del laboratorio ADA. Para lograr una implementación exitosa, se realizó una experimentación previa con diferentes configuraciones y herramientas, lo que permitió entender el funcionamiento de Hadoop y Docker, así como sus interacciones. Se diseñó la arquitectura del lago de datos, incluyendo el NameNode, ResourceManager y los DataNodes coexistiendo en un solo contenedor con sus NodeManagers para mejorar la eficiencia y la utilización de recursos. El proceso de guardar datos en el lago de datos se realizó mediante la ejecución de scripts de análisis de datos de los usuarios finales del laboratorio ADA, verificando la división en bloques y su replicación en los DataNodes para garantizar tolerancia a fallos y alta disponibilidad. Se comprobó el funcionamiento de la red interna, el NameNode, el ResourceManager y los DataNodes mediante el acceso a sus interfaces web y verificando que todos los contenedores estuvieran correctamente conectados. El proyectó culminó con la implementación exitosa de un lago de datos, cumpliendo los objetivos y requerimientos planteados, y, cuya arquitectura fue probada y validada por los usuarios finales pertenecientes al laboratorio ADA"2023-08-01T00:00:00ZDesarrollo de dos modelos de clasificación usando boosting y redes neuronales para codificar las actividades económicas y ocupaciones de investigaciones sociodemográficas del INEC.Méndez Moreno, Diana Carolinahttp://bibdigital.epn.edu.ec/handle/15000/250892023-11-15T20:28:00Z2023-09-01T00:00:00ZTítulo: Desarrollo de dos modelos de clasificación usando boosting y redes neuronales para codificar las actividades económicas y ocupaciones de investigaciones sociodemográficas del INEC.
Autor: Méndez Moreno, Diana Carolina
Director: Benalcázar Palacios, Marco Enrique
Resumen: In statistical offices and institutions that collect data on the labor characteristics of individuals, the textual variables economic activity and occupation are coded. This activity serves to facilitate data processing and generate relevant indicators for government planning. At the National Institute of Statistics and Census of Ecuador (INEC), coding is carried out by people trained for this activity. This type of coding, called manual coding, requires a large number of people and can take a long time depending on the amount of data. For example, in the 2010 Population and Housing Census, coding was performed by 310 people lasting 5 months. Because of this, in this master's thesis two classification models were developed to automatically code the economic activities and occupations of sociodemographic research of INEC. For the development of the models, we used Xgboost and Artificial Neural Networks of Feedforward and LSTM type algorithms. The best performing models were obtained using Feedforward Neural Networks, with an accuracy of 95.18% for economic activity and 86.85% for occupations. Compared to manual coding, the implementation of these models to automatically code around 15,000 economic activities and occupations, allowed the reduction time from days to minutes. Furthermore, considering a combined approach (automatic and manual), in which the error rate of the models was less than 5%, the time was reduced to a quarter regarding manual coding and the number of personnel to half.
Descripción: En las oficinas estadísticas e instituciones que recopilan datos de las características laborales de las personas, se realiza la codificación de las variables textuales actividad económica y ocupación. Dicha actividad sirve para facilitar el procesamiento de los datos y generar indicadores relevantes para la planificación gubernamental. En el Instituto Nacional de Estadística y Censos de Ecuador (INEC), la codificación es realizada por personas entrenadas para esta actividad. Este tipo de codificación denominada manual requiere de un gran número de personas y puede durar tiempos extensos dependiendo de la cantidad de datos. Por ejemplo, en el Censo de Población y Vivienda del 2010 la codificación fue realizada por 310 personas durante 5 meses. Por lo mencionado, en esta tesis de maestría se desarrolló dos modelos de clasificación para codificar automáticamente las actividades económicas y ocupaciones de investigaciones sociodemográficas del INEC. Para el desarrollo de los modelos se utilizó los algoritmos Xgboost y Redes Neuronales Artificiales de tipo Feedforward y LSTM. Los modelos con mejor rendimiento se obtuvieron usando las Redes Neuronales Feedforward, con una exactitud de 95.18% para actividad económica y 86.85% para ocupaciones. En comparación con la codificación manual, la implementación de los modelos para codificar automáticamente alrededor de 15.000 actividades económicas y ocupaciones permitió reducir el tiempo de días a minutos. Además, considerando un enfoque combinado (automático y manual), en el cual la tasa de error de los modelos fue menor al 5%, el tiempo se redujo a la cuarta parte y la cantidad de personal a la mitad respecto a la codificación manual.2023-09-01T00:00:00ZDesarrollo de un sistema de gestión y seguimiento de convenios de la epn con entidades públicas y privadas utilizando la metodología scrum : desarrollo de un sistema de gestión y seguimiento de convenios de la epn con entidades públicas y privadas utilizando la metodología scrum.Santamaria Herrera, Lizbeth JairGómez Tipantiza, Ludwing Jairhttp://bibdigital.epn.edu.ec/handle/15000/250882023-11-15T18:55:12Z2023-01-01T00:00:00ZTítulo: Desarrollo de un sistema de gestión y seguimiento de convenios de la epn con entidades públicas y privadas utilizando la metodología scrum : desarrollo de un sistema de gestión y seguimiento de convenios de la epn con entidades públicas y privadas utilizando la metodología scrum.
Autor: Santamaria Herrera, Lizbeth Jair; Gómez Tipantiza, Ludwing Jair
Director: Chancusig Chuquilla, Rodrigo Fabián
Resumen: Currently, higher education institutions have a deficient document management process, as it is carried out physically. This leads to disadvantages such as the possibility of losing documents, limited access control, lack of information backups, and absence of protection against deterioration. These issues impact the efficiency of the document management process carried out by administrative officials in the organization. At the National Polytechnic School (EPN), the management of agreement and contract documents is done manually, exposing the institution to the aforementioned problems. To address this situation, the development of a web-based system with an Open-Source approach is proposed, using agile methodologies, to allow for document management and tracking of agreements from various departments within the EPN. This will provide greater control over documentation, reduce search time, and prevent the loss of physical documents. In addition to improving processes associated with agreement tracking, through the automation of tasks related to observations regarding the progress of planned and executed activities, which can be used for reports that each administrator must submit periodically. This allows the requesting unit or area to evaluate them and, if necessary, take the necessary corrective actions. These processes result in greater efficiency and productivity.
Descripción: Actualmente, las organizaciones de instrucción superior tienen un proceso de gestión documental deficiente, ya que se realiza de forma física, lo cual conlleva desventajas como la posibilidad de perder documentos, escaso control de acceso, falta de respaldos de información y ausencia de protección contra deterioro. Estos problemas impactan la eficiencia del proceso de gestión documental llevado a cabo por los funcionarios administrativos en la organización. En la Escuela Politécnica Nacional (EPN), la gestión de documentos de convenios y acuerdos se realiza de forma manual, lo que expone a la institución a los problemas mencionados anteriormente. Para resolver esta situación, se propone el desarrollo de un sistema web con un enfoque Open-Source, a través de metodologías ágiles, que permita la gestión documental y seguimiento de los convenios de las diferentes dependencias de la EPN. Esto proporcionará un mayor control de la documentación, reducirá el tiempo de búsqueda y evitará la pérdida de documentos físicos. Además de mejorar los procesos asociados al seguimiento de los convenios, a partir de la automatización de las tareas asociadas, como las observaciones en las que se encuentran información en lo que respecta a los avances de las actividades planificadas y efectuadas, las cuales podrán ser ocupadas para los informes que cada administrador debe cumplir con cierta periodicidad, con el fin de que la unidad o área requirente pueda evaluar los mismos, y de ser el caso, tomar los correctivos que fueren necesarios, resultando estos procesos más eficientes y productivos.2023-01-01T00:00:00ZDesarrollo de un sistema de toma de decisiones y consenso grupal aplicado a los motores de recomendación : desarrollo del módulo de manejo de usuarios, grupos y notificaciones para el sistema de toma de decisiones y consenso grupal aplicado a los motores de recomendación.Aimacaña Checa, Daniel Efrainhttp://bibdigital.epn.edu.ec/handle/15000/250872023-11-15T18:45:47Z2023-08-01T00:00:00ZTítulo: Desarrollo de un sistema de toma de decisiones y consenso grupal aplicado a los motores de recomendación : desarrollo del módulo de manejo de usuarios, grupos y notificaciones para el sistema de toma de decisiones y consenso grupal aplicado a los motores de recomendación.
Autor: Aimacaña Checa, Daniel Efrain
Director: Recalde Cerda, Lorena Katherine
Resumen: One of the most important purposes of a Group Recommendation System involves the consensus stage or decision-making process. The decision-making stage also aligns with the common activities carried out by a research group, particularly when there is a discussion and dialogue to choose a suitable research topic aligned with the skills and interests of the researchers. However, grouping researchers and making decisions necessitate techniques and tools that cater to the group interaction needs of individuals. In response to this identified need, an application was developed under the standards and guidance of Scrum and the Business Driven Development (BDD) methodology. This multiplatform application is built upon the user management module, user group management, and group activity notifications for the Group Decision-Making and Consensus System Applied to Recommendation Engines. The module aims to enhance the experience and satisfaction of the "researcher" user who seeks to form research groups and add collaborators interested in conducting research based on the recommendations provided by the system to the group.
Descripción: Dentro de los propósitos más importantes de un Sistema de Recomendación Grupal, se tiene la etapa de consenso o toma de decisiones. La etapa de toma de decisiones coincide también con las actividades frecuentes que realiza un grupo de investigación, especialmente cuando existe una discusión y un diálogo para elegir un tema de investigación apropiado y ajustado a las habilidades e intereses de los investigadores. Sin embargo, agrupar investigadores y tomar decisiones requiere de técnicas y herramientas acorde a las necesidades de interacción grupal de las personas. En respuesta a la necesidad planteada se implementó, bajo la norma y guía de Scrum y la metodología BDD (Businness Driven Development), un aplicativo multiplataforma que se basa en el módulo de manejo de usuarios, manejo de grupos de usuarios y notificaciones de las actividades de grupo para el Sistema de Toma de Decisiones y Consenso Grupal Aplicando a los Motores de Recomendación. El módulo busca mejorar la experiencia y satisfacción del usuario "investigador" que busca conformar grupos de investigación y añadir a colaboradores interesados en realizar trabajos de investigación respecto a las recomendaciones dadas por el sistema al grupo.2023-08-01T00:00:00ZPlataforma para desarrollo y evaluación de modelos de reconocimiento de 11 gestos de la mano : desarrollo de un sistema para la evaluación y visualización de los resultados de modelos de reconocimiento de 11 gestos de la mano.Ramos Acaro, Kevin Davidhttp://bibdigital.epn.edu.ec/handle/15000/250862023-11-15T18:39:44Z2023-08-01T00:00:00ZTítulo: Plataforma para desarrollo y evaluación de modelos de reconocimiento de 11 gestos de la mano : desarrollo de un sistema para la evaluación y visualización de los resultados de modelos de reconocimiento de 11 gestos de la mano.
Autor: Ramos Acaro, Kevin David
Director: Barona López, Lorena Isabel
Resumen: This component developed a system for the evaluation and visualization of the results of recognition models of 11 and 5 hand gestures (HGR). In other words, the platform allows the loading of HGR models for their subsequent evaluation and presentation of results for both classification and recognition with dynamic graphics or dashboards that facilitate the understanding of the evaluation. This evaluation system used the cascade model as part of the software development cycle, respecting all its phases such as: definition of requirements, design, implementation, integration and testing of the system and operation. In addition, once this software product development process was completed, the integration with the first component was carried out from an input JSON with the predictions of the HGR model. The result of this work was a functional and integrated web application with different HGR models, which allows the evaluation of models of 5 and 11 gestures with different numbers of users and repetitions respectively. Finally, it must be considered that it is necessary to correctly configure the input file of the HGR models for its evaluation, otherwise the results may not be satisfactory. Likewise, the evaluations of HGR models carried out show that it is possible to have a high classification precision, however, it can have a low recognition precision due to the way the evaluation is carried out for these two different concepts.
Descripción: El presente componente desarrolló un sistema para la evaluación y visualización de los resultados de modelos de reconocimiento de 11 y 5 gestos de la mano (HGR). Es decir, la plataforma permite la carga de modelos HGR para su posterior evaluación y presentación de resultados tanto para clasificación y reconocimiento con gráficos dinámicos o dashboards que facilitan la comprensión de la evaluación. Este sistema de evaluación utilizó el modelo en cascada como parte del ciclo de desarrollo de software, respetando todas sus fases como fueron: definición de requerimientos, diseño, implementación, integración y pruebas del sistema y operación. Además, finalizado este proceso de desarrollo del producto software se realizó la integración con el primer componente a partir de un JSON de entrada con las predicciones del modelo HGR. El resultado final de este trabajo fue una aplicación web funcional e integrada con diferentes modelos HGR, el cual permite la evaluación de modelos de 5 y 11 gestos con diferentes números de usuarios y repeticiones respectivamente. Por último, hay que tomar en cuenta que se necesita configurar correctamente el archivo de entrada de los modelos HGR para su evaluación, caso contrario los resultados podrían no ser satisfactorios. Las evaluaciones de modelos HGR realizadas demuestran que se puede tener una alta precisión de clasificación, pero una baja precisión de reconocimiento por la manera que se evalúa para estos dos conceptos.2023-08-01T00:00:00ZSistema de pre-planificación de asignaturas del período académico ordinario para la fis : un enfoque ágil en el desarrollo de front-end y back-end: desarrollo de backend.Velastegui Santamaría, Alex Danielhttp://bibdigital.epn.edu.ec/handle/15000/250852023-11-15T18:34:56Z2023-08-01T00:00:00ZTítulo: Sistema de pre-planificación de asignaturas del período académico ordinario para la fis : un enfoque ágil en el desarrollo de front-end y back-end: desarrollo de backend.
Autor: Velastegui Santamaría, Alex Daniel
Director: Iñiguez Jarrin, Carlos Efraín
Resumen: The Back-End is a relevant component in application development since it provides the necessary process for the correct functioning of the application. This document describes the Back-End component development for the regular academic period pre-planning web system. This system is addressed for Facultad de Ingeniería en Sistemas (FIS) of the Escuela Politécnica Nacional. The system aims to support FIS in estimating the number of students who will enroll in each subject in the upcoming regular academic period. Based on the estimation, FIS can adequately allocate the required courses for each subject. The Back-End development follows the Scrum agile approach, breaking down the development process into seven sprints. Each sprint is detailed in a specific document section, describing planned user stories, their implementation, increment review, and the concluding retrospective session. Before the component’s development details, an overview of the technologies, infrastructure, frameworks, libraries, etc., employed is provided. The outcome is a Back-End component with endpoints tested and ready to be consumed by the Front-End to collectively constitute the pre-planning system.
Descripción: El Back-End es un componente relevante en el desarrollo de aplicaciones ya que brinda los procesos necesarios para que la aplicación funcione correctamente. El presente documento describe el desarrollo del Back-End del sistema web para la pre-planificación de asignaturas del período académico ordinario para la Facultad de Ingeniería de Sistemas (FIS) de la Escuela Politécnica Nacional. El sistema ayudará a la FIS a estimar la cantidad de estudiantes que se matricularán en cada una de las asignaturas el siguiente periodo académico ordinario. En base a la estimación obtenida, la FIS puede planificar la cantidad de cursos requeridos para cada una de las asignaturas. El desarrollo del Back-End sigue el enfoque ágil de Scrum como marco de trabajo, dividiendo el desarrollo en siete sprints. El documento dedica una sección para cada sprint, describiendo las historias de usuario planificadas, su implementación, la revisión del incremento y la sesión de retrospectiva que cierra el sprint. Previo a la descripción del desarrollo del componente, se detalla la tecnología, infraestructura, frameworks, librerías, etc, utilizadas. El resultado es un componente Back-End con endpoints probados y listos para ser consumidos por el Front-End y formar en conjunto el sistema de pre-planificación.2023-08-01T00:00:00ZDesarrollo de un sistema de toma de decisiones y consenso grupal aplicado a los motores de recomendación : desarrollo de los módulos de presentación de la recomendación y de selección de tópicos del sistema de recomendación para grupos de investigadores que soporte la toma de decisiones y el consenso.Padilla Molina, Renato Fabriciohttp://bibdigital.epn.edu.ec/handle/15000/250842023-11-15T18:28:32Z2023-10-01T00:00:00ZTítulo: Desarrollo de un sistema de toma de decisiones y consenso grupal aplicado a los motores de recomendación : desarrollo de los módulos de presentación de la recomendación y de selección de tópicos del sistema de recomendación para grupos de investigadores que soporte la toma de decisiones y el consenso.
Autor: Padilla Molina, Renato Fabricio
Director: Recalde Cerda, Lorena Katherine
Resumen: This work addresses the issue of decision-making and consensus in groups of researchers within the academic context. The significance of collaborative work in research projects is highlighted, along with how the absence of hierarchical authority can pose challenges in decision-making. Factors such as communication, conflicting interests, and differences in skills that can impact group decision-making are discussed. The use of an IT tool to guide this process and achieve more balanced decisions is proposed. The overall objective is to develop modules for a recommendation system that supports decision-making and consensus in groups of researchers. The project scope includes the implementation of modules for presenting recommendations and selecting topics, without delving into the implementation of recommendation algorithms. The BDD (Behavior Driven Development) methodology is chosen for project development, owing to its focus on the expected behavior of software and its adaptability to changes in system requirements. The BDD methodology centers on high-level testing, and its development flow is highlighted.
Descripción: Este trabajo aborda la problemática de la toma de decisiones y el consenso en grupos de investigadores dentro del ámbito académico. Se destaca la importancia del trabajo colaborativo en proyectos de investigación y cómo la falta de autoridad jerárquica puede generar desafíos en la toma de decisiones. Se mencionan factores como la comunicación, el conflicto de intereses y las diferencias de habilidades que pueden afectar la toma de decisiones grupales. Se propone el uso de una herramienta informática para guiar este proceso y lograr decisiones más equilibradas. El objetivo general es desarrollar módulos para un sistema de recomendación que respalde la toma de decisiones y el consenso en grupos de investigadores. Se detalla el alcance del proyecto, que incluye la implementación de módulos de presentación de recomendaciones y selección de tópicos, sin abordar la implementación de algoritmos de recomendación. La metodología BDD (Behavior Driven Development) se elige para el desarrollo del proyecto, debido a su enfoque en el comportamiento esperado del software y su adaptabilidad a los cambios en los requisitos del sistema. La metodología BDD se centra en pruebas de alto nivel y se destaca su flujo de desarrollo.2023-10-01T00:00:00ZPlataforma para desarrollo y evaluación de modelos de reconocimiento de gestos de la mano : modelo de reconocimiento de 11 gestos de la mano usando deep learning y celdas de memoria desarrollado en Python.Salazar Franco, Marco Andréshttp://bibdigital.epn.edu.ec/handle/15000/250832023-11-15T18:23:19Z2023-09-01T00:00:00ZTítulo: Plataforma para desarrollo y evaluación de modelos de reconocimiento de gestos de la mano : modelo de reconocimiento de 11 gestos de la mano usando deep learning y celdas de memoria desarrollado en Python.
Autor: Salazar Franco, Marco Andrés
Director: Barona López, Lorena Isabel
Resumen: Nowadays, technological advancements and their implementation in areas such as automation, virtual assistance, and human-machine interaction are constantly evolving. However, as artificial intelligence (AI) continues to expand its horizons, significant challenges related to model replicability in real-world settings also arise. The present research component focuses on the development of a Deep Learning model based on Convolutional Neural Networks (CNN) and Long Short-Term Memory (LSTM) networks for real-time classification and recognition of 11 hand gestures. The model utilizes electromyographic (EMG) and quaternion (IMU) signals as input. In this document, we delve into the process of creating a model using the CRISP-ML(Q) methodology for machine learning. Following each stage of this methodology, including signal acquisition, pre-processing, feature extraction, classification, and post-processing. Using this methodology, results were achieved, including a classification accuracy of 60.61% for the model and a recognition accuracy of 21.18%, for validation examples, using an application for evaluating hand gesture recognition models.
Descripción: Hoy en día, los progresos tecnológicos y su implementación en áreas como la automatización, la asistencia virtual y la interacción entre humanos y máquinas están en constante evolución. Sin embargo, a medida que la inteligencia artificial (IA) sigue expandiendo sus horizontes, también surgen desafíos significativos relacionados con la replicabilidad de los modelos en entornos reales. El presente componente de investigación se centra en el desarrollo de un modelo de Deep Learning basado en redes neuronales convolucionales (CNN) y redes con celdas de memoria (LSTM) para la clasificación y reconocimiento en tiempo real de 11 gestos de la mano. El modelo hace uso de señales electromiográficas (EMG) y de cuaternión (IMU) como entrada. En este documento, profundizaremos en el proceso de creación de un modelo utilizando la metodología CRISP-ML(Q) para el aprendizaje automático. Siguiendo cada etapa de esta metodología, incluyendo la adquisición de señales, el preprocesamiento, la extracción de características, la clasificación y el post procesamiento. Con esta metodología se obtuvieron resultados como un 60.61% de exactitud de clasificación del modelo y un 21.18% de exactitud de reconocimiento, para ejemplos de validación, haciendo uso de una aplicación para evaluación de modelos de reconocimiento de gestos de la mano.2023-09-01T00:00:00ZDiseño e implementación de un sistema de Inteligencia de Negocios BI, sobre la base de información de educación continua en Ecuador para analizar la oferta y demanda mediante indicadores estáticos y dinámicos.Báez Espinosa, Christian Viniciohttp://bibdigital.epn.edu.ec/handle/15000/250622023-11-14T15:04:26Z2023-11-14T00:00:00ZTítulo: Diseño e implementación de un sistema de Inteligencia de Negocios BI, sobre la base de información de educación continua en Ecuador para analizar la oferta y demanda mediante indicadores estáticos y dinámicos.
Autor: Báez Espinosa, Christian Vinicio
Director: Galindo Lozada, Julián Andrés
Resumen: This master's thesis has the purpose of designing and implementing a BI business intelligence
system, which allows us to carry out the analysis of the supply and demand of continuing education in higher
education institutions in Ecuador; For the supply, the information obtained through market research carried out
in the most important public/private educational institutions in the country was taken as a basis, and for the
demand, information was collected through a survey of different professionals, which allowed us to know the
training preferences. . With the help of the HEFESTO methodology, it was possible to create the Data WareHouse
that contains static and dynamic indicators, which respond to the questions posed in the initial stage of the
methodology. To build the dynamic indicators, the RapidMiner tool was used and the visualization of the
information contained in the Data WareHouse is captured in two DashBoards, one for supply and the other for
demand, prepared in PowerBI.
Descripción: Está tesis de maestría tiene la finalidad de diseñar e implementar un sistema de inteligencia de
negocios BI, que nos permita realizar el análisis de la oferta y la demanda de la educación continua
en las instituciones de educación superior en el Ecuador; para la oferta se tomó como base la
información obtenida mediante una investigación de mercado realizada a las más importantes
instituciones públicas/privadas de educación del país y para la demanda se recopiló información
mediante una encuesta a distintos profesionales lo que nos permitió conocer las preferencias de
capacitación. Con la ayuda de la metodología HEFESTO se logró crear el Data WareHouse que
contiene los indicadores estáticos y dinámicos, los cuales responden a las preguntas planteadas en
la etapa inicial de la metodología. Para la construcción de los indicadores dinámicos se utilizó la
herramienta RapidMiner y la visualización de la información contenida en el Data WareHouse está
plasmada en dos DashBoard uno para la oferta y otro para la demanda elaborados en PowerBI.2023-11-14T00:00:00ZDesarrollo de un prototipo de agricultura inteligente basado en IoT para la empresa “Alimentos especiales procesados C.A.”Dávila Chaucanés, José Oswaldohttp://bibdigital.epn.edu.ec/handle/15000/250582023-11-10T17:11:25Z2023-10-01T00:00:00ZTítulo: Desarrollo de un prototipo de agricultura inteligente basado en IoT para la empresa “Alimentos especiales procesados C.A.”
Autor: Dávila Chaucanés, José Oswaldo
Director: Yacchirema Vargas, Diana Cecilia.
Resumen: Within the agricultural context of our country, most farmers are small-scale, and companies lack the technological tools to carry out efficient farming, whether due to a lack of knowledge or the high costs of implementation. The Internet of Things (IoT) has revolutionized the agricultural sector by offering advanced tools for crop monitoring and management. Furthermore, the automation enabled by IoT enhances the efficiency of irrigation systems and reduces resource wastage, contributing to sustainability and productivity in modern agriculture. This study proposes the design of an IoT-based prototype for greenhouse monitoring, specifically for the company "Alimentos Especiales Procesados C.A (ALEPROCA)." The system utilizes IoT devices to measure temperature and relative humidity in each greenhouse, presenting the data graphically through a web portal. The primary objective is to achieve accurate monitoring of temperature and humidity levels, aiming to enhance agricultural production and facilitate decision-making by those in charge. For the prototype's development and implementation, a three-layer IoT architecture was applied. To promote more sustainable practices and efficiently utilize natural resources, solar panels were integrated, ensuring the prototype's self-sustainability. To verify the proposal's effectiveness, the prototype was implemented in two ALEPROCA greenhouses. Feedback was gathered from the in-charge personnel via surveys, thereby evaluating the system's functionality, efficiency, and satisfaction it brings to the company's agricultural context. Preliminary results indicate that the prototype allows for precise monitoring of temperature and humidity levels, thereby reducing labor requirements and water consumption. This promotes more sustainable practices, ensuring efficient resource utilization and environmental preservation.
Descripción: En el contexto agrícola de nuestro país, la mayoría de los agricultores son pequeños y las empresas carecen de herramientas tecnológicas para llevar a cabo cultivos eficientes, ya sea por falta de conocimiento o por los altos costos de implementación. El Internet de las Cosas (IoT, Internet of Things por sus siglas en inglés) ha revolucionado el sector agrícola al proporcionar herramientas avanzadas para la monitorización y gestión de cultivos. Además, la automatización habilitada por IoT optimiza la eficiencia de los sistemas de riego y reduce el desperdicio de recursos, contribuyendo a la sostenibilidad y productividad en la agricultura moderna. Este trabajo propone el diseño de un prototipo basado en IoT para la monitorización de invernaderos, específicamente para la empresa “Alimentos Especiales Procesados C.A (ALEPROCA)”. El sistema emplea dispositivos IoT para medir la temperatura y humedad relativa en cada invernadero, y presenta los datos de manera gráfica a través de un portal web. El objetivo principal es lograr un monitoreo preciso de los niveles de temperatura y humedad, con el propósito de mejorar la producción agrícola y facilitar la toma de decisiones por parte de los responsables. Para el desarrollo e implementación del prototipo se aplicó una arquitectura IoT de tres capas. A fin de promover prácticas más sustentables y aprovechar de manera eficiente los recursos naturales se implementaron paneles solares que permiten la autosostenibilidad del prototipo. Para comprobar la efectividad de la propuesta, el prototipo fue implementado en dos invernaderos de ALEPROCA. Se recopiló el feedback de los encargados de estos espacios a través de encuestas, logrando así evaluar la funcionalidad, eficiencia y satisfacción que el sistema aporta al contexto agrícola de la empresa. Los resultados preliminares revelan que el prototipo permite el monitoreo preciso de los niveles de temperatura y humedad, reduciendo así la necesidad de mano de obra y el consumo de agua, y promoviendo de esta manera prácticas más sustentables que permiten aprovechar de manera eficiente los recursos naturales y preservar el entorno ambiental.2023-10-01T00:00:00ZSistema web de gestión de información publicitaria de grupos artístico-culturales.Andrango Caiza, Jersson Carloshttp://bibdigital.epn.edu.ec/handle/15000/250512023-11-10T16:13:14Z2023-11-10T00:00:00ZTítulo: Sistema web de gestión de información publicitaria de grupos artístico-culturales.
Autor: Andrango Caiza, Jersson Carlos
Director: Ordoñez Calero, Hernán David
Resumen: In this paper, the lack of technological resources for promotion will be addressed. To solve this problem, the creation of a web-based system is proposed to manage the data of these groups with the aim of promoting their work and facilitating the search for contract opportunities by showcasing their activities and providing contact information. It is planned to use an agile methodology based on prototypes for the development of this project, prioritizing people over processes and adapting to changing requirements. In particular, SCRUM is considered one of the effective agile methodologies for the development and maintenance of complex products, allowing for the addressing of adaptive problems and efficient and creative product delivery.
The functionality tests of the web system for Artistic and Cultural Groups demonstrated a 100% compliance with the expected results by the 5 registered users. Usability surveys revealed a 90% acceptance rate in terms of ease of use and access to information. In summary, the web system meets the standards of functionality and usability for these users.
Descripción: En el presente trabajo se abordará la falta de recursos tecnológicos para la promoción. Para solucionar este problema, se plantea la creación de un sistema web que administre los datos de estas agrupaciones con el objetivo de promover su trabajo y facilitar la búsqueda de oportunidades de contrato al mostrar su labor y ofrecer información de contacto, Se planea utilizar una metodología ágil basada en prototipos para el desarrollo de este proyecto, priorizando a las personas sobre los procesos y adaptándose a los requisitos cambiantes. En particular, se considera SCRUM como una de las metodologías ágiles efectivas para el desarrollo y mantenimiento de productos complejos, permitiendo abordar problemas adaptativos y entregar productos de alto valor de manera eficiente y creativa.
Las pruebas de funcionalidad del sistema web para Grupos Artístico-Culturales demostraron un cumplimiento del 100% de los resultados esperados por parte de los 5 usuarios registrados. Las encuestas de usabilidad revelaron una aceptación del 90% en términos de facilidad de uso y acceso a la información. En resumen, el sistema web satisface los estándares de funcionalidad y usabilidad para estos usuarios.2023-11-10T00:00:00ZAnálisis de vulnerabilidades de una infraestructura de red utilizando metodologías de ethical hacking.Miranda Salvador, Richard Andréshttp://bibdigital.epn.edu.ec/handle/15000/250432023-11-09T23:02:58Z2023-07-01T00:00:00ZTítulo: Análisis de vulnerabilidades de una infraestructura de red utilizando metodologías de ethical hacking.
Autor: Miranda Salvador, Richard Andrés
Director: Del Hierro Cadena, Pablo Fernando; Flores Armas, Denys Alberto
Resumen: The objective of this thesis is to analyze the vulnerabilities of the FIS network infrastructure using ethical hacking methods based on the ISSAF methodology. This analysis will set a precedent and raise awareness among the personnel responsible for the current state of security in this infrastructure, this being the first step in planning future strategies and actions that will bring the FIS to an expected point. The methodology has a structure that covers the different aspects of the infrastructure, starting with the collection of information about the FIS EPN, understanding its characterization, mission, vision and organizational structure. Next, the virtual and physical connectivity is analyzed using the different tools for this task, which allows obtaining a map or topology of the network. Based on the topology obtained, a series of processes are designed as tests to identify the vulnerabilities present in the FIS infrastructure with the structure defined by ISSAF. At the end of each test, the vulnerabilities found in each element of the infrastructure are obtained.
Descripción: El objetivo del presente trabajo de titulación es analizar las vulnerabilidades de la infraestructura de red de la FIS mediante el uso de metodologías de ethical hacking, tomando como base la metodología ISSAF. Este análisis permitirá sentar un precedente y concientizar al personal a cargo sobre el estado actual de la seguridad en dicha infraestructura, siendo el primer paso en la planificación de las estrategias y acciones futuras que llevarán a la FIS a un punto esperado. La metodología tiene una estructura que cubre las diferentes aristas de la infraestructura, iniciando con la recolección de información de la FIS EPN, entendiendo su caracterización, misión, visión y estructura orgánica. Posteriormente se analiza la conectividad virtual y física mediante las diferentes herramientas para dicha tarea, lo cual permite obtener un mapa o topología de la red. A partir de la topología obtenida se diseña un conjunto de procesos a modo de pruebas para identificar las vulnerabilidades presentes en la infraestructura de la FIS con la estructura definida por ISSAF. Al final de cada prueba, se obtendrán las vulnerabilidades halladas en cada ítem de la infraestructura.2023-07-01T00:00:00ZAplicación y análisis de rendimiento de bases de datos cifradas para el almacenamiento seguro de registros médicos electrónicos: caso de estudio cryptdb.García Bautista, Fabián Santiagohttp://bibdigital.epn.edu.ec/handle/15000/250392023-11-09T22:15:12Z2023-10-01T00:00:00ZTítulo: Aplicación y análisis de rendimiento de bases de datos cifradas para el almacenamiento seguro de registros médicos electrónicos: caso de estudio cryptdb.
Autor: García Bautista, Fabián Santiago
Director: Suntaxi Oña, Gabriela Lorena
Resumen: This study presents an investigation into the performance of CryptDB, a database system providing practical and provable confidentiality in the face of an adversary who captures all stored data, under different cloud-based architectures. The research aims to determine how different configurations impact the scalability and efficiency of CryptDB. The cloud architectures examined include an encrypted environment with no scaling (EENS), an encrypted environment with scaling (EEWS), and an unencrypted data (UE) architecture. A load testing tool, k6, is used to simulate various concurrent user scenarios. The results demonstrate that the proposed EEWS architecture can reduce latency by up to 50%, though it also highlights CryptDB's limitations, including poor CPU utilization and inadequate documentation. Recommendations are provided for future enterprise projects considering CryptDB. Further research can expand upon this work by considering other alternative tools and their performance under high concurrency.
Descripción: En este artículo, exploramos la implementación de CryptDB en un ambiente productivo, enfocándonos especialmente en el rendimiento. A través de la aplicación del escalamiento horizontal, hemos logrado reducir la latencia hasta en un 50 % en las operaciones de lectura, lo cual representa un avance significativo hacia la posibilidad de utilizar CryptDB en entornos reales. No obstante, este beneficio no se extiende a las operaciones de escritura, ya que la complejidad del cifrado de datos presenta desafíos adicionales. Para abordar esta limitación, recomendamos la implementación de la arquitectura Command Query Responsibility Segregation (CQRS), que permite separar y optimizar las operaciones de lectura y escritura. Aunque estos resultados son prometedores,se deben considerar otros factores como la seguridad y la compatibilidad en la evaluación integral de la incorporación de CryptDB. El artículo destaca tanto los avances logrados como los desafíos que aún deben abordarse para una integración exitosa.2023-10-01T00:00:00ZDiseño de un modelo de aprendizaje automático para gestion de la flota vehicular de una Empresa Pública.Benalcázar De La Cruz, Cristian Robertohttp://bibdigital.epn.edu.ec/handle/15000/250382023-11-09T21:58:52Z2023-09-01T00:00:00ZTítulo: Diseño de un modelo de aprendizaje automático para gestion de la flota vehicular de una Empresa Pública.
Autor: Benalcázar De La Cruz, Cristian Roberto
Director: Calle Jiménez, Tania Elizabeth; Sánchez Gordón, Sandra Patricia
Resumen: This study presents the design of a machine learning model for managing the vehicle fleet of a Public Enterprise, focused on classifying drivers according to their level of risk during driving. To achieve this, driver characteristics, their behavior and the use of vehicles are analized to generate optimization recommendations for the fleet. Web scraping plays an important role in the development of this work, for obtaining data from drivers, vehicle fleet and its usage, which in turn facilitates the traditionally manual process of vehicle registration validity control performed by the Enterprise. In Chapter I, the generalities of this project are stated, its objectives, justification, and importance, and a literature review on web scraping, machine learning models and Information Systems (IS) are presented. In Chapter II, the methodology to be used is described, a descriptive analysis of the fleet, driver characteristics and behavior, and vehicle usage by departments and management to generate fleet optimization recommendations. It also involves the development of driver classification models and finally, a dashboard is developed to share the results of the fleet analysis, driver analysis, generated model and a map for visualizing vehicle usage. In Chapter III, the results obtained are presented and analyzed. Finally, in Chapter IV, the conclusions derived from the project development are detailed.
Descripción: Este estudio presenta el diseño de un modelo de aprendizaje automático para gestión de la flota vehicular de una Empresa Pública, centrado en la clasificación de conductores de acuerdo a su nivel de riesgo durante la conducción, para lo cual se analizan características y comportamiento de los conductores y el uso de los vehículos para generar a su vez recomendaciones de optimización de la flota vehicular. En el desarrollo de este trabajo tiene un papel importante el uso de web scraping para la obtención de datos, tanto de los conductores como de la flota vehicular y su uso, los cuales a su vez facilitan procesos de control realizados tradicionalmente de manera manual por la Empresa. Es así que, en el Capítulo I se enuncian las generalidades de este proyecto, objetivos que persigue el mismo, su justificación e importancia, se muestra una revisión literaria sobre el web scraping, modelos de aprendizaje automático y Sistemas de Información (SI). En el Capítulo II se describe la metodología a utilizar, se realiza un análisis descriptivo de la flota, conductores y uso de los vehículos, comprende además la generación de modelos de clasificación de los conductores; y, el desarrollo de un tablero para compartir los resultados del análisis de la flota, conductores y modelo generado, además de un mapa para visualizar el uso de los vehículos. En el Capítulo III se presentan y analizan los resultados. Finalmente, en el Capítulo IV se detallan las conclusiones derivadas del proyecto.2023-09-01T00:00:00ZDesarrollo de una aplicación bancaria que genera usuarios y claves seguras siguiendo los estándares de la empresa : implementación y pruebas de la aplicación bancaria que genere usuarios y claves seguras siguiendo los estándares de la empresa.Vasco Gualotuña, Elsa Margothhttp://bibdigital.epn.edu.ec/handle/15000/250142023-11-08T22:55:42Z2023-08-01T00:00:00ZTítulo: Desarrollo de una aplicación bancaria que genera usuarios y claves seguras siguiendo los estándares de la empresa : implementación y pruebas de la aplicación bancaria que genere usuarios y claves seguras siguiendo los estándares de la empresa.
Autor: Vasco Gualotuña, Elsa Margoth
Director: Intriago Pazmiño, María Monserrate
Resumen: In an increasingly digitized world, data security has become a central concern for individuals and organizations alike. Sensitive and confidential information, such as personal, financial, and corporate data, is a valuable asset that requires robust protection. In this context, encryption has emerged as an essential tool in safeguarding the integrity and privacy of this data. Importance of Encryption: Encryption is the process of converting readable information into an unreadable format unless one possesses the decryption key. This ensures that even if the data falls into the wrong hands, it remains incomprehensible and thus useless. Encryption not only prevents unauthorized access but also safeguards against data interception and theft during transmission. It is a fundamental pillar for maintaining the confidentiality and integrity of sensitive information. Examples of Recent Security Incidents and Their Potential Mitigation: 1. Software supply chain attack: In the 2020 SolarWinds incident, systems were infiltrated through a compromised software update. Here, end-to-end encryption would have limited access to sensitive data even if attackers had managed to infiltrate the network. 2. Algorithm Used: In this scenario, a public key cryptographic algorithm like RSA could have been effective. Although relatively slow compared to other methods, its security robustness would have helped prevent unauthorized disclosure. 3. Ransomware attacks: Incidents like the 2021 Colonial Pipeline attack highlight the importance of encryption at rest. If data were kept encrypted at rest, even if attackers gained access to the systems, they wouldn't be able to access the information without the decryption key. 4. Algorithm Used: AES (Advanced Encryption Standard) is a prominent example for encryption at rest. It is highly efficient in terms of speed and security, making it suitable for protecting large volumes of stored data.
Descripción: En un mundo cada vez más digitalizado, la seguridad de datos se ha convertido en una preocupación central para individuos y organizaciones por igual. La información sensible y confidencial, como datos personales, financieros y corporativos, es un activo valioso que necesita protección robusta. En este contexto, la encriptación se ha erigido como una herramienta esencial en la salvaguardia de la integridad y privacidad de estos datos. Importancia de la Encriptación La encriptación es el proceso de convertir información legible en un formato ilegible, a menos que se posea la clave de desencriptación. Esto asegura que incluso si los datos caen en manos equivocadas, resulta incomprensible y, por lo tanto, inútil. La encriptación no solo evita el acceso no autorizado, sino que también protege contra la interceptación y el robo de datos durante su transmisión. Es un pilar fundamental para mantener la confidencialidad y la integridad de la información sensible. Ejemplos de Incidentes de Seguridad Recientes y su Potencial Mitigación 1. Ataque a la cadena de suministro de software: En el incidente de SolarWinds en 2020, se infiltraron sistemas mediante una actualización de software comprometida. Aquí, la encriptación de extremo a extremo habría limitado el acceso a datos sensibles incluso si los atacantes hubieran conseguido infiltrarse en la red. 2. Algoritmo Utilizado: En este escenario, un algoritmo criptográfico de clave pública como RSA podría haber sido eficaz. Aunque es relativamente lento en comparación con otros métodos, su robustez en términos de seguridad habría ayudado a prevenir la divulgación no autorizada. 3. Ataques de ransomware: Incidentes como el ataque a Colonial Pipeline en 2021 resaltan la importancia de la encriptación en reposo. Si los datos se mantuvieran encriptados en reposo, incluso si los atacantes lograran acceder a los sistemas, no podrían acceder a la información sin la clave de desencriptación. 4. Algoritmo Utilizado: AES (Advanced Encryption Standard) es un ejemplo destacado para la encriptación en reposo. Es altamente eficiente en términos de velocidad y seguridad, lo que lo hace adecuado para proteger grandes volúmenes de datos almacenados.2023-08-01T00:00:00ZDesarrollo de un modelo de predicción para los valores de las acciones del índice S&P500, sobre la base del estado del arte de la temática, usando un enfoque de análisis de datos, que incluya técnicas de minería de datos y de aprendizaje automático.Cárdenas Torres, Jorge Andrés.http://bibdigital.epn.edu.ec/handle/15000/249372023-10-18T15:50:28Z2023-09-01T00:00:00ZTítulo: Desarrollo de un modelo de predicción para los valores de las acciones del índice S&P500, sobre la base del estado del arte de la temática, usando un enfoque de análisis de datos, que incluya técnicas de minería de datos y de aprendizaje automático.
Autor: Cárdenas Torres, Jorge Andrés.
Director: Montenegro Armas, Carlos.
Resumen: The work proposes an approach based on LSTM (Long Short-Term Memory) neural networks to predict the actions of the S&P500, one of the most important indexes of the stock market. Predicting prices in the stock market is a complex challenge due to its dynamic and volatile nature. The model is trained using a historical data set of the S&P500 from January 2015 to May 2023, which includes information on open, close, high, and low prices, among others. The experimental results show that the proposed model outperforms other traditional prediction approaches. The LSTM-based approach achieves higher accuracy in S&P500 price prediction, which can be of great use to investors and financial analysts in making investment decisions. However, it is suggested that further research be done to explore other variants of LSTM models and further improve the prediction accuracy.
Descripción: La predicción de precios en el mercado de valores es un desafío complejo debido a su naturaleza dinámica y volátil. Este trabajo propone un enfoque basado en redes neuronales LSTM (Long Short-Term Memory) para predecir las acciones del S&P500, uno de los índices más importantes del mercado de valores. El modelo se entrena utilizando un conjunto de datos históricos del S&P500 desde enero de 2015 a mayo de 2023, que incluye información sobre precios de apertura, cierre, máximo y mínimo, y volumen. Los resultados experimentales demuestran que el modelo propuesto supera a otros enfoques de aprendizaje y predicción. Los resultados de este trabajo pueden ser de gran utilidad para los inversores y analistas financieros en la toma de decisiones de inversión. Sin embargo, se sugiere que se realicen investigaciones adicionales para explorar otras variantes de modelos LSTM y mejorar aún más la precisión de la predicción.2023-09-01T00:00:00ZCreación de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN : Desarrollo de una aplicación web para la visualización de los datos obtenidos del prototipo de monitoreo de temperatura del aire.Campoverde Rodriguez, Brandon Martinhttp://bibdigital.epn.edu.ec/handle/15000/249352023-10-18T15:33:15Z2023-10-05T00:00:00ZTítulo: Creación de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN : Desarrollo de una aplicación web para la visualización de los datos obtenidos del prototipo de monitoreo de temperatura del aire.
Autor: Campoverde Rodriguez, Brandon Martin
Director: Yoo, Sang Guun
Resumen: The purpose of this web application is to display the data collected by an IoT prototype for measuring air temperature, providing users with a means to visualize and comprehend the gathered information. Initially, a description of the component will be provided. Then, information about the MQTT protocol will be reviewed to better understand its components. Following that, SCRUM will be applied to design and develop the interfaces of the web application. Finally, usability tests will be conducted to determine the user acceptance of the design. The results reveal that 91.7% of users consider the presented application easy to use, and additionally, 75% of users find the presented information relevant. It was also observed that 58.3% of users believe that more content should be added to the "About Us" page. Thus, this application will provide convenient and real-time access to relevant information, resulting in a positive impact on decision-making regarding air temperature.
Descripción: El propósito de la aplicación web que se describirá en el informe es mostrar los datos recopilados por un prototipo IoT de medición de temperatura del aire, brindando a los usuarios un medio para visualizar y comprender la información recolectada. Primeramente, se realizará una descripción del componente a ser desarrollado. Luego se revisará la información acerca del protocolo MQTT, con la finalidad de entender mejor sus componentes. Posteriormente, se aplicará SCRUM para realizar el diseño y desarrollo de las interfaces de la aplicación web. Finalmente se realizarán pruebas de usabilidad para determinar la aceptación del diseño por parte de los usuarios. Los resultados revean que el 91.7% de usuarios considera que la aplicación presentada es fácil de usar, además el 75% de usuarios considera que la información presentada es relevante. También se observó que el 58.3% de los usuarios considera que se debería agregar más a la página “About Us”. Es así como esta aplicación brindará un acceso conveniente y en tiempo real a la información relevante, lo que conlleva impacto positivo en la toma de decisiones referente a la temperatura del aire.2023-10-05T00:00:00ZCreación de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN : Implementación física de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN.Bonilla Nazareno, Vicky Nahomihttp://bibdigital.epn.edu.ec/handle/15000/249332023-10-18T15:25:40Z2023-10-05T00:00:00ZTítulo: Creación de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN : Implementación física de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN.
Autor: Bonilla Nazareno, Vicky Nahomi
Director: Yoo, Sang Guun
Resumen: LoRaWAN has gained significance in the field of IoT communications globally due to its cost-effectiveness, long-range capabilities, and low energy consumption, enabling a wide range of applications. However, its adoption in Ecuador is not widespread. The purpose of this study is the design and creation of an affordable prototype for ambient temperature measurement using LoRaWAN within the environment of Escuela Politécnica Nacional. The PPDIOO methodology proposed by Cisco was employed, dividing the process into 6 stages: Preparation, Planning, Design, Implementation, Operation, and Optimization. To implement the prototype, the end-device was assembled, followed by connecting it to the LoRaWAN Gateway. Subsequently, data processing occurred within the Gateway using Node-RED. A MQTT server was established to grant data access to an MQTT client. After deploying the network, optimization was conducted along with tests for coverage, energy consumption, and signal quality. The results include a coverage of 2.66 km encompassing the perimeter of the Escuela Politécnica Nacional. Moreover, the operational time, sending data every 3 minutes with a 1000mAh battery, extends to 20 hours. Signal quality revealed an average RSSI of -28dBm and a SNR of 9dB. All of this is achieved at a cost not exceeding $70 per device, representing a significant advancement in the realm of economical wireless environmental monitoring within the setting of Escuela Politécnica Nacional's environment while also broadening prospects for future applications using LoRaWAN technology.
Descripción: LoRaWAN ha ganado importancia en el área de comunicaciones IoT a nivel mundial al ser una tecnología económica, de largo alcance y bajo costo energético que permite realizar gran variedad de aplicaciones. Sin embargo, en Ecuador no se ha extendido su adopción. El presente trabajo muestra el diseño y creación de un prototipo de bajo costo para la medición de temperatura ambiental utilizando LoRaWAN dentro de la Escuela Politécnica Nacional. Para ello se utilizó la metodología PPDIOO propuesta por Cisco, dividiendo el proceso en 6 etapas. Preparación, planificación, diseño, implementación, operación y optimización. El prototipo se implementó ensamblando el dispositivo final, luego conectando este al Gateway LoRaWAN. Posteriormente se procesaron los datos dentro del Gateway haciendo uso de Node-RED. Luego se estableció un servidor MQTT que permitió el acceso a los datos por parte de un cliente MQTT. Tras poner la red en operación, se optimizó y se realizaron pruebas de cobertura, consumo energético y calidad de la señal. Entre los principales resultados se encuentra una cobertura de 2.66km que cubre el perímetro de la Escuela politécnica Nacional. Además, el tiempo de funcionamiento, enviando datos cada 3 minutos con una batería de 1000mAh, alcanza las 20 horas. Para la calidad de la señal se obtuvo una RSSI promedio de -28dBm y una SNR de 9dB. Todo esto con un costo menor a $70 por dispositivo, logrando avance en la supervisión ambiental inalámbrica de bajo coste en la Escuela Politécnica Nacional y expandiendo las posibilidades de futuras aplicaciones utilizando LoRaWAN.2023-10-05T00:00:00ZProcesamiento acústico de la voz aplicado al reconocimiento de fonemas similares en el habla inglesa comparados con sus homólogos en lengua hispánica : Evaluación de modelos basados en Transformer para la detección de errores de lectura a nivel de palabras.Calva Galeas, Carlos Enriquehttp://bibdigital.epn.edu.ec/handle/15000/249312023-10-18T15:14:32Z2023-10-05T00:00:00ZTítulo: Procesamiento acústico de la voz aplicado al reconocimiento de fonemas similares en el habla inglesa comparados con sus homólogos en lengua hispánica : Evaluación de modelos basados en Transformer para la detección de errores de lectura a nivel de palabras.
Autor: Calva Galeas, Carlos Enrique
Director: Aguiar Pontes, Josafá de Jesús
Resumen: This study focuses on evaluating word-level reading errors in audio recordings of the Spanish language (NHK newscasts for Spanish) using the Transformer-based model: Whisper Large-V2. The evaluation results demonstrated the model's capacity to accurately predict most errors. Additionally, two experiments were conducted: the first involved an attempt to train a Transformer-based model using the Whisper-Small model through the transfer learning technique to predict phonetic-level pronunciation for the English language. The second experiment entailed assessing phoneme-level pronunciation errors using the "wav2vec2-xlsr-53-espeak-cv-ft" model for English, spoken by individuals whose native language is Spanish. Unfortunately, both experiments yielded unsatisfactory outcomes.
Descripción: Este trabajo trata acerca de la evaluación de errores lectura a nivel de palabras en grabaciones de audio del idioma español (Noticieros NHK en el idioma español) utilizando el modelo basado en Transformer: Whisper-Large-V2. Los resultados de la evaluación demostraron que el modelo puede predecir la mayoría de los errores correctamente. Adicionalmente se realizaron dos experimentos: el primero fue un intento de entrenar un modelo basado en Transformer usando el modelo Whisper-Small a través de la técnica del transfer learning para predecir la pronunciación a nivel fonético para el idioma inglés y el segundo experimento fue la evaluación de los errores de pronunciación a nivel de fonemas utilizando el wav2vec2-xlsr-53-espeak-cv-ft para el idioma inglés hablado por personas cuya lengua materna es el español. Los dos experimentos no tuvieron resultados satisfactorios.2023-10-05T00:00:00ZImplementación de computación en la nube en el laboratorio ADA de la facultad de sistemas para analítica de datos : evaluación de hipervisores y contenedores para la gestión de computación en la nube para el laboratorio ADA.Bravo Mendoza, Aaron Ismaelhttp://bibdigital.epn.edu.ec/handle/15000/249172023-10-18T15:06:02Z2023-10-05T00:00:00ZTítulo: Implementación de computación en la nube en el laboratorio ADA de la facultad de sistemas para analítica de datos : evaluación de hipervisores y contenedores para la gestión de computación en la nube para el laboratorio ADA.
Autor: Bravo Mendoza, Aaron Ismael
Director: Martínez Mosquera, Silvia Diana
Resumen: In this work, the evaluation of virtualization technologies based on hypervisors and containers
was carried out, reaching the conclusion that containers are the most appropriate tools
for the implementation of cloud computing for the Advanced Data Analysis (ADA) laboratory
of the National Polytechnic School. As a result of this evaluation, the JupyterHub software
was implemented on a high performance server in a Docker container so that researchers
and graduate students can take advantage of the power of this technology by being able
to run their data science algorithms in R and Python languages on a computer with high
computational capacity. In addition, integration with Hadoop was achieved where users save
and read files in the Hadoop file system through code that acts as an interface with this storage
software. The server has graphic processing hardware and therefore it was necessary
to install and configure additional software for container compatibility with this device since
by default the containers do not have this support. With the implementation of this environment,
the requirements identified by the laboratory users are satisfied. The importance of
this project lies in the need for a high performance computing environment and the need
for tools to manage server resources in the ADA laboratory. The design and implementation
of this project provides users with the necessary environment for their high-volume data
analysis tasks in this laboratory.
Descripción: En este trabajo se realizó la evaluación de tecnologías de virtualización basadas en hipervisores
y contenedores, llegando a la conclusión de que los contenedores son las herramientas
más adecuadas para la implementación de computación en la nube para el laboratorio
de análisis datos avanzados (ADA) de la Escuela Politécnica Nacional. Como resultado de
esta evaluación se implementó sobre el servidor de altas prestaciones el software JupyterHub
en un contenedores Docker con el fin de que investigadores y estudiantes de posgrado
aprovechen el poder de esta tecnología al poder ejecutar sus algoritmos de ciencia
de datos en lenguajes R y Python en un equipo de alta capacidad de cómputo. Además
se logró la integración con Hadoop en donde los usuarios guardan y leen archivos en el
sistema de archivos de Hadoop por medio de código que actúa como interfaz con este software
de almacenamiento. El servidor cuenta con hardware de procesamiento gráfico y por
ello fue necesario la instalación y configuración de software adicional para compatibilidad
de contenedores con dicho dispositivo ya que por defecto los contenedores no tienen este
soporte. Con la implementación de este entorno se satisfacen los requisitos identificados
por los usuarios del laboratorio. La importancia de este proyecto radica en la necesidad de
un entorno de computación de alto rendimiento y la necesidad de herramientas que gestionen
los recursos del servidor en el laboratorio ADA. El diseño e implementación de este
proyecto brinda a los usuarios el entorno necesario para sus tareas de análisis de grandes
volúmenes de datos en este laboratorio.2023-10-05T00:00:00ZAnálisis de Similitud en Representación de la Información en líneas celulares : Árbol de distancia correspondiente a la representación de líneas celulares basada en minería de texto.Guanoluisa Herrera, Henry Davidhttp://bibdigital.epn.edu.ec/handle/15000/249132023-10-18T14:57:21Z2023-10-02T00:00:00ZTítulo: Análisis de Similitud en Representación de la Información en líneas celulares : Árbol de distancia correspondiente a la representación de líneas celulares basada en minería de texto.
Autor: Guanoluisa Herrera, Henry David
Director: Carrera Izurieta, Iván Marcelo
Resumen: In the current research, the representation and comparison of cell lines play a crucial role in understanding the behavior and interactions of cell lines. This study implements an innovative approach to representing cell lines using text mining techniques, employing Principal Component Analysis (PCA) and Support Vector Data Description (SVDD). The main objectives were the extraction and processing of textual information from scientific literature, followed by its transformation into numerical representations, thereby developing a hierarchical clustering methodology.
To achieve this, a dataset of cell lines was collected from sources such as Cellosaurus and PubMed. Python, along with libraries like pandas and scikit-learn, was employed for data processing, analysis, and modeling. The textual data underwent preprocessing, which included stemming and TF-IDF transformation, resulting in numerical feature vectors. PCA was utilized for dimensional reduction of the data while preserving its variance. SVDD identified atypical values, and the distances between cell lines were visualized through the construction of a dendrogram.
The results revealed an innovative way to represent cell lines, allowing for the identification of groups and similarities among different lines. The dendrogram visually represented hierarchical relationships, providing insights into cell line clusters.
Descripción: En la presente investigación, la representación y comparación de líneas celulares tiene un papel sumamente importante en el entendimiento del comportamiento e interacciones. Este estudio implementa un enfoque innovador al representar líneas celulares utilizando técnicas de minería de texto, utilizando análisis de componentes principales (PCA) y Descripción de datos basado en vectores de soporte (SVDD). Los principales objetivos fueron la extracción y procesamiento de información textual de la literatura científica, para luego transformarla en representaciones numéricas y así desarrollar una metodología de agrupación jerárquica.
Para lograr los objetivos del proyecto, se recopiló un conjunto de data de líneas celulares de fuentes como Cellosaurus y PubMed. Se utilizó Python, junto con librerías como pandas y scikit-learn, para el procesamiento, análisis y modelado de la data. La data de texto fue sometida a un preprocesamiento, que incluyó la reducción a raíz y la transformación TF-IDF, lo que arrojó como vectores de características numéricas. PCA se utilizó para la reducción dimensional de la data que al mismo tiempo preserva su variación. SVDD identificó aquellos valores no típicos y las distancias entre líneas celulares que se visualizaron mediante la construcción de un dendograma.
Los resultados revelaron una forma novedosa de representar las líneas celulares, permitiendo la identificación de grupos y similitudes entre diferentes líneas. El dendograma representó visualmente relaciones jerárquicas, mostrando información sobre conjuntos celulares.2023-10-02T00:00:00ZSistema de pre-planificación de asignaturas del período académico ordinario para la FIS: un enfoque ágil en el desarrollo de front-end y back-end.Santacruz Portilla, Cesar Joelhttp://bibdigital.epn.edu.ec/handle/15000/248832023-10-17T15:36:00Z2023-10-02T00:00:00ZTítulo: Sistema de pre-planificación de asignaturas del período académico ordinario para la FIS: un enfoque ágil en el desarrollo de front-end y back-end.
Autor: Santacruz Portilla, Cesar Joel
Director: Iñiguez Jarrín, Carlos Efraín
Resumen: The Academic Pre-planning process at FIS EPN takes place shortly before the end of each regular academic period. The Sub-Deanship oversees sending a form made with Microsoft Forms to all the students of the faculty so that they can complete it with their intention. However, this form has several problems, which will be explained in more detail and will be tried to solve with this degree work, however, the two problems that stand out are the lack of customization of the questionnaire for each student, and the lack of a user-centered design, due to the inherent limitations of Microsoft Forms. As a solution to these problems, we propose the integration of a new web application, tailored, and customized for the specific needs of the FIS. The application will make use of the Next.js development framework and the consumption of APIs that will allow, on the one hand, students to directly access a questionnaire with the subjects and information relevant and customized for each of them. On the other hand, it will allow the authorities to configure all this information, as well as to obtain reports and more accurate information about the students' enrollment intention. To achieve the objectives of this work, a SCRUM-guided framework and a user-centered design will be used.
Descripción: El proceso de Pre-planificación Académica en la Facultad de ingeniería en Sistemas (FIS) de la Escuela Politécnica Nacional (EPN) se da poco antes de la finalización de cada periodo académico ordinario. El Subdecanato se encarga de enviar un formulario hecho con Microsoft Forms a todos los estudiantes de la facultad para que estos lo completen con su intención de matrícula (materias que tienen planeadas los estudiantes tomar el próximo periodo académico ordinario). No obstante, este formulario cuenta con varios problemas, que se explicarán con más detalle en este trabajo de titulación. Así también se propondrán soluciones para dichas dificultades. Los dos problemas que resaltan son la falta de personalización del cuestionario para cada estudiante y la falta de un diseño centrado en los usuarios, por las limitaciones inherentes a Microsoft Forms. Como solución a estos problemas se plantea la integración de una nueva aplicación web, diseñada y personalizada para las necesidades específicas de la FIS. La aplicación hará uso del framework de desarrollo Next.js y el consumo de API’s que, por un lado, permitirán a los estudiantes acceder directamente a un cuestionario con las materias e información relevante y personalizada para cada uno de ellos. Por otro lado, permitirá a las autoridades configurar toda esta información, así como obtener reportes e información más exacta sobre la intención de matrícula de los estudiantes. Para el cumplimiento de los objetivos planteados con este trabajo, se hará uso de un marco de trabajo guiado por SCRUM y un diseño centrado en el usuario.2023-10-02T00:00:00ZDesarrollo de un aplicativo web para la gestión de inventario de bienes y asistencias técnicas dentro de la FIS.Mantilla Armijos, Carlos Wilfridohttp://bibdigital.epn.edu.ec/handle/15000/248822023-10-17T15:17:43Z2023-10-02T00:00:00ZTítulo: Desarrollo de un aplicativo web para la gestión de inventario de bienes y asistencias técnicas dentro de la FIS.
Autor: Mantilla Armijos, Carlos Wilfrido
Director: Intriago Pazmiño, María Monserrate
Resumen: This degree work presents the design and implementation of the front-end of a web application for the management of various activities and services performed by the staff of the Laboratories of the Faculty of Systems Engineering (LAB-FIS). The front-end included the necessary interfaces to allow the use of the existing back-end functionality thanks to the previous development of a titling component. This development followed the SCRUM framework adapting it to the needs of the project
and so the target work was organized by modules. The modules were prioritized from those that delivered the most value to the stakeholder, in the following order Authentication, Inventory, Loans, Services and Assistance. A module covers one or more iterations. The application was validated through functionality and usability tests executed with the participation of Lab-FIS staff. The results of each case of functionality tests demonstrate the correctness of the expected results. Also, the responses on usability corroborated that the simplicity and ease of use proposed in this component were achieved.
Descripción: En este trabajo de titulación se presenta el diseño e implementación del front-end de una aplicación web para la gestión de varias actividades y servicios que realiza el personal de los Laboratorios de la Facultad de Ingeniería de Sistemas (LAB-FIS). El front-end incluyó las interfaces necesarias para permitir el uso de las funcionalidad existentes a nivel de back-end gracias al desarrollo previo de un componente de titulación. Este desarrollo siguió el marco de trabajo SCRUM adaptándolo a las necesidades del proyecto y es así como el trabajo objetivo se organizó por módulos. Los módulos fueron priorizados desde los que entregaban mayor valor para la parte interesada, ordenando de la siguiente manera Autenticación, Inventario, Préstamos, Servicios y Asistencias. Un módulo abarca una o más iteraciones. El aplicativo fue validad mediante pruebas de funcionalidad y usabilidad ejecutadas con la participación del personal del Lab-FIS. Los resultados de cada caso de las pruebas de funcionalidad demuestran la correctitud de los resultados esperados. Así también, las respuestas sobre la usabilidad corroboraron que se logra cumplir con la simplicidad y facilidad planteadas en este componente.2023-10-02T00:00:00ZDetección de ataques de denegación de servicio activados mediante botnets en redes definidas por software.Tamayo Portero, Jaime Orlandohttp://bibdigital.epn.edu.ec/handle/15000/248702023-10-18T16:07:38Z2023-09-18T00:00:00ZTítulo: Detección de ataques de denegación de servicio activados mediante botnets en redes definidas por software.
Autor: Tamayo Portero, Jaime Orlando
Director: Valdivieso Caraguay, Ángel Leonardo
Resumen: In recent years, the volume of traffic circulating on public and private networks has increased thanks to the
emergence of new online services. For this reason, networks periodically suffer from significant saturation and
complexity problems. Additionally, the number of IoT devices connected to the network constantly grows.
Thus, software-defined network (SDN) is a new architecture which offers innovative advantages that helps to
reduce saturation problems. Despite its advantages, SDNs introduce new security challenges. Both traditional
and SDNs networks are victims of the same types of attacks despite the difference in how their architecture
works. On this context, Distributed Denial of Service (DDoS) is considered one of the most important attacks
which can damage the normal operation of an SDN network. Furthermore, if these attacks are executed through
the use of botnets, they can harness the power of thousands of compromised devices to overwhelm and disrupt
critical online services. This paper proposes a framework for detecting DDoS attacks generated by a group of
botnets in an SDN network. The framework is implemented using open-source tools such as Mininet and
OpenDaylight and tested in a centralized network topology using BYOB and SNORT. The results of the
experiments demonstrate that the system can rapidly identify an attack in real-time by implementing an
intrusion detection mechanism in the victim client. Our proposed solution offers a quick and effective detection
method against DDoS attacks in SDN networks. The framework can successfully differentiate the type of attack
with high accuracy in a short time
Descripción: En los últimos años, el volumen de tráfico circulando en redes públicas y privadas ha aumentado gracias a la
aparición de nuevos servicios. Por esta razón, las redes periódicamente sufren problemas significativos por su
complejidad y saturación. Las redes definidas por software (SDN, por sus siglas en inglés) son una nueva
arquitectura que ofrece ventajas innovadoras que ayudan a reducir los problemas de saturación. Sin embargo,
tanto las redes tradicionales como las SDN son víctimas de los mismos tipos de ataques, a pesar de las
diferencias en el funcionamiento de su arquitectura. En este contexto, el Ataque Distribuido de Denegación de
Servicio (DDoS, por sus siglas en inglés) se considera uno de los ataques más importantes que puede afectar el
funcionamiento normal de una red SDN. Además, si estos ataques se ejecutan mediante el uso de botnets,
pueden aprovechar el poder de miles de dispositivos comprometidos para abrumar e interrumpir servicios en
línea críticos. Este artículo propone un framework para detectar ataques DDoS generados por un grupo de
botnets en una red SDN. Este se implementa utilizando herramientas de código abierto y se prueba en una
topología de red centralizada. Los resultados de los experimentos demuestran que el sistema puede identificar
rápidamente un ataque en tiempo real mediante la implementación de un mecanismo de detección de
intrusiones en la víctima. Nuestra solución propuesta ofrece un método de detección rápido y efectivo contra
ataques DDoS en SDN. La solución puede diferenciar con alta precisión el tipo de ataque en poco tiempo.2023-09-18T00:00:00ZModelo de clasificación de rasgos de adicción a los videojuegos en base a posts de Reddit mediante técnicas de minería de texto y aprendizaje de máquina.Benítez Orellana, Leonardo Andréshttp://bibdigital.epn.edu.ec/handle/15000/248482023-09-21T16:18:38Z2023-08-30T00:00:00ZTítulo: Modelo de clasificación de rasgos de adicción a los videojuegos en base a posts de Reddit mediante técnicas de minería de texto y aprendizaje de máquina.
Autor: Benítez Orellana, Leonardo Andrés
Resumen: In recent years, a large number of studies have been focusing on the identification of a wide range of mental illnesses through the use and application of data mining, data analysis and machine learning. Currently, addiction to video games is considered a global issue that has become increasingly frequent and that directly affects the life’s quality of the people who suffer from it and also their closest family environment. In the present work, we proposed to develop a novel framework for the detection of possible traits of addiction to video games focused on a group of users inside the Reddit social network. We extracted about 987 posts written by English-speaking users with the purpose of analyzing and processing the text obtained to generate six text models using BoW, TF-IDF, Word2vec, Empath, Emolex and BERT. Those models were also evaluated and tested using four supervised classification algorithms: Logistic Regression, KNN, Decision Tree and AdaBoost. The results obtained showed that it is possible to effectively identify video game addiction traits in a group of users at risk using Word2vec by generating word embeddings over a previously trained dataset.
Descripción: En los últimos años, una gran cantidad de estudios se han centrado en la identificación de una amplia gama de enfermedades mentales mediante el uso y la aplicación de minería de datos, análisis de datos y aprendizaje automático. Actualmente, la adicción a los videojuegos se considera un problema mundial que se ha vuelto cada vez más frecuente y que afecta directamente la calidad de vida de las personas que la padecen y también a su entorno familiar más cercano. En el presente trabajo, nos propusimos desarrollar un marco novedoso para la detección de posibles rasgos de adicción a los videojuegos enfocado en un grupo de usuarios dentro de la red social Reddit. Para ello se extrajeron alrededor de 987 publicaciones escritas por usuarios de habla inglesa con el fin de analizar y procesar el texto obtenido para generar seis modelos de texto utilizando BoW, TF-IDF, Word2vec, Empath, Emolex y BERT. Esos modelos también fueron evaluados y probados usando cuatro algoritmos de clasificación supervisados: Logistic Regression, KNN, Decision Tree y AdaBoost. Los resultados obtenidos demostraron que es posible identificar efectivamente los rasgos de adicción a los videojuegos en un grupo de usuarios en riesgo usando Word2vec mediante la generación de word embeddings, utilizando un conjunto de datos previamente entrenado.2023-08-30T00:00:00ZImplementación de un prototipo de sensado para el proceso de administración de basura utilizando LoRaWAN en el contexto de ciudades inteligentes.Echeverría Amores, Katherine Jeannethhttp://bibdigital.epn.edu.ec/handle/15000/248372023-09-13T22:25:35Z2023-09-01T00:00:00ZTítulo: Implementación de un prototipo de sensado para el proceso de administración de basura utilizando LoRaWAN en el contexto de ciudades inteligentes.
Autor: Echeverría Amores, Katherine Jeanneth
Director: Sinche Maita, Soraya Lucía
Resumen: Garbage management issues in the context of smart cities are a major concern. Although smart cities are designed to improve the quality of life for residents by integrating advanced technology and systems, they also present challenges related to waste management. The objective of this degree work is to implement a sensing prototype for the garbage management process using LoRaWAN in the context of smart cities. The development of the prototype includes four stages. In the first stage, the configuration of the Arduino LoRaWAN module is carried out so that it receives the distance values sent by the ultrasound sensor. The second stage is the establishment of LoRaWAN communication between the Arduino module and The Things Network cloud through the RAK 7243 Gateway, which is configured as a public gateway. In the third stage of the development of the prototype, the configurations are made in The Things Stack for the registration of the Gateway and the application, as well as the integration with a dashboard to present the data sent. Finally, the data is presented, collected in real time, through the Things Board platform.
Descripción: Los problemas de basura en el contexto de las ciudades inteligentes son una preocupación importante. Aunque las ciudades inteligentes están diseñadas para mejorar la calidad de vida de los residentes al integrar tecnología y sistemas avanzados, también presentan desafíos relacionados con la gestión de residuos. El presente trabajo de titulación tiene como objetivo implementar un prototipo de sensado para el proceso de administración de basura utilizando LoRaWAN en el contexto de ciudades inteligentes. El desarrollo del prototipo incluye cuatro etapas. En la primera etapa se realiza la configuración del módulo de Arduino LoRaWAN para que reciba los valores de distancia enviados por el sensor de ultrasonido. La segunda etapa se realiza el establecimiento de la comunicación LoRaWAN entre el módulo de Arduino y la nube de The Things Network mediante el Gateway RAK 7243, que se encuentra configurado como una puerta de enlace pública. En la tercera etapa del desarrollo del prototipo se realizan las configuraciones en The Things Stack para el registro del Gateway y de la aplicación, así como la integración con un dashboard para presentar los datos enviados. Finalmente, se presentan los datos, recopilados en tiempo real, mediante la plataforma Things Board.2023-09-01T00:00:00ZElaboración de un sistema para diferenciación de tasas de interés ajustadas al nivel de riesgo.Tuquerrez Calle, Willan Isaachttp://bibdigital.epn.edu.ec/handle/15000/247672023-08-22T00:11:02Z2023-06-01T00:00:00ZTítulo: Elaboración de un sistema para diferenciación de tasas de interés ajustadas al nivel de riesgo.
Autor: Tuquerrez Calle, Willan Isaac
Director: Hallo Carrasco, María Asunción
Resumen: The purpose of this project is the development and implementation of a system that allows adjusting the interest rates of consumer loans in Ecuador. The goal is to increase accessibility to loans for customers of financial institutions and the possibility of optimizing the individual risk inherent to each customer. The project focuses on the construction of an interest rate differentiation model. For the implementation of this model, the credit risk management methodologies used by internationally renowned banking institutions such as BBVA in Spain are taken as a reference. The chosen development platform is C#, a widely adopted programming language in the financial sector, and MSSQL, a highly popular database management tool globally. Additionally, interoperability with Python, a celebrated programming language for data analysis and manipulation, is implemented. The result is a sophisticated model for adjusting interest rates that varies based on the level of risk. It is expected that the implementation of this model will have a considerable impact on financial decision-making and provide a deeper understanding of borrower behavior. It is anticipated that this model will serve as a prototype in financial institutions, allowing for the optimization of risk management in the rate allocation processes for several types of loans. With the interest rate differentiation model, the aim is to generate additional and significant value in the country's financial sector.
Descripción: El propósito de este proyecto es el desarrollo e implementación de un sistema que permita ajustar las tasas de interés de los préstamos de consumo en Ecuador. Se plantea un incremento de la accesibilidad a los préstamos por parte de los clientes de instituciones financieras y la posibilidad de optimizar el riesgo individual inherente a cada cliente. El proyecto se enfoca en la construcción de un modelo de diferenciación de tasas de interés, para la implementación de dicho modelo, se toma como referencia las metodologías de gestión de riesgo crediticio empleadas por instituciones bancarias de renombre internacional, como el banco BBVA de España. La plataforma de desarrollo elegida es C#, lenguaje de programación ampliamente adoptado en el sector financiero, y MSSQL, una herramienta de gestión de bases de datos muy popular a nivel global. Adicionalmente, se implementa la interoperabilidad con Python, un lenguaje de programación célebre para el análisis y manipulación de datos. El resultado final es un modelo de ajuste de tasas de interés que varía en función del nivel de riesgo. Se espera que la implementación de este modelo tenga un impacto considerable en la toma de decisiones financieras y que proporcione un entendimiento más profundo del comportamiento de los prestatarios. Se espera que este modelo sirva como un prototipo en las instituciones financieras, permitiendo optimizar la gestión de riesgos en los procesos de asignación de tasas para diferentes tipos de préstamos. Con el modelo de diferenciación de tasas de interés, se aspira a generar un valor adicional y significativo en el sector financiero del país.2023-06-01T00:00:00ZConstrucción de un dataset de eventos de conducción utilizando modelos de generación de datos sintéticos mediante Generative Adversarial Networks (GAN).Tamayo Urgilés, Diego Armandohttp://bibdigital.epn.edu.ec/handle/15000/247662023-08-21T20:58:49Z2023-08-01T00:00:00ZTítulo: Construcción de un dataset de eventos de conducción utilizando modelos de generación de datos sintéticos mediante Generative Adversarial Networks (GAN).
Autor: Tamayo Urgilés, Diego Armando
Director: Álvarez Hernández, Myriam Beatriz
Resumen: The development of solutions to reduce traffic accidents in vehicles requires a lot of experimentation and, therefore, a large amount of data. However, due to data confidentiality issues, few free datasets are available in this area, so it is necessary to build datasets that contain several attributes and can be of general use in this field. Given this reality, this project uses the TimeGAN framework for synthetic data generation. TimeGAN is configured in this thesis work with four recurrent neural networks, which obtain a spatial and temporal distribution that seeks to approximate the real data. The synthetic data generated can replace or complement the real data in different scenarios, with the advantage that the synthetic data can be shared without the risk of exposing confidential information of persons or entities associated with these data. The synthetic data will serve to complete the information of an initial dataset built with driving data obtained from heterogeneous sources. In order to evaluate the results of synthetic data generation, qualitative and quantitative methods will be used to establish the usefulness of the data. The synthetic data dataset constructed will then be used in processes of classification of driving events that present a higher risk of causing traffic accidents.
Descripción: El desarrollo de soluciones que disminuyan los accidentes de tránsito en vehículos requiere de mucha experimentación y, por tanto, gran cantidad de datos. Sin embargo, por temas de confidencialidad de los datos, pocos datasets gratuitos se encuentran disponibles en esta área, por lo que se requiere construir datasets que contengan varios atributos y puedan ser de utilidad general dentro de este campo. Ante esta realidad, en este proyecto se utiliza el framework TimeGAN para la generación de datos sintéticos. TimeGAN se configura en este trabajo de tesis con cuatro redes neuronales recurrentes, las cuales obtienen una distribución espacial y temporal que busca aproximarse a la que tienen los datos reales. Los datos sintéticos generados pueden reemplazar o complementar a los datos reales en distintos escenarios, con la ventaja de que los datos sintéticos pueden ser compartidos sin riesgo de que se pueda exponer información confidencial de las personas o entidades asociadas a estos datos. Los datos sintéticos servirán para completar la información de un dataset inicial construido con datos de conducción obtenidos de fuentes heterogéneas. A fin de evaluar los resultados en la generación de datos sintéticos, se utilizarán métodos cualitativos y cuantitativos que permitan establecer la utilidad de los mismos. El dataset de datos sintéticos construido luego se utilizará en procesos de clasificación de eventos de conducción que presenten mayor riesgo de provocar accidentes de tránsito.2023-08-01T00:00:00ZModelo de estimación del impacto de los titulares de noticias publicadas en Facebook en la audiencia ecuatoriana basado en minería de texto.Lema Vinlasaca, Roberto Carloshttp://bibdigital.epn.edu.ec/handle/15000/247612023-08-15T18:58:52Z2023-07-01T00:00:00ZTítulo: Modelo de estimación del impacto de los titulares de noticias publicadas en Facebook en la audiencia ecuatoriana basado en minería de texto.
Autor: Lema Vinlasaca, Roberto Carlos
Resumen: The emergence of social networks and their public access have allowed the criteria issued by groups or organizations to be received and interpreted by different types of audiences, which may affect their perception of reality. Depending on the interest, ethics and professionalism of the author, the message can have an impact on the social environment by redefining facts, truths, or beliefs and even more if it is about news of social interest. In this work, a supervised machine learning model is proposed to analyze and identify the sentiment transmitted in the news headlines published on Facebook by the main Ecuadorian newspapers, as well as their corresponding articles, and then estimate their impact on the local audience. The results show that the main newspapers in Ecuador meet the principle of neutrality in the publication of headlines on Facebook. However, their articles express defined positive and negative sentiments, which results in the fact that the contextualization of the words used in the publication influences the sentiments that it transmits due to the different meanings that these words may have.
Descripción: El surgimiento de las redes sociales y su acceso público ha permitido que los criterios emitidos por grupos u organizaciones sean recibidos e interpretados por diferentes tipos de audiencias, lo que puede afectar su percepción de la realidad. Dependiendo del interés, ética y profesionalismo del autor, el mensaje puede tener un impacto en el entorno social al redefinir hechos, verdades o creencias y más aún si se trata de noticias de interés social. En este trabajo se propone un modelo de aprendizaje automático supervisado para analizar e identificar el sentimiento transmitido tanto en los titulares de noticias publicados en Facebook por los principales diarios ecuatorianos, como en sus correspondientes artículos y luego, estimar su impacto sobre la audiencia local. Los resultados muestran que los principales diarios del Ecuador mantienen el principio de neutralidad en la publicación de los titulares en Facebook a diferencia de sus artículos. Los artículos expresan sentimientos positivos y negativos definidos. Este comportamiento evidencia que la contextualización de las palabras utilizadas en la publicación influye en el sentimiento que transmite dado los diversos significados que estos puedan tener.2023-07-01T00:00:00ZUn marco de minería de datos para modelar las dinámicas de interacción entre las fincas y el entorno: modelado de rendimientos de cultivos en Ecuador.Belmont Guerrón, Philippe Paúlhttp://bibdigital.epn.edu.ec/handle/15000/247602023-08-15T18:45:20Z2023-06-01T00:00:00ZTítulo: Un marco de minería de datos para modelar las dinámicas de interacción entre las fincas y el entorno: modelado de rendimientos de cultivos en Ecuador.
Autor: Belmont Guerrón, Philippe Paúl
Resumen: This work proposes a framework that addresses the limitations of current agricultural statis tics to develop yield prediction models. Currently, agricultural statistics at farm levels do not allow their integration and use together with market information, climatic variables and field management practices. This work, to date, represents a novel effort to solve this problem. This integration of information is crucial for understanding the dynamic interactions between production units and socio-ecosystems that impact agricultural yields. The thesis includes a study of data integration and its applications, including the construction of cross sectional databases, modeling of greenhouse gas emissions, and non-agricultural income prediction models. Additionally, a novel crop yield model was built, called a Crop Sequence Transformer, which integrates intermediate results to enhance the accuracy of yield estimation. Overall, this work contributes to the development of more comprehensive and accurate agricultural information systems, which can benefit farmers, policymakers, and other stakeholders in the agriculture industry.
Descripción: Esta tesis propone un marco de trabajo que permite desarrollar modelos de predicción de rendimiento de cultivos, solventando las limitaciones de las actuales bases de datos agrícolas nacionales. Actualmente, las estadísticas agrícolas a nivel de unidades de producción están limitadas en su integración con la información de mercado, las variables climáticas y las prácticas de gestión del campo, por lo que este trabajo, hasta la fecha, representa un esfuerzo novedoso para resolver este problema. Esta integración de información es crucial para entender las interacciones dinámicas entre las unidades de producción y los socio-ecosistemas que impactan en los rendimientos agrícolas. La tesis incluye mecanismos de integración de datos agrícolas y sus aplicaciones, con una tentativa de construcción de bases de datos transversales, la modelización de emisiones de gases de efecto invernadero y el desarrollo de un modelo de predicción de ingresos no agrícolas. Además, se construyó un modelo novedoso de rendimiento de cultivos, denominado Transformar para Secuencias de cultivos, que integra resultados intermedios para mejorar la precisión de la estimación del rendimiento. En conjunto, este trabajo contribuye al desarrollo de sistemas de información agraria con bases de datos más completas y precisas, que pueden beneficiar a los agricultores, responsables políticos y otras partes interesadas del sector agrario.2023-06-01T00:00:00ZBarreras y motivadores para la incursión en la transformación digital empresarial en el Ecuador.Maldonado Palomeque, Marco Patriciohttp://bibdigital.epn.edu.ec/handle/15000/247582023-08-14T14:06:20Z2023-01-01T00:00:00ZTítulo: Barreras y motivadores para la incursión en la transformación digital empresarial en el Ecuador.
Autor: Maldonado Palomeque, Marco Patricio
Resumen: Digital Transformation (TD) is a component where people, processes and information technologies promote development focused on competitiveness, cost optimization and above all efficient decision making. Currently, TD has become a challenge for the industry in Ecuador, since its use will allow them to sustain themselves in the internal and external markets, where they can establish solid foundations for the proper execution of TD without imperatives, considering a framework corporate in accordance with strategic planning and the use of it to minimize the gap, not only in technology, but also in knowledge between developed and developing countries. The objective of this degree work is to determine the institutional barriers and motivators for the adoption of TD in companies in Ecuador, through the information obtained in interviews with the main governmental and non-governmental companies of various industries (energy, food and beverages, oil, water supply and cement). For this, semi-structured interviews were carried out with representatives of several companies where questions related to determining participation in TD were addressed, through a participatory dialogue, complemented by the analysis of documents and other sources of information and studies. Next, the responses of 11 interviewees within 10 selected leading companies in the Ecuadorian market were analyzed, obtaining their current perspective of each one in the management of TD under a neo-institutional analysis. The results of this research will be the starting point for companies to accelerate their adoption of TD, since there is no similar study and they show the lack of organizational structure, full knowledge of how to reach an effective TD and high-level involvement level to determine policies that promote this development.
Descripción: La Transformación Digital (TD) es un componente donde las personas, los procesos y las tecnologías de la información promueven el desarrollo enfocado en la competitividad, optimización de costos y sobre todo la toma eficiente de decisiones. Actualmente, la TD se ha convertido en un desafío para la industria en el Ecuador, ya que su uso permitirá sostener a las mismas en el mercado interno y externo, donde establecer bases sólidas para la ejecución adecuada de la TD sin imperiosas, considerando un marco corporativo acorde con la planeación estratégica y el aprovechamiento de esta para minimizar la brecha, no solo de tecnologías, sino también de conocimientos entre países desarrollados y países en vías de desarrollo. El presente trabajo de titulación tiene como objetivo determinar las barreras y motivadores institucionales para la adopción de la TD en empresas del Ecuador, a través de la información obtenida en entrevistas realizadas a las principales compañías gubernamentales y no gubernamentales de varias industrias (energía, alimentos y bebidas, petróleo, suministro de agua y cementos). Para ello se realizaron entrevistas semiestructuradas con representantes de varias empresas donde se abordaron preguntas ligadas a determinar la participación en la TD, mediante un dialogo participativo, complementando con el análisis de documentos y otras fuentes de información y estudios.2023-01-01T00:00:00ZPropuesta de un método de preservación de privacidad para la aplicación de inteligencia de fuentes abiertas (OSINT) durante investigaciones digitales forenses.Guevara Camas, Jhonny Javierhttp://bibdigital.epn.edu.ec/handle/15000/247512023-08-10T14:38:53Z2023-06-01T00:00:00ZTítulo: Propuesta de un método de preservación de privacidad para la aplicación de inteligencia de fuentes abiertas (OSINT) durante investigaciones digitales forenses.
Autor: Guevara Camas, Jhonny Javier
Resumen: This work proposes a privacy preservation method for the application of open-source intelligence
(OSINT) during digital forensic investigations. For the design of the method, a mapping of phases of a
forensic investigation, privacy principles, generic ethical principles given by PRECEPT and the phases of
the osint cycle were carried out, from this, privacy requirements were defined together with references to
articles of the LOPD (Organic Law on Data Protection). The phases of acquisition, collection and
preservation were particularly considered. Subsequently, the method was put into practice through a web
crawler using design security techniques, access control methods and security controls. The evaluation of
the method was carried out through a case study where functionality, performance and resilience were
evaluated. Functional evaluation, the effectiveness of the guidelines and privacy requirements of the
method during searches with the crawler versus a conventional browser was demonstrated. In terms of
performance, resource consumption was evidenced by three scenarios with different load where memory
was the most consumed. With regard to resilience, a threat modeling based on the adversary and another
with Microsoft Threat Modeling Tool was performed, on these threats, risk was managed through
controls of the proposed method and critical operating requirements were defined. Finally, attack
scenarios were executed where the system showed resilience according to the expected results in each
scenario.
Descripción: El presente trabajo propone un método de preservación de privacidad para la aplicación de inteligencia de
fuentes abiertas (osint) durante investigaciones digitales forenses. Para el diseño del método se realizó un
mapeo de las fases de una investigación forense, principios de privacidad, principios genéricos éticos
dados por PRECEPT y las fases del ciclo osint, a partir de esto se definieron requerimientos de privacidad
junto a referencias a artículos de la LOPD (Ley orgánica de protección de datos). Se abordan de manera
particular las fases de adquisición, recolección y preservación. Posteriormente el método fue
implementado de manera practica mediante un crawler web utilizando técnicas de seguridad por diseño,
métodos de control de acceso y controles de seguridad. La evaluación del método se llevó a cabo
mediante un caso de estudio en donde se evaluó funcionalidad, desempeño y resiliencia. En la evaluación
funcional se demostró la efectividad de los lineamientos y requerimientos de privacidad dados por
método durante las búsquedas con el crawler versus un navegador convencional. En cuanto a desempeño
se evidenció el consumo de recursos mediante tres escenarios con diferente carga en donde la memoria
resulto ser el más consumido. Con respecto a resiliencia se realizó un modelado de amenazas basado en el
adversario y otro con Microsoft Threat Modelling Tool, sobre estas amenazas se gestionó el riesgo
mediante controles del método propuesto y se definió requerimientos críticos de operación. Finalmente se
ejecutaron escenarios de ataque donde el sistema mostro resiliencia acorde a los resultados esperados en
cada escenario.2023-06-01T00:00:00ZDesarrollo de sistema basado en minería de datos para la búsqueda y visualización de redes de investigadores con filiación en instituciones ecuatorianas y sus areas académicas.Arias Túqueres, Josué Nicoláshttp://bibdigital.epn.edu.ec/handle/15000/247492023-08-09T20:52:14Z2023-06-01T00:00:00ZTítulo: Desarrollo de sistema basado en minería de datos para la búsqueda y visualización de redes de investigadores con filiación en instituciones ecuatorianas y sus areas académicas.
Autor: Arias Túqueres, Josué Nicolás
Resumen: The quality of scientific research is based on collaboration among experts. In Ecuador, an increase in scientific production has been observed, which has generated the need for an efficient computer tool to form networks, search for collaborators, and analyze research topics. In response to this, a web application has been developed that utilizes data mining models for searching and visualizing networks of researchers affiliated with Ecuadorian institutions and their academic areas. The project was implemented following Scrum and CRISP-DM methodologies. To carry out the entire data mining process, a series of Python scripts were developed. The data was extracted from Scopus through the set of APIs offered by Elsevier. The generated models were TF-IDF, which were employed to obtain the best results in the searches performed within the application. The architecture of the application consists of three layers: the Neo4j graph-oriented database as the data layer, Flask as the backend that houses the business logic, and Angular as the frontend, utilizing important libraries such as Bootstrap for design and D3.js for creating dynamic and interactive graphs. Ultimately, as the final product, the application offers three types of search: author search, relevant authors search by topic, and relevant articles search by topic.
Descripción: La calidad de las investigaciones científicas se basa en la colaboración entre expertos. En Ecuador, se ha observado un aumento en la producción científica, lo cual ha generado la necesidad de una herramienta informática eficiente para formar redes, buscar colaboradores y analizar temas de investigación. En respuesta a esto, se ha desarrollado una aplicación web que utiliza modelos de minería de datos para la búsqueda y visualización de redes de investigadores afiliados a instituciones ecuatorianas y sus áreas académicas. El proyecto se implementó siguiendo las metodologías Scrum y CRISP-DM. Para llevar a cabo todo el proceso de minería de datos se desarrolló una serie de scripts en Python. Los datos fueron extraídos de Scopus a través del conjunto de APIs que ofrece Elsevier. Los modelos generados fueron TF-IDF, los cuales se emplearon para obtener los mejores resultados en las búsquedas realizadas en la aplicación. La arquitectura de la aplicación consta de tres capas: la base datos orientada a grafos Neo4j; el backend, desarrollado con Flask que contiene la lógica del negocio; y el frontend, que fue desarrollado en Angular, haciendo uso de algunas librerías importantes como Bootstrap para el diseño y D3.js para la creación de gráficos dinámicos e interactivos. Finalmente, como producto final la aplicación ofrece tres tipos de búsqueda: búsqueda de autor, búsqueda de autores relevantes por tópico y búsqueda de artículos relevantes por tópico.2023-06-01T00:00:00ZDiseño de prototipo iot basado en la placa nodemcu esp32 para controlar y medir el distanciamiento social en la fis-epn.Flores Asimbaya, Cristian Segundohttp://bibdigital.epn.edu.ec/handle/15000/247482023-08-09T20:46:28Z2023-03-01T00:00:00ZTítulo: Diseño de prototipo iot basado en la placa nodemcu esp32 para controlar y medir el distanciamiento social en la fis-epn.
Autor: Flores Asimbaya, Cristian Segundo
Resumen: The COVID-19 pandemic has presented a global challenge for humanity, and social distancing has become the primary preventive measure to avoid virus spread. In this work, we propose the design of an IoT prototype solution to control and measure social distancing at the Faculty of Systems Engineering at the Escuela Politécnica Nacional. The prototype utilizes IoT devices that measure the distance between them using RSSI signals and alert users with a sound alarm when they get closer than 1.5 meters. The collected data is sent to a database, which can be viewed through a web portal so that users can see their contact record. The Scrum project developer was used to develop the solution, which allowed mitigating unexpected changes in the design of the IoT prototype. The solution was successfully tested with unit tests using the jest.js framework, as well as top-down and down-top integration tests. A system usability survey was carried out, which obtained a score of 85/100, indicating that the vast majority of users find the prototype solution useful and easy to use. In future works, miniaturization processes could be carried out to reduce energy expenditure and construction costs. The implementation of noise reduction algorithms is also recommended to refine the process of calculating distances between devices and improve the accuracy and reliability of the solution.
Descripción: La pandemia del COVID-19 ha presentado un desafío global para la humanidad, y el aislamiento social se ha considerado en la principal medida preventiva para evitar la propagación del virus. En este trabajo, se propone el diseño de un prototipo de solución IoT para controlar y medir el distanciamiento social en la Facultad de Ingeniería de Sistemas de la Escuela Politécnica Nacional. El prototipo utiliza dispositivos IoT que miden la distancia entre ellos mediante la señal RSSI y alertan a los usuarios con una alarma sonora cuando se acercan a menos de 1.5 metros. Los datos obtenidos se envían a una base de datos, que se puede visualizar por medio de un portal web con la finalidad de que los usuarios puedan ver sus registros de contacto. Se utilizó el desarrollador de proyectos trabajo Scrum para el desarrollo de la solución, lo que permitió mitigar los cambios inesperados en el diseño del prototipo IoT. La solución se probó con éxito con pruebas unitarias usando el marco de trabajo jest.js, así como con pruebas de integración top-down y down-top. Se realizó una encuesta de usabilidad del sistema, que obtuvo una puntuación de 85/100, lo que indica que la gran mayoría de los usuarios encuentra útil y fácil de usar la solución prototipo. En futuros trabajos, se podrían realizar miniaturización e implementación de algoritmos de reducción de ruido para reducir el gasto de energía, costos de construcción y refinar el cálculo de distancias entre dispositivos.2023-03-01T00:00:00ZMigración de una aplicación monolítica web de streaming musical hacia una arquitectura de microservicios.Cevallos Caiza, Francisco JosueRuiz Gómez, Franklin Andréshttp://bibdigital.epn.edu.ec/handle/15000/247472023-08-09T20:39:17Z2023-05-01T00:00:00ZTítulo: Migración de una aplicación monolítica web de streaming musical hacia una arquitectura de microservicios.
Autor: Cevallos Caiza, Francisco Josue; Ruiz Gómez, Franklin Andrés
Resumen: The objective of this research work is to migrate a web monolithic music streaming application to a microservices architecture, under the MOMMIV (Versatile Microservices Migration Model) model, which guided this process through its respective phases; and will demonstrate the feasibility of this model for carrying out a migration. To achieve this, the Information Hiding Principle was used in the decomposition of the monolithic application into microservices, allowing the separation of different functionalities into smaller, independent and specialized components. In addition, the Scrum framework was employed for the development of the microservices, allowing for agile project management and better communication among the development team. Version control and deployment were carried out using the Azure DevOps tool, allowing for centralized and efficient management of the entire migration process. Functional and non-functional testing was an important aspect of the migration process and was successfully carried out, ensuring the quality and proper functioning of the microservices. As a result, this thesis describes a successful migration process from a monolithic application to a microservices architecture, using a systematic approach focused on the quality of the resulting system. The obtained results indicate that the migration to microservices can be an effective solution to improve the scalability, availability, and maintainability of complex web systems like music streamin.
Descripción: El objetivo de este trabajo de investigación es migrar una aplicación monolítica web de streaming musical hacia una arquitectura de microservicios, bajo el modelo MOMMIV (Modelo de Migración a Microservicios Versátil), el cuál guio este proceso mediante sus respectivas fases; y permitirá demostrar la factibilidad de dicho modelo para llevar a cabo una migración. Para lograr esto, se utilizó el Principio de Ocultación de la Información en la descomposición del aplicativo monolítico en microservicios, lo que permitió separar las diferentes funcionalidades en componentes más pequeños, independientes y especializados. Además, se empleó el marco de trabajo Scrum para el desarrollo de los microservicios, lo que permitió una gestión ágil del proyecto y una mejor comunicación entre el equipo de desarrollo. El control de versiones y el despliegue se realizaron utilizando la herramienta Azure DevOps, lo que permitió una gestión centralizada y eficiente de todo el proceso de migración. La ejecución de pruebas funcionales y no funcionales fue un aspecto importante del proceso de migración y se llevaron a cabo satisfactoriamente garantizando la calidad y el correcto funcionamiento de los microservicios. Como resultado, esta tesis describe un proceso de migración exitoso de una aplicación monolítica a una arquitectura de microservicios, utilizando un enfoque sistemático y enfocado en la calidad del sistema resultante. Los resultados obtenidos indican que la migración a microservicios puede ser una solución efectiva para mejorar la escalabilidad, la disponibilidad y la mantenibilidad de sistemas web complejos como el de streaming musical.2023-05-01T00:00:00ZDesarrollo de un chatbot para agendamiento de citas por servicios profesionales usando interfaces conversacionales.López Mejía, Alisson Monserrattehttp://bibdigital.epn.edu.ec/handle/15000/247462023-08-09T20:30:10Z2023-07-01T00:00:00ZTítulo: Desarrollo de un chatbot para agendamiento de citas por servicios profesionales usando interfaces conversacionales.
Autor: López Mejía, Alisson Monserratte
Resumen: The main process of scheduling an appointment involves verifying availability on the calendar. The process begins when the operator checks the available slots, and then the customer selects a slot and confirms the day and time for the appointment. This process takes too long. The proposed solution involves using a chatbot available on Facebook Messenger and WhatsApp platforms, which is available 24/7, 365 days a year, to enhance customer service. The chatbot can be customized according to the company's needs. The backend is developed using the NestJS framework and allows appointments to be directly scheduled on the calendar through the Google Calendar API. Dialogflow handles all the matching logic with keywords and requests the backend to respond to specific intents through the webhook. The web application enables customization of the chatbot's information, and the frontend is built using the Angular framework. The project utilized the SCRUM framework, enabling measurement and distribution of work based on the weight and priority of each user story. To verify the quality of development, the MARS methodology was employed, resulting in a functionality score of 4.35/5."
Descripción: El proceso de agendamiento de citas depende mucho de consultar tanto la disponibilidad del cliente como la disponibilidad del servicio, normalmente un operador humano, inicia el proceso verificando las vacantes existentes para registrar un servicio, mientras que el usuario determina qué vacante es mejor, el tiempo que tarda en realizar el proceso de agendamiento de citas es considerable. El presente trabajo, presenta una solución que consiste en utilizar un chatbot el cual puede ser accedido mediante varias plataformas como WhatsApp y Facebook Messenger teniendo como principal característica la disponibilidad durante las 24 horas del día, los 365 días del año, mejorando la atención al cliente además el chatbot puede ser customizado dependiendo del giro de negocio de la empresa. La solución propuesta presenta un backend desarrollado con el framework NestJS que permite agendar las citas directamente al calendario mediante la API de Google Calendar, el backend responde según el intent que se requiera, para esto Dialogflow realizar toda la lógica de coincidencia con la palabra clave y solicita al backend la respuesta de un intent específico a través del webhook. Finalmente, para customizar la información que presenta el chatbot se desarrolló una aplicación web administrativa, desarrollada con el framework Angular para modificar la información que presenta el chatbot. El marco de trabajo utilizado en este proyecto es SCRUM permitiendo obtener una medición y distribución del trabajo basado en peso y prioridad de cada historia de usuario. Para verificar la calidad del desarrollo, se utilizó la metodología MARS, obteniendo 4.35/5 en el apartado de funcionalidad.2023-07-01T00:00:00ZCreación de un prototipo de sistema de one-time password (otp) para un sistema de autenticación de dos factores: implementación de un prototipo de sistema generador otp basado en hotp y envió por correo electrónico.Pillajo Anaguano, Hilton Bladimirhttp://bibdigital.epn.edu.ec/handle/15000/245252023-08-08T18:05:32Z2023-02-01T00:00:00ZTítulo: Creación de un prototipo de sistema de one-time password (otp) para un sistema de autenticación de dos factores: implementación de un prototipo de sistema generador otp basado en hotp y envió por correo electrónico.
Autor: Pillajo Anaguano, Hilton Bladimir
Resumen: This project proposes the creation of a prototype that uses one-time password (OTP) in a two-factor authentication system. A systematic study of the literature was carried out in order to know the different OTP protocols that exist, as well as their main advantages and disadvantages. With this previous study, the OTP protocol to be used was selected, as well as the different methods of delivering the OTP to the user. Next, the development phase began by first defining the requirements needed to meet the objectives of this work, then a high-level mockup was made and the necessary tools and frameworks were selected to complete the prototype (e.g. programming languages, database manager, agile methodologies for software development, among others). And finally, functional tests were performed in order to evaluate the performance of the developed prototype, detailing the criteria with which the tests were performed. It is worth specifying that the selection criteria used to carry out these evaluations focused mainly on discerning the delivery method preferred by the end users.
Descripción: El presente proyecto propone la creación de un prototipo que utilice one-time password (OTP) en un sistema de autenticación de dos factores. Se realizó un estudio sistemático de la literatura, con el objetivo de conocer los diferentes protocolos de OTP que existen, así como sus principales ventajas y desventajas. Con este estudio previo se seleccionó el protocolo de OTP a utilizarse, como también se definio los diferentes métodos de entrega del OTP al usuario. A continuación, se inició la fase desarrollo definiendo en primer lugar los requerimientos necesarios para cumplir los objetivos del presente trabajo, posteriormente se realizó un mockup de alto nivel y se seleccionaron las herramientas y frameworks necesarios para completar el prototipo (e.g. lenguajes de programación, gestor de base de datos, metodologías agiles para desarrollo de software, entre otros). Y finalmente, se realizaron pruebas de funcionamiento con el objetivo de evaluar el desempeño del prototipo desarrollado, detallando los criterios con los cuales se realizaron las pruebas. Cabe especificar que el criterio de selección de individuos que se utilizó para llevar a cabo estas evaluaciones se enfocaron principalmente en discernir cuál es el método de entrega preferido por los usuarios finales.2023-02-01T00:00:00ZReconocimiento del clima en imágenes utilizando aprendizaje profundo autosupervisado.Acuña Escobar, Diego Andréshttp://bibdigital.epn.edu.ec/handle/15000/245212023-08-08T17:21:04Z2023-05-01T00:00:00ZTítulo: Reconocimiento del clima en imágenes utilizando aprendizaje profundo autosupervisado.
Autor: Acuña Escobar, Diego Andrés
Resumen: Automatic weather recognition from digital images has important applications, such as: land and air traffic control, autonomous vehicles, road safety warnings, crop control, among others. Building deep learning models for weather recognition is a challenge for computer vision when it comes to extracting the deterministic characteristics of each type of weather. Therefore, several related works have proposed models based on binary classifiers, which allow mapping between positive and negative classes. These works have reported as main difficulties that the classes are not completely exclusive and the need for thousands or millions of labeled images for each class required for training deep learning models. To face several of the difficulties identified, in this research paper we propose to apply the concepts of "self-supervised deep learning". Self-supervised learning follows the traditional phases of deep learning and adds the stages of pre-training, transfer learning, and fine tuning. The pretraining stages are the ones that allow to reduce the number of labeled images required, while the later stages allow to generalize and improve the model. The Residual Learning Network Architecture, RESNET, has been selected for this work based on exhaustive research and several practical tests that allow to identify the benefits of using this architecture in the field of weather recognition. The proposed method was tested and adjusted to achieve metrics of 93% in detection rates.
Descripción: El reconocimiento automático del clima en imágenes digitales tiene importantes aplicaciones, tales como: control de tráfico terrestre y aéreo, vehículos autónomos, advertencias de seguridad vial, control de sembríos, entre otras. La construcción de modelos climáticos de aprendizaje profundo es un reto para la visión artificial a la hora de extraer las características determinísticas de cada tipo de clima. Por lo cual, varios trabajos relacionados han propuesto modelos basados en clasificadores binarios, que permiten catalogar entre clases positivas y negativas. Estos trabajos han reportado como principales dificultades que las clases no son completamente excluyentes y la necesidad de miles o millones de imágenes etiquetadas de cada clase para el entrenamiento supervisado de modelos de aprendizaje profundo. Para abordar varias de las dificultades identificadas, en este trabajo de investigación proponemos aplicar los conceptos de “aprendizaje profundo auto supervisado”. El aprendizaje auto supervisado sigue las fases tradicionales del aprendizaje profundo y adiciona las etapas de preentrenamiento, transfer learning, y fine tuning. Las etapas de preentrenamiento son las que permiten reducir la cantidad de imágenes etiquetadas requeridas, mientras que las etapas posteriores permiten generalizar y mejorar el modelo. La arquitectura de una red neuronal profunda de aprendizaje residual, RESNET por sus siglas en inglés, ha sido seleccionada para este trabajo basado en una investigación exhaustiva y varias pruebas prácticas que permitieron identificar los beneficios del uso de esta arquitectura en el campo del reconocimiento del clima. El método propuesto fue probado y ajustado hasta obtener métricas de desempeño del 93%.2023-05-01T00:00:00ZEvaluación experimental de la calidad de software utilizando la norma iso/iec 29110-5-1-2 con desarrolladores de software novatos.Zúñiga Ortiz, David Fabiánhttp://bibdigital.epn.edu.ec/handle/15000/245142023-08-08T16:03:13Z2023-06-01T00:00:00ZTítulo: Evaluación experimental de la calidad de software utilizando la norma iso/iec 29110-5-1-2 con desarrolladores de software novatos.
Autor: Zúñiga Ortiz, David Fabián
Resumen: In a highly competitive market, the quality of a software product is crucial as it allows the developer organization to have an advantage over other organizations. However, implementing quality standards represents a significant challenge for novice developers due to various factors such as lack of knowledge of the standards and lack of experience. Additionally, the limited resources of novice developer teams can also be an obstacle to implementing quality standards, thus limiting the growth of these teams. This study presents the results of an experiment carried out with six teams of novice software developers to explore the impact of implementing the standard ISO/IEC TR 29110-5-1-2:2011 on both the software process and product quality. In the experiment, three teams used this standard to guide developing a software product, while the other three did not. All teams used the same scope and requirements specification for the development of the product. The results of the experiment provide evidence that there is a positive impact on the quality of both process and product when ISO/IEC TR 29110 -5-1-2:2011 is implemented in novice developer environments. The software process quality assessment conducted identified the strengths and weaknesses of the process in question. The performance of the controlled teams was superior to the performance of the non-controlled teams. Likewise, the results of the product quality assessment indicate a marked difference between the controlled and non-controlled teams.
Descripción: En un mercado altamente competitivo, la calidad del producto final de software es crucial para las pequeñas entidades (VSEs), ya que les permite tener una ventaja competitiva frente a las demás. Sin embargo, implementar estándares de calidad representa un desafío significativo para las VSEs debido a varios factores, como el desconocimiento de los estándares de calidad y la falta de experiencia en su implementación. Además, el presupuesto y los recursos limitados de las VSEs, también pueden ser un obstáculo para implementar estándares de calidad, limitando así el crecimiento de estas pequeñas entidades. En este estudio se presentan los resultados obtenidos de una evaluación experimental llevada a cabo mediante la aplicación de la norma ISO/IEC 29110-5-1-2: 2011. En el experimento, tres equipos utilizaron esta norma como guía para el desarrollo de un producto de software, mientras que otros tres equipos no contaron con esta norma. Para el desarrollo del producto de software todos los equipos contaron con las mismas especificaciones y alcance. Los resultados obtenidos permiten analizar la efectividad de la norma en la mejora de los procesos de desarrollo de software. La evaluación de la calidad del proceso de software realizada identificó los puntos fuertes y débiles del proceso en cuestión. El rendimiento de los equipos controlados fue superior al de los equipos no controlados. Del mismo modo, los resultados de la evaluación de la calidad del producto indican una marcada diferencia entre los equipos controlados y los no controlados.2023-06-01T00:00:00ZInformatización de los procesos de inscripción y matriculación de alumnos en la escuela José León Torres mediante un enfoque bpm.Beltrán Venegas, Daniel Alexanderhttp://bibdigital.epn.edu.ec/handle/15000/245072023-08-08T15:09:49Z2022-01-01T00:00:00ZTítulo: Informatización de los procesos de inscripción y matriculación de alumnos en la escuela José León Torres mediante un enfoque bpm.
Autor: Beltrán Venegas, Daniel Alexander
Resumen: The document shown below is based on a data collection and a restructuring for the improvement and computerization of the registration and enrollment process of the Padre José León Torres School. For its development, a Business Process Manager (BPM) approach was used since the main objective of the project is to help the Institution that will be the object of our study to obtain the operating permits required by the Ministry of Education, as well as as well as to consolidate an internal process that allows to streamline the activities that to date are carried out manually and without any established order. In chapter one, the beginning of the project is identified, showing in detail the introduction, problems, goal setting, scope and a conceptual basis, establishing the current situation of the institution. In chapter two, based on the previous chapter, the methodology used (ISEA) and its application are clearly described; It also details the results to be achieved with the computerization and optimization of existing processes through BPM approaches and the bases for the first design, implementation and execution of the processes. The third chapter shows the results obtained in the evaluation, functionality and usability tests and the tests carried out on the processes. In chapter four, the conclusions and recommendations that are in accordance with what was stated in chapter one and supported by the content of the work in general are clearly and summarized.
Descripción: El documento que se muestra a continuación se basa en una recopilación de datos y una reestructuración para el mejoramiento y la informatización del proceso de inscripción y matriculación de la Escuela Padre José León Torres. Para el desarrollo del mismo se utilizó un enfoque de Business Process Manager (BPM) ya que el objetivo principal del proyecto es ayudar a la Institución que será objeto de nuestro estudio a la obtención de los permisos de funcionamientos requeridos por el Ministerio de Educación, así como también consolidar un proceso interno que permita agilizar las actividades que hasta la fecha se realizan de forma manual y sin ningún orden establecido. En el capítulo uno está identificado el inicio del proyecto, mostrando de forma detallada la introducción, problemática, planteamiento de objetivos, alcance y una base conceptual, estableciendo la situación actual de la institución. En el capítulo dos, con base en el capítulo anterior, se describe de forma clara la metodología utilizada (ISEA) y la aplicación de la misma; se detalla también los resultados que se quiere conseguir con la informatización y optimización de los procesos existentes mediante enfoques BPM y las bases para el primer diseño, implementación y ejecución de los procesos. En el tercer capítulo se muestra los resultados obtenidos en la evaluación, pruebas de funcionalidad y usabilidad y de los test realizados a los procesos. En el capítulo cuatro, se exponen de forma clara y resumida las conclusiones y recomendaciones que van de acuerdo con lo planteado en el capítulo uno y sustentado por el contenido del trabajo en general.2022-01-01T00:00:00ZDesarrollo de un prototipo de sistema para el análisis de opiniones basado en tweets. Caso de estudio: metro de Quito.Quilumba Toaquiza, Jorge LuisVillacis Navarrete, Kevin Joelhttp://bibdigital.epn.edu.ec/handle/15000/245062023-08-08T15:04:42Z2023-06-01T00:00:00ZTítulo: Desarrollo de un prototipo de sistema para el análisis de opiniones basado en tweets. Caso de estudio: metro de Quito.
Autor: Quilumba Toaquiza, Jorge Luis; Villacis Navarrete, Kevin Joel
Resumen: Twitter is a social media platform designed to share immediate information about various topics, including political, social, and national issues. This project aimed to analyze opinions on Quito's subway through the CRISP-DM methodology, which involved collecting tweets and processing the data to ensure information quality. The GSDMM model was then used for topic generation and identification of dominant topics, and a supervised learning model, SVM, was trained with Spanish data for sentiment analysis to determine tweet polarity. A dashboard was developed as a prototype for web development using Flask, Dash, and Python as the programming language. Pandas was used to structure the data, and Plotly was used to create graphics to be displayed on the dashboard. The analysis uses visual storytelling to easily display the most relevant topics, such as progress, budget, subway administration, and construction issues, to identify user viewpoints and polarity of feelings (positive and negative). The dashboard is divided according to the different periods of Quito's mayoralties between 2015 and 2023.
Descripción: Twitter es una red social cuyo enfoque es compartir información inmediata de distintos temas y posturas sobre asuntos políticos, sociales, problemáticas nacionales, entre otros. En ese sentido, el presente proyecto estuvo enfocado en realizar un análisis de opiniones sobre tweets relacionados al metro de Quito con base en la metodología CRISP-DM, que consistió en recopilar varios tweets y procesar los datos para garantizar la calidad de la información. Posteriormente, fue aplicado el modelo GSDMM para la generación de tópicos e identificación de los temas dominantes; esta fase implicó un previo análisis entre el GSDMM y el LDA, lo que permitió determinar que el primero genera mejores resultados en cuanto al manejo de texto no estructurado. Finalmente, se entrenó un modelo de aprendizaje supervisado, SVM, con datos en español, debido a que tuvo mejor score frente algoritmos como decision tree, naive bajes y logistic regression; de este modo, fue posible efectuar el análisis de sentimientos y determinar así la polaridad de los tweets. Para presentar los resultados de manera visual, se elaboró un dashboard como prototipo de desarrollo web mediante un framework, como Flask y Dash, y con Python como lenguaje de programación. Así mismo, el análisis tiene fundamentos de visual storytelling que permite mostrar fácilmente los temas más relevantes sobre el avance de la obra, presupuesto, administración del metro, algunos inconvenientes en la construcción, entre otros, lo que da paso a identificar el punto de vista de los usuarios y la polaridad de sentimientos: positivo y negativo.2023-06-01T00:00:00Z