DSpace Comunidad:http://bibdigital.epn.edu.ec/handle/15000/232162024-03-28T22:54:14Z2024-03-28T22:54:14ZAnálisis y comparación de la amenaza sísmica en el territorio fronterizo de Ecuador – Perú comparación : comparación edificación en amazonas zona 2 perú con edificación en Zamora Chinchipe zona ii Ecuador.Maiguashca Cueva, Victor Ivánhttp://bibdigital.epn.edu.ec/handle/15000/251522023-11-22T16:28:41Z2023-02-01T00:00:00ZTítulo: Análisis y comparación de la amenaza sísmica en el territorio fronterizo de Ecuador – Perú comparación : comparación edificación en amazonas zona 2 perú con edificación en Zamora Chinchipe zona ii Ecuador.
Autor: Maiguashca Cueva, Victor Iván
Director: Mafla Gallegos, Luis Enrique
Resumen: In this curricular integration work, the implementation of a data interconnection system for oversight of political campaign financing during election campaigns is carried out according to the provisions of the Democracy Code. The methodology of this work is structured in three phases: analysis, design, and prototype. In the analysis, the requirements of this system are obtained from laws and regulations. These requirements were organized into three layers: physical infrastructure, middleware, application. The design phase follows the same structure as the analysis and it presents the design of the physical infrastructure, the design of the middleware, and the design of the application. For the middleware and application design, the Hyperledger Fabric open-source software platform is used, which responds to the requirements obtained in the analysis phase through the use of distributed ledger technology and the use of blockchain. The prototype follows the same structure as the analysis and design, its implementation and tests are based on the Hyperledger Fabric test network, Fabric-Samples. The design, prototype, and testing carried out in this Curricular Integration Work demonstrate the feasibility of implementing a data interconnection system that ensures the integrity of electoral financing and spending, in accordance with current legal and regulatory requirements.
Descripción: En este Trabajo de Integración Curricular se realiza la implementación de un sistema de interconexión de datos para el control financiero a las organizaciones políticas durante las campañas electorales, de acuerdo a lo dispuesto en el Código de la Democracia. La metodología de este trabajo se estructura en tres fases: análisis, diseño y prototipo. En el análisis se obtienen los requerimientos de este sistema a partir de leyes y normativas. Dichos requerimientos fueron organizados en tres capas: infraestructura física, middleware, aplicación. La fase de diseño sigue la misma estructura del análisis y se presenta el diseño de la infraestructura física, el diseño de middleware y el diseño de la aplicación. Para el diseño del middleware y diseño de la aplicación se utiliza la plataforma de software libre Hyperledger Fabric que responde a los requerimientos obtenidos en la fase de análisis mediante el uso de tecnología de contabilidad distribuida y el uso de cadenas de bloques. El prototipo sigue la misma estructura del análisis y diseño, su implementación y pruebas están basadas en la red de prueba de Hyperledger Fabric, Fabric Samples. El diseño, prototipo y pruebas realizadas en el presente Trabajo de Integración Curricular, demuestran la factibilidad de implementar un Sistema de Interconexión de datos misma que asegura la integridad del financiamiento y gasto electoral, de acuerdo a los requerimientos legales y normativos vigentes.2023-02-01T00:00:00ZImplementación de computación en la nube en el laboratorio ADA de la facultad de sistemas para analítica de datos : diseño de una arquitectura en la nube para el laboratorio ada.Laje Barragán, Adrián Octaviohttp://bibdigital.epn.edu.ec/handle/15000/250942023-11-15T20:59:30Z2023-08-01T00:00:00ZTítulo: Implementación de computación en la nube en el laboratorio ADA de la facultad de sistemas para analítica de datos : diseño de una arquitectura en la nube para el laboratorio ada.
Autor: Laje Barragán, Adrián Octavio
Director: Martínez Mosquera, Silvia Diana
Resumen: In the curricular integration project, a cloud architecture was implemented at the hardware and operating system level on the high-performance server (Dell EMC PowerEdge R750) for the Data Analytics and Cybersecurity Laboratory - ADA LOVELACE of the National Polytechnic School using a descriptive methodology structured in three phases: requirements analysis using the IEEE 29148 standard, architecture design and implementation, and results evaluation. The specifications are based on the laboratory's needs, leading to the design of a SaaS model, a private architecture. The implementation involved configuring the server at the hardware and operating system levels based on the design. Once configured, Prometheus and Grafana monitoring tools were installed, ensuring continuous and detailed system performance monitoring. This document provides the ADA Laboratory with a cloud infrastructure to carry out activities and research in the field of data analysis. Among the challenges faced were the precise collection of requirements, the implementation of proposed solutions, and network configuration.
Descripción: En el trabajo de integracion curricular se implementó una arquitectura en la nube a nivel de hardware y de sistema operativo en el servidor de alto rendimiento (Dell EMC PowerEdge R750) para el Laboratorio de Analítica de Datos y Ciberseguridad - ADA LOVELACE de la Escuela Politécnica Nacional usando una metodología descriptiva, estructurada en tres fases: análisis de requerimientos usando la norma IEEE 29148, diseño de arquitectura y implementación, y evaluación de resultados. Las especificaciones se basan en las necesidades del laboratorio, llevando al diseño de un modelo SaaS, una arquitectura privada. En la implementación se realizó la configuración del servidor a nivel de hardware y sistema operativo basado en el diseño. Una vez configurado, se instaló herramientas de monitoreo Prometheus y Grafana, garantizando una supervisión continua y detallada del rendimiento del sistema. Este documento provee al Laboratorio ADA de una infraestructura en la nube para realizar actividades e investigaciones en el ámbito de análisis de datos. Entre los desafíos enfrentados estuvo la recolección precisa de requerimientos, la implementación de las soluciones propuestas y la configuración de la red.2023-08-01T00:00:00ZImplementación de computación en la nube en el laboratorio ADA de la Facultad de Sistemas para analítica de datos : implementación de un lago de datos en los servidores del laboratorio ADA.Chuga Portilla, Hernán Alexishttp://bibdigital.epn.edu.ec/handle/15000/250932023-11-15T20:54:21Z2023-08-01T00:00:00ZTítulo: Implementación de computación en la nube en el laboratorio ADA de la Facultad de Sistemas para analítica de datos : implementación de un lago de datos en los servidores del laboratorio ADA.
Autor: Chuga Portilla, Hernán Alexis
Director: Martínez Mosquera, Silvia Diana
Resumen: In this project, the process of designing and implementing a data lake with Hadoop was carried out in a cluster with one master node and four slave nodes using Docker containers. It began with an investigation and analysis of the requirements and objectives of the project, focusing on the importance of the architecture and its adaptation to the resources of the high-performance server of the ADA laboratory. To achieve a successful implementation, a previous experimentation with different configurations and tools was carried out, which allowed understanding the operation of Hadoop and Docker, as well as their interactions. The data lake architecture was designed, including the NameNode, ResourceManager and DataNodes coexisting in a single container with their NodeManagers to improve efficiency and resource utilization. The process of saving data in the data lake was carried out by executing data analysis scripts from the end users of the ADA laboratory, verifying the division into blocks and their replication in the DataNodes to guarantee fault tolerance and high availability. The operation of the internal network, the NameNode, the ResourceManager and the DataNodes was verified by accessing their web interfaces and verifying that all the containers were correctly connected. The project culminated in the successful implementation of a data lake, meeting the objectives and requirements set, and whose architecture was tested and validated by end users belonging to the ADA laboratory.
Descripción: En este proyecto, se llevó a cabo el proceso de diseño e implementación de un lago de datos con Hadoop en un clúster con un nodo maestro y cuatro nodos esclavos utilizando contenedores Docker. Se comenzó con una investigación y análisis de los requerimientos y objetivos del proyecto, centrándose en la importancia de la arquitectura y su adaptación a los recursos del servidor de altas prestaciones del laboratorio ADA. Para lograr una implementación exitosa, se realizó una experimentación previa con diferentes configuraciones y herramientas, lo que permitió entender el funcionamiento de Hadoop y Docker, así como sus interacciones. Se diseñó la arquitectura del lago de datos, incluyendo el NameNode, ResourceManager y los DataNodes coexistiendo en un solo contenedor con sus NodeManagers para mejorar la eficiencia y la utilización de recursos. El proceso de guardar datos en el lago de datos se realizó mediante la ejecución de scripts de análisis de datos de los usuarios finales del laboratorio ADA, verificando la división en bloques y su replicación en los DataNodes para garantizar tolerancia a fallos y alta disponibilidad. Se comprobó el funcionamiento de la red interna, el NameNode, el ResourceManager y los DataNodes mediante el acceso a sus interfaces web y verificando que todos los contenedores estuvieran correctamente conectados. El proyectó culminó con la implementación exitosa de un lago de datos, cumpliendo los objetivos y requerimientos planteados, y, cuya arquitectura fue probada y validada por los usuarios finales pertenecientes al laboratorio ADA"2023-08-01T00:00:00ZDesarrollo de una aplicación bancaria que genera usuarios y claves seguras siguiendo los estándares de la empresa : implementación y pruebas de la aplicación bancaria que genere usuarios y claves seguras siguiendo los estándares de la empresa.Vasco Gualotuña, Elsa Margothhttp://bibdigital.epn.edu.ec/handle/15000/250142023-11-08T22:55:42Z2023-08-01T00:00:00ZTítulo: Desarrollo de una aplicación bancaria que genera usuarios y claves seguras siguiendo los estándares de la empresa : implementación y pruebas de la aplicación bancaria que genere usuarios y claves seguras siguiendo los estándares de la empresa.
Autor: Vasco Gualotuña, Elsa Margoth
Director: Intriago Pazmiño, María Monserrate
Resumen: In an increasingly digitized world, data security has become a central concern for individuals and organizations alike. Sensitive and confidential information, such as personal, financial, and corporate data, is a valuable asset that requires robust protection. In this context, encryption has emerged as an essential tool in safeguarding the integrity and privacy of this data. Importance of Encryption: Encryption is the process of converting readable information into an unreadable format unless one possesses the decryption key. This ensures that even if the data falls into the wrong hands, it remains incomprehensible and thus useless. Encryption not only prevents unauthorized access but also safeguards against data interception and theft during transmission. It is a fundamental pillar for maintaining the confidentiality and integrity of sensitive information. Examples of Recent Security Incidents and Their Potential Mitigation: 1. Software supply chain attack: In the 2020 SolarWinds incident, systems were infiltrated through a compromised software update. Here, end-to-end encryption would have limited access to sensitive data even if attackers had managed to infiltrate the network. 2. Algorithm Used: In this scenario, a public key cryptographic algorithm like RSA could have been effective. Although relatively slow compared to other methods, its security robustness would have helped prevent unauthorized disclosure. 3. Ransomware attacks: Incidents like the 2021 Colonial Pipeline attack highlight the importance of encryption at rest. If data were kept encrypted at rest, even if attackers gained access to the systems, they wouldn't be able to access the information without the decryption key. 4. Algorithm Used: AES (Advanced Encryption Standard) is a prominent example for encryption at rest. It is highly efficient in terms of speed and security, making it suitable for protecting large volumes of stored data.
Descripción: En un mundo cada vez más digitalizado, la seguridad de datos se ha convertido en una preocupación central para individuos y organizaciones por igual. La información sensible y confidencial, como datos personales, financieros y corporativos, es un activo valioso que necesita protección robusta. En este contexto, la encriptación se ha erigido como una herramienta esencial en la salvaguardia de la integridad y privacidad de estos datos. Importancia de la Encriptación La encriptación es el proceso de convertir información legible en un formato ilegible, a menos que se posea la clave de desencriptación. Esto asegura que incluso si los datos caen en manos equivocadas, resulta incomprensible y, por lo tanto, inútil. La encriptación no solo evita el acceso no autorizado, sino que también protege contra la interceptación y el robo de datos durante su transmisión. Es un pilar fundamental para mantener la confidencialidad y la integridad de la información sensible. Ejemplos de Incidentes de Seguridad Recientes y su Potencial Mitigación 1. Ataque a la cadena de suministro de software: En el incidente de SolarWinds en 2020, se infiltraron sistemas mediante una actualización de software comprometida. Aquí, la encriptación de extremo a extremo habría limitado el acceso a datos sensibles incluso si los atacantes hubieran conseguido infiltrarse en la red. 2. Algoritmo Utilizado: En este escenario, un algoritmo criptográfico de clave pública como RSA podría haber sido eficaz. Aunque es relativamente lento en comparación con otros métodos, su robustez en términos de seguridad habría ayudado a prevenir la divulgación no autorizada. 3. Ataques de ransomware: Incidentes como el ataque a Colonial Pipeline en 2021 resaltan la importancia de la encriptación en reposo. Si los datos se mantuvieran encriptados en reposo, incluso si los atacantes lograran acceder a los sistemas, no podrían acceder a la información sin la clave de desencriptación. 4. Algoritmo Utilizado: AES (Advanced Encryption Standard) es un ejemplo destacado para la encriptación en reposo. Es altamente eficiente en términos de velocidad y seguridad, lo que lo hace adecuado para proteger grandes volúmenes de datos almacenados.2023-08-01T00:00:00ZCreación de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN : Desarrollo de una aplicación web para la visualización de los datos obtenidos del prototipo de monitoreo de temperatura del aire.Campoverde Rodriguez, Brandon Martinhttp://bibdigital.epn.edu.ec/handle/15000/249352023-10-18T15:33:15Z2023-10-05T00:00:00ZTítulo: Creación de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN : Desarrollo de una aplicación web para la visualización de los datos obtenidos del prototipo de monitoreo de temperatura del aire.
Autor: Campoverde Rodriguez, Brandon Martin
Director: Yoo, Sang Guun
Resumen: The purpose of this web application is to display the data collected by an IoT prototype for measuring air temperature, providing users with a means to visualize and comprehend the gathered information. Initially, a description of the component will be provided. Then, information about the MQTT protocol will be reviewed to better understand its components. Following that, SCRUM will be applied to design and develop the interfaces of the web application. Finally, usability tests will be conducted to determine the user acceptance of the design. The results reveal that 91.7% of users consider the presented application easy to use, and additionally, 75% of users find the presented information relevant. It was also observed that 58.3% of users believe that more content should be added to the "About Us" page. Thus, this application will provide convenient and real-time access to relevant information, resulting in a positive impact on decision-making regarding air temperature.
Descripción: El propósito de la aplicación web que se describirá en el informe es mostrar los datos recopilados por un prototipo IoT de medición de temperatura del aire, brindando a los usuarios un medio para visualizar y comprender la información recolectada. Primeramente, se realizará una descripción del componente a ser desarrollado. Luego se revisará la información acerca del protocolo MQTT, con la finalidad de entender mejor sus componentes. Posteriormente, se aplicará SCRUM para realizar el diseño y desarrollo de las interfaces de la aplicación web. Finalmente se realizarán pruebas de usabilidad para determinar la aceptación del diseño por parte de los usuarios. Los resultados revean que el 91.7% de usuarios considera que la aplicación presentada es fácil de usar, además el 75% de usuarios considera que la información presentada es relevante. También se observó que el 58.3% de los usuarios considera que se debería agregar más a la página “About Us”. Es así como esta aplicación brindará un acceso conveniente y en tiempo real a la información relevante, lo que conlleva impacto positivo en la toma de decisiones referente a la temperatura del aire.2023-10-05T00:00:00ZCreación de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN : Implementación física de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN.Bonilla Nazareno, Vicky Nahomihttp://bibdigital.epn.edu.ec/handle/15000/249332023-10-18T15:25:40Z2023-10-05T00:00:00ZTítulo: Creación de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN : Implementación física de un prototipo de monitoreo de temperatura del aire utilizando equipos de desarrollo de bajo costo y comunicación LoRaWAN.
Autor: Bonilla Nazareno, Vicky Nahomi
Director: Yoo, Sang Guun
Resumen: LoRaWAN has gained significance in the field of IoT communications globally due to its cost-effectiveness, long-range capabilities, and low energy consumption, enabling a wide range of applications. However, its adoption in Ecuador is not widespread. The purpose of this study is the design and creation of an affordable prototype for ambient temperature measurement using LoRaWAN within the environment of Escuela Politécnica Nacional. The PPDIOO methodology proposed by Cisco was employed, dividing the process into 6 stages: Preparation, Planning, Design, Implementation, Operation, and Optimization. To implement the prototype, the end-device was assembled, followed by connecting it to the LoRaWAN Gateway. Subsequently, data processing occurred within the Gateway using Node-RED. A MQTT server was established to grant data access to an MQTT client. After deploying the network, optimization was conducted along with tests for coverage, energy consumption, and signal quality. The results include a coverage of 2.66 km encompassing the perimeter of the Escuela Politécnica Nacional. Moreover, the operational time, sending data every 3 minutes with a 1000mAh battery, extends to 20 hours. Signal quality revealed an average RSSI of -28dBm and a SNR of 9dB. All of this is achieved at a cost not exceeding $70 per device, representing a significant advancement in the realm of economical wireless environmental monitoring within the setting of Escuela Politécnica Nacional's environment while also broadening prospects for future applications using LoRaWAN technology.
Descripción: LoRaWAN ha ganado importancia en el área de comunicaciones IoT a nivel mundial al ser una tecnología económica, de largo alcance y bajo costo energético que permite realizar gran variedad de aplicaciones. Sin embargo, en Ecuador no se ha extendido su adopción. El presente trabajo muestra el diseño y creación de un prototipo de bajo costo para la medición de temperatura ambiental utilizando LoRaWAN dentro de la Escuela Politécnica Nacional. Para ello se utilizó la metodología PPDIOO propuesta por Cisco, dividiendo el proceso en 6 etapas. Preparación, planificación, diseño, implementación, operación y optimización. El prototipo se implementó ensamblando el dispositivo final, luego conectando este al Gateway LoRaWAN. Posteriormente se procesaron los datos dentro del Gateway haciendo uso de Node-RED. Luego se estableció un servidor MQTT que permitió el acceso a los datos por parte de un cliente MQTT. Tras poner la red en operación, se optimizó y se realizaron pruebas de cobertura, consumo energético y calidad de la señal. Entre los principales resultados se encuentra una cobertura de 2.66km que cubre el perímetro de la Escuela politécnica Nacional. Además, el tiempo de funcionamiento, enviando datos cada 3 minutos con una batería de 1000mAh, alcanza las 20 horas. Para la calidad de la señal se obtuvo una RSSI promedio de -28dBm y una SNR de 9dB. Todo esto con un costo menor a $70 por dispositivo, logrando avance en la supervisión ambiental inalámbrica de bajo coste en la Escuela Politécnica Nacional y expandiendo las posibilidades de futuras aplicaciones utilizando LoRaWAN.2023-10-05T00:00:00ZProcesamiento acústico de la voz aplicado al reconocimiento de fonemas similares en el habla inglesa comparados con sus homólogos en lengua hispánica : Evaluación de modelos basados en Transformer para la detección de errores de lectura a nivel de palabras.Calva Galeas, Carlos Enriquehttp://bibdigital.epn.edu.ec/handle/15000/249312023-10-18T15:14:32Z2023-10-05T00:00:00ZTítulo: Procesamiento acústico de la voz aplicado al reconocimiento de fonemas similares en el habla inglesa comparados con sus homólogos en lengua hispánica : Evaluación de modelos basados en Transformer para la detección de errores de lectura a nivel de palabras.
Autor: Calva Galeas, Carlos Enrique
Director: Aguiar Pontes, Josafá de Jesús
Resumen: This study focuses on evaluating word-level reading errors in audio recordings of the Spanish language (NHK newscasts for Spanish) using the Transformer-based model: Whisper Large-V2. The evaluation results demonstrated the model's capacity to accurately predict most errors. Additionally, two experiments were conducted: the first involved an attempt to train a Transformer-based model using the Whisper-Small model through the transfer learning technique to predict phonetic-level pronunciation for the English language. The second experiment entailed assessing phoneme-level pronunciation errors using the "wav2vec2-xlsr-53-espeak-cv-ft" model for English, spoken by individuals whose native language is Spanish. Unfortunately, both experiments yielded unsatisfactory outcomes.
Descripción: Este trabajo trata acerca de la evaluación de errores lectura a nivel de palabras en grabaciones de audio del idioma español (Noticieros NHK en el idioma español) utilizando el modelo basado en Transformer: Whisper-Large-V2. Los resultados de la evaluación demostraron que el modelo puede predecir la mayoría de los errores correctamente. Adicionalmente se realizaron dos experimentos: el primero fue un intento de entrenar un modelo basado en Transformer usando el modelo Whisper-Small a través de la técnica del transfer learning para predecir la pronunciación a nivel fonético para el idioma inglés y el segundo experimento fue la evaluación de los errores de pronunciación a nivel de fonemas utilizando el wav2vec2-xlsr-53-espeak-cv-ft para el idioma inglés hablado por personas cuya lengua materna es el español. Los dos experimentos no tuvieron resultados satisfactorios.2023-10-05T00:00:00ZImplementación de computación en la nube en el laboratorio ADA de la facultad de sistemas para analítica de datos : evaluación de hipervisores y contenedores para la gestión de computación en la nube para el laboratorio ADA.Bravo Mendoza, Aaron Ismaelhttp://bibdigital.epn.edu.ec/handle/15000/249172023-10-18T15:06:02Z2023-10-05T00:00:00ZTítulo: Implementación de computación en la nube en el laboratorio ADA de la facultad de sistemas para analítica de datos : evaluación de hipervisores y contenedores para la gestión de computación en la nube para el laboratorio ADA.
Autor: Bravo Mendoza, Aaron Ismael
Director: Martínez Mosquera, Silvia Diana
Resumen: In this work, the evaluation of virtualization technologies based on hypervisors and containers
was carried out, reaching the conclusion that containers are the most appropriate tools
for the implementation of cloud computing for the Advanced Data Analysis (ADA) laboratory
of the National Polytechnic School. As a result of this evaluation, the JupyterHub software
was implemented on a high performance server in a Docker container so that researchers
and graduate students can take advantage of the power of this technology by being able
to run their data science algorithms in R and Python languages on a computer with high
computational capacity. In addition, integration with Hadoop was achieved where users save
and read files in the Hadoop file system through code that acts as an interface with this storage
software. The server has graphic processing hardware and therefore it was necessary
to install and configure additional software for container compatibility with this device since
by default the containers do not have this support. With the implementation of this environment,
the requirements identified by the laboratory users are satisfied. The importance of
this project lies in the need for a high performance computing environment and the need
for tools to manage server resources in the ADA laboratory. The design and implementation
of this project provides users with the necessary environment for their high-volume data
analysis tasks in this laboratory.
Descripción: En este trabajo se realizó la evaluación de tecnologías de virtualización basadas en hipervisores
y contenedores, llegando a la conclusión de que los contenedores son las herramientas
más adecuadas para la implementación de computación en la nube para el laboratorio
de análisis datos avanzados (ADA) de la Escuela Politécnica Nacional. Como resultado de
esta evaluación se implementó sobre el servidor de altas prestaciones el software JupyterHub
en un contenedores Docker con el fin de que investigadores y estudiantes de posgrado
aprovechen el poder de esta tecnología al poder ejecutar sus algoritmos de ciencia
de datos en lenguajes R y Python en un equipo de alta capacidad de cómputo. Además
se logró la integración con Hadoop en donde los usuarios guardan y leen archivos en el
sistema de archivos de Hadoop por medio de código que actúa como interfaz con este software
de almacenamiento. El servidor cuenta con hardware de procesamiento gráfico y por
ello fue necesario la instalación y configuración de software adicional para compatibilidad
de contenedores con dicho dispositivo ya que por defecto los contenedores no tienen este
soporte. Con la implementación de este entorno se satisfacen los requisitos identificados
por los usuarios del laboratorio. La importancia de este proyecto radica en la necesidad de
un entorno de computación de alto rendimiento y la necesidad de herramientas que gestionen
los recursos del servidor en el laboratorio ADA. El diseño e implementación de este
proyecto brinda a los usuarios el entorno necesario para sus tareas de análisis de grandes
volúmenes de datos en este laboratorio.2023-10-05T00:00:00ZAnálisis de Similitud en Representación de la Información en líneas celulares : Árbol de distancia correspondiente a la representación de líneas celulares basada en minería de texto.Guanoluisa Herrera, Henry Davidhttp://bibdigital.epn.edu.ec/handle/15000/249132023-10-18T14:57:21Z2023-10-02T00:00:00ZTítulo: Análisis de Similitud en Representación de la Información en líneas celulares : Árbol de distancia correspondiente a la representación de líneas celulares basada en minería de texto.
Autor: Guanoluisa Herrera, Henry David
Director: Carrera Izurieta, Iván Marcelo
Resumen: In the current research, the representation and comparison of cell lines play a crucial role in understanding the behavior and interactions of cell lines. This study implements an innovative approach to representing cell lines using text mining techniques, employing Principal Component Analysis (PCA) and Support Vector Data Description (SVDD). The main objectives were the extraction and processing of textual information from scientific literature, followed by its transformation into numerical representations, thereby developing a hierarchical clustering methodology.
To achieve this, a dataset of cell lines was collected from sources such as Cellosaurus and PubMed. Python, along with libraries like pandas and scikit-learn, was employed for data processing, analysis, and modeling. The textual data underwent preprocessing, which included stemming and TF-IDF transformation, resulting in numerical feature vectors. PCA was utilized for dimensional reduction of the data while preserving its variance. SVDD identified atypical values, and the distances between cell lines were visualized through the construction of a dendrogram.
The results revealed an innovative way to represent cell lines, allowing for the identification of groups and similarities among different lines. The dendrogram visually represented hierarchical relationships, providing insights into cell line clusters.
Descripción: En la presente investigación, la representación y comparación de líneas celulares tiene un papel sumamente importante en el entendimiento del comportamiento e interacciones. Este estudio implementa un enfoque innovador al representar líneas celulares utilizando técnicas de minería de texto, utilizando análisis de componentes principales (PCA) y Descripción de datos basado en vectores de soporte (SVDD). Los principales objetivos fueron la extracción y procesamiento de información textual de la literatura científica, para luego transformarla en representaciones numéricas y así desarrollar una metodología de agrupación jerárquica.
Para lograr los objetivos del proyecto, se recopiló un conjunto de data de líneas celulares de fuentes como Cellosaurus y PubMed. Se utilizó Python, junto con librerías como pandas y scikit-learn, para el procesamiento, análisis y modelado de la data. La data de texto fue sometida a un preprocesamiento, que incluyó la reducción a raíz y la transformación TF-IDF, lo que arrojó como vectores de características numéricas. PCA se utilizó para la reducción dimensional de la data que al mismo tiempo preserva su variación. SVDD identificó aquellos valores no típicos y las distancias entre líneas celulares que se visualizaron mediante la construcción de un dendograma.
Los resultados revelaron una forma novedosa de representar las líneas celulares, permitiendo la identificación de grupos y similitudes entre diferentes líneas. El dendograma representó visualmente relaciones jerárquicas, mostrando información sobre conjuntos celulares.2023-10-02T00:00:00ZCreación de un prototipo de sistema de one-time password (otp) para un sistema de autenticación de dos factores: implementación de un prototipo de sistema generador otp basado en hotp y envió por correo electrónico.Pillajo Anaguano, Hilton Bladimirhttp://bibdigital.epn.edu.ec/handle/15000/245252023-08-08T18:05:32Z2023-02-01T00:00:00ZTítulo: Creación de un prototipo de sistema de one-time password (otp) para un sistema de autenticación de dos factores: implementación de un prototipo de sistema generador otp basado en hotp y envió por correo electrónico.
Autor: Pillajo Anaguano, Hilton Bladimir
Resumen: This project proposes the creation of a prototype that uses one-time password (OTP) in a two-factor authentication system. A systematic study of the literature was carried out in order to know the different OTP protocols that exist, as well as their main advantages and disadvantages. With this previous study, the OTP protocol to be used was selected, as well as the different methods of delivering the OTP to the user. Next, the development phase began by first defining the requirements needed to meet the objectives of this work, then a high-level mockup was made and the necessary tools and frameworks were selected to complete the prototype (e.g. programming languages, database manager, agile methodologies for software development, among others). And finally, functional tests were performed in order to evaluate the performance of the developed prototype, detailing the criteria with which the tests were performed. It is worth specifying that the selection criteria used to carry out these evaluations focused mainly on discerning the delivery method preferred by the end users.
Descripción: El presente proyecto propone la creación de un prototipo que utilice one-time password (OTP) en un sistema de autenticación de dos factores. Se realizó un estudio sistemático de la literatura, con el objetivo de conocer los diferentes protocolos de OTP que existen, así como sus principales ventajas y desventajas. Con este estudio previo se seleccionó el protocolo de OTP a utilizarse, como también se definio los diferentes métodos de entrega del OTP al usuario. A continuación, se inició la fase desarrollo definiendo en primer lugar los requerimientos necesarios para cumplir los objetivos del presente trabajo, posteriormente se realizó un mockup de alto nivel y se seleccionaron las herramientas y frameworks necesarios para completar el prototipo (e.g. lenguajes de programación, gestor de base de datos, metodologías agiles para desarrollo de software, entre otros). Y finalmente, se realizaron pruebas de funcionamiento con el objetivo de evaluar el desempeño del prototipo desarrollado, detallando los criterios con los cuales se realizaron las pruebas. Cabe especificar que el criterio de selección de individuos que se utilizó para llevar a cabo estas evaluaciones se enfocaron principalmente en discernir cuál es el método de entrega preferido por los usuarios finales.2023-02-01T00:00:00ZDesarrollo de un corpus paralelo de texto e imágenes en el idioma japonés para futuros trabajos de investigación en procesamiento de lenguaje natural japonés obtenido a través de un corpus referencial y un corpus ocr: generación de un corpus paralelo en el idioma japonés obtenido a través de un corpus referencial y un corpus ocr.Rueda Vanegas, Jhoann Sebastiánhttp://bibdigital.epn.edu.ec/handle/15000/244492023-08-02T20:54:20Z2022-08-01T00:00:00ZTítulo: Desarrollo de un corpus paralelo de texto e imágenes en el idioma japonés para futuros trabajos de investigación en procesamiento de lenguaje natural japonés obtenido a través de un corpus referencial y un corpus ocr: generación de un corpus paralelo en el idioma japonés obtenido a través de un corpus referencial y un corpus ocr.
Autor: Rueda Vanegas, Jhoann Sebastián
Resumen: The present work consists of the investigation on the process to generate a parallel corpus given that data were received in plain text files in Japanese language, the project consists of the cleaning of the data to generate a referential corpus, after that it is sought to pass the data through an OCR tool, in order to generate misspellings due to the process that the OCR tool implements internally. Once the two files, the reference files and those generated by the OCR tool with spelling errors, are normalized both files in order to compare them with the diff tool to determine the similarity that exists between each reference file and its respective OCR file. When the expected similarity percentage is reached, the next part is to align the reference files and the OCR files at line level and this will form the result which is the parallel corpus.
Descripción: El presente trabajo consiste en la investigación sobre el proceso para generar un corpus paralelo dado que se recibieron datos en archivos de texto plano en el idioma japonés, el proyecto consta de la limpieza de los datos para generar un corpus referencial, posterior a ello se busca pasar los datos por una herramienta OCR, con el fin de generar errores ortográficos debido al proceso que implementa internamente la herramienta OCR. Al tener los dos archivos, los de referencia y los generados por la herramienta OCR con errores ortográficos, se normalizan ambos archivos con el fin de compararlos con la herramienta diff para determinar la similitud que existe entre cada archivo referencial y su respectivo archivo OCR. Cuando se alcance el porcentaje de similitud esperado, la siguiente parte es alinear los archivos de referencia y los archivos OCR a nivel de líneas y esto conformará el resultado que es el corpus paralelo.2022-08-01T00:00:00ZImplementación de mecanismos de control de acceso a información de identificación personal (pii) de acuerdo con la ley orgánica de protección de datos personales del Ecuador: almacenamiento, preservación, acceso seguro y transparente a pii.Tohasa Paspuezan, Cristhian Fernandohttp://bibdigital.epn.edu.ec/handle/15000/244442023-08-02T17:47:11Z2023-03-01T00:00:00ZTítulo: Implementación de mecanismos de control de acceso a información de identificación personal (pii) de acuerdo con la ley orgánica de protección de datos personales del Ecuador: almacenamiento, preservación, acceso seguro y transparente a pii.
Autor: Tohasa Paspuezan, Cristhian Fernando
Resumen: The storage, preservation, safe and transparent access to personally identifiable information (PII) is an issue that over time has been taking more into account in the field of information security. In this sense, this project is focused on developing a secure and distributed storage component for the management of PII. The proposed component uses a distributed and fragmented architecture to guarantee the CIA triad (confidentiality, integrity, and availability) of the stored information. Security controls are implemented to be able to access the information, one of these is the verification of digital signatures which maintain the integrity of the data. In addition, a replication process is used to always maintain availability through data synchronization. The threat modeling tool was used to identify and mitigate potential risks and threats that may arise during the storage of sensitive data. Likewise, a risk analysis was carried out to identify and plan contingency management in case threats occur. Finally, a test application that integrates the storage component with two other components, data collection and transfer, was developed to illustrate the viability and effectiveness of the secure and distributed storage component. In summary, the present work provides a practical and effective approach for the storage, preservation, secure and transparent access to personally identifiable information. The distributed and fragmented architecture of the storage component ensures the CIA triad of the stored data, which guarantees the protection of sensitive data.
Descripción: El almacenamiento, preservación, acceso seguro y transparente a la información personal identificable (PII) es un tema que con el paso del tiempo se ha ido tomando más en cuenta en el campo de la seguridad informática. En este sentido, este proyecto está enfocado en desarrollar un componente de almacenamiento seguro y distribuido para la gestión de la PII. El componente propuesto utiliza una arquitectura distribuida y fragmentada para de esta manera garantizar la triada CIA (confidencialidad, integridad y disponibilidad) de la información almacenada. Se implementan controles de seguridad para poder acceder a la información una de estas es la verificación de firmas digitales las cuales mantienen la integridad de los datos. Además, se utiliza un proceso de replicación para mantener así la disponibilidad a través de la sincronización de los datos en todo momento. La herramienta de modelado de amenazas se utilizó para identificar y mitigar los riesgos y amenazas potenciales que pueden surgir durante el almacenamiento de datos sensibles. Asimismo, se realizó un análisis de riesgos para identificar y planificar la gestión de contingencias en caso de que se produzcan amenazas. Finalmente, se desarrolló una aplicación de prueba que integra el componente de almacenamiento con otros dos componentes, la recolección y transferencia de datos, para demostrar la viabilidad y la efectividad del componente de almacenamiento seguro y distribuido. En resumen, el presente trabajo proporciona un enfoque práctico y efectivo para el almacenamiento, preservación, acceso seguro y transparente a la información personal identificable. La arquitectura distribuida y fragmentada del componente de almacenamiento asegura la triada CIA de los datos almacenados, lo que garantiza la protección de los datos sensibles.2023-03-01T00:00:00ZPrototipo de generador de paquetes maliciosos para realizar ataques de dos en redes lorawan desarrollado en python.Cordovillo Morocho, Henrry Jhordanhttp://bibdigital.epn.edu.ec/handle/15000/244412023-08-02T17:15:45Z2023-02-01T00:00:00ZTítulo: Prototipo de generador de paquetes maliciosos para realizar ataques de dos en redes lorawan desarrollado en python.
Autor: Cordovillo Morocho, Henrry Jhordan
Resumen: Nowadays IoT technology is becoming more and more common for people, so much so that there are already smart homes that use this type of technology, but for all this to work, connection networks have been created, one of these networks are the LoRaWAN, which will be used in this work to analyze the Denial-of-Service attacks. LoRaWAN networks aim to transmit data with low power consumption and over a long distance. This technology is Wireless (Wireless) in other words, they do not have to be connected to the device to have communication. LoRaWAN uses the LPWAN technology that takes care of wireless communication and also provides the characteristics of low power consumption and long-distance communication. And for this and many other aspects it is the most used protocol for connecting IoT devices, some other examples of this type of technology are LTE-M, NB-IoT, Sigfox, RPMA Wi-Fi, Bluetooth and ZigBee. One of the disadvantages of LoRaWAN is that being a recent technology it has several vulnerabilities that compromise network security. Due to this LoRaWAN suffers from several types of attacks. In this paper we will describe the different types of attacks that LoRaWAN can suffer, giving more emphasis to denial-of-service attacks.
Descripción: En la actualidad la tecnología IoT se está volviendo cada vez más común para las personas, tanto así que ya existen casas inteligentes que utilizan este tipo de tecnología, pero para que todo esto funcione se han creado redes de conexión, una de esas redes son las LoRaWAN, las cuales serán utilizadas en este trabajo para analizar los ataques de Denegación de Servicio. Las redes LoRaWAN tienen como objetivo la transmisión de datos con bajo consumo de electricidad y a una larga distancia. Esta tecnología es de tipo Wireless (Inalámbrica) en otras palabras, no tienen que estar conectado al dispositivo para tener comunicación. LoRaWAN utiliza la tecnología LPWAN que se encarga de la comunicación inalámbrica y también le proporciona las características de bajo consumo energético y larga distancia de comunicación. Y por esto y muchos otros aspectos se le tiene como el protocolo más usado para la conexión de dispositivos IoT, algunos otros ejemplos de este tipo de tecnología son LTE-M, NB-IoT, Sigfox, RPMA Wi-Fi, Bluetooth y ZigBee. Una de las desventajas de LoRaWAN es que al ser una tecnología reciente tiene varias vulnerabilidades que comprometen a la seguridad de la red. Debido a esto LoRaWAN sufre de varios tipos de ataques. En este trabajo se describirán los diferentes tipos de ataques que puede sufrir LoRaWAN, dando más énfasis a los ataques de tipo denegación de servicios.2023-02-01T00:00:00ZCreación de un prototipo de un sistema de autenticación de dos factores utilizando one-time password (otp): creación de un prototipo de aplicación móvil de un sistema de autenticación de dos factores utilizando one-time password, para dispositivos android.Almachi Chasi, Anthony Israelhttp://bibdigital.epn.edu.ec/handle/15000/244382023-08-02T16:25:04Z2023-01-01T00:00:00ZTítulo: Creación de un prototipo de un sistema de autenticación de dos factores utilizando one-time password (otp): creación de un prototipo de aplicación móvil de un sistema de autenticación de dos factores utilizando one-time password, para dispositivos android.
Autor: Almachi Chasi, Anthony Israel
Resumen: This project proposes the creation of a prototype that uses one-time password (OTP) in a two-factor authentication system. For this purpose, a systematic study of the literature was performed in order to know the different OTP protocols, their main advantages and disadvantages. Once this was done, the OTP protocol to be used was selected and the different methods of delivering the OTP to the user were defined. Next, the development phase began by first defining the requirements needed to meet the objectives of this work, then a high-level mockup was made, and the tools and frameworks needed to complete the prototype were selected (programming languages, database manager, agile methodologies for software development, among others). Finally, tests were performed with the objective of evaluating the performance of the prototype detailing the criteria under which these tests were performed. In addition, we specified the selection criteria of individuals that were used to perform these evaluations. These tests were mainly focused on discerning which is the delivery method preferred by end users.
Descripción: El presente proyecto propone la creación de un prototipo que utilice one-time password (OTP) en un sistema de autenticación de dos factores. Para lo cual se realizó, en primera instancia, un estudio sistemático de la literatura con el objetivo de conocer los diferentes protocolos de OTP, sus principales ventajas y desventajas. Una vez hecho esto, se seleccionó el protocolo de OTP a utilizarse y se definieron los diferentes métodos de entrega del OTP al usuario. A continuación, se inició la fase desarrollo definiendo en primer lugar los requerimientos necesarios para cumplir los objetivos del presente trabajo, posteriormente se realizó un mockup de alto nivel y se seleccionaron las herramientas y frameworks necesarios para completar el prototipo (e.g. lenguajes de programación, gestor de base de datos, metodologías agiles para desarrollo de software, entre otros). Finalmente, se realizaron las pruebas de funcionamiento con el objetivo de evaluar el desempeño del prototipo detallando los criterios bajos los cuales se realizaron estas pruebas. Además de especificar el criterio de selección de individuos que se utilizó para llevar a cabo estas evaluaciones, estas pruebas se enfocaron principalmente en discernir cuál es el método de entrega preferido por los usuarios finales.2023-01-01T00:00:00ZSoluciones tecnológicas para dar cumplimiento con lo establecido con la ley orgánica de protección de datos: prototipo de una solución de privacidad basado en herramienta centradas en el usuario para la gestión de consentimiento y acceso a su informacion personal con el fin de garantizar el derecho a la portabilidad establecido en la LOPDP.Contreras Andrade, Milán Leonardohttp://bibdigital.epn.edu.ec/handle/15000/244312023-08-02T14:51:24Z2023-04-01T00:00:00ZTítulo: Soluciones tecnológicas para dar cumplimiento con lo establecido con la ley orgánica de protección de datos: prototipo de una solución de privacidad basado en herramienta centradas en el usuario para la gestión de consentimiento y acceso a su informacion personal con el fin de garantizar el derecho a la portabilidad establecido en la LOPDP.
Autor: Contreras Andrade, Milán Leonardo
Resumen: This document presents a prototype as a web application to comply with the requirements of the Organic Law on Personal Data Protection. The prototype focuses on the management of consent by the data owner, access control and data portability. In order to arrive at the proposed solution, an investigation was carried out on the Organic Law on Personal Data Protection, to have a better vision of the requirements. In the same way, international controls present in data protection were investigated. In order to find out if there were documents or applications with respect to complying with the laws established in the Organic Law on Personal Data Protection in Ecuador, a systematic review of the literature was carried out. Based on the results of the systematic literature review, we design and carry out the development of a prototype. The document presents the technologies used for the development of the prototype, as well as its operation. Finally, the results are shown and in the same way improvements are proposed which can be added to the prototype to have new functionalities.
Descripción: Este documento presenta como resultado, un prototipo a modo de aplicación web el cual cumpla con los requerimientos de la Ley Orgánica Contra La Protección de Datos Personales en Ecuador. El prototipo se centra en la gestión del consentimiento por parte del titular de los datos, el control de acceso y la portabilidad de los datos. Para llegar a la solución propuesta, se realizó una investigación sobre la Ley Orgánica de Protección de Datos Personales, para tener una mejor visión sobre los requerimientos. De igual forma, se investigó sobre los controles internacionales presentes en la protección de datos. Para saber si existían documentos o aplicaciones con respecto a cumplir con las leyes establecidas en la Ley Orgánica contra la Protección de Datos Personales en Ecuador, se llevó a cabo una revisión sistemática de la literatura de la cual se realiza un análisis para obtener los mejores resultados y en base a ellos diseñar y realizar el desarrollo del prototipo. El documento presenta las tecnologías usadas para el prototipo, así como el funcionamiento del mismo. Finalmente, se muestran los resultados y de igual forma se proponen mejoras las cuales pueden ser añadidas al prototipo para tener nuevas funcionalidades.2023-04-01T00:00:00ZCreación de un prototipo de Sistema de One-Time Password para un Sistema de autenticación de dos factores: implementación de un prototipo de sistema generador de OTP basado en TOTP y su envío mediante un aplicativo web.Fernández Gonza, Brayan Alexishttp://bibdigital.epn.edu.ec/handle/15000/244302023-08-02T14:42:53Z2023-02-01T00:00:00ZTítulo: Creación de un prototipo de Sistema de One-Time Password para un Sistema de autenticación de dos factores: implementación de un prototipo de sistema generador de OTP basado en TOTP y su envío mediante un aplicativo web.
Autor: Fernández Gonza, Brayan Alexis
Resumen: Authentication represents an important security process in controlling access to a network or system. When this process is based on something one knows, it is referred to as authentication through a username and password. Traditional or static passwords cannot be solely relied upon as they are vulnerable to various types of cyber-attacks. A common solution to this problem is the implementation of authentication through One-Time Password (OTP). In this project, the creation of an OTP prototype for implementing two-factor authentication is proposed. First, a review of the different types of OTPs based on generation algorithms, delivery methods, and their level of security is performed. Then, following a working methodology, the component development is carried out to result in the OTP generation prototype. Finally, the results obtained regarding the generation of OTP and the operation of the prototype are detailed, as well as the conclusions and recommendations of the project.
Descripción: La autenticación representa un proceso importante de seguridad en el control de acceso a una red o sistema. Cuando este proceso se basa en algo que uno sabe, se trata de la autenticación mediante un usuario y una contraseña. No se puede depender únicamente de las contraseñas tradicionales o estáticas, pues son vulnerables ante diversos tipos de ataques informáticos. Una solución común a este problema es la implementación de la autenticación mediante One-Time Password (OTP). En este proyecto, se propone la creación de un prototipo de OTP para la implementación de la autenticación de doble factor. Primero, se realiza una revisión de los distintos tipos de OTP en base a los algoritmos de generación, métodos de entrega y su nivel de seguridad. Luego, siguiendo una metodología de trabajo se realiza el desarrollo del componente para tener como resultado el prototipo para generación de OTP. Por último, se detallan los resultados obtenidos respecto a la generación de OTP y el funcionamiento del prototipo, las conclusiones y recomendaciones.2023-02-01T00:00:00ZSoluciones tecnológicas para dar cumplimiento con lo establecido en la Ley Orgánica de Protección de Datos Personales: prototipo de una solución de privacidad para la gestión del consentimiento del usuario y control de acceso a la información personal conforme lo establecido en la ley orgánica de protección de datos personales.Caiza Jiménez, Boris Javierhttp://bibdigital.epn.edu.ec/handle/15000/244292023-08-02T14:27:41Z2023-03-01T00:00:00ZTítulo: Soluciones tecnológicas para dar cumplimiento con lo establecido en la Ley Orgánica de Protección de Datos Personales: prototipo de una solución de privacidad para la gestión del consentimiento del usuario y control de acceso a la información personal conforme lo establecido en la ley orgánica de protección de datos personales.
Autor: Caiza Jiménez, Boris Javier
Resumen: Currently, the protection of personal data has been a topic of discussion worldwide. At the level of laws and regulations related to this topic, in Europe there is the RGDP (General Data Protection Regulation), in California there is the CCPA (Consumer Privacy Act), and in Ecuador the LOPDP (The Organic Law for the Protection of Personal Data of Ecuador) was established. All these laws gave companies a period of time to adapt to this new regulation, in Ecuador the LOPDP was published on May 26, 2021; Ecuadorian companies have a period of two years to adapt to comply with the provisions of the LOPDP. These laws have been implemented so that any user has full authority over their personal data. The purpose of these laws is that companies, before processing the personal data of any user, must first have the user's consent, otherwise they will not be able to process or handle the user's data. It is crucial for any company to implement a proper management of consent and access control to personal information for user data. In this paper, we will investigate through a systematic literature review, about the solutions that allow the management of consent and access control. Then, a software prototype will be developed to ensure consent management and access control as established by the LOPDP. The prototype to be developed will contain the techniques or solutions concluded from the systematic literature review.
Descripción: Actualmente la protección de datos personales ha sido un tema de discusión a nivel mundial. A nivel de leyes y reglamentos relacionados a este tema, en Europa existe la RGDP (Reglamento General de Protección de Datos), en California existe la CCPA (Ley de Privacidad del Consumidor), y en Ecuador se estableció la LOPDP (La Ley Orgánica de Protección de Datos Personales de Ecuador). Todas estas leyes dieron a las empresas un periodo de tiempo para que puedan adaptarse a este nuevo reglamento, en Ecuador la LOPDP, se publicó el 26 de mayo del 2021; las empresas ecuatorianas tienen un periodo de adaptación de dos años para cumplir con lo establecido en la LOPDP. Estas leyes se han implementado para que cualquier usuario tenga total autoridad sobre sus datos personales. Con estas leyes se busca que las empresas antes de tratar los datos personales de cualquier usuario, primero deban tener su consentimiento, caso contrario no podrán tratar o manejar los datos de los usuarios. Resulta crucial para toda empresa implementar una correcta gestión del consentimiento y control de acceso a la información personal para los datos del usuario. En el presente trabajo, se investigará por medio de una revisión sistemática de la literatura, acerca de las soluciones que permitan la gestión de consentimiento y control de acceso. Luego, se desarrollará un prototipo de software que permita garantizar la gestión de consentimiento y el control de acceso conforme lo establece la LOPDP. El prototipo a realizar contendrá las técnicas o soluciones que se concluyan de la revisión sistemática de la literatura.2023-03-01T00:00:00ZCreación de un prototipo de un sistema de one-time password (OTP) para un sistema de autenticación de dos factores: diseño e implementación de un prototipo de un sistema de one-time password (OTP) enfocado en el sistema operativo iOS para un sistema de autenticación de dos factores.Zambrano Pereda, Dalianahttp://bibdigital.epn.edu.ec/handle/15000/244272023-08-16T17:48:30Z2023-03-01T00:00:00ZTítulo: Creación de un prototipo de un sistema de one-time password (OTP) para un sistema de autenticación de dos factores: diseño e implementación de un prototipo de un sistema de one-time password (OTP) enfocado en el sistema operativo iOS para un sistema de autenticación de dos factores.
Autor: Zambrano Pereda, Daliana
Resumen: The project proposed the development of a prototype of a one-time password (OTP) system for a two-factor authentication (2FA) system. This component focused on the development of the one-time password system, represented by a mobile application prototype for the iOS operating system. Chapter 1 describes the analysis performed on the background of the emergence of OTPs, their classification, and the different solutions proposed over the years. Additionally, it presents the objectives to be achieved in the development of the present project through the proposed methodologies. Chapter 2 presents the development methodology used, which was Scrum. It details the process used to carry out the design, development, and implementation of the functional prototype, as well as the explanation and definition of the two usability analysis methods used: Nielsen heuristics and SUS. Chapter 3 describes the results obtained from the usability testing performed on the mobile prototype. Additionally, it presents the conclusions and recommendations of this work.
Descripción: El proyecto propuso el desarrollo de un prototipo de un sistema de one-time password (OTP) para un sistema de autenticación de dos factores (2FA). El presente componente se enfocó en el desarrollo del sistema de one-time password, representado mediante un prototipo de aplicación móvil para el sistema operativo iOS. En el capítulo 1 se se describe el análisis realizado de los antecedentes del surgimiento de los OTPs, así como su clasificación y las diferentes soluciones propuestas a lo largo de los años. Además de los objetivos a cumplir en el desarrollo del presente2023-03-01T00:00:00ZAnálisis de señales EEG para la detección de emociones, usando algoritmos de aprendizaje automático: reconocimiento de emociones usando características en los dominios del tiempo, frecuencia y tiempo-frecuencia extraídas de un dataset de EEG usando técnicas de aprendizaje automático.Tejada Bustillos, Jonathan Moiséshttp://bibdigital.epn.edu.ec/handle/15000/244242023-08-01T14:04:29Z2023-03-01T00:00:00ZTítulo: Análisis de señales EEG para la detección de emociones, usando algoritmos de aprendizaje automático: reconocimiento de emociones usando características en los dominios del tiempo, frecuencia y tiempo-frecuencia extraídas de un dataset de EEG usando técnicas de aprendizaje automático.
Autor: Tejada Bustillos, Jonathan Moisés
Resumen: This document describes in detail the process of feature extraction used for electroencephalogram signals analysis and study using machine learning techniques and algorithms. From signal processing and their mathematical analysis in different domains such as: Time domain, Frequency domain and Time-Frequency domain, represented by a well-organized dataset over columns and features; through the reduction of these features using different techniques such as PCA Algorithm or the Correlation Matrix analysis; until the definition and comparison of distinct machine learning models that study those features. All the previous process allows finding new intelligent classification models for human emotion recognition, which have a great and spread importance in many fields related with mankind study and its inside.
Descripción: El presenta documento describe a detalle el proceso de extracción de características para el estudio de señales de electroencefalogramas a través de procesos y algoritmos de aprendizaje automático. Desde el procesamiento de las señales a través de su análisis matemático en los distintos dominios: tiempo, frecuencia y tiempo frecuencia, representado por un conjunto de datos bien organizados por columnas o características; pasando por la reducción de estas características a través de técnicas o algoritmos como el algoritmo PCA o el análisis de la Matriz de Correlación; hasta la definición y comparación de distintos modelos de aprendizaje automático que estudien esas características. Todo el proceso anterior descrito permite encontrar modelos inteligentes de clasificación que permitan el reconocimiento de emociones de las personas, las cuales tienen una gran y extendida importancia en distintos campos relacionados con el estudio del hombre y su interior.2023-03-01T00:00:00ZImplementación de mecanismos de control de acceso a información de identificación personal (PII) de acuerdo con la ley orgánica de protección de datos personales del Ecuador: mecanismos para la recolección y procesamiento seguro de información de identificación personal (PII).Suntaxi Pichuasamin, William Daríohttp://bibdigital.epn.edu.ec/handle/15000/244232023-08-01T13:54:26Z2022-03-01T00:00:00ZTítulo: Implementación de mecanismos de control de acceso a información de identificación personal (PII) de acuerdo con la ley orgánica de protección de datos personales del Ecuador: mecanismos para la recolección y procesamiento seguro de información de identificación personal (PII).
Autor: Suntaxi Pichuasamin, William Darío
Resumen: This research implements a secure web application to collect information, following the guidelines established in the Organic Law on Personal Data Protection LOPDP. Using pseudonymization and minimization of personal data, the aim is to reduce the leakage of personal data. Once the data to be processed has been identified, the information is persisted in an intermediate database that allows the storage of minimized and pseudonymized data to be subsequently shown as public data to an external entity. To show a user's private information, the external entity has to go through a security layer where it is verified and authenticated using digital certificates and two-factor verification using an OTP. Subsequently, performance tests are performed to verify how the increased security affects the application's resources and functionality. Performance tests were performed on 3 main components, hard disk, RAM, and cache memory in which favorable results were obtained. Finally, a risk and threat model was performed to identify vulnerabilities and find a way to mitigate them without compromising the performance and availability of the web application.
Descripción: La presente investigación realiza la implementación de un aplicativo web para la recolección de información de manera segura, siguiendo los lineamientos establecidos en la Ley Orgánica de Protección de Datos Personales LOPDP. Mediante la pseudonimización y la minimización de los datos personales se busca reducir la filtración de datos personales. Una vez identificados los datos que deben ser tratados se realiza la persistencia de información en una base de datos intermedia que permite el almacenamiento de datos minimizados y pseudonimizados para posteriormente mostrarse como datos públicos a una entidad externa. Para mostrar la información privada de un usuario la entidad externa tiene que pasar por una capa de seguridad en donde se verifica y autentica utilizando certificados digitales y la verificación con doble factor utilizando un OTP. Posteriormente se realiza las pruebas de rendimiento para verificar como los recursos y funcionalidad del aplicativo se ven afectados con el aumento de seguridad. Para las pruebas de rendimiento se realizaron sobre 3 componentes principales, disco duro, memoria RAM y memoria caché en los cuales se obtuvieron resultados favorables. Finalmente, se realizó un modelo de riesgos y amenazas para identificar las vulnerabilidades y buscar una forma de mitigarlo sin comprometer el rendimiento y la disponibilidad del aplicativo web.2022-03-01T00:00:00ZSistema de minería de datos del portal web setec para análisis de oferta y demanda al definir indicadores estáticos y dinámicos: sistema de minería de datos del portal web setec para análisis de la demanda al definir indicadores estáticos y dinámicos.Jiménez Reino, Sergio Andréshttp://bibdigital.epn.edu.ec/handle/15000/244222023-07-28T14:19:21Z2023-04-01T00:00:00ZTítulo: Sistema de minería de datos del portal web setec para análisis de oferta y demanda al definir indicadores estáticos y dinámicos: sistema de minería de datos del portal web setec para análisis de la demanda al definir indicadores estáticos y dinámicos.
Autor: Jiménez Reino, Sergio Andrés
Resumen: The project consisted of developing a data mining system for the National Secretariat of Qualifications and Professional Training (SETEC) web portal to analyze the demand for courses and/or profiles of qualified professionals at a national level. The project was developed using CRISP-DM data mining methodology with the business understanding phase for the analysis of the SETEC web portal modules, understanding of data that make up each module of the web portal, data preparation, data extraction using web scraping techniques, data cleaning, transformation of variable types, and collection of these to create a data warehouse. Subsequently, the demand for these courses and profiles was analyzed based on the definition of static indicators based on real data and dynamic indicators developed through various machine learning models. The result of these phases was displayed in the Microsoft PowerBI tool through various graphics and visual components that show the indicators and their variation with different data dimensions. The usability of the visual application was evaluated based on the System Usability Scale (SUS) and Nielsen's 10 usability heuristics, where 40 people, including experts in data areas and those with moderate knowledge of data analysis and information technologies, scored the application. They concluded that it is an application with very few aesthetic problems and a good usability range.
Descripción: El proyecto consistió en el desarrollo de un sistema de minería de datos del portal web de la Secretaría Nacional de Cualificaciones y Capacitación Profesional (SETEC) para el análisis de la demanda de cursos y/o perfiles de profesionales cualificados a nivel nacional. El proyecto fue desarrollado usando metodología de minería de datos CRISP-DM con las fases de entendimiento del negocio para el análisis de los módulos del portal web SETEC, el entendimiento de datos que conforman cada módulo del portal web, preparación de datos, extracción datos usando técnicas de raspado web, limpieza de datos, transformación de tipo de variables y colección de estos para la creación de un Datawarehouse. Posteriormente se realizó el análisis de la demanda de estos cursos y perfiles en base a la definición de indicadores estáticos en base a datos reales e indicadores dinámicos desarrollados a través de distintos modelos de aprendizaje automático. El resultado de final estas fases desplegaron en la herramienta Microsoft PowerBI por medio de distintos gráficos y componentes visuales que muestran los indicadores además y su variación con las distintas dimensiones de datos. La usabilidad de aplicación visual fue evaluada en base a SUS (System Usability Scale) y las 10 heurísticas de Nielsen de usabilidad, donde 40 personas entre expertos en áreas de datos y conocimientos moderados en análisis de datos y tecnologías de la información puntuaron la aplicación concluyendo en que se trata de una aplicación con muy pocos problemas estéticos y un rango de usabilidad bueno.2023-04-01T00:00:00ZAmplificador de ataques de denegacion de servicios en redes LoraWAN basando en contenedores.Proaño Morales, Billy Orlandohttp://bibdigital.epn.edu.ec/handle/15000/244212023-07-28T13:59:08Z2022-08-01T00:00:00ZTítulo: Amplificador de ataques de denegacion de servicios en redes LoraWAN basando en contenedores.
Autor: Proaño Morales, Billy Orlando
Resumen: Since the inception of IoT, various communication protocols have been proposed, designed to connect various devices with limited processing power, sometimes requiring battery operation, processing power, sometimes battery operation. Among these protocols, LoRaWAN stands out, which is an LPWAN protocol based on the IEEE802.15.4 standard. It focuses on low-power long-range communications and the capabilities of energy-consuming devices and offers the possibility of creating complex and scalable applications. based on your network architecture. Scalable applications on your network architecture. Since the first version of LoRaWAN, there have been security problems that have been addressed with each version. For its part, this project aims to take advantage of the Denial of Service (DoS) vulnerability, trying to amplify its attack power against the infrastructure that handles LoRaWAN data. For this, a framework will be used, which allows packet manipulation to try to affect a LoRaWAN infrastructure. A virtual infrastructure will be implemented to carry out the tests. During the tests, it aims to identify the behavior that a device would have within a LoRaWAN network.
Descripción: Desde el inicio de IoT, se han propuesto varios protocolos de comunicación, diseñados para conectar diversos dispositivos con una potencia de procesamiento limitada, que a veces requiere el funcionamiento con baterías, potencia de procesamiento, a veces con funcionamiento a pilas. Entre estos protocolos destaca LoRaWAN, que es un protocolo LPWAN basado en el estándar IEEE802.15.4.Se centra en las comunicaciones de largo alcance de bajo consumo y en las capacidades de los dispositivos consumo de energía y ofrece la posibilidad de crear aplicaciones complejas y escalables basadas en su arquitectura de red. Aplicaciones escalables sobre su arquitectura de red. Desde la primera versión de LoRaWAN se han presentado problemas de seguridad que han venido siendo tratados con cada versión. Por su parte, este proyecto, pretende aprovechar la vulnerabilidad de Denegación de Servicio (DoS), intentando amplificar su potencia de ataque contra la infraestructura que maneja los datos de LoRaWAN. Para ello, se utilizará un framework, que permita realizar la manipulación de los paquetes para intentar afectar una infraestructura LoRaWAN. Se implementará una infraestructura virtual para realizar las pruebas. Durante las pruebas pretende identificar el comportamiento que tendría un dispositivo dentro de una red LoRaWAN.2022-08-01T00:00:00ZConsideraciones de implantación de sistemas y servicios de ti modalidad on-premise o en nube de computación en el Ecuador: obtención de datos, etapa de experimentación y redacción de publicación.Flores Chávez, Pablo Andréshttp://bibdigital.epn.edu.ec/handle/15000/244132023-07-25T17:41:57Z2022-09-01T00:00:00ZTítulo: Consideraciones de implantación de sistemas y servicios de ti modalidad on-premise o en nube de computación en el Ecuador: obtención de datos, etapa de experimentación y redacción de publicación.
Autor: Flores Chávez, Pablo Andrés
Resumen: Gender violence is a social problem that focuses on the physical and psychological attack on men and women in society. Nowadays, techniques to intimidate, steal information and harass are more common due to the free access of technological resources. For this reason, in recent years different social phenomena have been studied through the analysis of digital data, particularly short texts. From this point of view, a functional PDAC procedure for the detection of cyber bullying has been proposed, which allows the definition of different phases that involve cyber bullying in all its forms. That said, there are numerous investigations of the attack, but cyberattacks similar in nature to gender-based violence have been excluded from these studies. This research exposes the process for obtaining a life cycle from the perspective of computer security, specifically social engineering and persistent attack models according to the scientific field. Data related to gender violence was collected to be treated through Data Mining techniques, to proceed to standardize the levels of the life cycle of cyber bullying based on the PDAC. To achieve this objective, a data set of the experiences of the victims who have suffered this attack is used, this information is refined and an LDA topic model is applied to determine the stages of the attack.
Descripción: La violencia de género es un problema social que se enfoca en el ataque físico y psicológico a hombres y mujeres en la sociedad. Hoy en día, las técnicas para intimidar, robar información y realizar acoso son más comunes debido al libre acceso de recursos tecnológicos. Por esta razón, en los últimos años se ha estudiado diferentes fenómenos sociales mediante el análisis de datos digitales, particularmente textos cortos. Bajo esta óptica se ha planteado un procedimiento funcional PDAC procedimiento de detección de acoso cibernético, que permite definir diferentes fases que involucran al ciber acoso en todas sus formas. Dicho esto, existen numerosas investigaciones del ataque, pero los ataques cibernéticos de naturaleza similar a la violencia de género han sido excluidos de estos estudios. La presente investigación expone el proceso para la obtención de un ciclo de vida bajo la perspectiva de la seguridad informática, específicamente la ingeniería social y modelos de ataques persistentes acorde el campo científico. Se recabaron datos relacionados a la violencia de género para ser tratados por medio de técnicas de Data Mining, para proceder a estandarizar los niveles del ciclo de vida del acoso cibernético en base al PDAC. Para lograr este objetivo, se utilizan un conjunto de datos de las experiencias de las víctimas que han sufrido este ataque, está información se refinó y se aplicó un modelo de temas LDA para poder determinar las etapas del ataque.2022-09-01T00:00:00ZImplementación de mecanismos de control de acceso a información de identificación personal (pii) de acuerdo con la ley orgánica de protección de datos personales del Ecuador: mecanismos para la transferencia segura de pii.Venegas Villavicencio, Danny Estebanhttp://bibdigital.epn.edu.ec/handle/15000/244082023-07-25T15:56:02Z2023-03-01T00:00:00ZTítulo: Implementación de mecanismos de control de acceso a información de identificación personal (pii) de acuerdo con la ley orgánica de protección de datos personales del Ecuador: mecanismos para la transferencia segura de pii.
Autor: Venegas Villavicencio, Danny Esteban
Resumen: In Ecuador, the organic law of data protection aims to transform the way in which citizens' data travels securely through the network. But being a relatively new law, many companies do not understand the correct way to implement within their organization. It is then where an opportunity opens for this project to present a solution as: "The power to create secure transfer mechanisms that are in accordance with the law" giving as a solution a new architecture based on the three main references such as: "European General Data Protection Regulation (GDPR), the Ecuadorian Organic Law on Personal Data Protection (LOPDP) and the Government Information Security Scheme (EGSI)." Being a pioneer project in its field and allowing companies to have a clear idea of how to structure their organization according to LODPD. Thus, avoiding potential problems and nonconformities that the state could present. This project proposes an answer based on the implementation of digital signatures for sending documents between the parties of data collection and storage. As well as |a protocol of queries for external entities that wish to access the information within the company.
Descripción: En el Ecuador la ley orgánica de protección de datos pretende transformar la manera en que los datos de los ciudadanos viajen de manera segura por la red. Pero al ser una ley relativamente nueva muchas empresas no comprenden la forma correcta para implementar dentro de su organización. Es entonces donde se abre una oportunidad para que este proyecto presente una solución como: “El poder crear mecanismos de transferencia segura que estén acorde con la ley” dando como solución una nueva arquitectura en base a las tres referencias principales tales como: “Reglamento General de Protección de Datos (GDPR) europeo, la Ley Orgánica de Protección de Datos Personales (LOPDP) ecuatoriana y el Esquema Gubernamental de Seguridad de la Información (EGSI).” Siendo un proyecto pionero en su ámbito y permitiendo a las empresas tener una idea clara de cómo estructurar su organismo de acuerdo a LODPD. Evitando así posibles problemas e inconformidades que el estado pudiera presentar. El presente proyecto plantea una respuesta basada en la implementación de firmas digitales para el envió de documentos entre las partes de recolección de datos y almacenamiento. Como también, un protocolo de consultas para entidades externas que desean acceder a la información dentro de la compañía.2023-03-01T00:00:00ZDesarrollo de módulos en aplicativos móviles de sistema ERP utilizando prácticas DevOps seguras para Manticore Labs: comparativa e implementación de ambiente DevOps seguro con aplicativo móvil del módulo de Rol de Pagos.Iñiguez Sarango, Rodman Xavierhttp://bibdigital.epn.edu.ec/handle/15000/243802023-07-20T15:55:42Z2023-03-01T00:00:00ZTítulo: Desarrollo de módulos en aplicativos móviles de sistema ERP utilizando prácticas DevOps seguras para Manticore Labs: comparativa e implementación de ambiente DevOps seguro con aplicativo móvil del módulo de Rol de Pagos.
Autor: Iñiguez Sarango, Rodman Xavier
Resumen: The development and delivery of new mobile applications has become a race where large and small companies participate, to achieve this they implement methods, tools, technological innovations, methodologies, and even investment in personnel, therefore, the document below will analyze and put into practice a method widely used by the majority called DevOps, whose mode of operation focuses on the continuous integration of functional increments and equally continuous delivery of usable versions of the product to the client. To achieve the purpose of examining whether DevOps practices are safe and their performance in production are effective, the Scrum methodology will be used as support for the development of a mobile application focused on the Payment Role module of an ERP system, for which During the life cycle, the DevOps workflow will be executed a few times to compare it with a similar development situation, but without the mentioned workflow. In this way, a conclusion will be reached about the method, verifying if it complies with what was initially proposed or, if not, it does not.
Descripción: El desarrollo y entrega de nuevas aplicaciones móviles se ha convertido en una carrera donde grandes y pequeñas empresas participan, para lograrlo implementan métodos, herramientas, innovaciones tecnológicas, metodologías, e inclusive inversión en personal, por ello, el documento a continuación analizará y pondrá en práctica un método muy utilizado por la mayoría llamado DevOps, cuyo modo de operar se enfoca en la integración continua de incrementos funcionales y entregas igualmente continuas de versiones utilizables del producto al cliente. Para lograr el propósito de examinar si las practicas DevOps son seguras y su rendimiento en producción son efectivos, se utilizará la metodología Scrum como apoyo para el desarrollo de un aplicativo móvil enfocado en el módulo de Rol de pagos de un sistema ERP, por lo cual durante el ciclo de vida se ejecutará algunas veces el flujo de trabajo DevOps para compararlo con una situación similar de desarrollo, pero sin el flujo de trabajo mencionado. Así se llegará a una conclusión sobre el método verificando si cumple con lo planteado inicialmente o caso contrario no lo logra.2023-03-01T00:00:00ZEvaluación del desempeño computacional de sistemas de recomendación aplicado a bases de datos farmacológicas: implementación de un sistema de recomendación híbrido para predicción de interacciones farmacológicas.Rodríguez Zumárraga, Juan Pablohttp://bibdigital.epn.edu.ec/handle/15000/243672023-07-20T14:41:01Z2023-03-01T00:00:00ZTítulo: Evaluación del desempeño computacional de sistemas de recomendación aplicado a bases de datos farmacológicas: implementación de un sistema de recomendación híbrido para predicción de interacciones farmacológicas.
Autor: Rodríguez Zumárraga, Juan Pablo
Resumen: One of the most serious problems affecting human society is the fear of disease and the health complications that result from it. For this reason, human beings and society have developed what we know as a drug to fight against these fears. Thus, the processes of development and research of possible chemical structures, which could be used safely in humans, has been a very complex research work, given that technological advances have been the basis for the modernization of experimental and analytical methods to improve the properties or active ingredients of drugs. One example of this is the development of computational models, such as recommendation systems, which are responsible for providing the recommendation of an item to a user based on historical data of interactions that relate them. The main challenge that this work aims to address is in making use of recommender systems as a possible approach in the solution to drug repositioning, the search for new interactions for already established chemical compounds. For this reason, this work focuses its efforts on demonstrating that the problem of drug repositioning can be solved at the computational level through a recommendation model, which takes its data flow from historical data of clinical trials performed for compounds and cells of various origins. Carried out experiments gave us a basis of results with acceptable precision, which indicates the feasibility of the application of recommender systems as an alternative to be taken as a starting point in future research focused on drug repositioning
Descripción: Uno de los problemas más graves que afecta a la sociedad humana, es el miedo a las enfermedades y las complicaciones de salud que se derivan de estas. Por ello, el ser humano y la sociedad ha desarrollado lo que conocemos como un fármaco para combatir dichos temores. Así, el proceso de desarrollo e investigación de las posibles estructuras químicas, que pudieran ser usados de forma segura en el ser humano, ha sido un trabajo de investigación muy complejo, siendo los avances tecnológicos la base de la modernización de métodos de experimentación y análisis para mejorar las propiedades o principios activos de los fármacos. Así como los modelos computacionales como los sistemas de recomendación, que se encargan de brindar la recomendación de un ítem a un usuario con base en datos históricos de interacciones que las relacionan. La principal motivación del presente trabajo surge en plantear al sistema de recomendación como un posible enfoque en la solución al reposicionamiento de fármacos, la búsqueda de nuevas interacciones para compuestos químicos ya establecidos. Por este motivo, el presente proyecto centra sus esfuerzos en demostrar que el problema del reposicionamiento de fármacos puede ser solucionado a nivel computacional a través de un modelo de recomendación, que toma su flujo de datos a partir de los datos históricos de ensayos clínicos realizados para compuestos y células de diversos orígenes. La experimentación efectuada nos dio una base de resultados con precisión aceptables, que nos indican la viabilidad de la aplicación de los sistemas de recomendación como una alternativa a ser tomada de punto inicial en futuras investigaciones enfocadas en el reposicionamiento de fármacos.2023-03-01T00:00:00ZDesarrollo de un corpus paralelo de texto e imágenes en el idioma japonés para futuros trabajos de investigación en procesamiento de lenguaje natural : creación de un corpus paralelo para el idioma japonés.Carrión Zelaya, Eduardo Benjaminhttp://bibdigital.epn.edu.ec/handle/15000/234252022-11-07T15:17:31Z2022-10-01T00:00:00ZTítulo: Desarrollo de un corpus paralelo de texto e imágenes en el idioma japonés para futuros trabajos de investigación en procesamiento de lenguaje natural : creación de un corpus paralelo para el idioma japonés.
Autor: Carrión Zelaya, Eduardo Benjamin
Resumen: The presented work aims at creating a parallel corpus of Japanese texts. This corpus starts with a set of files that go through an initial cleaning that produces the reference corpus. Based on this corpus, a parallel corpus is obtained with the insertion of spelling errors. These errors are simulated by what is known as a noisy channel. An OCR system is used to simulate this noisy channel. The errors of this OCR system represent the noisy channel. Following the error production process, an alignment is performed in order to have a localization of the produced errors.
Descripción: Él trabajo presentdo tiene como fin la creación de un corpus paralelo constituido por textos en Japones. Este corpus inicia con un conjunto de archivos que pasan por una limpieza inicial para producir el corpus de referencia. En base a este corpus se busca obtener otro corpus paralelo con la inserción de errores de tipo ortográfico. Estos errores son simulados por lo que se conoce como un canal ruidoso. Para la simulación de este canal ruidoso se hace uso de un sistema OCR ya a que los fallos de este sistema representan el canal ruidoso. A continuación del proceso de producción de errores se realiza un alineamiento para poder tener una localización de los errores producidos.2022-10-01T00:00:00ZAnálisis de los procesos electorales en Ecuador : análisis exploratorio de estructuras, tendencias y relaciones estadísticas de variables sociales, económicas y electorales en Ecuador.Herrera Flores, Jonathan Alexanderhttp://bibdigital.epn.edu.ec/handle/15000/234172022-11-07T14:12:12Z2022-10-01T00:00:00ZTítulo: Análisis de los procesos electorales en Ecuador : análisis exploratorio de estructuras, tendencias y relaciones estadísticas de variables sociales, económicas y electorales en Ecuador.
Autor: Herrera Flores, Jonathan Alexander
Resumen: The present work started with an exploratory data analysis using the Kaggle environment, through the hypothetical-deductive method. The data used comes from the CNE on the 2021 general elections in Ecuador, and the INEC employment, unemployment, and underemployment survey. Observations were made, two hypotheses were raised, their consequences were deduced and then an attempt was made to refute the hypotheses. The first hypothesis stated that the difference observed between registered votes and the total sum of votes is due to common errors made in the meetings. This hypothesis could not be refuted with the observed data, so it is tentatively true according to the carried-out analysis. The second hypothesis proposed that voters would have a certain preference for a candidate, depending on the socioeconomic stratum to which they belong. It was partially refuted since, according to the analysis, there was a preference for a candidate on the part of low-stratum voters, but not in the case of high-stratum voters. Additionally, a general computational analysis, and a discussion about the advantages and disadvantages of the Kaggle environment, were performed. Finally, a specific computational analysis was performed for the behavior of the Kaggle environment during the previous exploratory analysis. This analysis was carried out using the hypothetical-deductive method, with a hypothesis that anticipated the sections that would occupy more computational resources. This hypothesis could not be refuted by the analyzed data, but additional code sections with high consumption of computational resources were found.
Descripción: El presente trabajo inició con un análisis exploratorio de datos usando el entorno de Kaggle, mediante el método hipotético-deductivo. Los datos usados provienen del CNE sobre las elecciones generales del 2021 en Ecuador, y de la encuesta de empleo, desempleo y subempleo del INEC. Se realizó observaciones, se planteó dos hipótesis, se dedujo sus consecuencias y luego se intentó refutar las hipótesis. La primera hipótesis planteó que la diferencia observada entre votos registrados y la suma total de votos, es debido a errores comunes cometidos en las juntas. Esta hipótesis no pudo ser refutada con los datos observados, por lo que es tentativamente verdadera según el análisis realizado. La segunda hipótesis planteó que los votantes tendrían cierta preferencia por un candidato, según el estrato socioeconómico al que pertenecen. La misma fue refutada parcialmente ya que, según el análisis, hubo preferencia por un candidato de parte de votantes de estrato bajo, pero no en el caso de los votantes de estrato alto. Adicionalmente, se realizó un análisis computacional general, y una discusión sobre ventajas y desventajas del entorno de Kaggle. Finalmente, se realizó un análisis computacional específico para el comportamiento que tuvo el entorno de Kaggle durante el análisis exploratorio anterior. Este análisis se realizó usando el método hipotético-deductivo, con una hipótesis que preveía las secciones que ocuparían más recursos computacionales. Esta hipótesis no pudo ser refutada por los datos analizados, pero se encontró secciones de código adicionales con alto consumo de recursos computacionales.2022-10-01T00:00:00ZHerramientas de seguridad defensiva y ofensiva para redes lorawan : desarrollo de un prototipo de módulo de análisis de tráfico basado en wireshark para detección de ataques de denegación usando inspección de tramas lorawan que provea una capa de integración api rest.Amaguaña Aguilar, Christian Javierhttp://bibdigital.epn.edu.ec/handle/15000/234162022-11-07T14:06:36Z2022-10-01T00:00:00ZTítulo: Herramientas de seguridad defensiva y ofensiva para redes lorawan : desarrollo de un prototipo de módulo de análisis de tráfico basado en wireshark para detección de ataques de denegación usando inspección de tramas lorawan que provea una capa de integración api rest.
Autor: Amaguaña Aguilar, Christian Javier
Resumen: Every day technology continues to advance and with it the smart devices for our home, with this comes the birth of the IoT or the internet of things that have allowed thousands of people to connect, now that it has currently allowed the implementation of almost everything that there is in the home, however, for this reason it is the responsibility to seek solutions for the security of each of the devices since, as technology advances, cybercrime also grows, looking for new opportunities to steal our information.
Among the biggest attacks that have existed and that have advanced has been the distributed denial of services, which has been applied to these IoT devices today, due to its technology that is current and continues to advance, there is still more to know about this technology and their way of taking care of the way in which the information is handled through them.
Along with its LoRaWAN protocols that have been implemented in these devices and the information packets it handles, the development of a sniffer and in the future a Rest Api has been taken into account that allows both capturing these packets to know their destination and the information they contain. store them in a database so that this information can be consulted so that it can be analyzed and find out if it is a denial-of-service attack.
Based on the current principles of open source or open source and implementing continuous improvement through LEAN technology for the development of this project along with the Scrum framework for a correct use of each phase explained within this project.
Descripción: Cada día la tecnología sigue avanzando y con ello los dispositivos inteligentes para nuestro hogar, con esto llega el nacimiento del IoT o el internet de las cosas que han permitido conectar a miles de personas, ahora que en la actualidad ha permitido implementar casi todo lo que hay en el hogar, sin embargo, por esto se tiene la responsabilidad que buscar soluciones para la seguridad de cada uno de los dispositivos ya que al igual que la tecnología avanza también crece la ciber delincuencia buscando nuevos oportunidades de robar nuestra información.
Dentro de los mayores ataques que han existido y que han avanzado ha sido la denegación de servicios distribuidos, que se ha estado aplicando a estos dispositivos IoT en la actualidad, por su tecnología que es actual y sigue avanzando aún queda conocer más sobre esta tecnología y su forma de cuidar la manera en que se maneja la información a través de los mismos.
Junto con sus protocolos LoRaWAN que se han implementado en estos dispositivos y los paquetes de información que maneja se ha tomado en cuenta el desarrollo de un sniffer y en futuro un Api Rest que permita tanto capturar estos paquetes para conocer su destino e información que contiene como almacenarlas en una base de datos que se pueda consultar esta información para que pueda ser analizada y conocer si es un ataque de denegación de servicio.
Basándose en los actuales principios del open source o código abierto e implementando la mejora continua mediante la tecnología LEAN para el desarrollo de este proyecto a la par del framework Scrum para un correcto uso de cada fase explicada dentro de este proyecto.2022-10-01T00:00:00ZEvaluación del desempeño computacional de sistemas de recomendación aplicado a bases de datos farmacológicas : Sistema de recomendación basado en el conocimiento.Paredes Araujo, Ramses Alexanderhttp://bibdigital.epn.edu.ec/handle/15000/234152022-11-07T14:00:26Z2022-10-01T00:00:00ZTítulo: Evaluación del desempeño computacional de sistemas de recomendación aplicado a bases de datos farmacológicas : Sistema de recomendación basado en el conocimiento.
Autor: Paredes Araujo, Ramses Alexander
Resumen: The drug repositioning was born as an alternative to the great problems that exist in the drug development process, making it possible to cover diseases that does not have a
specific treatment or that are in short supply. We propose the development of a knowledge-based recommendation system to be used in drug repositioning. The ChEMBL pharmacological database version 29 was used, it contains information about activities between compounds and cells. Information about interrelationships between cells was also used, for which an intersection value was considered, it indicates which cells are more related to each other. Using this information, the recommendation system generates activity predictions for relationships between compounds and cells. Tests were performed to find an activity for relationships between compounds and cells in the ChEMBL v30 database that were not found in v29 database, showing 100% true positive results, along with 99.33% true negative results. , these were obtained on a confusion matrix with 305 recommendations. Based on the results, it was confirmed that the knowledge-based recommendation system generated can generate activity recommendations for relationships between compounds and cells that are not yet found in the pharmacological databases used.
Descripción: El reposicionamiento de fármacos nace como una alternativa ante los grandes problemas existentes en el desarrollo de fármacos, permitiendo cubrir enfermedades para las que no existe un tratamiento específico o suplir medicamentos que se encuentran en escasez. Se propone el desarrollo de un sistema de recomendación basado en el conocimiento para su uso en el reposicionamiento de fármacos. Se utilizó la base de datos farmacológica ChEMBL en su versión 29, que contiene información de actividades existentes entre compuestos y células. También se usó información de las interrelaciones entre células, por lo que se consideró un valor de intersección el cual indica que células se relacionan más entre sí. Con la implementación de esta información el sistema de recomendación genera predicciones de actividades para relaciones entre compuestos y células. Se realizaron pruebas que consistían en encontrar una actividad para relaciones entre compuestos y células de la base de datos ChEMBL v30 que no se encontraban en la v29, las cuales muestran un 100% de resultados verdaderos positivos, junto con un 99.33% de resultados verdaderos negativos, estos dentro de una matriz de confusión con 305 recomendaciones. Los resultados muestran que el sistema de recomendación basado en el conocimiento que se generó en el trabajo es capaz de generar recomendaciones de actividades para relaciones entre compuestos y células que aún no se encuentran en las bases de datos farmacológicas utilizadas.2022-10-01T00:00:00ZDesarrollo de módulos en aplicativos móviles de sistema ERP utilizando prácticas DevOps Seguras para Manticore Labs: comparativa e implementación de ambiente DevOps seguro con aplicativo móvil del módulo de Recaudos.Armijos Macas, Wilman Albertohttp://bibdigital.epn.edu.ec/handle/15000/234142022-11-07T13:55:53Z2022-10-01T00:00:00ZTítulo: Desarrollo de módulos en aplicativos móviles de sistema ERP utilizando prácticas DevOps Seguras para Manticore Labs: comparativa e implementación de ambiente DevOps seguro con aplicativo móvil del módulo de Recaudos.
Autor: Armijos Macas, Wilman Alberto
Resumen: Applications development can be executed through using many different development and management methodologies, some giving better results and greater value to stakeholders than others. Two of them, DevOps, and Scrum, are two of the most used methodologies currently, each one in its area of application, and even this two seem to be the best alternatives between all, a question arises, ¿how sure can we say that these are the best alternatives? With that in mind, this work shows the usage of these both methodologies in the process of developing an application for mobile devices with the use of secure DevOps flows. It presents a general view of the use of Scrum and its adaption in this project, and the results it gave; likewise, along every segment in which this process was divided are shown the results gotten from the use of secure DevOps flows that were designed and implemented previously. Before ending and to answer the question before, a comparison between these results and the execution of a similar project without the use of these DevOps flows is made, and so an introspective analysis of the use of these flows and how it could have been done in other projects with same characteristics, and so with others different from this.
Descripción: El desarrollo de aplicaciones puede abordarse a través de distintas metodologías de desarrollo y gestión, algunas otorgando mejores resultados y mayor valor a los interesados que otras. Dos de estas metodologías, DevOps y Scrum, son algunas de las más utilizadas actualmente, cada una dentro de su ámbito de aplicación, y si bien se observan como unas de las mejores alternativas, cabe la pregunta, ¿qué tan seguros podemos estar de ello? Con ello en mente, el presente trabajo muestra la inclusión de ambas metodologías dentro del desarrollo de una aplicación para dispositivos móviles a través del uso de flujos DevOps seguros. Se presenta una vista acerca del uso de la metodología Scrum y su adaptación dentro del proyecto, destacando los resultados obtenidos a lo largo de su ejecución; así mismo, dentro de cada uno de los puntos en los que se ha dividido el proyecto se muestran los resultados conseguidos a partir del uso de los flujos DevOps que se han diseñado he implementado. Para finalizar y responder a la pregunta, se realiza una comparación de estos con lo que significa ejecutar un proyecto de las mismas características sin el uso de dichos flujos DevOps, así como un análisis introspectivo de su uso dentro de este proyecto y sus posibles resultados dentro de proyectos similares, así como con proyectos de diferentes características al ejecutado.2022-10-01T00:00:00ZDesarrollo de módulos en aplicativos móviles de sistema ERP utilizando prácticas DevOps Seguras para Manticore Labs.Jaramillo Torres, Christopher Leonardohttp://bibdigital.epn.edu.ec/handle/15000/234132022-11-07T13:47:43Z2022-10-01T00:00:00ZTítulo: Desarrollo de módulos en aplicativos móviles de sistema ERP utilizando prácticas DevOps Seguras para Manticore Labs.
Autor: Jaramillo Torres, Christopher Leonardo
Resumen: Continuous integration allows the combination of changes made in the development of a software in a repository, the tests are carried out automatically in the different versions that a software may have. The goal of continuous integration is to improve the speed and validation of software updates.
This curricular integration work proposes a mobile application for the maintenance module of an ERP system, using the Scrum methodology and continuous integration, in order to automate the process of generating an executable file or APK file for mobile devices, As well as the use or versioning of these files through DevOps practices, a model will appear for the implementation of a continuous integration in the development of a mobile application.
Descripción: La integración continua permite la combinación de cambios realizados en el desarrollo de un software en un repositorio, las pruebas se realizan de manera automática en las diferentes versiones que puede tener un software. El objetivo de una integración continua es mejorar la rapidez y validación de actualizaciones de un software.
El presente trabajo de integración curricular propone una aplicación móvil, para el módulo de mantenimiento de un sistema ERP, utilizando la metodología Scrum y la integración continua, con el fin de automatizar el proceso de generación de un archivo ejecutable o archivo APK para dispositivos móviles, al igual que el despliegue o versionamiento de estos archivos mediante las prácticas DevOps, generando un modelo para la implementación de una integración continuar en el desarrollo de una aplicación móvil.2022-10-01T00:00:00ZDesarrollo de módulos en aplicativos móviles de Sistema ERP utilizando prácticas DevOps seguras para Maticore LABS.Naula Lomas, Christian Alejandrohttp://bibdigital.epn.edu.ec/handle/15000/234122022-11-07T13:42:31Z2022-10-01T00:00:00ZTítulo: Desarrollo de módulos en aplicativos móviles de Sistema ERP utilizando prácticas DevOps seguras para Maticore LABS.
Autor: Naula Lomas, Christian Alejandro
Resumen: The management of a company's inventory is an arduous and sometimes complexctask; however, it helps us maintain control over the products that an organization has throughout its entire production chain, thus making it a fundamental piece in business resource management.
The present curricular integration work proposes a mobile application, for the management of the Inventory of a company as a module of an ERP system, developed under a Scrum methodology and with DevOps practices that optimize resources in the elaboration of specific tasks in coding and deployment. of the application, such as the construction of the executable for Android devices (.apk file) and the loading of stable versions for use once development is finished. The application will be built under a web development environment with HTML, CSS, TypeScript technologies and the Ionic mobile development framework.
Descripción: La gestión del inventario de una empresa es una labor ardua y en ocasiones compleja, sin embargo, esta nos ayuda a mantener un control sobre los productos que posee una organización a lo largo de toda su cadena de producción, convirtiéndola así en una pieza fundamental en la gestión de recursos empresariales.
El presente trabajo de integración curricular propone una aplicación móvil, para el manejo del Inventario de una empresa como un módulo de un sistema ERP, desarrollada bajo una metodología Scrum y con prácticas DevOps que optimicen recursos en la elaboración de tareas específicas en la codificación y despliegue del aplicativo, tales como la construcción del ejecutable para dispositivos Android (archivo .apk) y la carga de versiones estables para su uso una vez terminado el desarrollo. El aplicativo será construido bajo un entorno de desarrollo web con tecnologías HTML, CSS, TypesCript y el Framework de desarrollo móvil Ionic.2022-10-01T00:00:00ZAplicación de técnicas de aprendizaje de máquina para facilitar la comunicación en pacientes con neuropatía periférica utilizando señales eeg y visión computacional : Modelo de redes convolucionales basadas en rostros para la detección de movimientos en videos aplicando el seguimiento de las pupilas.Gallardo Ortiz, Erick Estebanhttp://bibdigital.epn.edu.ec/handle/15000/234092022-11-07T13:27:35Z2022-10-01T00:00:00ZTítulo: Aplicación de técnicas de aprendizaje de máquina para facilitar la comunicación en pacientes con neuropatía periférica utilizando señales eeg y visión computacional : Modelo de redes convolucionales basadas en rostros para la detección de movimientos en videos aplicando el seguimiento de las pupilas.
Autor: Gallardo Ortiz, Erick Esteban
Resumen: Technology advances and so do people's diseases, in this case neuropathy is a disease which does not allow good communication, because technology can help these people to improve their quality of life, in this case artificial intelligence is applied. There are several ways to achieve communication, in this case the gaze and blinks are used for the selection of an action, this facilitates the way in which such people could communicate, for this several architectures were implemented and tests were performed for the validation of such models, the tests were performed in a controlled environment with software similar to the dataset to obtain better results. For this reason a model was implemented with which the automatic recognition of events can be achieved, extracting specific characteristics of a person, for this machine learning techniques have been applied in order to implement a model that is able to work under certain conditions and also using computer vision.
Descripción: La tecnología avanza y las enfermedades de las personas también, en este caso la neu ropatía es una enfermedad con cuál no se permite una buena comunicación, porque la tecnología puede ayudar a dichas personas a mejorar su calidad de vida, en este caso se aplica la inteligencia artificial. Existen varias maneras para lograr la comunicación, en este se utiliza la mirada y los parpadeos para la selección de una acción, con esto se facilita la manera en la que se podrían comunicar dichas personas, para esto se implementó varias arquitecturas y se realizó pruebas para la validación de dichos modelos, las pruebas fue ron realizadas en un ambiente controlado con un software parecido al de los dataset para obtener mejores resultados. Por esta razón se implementó un modelo con el cual se pue de lograr el reconocimiento automático de eventos, extrayendo características específica de una persona, para esto se han aplicado técnicas de aprendizaje de máquina con el fin de implementar un modelo que sea capaz de trabajar bajo ciertas condiciones y además utilizando visión computacional.2022-10-01T00:00:00ZEvaluación del Desempeño Computacional de Sistemas de recomendación aplicado a bases de datos farmacológicas : Implementación de un Sistema de recomendación basado en contenido para predicción de interacciones farmacológicas.Murgueytio Campaña, Carlos Andréshttp://bibdigital.epn.edu.ec/handle/15000/234082022-11-02T20:48:44Z2022-10-01T00:00:00ZTítulo: Evaluación del Desempeño Computacional de Sistemas de recomendación aplicado a bases de datos farmacológicas : Implementación de un Sistema de recomendación basado en contenido para predicción de interacciones farmacológicas.
Autor: Murgueytio Campaña, Carlos Andrés
Resumen: Nowadays, in the field of bioinformatics, new scientific discoveries or findings cause new problems or complications to arise on different topics, for example, every so often
information about new drugs is updated in the chemical database ChEMBL, so all the information related to these new drugs must be processed and verified, which results in a
work that involves a lot of effort and time. In addition, sometimes this work is not as efficient or does not yield convincing results, which means that these discoveries and efforts
are not relevant. Faced with this problem, one of the solutions that arise is drug repositioning.
This degree work shows the procedure to elaborate a content-based recommendation system to perform the repositioning of the drugs that exist in version 29 of ChEMBL. The
results obtained with the recommendation system will be compared with the actual results, which will help to verify the accuracy of the recommendations made.
Descripción: En la actualidad, en el ámbito de la bioinformática, nuevos descubrimientos o hallazgos científicos hacen que surjan nuevos problemas o complicaciones sobre distintos temas,
por ejemplo, cada cierto tiempo se actualiza la información sobre nuevos fármacos en la base de datos química ChEMBL, por lo que toda la información relacionada a esos
nuevos fármacos debe ser procesada y verificada, lo que resulta en un trabajo que conlleva mucho esfuerzo y tiempo. Además, algunas veces este trabajo no es tan eficiente o no
arroja resultados convincentes, lo que genera que estos descubrimientos y esfuerzos no sean relevantes. Frente a esta problemática, una de las soluciones que surgen es el
reposicionamiento de fármacos.
El presente trabajo de titulación muestra el procedimiento para elaborar un sistema de recomendación basado en contenido, para realizar el reposicionamiento de los fármacos
que existen en la versión 29 de ChEMBL, los resultados obtenidos con el sistema de recomendación serán comparados con los resultados reales, lo que ayudará a verificar la
exactitud de las recomendaciones realizadas.2022-10-01T00:00:00ZDiseño y aplicación de un modelo de reconocimiento de 11 gestos de la mano usando señales EMG, IMU, DTW Y KNN.Rivera Cajía, Óscar Mauriciohttp://bibdigital.epn.edu.ec/handle/15000/233992022-11-01T17:21:36Z2022-10-01T00:00:00ZTítulo: Diseño y aplicación de un modelo de reconocimiento de 11 gestos de la mano usando señales EMG, IMU, DTW Y KNN.
Autor: Rivera Cajía, Óscar Mauricio
Resumen: In the present work, a real-time hand gesture recognition model was developed based on signals taken from static and dynamic gestures. The inputs for this model are hand movement signals measured by surface electromyography (EMG) and by an inertial measurement unit (IMU) using sensors embedded in commercial armbands. Both types of signals are obtained from commercial Myo Armband and G-Force Pro sensors. The dataset used for this work contains EMG and IMU signals from 85 users. Those signals were collected during the execution of 12 gestures: 11 gestures: wave in, wave out, fist, open, pinch, up, down, left, right, forward and backward plus the relax gesture. For each gesture, 15 repetitions of 5 seconds were executed, composing a total of 180 samples for each user. The output of the model is the classified label of the gesture that the user executes at each moment and the instant of time where the gesture was performed, i.e., the model provides results in terms of classification and recognition of the gesture performed. This model can recognize 11 gestures. The recognition phase is based on the KNN and DTW algorithms. In this model, the KNN algorithm takes the signal classification function using the DTW algorithm as the similarity distance function between the input signal and the trained signals. The evaluation of the model was carried out in terms of response time, classification accuracy and recognition. The results of this work were a classification accuracy of 80% and a recognition accuracy of 66% of recognition below 0.22 seconds on average.
Descripción: En el presente trabajo se desarrolló un modelo de reconocimiento de gestos de la mano en tiempo real. Las entradas para este modelo son señales de movimiento de la mano medidas por electromiografía de superficie (EMG) y por una unidad de medida inercial (IMU). Ambos tipos de señales son obtenidas a partir de los sensores comerciales Myo Armband y G-Force Pro. Por su parte, la salida del modelo es la etiqueta clasificada del gesto que el usuario ejecuta en cada momento y el instante de tiempo en donde se realizó el gesto. Este modelo puede reconocer 11 gestos basado en los algoritmos KNN y DTW. En este modelo, el algoritmo KNN toma la función de clasificación de señales usando al algoritmo DTW como función de distancia de similitud entre señales. La evaluación del modelo se llevó a cabo midiendo el tiempo de respuesta y la exactitud de clasificación y reconocimiento.2022-10-01T00:00:00ZRediseño e inclusión de gamificación en los módulos 3-emocionalidad y 4-construcción de equipos de alto rendimiento, en el aula virtual del taller team building con robótica educativa.Hidalgo Carrillo, Brigitte Hidalgohttp://bibdigital.epn.edu.ec/handle/15000/233902022-11-01T15:42:33Z2022-10-01T00:00:00ZTítulo: Rediseño e inclusión de gamificación en los módulos 3-emocionalidad y 4-construcción de equipos de alto rendimiento, en el aula virtual del taller team building con robótica educativa.
Autor: Hidalgo Carrillo, Brigitte Hidalgo
Resumen: The Team Building workshop with educational robotics is a workshop organized annually by the National Polytechnic School. It seeks to encourage teamwork among teachers. The main tool used for this purpose is the Moodle virtual classroom. This workshop has three main problems: 1) the virtual classroom was not designed with design principles, 2) the virtual classroom does not have interactive elements and 3) the workshop directors have observed desertion and lack of commitment on the part of the participants. Therefore, in view of these problems, it was proposed in this work to redesign modules 3 (Emotionality) and 4 (Team Building) of the virtual classroom, using design principles and implementing gamification. Additionally, four evaluations were carried out. These were Nielsen heuristic evaluation, usability, gamification and another one referring to acquired knowledge. The results show that: several design problems were solved, the usability of the virtual classroom decreased, the gamification elements implemented encouraged student participation, and there were improvements in the level of knowledge of certain participants. In addition, the 3rd edition of the Team Building workshop was planned and executed. Everything done in this work was based on the Action Research methodology.
Descripción: El taller Team Building con robótica educativa, es un taller organizado anualmente por la Escuela Politécnica Nacional. El mismo, busca incentivar el trabajo en equipo entre profesores. Para ello, utilizan como principal herramienta el aula virtual Moodle. Dicho taller presenta principalmente tres problemas: 1) el aula virtual no fue diseñada con principios de diseño, 2) el aula virtual no presenta elementos interactivos y 3) Los directores del taller han observado deserción y falta de compromiso por parte de los participantes. Por lo tanto, frente a estos problemas se propuso en este trabajo rediseñar los módulos 3 (Emocionalidad) y 4 (Construcción de equipos) del aula virtual, utilizando principios de diseño e implementar gamificación. Adicionalmente, se realizaron cuatro evaluaciones. Las cuales fueron evaluación heurística Nielsen, usabilidad sus, gamificación y otra referente a conocimientos adquiridos. En los resultados se puede observar que: se solucionaron problemas de diseño, disminuyó la usabilidad del aula virtual, los elementos de gamificación implementados incentivan la participación del estudiante, y hubo mejoras en el nivel de conocimiento de ciertos participantes. Además, se planificó y ejecutó la 3era edición del taller Team Building. Todo lo realizado en este trabajo, se hizo basándose en la metodología Action Research2022-10-01T00:00:00ZImplementar e impartir un taller virtual colaborativo de team building con elementos de gamificación sobre el módulo 5 plan de acción y gestión de compromisos: módulo 5 del taller de robótica plan de acción y gestión de compromisos.Jumbo Cueva, Cristhian Paulhttp://bibdigital.epn.edu.ec/handle/15000/233892022-11-01T15:37:19Z2022-10-01T00:00:00ZTítulo: Implementar e impartir un taller virtual colaborativo de team building con elementos de gamificación sobre el módulo 5 plan de acción y gestión de compromisos: módulo 5 del taller de robótica plan de acción y gestión de compromisos.
Autor: Jumbo Cueva, Cristhian Paul
Resumen: This degree work focuses on the redesign of a component of the virtual classroom Educational Robotics Workshop by applying elements of gamification, content design and usability-oriented form. With the objective of having better learning results when executing the workshop with a gamified virtual classroom, maintaining the motivation to successfully complete the workshop. For this reason,it was proposed to redesign the workshop to have a gamified virtual classroom with acceptable levels of usability. The action research methodology allowed combining research and practice, which are related to technological and human aspects. The process started with the evaluation of the virtual classroom to check its initial state and establish the necessary background to carry out the development of the new gamified workshop. This was followed by a planning focused on the fulfillment of the project's objectives, through the use of the "Action Research" methodology, which allowed listing each of the activities that needed to be developed to achieve the desired final product. In the evaluation and results phase, 3 evaluation approaches were taken into account. The first, using the SUS Usability Scales System with an initial score of 63.5 and marginal acceptability to a final overall score of 82 out of 100, placing it in the acceptable and excellent range. The second, evaluation with the 10 Nielsen Heuristics with initial average values of 2.33 and in the modified version 3, with values below 0.83, indicating that there are no serious usability problems, only minor problems of low priority. Thethird, gamification evaluation with an evaluation instrument based on gamification elements and heuristics that evaluate serious games with the objective of obtaining a questionnaire focused on the gamification of the virtual workshop. Thus, the gamification percentage result was 88.62%, which satisfies the gamification in the virtual classroom and fulfills the objective of the project.
Descripción: El presentetrabajo de titulación se enfoca en el rediseño de un componente del aula virtualTaller de Robótica Educativa aplicando elementos de gamificación,diseño de contenidoy de formaorientado a usabilidad. Con el objetivo de tener mejores resultados de aprendizaje a la hora de ejecutar el taller con unaula virtual gamificada,manteniendo la motivación para finalizar de manera satisfactoria el taller. Por esta razón se propuso rediseñar el taller para tener un aula virtualgamificadacon niveles de usabilidad aceptables.La metodología action research permitió combinar la investigación y la práctica mismos que están relacionados con lo tecnológico y humano.El proceso dio inicio, con la evaluación del aula virtual para comprobar su estado inicial y establecer los antecedentes necesarios para llevar a caboel desarrollo del nuevo taller gamificado. Seguida de una planificación enfocada al cumplimiento de los objetivos del proyecto, mediante el uso de la metodología “Action Research”, que permitió listar cada una de las actividades que se necesitaba desarrollar para alcanzar el producto final deseado. Enla fase de evaluacióny resultados setomaron en cuenta 3 enfoques deevaluación. La primera,utilizando el Sistemade Escalas de UsabilidadSUScon una puntuación inicial de 63.5 y aceptabilidad marginal a una puntuación final global de 82sobre100ubicándoloen un rango aceptable y excelente. La segunda,evaluación con las 10 Heurísticas de Nielsen con valores promedioinicial de 2.33y en la versión 3 modificada, convaloresmenores a 0.83,lo que indica que no existen problemas graves de usabilidad,únicamente problemas menores de baja prioridad.La tercera,evaluación de gamificación con un instrumento de evaluación basado en los elementos de gamificación y las heurísticasqueevalúan juegos serios con el objetivo deobtener un cuestionario focalizado en la gamificación del taller virtual.Teniendoasíun resultado porcentualde gamificación de 88,62%,quesatisface la gamificaciónen el aula virtualcumpliendo el objetivo del proyecto.2022-10-01T00:00:00ZRediseño e implementación de gamificación en los componentes “conocimiento y autocoaching” y “comunicación efectiva” en el aula virtual del taller virtual colaborativo team building: “conocimiento y autocoaching” y “comunicación efectiva”.Jácome Jami, Daniela Estefaníahttp://bibdigital.epn.edu.ec/handle/15000/233772022-10-28T21:28:09Z2022-10-01T00:00:00ZTítulo: Rediseño e implementación de gamificación en los componentes “conocimiento y autocoaching” y “comunicación efectiva” en el aula virtual del taller virtual colaborativo team building: “conocimiento y autocoaching” y “comunicación efectiva”.
Autor: Jácome Jami, Daniela Estefanía
Resumen: The project has a purpose that it is to gamify the components “Autoconocimiento y coaching” and “Comunicación Efectiva” in the Moodle platform of the virtual workshop “Team Building”. The first chapter describes components that will be modified. After that, it is described the objectives, scope of work and theorical framework.
The second chapter describes the methodology, which is Action Research. Action Research has four stages. However, prior to explain this. the current virtual course without being gamified is analized. Next, it starts the first stage. The Planning stage defines the changes. Then, the Acting stage implements the planned, and the workshop runs at “Unidad Educativa Cristiana Verbo”. The following two stages are developed in the third and fourth chapters. The third chapter analyze the results of the usability and gamification evaluations, and it compares the evaluators’ perspectives. Finally, in the fourth chapter the conclusions and recommendations are defined.
Descripción: El presente proyecto tiene como objetivo gamificar los componentes “Autoconocimiento y coaching” y “Comunicación efectiva” en la plataforma Moodle del taller virtual Team Building, sin dejar de lado la usabilidad. En el primer capítulo se describe los componentes que van a ser modificados, posterior a ello se detalla los objetivos, el alcance y el marco teórico. El segundo capítulo describe la metodología con la que se desarrolla el proyecto, la cual es Investigación Acción (Action Research). Investigación Acción cuenta con 4 etapas; sin embargo, previo al desarrollo de estas, se analiza el contenido del aula virtual sin ser gamificada, a lo que denominaremos versión inicial. Posterior a esto, empieza con la primera etapa. La etapa Planificar detalla los cambios que se van a realizar. Después, se continúa con la etapa Actuar, en esta fase se implementa lo planificado y se ejecuta el taller en la Unidad Educativa Cristiana Verbo. Las siguientes dos etapas de la metodología se las desarrolla en los capítulos 3 y 4. El tercer capítulo analiza los resultados de las evaluaciones de usabilidad y gamificación, y compara las distintas perspectivas de evaluadores. Finalmente, en el cuarto capítulo se presenta las conclusiones y recomendaciones.2022-10-01T00:00:00ZAnálisis estadístico de los procesos electorales en Ecuador : análisis exploratorio estadístico de los procesos electorales en Ecuador.Taco Pulupa, Joselyn Selenahttp://bibdigital.epn.edu.ec/handle/15000/233762022-10-28T21:20:57Z2022-10-01T00:00:00ZTítulo: Análisis estadístico de los procesos electorales en Ecuador : análisis exploratorio estadístico de los procesos electorales en Ecuador.
Autor: Taco Pulupa, Joselyn Selena
Resumen: The Curricular Integration Work (TIC) puts into practice the knowledge acquired during the career, by performing exploratory analysis of data related to the electoral processes and the socioeconomic conditions of Ecuador. The processed data are obtained from the CNE and INEC websites. In addition, a comprehensive computational analysis of the computational systems used is integrated with this work, as well as a performance evaluation of these systems. For all of the above, the work follows a mixed research methodology (qualitative and quantitative) for each analysis. The TIC uses the statistical language R to perform the exploratory data analysis. At the end of the work, the results show a statistically significant relationship between electoral results and the level of illiteracy in Ecuador; as well as the evidence of high consumption of processing and storage when performing the exploratory data analysis.
Descripción: El Trabajo de Integración Curricular (TIC) tiene como objetivo poner en práctica los conocimientos adquiridos durante la carrera, al realizar un análisis exploratorio de datos relacionado a los procesos electorales y a las condiciones socioeconómicas del Ecuador. Los datos procesados son obtenidos en los sitios Web del CNE e INEC. Además, se integra en este trabajo un análisis computacional integral de los sistemas computacionales utilizados, así como una evaluación de rendimiento a dichos sistemas. Para todo lo mencionado anteriormente, el trabajo sigue una metodología de investigación mixta (cualitativa y cuantitativa) para cada uno de los análisis. El TIC utiliza el lenguaje estadístico R para realizar el análisis exploratorio de datos. Al finalizar con el trabajo los resultados muestran la presencia de una relación estadísticamente significativa entre los resultados electorales y el nivel de analfabetismo en Ecuador; así como, la evidencia de un consumo alto de procesamiento y almacenamiento al realizar el análisis exploratorio de datos.2022-10-01T00:00:00ZAnálisis de señales EEG para la detección de emociones, usando algoritmos de aprendizaje automático: obtención de un dataset para reconocimiento de emociones usando técnicas de aprendizaje automático.Cabrera Pabón, Edison Danielhttp://bibdigital.epn.edu.ec/handle/15000/233372022-10-27T20:43:40Z2022-10-01T00:00:00ZTítulo: Análisis de señales EEG para la detección de emociones, usando algoritmos de aprendizaje automático: obtención de un dataset para reconocimiento de emociones usando técnicas de aprendizaje automático.
Autor: Cabrera Pabón, Edison Daniel
Resumen: This paper details the procedure for collecting data for analyzing the emotional states of people exposed to specific activities. Electroencephalographic (EEG) signals corresponding to 12 participants were recorded while each performed a session. Each session lasted 2 minutes in a state of relaxation to obtain a baseline and 20 minutes to perform trading activities to detect emotions.
This work used an Ultravortex helmet (OPEN BCI) with eight sensors to capture the different EEG signals in various areas around the skull to collect the data from the participants.
Participants rated how they felt regarding valence-arousal levels in the two-dimensional space formed by these two variables. Video evidence was taken from the front face, both for the relaxation section and for trading activities. Additionally, an extensive analysis of the registered data of the participants is shown, and it is sought to find how the EEG signals correlate with the levels of valence and arousal recorded by each participant.
The data set was tested with machine learning methods for emotion detection in the valence-arousal space. Methods and results for classifying participants' emotions are presented. The dataset is publicly available, and other researchers are encouraged to use it to test their own methods of estimating emotional states.
Descripción: El presente trabajo detalla el procedimiento de recopilación de un conjunto de datos para el análisis de los estados emocionales de personas expuestas a realizar actividades específicas. Se registraron señales electroencefalográficas (EEG) correspondientes a 12 participantes mientras cada uno realizaba una sesión. Casa sesión fue de 2 minutos en un estado de relajamiento, para obtener una línea base y de 20 minutos realizando actividades de trading para la detección de emociones.
Para la recopilación de los datos de los participantes se hizo uso de un casco Ultravortex (OPEN BCI) con 8 sensores para la captación de las diferentes señales EEG captadas en distintas ubicaciones alrededor del cráneo.
Los participantes calificaron como se iban sintiendo en términos de niveles de valencia-excitación en el espacio bidimensional formado por estas dos variables. Se tomaron evidencias en video de la cara frontal, tanto para el apartado de relajamiento como para las actividades de trading. Se muestra adicionalmente un extenso análisis de los datos registrados de los participantes y se busca encontrar como correlacionan las señales EEG y los niveles de valencia y excitación registrados por cada uno de los participantes.
El dataset se probó con métodos de aprendizaje automático para la detección de emociones en el espacio valencia-excitación. Se presentan los métodos y los resultados para la clasificación las emociones de los participantes. El dataset está disponible públicamente y se anima a otros investigadores a que lo utilicen para probar sus propios métodos de estimación de los estados emocionales.2022-10-01T00:00:00ZCreación de un prototipo de un sistema de seguimiento de mirada para el control de dispositivos IOT.Erazo Cucás, María CristinaCocha Toabanda, Edwin Fabiánhttp://bibdigital.epn.edu.ec/handle/15000/232232022-10-25T16:11:54Z2022-10-01T00:00:00ZTítulo: Creación de un prototipo de un sistema de seguimiento de mirada para el control de dispositivos IOT.
Autor: Erazo Cucás, María Cristina; Cocha Toabanda, Edwin Fabián
Resumen: Gaze tracking is a technological discipline that offers alternative interfaces within the area of human-computer interaction. This form of interaction, due to its originality, has been applied to different areas of the Internet of Things. A common solution based on gaze tracking has two elements: a hardware device to obtain gaze data from the user, and a software library process the gathered data and obtain gaze prediction. In this project, the technology of gaze tracking is used to create a solution that allows controlling different Internet of Things devices. Throughout this document, the steps that were carried out to reach the proposed objective have been detailed. First, the analysis steps executed to select the gaze tracking device and software library used in the prototype is presented. Similarly, the development methodology used in this project is described, as well as the increments that allowed to achieve the final prototype. In addition, the results of the tests of the integrated prototype are shown. After that, the results are analyzed, to finally, deliver the conclusions and recommendations of this project.
Descripción: El seguimiento de mirada es una disciplina tecnológica que ofrece interfaces alternativas dentro del área de interacción humano-computadora. Esta forma de interacción, por su originalidad, ha permitido que esté presente en distintas áreas del Internet de las Cosas. Una solución común basada en seguimiento de mirada hace uso de dos elementos: un dispositivo hardware para obtener datos de la mirada del usuario, y una librería para procesar los datos y obtener la predicción de la mirada. En este proyecto, se hace uso de esta disciplina tecnológica para crear una solución que permite controlar dispositivos de Internet de las Cosas. A lo largo de este documento se detallan los pasos que se realizaron para cumplir con este objetivo. En primer lugar, se presenta el análisis realizado para seleccionar el dispositivo y librería de seguimiento de mirada que fueron utilizados en el prototipo. De manera similar, se describen la metodología de desarrollo utilizada y los incrementos que permitieron obtener el prototipo final. Además, se muestran los resultados de las pruebas del prototipo integrado, para posteriormente realizar el análisis de estos y presentar las conclusiones y recomendaciones de este proyecto.2022-10-01T00:00:00ZEvaluación del desempeño computacional de sistemas de recomendación aplicado a bases de datos farmacológicas : implementación de un sistema de recomendación de filtrado colaborativo para predicción de interacciones farmacológicas.Burbano Rosero, Cinthia Maytehttp://bibdigital.epn.edu.ec/handle/15000/232222022-10-25T16:04:16Z2022-10-01T00:00:00ZTítulo: Evaluación del desempeño computacional de sistemas de recomendación aplicado a bases de datos farmacológicas : implementación de un sistema de recomendación de filtrado colaborativo para predicción de interacciones farmacológicas.
Autor: Burbano Rosero, Cinthia Mayte
Resumen: In recent years with the advances and development of new technologies, a wide variety of smart devices have been born and with it the growth of information on the web which has generated a problem of information overload, which is why they have been developed to over the years recommender systems that allow easy retrieval and classification of
information.
For a recommendation system to achieve its objective of making recommendations to its users, it needs to collect information from users through a collection and/or feedback process, this information collection is achieved through the use of surveys or article qualifications that allow to classify the information according to the preference of the users.Information overload occurs when there is a large volume of information that can exceed the processing of human beings, which can sometimes generate frustration and/or obtaining irrelevant information. In the pharmaceutical environment, information overload is not an isolated problem, which implies a better treatment of information in order to provide users with recommendations based on their needs and their profile. Hence the importance and growing interest of the technologies involved in these fields of analysis of large amounts of data such as Big Data.
The present work focuses specifically on the development of a collaborative filtering optimization system, based on the existing activity between compounds and cells of the
pharmacological databases prior to data processing, in this area it seeks to establish a system that allows us to determine the existing activity automatically with the minimum effort required.
Descripción: En los últimos años con los avances y desarrollo de nuevas tecnologías, han nacido una gran variedad de dispositivos inteligentes y con ello el crecimiento de información en la web lo cual ha generado un problema de sobrecarga de información, razón por la cual se han desarrollado a lo largo de los años los sistemas de recomendación que permitan una fácil recuperación y clasificación de la información.
Para que un sistema de recomendación logre cumplir con su objetivo de realizar las recomendaciones a sus usuarios, necesita recopilar información de los usuarios a través
de un proceso de recopilación y/o retroalimentación, esta obtención de información se la logra mediante el uso de encuestas o calificaciones de artículos que permiten clasificar la información de acuerdo a la preferencia de los usuarios.
La sobrecarga de información ocurre cuando existe un gran volumen de información que puede exceder el procesamiento de los seres humanos lo que en ocasiones puede generar frustración y/o obtención de información irrelevante. En el medio farmacéutico la sobrecarga de información no es un problema aislado, lo cual implica un mejor tratamiento de la información para poder brindar a los usuarios recomendaciones basadas en sus necesidades y en su perfil. De ahí nace la importancia e interés creciente de las tecnologías involucradas en estos campos de análisis de grandes cantidades de datos como Big Data.
El presente trabajo se centra específicamente en el desarrollo de un sistema de recomendación de filtrado colaborativo, basado en la actividad existente entre compuesto y célula de las bases de datos farmacológicas previo a un procesamiento de datos, en este ámbito se busca establecer un sistema que nos permita determinar la actividad existente de forma automática con el mínimo esfuerzo requerido.2022-10-01T00:00:00ZAplicación de técnicas de aprendizaje de máquina para la detección de aglomeraciones de personas y comportamientos anómalos mediante segmentación semántica y redes convolucionales : modelo de redes convolucionales para la detección de comportamientos anómalos en videos de video vigilancia aplicando aprendizaje de instancia múltiple para el entrenamiento.Vivas Corrales, Gabriel Alexanderhttp://bibdigital.epn.edu.ec/handle/15000/232212022-10-25T15:58:57Z2022-10-01T00:00:00ZTítulo: Aplicación de técnicas de aprendizaje de máquina para la detección de aglomeraciones de personas y comportamientos anómalos mediante segmentación semántica y redes convolucionales : modelo de redes convolucionales para la detección de comportamientos anómalos en videos de video vigilancia aplicando aprendizaje de instancia múltiple para el entrenamiento.
Autor: Vivas Corrales, Gabriel Alexander
Resumen: The detection of anomalous behavior in humans refers to the process of discriminating events that deviate from normality. The main objective of this component is to develop a model for detecting anomalous behavior in surveillance camera videos. A pre-trained model is used for feature extraction from the videos. The extracted features serve as input data for a multiple instance learning based model that will oversee anomaly detection, specifically assault and robbery, and thus perform video classification.
This model is intended to facilitate the monitoring of the images generated by the video surveillance systems and to serve as a guide for the implementation of a detection software incorporated in the cameras' visualization systems.
Descripción: La detección de comportamientos anómalos en humanos se refiere al proceso de discriminar eventos que se desvían de la normalidad. El principal objetivo de este componente es el desarrollar un modelo de detección de comportamientos anómalos en videos de cámaras de vigilancia. Un modelo pre-entrenado es usado para la extracción de características de los videos. Las características extraídas sirven como data de entrada para un modelo basado en aprendizaje de instancia múltiple que será el encargado de la detección de anomalías, específicamente de robos y asaltos, y así realizar la clasificación de los videos.
Se pretende que este modelo facilite el monitoreo de las imágenes generadas por los sistemas de videovigilancia y sirva de guía para la implementación de un software de detección incorporado en los sistemas de visualización de las cámaras.2022-10-01T00:00:00ZAplicación de técnicas de aprendizaje de máquina para la detección de aglomeraciones de personas y comportamientos anómalos mediante segmentación semántica y redes convolucionales : Modelo de Redes Convolucionales basadas en regiones para la detección de aglomeraciones en videos aplicando segmentación semántica.Taco Apolo, César Paolohttp://bibdigital.epn.edu.ec/handle/15000/232202022-10-25T15:54:17Z2022-10-01T00:00:00ZTítulo: Aplicación de técnicas de aprendizaje de máquina para la detección de aglomeraciones de personas y comportamientos anómalos mediante segmentación semántica y redes convolucionales : Modelo de Redes Convolucionales basadas en regiones para la detección de aglomeraciones en videos aplicando segmentación semántica.
Autor: Taco Apolo, César Paolo
Resumen: Computer vision is a branch of the field of artificial intelligence that develops the theory and technology necessary to emulate human visual perception, aiming to build artificial systems capable of interpreting natural scenes or multidimensional data. The correct detection and segmentation of people in highly crowded places is of vital importance due to the disease that caused the death of billions of people worldwide known as COVID 19. For this reason, this curricular integration work presents the application of a computer vision technique known as semantic segmentation, based on the analysis, design and implementation of a system for the detection and segmentation of people in a highly crowded and agglomerated place from a video located approximately 5 meters high, taking as a starting point a previously trained model which is Mask R-CNN, with this model the transfer of learning in its upper layers will be carried out so that only detects and segments people. The study consists of analyzing, assessing and evaluating the model whose training process will be analyzed based on metrics related to the state of the art, such as, for example, its average accuracy and its intersection over the union, which will determine the validity of the model to conclude whether in conjunction with semantic segmentation are able to detect and segment people in highly agglomerated places.
Descripción: La visión por computador es una rama perteneciente al campo de la inteligencia artificial que engloba tanto la teoría como los insumos tecnológicos necesarios para poder emular la percepción visual humana, teniendo como objetivo el construir sistemas artificiales capaces de interpretar escenas naturales o datos multidimensionales. La correcta detección y segmentación de personas en lugares altamente aglomerados es de vital importancia debido a la enfermedad que provocó la muerte de miles de millones de personas a nivel mundial conocida como COVID 19. Por tal razón en este trabajo integrador se presenta la aplicación de una técnica de visión por computador conocida como segmentación semántica, basándose en el análisis, diseño e implementación de un sistema para la detección y segmentación de personas en un lugar altamente concurrido y aglomerado proveniente de un video situado a unos 5 metros de altura aproximadamente, teniendo como punto de partida un modelo previamente entrenado el cual se lo conoce por el nombre de Mask R-CNN, con este modelo se efectuará la transferencia de aprendizaje en sus capas superiores para que únicamente detecte y segmente personas. El estudio consiste en analizar, valorar y evaluar el modelo cuyo proceso de entrenamiento será analizado en base a métricas relacionadas entorno a lo que dicta el estado del arte, como, por ejemplo, su precisión media y su intersección sobre la unión, los cuales determinaran la validez del modelo para concluir si en conjunto con la segmentación semántica son capaces para detectar y segmentar personas en lugares altamente aglomerados2022-10-01T00:00:00ZAplicación de técnicas de aprendizaje de máquina para facilitar al comunicación en pacientes con neuropatía periférica utilizando señáles EEG y visión computacional : Desarrollo de un modelo de clasificación supervisado para señáles EEG que permita la comunicación en pacientes con neuropatía periférica.García Cuvi, Andrés Wladimirhttp://bibdigital.epn.edu.ec/handle/15000/232192022-10-25T15:49:32Z2022-10-01T00:00:00ZTítulo: Aplicación de técnicas de aprendizaje de máquina para facilitar al comunicación en pacientes con neuropatía periférica utilizando señáles EEG y visión computacional : Desarrollo de un modelo de clasificación supervisado para señáles EEG que permita la comunicación en pacientes con neuropatía periférica.
Autor: García Cuvi, Andrés Wladimir
Resumen: Peripheral neuropathies are conditions of the peripheral nervous system that cause a sensation of numbness, pain, hypersensitivity, etc. This causes the upper and lower limbs to suffer certain degrees of muscular atrophy. This leaves the patient almost completely paralyzed. In addition, in certain cases it can affect the frontal lobe where the control of expressive language is considered. To facilitate communication in patients with this type of motor and speech disorders, there are several assistive technologies, one of the most promising being the brain-computer interface (BCI) based on electroencephalograms (EEG), which allows direct interaction between brain activity and an electronic device. Therefore, in this integrative work, machine learning techniques were applied to create a model for classifying EEG signals based on steady-state visual evoked potentials (SSVEP) that correspond to signals from responses to visual stimuli emitted at a certain time. frequency, thus achieving a maximum of five communication patterns for patients. The work consists of the evaluation and implementation of the model, where the process of training and validating the model is based on metrics related to what the state of the art dictates. Resulting in a model capable of classifying visual stimuli with frequencies of 13, 15, 17 and 19 Hz. Finally, inferring the model with four basic communication commands for anyone who wishes to communicate.
Descripción: Las neuropatías periféricas son afecciones del sistema nervioso periférico que causa sensación de adormecimiento, dolor, hipersensibilidad, etc. Esto causa que los miembros superiores e inferiores sufran ciertos grados de atrofia muscular. Esto deja al paciente casi completamente paralizado. Además, en ciertos casos pude afectar el lóbulo frontal donde se considera el control del lenguaje expresivo. Para facilitar la comunicación en pacientes con este tipo de afecciones motoras y del habla, existen varias tecnologías de asistencia siendo una de las más prometedoras la interfaz cerebro – computador (BCI) basado en los electroencefalogramas (EEG), la cual permite una interacción directa entre la actividad cerebral y un dispositivo electrónico. Por lo tanto, en este trabajo integrador se aplicó técnicas de aprendizaje de máquina para crear un modelo de clasificación de señales EEG que se basan en potenciales evocados visuales de estado estacionario (SSVEP) que corresponden a señales de las respuestas a estímulos visuales emitidos a cierta frecuencia, logrando así tener un máximo de cinco patrones de comunicación para los pacientes. El trabajo consiste en la evaluación e implementación del modelo, donde el proceso de entrenamiento y validación del modelo se basa en métricas relacionadas con lo que dicta el estado del arte. Dando como resultado un modelo capaz de clasificar los estímulos visuales con frecuencias 13, 15, 17 y 19 Hz. Finalmente, inferir el modelo con cuatro comandos de comunicación básicos para cualquier persona que desee comunicarse.2022-10-01T00:00:00ZAnálisis de la violencia de género desde la perspectiva de la ciberseguridad : obtención de datos, etapa de experimentación y redacción de pubicación.Yasig Quillupangui, Henry Eduardohttp://bibdigital.epn.edu.ec/handle/15000/232182022-10-25T15:45:08Z2022-10-01T00:00:00ZTítulo: Análisis de la violencia de género desde la perspectiva de la ciberseguridad : obtención de datos, etapa de experimentación y redacción de pubicación.
Autor: Yasig Quillupangui, Henry Eduardo
Resumen: Gender violence is a social problem that focuses on the physical and psychological attack on men and women in society. Nowadays, techniques to intimidate, steal information and harass are more common due to the free access of technological resources. For this reason, in recent years different social phenomena have been studied through the analysis of digital data, particularly short texts. From this point of view, a functional PDAC procedure for the detection of cyber bullying has been proposed, which allows the definition of different phases that involve cyber bullying in all its forms. That said, there are numerous investigations of the attack, but cyberattacks similar in nature to gender-based violence have been excluded from these studies. This research exposes the process for obtaining a life cycle from the perspective of computer security, specifically social engineering and persistent attack models according to the scientific field. Data related to gender violence was collected to be treated through Data Mining techniques, to proceed to standardize the levels of the life cycle of cyber bullying based on the PDAC. To achieve this objective, a data set of the experiences of the victims who have suffered this attack is used, this information is refined and an LDA topic model is applied to determine the stages of the attack.
Descripción: La violencia de género es un problema social que se enfoca en el ataque físico y psicológico a hombres y mujeres en la sociedad. Hoy en día, las técnicas para intimidar, robar información y realizar acoso son más comunes debido al libre acceso de recursos tecnológicos. Por esta razón, en los últimos años se ha estudiado diferentes fenómenos sociales mediante el análisis de datos digitales, particularmente textos cortos. Bajo esta óptica se ha planteado un procedimiento funcional PDAC procedimiento de detección de acoso cibernético, que permite definir diferentes fases que involucran al ciber acoso en todas sus formas. Dicho esto, existen numerosas investigaciones del ataque, pero los ataques cibernéticos de naturaleza similar a la violencia de género han sido excluidos de estos estudios. La presente investigación expone el proceso para la obtención de un ciclo de vida bajo la perspectiva de la seguridad informática, específicamente la ingeniería social y modelos de ataques persistentes acorde el campo científico. Se recabaron datos relacionados a la violencia de género para ser tratados por medio de técnicas de Data Mining, para proceder a estandarizar los niveles del ciclo de vida del acoso cibernético en base al PDAC. Para lograr este objetivo, se utilizan un conjunto de datos de las experiencias de las víctimas que han sufrido este ataque, está información se refinó y se aplicó un modelo de temas LDA para poder determinar las etapas del ataque.2022-10-01T00:00:00Z