DSpace Colección:http://bibdigital.epn.edu.ec/handle/15000/272024-01-24T00:23:29Z2024-01-24T00:23:29ZDesarrollo metodológico del modelo actuarial de múltiples estados casado - viudo y cálculo actuarial del coste por pensiones de jubilación y viudedad.Acuña Torres, Andrés Mauriciohttp://bibdigital.epn.edu.ec/handle/15000/252732024-01-23T20:52:32Z2023-12-01T00:00:00ZTítulo: Desarrollo metodológico del modelo actuarial de múltiples estados casado - viudo y cálculo actuarial del coste por pensiones de jubilación y viudedad.
Autor: Acuña Torres, Andrés Mauricio
Director: Huaraca Shagñay, Gabriel Benjamín.
Resumen: The accurate assessment of the money that the Instituto Ecuatoriano de Seguridad Social (IESS) must have to pay benefits to current and future pensioners is crucial for evaluating the sustainability of the system. Given the high amount of pensions for retirement and widowhood and their temporal implications, along with the poor budgetary situation of the IESS, this project will calculate the expected cost that an individual will represent for the social security system in the case of simultaneous payments for retirement and widowhood. Based on the results, actions such as reforms in the retirement age, contribution rates, and the pension calculation formula could be considered. To estimate the expected cost, an actuarial model of multiple states (married - widowed) was methodologically developed, considering the time that the retiree can remain in three different states: married, widowed, and deceased (without considering that the retiree may remarry after being widowed). Transition probabilities between states and survival probabilities if remaining in the same state were calculated, multiplied by the average amount that retirees or widows receive in that state, subject to financial update and contributory revaluation interests. With the actuarial model implemented in the R statistical software, tables of payments for concurrent retirement and widowhood pensions were obtained. These tables indicated that the mortality of each pensioner increases with age and that the cost per concurrency decreases with age.
Descripción: La valoración precisa del dinero que debe tener el Instituto Ecuatoriano de Seguridad Social (IESS) para pagar prestaciones a pensionistas actuales y futuros es crucial para evaluar la sostenibilidad del sistema. Dada la elevada cuantía de las pensiones por jubilación y viudedad y sus implicaciones temporales, junto con la mala situación presupuestaria del IESS, en este proyecto se calculará el costo esperado que un individuo representará para el sistema de seguridad social en caso de pagos simultáneos por jubilación y viudedad. A partir de los resultados, se podrían considerar acciones como reformas en la edad de jubilación, tasas de cotización y la fórmula de cálculo de la pensión. Para estimar el costo esperado, se desarrolló metodológicamente un modelo actuarial de múltiples estados (casado - viudo), considerando el tiempo que el jubilado puede permanecer en tres estados: casado, viudo y fallecido (sin contemplar que el jubilado pueda volver a casarse después de enviudar). Se calcularon las probabilidades de transición entre estados y las de supervivencia si se mantiene en el mismo estado, multiplicadas por el promedio que los jubilados o viudos reciben en ese estado, sujeto a intereses de actualización financiera y revalorización contributiva. Con el modelo actuarial en el software R se obtuvieron las tablas de pagos por concurrencia de pensiones de jubilación y viudedad. Estas tablas indicaron que la mortalidad de cada pensionista aumenta con la edad y que el costo por concurrencia disminuye con la edad.2023-12-01T00:00:00ZUn modelo de programación multiobjetivo para asignación óptima de personal: caso de la Policía Nacional.Vinueza Machuca, Andrés Armandohttp://bibdigital.epn.edu.ec/handle/15000/252702024-01-09T13:43:20Z2024-01-09T00:00:00ZTítulo: Un modelo de programación multiobjetivo para asignación óptima de personal: caso de la Policía Nacional.
Autor: Vinueza Machuca, Andrés Armando
Director: Salazar Montenegro, María Fernanda
Resumen: In this investigation, a multiobjective integer programming model is considered for the assignment of police
officers of the preventive axis of the National Police throughout the Ecuadorian territory. Two different
multiobjective formulations are presented in which the sets of objective functions vary. In the theoretical
analysis, scalarizing and non-scalarizing multiobjective problem solving techniques are studied. For the former,
the weighted sum is detailed, then the ɛ-constraint method, and finally a recent method called the generalized
scalarization method. For the latter, lexicographical optimality has been described. Both multiobjective models
have been implemented with the methods of weighted sum, general scalarization and lexicographical
optimality. Finally, computational tests were carried out with real data and the performance of the
multiobjective models was compared between them and also with an integer programming model taken from
the literature. It is concluded that the best method to solve the multi-objective model is general scalarization,
the results obtained also improve the solution of the model with a single objective.
Descripción: En esta investigación se considera un modelo de programación entera multiobjetivo para la asignación de
servidores policiales del eje preventivo de la Policía Nacional a lo largo del territorio ecuatoriano. Se presenta
dos formulaciones multiobjetivo diferentes en las que varían los conjuntos de las funciones objetivo. En el
análisis teórico, se estudian técnicas de solución de problemas multiobjetivo escalarizantes y no escalarizantes.
Para las primeras, se detalla la suma ponderada, luego el método ɛ-restricción y finalmente un método reciente
llamado método de escalarización generalizada. Para las segundas, la optimalidad lexicográfica ha sido
descrita. Ambos modelos multiobjetivo han sido implementados con los métodos de suma ponderada,
escolarización general y optimalidad lexicográfica. Finalmente, se realizaron pruebas computacionales con
datos reales y se compara el desempeño de los modelos multiobjetivo entre ellos y también con un modelo de
programación entera tomado de la literatura. Se concluye que el mejor método para resolver el modelo
multiobjetivo es la escolarización general, los resultados obtenidos mejoran además la solución del modelo con
un solo objetivo.2024-01-09T00:00:00ZCalculo de la prima de un seguro de enfermedad critica mediante el modelo de cadena de Markov continua de múltiples estados.Revelo Betancourt, Gabriela Elizabethhttp://bibdigital.epn.edu.ec/handle/15000/251152023-11-17T14:04:35Z2023-11-17T00:00:00ZTítulo: Calculo de la prima de un seguro de enfermedad critica mediante el modelo de cadena de Markov continua de múltiples estados.
Autor: Revelo Betancourt, Gabriela Elizabeth
Director: Huaraca Shagñay, Diego Paúl
Resumen: El Cáncer, el Tumor Cerebral y la Insuficiencia Renal Crónica (IRC) son consideradas como enfermedades criticas ya que requieren de un tratamiento y cuidado especial por parte de quienes la padecen. Hoy en día existen seguros para este tipo de enfermedades que proveen al asegurado una protección financiera en el evento que sufra de alguna enfermedad critica; no obstante, es indispensable establecer las primas que definan el pago de este seguro, según la edad del individuo, el tiempo de cobertura, la tasa de interés y el tipo de enfermedad. Por tanto, se determinan estas primas a partir de modelos multiestados, en particular, mediante un modelo de cadenas de Markov continua de cuatro estados. Adicionalmente, se definen dos tipos de seguros para el cálculo de la prima, uno en el que se proporcione un solo pago sobre la suma asegurada de una póliza y otro en el que también se proporcione una cobertura por la enfermedad critica (tratamiento).
Descripción: El Cáncer, el Tumor Cerebral y la Insuficiencia Renal Crónica (IRC) son consideradas como enfermedades criticas ya que requieren de un tratamiento y cuidado especial por parte de quienes la padecen. Hoy en día existen seguros para este tipo de enfermedades que proveen al asegurado una protección financiera en el evento que sufra de alguna enfermedad critica; no obstante, es indispensable establecer las primas que definan el pago de este seguro, según la edad del individuo, el tiempo de cobertura, la tasa de interés y el tipo de enfermedad. Por tanto, se determinan estas primas a partir de modelos multiestados, en particular, mediante un modelo de cadenas de Markov continua de cuatro estados. Adicionalmente, se definen dos tipos de seguros para el cálculo de la prima, uno en el que se proporcione un solo pago sobre la suma asegurada de una póliza y otro en el que también se proporcione una cobertura por la enfermedad critica (tratamiento).2023-11-17T00:00:00ZDesafíos de la industria bancaria en la estimación de la severidad de pérdida (LGD - LOSS GIVEN DEFAULT).Rosero Soria, María Belénhttp://bibdigital.epn.edu.ec/handle/15000/248432023-09-18T17:54:51Z2023-09-05T00:00:00ZTítulo: Desafíos de la industria bancaria en la estimación de la severidad de pérdida (LGD - LOSS GIVEN DEFAULT).
Autor: Rosero Soria, María Belén
Director: Uquillas Andrade, Adriana
Resumen: The banking industry in Ecuador is governed by the regulatory standards of the Superintendency of Banks, so entities must establish efficient schemes for risk control through PD, EAD and LGD. This study focuses on the study of the LGD, or Loss Given Default, which corresponds to a fraction of a loan that is not recoverable in case it is in default or due to factors external to the entity (macroeconomic factors). There are different estimation techniques using different variables, in this case microeconomic factors provided by the Superintendency of Banks and the Central Bank of Ecuador (BCE) in a quarterly period of time from 2017 to 2020, these indicators will be used for the construction of the data set and thus use statistical techniques such as regression analysis to estimate LGD. Currently, in Ecuador there are no public studies to estimate the LGD with statistical models, therefore, this project is an efficient contribution to the introduction of more statistical techniques to the financial system.
The panel data method, a technique that controls for effects at the individual and time levels, was used. The fixed effects model helped us to estimate the LGD and to be able to conclude that macroeconomic factors such as the CPI, CCI and real GDP influence financial entities to have a higher LGD, which causes lower recovery rates. Hence more losses. Including these variables allows us to fit a successful backtested model with short-term predictions of the dependent variable.
Descripción: La industria bancaria en el Ecuador se rige a estándares regulatorios de la Superintendencia de Bancos, por lo que, las entidades deben establecer esquemas eficientes para el control del riesgo mediante la PD, EAD y LGD. El presente estudio se enfoca en el estudio de la LGD, o Loss Given Default, que corresponde una fracción de un crédito que no es recuperable en caso de que esté en incumplimiento o de factores externos a la entidad (factores macroeconómicos). Existen diferentes técnicas de estimación mediante diferentes variables, en este caso factores microeconómicos proporcionados por la Superintendencia de Bancos y Banco Central del Ecuador (BCE) en un período de tiempo trimestral de 2017 al 2020, estos indicadores se utilizarán para la construcción del conjunto de datos y así usar técnicas estadísticas como el análisis de regresión para estimar la LGD. Actualmente, en el Ecuador no existen estudios públicos para estimar la LGD con modelos estadísticos, por lo que, este proyecto es un aporte eficiente a la introducción de más técnicas estadísticas al sistema financiero.
Se utilizó el método de datos en panel, una técnica que controla los efectos a nivel de individuos y de tiempo. El modelo de efectos fijos nos ayudó a estimar la LGD y poder concluir que los factores macroeconómicos como el IPC, ICC y el PIB real influyen para que las entidades financieras tengan un LGD más elevado, lo que provoca que las tasas de recuperación sean más bajas, por ende, más pérdidas. El incluir estas variables nos permite ajustar un modelo con un backtesting acertado con predicciones a corto plazo de la variable dependiente.2023-09-05T00:00:00ZComparación de un método clásico (logit) y dos con técnicas de boosting (adaboost, gradient boosting) para la clasificación crediticia en una entidad financiera ecuatoriana.Quizhpi Sánchez, Edison Javierhttp://bibdigital.epn.edu.ec/handle/15000/246542023-08-09T17:09:34Z2023-04-01T00:00:00ZTítulo: Comparación de un método clásico (logit) y dos con técnicas de boosting (adaboost, gradient boosting) para la clasificación crediticia en una entidad financiera ecuatoriana.
Autor: Quizhpi Sánchez, Edison Javier
Resumen: In this research project, referees of three classification methods: logistic regression, adaboost and gradient boosting. In the credit scoring modeling process is based on a data provided by a financial institution in Ecuador dedicated a credit portfolio of unknown size. The three developed models were built with R and Answer Tree v3.0 programs. Once established, was compared its predictive ability and classify clients classified as good and bad. Model performances were calculated for the Area Under Receiver Operator Characteristic Curve (AUC-ROC), Kolmogorov-Smirnov (KS) and Gini statistics. the error and success rate of each model were evaluated.
Descripción: En este proyecto de investigación se evalúa el comportamiento de tres métodos de clasificación, regresión logística, adaboost y gradient boosting en el proceso de modelización del credit scoring con base en un conjunto de datos suministrado por una institución financiera de Ecuador consistente en una cartera de crédito de tamaño desconocido. Los tres modelos desarrollados fueron construidos con los programas R y Answer Tree v3.0. Una vez establecidos, se comparó su capacidad de predicción y clasificación de clientes catalogados como buenos y malos. Para la evaluación del desempeño de los modelos, se calcularon los estadísticos Area Under Receiver Operator Characteristic Curve (AUCROC), Kolmogorov-Smirnov (KS) y Gini, y se evaluó el error y la tasa de aciertos de cada modelo.2023-04-01T00:00:00ZAplicación de algoritmos genéticos en la selección de variables para la construcción de modelos de credit scoring.Mantilla Bolaños, Elvis Davidhttp://bibdigital.epn.edu.ec/handle/15000/245092023-08-08T15:27:03Z2023-06-01T00:00:00ZTítulo: Aplicación de algoritmos genéticos en la selección de variables para la construcción de modelos de credit scoring.
Autor: Mantilla Bolaños, Elvis David
Resumen: Banking entities currently manage large databases with a wide variety of variables that describe their clients, which is why these entities seek to optimize the choice of explanatory variables for the generation of credit scoring models, which is why the application of genetic algorithms in the selection of explanatory variables, they demonstrated that they generate models with better precision, separation and association measures than models with traditional techniques for selecting explanatory variables such as the methods: stepward, backward, among others, models were built with logistic regression and random forest to demonstrate this
improvement in both types of models.
Descripción: Las entidades bancarias en la actualidad manejan grandes bases de datos con gran variedad de variables que describen a sus clientes por lo cual estas entidades buscan optimizar la elección de variables explicativas para la generación de modelos de credit scoring es por esto que la aplicación de algoritmos genéticos en la selección de variables explicativas demostraron generar modelos con mejores medidas de precisión, separación y asociación que modelos con técnicas tradicionales de selección de variables explicativas como los métodos: stepward, backward entre otros, se construyeron modelos con regresión logística y random forest para evidenciar esta mejoría en los dos tipos de modelos.2023-06-01T00:00:00ZModelo econométrico para la demanda de crédito en personas naturales en Ecuador.Cachago Lluglluna, Carmen Belénhttp://bibdigital.epn.edu.ec/handle/15000/244832023-08-08T15:22:46Z2023-02-01T00:00:00ZTítulo: Modelo econométrico para la demanda de crédito en personas naturales en Ecuador.
Autor: Cachago Lluglluna, Carmen Belén
Resumen: The present paper has been proposed, under objectives that seek financial in clusion as a tool of economic support for the Ecuadorian population and for the state. An economic model based on true and reliable information from the Natio nal Survey on Employment, Unemployment and Underemployment (ENEMDU) is proposed, which provides a description of the demographic and socioeconomic characteristics of the country over a considerable period of time. Through the theory on Logistic Models and Logistic Models with bias correction, an attempt is made to recognize the variables that natural persons present and gene rate the need to obtain a loan, in general any type of credit. Since at present there are not many models on the demand for credit, we have worked under analyzes made in other countries, all with their respective reference. Considering that the supply and demand for credit go hand in hand, an attempt is made to recognize what the need for credit represents and generates in the popu lation, in order to suggest changes that will allow this population to access it. The results and interpretations can be supportive for those who wish to work with a deeper or different approach. The software used is known as R and the code that generates the final model will be observed. In addition to the bibliography that has helped to achieve the proposed objectives.
Descripción: El presente trabajo se ha planteado bajo objetivos que buscan la inclusión financiera como una herramienta de apoyo económico para la población ecuatoriana y para el Estado. Se plantea un modelo econométrico basado en información obtenida a partir un organismo oficial nacional. Este es la Encuesta Nacional Empleo, Desempleo y Subempleo (ENEMDU), que aporta a la descripción de las características demográficas y socioeconómicas del país durante un periodo específico en el tiempo. A través de modelos logísticos y con corrección de sesgo, se intenta reconocer las variables que las personas naturales presentan y les genera la necesidad de obtener un crédito, en general cualquier tipo de crédito. Puesto que en la actualidad no existen muchos modelos sobre la demanda de crédito, se ha trabajado bajo análisis hechos en otros países, todo con su respectiva referencia. Considerando que la oferta y demanda de crédito van de la mano, se intenta reconocer qué es lo que representa y genera en la población la necesidad de obtener un crédito, para sugerir cambios que permitan a esta población acceder al mismo. Finalmente, los resultados e interpretaciones pueden servir de un apoyo para quienes deseen trabajar con un enfoque más profundo o diferente.2023-02-01T00:00:00ZDiseño de una estrategia de recuperación crediticia temprana para clientes Pequeñas Empresas de una institución financiera del Ecuador mediante los algoritmos k-medias y bosques aleatorios.Celi Yanangomez, Guillermo Miguelhttp://bibdigital.epn.edu.ec/handle/15000/236922023-03-23T14:33:16Z2023-01-01T00:00:00ZTítulo: Diseño de una estrategia de recuperación crediticia temprana para clientes Pequeñas Empresas de una institución financiera del Ecuador mediante los algoritmos k-medias y bosques aleatorios.
Autor: Celi Yanangomez, Guillermo Miguel
Resumen: The purpose of this study is to show a strategy for early credit recovery, that is, before the clients reach a definition of “bad clients”. This is possible using modern methodologies based on machine learning algorithms. This model applies to small companies with current credit activity within a financial institution in Ecuador.
Clients must be grouped by their intrinsic unique characteristics, focused on general recovery strategies. The algorithm K-means is used for this purpose and should include variables that help to understand the impact of the client within the financial institution. In this case it will be used the probability of default, current amount and remaining term. The algorithm Random Forest calculates the probability of default.
The method used for the construction of the model will be implemented in the statistical software R, which is used for the manipulation, processing and graphic visualization of the data.
Descripción: El objetivo de este estudio es proponer una estrategia de recuperación de crédito temprana antes de que los deudores alcancen su definición de "cliente malo" utilizando un enfoque moderno basado en algoritmos de aprendizaje automático, los cuales se implementaran a los clientes denominado como Pequeñas Empresas que realizan actividades crediticias en una institución financiera ecuatoriana.
Los clientes deben agruparse en función de sus características únicas con énfasis de aplicar una estrategia de recuperación antes que el cliente llegue a su condición de no pago de la obligación. Para lograr el objetivo se puede utilizar el algoritmo K-medias, el cual debe incluir indicadores que ayuden a comprender la influencia del deudor en la institución financiera. Las variables utilizadas en el trabajo en curso son: probabilidad de incumplimiento del préstamo, monto actual, plazo restante. La técnica de aprendizaje supervisado Bosque Aleatorio es utilizado para calcular la posibilidad de no pago del préstamo adquirido2023-01-01T00:00:00ZModelos de reacción difusión para el registro de imágenes médicas.Brito Santo, Jefferson Javierhttp://bibdigital.epn.edu.ec/handle/15000/236692023-03-09T15:34:20Z2023-03-01T00:00:00ZTítulo: Modelos de reacción difusión para el registro de imágenes médicas.
Autor: Brito Santo, Jefferson Javier
Resumen: In the present work, we study an inverse problem that consists of a minimization problem of a linearized image registration model for glioma growth, which is subject to a system of parabolic partial differential equations, with homogeneous Dirichlet and Neumann boundary conditions non-homogeneous, which describes the evolution of the glioma density, together with a vectorial transport equation that defines the border that the glioma occupies. The objective function to be minimized is based on the Landmark-Based Registration technique, which is used in the image registration of medical images. Finally, the existence of a solution to this minimization problem is shown. Furthermore, first-order optimality conditions are derived using the associated Lagrangian, and the corresponding adjoint state.
Descripción: En el presente trabajo estudiamos un problema inverso que consiste en un problema de minimización en un modelo linealizado de registro de imágenes para el crecimiento de gliomas. En nuestro estudio realizamos un análisis local de la existencia de solución del modelo linealizado, el cual está sujeto a: un sistema de ecuaciones diferenciales parciales parabólicas con condiciones de frontera Dirichlet homogéneas y Neumann no homogéneas, que describen la evolución de la densidad del glioma, y una ecuación vectorial de transporte que define la frontera que ocupa el glioma. La función objetivo a minimizar está basada en la técnica de registro basado en marcas (Landmark-Based Registration), que se usa en el registro de imágenes médicas. Finalmente, se muestra la existencia de solución de este problema de minimización. Además, se plantean las condiciones de optimalidad de primer orden haciendo uso del Lagrangiano asociado, y de su adjunto.2023-03-01T00:00:00ZUna teoría de homotopía para categorías finitas.Rosero Pozo, Pablo Sebastiánhttp://bibdigital.epn.edu.ec/handle/15000/236102023-02-14T23:29:05Z2018-02-01T00:00:00ZTítulo: Una teoría de homotopía para categorías finitas.
Autor: Rosero Pozo, Pablo Sebastián
Resumen: We present a construction of categories and functors that allows us to define an analogous theory to the one of homotopy of paths in topological spaces, but over finite categories. For this purpose, we first develop the Classical Theory of Homotopy, in which the fundamental group of a topological space is constructed and several fundamental results are proven about it. Next, a brief introduction to the Theory of Categories is presented from a topological approach, which will be useful for the construction of simplicial sets; mainly with the nerve of a category and thus we will define a geometry for this category, showing its relationship with classical homotopy. Finally, a categorization of the homotopy is carried out, in which the fundamental group of a category is defined, and it is proven that a category whose geometry is homeomorphic to the circle verifies that its fundamental group in the sense of the categories, coincides with the topological fundamental group of the circle. Plus theorems similar to those developed in the respective part of the classic homotopy are proved.
Descripción: Se presenta una construcción de categorías y funtores que permiten definir una teoría análoga a la homotopía de caminos en espacios topológicos, pero sobre categorías finitas. Para esto, primero se desarrolla la Teoría de Homotopía clásica, en la cual se construye el grupo fundamental de un espacio topológico y se muestran varios resultados fundamentales sobre éste. A continuación, se realiza una breve introducción a la Teoría de Categorías con un enfoque topológico, que servirá para mostrar la construcción de los conjuntos simpliciales, en específico del nervio de una categoría y así dotar de una geometría a la misma, mostrando su relación con la Homotopía clásica. Finalmente, se realiza una categorización de la definición de homotopía, con lo que se define al grupo fundamental de una categoría y se demuestra que una categoría, cuya geometría es el círculo, verifica que su grupo fundamental en el sentido de las categorías coincide con el grupo fundamental topológico del círculo. Además, se demuestran teoremas similares a los mostrados en la parte respectiva a la Homotopía clásica.2018-02-01T00:00:00ZAplicación de modelos no paramétricos para predecir y explicar el riesgo de quiebra empresarial del sector industrial manufacturero ecuatoriano.Moreno Vicente, Mayra AlexandraMiño Pazos, Roque Ignaciohttp://bibdigital.epn.edu.ec/handle/15000/235602023-01-27T14:14:28Z2022-12-01T00:00:00ZTítulo: Aplicación de modelos no paramétricos para predecir y explicar el riesgo de quiebra empresarial del sector industrial manufacturero ecuatoriano.
Autor: Moreno Vicente, Mayra Alexandra; Miño Pazos, Roque Ignacio
Resumen: The objective of this paper is to apply non-parametric methods to predict the risk of Ecuadorian manufacturing business bankruptcy in the period 2016-2020, analyzing the financial behavior involved in a manufacturing company. In the first instance, a study analysis is carried out on the manufacturing industry, in order to analyze the influence of this economic sector on the economic development of the country. In addition, we proceed to study non-parametric such as the generalized additive model (GAM) and the artificial neural network (RNA) technique, which will be the necessary tools to estimate the calculation of bankruptcy. To obtain this result, financial indicators that best describe a bankruptcy process were previously identified through the GAM, since this technique yields more flexible and easily interpretable results. Based on the latter, it was sought to systematize the identification of bankruptcy risk and its possible causes, for which the RNA technique was applied. With this, it was possible to predict the manufacturing companies that entered bankruptcy proceedings based on the financial information identified by the GAM. Thus, it was possible to apply both models, in such a way that one complements the other based on the interpretation.
Descripción: El objetivo del presente trabajo es aplicar métodos no paramétricos para predecir el riesgo de quiebra empresarial manufacturero ecuatoriano en el período 2016-2020, analizando el comportamiento financiero que interviene en una empresa manufacturera. En primera instancia se realiza un análisis de estudio acerca de la industria manufacturera, con el fin de analizar la influencia de este sector económico en el desarrollo económico del país. Además, se procede a estudiar métodos no paramétricos como el modelo aditivo generalizado (GAM) y la técnica de redes neuronales artificiales (RNA) que serán las herramientas necesarias para estimar el cálculo del riesgo de quiebra. Para obtener este resultado se identificaron previamente, a través del GAM, indicadores financieros que mejor describen un proceso de bancarrota, pues esta técnica arroja resultados más flexibles y de fácil interpretación. A partir de estos últimos se buscó sistematizar la identificación del riesgo de quiebra y sus posibles causas, para ello se aplicó la técnica RNA. Con esto, se logró predecir a las empresas manufactureras que entraron en proceso de quiebra en función de la información financiera identificada por el GAM. Así, se logró aplicar ambos modelos, de tal manera que uno complementa al otro en base a la interpretación.2022-12-01T00:00:00ZMedición del nivel de innovación en las organizaciones usando Modelos de Respuesta al Ítem (IRT) en el contexto de la realidad ecuatoriana.Taipe Ríos, Ana Gabrielahttp://bibdigital.epn.edu.ec/handle/15000/234982022-12-20T15:33:16Z2022-12-01T00:00:00ZTítulo: Medición del nivel de innovación en las organizaciones usando Modelos de Respuesta al Ítem (IRT) en el contexto de la realidad ecuatoriana.
Autor: Taipe Ríos, Ana Gabriela
Resumen: The objective of this research work is to construct a valid measurement of organizational innovation potential in relation to the responses of subjects to a test conducted based on a CRI (Capabilities, Results and Impacts) measurement model of innovation. The proposed solution is based on an Item Response Theory approach that uses a Gradual Response Model whose parameters are estimated by Bayesian inference through the Monte Carlo method with Markov chains called Monte Carlo Hamiltonian. This provides the organizations in the data set with an estimate of their innovation potential and their competence in the CRI categories. The research presented is very flexible since the analysis procedure remains valid if more data is added or the tests are modified.
Descripción: El objetivo de este trabajo de investigación es construir una medición válida del potencial de innovación organizacional en relación con las respuestas de sujetos a un test realizado basándose en un modelo de medición CRI (Capacidades, Resultados e Impactos) de innovación. La solución propuesta se fundamenta en un enfoque de la Teoría de Respuesta al Ítem que utiliza un Modelo de Respuesta Gradual cuyos parámetros se estiman por inferencia bayesiana a través del método Monte Carlo con cadenas de Markov denominado Monte Carlo Hamiltoniano. Esto proporciona a las organizaciones del conjunto de datos una estimación de su potencial de innovación y de su competencia en las categorías CRI. La investigación que se presenta es muy flexible, ya que el procedimiento de análisis sigue siendo válido si se agregan más datos o se modifican los tests.2022-12-01T00:00:00ZModelización geoestadística de la distribución potencial de ranas aposemáticas en el Ecuador continental.Zambrano Chiliquinga, Joselyn Isabelhttp://bibdigital.epn.edu.ec/handle/15000/234182022-11-07T14:17:37Z2022-10-01T00:00:00ZTítulo: Modelización geoestadística de la distribución potencial de ranas aposemáticas en el Ecuador continental.
Autor: Zambrano Chiliquinga, Joselyn Isabel
Resumen: El presente trabajo se centra en el uso de varias técnicas de clasificación y estadística geoespacial con la
finalidad de estimar la distribución del hábitat potencial de las ranas de la familia Dendrobatidae (ranas
aposemáticas) en el Ecuador continental. Para este estudio, se consideran observaciones de presencia de ranas
aposemáticas en el Ecuador durante los años del 2012 al 2019, además se hace uso de datos mensuales de clima
y ambiente como variables explicativas. Debido a la falta de datos de ausencia de las ranas aposemáticas, se usa
un método de creación de “pseudoausencias”, es decir, se realiza una simulación de observaciones de ausencia
de las ranas con el propósito de obtener una variable objetivo binaria. El método de generación de
pseudoausencias propuesto en este trabajo hace uso de máquinas de soporte vectorial de una clase y algoritmo
K-medias, lo que permite incluir ausencias confibles en la muestra. Se modela la presencia/ausencia de ranas
aposemáticas empleando tres técnicas de clasificación diferentes (GLM, GAM y MARS) que permiten
considerar las distintas relaciones que existen entre las variables regresoras y la variable objetivo, y al final se
escoge la que presente mejores resultados en términos de poder de predicción. Luego, se realiza análisis
Kriging de los residuos del modelo de clasificación escogido con la finalidad de considerar también la relación
que tiene la variable objetivo con el espacio.
Descripción: El presente trabajo se centra en el uso de varias técnicas de clasificación y estadística geoespacial con la
finalidad de estimar la distribución del hábitat potencial de las ranas de la familia Dendrobatidae (ranas
aposemáticas) en el Ecuador continental. Para este estudio, se consideran observaciones de presencia de ranas
aposemáticas en el Ecuador durante los años del 2012 al 2019, además se hace uso de datos mensuales de clima
y ambiente como variables explicativas. Debido a la falta de datos de ausencia de las ranas aposemáticas, se usa
un método de creación de “pseudoausencias”, es decir, se realiza una simulación de observaciones de ausencia
de las ranas con el propósito de obtener una variable objetivo binaria. El método de generación de
pseudoausencias propuesto en este trabajo hace uso de máquinas de soporte vectorial de una clase y algoritmo
K-medias, lo que permite incluir ausencias confibles en la muestra. Se modela la presencia/ausencia de ranas
aposemáticas empleando tres técnicas de clasificación diferentes (GLM, GAM y MARS) que permiten
considerar las distintas relaciones que existen entre las variables regresoras y la variable objetivo, y al final se
escoge la que presente mejores resultados en términos de poder de predicción. Luego, se realiza análisis
Kriging de los residuos del modelo de clasificación escogido con la finalidad de considerar también la relación
que tiene la variable objetivo con el espacio.2022-10-01T00:00:00ZAplicación de índices de capacidad funcional para evaluar la capacidad climática para la producción de maíz ante el cambio climático por medio de las variables tiempos térmicos, radiación solar y precipitación.Játiva Vivanco, Juan Andréshttp://bibdigital.epn.edu.ec/handle/15000/234102022-11-07T13:31:54Z2022-10-01T00:00:00ZTítulo: Aplicación de índices de capacidad funcional para evaluar la capacidad climática para la producción de maíz ante el cambio climático por medio de las variables tiempos térmicos, radiación solar y precipitación.
Autor: Játiva Vivanco, Juan Andrés
Resumen: In the present work, the application of univariate functional process capability indices is proposed to evaluate the climatic capability in corn production at La Concordia. Three corn hybrids are studied, and the weather is considered as a process, which is assumed to be in control. These indexes are applied by two methods to relevant climatic variables for maize development such as: thermal times, photosynthetically active solar radiation, and precipitation, which are considered as characteristics to be controlled and are measured on a weekly basis. The specification limits are calculated according to the needs of the corn in relation to the variables.
Prior to this application, it was done a review of different FDA techniques, such as: adjustment of discrete data by smooth functions, functional depth measures and functional central p-region; in order to obtain the functions required by the indexes.
Finally, through this application, it could be proved that method A yields better results than method B. On the other hand, it was determined that there is no precipitation capacity for the production of corn hybrids. It was evidenced that the capacity of thermal times exists for the three corn hybrids. In the case of photosynthetically active radiation, it was observed that through the index Cp(prf), there is capacity for two corn hybrids of the three considered; nevertheless, when considering the index Cpk(prf), there is no capacity to supply the needs of this variable for the production of the corn hybrids considered.
Descripción: En el presente trabajo, se propone la aplicación de índices de capacidad de proceso funcionales univariados para evaluar la capacidad climática en la producción de maíz en La Concordia. Se consideran tres híbridos de maíz y al clima como un proceso, el cual se asume se encuentra en control. Estos índices se aplican mediante dos métodos a variables climáticas importantes para el desarrollo del maíz como: tiempos térmicos, radiación solar fotosintéticamente activa y precipitación; las cuales se consideran como características a controlar y son tomadas semanalmente. Los límites de especificación son calculados en función de las necesidades del maíz respecto a las variables consideradas.
Previo a esta aplicación, se realiza una revisión sobre distintas técnicas del FDA como son: el ajuste de datos discretos mediante funciones suaves, medidas de profundidad funcionales y p-región central funcional; para obtener las funciones requeridas por los índices.
Finalmente, mediante esta aplicación se pudo evidenciar que el método A entrega mejores resultados que el método B. Por otro lado, se obtuvo que no existe la capacidad de precipitación para la producción de los híbridos de maíz. Se evidenció que existe la capacidad de tiempos térmicos para los tres híbridos de maíz. En el caso de la radiación fotosintéticamente activa, se observó que mediante el índice Cp(prf), se tiene la capacidad para dos híbridos de maíz de los tres considerados; sin embargo, al considerar el índice Cpk(prf) no se tiene la capacidad de suplir las necesidades de esta variable para la producción de los híbridos de maíz considerados.2022-10-01T00:00:00ZExistencia de soluciones débiles para problemas elípticos semilineales.Quisingo Núñez, Shirley Monserrathhttp://bibdigital.epn.edu.ec/handle/15000/231782022-10-24T17:05:06Z2022-10-01T00:00:00ZTítulo: Existencia de soluciones débiles para problemas elípticos semilineales.
Autor: Quisingo Núñez, Shirley Monserrath
Resumen: In this paper we analyze the multiplicity of the weak, non-trivial solutions of elliptic semilinear problems with indefinite weight, in a bounded domain of ℝ^N, con N ≥3, with homogeneous Neumann boundary conditions.
Specifically, we study the equation -div(h(x) ∇u) +q(x)=λ w(x)f(u),, where $h$ satisfies the ellipticity conditions, q is a nonnegative function at almost every point in the domain and w a function that changes sign and, whose data is nonlinear, presents a superlinear and subcritical growth.
By means of variational techniques, such as the direct methods of variational calculus and the minimax theorems, in particular; the mountain pass theorem and a Linking theorem, will be obtained depending on the growth of f and the parameter λ, results of existence and at least two different solutions will be found.
Descripción: La investigación realizada consiste en analizar la multiplicidad de las soluciones débiles no triviales de problemas elípticos semilineales con peso indefinido, en un dominio acotado de ℝ^N, con N ≥3, y con condiciones de frontera Neumann homogéneas.
En concreto se estudia la ecuación -div(h(x) ∇u) +q(x)=λ w(x)f(u), donde h satisface las condiciones de elipticidad, q es una función no negativa en casi todo punto del dominio y w una función que cambia de signo y, cuyo dato no lineal, presenta un crecimiento superlineal y subcrítico.
Mediante técnicas variacionales, como los métodos directos del cálculo de variaciones y los teoremas de minimax, en particular; el teorema del paso de la montaña y un teorema de Linking, se obtendrá dependiendo del crecimiento de f y el parámetro λ, resultados de existencia y se hallará al menos dos soluciones no triviales diferentes.2022-10-01T00:00:00ZComplejidad computacional de problemas de distribución justa de recursos desde el punto de vista descriptivo.Risco Iturralde, Paúl Alejandrohttp://bibdigital.epn.edu.ec/handle/15000/229112022-09-16T12:47:25Z2022-08-01T00:00:00ZTítulo: Complejidad computacional de problemas de distribución justa de recursos desde el punto de vista descriptivo.
Autor: Risco Iturralde, Paúl Alejandro
Resumen: In the context of descriptive computational complexity, first-order projections are many-one reductions that possess very little computational power. In this undergraduate project, three fair division problems found in Bouveret and Lang’s “Efficiency and Envy-freeness in Fair Division of Indivisible Goods: Logical Representation and Complexity” are proved NP-hard via first-order projections. To get one of the results, a generalization of the concept of superfluity found in Borges and Bonet’s “Universal First-Order Logic is Superfluous for NL, P, NP and coNP” is used.
Descripción: En la teoría descriptiva de la complejidad computacional, las proyecciones de primer orden son un tipo de reducción muy débil entre problemas de decisión. En este trabajo de fin de carrera se prueba NP-hardness, vía proyecciones de primer orden, de tres problemas de distribución justa analizados en el artículo “Efficiency and Envy-freeness in Fair Division of Indivisible Goods: Logical Representation and Complexity”, de Bouveret y Lang. En uno de los casos el resultado se obtiene a partir de una generalización del concepto de superfluidad encontrado en el artículo “Universal First-Order Logic is Superfluous for NL, P, NP and coNP”, de Borges y Bonet.2022-08-01T00:00:00ZEstimación del valor en riesgo (VaR) mediante simulaciones Montecarlo aplicado a un portafolio de acciones de renta variable de una entidad financiera pública.Laverde Castillo, Jorge Leonardohttp://bibdigital.epn.edu.ec/handle/15000/228942022-09-07T13:30:33Z2022-07-01T00:00:00ZTítulo: Estimación del valor en riesgo (VaR) mediante simulaciones Montecarlo aplicado a un portafolio de acciones de renta variable de una entidad financiera pública.
Autor: Laverde Castillo, Jorge Leonardo
Resumen: This research work aims to develop and implement a methodology for measuring market risk by estimating Value at Risk (VaR), based on a geometric Brownian motion for stocks and Montecarlo simulations. This applied to real data of a variable income portfolio of a public financial institution. The proposed methodology for the estimation of VaR is based on the modeling of the share price through a Geometric Brownian Movement, and the application of Monte Carlo simulations to establish the possible trajectories for the share price. With all this, the application with real data of the stock portfolio of the financial institution whose portfolio is made up of 19 assets. And, in addition, the historical database includes the period from July 2020 to December 2021; this results in adequate validation measures (MAPE and RMSE). And a p-value to the Kupiec and Christoffersen hypothesis tests that suggest accepting the proposed hypotheses, being that the VaR estimate with a cutoff date of January 3, 2022, is appropriately measuring the level of risk.
Descripción: El presente trabajo de investigación tiene como objetivo el desarrollo e implementación de una metodología para la medición del riesgo de mercado mediante la estimación del Valor en Riesgo (VaR), a partir de un movimiento browniano geométrico para acciones y simulaciones Montecarlo. Esto aplicado a datos reales de un portafolio de renta variable de una entidad financiera pública. La metodología propuesta para la estimación del VaR se fundamenta en la modelación del precio de las acciones mediante un Movimiento Browniano Geométrico, y la aplicación de simulaciones Montecarlo para establecer las posibles trayectorias para el precio de las acciones. Con todo esto, la aplicación con datos reales del portafolio de acciones de la entidad financiera cuyo portafolio está compuesto por 19 activos. Y, además, la base histórica de datos comprende el periodo de julio de 2020 hasta diciembre de 2021; esto resulta medidas de validación (MAPE y RMSE) adecuadas. Y un p-valor a las pruebas de hipótesis de Kupiec y Christoffersen que sugieren aceptar las hipótesis planteadas, siendo que estimación del VaR con corte al 3 de enero de 2022, está midiendo apropiadamente el nivel de riesgo2022-07-01T00:00:00ZModelo de programación lineal entera para la asignación de horarios de clase compactos en la facultad de ciencias de la escuela politécnica nacional.Quisaguano Acosta, Marlon Alejandrohttp://bibdigital.epn.edu.ec/handle/15000/228632022-08-22T20:37:58Z2022-05-01T00:00:00ZTítulo: Modelo de programación lineal entera para la asignación de horarios de clase compactos en la facultad de ciencias de la escuela politécnica nacional.
Autor: Quisaguano Acosta, Marlon Alejandro
Resumen: In this research work, an integer linear programming model is formulated for the computation of university course timetables at the Faculty of Science of Escuela Politécnica Nacional, addressing several specific constraints of this academic unit, such as allowing lectures with heterogeneous durations, including preferences and/or availability of lecturers and classrooms, and requiring a certain compactness criterion for class schedules. The model presented in this work has been taken from a previous work and slightly modified to allow the inclusion of lectures with pre-established schedules. The model has been implemented using the Python API of the Gurobi solver and has been integrated into a computational web-based tool designed to be used by the administrative staff of the Faculty of Science. The results of computational experiments carried out on instances obtained from the academic planning of two semesters in this faculty are reported.
Descripción: En el presente trabajo de investigación se exhibe un modelo de programación lineal entera para la asignación de horarios de clase en la Facultad de Ciencias de la Escuela Politécnica Nacional, abordando diferentes particularidades de esta unidad académica, como la existencia de sesiones de clase heterogéneas, la inclusión de disponibilidades y/o preferencias de horario de profesores, restricciones de disponibilidad de aulas, y la incorporación de un criterio para requerir un cierto grado de compacidad en los horarios de clases. El modelo presentado en este trabajo fue tomado de un reporte técnico previo y modificado ligeramente para permitir la inclusión de sesiones de clase con horarios preestablecidos. El modelo ha sido implementado computacionalmente empleando la API Python del solver Gurobi y ha sido integrado a un sistema de base de datos con interfaz web para facilitar su uso en de la Facultad de Ciencias. Se reportan los resultados de experimentos computacionales realizados sobre instancias obtenidas de la planificación académica de dos semestres en esta facultad.2022-05-01T00:00:00ZNueva metodología para la detección de resultados inconsistentes en estudios interlaboratorios utilizando análisis de datos funcionales.Moreno Armijos, Génesis Chabelihttp://bibdigital.epn.edu.ec/handle/15000/228622022-08-22T20:27:49Z2022-05-01T00:00:00ZTítulo: Nueva metodología para la detección de resultados inconsistentes en estudios interlaboratorios utilizando análisis de datos funcionales.
Autor: Moreno Armijos, Génesis Chabeli
Resumen: This research proposes the development and implementation of a new methodology for outliers detection in interlaboratory studies, based on functional data analysis techniques and Mandel’s h and k statistics, which are in charge of the analysis of variability of study measurements. This work is developed in five chapters. The first one talks about the objectives and scope of the topic. Chapter 2 formally introduces interlaboratory studies and a general description of functional data analysis is provided, as well as certain definitions and techniques that can be applied to an interlaboratory study. Chapter 3 presents in detail the new methodology proposed for the detection of atypical laboratories in Interlaboratory Studies based on bootstrap resampling techniques, random projections and the functional extension of Mandel’s h and k statistics. From these statistics, the contrasting approach of the repeatability and reproducibility hypotheses for the functional case will be carried out. The new methodology has as a key idea transferring the resolution of a functional problem to a simpler case study, the real case. Chapter 4 presents the validation and application of the new proposed methodology. The validation consists in a simulation study of thermogravimetric curves, while the application is carried out in two real case studies. Additionally, a comparison and evaluation of the main results obtained against the results of previous studies related to the use of functional data in the framework of ILS is made. Finally, Chapter 5 shows the main conclusions and recommendations obtained during the development of the research.
Descripción: El presente trabajo de investigación propone el desarrollo e implementación de una nueva metodología para la detección de laboratorios atípicos en estudios interlaboratorio (ILS), a partir de técnicas de análisis de datos funcionales y del uso de los estadísticos h y k de Mandel, utilizados para el análisis de la variabilidad de las mediciones de estudio. El trabajo de investigación se desarrolla en cinco capítulos. Se inicia con los objetivos y alcances del estudio. En el Capítulo 2 se introduce formalmente los ILS y se proporciona una descripción general del análisis de datos funcionales, así como definiciones y técnicas que pueden ser aplicadas para la detección de atípicos en un ILS. En el Capítulo 3 se presenta la metodología propuesta para la detección de laboratorios inconsistentes en base a técnicas de remuestreo bootstrap, proyecciones aleatorias y la extensión funcional de los estadísticos h y k de Mandel. A partir de estos estadísticos se realizará el planteamiento de contraste de las Hipótesis de Repetibilidad y Reproducibilidad para el caso funcional. La nueva metodología tiene como idea clave trasladar la resolución de un problema funcional a un caso más simple de estudio, el caso real. El Capítulo 4 presenta la validación mediante un estudio de simulación y la aplicación de la nueva metodología propuesta; asimismo, se realiza una comparación y evaluación de los principales resultados obtenidos frente a resultados de estudios previos. Finalmente, en el Capítulo 5 se muestran las principales conclusiones y recomendaciones obtenidas durante el desarrollo de la investigación.2022-05-01T00:00:00ZModelación de marejadas en Esmeraldas.Amagua Obando, Luis Fabiánhttp://bibdigital.epn.edu.ec/handle/15000/228602022-08-22T19:28:52Z2022-05-01T00:00:00ZTítulo: Modelación de marejadas en Esmeraldas.
Autor: Amagua Obando, Luis Fabián
Resumen: Este trabajo identifica la distribución que permite describir los datos de altura máxima diaria del oleaje en el cantón Esmeraldas. La teoría de valores extremos permite encontrar una distribución que describa el oleaje, siendo las distribuciones Normal y Gamma de dos parámetros las que presentan mejores ajustes en base a los datos descargados de la página del INOCAR.
Para determinar la distribución, se analiza las distribuciones de valores extremos, así como las distribuciones Normal y Gamma. Se concluye que las distribuciones truncadas permiten modelar de manera más eficiente el oleaje, si este se separa en las estaciones de verano e invierno, si se considera que la altura máxima del oleaje se encuentra en grado cinco según la escala Douglas, como el límite de truncamiento superior.
La esperanza del tiempo de parada representa el período de retorno en hidrología, se demuestra que el tiempo de parada N=inf{n ≥1:Xn>x0} sigue una distribución geométrica y se analiza la relación entre el período de retorno y la altura del oleaje.
Descripción: This work identifies the distribution that allows describing the maximum daily surge height data in the Esmeraldas canton. The extreme value theory allows finding a distribution that describes the surge, being the two-parameter Normal and Gamma distributions the best fits based on the data downloaded from the INOCAR web page.
To determine the distribution, the extreme value distributions are analyzed, as well as the Normal and Gamma distributions. It is concluded that the truncated distributions allow to model more efficiently the surge, if it is separated into summer and winter seasons, if the maximum height of the surge is considered to be at grade five according to the Douglas scale, as the upper truncation limit.
The stopping time expectation represents the return period in hydrology, it is shown that the stopping time N=inf{n≥1:Xn>x0} follows a geometric distribution and the relationship between return period and surge height is analyzed.2022-05-01T00:00:00ZModelo de teoría de colas y simulación para la asignación del recurso humano en un sistema operativo de servicios.Salazar Gallardo, Wagner Marcelohttp://bibdigital.epn.edu.ec/handle/15000/227952022-07-15T16:15:23Z2022-05-01T00:00:00ZTítulo: Modelo de teoría de colas y simulación para la asignación del recurso humano en un sistema operativo de servicios.
Autor: Salazar Gallardo, Wagner Marcelo
Resumen: In the present work, an exploration of the average queuing time is carried out for
different queuing theory models, for which there are no exact results, for which approximations are
used. In addition, it is sought that these approximations of queuing times can be put into practice
efficiently. Subsequently, the Amazonas Government Platform agency (P.G.A), belonging to the
Internal Revenue Service (S.R.I), is taken as a case study; The queuing theory model to which its
data fits is applied to said agency in order to solve the problem of very long waiting times in its
queues. Thus, the model is adapted to comply with a consistent quality policy that waiting times in
line are less than 20 minutes and thus solve the problem. Finally, simulations are carried out to
corroborate the results of the model and verify the correct compliance with the quality policy, in
addition, a number of windows to open at each hour of the day is suggested, with which there is a
saving in hours of 16.36%.
Descripción: En el presente trabajo, se realiza una exploración del tiempo de espera en fila promedio
para diferentes modelos de teoría de colas, para los cuales no se tienen resultados exactos, por lo cual
se trabaja con aproximaciones. Además, se busca que estas aproximaciones de tiempos de espera en
fila puedan ser llevados a la práctica de manera eficiente. Posteriormente se toma como caso de
estudio la agencia Plataforma Gubernamental Amazonas (P.G.A), perteneciente al Servicio de Rentas
Internas (S.R.I); a dicha agencia se aplica el modelo de teoría de colas al que se ajusten sus datos con
el fin de solventar el problema de tiempos de espera muy altos en sus colas. Así, se adecua el modelo
para cumplir con una política de calidad consistente en que los tiempos de espera en fila sean
menores a 20 minutos y de esa manera solucionar el problema. Finalmente se realizan simulaciones
para corroborar resultados del modelo y verificar el correcto cumplimiento de la política de calidad,
además se sugiere un número de ventanillas a abrir en cada hora del día con lo cual se tiene un ahorro
en horas del 16,36%.2022-05-01T00:00:00ZAplicación de métodos Bootstrap para la inferencia de estadísticos de las series de índices de alternancia de la onda T en pacientes que presentan cardiopatías.León Gálvez, Paula Cristinahttp://bibdigital.epn.edu.ec/handle/15000/227902022-07-15T15:38:50Z2022-05-01T00:00:00ZTítulo: Aplicación de métodos Bootstrap para la inferencia de estadísticos de las series de índices de alternancia de la onda T en pacientes que presentan cardiopatías.
Autor: León Gálvez, Paula Cristina
Resumen: In this paper, the Block Bootstrap and TFT-Bootstrap methods are used to estimate the parameters of the T-wave alternans (TWA) index series, particularly in patients with heart disease. Alternans describes the beat-to-beat variations, in direction, amplitude and/or duration in our case of the T wave of the electrocardiogram, variations in this wave may be related to the presence of heart disease or the possible risk of sudden cardiac death (SCD). The possible risk of suffering heart disease or SCD is established through the analysis of statistics of the TWA index series, by means of conditions on these statistics the medical staff determines the absence or presence of alternation in the series, which will be equivalent to the risk of suffering a particular heart disease. A proper estimation of these parameters could make a difference in allowing timely diagnosis and appropriate treatment for patients. This research project is proposed as a vision so that interdisciplinary groups of professionals in statistics and health can replicate it to populations of interest by adjusting local models to them. Relevant information will be generated for the construction of potential new methodologies and will open debate on the possible application of Bootstrap methods to improve the characterization of T-wave alternans, benefiting patients with early detection of the risk of suffering particular heart diseases.
Descripción: En el presente trabajo se utilizan los métodos Bootstrap por Bloques y TFT-Bootstrap para realizar la estimación de parámetros de las series de índices de alternancia de la Onda T (TWA), particularmente de pacientes que presentan cardiopatías. La alternancia describe las variaciones latido a latido, en dirección, amplitud y/o duración en nuestro caso de la Onda T del electrocardiograma, variaciones en esta Onda pueden estar relacionadas con la presencia de cardiopatías o el posible riesgo de sufrir muerte súbita cardiaca (MSC). El posible riesgo de sufrir cardiopatías o MSC se establece gracias al análisis de estadísticos de las series de índices de TWA, mediante condiciones sobre estos estadísticos el personal de salud determina la presencia o no de alternancia en la serie, lo que equivaldrá al riesgo de sufrir determinada cardiopatía. Una estimación adecuada de estos parámetros podría marcar la diferencia al permitir un diagnostico oportuno y un tratamiento apropiado para los pacientes. Este proyecto de investigación se plantea como una visión para que grupos interdisciplinarios de profesionales en estadística y salud puedan replicarlo a poblaciones de interés, ajustando modelos locales a los mismos. Se generará información relevante para la construcción de potenciales nuevas metodologías y se abrirá debate sobre la posible aplicación de los métodos Bootstrap para mejorar la caracterización de la alternancia de la onda T, beneficiando a los pacientes con la detección temprana del riesgo de sufrir ciertas cardiopatías.2022-05-01T00:00:00ZEstudio de funciones tipo exponencial y trigonométricas fraccionarias, y sus propiedades asociados al operador de Cauchy-Riemann fraccionario en el sentido de Riemann-Liouville, sobre estructuras hipercomplejas.Morillo Madrid, Esteban Josuéhttp://bibdigital.epn.edu.ec/handle/15000/227692022-07-15T01:47:41Z2022-03-01T00:00:00ZTítulo: Estudio de funciones tipo exponencial y trigonométricas fraccionarias, y sus propiedades asociados al operador de Cauchy-Riemann fraccionario en el sentido de Riemann-Liouville, sobre estructuras hipercomplejas.
Autor: Morillo Madrid, Esteban Josué
Resumen: In this thesis, Elementary type functions are characterized, specifically the exponential, sine and cosine functions. This characterization is done over a generalization of complex analysis, using fractional calculus and generalized complex numbers. With this goal in mind, fundamental algebra, complex numbers and a theory of analytic functions is revised. Then, fractional calculus in the Riemann-Liouville sense is presented, along with definitions of fractional integral and derivative, and relevant results for the scope of this work. After this, generalized complex numbers are introduced, with its algebraic properties, trigonometry and theory of analytic functions, comparing with known results of complex analysis. This theory of generalized complex analytic functions can be extended in two dimensions, using fractional calculus, to define a theory of fractional generalized analytic functions which allows the characterization of the fractional exponential and fractional trigonometric type functions over generalized complex numbers.
Descripción: En el presente trabajo se busca caracterizar funciones tipo elementales, es decir, funciones análogas a la exponencial, seno y coseno, sobre estructuras de números complejos generalizados en cálculo fraccionario. Con este objetivo, se presenta primero fundamentos algebraicos necesarios para entender la estructura de los números complejos y su teoría de funciones analíticas. También se introduce el cálculo fraccionario en el sentido de Riemann-Liouville, con sus definiciones de integral y derivada fraccionarias junto con sus propiedades. Con esto se presenta a los números complejos generalizados, sus propiedades algebraicas y trigonométricas, y su respectiva teoría de funciones analíticas haciendo comparación con los resultados conocidos del análisis complejo. Esta teoría de funciones analíticas sobre números complejos generalizados se extiende, por medio del cálculo fraccionario, definiendo así una teoría de funciones analíticas fraccionarias generalizadas que hace posible la caracterización de funciones tipo exponencial fraccionaria y tipo trigonométricas fraccionarias sobre el álgebra de números complejos generalizados.2022-03-01T00:00:00ZEl teorema de Amemiya y Ando para un producto aleatorio de operadores contractivos.Arias Morales, Gerardo Danielhttp://bibdigital.epn.edu.ec/handle/15000/227652022-07-15T01:19:04Z2022-05-01T00:00:00ZTítulo: El teorema de Amemiya y Ando para un producto aleatorio de operadores contractivos.
Autor: Arias Morales, Gerardo Daniel
Resumen: Let H be a Hilbert space and T : H → H a contraction, i.e., a linear and bounded operator such that ||T|| ≤ 1. We say that T has the property (W) when for any sequence (fn)n∈N in H such that || fn|| ≤ 1 ∀ n ∈ N and límn→∞ ||T fn|| = 1, we have that límn→∞ (I − T)fn = 0 weakly. We consider contractions T1, T2, . . . , TN : H → H, which have the property (W), and a quasi-periodic function r : N → {1, 2, . . . , N} with quasi-period q, and sequences of operators (A(1)_n)n∈N, (A(2)_n)n∈N , . . . , (A(N)_n)n∈N from H to H such that ||A(k)_n x – T_kx|| ≤ γn||x|| ∀ x ∈ H, ∀ k = 1, . . . , N, where (γn)n∈N is a sequence of positive real numbers generating a convergent series. In the main result of this work we prove that for each x ∈ H there exists a point x ∗ ∈ H such that weakly.
Descripción: Sean H un espacio de Hilbert y T : H → H una contracción, es decir, un operador lineal y continuo tal que ||T|| ≤ 1. Decimos que T posee la propiedad (W) cuando para cada sucesión (fn)n∈N de H tal que ||fn|| ≤ 1 ∀ n ∈ N y límn→∞ ||Tfn|| = 1, se tiene que límn→∞ (I − T)fn = 0 débilmente. Consideremos contracciones T1, T2, . . . , TN : H → H que tienen la propiedad (W), una función r : N → {1, 2, . . . , N} cuasi−periódica con cuasi−periodo q, y sucesiones de operadores (A(1)_n)n∈N , (A(2)_n)n∈N , . . . , (A (N)_n)n∈N de H en H tales que ||A(k)_n x – T_k x|| ≤ γn||x|| ∀x ∈ H, ∀k = 1, . . . , N, donde (γn)n∈N es una sucesión de números reales positivos que genera una serie convergente. En el resultado principal de este trabajo demostramos que para cada x ∈ H existe x∗ ∈ H tal que débilmente2022-05-01T00:00:00ZNueva metodología para la detección de resultados inconsistentes en estudios interlaboratorios utilizando análisis de datos funcionales .Solorzano Maya, Cristian IvánMoreno Armijos, Génesis Chabelihttp://bibdigital.epn.edu.ec/handle/15000/227542022-07-14T21:49:03Z2022-04-01T00:00:00ZTítulo: Nueva metodología para la detección de resultados inconsistentes en estudios interlaboratorios utilizando análisis de datos funcionales .
Autor: Solorzano Maya, Cristian Iván; Moreno Armijos, Génesis Chabeli
Resumen: This research proposes the development and implementation of a new methodology for outliers detection in interlaboratory studies, based on functional data analysis techniques and Mandel’s h and k statistics, which are in charge of the analysis of variability of study measurements. This work is developed in five chapters. The first one talks about the objectives and scope of the topic. Chapter 2 formally introduces interlaboratory studies and a general description of functional data analysis is provided, as well as certain definitions and techniques that can be applied to an interlaboratory study. Chapter 3 presents in detail the new methodology proposed for the detection of atypical laboratories in Interlaboratory Studies based on bootstrap resampling techniques, random projections and the functional extension of Mandel’s h and k statistics. From these statistics, the contrasting approach of the repeatability and reproducibility hypotheses for the functional case will be carried out. The new methodology has as a key idea transferring the resolution of a functional problem to a simpler case study, the real case. Chapter 4 presents the validation and application of the new proposed methodology. The validation consists in a simulation study of thermogravimetric curves, while the application is carried out in two real case studies. Additionally, a comparison and evaluation of the main results obtained against the results of previous studies related to the use of functional data in the framework of ILS is made. Finally, Chapter 5 shows the main conclusions and recommendations obtained during the development of the research.
Descripción: El presente trabajo de investigación propone el desarrollo e implementación de una nueva metodología para la detección de laboratorios atípicos en estudios interlaboratorio (ILS), a partir de técnicas de análisis de datos funcionales y del uso de los estadísticos h y k de Mandel, utilizados para el análisis de la variabilidad de las mediciones de estudio. El trabajo de investigación se desarrolla en cinco capítulos. Se inicia con los objetivos y alcances del estudio. En el Capítulo 2 se introduce formalmente los ILS y se proporciona una descripción general del análisis de datos funcionales, así como definiciones y técnicas que pueden ser aplicadas para la detección de atípicos en un ILS. En el Capítulo 3 se presenta la metodología propuesta para la detección de laboratorios inconsistentes en base a técnicas de remuestreo bootstrap, proyecciones aleatorias y la extensión funcional de los estadísticos h y k de Mandel. A partir de estos estadísticos se realizará el planteamiento de contraste de las Hipótesis de Repetibilidad y Reproducibilidad para el caso funcional. La nueva metodología tiene como idea clave trasladar la resolución de un problema funcional a un caso más simple de estudio, el caso real. El Capítulo 4 presenta la validación mediante un estudio de simulación y la aplicación de la nueva metodología propuesta; asimismo, se realiza una comparación y evaluación de los principales resultados obtenidos frente a resultados de estudios previos. Finalmente, en el Capítulo 5 se muestran las principales conclusiones y recomendaciones obtenidas durante el desarrollo de la investigación.2022-04-01T00:00:00ZMétodos y procesos sofisticados de reducción de dimensión y selección de variables para un modelo de respuesta binaria.Moreno Manobanda, Josselyn Lizethhttp://bibdigital.epn.edu.ec/handle/15000/226232022-07-08T13:32:18Z2022-04-01T00:00:00ZTítulo: Métodos y procesos sofisticados de reducción de dimensión y selección de variables para un modelo de respuesta binaria.
Autor: Moreno Manobanda, Josselyn Lizeth
Resumen: The current challenge for researchers and professionals is the rate of development regarding data collected. The manipulation of this large amount of data is currently considered an open and booming topic. Part of the information that is collected is usually irrelevant and unnecessary, which motivates data analysts to use technological resources that exclude this information, achieving results referring to some phenomenon. In this paper, methods and techniques for variable selection and dimension reduction are proposed to overcome the problem of handling large amounts of data. On the one hand, it goes deeper into machine learning algorithms and then into unusual selection techniques. These methods are applied and finally a validation of the results is carried out, concluding an adequate proposed model. The database used in this project comes from a private consultancy.
Descripción: El desafío actual para investigadores y profesionales es la tasa de desarrollo respecto a datos recopilados. La manipulación de esta gran cantidad de datos es considerado actualmente un tema abierto y de gran auge. Parte de la información que se recolecta usualmente es irrelevante e innecesaria, lo que motiva a los analistas de datos a utilizar recursos tecnológicos que excluyan esta información, alcanzado resultados interpretables referentes algún fenómeno. En el presente trabajo, se plantean métodos y técnicas de selección de variables y reducción de dimensiones para sobrellevar el problema del manejo de grandes cantidades de datos. Por un lado, se profundiza en algoritmos de aprendizaje automático y luego, en técnicas de selección poco comunes. Se aplican estos métodos y finalmente se realiza una validación de los resultados concluyendo un modelo propuesto adecuado. La base de datos con la que se trabaja en este proyecto proviene de una consultoría privada.2022-04-01T00:00:00ZAnálisis y diseño de un modelo predictivo para detección de phishing basado en url y corpus del correo electrónico.Albán Toapanta, Dolores Fernandahttp://bibdigital.epn.edu.ec/handle/15000/225252022-06-01T19:37:37Z2022-02-01T00:00:00ZTítulo: Análisis y diseño de un modelo predictivo para detección de phishing basado en url y corpus del correo electrónico.
Autor: Albán Toapanta, Dolores Fernanda
Resumen: One of the most reported cybercrimes worldwide is phishing, for this reason, various anti-phishing systems (APS) are currently being developed to identify this attack in online communication systems. Despite the best efforts, this attack continues unabated, having as causes, the erroneous detection in the zero-day attack, the high computational cost and the high rates of forgery. Although the Machine Learning (ML) approach has achieved a favorable accuracy rate, the choice and performance of the feature vector should be considered a key point to obtain a high level of accuracy. In this work, we propose a predictive model based on ML and analyze the efficiency of some anti-phishing schemes that served to understand this issue. The proposed model consists of a feature selection module that is used for the construction of the final vector. These characteristics are extracted from the URL, the web page properties and the email corpus, using a system based on incremental components to present the resulting vector. The system uses classification models, Random Forest and Naïve Bayes, which have been trained on the vector of traits. The experiments were based on datasets comprised of phishing and benign instances. Using cross-validation, the experimental results indicate a precision of 97.5% for the bases mentioned in other works, while for the approach of this research at the local level a precision of 96.5% was obtained.
Descripción: Uno de los delitos cibernéticos más reportados a nivel mundial es el phishing, por esta razón, actualmente se está desarrollando diversos sistemas anti-phishing (APS) para identificar este ataque en sistemas de comunicación en línea. A pesar de los esfuerzos, este ataque continúa sin cesar, teniendo como causas: la detección errónea en el ataque de día cero, el alto costo computacional y las tasas altas de falsificación. Aunque el enfoque de Machine Learning (ML) ha logrado una tasa de precisión favorable, se debe considerar que la elección y el rendimiento del vector de características es un punto clave para obtener un nivel de precisión elevado. En este trabajo, proponemos un modelo predictivo basado en ML y analizar la eficiencia de algunos esquemas anti-phishing que sirvieron para entender esta temática. El modelo propuesto consta de un módulo de selección de características que se utiliza para la construcción del vector final. Estas características se extraen de la URL, las propiedades de la página web y del corpus de correo electrónico, utilizando un sistema basado en componentes incrementales para presentar el vector resultante. El sistema utiliza modelos de clasificación, Random Forest y Naïve Bayes, que han sido entrenados en el vector de rasgos. Los experimentos se basaron en dataset compuestas por instancias de phishing y benignas. Utilizando la validación cruzada, los resultados experimentales indican una precisión del 97,5% para las bases mencionadas en otros trabajos, mientras que para el abordaje de esta investigación a nivel local se obtuvo una precisión del 96,5%.2022-02-01T00:00:00ZExistencia, unicidad y regularidad Hölder de soluciones de la ecuación de Hamilton-Jacobi con derivada temporal de tipo Caputo.Pucha Atán, Kevin Wladimirhttp://bibdigital.epn.edu.ec/handle/15000/223942022-05-13T15:45:16Z2022-02-01T00:00:00ZTítulo: Existencia, unicidad y regularidad Hölder de soluciones de la ecuación de Hamilton-Jacobi con derivada temporal de tipo Caputo.
Autor: Pucha Atán, Kevin Wladimir
Resumen: We are interested in the following Cauchy's problem:
D^α u(t,x)+H(t,x,u(t,x),Du(t,x))=0, (t,x)∈Q≔(0,+∞)×T^N
subject to the initial condition
u(0,x)=u_0 (x), ∀ x∈T^N,
where u_0∈"Lip" (T^N ) and H∈"C" (T^N×R×R^N ) are given functions.
Moreover T^N denotes the N-dimensional Torus and "Lip" (T^N ) denotes the set of the Lipschitz continuos functions on T^N, u is the unknown function, Du is the spatial gradient of u, i.e., Du=(D_(x_1 ) u,…,D_(x_N ) u) and D^α is the Caputo's fractional derivative of order α∈(0,1).
The concept of a viscosity solution and discontinuous viscosity solution for this type of problem are defined. We will show the existence of discontinuous viscosity solutions using Perron's Method. We will show the Comparison Principle, which together with Perron's Method allows us to prove the existence and uniqueness of a viscosity solution to the problem. Finally, we analyze the regularity of the solution both in time and space.
Descripción: Estamos interesados en el estudio del siguiente problema de Cauchy:
D^α u(t,x)+H(t,x,u(t,x),Du(t,x))=0, (t,x)∈Q≔(0,+∞)×T^N
sujeto a la condición inicial
u(0,x)=u_0 (x), ∀ x∈T^N,
donde u_0∈"Lip" (T^N ) y H∈"C" (T^N×R×R^N ) son funciones dadas.
Además T^N denota el toro N-dimensional, "Lip" (T^N )denota el conjunto de las funciones Lipschitz continuas sobre T^N, u es la función incógnita, Du es el gradiente espacial de u, i.e., Du=(D_(x_1 ) u,…,D_(x_N ) u) y D^α denota la derivada fraccionara de Caputo de orden α∈(0,1).
Se definen los conceptos de solución viscosa y solución viscosa discontinua para este tipo de problemas. Mostraremos existencia de soluciones viscosas discontinuas usando el Método de Perron. Probaremos el Principio de Comparación, que junto al Método de Perron permite demostrar la existencia y unicidad de una solución viscosa para el problema. Finalmente analizamos la regularidad de la solución tanto en tiempo como en espacio.2022-02-01T00:00:00ZAsignación óptima del personal para atención ciudadana usando programación entera mixta.Pérez Montalvo, Jorge Emiliohttp://bibdigital.epn.edu.ec/handle/15000/223252022-04-26T16:37:51Z2022-04-05T00:00:00ZTítulo: Asignación óptima del personal para atención ciudadana usando programación entera mixta.
Autor: Pérez Montalvo, Jorge Emilio
Resumen: In the present work, a multi-period problem of scheduling on parallel machines is studied. The problem is motivated by personnel assignment to customer service counters in the different agencies of the Internal Revenue System of Ecuador (SRI). The officials in charge of each of the agencies must decide how many service counters (machines) must be active at any time to serve the incoming flow of customers (jobs) and minimize the total number of man-hours that are necessary to serve such counters. Each job is characterized by an arrival time, a latest processing start time, and a processing
time. Two integer linear programming models together with lower bounds and several families of valid inequalities for both formulations are provided. Moreover, the SRI has imposed a quality parameter defining that user cannot wait more than 20 minutes to be served. Thus, the first formulation consists of a continuous version in which each job is processed within a time window defined by its arrival time and its last allowed start time, and the second formulation consists of a discretized version of the time window in which the sets of work intervals are given explicitly. Finally, extensive computational results using real-world instances are reported.
Descripción: En el presente trabajo se estudia un problema multi-período de calendarización de máquinas paralelas que está motivado por el problema de asignación de personal a ventanillas de servicio al cliente en las distintas agencias del Sistema de Rentas Internas del Ecuador (SRI). Los funcionarios a cargo de cada una de las agencias deben decidir cuántas ventanillas (máquinas) de servicio deben estar activas en cualquier momento para atender el flujo entrante de clientes (trabajos) y minimizar el número total de horas-hombre necesarias para atender cada una de las ventanillas. Asumiendo como conocida la hora de llegada de los clientes, el tiempo de duración de cada uno de los trámites (procesamiento del trabajo) y un parámetro de calidad impuesto por el SRI definiendo que los usuarios no pueden esperar más de 20 minutos para ser atendidos, se proponen dos modelos de programación lineal entera junto con cotas inferiores y familias de desigualdades válidas para ambas formulaciones. Así, la primera formulación consiste en una versión continua en la que cada trabajo se procesa dentro de una ventana de tiempo definida por su hora de llegada y su última hora de inicio permitida y la segunda formulación consiste de una versión discretizada de las ventanas de tiempo en la que los conjuntos de intervalos de trabajo se dan explícitamente. Finalmente, se reportan extensos resultados computacionales usando instancias del mundo real.2022-04-05T00:00:00ZAnálisis clúster para series de tiempo estacionales y modelización de caudales de ríos del Brasil.Pachacama Simbaña, Cristian Davidhttp://bibdigital.epn.edu.ec/handle/15000/222952022-04-21T13:22:57Z2022-03-03T00:00:00ZTítulo: Análisis clúster para series de tiempo estacionales y modelización de caudales de ríos del Brasil.
Autor: Pachacama Simbaña, Cristian David
Resumen: This paper deals with the application of the Cluster Analysis for Time Series oriented to the modeling of stream flows of the main rivers of Brazil, which were measured in 179 stations distributed in them, this from climatic variables and the combination of techniques of modeling as SARIMA, SARIMAX and Cluster Analysis. Specifically, what is done is to create a small number of clusters (from 2 to 4 clusters) from the 179 stations, where each group will contain stations in which their flows have a temporal behavior similar possible, then for each of these clusters, two models are proposed, the first is a SARIMA model built for the functional mean of the series of each cluster, and the second, a SARIMAX model built for the time series most centrally located (medoid) inside each cluster and considering as exogenous variables climatic series measured in the nearest geographical station. We will show later the advantages and the efficiency of modeling a huge amount of time series with the use of these techniques, this because the model that explains each cluster can be extended (using the same delays and explanatory variables) to each one of the time series that compose it. We carry out comparative studies between both models, obtaining close results in terms of information criteria and predictive power, but which indicate that the SARIMAX model offers better results in general terms.
Descripción: En el presente trabajo se aborda la aplicación del Análisis Clúster para Series de Tiempo orientado al modelamiento de caudales de los principales ríos de Brasil, que se midieron en 179 estaciones repartidas en los mismos, esto a partir de variables climáticas y la combinación de técnicas de modelamiento como SARIMA, SARIMAX y Análisis de Conglomerados (clúster). Específicamente lo que se hace es crear un número pequeño de clústeres (de 2 a 4 clústeres) a partir de las 179 estaciones, donde cada grupo contendrá a estaciones en la que sus caudales posean un comportamiento temporal lo más similar posible, luego para cada uno de estos clústeres, se proponen dos modelos, el primero es un modelo SARIMA construido para la media funcional de las series de cada clúster, y el segundo, un modelo SARIMAX construido para la serie de tiempo más centralmente ubicada (medoide) dentro de cada clúster y considerando como variables exógenas a series climáticas medidas en la estación geográficamente más cercana. Mostraremos después las ventajas y la eficiencia de modelar una enorme cantidad de series de tiempo con el uso de estas técnicas, esto debido a que el modelo que explica cada clúster puede ser extendido (usando los mismos retardos y variables explicativas) a cada una de las series de tiempo que lo componen. Realizamos estudios comparativos entre ambos modelos, obteniendo resultados cercanos en cuanto a criterios de información y poder predictivo, pero que apuntan a que el modelo SARIMAX ofrece mejores resultados en termino generales.2022-03-03T00:00:00ZEvaluación del riesgo de una red de IoT (Internet de las Cosas) en una casa inteligente utilizando redes bayesianas.Heredia Díaz, Diego Fernandohttp://bibdigital.epn.edu.ec/handle/15000/222922022-03-29T14:36:47Z2022-03-28T00:00:00ZTítulo: Evaluación del riesgo de una red de IoT (Internet de las Cosas) en una casa inteligente utilizando redes bayesianas.
Autor: Heredia Díaz, Diego Fernando
Resumen: In the present work, a risk assessment model of an Internet of Things (IoT) network is implemented in a smart home using a Bayesian network. The directed acyclic graph of the Bayesian network is obtained from an attack graph that details the structure of the IoT network and the paths through which different attacks can occur. The parameters of the Bayesian network are estimated with the maximum likelihood method applied to a data set obtained from the simulation of network attacks, in five different scenarios. The risk assessment focuses on the analysis of DoS attacks, MitM attacks and both simultaneously to the devices that allow the automation of the smart home and that are generally the ones that individually have lower levels of security. For this, inferences in the Bayesian network and the impact of the attacks using the simulated data are considered.
Descripción: En el presente trabajo se implementa un modelo de evaluación del riesgo de una red del Internet de las Cosas (IoT) en una casa inteligente utilizando una red bayesiana. El grafo dirigido acíclico de la red bayesiana se obtiene a partir de un grafo de ataque que detalla la estructura de la red de IoT y los caminos por los que pueden ocurrir distintos ataques. Los parámetros de la red bayesiana se estiman con el método de máxima verosimilitud aplicado a un conjunto de datos obtenido a partir de la simulación de ataques a la red, en cinco diferentes escenarios. La evaluación del riesgo se enfoca en el análisis de los ataques de DoS, ataques de MitM y ambos simultáneamente a los dispositivos que permiten la automatización de la casa inteligente y que por lo general son los que individualmente tienen menores niveles de seguridad. Para esto se consideran inferencias en la red bayesiana y el impacto de los ataques utilizando los datos simulados.2022-03-28T00:00:00ZUn método de optimización de tipo bundle no diferenciable aplicado al flujo de materiales viscoplásticos.Reyes Andrade, Diego Xavierhttp://bibdigital.epn.edu.ec/handle/15000/222662022-03-17T16:31:30Z2022-03-17T00:00:00ZTítulo: Un método de optimización de tipo bundle no diferenciable aplicado al flujo de materiales viscoplásticos.
Autor: Reyes Andrade, Diego Xavier
Resumen: In the present work, a nonsmooth optimization method applied to the Herschel- Bulkley
flow model is developed. The motion of these fluids is characterized as a minimization problem of a
convex and nonsmooth functional. To solve it, we follow the “discretize, then optimize” approach.
We use the finite element method to obtain an approximation of the problem of interest, then, by
means of the Moreau-Yosida regularization, we obtain a smooth optimization problem that is
equivalent to minimizing the nonsmooth functional. Applying this type of regularization is a
challenging task, since, it is necessary to solve an auxiliary optimization problem at each iteration.
Following the ideas of Bundle methods, we develop a strategy that allows to solve this auxiliary
problem, approximately. We build a method that mainly follows the BFGS update scheme, and
furthermore, solves the auxiliary problem at each iteration as a subroutine. It is shown that the
proposed algorithm converges globally to the minimum, in addition, it possesses a superlinear
convergence rate for the case of shear-thickening fluids. Finally, several numerical experiments are
presented to verify the efficiency of the algorithm and its convergence properties.
Descripción: En el presente trabajo, se desarrolla un método de optimización no suave aplicado al
modelo de flujo de Herschel-Bulkley. El movimiento de estos fluidos se caracteriza como un
problema de minimización de un funcional convexo y no diferenciable. Para la resolución de este,
seguimos el enfoque “discretizar, luego optimizar”. Usamos el método de elementos finitos para
obtener una aproximación del problema de interés, luego, por medio de la regularización de MoreauYosida, obtenemos un problema de optimización diferenciable que es equivalente a minimizar el
funcional no suave. Aplicar este tipo de regularización es una tarea desafiante, pues, es necesario
resolver un problema de optimización auxiliar en cada iteración. Siguiendo las ideas de los métodos
Bundle, desarrollamos una estrategia que permite resolver aproximadamente este problema auxiliar.
Construimos un método que sigue principalmente el esquema de la actualización BFGS, y que,
además, resuelve el problema auxiliar en cada iteración como una subrutina. Se demuestra que el
algoritmo propuesto converge globalmente hacia el mínimo, y en adición, posee un orden de
convergencia superlineal para el caso de fluidos espesantes. Finalmente, se presenta una serie de
experimentos numéricos que permiten corroborar la eficiencia del algoritmo y sus propiedades de
convergencia.2022-03-17T00:00:00ZDiseño del gráfico de control no paramétrico basado en la distancia de Mahalanobis generalizada para datos funcionales.Guayasamín Bahamonde, Priscila Saloméhttp://bibdigital.epn.edu.ec/handle/15000/222562022-03-16T15:32:08Z2022-03-16T00:00:00ZTítulo: Diseño del gráfico de control no paramétrico basado en la distancia de Mahalanobis generalizada para datos funcionales.
Autor: Guayasamín Bahamonde, Priscila Salomé
Resumen: In this paper, we propose a Mahalanobis distance-based control chart with
functional data for monitoring processes presenting features that can be viewed as smooth
functions. In current literature, multivariate parametric graphs have been proposed in order to
monitor such processes. However, in the present work we design a nonparametric control chart
which is based on the Mahalanobis distance besides nonparametric control charts based on
standardized L1 and standardized L2
statistics. All control charts were designed using bootstrap
methods, permutations and depth measurements. Additionally, we present a simulation study
where control chart performance comparisons are made using different sample sizes and threshold
determining methods which detect atypical curves. Finally, the methodology developed in this work
is used to analyze the effect of a medical procedure on patients with high and low risk of brain
aneurysm. In particular, our method is used to monitor the time derivative of the radius of
aneurysms along the internal carotid artery.
Descripción: En el presente trabajo se propone el gráfico de control basado en la distancia de Mahalanobis
extendido para datos funcionales para el monitoreo de procesos, donde las características a ser
monitoreadas pueden ser vistas como funciones suaves. En la literatura actual se han propuesto
gráficos multivariantes paramétricos; sin embargo, en este trabajo se diseñan gráficos de control no
paramétricos L
1
estandarizado, L
2
estandarizado, y la carta de control basada en la distancia de
Mahalanobis, considerando los procedimientos de bootstrap, permutaciones y medidas de
profundidad. Se plantea un estudio de simulación donde se compara el rendimiento de las cartas de
control considerando el tamaño de las muestras y el método de determinación del umbral que
discrimina las curvas atípicas.
Finalmente, se aplica la metodología desarrollada para el caso de estudio de aneurismas cerebrales
de pacientes de alto y bajo riesgo, donde se monitorizará la derivada del radio de los aneurismas a
lo largo de la arteria carótida interna para determinar el efecto de un procedimiento médico en los
pacientes en el tiempo.2022-03-16T00:00:00ZAdaptación del método de agrupación k-medias para datos funcionales correlacionados espacialmente con aplicación a datos del índice de vegetación de diferencia normalizada de los páramos del Ecuador.Maigua Castillo, Sharon AlexandraChuquin Chuquin, Jeysson Fabriciohttp://bibdigital.epn.edu.ec/handle/15000/222552022-03-16T15:22:59Z2022-03-16T00:00:00ZTítulo: Adaptación del método de agrupación k-medias para datos funcionales correlacionados espacialmente con aplicación a datos del índice de vegetación de diferencia normalizada de los páramos del Ecuador.
Autor: Maigua Castillo, Sharon Alexandra; Chuquin Chuquin, Jeysson Fabricio
Resumen: Spatial dependence in environmental data is an influential criterion in clustering processes, as the results
obtained provide relevant information. As classical methods do not take into account spatial dependence, the
consideration of this structure produces unexpected results and clustering of curves that may not be similar in
shape or behavior. In this work, clustering is performed using the modified k-means method for spatially
correlated functional data applied to Normalized Difference Vegetation Index (NDVI) data from the moorlands
of Ecuador. For this purpose, quality indices are implemented to obtain the appropriate number of groups. The
methodology is based on a weighting of the distance matrix between the curves with the trace-variogram
calculated with the coefficients of the base functions resulting from the smoothing of the data. For the
validation of the method, some simulation scenarios are carried out, as well as a case of application to NDVI
data; obtaining five latitudinally distributed regions.
Descripción: La dependencia espacial en los datos medioambientales es un criterio influyente en los procesos de agrupación, ya que los resultados
obtenidos aportan información relevante. Como los métodos clásicos no tienen en cuenta la dependencia espacial, la consideración de esta
estructura produce resultados inesperados y agrupaciones de curvas que pueden no ser similares en forma o comportamiento. En este
trabajo se realiza la agrupación mediante el método de k-medias modificado para datos funcionales espacialmente correlacionados aplicado
a datos del Índice de Vegetación de Diferencia Normalizada (NDVI) de los páramos del Ecuador. Para ello, se implementan índices de
calidad que permiten obtener el número adecuado de grupos. La metodología se base en una ponderación de la matriz de distancia entre las
curvas con el trazo-variograma calculado con los coeficientes de las funciones base resultantes de la suavización de los datos. Para la
validación del método se realizan algunos escenarios de simulación, así como un caso de aplicación a datos del NDVI; obteniéndose cinco
regiones distribuidas latitudinalmente.2022-03-16T00:00:00ZEncuesta de Condiciones de Vida y Hábitos de los Estudiantes Universitarios en Ecuador.Pazmiño Sierra, Karen Dayanahttp://bibdigital.epn.edu.ec/handle/15000/222382022-03-08T21:25:05Z2022-02-08T00:00:00ZTítulo: Encuesta de Condiciones de Vida y Hábitos de los Estudiantes Universitarios en Ecuador.
Autor: Pazmiño Sierra, Karen Dayana
Resumen: The living conditions and habits of people and especially students allow us to know the environment in
which they develop and fulfill their functions related to the academic field. The objective of this project is
to know the opinion of the students of the Escuela Politécnica Nacional, deepening their perceptions and
needs in the family, social, and student environment. The information gathering process was carried out
through a survey consisting of 78 questions to 99 students. With the data obtained from the survey, the
information was processed, Subjective Poverty Lines were constructed and an ordinal logistic regression
model was carried out to know the main variables that influence and determine the economic level of a
student.
Descripción: Las condiciones de vida y los hábitos de las personas y en especial de los estudiantes permiten conocer el
medio en el cual se desarrollan y cumplen sus funciones relacionadas con el ámbito académico. El
objetivo de este proyecto es conocer la opinión de los estudiantes de la Escuela Politécnica Nacional,
profundizando en sus percepciones y necesidades en el ámbito familiar, social, y estudiantil. El proceso
de recolección de información se realizó a través de una encuesta que consta de 78 preguntas a 99
estudiantes. Con los datos obtenidos de la encuesta se procesó la información, se construyó Líneas de
Pobreza Subjetiva y se realizó un modelo de regresión logística ordinal para conocer las principales
variables que influyen y determinan el nivel económico de un estudiante.2022-02-08T00:00:00ZModelamiento por componentes principales con el enfoque del análisis de datos funcionales para predecir el riesgo país del Ecuador a través del Indicador de Bonos de Mercados Emergentes.Constante Cachimuel, Alexander Gabrielhttp://bibdigital.epn.edu.ec/handle/15000/222272022-03-08T14:28:40Z2022-03-08T00:00:00ZTítulo: Modelamiento por componentes principales con el enfoque del análisis de datos funcionales para predecir el riesgo país del Ecuador a través del Indicador de Bonos de Mercados Emergentes.
Autor: Constante Cachimuel, Alexander Gabriel
Resumen: This project investigates the application of Functional Data Analysis (FDA), a relatively new technique in the
field of Statistics, addressing from initial concepts such as: functional random variable, functional data,
adjustment of discrete data from smooth functions and statistical measures of centrality and variability, to then
study the functional approaches of depth measurements, adopting the concept of the most central curve, and the
method of functional principal components, useful for the elaboration of a model which predicts a complete
function. This technique is applied to the daily data of the Ecuadorian country risk to obtain the future behavior
of the daily scores for the year 2021; country risk is a benchmark for attracting investors and contributing to the
development of a country, determined by the Emerging Markets Bond Index (EMBI). In addition, for the
model, two forecasting scenarios are proposed, based on the best and worst case and, thus, understanding the
future trend of the indicator in both scenarios and providing solutions to the most serious impacts that this
indicator may cause
Descripción: En el presente proyecto se investiga sobre la aplicación del Análisis de Datos Funcionales (FDA), una técnica
relativamente nueva en el campo de la Estadística, abordando desde conceptos iniciales como: variable
aleatoria funcional, dato funcional, ajuste de datos discretos por funciones suaves y medidas estadísticas de
centralidad y variabilidad, para luego estudiar los enfoques funcionales de medidas de profundidad, adoptando
el concepto de curva más central, y el método de componentes principales funcionales, útil para la elaboración
de un modelo el cual pronostique una función completa. Esta técnica se la aplica a los datos diarios del riesgo
país ecuatoriano para obtener el comportamiento futuro de las puntuaciones diarias para el año 2021; el riesgo
país es un referente para atraer inversores y contribuir con el desarrollo de un país, determinado por el
Indicador de Bonos de Mercados Emergentes (EMBI). Además, para el modelo, se proponen dos escenarios de
pronóstico, basados en el mejor y peor caso y, así, comprender la tendencia futura del indicador en ambos
escenarios y brindar soluciones frente a los impactos más graves que puede causar dicho indicador2022-03-08T00:00:00ZDesarrollo de un sistema de alerta temprana sobre riesgo institucional financiero: estudio de casos en Ecuador.Bolaños Toledo, Andrés Davidhttp://bibdigital.epn.edu.ec/handle/15000/221512022-02-09T15:00:23Z2022-02-09T00:00:00ZTítulo: Desarrollo de un sistema de alerta temprana sobre riesgo institucional financiero: estudio de casos en Ecuador.
Autor: Bolaños Toledo, Andrés David
Resumen: This Degree Project proposes to establish a banking risk rating system at the national level that allows
forecasting the state of banking fragility in which the entities will be during future periods, this based
on both micro and macroeconomic indices that will be the financial signals of alert to be used by each
bank to predict a possible financial destabilization. Within the study carried out, the theory and
methodology of Machine Learning and Hidden Markov Models (HMM) were applied with the
objective of decoding the risk levels that financial entities will have in a certain period based on a
probability initial transition from one state to another with the same probability. This was done by
using the statistical software R-STUDIO.
Descripción: El presente Trabajo de Titulación propone establecer un sistema de calificación de riesgo bancario a
nivel nacional que permita pronosticar el estado de fragilidad bancaria en el cual las entidades
financieras se encontrarán durante períodos futuros, esto en base a índices tanto micro como
macroeconómicos a nivel nacional que serán las señales financieras de alerta a ser utilizadas por cada
banco para predecir una posible desestabilización financiera. Dentro del estudio que se llevó a cabo
se aplicó la teoría y metodología de Machine Learning y Modelos Ocultos de Markov (HMM por sus
siglas en inglés) con mira a decodificar los niveles de riesgo que tendrán las entidades financieras en
un cierto período de tiempo en base a una probabilidad inicial de transición de un estado a otro
equiprobable. Esto se efectuó mediante el uso del software estadístico R-STUDIO.2022-02-09T00:00:00ZTécnicas de machine learning aplicadas en la implementación de un modelo de credit scoring de tipo originación en una entidad bancaria del Ecuador.Oña Guallichico, Luis Eduardohttp://bibdigital.epn.edu.ec/handle/15000/221212022-02-05T23:06:38Z2022-02-05T00:00:00ZTítulo: Técnicas de machine learning aplicadas en la implementación de un modelo de credit scoring de tipo originación en una entidad bancaria del Ecuador.
Autor: Oña Guallichico, Luis Eduardo
Resumen: The purpose of the study is to detail the construction, validation, and implementation of a Credit Scoring model in a banking entity in Ecuador, through which the probability that a client will not meet their credit obligations is estimated. The model is aimed at the segment of clients who start their financial activities (they do not have a credit history), and that in many of the financial institutions is still qualified by using traditional techniques because they do not have enough information. Under these characteristics the model is called: `Application Model'. For the elaboration of the model, the use of a modern methodology based on machine learning algorithms is contemplated, such as: XGBoost and LIME, whose results will be evaluated and validated to obtain an optimal model capable of working correctly on new data sets. This will determine the importance of using current techniques that are objective and capable of optimizing the level of risk to which the banking institution's resources are exposed. The information used is provided by a bank in Ecuador. In addition, the methodology used for the construction of the model will be implemented in the R statistical software, thus allowing the results to be obtained automatically and saving a large amount of data processing time.
Descripción: El presente estudio tiene como finalidad detallar la construcción, validación e implementación de un modelo de Credit Scoring en una entidad bancaria del Ecuador, a través del cual se estime la probabilidad de que un cliente no cumpla con sus obligaciones crediticias. El modelo está dirigido para el segmento de clientes que inician sus actividades financieras (no tienen historial crediticio), y que en muchas de las instituciones financieras todavía es calificado mediante el uso de técnicas tradicionales por no poseer la información suficiente. Bajo estas características el modelo es denominado: ‘Modelo de Originación’. Para la elaboración del modelo se contempla el uso de una metodología moderna basada en algoritmos de aprendizaje automático, tales como: XGBoost y LIME, cuyos resultados serán evaluados y validados con el fin de obtener un modelo óptimo capaz de trabajar correctamente sobre nuevos conjuntos de datos. Esto determinará la importancia de utilizar técnicas actuales que sean objetivas y capaces optimizar el nivel de riesgo al cual se encuentran expuestos los recursos de la institución bancaria. La información empleada es proporcionada por una entidad bancaria del Ecuador. Además, la metodología utilizada para la construcción del modelo será implementada en el software estadístico R, permitiendo así obtener los resultados de manera automática y ahorrar una gran cantidad de tiempo de procesamiento de datos.2022-02-05T00:00:00ZPredicción de la precipitación a partir de variables meteorológicas utilizando modelos de regresión funcional.Loza Quispillo, Danilo LeandroLlambo Delgado, Ángel Omarhttp://bibdigital.epn.edu.ec/handle/15000/221202022-02-05T22:57:49Z2022-02-05T00:00:00ZTítulo: Predicción de la precipitación a partir de variables meteorológicas utilizando modelos de regresión funcional.
Autor: Loza Quispillo, Danilo Leandro; Llambo Delgado, Ángel Omar
Resumen: In this investigation we use Functional Linear Regression Models where the response variable belongs to
the scalar field, while the explanatory covariates have a functional structure in the integrable square space.
Previously, exploratory analysis techniques and outlier detection, within the framework of Functional Data
Analysis, are discussed. Then, three different types of functional linear regression with scalar response
involving a single explanatory covariate are applied, and the adaptation of a fourth model involving two
explanatory covariates at the same time is carried out.
The proposed methodology is used with the purpose of choosing the best adjustment to predict rainfall in
different corn producing areas in Ecuador, by means of functional explanatory covariates such as
temperature and wind speed. These results will be very useful to calculate the value of the effective
precipitation, fraction of water used by the crop, from which the value of the real evapotranspiration of the
plant is obtained and, more importantly, the irrigation requirements are determined at each stage of corn
production to understand the behavior of the productivity of this crop through its adequate physiological
development.
Descripción: En este trabajo se emplean los Modelos de Regresión Lineal Funcional donde la variable de respuesta
pertenece al campo escalar, mientras que las covariables explicativas tienen una estructura funcional en el
espacio cuadrado integrable.
Previamente se abordan las técnicas de análisis exploratorio y detección de valores atípicos, en el marco
del Análisis de Datos Funcionales. Luego, se aplican tres distintos tipos de regresión lineal funcional con
respuesta escalar en los cuales interviene una única covariable explicativa, y se lleva a cabo la adaptación
de un cuarto modelo que contempla dos covariables explicativas a la vez.
La metodología propuesta se utiliza con el propósito de escoger el mejor ajuste para predecir la
precipitación en diferentes zonas productoras de maíz del Ecuador, mediante covariables explicativas
funcionales como la temperatura y la velocidad del viento. Estos resultados serán de gran utilidad para
calcular el valor de la precipitación efectiva, fracción de agua utilizada por el cultivo, del cual se obtiene el
valor de la evapotranspiración real de la planta y, lo que es más importante, se determinan los
requerimientos de riego en cada etapa de producción del maíz para entender el comportamiento de la
productividad de este cultivo mediante su adecuado desarrollo fisiológico.2022-02-05T00:00:00ZEl Sistema de Cuentas Nocionales: aspectos teóricos e implementaciones para el sistema de pensiones ecuatoriano.Chile Taipe, Evelin JasminVelastegui Pucachaqui, Cristian Javierhttp://bibdigital.epn.edu.ec/handle/15000/220432022-01-17T23:15:08Z2022-01-17T00:00:00ZTítulo: El Sistema de Cuentas Nocionales: aspectos teóricos e implementaciones para el sistema de pensiones ecuatoriano.
Autor: Chile Taipe, Evelin Jasmin; Velastegui Pucachaqui, Cristian Javier
Resumen: Desde años atrás la sostenibilidad de las pensiones ha sido un tema de alta preocupación en la mayoría de los
países latinoamericanos, debido fundamentalmente a las actuales tendencias demográficas como el aumento de
la esperanza de vida y el descenso de la natalidad. La Seguridad Social es el sistema público encargado de
garantizar una pensión por vejez que servirá para mantener el estándar de vida compatible con los niveles de
bienestar que existen en la sociedad a cambio de aportaciones realizadas durante la vida laboral.
A mediados de la década de los noventa en Europa apareció un nuevo término conocido como Cuentas
Nocionales, siendo una propuesta que consiste en una analogía entre el sistema de reparto y capitalización.
Buscando que el jubilado perciba un monto equivalente al aporte que realizó en su vida laboral más los
rendimientos de este, lo que se conoce como un sistema de pensiones actuarialmente justo.
En el trabajo de titulación pretende desarrollar el aspecto teórico sobre el sistema de Cuentas Nocionales e
implementar al caso ecuatoriano. Mediante una profunda investigación sobre las bases fundamentales del
sistema vigente, que usa el IESS para el cálculo de pensiones, se realiza la simulación de datos y se evalúa el
impacto que tiene la implementación del sistema propuesto. Para complementar el trabajo de investigación, se
propone desarrollar un aplicativo en el software RStudio, con el objetivo de visualizar los resultados de manera
dinámica y amigable con el usuario
Descripción: For years, the sustainability of pensions has been a matter of great concern in most Latin American countries,
mainly due to current demographic trends such as the increase in life expectancy and the decrease in the birth
rate. Social Security is the public system in charge of guaranteeing an old-age pension that will serve to
maintain the standard of living compatible with the levels of well-being that exist in society in
exchange for contributions made during working life.
In the mid-nineties, a new term known as Notional Accounts appeared in Europe, a proposal that consists of an
analogy between distribution and capitalization system. It is intended that retiree receives an amount equivalent
to the contribution this one made in his working life plus the interest generated from it, which is known as an
actuarially fair pension system.
The purpose of the present study is to develop the Notional Accounts system theory and implement this one in
Ecuadorian case. Through an exhaustive investigation on the fundamental bases of the actual system that IESS
uses to calculate pensions. A part of the process is the data simulation to evaluate the impact of implementation
of the proposed system. To complement the research work, it is proposed to develop an application in RStudio
software, in order to visualize the results in a dynamic and user-friendly way.2022-01-17T00:00:00ZCaracterización de funciones fraccionarias analíticas en el sentido de Riemann-Liouville sobre estructuras hipercomplejas.Vela Morales, Erick Santiagohttp://bibdigital.epn.edu.ec/handle/15000/220312022-01-07T22:11:55Z2022-01-07T00:00:00ZTítulo: Caracterización de funciones fraccionarias analíticas en el sentido de Riemann-Liouville sobre estructuras hipercomplejas.
Autor: Vela Morales, Erick Santiago
Resumen: For the context of hypercomplex numbers, a construction of calculus is presented, which allows to define an analogous theory to the one of holomorphic or analytic functions in the complex plane, stating similarities and differences. In order to achieve this task, a matrix representation of a hypercomplex number is used, allowing to use tools from standard linear algebra and to classify them. Furthermore, an introduction to fractional calculus is considered, specifically the Riemann-Liouville integral and derivative are studied and their basic properties. Taking into account these preliminaries, fractional hypercomplex analytic functions are introduced, being of special interest the particular case of generalized complex numbers. Finally, series of fractional analytic polynomial are explored, with the additional property of having one degree less when a substitute of the derivative for this context, is applied. Sufficient conditions will be given to address the theory developed for ordinary derivatives as the limit case for the theory with fractional derivatives.
Descripción: Se presenta una construcción del cálculo en el ámbito de los números hipercomplejos, que permite definir una teoría análoga a la de las funciones holomorfas o analíticas en el plano complejo, estableciendo las similitudes y diferencias con la misma. Para ello, se utilizan representaciones matriciales de números hipercomplejos, permitiendo clasificarlos y usar herramientas del álgebra lineal. Por otro lado, se considera una breve introducción al cálculo fraccionario, en específico, se formula el concepto de integral y derivada fraccionaria de Riemann-Liouville y sus propiedades básicas. Con estos preliminares, se estudian funciones fraccionarias analíticas hipercomplejas, siendo de especial interés el caso particular de los números complejos generalizados. Finalmente, se realiza una exploración de sucesiones de polinomios fraccionarios analíticos, que cumplan con la propiedad de «bajar» de grado al aplicarles un operador adecuado que reemplace a la derivada en este contexto; y se expone condiciones suficientes para poder rescatar el caso con derivadas ordinarias como caso límite del desarrollado con derivadas fraccionarias.2022-01-07T00:00:00ZEntropías geométricas y monotonicidad bajo el flujo de Ricci.Soledispa Tibán, Andrés Alejandrohttp://bibdigital.epn.edu.ec/handle/15000/220242022-01-05T16:43:48Z2022-01-05T00:00:00ZTítulo: Entropías geométricas y monotonicidad bajo el flujo de Ricci.
Autor: Soledispa Tibán, Andrés Alejandro
Resumen: In this paper, we study the Perelman Wek entropy family proposed by Jun-Fang Li, its relationship with the Boltzmann-Shannon and Boltzmann-Nash-Shannon entropies. We analyze its monotonicity under a system of differential equations involving the Ricci flow. We constructed a new Perelman-type entropy family, and we make an analysis, similar to that made with the family Wek, taking in consideration the Shannon Entropy power in our calculations. In this sense, we exhibit important properties of the Ricci flow and its effects on curvature tensors. In addition, we study a couple of properties of the Perelman entropies F and W that are of vital importance for our purposes. Finally, we present the conclusions obtained in our study.
Descripción: En el presente trabajo, se estudia a la familia de entropías tipo Perelman Wek propuestas por Jun-Fang Li y su relación con las entropías de Boltzmann-Shannon y Boltzmann-Nash-Shannon. Analizamos la monotonía de las familias Wek bajo un sistema de ecuaciones diferenciales que involucra al flujo de Ricci. Luego, se construye una nueva familia de entropías tipo Perelman y se realiza un análisis similar al efectuado con la familia Wek, pero considerando a la entropía de Shannon tipo exponencial en los cálculos. A tales efectos, se exhiben propiedades importantes del flujo de Ricci y la influencia de este en los tensores de curvatura. Asimismo, se estudian un par de propiedades de las entropías F y W de Perelman que son de vital importancia para nuestros fines. Finalmente, se presentan las conclusiones obtenidas en nuestro estudio.2022-01-05T00:00:00ZPredicción de precios de cierre de acciones en la bolsa de valores mediante técnicas de aprendizaje automático y minería de datos: evaluación de escenarios para transacciones intradía.Guerra Espinoza, Esteban Sebastiánhttp://bibdigital.epn.edu.ec/handle/15000/220182021-12-27T21:04:18Z2021-12-27T00:00:00ZTítulo: Predicción de precios de cierre de acciones en la bolsa de valores mediante técnicas de aprendizaje automático y minería de datos: evaluación de escenarios para transacciones intradía.
Autor: Guerra Espinoza, Esteban Sebastián
Resumen: In the present work, the graph partitioning problem in connected components is studied. The problem consists
of partitioning an undirected graph with cost on the edges into a fixed number of connected components, such
x
x
that the number of nodes in each component differs by at most one unit and the total cost of the edges with endnodes in the same subset of nodes that induces a component is minimized. Several integer linear programming
models using different approaches (maximizing the edges in the cut or minimizing the edges in the connected
components) are presented and the results are compared. Moreover, several families of valid inequalities
associated to the polytope of these formulations are exposed, together with a Branch & Cut algorithm for the
studied problem. Computational results based on simulated instances of different sizes and densities are
reported. Finally, conclusions about the present work are presented. In the present work, the problem of
predicting the closing prices of the shares in the stock market during the day is studied. The problem is
considered a very challenging task due to the volatile nature of financial stocks. This problem consists of
predicting the closing price of a stock, based on past and present information. With the development of
Artificial Intelligence and the increase in computational capabilities, programmed prediction methods have
proven to be more efficient in predicting closing prices of stocks. In this work, two techniques called Artificial
Neural Networks and Random Forests are used to predict the closing price of the shares, in eight databases
belonging to different time periods of the day. The financial data that are available are: the opening prices
(Open), maximum price (High), minimum price (Low) and closing price of the shares (Close), the results will
be used to create new variables with the order to find the inputs for the model. Models are evaluated using
standard strategic indicators: Mean Absolute Percentage Error (MAPE) and Mean Bias Error (MBE).
Computational results of the indices based on instances of the models for each of the bases that are available
are reported. Finally, conclusions about the present work are presented.
Descripción: En el presente trabajo, el problema de predicción de los precios de cierre de las acciones en la bolsa de valores durante el día es estudiado.
El problema se considera una tarea muy desafiante debido a la naturaleza volátil de las acciones financieras. Este problema consiste en
predecir el precio de cierre de una acción, basándose en información pasada y presente. Con el desarrollo de la Inteligencia Artificial y el
aumento de las capacidades computacionales, los métodos de predicción programados han demostrado ser más eficientes para predecir los
precios de cierre de las acciones. En este trabajo, se emplean dos técnicas denominadas Redes Neuronales Artificiales y Bosques
Aleatorios, para predecir el precio de cierre de las acciones, en ocho bases de datos pertenecientes a diferentes temporalidades del día. Los
datos financieros con los que se cuentan son: los precios de apertura (Open), precio máximo (High), precio mínimo (Low) y precio de
cierre de las acciones (Close), los cuáles serán utilizados para crear nuevas variables con el fin de encontrar las entradas para el modelo.
Los modelos se evalúan utilizando indicadores estratégicos estándar: Error de porcentaje absoluto medio (MAPE) y Error de sesgo medio
(MBE). Resultados computacionales de los índices basados en instancias de los modelos para cada una de las bases con las que se cuentan
son reportados. Finalmente, conclusiones sobre el presente trabajo son presentadas.2021-12-27T00:00:00ZCuantificación del riesgo de longevidad bajo la normativa de Solvencia II en el Sistema de Pensiones Ecuatoriano: Un enfoque hacia el sistema de capitalización individual.Muñoz Escobar, Mauricio Xavierhttp://bibdigital.epn.edu.ec/handle/15000/219832021-12-14T21:23:27Z2021-12-14T00:00:00ZTítulo: Cuantificación del riesgo de longevidad bajo la normativa de Solvencia II en el Sistema de Pensiones Ecuatoriano: Un enfoque hacia el sistema de capitalización individual.
Autor: Muñoz Escobar, Mauricio Xavier
Resumen: The increase in life expectancy has brought several consequences in the pension system around the world, as a
result, the pension systems are forced to comply with more benefits than estimated, thereby people living
longer causes instability in the system and generates unexpected losses. In this paper we will introduce the idea
x
x
of benefiting from the Solvency II regulation which focuses on the idea of mitigating possible losses through
three fundamental pillars. In pillar I, the main subject of this work, we will quantify the longevity risk using the
standard formula proposed by the regulations and the results will be analyzed through a sensitivity analysis.
Finally, the pensions of individuals are estimated through a system of individual capitalization because it
maintains the financial-actuarial equilibrium, this system as a proposal to an alternative to the distribution
system currently in force in Ecuador.
Descripción: El aumento de la esperanza de vida ha traído varias consecuencias en el sistema de pensiones en todo el mundo,
a causa de ello los sistema de pensiones se ven obligados a cumplir con más prestaciones de las estimadas, en
consecuencia de que las personas viven por mayor tiempo, ocasionando inestabilidad en el sistema y generando
pérdidas no esperadas. En el presente trabajo introduciremos la idea de acogerse a la normativa Solvencia II la
cual se centra en la idea de mitigar las posibles pérdidas mediante tres pilares fundamentales. En el pilar I,
materia principal de este trabajo cuantificaremos el riesgo de longevidad mediante la fórmula estándar que
propone la normativa y se analizarán los resultados mediante un análisis de sensibilidad. Finalmente, se
estiman las pensiones de los individuos mediante un sistema de capitalización individual debido a que mantiene
el equilibrio financiero - actuarial, este sistema como propuesta a una alternativa al sistema de reparto hoy
vigente en el Ecuador2021-12-14T00:00:00ZIdentificación de clusters espaciales de empresas y la influencia de factores externos en su constitución utilizando técnicas de minería de datos.Jácome Corrales, Jorge Luishttp://bibdigital.epn.edu.ec/handle/15000/219412021-11-30T16:07:40Z2021-11-30T00:00:00ZTítulo: Identificación de clusters espaciales de empresas y la influencia de factores externos en su constitución utilizando técnicas de minería de datos.
Autor: Jácome Corrales, Jorge Luis
Resumen: This work focuses on the use of different data mining techniques, based on geospatial statistical
methods for the identification of patterns with respect to the economic activities of companies,
registered in the Superintendencia de Compañías in the Metropolitan District of Quito, at as well as
defining external factors that influence the constitution of these.
First, to create the clusters, the Local Indicators of Spatial Association (LISA) are used, which will
define the neighborhoods that have high density and are characterized with auxiliary variables that
describe the location. This also helps to identify potential neighborhoods with similar
characteristics, but without a high density of businesses. Then, spatial regression models are used to
identify the relationship that exists between the companies and the auxiliary variables found,
analyzing the coefficient associated with each one.
Finally, by complementing both results, the list of high-density neighborhoods in which work
should be done is obtained, with the factor of growth or decrease of companies for each of the
auxiliary variables identified.
Descripción: El presente trabajo se centra en el uso de distintas técnicas de minería de datos, basadas en métodos
estadísticos geoespaciales para la identificación de patrones con respecto a las actividades
económicas de las empresas, registradas en La Superintendencia de Compañías en el Distrito
Metropolitano de Quito, al igual de definir factores externos que influyen en la constitución de
estas.
Primero, para la creación de los clusters, se utilizan los indicadores locales de asociación espacial
(LISA, Local Indicators of Spatial Association), los cuales definirán los barrios que posean alta
densidad y se caracteriza a estos con variables auxiliares que describen la locación. Esto también
ayuda a identificar potenciales barrios con similares características, pero sin una alta densidad de
empresas. Después, se utilizan modelos de regresión espacial, para identificar la relación que existe
entre las empresas y las variables auxiliares encontradas, analizando el coeficiente asociado a cada
una.
Finalmente, al complementar ambos resultados se obtiene el listado de los barrios con alta densidad
en los cuales se debería trabajar, con el factor de crecimiento o disminución de empresas de cada
una de las variables auxiliares identificadas.2021-11-30T00:00:00ZTarificación de un seguro de invalidez: una aplicación al caso ecuatoriano.Pavón Valencia, Mateo Sebastiánhttp://bibdigital.epn.edu.ec/handle/15000/219392021-11-30T15:52:25Z2021-11-30T00:00:00ZTítulo: Tarificación de un seguro de invalidez: una aplicación al caso ecuatoriano.
Autor: Pavón Valencia, Mateo Sebastián
Resumen: In this work we present the basic notions of actuarial mathematics, linear algebra and stochastic processes; in
addition to a brief summary of the Runge Kutta numerical method of order 4. Subsequently, considering the
Ecuadorian social security regulations, we will propose a disability insurance congruent with the current
x
x
economic and demographic conditions of Ecuador. We will see this insurance as a three-state Markov chain, so
we will propose a system of ordinary differential equations using the Kolmogorov differential equation. We
will solve this system analytically through the use of linear algebra, and numerically through the application of
the Runge Kutta method of order 4. Once the system is solved, we will have the transition probabilities of the
insured; necessary to quantify the premium of the formulated product, as a term immediate annuity. Finally, we
compare the obtained solutions with both methods
Descripción: En este trabajo presentamos las nociones básicas de la matemática actuarial, el álgebra lineal y los procesos
estocásticos; además de un breve resumen del método numérico Runge Kutta de orden 4. Posteriormente,
teniendo en cuenta la normativa de la seguridad social ecuatoriana, propondremos un seguro de invalidez
congruente con las condiciones económicas y demográficas actuales de la Ecuador. Dicho seguro lo veremos
como una cadena de Markov de tres estados, por lo que plantearemos un sistema de ecuaciones diferenciales
ordinarias usando la ecuación diferencial de Kolmogorov. Este sistema lo resolveremos analíticamente
mediante el uso del álgebra lineal, y numéricamente a través de la aplicación del método Runge Kutta de orden
4. Una vez resuelto el sistema, dispondremos de las probabilidades de transición del asegurado; necesarias para
cuantificar la prima del producto formulado, como una renta actuarial temporal. Finalmente, comparamos las
soluciones obtenidas con ambos métodos.2021-11-30T00:00:00ZLa muestra continua de vidas laborales: una aplicación al caso Ecuatoriano.Conde Llamatumbi, Andrea Johanahttp://bibdigital.epn.edu.ec/handle/15000/219292021-11-24T15:25:10Z2021-11-24T00:00:00ZTítulo: La muestra continua de vidas laborales: una aplicación al caso Ecuatoriano.
Autor: Conde Llamatumbi, Andrea Johana
Resumen: This paper provides a new source of reliable and public information, called the continuous sample of working lives (mcvl), useful for building public policies based on statistical evidence in order to meet the needs of the population, especially with the study of the dynamics of the labor market and the social security system. Microdata from the administrative records of a public institution describe in detail anonymized information on the insured population included in the sample. In order to support the representativeness of the sample, a preliminary analysis is carried out before continuing with a statistical analysis. In general, it contains personal information, labor information: type of employer, employment relationship, status of the member, start and end date of the employment relationship, contribution percentage, etc.; characteristics of the benefits: type of benefit, pension value, date of agreement and date of recognition, among others.
Descripción: En el presente trabajo se proporciona una nueva fuente de información confiable y pública, denominada muestra continua de vidas laborales (mcvl), útil para cimentar políticas públicas basadas en evidencia estadística con el fin de satisfacer las necesidades de la población, especialmente con el estudio de las dinámicas del mercado laboral y del sistema de previsión social. Los microdatos provenientes de los registros administrativos de una institución pública, describen de manera detallada información anonimizada sobre la población asegurada perteneciente a la muestra. Para sustentar la representatividad de la misma se realiza un análisis previo para luego continuar con un análisis estadístico. De manera general, contiene información personal, información laboral: tipo de empleador, relación laboral, estado del afiliado, fecha de inicio y fin de la relación laboral, porcentaje de aportación, etc; características de las prestaciones: tipo de prestación, valor de la pensión, fecha de acuerdo y fecha de reconocimiento, entre otras.2021-11-24T00:00:00ZOptimización Multi-Echelon del inventario basado en pronósticos de la demanda por el método Random Forest.Larco Álvarez, Martín Eduardohttp://bibdigital.epn.edu.ec/handle/15000/218832021-10-27T21:30:30Z2021-10-19T00:00:00ZTítulo: Optimización Multi-Echelon del inventario basado en pronósticos de la demanda por el método Random Forest.
Autor: Larco Álvarez, Martín Eduardo
Resumen: The need to optimize resources and develop strategies that allow better synergy within the entire
supply chain has led both academia and companies to investigate and implement new
methodologies that respond to these realities. This research project allows, based on the study of
x
the data of the company Ambacar focused on the most important brand of the company and the 50
most important spare parts, to implement the Machine Learning Random Forest methodology for
the forecast of demand, thus achieving a better understanding of the market behavior in the spare
parts area at each of the network's dealers, taking into account the most relevant customer factors
and external effects such as those caused by the COVID pandemic.
Based on the results obtained from the demand forecast, the inventory optimization philosophy for
each dealer is changed to a philosophy that encompasses the entire system, thus achieving that the
relationship and interaction of each of the workshops with the rest is considered. of the network.
All of this is achieved without negatively affecting service levels and maintaining high-quality
standards.
Descripción: La necesidad de optimizar recursos y elaborar estrategias que permitan una mejor sinergia dentro
de toda la cadena de abastecimiento ha llevado que tanto la academia como las empresas
investiguen e implementen nuevas metodologías que respondan ante estas realidades. Este proyecto
de investigación permite, en base al estudio de los datos de la compañía Ambacar centrados en la
marca más importante de la empresa y en los 50 repuestos más importantes, implementar la
metodología Machine Learning Random Forest para el pronóstico de la demanda, logrando así
una mejor compresión del comportamiento del mercado en el área de repuestos en cada uno de los
concesionarios de la red, tomando en cuenta los factores más relevantes de los clientes y efectos
externos como los causados por la pandemia del COVID.
Fundamentados en los resultados obtenidos del pronóstico de la demanda se cambia la filosofía de
optimización del inventario para cada concesionario a una filosofía que abarca todo el sistema,
logrando de esta forma que se considere la relación e interacción de cada uno de los talleres con el
resto de la red. Todo esto se logra sin afectar negativamente los niveles de servicios y manteniendo
altos estándares de calidad.2021-10-19T00:00:00ZCredit scoring: aplicando técnicas de regresión logística y modelos aditivos generalizados para una cartera de crédito en una entidad financiera.Suquillo Llumiquinga, Jaime Andréshttp://bibdigital.epn.edu.ec/handle/15000/218652021-10-14T22:59:51Z2021-10-11T00:00:00ZTítulo: Credit scoring: aplicando técnicas de regresión logística y modelos aditivos generalizados para una cartera de crédito en una entidad financiera.
Autor: Suquillo Llumiquinga, Jaime Andrés
Resumen: The purpose of this degree project is to study a statistical methodology based on association measures, separation measures and present the Generalized Additive Model as a promising alternative to Logistic Regression, which are applied in the construction of a statistical model, that allows estimating the probability of default (PD) of a portfolio of some type of granted credit.
Logisticregressionisthemostusedstatisticalmodelinthecreditratingindustry.Despite its advantages in easy interpretation and low computational cost, logistic regression is under the criticism of the difficulty of modeling the nonlinear characteristics of the predictors' effect on the dependent variable and, therefore, could lead to Unsatisfactory results.
The present study proposes the use of a technique known as Generalized Additive Model introduced by Hastie and Tibshirani (1990), which provides the ability to detect the nonlinear and nonmonotonic relationship between the dependent variable and the non-sacrificing predictors Interpretability.
The performance of the models are evaluated and compared using the Kolmogórov Smirnov statistic value, the area under the curve (ROC) and the GINI test.
Descripción: El presente proyecto de titulación tiene como finalidad el estudio de una metodología estadística basada en medidas de asociación, medidas de separación y presentar el Modelo Aditivo Generalizado como una alternativa prometedora a la Regresión Logística, los cuales se aplican en la construcción de un modelo estadístico, que permita estimar la probabilidad de incumplimiento (PD) de una cartera de algún tipo de crédito concedido.
La regresión logística es el modelo estadístico más utilizado en la industria de calificación crediticia. A pesar de sus ventajas en la fácil interpretación y el bajo costo computacional, la regresión logística está bajo la crítica de la dificultad de modelar las características no lineales del efecto de los predictores sobre la variable dependiente y, por lo tanto, podría dar lugar a resultados insatisfactorios.
En el presente estudio se plantea la utilización de una técnica conocida como Modelo Aditivo Generalizado introducido por Hastie y Tibshirani (1990), que proporciona la capacidad de detectar la relación no lineal y no monotónica entre la variable dependiente y los predictores sin sacrificar la interpretabilidad.
El rendimiento de los modelos se evalúa y compara utilizando el estadístico de Kolmogórov Smirnov, el área bajo la curva ROC y el test de GINI.2021-10-11T00:00:00ZModelo de clasificación binaria para una población bancarizada empleando metodología de ensamble.Vargas Pacheco, Gissela Fernandahttp://bibdigital.epn.edu.ec/handle/15000/218372021-09-23T16:27:30Z2021-09-09T00:00:00ZTítulo: Modelo de clasificación binaria para una población bancarizada empleando metodología de ensamble.
Autor: Vargas Pacheco, Gissela Fernanda
Resumen: In this project an empirical investigation of the performance of several classification models based on the methodology of homogeneous and heterogeneous ensemble for the prediction of the payment behavior of credit obligations acquired by individuals in a financial institution is carried out; the purpose is to reduce the cost of manual credit analysis, make earlier decisions and reduce the potential risk. The construction of more robust models with higher accuracy in the prediction of default is based on the combination of classifiers: Logistic Regression (LR), Random Forest (RF), Gradient Boosting Machine (GBM) and Naïve Bayes (NB). Additionally, the performance of the model results obtained with the ensemble methodology is superior to the performance of the results obtained with the individual classifiers.
Descripción: En el presente trabajo se realiza una investigación empírica del rendimiento de varios modelos de clasificación basados en la metodología de ensamble homogéneo y heterogéneo para la predicción del comportamiento de pago de las obligaciones crediticias adquiridas por los individuos en una entidad financiera; el propósito es reducir el coste de análisis crediticio manual, tomar decisiones más tempranas y disminuir el posible riesgo. La construcción de modelos más robustos y con mayor precisión en la predicción del incumplimiento se basa en la combinación de los clasificadores: Regresión Logística (RL), Random Forest (RF), Gradient Boosting Machine (GBM) y Naïve Bayes (NB). Adicionalmente, el rendimiento de los resultados del modelo obtenidos con la metodología de ensamble es superior que el rendimiento de los resultados obtenidos con los clasificadores individuales.2021-09-09T00:00:00Z