DSpace Comunidad: Tesis de Postgrado
http://bibdigital.epn.edu.ec/handle/15000/7553
Tesis de Postgrado2024-03-29T09:44:34ZEstudio del efecto Guiding durante la interacción de haces de electrones de 1 keV a 10 keV con muestras macroscópicas de borosilicato.
http://bibdigital.epn.edu.ec/handle/15000/25291
Título: Estudio del efecto Guiding durante la interacción de haces de electrones de 1 keV a 10 keV con muestras macroscópicas de borosilicato.
Autor: Jácome Herbozo, Pablo Santiago
Director: Irribarra Cazar, Esteban Felipe
Resumen: The Guiding effect is a technique for steering charged particles through their interaction with dielectrics without the need for external electromagnetic fields. In the case of electron beams, there are still uncertainties about the phenomenon, particularly regarding its dependence on energy and whether there is a surface accumulation of charge known as the "Charge Patch." This study investigated the Guiding effect with electron beams ranging from 1 keV to 10 keV on a flat borosilicate sample. It was established that, with a higher incident beam energy, there was an increased current of the dispersed beam in the plane formed by the initial velocity of the incident beam and the normal to the borosilicate sample projected from the impact point of the beam. It was observed that the energy losses of the dispersed electrons did not exceed 10%. The irradiated area was measured using methods such as electrical polarization of a probe, charge transfer by contact, and deflection of a beam by Coulomb force. States of pre and post-irradiation of the borosilicate plate were identified; however, the specific magnitude of the charge patch could not be determined. A software for the automatic acquisition of data generated by the electrometer and electron gun with a visualization interface was developed. This software was implemented in Python and JavaScript using open-source software libraries.
Descripción: El efecto Guiding es una técnica para dirigir partículas cargadas mediante su interacción con dieléctricos sin necesidad de aplicar campos electromagnéticos externos. Para el caso de haces de electrones, existen todavía incógnitas del fenómeno respecto de la dependencia de la energía y también si se produce una acumulación superficial de carga conocida como "Parche de carga". En este trabajo se estudió el efecto Guiding con haces de electrones entre 1 keV y 10 keV sobre una muestra plana de borosilicato. Se estableció que, a mayor energía del haz incidente, mayor es la corriente del haz dispersado en el plano que forman la velocidad inicial del haz incidente y la normal de la muestra de borosilicato proyectada desde el punto de impacto del haz. Se observó que las pérdidas de energía de los electrones dispersados no fueron mayores al 10%. Se midió la zona irradiada usando mecanismos como polarización eléctrica de una sonda, transferencia de carga por contacto y desviación de un haz por la fuerza de Coulomb. Se identificaron estados de pre y post irradiación de la placa de borosilicato sin embargo no se logró establecer la magnitud específica del parche de carga. Se desarrolló un software para la adquisición automática de datos generados por el electrómetro y la pistola de electrones con una interfaz de visualización. Este software fue implementado en lenguaje Python y javascript usando bibliotecas de software libre.2024-02-14T00:00:00ZObtención de briquetas obtenidas a partir de residuos del tallo de la papa para su uso como combustible.
http://bibdigital.epn.edu.ec/handle/15000/25255
Título: Obtención de briquetas obtenidas a partir de residuos del tallo de la papa para su uso como combustible.
Autor: Piarpuezán Enríquez, Marlon Andrés
Director: Pantoja Suárez, Luis Fernando
Resumen: In this study, biomass briquettes were produced from potato stalks to evaluate their potential as a solid biofuel.
Dried potato stalks with a moisture content of 10 % were used and pyrolyzed to obtain carbonised and non carbonised biomass. It was crushed and mixed with potato and achira binders in proportions of 10 % and 20 %.
The briquetting process was carried out at a pressure of 10 MPa and compaction times of 30 and 60 s, followed
by drying. Scanning Electron Microscopy (SEM) characterization revealed a porous structure and adequate
particle and binder distribution, showing good adhesion. Raman spectra of the charred briquettes showed
amorphous carbon characteristics with graphite defects. Thermogravimetric analysis (TGA) showed an ideal
moisture content of 10% for biofuels and high levels of volatiles in the uncharred briquettes. In terms of
compressive strength, the non-carbonised biomass briquettes performed better, withstanding more than 400 N
at 20% deformation and acting effectively as an agglomerate. Finally, the average calorific values of the
carbonised and non-carbonised briquettes were 15 MJ/kg, comparable to sugar cane bagasse and rice husk.
CALII and NCALI stood out with 15.76 and 15.22 MJ/kg respectively, exceeding the threshold of 12.00 MJ/kg
for biomass as biofuel. This study suggests that potato stalk briquettes have promising potential as a sustainable
alternative to non-renewable fuels.n this study, biomass briquettes were produced from potato stalks to evaluate their potential as a solid biofuel.
Dried potato stalks with a moisture content of 10 % were used and pyrolyzed to obtain carbonised and non carbonised biomass. It was crushed and mixed with potato and achira binders in proportions of 10 % and 20 %.
The briquetting process was carried out at a pressure of 10 MPa and compaction times of 30 and 60 s, followed
by drying. Scanning Electron Microscopy (SEM) characterization revealed a porous structure and adequate
particle and binder distribution, showing good adhesion. Raman spectra of the charred briquettes showed
amorphous carbon characteristics with graphite defects. Thermogravimetric analysis (TGA) showed an ideal
moisture content of 10% for biofuels and high levels of volatiles in the uncharred briquettes. In terms of
compressive strength, the non-carbonised biomass briquettes performed better, withstanding more than 400 N
at 20% deformation and acting effectively as an agglomerate. Finally, the average calorific values of the
carbonised and non-carbonised briquettes were 15 MJ/kg, comparable to sugar cane bagasse and rice husk.
CALII and NCALI stood out with 15.76 and 15.22 MJ/kg respectively, exceeding the threshold of 12.00 MJ/kg
for biomass as biofuel. This study suggests that potato stalk briquettes have promising potential as a sustainable
alternative to non-renewable fuels.
Descripción: En este estudio, se produjeron briquetas de biomasa a partir de tallos de papa para evaluar su potencial como
biocombustible sólido. Se utilizó tallo de papa seco con un 10 % de humedad, sometido a pirólisis para obtener
biomasa carbonizada y no carbonizada. Se trituró y mezcló con aglutinantes de papa y achira en proporciones
del 10 % y 20 %. El proceso de briquetado se llevó a cabo con una presión de 10 MPa y tiempos de
compactación de 30 y 60 s, seguidos de secado. La caracterización por microscopía electrónica de barrido
(SEM) destacó una estructura porosa y distribución adecuada de partículas y aglutinante, evidenciando buena
adhesión. Los espectros Raman de las briquetas carbonizadas indicaron características de carbono amorfo con
defectos de grafito. El análisis termogravimétrico (TGA) reveló un contenido de humedad ideal del 10 % para
biocombustibles, y altos porcentajes de volátiles en las briquetas no carbonizadas. En términos de resistencia a
la compresión, las briquetas de biomasa no carbonizada mostraron un mejor comportamiento, soportando más
de 400 N con una deformación del 20 % y actuando eficazmente como aglomerado. Finalmente, los poderes
caloríficos promedio de las briquetas carbonizadas y no carbonizadas fueron de 15 MJ/kg, comparables a
bagazo de caña y cáscara de arroz. CALII y NCALI destacaron con 15,76 y 15,22 MJ/kg, superando el umbral
de 12,00 MJ/kg para biomasa como biocombustible. Este estudio sugiere que las briquetas de tallos de papa
poseen un prometedor potencial como alternativa sostenible a los combustibles no renovables2023-12-05T00:00:00ZDiseño de aerogeles de óxido de grafeno reducido para la absorción de aceites de motor.
http://bibdigital.epn.edu.ec/handle/15000/25053
Título: Diseño de aerogeles de óxido de grafeno reducido para la absorción de aceites de motor.
Autor: Cargua López, Carlos Vinicio
Director: Rosas Laverde, Nelly María
Resumen: Nowadays, water pollution due to oil spills and organic solvents is a matter of great
importance. Physical absorption using reduced graphene oxide aerogels as absorbent
materials has become an effective, environmentally friendly, and user-friendly method for
removing these contaminants from water. This is because aerogels are materials with a
large surface area, a network of pores, and robustness, facilitating the absorption of
contaminant molecules. Although hydrothermal and chemical synthesis methods have been
used to manufacture reduced graphene oxide aerogels, poor results have been found in
terms of motor oil absorption capacity. Therefore, in this research, a lightweight reduced
graphene oxide aerogel with tailored properties for motor oil absorption was fabricated using
a combined reduction synthesis. Variables such as the type of graphene oxide, the type of
reduction (hydrothermal, chemical, and combined), and the freezing process of the hydrogel
at -5°C and -196°C were considered. In addition, a post-synthesis heat treatment at 600°C
was performed. Once the aerogel was synthesized, the morphology, structure, porosity,
and degree of reduction of the aerogels were evaluated using Fourier-transform infrared
spectroscopy, Raman spectroscopy, and scanning electron microscopy techniques. The
characterization results indicated that the type of precursor (graphene oxide), the reduction
type in the hydrogel synthesis, and the freezing temperature influence the morphology,
porosity, and degree of reduction of the aerogel, as well as the motor oil absorption
percentage, speed, and capacity. Finally, the characterization results of the post-synthesis
stage suggested that the resulting aerogel with improved properties was obtained using a
graphene oxide precursor with a higher degree of oxidation through combined reduction
synthesis with a freezing process at -5°C and a heat treatment at 600°C for 1 hour,
presenting a robust three-dimensional structure with low density, a superior absorption
capacity of over 270 g g-1
, and a 94% pore filling.
Descripción: En la actualidad, la contaminación del agua por derrames de aceite y solventes orgánicos es un tema de gran
importancia. La absorción física, utilizando aerogeles de óxido de grafeno reducido como materiales
absorbentes, se ha convertido en un método eficaz, ecológico y de fácil uso para eliminar estos contaminantes
del agua. Esto se debe a que los aerogeles son materiales con una gran área superficial, red de poros y robustez,
que facilitan la absorción de las moléculas contaminantes. Aunque los métodos de síntesis hidrotermal y
química han sido empleados para la fabricación de aerogeles de óxido de grafeno reducido, se han encontrado
resultados deficientes en cuanto a la capacidad de absorción de aceites de motor. Por tanto, en esta
investigación se fabricó, mediante una síntesis de reducción combinada, un aerogel de óxido de grafeno
reducido ligero con propiedades a medida para la absorción de aceite de motor. Para ello, se consideraron
variables como el tipo de óxido de grafeno, el tipo de reducción (hidrotermal, química y combinada) y el
proceso de congelación del hidrogel a –5 °C y –196 °C. Además, se realizó un tratamiento térmico post–
síntesis a 600 °C. Una vez sintetizado el aerogel se evaluaron las características de morfología, estructura,
porosidad y grado de reducción de los aerogeles utilizando técnicas de espectroscopia de infrarrojo por
transformadas de Fourier, Raman y microscopía electrónica de barrido. Los resultados de la caracterización
indicaron que el tipo de precursor (óxido de grafeno), tipo de reducción en la síntesis del hidrogel y la
temperatura de congelación, tienen influencia en la morfología, porosidad y grado de reducción del aerogel, así
como en el porcentaje de llenado, velocidad y capacidad de absorción de aceite de motor. Finalmente, los
resultados de la caracterización de la etapa de post–síntesis sugirieron que el aerogel resultante con mejores
propiedades fue obtenido usando como precursor un óxido de grafeno con grado de oxidación mayor mediante
la síntesis por reducción combinada con un proceso de congelación a –5 °C y tratamiento térmico a 600 °C
durante 1 h presentando una estructura tridimensional robusta y de baja densidad, con una capacidad de
absorción superior a 270 g g-1 y un llenado de poro del 94 %.2023-11-10T00:00:00ZParticionamiento Balanceado de Hipergrafos en un Número Fijo de Componentes.
http://bibdigital.epn.edu.ec/handle/15000/24866
Título: Particionamiento Balanceado de Hipergrafos en un Número Fijo de Componentes.
Autor: Landázuri Mejía, Guillermo Andrés
Director: Recalde Calahorrano, Diego Fernando
Resumen: In this paper, the partitioning hypergraph problem in a fixed number of components is studied. Hypergraphs are the generalization of graphs where, unlike edges, each hyperedge can connect two or more vertices. Given a hypergraph H = (V,E), where V is the vertices set and E the hyperedges set, we seek to partition its vertex set into k disjoint components such that each vertex is covered by hyperedges completely contained in some component, while minimizing the total cost of these hyperedges. Several Integer Programming formulations are proposed for the k-way equipartitioning, minimum size partitioning, balanced partitioning, and k-way equipartitioning in linear hyper-trees. Moreover, some types of valid inequalities are demonstrated and implemented for the different formulations. Finally, the computational experiments performed on the different formulations for different instances are discussed.
Descripción: En el presente trabajo se estudia el problema de particionamiento de hipergrafos en un número fijo de componentes. Los hipergrafos son la generalización de los grafos donde, en lugar de aristas, cada hiperarista puede conectar dos o más vértices. Dado un hipergrafo H = (V,E), donde V es el conjunto de vértices y E es el conjunto de hiperaristas, se busca dividir su conjunto de vértices en k componentes disjuntas tal que cada vértice esté cubierto únicamente por hiperaristas contenidas completamente en alguna componente, a la vez que se minimiza el costo total de estas hiperaristas. Se proponen varias formulaciones de Programación Entera para los problemas de k-equiparticionamiento, particionamiento de tamaño mínimo, particionamiento balanceado y k-equiparticionamiento en hiperárboles lineales. Además, se presentan algunos tipos de desigualdades válidas a ser implementadas en las diferentes formulaciones. Finalmente, se discuten los resultados computacionales realizadas en las diferentes formulaciones para distintas instancias.2023-09-28T00:00:00ZEstudio de la deformación a flexión de un prototipo de sensor obtenido a partir de grafeno inducido por láser.
http://bibdigital.epn.edu.ec/handle/15000/24778
Título: Estudio de la deformación a flexión de un prototipo de sensor obtenido a partir de grafeno inducido por láser.
Autor: Paucar Espinosa, Yessenia Ibeth
Director: Pantoja Suárez, Luis Fernando
Resumen: This study investigates the effect of power, focal length and number of engravings on graphene sensors fabricated using a 450 nm diode laser at the upper limit of the UV spectrum. The laser was irradiated over polyimide and the resulting sensors were subjected to deformation by bending at three points. The geometry that best met the requirements was selected to obtain the graphene sensors. These sensors were morphologically characterized by scanning electron microscopy. The material properties were evaluated by Raman spectroscopy and the samples were electrically characterized using the Van der Pauw method. The results showed that it was possible to obtain lowcost graphene whose properties varied according to the variables studied. It was concluded that the power of the laser was critical in the fabrication of graphene vending sensors. It was also highlighted that the focal length had a negligible effect on the laser production of graphene, while increasing the number of etchings reduced the quality of the material and the caliber factor of the sensor. This study shows that it is possible to obtain low-cost graphene by irradiating a commercial laser.
Descripción: En este estudio, se investigó el efecto de la potencia, distancia focal y cantidad de grabados en sensores de grafeno fabricados con un láser de diodo de 450 nm, es decir en el límite superior del espectro UV, sobre poliimida y se sometió a deformación por flexión de tres puntos a los sensores obtenidos. Se seleccionó la geometría que mejor se ajustó a los requerimientos planteados para obtener los sensores de grafeno. Estos sensores fueron caracterizados morfológicamente con microscopía electrónica de barrido (SEM, por sus siglas en inglés). Se evaluaron las características del material con espectroscopía Raman y se caracterizó eléctricamente las muestras mediante el método Van der Pauw. Los resultados indicaron que se logró obtener grafeno de bajo costo cuyas propiedades variaron según las variables estudiadas. Se concluyó que la potencia del láser fue determinante en la fabricación de sensores de flexión con grafeno. Además, se resaltó que la distancia focal tuvo un impacto poco significativo en la producción de grafeno mediante láser, mientras que el aumento en la cantidad de grabados redujo la calidad del material y el gauge factor del sensor. En este estudio se demostró que es posible obtener grafeno de bajo costo mediante la irradiación de un láser comercial.2023-08-29T00:00:00ZEvaluación del efecto antimicrobial de amplio espectro de los nanocompósitos magnéticos a base de óxido de grafeno y nanotubos de carbono de pared múltiple basados en la acción bimodal fotodinámico/fototérmico.
http://bibdigital.epn.edu.ec/handle/15000/24739
Título: Evaluación del efecto antimicrobial de amplio espectro de los nanocompósitos magnéticos a base de óxido de grafeno y nanotubos de carbono de pared múltiple basados en la acción bimodal fotodinámico/fototérmico.
Autor: Cuadrado Pumalema, Coralía Fabiola
Resumen: Throughout history, microbial diseases caused by microorganisms such as bacteria, viruses, fungi, and protozoa, have had a significant impact on humanity, causing millions of deaths and affecting entire communities. For this reason, in recent years there has been a great interest in the development of antimicrobial nanocomposites that can combat this threat. In the present research, magnetic nanocomposites based on multi-walled carbon nanotubes (MWCNT) and graphene oxide (GO) were obtained. These magnetic nanocomposites were synthesized in three steps: first, the coprecipitation synthesis of magnetic nanoparticles in graphene oxide and magnetic nanoparticles in multi-walled carbon nanotubes, obtaining the first two nanocomposites MNPs-GO and MNPs-MWCNTs, respectively; second, functionalization with the photosensitizer Menthol-Zinc Phthalocyanine (ZnMintPc); and finally, the magnetic nanocomposites MNPs-GO and MNPs-MWCNTs carrying ZnMintPc (MNPs-MWCNTs-ZnMintPc and MNPs-GO-ZnMintPc) were dispersed in the biocompatible hydrogel poly(N-vinyl caprolactam-co-poly(ethylene glycol) diacrylate) poly(VCL-co-PEGDA) abbreviated as VCL/PEGDA, thus obtaining the third and fourth magnetic nanocomposite: VCL/PEGDA-MNPs-GO-ZnMintPc and VCL/PEGDA-MNPs-MWCNTs-ZnMintPc. This study addressed the optical, morphological, magnetic, and photophysical properties of nanocomposites. The in vitro antimicrobial effect of the four magnetic nanocomposites obtained on the bacteria Escherichia coli (E. coli), Staphylococcus aureus (S. aureus) and the yeast Candida albicans (C. albicans) was evaluated based on the photodynamic/photothermal effect (PTT/PDT) applying a wavelength of 630 nm and a light dose of 65.5 mW·cm−2. The results obtained in the study of the antimicrobial effect showed that the colonies of C. albicans were completely eliminated by the MNPs-GO (MNP=93,3 μg·mL-1, GO=3.47 μg·mL-1) and MNPs-MWCNTs (MNP=93,3 μg·mL-1, MWCNT=3.47 μg·mL-1) nanocomposites based on the bimodal PTT/PDT strategy. Additionally, by the PDT strategy, the E. coli and S. aureus colonies were completely eliminated by the nanocomposite VCL/PEGDA-MNPs-GO-ZnMintPc (MNP=93,3 μg·mL -1, ZnMintPc=8,1 μM, GO=3.47 μg·mL -1), while the three microorganisms were completely eliminated by the nanocomposite VCL/PEGDA-MNPs-MWCNTs-ZnMintPc (MNP=93,3 μg·mL -1, ZnMintPc=8,1 μM MWCNT=3.47 μg·mL -1), therefore, this last magnetic nanocomposite is considered a broad-spectrum antimicrobial agent for PDT.
Descripción: A lo largo de la historia, las enfermedades microbianas causadas por microorganismos como bacterias, virus, hongos y protozoos, han tenido un impacto significativo en la humanidad, causando millones de muertes y afectando a comunidades enteras. Por esta razón, durante los últimos años se ha generado un gran interés en el desarrollo de nanocompuestos con capacidad antimicrobiana que permitan combatir esta amenaza. En la presente investigación se obtuvo nanocompósitos magnéticos basados en nanotubos de carbono de pared múltiple (MWCNT) y óxido de grafeno (GO). Estos nanocompósitos magnéticos se sintetizaron en tres pasos: primero, la síntesis por coprecipitación de nanopartículas magnéticas en óxido de grafeno y nanopartículas magnéticas en nanotubos de carbono de pared múltiple, obteniendo los dos primeros nanocompósitos MNPs-GO y MNPs-MWCNTs, respectivamente; segundo, la funcionalización con el fotosensibilizante Mentol-Ftalocianina de Zinc (ZnMintPc); y por último, los nanocompósitos magnéticos MNPs-GO y MNPs-MWCNTs portadores de ZnMintPc (MNPs-MWCNTs-ZnMintPc y MNPs-GO-ZnMintPc) se disperasaron en el hidrogel biocompatible poli(N-vinil caprolactama-co-poli(etilenglicol)diacrilato) poli(VCL-co-PEGDA) abreviado como VCL/PEGDA, obteniendo así el tercer y cuarto nanocompósito magnético: VCL/PEGDA-MNPs-GO-ZnMintPc y VCL/PEGDA-MNPs-MWCNTs-ZnMintPc. Este estudio abordó las propiedades ópticas, morfológicas, magnéticas y fotofísicas de los nanocompuestos. Se evaluó el efecto antimicrobiano in vitro de los cuatro nanocompósitos magnéticos en las bacterias Escherichia coli (E. coli), Staphylococcus aureus (S. aureus) y la levadura Candida albicans (C. albicans) en base en el efecto fotodinámico/fototérmico (PTT/PDT) aplicando una longitud de onda de 630 nm y una dosis de luz de 65.5 mW·cm−2. Los resultados obtenidos en el estudio del efecto antimicrobiano mostraron que las colonias de C. albicans fueron totalmente eliminadas por los nanocompósitos MNPs-GO (MNP=93,3 μg·mL-1, GO=3.47 μg·mL-1) y MNPs-MWCNTs (MNP=93,3 μg·mL-1, MWCNT=3.47 μg·mL-1) basándose en la estrategia bimodal PTT/PDT. Adicionalmente, por estrategia PDT, las colonias de E. coli y S. aureus fueron completamente eliminadas por el nanocompósito VCL/PEGDA-MNPs-GO-ZnMintPc (MNP=93,3 μg·mL-1, ZnMintPc=8,1 μM, GO=3,47 μg·mL-1), mientras que los tres microorganismos fueron completamente eliminados por el nanocompósito VCL/PEGDA-MNPs-MWCNTs-ZnMintPc (MNP=93,3 μg·mL-1, ZnMintPc=8,1 μM, MWCNT=3,47 μg·mL-1), por lo cual, este último nanocompósito magnético se considera un agente antimicrobiano de amplio espectro para PDT.2023-07-01T00:00:00ZAnálisis de los efectos causados por irradiación de un haz de electrones de 1 a 10 keV sobre películas de grafeno.
http://bibdigital.epn.edu.ec/handle/15000/23694
Título: Análisis de los efectos causados por irradiación de un haz de electrones de 1 a 10 keV sobre películas de grafeno.
Autor: Moyano Quishpe, Karla Estefanía
Resumen: Graphene-based materials are currently widely studied due to their unique properties. In the present research work, graphene oxide was synthesized by electrochemical exfoliation of graphite sheets. With the obtained material, thin films were made on glass and irradiated with an electron beam varying the energy from 0.5 keV to 10 keV. A reduction in sheet resistance was observed in the irradiated films when the energy of the electrons increased. In this way, a maximum reduction of 17.28 % of the sheet resistance was obtained when a sample was irradiated with 10 keV for 30 min. The ID/ID' ratio was below 3.5 for all Raman spectra before and after irradiation, which showed the existence of edge defects present in graphene oxide. Whereas, in most cases, the ID/IG ratio is reduced when the irradiation energy is increased. On the other hand, FTIR and XPS spectra showed a reduction of oxygenated functional groups after irradiation. The results suggest that there is a reduction of graphene oxide after irradiation with the electron beam, which increases the conduction of the material.
Descripción: Los materiales basados en grafeno son ampliamente estudiados en la actualidad debido a las propiedades únicas que poseen. En el presente trabajo de investigación se sintetizó óxido de grafeno mediante la exfoliación electroquímica de láminas de grafito. Con el material obtenido, se elaboraron películas delgadas sobre vidrio y se irradiaron con un haz de electrones variando la energía desde 0.5 keV a 10 keV. Se observó una reducción de la resistencia laminar en las películas irradiadas cuando la energía de los electrones aumenta. De esta manera, se obtuvo una reducción máxima de 17.28 % de la resistencia laminar cuando se irradió una muestra con 10 keV durante 30 min. La relación ID/ID’ estuvo por debajo de 3.5 para todos los espectros Raman antes y después de la irradiación, lo que mostró la existencia de defectos de borde presentes en el óxido de grafeno. Mientras que, en la mayoría de los casos, la relación ID/IG se reduce cuando se aumenta la energía de irradiación. Por otro lado, los espectros FTIR y XPS mostraron una reducción de los grupos funcionales oxigenados después de la irradiación. Los resultados sugieren que existe una reducción del óxido del grafeno después de la irradiación con el haz de electrones, lo que aumenta la conductividad del material.2023-03-01T00:00:00ZAlgoritmo forward-backward multimalla con aplicación al problema de supresión de ruido en una imagen.
http://bibdigital.epn.edu.ec/handle/15000/23675
Título: Algoritmo forward-backward multimalla con aplicación al problema de supresión de ruido en una imagen.
Autor: Guerra Urgilés, Edison Felipe
Resumen: Throughout history, optimization problems have generated great interest in the scientific community, leading to
the development of theories and algorithms that determine the solution, or approximation of it, of this branch of
mathematics. Image processing is a field that involves optimization. This branch of research has been studied,
with greater intensity in recent decades, for the diversity of applications such as: satellite images, X -ray
images, computerized tomography, etc.
Within this diverse set of applications associated with optimization problems, those that due to their extensive
number of variables are called large -scale optimization problems arise. Multigrid methods were developed to
address large -scale problems. Then a natural question emerges, is it possible to design a multigrid algorithm
from the Forward-Backward Splitting Method method in such a way that they approach the solution of a large scale optimization problem?
With the aim of answering the question asked, we are preparing to develop a multigrid algorithm derived from
the Forward-backward Splitting Method method. To do this, we will first design the problem of lower
dimension and a certain condition that relates both the original problem and the problem of lower dimension.
Then, we will build a decrease address for the directional derivative of the original problem. Finally, we will
indicate the best way to perform a linear search that provides a quasi-Fejér-monotonicity in the line search
iteration, inherent property of the Forward-backward method.
Descripción: A lo largo de la historia, los problemas de optimización han generado gran interés en la comunidad científica,
dando lugar al desarrollo de teorías y algoritmos que determinan la solución, o aproximación de la misma, de
esta rama de la matemática. El procesamiento de imágenes es un campo que involucra a la optimización. Esta
rama de investigación ha sido objeto de estudio, con mayor intensidad en las últimas décadas, por la diversidad
de aplicaciones como: imágenes satelitales, imágenes de rayos X, tomografías computarizadas, etc.
Dentro de este diverso conjunto de aplicaciones asociadas a problemas de optimización surgen aquellos que por
su extensa cantidad de variables son llamados problemas de optimización a gran escala. Los métodos
multimalla se desarrollaron para abordar problemas a gran escala. Entonces emerge una pregunta natural, ¿es
posible diseñar un algoritmo multimalla procedente del método forward-backward splitting method de tal
forma que aproximen la solución de un problema de optimización a gran escala?
Con el objetivo de responder a la pregunta realizada, nos disponemos a desarrollar un algoritmo multimalla
derivado del método forward-backward splitting method. Para ello, primero diseñaremos a la par el problema
de menor dimensión y cierta condición que relacione tanto el problema original como el problema de menor
dimensión. Luego, construiremos una dirección de descenso para la derivada direccional del problema original.
Finalmente, indicaremos la mejor forma de realizar una búsqueda lineal que proporcione una quasi-monotinía
de Fejér en la iteración de la búsqueda lineal, propiedad inherente del método forward-backward.2023-01-01T00:00:00ZAlgoritmos de aproximación para un problema multi-periodo de calendarización de máquinas paralelas.
http://bibdigital.epn.edu.ec/handle/15000/23667
Título: Algoritmos de aproximación para un problema multi-periodo de calendarización de máquinas paralelas.
Autor: Jiménez Torres, Fernando Germán
Descripción: En este trabajo se propone el estudio de una versión multi-periodo del problema SRDM (Scheduling with Release times and Deadlines on a minimum number of Machines), en el cual se requiere procesar un conjunto dado de trabajos, minimizando la cantidad total de periodos-máquina empleados para el efecto. Se propone adaptar un algoritmo de aproximación empleado para el problema JISP (Job Interval Selection Problem) y dos algoritmos de aproximación conocidos para el problema SRDM a este nuevo problema, y analizar su comportamiento, tanto en lo que respecta al factor de aproximabilidad de los algoritmos, como a su desempeño en pruebas computacionales.2023-02-01T00:00:00ZSíntesis limpia de nanopartículas magnéticas de óxido hierro y análisis de citotoxicidad.
http://bibdigital.epn.edu.ec/handle/15000/23650
Título: Síntesis limpia de nanopartículas magnéticas de óxido hierro y análisis de citotoxicidad.
Autor: García Vélez, David Giancarlo
Resumen: Magnetic iron oxide nanoparticles (MNPs-Fe) are nanomaterials that have gained attention in various bioapplications. Among them, antibacterial photothermal therapy (PTT) is an alternative to the problem that multi-drug resistant bacteria represent. The biocompatibility, stability, and functionalization of MNPs-Fe, among others, are properties of interest in antibacterial PTT. It was shown that orange waste from the local sale of orange juice could be incorporated into the circular economy. This is by taking advantage of its organic molecules through green synthesis, which allows obtaining MNPs-Fe in a fast and environmentally friendly way. This green approach provides for expanding the range of bioapplications in Fe-MNPs. Because its stability in solution was improved, aggregates were reduced, and cytotoxicity was enhanced (negligible at 250 µg/mL of MNPs-Fe) in mouse macrophages. The MNPs-Fe exhibited superparamagnetic behavior (SPM) over 60 K, surpassing their analogs obtained by coprecipitation and microwaves. Fe-MNPs inhibited gram-positive bacteria, such as S. aureus. and partially gram-negative bacteria, such as E. coli. The photothermal effect allowed reaching temperatures above 50 ⁰C, suggesting Fe-MNPs as photothermal agents (PTAs) comparable to broad-spectrum antibiotics. Due to the ease of being magnetically guided, the MNPS-Fe SPM proposes them as potential targeted drug delivery agents. Also, they can efficiently convert magnetic energy into heat. They do not have remanent magnetization and coercive field, ideal for cancer therapies.
Descripción: Las nanopartículas magnéticas de óxido de hierro (MNPs-Fe) son nanomateriales que han ganado atención en varias bioaplicaciones. Entre ellas, la terapia fototérmica (PTT) antibacterial es una alternativa a la problemática que las bacterias multirresistentes representan. La biocompatibilidad, estabilidad, funcionalización de MNPs-Fe, entre otras, son propiedades de interés en PTT antibacterial. Se demostró que los residuos de naranja proveniente de venta local de jugo de naranja pueden incorporarse a la economía circular. Esto, mediante el aprovechamiento de sus moléculas orgánicas a través de la síntesis verde. La cual permitió obtener MNPs-Fe por una vía rápida y amigable con el medio ambiente. Este enfoque verde permite expandir el abanico de bioaplicaciones en las MNPs-Fe. Esto es, debido a que mejoró su estabilidad en solución, redujo los agregados, mejoró la citotoxicidad (despreciable a 250 µg/mL de MNPs-Fe) en macrófagos de ratón. Las MNPs-Fe exhibieron comportamiento superparamagnético (SPM) sobre los 60 K, superando a sus análogos obtenidos por coprecipitación y vía microondas. Las MNPs-Fe inhibieron a bacterias gram positivas como S. aureus. y parcialmente a bacterias gram negativas como E. coli. El efecto fototérmico permitió conseguir temperaturas sobre los 50 ⁰C, sugiriendo a las MNPs-Fe como agentes fototérmicos (PTAs) comparables con antibióticos de amplio espectro. El SPM de las MNPS-Fe las propone como potenciales agentes de administración focalizada de fármacos. Debido a la facilidad de ser guiadas magnéticamente. También, pueden convertir eficientemente la energía magnética en calor. No poseen magnetización remanente y campo coercitivo, lo cual es ideal en terapias oncológicas.2023-01-01T00:00:00ZBilevel Imaging Learning with Total Variation Regularization: Optimality Conditions and Trust-Region Solution Algorithms.
http://bibdigital.epn.edu.ec/handle/15000/23455
Título: Bilevel Imaging Learning with Total Variation Regularization: Optimality Conditions and Trust-Region Solution Algorithms.
Autor: Villacís Proaño, David Alejandro
Resumen: We address the problem of optimal scale-dependent parameter learning in total variation image denoising. Such problems are formulated as bilevel optimization instances with total variation denoising problems as lower-level constraints. For the bilevel problem, we can derive M-stationarity conditions after characterizing the corresponding Mordukhovich generalized normal cone and verifying suitable constraint qualification conditions. We also derive B-stationarity conditions, after investigating the Lipschitz continuity and directional differentiability of the lower-level solution operator. A characterization of the Bouligand subdifferential of the solution mapping, by means of a properly defined linear system, is provided as well. Based on this characterization, we propose a two-phase non-smooth trust-region algorithm for the numerical solution of the bilevel problem and test it computationally for two experimental settings.
Descripción: Abordamos el problema del aprendizaje óptimo de parámetros dependientes de la escala en la eliminación de ruido de la imagen de variación total. Dichos problemas se formulan como instancias de optimización de dos niveles con problemas de eliminación de ruido de variación total como restricciones de nivel inferior. Para el problema de dos niveles, podemos derivar las condiciones de M-estacionariedad después de caracterizar el cono normal generalizado de Mordukhovich correspondiente y verificar las condiciones de calificación de restricciones adecuadas. También derivamos las condiciones de estacionariedad B, después de investigar la continuidad de Lipschitz y la diferenciabilidad direccional del operador de solución de nivel inferior. También se proporciona una caracterización del sub-diferencial de Bouligand del mapeo solución, por medio de un sistema lineal propiamente definido. Con base en esta caracterización, proponemos un algoritmo de región de confianza no suave de dos fases para la solución numérica del problema de dos niveles y lo probamos computacionalmente para dos configuraciones experimentales particulares.2022-11-01T00:00:00ZCaracterización de micro y nanoestructuras quitínicas de alas de mariposas del bosque tropical de Ecuador y su potencial aplicación.
http://bibdigital.epn.edu.ec/handle/15000/22895
Título: Caracterización de micro y nanoestructuras quitínicas de alas de mariposas del bosque tropical de Ecuador y su potencial aplicación.
Autor: López Alvarado, Queenny Kelly
Resumen: The nanostructures that make up butterfly wings are complex physical arrangements whose optical, thermal and mechanical properties are of interest in the field of materials science and engineering for the development of new materials. In this work, the characterization of wing nanostructures of 12 species of butterflies from the tropical forest of the Ecuadorian Chocó was carried out, which have a predominant flight in a defined vertical stratum of the forest (canopy, middle stratum and understory) with specific characteristics of light and temperature. For the characterization, microscopy, spectroscopy and thermogravimetry tests were used to identify particularities of the nanostructures of the species according to the forest stratum where they live. The results indicate that the chemical composition of the wings is similar for all species, however, there are significant differences in the predominant nanostructures and their response to the electromagnetic spectrum in the UV, visible and NIR ranges. The analyzed species, belonging to the Nymphalidae family, show higher light absorbance in the UV range followed by the NIR and the visible range, in addition, butterflies with predominant flight in the understory stratum show higher absorbance in the visible than those in the canopy and middle stratum, which also show a general nanostructural arrangement of the wings with fewer empty spaces and greater prominence of ridges and lamellae. This characterization is a first step to analyze opportunities for the development of biomimetic technologies whose performance could have more efficient and innovative results in relation to the electromagnetic spectrum ranges analyzed.
Descripción: Las nanoestructuras que conforman las alas de mariposas son complejos arreglos físicos cuyas propiedades ópticas, térmicas y mecánicas resultan interesantes en el campo de la ciencia e ingeniería de materiales en relación con el desarrollo de nuevos materiales. En este trabajo, se realizó la caracterización de nanoestructuras alares de 12 especies de mariposas del bosque tropical del chocó ecuatoriano las cuales presentan un vuelo predominante en un estrato vertical definido del bosque (dosel, estrato medio y sotobosque) con características específicas de luz y temperatura. Para la caracterización se emplearon ensayos de microscopía, espectroscopía y termogravimetría lo que permitió identificar particularidades de las nanoestructuras de las especies de acuerdo al estrato de bosque donde habitan. Los resultados indican que la composición química de las alas es similar para todas las especies, sin embargo, existen diferencias significativas en las nanoestructuras predominantes y su respuesta al espectro electromagnético en los rangos UV, visible e infrarrojo cercano (NIR). Las especies analizadas, pertenecientes a la familia Nymphalidae, muestran mayor absorbancia de luz en el rango UV seguido del NIR y del visible, además, las mariposas con vuelo predominante en el estrato de sotobosque muestran mayor absorbancia en el visible que aquellas de dosel y estrato medio, las que además muestran de manera general, un arreglo nanoestructural de las alas con menor cantidad de espacios vacíos y mayor prominencia de crestas y laminillas. Esta caracterización es un primer paso para analizar oportunidades de desarrollo de tecnologías biomiméticas cuyo desempeño podría tener resultados más eficientes e innovadores en relación a los rangos de espectro electromagnético analizados.2022-08-01T00:00:00ZControl óptimo no convexo de ecuaciones diferenciales elípticas con restricciones puntuales de estado.
http://bibdigital.epn.edu.ec/handle/15000/22272
Título: Control óptimo no convexo de ecuaciones diferenciales elípticas con restricciones puntuales de estado.
Autor: Vargas Jaramillo, Diego Mauricio
Resumen: We consider an optimal control problem governed by an elliptic partial differential equation with homogeneous Neumann conditions, whose cost function involves a non-convex penalty term and pointwise state constraints are imposed. The usual tools from convex analysis cannot be applied directly for deriving an optimality system therefore, it is necessary to introduce techniques from nonsmooth analysis. In addition, the presence of pointwise state constraints leads to poor regularity Lagrange multipliers, making it difficult to compute solutions numerically. Due to these difficulties, we introduce two regularizations to deal with the lack of convexity of the cost function and the low regularity of the Lagrange multipliers associated with the pointwise state constraints. Specifically, we use a Huber-like regularization to cope with the quasinorm, whereas a Lavrentiev regularization is considered for the state constraints. Thanks to these regularizations, it is possible to formulate a family of optimal control problems (depending on the regularization parameters) for which we derive an optimality system by using the Difference of Convex Functions (DC) theory involving more regular Lagrange multipliers.
Later, we solve the regularized problem numerically by applying the semi-smooth Newton method. We analyze the qualitative properties of the solution of the regularized problem, and we numerically asses the variation of the parameters associated to the regularized problem. Finally, we study the convergence rate of the proposed algorithm numerically, and we draw conclusions and discuss open questions for future research.
Descripción: Consideraremos un problema de control óptimo gobernado por una E.D.P. elíptica con condición de Neumann homogénea, cuya función de costo presenta una penalización no convexa y su estado asociado tiene restricciones puntuales. Las herramientas usuales del análisis convexo no pueden aplicarse directamente para la formulación de un sistema de optimalidad, por tanto, es necesario introducir algunas técnicas del análisis no suave. Adicionalmente, la presencia de restricciones puntuales de estado conduce a multiplicadores de Lagrange poco regulares dificultando su resolución numérica. Debido a estas dificultades, introducimos dos regularizaciones para tratar la falta de convexidad y differenciabilidad del costo, como con la poca regularidad de los multiplicadores de Lagrange que producen las restricciones de estado. Específicamente, consideramos una regularización tipo Huber para la cuasinorma de la función de costo y una tipo Lavrentiev para las restricciones de estado. Gracias a éstas, es posible formular una familia de problemas de control óptimo (que dependen de los parámetros de regularización asociados) para los cuales obtenemos un sistema de optimalidad mediante la teoría de Diferencia de funciones Convexas (DC) y cuyos multiplicadores de Lagrange son más regulares.
Posteriormente, resolvemos numéricamente el problema regularizado aplicando el algoritmo semi suave de Newton. Analizaremos la forma cualitativa de la solución del problema regularizado, y estudiamos numéricamente lo que sucede a medida que los parámetros de regularización que aparecen en el problema regularizado varían. Finalmente estudiaremos la tasa de convergencia del algoritmo propuesto, y daremos nuestras conclusiones y las preguntas abiertas que deja nuestro trabajo para futuras investigaciones.2022-03-21T00:00:00ZAnálisis de un problema de control óptimo no-suave asociado a un fluido dilatante.
http://bibdigital.epn.edu.ec/handle/15000/21807
Título: Análisis de un problema de control óptimo no-suave asociado a un fluido dilatante.
Autor: Quiloango Chimarro, Paola Nathaly
Resumen: This thesis focuses on the analysis of an optimal control problem governed by a nonsmooth equation that
models a shear-thickening fluid. First, we study the directional differentiability of the non-smooth nonlinearity
in the state equation. Next, we analyze the directional differentiability of the solution operator. We establish a
necessary first order optimality condition, which is deduced from the directional differentiability of the solution
operator. This condition is related to the concept of Bouligand stationarity. Also, we derive another necessary
optimality condition by using a regularization and passage to the limit technique. The optimality system
derived in this way is considered a weak stationarity condition. Finally, we combine both optimality conditions
to obtain an optimality system, which is related to a stronger stationarity concept. Furthermore, we show that
this stronger stationarity concept is equivalent to the Bouligand stationarity concept, in the case of our problem.
Descripción: En la presente tesis estudiamos un problema de control óptimo no-suave asociado a una ecuación que modela
un fluido dilatante. Analizamos la diferenciabilidad direccional de una no linealidad no-suave presente en la
ecuación de estado. Luego, analizamos la diferenciabilidad direccional del operador solución asociado a la
ecuación de estado. Se establece una condición necesaria de optimalidad de primer orden, relacionada al
concepto de estacionariedad de Bouligand, la cual se deduce de la diferenciabilidad del operador solución.
Obtenemos un sistema de optimalidad correspondiente a un concepto de estacionariedad débil, mediante una
regularización del problema de control óptimo y posterior paso al límite. Finalmente, obtenemos un sistema de
optimalidad relacionado a un concepto de estacionariedad más fuerte, y demostramos que este concepto es
equivalente a la estacionariedad de Bouligand, en el caso de nuestro problema de control óptimo.2021-09-01T00:00:00ZParticionamiento de un Grafo General en k Componentes Conexas usando Generación de Columnas.
http://bibdigital.epn.edu.ec/handle/15000/21751
Título: Particionamiento de un Grafo General en k Componentes Conexas usando Generación de Columnas.
Autor: Cordero Cárdenas, Mishelle Briggitte
Resumen: In this work we study the problem of partitioning general graphs into a fixed
number of connected components. The problem takes as input an undirected general
graph G := (V, E) with costs on the edges. The partitioning problem consists of
partitioning the set of nodes into a fixed number of subsets such that each subset
induces a connected subgraph and the total cost of the edges in each subgraph must
be minimized. Three Integer Programming formulations are provided and a heuristic
method for column generation is proposed. Finally, computational results based
on simulated instances are reported.
Descripción: En este trabajo se estudia el problema de particionamiento de grafos generales en un número fijo de componentes conexas. El problema toma como entrada un grafo general no dirigido G := (V, E) con costos en las aristas. El problema de particionamiento consiste en dividir el conjunto de nodos en un número fijo de subconjuntos
tal que cada subconjunto induzca un subgrafo conexo y el costo total de las aristas
en cada subgrafo sea minimizado. Se presentan tres formulaciones de Programación
Entera y se propone un método heurístico de generación de columnas. Finalmente,
resultados computacionales basados en instancias simuladas son reportados.2021-07-27T00:00:00ZAproximación por elementos finitos de una clase problemas de control óptimo no convexos gobernados por ecuaciones diferenciales parciales elíptica
http://bibdigital.epn.edu.ec/handle/15000/21729
Título: Aproximación por elementos finitos de una clase problemas de control óptimo no convexos gobernados por ecuaciones diferenciales parciales elíptica
Autor: Nenjer Morillo, Hernán Alexander
Resumen: The purpose of this study is deriving an estimation of the error generated by the approximation, by the
finite element method, an optimal control problem of the elliptical type, whose cost functional has a nonconvex term that regularizes locally the quasi-norm L^q (with q\in (0.1)). Our study is based on
obtaining the optimality system by formulating the cost functional as a difference of convex functions
(DC), which involves a L^1 penalty optimal control problem.
We consider the space of piece-wise linear continuous functions for the discretization of the state
equation and the space of piece-wise constant functions for the approximation of the controls. Under
certain conditions established for the parameters of regularization of the problem we obtain that the
convergence of our approximation can reach a linear order of convergence as the size of the mesh
decreases. Finally, numerical experiments of the obtained theoretical results will be illustrated.
Descripción: El objetivo del presente trabajo es el de obtener una estimación del error generado al aproximar, por el
método de elementos finitos, un problema de control óptimo del tipo elíptico cuyo funcional de costo
posee un término no convexo. Dicho término regulariza localmente la cuasinorma L^q (con q en (0,1)).
Nuestro estudio se fundamenta en la obtención del sistema de optimalidad, mediante la formulación del
funcional de costo como diferencia de funciones convexas (DC), interviniendo para esta formulación una
penalización de la norma L^1.
Para la aproximación por el método de elementos finitos consideramos el espacio de las funciones
continuas lineales a trozos para la discretización de la ecuación del estado, y el espacio de las funciones
constantes a trozos para la aproximación de los controles. Con lo cual, bajo ciertas condiciones
establecidas para los parámetros de regularización del problema, obtenemos que la convergencia de
nuestra aproximación puede alcanzar un orden lineal, dependiente del parámetro de la malla.
Finalmente, se ilustrará los resultados teóricos obtenidos con experimentos numéricos.2021-07-05T00:00:00ZAnálisis del comportamiento ante cargas laterales de la unión soldada entre columna compuesta y viga de alma llena, reforzada con anillo rigidizante, en nudos interiores de pórticos resistentes a momento
http://bibdigital.epn.edu.ec/handle/15000/21118
Título: Análisis del comportamiento ante cargas laterales de la unión soldada entre columna compuesta y viga de alma llena, reforzada con anillo rigidizante, en nudos interiores de pórticos resistentes a momento
Autor: Manzano Suarez, Marco Efrén; Zúñiga Morales, Paúl Santiago
Resumen: In our country there is an increase in constructions that use A-36 steel as the main material for their columns and beams, which make up a system of moment resistant frames. To analyze this type of system, the structure of a two-floor house was designed, considering the NEC-15 standard, the structural elements are composite by columns filled with concrete, and full-web steel beams, both made of ASTM A-36
structural steel. This research considers a comparison of the results between an experimental test and a theoretical model designed in ETABS and validated in SEISMOESTRUCT. For the experimental test, three specimens of the central portico of the house were built, on a real scale, which were tested under lateral load. The comparison was made at the most critical point, which is the central node of the first high floor; analyzing the results between the frames with different reinforcements: simple welded joint (frame 1), welded joint with rectangular stiffening ring (frame 2) and welded joint with trapezoidal stiffening ring (frame 3); the best result regarding the load capacity of the portico obtained is presented when using the trapezoidal ring, where the experimental results closest to the theoretical results have been obtained.
Descripción: En nuestro país existe un incremento de construcciones que utilizan el acero A-36 como material principal para sus columnas y vigas, mismas que conforman un sistema de pórticos resistentes a momento. Para analizar este tipo de sistema, se diseñó la estructura de una casa de dos pisos, considerando la norma NEC-15, cuyos elementos estructurales son columnas compuestas rellenas de hormigón, y vigas de acero de alma llena, las dos de acero estructural ASTM A-36. La investigación considera una comparación de los resultados entre un ensayo experimental y un modelo teórico diseñado en ETABS y validado en SEISMOESTRUCT. Para el ensayo experimental, se construyeron tres ejemplares del pórtico central de la casa, a escala real, los cuales se ensayaron a carga lateral. Se realizó la comparación en el punto más crítico que es el nudo central del primer piso; analizando los resultados entre los pórticos con diferentes refuerzos: unión simple soldada (pórtico 1), unión soldada con anillo rigidizante rectangular (pórtico 2) y unión soldada con anillo rigidizante trapezoidal (pórtico 3); el mejor resultado respecto a capacidad de carga del pórtico obtenido se presenta al utilizar el anillo trapezoidal, donde se ha obtenido los resultados experimentales más cercanos a los resultados teóricos.2018-07-27T00:00:00ZEvaluación y reforzamiento del sistema resistente a carga lateral de muros del ex colegio Simón Bolívar
http://bibdigital.epn.edu.ec/handle/15000/20958
Título: Evaluación y reforzamiento del sistema resistente a carga lateral de muros del ex colegio Simón Bolívar
Autor: Chacón Sánchez, Juan Pablo
Resumen: In Ecuador, there are many patrimonial structures, made up of fragile earth-based materials. Recent seismic events have revealed the poor performance of these structures, due to their large mass and low capacity to withstand loads outside their plane.
The present project, presents the evaluation of current state and reinforcement, through the modeling, based on finite elements, using computational software. For the modeling, a calibration of the finite mesh was carried out, which resulted in parametric values, such as the number of parts, the proportion of the element, with respect to itself and with respect to its main length, parameters such as the thickness of the Wall and the type of element to model (FRAME, SHELL, SOLID).
The current state of the structure, front of the design earthquake, was evaluated, taking into account experiences from neighboring countries, with similar seismic events, using the recommendations of its regulations, in combination with the Ecuadorian norm (NEC).
Reinforcement stages were proposed, focused on the reduction of stresses and control of displacements
Descripción: En el Ecuador existe gran cantidad de estructuras patrimoniales, constituidas en materiales frágiles con base en tierra. Eventos sísmicos recientes han puesto de manifiesto, el pobre desempeño de estas estructuras, debido a su gran masa y poca, o casi nula capacidad, de resistir cargas fuera de su plano.
Este proyecto, presenta la evaluación de estado actual y reforzamiento, por medio del modelamiento, con base en elementos finitos, empleando software computacional. Para el modelado, se realizó una calibración de la malla de finitos, que arrojó como resultado, valores paramétricos, como el número de partes, la proporción del elemento, con respecto a si mismo y respecto a su longitud principal, parámetros como el espesor del muro y el tipo de elemento a modelar (FRAME, SHELL, SOLID).
Se evaluó el estado el estado actual de la estructura, frente al sismo de diseño, tomando en cuenta experiencias de países vecinos, con eventos sísmicos similares, utilizando las recomendaciones de sus normativas, en combinación con la norma ecuatoriana (NEC).
Se planteo etapas de reforzamiento, enfocadas en la disminución de esfuerzos y control de desplazamientos.2019-04-18T00:00:00ZConstrucción de un modelo scoring de aprobación para cartera comercial de una institución financiera pública mediante modelos aditivos generalizados
http://bibdigital.epn.edu.ec/handle/15000/20756
Título: Construcción de un modelo scoring de aprobación para cartera comercial de una institución financiera pública mediante modelos aditivos generalizados
Autor: Garrido Loza, Nancy Verónica
Resumen: This project aims to analyze the application of a generalized additive model in the financial field, given the need of financial institutions to improve the placement of their credit portfolio in good clients, that is, that they can meet their obligations agreed with the institution in the foreseen terms, without incurring partial or total delays, thus allowing to minimize their credit risk.
In this sense, the theoretical framework has been incorporated into this type of statistical models, credit risk, an analysis of the current situation of Ecuadorian banking, to later propose a methodological procedure that allows applying a generalized additive model for the portfolio of commercial loans in a public development bank, in order to establish strategies for credit granting. Programming was performed in software R.
This project proposes the creation of new credit scoring models whose functional structures contemplate the possible non-linearity of the explanatory variables of credit risk in relation to compliance with the payment obligations of the borrowers.
Descripción: El presente proyecto pretende analizar la aplicación de un modelo aditivo generalizado en el ámbito financiero, dada la necesidad de las instituciones financieras de mejorar la colocación de su cartera de crédito en clientes buenos, es decir, que puedan cumplir con sus obligaciones pactadas con la institución en los plazos previstos, sin incurrir en retrasos parciales o totales, permitiendo así minimizar su riesgo de crédito de los mismos.
En tal sentido, se ha incorporado el marco teórico sobre este tipo de modelos estadísticos, de riesgo de crédito, un análisis de la situación actual de la banca ecuatoriana, para posteriormente proponer un procedimiento metodológico que permita aplicar un modelo aditivo generalizado para la cartera de créditos comerciales en una banca pública de desarrollo, con el fin de establecer estrategias para la concesión crediticia. Se realizó la programación en el software R.
En este trabajo se propone la creación de nuevos modelos de credit scoring cuyas estructuras funcionales contemplen la posible no linealidad de las variables explicativas del riesgo de crédito en su relación con el cumplimiento de las obligaciones de pago de los acreditados.2019-09-23T00:00:00ZAplicación de pruebas no paramétricas para k-muestras para identificar cambios en la distribución del Ingreso en Ecuador en el periodo 2006-2016 por provincia y actividad económica
http://bibdigital.epn.edu.ec/handle/15000/20538
Título: Aplicación de pruebas no paramétricas para k-muestras para identificar cambios en la distribución del Ingreso en Ecuador en el periodo 2006-2016 por provincia y actividad económica
Autor: Roldán Molina, Liliana Elizabeth
Resumen: In this work a description of income distribution is made using kernel density estimation. The period 2006 – 2016 is analyzed using cross-sectional samples from the population not only at the national level but also for the provinces and main economic activities. Non parametric k sample tests based on the kernel density estimation and empirical distribution function area applied to assess whether the observed changes in the distribution are statistically significant. The empirical results suggest that income distribution have changed over time, accompanied with a decreasing in inequality and a subsequent rise the last 2 years, many of the changes are in the localization of the distribution where the EDF tests work well. At the subnational level some changes in shape are identified, this is the case of the province of Chimborazo, where the KDE tests, like norm L1 or AC statistic, reject the null hypothesis.
Descripción: En el presente trabajo se describe la distribución personal de los ingresos a nivel nacional, provincial y por actividad económica, a partir de la información obtenida de las encuestas de hogares para el período 2006-2016. Para probar si los cambios en la distribución del ingreso a través de tiempo son estadísticamente significativos, se aplican pruebas no paramétricas para k muestras basadas en la Función de Distribución Empírica (FDE) y la función de densidad de núcleo (KDE).
Los resultados muestran que en el período de tiempo analizado, efectivamente, hubo cambios en la distribución de los ingresos, principalmente en la localización más que en su forma donde las pruebas a partir de la FDE tienen un buen desempeño. En tanto que, a nivel territorial se evidenciaron cambios en la forma de la distribución como es el caso Chimborazo, donde las pruebas basadas en la KDE, como la norma L1 o el Área Común, rechazaron la hipótesis nula.2019-09-11T00:00:00ZEvaluación del deterioro de la calidad del tomógrafo Siemens Emotion 6 del Hospital SOLCA Núcleo-Quito y su influencia en las dosis y calidad de imagen
http://bibdigital.epn.edu.ec/handle/15000/20092
Título: Evaluación del deterioro de la calidad del tomógrafo Siemens Emotion 6 del Hospital SOLCA Núcleo-Quito y su influencia en las dosis y calidad de imagen
Autor: García Navas, Jorge Humberto
Resumen: In this study, the dose variation and the image quality of the Siemens Emotion 6 computed tomograph during the life time of the X-ray tube was evaluated. For this, five clinical protocols for both adult and pediatric patients were studied. The evolution of the doses in the center of a CTDI phantom, the modulation transfer function (MTF) and the noise power spectrum (NPS) in the ACR phantom was studied, the latter is a measurement of the image quality and we found that, with 95% of confidence, it does not exist correlation between dose and time neither between time and the image parameters. The X ray tube state was monitored with the evaluation of the beam characteristics, that is, the measurement of the hemyreductive layer (HVL) decreased a maximum of 0.158 mmAl for 110 kV and 0.267 mmAl for 130 kV, in agreement of the tolerance limits of the quality control protocols in tomography, the distribution of the kerma in air along both the rotation axis of the tomograph and the transverse axis during the study is less than 8% with respect to the mean value. Therefore, the normal deterioration of the equipment during the life time of the X ray tube will not significantly afect the medical diagnosis.
Descripción: En este trabajo se evaluó la variación de la dosis y de la calidad de imagen del tomógrafo Siemens Emotion 6 durante el tiempo de vida útil del tubo de rayos X. Se trabajó con cinco protocolos de adquisición de imágenes de pacientes adultos y pediátricos. Se estudió la evolución de las dosis en el centro de un fantoma CTDI, de la función de transferencia de modulación (MTF) y el espectro de potencia de ruido (NPS) en un fantoma ACR, esto último es una medida de la calidad de imagen y se encontró con un 95% de confianza que no existe correlación de los parámetros de estudio con el tiempo de uso. El estado del tubo se monitorizó con la evaluación de las características del haz, la medida de la capa hemirreductora (HVL) disminuyó un máximo de 0.158 mmAl para 110 kV y 0.267 mmAl para 130 kV, y estas variaciones están dentro de los límites de tolerancia de los protocolos de garantía de calidad en tomografía, la distribución del kerma en aire en el eje de giro del tomógrafo y en dirección transversal es menor al 8% con respecto a su valor medio en el periodo de estudio. Por lo tanto, el desgaste normal del tomógrafo y del tubo de rayos X no alterará significativamente en el diagnóstico médico.2019-01-02T00:00:00ZVulnerabilidad sísmica del edificio principal del hospital Eugenio Espejo
http://bibdigital.epn.edu.ec/handle/15000/19968
Título: Vulnerabilidad sísmica del edificio principal del hospital Eugenio Espejo
Autor: Castillo Sarango, Darío Javier
Resumen: The Eugenio Espejo hospital of specialties is a facility of great importance for the Ecuadorian society due to its crucial role before, during and after a seismic event. Based on the aforementioned, it becomes highly necessary to conduct a study of structural vulnerability. In order to conduct the seismic vulnerability evaluation of the Eugenio Espejo hospital main building, a design review of the different structural elements such as beams, columns, and beam-column connection was carried out. Additionally, the influence of the masonry on the behavior of the structure under lateral loads was evaluated in order to identify the presence of harmful configurations such as soft story and short columns that make the structural safety of the hospital critical in the presence of a severe seismic event. Regarding the calculation of lateral forces, the Ecuadorian Code of Construction, CPE INEN 5 2011, was used. The hospital safety index was also determined following the methodology described in the document "Hospital Safety Index: Guide for the Evaluator of Safe Hospitals" developed by the Pan American Health Organization - PAHO. It is recommended to study the best option to stiffen the structure taking into account that the different services provided by the hospital cannot be affected.
Descripción: El hospital de especialidades Eugenio Espejo constituye una instalación de gran importancia para la sociedad ecuatoriana debido a la relevante función que desempeña antes, durante y después de un evento sísmico, por esta razón se vuelve necesario realizar un estudio de vulnerabilidad estructural. Para la evaluación de la vulnerabilidad sísmica del edificio principal del hospital de especialidades Eugenio Espejo se realizó una revisión del diseño de los diferentes elementos estructurales como vigas, columnas, y conexión viga columna, además se analizó la influencia de la mampostería en el comportamiento de la estructura ante cargas laterales, permitiendo identificar la presencia de configuraciones nocivas como piso blando y columnas cortas que vuelven crítico la seguridad estructural del hospital ante la presencia de un evento sísmico severo. Para el cálculo de fuerzas laterales se utilizó el Código Ecuatoriano de la Construcción CPE INEN 5 2011. Se determinó también el índice de seguridad hospitalaria siguiendo la metodología descrita en el documento “Índice de seguridad hospitalaria: Guía del evaluador de hospitales seguros”, realizado por la Organización Panamericana de la Salud – OPS. Se recomienda estudiar la mejor opción para rigidizar la estructura tomando en cuenta que los diferentes servicios que presta el hospital no pueden verse afectados.2019-02-07T00:00:00ZCaracterización de la Estabilidad Oscilatoria del Sistema Eléctrico Ecuatoriano mediante la identificación de patrones de oscilación a partir de Mediciones Sincrofasoriales
http://bibdigital.epn.edu.ec/handle/15000/19761
Título: Caracterización de la Estabilidad Oscilatoria del Sistema Eléctrico Ecuatoriano mediante la identificación de patrones de oscilación a partir de Mediciones Sincrofasoriales
Autor: Cubillo Betancourt, Raúl Eduardo
Resumen: The Operador Nacional de Electricidad - CENACE, currently has a monitoring system for phasor measurements, which allows monitoring of an electrical power system through the variables of the voltage, current and angle system. That through of this information it is possible to characterize states of operation that can evolve to a condition of instability or loss of security of the electrical system. On the other hand, there are data that comes from the SCADA system that allows to observe the information of a generation dispatch, to supply the demand of the system. By making use of this data set, it is possible to perform statistical analyzes that provide the Operator with valuable information for making decision. This makes it possible to infer, through a statistical analysis, the presence of low-attenuated oscillations or non-damped (increasing) low-frequency oscillations that would occur under certain operating conditions of the system. This solution would allow preventing situations that could lead the system to partial collapses or total collapse. And on the other hand characterize the normal states in order to give early warnings in situations different from these through the models of risk detection through binary models and techniques such as the ACP and SVM
Descripción: El Operador Nacional de Electricidad - CENACE, actualmente dispone de un sistema de supervisión de mediciones fasoriales, las cuales permiten monitorear a un sistema eléctrico de potencia a través de las variables del sistema de voltaje, corriente y ángulo. Por medio de esta información es posible caracterizar estados de operación que pueden evolucionar a una condición de inestabilidad o pérdida de seguridad del sistema eléctrico. Por otra parte, existe la información del sistema SCADA que permiten observar la información de un despacho de generación, para abastecer la demanda del sistema. Haciendo uso de este conjunto de datos, es posible realizar análisis estadísticos que brinden al Operador información valiosa para la toma de decisión. Esto permite inferir, a través de un análisis estadístico, la presencia de oscilaciones poco amortiguadas o no amortiguadas (crecientes) de baja frecuencia que se presentarían ante ciertas condiciones operativas del sistema. Esta solución permitiría prevenir situaciones que podrían llevar al sistema a colapsos parciales o a un colapso total. Y por otra parte caracterizar los estados normales a fin de dar alertas tempranas en situaciones diferentes a estas a través de los modelos de detección de riesgo mediante modelos binarios y técnicas como el ACP y SVM.2018-09-28T00:00:00ZAnálisis comparativo entre los diseños sismorresistente de la norma ecuatoriana de la construcción [NEC 2015] y el diseño directo basado en desplazamientos [DDBD]
http://bibdigital.epn.edu.ec/handle/15000/19572
Título: Análisis comparativo entre los diseños sismorresistente de la norma ecuatoriana de la construcción [NEC 2015] y el diseño directo basado en desplazamientos [DDBD]
Autor: Andrade Silva, Javier Gustavo; Carrillo Mayanquer, Fredy Rolando
Resumen: A comparative analysis of the seismic design of reinforced concrete frames, using the two methodologies proposed in the Ecuadorian Construction Norm [NEC 2015] Force Design and by "Direct Design Based on Displacement (DDBD)". In this study the performance of the design methodologies is evaluated: The comparison is based on the results of the seismic design and structural elements of 2 buildings of 15 and 30 m. height, of an Essential use and of offices, foundation on soil types D and C, respectively, using the different parameters for each of these methodologies. The comparison criteria are: 1) floor drifts, 2) calculation and design of structural elements, 3) ease of application of the methods. The verification analyzes were carried out using the results of non-linear analyzes of history over time, using open-field earthquakes, simulating a possible earthquake with the fault that exists in the city of Quito. The study shows that the design methodologies by DBF and DDBD, have a good seismic performance
Descripción: Un análisis comparativo del diseño sismo-resistente de pórticos de hormigón armado, usando las dos metodologías propuestas en la Norma Ecuatoriana de la Construcción [NEC 2015] Diseño de Fuerzas y por el “Diseño Directo Basado en Desplazamientos (DDBD)”. En este estudio se evalúa el desempeño de las metodologías de diseño: La comparación se basa en los resultados del diseño sismo-resistente y de elementos estructurales de 2 edificios de 15 y 30 m de altura, de un uso Esencial y de oficinas, cimentados en suelo tipo D y C, respectivamente, utilizando los diferentes parámetros por cada uno de estas metodologías. Los criterios de comparación son: 1) las derivas de piso, 2) Calculo y diseño de elementos estructurales, 3) La facilidad de aplicación de los métodos. Los analices de verificación fueron realizados mediante los resultados de analices no-lineales de historia en el tiempo, mediante la utilización de sismos a campo abierto, simulando un posible sismo con la falla que existe en la ciudad de Quito. El estudio muestra que las metodologías de diseño por DBF y por el DDBD, presentan un buen desempeño sísmico.2018-07-20T00:00:00ZEfecto del material de contraste en las distribuciones de dosis asociadas a la braquiterapia de alta tasa con Iridio-192 para tratamientos del cáncer cérvico-uterino
http://bibdigital.epn.edu.ec/handle/15000/19490
Título: Efecto del material de contraste en las distribuciones de dosis asociadas a la braquiterapia de alta tasa con Iridio-192 para tratamientos del cáncer cérvico-uterino
Autor: Pallaroso Yela, Mayra Alejandra
Resumen: The effect in the doses distributions associated to cervical-uterine cancer treatments with high dose rate brachytherapy with Iridium-192 produced by the contrast material was quantified. This was done by the calculation of doses with the Acuros algorithm implemented in the Brachyvision planning system. For the calculations the CT numbers (Hounsfield units) associated with the electronic density of the bladder with different concentrations of contrast were identified which were from 0 % (0 HU, equivalent to water) to 10 % (316.18 ± 94 HU) and 236 points around the implant were located, 41 of which were inside the bladder. For each of these points the deviation of the dose was calculated in the presence of contrast in the bladder with respect to the dose in the presence of water. For 500 HU, the deviations were up to 0.10 % for points outside the bladder and up to 2.21 % for points within the bladder. For the optimum concentration for imaging of 8 %, the absorbed dose in a volume of 2 cm3 of the bladder, would be up to 0.44 % higher dose than dose for water. The increment in absorbed dose lies within the tolerances established in radiotherapy.
Descripción: En este trabajo se cuantificó el efecto que produce el material de contraste en las distribuciones de dosis asociadas a tratamientos del cáncer cérvico-uterino con braquiterapia de alta tasa de dosis, con Iridio-192. El efecto se evidenció mediante el cálculo de dosis, con el algoritmo Acuros implementado en el sistema de planificación Brachyvision. Para los cálculos se identificaron los números CT (unidades Hounsfield) asociados a la densidad electrónica de la vejiga con diferentes concentraciones de contraste, las cuales fueron desde 0 % (0 HU, equivalente a agua) hasta 10% (316.18 ± 94 HU) y se localizaron 236 puntos alrededor del implante, de los cuales 41 estuvieron dentro de la vejiga, para cada punto se calculó la desviación de la dosis en presencia de contraste en la vejiga respecto a la dosis en presencia de agua. Para 500 HU, las desviaciones fueron hasta 0.10% para los puntos fuera de la vejiga y hasta 2.21% en los puntos dentro de la vejiga. Para el 8%, concentración óptima para la imagen, en un volumen de 2 cm3 de la vejiga, sería hasta 0.44% mayor dosis. El aumento de dosis encontrado en este estudio está dentro de las tolerancias establecidas en radioterapia.2018-06-25T00:00:00ZSegregación y violencia como fenómenos emergentes de la dinámica social en la ciudad de Quito
http://bibdigital.epn.edu.ec/handle/15000/19420
Título: Segregación y violencia como fenómenos emergentes de la dinámica social en la ciudad de Quito
Autor: Mena Guevara, José Gabriel
Resumen: Segregation is a social phenomenon, defined as the non-trivial distribution of human groups in a city. This phenomenon emerges from the preference of persons for living in neighborhoods with people of similar characteristics. These characteristics can be related to social factors such as the ethnicity, income or level of education of a person. In this thesis the dominant factor in the segregational dynamics of Quito is studied. This dominant factor is defined as the main reason for people to decide to move or not to another neighborhood. The first proposal is an agent-based algorithm that allows to characterize the segregational process of a dominant factor. The second proposal is a statistical algorithm that takes as a starting point the existing segregation in a city to estimate which factor is the dominant one. With the results, when these algorithms are applied in Quito, we concluded that the socioeconomic factor is the dominant one. Finally, a relationship is estimated between the socioeconomic segregation of Quito and different types of crimes reported in the city.
Descripción: La segregación es un fenómeno social, definido como la distribución no-trivial de grupos humanos en una ciudad. Este fenómeno emerge de la preferencia de los individuos por vivir en barrios con personas de características similares. Estas características pueden relacionarse con factores sociales como la etnia, los ingresos o el nivel de educación de una persona. En esta tesis se estudia el factor dominante en la dinámica segregacional de Quito. Este factor dominante es definido como el motivo principal para que las personas decidan mudarse o no a otro barrio. La primera propuesta es un algoritmo basado en agentes que permita caracterizar el proceso segregacional de un factor dominante. La segunda propuesta es un algoritmo estadístico que toma como punto de partida la segregación existente en una ciudad para estima cual factor es el dominante. Con los resultados, cuando se aplican estos algoritmos en Quito, se concluye que el factor socioeconómico es el dominante. Finalmente, se estima una relación entre la segregación socioeconómica de Quito y diferentes tipos de delitos reportados en la ciudad.2018-05-17T00:00:00ZUn método combinado de Newton Semi-smooth y conjuntos de nivel para la simulación numérica de fluidos tipo Bingham con frontera libre
http://bibdigital.epn.edu.ec/handle/15000/19375
Título: Un método combinado de Newton Semi-smooth y conjuntos de nivel para la simulación numérica de fluidos tipo Bingham con frontera libre
Autor: Núñez Ramos, Cristhian Alexander
Resumen: In this thesis we consider a quasi-static formulation of a time-dependent free boundary Bingham flow, where the static subproblem is formulated as a primal--dual optimality system of a regularized version of the original Bingham model. We propose a numerical scheme for its numerical simulation that combines a Semismooth-Newton method for solving the associated Bingham static subproblem, together with the level-set method which describes the motion of the free boundary of the Bingham fluid. We analyze the static subproblem and present numerical simulations of the proposed methodology. In order to validate our methodology, we will compare this one with known numerical results for the Newtonian case.
Descripción: En este trabajo consideramos una formulación cuasiestática de un problema de fluido tipo Bingham con frontera libre, donde el subproblema cuasiestático es resuelto usando el método de conjuntos de nivel para la solución de la frontera libre (dominio móvil). Luego, planteamos el problema de Bingham en el dominio determinado por dicha frontera libre con las condiciones de frontera adecuadas. Así, podemos formular este problema como un sistema de optimalidad primal-dual de una versión regularizada del modelo de Bingham original. Proponemos un esquema numérico para su simulación, el cual combina el método de Newton-Semismooth para resolver el subproblema de Bingham, junto con el método de conjuntos de nivel, que describe el movimiento de la frontera libre del fluido. Analizamos el subproblema cuasiestático y presentamos algunas simulaciones numéricas de la metodología propuesta. Con el propósito de validar nuestra metodología, la comparamos con resultados numéricos conocidos para el caso de un fluido newtoniano.2018-04-26T00:00:00ZEl Análisis de Supervivencia en la Gestión del Riesgo de Crédito: El Caso de una Cartera Hipotecaria Ecuatoriana
http://bibdigital.epn.edu.ec/handle/15000/19134
Título: El Análisis de Supervivencia en la Gestión del Riesgo de Crédito: El Caso de una Cartera Hipotecaria Ecuatoriana
Autor: Guevara Urquizo, Luis Felipe
Resumen: This thesis aims to analyze the application of survival analysis, and specifically the cox model in an area such as finance, which has not traditionally been addressed in Latin America. In the first instance the existing bibliography has been described and analyzed with respect to the benefits that the application of the analysis of survival derives in the dynamics of the formal financial system, later a methodological procedure has been proposed that allows to apply an analysis of survival to a portfolio of mortgage loans belonging to an Ecuadorian financial institution, with the purpose of segmenting it and identifying internal and external situations in order to define differentiated strategies for both the credit granting and the collection management. Finally, it was intended to automate the analysis carried out through the programming in the R software and thereby facilitate the reproduction and parameterization of the same for its implementation as part of the management actions and mitigation of credit risk associated with the mortgage portfolio analyzed
Descripción: La presente tesis pretende analizar la aplicación del análisis de supervivencia, y específicamente del modelo de cox en un ámbito como el financiero, mismo que no ha sido tradicionalmente abordado en América Latina. Para ello, en primera instancia se ha descrito y analizado la bibliografía existente con respecto a los beneficios que la aplicación del análisis de supervivencia deriva en la dinámica del sistema financiero formal, posteriormente se ha propuesto un procedimiento metodológico que permita aplicar un análisis de supervivencia a una cartera de créditos hipotecario pertenecientes a una entidad financiera ecuatoriana, con el propósito de segmentarla e identificar situaciones internas y externas de cara a la definición de estrategias diferenciadas tanto para la concesión crediticia como para la gestión de cobranzas. Finalmente, se pretendió automatizar el análisis realizado a través de la programación en el software R y con ello facilitar la reproducción y parametrización del mismo de cara a su implementación como parte de las acciones de gestión y mitigación del riesgo de crédito asociado a la cartera hipotecaria analizada.2018-01-30T00:00:00ZMetodología para la caracterización multidimensional del empleo en el Ecuador
http://bibdigital.epn.edu.ec/handle/15000/18928
Título: Metodología para la caracterización multidimensional del empleo en el Ecuador
Autor: Obando Revelo, Carlos Iván
Resumen: Employment quality is a concept that does not have a definition universally accepted by a national or international literature, also there is no well defined a methodology that helps to characterize and quantify this employment quality, in terms of an index. The present master's thesis, from the perspective of Ecuadorian workers in the last five years before 2017, proposes a methodology that allows the characterization of workers based on a quality of employment index, calculated according to a set of incident Demographic and occupational variables, using categorical main component of analysis, based on data sources available from the National Institute of Statistics and Census (INEC). The results confirm that Ecuadorian workers in terms of quality of employment had their best year on 2014 and then experienced a significant drop in 2016. Finally, it is evident that workers in the provinces of Galapagos and Pichincha in their order, Are the ones that have the best quality of employment for several reasons, among the main ones, to be happy with their work, to have job stability and to have a very good income.
Descripción: En razón que la calidad del empleo es un concepto que no tiene una definición universalmente aceptada por la literatura nacional e internacional y en igual forma no hay una metodología bien definida que ayude a caracterizarla y cuantificarla en términos de un índice. La presente tesis de maestría desde la perspectiva que tienen los trabajadores ecuatorianos en los últimos cinco años anteriores al 2017, plantea una metodología que permite caracterizar a los trabajadores a partir de un índice de calidad del empleo calculado en función de un conjunto de variables incidentes de carácter demográfico y ocupacional, utilizando el análisis de componentes principales categórico, a partir de las fuentes de datos que dispone el Instituto Nacional de Estadística y Censos (INEC). Es así que los resultados confirman que los trabajadores ecuatorianos en términos de calidad del empleo, tuvieron como su mejor año al 2014 para luego experimentar una sensible baja en el 2016. Finalmente se evidencia que los trabajadores de las provincias de Galápagos y Pichincha en su orden, son los que tienen mejor calidad de empleo por varias razones, entre las principales, por estar contentos con su trabajo, tener estabilidad laboral y tener muy buenos ingresos.2017-11-17T00:00:00ZEvolución de la Entropía Durante la Transición Conformacional del Lazo 36 de la Hemaglutinina
http://bibdigital.epn.edu.ec/handle/15000/18859
Título: Evolución de la Entropía Durante la Transición Conformacional del Lazo 36 de la Hemaglutinina
Autor: Cajamarca Sacta, Kléver David
Resumen: The transition between the non-fusogenic and fusogenic conformations of loop 36 of the HA2 chain of Hemagglutinin has been studied using the trajectories of molecular dynamics simulations of the loop obtained in a previous work. The original analysis of the data was thouroughly revisited and diferent analytical techniques were used for its analysis. First, the clustering method was evaluated using the Euclidean distance between structures in Ramachandran space, instead of the RMSD, finding evidence of existence of additional intermediate conformations. Importantly, the so called quasi-harmonic approximation was used to estimate entropy. The values of entropy obtained, are in the order of 17 kcal/mol K, which are one order of magnitude higher than the results obtained in previous works. The free energy was estimated based on this improved calculation of the entropy, proving that the term -TS contributes in a non-negligible way to the free energy. The internal energy term was estimated using an ensemble average over the equilibration MD trajectories of each intermediate conformation, as a result the height of the energy barrier for the transition was estimated in 189.75 kcal/mol.
Descripción: La transición entre las conformaciones no-fusogénica y fusogénica del lazo 36 de la cadena HA2 de la Hemaglutinina ha sido estudiada utilizando las trayectorias de simulaciones de dinámica molecular obtenidas en un trabajo previo. El análisis original de los datos se revisó exhaustivamente y se utilizaron diferente técnicas analíticas para su análisis. Se evaluó el método de clustering utilizado utilizando como parámetro la distancia euclídea entre estructuras en el espacio de Ramachandran, en lugar del RMSD, encontrándose evidencia de la existencia de conformaciones intermedias adicionales. Para estimar la entropía se utilizó la llamada aproximación quasi-armónica. Los valores de entropía obtenidos, se encuentran en el orden de 17 kcal/mol K, los cuales son mayores en un orden de magnitud a los resultados obtenidos en trabajos anteriores. Se estimó la energía libre, a partir del cálculo mejorado de la entropía, comprobando que el término -TS contribuye de forma no despreciable a la energía libre. El término de energía interna, se estimó a partir del promedio sobre el ensamble, aplicado sobre las trayectorias de dinámica molecular de equilibración para cada conformación intermedia, como resultado la altura de la barrera energética para la transición se estimó en 189.75 kcal/mol.2017-10-24T00:00:00ZEstudio de la relación entre la distribución espacial de la actividad de iodo 131 y la distribución de intensidades en la imagen SPECT/CT correspondiente
http://bibdigital.epn.edu.ec/handle/15000/18759
Título: Estudio de la relación entre la distribución espacial de la actividad de iodo 131 y la distribución de intensidades en la imagen SPECT/CT correspondiente
Autor: Molineros Salgado, Carlos Daniel
Resumen: In this work, all the processes related to the formation of the image of a NEMA/IEC phantom with a Siemens Simbia Intevo Excel SPECT/CT scanner were simulated using Monte Carlo simulations. Based on these simulations a method that allows the determination of the tridimensional distribution of the activity inside the phantom from on its SPECT/CT images was developed. The first simulated process was the emission of photons from the voxelized phantom filled with known activites of iodine-131, the detection of this photons in the gamma camera’s detector crystals, and the image production. The projections obtained were corrected, reconstructed and fused to the tomographic images. The method developed was validated with an experimental setup equivalent to the simulated one. In the experiment each container in the phantom was loaded with 131I so that the activities were known for each image acquisition. From the comparison between the simulation and the experiment, it was concluded that the method developed is suitable for activities lower than 2mCi contained in volumes greater than the machine’s resolution volume (1800mm3), in these conditions the method has a estimation error lower that 10 %.
Descripción: En este trabajo, se simularon mediante métodos Monte Carlo todos los procesos relacionados a la formación de la imagen de un fan toma NEMA/IEC con un equipo SPECT/CT Siemens Symbian Intevo Excel. En base a estas simulaciones se desarrolló un método que permite determinar la distribución tridimensional de la actividad dentro del fan toma partiendo de sus imágenes SPECT/CT. En primer lugar se simulo la emisión de fotones desde el fan toma voxelizado cargado con actividades conocidas de 131I, su detección en los cristales de las gama cámaras y la producción de las imágenes que formaran las proyecciones. A partir de las proyecciones obtenidas, se realizó todo el proceso de corrección, reconstrucción y fusión para producir los cortes tomográficos propios de un estudio SPECT/CT. El método planteado en base a las simulaciones se validó mediante un montaje experimental equivalente al sistema simulado. En el experimento cada inserto del fan toma se cargó con 131I de modo que las actividades eran conocidas en cada adquisición de imagen. De la comparación realizada entre la simulación y el experimento se determinó que el método de estimación desarrollado es adecuado para actividades mayores a 2mCi contenidas en volúmenes mayores al volumen de resolución del equipo (1800mm3), en estas condiciones error de estimación es menor al 10 %.2017-09-04T00:00:00ZSatisfacción laboral del maestro y rendimiento académico en matemática de los estudiantes a partir de los factores asociados y sus notas utilizando las pruebas ser maestro re categorización y ser bachiller del año 2014
http://bibdigital.epn.edu.ec/handle/15000/18612
Título: Satisfacción laboral del maestro y rendimiento académico en matemática de los estudiantes a partir de los factores asociados y sus notas utilizando las pruebas ser maestro re categorización y ser bachiller del año 2014
Autor: López Ruano, Juan Carlos
Resumen: In this research study is shown the impact of the associated factors and the teacher’s satisfaction in the academic performance in Mathematics of the high school students of the last year of the year 2014. The information utilized comes from the tests: Be teacher re categorization and be high school graduated, provided from the National Institute of Educational Evaluation (Ineval). Based on the 961 teachers’ information, it is developed the structural equations models to construct a satisfaction index, and, with the simultaneous analyses units, the 223541 students and 3233 educative institutions the multilevel models are built up. To identify the influence of the teacher’s satisfaction in and last year high school students’ academic performance in mathematics, to the optimum multilevel model it is introduced the binary satisfaction variable constructed based on this index. In this study is identified that the teacher’s job satisfaction, determined by the associated factors, influences the student’s academic performance, and that does not affect the academic performance of itself. Finally, the conclusions and recommendations are given as an effort to improve the Ecuadorian Educative System.
Descripción: En este documento se muestra el impacto de los factores asociados y de la satisfacción del maestro en el rendimiento académico en Matemática de los estudiantes de Tercero de Bachillerato del año 2014. La información utilizada es de las pruebas Ser Bachiller y Ser Maestro re categorización, del Instituto Nacional de Evaluación Educativa (Ineval). Con información de 961 maestros, se desarrollan modelos de ecuaciones estructurales para construir un índice de satisfacción, y, con unidades de análisis simultáneo los 223541 estudiantes y las 3233 instituciones educativas, se construyen modelos multinivel. Para identificar la influencia de la satisfacción del maestro en el rendimiento académico en Matemática de los estudiantes de Tercero de Bachillerato, al modelo multinivel óptimo se le introduce la variable binaria satisfacción construida a partir del índice. Se obtuvo que la satisfacción laboral de los maestros determinada mediante los factores asociados influye en el rendimiento académico de los estudiantes, y que no incide en su propio rendimiento académico. Finalmente, se exponen las conclusiones y recomendaciones como aporte al mejoramiento del Sistema Educativo Ecuatoriano.2017-08-29T00:00:00ZModelo Estocástico de Cadenas de Markov Ocultas para el problema de quiebra de las empresas ecuatorianas, en un sector específico de la economía ecuatoriana
http://bibdigital.epn.edu.ec/handle/15000/17462
Título: Modelo Estocástico de Cadenas de Markov Ocultas para el problema de quiebra de las empresas ecuatorianas, en un sector específico de la economía ecuatoriana
Autor: Guzmán Garzón, Rody Oswaldo
Resumen: In the last few decades the financial turbulence have been manifested as: banking crises, sovereign debt crisis, external debt crisis, currency crises or crisis of inflation (James Gerber 2011), which have an impact on factors such as: external debt, stock exchanges, hifpeinflaciones, volatility in exchange rates, among other effects. In this article raises the need to analyze the financial collapse using a stochastic model of Hidden Marcov Chains by integrating it with the Altmant Model (1969), in order to project the financial statements in a given period T, subject to restrictions of an observable signal (portfolio delinquency index), which allows the bankruptcy of the moniotorear Ecuadorian banks. In the present study in first applied the model Altman , to determine the financial statements concerning the financial solvency of banks, in the second instance ran the model of Hidden Markov Chains to delineate the possible scenarios faced by banks in the future , subject to the restriction of the signal , which made it possible to establish the likelihood of the sequence of the Hidden Markov Chain by means of the algorithms Forward, and the Algorithm Viteri in such analysis.
Descripción: En la últimas décadas las turbulencias financieras se han manifiestan como: crisis bancarias, crisis de deuda soberana, crisis de deuda externa, crisis cambiarías o crisis de inflación (James Gerber 2011), las cuales inciden en factores como: deuda externa, bolsa de valores, hifpeinflaciones, volatilidad en los tipos de cambio entre otras afectaciones. En este artículo se plantea la necesidad analizar la quiebra financiera utilizando un modelo estocástico de Cadenas de Marcov Oculta integrándolo con el modelo Altmant (1969), a fin de proyectar los estados financieros en un período determinado t, sujeto a restricciones de una señal observable (índice de morosidad de cartera), lo que permite moniotorear la quiebra de los bancos Ecuatorianos. En el presente estudio en primera se aplicó el modelo Altman , para determinar los estados financieros referentes a la solvencia financiera de los bancos, en segunda instancia se ejecutó el modelo de Cadenas de Markov Ocultas para delinear los posibles escenarios que enfrentarán los bancos en el futuro , sujeta a la restricción de la señal , lo cual permitió establecer la probabilidad de la secuencia de la Cadena Markov Oculta por medio de los algoritmos Forward, y del Algoritmo Viteri en dichos períodos de análisis.2017-07-04T00:00:00ZA multigrid optimization approach for the numerical solution of a class of variational inequalities of the second kind
http://bibdigital.epn.edu.ec/handle/15000/17378
Título: A multigrid optimization approach for the numerical solution of a class of variational inequalities of the second kind
Autor: López Ordóñez, Sofía Alejandra
Resumen: In this thesis we introduce a Multigrid Optimization Algorithm (MG/OPT) for the numerical solution of a class of quasilinear variational inequalities of the second kind, which involve the p-Laplacian operator and the L1-norm of the gradient. This approach follows from the fact that the solution of the variational inequality is given by the minimizer of a nonsmooth energy functional, Therefore, we proposed a Huber
regularization of the functional and a finite element discretization for the problem. Further, we analyze the regularity of the discretized energy functional, and we are able to prove that its Jacobian is slantly differentiable. This regularity property is useful to analyze the convergence of the MG/OPT algorithm. In fact, we demostrate that the algorithm is global convergent by using the mean value theorem for slantly differentiable functions. Finally, we analyze the performance of the MG/OPT algorithm when used to simulate the visco-plastic flow of Bingham, Casson and Herschel-Bulkley fluids in a pipe. Several numerical experiments are carried out to show the main features of the proposed method.
Descripción: En esta tesis se introduce un Algoritmo de Optimización Multigrid (MG / OPT) para la solución numérica de una clase de desigualdades variacionales cuasilineales de la segundo tipo, que incluyen el operador p-Laplaciano y la norma L1 del gradiente. Este enfoque se deriva del hecho de que la solución de la desigualdad variacional está dada por el minimizador de un funcional de energía. Por lo tanto, hemos propuesto un proceso de regularización de Huber para el funcional y un esquema de elementos finitos para el problema. Además, se analiza la regularidad del funcional de energía discretizado. Esta propiedad de regularidad es útil para analizar la convergencia del algoritmo MG / OPT. De esta manera se prueba la convergencia global del algoritmo MG/OPT usando el teorema del valor medio para funciones con diferenciales generalizados. Finalmente, analizamos el desempeño del algoritmo MG / OPT para la simulación del flujo de fluidos visco-plásticos de Bingham, Casson y Herschel-Bulkley en una tubería. Varios experimentos numéricos son realizado para mostrar las principales características del método propuesto.2017-05-31T00:00:00ZOptimización binivel del parámetro de regularización con dependencia espacial del modelo de variación total generalizada para el filtrado de ruido en imágenes
http://bibdigital.epn.edu.ec/handle/15000/17377
Título: Optimización binivel del parámetro de regularización con dependencia espacial del modelo de variación total generalizada para el filtrado de ruido en imágenes
Autor: Herrera Terán, Maribel Kateryn
Resumen: In this thesis, we study and solve a nonlinear bilevel optimization problem in function spaces. The goal is to determine the optimal spatially dependent regularization parameters in total variation (TV) and generalized total variation (TGV) image denoising models. Considering the spatial dependence of the parameters allows us to filter non-uniform noise in an image, which brings us closer to real situations where the type and distribution of noise are not known. We present some analytical results like the existence of solutions of the problem of parameter optimization, the Fréchet differentiability of the solution operator, which allows to prove the existence of Lagrange multipliers. The multipliers associated with the positivity constraints are regular Borel measured which are very difficult to compute. In order to overcome this issue, we proposed a Moreau-Yosida regularization, where the optimality system associated with the regularized problem was established and we prove that the solutions of regularized problems converge to the solution of the original one.
Descripción: Nuestro objetivo es plantear y resolver un problema de optimización binivel no lineal en espacios funcionales, para determinar el valor óptimo de los parámetros con dependencia espacial del modelo de variación total (TV) y del modelo de variación total generalizada (TGV) para el filtrado de ruido en imágenes. El considerar la dependencia espacial de los parámetros nos permite filtrar ruido no uniforme en una imagen, lo que nos acerca más a situaciones reales donde no se conocen el tipo ni la distribución de ruido que puede cubrir información relevante. Los resultados analíticos que se presentan son la existencia de soluciones del problema de optimización de parámetros, la Fréchet diferenciabilidad del operador solución, lo que permite probar la existencia de multiplicadores de Lagrange. Se evidenció que los multiplicadores asociados a las restricciones de positividad son medidas, que computacionalmente hablando son muy costosas de implementar. Para superar esto se propusó introducir la regularización de Moreau-Yosida, donde se estableció el sistema de optimalidad asociado al problema regularizado y se mostró que las soluciones de los problemas regularizados convergen hacia la solución del problema original.2017-06-07T00:00:00ZSolución de un problema de asimilación de datos y un problema de localización óptima mediante métodos de optimización binivel
http://bibdigital.epn.edu.ec/handle/15000/17376
Título: Solución de un problema de asimilación de datos y un problema de localización óptima mediante métodos de optimización binivel
Autor: Castro Castro, Paula Monserratte
Resumen: Data assimilation problems have been widely studied in numerical weather prediction as a technique for the reconstruction of the atmosphere’s initial condition. Taking this problem as motivation, our goal in this project is finding the optimal placements of the locations of a data assimilation problem, represented by a parabolic equation. We worked in a bilevel optimization problem where the inner level solves the data assimilation problem, and the upper level solves the optimal placement problem. To solve the data assimilation problem, we used a variational approach 4DVAR. The existence and uniqueness of the data assimilation problem were demonstrated using usual techniques in optimization. By using the Lagrangian approach, we derive the optimality system of the inner problem. As result, we got an adjoint equation with measures on the right-hand side. This was due to the structure of the objective functional. We proved the existence of a unique very weak solution of the adjoint equation by using the transposition method. The numerical solution was also worked in two levels. The inner problem was solved by using the BFGS method while the upper level used the BFGS projected method through an estimation of active sets.
Descripción: Los problemas de asimilación de datos han sido ampliamente estudiados en la predicción numérica del tiempo y del clima, como una técnica para la reconstrucción del estado inicial de la atmósfera. Tomando este problema como motivación, la meta de este proyecto es encontrar la solución de un problema de localización óptima de ubicaciones en una ecuación parabólica, de tal manera que se reconstruya la condición inicial, es decir se resuelva un problema de asimilación de datos. Se consideró un modelo de optimización a dos niveles, donde el nivel inferior se encarga de la reconstrucción de la condición inicial del estado del sistema, mientras el nivel superior resuelve el problema de localización óptima de observaciones. Para resolver el problema de asimilación de datos se utilizó el enfoque variacional, específicamente el 4D-VAR. Se demostró la existencia y unicidad del problema de asimilación de datos utilizando técnicas usuales en optimización, mientras que para derivar el sistema de optimalidad se utilizó el enfoque Lagrangiano. La resolución numérica del problema fue desarrollada también en dos niveles. El problema de asimilación de datos se resolvió utilizando el algoritmo BFGS, mientras que el problema de localización óptima se utilizó el método del BFGS proyectado.2017-05-29T00:00:00ZRegularización de variación total generalizada para el problema mal condicionado de asimilación de datos
http://bibdigital.epn.edu.ec/handle/15000/17344
Título: Regularización de variación total generalizada para el problema mal condicionado de asimilación de datos
Autor: Loayza Romero, Karen Estefanía
Resumen: In this paper we study the second order total generalized variation (TGV) regularization applied to the well-known data assimilation problem using the Burgers equation as the state equation. It has been experimentally shown that the TGV regularization preserve the sharp fronts and recovers the solutions better compared to the TV regularization, mainly because it eliminates the staircase effect. We perform the derivation of the first order optimality conditions. For the numerical solution of the Burgers equation, a semi-implicit time discretization was performed and for the spatial variables the finite differences scheme with Upwinding was used for the first order spatial derivative. The solution of the problem was made using a globalized Newton method and for this method we show theoretical results that guarantee the convergence to stationary points of the problem. The numerical experiments section is devoted to show the way each regularization recover the solutions. In particular, we show the staircase effect produced by the TV regularization and the way how the TGV regularization eliminates it.
Descripción: En este trabajo estudiamos la regularización de variación total generalizada de segundo orden (TGV) aplicada al problema de asimilación de datos variacional usando la ecuación de Burgers como ecuación de estado. Para la regularización TGV se ha mostrado experimentalmente que conserva los puntos de discontinuidad de las funciones y las reconstruye de mejor manera comparado con la regularización de variación total, debido a que elimina el efecto de escalonamiento. Realizamos la derivación de las condiciones de optimalidad de primer orden. Para la resolución numérica de la ecuación de Burgers se realizó una discretización semi-implícita para las variables temporales y para las variables espaciales se usó el esquema de diferencias finitas con Upwinding para la discretización de la primera derivada espacial. La solución del problema se realizó con un método de Newton globalizado. Mostraremos, además resultados teóricos que garantizan la convergencia a puntos estacionarios del problema. La sección de experimentos numéricos está dedicada a mostrar la manera en la que las diferentes regularizaciones reconstruyen las soluciones. En particular mostraremos el efecto de escalonamiento producido por la regularización TV y la manera en la que la regularización TGV elimina dicho efecto.2017-05-29T00:00:00ZAnálisis de supervivencia aplicado a las entidades del sector financiero popular y solidario en el período 2012 - 2015
http://bibdigital.epn.edu.ec/handle/15000/17100
Título: Análisis de supervivencia aplicado a las entidades del sector financiero popular y solidario en el período 2012 - 2015
Autor: Paguay Quizhpe, Diana Elizabeth
Resumen: This study aims to identify the determinants financial factors that lead to a credit union to the financial infeasibility and consequently forced liquidation, for which survival analysis will be used under methodologies Kaplan Meier and Cox proportional hazards. The data used correspond to the financial information reported by the active entities of the five segments in the period 2012 - 2015 and that did not have the event study. The results of this model will provide important information for the credit unions and for control entities as an early warning methodology that will allow establishing control strategies and corrective and timely preventive measures to avoid an entity to present financial infeasibility, contributing thus the stability of the sector and strengthen it as part of the country's economy.
Descripción: El presente estudio tiene como finalidad identificar los factores financieros determinantes que conducen a una cooperativa de ahorro y crédito a la inviabilidad financiera y en consecuencia a la liquidación forzosa, para lo cual se utilizará el análisis de supervivencia, bajo las metodologías de Kaplan Meier y el modelo de riesgo proporcional de Cox. Los datos utilizados corresponden a la información financiera reportada por las entidades activas de los cinco segmentos en el período 2012 – 2015 y que a la fecha de análisis no presentaban el evento de estudio. Los resultados de este modelo proporcionará información transcendental para las entidades así como para los Organismos de Control como una metodología de alerta temprana que permitirá establecer estrategias de control y medidas correctivas y preventivas oportunas para evitar que una entidad presente inviabilidad financiera, contribuyendo de esta manera a la estabilidad del sector y al fortalecimiento del mismo como parte de la economía del país.2017-02-10T00:00:00ZIdentificación de modelos de negocios bancarios, a partir del análisis de conglomerados: Una aplicación al caso de Ecuador
http://bibdigital.epn.edu.ec/handle/15000/16898
Título: Identificación de modelos de negocios bancarios, a partir del análisis de conglomerados: Una aplicación al caso de Ecuador
Autor: Naranjo Orozco, María Lorena
Resumen: The aim of this research is identify the banking business models in Ecuador, to improve the risk evaluation banks, through the cluster analysis and find differences between risk exposition and revenue variables. To identify the clusters we applied main hierarchical cluster methods, for choose Ward method, with Euclidean distance over time from 2008 to 2014. To assess the business model, used variables that describe the main factors determine a banks’ general approach towards business: origin and type of the funding necessary to maintain operations, approach toward risk and source of revenues. The results show four business model for Ecuadorian industry bank: Commercial Wholesale Bank, Commercial Retail Bank, Development Banks, and Specialized Banking. There is stability in each cluster over the period. The revenues and risk indicators shows differences between the clusters. The most profitable banks are the Commercial Wholesale Bank, the bank with highest default ratio are the Development Banks, by the side the most liquidity banks are the Development Banks.
Descripción: El objetivo del presente trabajo es identificar los modelos de negocios bancarios que operan en Ecuador, esta caracterización de la actividad bancaria constituye una herramienta para mejorar la evaluación de los riesgos que enfrentan este tipo de instituciones. La técnica utilizada corresponde al análisis de conglomerados, que permite identificar grupos para determinar sus diferencias según la exposición al riesgo y el rendimiento de las instituciones bancarias durante el periodo 2008-2014. Para la identificación de los conglomerados se aplicaron los principales métodos jerárquicos, de los cuales el método elegido fue el de Ward y se aplicó la distancia euclidiana. Las variables relevantes para el análisis propuesto corresponden a las fuentes de financiamiento, ingresos y el riesgo de cada institución. Los resultados obtenidos pueden resumirse en tres aspectos: (i) la industria bancaria ecuatoriana puede dividirse en cuatro conglomerados: Banca Comercial Mediana de Financiación Minorista, Banca Comercial Grande de Financiación Minorista, Banca de Desarrollo y Banca Especializada; (ii) para la totalidad de los bancos, en cada grupo, existe estabilidad temporal de los conglomerados; y, (iii) los indicadores de rendimiento y de riesgo muestran las diferencias entre grupos, en especial los bancos más rentables corresponden a la Banca Comercial Grande de Financiación Minorista, mientras que los bancos con mayor riesgo de crédito son los Bancos de Desarrollo, aunque estos últimos tendrían una mejor posición de solvencia así como también la mejor posición de liquidez.2016-11-16T00:00:00ZAplicación de búsquedas Tabú y Grasp para la resolución de un problema de calendarización de horarios de clase en universidades
http://bibdigital.epn.edu.ec/handle/15000/16682
Título: Aplicación de búsquedas Tabú y Grasp para la resolución de un problema de calendarización de horarios de clase en universidades
Autor: Añazco Maldonado, Marco Vinicio; Chávez Antón, Howard Lizardo
Descripción: Esta investigación tiene como finalidad encontrar una solución adecuada al problema de programación de horarios de clases en un tiempo razonable, en la Carrera de Ingeniería en Desarrollo de Negocios Bilingüe (Ingeniería de Emprendedores) de la Facultad de Especialidades Empresariales de la Universidad Católica de Santiago de Guayaquil (UCSG), mediante las metaheurísticas BúsquedaTabú y GRASP. Originalmente, la estructura de horarios de clases, se realiza de forma manual por parte de la coordinación de la carrera, trabajo que toma aproximadamente dos semanas hasta encontrar un horario que satisfaga las condiciones requeridas para la ejecución del mismo.
Debido a los tiempos excesivos de estructuración de horarios y el esfuerzo adicional del recurso humano, se decide plantear algoritmos metaheurísticos que permitan encontrar una solución tomando en consideración todos los requerimientos de la carrera. En este trabajo de tesis, encontramos soluciones mediante la Programación Lineal Entera y las metaheuristicas Tabú Search y GRASP. Además se realiza una comparación de los resultados obtenidos en cada caso.2016-06-30T00:00:00ZConstrucción de un score de crédito de aprobación para un sector económico de una institución financiera ecuatoriana
http://bibdigital.epn.edu.ec/handle/15000/16543
Título: Construcción de un score de crédito de aprobación para un sector económico de una institución financiera ecuatoriana
Autor: Pucha Cofrep, Talia Yessenia
Resumen: In this work a methodology was developed to construct an approval credit score for consumer credits acquired in commercial firms with the financial institution who has an agreement, through generalized linear models (GLM) considering the heterogeneity of the information, which is made discretizing the explicative continuous and discrete variables through the application of the generalized additive models. These models generalize the classic models because they give a larger variety of distributions to the response variable, and no necessary the normal as in most of the classic cases; but rather is possible to try the adjust of a model with different distributions without the need of realize some modifications on the data. Besides, they also allow establishing a relationship between the dependent variable and the linear combination of predictors through an adequate function of the expected response variable. Therefore, the generalized linear model developed in this study improves the predictive ability of the good/bad client type, based on the heterogeneity of the information given by the discretization of continuous and discrete variables, which contribute to generate new credit policies, and thus, to reduce the bad portfolio.
Descripción: En el presente trabajo se desarrolló una metodología para la construcción de un score de crédito de aprobación para créditos de consumo adquiridos en las casas comerciales con las que la institución financiera tiene convenio, mediante modelos lineales generalizados (GLM) considerando la heterogeneidad de la información, lo que se realiza discretizando las variables continuas y discretas explicativas mediante la aplicación de modelos aditivos generalizados. Estos modelos generalizan los modelos clásicos porque dan una mayor variedad de distribuciones para la variable respuesta, y no necesariamente la normal como en los casos tradicionales, permitiendo el ajuste de un modelo con diferentes distribuciones sin necesidad de realizar alguna modificación en los datos. Además, permiten establecer una relación entre la variable dependiente y la combinación lineal de predictores a través de una función adecuada del valor esperado de la variable respuesta. Por lo tanto, el modelo lineal generalizado desarrollado en este estudio mejora la capacidad predictiva del tipo de cliente bueno/malo, a partir de la consideración de la heterogeneidad de la información dada por la discretización de las variables continuas y discretas, lo cual contribuye a generar nuevas políticas de crédito y, por ende, a disminuir la cartera mala.2016-03-14T00:00:00ZEvaluación de la vulnerabilidad sísmica de las edificaciones de la ciudad de Quito – Ecuador y riesgo de pérdida
http://bibdigital.epn.edu.ec/handle/15000/16537
Título: Evaluación de la vulnerabilidad sísmica de las edificaciones de la ciudad de Quito – Ecuador y riesgo de pérdida
Autor: Chávez Ordóñez, Blanca Adriana
Resumen: In the present study, an analysis of seismic vulnerability and risk of loss in buildings of the city of Quito, it’s developed in the occurrence of a seismic event. A representative sample is taken of the Historic Center of Quito, since its buildings include the different typology of construction of the entire city. In this analysis methodologies tested in Europe and the United States like HAZUS and PERPETUATE are used, as well as models developed in Ecuador for determining capacity curves, fragility curves, performance points, and maximum floor drifts are used. In the sample of 2606 buildings in the Historic Center of Quito the HAZUS methodology was applied to classify. Once classified the principle of similarity to the project PERPETUATE is used for the typology of masonry bearing. As a result is obtained that, during a disastrous event, these buildings will suffer damage. For the typology of reinforced concrete is used to HAZUS methodology adapted to Ecuador. The curves of capacity, performance points and floor drifts are used. With these, the fragility curves are accesed to define the percentage of damage and finally know the vulnerability of these buildings.
This concludes that the City of Quito has a high degree of vulnerability, not only by the characteristics of the soil and its failures, but also by the way it is designed and constructed. The results obtained are inconclusive and are susceptible to be improved in terms of available technology.
Descripción: Se desarrolla un análisis de vulnerabilidad sísmica y riesgo de pérdida en las edificaciones en Quito, ante la ocurrencia de un evento sísmico. Como muestra representativa se toma el Centro Histórico, pues sus edificaciones comprenden las diferentes tipologías de construcción. Se utilizan metodologías probadas en Europa y Estados Unidos como HAZUS y PERPETUATE, y modelos desarrollados en Ecuador para la determinación de curvas de capacidad y fragilidad, puntos de desempeño y derivas máximas de piso. La muestra (2606 edificaciones) se clasifica con la metodología HAZUS. Para mampostería portante se utiliza el principio de similitud con el proyecto PERPETUATE. Como resultado se obtiene que, ante un evento desastroso, estas edificaciones sufrirían daño. Para la tipología de hormigón armado, se aplica la metodología HAZUS adaptada a Ecuador. Se calculan curvas de capacidad, puntos de desempeño y derivas de piso. Estos datos acceden a curvas de fragilidad que definen porcentajes de daño y vulnerabilidad. La ciudad de Quito tiene un alto grado de vulnerabilidad, no solo por las características propias del suelo y sus fallas, sino también, por la forma en que se diseña y construye. Los resultados no son concluyentes y son susceptibles de ser mejorados en función de la tecnología disponible.2016-07-20T00:00:00ZAnálisis de datos funcionales aplicado a la distribución de la población ecuatoriana
http://bibdigital.epn.edu.ec/handle/15000/15776
Título: Análisis de datos funcionales aplicado a la distribución de la población ecuatoriana
Autor: Naula Reina, Iván Cristian
Resumen: This document presents the application of Functional Analysis to the usual and Multivariate Statistics by means of Funtional Data Analysis (FDA) in particular, the Functional Principal Componentes Analysis (FPCA), which describes the behavior from 2010 to 2020 of the Ecuadorian population by age represented in two main components. The data used for this study are the population projections made by INEC from Population and Housing 2010 Census; This projection is dissaggregated by age and sex for the 24 provinces of Ecuador.
Descripción: En el presente documento se muestra la aplicación del Análisis Funcional a la Estadística habitual y Multivariante mediante el Análisis de Datos Funcionales (ADF) en particular, el Análisis de Componentes Principales Funcionales (ACPF), con el cual se describe el comportamiento de la población ecuatoriana por estructura de edad representada en dos componentes principales. Los datos utilizados para este estudio son las proyecciones de población realizada por el INEC a partir del Censo de Población y Vivienda 2010; esta proyección está desagregada por edad y sexo para las 24 provincias del Ecuador.2016-05-25T00:00:00ZAplicaciones de nuevas metodologías para el monitoreo multivariado del rendimiento estudiantil utilizando gráficos de control y sistemas umbral
http://bibdigital.epn.edu.ec/handle/15000/15147
Título: Aplicaciones de nuevas metodologías para el monitoreo multivariado del rendimiento estudiantil utilizando gráficos de control y sistemas umbral
Autor: Saltos Segura, Guido Washington
Resumen: This work uses the data depth concept and the non-parametric control chart: r which was developed by Regina Liu, for monitoring, in this case, student performance in a set of subjects in an educative institution during certain time. Methodology used requires a reference set obtained from results themselves instead of using ideal standards. This reference set is used for control chart calibration and then for monitoring subsequent data. The data depth concept allows the creation of a univariate index, in this case, from two variables, for generating an in-out ordering of the data cloud, being the most central point (observation) the deepest one. Posterior calculation of rank using data depth is the foundation of control chart r.
Descripción: Este trabajo usa el concepto de profundidad de datos así como la carta de control no paramétrica r desarrollada por Regina Liu, para monitorear el desempeño estudiantil en un grupo de materias en una institución educativa en un período determinado de tiempo. La metodología usa un conjunto de referencia obtenido de los resultados mismos en lugar de estándares ideales. Este conjunto de referencia sirve para calibrar la carta de control y así monitorear datos subsecuentes. El concepto de profundidad de datos permite crear un índice univariado a partir, en este caso de dos variables, para generar un ordenamiento de “adentro” hacia “afuera” de la nube de puntos, siendo el punto más central el de mayor profundidad. El posterior cálculo del rango a partir de las profundidades es la base de la carta r.2016-04-05T00:00:00ZFenómenos críticos en datos de precipitación lluviosa intensa detectados con radar y microondas, en la zona de influencia del Fenómeno del Niño sobre el Ecuador, en el período 2009-2012
http://bibdigital.epn.edu.ec/handle/15000/14107
Título: Fenómenos críticos en datos de precipitación lluviosa intensa detectados con radar y microondas, en la zona de influencia del Fenómeno del Niño sobre el Ecuador, en el período 2009-2012
Autor: Serrano Vincenti, María Sheila Fabiola
Resumen: The present work shows with high accuracy data, and under the influence of El Niño Southern Oscillation (ENSO) the presence of a continuous phase transition in heavy precipitation. Were used rainfall and water vapor satellite data from TRMM detected with radar and microwaves over the Central Pacific Ocean region known as Niño 3.4 (of 4.8 x 106 km2), with a spatial resolution of 5 km and every 1.6 seconds for four years (from 2009-2012). Characteristics such as scalability, universal exponents, system susceptibility and self-organized criticality were analyzed. The results shown a behavior consistent with the theory of continuous phase transition from a state of light rain heavy rain to another, passing through a critical value of water vapor, although a slight correction on the reported exponents was found. Finally, we conclude that this theory improves the understanding of the atmospheric system, usually studied from fluid dynamics; because of its nonlinearity, reflects its unpredictable nature, especially in the case of this complex events like heavy rain.
Descripción: El presente trabajo muestra con datos de alta precisión, y bajo los efectos del Fenómeno del Niño (ENSO) la presencia de una transición de fase continua en la precipitación intensa. Se utilizaron datos de lluvia y vapor de agua del satélite TRMM detectados con radar y microondas, sobre la región del Océano Pacífico Central conocida como Niño 3.4 (de 4.8x106 Km2), con una resolución espacial de 5 km y cada 1.6 segundos durante cuatro años (de 2009 a 2012). Sobre los datos obtenidos, se analizaron características como la escalabilidad, exponentes universales, susceptibilidad del sistema y criticalidad auto-organizada. Los resultados muestran un comportamiento compatible con la teoría de la transición de fase continua desde un estado de lluvia ligera a otro de lluvia intensa, al atravesar un valor crítico de vapor de agua, aunque se encontró una ligera corrección sobre los exponentes reportados. Finalmente, se concluye que esta teoría mejora la comprensión del sistema atmosférico, generalmente estudiado desde la dinámica de fluidos; que debido a su no linealidad, evidencia su naturaleza difícil de predecir, sobretodo en el caso de eventos tan complejos como el de la lluvia intensa.2016-01-25T00:00:00ZDesarrollo de un procedimiento par la rectificación de matrices en tornos CNC utilizando sistemas CAD/CAM y su aplicación para solucionar un problema industrial
http://bibdigital.epn.edu.ec/handle/15000/13133
Título: Desarrollo de un procedimiento par la rectificación de matrices en tornos CNC utilizando sistemas CAD/CAM y su aplicación para solucionar un problema industrial
Autor: Suasti Salazar, José Ricardo
Descripción: El objetivo del presente trabajo es desarrollar un procedimiento mediante la utilización de nuevas tecnologías para resolver un problema particular, como lo es la rectificación de matrices para la fabricación de tubería.En base a esta necesidad se investigó para buscar alternativas de especificaciones técnicas sobre máquinas CNC que se adaptarían al requerimiento, pero sin descuidar la variable precio, luego que se decidió adquirir el torno CNC más adecuado a las necesidades de la Empresa, se tenía otro parámetro que se debía tomar en cuenta y es la dureza de las matrices. Para llevar a cabo este objetivo se investigó, cual es el material más adecuado para la herramienta de corte, porque la dureza de la matricería es de 60 HRc, llegando a concluir que debía ser plaquitas de cerámica. Con la implementación de esta innovación tecnológica se obtuvo excelentes resultados porque a más de resultar un problema latente en la industria, se consiguió la disminución de costos de producción que era el objetivo principal de este estudio, lo que a la Empresa le permitió ser más competitiva. Aplicando nuevas tecnologías que existen en otros países a nuestras necesidades podemos solucionar problemas puntuales de importancia de manera rápida y eficiente. Lo que nos permite aumentar la productividad con calidad y ser más competitivos en este mundo globalizado.2006-01-01T00:00:00ZMetodología para la obtención de un modelo de cobranza de créditos masivos. Desarrollo y obtención de un modelo de score.
http://bibdigital.epn.edu.ec/handle/15000/12936
Título: Metodología para la obtención de un modelo de cobranza de créditos masivos. Desarrollo y obtención de un modelo de score.
Autor: Vargas Lara, Diego Oriol
Resumen: The permanent growth of consumption in Ecuador has increased the supply of credit in different business lines generating the increase of consumer indebtedness in some sectors, which has hampered the recovery of capital by credit originators, which have delegated the responsibility of collection to specialized companies to manage and recover their portfolio. This increase in volume requires collection companies to optimize their resources to recover as much capital as quickly as possible, so that the implementation of a conceptual model of management is necessary, as well as the development of statistical models for determining the likelihood of recovering the credit obligation. This paper describes the characteristics of the management model and development of a behavioral scoring model, applied to optimize business resources and improve the results of recovery.
Descripción: La evolución del consumo en el Ecuador, ha permitido que la oferta de crédito en diferentes líneas de negocio se masifique, generando en algunos sectores el sobre endeudamiento de los consumidores, lo que ha dificultado la recuperación del capital por parte de las originadoras de crédito, que han delegado la responsabilidad a empresas de Cobranzas para que gestionen y recuperen su cartera. Este incremento de volúmenes obliga a las empresas de cobro a optimizar sus recursos para poder recuperar la mayor cantidad del capital en el menor tiempo posible, por lo que se hace necesario la implementación de un modelo conceptual de gestión, así como también el desarrollo de modelos estadísticos que permitan determinar la probabilidad de recuperar la obligación crediticia. Este trabajo describe las características del modelo de gestión y el desarrollo de un modelo de scoring de comportamiento, aplicado con el fin optimizar los recursos de la empresa y mejorar los resultados de la recuperación.2015-09-14T00:00:00ZModelo de suficiencia de capital utilizando una medida de concentración para la cartera de crédito comercial de una institución financiera
http://bibdigital.epn.edu.ec/handle/15000/12555
Título: Modelo de suficiencia de capital utilizando una medida de concentración para la cartera de crédito comercial de una institución financiera
Autor: Lema Bejarano, Víctor Fernando
Resumen: This study aims to determine the appropriate concentration level for segments of commercial loans and obtain a sufficiency of capital allocated to the risk level of the segments in order to maintain solvency at Institution by limits concentration the same should not be static if not dynamic as the growth of the institution and maintain prudential provisions to address credit risk optimally, ie without provisioning nothing less but the suitability and identify segments with risk levels elevated to propose mitigations to these risks and maintain adequate credit risk management.
Descripción: Básicamente el presente estudio se orienta a determinar el nivel de concentración adecuada para los segmentos de la cartera de crédito comercial y obtener una suficiencia del capital asignado al nivel de riesgo de los segmentos con el fin de mantener la solvencia en el Institución mediante límites de concentración los mismo que no deben ser estáticos si no dinámicos conforme al crecimiento de la Institución y mantener provisiones prudenciales para afrontar el riesgo de crédito de manera óptima, es decir sin provisionar ni más ni menos sino lo adecuado e identificar segmentos con niveles de riesgo elevados para proponer mitigaciones a estos riesgos y mantener una adecuada administración de riesgo de crédito.2015-09-21T00:00:00ZEstimación de curvas de rendimiento para activos de renta fija en el mercado ecuatoriano. Aplicaciones en el Instituto Ecuatoriano de Seguridad Social (IESS)
http://bibdigital.epn.edu.ec/handle/15000/12002
Título: Estimación de curvas de rendimiento para activos de renta fija en el mercado ecuatoriano. Aplicaciones en el Instituto Ecuatoriano de Seguridad Social (IESS)
Autor: Lara Capa, Karina Maribel
Resumen: The present study was planned with the objective of defining an appropriate methodology for managing the fixed income investments in the Ecuadorian market. Its proper managementh as a vital importance to all investors in the country; in particular, to protect the interests of members of the Ecuadorian Institute of Social Security. This leads to determine more precisely whether the yields offered for the investments of the IESS bankare convenient, for which it’s necessary to build yield curves according to the type and the asset risk involved, which will serve to select the investments efficiently. The BIESS manages an investments portfolio that represents the greater part of the country’s financial market, and it analyzes its investments with the adjustment of the functions that are developed with the Excel utilitarian that does not necessarily reflect accurately the actual performance of the yield curves of the investments. To estimate yield curves, the most important methodologies as Nelson and Siegel, Svensson and Splines are used in the Word, specially in neighboring countries us Colombia. These methodologies are contrasted with the one most commonly used in the BIESS.
Descripción: El presente estudio fue planteado con el objetivo de definir una metodología apropiada para manejar las inversiones de renta fija en el mercado ecuatoriano. El adecuado manejo es de vital importancia para todos los inversionistas de país; en particular, para resguardar los intereses de los afiliados del Instituto Ecuatoriano de Seguridad Social. Esto conlleva a determinar en forma más precisa si los rendimientos ofertados para las inversiones que llegan al Banco del IESS son convenientes, para lo cual es necesario construir curvas de rendimiento de acuerdo al tipo y riesgo del activo involucrado, que servirán para seleccionar eficientemente las inversiones. El BIESS maneja un portafolio de inversiones que representa la mayor parte del mercado financiero del país y analizan sus inversiones con el ajuste de funciones básicas que se elaboran con el utilitario de Excel que no necesariamente reflejan adecuadamente el comportamiento real de las curvas de rendimiento de las inversiones. Para la estimación de las curvas de rendimiento se utilizan las más importantes metodologías como son: las de Nelson y Siegel, la de Svensson y las funciones Splines, conocidas a nivel mundial y aplicadas también en países vecinos como Colombia. Se contrastan estas metodologías con aquella que más se usa en el BIESS.2015-10-12T00:00:00ZAplicación de la Teoría de Cópulas en modelos de riesgo de crédito: Determinación y análisis del Valor en Riesgo y Pérdida Esperada en la Cola
http://bibdigital.epn.edu.ec/handle/15000/11959
Título: Aplicación de la Teoría de Cópulas en modelos de riesgo de crédito: Determinación y análisis del Valor en Riesgo y Pérdida Esperada en la Cola
Autor: Andrade Cóndor, Felipe Alexander
Resumen: This paper is an application of the theory of copulas to a loan portfolio, to know its dependence structure and estimate financial risk indicators. For the application first, the univariate marginal distributions were estimated from the default rate and the amount of exposure based on historical information, then copulas were built. Finally with these two inputs Sklar's theorem was applied by means of the construction of models of Multivariate Copula Distributions and scenario generation. The results indicate that using 99.5% confidence level the portfolio can present a Maximum Loss of $ 21,423,543.99 over a period of 30 days. Under normal market conditions, within the same confidence level in onemonth period, the maximum loss that can present the portfolio is $ 18,649,516.91 (Credit VaR). Modifying some factors and market conditions worsen, once the maximum loss was overcome, the expected loss after the Credit VaR, ie. the Expected Shortfall can reach a value of $ 21,487,961.16 at 99.50% confidence. Comparing the results of the theory of copulas with other methodologies shows that the indicators do not use this theory underestimate the results and extreme events.
Descripción: En este artículo se presenta una aplicación de la teoría de cópulas a un portafolio de crédito, para conocer su estructura de dependencia y estimar indicadores de riesgo financiero. Para la aplicación primero se estimaron las distribuciones marginales de las distribuciones univariadas de la tasa de incumplimiento y del monto de exposición en base a la información histórica; luego se construyeron las cópulas, y por último con estos dos insumos se aplicó el Teorema de Sklar por medio de la construcción de Modelos de Distribuciones Multivariadas de Cópulas y la generación de escenarios. Los resultados indican que, al 99,5% de confianza, el portafolio analizado puede presentar una pérdida máxima de 21.423.543,99 USD en un período de 30 días. En condiciones normales de mercado, en un mes al mismo nivel de confianza, la máxima pérdida que puede presentar el portafolio es 18.649.516,91 USD (Credit VaR). De modificarse algún factor y empeorarse las condiciones de mercado, la Pérdida Esperada en la Cola puede alcanzar un valor de 21.487.961,16 USD al 99,50% de confianza. Comparando los resultados de la Teoría de Cópulas con los de otras metodologías, se demuestra que los indicadores que no utilizan ésta teoría subestiman los resultados y eventos extremos.2014-01-01T00:00:00Z