Filtros
Filtrar por:
Tipo de publicación
- Artículo (36)
- Objeto de congreso (24)
- Tesis de maestría (6)
- Libro (5)
- Capítulo de libro (5)
Autores
- Jelle Van Loon (9)
- Tek Sapkota (6)
- ML JAT (4)
- Paresh Shirsath (4)
- Paswel Marenya (4)
Años de Publicación
Editores
- CICESE (3)
- Universidad Autónoma Metropolitana (México). Unidad Azcapotzalco. Coordinación de Servicios de Información. (3)
- Universidad Autónoma Metropolitana (México). Unidad Azcapotzalco, División de Ciencias y Artes para el Diseño, Departamento de Evaluación del Diseño en el Tiempo. (2)
- El Colegio de San Luis, A.C. (1)
- Elsevier (1)
Repositorios Orígen
- Repositorio Institucional de Publicaciones Multimedia del CIMMYT (67)
- Repositorio Institucional Zaloamati (6)
- Repositorio Institucional CICESE (3)
- Repositorio COLSAN (2)
- CIATEQ Digital (1)
Tipos de Acceso
- oa:openAccess (82)
Idiomas
Materias
- CIENCIAS AGROPECUARIAS Y BIOTECNOLOGÍA (68)
- CLIMATE CHANGE (16)
- AGRIFOOD SYSTEMS (12)
- FOOD SYSTEMS (10)
- MAIZE (10)
Selecciona los temas de tu interés y recibe en tu correo las publicaciones más actuales
Juan Pablo Carmona Almazán (2023, [Tesis de maestría])
En el tratamiento de enfermedades, la administración de dosis múltiples es una estrategia común para mantener la concentración de los fármacos dentro de un margen terapéutico. Sin embargo, la adherencia de los pacientes a este tipo de tratamiento puede ser un desafío, llevando a una administración irregular de dosis. Una alternativa utilizada para abordar este reto son las nanopartículas híbridas polímero/lípido(NPPLs), las cuales, con menos administraciones, tienen el potencial de alcanzar la dosis necesaria en el tratamiento, posibilitando entonces el incremento del apego al tratamiento. En nuestro proyecto, se llevó a cabo la síntesis de nanopartículas de ácido poli láctico-co-glicólico (PLGA) recubiertas de lecitina de soya, por medio de técnicas de nanoprecipitación y autoensamblaje. Además, integramos estas nanopartículas en una matriz polimérica a base de aerogeles de gelatina de manera que estuvieran distribuidas de manera homogénea y concentrada. Nuestro enfoque central radica en entender la cinética de liberación de un compuesto hidrofílico (ácido gálico) y uno lipofílico (quercetina) a partir de este sistema. Logramos sintetizar nanopartículas con un diámetro hidrodinámico de 100 ± 15 nm, 153 ± 33 y149±21 nm, en el caso de las nanopartículas vacías y cargadas con ácido gálico y cargadas con quercetina, respectivamente. La eficiencia de encapsulación del ácido gálico fue del 90 ± 5 % y de la quercetina fue del 70 ± 10 %. Los resultados que obtuvimos muestran que el ácido gálico sigue una cinética del modelo de Korsmeyer-Peppas, con un valor de n = 1.01 y la quercetina una cinética de primer orden. Dado que los compuestos encapsulados tuvieron una liberación más lenta con respecto a los compuestos libres en los aerogeles de gelatina, nuestro trabajo indica que el encapsulamiento en NPPLs de un compuesto bioactivo, independientemente de su naturaleza química, puede ayudar a retrasar su liberación y reducir el número de dosis administradas, en consecuencia, esto pudiera contribuir a incrementar el apego de un paciente al tratamiento.
In the treatment of diseases, the administration of multiple doses is a common strategy to maintain drug concentrations within a therapeutic range. However, patient adherence to this type of treatment can be challenging, resulting in irregular dosing. An alternative approach used to address this challenge involves polymer/lipid hybrid nanoparticles (NPPLs), which have the potential to achieve the necessary drug dose with fewer administrations, thereby increasing treatment adherence. In our project, we synthesized poly(lactic-co-glycolic acid) (PLGA) nanoparticles coated with soy lecithin using nanoprecipitation and self-assembly techniques. These nanoparticles were then integrated into a polymer matrix based on gelatin aerogels to ensure homogeneous and concentrated distribution. Our main focus was to understand the release kinetics of a hydrophilic compound (gallic acid) and a lipophilic one (quercetin) from this system. We successfully synthesized nanoparticles with a hydrodynamic diameter of 100 ± 15 nm, 153 ± 33 nm, and 149 ± 21 nm for empty nanoparticles, gallic acid-loaded, and quercetin-loaded nanoparticles, respectively. The encapsulation efficiency was 90 ± 5 % for gallic acid and 70 ± 10 % for quercetin. The results we obtained indicate that gallic acid follows Korsmeyer-Peppas kinetics with a value of n = 1.01, while quercetin exhibits first-order kinetics. Since the encapsulated compounds showed slower release compared to free compounds in gelatin aerogels, our work suggests that encapsulation in NPPLs with a bioactive compound, regardless of its chemical nature, can help delay its release and reduce the number of doses administered. Consequently, this could contribute to improve patient treatment adherence.
nanopartículas híbridas, cinética de liberación, sistemas poliméricos, PLGA/lecitina, compuestos hidrofílicos y lipofílicos hybrid nanoparticles, release kinetics, polymeric systems, PLGA/lecithin, hydrophilic and lipophilic compounds INGENIERÍA Y TECNOLOGÍA CIENCIAS TECNOLÓGICAS INGENIERÍA Y TECNOLOGÍA QUÍMICAS ANÁLISIS DE POLÍMEROS ANÁLISIS DE POLÍMEROS
Control de sistemas usando aprendizaje de máquina
Systems control using machine learning
Jesús Martín Miguel Martínez (2023, [Tesis de maestría])
El aprendizaje por refuerzo es un paradigma del aprendizaje de máquina con un amplio desarrollo y una creciente demanda en aplicaciones que involucran toma de decisiones y control. Es un paradigma que permite el diseño de controladores que no dependen directamente del modelo que describe la dinámica del sistema. Esto es importante ya que en aplicaciones reales es frecuente que no se disponga de dichos modelos de manera precisa. Esta tesis tiene como objetivo implementar un controlador óptimo en tiempo discreto libre de modelo. La metodología elegida se basa en algoritmos de aprendizaje por refuerzo, enfocados en sistemas con espacios de estado y acción continuos a través de modelos discretos. Se utiliza el concepto de función de valor (Q-función y función V ) y la ecuación de Bellman para resolver el problema del regulador cuadrático lineal para un sistema mecánico masa-resorte-amortiguador, en casos donde se tiene conocimiento parcial y desconocimiento total del modelo. Para ambos casos las funciones de valor son definidas explícitamente por la estructura de un aproximador paramétrico, donde el vector de pesos del aproximador es sintonizado a través de un proceso iterativo de estimación de parámetros. Cuando se tiene conocimiento parcial de la dinámica se usa el método de aprendizaje por diferencias temporales en un entrenamiento episódico, que utiliza el esquema de mínimos cuadrados con mínimos cuadrados recursivos en la sintonización del crítico y descenso del gradiente en la sintonización del actor, el mejor resultado para este esquema es usando el algoritmo de iteración de valor para la solución de la ecuación de Bellman, con un resultado significativo en términos de precisión en comparación a los valores óptimos (función DLQR). Cuando se tiene desconocimiento de la dinámica se usa el algoritmo Q-learning en entrenamiento continuo, con el esquema de mínimos cuadrados con mínimos cuadrados recursivos y el esquema de mínimos cuadrados con descenso del gradiente. Ambos esquemas usan el algoritmo de iteración de política para la solución de la ecuación de Bellman, y se obtienen resultados de aproximadamente 0.001 en la medición del error cuadrático medio. Se realiza una prueba de adaptabilidad considerando variaciones que puedan suceder en los parámetros de la planta, siendo el esquema de mínimos cuadrados con mínimos cuadrados recursivos el que tiene los mejores resultados, reduciendo significativamente ...
Reinforcement learning is a machine learning paradigm with extensive development and growing demand in decision-making and control applications. This technique allows the design of controllers that do not directly depend on the model describing the system dynamics. It is useful in real-world applications, where accurate models are often unavailable. The objective of this work is to implement a modelfree discrete-time optimal controller. Through discrete models, we implemented reinforcement learning algorithms focused on systems with continuous state and action spaces. The concepts of value-function, Q-function, V -function, and the Bellman equation are employed to solve the linear quadratic regulator problem for a mass-spring-damper system in a partially known and utterly unknown model. For both cases, the value functions are explicitly defined by a parametric approximator’s structure, where the weight vector is tuned through an iterative parameter estimation process. When partial knowledge of the dynamics is available, the temporal difference learning method is used under episodic training, utilizing the least squares with a recursive least squares scheme for tuning the critic and gradient descent for the actor´s tuning. The best result for this scheme is achieved using the value iteration algorithm for solving the Bellman equation, yielding significant improvements in approximating the optimal values (DLQR function). When the dynamics are entirely unknown, the Q-learning algorithm is employed in continuous training, employing the least squares with recursive least squares and the gradient descent schemes. Both schemes use the policy iteration algorithm to solve the Bellman equation, and the system’s response using the obtained values was compared to the one using the theoretical optimal values, yielding approximately zero mean squared error between them. An adaptability test is conducted considering variations that may occur in plant parameters, with the least squares with recursive least squares scheme yielding the best results, significantly reducing the number of iterations required for convergence to optimal values.
aprendizaje por refuerzo, control óptimo, control adaptativo, sistemas mecánicos, libre de modelo, dinámica totalmente desconocida, aproximación paramétrica, Q-learning, iteración de política reinforcement learning, optimal control, adaptive control, mechanical systems, modelfree, utterly unknown dynamics, parametric approximation, Q-learning, policy iteration INGENIERÍA Y TECNOLOGÍA CIENCIAS TECNOLÓGICAS TECNOLOGÍA DE LOS ORDENADORES INTELIGENCIA ARTIFICIAL INTELIGENCIA ARTIFICIAL