Filtros
Filtrar por:
Tipo de publicación
- Artículo (2)
- Tesis de maestría (1)
- Otro (1)
- Trabajo de grado, maestría (1)
Autores
- CARLOS FUENTES RUIZ (2)
- Heber Saucedo (2)
- MANUEL ZAVALA TREJO (2)
- ANTONIO ACEVEDO BOGUER (1)
- Jesús Martín Miguel Martínez (1)
Años de Publicación
Editores
- Instituto Mexicano de Tecnología del Agua (2)
- CICESE (1)
- INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación (1)
Repositorios Orígen
- Repositorio institucional del IMTA (2)
- Repositorio Institucional CICESE (1)
- Repositorio Institucional de INFOTEC (1)
Tipos de Acceso
- oa:openAccess (4)
Idiomas
- spa (4)
Materias
- CIENCIAS AGROPECUARIAS Y BIOTECNOLOGÍA (2)
- CIENCIAS TECNOLÓGICAS (2)
- Gasto óptimo (2)
- INGENIERÍA Y TECNOLOGÍA (2)
- INTELIGENCIA ARTIFICIAL (2)
Selecciona los temas de tu interés y recibe en tu correo las publicaciones más actuales
4 resultados, página 1 de 1
Diseño de riego por melgas empleando las ecuaciones de Saint-Venant, y Green y Ampt
Heber Saucedo MANUEL ZAVALA TREJO CARLOS FUENTES RUIZ (2015, [Artículo])
Se presenta un método de diseño de riego por melgas basado en la aplicación de un modelo que emplea las ecuaciones de Saint-Venant, para describir el flujo del agua sobre el suelo, y la ecuación de Green y Ampt, para representar el flujo del agua en el suelo. La principal ventaja del modelo presentado es el poco tiempo de cómputo que requiere para su aplicación, en comparación con el necesario para ejecutar un modelo hidrodinámico completo reportado en la literatura, mismo que emplea las ecuaciones de Saint-Venant para el flujo del agua sobre el suelo, acopladas internamente con la ecuación de Richards, que permite modelar el flujo del agua en el suelo.
Riego por inundación controlada Modelos matemáticos Gasto óptimo CIENCIAS AGROPECUARIAS Y BIOTECNOLOGÍA
Gasto óptimo en riego por melgas
Heber Saucedo MANUEL ZAVALA TREJO CARLOS FUENTES RUIZ LEONID VLADIMIR CASTANEDO GUERRA (2013, [Artículo])
Se verifica la relación, básicamente lineal, que existe entre la longitud de una melga y el gasto óptimo de riego, que es el gasto que se debe aplicar para obtener un valor máximo en el coeficiente de uniformidad, que produzca valores elevados de las eficiencias de aplicación y de requerimiento de riego. Dicha verificación se realiza mediante la aplicación de un modelo hidrodinámico completo, empleando métodos numéricos, que hace uso de las ecuaciones de Saint-Venant para la descripción del flujo del agua sobre el suelo, acopladas internamente con la ecuación de Richards, que permite modelar el flujo del agua en el suelo. De acuerdo con los resultados obtenidos mediante la aplicación del modelo para diez tipos de suelo diferentes, se incluyen cuadros de diseño operativo del riego por melgas.
Riego por melgas Gasto óptimo CIENCIAS AGROPECUARIAS Y BIOTECNOLOGÍA
Utilización de dispositivos inteligentes y aplicaciones móviles para tener un peso saludable
ANTONIO ACEVEDO BOGUER (2023, [Otro, Trabajo de grado, maestría])
La obesidad es un problema mundial que afecta la calidad de vida de las personas. Es la raíz de enfermedades como; la diabetes, la hipertensión y algunos tipos de cáncer. La educación y las políticas públicas son importantes, pero no suficientes. este documento presenta una comparación de aplicaciones móviles que junto al uso de dispositivos inteligentes aborda el tema del control del peso a través de la información del consumo y del gasto de calorías, así como rutinas de ejercicio y la alimentación dando como resultado una reducción en los niveles de obesidad en México.
Sobrepeso Obesidad Aplicaciones móviles Sistema de equivalencias Gasto de calorías INGENIERÍA Y TECNOLOGÍA CIENCIAS TECNOLÓGICAS TECNOLOGÍA DE LAS TELECOMUNICACIONES TECNOLOGÍA DE LAS TELECOMUNICACIONES
Control de sistemas usando aprendizaje de máquina
Systems control using machine learning
Jesús Martín Miguel Martínez (2023, [Tesis de maestría])
El aprendizaje por refuerzo es un paradigma del aprendizaje de máquina con un amplio desarrollo y una creciente demanda en aplicaciones que involucran toma de decisiones y control. Es un paradigma que permite el diseño de controladores que no dependen directamente del modelo que describe la dinámica del sistema. Esto es importante ya que en aplicaciones reales es frecuente que no se disponga de dichos modelos de manera precisa. Esta tesis tiene como objetivo implementar un controlador óptimo en tiempo discreto libre de modelo. La metodología elegida se basa en algoritmos de aprendizaje por refuerzo, enfocados en sistemas con espacios de estado y acción continuos a través de modelos discretos. Se utiliza el concepto de función de valor (Q-función y función V ) y la ecuación de Bellman para resolver el problema del regulador cuadrático lineal para un sistema mecánico masa-resorte-amortiguador, en casos donde se tiene conocimiento parcial y desconocimiento total del modelo. Para ambos casos las funciones de valor son definidas explícitamente por la estructura de un aproximador paramétrico, donde el vector de pesos del aproximador es sintonizado a través de un proceso iterativo de estimación de parámetros. Cuando se tiene conocimiento parcial de la dinámica se usa el método de aprendizaje por diferencias temporales en un entrenamiento episódico, que utiliza el esquema de mínimos cuadrados con mínimos cuadrados recursivos en la sintonización del crítico y descenso del gradiente en la sintonización del actor, el mejor resultado para este esquema es usando el algoritmo de iteración de valor para la solución de la ecuación de Bellman, con un resultado significativo en términos de precisión en comparación a los valores óptimos (función DLQR). Cuando se tiene desconocimiento de la dinámica se usa el algoritmo Q-learning en entrenamiento continuo, con el esquema de mínimos cuadrados con mínimos cuadrados recursivos y el esquema de mínimos cuadrados con descenso del gradiente. Ambos esquemas usan el algoritmo de iteración de política para la solución de la ecuación de Bellman, y se obtienen resultados de aproximadamente 0.001 en la medición del error cuadrático medio. Se realiza una prueba de adaptabilidad considerando variaciones que puedan suceder en los parámetros de la planta, siendo el esquema de mínimos cuadrados con mínimos cuadrados recursivos el que tiene los mejores resultados, reduciendo significativamente ...
Reinforcement learning is a machine learning paradigm with extensive development and growing demand in decision-making and control applications. This technique allows the design of controllers that do not directly depend on the model describing the system dynamics. It is useful in real-world applications, where accurate models are often unavailable. The objective of this work is to implement a modelfree discrete-time optimal controller. Through discrete models, we implemented reinforcement learning algorithms focused on systems with continuous state and action spaces. The concepts of value-function, Q-function, V -function, and the Bellman equation are employed to solve the linear quadratic regulator problem for a mass-spring-damper system in a partially known and utterly unknown model. For both cases, the value functions are explicitly defined by a parametric approximator’s structure, where the weight vector is tuned through an iterative parameter estimation process. When partial knowledge of the dynamics is available, the temporal difference learning method is used under episodic training, utilizing the least squares with a recursive least squares scheme for tuning the critic and gradient descent for the actor´s tuning. The best result for this scheme is achieved using the value iteration algorithm for solving the Bellman equation, yielding significant improvements in approximating the optimal values (DLQR function). When the dynamics are entirely unknown, the Q-learning algorithm is employed in continuous training, employing the least squares with recursive least squares and the gradient descent schemes. Both schemes use the policy iteration algorithm to solve the Bellman equation, and the system’s response using the obtained values was compared to the one using the theoretical optimal values, yielding approximately zero mean squared error between them. An adaptability test is conducted considering variations that may occur in plant parameters, with the least squares with recursive least squares scheme yielding the best results, significantly reducing the number of iterations required for convergence to optimal values.
aprendizaje por refuerzo, control óptimo, control adaptativo, sistemas mecánicos, libre de modelo, dinámica totalmente desconocida, aproximación paramétrica, Q-learning, iteración de política reinforcement learning, optimal control, adaptive control, mechanical systems, modelfree, utterly unknown dynamics, parametric approximation, Q-learning, policy iteration INGENIERÍA Y TECNOLOGÍA CIENCIAS TECNOLÓGICAS TECNOLOGÍA DE LOS ORDENADORES INTELIGENCIA ARTIFICIAL INTELIGENCIA ARTIFICIAL