Búsqueda avanzada


Área de conocimiento




Filtrar por:

Tipo de publicación

Autores

Años de Publicación

Editores

Repositorios Orígen

Tipos de Acceso

Idiomas

Materias

Selecciona los temas de tu interés y recibe en tu correo las publicaciones más actuales

5 resultados, página 1 de 1

Proceso de limpieza de componentes industriales

Cleaning process of industrial components

Omar Annuar Guel Quiroz (2023, [Artículo])

Las condiciones experimentales para poder recuperar componentes críticos para un ensamble de un motor de combustión interna, así como también la validación de pruebas de calidad mediante pruebas milipore que detectan la cantidad y peso de partículas de un componente.Los componentes se recuperaron al pasar por un proceso de limpieza tipo aspersión usando un químico sometido a una presión para retirar los contaminantes del material a salvar si aplicar temperatura al químico.El químico usado en las pruebas tiene características de ser amigable con el medio ambiente para evitar la contaminación una vez que este se encuentre contaminado.

Experimental conditions to recover critical components for an internal combustion engine assembly, as well as the validation of quality tests through millipore tests that detect the quantity and weight of particles of a component.The components were recovered by going through a spray-type cleaning process using a chemical under pressure to remove contaminants from the material to be salvaged without applying temperature to the chemical.The chemical used in the tests has characteristics of being environmentally friendly to avoid contamination once it is contaminated.

Core Proceso Remanufactura Inmersión Aspersión Process Remanufacturing Immersion Spraying INGENIERÍA Y TECNOLOGÍA CIENCIAS TECNOLÓGICAS OTRAS ESPECIALIDADES TECNOLÓGICAS OTRAS OTRAS

Cuerpos prisioneros y experiencia estética liberadora: Gingando con capoeristas del estilo Angola en Corea del Sur

JORGE ANTONIO CONTRERAS DOMINGUEZ (2021, [Tesis de doctorado])

"El objetivo central de esta investigación fue el de analizar la incidencia que la práctica de la Capoeira Angola ha tenido en practicantes de Seúl, capital de la República de Corea o Corea del Sur. Al mismo tiempo, se plantearon objetivos secundarios, de los cuales se destaca el siguiente: Determinar el contexto sociopolítico y cultural en el que la práctica de la Capoeira Angola se ha insertado en la realidad coreana, así como describir lo que esta práctica ha significado para sus principales protagonistas, practicantes y líderes en términos de su práctica artística y de sus corporalidades".

Baile -- Capoeira Angola -- Seúl, Corea Baile -- Aspectos sociales -- Corea -- Historia Corea -- Política social Cultura afrobrasileña -- Brasil CIENCIAS SOCIALES CIENCIAS SOCIALES

Stability of FeVO4-II under Pressure: A First-Principles Study

PRICILA BETBIRAI ROMERO VAZQUEZ SINHUE LOPEZ MORENO Daniel Errandonea (2022, [Artículo])

"In this work, we report first-principles calculations to study FeVO4 in the CrVO4-type (phase II) structure under pressure. Total-energy calculations were performed in order to analyze the structural parameters, the electronic, elastic, mechanical, and vibrational properties of FeVO4-II up to 9.6 GPa for the first time. We found a good agreement in the structural parameters with the experimental results available in the literature. The electronic structure analysis was complemented with results obtained from the Laplacian of the charge density at the bond critical points within the Quantum Theory of Atoms in Molecules methodology. Our findings from the elastic, mechanic, and vibrational properties were correlated to determine the elastic and dynamic stability of FeVO4-II under pressure. Calculations suggest that beyond the maximum pressure covered by our study, this phase could undergo a phase transition to a wolframite-type structure, such as in CrVO4 and InVO4."

FeVO4 under pressure CrVO4-type structure First-principles Mechanical properties Vibrational properties Electronic properties CIENCIAS FÍSICO MATEMÁTICAS Y CIENCIAS DE LA TIERRA FÍSICA FÍSICA DEL ESTADO SÓLIDO CRISTALOGRAFÍA CRISTALOGRAFÍA

Tensile behavior of 3D printed polylactic acid (PLA) based composites reinforced with natural fiber

Eliana M Agaliotis BALTAZAR DAVID AKE CONCHA ALEJANDRO MAY PAT Juan Pablo Morales Arias Celina Bernal Alex Valadez González Pedro Jesús Herrera Franco Gwenaelle Proust JUAN FRANCISCO KOH DZUL José Gonzalo Carrillo Baeza Emmanuel Alejandro Flores Johnson (2022, [Artículo])

Natural fiber-reinforced composite (NFRC) filaments for 3D printing were fabricated using polylactic acid (PLA) reinforced with 1–5 wt% henequen flour comprising particles with sizes between 90–250 μm. The flour was obtained from natural henequen fibers. NFRCs and pristine PLA specimens were printed with a 0° raster angle for tension tests. The results showed that the NFRCs’ measured density, porosity, and degree of crystallinity increased with flour content. The tensile tests showed that the NFRC Young’s modulus was lower than that of the printed pristine PLA. For 1 wt% flour content, the NFRCs’ maximum stress and strain to failure were higher than those of the printed PLA, which was attributed to the henequen fibers acting as reinforcement and delaying crack growth. However, for 2 wt% and higher flour contents, the NFRCs’ maximum stress was lower than that of the printed PLA. Microscopic characterization after testing showed an increase in voids and defects, with the increase in flour content attributed to particle agglomeration. For 1 wt% flour content, the NFRCs were also printed with raster angles of ±45° and 90° for comparison; the highest tensile properties were obtained with a 0° raster angle. Finally, adding 3 wt% content of maleic anhydride to the NFRC with 1 wt% flour content slightly increased the maximum stress. The results presented herein warrant further research to fully understand the mechanical properties of printed NFRCs made of PLA reinforced with natural henequen fibers. © 2022 by the authors.

POLYLACTIC ACID (PLA) NATURAL FIBER HENEQUEN FIBER NATURAL FIBER REINFORCED COMPOSITE (NFRC) ADDITIVE MANUFACTURING 3D PRINTING MECHANICAL PROPERTY INGENIERÍA Y TECNOLOGÍA CIENCIAS TECNOLÓGICAS TECNOLOGÍA DE MATERIALES PROPIEDADES DE LOS MATERIALES PROPIEDADES DE LOS MATERIALES

Control de sistemas usando aprendizaje de máquina

Systems control using machine learning

Jesús Martín Miguel Martínez (2023, [Tesis de maestría])

El aprendizaje por refuerzo es un paradigma del aprendizaje de máquina con un amplio desarrollo y una creciente demanda en aplicaciones que involucran toma de decisiones y control. Es un paradigma que permite el diseño de controladores que no dependen directamente del modelo que describe la dinámica del sistema. Esto es importante ya que en aplicaciones reales es frecuente que no se disponga de dichos modelos de manera precisa. Esta tesis tiene como objetivo implementar un controlador óptimo en tiempo discreto libre de modelo. La metodología elegida se basa en algoritmos de aprendizaje por refuerzo, enfocados en sistemas con espacios de estado y acción continuos a través de modelos discretos. Se utiliza el concepto de función de valor (Q-función y función V ) y la ecuación de Bellman para resolver el problema del regulador cuadrático lineal para un sistema mecánico masa-resorte-amortiguador, en casos donde se tiene conocimiento parcial y desconocimiento total del modelo. Para ambos casos las funciones de valor son definidas explícitamente por la estructura de un aproximador paramétrico, donde el vector de pesos del aproximador es sintonizado a través de un proceso iterativo de estimación de parámetros. Cuando se tiene conocimiento parcial de la dinámica se usa el método de aprendizaje por diferencias temporales en un entrenamiento episódico, que utiliza el esquema de mínimos cuadrados con mínimos cuadrados recursivos en la sintonización del crítico y descenso del gradiente en la sintonización del actor, el mejor resultado para este esquema es usando el algoritmo de iteración de valor para la solución de la ecuación de Bellman, con un resultado significativo en términos de precisión en comparación a los valores óptimos (función DLQR). Cuando se tiene desconocimiento de la dinámica se usa el algoritmo Q-learning en entrenamiento continuo, con el esquema de mínimos cuadrados con mínimos cuadrados recursivos y el esquema de mínimos cuadrados con descenso del gradiente. Ambos esquemas usan el algoritmo de iteración de política para la solución de la ecuación de Bellman, y se obtienen resultados de aproximadamente 0.001 en la medición del error cuadrático medio. Se realiza una prueba de adaptabilidad considerando variaciones que puedan suceder en los parámetros de la planta, siendo el esquema de mínimos cuadrados con mínimos cuadrados recursivos el que tiene los mejores resultados, reduciendo significativamente ...

Reinforcement learning is a machine learning paradigm with extensive development and growing demand in decision-making and control applications. This technique allows the design of controllers that do not directly depend on the model describing the system dynamics. It is useful in real-world applications, where accurate models are often unavailable. The objective of this work is to implement a modelfree discrete-time optimal controller. Through discrete models, we implemented reinforcement learning algorithms focused on systems with continuous state and action spaces. The concepts of value-function, Q-function, V -function, and the Bellman equation are employed to solve the linear quadratic regulator problem for a mass-spring-damper system in a partially known and utterly unknown model. For both cases, the value functions are explicitly defined by a parametric approximator’s structure, where the weight vector is tuned through an iterative parameter estimation process. When partial knowledge of the dynamics is available, the temporal difference learning method is used under episodic training, utilizing the least squares with a recursive least squares scheme for tuning the critic and gradient descent for the actor´s tuning. The best result for this scheme is achieved using the value iteration algorithm for solving the Bellman equation, yielding significant improvements in approximating the optimal values (DLQR function). When the dynamics are entirely unknown, the Q-learning algorithm is employed in continuous training, employing the least squares with recursive least squares and the gradient descent schemes. Both schemes use the policy iteration algorithm to solve the Bellman equation, and the system’s response using the obtained values was compared to the one using the theoretical optimal values, yielding approximately zero mean squared error between them. An adaptability test is conducted considering variations that may occur in plant parameters, with the least squares with recursive least squares scheme yielding the best results, significantly reducing the number of iterations required for convergence to optimal values.

aprendizaje por refuerzo, control óptimo, control adaptativo, sistemas mecánicos, libre de modelo, dinámica totalmente desconocida, aproximación paramétrica, Q-learning, iteración de política reinforcement learning, optimal control, adaptive control, mechanical systems, modelfree, utterly unknown dynamics, parametric approximation, Q-learning, policy iteration INGENIERÍA Y TECNOLOGÍA CIENCIAS TECNOLÓGICAS TECNOLOGÍA DE LOS ORDENADORES INTELIGENCIA ARTIFICIAL INTELIGENCIA ARTIFICIAL