Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático

dc.contributor.advisorAmaya, Sindy Paola
dc.contributor.advisorRojas, Armando Mateus
dc.contributor.authorGaviria Zapata, Vincenth Adolfo
dc.contributor.corporatenameUniversidad Santo Tomasspa
dc.contributor.cvlachttps://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000796425spa
dc.contributor.cvlachttps://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000680630spa
dc.contributor.cvlachttps://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001695506spa
dc.contributor.googlescholarhttps://scholar.google.com/citations?hl=es&user=Gg2sofAAAAAJspa
dc.contributor.orcidhttps://orcid.org/0000-0002-2399-4859spa
dc.contributor.orcidhttps://orcid.org/0000-0002-1714-1593spa
dc.coverage.campusCRAI-USTA Bogotáspa
dc.date.accessioned2023-03-29T17:50:38Z
dc.date.available2023-03-29T17:50:38Z
dc.date.issued2023-03-29
dc.descriptionEn este documento se presenta el desarrollo de un controlador basado en algoritmos de aprendizaje automático para el sistema no lineal ball and beam, mostrando cómo implementar un sistema de control basado en algoritmos de aprendizaje automático a sistemas no lineales e inestables y que estos se ajusten a los parámetros de diseño establecidos. El algoritmo de control de aprendizaje que se diseña en este trabajo es uno de aprendizaje iterativo, para el cual primero se diseña un controlador clásico basado en el modelo de espacio de estados y se toma como base para implementar el algoritmo de control seleccionado. Se compara el desempeño del controlador basado en el algoritmo de aprendizaje iterativo respecto al controlador clásico, evidenciando que el algoritmo por aprendizaje iterativo genera un error de estado estacionario que si bien es mínimo, le da una ventaja al controlador clásico, pues con este no se tiene error de estado estacionario. Finalmente se evidencia con este trabajo que la estrategia de control seleccionada a pesar de ser simple, cumple con la suficiente robustez para ser implementado en un problema complejo de control no lineal sin presentar mayor diferencia respecto a un controlador clásico.spa
dc.description.abstractThis document presents the development of a controller based on machine learning algorithms for the nonlinear ball and beam system, showing how to implement a control system based on machine learning algorithms to nonlinear and unstable systems and that these adjust to established design parameters. The learning control algorithm that is designed in this work is an iterative learning one, for which a classical controller based on the state space model is first designed and is taken as a basis to implement the selected control algorithm. The performance of the controller based on the iterative learning algorithm is compared with the classical controller, evidencing that the iterative learning algorithm generates a steady-state error that, although minimal, gives the classical controller an advantage, since it does not has steady state error. Finally, this work shows that the selected control strategy, despite being simple, is robust enough to be implemented in a complex nonlinear control problem without presenting much difference compared to a classic controller.spa
dc.description.degreelevelPregradospa
dc.description.degreenameIngeniero Electronicospa
dc.format.mimetypeapplication/pdfspa
dc.identifier.citationGaviria Zapata, V. A. (2022). Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional.spa
dc.identifier.instnameinstname:Universidad Santo Tomásspa
dc.identifier.reponamereponame:Repositorio Institucional Universidad Santo Tomásspa
dc.identifier.repourlrepourl:https://repository.usta.edu.cospa
dc.identifier.urihttp://hdl.handle.net/11634/50070
dc.language.isospaspa
dc.publisherUniversidad Santo Tomásspa
dc.publisher.facultyFacultad de Ingeniería Electrónicaspa
dc.publisher.programPregrado Ingeniería Electrónicaspa
dc.relation.referencesFelix Berkenkamp y col. «Safe model-based reinforcement learning with stability gua rantees». En: Advances in Neural Information Processing Systems 2017-Decem.Nips (2017), págs. 909-919. ISSN: 10495258. arXiv: 1705.08551spa
dc.relation.referencesGuillermo Puriel Gil, Wen Yu y Humberto Sossa. «Reinforcement Learning Compensa tion based PD Control for a Double Inverted Pendulum». En: IEEE Latin America Transac tions 17.2 (2019), págs. 323-329. ISSN: 15480992. DOI: 10.1109/TLA.2019.886317spa
dc.relation.referencesHai Jun Rong y Guang She Zhao. «Direct adaptive neural control of nonlinear systems with extreme learning machine». En: Neural Computing and Applications 22.3-4 (2013), págs. 577-586. ISSN: 09410643. DOI: 10.1007/s00521-011-0805-1.spa
dc.relation.referencesZeeshan Shareef Muhammad Asif Rana, Zubair Usman. «Automatic control of ball and beam system using Particle Swarm Optimization». En: (2011).spa
dc.relation.referencesB. Tovorni N. Muskinja. «Swinging up and stabilization of a real inverted pendulum». En: (2006).spa
dc.relation.referencesTariq Samad y col. «Industry engagement with control research: Perspective and messa ges». En: Annual Reviews in Control 49 (2020), págs. 1-14. ISSN: 13675788. DOI: 10.1016/ j.arcontrol.2020.03.002.spa
dc.relation.referencesMATLAB SIMULINK. Rotary Servo Base Unit Quick Start Guide. 2012. URL: https:// usermanual.wiki/Document/Rotary20Servo20Base20UnitQuick20Start20Guide. 335294577/view.spa
dc.relation.referencesSen Zhang. «Reinforcement learning Recap : reinforcement learning». En: January (2019), págs. 1-91spa
dc.relation.referencesM. Carreras, J. Yuh y J. Batlle. High-level control of autonomous robots using a behavior-based scheme and reinforcement learning. Vol. 35. 1. IFAC, 2002, págs. 469-474. ISBN: 9783902661746. DOI: 10.3182/20020721- 6- es- 1901.01303. URL: http://dx.doi.org/10. 3182/20020721-6-ES-1901.01303.spa
dc.relation.referencesM. Carreras, J. Batlle y P. Ridao. «Hybrid coordination of reinforcement learning-based behaviors for AUV control». En: IEEE International Conference on Intelligent Robots and Systems 3 (2001), págs. 1410-1415. DOI: 10.1109/iros.2001.977178spa
dc.relation.referencesN. Kobori y col. «Learning to control a joint driven double inverted pendulum using nested actor/critic algorithm». En: ICONIP 2002 - Proceedings of the 9th International Con ference on Neural Information Processing: Computational Intelligence for the E-Age 5 (2002), págs. 2610-2614. DOI: 10.1109/ICONIP.2002.1201968.spa
dc.relation.referencesMichail G Lagoudakis y Ronald E Parr. «Least-Squares Methods in Reinforcement Lear ning for Controll». En: May (2002).spa
dc.relation.referencesMaría López Boada, Beatriz López Boada y Vicente Díaz López. «Algoritmo de aprendi zaje por refuerzo continuo para el control de un sistema de suspensión semi-activa». En: Revista iberoamericana de ingeniería mecánica 9.2 (2005), págs. 77-92. ISSN: 1137-2729.spa
dc.relation.referencesXiao Ye y col. «Design and Implementation of Rotary Inverted Pendulum Motion Control Hardware-In-The-Loop Simulation Platform». En: (2010), págs. 155-164.spa
dc.relation.referencesValeri Mladenov. «Application of neural networks for control of inverted pendulum». En: WSEAS Transactions on Circuits and Systems 10.2 (2011), págs. 49-58. ISSN: 11092734.spa
dc.relation.referencesRafael Figueroa y col. «Reinforcement learning for balancing a flying inverted pendu lum». En: Proceedings of the World Congress on Intelligent Control and Automation (WCICA) 2015-March.March (2015), págs. 1787-1793. DOI: 10.1109/WCICA.2014.7052991.spa
dc.relation.referencesM. Gómez y col. «Optimal motion planning by reinforcement learning in autonomous mobile vehicles». En: Robotica 30.2 (2012), págs. 159-170. ISSN: 02635747. DOI: 10.1017/ S0263574711000452.spa
dc.relation.referencesZhijun Li y Chenguang Yang. «Neural-adaptive output feedback control of a class of transportation vehicles based on wheeled inverted pendulum models». En: IEEE Transac tions on Control Systems Technology 20.6 (2012), págs. 1583-1591. ISSN: 10636536. DOI: 10. 1109/TCST.2011.2168224spa
dc.relation.referencesL. Adrián León, Ana C. Tenorio y Eduardo F. Morales. «4 - Human Interaction for Effecti ve Reinforcement Learning». En: European Conf. Mach. Learning and Principles and Practice of Knowledge Discovery in Databases (ECMLPKDD 2013) (2013). URL: http://www.ke. tu-darmstadt.de/events/PBRL-13/papers/04-Morales.pdf.spa
dc.relation.referencesLinglin Wang, Yongxin Liu y Xiaoke Zhai. «Design of reinforce learning control algo rithm and verified in inverted pendulum». En: Chinese Control Conference, CCC 2015- Septe.Grant 61362002 (2015), págs. 3164-3168. ISSN: 21612927. DOI: 10.1109/ChiCC. 2015.7260128spa
dc.relation.referencesGuillermo Puriel Gil, Wen Yu y Humberto Sossa. «Reinforcement Learning Compensa tion based PD Control for a Double Inverted Pendulum». En: IEEE Latin America Transac tions 17.2 (2019), págs. 323-329. ISSN: 15480992. DOI: 10.1109/TLA.2019.8863179.spa
dc.relation.referencesV. I. Norkin. «Generalized Gradients in Dynamic Optimization, Optimal Control, and Machine Learning Problems*». En: Cybernetics and Systems Analysis 56.2 (2020), págs. 243-258. ISSN: 15738337. DOI: 10.1007/s10559-020-00240-xspa
dc.relation.referencesAngel Miguel Rodriguez Ruiz y col. «Robot Path planning using reinforcement learning and nonlinear approximation function (Planeación de trayetoria utilizando aprendizaje por reforzamiento y función de aproximación)». En: (2017), págs. 56-61.spa
dc.relation.referencesP. V. Mani Maalini ; G. Prabhakar ; S. Selvaperumal. «Modelling and control of ball and beam system using PID controller». En: (2016)spa
dc.relation.referencesBela Lantos Lorinc Marton. «Stable Adaptive Ball and Beam Control». En: (2006).spa
dc.relation.referencesZ. Shareef, M. Amjad , M.I. Kashif. «Fuzzy logic control of ball and beam system». En: (2010)spa
dc.relation.referencesYeong-HwaChangaChia-WenChangaChin-WangTaobHung-WeiLincJin-ShiuhTaurd. «Fuzzy sliding-mode control for ball and beam system with fuzzy ant colony optimization». En: (2011)spa
dc.relation.referencesOscarCastillo, EveliaLizárraga, JoseSoria, PatriciaMelin. «New approach using ant co lony optimization with ant set partition for fuzzy control design applied to the ball and beam system». En: (2014).spa
dc.relation.referencesFriendly Gui. «Ball and beam». En: (), págs. 3-4spa
dc.relation.referencesKatsuhiko Ogata. Ingeniería de control moderna. Pearson Educación, 2003.spa
dc.relation.referencesKira Barton, Sandipan Mishra y Enric Xargay. «Robust iterative learning control: L 1 adaptive feedback control in an ilc framework». En: Proceedings of the 2011 American Con trol Conference. IEEE. 2011, págs. 3663-3668spa
dc.relation.referencesJian-Xin Xu, Sanjib K Panda y Tong Heng Lee. Real-time iterative learning control: design and applications. Springer Science & Business Media, 2008spa
dc.relation.referencesFredrik Bagge Carlson y col. «ControlSystems. jl: A Control Toolbox in Julia». En: 2021 60th IEEE Conference on Decision and Control (CDC). IEEE. 2021, págs. 4847-4853spa
dc.rightsAtribución-NoComercial-SinDerivadas 2.5 Colombia*
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.rights.coarhttp://purl.org/coar/access_right/c_abf2spa
dc.rights.localAbierto (Texto Completo)spa
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/2.5/co/*
dc.subject.lembIngeniería Electrónicaspa
dc.subject.lembAprendizaje-Algoritmosspa
dc.subject.lembDiseñospa
dc.subject.lembIngenierosspa
dc.titleSimulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automáticospa
dc.typebachelor thesis
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1f
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.type.driveinfo:eu-repo/semantics/bachelorThesis
dc.type.localTesis de pregradospa
dc.type.versioninfo:eu-repo/semantics/acceptedVersion

Archivos

Bloque original

Mostrando 1 - 3 de 3
Cargando...
Miniatura
Nombre:
2022vincenthgaviria.pdf
Tamaño:
790.88 KB
Formato:
Adobe Portable Document Format
Descripción:
Trabajo de Grado
Thumbnail USTA
Nombre:
Carta_aprobacion_Biblioteca VINCENTH ADOLFO.pdf
Tamaño:
314.97 KB
Formato:
Adobe Portable Document Format
Descripción:
Carta Facultad
Thumbnail USTA
Nombre:
Carta_autorizacion_autoarchivo_autor_2021.pdf
Tamaño:
862.76 KB
Formato:
Adobe Portable Document Format
Descripción:
Carta Derechos de Autor

Bloque de licencias

Mostrando 1 - 1 de 1
Thumbnail USTA
Nombre:
license.txt
Tamaño:
807 B
Formato:
Item-specific license agreed upon to submission
Descripción: