Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático
dc.contributor.advisor | Amaya, Sindy Paola | |
dc.contributor.advisor | Rojas, Armando Mateus | |
dc.contributor.author | Gaviria Zapata, Vincenth Adolfo | |
dc.contributor.corporatename | Universidad Santo Tomas | spa |
dc.contributor.cvlac | https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000796425 | spa |
dc.contributor.cvlac | https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0000680630 | spa |
dc.contributor.cvlac | https://scienti.minciencias.gov.co/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001695506 | spa |
dc.contributor.googlescholar | https://scholar.google.com/citations?hl=es&user=Gg2sofAAAAAJ | spa |
dc.contributor.orcid | https://orcid.org/0000-0002-2399-4859 | spa |
dc.contributor.orcid | https://orcid.org/0000-0002-1714-1593 | spa |
dc.coverage.campus | CRAI-USTA Bogotá | spa |
dc.date.accessioned | 2023-03-29T17:50:38Z | |
dc.date.available | 2023-03-29T17:50:38Z | |
dc.date.issued | 2023-03-29 | |
dc.description | En este documento se presenta el desarrollo de un controlador basado en algoritmos de aprendizaje automático para el sistema no lineal ball and beam, mostrando cómo implementar un sistema de control basado en algoritmos de aprendizaje automático a sistemas no lineales e inestables y que estos se ajusten a los parámetros de diseño establecidos. El algoritmo de control de aprendizaje que se diseña en este trabajo es uno de aprendizaje iterativo, para el cual primero se diseña un controlador clásico basado en el modelo de espacio de estados y se toma como base para implementar el algoritmo de control seleccionado. Se compara el desempeño del controlador basado en el algoritmo de aprendizaje iterativo respecto al controlador clásico, evidenciando que el algoritmo por aprendizaje iterativo genera un error de estado estacionario que si bien es mínimo, le da una ventaja al controlador clásico, pues con este no se tiene error de estado estacionario. Finalmente se evidencia con este trabajo que la estrategia de control seleccionada a pesar de ser simple, cumple con la suficiente robustez para ser implementado en un problema complejo de control no lineal sin presentar mayor diferencia respecto a un controlador clásico. | spa |
dc.description.abstract | This document presents the development of a controller based on machine learning algorithms for the nonlinear ball and beam system, showing how to implement a control system based on machine learning algorithms to nonlinear and unstable systems and that these adjust to established design parameters. The learning control algorithm that is designed in this work is an iterative learning one, for which a classical controller based on the state space model is first designed and is taken as a basis to implement the selected control algorithm. The performance of the controller based on the iterative learning algorithm is compared with the classical controller, evidencing that the iterative learning algorithm generates a steady-state error that, although minimal, gives the classical controller an advantage, since it does not has steady state error. Finally, this work shows that the selected control strategy, despite being simple, is robust enough to be implemented in a complex nonlinear control problem without presenting much difference compared to a classic controller. | spa |
dc.description.degreelevel | Pregrado | spa |
dc.description.degreename | Ingeniero Electronico | spa |
dc.format.mimetype | application/pdf | spa |
dc.identifier.citation | Gaviria Zapata, V. A. (2022). Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático. [Trabajo de Grado, Universidad Santo Tomás]. Repositorio Institucional. | spa |
dc.identifier.instname | instname:Universidad Santo Tomás | spa |
dc.identifier.reponame | reponame:Repositorio Institucional Universidad Santo Tomás | spa |
dc.identifier.repourl | repourl:https://repository.usta.edu.co | spa |
dc.identifier.uri | http://hdl.handle.net/11634/50070 | |
dc.language.iso | spa | spa |
dc.publisher | Universidad Santo Tomás | spa |
dc.publisher.faculty | Facultad de Ingeniería Electrónica | spa |
dc.publisher.program | Pregrado Ingeniería Electrónica | spa |
dc.relation.references | Felix Berkenkamp y col. «Safe model-based reinforcement learning with stability gua rantees». En: Advances in Neural Information Processing Systems 2017-Decem.Nips (2017), págs. 909-919. ISSN: 10495258. arXiv: 1705.08551 | spa |
dc.relation.references | Guillermo Puriel Gil, Wen Yu y Humberto Sossa. «Reinforcement Learning Compensa tion based PD Control for a Double Inverted Pendulum». En: IEEE Latin America Transac tions 17.2 (2019), págs. 323-329. ISSN: 15480992. DOI: 10.1109/TLA.2019.886317 | spa |
dc.relation.references | Hai Jun Rong y Guang She Zhao. «Direct adaptive neural control of nonlinear systems with extreme learning machine». En: Neural Computing and Applications 22.3-4 (2013), págs. 577-586. ISSN: 09410643. DOI: 10.1007/s00521-011-0805-1. | spa |
dc.relation.references | Zeeshan Shareef Muhammad Asif Rana, Zubair Usman. «Automatic control of ball and beam system using Particle Swarm Optimization». En: (2011). | spa |
dc.relation.references | B. Tovorni N. Muskinja. «Swinging up and stabilization of a real inverted pendulum». En: (2006). | spa |
dc.relation.references | Tariq Samad y col. «Industry engagement with control research: Perspective and messa ges». En: Annual Reviews in Control 49 (2020), págs. 1-14. ISSN: 13675788. DOI: 10.1016/ j.arcontrol.2020.03.002. | spa |
dc.relation.references | MATLAB SIMULINK. Rotary Servo Base Unit Quick Start Guide. 2012. URL: https:// usermanual.wiki/Document/Rotary20Servo20Base20UnitQuick20Start20Guide. 335294577/view. | spa |
dc.relation.references | Sen Zhang. «Reinforcement learning Recap : reinforcement learning». En: January (2019), págs. 1-91 | spa |
dc.relation.references | M. Carreras, J. Yuh y J. Batlle. High-level control of autonomous robots using a behavior-based scheme and reinforcement learning. Vol. 35. 1. IFAC, 2002, págs. 469-474. ISBN: 9783902661746. DOI: 10.3182/20020721- 6- es- 1901.01303. URL: http://dx.doi.org/10. 3182/20020721-6-ES-1901.01303. | spa |
dc.relation.references | M. Carreras, J. Batlle y P. Ridao. «Hybrid coordination of reinforcement learning-based behaviors for AUV control». En: IEEE International Conference on Intelligent Robots and Systems 3 (2001), págs. 1410-1415. DOI: 10.1109/iros.2001.977178 | spa |
dc.relation.references | N. Kobori y col. «Learning to control a joint driven double inverted pendulum using nested actor/critic algorithm». En: ICONIP 2002 - Proceedings of the 9th International Con ference on Neural Information Processing: Computational Intelligence for the E-Age 5 (2002), págs. 2610-2614. DOI: 10.1109/ICONIP.2002.1201968. | spa |
dc.relation.references | Michail G Lagoudakis y Ronald E Parr. «Least-Squares Methods in Reinforcement Lear ning for Controll». En: May (2002). | spa |
dc.relation.references | María López Boada, Beatriz López Boada y Vicente Díaz López. «Algoritmo de aprendi zaje por refuerzo continuo para el control de un sistema de suspensión semi-activa». En: Revista iberoamericana de ingeniería mecánica 9.2 (2005), págs. 77-92. ISSN: 1137-2729. | spa |
dc.relation.references | Xiao Ye y col. «Design and Implementation of Rotary Inverted Pendulum Motion Control Hardware-In-The-Loop Simulation Platform». En: (2010), págs. 155-164. | spa |
dc.relation.references | Valeri Mladenov. «Application of neural networks for control of inverted pendulum». En: WSEAS Transactions on Circuits and Systems 10.2 (2011), págs. 49-58. ISSN: 11092734. | spa |
dc.relation.references | Rafael Figueroa y col. «Reinforcement learning for balancing a flying inverted pendu lum». En: Proceedings of the World Congress on Intelligent Control and Automation (WCICA) 2015-March.March (2015), págs. 1787-1793. DOI: 10.1109/WCICA.2014.7052991. | spa |
dc.relation.references | M. Gómez y col. «Optimal motion planning by reinforcement learning in autonomous mobile vehicles». En: Robotica 30.2 (2012), págs. 159-170. ISSN: 02635747. DOI: 10.1017/ S0263574711000452. | spa |
dc.relation.references | Zhijun Li y Chenguang Yang. «Neural-adaptive output feedback control of a class of transportation vehicles based on wheeled inverted pendulum models». En: IEEE Transac tions on Control Systems Technology 20.6 (2012), págs. 1583-1591. ISSN: 10636536. DOI: 10. 1109/TCST.2011.2168224 | spa |
dc.relation.references | L. Adrián León, Ana C. Tenorio y Eduardo F. Morales. «4 - Human Interaction for Effecti ve Reinforcement Learning». En: European Conf. Mach. Learning and Principles and Practice of Knowledge Discovery in Databases (ECMLPKDD 2013) (2013). URL: http://www.ke. tu-darmstadt.de/events/PBRL-13/papers/04-Morales.pdf. | spa |
dc.relation.references | Linglin Wang, Yongxin Liu y Xiaoke Zhai. «Design of reinforce learning control algo rithm and verified in inverted pendulum». En: Chinese Control Conference, CCC 2015- Septe.Grant 61362002 (2015), págs. 3164-3168. ISSN: 21612927. DOI: 10.1109/ChiCC. 2015.7260128 | spa |
dc.relation.references | Guillermo Puriel Gil, Wen Yu y Humberto Sossa. «Reinforcement Learning Compensa tion based PD Control for a Double Inverted Pendulum». En: IEEE Latin America Transac tions 17.2 (2019), págs. 323-329. ISSN: 15480992. DOI: 10.1109/TLA.2019.8863179. | spa |
dc.relation.references | V. I. Norkin. «Generalized Gradients in Dynamic Optimization, Optimal Control, and Machine Learning Problems*». En: Cybernetics and Systems Analysis 56.2 (2020), págs. 243-258. ISSN: 15738337. DOI: 10.1007/s10559-020-00240-x | spa |
dc.relation.references | Angel Miguel Rodriguez Ruiz y col. «Robot Path planning using reinforcement learning and nonlinear approximation function (Planeación de trayetoria utilizando aprendizaje por reforzamiento y función de aproximación)». En: (2017), págs. 56-61. | spa |
dc.relation.references | P. V. Mani Maalini ; G. Prabhakar ; S. Selvaperumal. «Modelling and control of ball and beam system using PID controller». En: (2016) | spa |
dc.relation.references | Bela Lantos Lorinc Marton. «Stable Adaptive Ball and Beam Control». En: (2006). | spa |
dc.relation.references | Z. Shareef, M. Amjad , M.I. Kashif. «Fuzzy logic control of ball and beam system». En: (2010) | spa |
dc.relation.references | Yeong-HwaChangaChia-WenChangaChin-WangTaobHung-WeiLincJin-ShiuhTaurd. «Fuzzy sliding-mode control for ball and beam system with fuzzy ant colony optimization». En: (2011) | spa |
dc.relation.references | OscarCastillo, EveliaLizárraga, JoseSoria, PatriciaMelin. «New approach using ant co lony optimization with ant set partition for fuzzy control design applied to the ball and beam system». En: (2014). | spa |
dc.relation.references | Friendly Gui. «Ball and beam». En: (), págs. 3-4 | spa |
dc.relation.references | Katsuhiko Ogata. Ingeniería de control moderna. Pearson Educación, 2003. | spa |
dc.relation.references | Kira Barton, Sandipan Mishra y Enric Xargay. «Robust iterative learning control: L 1 adaptive feedback control in an ilc framework». En: Proceedings of the 2011 American Con trol Conference. IEEE. 2011, págs. 3663-3668 | spa |
dc.relation.references | Jian-Xin Xu, Sanjib K Panda y Tong Heng Lee. Real-time iterative learning control: design and applications. Springer Science & Business Media, 2008 | spa |
dc.relation.references | Fredrik Bagge Carlson y col. «ControlSystems. jl: A Control Toolbox in Julia». En: 2021 60th IEEE Conference on Decision and Control (CDC). IEEE. 2021, págs. 4847-4853 | spa |
dc.rights | Atribución-NoComercial-SinDerivadas 2.5 Colombia | * |
dc.rights.accessrights | info:eu-repo/semantics/openAccess | |
dc.rights.coar | http://purl.org/coar/access_right/c_abf2 | spa |
dc.rights.local | Abierto (Texto Completo) | spa |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/2.5/co/ | * |
dc.subject.lemb | Ingeniería Electrónica | spa |
dc.subject.lemb | Aprendizaje-Algoritmos | spa |
dc.subject.lemb | Diseño | spa |
dc.subject.lemb | Ingenieros | spa |
dc.title | Simulación de un controlador para el sistema ball and beam quanser basado en algoritmos de aprendizaje automático | spa |
dc.type | bachelor thesis | |
dc.type.coar | http://purl.org/coar/resource_type/c_7a1f | |
dc.type.coarversion | http://purl.org/coar/version/c_ab4af688f83e57aa | |
dc.type.drive | info:eu-repo/semantics/bachelorThesis | |
dc.type.local | Tesis de pregrado | spa |
dc.type.version | info:eu-repo/semantics/acceptedVersion |
Archivos
Bloque original
1 - 3 de 3
Cargando...
- Nombre:
- 2022vincenthgaviria.pdf
- Tamaño:
- 790.88 KB
- Formato:
- Adobe Portable Document Format
- Descripción:
- Trabajo de Grado

- Nombre:
- Carta_aprobacion_Biblioteca VINCENTH ADOLFO.pdf
- Tamaño:
- 314.97 KB
- Formato:
- Adobe Portable Document Format
- Descripción:
- Carta Facultad

- Nombre:
- Carta_autorizacion_autoarchivo_autor_2021.pdf
- Tamaño:
- 862.76 KB
- Formato:
- Adobe Portable Document Format
- Descripción:
- Carta Derechos de Autor
Bloque de licencias
1 - 1 de 1

- Nombre:
- license.txt
- Tamaño:
- 807 B
- Formato:
- Item-specific license agreed upon to submission
- Descripción: