Implementación de un sistema de interacción humano-máquina que emplee lenguaje multimodal en una plataforma robótica basada en ROS.

dc.contributor.advisorAmaya, Sindy Paola
dc.contributor.advisorMateus, Armando
dc.contributor.authorGarzón Alvarez, Nicolás Felipe
dc.contributor.authorRomero Moreno, Juan Camilo
dc.contributor.corporatenameUniversidad Santo Tomásspa
dc.coverage.campusCRAI-USTA Bogotáspa
dc.date.accessioned2022-09-22T19:29:13Z
dc.date.available2022-09-22T19:29:13Z
dc.date.issued2022-09-22
dc.descriptionEl presente proyecto busca hacer un aporte en la investigación y mejora sobre la comunicación humano-máquina, con el fin de poder tener una conversación mucho más fluida y natural en la cual, la máquina además de tener respuestas acertadas y congruentes con el tema en conversación, tenga movimientos y gestos acordes al estado de animo que se identifique, es decir, que la máquina sea capaz de reconocer si la persona se encuentra en un estado de ánimo exaltado, tranquilo o neutral mientras se está dialogando y respecto a ese reconocimiento de ánimo, los movimientos de sus manos, brazos, torso y demás articulaciones e indicadores que tenga la plataforma robótica, representen la forma en la que se esta llevando la conversación. El proceso inicia con un estado del arte, que permite la compresión y el estudio de varias investigaciones relacionadas con el ambiente de la robótica y la comunicación multimodal, para poder así tener ideas más claras sobre los desarrollos y los puntos importantes para tener en cuenta. También se hace un análisis de las plataformas robóticas que se pueden utilizar con el fin de definir cuál es la más apta respecto a las limitantes en software y hardware. Se procede a realizar el desarrollo y construcción de las herramientas como: la visión que se encarga de recoger las coordenadas de las posturas de las personas, el reconocimiento de voz, el cual convierte el audio en texto y es enviado al análisis de texto (ChatBot) donde se hace un procesamiento de la frase obtenida y da una respuesta acorde. Para tener una comunicación más natural con el humano es necesario que la plataforma realice movimientos corporales, por ende, con la información recolectada con la visión y el análisis de texto, se hace una selección de los movimientos del robot que concuerde con el tipo de conversación.spa
dc.description.abstractThis project seeks to make a contribution to the research and improvement of human-machine communication, in order to be able to have a much more fluid and natural conversation in which the machine, in addition to having correct and consistent answers with the topic in conversation. , have movements and gestures according to the state of mind that is identified, that is, that the machine is capable of recognizing if the person is in an exalted, calm or neutral state of mind while they are having a dialogue and with respect to that mood recognition , the movements of their hands, arms, torso and other joints and indicators that the robotic platform has, represent the way in which the conversation is taking place. The process begins with a state of the art, which allows the understanding and study of various investigations related to the environment of robotics and multimodal communication, in order to have clearer ideas about the developments and the important points to take into account. An analysis of the robotic platforms that can be used is also made in order to define which one is the most suitable with respect to the limitations in software and hardware. We proceed to carry out the development and construction of tools such as: the vision that is responsible for collecting the coordinates of people's postures, voice recognition, which converts audio into text and is sent to text analysis (ChatBot ) where a processing of the obtained phrase and gives a corresponding answer. In order to have a more natural communication with the human, it is necessary for the platform to perform body movements, therefore, with the information collected with vision and text analysis, a selection of the robot's movements is made that matches the type of conversation .spa
dc.description.degreelevelPregradospa
dc.description.degreenameIngeniero Electronicospa
dc.format.mimetypeapplication/pdfspa
dc.identifier.citationGarzón Alvarez, N. F. y Romero Moreno, J. C. (2022). Implementación de un sistema de interacción humano-máquina que emplee lenguaje multimodal en una plataforma robótica basada en ROS. [Trabajo de grado, Universidad Santo Tomás]. Repositorio institucional.spa
dc.identifier.instnameinstname:Universidad Santo Tomásspa
dc.identifier.reponamereponame:Repositorio Institucional Universidad Santo Tomásspa
dc.identifier.repourlrepourl:https://repository.usta.edu.cospa
dc.identifier.urihttp://hdl.handle.net/11634/47305
dc.language.isospaspa
dc.publisherUniversidad Santo Tomásspa
dc.publisher.facultyFacultad de Ingeniería Electrónicaspa
dc.publisher.programPregrado Ingeniería Electrónicaspa
dc.relation.referencesJuan González E. y Jovani Jiménez Builes. «La robótica como herramienta para la educación en ciencias e ingeniería». En: IE Comunicaciones: Revista Iberoamericana de Informática Educativa 10 (2009), págs. 31-36. ISSN: 1699-4574. URL: http : / / iecom . adie . es / index.php/IECom/article/view/177/165.spa
dc.relation.referencesStevenWyatt y col. «World Robotics 2019 Preview». En: International Federation of Robotics September (2019), págs. 1-32. URL: https://ifr.org/downloads/press2018/ IFR%20World%20Robotics%20Presentation%20-%2018%20Sept%202019.pdf.spa
dc.relation.referencesRobotics Online Marketing Team. The Future With Service Robots Draws Nearer | RIA Robotics Blog. 2019. URL: https://www.robotics.org/blog-article.cfm/The- Future-With-Service-Robots-Draws-Nearer/222 (visitado 13-04-2020).spa
dc.relation.referencesRoger Moore. «From talking and listening robots to intelligent communicative machines ». En: ene. de 2015, págs. 317-344. DOI: 10.1515/9781614514404.315.spa
dc.relation.referencesYi Zheng y col. «DEEP LEARNING & NEURAL COMPUTING FOR INTELLIGENT SENSING AND CONTROL Research on motion pattern recognition of exoskeleton robot based on multimodal machine learning model». En: (). DOI: 10.1007/s00521- 019-04567-1. URL: https://doi.org/10.1007/s00521-019-04567-1.spa
dc.relation.referencesBannat A. .A Multimodal Human-Robot-Dialog Applying Emotional Feedbacks.Ïn: Ge S.S., Li H., Cabibihan JJ., Tan Y.K. (eds) Social Robotics. ICSR 2010. Lecture Notes in Computer Science, vol 6414. 2010. ISBN: 978-3-642-17248-9. DOI: 10.1007/978-3-642-17248-9_1.spa
dc.relation.referencesKépesi M. Pucher M. "Multimodal Mobile Robot Control Using Speech Application Language Tags.Ïn: Aarts E., Collier R.W., van Loenen E., de Ruyter B. (eds) Ambient Intelligence. EUSAI 2003. Lecture Notes in Computer Science, vol 2875. 2003. ISBN: 978-3-540-20418-3. DOI: 10. 1007/978-3-540-39863-9_5.spa
dc.relation.referencesBaier-Lowenstein T. Huser M., Svagusa M. y Zhang J. "Natural Demonstration of Manipulation Skills for Multimodal Interactive Robots.Ïn: Stephanidis C. (eds) Universal Access in Human-Computer Interaction. Ambient Interaction. UAHCI 2007. Lecture Notes in Computer Science, vol 4555. 2007. ISBN: 978-3-540-73280-8. DOI: 10.1007/978-3-540-73281- 5_97.spa
dc.relation.referencesDrygajlo Prodanov P., A. y J. Richiardi. "Low-level grounding in a multimodal mobile service robot conversational system using graphical models.Ïntel Serv Robotics 1, 3–26. 2008. DOI: 10. 1007/s11370-006-0001-9.spa
dc.relation.referencesAbe T. Oka T. y Sugita K. "Success rates in a multimodal command language for home robot users..Artif Life Robotics 14, 219. 2009. DOI: 10.1007/s10015-009-0657-2.spa
dc.relation.referencesHabel C. Elmogy M. y Zhang J. "Multimodal cognitive interface for robot navigation.Çogn Process 12, 53–65. 2011. DOI: 10.1007/s10339-010-0386-4.spa
dc.relation.referencesBarber D.J. Abich J. "The impact of human–robot multimodal communication on mental workload, usability preference, and expectations of robot behavior."J Multimodal User Interfaces 11, 211–225. 2017. DOI: 10.1007/s12193-016-0237-4.spa
dc.relation.referencesThomsen N.B. Tan Z. y Duan X. ïSocioBot: A Multimodal Interactive Social Robot.Ïnt J of Soc Robotics 10, 5–19. 2018. DOI: 10.1007/s12369-017-0426-7.spa
dc.relation.referencesWeiss A. Tsiourti C. y Wac K. "Multimodal Integration of Emotional Signals from Voice, Body, and Context: Effects of (In)Congruence on Emotion Recognition and Attitudes Towards Robots.Ïnt J of Soc Robotics 11, 555–573. 2019. DOI: 10.1007/s12369-019-00524-z.spa
dc.relation.referencesKuchibotla M.R. Ande S.K. y Adavi B.K. Robot acquisition, control and interfacing using multimodal feedback."J Ambient Intell Human Comput. 2020. DOI: 10.1007/s12652-020- 01738-0.spa
dc.relation.referencesS. Mahotra C. Patlolla y N. Kehtarnavaz. REAL-TIME HAND-PAIR GESTURE RECOGNITION USING A STEREO WEBCAM. 2012. DOI: 10.1109/ESPA.2012.6152464.spa
dc.relation.referencesC. Tran S. Martin y M. Trivedi. Optical flow based Head Movement and Gesture Analyzer (OHMeGA). 2012. DOI: 10.1109/ESPA.2012.515246.spa
dc.relation.referencesCarlos Andrés Quintero Andrea Katherín Pérez Hernández y Juan Manuel Calderón Chávez. Identificación de señales multimodales para el reconocimiento de emociones humanas por parte de un robot. 2020.spa
dc.relation.referencesMarkus Kächele. Machine Learning Systems for Multimodal Affect Recognition. 2020. DOI: 10.1007/978-3-658-28674-3.spa
dc.relation.referencesK.R. Chowdhary. Fundamentals of Artificial Intelligence. 2020. DOI: 10.1007/978-81- 322-3972-7.spa
dc.relation.referencesChristian Lexcellent. Artificial Intelligence versus Human Intelligence. 2019. DOI: 10.1007/ 978-3-030-21445-6.spa
dc.relation.referencesYang Liu Li Deng. Deep Learning in Natural Language Processing. 2018. DOI: 10.1007/ 978-981-10-5209-5.spa
dc.relation.referencesKaran Jain Palash Goyal Sumit Pandey. Deep Learning for Natural Language Processing. 2018. DOI: 10.1007/978-1-4842-3685-7.spa
dc.relation.referencesM. N. S. Swamy Ke-Lin Du. Neural Networks and Statistical Learning. 2019. DOI: 10.1007/ 978-1-4471-7452-3.spa
dc.relation.referencesBryan WC Chung. Pro Processing for Images and Computer Vision with OpenCV. 2017. DOI: 10.1007/978-1-4842-2775-6.spa
dc.relation.referencesAkshay Kulkarni y Adarsha Shivananda. Natural Language Processing Recipes. 2021. DOI: 10.1007/978-1-4842-7351-7.spa
dc.relation.referencesS.N. What Is a Machine Learning Pipeline? URL: https://valohai.com/machinelearning- pipeline/.spa
dc.rightsAtribución-NoComercial-SinDerivadas 2.5 Colombia*
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.rights.coarhttp://purl.org/coar/access_right/c_abf2
dc.rights.localAbierto (Texto Completo)spa
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/2.5/co/*
dc.subject.keywordMultimodalspa
dc.subject.keywordCommunicationspa
dc.subject.keywordRobotic platformspa
dc.subject.keywordROSspa
dc.subject.keywordSocial roboticsspa
dc.subject.keywordNeural networksspa
dc.subject.keywordDeep learningspa
dc.subject.keywordArtificial visionspa
dc.subject.keywordFace recognitionspa
dc.subject.keywordPepperspa
dc.subject.keywordPoppyspa
dc.subject.lembIngeniería Electrónicaspa
dc.subject.lembSistemas hombre-máquinaspa
dc.subject.lembDiálogo hombre-máquinaspa
dc.subject.proposalMultimodalspa
dc.subject.proposalComunicaciónspa
dc.subject.proposalPlataforma robóticaspa
dc.subject.proposalROSspa
dc.subject.proposalRobótica socialspa
dc.subject.proposalRedes neuronalesspa
dc.subject.proposalAprendizaje profundospa
dc.subject.proposalVisión artificialspa
dc.subject.proposalReconocimiento facialspa
dc.subject.proposalPepperspa
dc.subject.proposalPoppyspa
dc.titleImplementación de un sistema de interacción humano-máquina que emplee lenguaje multimodal en una plataforma robótica basada en ROS.spa
dc.typebachelor thesis
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1f
dc.type.coarversionhttp://purl.org/coar/version/c_ab4af688f83e57aa
dc.type.driveinfo:eu-repo/semantics/bachelorThesis
dc.type.localTesis de pregradospa
dc.type.versioninfo:eu-repo/semantics/acceptedVersion

Archivos

Bloque original

Mostrando 1 - 3 de 3
Cargando...
Miniatura
Nombre:
2022nicolasgarzoncamiloromero.pdf
Tamaño:
32.13 MB
Formato:
Adobe Portable Document Format
Descripción:
Trabajo de grado
Thumbnail USTA
Nombre:
Carta aprobación facultad.pdf
Tamaño:
418.34 KB
Formato:
Adobe Portable Document Format
Descripción:
Carta aprobación facultad
Thumbnail USTA
Nombre:
Carta derechos de autor.pdf
Tamaño:
1.16 MB
Formato:
Adobe Portable Document Format
Descripción:
Carta Derechos de autor

Bloque de licencias

Mostrando 1 - 1 de 1
Thumbnail USTA
Nombre:
license.txt
Tamaño:
807 B
Formato:
Item-specific license agreed upon to submission
Descripción: