Herramienta para reconocimiento de objetos para la plataforma robótica pepper

dc.contributor.authorPérez Gordillo, Fabian Eduardospa
dc.contributor.authorCamacho Poveda, Edgar Camilospa
dc.contributor.cvlachttp://scienti.colciencias.gov.co:8081/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001630084spa
dc.contributor.cvlachttp://scienti.colciencias.gov.co:8081/cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001516111spa
dc.contributor.googlescholarhttps://scholar.google.com/citations?user=vncSAb0AAAAspa
dc.contributor.googlescholarhttps://scholar.google.com/citations?user=tJG988kAAAAJspa
dc.contributor.orcidhttps://orcid.org/0000-0002-2746-8733spa
dc.contributor.orcidhttps://orcid.org/0000-0002-6084-2512spa
dc.coverage.campusCRAI-USTA Bogotáspa
dc.date.accessioned2020-04-20T17:15:44Z
dc.date.available2020-04-20T17:15:44Z
dc.date.issued2019-08spa
dc.descriptionEl Grupo de Estudio y Desarrollo en Robótica – GED de la Facultad de Ingeniería Electrónica se encuentra desarrollando un macro-proyecto en Robótica Social utilizando la plataforma robótica Pepper como un robot de servicio, en ambientes cotidianos del hombre y la mujer, para que este que cuente con capacidades básicas para desarrollar tareas comunes que permitan mejorar el bienestar de los seres humanos. Enmarcado en este objetivo esta propuesta plantea desarrollar un grupo de herramientas software útiles para la ejecución de tareas de la plataforma robótica Pepper que incluyan: herramientas para reconocimiento de objetos, herramientas para la construcción del DataSet, la definición de categorías y clases para entrenamiento y que, además integre funcionalidades adicionales para proporcionar información específica de los objetos.spa
dc.description.abstractThe Robotics Study and Development Group - GED of the Faculty of Electronic Engineering is developing a macro-project in Social Robotics using the Pepper robotic platform as a service robot, in daily environments for men and women, so that this have basic skills to carry out common tasks that improve human well-being. Framed within this objective, this proposal aims to develop a group of useful software tools for the execution of tasks on the Pepper robotic platform that include: tools for object recognition, tools for the construction of the DataSet, the definition of categories and classes for training and that also integrate additional functionality to provide object-specific information.spa
dc.description.domainhttp://unidadinvestigacion.usta.edu.cospa
dc.format.mimetypeapplication/pdfspa
dc.identifier.doihttps://doi.org/10.15332/dt.inv.2020.01521spa
dc.identifier.urihttp://hdl.handle.net/11634/22650
dc.relation.referencesL. B. a. L. I. Nizar Massouh, «RoboCup@Home-Objects: benchmarking object recognition for home robots,» RoboCup 2019, 2019.spa
dc.relation.referencesSoftBank Robotics, «Pepper,» [En línea]. Available: https://www.softbankrobotics.com/emea/en/pepper. [Último acceso: 07 2019spa
dc.relation.referencesC. M. U. R. T. C. U. o. P. U. o. S. C. S. U. U. o. C.-B. U. o. W. U. o. S. C. S. U. U. o. C.-B. U. o. W. G. I. of Technology, «A Roadmap for U.S. Robotics: From Internet to Robotics,» Georgia Institute of Technology, 2013. [En línea]. Available: https://books.google.com.co/books?id=KPhQngEACAAJ.spa
dc.relation.referencesS. c/o euRobotics AISBL, Robotics 2020 Multi-Annual Road-map For Robotics in Europe, 2015.spa
dc.relation.referencesM. A. Y. K. I. N. a. E. O. H. Kitano, «Robocup: The robot world cup initiative,» of the First International Conference on Autonomous Agents, ser. AGENTS, pp. 340 - 347, 1997spa
dc.relation.referencesRoboCup@Home, «Team Description Papers,» [En línea]. Available: https://github.com/RoboCupAtHome/AtHomeCommunityWiki/wiki/Team-DescriptionPapers. [Último acceso: 07 2019]spa
dc.relation.referencesE. R. F. P. S. R. S. T. M. U. M. U. M. a. C.-I. M. Carlos A. Quintero, «2019 SinfonIA Pepper Team Description Paper,» 2019.spa
dc.relation.referencesRoboCup, «RoboCup@Home,» [En línea]. Available: http://www.robocupathome.org/media. [Último acceso: 07 2019]spa
dc.relation.referencesD. H. J. R.-d.-S. K. S. T. v. d. Z. Luca Iocchi, «RoboCup@Home: Analysis and results of evolving competitions for domestic and service robots,» Artificial Intelligence, vol. 229, pp. 258 - 281, 2015.spa
dc.relation.referencesT. v. d. Z. L. I. a. S. S. Thomas Wisspeintner, «RoboCup@Home: Scientific Competition and Benchmarking for Domestic Service Robots,» 2009.spa
dc.relation.referencesCarnegie Mellon University, «Carmen, Robot Navigation Toolkit,» [En línea]. Available: (http://carmen.sourceforge.net/spa
dc.relation.references«The Player/Stage Project,» [En línea]. Available: (http://playerstage.sourceforge.net/.spa
dc.relation.referencesThe Mobile Robot Programming Toolkit,» [En línea]. Available: http://babel.isa.uma.es/mrpt/index.php/Main Page.spa
dc.relation.referencesOpenCV, «The Open Computer Vision Library,» [En línea]. Available: (http://sourceforge.net/projects/opencv/spa
dc.relation.references«ReadyBot,» [En línea]. Available: http://www.readybot.com/.spa
dc.relation.references«PR2,» [En línea]. Available: http://www.willowgarage.com.spa
dc.relation.references«Wakamaru,» [En línea]. Available: http://www.mhi.co.jp/kobe/wakamaru/english.spa
dc.relation.references«PaPeRo,» [En línea]. Available: http://www.nec.co.jp/robot/english/robotcenter e.htmspa
dc.relation.referencesToyota, «Partner Robot FAMILY,» [En línea]. Available: https://www.toyota-global.com/innovation/partner_robot/robot/.spa
dc.relation.referencesSoftBank Robotics, «Pepper Documentation,» [En línea]. Available: http://doc.aldebaran.com/2-4/home_pepper.html.spa
dc.relation.referencesF. S. N. Z. R. F. a. M. C. Dong Seon Cheng, «Semantically-driven automatic creation of training sets for object recognition,» Computer Vision and Image Understanding, vol. 131, pp. 56-71, 2015spa
dc.relation.referencesA. S. I. H. G. Krizhevsky, «Imagenet classification with deep convolutional neural networks,» Proc NIPS, 2012.spa
dc.relation.referencesC. L. W. J. Y. S. P. R. S. A. D. E. D. V. V. R. A. Szegedy, «Going deeper with convolutions. CoRR,» 2014.spa
dc.relation.references«Yolo,» [En línea]. Available: https://pjreddie.com/darknet/yolo/. [Último acceso: 07 2019].spa
dc.relation.referencesD. A. D. E. C. S. a. S. R. W. Liu, «SSD: Single shot multibox detector,» ECCV, 2016.spa
dc.relation.referencesP. G. R. G. K. H. P. D. a. F. A. R. (. Tsung-Yi Lin, «Focal Loss for Dense Object Detection,» ICCV, nº 2980 - 2988.spa
dc.relation.referencesA. F. Joseph Redmon, «YOLOv3: An Incremental Improvement,» 2018.spa
dc.relation.referencesL. D. ] L. Von Ahn, «Labeling images with a computer game,» Proceedings of the SIGCHI Conference on Human factors in Computing Systems, ACM, pp. 319 - 326, 2014.spa
dc.relation.referencesG. W. C.-W. N. Y.-G. J. S. Zhu, «On the sampling of web images for learning visual concept classifiers,» Proceedings of the ACM International Conference on Image and Video Retrieval, ACM, pp. 50 - 57, 2010.spa
dc.relation.referencesW. D. R. S. L.-J. L. K. L. L. F.-F. J. Deng, «ImageNet: a large-scale hierarchical image database,» IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 248 - 255, 2009.spa
dc.relation.referencesM. R. M. S. J. S. S. V. J. Y. T. Dean, «Fast, accurate detection of 100,000 object classes on a single machine,» IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 1814 - 1821, 2013.spa
dc.relation.referencesROS.org, «ROS,» [En línea]. Available: http://wiki.ros.org/. [Último acceso: 07 2019].spa
dc.relation.referencesROS.org, «vision_opencv,» [En línea]. Available: http://wiki.ros.org/vision_opencv.spa
dc.relation.referencesF. B. T. T. J. Y. N. H. a. B. C. Nizar Massouh, «Learning Deep Visual Object Models From Noisy Web Data: How to Make it Work,» 2017.spa
dc.relation.referencesA. K. T. M. A. T. C. Vondrick, «HOGgles: visualizing object detection features,» IEEE International Conference on Computer Vision (ICCV), 2013.spa
dc.relation.referencesC. F. (Ed.), «WordNet: An Electronic Lexical Database,» MIT Press, 1998.spa
dc.rightsAtribución-NoComercial-SinDerivadas 2.5 Colombia*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/2.5/co/*
dc.subject.keywordClassification and Recognition of objectsspa
dc.subject.keywordTraining DataSetspa
dc.subject.keywordService Robotsspa
dc.subject.keywordSupervised Learning  spa
dc.subject.proposalClasificación y Reconocimiento de objetosspa
dc.subject.proposalDataSet de Entrenamientospa
dc.subject.proposalRobots de Serviciospa
dc.subject.proposalAprendizaje Supervisadospa
dc.titleHerramienta para reconocimiento de objetos para la plataforma robótica pepperspa
dc.type.categoryFormación de Recurso Humano para la Ctel: Proyecto ejecutado con investigadores en empresas, industrias y Estadospa

Archivos

Bloque original

Mostrando 1 - 5 de 6
Cargando...
Miniatura
Nombre:
2019edgarcamacho1.pdf
Tamaño:
384.6 KB
Formato:
Adobe Portable Document Format
Descripción:
Acta 157 - Comité de Investigación - Ing Electrónica
Cargando...
Miniatura
Nombre:
2019edgarcamacho2.pdf
Tamaño:
839.74 KB
Formato:
Adobe Portable Document Format
Descripción:
Acta 2019-1 - grupo GED - Popuestas FODEIN 2020
Cargando...
Miniatura
Nombre:
2019edgarcamacho3.pdf
Tamaño:
955.84 KB
Formato:
Adobe Portable Document Format
Descripción:
Anexos Propuesta ToolKit para Reconocimiento de Objetos - FODEIN 2020
Cargando...
Miniatura
Nombre:
2019edgarcamacho4.pdf
Tamaño:
235.47 KB
Formato:
Adobe Portable Document Format
Descripción:
Aval Lider GED - Propuesta Herramientas Reconocimiento Objetos
Cargando...
Miniatura
Nombre:
2019edgarcamacho5.pdf
Tamaño:
5.18 MB
Formato:
Adobe Portable Document Format
Descripción:
Informe Turnitin-Propuesta Herramientas Reconocimiento Objetos

Bloque de licencias

Mostrando 1 - 1 de 1
Thumbnail USTA
Nombre:
license.txt
Tamaño:
807 B
Formato:
Item-specific license agreed upon to submission
Descripción:

Colecciones