10 research outputs found

    Rancang Bangun Sistem Navigasi Robot Beroda Pemandu Disabilitas Netra Menggunakan Metode Waypoint

    Get PDF
    Robotics has become a popular field of research for developing medical and human aids, including visually impaired people. This paper presents problem-solving of creating a robot that can guide visually impaired people outdoor using a Global Positioning System (GPS)-based navigation system with a waypoint method. This study uses Linkit ONE, which is equipped with a GPS as a determinant of the earth’s ordinate position, added with a compass module to determine the robot’s direction and a rotary encoder sensor to minimize the error of the robot’s position. There are two tests with four waypoints. Firstly, it is a test with no obstacles and holes. Secondly, it is the test with obstacles and holes. The first test results obtained an average error of waypoint-1 0.54 m(meters), waypoint-2 1.2 m, waypoint-3 1,9 m, and waypoint-4 1.7 m. Meanwhile, the second test results yielded an average error of waypoint-1 1.26 m, waypoint-2 2.18 m, waypoint-3 2.52 m, and waypoint-4 2,44 m. Therefore, the visual disability guidance robot with this waypoint method has good accuracy because the average error value of the robot is under a radius of 2 m when there are no obstacles and holes and under a radius of 3 m when there are obstacles and holes.

    Development and assessment of a contactless 3D joystick approach to industrial manipulator gesture control

    Get PDF
    This paper explores a novel design of ergonomic gesture control with visual feedback for the UR3 collaborative robot that aims to allow users with little to no familiarity with robots to complete basic tasks and programming. The principle behind the design mirrors that of a 3D joystick but utilises the Leapmotion device to track the user's hands and prevents any need for a physical joystick or buttons. The Rapid Upper Limb Assessment (RULA) ergonomic tool was used to inform the design and ensure the system was safe for long-term use. The developed system was assessed using the RULA tool for an ergonomic score and through an experiment requiring 19 voluntary participants to complete a basic task with both the gesture system and the UR3's RTP (Robot Teach Pendant), then filling out SUS (System Usability Scale) questionnaires to compare the usability of both systems. The task involved controlling the robot to pick up a pipe and then insert it into a series of slots of decreasing diameter, allowing for both the speed and accuracy of each system to be compared. The experiment found that even those with no previous robot experience were able to complete the tasks after only a brief description of how the gesture system works. Despite beating the RTP's ergonomic score, the system narrowly lost on average usability scores. However, as a contactless gesture system it has other advantages over the RTP and through this experiment many potential improvements were identified, paving the way for future work into assessing the significance of including the visual feedback and comparing this system against other gesture-based systems

    Towards Implementing a Software Tester for Benchmarking MAP-T Devices

    Get PDF
    Several IPv6 transition technologies have been designed and developed over the past few years to accelerate the full adoption of the IPv6 address pool. To make things more organized, the Benchmarking Working Group of IETF has standardized a comprehensive benchmarking methodology for these technologies in its RFC 8219. The Mapping of Address and Port using Translation (MAP-T) is one of the most important transition technologies that belong to the double translation category in RFC 8219. This paper aims at presenting our progress towards implementing the world’s first RFC 8219 compliant Tester for the MAP-T devices, more specifically, the MAP-T Customer Edge (CE) and the MAP-T Border Relay (BR). As part of the work of this paper, we presented a typical design for the Tester, followed by a discussion about the operational requirements, the scope of measurements, and some design considerations. Then, we installed a testbed for one of the MAP-T implementations, called Jool, and showed the results of the testbed. And finally, we ended up with a brief description of the MAP-T test program and its configuration parameters in case of testing the BR device

    Speaker Adaptation Experiments with Limited Data for End-to-End Text-To-Speech Synthesis using Tacotron2

    Get PDF
    Speech synthesis has the aim of generating humanlike speech from text. Nowadays, with end-to-end systems, highly natural synthesized speech can be achieved if a large enough dataset is available from the target speaker. However, often it would be necessary to adapt to a target speaker for whom only a few training samples are available. Limited data speaker adaptation might be a difficult problem due to the overly few training samples. Issues might appear with a limited speaker dataset, such as the irregular allocation of linguistic tokens (i.e., some speech sounds are left out from the synthesized speech). To build lightweight systems, measuring the number of minimum data samples and training epochs is crucial to acquire a reasonable quality. We conducted detailed experiments with four target speakers for adaptive speaker text-to-speech (TTS) synthesis to show the performance of the end-to-end Tacotron2 model and the WaveGlow neural vocoder with an English dataset at several training data samples and training lengths. According to our investigation of objective and subjective evaluations, the Tacotron2 model exhibits good performance in terms of speech quality and similarity for unseen target speakers at 100 sentences of data (pair of text and audio) with a relatively low training time

    Programación de un robot colaborativo de dos brazos para resolver el cubo de Rubik implementando visión artificial

    Get PDF
    El presente proyecto describe el diseño e implantación de un sistema formado por un robot colaborativo Yumi y una cámara de visión artificial, para la resolución de cubos de rubik de 3x3 y 2x2. El proyecto abarca todas las fases del proceso. partiendo de la selección de la cámara hasta la implantación final, incluyendo el diseño de los elementos auxiliares necesarios y la programación y comunicación de los distintos componentes que toman parte en el proyecto. El robot forma parte de una célula de montaje utilizada para la docencia en el departamento de Ingeniería de Sistemas y Automática de la Escuela de Ingeniería de Bilbao, y deberá de ser capaz de resolver el cubo de rubik sin interferir con los elementos que la componen, además de mantener un alto nivel de seguridad. Una vez diseñada la distribución de la célula, se utilizará el programa RobotStudio para simular el proceso. De esta forma se comprobará que los movimientos y trayectorias programadas son correctos y que el robot es capaz de realizarlos. A continuación, se implementará la estación real. Para ello, se realiza el diseño, impresión 3D y montaje de los elementos auxiliares necesarios, que permitirán colocar la cámara de visión artificial en posición. Con la cámara fijada, se programará el procesamiento de imágenes mediante la herramienta Matlab. De esta forma se podrá obtener la información del cubo necesaria para resolverlo, es decir, el tipo de cubo con el que se trabaja, su posición en la mesa (ya que el usuario puede depositarlo aleatoriamente en cualquier posición) y la manera en la que está desecho (es decir, cómo de desordenados están los colores de las piezas que conforman las caras del cubo). Partiendo de la información aportada por la cámara y siguiendo en Matlab, se programará un algoritmo que calcule los movimientos que resolverán cualquier configuración de los cubos de rubik de una forma eficiente. Hecho esto, se establecerá una conexión TCP/IP entre el robot y Matlab mediante la cual se le enviarán los movimientos a realizar para la resolución del cubo. Por último, se programará el robot real, implementando los movimientos programados mediante el simulador y validando el correcto funcionamiento de todo el sistema.The following project describes the design and implementation of a system consisting of a Yumi collaborative robot and an artificial vision camera, for the resolution of both the 3x3 and 2x2 rubik´s cubes. The project englobes all phases of the process, starting from the camera selection to the final implementation, including the design of the necessary auxiliary elements and the programming and communication of the different components that take part in the project. The robot is part of an assembly cell used with the purpose of teaching in the department of systems and automation engineering of the Bilbao engineering school and should be able to solve the rubik´s cube without interference with the elements that compose it, in addition to maintaining a high level of security. Once the cell distribution is designed, the RobotStudio program will be used to simulate the process. This way it will be verified that the movements and programmed paths are correct and that the robot is capable of carrying them out. Hereunder, the real station will be implemented. For this, the design, 3D printing and assembly of the necessary auxiliary elements will be carried out, which will allow to place the artificial vision camera in position. With the camera fixed in its place, the image processing will be programed using the Matlab tool. Thus obtaining information about the cube necessary to solve it, that is to say, the type of cube we are working with, its position on the table (since the user can deposit it randomly in any position) and the way that the cube its undone (the way the colors of the different pieces that make up the cube faces are positioned). Starting from the information collected from the camera and following on Matlab, an algorithm will be programmed to calculate the movements that will solve any configuration of rubik´s cubes in an efficient way. Done this, a TCP/IP connection will be established between the robot and Matlab through which the movements to be carried out for the resolution of the cube will be sent. Finally, the real robot will be programmed, implementing the movements programmed through the simulator and validating the correct operation of the entire system.Proiektu honek Yumi robot kolaboratibo batek eta ikusmen artifizialeko kamera batek , 3x3 eta 2x2 rubik kuboak ebazteko osatutatzen duten sistema baten diseinua eta ezarpena deskribatzen du. Proiektuak prozesuaren fase guztiak hartzen ditu, kamera eta robota aukeratzetik, azkenengo ezarpenera arte; beharrezko elementu osagarrien diseinua eta proiektuan parte hartzen duten osagaien programazioa eta komunikazioa barne. Robota Bilboko Ingeniaritza Eskolako Sistemen eta Automatika Sailean irakaskuntzarako erabiltzen den muntaia-zelula baten parte da, eta rubik kuboa konpontzeko gai izan behar du, hura osatzen duten elementuekin interferentziarik sortu gabe, eta segurtasun-maila handia izan maintenduz. Zelularen banaketa diseinatu ondoren, RobotStudio programa erabiliko da prozesua simulatzeko. Horrela, programatutako mugimendu eta ibilbideak zuzenak direla eta robota horiek egiteko gai dela egiaztatuko da. Ondoren, estazio erreala ezarriko da. Horretarako, ikusmen artifizialeko kamera posizioan jartzeko beharrezkoak diren osagarrien 3D diseinua, inprimaketa eta muntaketa egingo da. Kamera finkatuta, irudi-prozesamendua Matlab tresnaren bidez programatuko da. Hartara, kubo horri buruzko informazioa lortuko da, hau da, zer kubo-motarekin lan egiten den, zer posiziotan dagoen mahaian jarrita (erabiltzaileak edozein posiziotan utz baitezake ausaz) eta nola dagoen nahastuta (hau da, kuboaren aurpegiak osatzen dituzten piezen koloreak nola dauden kokatuta). Kamerak emandako informaziotik abiatuta eta Matlab-en jarraituz, rubik kuboa edozein konfiguraziotik modu eraginkorrean ebatziko duen mugimenduak kalkulatzeko algoritmo bat programatuko da. Hori egin ondoren, robotaren eta Matlab-en artean TCP/IP konexio bat ezarriko da, kuboa ebazteko egin beharreko mugimenduak bidaltzeko. Azkenik, robot erreala programatuko da, simulagailuaren bidez programatutako mugimenduak inplementatuz eta sistema osoaren funtzionamendu egokia balidatuz

    Programación de un robot colaborativo de dos brazos para resolver el cubo de Rubik implementando visión artificial

    Get PDF
    El presente proyecto describe el diseño e implantación de un sistema formado por un robot colaborativo Yumi y una cámara de visión artificial, para la resolución de cubos de rubik de 3x3 y 2x2. El proyecto abarca todas las fases del proceso. partiendo de la selección de la cámara hasta la implantación final, incluyendo el diseño de los elementos auxiliares necesarios y la programación y comunicación de los distintos componentes que toman parte en el proyecto. El robot forma parte de una célula de montaje utilizada para la docencia en el departamento de Ingeniería de Sistemas y Automática de la Escuela de Ingeniería de Bilbao, y deberá de ser capaz de resolver el cubo de rubik sin interferir con los elementos que la componen, además de mantener un alto nivel de seguridad. Una vez diseñada la distribución de la célula, se utilizará el programa RobotStudio para simular el proceso. De esta forma se comprobará que los movimientos y trayectorias programadas son correctos y que el robot es capaz de realizarlos. A continuación, se implementará la estación real. Para ello, se realiza el diseño, impresión 3D y montaje de los elementos auxiliares necesarios, que permitirán colocar la cámara de visión artificial en posición. Con la cámara fijada, se programará el procesamiento de imágenes mediante la herramienta Matlab. De esta forma se podrá obtener la información del cubo necesaria para resolverlo, es decir, el tipo de cubo con el que se trabaja, su posición en la mesa (ya que el usuario puede depositarlo aleatoriamente en cualquier posición) y la manera en la que está desecho (es decir, cómo de desordenados están los colores de las piezas que conforman las caras del cubo). Partiendo de la información aportada por la cámara y siguiendo en Matlab, se programará un algoritmo que calcule los movimientos que resolverán cualquier configuración de los cubos de rubik de una forma eficiente. Hecho esto, se establecerá una conexión TCP/IP entre el robot y Matlab mediante la cual se le enviarán los movimientos a realizar para la resolución del cubo. Por último, se programará el robot real, implementando los movimientos programados mediante el simulador y validando el correcto funcionamiento de todo el sistema.The following project describes the design and implementation of a system consisting of a Yumi collaborative robot and an artificial vision camera, for the resolution of both the 3x3 and 2x2 rubik´s cubes. The project englobes all phases of the process, starting from the camera selection to the final implementation, including the design of the necessary auxiliary elements and the programming and communication of the different components that take part in the project. The robot is part of an assembly cell used with the purpose of teaching in the department of systems and automation engineering of the Bilbao engineering school and should be able to solve the rubik´s cube without interference with the elements that compose it, in addition to maintaining a high level of security. Once the cell distribution is designed, the RobotStudio program will be used to simulate the process. This way it will be verified that the movements and programmed paths are correct and that the robot is capable of carrying them out. Hereunder, the real station will be implemented. For this, the design, 3D printing and assembly of the necessary auxiliary elements will be carried out, which will allow to place the artificial vision camera in position. With the camera fixed in its place, the image processing will be programed using the Matlab tool. Thus obtaining information about the cube necessary to solve it, that is to say, the type of cube we are working with, its position on the table (since the user can deposit it randomly in any position) and the way that the cube its undone (the way the colors of the different pieces that make up the cube faces are positioned). Starting from the information collected from the camera and following on Matlab, an algorithm will be programmed to calculate the movements that will solve any configuration of rubik´s cubes in an efficient way. Done this, a TCP/IP connection will be established between the robot and Matlab through which the movements to be carried out for the resolution of the cube will be sent. Finally, the real robot will be programmed, implementing the movements programmed through the simulator and validating the correct operation of the entire system.Proiektu honek Yumi robot kolaboratibo batek eta ikusmen artifizialeko kamera batek , 3x3 eta 2x2 rubik kuboak ebazteko osatutatzen duten sistema baten diseinua eta ezarpena deskribatzen du. Proiektuak prozesuaren fase guztiak hartzen ditu, kamera eta robota aukeratzetik, azkenengo ezarpenera arte; beharrezko elementu osagarrien diseinua eta proiektuan parte hartzen duten osagaien programazioa eta komunikazioa barne. Robota Bilboko Ingeniaritza Eskolako Sistemen eta Automatika Sailean irakaskuntzarako erabiltzen den muntaia-zelula baten parte da, eta rubik kuboa konpontzeko gai izan behar du, hura osatzen duten elementuekin interferentziarik sortu gabe, eta segurtasun-maila handia izan maintenduz. Zelularen banaketa diseinatu ondoren, RobotStudio programa erabiliko da prozesua simulatzeko. Horrela, programatutako mugimendu eta ibilbideak zuzenak direla eta robota horiek egiteko gai dela egiaztatuko da. Ondoren, estazio erreala ezarriko da. Horretarako, ikusmen artifizialeko kamera posizioan jartzeko beharrezkoak diren osagarrien 3D diseinua, inprimaketa eta muntaketa egingo da. Kamera finkatuta, irudi-prozesamendua Matlab tresnaren bidez programatuko da. Hartara, kubo horri buruzko informazioa lortuko da, hau da, zer kubo-motarekin lan egiten den, zer posiziotan dagoen mahaian jarrita (erabiltzaileak edozein posiziotan utz baitezake ausaz) eta nola dagoen nahastuta (hau da, kuboaren aurpegiak osatzen dituzten piezen koloreak nola dauden kokatuta). Kamerak emandako informaziotik abiatuta eta Matlab-en jarraituz, rubik kuboa edozein konfiguraziotik modu eraginkorrean ebatziko duen mugimenduak kalkulatzeko algoritmo bat programatuko da. Hori egin ondoren, robotaren eta Matlab-en artean TCP/IP konexio bat ezarriko da, kuboa ebazteko egin beharreko mugimenduak bidaltzeko. Azkenik, robot erreala programatuko da, simulagailuaren bidez programatutako mugimenduak inplementatuz eta sistema osoaren funtzionamendu egokia balidatuz

    Aplicación de un robot colaborativo de dos brazos para la resolución del cubo de rubik basado en visión artificial

    Get PDF
    ESPAÑOL: Con objeto de entretener y acercar al usuario al mundo de la robótica, este trabajo presenta una célula robotizada para la resolución de cubos de Rubik. El sistema está formado por el robot colaborativo YuMi de dos brazos y una cámara de visión artificial. Gracias a esta cámara, el sistema es capaz de detectar la posición y la configuración del cubo de Rubik, además de identificar si se trata de un cubo de 2x2 o de 3x3. Una vez detectado el cubo, el robot utiliza los dos brazos para resolver el cubo con el mínimo número de giros y movimientos posibles. Adicionalmente, con el fin de aumentar la comunicación entre el sistema y el usuario, se le ha añadido una pantalla táctil y un módulo de sonido.INGLES: In order to entertain and get robotics closer to the user, this work presents a robotic cell for the resolution of Rubik’s cubes. The system consists of the YuMi two-armed collaborative robot and an artificial vision camera. Thanks to this camera, the system is able to detect the position and configuration of the Rubik’s cube, in addition to identifying whether it is a 2x2 or 3x3 cube. Once the cube is detected, the robot uses its both arms to solve the cube with the minimum number of turns and movements possible. Additionally, in order to increase communication between the system and the user, a touch screen and a sound module have been added.EUSKERA: Robotikaren mundura hurbiltzeko eta entretenitzeko asmoz, Rubiken kuboak ebazteko zelula robotizatu bat aurkezten du lan honek. Sistema bi besoko YuMi robot kolaboratzaileak eta ikusmen artifizialeko kamera batek osatzen dute. Kamera honi esker, sistema Rubiken kuboaren posizioa eta konfigurazioa detektatzeko gai da, 2x2ko kuboa edo 3x3koa den identifikatzeaz gain. Kuboa detektatu ondoren, robotak bi besoak erabiltzen ditu kuboa ahalik eta bira eta mugimendu gutxienekin ebazteko. Gainera, sistemaren eta erabiltzailearen arteko komunikazioa areagotzeko, ukimen-pantaila bat eta soinu-modulu bat gehitu zaizkio
    corecore