Ihmismäisen robotin pään, silmien ja suun liikkeiden kehittäminen

Abstract

Tiivistelmä. Perinteisesti robotit ovat olleet tärkeässä roolissa muun muassa tehdastyön tehokkuuden kasvattamisessa, mutta viime vuosina robotiikan huomio on keskittynyt yhä enemmän ihmistä muistuttaviin robotteihin eli humanoidirobotteihin, joita voitaisiin käyttää useissa tehtävissä ihmisten korvikkeena. Ihmisen muoto kuitenkin aiheuttaa useita haasteita robotin suunnittelussa, suurimpien joukossa luonnollisilta vaikuttavien liikkeiden toteuttaminen. InMoov-robotin päälle toteutettiin ohjausjärjestelmä, joka parantaa aiemmin toteutettua kasvojen seuraamista yhdistämällä siihen pään liikkeet, ja lisää puhesynteesin perusteella liikkuvan leuan sekä erinäisiä pään eleitä ihmisen ja robotin vuorovaikutuksen parantamiseksi. Järjestelmän suoriutumista testattiin käyttötarkoituksen mukaisessa ympäristössä kahdella erillisellä kerralla, joissa ilmi tulleita havaintoja käytettiin järjestelmän parantamiseen. Lopullinen järjestelmä pystyy kääntämään robotin silmiä sekä päätä ihmismäisesti kohti tunnistettuja kasvoja ja suorittamaan valmiiksi ohjelmoituja pään eleitä, minkä lisäksi siinä on valmius yhdistää leuka liikkumaan ulkoisen ohjelmiston puheen mukaan. Robotin kokoonpano koostuu päästä, kaulasta, torsosta ja olkavarsista.Developing head, eye, and jaw movements of a humanoid robot. Abstract. Traditionally robots have had an important role in making factories more efficient, among other things, but in recent years the field of robotics has been more and more focused on robots that resemble humans, also known as humanoid robots, which could be used in many tasks as replacements for human workers. However, designing such robots poses many challenges, one of the greatest being the difficulty of creating human-like movements. In this work, a control system for the head of an InMoov robot, which improves on its previously implemented face tracking capabilities by adding head movement and implements speech synthesis-based jaw movements along with various head gestures in order to improve human-robot interaction with the robot, was implemented. The system was tested in its intended environment on two separate occasions in order to observe where the system could be improved further. The final system is able to turn the robot’s eyes and head towards detected faces in a human-like fashion and execute pre-programmed head gestures, in addition to which it has the capability to move its jaw according to speech synthesised in an external program. The robot consists of a head, a neck, a torso, and upper arms

    Similar works