13 research outputs found

    Sim-to-Real Reinforcement Learning for Deformable Object Manipulation

    Get PDF
    We have seen much recent progress in rigid object manipulation, but interaction with deformable objects has notably lagged behind. Due to the large configuration space of deformable objects, solutions using traditional modelling approaches require significant engineering work. Perhaps then, bypassing the need for explicit modelling and instead learning the control in an end-to-end manner serves as a better approach? Despite the growing interest in the use of end-to-end robot learning approaches, only a small amount of work has focused on their applicability to deformable object manipulation. Moreover, due to the large amount of data needed to learn these end-to-end solutions, an emerging trend is to learn control policies in simulation and then transfer them over to the real world. To-date, no work has explored whether it is possible to learn and transfer deformable object policies. We believe that if sim-to-real methods are to be employed further, then it should be possible to learn to interact with a wide variety of objects, and not only rigid objects. In this work, we use a combination of state-of-the-art deep reinforcement learning algorithms to solve the problem of manipulating deformable objects (specifically cloth). We evaluate our approach on three tasks --- folding a towel up to a mark, folding a face towel diagonally, and draping a piece of cloth over a hanger. Our agents are fully trained in simulation with domain randomisation, and then successfully deployed in the real world without having seen any real deformable objects.Comment: Published at the Conference on Robot Learning (CoRL) 201

    Benchmarking bimanual cloth manipulation

    Get PDF
    © 2020 IEEE. Personal use of this material is permitted. Permission from IEEE must be obtained for all other uses, in any current or future media, including reprinting/republishing this material for advertising or promotional purposes, creating new collective works, for resale or redistribution to servers or lists, or reuse of any copyrighted component of this work in other works.Cloth manipulation is a challenging task that, despite its importance, has received relatively little attention compared to rigid object manipulation. In this paper, we provide three benchmarks for evaluation and comparison of different approaches towards three basic tasks in cloth manipulation: spreading a tablecloth over a table, folding a towel, and dressing. The tasks can be executed on any bimanual robotic platform and the objects involved in the tasks are standardized and easy to acquire. We provide several complexity levels for each task, and describe the quality measures to evaluate task execution. Furthermore, we provide baseline solutions for all the tasks and evaluate them according to the proposed metrics.Peer ReviewedPostprint (author's final draft

    A Grasping-centered Analysis for Cloth Manipulation

    Get PDF
    Compliant and soft hands have gained a lot of attention in the past decade because of their ability to adapt to the shape of the objects, increasing their effectiveness for grasping. However, when it comes to grasping highly flexible objects such as textiles, we face the dual problem: it is the object that will adapt to the shape of the hand or gripper. In this context, the classic grasp analysis or grasping taxonomies are not suitable for describing textile objects grasps. This work proposes a novel definition of textile object grasps that abstracts from the robotic embodiment or hand shape and recovers concepts from the early neuroscience literature on hand prehension skills. This framework enables us to identify what grasps have been used in literature until now to perform robotic cloth manipulation, and allows for a precise definition of all the tasks that have been tackled in terms of manipulation primitives based on regrasps. In addition, we also review what grippers have been used. Our analysis shows how the vast majority of cloth manipulations have relied only on one type of grasp, and at the same time we identify several tasks that need more variety of grasp types to be executed successfully. Our framework is generic, provides a classification of cloth manipulation primitives and can inspire gripper design and benchmark construction for cloth manipulation.Comment: 13 pages, 4 figures, 4 tables. Accepted for publication at IEEE Transactions on Robotic

    双腕アームロボットによる布被覆作業に関する研究

    Get PDF
    本研究の目的は,物体を布で包む作業(被覆作業)をモデル化し,ロボットによる被覆作業を実現させることである.本論文では「目標線」の概念に基づいて物体を布で包む作業(被覆作業)をモデル化することを提案した.これにより,まず人間が大まかな包み方を教示し,次に布と物体の形状から被覆作業を計画し,最終的にロボットの動作を生成し,ロボットによる被覆作業を実現した.近年,工場のロボット化が行われているが,ロボット化できない作業はまだまだ存在している.それらは,人間にしか行えないような巧みで複雑な作業,あるいは,ロボットより人間の方が効率的にできてしまうような作業である.そのような作業の1つとして,布を扱う作業が挙げられる.布を扱う作業の中には,布単体だけでなく,物体も一緒に取り扱っていく被覆作業が多く存在している.しかし,この被覆作業をロボットに指示するための有効な作業モデルは確立されていない.先行研究では,ロボットによる布操作の記述方法として,点,折り線や手先経路が用いられている.また,コンピュータグラフィクス分野では目標線という記述方法があり,これは被覆を表現するために用いられている.被覆作業をロボット化する上では,まず,実世界のロボットのために,汎用的な被覆モデルとして必要となる物体と布の関係や作業手順を,どのように記述すればいいのかという問題に直面する.このような点を考慮し,被覆作業に適した記述モデルを導入しなければならない.次に,そのような被覆のための作業記述を,実際のロボットにどのように入力すればいいのかという問題がある.煩雑な指示方法ではなく,実空間上で人間が考えている被覆作業を,直感的にロボットに指示できるのが望ましい.最後に,その作業記述から実際のロボットの動きをどのように生成すればよいのかという問題が現れてくる.ロボットが被覆作業を達成するためには,実際の手先軌道や干渉を回避するための動作を,状況に合わせて生成しなければならない.以上を踏まえて,本研究ではロボットによる被覆作業の課題に取り組んだ.具体的には以下の課題について取り組んだ.・布と物体の関係を適切に表す記述方法・直感的な被覆手順の指示方法・ロボットの動作軌道の生成方法まず,布と物体の関係を適切に表す記述方法について検討した.本研究では,コンピュータグラフィクス分野で用いられた目標線という記述方法を,実空間のロボットに導入することを提案した.この目標線は平面だけでなく曲面形状への指示が行いやすい.そして,物体のどこを布で包んでいくかという被覆の本質的な情報を自然に表せる利点を持つ.その中では,凹凸が存在するような物体に対しても被覆を行う場合があり,その凹凸を適切に処理して,作業を記述する必要がある.そこで,物体の埋めるべき凹部と埋めるべきでない凹部分を考慮し,凹凸へ適切な目標線指示を行うための局所凸という概念,及び局所凸生成方法を提案した.次に,直感的な被覆手順の指示方法について検討した.本研究では,人間の大まかな包む指示と被覆の関係を考え,物体と布のどこを重ね合わせるかという人間の被覆の意図を目標線として入力する方法を提案した.本研究は,作業指示を行う手の正確な3次元的な軌跡ではなく,手の軌跡とその軌跡が通過していく物体表面の関係に注目した.そして,デプスセンサとモーションキャプチャセンサを組合せた教示デバイスを用いて,人間の被覆の意図を抽出した.その中では,指示中の手振れの影響を小さくするための目標線逆走防止処理手法とスムージングと間引き処理を合わせた補正処理手法を提案した.最後に,ロボットの動作軌道の生成方法について検討した.本研究では,目標線と把持点から布の動きを表す手先経路を生成する方法と,その手先経路を実行するためのロボット動作の生成方法を提案した.実際のロボットを動かすためには,目標線だけでなく,手先経路や動作指令が必要であり,可動域や物体との干渉を考慮し,右手と左手を用いた布の持ち替えや持ち直しを行わなければならない.これらの情報を生成する上で,目標線が被覆の本質的な情報を保持している.そのため,手先経路・動作指令は自動的に生成可能である.動作生成手法の中では,各操作の布への重力の影響,動作ステップ数やロボットと布の位置関係を考慮した確実性を求め,それを基に生成された動作遷移グラフを用いて,最適な持ち替えや持ち直し操作の組み合わせを計画する方法を提案した.以上,本研究では,物体を布で包むという被覆作業について,ロボット化のための枠組みを提案した.さらに,各課題に対する提案方法を統合し,一連の被覆作業システムとして実装した.これにより,実際に人間の大まかな指示から,目標線を用いて布と物体の関係を記述し,そこから布の動きを表す手先経路,状況に合わせた最適なロボット動作を生成できるようになりロボットによる被覆作業が実現した.電気通信大学201

    A framework for robotic clothing assistance by imitation learning

    Get PDF
    The recent demographic trend across developed nations shows a dramatic increase in the aging population, fallen fertility rates and a shortage of caregivers. Hence, the demand for service robots to assist with dressing which is an essential Activity of Daily Living (ADL) is increasing rapidly. Robotic Clothing Assistance is a challenging task since the robot has to deal with two demanding tasks simultaneously, (a) non-rigid and highly flexible cloth manipulation and (b) safe human–robot interaction while assisting humans whose posture may vary during the task. On the other hand, humans can deal with these tasks rather easily. In this paper, we propose a framework for robotic clothing assistance by imitation learning from a human demonstration to a compliant dual-arm robot. In this framework, we divide the dressing task into three phases, i.e. reaching phase, arm dressing phase, and body dressing phase. We model the arm dressing phase as a global trajectory modification using Dynamic Movement Primitives (DMP), while we model the body dressing phase toward a local trajectory modification applying Bayesian Gaussian Process Latent Variable Model (BGPLVM). We show that the proposed framework developed towards assisting the elderly is generalizable to various people and successfully performs a sleeveless shirt dressing task. We also present participants feedback on public demonstration at the International Robot Exhibition (iREX) 2017. To our knowledge, this is the first work performing a full dressing of a sleeveless shirt on a human subject with a humanoid robot
    corecore