[go: up one dir, main page]

JP7530815B2 - Wearable Robot - Google Patents

Wearable Robot Download PDF

Info

Publication number
JP7530815B2
JP7530815B2 JP2020204304A JP2020204304A JP7530815B2 JP 7530815 B2 JP7530815 B2 JP 7530815B2 JP 2020204304 A JP2020204304 A JP 2020204304A JP 2020204304 A JP2020204304 A JP 2020204304A JP 7530815 B2 JP7530815 B2 JP 7530815B2
Authority
JP
Japan
Prior art keywords
unit
leg
wearable robot
joint arm
support leg
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020204304A
Other languages
Japanese (ja)
Other versions
JP2022091459A (en
Inventor
安直 岡崎
浩康 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2020204304A priority Critical patent/JP7530815B2/en
Publication of JP2022091459A publication Critical patent/JP2022091459A/en
Application granted granted Critical
Publication of JP7530815B2 publication Critical patent/JP7530815B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、装着型ロボットに関するものである。 The present invention relates to a wearable robot.

近年、少子高齢化の進展に伴い、建築現場でもロボットを導入し、人間の負荷を軽減しようという取り組みが進められている。例えば、特許文献1には、天井パネルの施工を行うビス打ちロボットおよび天井パネル搬送ロボットが開示されている。また、特許文献2には、台車型の移動ロボットに多関節アームを取り付けることで構成され、天井パネルのビス打ちなど内装作業を行うロボット装置が開示されている。 In recent years, with the declining birthrate and aging population, efforts are being made to reduce the burden on humans at construction sites by introducing robots. For example, Patent Document 1 discloses a screw-driving robot and a ceiling panel transport robot that install ceiling panels. Patent Document 2 discloses a robot device that is composed of a cart-type mobile robot with a multi-joint arm attached, and that performs interior work such as driving screws into ceiling panels.

特開2012-11653号公報JP 2012-11653 A 特開平5-321454号公報Japanese Patent Application Publication No. 5-321454

しかしながら、建築現場には様々な環境が存在するため、特許文献1および特許文献2に開示されている従来のロボット装置には困難な作業がある。また、建築現場においては、人とロボットが共存し、共同作業や分担作業など、協働できるようにすることがロボット装置を活用する上で有効である。人とロボットとを協働させるには、人にロボットを装着させることも有効である。しかしながら、ロボットは比較的重たいため、作業することが困難な場合がある。 However, because construction sites involve a variety of environments, there are tasks that are difficult for the conventional robotic devices disclosed in Patent Documents 1 and 2 to perform. Furthermore, at construction sites, it is effective in utilizing robotic devices to enable people and robots to coexist and work together, such as by working together or sharing tasks. To enable people and robots to work together, it is also effective to have the person wear a robot. However, because robots are relatively heavy, it can be difficult to work with them.

本発明は、上述した課題を解決するもので、人とロボットとの協働を容易に行うことができる装着型ロボットを提供することを目的とする。 The present invention aims to solve the above-mentioned problems by providing a wearable robot that can easily collaborate with humans and robots.

上記目的を達成するために、本発明の装着型ロボットは、多関節アームと、多関節アームの基端が取り付けられ、人体に着脱可能に構成された装着部と、支持面に接することで多関節アームを支える支持脚と、前記支持脚の姿勢を計測する姿勢計測部と、前記多関節アームの動作を制御するとともに、前記姿勢計測部の計測結果を用いて算出される前記多関節アームの移動量に基づいて、前記多関節アームの動作を補正する制御装置と、を備えている。 In order to achieve the above-mentioned objective, the wearable robot of the present invention comprises a multi-joint arm, a mounting unit to which the base end of the multi-joint arm is attached and which is configured to be attached and detached to the human body, a support leg that supports the multi-joint arm by contacting a support surface , an attitude measurement unit that measures the attitude of the support leg, and a control device that controls the operation of the multi-joint arm and corrects the operation of the multi-joint arm based on the amount of movement of the multi-joint arm calculated using the measurement results of the attitude measurement unit .

本発明の装着型ロボットによれば、人とロボットとの協働を容易に行うことができる。 The wearable robot of the present invention makes it easy for humans and robots to work together.

本発明の第1実施形態に係る装着型ロボットの概要図1 is a schematic diagram of a wearable robot according to a first embodiment of the present invention; 図1Aに示す装着型ロボットの背面図FIG. 1B is a rear view of the wearable robot shown in FIG. 支持脚が縮まった状態を示す図Diagram showing the support legs in the retracted position 支持脚が傾斜した状態を示す図Diagram showing the support legs tilted 装着型ロボットのブロック図Block diagram of wearable robot 制御装置が実行するプログラムのフローチャートFlowchart of a program executed by the control device 制御装置が実行するプログラムのフローチャートFlowchart of a program executed by the control device 装着型ロボットの動作を示す図Diagram showing the operation of the wearable robot 装着型ロボットの動作を示す図Diagram showing the operation of the wearable robot 装着型ロボットの動作を示す図Diagram showing the operation of the wearable robot 本発明の第2実施形態に係る装着型ロボットの概要図Schematic diagram of a wearable robot according to a second embodiment of the present invention. 図8に示す支持脚の部分断面拡大図FIG. 9 is an enlarged partial cross-sectional view of the support leg shown in FIG. 本発明の第2実施形態の変形例に係る支持脚の部分断面拡大図FIG. 13 is an enlarged partial cross-sectional view of a support leg according to a modified example of the second embodiment of the present invention. 本発明の第3実施形態に係る装着型ロボットのブロック図Block diagram of a wearable robot according to a third embodiment of the present invention. 本発明の第3実施形態に係る装着型ロボットの動作を示す図FIG. 13 is a diagram showing the operation of the wearable robot according to the third embodiment of the present invention. 本発明の第1実施形態の変形例に係る装着型ロボットの概要図FIG. 1 is a schematic diagram of a wearable robot according to a modified example of the first embodiment of the present invention;

<第1実施形態>
以下、本発明の第1実施形態における装着型ロボットについて、図面を参照しながら説明する。以下では、図1Aにおける上側および下側をそれぞれ装着型ロボット1の上方および下方として説明する。
First Embodiment
A wearable robot according to a first embodiment of the present invention will be described below with reference to the drawings. In the following description, the upper and lower sides in Fig. 1A are respectively above and below the wearable robot 1.

装着型ロボット1は、人と協働して作業を行うロボットであり、例えば建築現場で天井パネルのビス打ちなどの作業を行う。装着型ロボット1は、図1Aおよび図1Bに示すように、装着部10、支持脚20、多関節アーム30、姿勢計測部40、カメラ50、および、制御装置60を備えている。 The wearable robot 1 is a robot that works in collaboration with humans, for example, at a construction site to perform tasks such as driving screws into ceiling panels. As shown in Figs. 1A and 1B, the wearable robot 1 includes a mounting unit 10, support legs 20, an articulated arm 30, a posture measurement unit 40, a camera 50, and a control device 60.

装着部10は、多関節アーム30を人体Hに固定するためのものである。装着部10は、人体Hに着脱可能に構成されている。装着部10は、フレーム11および複数のベルト12,13,14を備えている。フレーム11は、枠状に形成されている。フレーム11は、腕が通されて肩に掛けられることで、人体Hに装着される。複数のベルト12,13,14は、フレーム11を人体Hに固定するものである。本実施形態においてベルトの本数は3つであるが、これに限定されないことは言うまでもない。装着部10の下側には、支持脚20の基端(上端)が取り付けられている。装着部10の上側には、多関節アーム30が取り付けられている。 The mounting unit 10 is for fixing the multi-joint arm 30 to the human body H. The mounting unit 10 is configured to be detachable from the human body H. The mounting unit 10 includes a frame 11 and multiple belts 12, 13, and 14. The frame 11 is formed in a frame shape. The frame 11 is attached to the human body H by having the arm passed through it and hanging it on the shoulder. The multiple belts 12, 13, and 14 are for fixing the frame 11 to the human body H. In this embodiment, the number of belts is three, but it goes without saying that this is not limited to this. The base end (upper end) of the support leg 20 is attached to the lower side of the mounting unit 10. The multi-joint arm 30 is attached to the upper side of the mounting unit 10.

支持脚20は、支持面Fに接することで、装着部10および多関節アーム30を支えるものである。支持面Fは、装着型ロボット1を装着した作業者がいる場所の表面である。支持面Fは、例えば、床面や地面である。支持脚20は、棒状に形成され、伸縮自在に構成されている。 The support legs 20 support the mounting unit 10 and the articulated arm 30 by contacting the support surface F. The support surface F is the surface on which the worker wearing the wearable robot 1 is located. The support surface F is, for example, the floor or the ground. The support legs 20 are formed in a rod shape and are configured to be extendable and retractable.

装着型ロボット1が目的の作業を行う場合、支持脚20の先端(下端)が支持面Fに接触するように長さが調整される(図1A、図1B)。支持脚20の先端が支持面Fに接触している場合、支持脚20は多関節アーム30および装着部10の重量を支える。よって、支持脚20は、人体Hの負荷を軽減することができる。 When the wearable robot 1 performs a target task, the length of the support leg 20 is adjusted so that the tip (lower end) of the support leg 20 comes into contact with the support surface F (FIGS. 1A and 1B). When the tip of the support leg 20 comes into contact with the support surface F, the support leg 20 supports the weight of the articulated arm 30 and the mounting unit 10. Thus, the support leg 20 can reduce the load on the human body H.

一方、作業者が作業を終了して移動をする場合、支持脚20を縮めることで、多関節アーム30を容易に運搬することができる(図2)。 On the other hand, when the worker finishes work and moves, the articulated arm 30 can be easily transported by retracting the support legs 20 (Figure 2).

多関節アーム30は、マニピュレータである。本実施形態の多関節アーム30は、自由度を5つ有するが、これに限定されないことは言うまでもない。多関節アーム30は、土台31、肩ブロック32、複数の上腕リンク33、肘ブロック34、前腕リンク35、および、ハンド36を備えている。 The multi-joint arm 30 is a manipulator. In this embodiment, the multi-joint arm 30 has five degrees of freedom, but it goes without saying that this is not limited to this. The multi-joint arm 30 includes a base 31, a shoulder block 32, a number of upper arm links 33, an elbow block 34, a forearm link 35, and a hand 36.

土台31は、装着部10の上面に取り付けられている。土台31には、肩ブロック32の第1端部が第1関節軸J1回りに回転可能に接続されている。第1関節軸J1は、支持脚20の軸線20aと同軸である。肩ブロック32の第2端部には、複数の上腕リンク33を介して、肘ブロック34が接続されている。 The base 31 is attached to the upper surface of the mounting part 10. A first end of a shoulder block 32 is connected to the base 31 so as to be rotatable around a first joint axis J1. The first joint axis J1 is coaxial with the axis 20a of the support leg 20. An elbow block 34 is connected to a second end of the shoulder block 32 via multiple upper arm links 33.

肩ブロック32、複数の上腕リンク33および肘ブロック34は、平行リンク機構を構成する。肩ブロック32と複数の上腕リンク33との回転中心となる回転軸、および、複数の上腕リンク33と肘ブロック34との回転中心となる回転軸をまとめて第2関節軸J2という。第2関節軸J2と第1関節軸J1とのなす角は、直角である。本実施形態の上腕リンク33の個数および第2関節軸J2の個数は、4つであるが、これに限定されないことは言うまでもない。 The shoulder block 32, the upper arm links 33, and the elbow block 34 form a parallel link mechanism. The rotation axis that is the center of rotation between the shoulder block 32 and the upper arm links 33, and the rotation axis that is the center of rotation between the upper arm links 33 and the elbow block 34 are collectively referred to as the second joint axis J2. The angle between the second joint axis J2 and the first joint axis J1 is a right angle. In this embodiment, the number of upper arm links 33 and the number of second joint axes J2 are four, but it goes without saying that this is not limited to four.

肘ブロック34には、前腕リンク35の第1端部が第3関節軸J3回りに回転可能に接続されている。第3関節軸J3は、第1関節軸J1と互いに平行である。上述したように、肩ブロック32、複数の上腕リンク33および肘ブロック34は、平行リンク機構を構成するため、肘ブロック34は、第3関節軸J3と第1関節軸J1とが平行となるように、肩ブロック32に対して移動する。 The first end of the forearm link 35 is connected to the elbow block 34 so as to be rotatable around the third joint axis J3. The third joint axis J3 is parallel to the first joint axis J1. As described above, the shoulder block 32, the upper arm links 33, and the elbow block 34 form a parallel link mechanism, so that the elbow block 34 moves relative to the shoulder block 32 so that the third joint axis J3 and the first joint axis J1 are parallel to each other.

前腕リンク35の第2端部には、ハンド36が第4関節軸J4および第5関節軸J5の回りに回転可能に接続されている。第4関節軸J4と第5関節軸J5とは、互いに直交する。第4関節軸J4および第5関節軸J5それぞれと、第1関節軸J1とのなす角は、直角である。 The hand 36 is connected to the second end of the forearm link 35 so as to be rotatable around the fourth joint axis J4 and the fifth joint axis J5. The fourth joint axis J4 and the fifth joint axis J5 are perpendicular to each other. The angles between the fourth joint axis J4 and the fifth joint axis J5 and the first joint axis J1 are right angles.

ハンド36は、例えば電動ドライバなどの工具Dを把持するものである。 The hand 36 holds a tool D, such as an electric screwdriver.

また、多関節アーム30は、複数の駆動部Mおよび複数の角度検出部Eを備えている。駆動部Mは、例えばモータである。駆動部Mは、肩ブロック32、肘ブロック34、前腕リンク35、および、ハンド36をそれぞれ対応する関節軸回りに回転させるものである。第1の駆動部M1は、土台31に対して第1関節軸J1回りに肩ブロック32を回転させる。第2の駆動部M2は、肩ブロック32に対して第2関節軸J2回りに肘ブロック34を回転させる。第3の駆動部M3は、肘ブロック34に対して第3関節軸J3回りに前腕リンク35を回転させる。第4の駆動部M4は、前腕リンク35に対して第4関節軸J4回りにハンド36を回転させる。第5の駆動部M5は、前腕リンク35に対して第5関節軸J5回りにハンド36を回転させる。複数の駆動部Mは、制御装置60によって制御される。 The articulated arm 30 also includes a plurality of drive units M and a plurality of angle detection units E. The drive unit M is, for example, a motor. The drive unit M rotates the shoulder block 32, the elbow block 34, the forearm link 35, and the hand 36 around the corresponding joint axes. The first drive unit M1 rotates the shoulder block 32 around the first joint axis J1 relative to the base 31. The second drive unit M2 rotates the elbow block 34 around the second joint axis J2 relative to the shoulder block 32. The third drive unit M3 rotates the forearm link 35 around the third joint axis J3 relative to the elbow block 34. The fourth drive unit M4 rotates the hand 36 around the fourth joint axis J4 relative to the forearm link 35. The fifth drive unit M5 rotates the hand 36 around the fifth joint axis J5 relative to the forearm link 35. The multiple drive units M are controlled by the control device 60.

複数の角度検出部Eは、駆動部Mの回転角度を検出するものである。複数の角度検出部Eは、例えばエンコーダである。第1乃至E5の角度検出部E1~E5は、第1乃至第5の駆動部M1~M5にそれぞれ対応するように配置されている。角度検出部Eの検出結果は、制御装置60に送信される。 The multiple angle detection units E detect the rotation angle of the drive unit M. The multiple angle detection units E are, for example, encoders. The first to fifth angle detection units E1 to E5 are arranged to correspond to the first to fifth drive units M1 to M5, respectively. The detection results of the angle detection units E are transmitted to the control device 60.

また、多関節アーム30には、基準座標系Σおよび手先座標系Σが定義されている。 Further, for the articulated arm 30, a reference coordinate system Σ 0 and a hand coordinate system Σ e are defined.

基準座標系Σは、土台31に配置された座標系である。基準座標系Σの原点は、土台31の底面と支持脚20の軸線20aとの交点に配置され、支持脚20の軸線20aおよび第1関節軸J1と同軸の基準Z軸Z、基準Z軸Zに直交する基準X軸X、および、基準Z軸Zおよび基準X軸Xに直交する基準Y軸Yを備えている。なお、基準座標系Σの原点が配置された土台31の底面と支持脚20の軸線20aとの交点は、多関節アーム30の基端に相当する。 The reference coordinate system Σ0 is a coordinate system disposed on the base 31. The origin of the reference coordinate system Σ0 is disposed at the intersection of the bottom surface of the base 31 and the axis 20a of the support leg 20, and the reference coordinate system Σ0 includes a reference Z-axis Z0 that is coaxial with the axis 20a of the support leg 20 and the first joint axis J1, a reference X-axis X0 that is perpendicular to the reference Z-axis Z0, and a reference Y-axis Y0 that is perpendicular to the reference Z-axis Z0 and the reference X-axis X0 . The intersection of the bottom surface of the base 31, where the origin of the reference coordinate system Σ0 is disposed, and the axis 20a of the support leg 20 corresponds to the base end of the articulated arm 30.

手先座標系Σは、ハンド36に配置された座標系である。第4関節軸J4と同軸の手先X軸X、および、第5関節軸J5と同軸の手先Y軸Y、および、手先X軸Xおよび手先Y軸Yに直交する手先Z軸Zを備えている。 The hand coordinate system Σe is a coordinate system arranged in the hand 36. It includes a hand X-axis Xe that is coaxial with the fourth joint axis J4, a hand Y-axis Ye that is coaxial with the fifth joint axis J5, and a hand Z-axis Ze that is perpendicular to the hand X-axis Xe and the hand Y-axis Ye .

基準座標系Σにおける手先座標系Σの原点位置の座標(x,y,z)をハンド36の位置とする。xは、基準X軸Xの値である。yは、基準Y軸Yの値である。zは、基準Z軸Zの値である。また、基準座標系Σに対する手先座標系Σの回転角度(θ1,ψ1)を、ハンド36の姿勢とする。θ1は、基準Y軸Y回りの回転角度である。ψ1は、基準X軸X回りの回転角度である。 The coordinates (x, y, z) of the origin position of the hand end coordinate system Σe in the reference coordinate system Σ0 are defined as the position of the hand 36. x is the value of the reference X-axis X0 . y is the value of the reference Y-axis Y0 . z is the value of the reference Z-axis Z0 . In addition, the rotation angle (θ1, ψ1) of the hand end coordinate system Σe relative to the reference coordinate system Σ0 is defined as the posture of the hand 36. θ1 is the rotation angle around the reference Y-axis Y0 . ψ1 is the rotation angle around the reference X-axis X0 .

ここで、基準座標系Σにおいて、ハンド36の位置および姿勢を表す手先ベクトルrをr=[x,y,z,θ1,ψ1]と定義する。厳密には、手先ベクトルrは時系列情報(すなわち時間関数)であり、r(t)=[x(t),y(t),z(t),θ1(t),ψ1(t)]と表すことができる。手先ベクトルrを一階微分すればハンド36の速度、二階微分すればハンド36の加速度を得ることができる。 Here, in the reference coordinate system Σ0 , the hand end vector r representing the position and posture of the hand 36 is defined as r = [x, y, z, θ1, ψ1] T. Strictly speaking, the hand end vector r is time series information (i.e., a time function) and can be expressed as r(t) = [x(t), y(t), z(t), θ1(t), ψ1(t)] T. The velocity of the hand 36 can be obtained by first-order differentiation of the hand end vector r, and the acceleration of the hand 36 can be obtained by second-order differentiation.

姿勢計測部40は、装着部10に配置され、支持脚20の姿勢を計測するものである。支持脚20の姿勢は、具体的には、支持脚20の鉛直方向に対する傾きおよび支持脚20の軸線20a回りの回転角度である。図3に示すように、支持脚20の鉛直方向に対する傾きは、脚ピッチ角θ2および脚ヨー角ψ2にて表される。脚ピッチ角θ2および脚ヨー角ψ2は、支持脚20の先端が位置する水平面上において互いに直交する2つの軸線回りの回転角度を表す。また、支持脚20の軸線20a回りの回転角度は、脚ロール角φ2にて表される。脚ピッチ角θ2、脚ヨー角ψ2および脚ロール角φ2は、人体Hが揺動することによって変化する。人体Hの揺動とは、人体Hが揺れたり、傾いたりする動きである。 The posture measuring unit 40 is disposed in the mounting unit 10 and measures the posture of the support leg 20. Specifically, the posture of the support leg 20 is the inclination of the support leg 20 with respect to the vertical direction and the rotation angle of the support leg 20 around the axis 20a. As shown in FIG. 3, the inclination of the support leg 20 with respect to the vertical direction is represented by the leg pitch angle θ2 and the leg yaw angle ψ2. The leg pitch angle θ2 and the leg yaw angle ψ2 represent the rotation angles around two axes that are perpendicular to each other on the horizontal plane on which the tip of the support leg 20 is located. The rotation angle of the support leg 20 around the axis 20a is represented by the leg roll angle φ2. The leg pitch angle θ2, the leg yaw angle ψ2, and the leg roll angle φ2 change as the human body H swings. The swing of the human body H is a movement in which the human body H swings or tilts.

姿勢計測部40は、重力センサ41およびジャイロセンサ42を備えている。重力センサ41は、支持脚20の鉛直方向に対する角度を検出する加速度センサであり、脚ピッチ角θ2および脚ヨー角ψ2を計測する。ジャイロセンサ42は、支持脚20の角度を検出するためセンサである。ジャイロセンサ42は、具体的には、支持脚20の軸線20a回りの回転角度である脚ロール角φ2を計測する。姿勢計測部40の計測結果は、制御装置60に送信される。姿勢計測部40は、重力センサ41およびジャイロセンサ42によって、支持脚20の姿勢を容易に計測することができる。 The attitude measurement unit 40 includes a gravity sensor 41 and a gyro sensor 42. The gravity sensor 41 is an acceleration sensor that detects the angle of the support leg 20 relative to the vertical direction, and measures the leg pitch angle θ2 and the leg yaw angle ψ2. The gyro sensor 42 is a sensor for detecting the angle of the support leg 20. Specifically, the gyro sensor 42 measures the leg roll angle φ2, which is the rotation angle of the support leg 20 around the axis 20a. The measurement results of the attitude measurement unit 40 are transmitted to the control device 60. The attitude measurement unit 40 can easily measure the attitude of the support leg 20 using the gravity sensor 41 and the gyro sensor 42.

カメラ50は、目的の作業を行う作業箇所の画像を取得する。カメラ50が取得した画像は、制御装置60に送信される。 The camera 50 captures images of the work area where the desired work is to be performed. The images captured by the camera 50 are sent to the control device 60.

制御装置60は、装着型ロボット1を統括制御するコンピュータである。制御装置60は、図4に示すように、入力部61、アーム軌道制御部62、作業処理部63、および、出力部64を備えている。入力部61、アーム軌道制御部62、作業処理部63、および、出力部64は、専用のハードウエアまたはソフトウェアを実行するプロセッサによって構成されている。本実施形態では、アーム軌道制御部62および作業処理部63は、ソフトウェアを実行するプロセッサによって構成されている。つまり、制御装置60は、後述するプログラムを実行することにより、入力部61、アーム軌道制御部62、作業処理部63、および、出力部64として機能する。 The control device 60 is a computer that controls the wearable robot 1. As shown in FIG. 4, the control device 60 includes an input unit 61, an arm trajectory control unit 62, a work processing unit 63, and an output unit 64. The input unit 61, the arm trajectory control unit 62, the work processing unit 63, and the output unit 64 are configured by dedicated hardware or a processor that executes software. In this embodiment, the arm trajectory control unit 62 and the work processing unit 63 are configured by a processor that executes software. In other words, the control device 60 functions as the input unit 61, the arm trajectory control unit 62, the work processing unit 63, and the output unit 64 by executing a program described below.

また、制御装置60は、装着型ロボット1とは別体であってもよい。この場合、制御装置60は、姿勢計測部40、角度検出部Eおよび駆動部Mと、有線または無線にて通信可能に接続される。すなわち、多関節アーム30は、制御装置60によって遠隔操作される。この場合の制御装置60は、例えばスマートフォンであってもよい。 The control device 60 may be separate from the wearable robot 1. In this case, the control device 60 is connected to the posture measurement unit 40, the angle detection unit E, and the drive unit M in a wired or wireless manner so as to be able to communicate with them. In other words, the multi-joint arm 30 is remotely controlled by the control device 60. In this case, the control device 60 may be, for example, a smartphone.

入力部61は、姿勢計測部40の計測結果、複数の角度検出部Eの検出結果、および、カメラ50が撮影した画像を取得する。 The input unit 61 acquires the measurement results of the orientation measurement unit 40, the detection results of the multiple angle detection units E, and the images captured by the camera 50.

姿勢計測部40の計測結果は、脚ピッチ角θ2、脚ヨー角ψ2および脚ロール角φ2の変化量(以下、姿勢変化量ΔΦ(={θ2,ψ2,φ2})と記載する。)である。入力部61は、姿勢変化量ΔΦをアーム軌道制御部62に送信する。 The measurement results of the posture measurement unit 40 are the changes in the leg pitch angle θ2, leg yaw angle ψ2, and leg roll angle φ2 (hereinafter referred to as posture change amount ΔΦ (= {θ2, ψ2, φ2})). The input unit 61 transmits the posture change amount ΔΦ to the arm trajectory control unit 62.

複数の角度検出部Eの検出結果は、q、q、q、q、および、qにて表される。qは、第1の駆動部M1の回転角度である。qは、第2の駆動部M2の回転角度である。qは、第3の駆動部M3の回転角度である。qは、第4の駆動部M4の回転角度である。qは、第5の駆動部M5の回転角度である。以下、駆動部Mの回転角度を関節角度と記載する。入力部61は、各駆動部M1~M5の現在の関節角度である現在関節角度q(={q,q,q,q,q})をアーム軌道制御部62に送信する。 The detection results of the multiple angle detection units E are represented by q1 , q2 , q3 , q4 , and q5 . q1 is the rotation angle of the first drive unit M1. q2 is the rotation angle of the second drive unit M2. q3 is the rotation angle of the third drive unit M3. q4 is the rotation angle of the fourth drive unit M4. q5 is the rotation angle of the fifth drive unit M5. Hereinafter, the rotation angle of the drive unit M will be referred to as the joint angle. The input unit 61 transmits the current joint angle q (={ q1 , q2 , q3 , q4 , q5 }), which is the current joint angle of each drive unit M1 to M5, to the arm trajectory control unit 62.

入力部61は、カメラ50が撮影した画像を、作業処理部63に送信する。 The input unit 61 transmits the images captured by the camera 50 to the work processing unit 63.

アーム軌道制御部62は、制御装置60の記憶領域(不図示)に予め格納されている後述するプログラムを実行することで、多関節アーム30の動作を制御する。アーム軌道制御部62は、具体的には、目標位置および移動時間を取得して、ハンド36の位置を取得した移動時間で取得した目標位置に移動させるように、多関節アーム30の動作を制御する。アーム軌道制御部62は、具体的には、各駆動部M1~M5の操作量(具体的には角速度)を算出する。アーム軌道制御部62は、目標位置および移動時間を作業処理部63から取得する(詳細は後述する)。 The arm trajectory control unit 62 controls the operation of the articulated arm 30 by executing a program (described later) that is pre-stored in a memory area (not shown) of the control device 60. Specifically, the arm trajectory control unit 62 acquires a target position and a movement time, and controls the operation of the articulated arm 30 so as to move the position of the hand 36 to the acquired target position in the acquired movement time. Specifically, the arm trajectory control unit 62 calculates the operation amount (specifically, angular velocity) of each of the drive units M1 to M5. The arm trajectory control unit 62 acquires the target position and the movement time from the work processing unit 63 (details will be described later).

アーム軌道制御部62は、軌道生成部62a、揺動補正部62b、逆運動学計算部62c、角度誤差計算部62d、および、角度誤差補償部62eを備えている。アーム軌道制御部62は、プロセッサが後述するプログラムを実行することで、軌道生成部62a、揺動補正部62b、逆運動学計算部62c、角度誤差計算部62d、および、角度誤差補償部62eとして機能する。 The arm trajectory control unit 62 includes a trajectory generation unit 62a, a swing correction unit 62b, an inverse kinematics calculation unit 62c, an angle error calculation unit 62d, and an angle error compensation unit 62e. The arm trajectory control unit 62 functions as the trajectory generation unit 62a, the swing correction unit 62b, the inverse kinematics calculation unit 62c, the angle error calculation unit 62d, and the angle error compensation unit 62e by the processor executing a program described below.

軌道生成部62aは、ハンド36が現在の位置から目標位置まで移動時間で移動するハンド36の位置の軌道に相当する手先ベクトルrの時系列データを生成する。現在のハンド36の位置は、アーム軌道制御部62が取得した前回の目標位置に相当する。なお、前回の目標位置は、記憶領域に記憶されている。 The trajectory generating unit 62a generates time series data of the hand tip vector r, which corresponds to the trajectory of the position of the hand 36 as it moves from the current position to the target position over a movement time. The current position of the hand 36 corresponds to the previous target position acquired by the arm trajectory control unit 62. The previous target position is stored in the memory area.

軌道生成部62aは、前回の目標位置を示す手先ベクトルrから、取得した目標位置(すなわち今回の目標位置)を示す手先ベクトルrまで、生成した時系列データに沿って順に手先ベクトルrを出力する。軌道生成部62aが出力する手先ベクトルrを軌道手先ベクトルrと記載する。 The trajectory generating unit 62a outputs the hand vector r in order along the generated time series data from the hand vector r indicating the previous target position to the hand vector r indicating the acquired target position (i.e., the current target position). The hand vector r output by the trajectory generating unit 62a is referred to as the trajectory hand vector r d .

揺動補正部62bは、軌道生成部62aから出力された軌道手先ベクトルrを人体Hの揺動に応じて補正する。人体Hの揺動は、姿勢変化量ΔΦとして入力部61を介して姿勢計測部40から送信される。揺動補正部62bは、式(1)に基づいて、軌道手先ベクトルrを補正した補正手先ベクトルrdmを算出する。 The swing correction unit 62b corrects the trajectory hand vector r d output from the trajectory generation unit 62a in accordance with the swing of the human body H. The swing of the human body H is transmitted from the posture measurement unit 40 via the input unit 61 as a posture change amount ΔΦ. The swing correction unit 62b calculates a corrected hand vector r dm by correcting the trajectory hand vector r d based on the formula (1).

(式1)
dm=Rψθφ{r+[0,0,L]}・・・(1)
(Equation 1)
r dm = R ψ R θ R φ {r d + [0,0,L] T }...(1)

ψ、Rθ、Rφはそれぞれ、脚ロール角φ2、脚ヨー角ψ2、脚ピッチ角θ2の回転行列である。Lは、支持脚20の先端から基準座標系Σの原点までの距離である。式(1)は、人体Hが揺動したことによって生じる支持脚20の姿勢変化量ΔΦを、多関節アーム30の移動量に変換して、軌道手先ベクトルrを補正する。多関節アーム30の移動量は、具体的には、多関節アーム30の基端に相当する基準座標系Σの原点の支持脚20の先端から見た変位量および支持脚20の軸線20a回りの回転量である。 R ψ , R θ , and R φ are rotation matrices of the leg roll angle φ2, the leg yaw angle ψ2, and the leg pitch angle θ2, respectively. L is the distance from the tip of the supporting leg 20 to the origin of the reference coordinate system Σ 0. Equation (1) converts the posture change amount ΔΦ of the supporting leg 20 caused by the swinging of the human body H into the movement amount of the multi-joint arm 30, and corrects the trajectory hand vector r d . The movement amount of the multi-joint arm 30 is specifically the displacement amount seen from the tip of the supporting leg 20 of the origin of the reference coordinate system Σ 0 corresponding to the base end of the multi-joint arm 30, and the rotation amount of the supporting leg 20 around the axis 20a.

なお、式(1)は、支持脚20の先端が支持面Fに接触し、かつ、支持脚20の先端が支持面Fに対して移動していない状態において、支持脚20が水平面に対して傾く場合、および、支持脚20が軸線20a回りに回転する場合を前提としたものである。また、式(1)は、基準座標系Σの原点が支持脚20の軸線20a上に配置され、かつ、支持脚20の軸線20aと基準Z軸Zとが同軸である場合を前提としたものである。このように式(1)が構成されているため、人体Hの揺動によって生じる支持脚20の水平面に対する傾きおよび支持脚20の軸線20a回りの回転角度を用いて算出される多関節アーム30の移動量に基づいて、多関節アーム30の動作ひいてはハンド36の位置を簡便に補正することができる。 It should be noted that formula (1) is based on the premise that the support leg 20 inclines with respect to the horizontal plane and rotates around the axis 20a when the tip of the support leg 20 is in contact with the support surface F and does not move with respect to the support surface F. Formula (1) is based on the premise that the origin of the reference coordinate system Σ 0 is located on the axis 20a of the support leg 20 and the axis 20a of the support leg 20 and the reference Z-axis Z 0 are coaxial. Since formula (1) is thus constructed, the operation of the multi-joint arm 30 and the position of the hand 36 can be easily corrected based on the amount of movement of the multi-joint arm 30 calculated using the inclination of the support leg 20 with respect to the horizontal plane caused by the swing of the human body H and the rotation angle of the support leg 20 around the axis 20a.

逆運動学計算部62cは、逆運動学に基づき、算出された補正手先ベクトルrdmを用いて、各駆動部M1~M5について目標関節角度qdmを算出する。目標関節角度qdmは、各駆動部M1~M5について目標とする関節角度を示すものである。 The inverse kinematics calculation unit 62c calculates the target joint angle qdm for each of the actuators M1 to M5 using the calculated corrected hand vector rdm based on the inverse kinematics. The target joint angle qdm indicates the target joint angle for each of the actuators M1 to M5.

角度誤差計算部62dは、各駆動部M1~M5について、算出された目標関節角度qdmと、入力部61から送信された現在関節角度qとの差分qを算出する。 The angle error calculation unit 62d calculates the difference qe between the calculated target joint angle qdm and the current joint angle q transmitted from the input unit 61 for each of the drive units M1 to M5.

角度誤差補償部62eは、算出された差分qに基づいて、各駆動部M1~M5について、目標とする角速度である目標角速度ωを算出して、出力部64に送信する。角度誤差補償部62eは、例えば、PID補償器である。角度誤差補償部62eでは、具体的には、定数の対角行列である比例、微分、積分の3つのゲインを適切に調整することにより、差分qをゼロに収束させるように目標角速度ωを算出する。角度誤差補償部62eは、算出された目標角速度ωを出力部64に送信する。 The angular error compensating unit 62e calculates a target angular velocity ωd , which is a target angular velocity, for each of the driving units M1 to M5 based on the calculated difference qe , and transmits the calculated target angular velocity ωd to the output unit 64. The angular error compensating unit 62e is, for example, a PID compensator. Specifically, the angular error compensating unit 62e calculates the target angular velocity ωd so as to converge the difference qe to zero by appropriately adjusting three gains, proportional, differential, and integral, which are diagonal matrices of constants. The angular error compensating unit 62e transmits the calculated target angular velocity ωd to the output unit 64.

作業処理部63は、後述するプログラムが実行された場合に、多関節アーム30に所定の動作をさせるように、目標位置および移動時間を設定する。所定の動作とは、ホームポジション動作、および、作業動作である。 When the program described below is executed, the work processing unit 63 sets a target position and a movement time so that the articulated arm 30 performs a predetermined operation. The predetermined operation is a home position operation and a work operation.

ホームポジション動作は、ハンド36の位置を現在の位置から予め定められた基準位置P1(図7A)に移動させる多関節アーム30の動作である。作業動作は、ハンド36の位置を待機位置P2(図7B)から作業位置P3(図7C)に移動させ、ハンド36を作業位置P3に所定の作業時間継続して位置させた後、待機位置P2に戻る多関節アーム30の動作である。目的の作業がビス打ちである場合、作業位置P3は、ビス打ちを行う位置である。待機位置P2は、作業位置P3より下方に所定距離離れた位置である。所定の作業時間は、ビス打ちを行うために必要な時間である。 The home position operation is the operation of the articulated arm 30 that moves the position of the hand 36 from the current position to a predetermined reference position P1 (Figure 7A). The work operation is the operation of the articulated arm 30 that moves the position of the hand 36 from the standby position P2 (Figure 7B) to the work position P3 (Figure 7C), keeps the hand 36 at the work position P3 for a predetermined work time, and then returns to the standby position P2. If the target work is driving screws, the work position P3 is the position where the screws are driven. The standby position P2 is a position that is a predetermined distance below the work position P3. The predetermined work time is the time required to drive the screws.

また、作業処理部63は、カメラ50を制御して、カメラ50から画像を取得する。さらに、作業処理部63は、取得した画像について後述する画像処理を実行することで、目標位置を設定する。また、作業処理部63は、前回の目標位置から今回の目標位置への移動距離に基づいて、移動時間を設定する。移動距離が大きくなるにしたがって、移動時間が長くなるように設定されている。作業処理部63は、設定した目標位置および移動時間をアーム軌道制御部62に送信する。 The work processing unit 63 also controls the camera 50 to acquire an image from the camera 50. The work processing unit 63 then sets the target position by executing image processing, described below, on the acquired image. The work processing unit 63 also sets a movement time based on the movement distance from the previous target position to the current target position. The movement time is set to become longer as the movement distance increases. The work processing unit 63 transmits the set target position and movement time to the arm trajectory control unit 62.

出力部64は、アーム軌道制御部62から送信された目標角速度ω、および、作業処理部63から送信された制御量を制御指令値に変換し、各駆動部M1~M5に出力する。 The output section 64 converts the target angular velocity ω d transmitted from the arm trajectory control section 62 and the control amount transmitted from the work processing section 63 into control command values, and outputs them to the respective drive sections M1 to M5.

次に、上述した装着型ロボット1を装着した作業者が、装着型ロボット1に目的の作業を実行させた場合の装着型ロボット1の動作、および、制御装置60が実行するプログラムについて、図5および図6のフローチャートを用いて説明する。本実施形態において、目的の作業は、天井パネルのビス打ち作業である。 Next, the operation of the wearable robot 1 and the program executed by the control device 60 when a worker wearing the wearable robot 1 causes the wearable robot 1 to perform a target task will be described with reference to the flowcharts in FIGS. 5 and 6. In this embodiment, the target task is driving screws into a ceiling panel.

図5のフローチャートによって表されるプログラムは、作業処理部63によって実行される。図6のフローチャートによって表されるプログラムは、アーム軌道制御部62によって実行される。また、アーム軌道制御部62は、装着型ロボット1の電源がオンされている場合に、プログラムを常時実行する。 The program represented by the flowchart in FIG. 5 is executed by the work processing unit 63. The program represented by the flowchart in FIG. 6 is executed by the arm trajectory control unit 62. In addition, the arm trajectory control unit 62 constantly executes the program when the power supply of the wearable robot 1 is on.

また、作業者は、装着型ロボット1に目的の作業をさせる前に、支持脚20の先端を支持面Fに接触させるとともに、支持脚20の軸線20aがおおよそ鉛直方向に沿うように作業者自身の姿勢を調整する。作業者が所定の操作(例えば装着部10に設けられたスタートスイッチ(不図示)をオンする)を行うことにより、作業処理部63がプログラムを開始することで、目的の作業が開始される。 Before making the wearable robot 1 perform the desired task, the worker brings the tip of the support leg 20 into contact with the support surface F and adjusts the worker's own posture so that the axis 20a of the support leg 20 is roughly aligned vertically. When the worker performs a predetermined operation (e.g., turns on a start switch (not shown) provided on the mounting unit 10), the task processing unit 63 starts the program, and the desired task begins.

作業処理部63は、S10にて、ホームポジション動作を多関節アーム30に実行させる。作業処理部63は、具体的には、目標位置を基準位置P1に設定し、かつ、ハンド36の現在の位置(すなわち前回の目標位置)と設定した目標位置(すなわち今回の目標位置である基準位置P1)との距離に基づいて移動時間を設定する。作業処理部63は、設定した目標位置および移動時間をアーム軌道制御部62に送信する。 In S10, the work processing unit 63 causes the articulated arm 30 to perform a home position operation. Specifically, the work processing unit 63 sets the target position to the reference position P1, and sets a movement time based on the distance between the current position of the hand 36 (i.e., the previous target position) and the set target position (i.e., the reference position P1, which is the current target position). The work processing unit 63 transmits the set target position and movement time to the arm trajectory control unit 62.

アーム軌道制御部62は、目標位置および移動時間を取得したことに応じて、図6に示されるS30を実行する。軌道生成部62aは、S30にて、記憶領域に記憶されている前回の目標位置、取得した今回の目標位置、および、取得した移動時間に基づいて手先ベクトルrの時系列データを生成する。さらに、アーム軌道制御部62は、生成された手先ベクトルrの時系列データから、軌道手先ベクトルrを出力する。 In response to acquiring the target position and the movement time, the arm trajectory control unit 62 executes S30 shown in Fig. 6. In S30, the trajectory generation unit 62a generates time series data of the hand vector r based on the previous target position stored in the storage area, the acquired current target position, and the acquired movement time. Furthermore, the arm trajectory control unit 62 outputs a trajectory hand vector r d from the generated time series data of the hand vector r.

続けて、揺動補正部62bは、S32にて姿勢変化量ΔΦを取得し、S34にて出力された軌道手先ベクトルrから補正手先ベクトルrdmを算出する。 Next, the swing correction unit 62b acquires the posture change amount ΔΦ in S32, and calculates the corrected hand vector r_dm from the trajectory hand vector r_d output in S34.

逆運動学計算部62cは、S36にて、算出された補正手先ベクトルrdmから目標関節角度qdmを算出する。続けて、角度誤差計算部62dは、S38にて現在関節角度qを取得し、S40にて、算出された目標関節角度qdmと現在関節角度qとの差分qを算出する。 In S36, the inverse kinematics calculation unit 62c calculates the target joint angle qdm from the calculated corrected hand vector rdm . Then, in S38, the angle error calculation unit 62d obtains the current joint angle q, and in S40, calculates the difference qe between the calculated target joint angle qdm and the current joint angle q.

さらに、角度誤差補償部62eは、S42にて、算出された差分qに基づいて目標角速度ωを算出する。そして、出力部64は、S44にて、算出された目標角速度ωを制御指令値として出力する。 Furthermore, the angular error compensation unit 62e calculates a target angular velocity ωd based on the calculated difference qe in S42. Then, the output unit 64 outputs the calculated target angular velocity ωd as a control command value in S44.

各駆動部M1~M5に制御指令値が送信されたことに応じて、各駆動部M1~M5ひいては多関節アーム30が動作して、ハンド36が現在の位置から目標位置に設定された基準位置P1に向けて移動する。 In response to the control command values being sent to each of the drive units M1 to M5, each of the drive units M1 to M5 and thus the articulated arm 30 operate, and the hand 36 moves from its current position toward the reference position P1, which is set as the target position.

ハンド36が移動している間に人体Hが揺動いたり傾いたりした場合においても、人体Hの揺動や傾くことによって生じる支持脚20の姿勢変化に基づいて軌道手先ベクトルrが補正されるため、ハンド36が到達する位置が目標位置に対してずれることが抑制される。 Even if the human body H sways or tilts while the hand 36 is moving, the trajectory hand vector r d is corrected based on the change in posture of the support leg 20 caused by the swaying or tilting of the human body H, so that the position reached by the hand 36 is prevented from shifting from the target position.

多関節アーム30が設定された移動時間をかけて動作することで、ハンド36は、前回の目標位置から移動して基準位置P1に位置する(図7A)。設定された移動時間が経過した時点で、S10のホームポジション動作が終了する。続けて、作業処理部63は、S12にて、姿勢計測部40のキャリブレーションを行う。 As the articulated arm 30 operates over the set movement time, the hand 36 moves from the previous target position to the reference position P1 (FIG. 7A). When the set movement time has elapsed, the home position operation of S10 ends. Next, the work processing unit 63 calibrates the orientation measurement unit 40 in S12.

キャリブレーションは、支持脚20の軸線20aが支持面Fに対しておおよそ鉛直方向であることが所定時間継続したことが重力センサ41によって検出されると、所定時間が終了した時点の脚ピッチ角θ2、脚ヨー角ψ2および脚ロール角φ2を基準値(ゼロ)とする処理である。作業者は、キャリブレーションが終了するまで、支持脚20の軸線20aがおおよそ鉛直方向に沿うように自身の姿勢を保つ。キャリブレーションが終了した時点で例えば制御装置60が発生するブザー音によって、作業者はキャリブレーションが終了したことを認識する。 Calibration is a process in which, when the gravity sensor 41 detects that the axis 20a of the support leg 20 has remained approximately vertical to the support surface F for a predetermined period of time, the leg pitch angle θ2, leg yaw angle ψ2, and leg roll angle φ2 at the end of the predetermined period of time are set to reference values (zero). The operator maintains his or her own posture so that the axis 20a of the support leg 20 is approximately vertical until the calibration is completed. When the calibration is completed, the operator is notified that the calibration has been completed by, for example, a buzzer sound generated by the control device 60.

さらに、作業処理部63は、S14にて、待機位置P2および作業位置P3を検出する。作業処理部63は、具体的には、カメラ50を制御して、例えば、天井に配置されている天井パネルの画像を取得し、取得した画像から天井パネルの輪郭を画像処理(具体的にはエッジ検出)にて検出する。 Furthermore, in S14, the work processing unit 63 detects the standby position P2 and the work position P3. Specifically, the work processing unit 63 controls the camera 50 to obtain an image of, for example, a ceiling panel placed on the ceiling, and detects the contour of the ceiling panel from the obtained image by image processing (specifically, edge detection).

続けて、作業処理部63は、検出された天井パネルの輪郭に基づいて、ビス打ちをする作業位置P3を検出する。さらに、作業処理部63は、作業位置P3から所定距離下方の待機位置P2を検出する。本実施形態においては、作業位置P3および待機位置P2はそれぞれ複数(例えば3つ)検出される。 Next, the work processing unit 63 detects the work position P3 where the screws are to be driven in based on the detected contour of the ceiling panel. Furthermore, the work processing unit 63 detects the waiting position P2 that is a predetermined distance below the work position P3. In this embodiment, multiple work positions P3 and multiple waiting positions P2 (e.g., three) are detected.

続けて、作業処理部63は、S16にて、多関節アーム30に作業動作を実行させる。作業処理部63は、具体的には、検出した待機位置P2のうち、ハンド36に最も近い待機位置P2をハンド36の目標位置に新たに設定する。さらに、作業処理部63は、ハンド36の現在の位置(基準位置P1)と新たに設定した目標位置(待機位置P2)との距離に基づいて移動時間を新たに設定する。作業処理部63は、新たに設定した目標位置および移動時間をアーム軌道制御部62に送信する。 Then, in S16, the work processing unit 63 causes the multi-joint arm 30 to perform a work operation. Specifically, the work processing unit 63 sets the standby position P2 closest to the hand 36 among the detected standby positions P2 as a new target position for the hand 36. Furthermore, the work processing unit 63 sets a new movement time based on the distance between the current position (reference position P1) of the hand 36 and the newly set target position (standby position P2). The work processing unit 63 transmits the newly set target position and movement time to the arm trajectory control unit 62.

アーム軌道制御部62は、新たに設定された目標位置(待機位置P2)および移動時間を取得したことに応じて、図6のフローチャートによって表されるプログラムを上述したように実行する。これにより、多関節アーム30が新たに設定された移動時間をかけて動作することで、ハンド36は、基準位置P1から移動して待機位置P2に位置する(図7B)。 In response to acquiring the newly set target position (standby position P2) and movement time, the arm trajectory control unit 62 executes the program represented by the flowchart in FIG. 6 as described above. As a result, the articulated arm 30 operates for the newly set movement time, and the hand 36 moves from the reference position P1 to the standby position P2 (FIG. 7B).

ハンド36が移動している間に人体Hが揺動いたり傾いたりした場合においても、人体Hの揺動や傾くことによって生じる支持脚20の姿勢変化に基づいて軌道手先ベクトルrが補正されるため、ハンド36が到達する位置が目標位置に対してずれることが抑制される。 Even if the human body H sways or tilts while the hand 36 is moving, the trajectory hand vector r d is corrected based on the change in posture of the support leg 20 caused by the swaying or tilting of the human body H, so that the position reached by the hand 36 is prevented from shifting from the target position.

続けて、作業処理部63は、設定した移動時間が経過したことに応じて、現在の待機位置P2に対応する作業位置P3をハンド36の目標位置に新たに設定する。さらに、作業処理部63は、ハンド36の現在の位置(待機位置P2)と新たに設定した目標位置(作業位置P3)との距離に基づいて移動時間を新たに設定する。作業処理部63は、新たに設定した目標位置および移動時間をアーム軌道制御部62に送信する。 Next, the work processing unit 63 sets a new target position for the hand 36 to a work position P3 corresponding to the current standby position P2 as the result of the elapse of the set movement time. Furthermore, the work processing unit 63 sets a new movement time based on the distance between the current position (standby position P2) of the hand 36 and the newly set target position (work position P3). The work processing unit 63 transmits the newly set target position and movement time to the arm trajectory control unit 62.

アーム軌道制御部62は、新たに設定された目標位置(作業位置P3)および移動時間を取得したことに応じて、図6のフローチャートによって表されるプログラムを上述したように実行する。これにより、多関節アーム30が新たに設定された移動時間をかけて動作することで、ハンド36は、待機位置P2から移動して作業位置P3に位置する(図7C)。 In response to acquiring the newly set target position (working position P3) and movement time, the arm trajectory control unit 62 executes the program represented by the flowchart in FIG. 6 as described above. As a result, the articulated arm 30 operates for the newly set movement time, and the hand 36 moves from the standby position P2 to the working position P3 (FIG. 7C).

ハンド36が作業位置P3に位置すると、ハンド36に保持された工具Dである電動ドライバは、例えば電動ドライバの先端が天井パネルに接触して押し込まれることにより作動を開始して、ビス打ちを行う。所定の動作時間が経過した時点でビス打ちは完了する。 When the hand 36 is positioned at the working position P3, the tool D held by the hand 36, which is an electric screwdriver, starts to operate, for example by the tip of the electric screwdriver coming into contact with the ceiling panel and being pushed in, to drive the screws. The screw driving is completed when a predetermined operating time has elapsed.

続けて、作業処理部63は、所定の動作時間が経過したことに応じて、現在の作業位置P3に対応する待機位置P2をハンド36の目標位置に新たに設定する。さらに、作業処理部63は、ハンド36の現在の位置(作業位置P3)と新たに設定した目標位置(待機位置P2)との距離に基づいて移動時間を新たに設定する。作業処理部63は、新たに設定した目標位置および移動時間をアーム軌道制御部62に送信する。 Next, the work processing unit 63 sets a new target position for the hand 36 to a standby position P2 corresponding to the current work position P3 in response to the passage of a predetermined operating time. Furthermore, the work processing unit 63 sets a new movement time based on the distance between the current position of the hand 36 (work position P3) and the newly set target position (standby position P2). The work processing unit 63 transmits the newly set target position and movement time to the arm trajectory control unit 62.

アーム軌道制御部62は、新たに設定された目標位置(待機位置P2)および移動時間を取得したことに応じて、図6のフローチャートによって表されるプログラムを上述したように実行する。これにより、多関節アーム30が新たに設定された移動時間をかけて動作することで、ハンド36は、作業位置P3から移動して待機位置P2に位置する(図7B)。ハンド36を作業位置P3から待機位置P2に移動させるときに、新たに設定された移動時間が経過した時点で、S16の作業動作が終了する。このとき、複数の作業位置P3のうち1つの作業位置P3に対して目的の作業が終了する。 In response to acquiring the newly set target position (standby position P2) and movement time, the arm trajectory control unit 62 executes the program represented by the flowchart in FIG. 6 as described above. As a result, the articulated arm 30 operates for the newly set movement time, and the hand 36 moves from the working position P3 to the waiting position P2 (FIG. 7B). When the hand 36 is moved from the working position P3 to the waiting position P2, the work operation of S16 ends when the newly set movement time has elapsed. At this time, the target work is completed for one of the multiple working positions P3.

さらに、作業処理部63は、S18にて、全ての作業が完了したか否かを判定する。複数の作業位置P3の全てに対して作業が終了していない場合、全ての作業が完了していない。この場合(S18にてNO)、作業処理部63は、プログラムをS16に戻して、多関節アーム30に作業動作を再度実行させる。作業処理部63は、具体的には、作業が完了していない作業位置P3のうちハンド36に最も近い作業位置P3に対応する待機位置P2を目標位置に設定して、多関節アーム30に作業動作を開始させる。 Furthermore, in S18, the work processing unit 63 determines whether all work has been completed. If work has not been completed for all of the multiple work positions P3, not all work has been completed. In this case (NO in S18), the work processing unit 63 returns the program to S16 and causes the multi-joint arm 30 to perform the work operation again. Specifically, the work processing unit 63 sets the standby position P2 corresponding to the work position P3 closest to the hand 36 among the work positions P3 for which work has not been completed as the target position, and causes the multi-joint arm 30 to start the work operation.

一方、複数の作業位置P3の全てに対して作業が終了した場合(S18にてYES)、作業処理部63は、S20にて、多関節アーム30にホームポジション動作を実行させて、ハンド36を基準位置P1に移動させる。これにより、多関節アーム30が動作して、ハンド36は、基準位置P1に位置する(図7A)。 On the other hand, if work has been completed for all of the multiple work positions P3 (YES in S18), the work processing unit 63 causes the multi-joint arm 30 to execute a home position operation in S20, and moves the hand 36 to the reference position P1. This causes the multi-joint arm 30 to operate, and the hand 36 is positioned at the reference position P1 (FIG. 7A).

このように、装着型ロボット1は、人体Hが揺動しても目的の作業を精度よく行うことができる。また、支持脚20によって装着型ロボット1の人体Hへの負荷が軽減されている。そして、装着型ロボット1が目的の作業を行っている間、作業者は、装着型ロボット1とは別の作業を行うことができる。よって、人とロボットとの協働を容易に行うことができる。 In this way, the wearable robot 1 can perform the intended task with high precision even if the human body H sways. In addition, the load on the human body H of the wearable robot 1 is reduced by the support legs 20. Then, while the wearable robot 1 is performing the intended task, the worker can perform a task other than that of the wearable robot 1. This makes it easy for humans and robots to work together.

<第2実施形態>
次に、本発明の第2実施形態における装着型ロボット1について、主として上述した第1実施形態とは異なる部分について、図8および図9を用いて説明する。第2実施形態の装着型ロボット1は、支持脚120が脚部121、脚先部122、脚部121と脚先部122とを回転可能に接続する関節部123、および、移動量計測部124を備えている。
Second Embodiment
Next, the wearable robot 1 according to a second embodiment of the present invention will be described with reference to Figures 8 and 9, mainly focusing on the differences from the first embodiment. In the wearable robot 1 according to the second embodiment, the support leg 120 includes a leg portion 121, a leg tip portion 122, a joint portion 123 that rotatably connects the leg portion 121 and the leg tip portion 122, and a movement amount measuring unit 124.

脚部121は、上述した第1実施形態の支持脚20と同様に伸縮可能に構成されている。 The leg 121 is configured to be extendable and contractible, similar to the support leg 20 of the first embodiment described above.

脚先部122は、脚部121の先端(下端)に関節部123を介して接続されている。脚先部122の底面は、第1実施形態の支持脚20の先端と比べて、支持面Fに接触する面積が大きい。よって、脚先部122は、第1実施形態の支持脚20の先端と比べて支持面Fに対する摩擦力が大きくなるため、装着型ロボット1が目的の作業を行っている場合に支持面Fに対して移動することが抑制される。 The leg tip 122 is connected to the tip (lower end) of the leg 121 via a joint 123. The bottom surface of the leg tip 122 has a larger area in contact with the support surface F than the tip of the support leg 20 of the first embodiment. Therefore, the frictional force of the leg tip 122 against the support surface F is larger than that of the tip of the support leg 20 of the first embodiment, and therefore movement relative to the support surface F is suppressed when the wearable robot 1 is performing the intended task.

また、脚先部122の底面が支持面Fに接触している場合、脚部121は、脚先部122に対して回転する。具体的には、脚部121は、脚先部122に対して、関節部123が有する第6関節軸J6および7関節軸の回りに回転する。第6関節軸J6および第7関節軸J7は、互いに直交し、かつ、脚先部122の底面と平行な軸線である。第6関節軸J6と第7関節軸J7との交点には、脚部121の軸線20aが通る。また、脚部121は、脚先部122に対して脚部121の軸線121a回りに回転する。 When the bottom surface of the leg tip 122 is in contact with the support surface F, the leg 121 rotates relative to the leg tip 122. Specifically, the leg 121 rotates relative to the leg tip 122 around the sixth joint axis J6 and the seventh joint axis J7 of the joint portion 123. The sixth joint axis J6 and the seventh joint axis J7 are perpendicular to each other and are parallel to the bottom surface of the leg tip 122. The axis 20a of the leg 121 passes through the intersection of the sixth joint axis J6 and the seventh joint axis J7. The leg 121 also rotates relative to the leg tip 122 around the axis 121a of the leg 121.

移動量計測部124は、支持面Fに対する支持脚120の先端の移動量を計測するものである。支持面Fに対する支持脚120の先端の移動量は、具体的には、支持面Fに対する脚先部122の水平方向に沿った移動量である。移動量計測部124は、レーザ光源124aおよび画像センサ124bを備えている。 The movement amount measuring unit 124 measures the amount of movement of the tip of the support leg 120 relative to the support surface F. The amount of movement of the tip of the support leg 120 relative to the support surface F is specifically the amount of movement of the leg tip portion 122 along the horizontal direction relative to the support surface F. The movement amount measuring unit 124 includes a laser light source 124a and an image sensor 124b.

レーザ光源124aは、レーザ光を支持面Fに照射するものである。画像センサ124bは、レーザ光が照射された支持面Fの画像を取得して、脚先部122の水平方向に沿った移動量を検出するセンサである。脚先部122の水平方向に沿った移動量ΔSは、水平面と平行かつ互いに直交する2つの軸線それぞれにおける移動量(ΔSxおよびΔSy)によって表される。画像センサ124bによって検出された移動量ΔS(={ΔSx,ΔSy})は、制御装置60に送信される。 The laser light source 124a irradiates the support surface F with laser light. The image sensor 124b is a sensor that acquires an image of the support surface F irradiated with the laser light and detects the amount of movement of the leg tip 122 along the horizontal direction. The amount of movement ΔS of the leg tip 122 along the horizontal direction is represented by the amount of movement (ΔSx and ΔSy) on each of two axes that are parallel to the horizontal plane and perpendicular to each other. The amount of movement ΔS (= {ΔSx, ΔSy}) detected by the image sensor 124b is transmitted to the control device 60.

また、第2実施形態において、揺動補正部62bは、式(2)に基づいて、軌道手先ベクトルrを補正した補正手先ベクトルrdmを算出する。 Moreover, in the second embodiment, the swing correction unit 62b calculates a corrected hand vector r_dm by correcting the trajectory hand vector r_d based on the formula (2).

(式2)
dm=Rψθφ{r+[0,0,L]}+ΔS・・・(2)
(Equation 2)
r dm = R ψ R θ R φ {r d + [0,0,L] T }+ΔS...(2)

ここで、ΔS=[ΔSx,ΔSy,0]である。このように、軌道手先ベクトルrの補正は、支持脚120の姿勢変化量ΔΦだけでなく、脚先部122の水平方向に沿った移動量ΔSも含めて行われる。よって、ハンド36の位置を精度よく補正することができる。また、移動量計測部124は、支持面Fと非接触の状態で移動量ΔSを計測するため、支持面Fが汚れている場合においても安定して移動量ΔSを計測することができる。 Here, ΔS=[ΔSx, ΔSy, 0] T . In this way, the correction of the trajectory hand vector r d is performed not only for the posture change amount ΔΦ of the support leg 120 but also for the movement amount ΔS of the leg tip 122 along the horizontal direction. Therefore, the position of the hand 36 can be corrected with high accuracy. In addition, since the movement amount measuring unit 124 measures the movement amount ΔS in a non-contact state with the support surface F, it can stably measure the movement amount ΔS even when the support surface F is dirty.

<第2実施形態の変形例>
次に、上述した第2実施形態の変形例における装着型ロボット1について、図10を用いて説明する。本変形例における装着型ロボット1は、上述した第1実施形態における姿勢計測部40の重力センサ41に代えて、第1,2の角度センサA26,A27を備えてもよい。
<Modification of the second embodiment>
Next, a wearable robot 1 according to a modification of the second embodiment described above will be described with reference to Fig. 10. The wearable robot 1 according to this modification may include first and second angle sensors A26 and A27 instead of the gravity sensor 41 of the attitude measurement unit 40 according to the first embodiment described above.

第1,2の角度センサA26,A27は、支持脚220の支持面Fに対する角度を計測する。第1,2の角度センサA26,A27は、エンコーダによって構成されている。第1の角度センサA26は、具体的には、脚先部222に対する脚部221の第6関節軸J6回りの回転角度(θ3)を検出する。第2の角度センサA27は、脚先部222に対する脚部221の第7関節軸J7の回りの回転角度(ψ3)を検出する。この場合、上述した第1実施形態における重力センサ41から出力される脚ピッチ角θ2および脚ヨー角ψ2に代えて、第1,2の角度センサA26,A27によって検出された回転角度は、姿勢変化量ΔΦの要素として用いられる。 The first and second angle sensors A26 and A27 measure the angle of the support leg 220 with respect to the support surface F. The first and second angle sensors A26 and A27 are configured with encoders. Specifically, the first angle sensor A26 detects the rotation angle (θ3) of the leg 221 around the sixth joint axis J6 relative to the leg tip 222. The second angle sensor A27 detects the rotation angle (ψ3) of the leg 221 around the seventh joint axis J7 relative to the leg tip 222. In this case, instead of the leg pitch angle θ2 and leg yaw angle ψ2 output from the gravity sensor 41 in the first embodiment described above, the rotation angles detected by the first and second angle sensors A26 and A27 are used as elements of the posture change amount ΔΦ.

また、本変形例における装着型ロボット1は、上述した第1実施形態における姿勢計測部40のジャイロセンサ42に代えて、脚先部222に対する脚部221の、脚部221の軸線221a回りの回転角度を検出する第3の角度センサA28を備えてもよい。第3の角度センサA28は、例えばエンコーダである。この場合、上述した第1実施形態におけるジャイロセンサ42から出力される脚ロール角φ2に代えて、第3の角度センサA28によって検出された回転角度(φ3)は、姿勢変化量ΔΦの要素として用いられる。 In addition, the wearable robot 1 in this modified example may be provided with a third angle sensor A28 that detects the rotation angle of the leg 221 relative to the leg tip 222 around the axis 221a of the leg 221, instead of the gyro sensor 42 of the posture measurement unit 40 in the first embodiment described above. The third angle sensor A28 is, for example, an encoder. In this case, the rotation angle (φ3) detected by the third angle sensor A28 is used as an element of the posture change amount ΔΦ, instead of the leg roll angle φ2 output from the gyro sensor 42 in the first embodiment described above.

また、上述した移動量計測部124は、レーザ光源124aおよび画像センサ124bによって構成されているが、本変形例の移動量計測部224は、転動部224aおよび転がり量計測部224bを備えている。転動部224aは、球状に形成され、支持面Fに接触して支持面Fを転がるものである。転がり量計測部224bは、転動部224aの転がり量を計測するものであり、例えば転動部224aに接触して転動部224aの転がりに応じて回転する軸部材(不図示)の回転量を検出するエンコーダ(不図示)を用いて構成されている。移動量計測部224は、転がり量計測部224bの計測結果に基づいて、移動量ΔSを算出する。移動量計測部224に転動部224aおよび転がり量計測部224bが用いられる場合、支持面Fの模様が上述した画像センサ124bでは判別しにくい場合においても精度よく移動量ΔSを継続することができる。 The above-mentioned movement amount measuring unit 124 is composed of a laser light source 124a and an image sensor 124b, but the movement amount measuring unit 224 of this modified example includes a rolling unit 224a and a rolling amount measuring unit 224b. The rolling unit 224a is formed in a spherical shape and contacts the support surface F and rolls on the support surface F. The rolling amount measuring unit 224b measures the rolling amount of the rolling unit 224a, and is composed of, for example, an encoder (not shown) that detects the amount of rotation of a shaft member (not shown) that contacts the rolling unit 224a and rotates in response to the rolling of the rolling unit 224a. The movement amount measuring unit 224 calculates the movement amount ΔS based on the measurement result of the rolling amount measuring unit 224b. When the movement amount measuring unit 224 uses the rolling unit 224a and the rolling amount measuring unit 224b, the movement amount ΔS can be continuously measured with high accuracy even when the pattern on the support surface F is difficult to distinguish using the image sensor 124b described above.

<第3実施形態>
次に、本発明の第3実施形態における装着型ロボット1について、主として上述した第1実施形態とは異なる部分について、図11および図12を用いて説明する。本第3実施形態の制御装置60は、動作補正モードと目標位置変更モードの一方を選択して、多関節アーム30の動作を制御する。
Third Embodiment
Next, the wearable robot 1 according to a third embodiment of the present invention will be described with reference to Figures 11 and 12, focusing mainly on the differences from the first embodiment. The control device 60 according to the third embodiment selects one of the motion correction mode and the target position change mode to control the motion of the articulated arm 30.

動作補正モードは、上述した第1実施形態のように、制御装置60が姿勢計測部40の計測結果を用いて算出する多関節アーム30の移動量に基づいて多関節アーム30の動作を補正する制御モードである。 The motion correction mode is a control mode in which the control device 60 corrects the motion of the multi-joint arm 30 based on the amount of movement of the multi-joint arm 30 calculated using the measurement results of the posture measurement unit 40, as in the first embodiment described above.

目標位置変更モードは、制御装置60が姿勢計測部40の計測結果を用いて目標位置を変更するモードである。目標位置変更モードにおいては、作業者が支持脚20の姿勢を変化させることで、多関節アーム30ひいてはハンド36について作業者が所望する距離を移動させることができる(詳細は後述する)。 The target position change mode is a mode in which the control device 60 changes the target position using the measurement results of the posture measurement unit 40. In the target position change mode, the worker can change the posture of the support leg 20 to move the articulated arm 30 and therefore the hand 36 a desired distance (details will be described later).

第3実施形態の装着型ロボット1は、揺動操作部362f、軌道切替部362g、および、切替スイッチ370をさらに備えている。揺動操作部362fおよび軌道切替部362gは、制御装置60が備えている。 The wearable robot 1 of the third embodiment further includes a swing operation unit 362f, a trajectory switching unit 362g, and a changeover switch 370. The swing operation unit 362f and the trajectory switching unit 362g are provided in the control device 60.

揺動操作部362fは、軌道生成部62aから軌道手先ベクトルrを取得し、入力部61を介して姿勢計測部40から姿勢変化量ΔΦを取得する。揺動操作部362fは、式(3)に基づいて、取得した軌道手先ベクトルrから変更手先ベクトルrdcを算出する。 The swing operation unit 362f acquires the trajectory hand vector r d from the trajectory generation unit 62a, and acquires the posture change amount ΔΦ from the posture measurement unit 40 via the input unit 61. The swing operation unit 362f calculates the changed hand vector r dc from the acquired trajectory hand vector r d based on the formula (3).

(式3)
dc=r+KcΔΦ・・・(3)
(Equation 3)
r dc = r d +KcΔΦ...(3)

ここで、Kcは、定数ゲイン行列である。また、ΔΦ=[θ2,ψ2,φ2]である。式(3)において、変更手先ベクトルrdcは、軌道手先ベクトルrに対して、姿勢変化量ΔΦに定数ゲイン行列を乗じたものを加えることで算出されている。 Here, Kc is a constant gain matrix. Also, ΔΦ=[θ2, ψ2, φ2] T. In formula (3), the modified hand vector r dc is calculated by adding the posture change amount ΔΦ multiplied by the constant gain matrix to the trajectory hand vector r d .

軌道切替部362gは、揺動補正部62bから補正手先ベクトルrdmを取得し、かつ、揺動操作部362fから変更手先ベクトルrdcを取得する。軌道切替部362gは、制御モードに対応する手先ベクトルrを出力する。具体的には、軌道切替部362gは、動作補正モードにおいて、上述した第1実施形態と同様に、補正手先ベクトルrdmを出力する。また、軌道切替部362gは、目標位置変更モードにおいて、変更手先ベクトルrdcを出力する。軌道切替部362gは、後述する操作信号を取得すると、出力する手先ベクトルrを切り替える。 The trajectory switching unit 362g acquires the corrected hand vector r dm from the swing correction unit 62b, and acquires the changed hand vector r dc from the swing operation unit 362f. The trajectory switching unit 362g outputs the hand vector r corresponding to the control mode. Specifically, the trajectory switching unit 362g outputs the corrected hand vector r dm in the motion correction mode, as in the first embodiment described above. Also, the trajectory switching unit 362g outputs the changed hand vector r dc in the target position change mode. When the trajectory switching unit 362g acquires an operation signal described later, it switches the hand vector r to be output.

切替スイッチ370は、制御モードを切り替えるためのスイッチである。切替スイッチ370は、例えば装着部10に配置される。作業者が切替スイッチ370を操作すると、操作信号が制御装置60に出力される。操作信号は、入力部61を介して、軌道切替部362gに取得される。 The changeover switch 370 is a switch for switching the control mode. The changeover switch 370 is arranged, for example, on the mounting unit 10. When the operator operates the changeover switch 370, an operation signal is output to the control device 60. The operation signal is acquired by the track switching unit 362g via the input unit 61.

次に、制御モードが目標位置変更モードである場合における装着型ロボット1の動作について説明する。装着型ロボット1は、上述した図6のフローチャートに示すプログラムを実行しており、制御モードが動作補正モードである状態から説明する。動作補正モードにおいて、制御装置60は、人体Hの揺動に応じて多関節アーム30の動作を補正しながら、ハンド36の位置を、図5のS16にて設定した目標位置に位置させるように多関節アーム30の動作を制御している状態である。上述したように、軌道切替部362gは、動作補正モードにおいて補正手先ベクトルrdmを出力する。 Next, the operation of the wearable robot 1 when the control mode is the target position change mode will be described. The wearable robot 1 executes the program shown in the flowchart of Fig. 6 described above, and the control mode will be described from the state where the control mode is the motion correction mode. In the motion correction mode, the control device 60 controls the motion of the multi-joint arm 30 so as to position the hand 36 at the target position set in S16 of Fig. 5 while correcting the motion of the multi-joint arm 30 in response to the swinging of the human body H. As described above, the trajectory switching unit 362g outputs the correction hand vector r dm in the motion correction mode.

この状態において、作業者が切替スイッチ370を操作すると、操作信号が送信されて、制御モードが動作補正モードから目標位置変更モードに切り替わる。軌道切替部362gは、操作信号を取得したことに応じて、出力する手先ベクトルrを、補正手先ベクトルrdmから変更手先ベクトルrdcに切り替える。さらに、作業者は、支持脚20の姿勢を変化させる。 In this state, when the operator operates the changeover switch 370, an operation signal is transmitted and the control mode is switched from the motion correction mode to the target position change mode. In response to receiving the operation signal, the trajectory switching unit 362g switches the output hand vector r from the corrected hand vector r dm to the changed hand vector r dc . Furthermore, the operator changes the posture of the support leg 20.

上述したように、変更手先ベクトルrdcは、軌道手先ベクトルrに対して、姿勢変化量ΔΦに定数ゲイン行列を乗じたものを加えることで算出されている。よって、支持脚20の姿勢が変化するとその変化量に比例した距離を多関節アーム30ひいてはハンド36が移動する。例えば、脚ピッチ角θ2がΔθ変化した場合(図12)、ハンド36の位置は、基準X軸Xの方向においてはΔx移動する。 As described above, the modified hand vector r dc is calculated by adding the posture change amount ΔΦ multiplied by the constant gain matrix to the trajectory hand vector r d . Therefore, when the posture of the support leg 20 changes, the articulated arm 30 and the hand 36 move a distance proportional to the amount of change. For example, when the leg pitch angle θ2 changes by Δθ (FIG. 12), the position of the hand 36 moves by Δx in the direction of the reference X-axis X0 .

作業者が所望する距離をハンド36が移動した場合、作業者は、切替スイッチ370を操作して、制御モードを目標位置変更モードから動作補正モードに戻す。これに応じて、軌道切替部362gは、出力する手先ベクトルrを変更手先ベクトルrdcから補正手先ベクトルrdmに切り替える。これにより、アーム軌道制御部62は、図5のS16にて設定した目標位置から作業者が所望する距離だけ移動した位置に、ハンド36を位置させるように制御する。 When the hand 36 has moved the distance desired by the operator, the operator operates the changeover switch 370 to return the control mode from the target position change mode to the motion correction mode. In response to this, the trajectory switching unit 362g switches the hand vector r to be output from the changed hand vector r dc to the corrected hand vector r dm . As a result, the arm trajectory control unit 62 controls the hand 36 to be positioned at a position moved by the distance desired by the operator from the target position set in S16 of FIG. 5.

このように、目標位置変更モードによって、作業者は、支持脚20の姿勢を変化させることで、ハンド36の目標位置を調整することができる。よって、作業者は、装着型ロボット1の作業効率を向上させることができる。また、ハンド36の目標位置を変更するインターフェースとして支持脚20を利用することができる。 In this way, the target position change mode allows the operator to adjust the target position of the hand 36 by changing the posture of the support leg 20. This allows the operator to improve the work efficiency of the wearable robot 1. In addition, the support leg 20 can be used as an interface to change the target position of the hand 36.

<変形例>
本発明は、これまでに説明した実施の形態に限定されるものではない。本発明の主旨を逸脱しない限り、各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
<Modification>
The present invention is not limited to the embodiments described above. As long as they do not deviate from the gist of the present invention, various modifications of the present embodiments and combinations of components in different embodiments are also included within the scope of the present invention.

例えば、支持脚20の基端は、装着部10に取り付けられているが、これに代えて、多関節アーム30の例えば土台31に取り付けられてもよい。 For example, the base end of the support leg 20 is attached to the mounting part 10, but instead, it may be attached to, for example, the base 31 of the articulated arm 30.

また、姿勢計測部40のジャイロセンサ42は、脚ロール角φ2の計測に用いられるが、これに加えて、脚ピッチ角θ2および脚ヨー角ψ2の少なくとも一方の計測に用いられてもよい。ジャイロセンサ42が脚ピッチ角θ2および脚ヨー角ψ2の両方の計測に用いられる場合、姿勢計測部40は、脚ピッチ角θ2および脚ヨー角ψ2を測定するための重力センサ41を備えない。このように、ジャイロセンサ42は、重力センサ41に代えて、支持脚20の鉛直方向に対する角度を計測してもよい。 The gyro sensor 42 of the posture measurement unit 40 is used to measure the leg roll angle φ2, but may also be used to measure at least one of the leg pitch angle θ2 and the leg yaw angle ψ2. When the gyro sensor 42 is used to measure both the leg pitch angle θ2 and the leg yaw angle ψ2, the posture measurement unit 40 does not include a gravity sensor 41 for measuring the leg pitch angle θ2 and the leg yaw angle ψ2. In this way, the gyro sensor 42 may measure the angle of the support leg 20 with respect to the vertical direction instead of the gravity sensor 41.

また、基準座標系Σの原点は、支持脚20の軸線20a上に位置しているが、支持脚20の軸線20a上とは異なる位置に位置してもよい。また、基準座標系Σは、土台31に配置されているが、多関節アーム30の土台31とは異なる構成部材に配置してもよい。なお、基準座標系Σの原点の位置が多関節アーム30の基端以外の位置に変更された場合、基準座標系Σの原点の支持脚20の先端に対する位置が変わるため、上述した式(1)は変更される。 Furthermore, the origin of the reference coordinate system Σ0 is located on the axis 20a of the support leg 20, but may be located at a position other than on the axis 20a of the support leg 20. Furthermore, the reference coordinate system Σ0 is disposed on the base 31, but may be disposed on a component of the multi-joint arm 30 other than the base 31. Note that if the position of the origin of the reference coordinate system Σ0 is changed to a position other than the base end of the multi-joint arm 30, the position of the origin of the reference coordinate system Σ0 relative to the tip of the support leg 20 changes, and therefore the above-mentioned formula (1) is changed.

また、移動量計測部124,224は、第2実施形態において脚先部122,222に配置されているが、第1実施形態の支持脚20の下端部に配置されてもよい。 In addition, the movement amount measuring units 124, 224 are arranged at the leg tip portions 122, 222 in the second embodiment, but may be arranged at the lower end portions of the support legs 20 in the first embodiment.

また、第2実施形態において脚先部122は、移動量計測部124を備えているが、これに代えて、移動量計測部124を備えなくてもよい。 In addition, in the second embodiment, the leg tip portion 122 is equipped with a movement amount measuring unit 124, but alternatively, it may not be equipped with the movement amount measuring unit 124.

また、装着型ロボット1は、支持脚20を1本備えているが、図13に示すように、人体Hへの負荷をさらに軽減させるために、支持脚20を2本備えてもよい。 The wearable robot 1 also has one support leg 20, but as shown in FIG. 13, it may have two support legs 20 to further reduce the load on the human body H.

上述のとおり、制御装置60は、装着型ロボット1とは別体であっても良い。また、装着型ロボット1とは別体で、装着型ロボット1の姿勢を計測することが可能な、作業現場等に設置されたカメラ等が姿勢計測部40を代替してもよい。また、装着型ロボット1とは別体で、支持面Fに対する支持脚20の先端の移動量を計測することが可能な、作業現場等に設置されたカメラ等が移動量計測部124を代替してもよい。 As described above, the control device 60 may be separate from the wearable robot 1. Also, a camera or the like installed at a work site or the like that is separate from the wearable robot 1 and capable of measuring the posture of the wearable robot 1 may replace the posture measuring unit 40. Also, a camera or the like installed at a work site or the like that is separate from the wearable robot 1 and capable of measuring the amount of movement of the tip of the support leg 20 relative to the support surface F may replace the movement amount measuring unit 124.

また、駆動部Mは、モータであるが、これに代えて、ニューマチックアクチュエータ、ソレノイド又はリニアモータとしてもよいし、これらの組み合わせで構成してもよい。 Additionally, the drive unit M is a motor, but it may be a pneumatic actuator, a solenoid, or a linear motor, or may be a combination of these.

また、駆動部Mは、多関節アーム30に複数配置されているが、少なくとも1つの駆動部Mが複数の関節を駆動するように構成されていてもよい。 In addition, multiple drive units M are arranged on the multi-joint arm 30, but at least one drive unit M may be configured to drive multiple joints.

本発明は、装着型のロボットに広く利用可能である。 This invention can be widely used in wearable robots.

1 装着型ロボット
10 装着部
20 支持脚
20a 軸線
30 多関節アーム
40 姿勢計測部
41 重力センサ
42 ジャイロセンサ
60 制御装置
121 脚部
122 脚先部
124 移動量計測部
124b 画像センサ
224 移動量計測部
224a 転動部
224b 転がり量計測部
A26 第1の角度センサ
A27 第2の角度センサ
A28 第3の角度センサ
F 支持面
H 人体
REFERENCE SIGNS LIST 1 wearable robot 10 wearable unit 20 support leg 20a axis 30 multi-joint arm 40 attitude measurement unit 41 gravity sensor 42 gyro sensor 60 control device 121 leg 122 leg tip 124 movement amount measurement unit 124b image sensor 224 movement amount measurement unit 224a rolling unit 224b rolling amount measurement unit A26 first angle sensor A27 second angle sensor A28 third angle sensor F support surface H human body

Claims (11)

多関節アームと、
前記多関節アームの基端が取り付けられ、人体に着脱可能に構成された装着部と、
支持面に接することで前記多関節アームを支える支持脚と、
前記支持脚の姿勢を計測する姿勢計測部と、
前記多関節アームの動作を制御するとともに、前記姿勢計測部の計測結果を用いて算出される前記多関節アームの移動量に基づいて、前記多関節アームの動作を補正する制御装置と、を備えている、
装着型ロボット。
A multi-joint arm;
a mounting part to which a base end of the articulated arm is attached and which is configured to be detachable from a human body;
a support leg that supports the articulated arm by contacting a support surface;
a posture measuring unit that measures the posture of the support leg;
a control device that controls the operation of the multi-joint arm and corrects the operation of the multi-joint arm based on a movement amount of the multi-joint arm calculated using the measurement result of the posture measurement unit,
Wearable robot.
前記制御装置は、前記姿勢計測部の計測結果に基づいて算出される前記多関節アームの基端の移動量を用いて、前記多関節アームの動作を補正する、
請求項に記載の装着型ロボット。
the control device corrects the movement of the multi-joint arm by using a movement amount of the base end of the multi-joint arm calculated based on the measurement result of the posture measurement unit.
The wearable robot according to claim 1 .
前記姿勢計測部は、前記支持脚の角度を検出するためのジャイロセンサを備えている、
請求項またはに記載の装着型ロボット。
The posture measurement unit includes a gyro sensor for detecting an angle of the support leg.
The wearable robot according to claim 1 or 2 .
前記姿勢計測部は、前記支持脚の鉛直方向に対する角度を検出するための重力センサをさらに備えている、
請求項からの何れか1項に記載の装着型ロボット。
The posture measurement unit further includes a gravity sensor for detecting an angle of the support leg with respect to a vertical direction.
The wearable robot according to any one of claims 1 to 3 .
前記姿勢計測部は、前記支持面に対する前記支持脚の角度を計測する角度センサを備えている、
請求項からの何れか1項に記載の装着型ロボット。
The posture measurement unit includes an angle sensor that measures an angle of the support leg relative to the support surface.
The wearable robot according to any one of claims 1 to 3 .
前記支持面に対する前記支持脚の先端の移動量を計測する移動量計測部をさらに備え、
前記制御装置は、前記姿勢計測部の計測結果および前記移動量計測部の計測結果を用いて算出される前記多関節アームの移動量に基づいて、前記多関節アームの動作を補正する、
請求項からの何れか1項に記載の装着型ロボット。
A movement amount measuring unit that measures a movement amount of the tip of the support leg relative to the support surface,
the control device corrects the operation of the multi-joint arm based on a movement amount of the multi-joint arm calculated using the measurement result of the attitude measurement unit and the measurement result of the movement amount measurement unit.
The wearable robot according to any one of claims 1 to 5 .
前記移動量計測部は、
前記支持面の画像を取得する画像センサを備え、
前記画像センサによって取得された前記支持面の画像に基づいて、前記支持脚の先端の移動量を計測する、
請求項に記載の装着型ロボット。
The movement amount measuring unit is
an image sensor for acquiring an image of the support surface;
measuring the amount of movement of the tip of the support leg based on the image of the support surface acquired by the image sensor;
The wearable robot according to claim 6 .
前記移動量計測部は、
前記支持面を転がる転動部と、
前記転動部の転がり量を計測する転がり量計測部と、を備え、
前記転がり量計測部によって計測された前記転がり量に基づいて、前記支持脚の先端の移動量を計測する、
請求項に記載の装着型ロボット。
The movement amount measuring unit is
A rolling part that rolls on the support surface;
A rolling amount measuring unit that measures the rolling amount of the rolling part,
measuring a movement amount of the tip of the support leg based on the rolling amount measured by the rolling amount measuring unit;
The wearable robot according to claim 6 .
前記制御装置は、前記姿勢計測部の計測結果を用いて算出される前記多関節アームの移動量に基づいて前記多関節アームの動作を補正する動作補正モード、および、前記姿勢計測部の計測結果に基づいて前記多関節アームの先端の目標位置を変更する目標位置変更モードの一方を選択して、前記多関節アームの動作を制御する、
請求項からの何れか1項に記載の装着型ロボット。
the control device selects one of a motion correction mode in which the motion of the multi-joint arm is corrected based on a movement amount of the multi-joint arm calculated using the measurement result of the posture measurement unit, and a target position change mode in which a target position of the tip of the multi-joint arm is changed based on the measurement result of the posture measurement unit, to control the motion of the multi-joint arm.
The wearable robot according to any one of claims 1 to 8 .
前記支持脚を1つまたは2つ備えている、
請求項1からの何れか1項に記載の装着型ロボット。
The support leg may be one or two.
The wearable robot according to any one of claims 1 to 9 .
前記支持脚は、
脚部と、
前記脚部の先端に回転可能に配置され、前記支持面に接する脚先部を備えている、
請求項1から10の何れか1項に記載の装着型ロボット。
The support legs include:
The legs,
The leg portion is rotatably disposed at the tip of the leg portion and is provided with a leg tip portion that contacts the support surface.
The wearable robot according to any one of claims 1 to 10 .
JP2020204304A 2020-12-09 2020-12-09 Wearable Robot Active JP7530815B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020204304A JP7530815B2 (en) 2020-12-09 2020-12-09 Wearable Robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020204304A JP7530815B2 (en) 2020-12-09 2020-12-09 Wearable Robot

Publications (2)

Publication Number Publication Date
JP2022091459A JP2022091459A (en) 2022-06-21
JP7530815B2 true JP7530815B2 (en) 2024-08-08

Family

ID=82067359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020204304A Active JP7530815B2 (en) 2020-12-09 2020-12-09 Wearable Robot

Country Status (1)

Country Link
JP (1) JP7530815B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7593663B2 (en) * 2022-07-25 2024-12-03 株式会社ロボットライド Information processing system, information processing device, and information processing program
CN115319721B (en) * 2022-10-11 2022-12-23 南方科技大学 An extremity arm device that can move along the body

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001232584A (en) 2000-02-18 2001-08-28 Denso Corp Mobile robot
US20150001269A1 (en) 2011-05-06 2015-01-01 Anthony D. Sacksteder Exoskeleton arm interface
JP2016193138A (en) 2015-04-01 2016-11-17 学校法人トヨタ学園 Quadrupedal type walking support machine, control method and control program of quadrupedal type walking support machine
WO2019017343A1 (en) 2017-07-18 2019-01-24 三菱電機株式会社 Motion assisting device
CN111515934A (en) 2020-05-09 2020-08-11 中国人民解放军32286部队50分队 Wearable individual equipment maintenance exoskeleton system and control method thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039857A (en) * 2014-08-12 2016-03-24 国立大学法人 名古屋工業大学 Walking machine

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001232584A (en) 2000-02-18 2001-08-28 Denso Corp Mobile robot
US20150001269A1 (en) 2011-05-06 2015-01-01 Anthony D. Sacksteder Exoskeleton arm interface
JP2016193138A (en) 2015-04-01 2016-11-17 学校法人トヨタ学園 Quadrupedal type walking support machine, control method and control program of quadrupedal type walking support machine
WO2019017343A1 (en) 2017-07-18 2019-01-24 三菱電機株式会社 Motion assisting device
CN111515934A (en) 2020-05-09 2020-08-11 中国人民解放军32286部队50分队 Wearable individual equipment maintenance exoskeleton system and control method thereof

Also Published As

Publication number Publication date
JP2022091459A (en) 2022-06-21

Similar Documents

Publication Publication Date Title
CN111975746B (en) Robot control method
JP6498597B2 (en) Mobile robot controller
US10232506B2 (en) Production system
US6216056B1 (en) Method of controlling force assisting device and control apparatus using the same
JP6483014B2 (en) Mobile robot controller
JP7530815B2 (en) Wearable Robot
JP2018192568A (en) Robot hand, robot device, and control method of robot hand
US9120223B2 (en) Method of controlling seven-axis articulated robot, control program, and robot control device
WO2011113490A1 (en) Calibration of a base coordinate system for an industrial robot
CN101518902A (en) Power assist device and method of controlling the power assist device
JP6850638B2 (en) Abnormal contact detection method and contact site identification method for mobile robots
CN110640748A (en) Coordinated control method of dual-arm robot based on binocular vision
US8483876B2 (en) Controller of mobile robot
CN106476015B (en) Robot, control device, and robot system
JP5758777B2 (en) robot
JP5198035B2 (en) Legged robot and control method thereof
JP7483597B2 (en) Wearable Robot
JP2007136590A (en) Control device and control method for redundant robot having redundant joints
JP2008068339A (en) Walking pattern creating device, bipedal walking robot device, walking pattern creating method, bipedal walking robot device control method, program, and recording medium
WO2024262397A1 (en) Control method for multi-joint robot, teaching method for multi-joint robot, and robot system
JP2006082155A (en) Walking pattern creating device, bipedal walking robot device, walking pattern creating method, method of controlling bipedal walking robot device, program, and recording medium
CN116475649A (en) Underactuated coupling system for mobile assembly line
JP3397317B2 (en) Force feedback type steering device
US20210291365A1 (en) Control method for robot and robot system
JPH0811374B2 (en) Master slave controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240729

R150 Certificate of patent or registration of utility model

Ref document number: 7530815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150