[go: up one dir, main page]

JP2008087109A - Robot control system - Google Patents

Robot control system Download PDF

Info

Publication number
JP2008087109A
JP2008087109A JP2006271081A JP2006271081A JP2008087109A JP 2008087109 A JP2008087109 A JP 2008087109A JP 2006271081 A JP2006271081 A JP 2006271081A JP 2006271081 A JP2006271081 A JP 2006271081A JP 2008087109 A JP2008087109 A JP 2008087109A
Authority
JP
Japan
Prior art keywords
target
angle
joint
robot
main body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006271081A
Other languages
Japanese (ja)
Inventor
Susumu Shimizu
奨 清水
Keisuke Suga
敬介 菅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006271081A priority Critical patent/JP2008087109A/en
Publication of JP2008087109A publication Critical patent/JP2008087109A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】オペレータの意図通りに移動ロボットを操縦することが容易となるロボット制御システムを提供する。
【解決手段】オペレータがコントローラを操作することによって移動ロボットを操縦するロボット制御システムであって、コントローラは、移動ロボットに動作命令を入力する手段と、オペレータに移動ロボットの制御状態を表示する表示手段を有しており、移動ロボットは、本体と、本体を移動させる手段と、移動ロボットの姿勢状態を検出する手段と、コントローラから入力された動作命令に基づいて移動ロボットの姿勢状態の目標値を決定する手段と、移動ロボットの姿勢状態が決定された目標値が示す状態となるように移動手段を制御する手段と、検出手段が検出した姿勢状態と目標値との差分値を算出する手段とを有しており、表示手段は移動ロボットが算出した差分値に基づいた指標を表示する。
【選択図】図2
A robot control system that makes it easy to maneuver a mobile robot as intended by an operator.
A robot control system for operating a mobile robot by an operator operating a controller, wherein the controller inputs means for inputting an operation command to the mobile robot, and display means for displaying the control state of the mobile robot to the operator. The mobile robot has a main body, a means for moving the main body, a means for detecting the posture state of the mobile robot, and a target value of the posture state of the mobile robot based on an operation command input from the controller. Means for determining, means for controlling the moving means so that the attitude value of the mobile robot is in the state indicated by the determined target value, means for calculating a difference value between the attitude state detected by the detecting means and the target value; The display means displays an index based on the difference value calculated by the mobile robot.
[Selection] Figure 2

Description

本発明は、移動ロボットと、その移動ロボットを操縦するためのコントローラを備えたロボット制御システムに関する。   The present invention relates to a robot control system including a mobile robot and a controller for operating the mobile robot.

オペレータ(操縦者)がコントローラを操作することによって移動ロボットを操縦するロボット制御システムが知られている。例えば、コントローラを移動ロボットから隔離した場所に配置し、オペレータがそのコントローラを操作することで、移動ロボットを遠隔操縦する。このようなロボット制御システムでは、移動ロボットにカメラを搭載するとともにコントローラに表示手段を搭載し、移動ロボットのカメラで撮影された映像をコントローラの表示手段で表示する。操縦者は、移動ロボットのカメラで撮影された映像を確認しながらコントローラを操作することで、移動ロボットを操縦する。
なお、特許文献1には、歩行ロボットに搭載したカメラの画像を基に2つの脚部を駆動することによって安定して歩行する技術が開示されている。
特開2001−277159
A robot control system is known in which an operator (operator) operates a mobile robot by operating a controller. For example, the controller is disposed in a place isolated from the mobile robot, and the operator operates the controller to remotely control the mobile robot. In such a robot control system, a camera is mounted on the mobile robot and a display unit is mounted on the controller, and an image captured by the camera of the mobile robot is displayed on the display unit of the controller. The operator controls the mobile robot by operating the controller while confirming the video captured by the mobile robot camera.
Patent Document 1 discloses a technique for stably walking by driving two legs based on an image of a camera mounted on a walking robot.
JP 2001-277159 A

上述したロボット制御システムでは、オペレータは移動ロボットのカメラで撮影された映像を確認しながらコントローラを操作する。しかしながら、移動ロボットが移動している場合、カメラの映像は移動ロボットの移動とともに揺れるので、移動ロボットの状態を正確に確認することが困難である。また、カメラの映像では、移動ロボットの周囲の状況を把握することはできても、移動ロボットの位置や、移動ロボットがどのような姿勢をとっているかといった移動ロボットの姿勢状態を正確に確認することはできない。また、カメラの映像では、移動ロボットが移動する床面が傾いている場合や、床面上に障害物がある場合に、それらのことを正確に確認することができない。したがって、従来のロボット制御システムでは、移動ロボットをオペレータの意図通りに操縦することが非常に困難であった。   In the robot control system described above, the operator operates the controller while confirming an image captured by the mobile robot camera. However, when the mobile robot is moving, the image of the camera shakes with the movement of the mobile robot, so it is difficult to accurately check the state of the mobile robot. In addition, although the camera image can grasp the situation around the mobile robot, the mobile robot's posture status, such as the position of the mobile robot and the posture of the mobile robot, can be confirmed accurately. It is not possible. Also, in the video of the camera, when the floor surface on which the mobile robot moves is tilted or when there are obstacles on the floor surface, it is not possible to confirm them accurately. Therefore, in the conventional robot control system, it is very difficult to steer the mobile robot as intended by the operator.

本発明は、上記した実情に鑑みてなされたものであり、オペレータの意図通りに移動ロボットを操縦することが容易となるロボット制御システムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a robot control system that makes it easy to maneuver a mobile robot as intended by an operator.

本発明のロボット制御システムは、移動ロボットと、移動ロボットを操縦するためのコントローラを有している。コントローラは、移動ロボットに動作命令を入力する入力手段と、オペレータに移動ロボットの制御状態を表示する表示手段を有している。移動ロボットは、本体と、本体を移動させる移動手段と、移動ロボットの姿勢状態を検出する検出手段と、コントローラから入力された動作命令に基づいて、所定時間が経過した時の移動ロボットの姿勢状態の目標値を決定する目標値決定手段と、前記所定時間経過時に移動ロボットの姿勢状態が決定された目標値が示す状態となるように移動手段を制御する制御手段と、前記所定時間経過時に検出手段が検出した姿勢状態と目標値との差分値を算出する差分値算出手段とを有している。そして、表示手段が移動ロボットが算出した差分値に基づいた指標を表示することを特徴とする。
このロボット制御システムでは、コントローラの表示手段に検出手段によって検出された検出値(実際の移動ロボットの姿勢状態)と目標値(オペレータが指示した移動ロボットの姿勢状態)との差分値に基づいた指標が表示される。この差分値が大きいことは、移動ロボットが何らかの原因で目標値通りに制御されていないこと意味する。このため、移動ロボットのオペレータは、表示手段で表示される差分値に基づいた指標から移動ロボットが目標値通りに制御されているか否かを確認しながら移動ロボットを操縦することができる。したがって、移動ロボットをオペレータの意図通りに操縦することが容易となる。
The robot control system of the present invention has a mobile robot and a controller for maneuvering the mobile robot. The controller has input means for inputting an operation command to the mobile robot and display means for displaying the control state of the mobile robot to the operator. The mobile robot includes a main body, a moving means for moving the main body, a detecting means for detecting the posture state of the mobile robot, and a posture state of the mobile robot when a predetermined time has elapsed based on an operation command input from the controller. A target value determining means for determining the target value of the mobile robot, a control means for controlling the moving means so that the determined target value indicates the posture state of the mobile robot when the predetermined time elapses, and detected when the predetermined time elapses Difference value calculating means for calculating a difference value between the posture state detected by the means and the target value. The display means displays an index based on the difference value calculated by the mobile robot.
In this robot control system, an indicator based on a difference value between a detection value (actual mobile robot posture state) detected by the detection means and a target value (mobile robot posture state instructed by the operator) on the display means of the controller. Is displayed. A large difference value means that the mobile robot is not controlled according to the target value for some reason. Therefore, the operator of the mobile robot can operate the mobile robot while confirming whether the mobile robot is controlled according to the target value from the index based on the difference value displayed on the display means. Therefore, it becomes easy to maneuver the mobile robot as intended by the operator.

上述したロボット制御システムは、検出手段が本体の位置を検出し、目標値決定手段が入力された動作命令に基づいて所定時間経過時の本体の目標位置を決定し、制御手段が前記所定時間経過時に本体が目標位置に移動するように移動手段を制御し、差分値算出手段が前記所定時間経過時に検出手段が検出した本体の位置と目標位置との差分値を算出することが好ましい。
このような構成によれば、本体の目標位置と現在位置との差分値に基づいた指標が表示手段に表示される。この差分値が大きいことは、外乱等が作用して移動ロボットがオペレータの意図通りに正確に移動していないことを意味する。したがって、移動ロボットのオペレータは、差分値に基づいた指標から移動ロボットに外乱が作用しているか否かを確認しながら移動ロボットを操縦することができる。したがって、移動ロボットをオペレータの意図した位置に移動させることが容易となる。
In the robot control system described above, the detection means detects the position of the main body, the target value determination means determines the target position of the main body when a predetermined time has elapsed based on the input operation command, and the control means determines that the predetermined time has elapsed. It is preferable that the moving unit is sometimes controlled so that the main body moves to the target position, and the difference value calculating unit calculates the difference value between the position of the main body detected by the detecting unit and the target position when the predetermined time has elapsed.
According to such a configuration, an indicator based on the difference value between the target position of the main body and the current position is displayed on the display means. When this difference value is large, it means that a disturbance or the like acts and the mobile robot does not move exactly as intended by the operator. Therefore, the operator of the mobile robot can maneuver the mobile robot while confirming whether a disturbance is acting on the mobile robot from the index based on the difference value. Therefore, it becomes easy to move the mobile robot to the position intended by the operator.

上述したロボット制御システムは、目標値決定手段が所定周期で本体の目標位置を決定し、制御手段が目標値決定手段が決定した今回の周期の目標位置と前回の周期で差分値算出手段が算出した差分値に基づいて移動手段を制御することが好ましい。
このような構成によれば、移動ロボットを目標位置により正確に移動させることができる。
In the robot control system described above, the target value determination means determines the target position of the main body at a predetermined cycle, and the control means calculates the difference value calculation means at the previous cycle target position determined by the target value determination means and the previous cycle. It is preferable to control the moving means based on the difference value.
According to such a configuration, the mobile robot can be accurately moved according to the target position.

上述したロボット制御システムは、検出手段が本体の傾斜角を検出し、目標値決定手段が入力された動作命令に基づいて所定時間経過時の本体の目標傾斜角を決定し、制御手段が前記所定時間経過時に本体の傾斜角が目標傾斜角となるように移動手段を制御し、差分値算出手段が前記所定時間経過時に検出手段が検出した本体の傾斜角と目標傾斜角との差分値を算出することが好ましい。
このような構成によれば、目標傾斜角と本体の傾斜角との差分値に基づいた指標が表示手段に表示される。この差分値が大きいことは、移動する床面が傾斜していたり、移動ロボットが障害物に乗り上げたりして移動ロボットが正確に制御されていないことを意味する。したがって、移動ロボットのオペレータは、差分値に基づいた指標から床面に傾きがあるか否かや、移動ロボットが障害物に乗り上げているか否かを確認しながら移動ロボットを操縦することができる。したがって、移動ロボットをオペレータの意図通りに操縦することが容易となる。
In the robot control system described above, the detection means detects the inclination angle of the main body, the target value determination means determines the target inclination angle of the main body when a predetermined time has passed based on the input operation command, and the control means determines the predetermined inclination angle. The moving means is controlled so that the inclination angle of the main body becomes the target inclination angle when time elapses, and the difference value calculation means calculates the difference value between the inclination angle of the main body detected by the detection means and the target inclination angle when the predetermined time elapses. It is preferable to do.
According to such a configuration, an indicator based on a difference value between the target tilt angle and the tilt angle of the main body is displayed on the display unit. A large difference value means that the moving robot is not accurately controlled because the moving floor is inclined or the mobile robot rides on an obstacle. Therefore, the operator of the mobile robot can maneuver the mobile robot while confirming whether the floor surface is tilted from the index based on the difference value and whether the mobile robot is riding on an obstacle. Therefore, it becomes easy to maneuver the mobile robot as intended by the operator.

また、本発明は、安定した状態で歩行ロボットを操縦することができる新たなロボット制御システムを提供する。
本発明のロボット制御システムは、本体と本体に接続された第1の脚部及び第2の脚部を備えた歩行ロボットと、歩行ロボットを操縦するためのコントローラを有している。コントローラは、歩行ロボットに動作命令を入力する入力手段と、オペレータに歩行ロボットの制御状態を表示する表示手段を有している。歩行ロボットは、第1脚部の接地部の角度を変更する第1足首関節と、第1足首関節を駆動する第1のアクチュエータと、第2脚部の接地部の角度を変更する第2足首関節と、第2足首関節を駆動する第2のアクチュエータと、入力された動作命令に基づいて、各足首関節の目標角度を決定する目標角度決定手段と、各脚部の接地状態を検出する検出手段と、各脚部の接地状態に基づいて、第1足首関節及び第2足首関節の目標角度を補正する補正手段と、目標角度が補正されている足首関節については、その関節が補正後の目標角度となるようにその関節を駆動するアクチュエータを制御し、目標角度が補正されていない足首関節については、その関節が決定された目標角度となるようにその関節を駆動するアクチュエータを制御する制御手段を有している。そして、表示手段が第1足首関節及び/または第2足首関節の角度補正量に基づいた指標を表示することを特徴とする。
このロボット制御システムの歩行ロボットは、検出手段によって各脚部の接地状態が検出され、検出された接地状態に基づいて各脚部の足首関節の角度が補正される。これによって、各脚部の接地状態に応じた角度に各脚部の足首関節が制御され、歩行ロボットは好適に床面に接地(倒立)することができる。
コントローラの表示手段には、第1足首関節及び/または第2足首関節の角度補正量に基づいた指標が表示される。角度補正量が大きいことは、歩行ロボットの各脚部の接地状態が理想的な状態(水平な床面に接地している状態)からずれていることを意味する。したがって、歩行ロボットのオペレータは、表示手段で表示される角度補正量に基づいた指標から歩行ロボットの各脚部が正常に接地しているか否か(すなわち、各脚部が接地している床面の状況)を確認しながら歩行ロボットを操縦することができる。したがって、歩行ロボットをオペレータの意図通りに操縦することが容易となる。
The present invention also provides a new robot control system capable of maneuvering a walking robot in a stable state.
The robot control system according to the present invention includes a main body, a walking robot including a first leg and a second leg connected to the main body, and a controller for operating the walking robot. The controller has input means for inputting an operation command to the walking robot and display means for displaying the control state of the walking robot to the operator. The walking robot includes a first ankle joint that changes an angle of a grounding portion of the first leg, a first actuator that drives the first ankle joint, and a second ankle that changes the angle of the grounding portion of the second leg. A joint, a second actuator for driving the second ankle joint, a target angle determining means for determining a target angle of each ankle joint based on an input operation command, and a detection for detecting a ground contact state of each leg A correction means for correcting the target angle of the first ankle joint and the second ankle joint based on the ground contact state of each leg and the ankle joint whose target angle has been corrected; Control that controls the actuator that drives the joint so that it reaches the target angle, and controls the actuator that drives the joint so that the joint becomes the determined target angle for an ankle joint whose target angle is not corrected It has a step. The display means displays an index based on the angle correction amount of the first ankle joint and / or the second ankle joint.
In the walking robot of this robot control system, the contact state of each leg is detected by the detecting means, and the angle of the ankle joint of each leg is corrected based on the detected contact state. Thereby, the ankle joint of each leg is controlled at an angle corresponding to the ground contact state of each leg, and the walking robot can be suitably grounded (inverted) on the floor surface.
An indicator based on the angle correction amount of the first ankle joint and / or the second ankle joint is displayed on the display means of the controller. A large angle correction amount means that the ground contact state of each leg of the walking robot is deviated from an ideal state (a state of grounding on a horizontal floor surface). Therefore, the operator of the walking robot determines whether each leg of the walking robot is normally grounded based on the index based on the angle correction amount displayed on the display means (that is, the floor surface on which each leg is grounded). The robot can be operated while confirming Therefore, it becomes easy to steer the walking robot as intended by the operator.

下記に詳細に説明する実施例の主要な特徴を最初に列記する。
(形態1)ロボット制御システムは、コントローラと歩行ロボットによって構成されている。
(形態2)コントローラは、操縦者(オペレータ)によって操作され、その操作量(動作命令)を所定周期で出力するジョイスティックと、ジョイスティックから出力された動作命令を歩行ロボットに送信する送信アンテナと、歩行ロボットから送信されるデータを受信する受信アンテナと、受信アンテナで受信したデータに応じた画像を表示する表示手段を有している。
(形態3)歩行ロボットは、本体と、本体に接続された第1の脚部及び第2の脚部とを有している。
(形態4)第1脚部は、第1脚部の接地部の角度を変更する第1足首関節を含む複数の関節を有しており、各関節には入力される制御指令値にしたがって関節を駆動するアクチュエータが設置されている。
(形態5)第2脚部は、第2脚部の接地部の角度を変更する第1足首関節を含む複数の関節を有しており、各関節には入力される制御指令値にしたがって関節を駆動するアクチュエータが設置されている。
(形態6)歩行ロボットは、コントローラから送信された動作命令を所定周期で受信する受信アンテナと、受信した動作命令に基づいて本体の目標位置を算出する目標位置算出手段と、算出した目標位置と前回の周期における本体の位置ずれ量とに基づいて本体の目標移動量を算出する目標移動量算出手段と、算出した目標移動量に基づいて今回の周期における各関節の目標関節角を算出する目標関節角算出手段と、脚部の接地状態を検出する接地状態検出手段と、検出した脚部の接地状態に基づいて第1足首関節及び第2足首関節の目標関節角を補正する目標関節角補正手段と、次の周期までに第1足首関節及び第2足首関節が補正された目標関節角となるようにそれらの関節に対応するアクチュエータに制御指令値を入力する第1制御手段と、次の周期までに第1足首関節及び第2足首関節を除く各関節が算出された目標関節角となるようにそれらの関節に対応するアクチュエータに制御指令値を入力する第2制御手段と、本体の傾斜角を検出する傾斜角センサと、算出された各関節の目標関節角から算出される本体の目標傾斜角と傾斜角センサで検出された本体の傾斜角から本体の傾斜角ずれ量を算出する傾斜角ずれ量算出手段と、本体の位置を検出する位置検出手段と、算出された目標位置と位置検出手段で検出された本体の位置から本体の位置ずれ量を算出する位置ずれ量算出手段と、歩行ロボットの進行方向を撮影するカメラと、第1足首関節及び第2足首関節の目標関節角の補正量と、算出された本体の位置ずれ量と、算出された本体の傾斜角ずれ量と、カメラで撮影された映像をコントローラに送信する送信アンテナをさらに有している。
(形態7)接地状態検出手段は、前回の周期に第1足首関節のアクチュエータに入力された制御指令値と第2足首関節のアクチュエータに入力された制御指令値との差に基づいて、脚部の接地状態の良否を検出する。
The main features of the embodiments described in detail below are listed first.
(Mode 1) The robot control system includes a controller and a walking robot.
(Mode 2) The controller is operated by the operator (operator), and outputs a joystick that outputs the operation amount (motion command) at a predetermined cycle, a transmission antenna that transmits the motion command output from the joystick to the walking robot, and walking A receiving antenna for receiving data transmitted from the robot and display means for displaying an image corresponding to the data received by the receiving antenna.
(Mode 3) The walking robot has a main body, and a first leg and a second leg connected to the main body.
(Mode 4) The first leg has a plurality of joints including a first ankle joint that changes the angle of the ground contact part of the first leg, and each joint is a joint according to a control command value input. Is installed.
(Mode 5) The second leg has a plurality of joints including a first ankle joint for changing the angle of the ground contact part of the second leg, and each joint is a joint according to a control command value inputted. Is installed.
(Mode 6) The walking robot includes a receiving antenna that receives an operation command transmitted from the controller in a predetermined cycle, a target position calculation unit that calculates a target position of the main body based on the received operation command, and a calculated target position Target movement amount calculation means for calculating the target movement amount of the main body based on the positional deviation amount of the main body in the previous cycle, and a target for calculating the target joint angle of each joint in the current cycle based on the calculated target movement amount Joint angle calculation means, ground contact state detection means for detecting the ground contact state of the leg, and target joint angle correction for correcting the target joint angles of the first and second ankle joints based on the detected ground contact state of the leg And a first control hand for inputting a control command value to an actuator corresponding to the joint so that the first ankle joint and the second ankle joint have the corrected target joint angles by the next cycle. And second control means for inputting control command values to actuators corresponding to the joints other than the first ankle joint and the second ankle joint so that the joint angles other than the first ankle joint are calculated by the next cycle. The tilt angle sensor for detecting the tilt angle of the main body, the target tilt angle of the main body calculated from the calculated target joint angle of each joint, and the tilt angle deviation amount of the main body from the tilt angle of the main body detected by the tilt angle sensor The angle deviation amount calculating means for calculating the position of the main body, the position detecting means for detecting the position of the main body, the position deviation amount for calculating the position deviation amount of the main body from the calculated target position and the position of the main body detected by the position detecting means. A calculation means, a camera that captures the traveling direction of the walking robot, a correction amount of the target joint angle of the first ankle joint and the second ankle joint, a calculated displacement amount of the main body, and a calculated tilt angle of the main body The amount of deviation and the camera Further it has a transmitting antenna for transmitted video controller.
(Embodiment 7) The grounding state detection means is based on the difference between the control command value input to the first ankle joint actuator and the control command value input to the second ankle joint actuator in the previous cycle. The quality of the grounding state is detected.

本発明の一実施例に係るロボット制御システムについて図面を参照して説明する。図1はロボット制御システム8の概略斜視図を示しており、図2はロボット制御システム8のブロック図を示している。図1,図2に示すように、ロボット制御システム8は、歩行ロボット10と、歩行ロボット10に動作命令を送信するコントローラ80を備えている。   A robot control system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a schematic perspective view of the robot control system 8, and FIG. 2 is a block diagram of the robot control system 8. As shown in FIGS. 1 and 2, the robot control system 8 includes a walking robot 10 and a controller 80 that transmits an operation command to the walking robot 10.

(歩行ロボット10の構成)
図1に示すように歩行ロボット10は、複数のパーツが関節で接続されることによって構成されている。すなわち、歩行ロボット10は、本体11と、その本体11と関節18を介して接続された頭部12、左腕部13、右腕部14、右脚部15、左脚部16によって構成されている。左腕部13及び右腕部14は、複数のパーツが関節(肘関節,手首関節)18を介して接続されることによって構成されている。右脚部15は、一端が本体11と関節(股関節)18を介して接続された上腿部15a、その上腿部15aの他端と関節(膝関節)18を介して接続された下腿部15b、その下腿部15bの他端と足首関節(2つの関節20、22)を介して接続された足平15cによって構成されている。左脚部16は、一端が本体11と関節(股関節)18を介して接続された上腿部16a、その上腿部16aの他端と関節(膝関節)18を介して接続された下腿部16b、その下腿部16bの他端と足首関節(2つの関節24、26)を介して接続された足平16cによって構成されている。
(Configuration of walking robot 10)
As shown in FIG. 1, the walking robot 10 is configured by connecting a plurality of parts with joints. That is, the walking robot 10 includes a main body 11, a head 12, a left arm part 13, a right arm part 14, a right leg part 15, and a left leg part 16 connected to the main body 11 via a joint 18. The left arm portion 13 and the right arm portion 14 are configured by connecting a plurality of parts via joints (elbow joints, wrist joints) 18. The right leg 15 has one end connected to the main body 11 via a joint (hip joint) 18 and a lower leg connected to the other end of the upper leg 15 a via a joint (knee joint) 18. It is comprised by the foot 15c connected via the part 15b and the other end of the leg part 15b, and the ankle joint (two joints 20 and 22). The left leg 16 has an upper leg 16 a having one end connected to the main body 11 via a joint (hip joint) 18, and a lower leg connected to the other end of the upper leg 16 a via a joint (knee joint) 18. The leg 16c is connected to the other end of the leg 16b and the lower leg 16b via an ankle joint (two joints 24 and 26).

図2に示すように、各関節18はモータ18aを備えている。各モータ18aは、対応するサーボアンプ18d(後に詳述する)と電気的に接続されている。各モータ18aは、各サーボアンプ18dから制御指令値を入力されることで駆動する。関節18は、モータ18aが駆動することによってその角度が変更される。また、各モータ18aには、関節18の角度(より詳細には、歩行ロボット10の直立状態(図1の状態)における関節18の角度に対する角度)を検出するエンコーダ18bがそれぞれ設置されている。各エンコーダ18bは、対応するサーボアンプ18dと電気的に接続されている。各エンコーダ18bが検出した関節18の角度は、対応するサーボアンプ18dに出力される。   As shown in FIG. 2, each joint 18 includes a motor 18a. Each motor 18a is electrically connected to a corresponding servo amplifier 18d (described in detail later). Each motor 18a is driven by receiving a control command value from each servo amplifier 18d. The angle of the joint 18 is changed by driving the motor 18a. Each motor 18a is provided with an encoder 18b for detecting the angle of the joint 18 (more specifically, the angle with respect to the angle of the joint 18 in the upright state (state of FIG. 1) of the walking robot 10). Each encoder 18b is electrically connected to a corresponding servo amplifier 18d. The angle of the joint 18 detected by each encoder 18b is output to the corresponding servo amplifier 18d.

同様に、関節20は、後述するサーボアンプ20dから入力される制御指令値によって関節20の角度を変更するモータ20aを備えており、モータ20aには関節20の角度θ20を検出してサーボアンプ20dに出力するエンコーダ20bが設置されている。
同様に、関節22は、後述するサーボアンプ22dから入力される制御指令値によって関節22の角度を変更するモータ22aを備えており、モータ22aには関節22の角度θ22を検出してサーボアンプ22dに出力するエンコーダ22bが設置されている。
同様に、関節24は、後述するサーボアンプ24dから入力される制御指令値によって関節24の角度を変更するモータ24aを備えており、モータ24aには関節24の角度θ24を検出してサーボアンプ24dに出力するエンコーダ24bが設置されている。
同様に、関節26は、後述するサーボアンプ26dから入力される制御指令値によって関節26の角度を変更するモータ26aを備えており、モータ26aには関節26の角度θ26を検出してサーボアンプ26dに出力するエンコーダ26bが設置されている。
Similarly, the joint 20 includes a motor 20a that changes the angle of the joint 20 according to a control command value input from a servo amplifier 20d described later. The motor 20a detects the angle θ20 of the joint 20 and detects the servo amplifier 20d. Is installed.
Similarly, the joint 22 includes a motor 22a that changes the angle of the joint 22 in accordance with a control command value input from a servo amplifier 22d described later. The motor 22a detects the angle θ22 of the joint 22 and detects the servo amplifier 22d. An encoder 22b that outputs the signal is installed.
Similarly, the joint 24 includes a motor 24a that changes the angle of the joint 24 according to a control command value input from a servo amplifier 24d described later. The motor 24a detects the angle θ24 of the joint 24 and detects the servo amplifier 24d. Is installed.
Similarly, the joint 26 includes a motor 26a that changes the angle of the joint 26 in accordance with a control command value input from a servo amplifier 26d described later. The motor 26a detects the angle θ26 of the joint 26 and detects the servo amplifier 26d. An encoder 26b is provided for output.

図3は、右脚部15の関節20、22及び左脚部16の関節24、26の拡大図を示している。
関節20は、足平15cを下腿部15bに対して回転軸20c周りに回転させる。エンコーダ20bは、関節20の回転軸20c周りの角度θ20を検出する。
関節22は、足平15cを下腿部15bに対して回転軸22c周りに回転させる。エンコーダ22bは、関節22の回転軸22c周りの角度θ22を検出する。
関節24は、足平16cを下腿部16bに対して回転軸24c周りに回転させる。エンコーダ24bは、関節24の回転軸24c周りの角度θ24を検出する。
関節26は、足平16cを下腿部16bに対して回転軸26c周りに回転させる。エンコーダ26bは、関節26の回転軸26c周りの角度θ26を検出する。
図から明らかなように、右脚部15の関節20は、左脚部16の関節24に対応する。また、右脚部15の関節22は、左脚部16の関節26に対応する。
FIG. 3 shows an enlarged view of the joints 20 and 22 of the right leg 15 and the joints 24 and 26 of the left leg 16.
The joint 20 rotates the foot 15c around the rotation axis 20c with respect to the crus 15b. The encoder 20b detects an angle θ20 around the rotation axis 20c of the joint 20.
The joint 22 rotates the foot 15c around the rotation axis 22c with respect to the crus 15b. The encoder 22b detects an angle θ22 around the rotation axis 22c of the joint 22.
The joint 24 rotates the foot 16c around the rotation axis 24c with respect to the crus 16b. The encoder 24b detects an angle θ24 around the rotation axis 24c of the joint 24.
The joint 26 rotates the foot 16c around the rotation axis 26c with respect to the crus 16b. The encoder 26b detects an angle θ26 around the rotation axis 26c of the joint 26.
As is apparent from the figure, the joint 20 of the right leg 15 corresponds to the joint 24 of the left leg 16. Further, the joint 22 of the right leg 15 corresponds to the joint 26 of the left leg 16.

また、歩行ロボット10は、図2に示すように、受信アンテナ30と、送信アンテナ32と、制御装置40と、傾斜角センサ70と、加速度センサ72と、カメラ74と、サーボアンプ18d〜26dを備えている。   2, the walking robot 10 includes a receiving antenna 30, a transmitting antenna 32, a control device 40, an inclination angle sensor 70, an acceleration sensor 72, a camera 74, and servo amplifiers 18d to 26d. I have.

受信アンテナ30は、制御装置40と電気的に接続されている。受信アンテナ30は、コントローラ80から制御周期(制御装置40が歩行ロボット10を制御するために実行する一連の処理を実行する周期)毎に送信される無線信号(後述する動作命令データ)を受信し、その信号を制御装置40に出力する。   The receiving antenna 30 is electrically connected to the control device 40. The receiving antenna 30 receives a radio signal (operation command data to be described later) transmitted from the controller 80 every control cycle (a cycle in which a series of processing executed by the control device 40 to control the walking robot 10). The signal is output to the control device 40.

傾斜角センサ70は、歩行ロボット10の本体11に搭載されている。傾斜角センサ70は、制御装置40と接続されている。傾斜角センサ70は、本体11の傾斜角(ピッチ角P、ロール角R)を検出する。傾斜角センサ70が検出する本体11の傾斜角データ(P,R)は、制御装置40に読取られる。   The tilt angle sensor 70 is mounted on the main body 11 of the walking robot 10. The tilt angle sensor 70 is connected to the control device 40. The tilt angle sensor 70 detects the tilt angle (pitch angle P, roll angle R) of the main body 11. The tilt angle data (P, R) of the main body 11 detected by the tilt angle sensor 70 is read by the control device 40.

加速度センサ72は、歩行ロボット10の本体11に搭載されている。加速度センサ72は、制御装置40と接続されている。加速度センサ72は、3軸加速度センサであり、本体11の前後方向、左右方向及び上下方向の加速度(ax,ay,az)を検出する。加速度センサ72が検出した加速度データ(ax,ay,az)は、制御装置40に読取られる。   The acceleration sensor 72 is mounted on the main body 11 of the walking robot 10. The acceleration sensor 72 is connected to the control device 40. The acceleration sensor 72 is a triaxial acceleration sensor and detects accelerations (ax, ay, az) in the front-rear direction, the left-right direction, and the vertical direction of the main body 11. The acceleration data (ax, ay, az) detected by the acceleration sensor 72 is read by the control device 40.

カメラ74は、歩行ロボット10の頭部12に搭載されている。カメラ74は、制御装置40を介して送信アンテナ32と電気的に接続されている。カメラ74は歩行ロボット10の進行方向を撮影する。カメラ74が撮影した画像は、制御装置40に読取られる。   The camera 74 is mounted on the head 12 of the walking robot 10. The camera 74 is electrically connected to the transmission antenna 32 via the control device 40. The camera 74 captures the traveling direction of the walking robot 10. An image captured by the camera 74 is read by the control device 40.

制御装置40は、受信アンテナ30、送信アンテナ32、各サーボアンプ18d〜26d、傾斜角センサ70、加速度センサ72、カメラ74と接続されている。制御装置40は、目標位置算出部42、目標移動量算出部44、目標関節角算出部48、目標関節角補正部50、傾斜角ずれ量算出部52、現在位置算出部54、位置ずれ量算出部56を備えている。   The control device 40 is connected to the reception antenna 30, the transmission antenna 32, the servo amplifiers 18 d to 26 d, the tilt angle sensor 70, the acceleration sensor 72, and the camera 74. The control device 40 includes a target position calculation unit 42, a target movement amount calculation unit 44, a target joint angle calculation unit 48, a target joint angle correction unit 50, a tilt angle deviation amount calculation unit 52, a current position calculation unit 54, and a position deviation amount calculation. A portion 56 is provided.

目標位置算出部42には、受信アンテナ30から制御周期毎に動作命令データが入力される。目標位置算出部42は、入力された動作命令データに基づいて、本体11の目標位置(xA,yA)(より詳細には、本体11に搭載された加速度センサ72の目標位置)を算出する。目標位置(xA,yA)は、グローバル座標系(すなわち、歩行ロボット10が移動する作業空間内において規定された座標系)におけるxy座標として算出される。目標位置算出部42は、算出した目標位置(xA,yA)を目標移動量算出部44及び位置ずれ量算出部56に出力する。   Operation command data is input from the receiving antenna 30 to the target position calculation unit 42 for each control period. The target position calculation unit 42 calculates a target position (xA, yA) of the main body 11 (more specifically, a target position of the acceleration sensor 72 mounted on the main body 11) based on the input operation command data. The target position (xA, yA) is calculated as xy coordinates in a global coordinate system (that is, a coordinate system defined in the work space in which the walking robot 10 moves). The target position calculation unit 42 outputs the calculated target position (xA, yA) to the target movement amount calculation unit 44 and the positional deviation amount calculation unit 56.

目標移動量算出部44には、目標位置算出部42から制御周期毎に本体11の目標位置(xA,yA)が入力される。また、目標移動量算出部44には、位置ずれ量算出部56から前回の制御周期における位置ずれデータ(Δx,Δy)(後に詳述する)が入力される。目標移動量算出部44は、入力された目標位置(xA,yA)、前回の制御周期の目標位置(xA−1,yA−1)及び前回の周期の位置ずれデータ(Δx,Δy)から目標移動量(dx,dy)を算出し、目標関節角算出部48に出力する。例えば、目標移動量算出部44は、入力された目標位置(xA,yA)と前回の制御周期の目標位置(xA−1,yA−1)から理想的な目標移動量を算出し、算出した理想的な目標移動量を前回の周期の位置ずれデータ(Δx,Δy)により補正して、最終的な目標移動量(dx,dy)を算出する。 The target movement amount calculation unit 44 receives the target position (xA, yA) of the main body 11 from the target position calculation unit 42 for each control cycle. Further, the position shift data (Δx, Δy) (described in detail later) in the previous control cycle is input to the target movement amount calculation unit 44 from the position shift amount calculation unit 56. The target movement amount calculation unit 44 calculates the target from the input target position (xA, yA), the target position (xA −1 , yA −1 ) of the previous control cycle, and the positional shift data (Δx, Δy) of the previous cycle. The movement amount (dx, dy) is calculated and output to the target joint angle calculation unit 48. For example, the target movement amount calculation unit 44 calculates an ideal target movement amount from the input target position (xA, yA) and the target position (xA −1 , yA −1 ) of the previous control cycle. The ideal target movement amount is corrected by the positional deviation data (Δx, Δy) of the previous cycle, and the final target movement amount (dx, dy) is calculated.

目標関節角算出部48には、目標移動量算出部44から制御周期毎に目標移動量(dx,dy)が入力される。目標関節角算出部48は、今回の制御周期の間に本体11が入力された目標移動量(dx,dy)だけ移動するように(すなわち、今回の周期の動作実行後に本体11が目標位置(xA,yA)に移動するように)、今回の制御周期における歩行ロボット10の各関節18〜26の目標関節角θA18〜θA26を算出する。このように、各関節18〜26の目標関節角θA18〜θA26が算出されることによって、今回の制御周期における歩行ロボット10の目標姿勢(歩行ロボット10の各部位(本体11,頭部12,腕部13,14、脚部15,16)の目標姿勢)が規定される。目標関節角算出部48は、算出した目標関節角θA18〜θA26のうち各関節18の目標関節角θA18を、対応するサーボアンプ18dに出力する。また、目標関節角算出部48は、算出した関節20〜26の目標関節角θA20〜26と歩行ロボット10の目標姿勢を目標関節角補正部50に出力する。また、目標関節角算出部48は、傾斜角ずれ量算出部52に歩行ロボット10の目標姿勢を出力する。   A target movement amount (dx, dy) is input to the target joint angle calculation unit 48 for each control cycle from the target movement amount calculation unit 44. The target joint angle calculation unit 48 moves the main body 11 by the input target movement amount (dx, dy) during the current control period (that is, the main body 11 moves to the target position ( xA, yA) so that the target joint angles θA18 to θA26 of the joints 18 to 26 of the walking robot 10 in the current control cycle are calculated. Thus, by calculating the target joint angles θA18 to θA26 of the joints 18 to 26, the target posture of the walking robot 10 (each part of the walking robot 10 (main body 11, head 12, arm) in the current control cycle is calculated. The target postures of the parts 13, 14 and the legs 15, 16) are defined. The target joint angle calculation unit 48 outputs the target joint angle θA18 of each joint 18 among the calculated target joint angles θA18 to θA26 to the corresponding servo amplifier 18d. Further, the target joint angle calculation unit 48 outputs the calculated target joint angles θA 20 to 26 of the joints 20 to 26 and the target posture of the walking robot 10 to the target joint angle correction unit 50. The target joint angle calculation unit 48 outputs the target posture of the walking robot 10 to the tilt angle deviation amount calculation unit 52.

目標関節角補正部50には、目標関節角算出部48から制御周期毎に関節20〜26の目標関節角θA20〜θA26と歩行ロボット10の目標姿勢が入力される。また、目標関節角補正部50には、サーボアンプ20d〜26dが前回の制御周期で出力した制御指令値T20〜T26(以下では、前回の周期の制御指令値をT20−1〜T26−1と表示する)が入力される。目標関節角補正部50は、入力された制御指令値T20−1〜T26−1及び入力された目標姿勢に基づいて、足平15c、16cが正常に接地しているか否かを判定する。目標関節角補正部50は、その判定結果に応じて、入力された目標関節角θA20〜θA26を補正し、補正後の目標関節角θA20’〜θA26’をサーボアンプ20d〜26dに出力する。また、目標関節角補正部50は、目標関節角θA20〜θA26を補正したときの補正量(すなわち、足首関節補正量データ)を送信アンテナ32に出力する。後述するが、目標関節角補正部50は、目標関節角θA20とθA24を同一の補正量ΔθA2で補正し、目標関節角θA22とθA26を同一の補正量ΔθA1で補正する。したがって、目標関節角補正部50は、目標関節角θA20(θA24)の補正量ΔθA2と、目標関節角θA22(θA26)の補正量ΔθA1を示す足首関節補正量データ(ΔθA1,ΔθA2)を送信アンテナ32に出力する。 The target joint angle correction unit 50 receives the target joint angles θA20 to θA26 of the joints 20 to 26 and the target posture of the walking robot 10 from the target joint angle calculation unit 48 for each control cycle. Further, the target joint angle correction unit 50 includes control command values T20 to T26 output by the servo amplifiers 20d to 26d in the previous control cycle (hereinafter, the control command values of the previous cycle are T20 −1 to T26 −1 ). Is displayed). Target joint angle corrector 50, based on the input control command value T20 -1 ~T26 -1 and the input target posture, it determines whether or not the foot 15c, 16c is grounded properly. The target joint angle correction unit 50 corrects the input target joint angles θA20 to θA26 according to the determination result, and outputs the corrected target joint angles θA20 ′ to θA26 ′ to the servo amplifiers 20d to 26d. Further, the target joint angle correction unit 50 outputs a correction amount (that is, ankle joint correction amount data) when the target joint angles θA20 to θA26 are corrected to the transmission antenna 32. As will be described later, the target joint angle correction unit 50 corrects the target joint angles θA20 and θA24 with the same correction amount ΔθA2, and corrects the target joint angles θA22 and θA26 with the same correction amount ΔθA1. Therefore, the target joint angle correction unit 50 transmits the correction amount ΔθA2 of the target joint angle θA20 (θA24) and the ankle joint correction amount data (ΔθA1, ΔθA2) indicating the correction amount ΔθA1 of the target joint angle θA22 (θA26). Output to.

傾斜角ずれ量算出部52には、目標関節角算出部48から歩行ロボット10の目標姿勢が入力される。傾斜角ずれ量算出部52は、入力された目標姿勢から本体11の目標傾斜角(ピッチ角PA、ロール角RA)を算出する。また、傾斜角ずれ量算出部52は、歩行ロボット10が今回の制御周期における動作を実行した後に、傾斜角センサ70が検出する本体11の傾斜角(P,R)を読取る。そして、算出した目標傾斜角(PA,RA)と読取った傾斜角(P,R)との差分値(ΔP,ΔR)(すなわち、傾斜角ずれデータ(ΔP,ΔR))を算出する。傾斜角ずれ量算出部52は、算出した傾斜角ずれデータ(ΔP,ΔR)を送信アンテナ32に出力する。   The target posture of the walking robot 10 is input from the target joint angle calculation unit 48 to the tilt angle deviation amount calculation unit 52. The tilt angle deviation amount calculation unit 52 calculates a target tilt angle (pitch angle PA, roll angle RA) of the main body 11 from the input target posture. Further, the tilt angle deviation amount calculation unit 52 reads the tilt angles (P, R) of the main body 11 detected by the tilt angle sensor 70 after the walking robot 10 performs the operation in the current control cycle. Then, a difference value (ΔP, ΔR) between the calculated target inclination angle (PA, RA) and the read inclination angle (P, R) (that is, inclination angle deviation data (ΔP, ΔR)) is calculated. The tilt angle shift amount calculation unit 52 outputs the calculated tilt angle shift data (ΔP, ΔR) to the transmission antenna 32.

現在位置算出部54は、所定周期(制御周期よりも短い周期)で加速度センサ72が検出する加速度データ(ax,ay,az)を読取り、直前に算出した本体11の位置と読取った加速度データ(ax,ay,az)から本体11の現在位置(x,y,z)(より詳細には、本体11に搭載された加速度センサ72の現在位置)を算出する。現在位置(x,y,z)は、グローバル座標系におけるxyz座標として算出される。現在位置算出部54が算出する本体11の現在位置(x,y,z)のxy座標(すなわち、現在位置(x,y))は、制御周期毎に位置ずれ量算出部56に読取られる。   The current position calculation unit 54 reads acceleration data (ax, ay, az) detected by the acceleration sensor 72 at a predetermined cycle (a cycle shorter than the control cycle), and the position of the main body 11 calculated immediately before and the read acceleration data ( The current position (x, y, z) of the main body 11 (more specifically, the current position of the acceleration sensor 72 mounted on the main body 11) is calculated from ax, ay, az). The current position (x, y, z) is calculated as xyz coordinates in the global coordinate system. The xy coordinates (that is, the current position (x, y)) of the current position (x, y, z) of the main body 11 calculated by the current position calculation unit 54 are read by the positional deviation amount calculation unit 56 every control cycle.

位置ずれ量算出部56は、制御周期毎に現在位置算出部54から本体11の現在位置(x,y)を読取る。また、位置ずれ量算出部56には、目標位置算出部42から本体11の目標位置(xA,yA)が制御周期毎に入力される。位置ずれ量算出部56は、読取った本体11の現在位置(x,y)と入力された本体11の目標位置(xA,yA)との差分値(すなわち、位置ずれデータ(Δx,Δy))を算出する。位置ずれ量算出部56は、算出した位置ずれデータ(Δx,Δy)を送信アンテナ32に出力する。また、位置ずれ量算出部56は、算出した位置ずれデータ(Δx,Δy)を目標移動量算出部44に出力する。   The positional deviation amount calculation unit 56 reads the current position (x, y) of the main body 11 from the current position calculation unit 54 for each control cycle. Further, the target position (xA, yA) of the main body 11 is input from the target position calculation unit 42 to the positional deviation amount calculation unit 56 for each control cycle. The positional deviation amount calculation unit 56 calculates a difference value between the read current position (x, y) of the main body 11 and the input target position (xA, yA) of the main body 11 (that is, positional deviation data (Δx, Δy)). Is calculated. The positional deviation amount calculation unit 56 outputs the calculated positional deviation data (Δx, Δy) to the transmission antenna 32. Further, the positional deviation amount calculation unit 56 outputs the calculated positional deviation data (Δx, Δy) to the target movement amount calculation unit 44.

サーボアンプ18d〜26dは、対応するモータ18a〜26a、対応するエンコーダ18b〜26b及び制御装置40と電気的に接続されている。サーボアンプ18d〜26dには、制御装置40から制御周期毎に目標関節角が入力される。また、サーボアンプ18d〜26dには、対応するエンコーダ18b〜26bから関節18〜26の現在角度が入力される。サーボアンプ18d〜26dは、関節18〜26の目標関節角と関節18〜26の現在角度に応じてモータ18a〜26aに制御指令値T18〜T26を出力し、モータ18a〜26aを駆動させる。これによって、関節18〜26は、制御装置40が算出した目標関節角に応じた角度に駆動される。   The servo amplifiers 18d to 26d are electrically connected to the corresponding motors 18a to 26a, the corresponding encoders 18b to 26b, and the control device 40. A target joint angle is input to the servo amplifiers 18d to 26d from the control device 40 for each control cycle. In addition, the current angles of the joints 18 to 26 are input to the servo amplifiers 18d to 26d from the corresponding encoders 18b to 26b. The servo amplifiers 18d to 26d output control command values T18 to T26 to the motors 18a to 26a according to the target joint angles of the joints 18 to 26 and the current angles of the joints 18 to 26, and drive the motors 18a to 26a. As a result, the joints 18 to 26 are driven to an angle corresponding to the target joint angle calculated by the control device 40.

送信アンテナ32には、制御装置40から各種データ(傾斜角ずれデータ(ΔP,ΔR)、位置ずれデータ(Δx,Δy)、足首関節補正量データ(ΔθA1,ΔθA2)及び画像データ)が制御周期毎に入力される。送信アンテナ32は、入力された各データを無線信号として送信する。これによって、コントローラ80にこれらのデータが送信される。   Various data (tilt angle deviation data (ΔP, ΔR), position deviation data (Δx, Δy), ankle joint correction amount data (ΔθA1, ΔθA2), and image data) are transmitted from the control device 40 to the transmission antenna 32 for each control cycle. Is input. The transmission antenna 32 transmits each input data as a radio signal. As a result, these data are transmitted to the controller 80.

(コントローラ80の構成)
コントローラ80は、ジョイスティック82と、送信アンテナ84と、受信アンテナ86と、表示装置88を備えている。
ジョイスティック82は、送信アンテナ84と電気的に接続されている。ジョイスティック82は、操作レバーと、演算装置を備えている。操作レバーは、上下左右に操作することができる。操縦者が操作レバーを操作すると、演算装置は、操作レバーの操作方向及び操作量に基づいて、歩行ロボット10の移動方向、移動速度を指示する動作命令データを制御周期毎に送信アンテナ84に出力する。
送信アンテナ84には、ジョイスティック82から動作命令データが制御周期毎に入力される。送信アンテナ84は、入力された動作命令データを無線信号として送信する。これによって、歩行ロボット10に動作命令データが送信される。
受信アンテナ86は、表示装置88と電気的に接続されている。受信アンテナ86は、歩行ロボット10から制御周期毎に送信される無線信号(すなわち、傾斜角ずれデータ(ΔP,ΔR)、位置ずれデータ(Δx,Δy)、足首関節補正量データ(ΔθA1,ΔθA2)及び画像データ)を受信する。受信アンテナ86で受信された各データは、表示装置88に入力される。
表示装置88には、受信アンテナ86で受信した各種データ(傾斜角ずれデータ(ΔP,ΔR)、位置ずれデータ(Δx,Δy)、足首関節補正量データ(ΔθA1,ΔθA2)及び画像データ)が制御周期毎に入力される。表示装置88の表示画面には、入力された各データに応じた画像が表示される。図4は表示装置88の表示画面に表示される画像の一例を示している。図4に示すように、表示画面の主要部分Mには入力された画像データによる画像(すなわち、カメラ74が撮影した画像)が表示される。また、表示画面の上部Nには、傾斜角ずれデータ(ΔP,ΔR)、位置ずれデータ(Δx,Δy)、足首関節補正量データ(ΔθA1,ΔθA2)の各値がグラフ化されて表示される。表示装置88には制御周期毎に各データが入力され、表示装置88は各データが入力される毎に表示画面を更新する。したがって、主要部分Mにはカメラ74が撮影した画像が略リアルタイムの動画として表示され、上部Nには傾斜角ずれデータ(ΔP,ΔR)、位置ずれデータ(Δx,Δy)、足首関節補正量データ(ΔθA1,ΔθA2)の各値が略リアルタイムで表示される。
(Configuration of controller 80)
The controller 80 includes a joystick 82, a transmission antenna 84, a reception antenna 86, and a display device 88.
The joystick 82 is electrically connected to the transmission antenna 84. The joystick 82 includes an operation lever and an arithmetic device. The operation lever can be operated up, down, left and right. When the operator operates the operation lever, the arithmetic unit outputs operation command data for instructing the movement direction and movement speed of the walking robot 10 to the transmission antenna 84 at each control period based on the operation direction and operation amount of the operation lever. To do.
Operation command data is input to the transmission antenna 84 from the joystick 82 for each control period. The transmission antenna 84 transmits the input operation command data as a radio signal. As a result, the motion command data is transmitted to the walking robot 10.
The receiving antenna 86 is electrically connected to the display device 88. The receiving antenna 86 is a radio signal transmitted from the walking robot 10 every control cycle (ie, tilt angle deviation data (ΔP, ΔR), position deviation data (Δx, Δy), ankle joint correction amount data (ΔθA1, ΔθA2)). And image data). Each data received by the receiving antenna 86 is input to the display device 88.
The display device 88 controls various data (tilt angle deviation data (ΔP, ΔR), position deviation data (Δx, Δy), ankle joint correction amount data (ΔθA1, ΔθA2) and image data) received by the receiving antenna 86. Input every cycle. An image corresponding to each input data is displayed on the display screen of the display device 88. FIG. 4 shows an example of an image displayed on the display screen of the display device 88. As shown in FIG. 4, an image based on the input image data (that is, an image taken by the camera 74) is displayed on the main portion M of the display screen. Further, in the upper part N of the display screen, the values of the tilt angle deviation data (ΔP, ΔR), the position deviation data (Δx, Δy), and the ankle joint correction amount data (ΔθA1, ΔθA2) are displayed in a graph. . Each data is input to the display device 88 for each control cycle, and the display device 88 updates the display screen every time each data is input. Accordingly, an image captured by the camera 74 is displayed as a substantially real-time moving image in the main portion M, and the tilt angle deviation data (ΔP, ΔR), the position deviation data (Δx, Δy), and ankle joint correction amount data are displayed in the upper part N. Each value of (ΔθA1, ΔθA2) is displayed in substantially real time.

(足首関節20〜26の目標関節角の補正について)
次に、目標関節角補正部50が足首関節20〜26の目標関節角θA20〜θA26を補正する処理について、図5及び図6を用いて詳細に説明する。図5は図2のX部の詳細説明図であり、図6は目標関節角補正部50が目標関節角θA20〜θA26を補正する処理のフローチャートである。
(Regarding correction of target joint angles of ankle joints 20 to 26)
Next, processing in which the target joint angle correction unit 50 corrects the target joint angles θA20 to θA26 of the ankle joints 20 to 26 will be described in detail with reference to FIGS. FIG. 5 is a detailed explanatory diagram of the portion X in FIG. 2, and FIG. 6 is a flowchart of processing in which the target joint angle correction unit 50 corrects the target joint angles θA20 to θA26.

上述したように、目標関節角補正部50がサーボアンプ20d〜26dに目標関節角θA20’〜θA26’を出力すると、サーボアンプ20d〜26dは関節20〜26の角度が目標関節角θA20’〜θA26’となるようにモータ20a〜26aに制御指令値T20〜T26を出力する。また、図5に示すように、サーボアンプ20d〜26dが出力した制御指令値T20〜T26は、目標関節角補正部50に入力される。目標関節角補正部50は、入力された制御指令値T20〜T26を記憶する。したがって、図6のフローチャートの開始時には、目標関節角補正部50は、前回の制御周期の制御指令値T20−1〜T26−1を記憶している。 As described above, when the target joint angle correction unit 50 outputs the target joint angles θA20 ′ to θA26 ′ to the servo amplifiers 20d to 26d, the servo amplifiers 20d to 26d have the angles of the joints 20 to 26 as the target joint angles θA20 ′ to θA26. The control command values T20 to T26 are output to the motors 20a to 26a so as to become '. Further, as shown in FIG. 5, the control command values T20 to T26 output from the servo amplifiers 20d to 26d are input to the target joint angle correction unit 50. The target joint angle correction unit 50 stores the input control command values T20 to T26. Therefore, at the start of the flowchart of FIG. 6, the target joint angle correction unit 50 stores the control command values T20 −1 to T26 −1 of the previous control cycle.

図6のステップS2では、目標関節角補正部50に目標関節角θA20〜θA26及び歩行ロボット10の目標姿勢が入力される。すると、目標関節角補正部50は、入力された目標姿勢が両脚部15、16を接地した姿勢(すなわち、歩行ロボット10が両脚で倒立した姿勢)であるか否かを判定する(ステップS4)。歩行ロボット10の目標姿勢が両脚部15、16を接地した姿勢でない場合(すなわち、ステップS4でNO)、目標関節角補正部50は、目標関節角θA20〜θA26をそのまま目標関節角θA20’〜θA26’として算出する(ステップS6)。歩行ロボット10の目標姿勢が両脚部15、16を接地した姿勢である場合(すなわち、ステップS4でYES)、目標関節角補正部50は、記憶している前回の周期の制御指令値T20−1〜T26−1から差分値ΔT1(=||T22−1|−|T26−1||)及びΔT2(=||T20−1|−|T24−1||)を算出する(ステップS8)。この差分値ΔT1及びΔT2の値に基づいて、足平15c及び16cが正常に接地しているか否かが判定される。 6, the target joint angles θA20 to θA26 and the target posture of the walking robot 10 are input to the target joint angle correction unit 50. Then, the target joint angle correction unit 50 determines whether or not the input target posture is a posture in which both the leg portions 15 and 16 are grounded (that is, a posture in which the walking robot 10 is inverted with both legs) (step S4). . When the target posture of the walking robot 10 is not a posture in which both legs 15 and 16 are grounded (that is, NO in step S4), the target joint angle correction unit 50 directly uses the target joint angles θA20 to θA26 as the target joint angles θA20 ′ to θA26. 'Is calculated (step S6). When the target posture of the walking robot 10 is a posture in which both the leg portions 15 and 16 are grounded (that is, YES in step S4), the target joint angle correction unit 50 stores the control command value T20 −1 in the previous cycle stored. ~T26 -1 from the difference value ΔT1 (= || T22 -1 || T26 -1 ||) and ΔT2 (= || T20 -1 || T24 -1 ||) is calculated (step S8). Based on the difference values ΔT1 and ΔT2, it is determined whether or not the feet 15c and 16c are normally grounded.

例えば、図7に示すように、歩行ロボット10が両足で立脚している状態で左脚部16が床面上の障害物に乗り上げているとする。この場合、足平16cが外側近傍の点Aで障害物と接触し、足平15cが外側近傍の点Bで床面と接触し、歩行ロボット10が右方向に傾く。
足平16cが点Aで障害物と接触すると、接触点Aから足平16cに床反力F1が作用する。これによって、足平16cには、関節26の回転軸26c周りにモーメントM1が作用する。このような場合、サーボアンプ26dは、関節26の角度を目標関節角θA26に維持するため、モータ26aに制御指令値T26を出力し、関節26をモーメントM1を打ち消す方向にトルクM1’で駆動する。
また、足平15cには接触点Bから床反力F2が作用し、足平15cには関節22の回転軸22c周りにモーメントM2が作用する。このような場合、サーボアンプ22dは、関節22の角度を目標角度θA22に維持するため、モータ22aに制御指令値T22を出力し、関節22をモーメントM2を打ち消す方向にトルクM2’で駆動する。
以上のように、足平15c、16cが正常に接地できず、足平15c、16cにモーメントが作用すると、サーボアンプ22d、26dはモータ22a、26aをモーメントM1,M2を打ち消す方向に駆動する。したがって、サーボアンプ22d、26dは、モータ22aおよびモータ26aを高いトルクで駆動することとなる。このように、モータ22aおよびモータ26aを高いトルクで長時間駆動させると、モータ22a及びモータ26aのサーボが落ちてしまうため、足平15c、16cの角度を補正する必要がある。
また、歩行ロボット10が傾いていると、足平15cに作用する床反力F2と足平16cに作用する床反力F1の大きさが異なる。また、床反力F2に対してモーメントM2が作用する方向(図7の角度φ2)と、床反力F1に対してモーメントM1が作用する方向(図7の角度φ1)も異なる。したがって、足平15cに作用するモーメントM2の大きさと、足平16cに作用するモーメントM1の大きさは異なることとなる。このため、モータ22aの駆動トルクM2’とモータ26aの駆動トルクM1’の大きさも異なる。すなわち、モータ22aに入力される制御指令値T22と、モータ26aに入力される制御指令値T26の大きさは異なる。したがって、制御指令値T22の大きさ(絶対値)と制御指令値T26の大きさ(絶対値)の差によって歩行ロボット10が正常に接地しているか否かを判定することができる。
For example, as shown in FIG. 7, it is assumed that the left leg 16 rides on an obstacle on the floor while the walking robot 10 is standing on both legs. In this case, the foot 16c comes into contact with the obstacle at the point A near the outside, the foot 15c comes into contact with the floor at the point B near the outside, and the walking robot 10 tilts to the right.
When the foot 16c comes into contact with the obstacle at the point A, the floor reaction force F1 acts on the foot 16c from the contact point A. As a result, a moment M1 acts on the foot 16c around the rotation axis 26c of the joint 26. In such a case, the servo amplifier 26d outputs a control command value T26 to the motor 26a in order to maintain the angle of the joint 26 at the target joint angle θA26, and drives the joint 26 with the torque M1 ′ in a direction to cancel the moment M1. .
Further, a floor reaction force F2 is applied to the foot 15c from the contact point B, and a moment M2 is applied to the foot 15c around the rotation axis 22c of the joint 22. In such a case, the servo amplifier 22d outputs the control command value T22 to the motor 22a in order to maintain the angle of the joint 22 at the target angle θA22, and drives the joint 22 with the torque M2 ′ in the direction to cancel the moment M2.
As described above, when the feet 15c and 16c cannot be properly grounded and a moment acts on the feet 15c and 16c, the servo amplifiers 22d and 26d drive the motors 22a and 26a in a direction to cancel the moments M1 and M2. Therefore, the servo amplifiers 22d and 26d drive the motor 22a and the motor 26a with high torque. As described above, when the motor 22a and the motor 26a are driven at a high torque for a long time, the servos of the motor 22a and the motor 26a are dropped, so the angles of the feet 15c and 16c need to be corrected.
Further, when the walking robot 10 is tilted, the magnitudes of the floor reaction force F2 acting on the foot 15c and the floor reaction force F1 acting on the foot 16c are different. Further, the direction in which the moment M2 acts on the floor reaction force F2 (angle φ2 in FIG. 7) is different from the direction in which the moment M1 acts on the floor reaction force F1 (angle φ1 in FIG. 7). Therefore, the magnitude of the moment M2 acting on the foot 15c is different from the magnitude of the moment M1 acting on the foot 16c. For this reason, the magnitudes of the drive torque M2 ′ of the motor 22a and the drive torque M1 ′ of the motor 26a are also different. That is, the control command value T22 input to the motor 22a is different from the control command value T26 input to the motor 26a. Therefore, whether or not the walking robot 10 is normally grounded can be determined based on the difference between the magnitude (absolute value) of the control command value T22 and the magnitude (absolute value) of the control command value T26.

同様に、図8に示すように、歩行ロボット10が両足で立脚している状態で左脚部16が床面上の障害物に乗り上げていると、足平16cが前側近傍の点Cで障害物と接触し、足平15cが後側近傍の点Dで床面と接触し、歩行ロボット10が後方向に傾く。このような場合にも、モータ20aに前回の周期に出力した制御指令値T20−1の絶対値とモータ24aに前回の周期に出力したT24−1の絶対値の差分値ΔT2が閾値ΔTminよりも大きいか否かを判定することで、歩行ロボット10の前後方向において足平15c、16cが正常に接地しているか否かを判定することができる。 Similarly, as shown in FIG. 8, when the left leg 16 rides on an obstacle on the floor while the walking robot 10 is standing on both feet, the foot 16 c is obstructed at a point C near the front side. The foot 15c comes into contact with the floor at a point D near the rear side, and the walking robot 10 tilts backward. In such a case, the difference value ΔT2 of the absolute value of the motor 20a is outputted to the previous period to the absolute value and the motor 24a of the control command value T20 -1 outputted in the previous cycle T24 -1 is the threshold [Delta] T min It is possible to determine whether or not the feet 15c and 16c are normally grounded in the front-rear direction of the walking robot 10.

したがって、ステップS10では、目標関節角補正部50は、差分値ΔT1が閾値ΔTminよりも大きいか否かを判定する。目標関節角補正部50は、差分値ΔT1が閾値ΔTminよりも大きい場合は、前回の周期における角度補正量ΔθA1−1に所定値を加算し、今回の周期における角度補正量ΔθA1を算出する。そして、算出した角度補正量ΔθA1だけ目標関節角θA22、θA26を補正する(ステップS12)。このとき、目標関節角補正部50は、目標関節角θA22、θA26をモータ22a、26aが駆動している方向と逆方向(例えば、図7の場合はモーメントM1、M2の方向)に補正する。このようにθA22、θA26が補正されて、補正後の目標関節角θA22’、θA26’が算出される。
一方、差分値ΔT1が閾値ΔTminよりも小さい場合は(すなわち、ステップS10でNO)、目標関節角補正部50は、前回の周期の補正量ΔθA1−1と同じ補正量で、目標関節角θA22、θA26を補正し、目標関節角θA22’、θA26’を算出する(ステップS14)。
ステップS16では、目標関節角補正部50は、差分値ΔT2が閾値ΔTminよりも大きいか否かを判定する。目標関節角補正部50は、差分値ΔT2が閾値ΔTminよりも大きい場合は、前回の周期における角度補正量ΔθA2−1に所定値を加算し、今回の周期における角度補正量ΔθA2を算出する。そして、算出した角度補正量ΔθA2だけ目標関節角θA20、θA24を補正する(ステップS18)。このとき、目標関節角補正部50は、目標関節角θA20、θA24をモータ20a、24aが駆動している方向と逆方向に補正する。このようにθA20、θA24が補正されて、補正後の目標関節角θA20’、θA24’が算出される。
一方、差分値ΔT2が閾値ΔTminよりも小さい場合は(すなわち、ステップS16でNO)、目標関節角補正部50は、前回の周期の補正量ΔθA2−1と同じ補正量で、目標関節角θA20、θA24を補正し、目標関節角θA20’、θA24’を算出する(ステップS20)。
Accordingly, in step S10, the target joint angle correction unit 50 determines whether or not the difference value ΔT1 is larger than the threshold value ΔT min . Target joint angle corrector 50, when the difference value ΔT1 is larger than the threshold value [Delta] T min adds a predetermined value to the angle correction amount Derutashitaei1 -1 in the previous cycle, it calculates an angle correction amount Derutashitaei1 in the current cycle. Then, the target joint angles θA22 and θA26 are corrected by the calculated angle correction amount ΔθA1 (step S12). At this time, the target joint angle correction unit 50 corrects the target joint angles θA22 and θA26 in the direction opposite to the direction in which the motors 22a and 26a are driving (for example, the directions of moments M1 and M2 in FIG. 7). In this manner, θA22 and θA26 are corrected, and the corrected target joint angles θA22 ′ and θA26 ′ are calculated.
On the other hand, when the difference value ΔT1 is less than the threshold value [Delta] T min is (that is, NO in step S10), and the target joint angle corrector 50, the same correction amount and the correction amount Derutashitaei1 -1 of the previous period, the target joint angle θA22 , ΘA26 are corrected, and target joint angles θA22 ′ and θA26 ′ are calculated (step S14).
In step S16, the target joint angle correction unit 50 determines whether or not the difference value ΔT2 is larger than the threshold value ΔT min . Target joint angle corrector 50, when the difference value ΔT2 is larger than the threshold value [Delta] T min adds a predetermined value to the angle correction amount Derutashitaei2 -1 in the previous cycle, it calculates an angle correction amount Derutashitaei2 in the current cycle. Then, the target joint angles θA20 and θA24 are corrected by the calculated angle correction amount ΔθA2 (step S18). At this time, the target joint angle correction unit 50 corrects the target joint angles θA20 and θA24 in the direction opposite to the direction in which the motors 20a and 24a are driven. In this manner, θA20 and θA24 are corrected, and the corrected target joint angles θA20 ′ and θA24 ′ are calculated.
On the other hand, when the difference value ΔT2 is smaller than the threshold value [Delta] T min is (that is, NO in step S16), and the target joint angle corrector 50, the same correction amount and the correction amount Derutashitaei2 -1 of the previous period, the target joint angle θA20 , ΘA24 are corrected, and target joint angles θA20 ′ and θA24 ′ are calculated (step S20).

目標関節角θA20’〜θA26’を算出すると、目標関節角補正部50は算出した目標関節角θA20’〜θA26’をサーボアンプ20d〜26dに出力する(ステップS22)。サーボアンプ20d〜26dは、入力された目標関節角θA20’〜θA26’に応じて、制御指令値T20〜T26を出力する。出力された制御指令値T20〜T26は、モータ20a〜26aにそれぞれ入力され、モータ20a〜26aが駆動される。これによって、関節20〜26の角度が、目標関節角θA20’〜θA26’に応じた角度に制御される。また、サーボアンプ20d〜26dが出力した制御指令値T20〜T26は、目標関節角補正部50に入力される。すると、目標関節角補正部50は、制御指令値T20〜T26を記憶する(ステップ24)。記憶した制御指令値T20〜T26は、次回の周期において、前回の制御指令値T20−1〜T26−1として用いられる。 When the target joint angles θA20 ′ to θA26 ′ are calculated, the target joint angle correction unit 50 outputs the calculated target joint angles θA20 ′ to θA26 ′ to the servo amplifiers 20d to 26d (step S22). The servo amplifiers 20d to 26d output control command values T20 to T26 according to the input target joint angles θA20 ′ to θA26 ′. The output control command values T20 to T26 are input to the motors 20a to 26a, respectively, and the motors 20a to 26a are driven. As a result, the angles of the joints 20 to 26 are controlled to angles corresponding to the target joint angles θA20 ′ to θA26 ′. The control command values T20 to T26 output from the servo amplifiers 20d to 26d are input to the target joint angle correction unit 50. Then, the target joint angle correction unit 50 stores the control command values T20 to T26 (step 24). The stored control command value T20~T26, in the next cycle is used as the previous control command value T20 -1 ~T26 -1.

このように、足平15c及び16cが正常に接地していない場合、図6のフローチャートが繰り返し実行されることによって、関節20〜26の角度が徐々に補正される。すると、例えば図7のように接地していた足平15c、16cは、図9に示すように安定した状態となり、図8のように接地していた足平15c、16cは、図10に示すように安定した状態となる。足平15c、16cが安定すると、関節20〜26に過大なモーメントが作用しなくなり、差分値ΔT1、ΔT2が閾値ΔTminより小さくなる。すると、目標関節角補正部50は、それ以上目標関節角θA20〜θA26を補正しない。したがって、足平15c、16cの安定した状態が維持される。 As described above, when the feet 15c and 16c are not normally grounded, the angle of the joints 20 to 26 is gradually corrected by repeatedly executing the flowchart of FIG. Then, for example, the feet 15c and 16c grounded as shown in FIG. 7 are in a stable state as shown in FIG. 9, and the feet 15c and 16c grounded as shown in FIG. 8 are shown in FIG. It will be in a stable state. Foot 15c, when 16c is stabilized, excessive moment joints 20-26 will not act, the difference value Delta] T1, Delta] T2 becomes smaller than the threshold value [Delta] T min. Then, the target joint angle correction unit 50 does not correct the target joint angles θA20 to θA26 any more. Therefore, the stable state of the feet 15c and 16c is maintained.

また、目標関節角補正部50が、目標関節角θA20〜θA26を補正したときの補正量(ΔθA1,ΔθA2)(すなわち、足首関節補正量データ(ΔθA1,ΔθA2))は、後の処理で制御装置40によって送信アンテナ32に出力される。なお、目標関節角θA20〜θA26のいずれかを補正しなかった場合は、その補正しなかった目標関節角の補正量は0として出力される。   Further, the correction amount (ΔθA1, ΔθA2) when the target joint angle correction unit 50 corrects the target joint angles θA20 to θA26 (that is, the ankle joint correction amount data (ΔθA1, ΔθA2)) is controlled by a later process. 40 to the transmitting antenna 32. If any of the target joint angles θA20 to θA26 is not corrected, the correction amount of the target joint angle that has not been corrected is output as zero.

(制御装置40が各関節を制御する処理について)
図11は制御装置40が各関節を制御する処理のフローチャートを示している。制御装置40は、図11のフローチャートに示す処理を制御周期毎に繰り返し実行することで、歩行ロボット10の各関節を制御し、歩行ロボット10に所望の動作を実行させる。
また、制御装置40の現在位置算出部54は、所定周期(制御周期より短い周期)で本体11の現在位置(x,y,z)を算出し続ける。また、制御装置40は、後述するステップS48で、そのときの本体11の現在位置(x,y)を現在位置算出部54から読み出す。そして、現在位置(x,y)と目標位置(xA,yA)から位置ずれデータ(Δx,Δy)を算出し、その算出した位置ずれデータ(Δx,Δy)を記憶する。したがって、図11のフローチャートの開始時には、制御装置40は、前回の周期における位置ずれデータ(Δx,Δy)を記憶している。
(Regarding the process in which the control device 40 controls each joint)
FIG. 11 shows a flowchart of processing in which the control device 40 controls each joint. The control device 40 repeatedly executes the processing shown in the flowchart of FIG. 11 for each control cycle, thereby controlling each joint of the walking robot 10 and causing the walking robot 10 to perform a desired operation.
Further, the current position calculation unit 54 of the control device 40 continues to calculate the current position (x, y, z) of the main body 11 at a predetermined cycle (cycle shorter than the control cycle). Further, the control device 40 reads the current position (x, y) of the main body 11 at that time from the current position calculation unit 54 in step S48 described later. Then, position deviation data (Δx, Δy) is calculated from the current position (x, y) and the target position (xA, yA), and the calculated position deviation data (Δx, Δy) is stored. Therefore, at the start of the flowchart of FIG. 11, the control device 40 stores the positional deviation data (Δx, Δy) in the previous cycle.

歩行ロボット10の操縦者がコントローラ80のジョイスティック82を操作すると、コントローラ80の送信アンテナ84、歩行ロボット10の受信アンテナ30を介して制御装置40に動作命令データ(すなわち、移動方向、移動速度を指示する命令)が入力される(ステップS30)。動作命令データが入力されると、制御装置40は入力された動作命令データにしたがって目標位置(xA,yA)を算出する(ステップS32)。   When the operator of the walking robot 10 operates the joystick 82 of the controller 80, the operation command data (that is, the moving direction and the moving speed are instructed) to the control device 40 via the transmission antenna 84 of the controller 80 and the receiving antenna 30 of the walking robot 10. Command) is input (step S30). When the operation command data is input, the control device 40 calculates the target position (xA, yA) according to the input operation command data (step S32).

次に、制御装置40は、算出した目標位置(xA,yA)と、前回の制御周期における目標位置(xA−1,yA−1)と、記憶している前回の制御周期の位置ずれデータ(Δx,Δy)から、目標移動量(dx,dy)を算出する(ステップS34)。
例えば、図12に示すように、点100が前回の周期における目標位置(xA−1,yA−1)であり、点102が本体11の現在位置(x,y)であるとすると、位置ずれデータ(Δx,Δy)は、図12のベクトル104となる。このとき、今回の周期の目標位置(xA,yA)が点106であったとすると、今回の周期の目標移動量(dx,dy)は図12のベクトル108となる。したがって、制御装置40は、以下の計算式によって目標移動量(dx,dy)を算出する。
dx=(xA−xA−1)+Δx
dy=(yA−yA−1)+Δy
Next, the control device 40 calculates the calculated target position (xA, yA), the target position (xA −1 , yA −1 ) in the previous control cycle, and the stored positional deviation data (in the previous control cycle). A target movement amount (dx, dy) is calculated from (Δx, Δy) (step S34).
For example, as shown in FIG. 12, if the point 100 is the target position (xA −1 , yA −1 ) in the previous cycle and the point 102 is the current position (x, y) of the main body 11, the position shift The data (Δx, Δy) becomes the vector 104 in FIG. At this time, if the target position (xA, yA) of the current cycle is the point 106, the target movement amount (dx, dy) of the current cycle is the vector 108 in FIG. Therefore, the control device 40 calculates the target movement amount (dx, dy) by the following calculation formula.
dx = (xA−xA −1 ) + Δx
dy = (yA−yA −1 ) + Δy

ステップS36では、制御装置40は、今回の制御周期の間に本体11が目標移動量(dx,dy)だけ移動するように、今回の周期における各関節18〜26の目標関節角θA18〜26を算出する(ステップS36)。このように、各関節18〜26の目標関節角θA18〜θA26が算出されることによって、今回の制御周期における歩行ロボット10の目標姿勢が規定される。制御装置40は、目標関節角θA18〜θA26を算出すると、目標関節角θA18をそれぞれ対応するサーボアンプ18dに出力する(ステップS38)。それと略同時に、制御装置40は、図6のフローチャートを実行して目標関節角θA20〜θA26を補正し、目標関節角θA20’〜θA26’をサーボアンプ20d〜26dにそれぞれ出力する(ステップS40)。これによって、サーボアンプ18d〜26dがモータ18a〜26aに制御指令値T18〜T26を出力し、関節18〜関節26が目標関節角θA18、θA20’〜θA26’に応じた角度に制御される。したがって、歩行ロボット10の本体11は、目標位置(xA,yA)に応じた位置に移動する。   In step S36, the control device 40 sets the target joint angles θA18 to 26 of the joints 18 to 26 in the current cycle so that the main body 11 moves by the target movement amount (dx, dy) during the current control cycle. Calculate (step S36). Thus, by calculating the target joint angles θA18 to θA26 of the joints 18 to 26, the target posture of the walking robot 10 in the current control cycle is defined. When calculating the target joint angles θA18 to θA26, the control device 40 outputs the target joint angles θA18 to the corresponding servo amplifiers 18d (step S38). At substantially the same time, the control device 40 executes the flowchart of FIG. 6 to correct the target joint angles θA20 to θA26, and outputs the target joint angles θA20 ′ to θA26 ′ to the servo amplifiers 20d to 26d, respectively (step S40). As a result, the servo amplifiers 18d to 26d output control command values T18 to T26 to the motors 18a to 26a, and the joints 18 to 26 are controlled to angles corresponding to the target joint angles θA18 and θA20 'to θA26'. Therefore, the main body 11 of the walking robot 10 moves to a position corresponding to the target position (xA, yA).

歩行ロボット10が動作を実行すると、制御装置40は、ステップS38で算出された歩行ロボット10の目標姿勢から、本体11の目標傾斜角(PA,RA)を算出する。また、制御装置40は、傾斜角センサ70が検出する本体11の現在の傾斜角(P,R)を読取る。そして、算出した目標傾斜角(PA,RA)と現在の傾斜角(P,R)の差分値(ΔP,ΔR)(すなわち、本体11の傾斜角ずれデータ(ΔP,ΔR))を算出する(ステップS42)。   When the walking robot 10 performs the operation, the control device 40 calculates the target tilt angle (PA, RA) of the main body 11 from the target posture of the walking robot 10 calculated in step S38. The control device 40 reads the current inclination angle (P, R) of the main body 11 detected by the inclination angle sensor 70. Then, a difference value (ΔP, ΔR) between the calculated target inclination angle (PA, RA) and the current inclination angle (P, R) (that is, inclination angle deviation data (ΔP, ΔR) of the main body 11) is calculated ( Step S42).

次に、制御装置40は、カメラ74から画像データを取得する(ステップS44)。   Next, the control device 40 acquires image data from the camera 74 (step S44).

次に、制御装置40は、本体11の現在位置(x,y)を現在位置算出部54から読み出す。そして、読み出した現在位置(x,y)とステップS32で算出した本体11の目標位置(xA,yA)から、本体11の位置ずれデータ(Δx,Δy)を算出する。制御装置40は算出した位置ずれデータ(Δx,Δy)を記憶する(ステップS46)。   Next, the control device 40 reads the current position (x, y) of the main body 11 from the current position calculation unit 54. Then, position deviation data (Δx, Δy) of the main body 11 is calculated from the read current position (x, y) and the target position (xA, yA) of the main body 11 calculated in step S32. The control device 40 stores the calculated positional deviation data (Δx, Δy) (step S46).

ステップS48では、制御装置40は、ステップS40で目標関節角θA20〜θA26を補正したときの補正量(足首関節補正量データ(ΔθA1,ΔθA2))、ステップS42で算出した傾斜角ずれデータ(ΔP,ΔR)、ステップS44で取得した画像データ、ステップS46で算出した位置ずれデータ(Δx,Δy)を送信アンテナ32に出力する。すると、送信アンテナ32、コントローラ80の受信アンテナ86を介して、コントローラ80の表示装置88にこれらのデータが入力される。これによって、表示装置88が表示する画像が、新たに入力された各データ(すなわち、歩行ロボット10の現在の制御状態)に基づいた画像に更新される。   In step S48, the control device 40 corrects the correction values (ankle joint correction amount data (ΔθA1, ΔθA2)) obtained by correcting the target joint angles θA20 to θA26 in step S40, and the tilt angle deviation data (ΔP, ΔR), the image data acquired in step S44, and the positional deviation data (Δx, Δy) calculated in step S46 are output to the transmission antenna 32. Then, these data are input to the display device 88 of the controller 80 via the transmission antenna 32 and the reception antenna 86 of the controller 80. Thereby, the image displayed on the display device 88 is updated to an image based on each newly input data (that is, the current control state of the walking robot 10).

制御装置40は、図11のフローチャートを制御周期毎に繰り返し実行し、関節18〜26の角度を制御する。したがって、歩行ロボット10は、操縦者がコントローラ80を操作するのに応じて歩行する。
また、制御装置40は、コントローラ80に位置ずれデータ(Δx,Δy)、傾斜角ずれデータ(ΔP,ΔR)、足首関節補正量データ(ΔθA1,ΔθA2)及び画像データを送信する。制御装置40は図11のフローチャートを制御周期毎に繰り返し実行するので、コントローラ80には位置ずれデータ(Δx,Δy)、傾斜角ずれデータ(ΔP,ΔR)、足首関節補正量データ(ΔθA1,ΔθA2)及び画像データが制御周期毎に繰り返し入力される。したがって、コントローラ80の表示装置88の主要部Mにはカメラ74が撮影した画像が略リアルタイムの動画として表示され、表示装置88の上部Nには位置ずれデータ(Δx,Δy)、傾斜角ずれデータ(ΔP,ΔR)、足首関節補正量データ(ΔθA1,ΔθA2)の値が略リアルタイムで表示される(図4参照)。
The control apparatus 40 repeatedly performs the flowchart of FIG. 11 for every control period, and controls the angles of the joints 18 to 26. Therefore, the walking robot 10 walks in response to the operator operating the controller 80.
In addition, the control device 40 transmits position deviation data (Δx, Δy), inclination angle deviation data (ΔP, ΔR), ankle joint correction amount data (ΔθA1, ΔθA2), and image data to the controller 80. Since the control device 40 repeatedly executes the flowchart of FIG. 11 for each control cycle, the controller 80 includes positional deviation data (Δx, Δy), inclination angle deviation data (ΔP, ΔR), and ankle joint correction amount data (ΔθA1, ΔθA2). ) And image data are repeatedly input every control cycle. Therefore, the image captured by the camera 74 is displayed as a substantially real-time moving image on the main part M of the display device 88 of the controller 80, and the positional deviation data (Δx, Δy) and the inclination angle deviation data are displayed on the upper part N of the display device 88. The values of (ΔP, ΔR) and ankle joint correction amount data (ΔθA1, ΔθA2) are displayed in substantially real time (see FIG. 4).

以上に説明したように、本実施例のロボット制御システム8では、コントローラ80の表示装置88は歩行ロボット10のカメラ74で撮影した画像を略リアルタイムの動画として表示する。したがって、歩行ロボット10の操縦者は、表示装置88が表示する画像を確認しながら好適に歩行ロボット10を操縦することができる。
また、ロボット制御システム8では、コントローラ80の表示装置88が位置ずれデータ(Δx,Δy)を略リアルタイムで表示する。位置ずれデータ(Δx,Δy)が大きいことは、歩行ロボット10が障害物に衝突する等して外乱を受け、操縦したとおりに制御されていないことを意味する。したがって、歩行ロボット10の操縦者は、位置ずれデータ(Δx,Δy)の値から歩行ロボット10が外乱を受けているか否かを判断しながら歩行ロボット10を操縦することができる。例えば、歩行ロボット10に外乱が作用していると判断できる場合には、歩行ロボット10の移動速度を小さくして慎重に運転することで、歩行ロボット10を転倒することなく操縦することが可能となる。あるいは、歩行ロボット10の向きを変えることで、歩行ロボット10の周囲の状況をカメラ74で確認する等の対応を採ることができる。したがって、操縦者は、容易に歩行ロボット10を意図通りに操縦することができる。
また、ロボット制御システム8では、コントローラ80の表示装置88が傾斜角ずれデータ(ΔP,ΔR)を略リアルタイムで表示する。傾斜角ずれデータ(ΔP,ΔR)が大きいことは、歩行ロボット10が障害物に衝突したり、歩行ロボット10が障害物に乗り上げたり、歩行ロボット10が歩行する床面が傾斜している等して、歩行ロボット10のバランスが悪いことを意味する。したがって、歩行ロボット10の操縦者は、傾斜角ずれデータ(ΔP,ΔR)の値から、歩行ロボット10のバランス状態が良好であるか否かを判断しながら歩行ロボット10を操縦することができる。したがって、操縦者は、歩行ロボット10のバランス状態に応じて移動速度等を変化させることで、容易に歩行ロボット10を意図通りに操縦することができる。
さらに、ロボット制御システム8では、コントローラ80の表示装置88が足首関節補正量データ(ΔθA1,ΔθA2)を略リアルタイムで表示する。足首関節補正量データ(ΔθA1,ΔθA2)が大きいことは、歩行ロボット10が障害物に乗り上げる等して足平15c、16cが正常に接地していないことを意味する。したがって、歩行ロボット10の操縦者は、足首関節補正量データ(ΔθA1,ΔθA2)の値から、歩行ロボット10の足平15c、16cが正常に接地しているか否かを判断しながら歩行ロボット10を操縦することができる。したがって、操縦者は、歩行ロボット10の足平15c,16cの接地状態から床面の状況等を把握でき、床面の状況等に応じて移動速度等を変化させることで、容易に歩行ロボット10を意図通りに操縦することができる。
As described above, in the robot control system 8 of the present embodiment, the display device 88 of the controller 80 displays an image captured by the camera 74 of the walking robot 10 as a substantially real-time moving image. Therefore, the operator of the walking robot 10 can appropriately control the walking robot 10 while confirming the image displayed on the display device 88.
In the robot control system 8, the display device 88 of the controller 80 displays the positional deviation data (Δx, Δy) in substantially real time. A large positional deviation data (Δx, Δy) means that the walking robot 10 is disturbed by an obstacle or the like and is not controlled as operated. Therefore, the operator of the walking robot 10 can operate the walking robot 10 while determining whether or not the walking robot 10 is disturbed from the value of the positional deviation data (Δx, Δy). For example, when it can be determined that a disturbance is acting on the walking robot 10, it is possible to control the walking robot 10 without overturning by reducing the moving speed of the walking robot 10 and driving carefully. Become. Alternatively, by changing the direction of the walking robot 10, it is possible to take measures such as confirming the situation around the walking robot 10 with the camera 74. Therefore, the operator can easily maneuver the walking robot 10 as intended.
In the robot control system 8, the display device 88 of the controller 80 displays the tilt angle deviation data (ΔP, ΔR) in substantially real time. The large inclination angle deviation data (ΔP, ΔR) means that the walking robot 10 collides with an obstacle, the walking robot 10 rides on the obstacle, or the floor on which the walking robot 10 walks is inclined. This means that the balance of the walking robot 10 is poor. Therefore, the operator of the walking robot 10 can operate the walking robot 10 while judging whether the balance state of the walking robot 10 is good from the value of the tilt angle deviation data (ΔP, ΔR). Therefore, the operator can easily maneuver the walking robot 10 as intended by changing the moving speed or the like according to the balance state of the walking robot 10.
Further, in the robot control system 8, the display device 88 of the controller 80 displays the ankle joint correction amount data (ΔθA1, ΔθA2) in substantially real time. The large ankle joint correction amount data (ΔθA1, ΔθA2) means that the feet 15c and 16c are not normally grounded due to the walking robot 10 getting on an obstacle or the like. Therefore, the operator of the walking robot 10 determines the walking robot 10 while determining whether the feet 15c and 16c of the walking robot 10 are normally grounded from the values of the ankle joint correction amount data (ΔθA1, ΔθA2). You can steer. Therefore, the operator can grasp the situation of the floor surface from the ground contact state of the feet 15c and 16c of the walking robot 10, and easily change the walking speed of the walking robot 10 by changing the moving speed etc. according to the situation of the floor surface. Can be maneuvered as intended.

なお、上述した実施例では、位置ずれ量算出部56で算出した位置ずれデータ(Δx,Δy)を、次回の周期のステップS34で目標移動量(dx,dy)を算出する際に利用した。しかしながら、このように目標移動量(dx,dy)を算出しなくても、歩行ロボット10の位置を制御できる場合(例えば、位置ずれ量に応じて操縦者が微調整を行う場合)には、次回の周期で算出した位置ずれデータ(Δx,Δy)を利用しなくてもよい。   In the above-described embodiment, the positional deviation data (Δx, Δy) calculated by the positional deviation amount calculation unit 56 is used when the target movement amount (dx, dy) is calculated in step S34 of the next cycle. However, when the position of the walking robot 10 can be controlled without calculating the target movement amount (dx, dy) in this way (for example, when the operator performs fine adjustment according to the amount of displacement), The positional deviation data (Δx, Δy) calculated in the next cycle may not be used.

また、上述した実施例では、制御指令値T22−1とT26−1の差分値ΔT1(または、制御指令値T20−1とT24−1の差分値ΔT2)に基づいて、足平15c、16cが正常に接地しているか否かを判定した。しかしながら、本発明は、このような実施形態に限られない。例えば、モータ20a〜26aのそれぞれにモータの駆動トルクを検出するトルクセンサを設置し、それらのトルクセンサの検出値に基づいて足平15c、16cが正常に接地しているか否かを判定してもよい。また、足平15c、16cの接地面に足平15c、16cの接地状態を検出するセンサ(例えば、接触式の圧力センサ)を設置してもよい。
また、上述した実施例では、表示装置88で足首関節補正量データ(ΔθA1,ΔθA2)を表示したが、本発明はこのような実施形態に限られない。例えば、表示装置88で制御指令値T22−1とT26−1の差分値ΔT1または、制御指令値T20−1とT24−1の差分値ΔT2を表示してもよい。差分値ΔT1、ΔT2を表示することによっても、足平15c、16cが正常に接地しているか否かを判断することができる。また、モータ20a〜26aのそれぞれにモータの駆動トルクを検出するトルクセンサを設置する場合には、それらのトルクセンサの検出値を表示装置で表示してもよい。また、足平15c、16cの接地面に足平15c、16cの接地状態を検出するセンサを設置する場合には、そのセンサの検出値を表示してもよい。
Further, in the embodiment described above, based on the difference value ΔT1 of the control command value T22 -1 and T26 -1 (or the difference value ΔT2 of the control command value T20 -1 and T24 -1), foot 15c, 16c is It was determined whether or not it was properly grounded. However, the present invention is not limited to such an embodiment. For example, a torque sensor that detects the driving torque of the motor is installed in each of the motors 20a to 26a, and it is determined whether or not the feet 15c and 16c are normally grounded based on detection values of the torque sensors. Also good. Further, a sensor (for example, a contact-type pressure sensor) for detecting the ground contact state of the feet 15c and 16c may be installed on the ground contact surfaces of the feet 15c and 16c.
In the above-described embodiment, the ankle joint correction amount data (ΔθA1, ΔθA2) is displayed on the display device 88, but the present invention is not limited to such an embodiment. For example, the display device 88 may display the difference value ΔT1 between the control command values T22 −1 and T26 −1 or the difference value ΔT2 between the control command values T20 −1 and T24 −1 . By displaying the difference values ΔT1 and ΔT2, it is possible to determine whether or not the feet 15c and 16c are normally grounded. Moreover, when installing the torque sensor which detects the drive torque of a motor in each of motor 20a-26a, you may display the detected value of those torque sensors with a display apparatus. Further, when a sensor for detecting the ground contact state of the foot 15c, 16c is installed on the ground contact surface of the foot 15c, 16c, the detection value of the sensor may be displayed.

また、上述した実施例では、図4に示すように、足首関節補正量データ(ΔθA1,ΔθA2)、位置ずれデータ(Δx,Δy)、傾斜角ずれデータ(ΔP,ΔR)を棒グラフとして表示したが、図13に示すように表示してもよい。図13では、足首関節補正量データを、ΔθA1を横軸、ΔθA2を縦軸とした座標図として表示し、位置ずれデータを、Δxを横軸、Δyを縦軸とした座標図として表示し、傾斜角ずれデータを、ΔPを縦軸、ΔRを横軸とした座標図として表示している。このように各データを表示すると、歩行ロボット10がどちらの方向にずれているかや傾いているか等が一目で把握でき、操縦者は歩行ロボット10の状態をより正確に把握することができる。   In the above-described embodiment, as shown in FIG. 4, the ankle joint correction amount data (ΔθA1, ΔθA2), the positional deviation data (Δx, Δy), and the inclination angle deviation data (ΔP, ΔR) are displayed as a bar graph. The display may be as shown in FIG. In FIG. 13, the ankle joint correction amount data is displayed as a coordinate diagram with ΔθA1 as the horizontal axis and ΔθA2 as the vertical axis, and the positional deviation data is displayed as a coordinate diagram with Δx as the horizontal axis and Δy as the vertical axis. The tilt angle deviation data is displayed as a coordinate diagram with ΔP as the vertical axis and ΔR as the horizontal axis. When each data is displayed in this manner, it is possible to grasp at a glance whether the walking robot 10 is displaced or tilted, and the operator can grasp the state of the walking robot 10 more accurately.

また、上述した実施例では、コントローラ80と歩行ロボット10は物理的に隔離していたが、操縦者が歩行ロボットに搭乗した状態で歩行ロボットを操縦するタイプのロボット制御システムにおいては、歩行ロボットにコントローラを搭載してもよい。   In the above-described embodiment, the controller 80 and the walking robot 10 are physically separated. However, in a robot control system in which a pilot maneuvers the walking robot while on the walking robot, the walking robot 10 is used. A controller may be installed.

以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例をさまざまに変形、変更したものが含まれる。
本明細書または図面に説明した技術要素は、単独であるいは各種の組み合わせによって技術的有用性を発揮するものであり、出願時請求項記載の組み合わせに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
Specific examples of the present invention have been described in detail above, but these are merely examples and do not limit the scope of the claims. The technology described in the claims includes various modifications and changes of the specific examples illustrated above.
The technical elements described in this specification or the drawings exhibit technical usefulness alone or in various combinations, and are not limited to the combinations described in the claims at the time of filing. In addition, the technology illustrated in the present specification or the drawings achieves a plurality of objects at the same time, and has technical utility by achieving one of the objects.

ロボット制御システム8の斜視図。The perspective view of the robot control system 8. FIG. ロボット制御システム8のブロック図。The block diagram of the robot control system 8. FIG. 足首関節20〜26の拡大図。The enlarged view of the ankle joint 20-26. コントローラ80の表示画面を示す図。The figure which shows the display screen of the controller. 図2のX部の詳細を示すブロック図。The block diagram which shows the detail of the X section of FIG. モータ20a〜26aに制御指令値T20〜T26を出力する際の処理を示すフローチャート。The flowchart which shows the process at the time of outputting control command value T20-T26 to motor 20a-26a. 足平15c、16cの接地状態の説明図。Explanatory drawing of the grounding state of foot 15c, 16c. 足平15c、16cの接地状態の説明図。Explanatory drawing of the grounding state of foot 15c, 16c. 足平15c、16cの接地状態の説明図。Explanatory drawing of the grounding state of foot 15c, 16c. 足平15c、16cの接地状態の説明図。Explanatory drawing of the grounding state of foot 15c, 16c. 歩行ロボット10の各部を制御する際の処理を示すフローチャート。The flowchart which shows the process at the time of controlling each part of the walking robot. 目標移動量(dx,dy)の説明図。Explanatory drawing of target moving amount (dx, dy). 他の実施例のコントローラ80の表示画面を示す図。The figure which shows the display screen of the controller 80 of another Example.

符号の説明Explanation of symbols

8:ロボット制御システム
10:歩行ロボット
11:本体
12:頭部
13:右腕部
14:左腕部
15:右脚部
15a:上腿部
15b:下腿部
15c:足平
16:左脚部
16a:上腿部
16b:下腿部
16c:足平
18〜26:関節
18a〜26a:モータ
18b〜26b:エンコーダ
20c〜26c:回転軸
18d〜26d:サーボアンプ
30:受信アンテナ
32:送信アンテナ
40:制御装置
42:目標位置算出部
44:目標移動量算出部
48:目標関節角算出部
50:目標関節角補正部
52:傾斜角ずれ量算出部
54:現在位置算出部
56:位置ずれ量算出部
70:傾斜角センサ
72:加速度センサ
74:カメラ
80:コントローラ
82:ジョイスティック
84:送信アンテナ
86:受信アンテナ
88:表示装置
8: Robot control system 10: Walking robot 11: Body 12: Head 13: Right arm 14: Left arm 15: Right leg 15a: Upper leg 15b: Lower leg 15c: Foot 16: Left leg 16a: Upper leg 16b: Lower leg 16c: Foot 18-26: Joint 18a-26a: Motor 18b-26b: Encoder 20c-26c: Rotating shaft 18d-26d: Servo amplifier 30: Reception antenna 32: Transmission antenna 40: Control Device 42: Target position calculation unit 44: Target movement amount calculation unit 48: Target joint angle calculation unit 50: Target joint angle correction unit 52: Inclination angle deviation amount calculation unit 54: Current position calculation unit 56: Position deviation amount calculation unit 70 : Tilt angle sensor 72: acceleration sensor 74: camera 80: controller 82: joystick 84: transmission antenna 86: reception antenna 88: display device

Claims (5)

オペレータがコントローラを操作することによって移動ロボットを操縦するロボット制御システムであって、
コントローラは、
移動ロボットに動作命令を入力する入力手段と、
オペレータに移動ロボットの制御状態を表示する表示手段を有しており、
移動ロボットは、
本体と、
本体を移動させる移動手段と、
移動ロボットの姿勢状態を検出する検出手段と、
コントローラから入力された動作命令に基づいて、所定時間が経過した時の移動ロボットの姿勢状態の目標値を決定する目標値決定手段と、
前記所定時間経過時に移動ロボットの姿勢状態が決定された目標値が示す状態となるように移動手段を制御する制御手段と、
前記所定時間経過時に検出手段が検出した姿勢状態と目標値との差分値を算出する差分値算出手段とを有しており、
表示手段は移動ロボットが算出した差分値に基づいた指標を表示することを特徴とするロボット制御システム。
A robot control system in which an operator controls a mobile robot by operating a controller,
The controller
An input means for inputting an operation command to the mobile robot;
It has a display means to display the control status of the mobile robot to the operator,
Mobile robot
The body,
Moving means for moving the main body;
Detecting means for detecting the posture state of the mobile robot;
Target value determining means for determining a target value of the posture state of the mobile robot when a predetermined time has elapsed based on an operation command input from the controller;
Control means for controlling the moving means so that the target value determined by the determined posture value of the mobile robot when the predetermined time elapses;
Difference value calculation means for calculating a difference value between the posture state detected by the detection means when the predetermined time has elapsed and a target value;
A robot control system, wherein the display means displays an index based on a difference value calculated by the mobile robot.
検出手段は、本体の位置を検出し、
目標値決定手段は、入力された動作命令に基づいて所定時間経過時の本体の目標位置を決定し、
制御手段は、前記所定時間経過時に本体が目標位置に移動するように移動手段を制御し、
差分値算出手段は、前記所定時間経過時に検出手段が検出した本体の位置と目標位置との差分値を算出することを特徴とする請求項1に記載のロボット制御システム。
The detecting means detects the position of the main body,
The target value determining means determines the target position of the main body when a predetermined time has elapsed based on the input operation command,
The control means controls the moving means so that the main body moves to the target position when the predetermined time has elapsed,
The robot control system according to claim 1, wherein the difference value calculation unit calculates a difference value between the position of the main body detected by the detection unit and the target position when the predetermined time has elapsed.
目標値決定手段は、所定周期で本体の目標位置を決定し、
制御手段は、目標値決定手段が決定した今回の周期の目標位置と前回の周期で差分値算出手段が算出した差分値に基づいて、移動手段を制御することを特徴とする請求項2に記載のロボット制御システム。
The target value determining means determines the target position of the main body at a predetermined cycle,
The control means controls the moving means based on the target position of the current cycle determined by the target value determining means and the difference value calculated by the difference value calculating means in the previous cycle. Robot control system.
検出手段は、本体の傾斜角を検出し、
目標値決定手段は、入力された動作命令に基づいて所定時間経過時の本体の目標傾斜角を決定し、
制御手段は、前記所定時間経過時に本体の傾斜角が目標傾斜角となるように移動手段を制御し、
差分値算出手段は、前記所定時間経過時に検出手段が検出した本体の傾斜角と目標傾斜角との差分値を算出することを特徴とする請求項1に記載のロボット制御システム。
The detection means detects the tilt angle of the main body,
The target value determining means determines a target tilt angle of the main body when a predetermined time elapses based on the input operation command,
The control means controls the moving means so that the inclination angle of the main body becomes the target inclination angle when the predetermined time has elapsed,
The robot control system according to claim 1, wherein the difference value calculating unit calculates a difference value between the tilt angle of the main body and the target tilt angle detected by the detecting unit when the predetermined time has elapsed.
オペレータがコントローラを操作することによって、本体と本体に接続された第1の脚部及び第2の脚部を備えた歩行ロボットを操縦するロボット制御システムであって、
コントローラは、
歩行ロボットに動作命令を入力する入力手段と、
オペレータに歩行ロボットの制御状態を表示する表示手段を有しており、
歩行ロボットは、
第1脚部の接地部の角度を変更する第1足首関節と、
第1足首関節を駆動する第1のアクチュエータと、
第2脚部の接地部の角度を変更する第2足首関節と、
第2足首関節を駆動する第2のアクチュエータと、
入力された動作命令に基づいて、各足首関節の目標角度を決定する目標角度決定手段と、
各脚部の接地状態を検出する検出手段と、
各脚部の接地状態に基づいて、第1足首関節及び第2足首関節の目標角度を補正する補正手段と、
目標角度が補正されている足首関節については、その関節が補正後の目標角度となるようにその関節を駆動するアクチュエータを制御し、目標角度が補正されていない足首関節については、その関節が決定された目標角度となるようにその関節を駆動するアクチュエータを制御する制御手段を有しており、
表示手段は第1足首関節及び/または第2足首関節の角度補正量に基づいた指標を表示することを特徴とするロボット制御システム。
A robot control system for operating a walking robot including a main body and a first leg and a second leg connected to the main body by an operator operating a controller,
The controller
An input means for inputting an operation command to the walking robot;
It has a display means for displaying the control state of the walking robot to the operator,
Walking robot
A first ankle joint that changes the angle of the ground contact portion of the first leg;
A first actuator for driving the first ankle joint;
A second ankle joint for changing the angle of the contact portion of the second leg;
A second actuator for driving the second ankle joint;
A target angle determining means for determining a target angle of each ankle joint based on the input motion command;
Detection means for detecting the ground contact state of each leg,
Correction means for correcting the target angle of the first ankle joint and the second ankle joint based on the ground contact state of each leg;
For an ankle joint whose target angle is corrected, the actuator that drives the joint is controlled so that the joint becomes the corrected target angle, and for an ankle joint whose target angle is not corrected, the joint is determined. Control means for controlling the actuator that drives the joint so that the target angle is set,
A robot control system characterized in that the display means displays an index based on the angle correction amount of the first ankle joint and / or the second ankle joint.
JP2006271081A 2006-10-02 2006-10-02 Robot control system Pending JP2008087109A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006271081A JP2008087109A (en) 2006-10-02 2006-10-02 Robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006271081A JP2008087109A (en) 2006-10-02 2006-10-02 Robot control system

Publications (1)

Publication Number Publication Date
JP2008087109A true JP2008087109A (en) 2008-04-17

Family

ID=39371793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006271081A Pending JP2008087109A (en) 2006-10-02 2006-10-02 Robot control system

Country Status (1)

Country Link
JP (1) JP2008087109A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010262477A (en) * 2009-05-07 2010-11-18 Ihi Corp Remote control system
JP2017520415A (en) * 2014-06-03 2017-07-27 アルティミンズ ロボティクス ゲーエムベーハー Method and system for programming a robot
JP2019191940A (en) * 2018-04-25 2019-10-31 オムロン株式会社 Communication apparatus, control method of communication apparatus, external equipment, control method of external equipment, and control system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365584A (en) * 1991-06-13 1992-12-17 Tokyo Electric Power Co Inc:The Remote control robot assisting device
JP2002210679A (en) * 2000-11-17 2002-07-30 Honda Motor Co Ltd Remote control device for biped robot
JP2005212012A (en) * 2004-01-28 2005-08-11 Toyota Motor Corp Legged robot and walking control method for legged robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04365584A (en) * 1991-06-13 1992-12-17 Tokyo Electric Power Co Inc:The Remote control robot assisting device
JP2002210679A (en) * 2000-11-17 2002-07-30 Honda Motor Co Ltd Remote control device for biped robot
JP2005212012A (en) * 2004-01-28 2005-08-11 Toyota Motor Corp Legged robot and walking control method for legged robot

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010262477A (en) * 2009-05-07 2010-11-18 Ihi Corp Remote control system
JP2017520415A (en) * 2014-06-03 2017-07-27 アルティミンズ ロボティクス ゲーエムベーハー Method and system for programming a robot
US10279476B2 (en) 2014-06-03 2019-05-07 ArtiMinds Robotics GmbH Method and system for programming a robot
JP2019191940A (en) * 2018-04-25 2019-10-31 オムロン株式会社 Communication apparatus, control method of communication apparatus, external equipment, control method of external equipment, and control system

Similar Documents

Publication Publication Date Title
US8423188B2 (en) Control apparatus and control method for robot arm, robot, control program for robot arm, and integrated electronic circuit
JP4466715B2 (en) Legged robot and control method thereof
CN100344419C (en) Two-leg walking humanoid robot
JP5181957B2 (en) Robot control apparatus, robot control method, and robot control program
US7970492B2 (en) Mobile robot control system
JP5853589B2 (en) Driving assistance device
JP6228097B2 (en) Mobile robot
KR20180041218A (en) Remote control robot system
US20110172823A1 (en) Robot and control method thereof
US11975787B2 (en) Control device for mobile body
JP5104355B2 (en) Robot control apparatus, robot control method, and robot control program
JP2013094935A (en) Robot arm device
US20240151001A1 (en) Work machine steering control system and work machine steering control method
EP2236251B1 (en) Mobile robot controller
JP2014087892A (en) Leg operation control device and method for multi-leg robot
JP5752565B2 (en) Robot arm
JP2013094934A (en) Robot
JP2008087109A (en) Robot control system
JP4985776B2 (en) Robot control apparatus, robot control method, and robot control program
JP4277825B2 (en) Robot teaching system
JP2022091459A (en) Wearable robot
JP5069538B2 (en) Control method for legged mobile body and legged mobile body
JP4905041B2 (en) Robot controller
JP3936991B2 (en) Remote control device for humanoid robot
JP2008119764A (en) Control device for biped robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20090219

Free format text: JAPANESE INTERMEDIATE CODE: A621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110405

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110513

A02 Decision of refusal

Effective date: 20110927

Free format text: JAPANESE INTERMEDIATE CODE: A02