[go: up one dir, main page]

WO2008004487A1 - Apparatus and method for controlling robot arm, robot, and robot arm control program - Google Patents

Apparatus and method for controlling robot arm, robot, and robot arm control program Download PDF

Info

Publication number
WO2008004487A1
WO2008004487A1 PCT/JP2007/062984 JP2007062984W WO2008004487A1 WO 2008004487 A1 WO2008004487 A1 WO 2008004487A1 JP 2007062984 W JP2007062984 W JP 2007062984W WO 2008004487 A1 WO2008004487 A1 WO 2008004487A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot arm
collision
person
joint
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2007/062984
Other languages
English (en)
French (fr)
Inventor
Yasunao Okazaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to CN2007800149419A priority Critical patent/CN101432103B/zh
Priority to US12/096,106 priority patent/US8676379B2/en
Priority to JP2007551501A priority patent/JP4243309B2/ja
Publication of WO2008004487A1 publication Critical patent/WO2008004487A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39201Control of joint stiffness
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39347Joint space impedance control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40203Detect position of operator, create non material barrier to protect operator

Definitions

  • the present invention relates to a control device and control method for a robot arm, such as a home robot, which may be in physical contact with a human, a robot, and a control program for the robot arm.
  • Patent Document 1 Japanese Patent Laid-Open No. 10-329071
  • a control device that increases the restoring force and ensures the operation accuracy when the restoring force is reduced and safety is increased, and a slight force is applied to the arm.
  • Patent Document 2 As shown in FIG. 11A, a sensor mechanism 515, a moving mechanism 511, and a manipulator 512 that respectively detect a contact portion between an environment where an obstacle exists and a robot 513 and a contact force thereof are detected.
  • a position / orientation measurement device 514 that measures the position and orientation of the robot 513, a computer 51 7 that calculates a contact force avoidance operation of the robot 513 from the contact force and position and orientation, and a moving mechanism 511 and a manipulator 512 based on the calculation result of the computer 517
  • a control device having an actuator 516 for driving the robot is disclosed. When the robot 513 comes into contact with an environment in which an obstacle exists, the movement mechanism 511 and the manipulator 512 perform the avoidance operation. Like that.
  • Patent Document 3 As shown in FIG. 12, the force from the external environment detected by the motion sensor 412 to act on the robot 40 1 having the end effector 411 is real-time.
  • An impedance control device that estimates the stiffness coefficient of the external environment and drives and controls the arm 410 of the robot 401 by controlling the motor 413a is disclosed.
  • Patent Document 1 Japanese Patent Laid-Open No. 10-329071
  • Patent Document 2 Japanese Patent Laid-Open No. 2005-59161
  • Patent Document 3 Japanese Patent Application Laid-Open No. 2004-223663
  • the conventional control device does not consider application to an articulated robot arm, and in the case of an articulated robot arm, a control device that ensures safety. It is not set.
  • the conventional control device does not take into account the movement of the person in contact, and is optimally controlled according to the movement of the person!
  • Patent Document 3 As shown in FIG. 12, the impedance characteristic on the robot side is changed in correlation with the calculated stiffness coefficient of the external environment, and the position of the end effector 411 is determined using these values. The calculation is based only on the position of the end effector 411, and the specific operation control of the arm 410 so as not to cause contact damage to humans is completely disclosed. Nah ...
  • An object of the present invention is to solve the problems of the above-described conventional control device, and even with an articulated robot arm, it is possible to contact with a person safely, and further, an optimum according to the movement of the person.
  • Robot arm control device and control method robot capable of performing contact motion and capable of realizing safe robot arm motion control that can coexist with a person without causing contact damage to the person, It is to provide a control program for a robot arm.
  • the present invention is configured as follows.
  • a control device for an articulated robot arm there is provided a control device for an articulated robot arm
  • a collision position acquisition means for acquiring a collision position between a human or a moving body and the articulated robot arm
  • a joint closer to the base than the link of the articulated robot arm to which the collision position belongs based on the collision position of the person or moving body and the articulated robot arm acquired by the collision position acquisition means There is provided a robot arm control device having a collision handling operation control means for performing a collision handling operation for lowering the stiffness of the part to be lower than that of other joints.
  • the motion detection means detects the motion of the person or moving body approaching the robot arm, and the person or moving body is moved to the robot arm based on the motion detection result of the person or moving body detected by the motion detection means.
  • approaching is detected by the approach detecting means
  • the approach of the person or moving body is detected by the approach detecting means
  • the person or the moving body is detected based on the motion of the person or moving body detected by the motion detecting means.
  • the collision position between the moving body and the articulated robot arm is estimated and the collision position is acquired by the collision position acquisition means, and the collision position operation means is used to acquire the collision position acquired by the collision position acquisition means.
  • the articulated robot arm
  • the robot arm control device according to any one of the first aspect to the eighth aspect for controlling the robot arm,
  • a computer comprises:
  • a collision position acquisition means for acquiring a collision position between a human or a moving body and an articulated robot arm
  • a joint closer to the base than the link of the articulated robot arm to which the collision position belongs based on the collision position of the person or moving body and the articulated robot arm acquired by the collision position acquisition means Provided is a robot arm control program for functioning as a collision handling operation control means for performing a collision handling operation that lowers the rigidity of the joints compared to the stiffness of other joints.
  • the robot arm includes the collision position acquisition means and the collision response operation control means, or has the functions thereof. I have to. For this reason, when a person approaches the robot arm, the robot arm can be operated with an appropriate posture according to the movement of the person or with an appropriate mechanical impedance of the joint portion. In other words, based on the collision position of the person or moving body and the articulated robot arm, the rigidity of the joint part closer to the root part than the link of the articulated robot arm to which the collision position belongs is determined.
  • FIG. 1 is an explanatory diagram showing a configuration of a robot arm control device and a configuration of a robot arm to be controlled in a first embodiment of the present invention
  • FIG. 2 shows a control apparatus for the robot arm according to the first embodiment of the present invention. It is a figure explaining the collision warning area of the robot arm of
  • FIG. 3A is a plan view for explaining functions of human motion detection means and collision position estimation means of the control device in the first embodiment.
  • FIG. 3B is a plan view for explaining the functions of the human motion detection means and the collision position estimation means of the control device in the first embodiment.
  • FIG. 3C is a plan view for explaining the functions of the human motion detection means and the collision position estimation means of the control device in the first embodiment
  • FIG. 3D is a plan view for explaining the functions of the human motion detection means and the collision position estimation means of the control device in the first embodiment
  • FIG. 4 is a block diagram showing a detailed configuration of operation control means of the control device in the first embodiment.
  • FIG. 5 is a flowchart showing operation steps of a control program in operation control means of the control device in the first embodiment
  • FIG. 6 is a flowchart showing overall operation steps of the control device in the first embodiment.
  • FIG. 7 is a diagram for explaining a target trajectory of the robot arm control device according to the first embodiment of the present invention.
  • FIG. 8A is a diagram showing the configuration of the robot arm control device and the configuration of the robot arm that is the control target in the second embodiment of the present invention.
  • FIG. 8B is a block diagram showing a detailed configuration of operation control means of the control device in the second embodiment.
  • FIG. 9A is a diagram for explaining the operation of the control device for the robot arm in the second embodiment of the present invention.
  • FIG. 9B is a diagram for explaining the operation of the control device for the robot arm in the second embodiment of the present invention.
  • FIG. 9C is a diagram for explaining the operation of the robot arm control device in the second embodiment of the present invention.
  • Fig. 9D is a control device for the robot arm according to the second embodiment of the present invention. It is a figure explaining the operation of
  • FIG. 10 is a diagram showing another configuration of the robot arm that is a control target of the robot arm control device according to the second embodiment of the present invention.
  • FIG. 11A is a schematic configuration diagram of a conventional robot control device according to Patent Document 2,
  • FIG. 11B is a diagram showing a specific example of the contact avoidance operation in the robot controller of FIG. 11A.
  • FIG. 11C is a diagram showing the specific example of the contact avoidance operation in the robot controller of FIG. 11A.
  • FIG. 11D is a diagram showing another specific example of the contact avoidance operation in the robot controller of FIG. 11A.
  • FIG. 11E is a diagram showing another specific example of the contact avoidance operation in the robot controller of FIG. 11A,
  • FIG. 12 is a block diagram of a conventional robot control apparatus according to Patent Document 3.
  • a control device for an articulated robot arm there is provided a control device for an articulated robot arm
  • a collision position acquisition means for acquiring a collision position between a human or a moving body and the articulated robot arm
  • a collision handling operation control means for controlling to perform a collision handling operation that lowers the rigidity of the joint part to be lower than the stiffness of other joint parts.
  • the collision handling operation control means determines the rigidity of the joint portion closest to the root portion of the link of the articulated robot arm to which the collision position belongs.
  • the robot arm control device according to the first aspect, which performs control so as to perform the above-described collision response operation that lowers the rigidity of other joint portions.
  • the collision handling operation control means maintains the rigidity of the joint part closer to the wrist part than the link of the articulated robot arm to which the collision position belongs, or further
  • the robot arm control device according to the first aspect or the second aspect, which controls to perform the collision handling operation by giving rigidity, is provided.
  • the collision handling operation control means is individually provided for each joint portion closer to the wrist than the link of the articulated robot arm to which the collision position belongs.
  • the robot arm control device according to the first aspect or the second aspect, which controls to perform the above-described collision response operation by controlling the joint angle, is provided.
  • the apparatus further comprises a motion detection means for detecting the motion of the person or the moving body,
  • the collision position acquisition means estimates the collision position of the person or moving body and the articulated robot arm based on the detection result of the motion detection means, acquires the collision position,
  • the collision response operation control means provides the robot arm control device according to the first aspect or the second aspect, which controls to perform the collision response action based on the collision position estimated by the collision position acquisition means. .
  • the vehicle further includes an approach detection unit that detects that the person or a moving body has approached the robot arm based on a detection result of the motion detection unit.
  • the means provides the robot arm control device according to the fifth aspect, which controls to perform the collision handling operation when the approach detection means detects the approach of the person or the moving body.
  • the collision response operation control means includes the motion detection means.
  • the robot arm control device according to the fifth aspect or the sixth aspect, which performs control so as to perform the collision handling operation based on the detected velocity component of the movement of the person or the moving body.
  • the motion detection means may detect any one of the forces of the fifth to seventh aspects by detecting the position of the person or moving body and the movement speed to detect the person's movement.
  • the robot arm control device described in 1. is provided.
  • the motion detection means detects the motion of the person or moving body approaching the robot arm, and the person or moving body is moved to the robot arm based on the motion detection result of the person or moving body detected by the motion detection means.
  • approaching is detected by the approach detecting means
  • the approach of the person or moving body is detected by the approach detecting means
  • the person or the moving body is detected based on the motion of the person or moving body detected by the motion detecting means.
  • the collision position between the moving body and the articulated robot arm is estimated and the collision position is acquired by the collision position acquisition means, and the collision position operation means is used to acquire the collision position acquired by the collision position acquisition means.
  • the articulated robot arm
  • the robot arm control device according to any one of the first aspect to the eighth aspect for controlling the robot arm,
  • a robot characterized in that the collision response operation corresponding to the collision between the person and the robot arm is controlled by the collision response operation control means.
  • a collision position acquisition means for acquiring a collision position between a human or a moving body and an articulated robot arm
  • the articulated robot that the collision position belongs to based on the collision position of the person or moving body and the articulated robot arm acquired by the collision position acquisition means.
  • a robot arm for functioning as a collision response operation control means for performing a collision response operation in which the rigidity of the joint portion closer to the root portion than the link of the robot arm is made lower than the rigidity of the other joint portions. Provide a control program.
  • FIG. 1 is a diagram showing the configuration of the articulated robot arm control device 1 according to the first embodiment of the present invention and the configuration of the articulated robot arm 8 to be controlled.
  • This robot arm control apparatus 1 implements the robot arm control method of the first embodiment, and can be used for a robot having an articulated robot arm 8, as will be described later. It can also be used as a control program for an articulated robot arm 8.
  • reference numeral 2 denotes human motion detection means as an example of motion detection means.
  • the human motion detection means 2 performs image recognition processing based on image data captured by an image imaging device 36 such as a camera. Information on the position of the person 38 approaching the arm 8 and the movement speed and direction is detected by the human movement detection means 2.
  • [0035] 3 is a human approach detecting means as an example of the approach detecting means.
  • Reference numeral 5 denotes a collision position estimation means as an example of a collision position acquisition means.
  • [0037] 4 is a collision response operation control means for controlling the operation of the robot arm 8 when performing the work with the robot arm 8 (specifically, controlling the mechanical impedance value of the robot arm 8).
  • the human approach detecting means 3 detects the approach of the person 38 to the robot arm 8
  • the collision at the collision between the person 38 and the robot arm 8 is determined based on the detection result of the human motion detecting means 2. Control the crash response operation.
  • the collision handling operation control unit 4 includes a collision handling operation generation unit 6 and an operation control unit 7.
  • the collision response motion generating means 6 is the joint target trajectory of the robot arm 8 and the mechanical impedance of the joint target when the robot arm 8 and the person 38 are in contact with each other at the estimated collision position estimated by the collision position estimating means 5. The value is calculated and the calculation result is output to the operation control means 7.
  • the motion control means 7 controls the position and orientation of the hand of the robot arm 8, and realizes the target work with the hand of the robot arm 8. At the same time, the control is switched so that 6 follows the joint target trajectory generated, and at the same time, the mechanical impedance value of each joint part of the mouth bot arm 8 is adjusted so that the mechanical impedance value of the joint target generated by the collision response generating means 6 is obtained. Performs impedance control to control the value.
  • each joint portion of the robot arm 8 is supplied with a motor 34 force as an example of a driving device of each joint portion via a motor driver 19 connected to the DZ A board 21 and the AZD board 22. It is driven under impedance control so that each bending action is performed.
  • the control device 1 is configured by a general personal computer in terms of hardware, and includes a human motion detection unit 2, a human approach detection unit 3, a collision position estimation unit 5, a collision response operation generation unit 6,
  • the portion of the operation control means 7 other than the input / output IF (input / output interface) 20 is realized in software as a control program 18 that can be executed by a personal computer.
  • the input / output IF 20 includes a DZA board 21, an AZD board 22, and a counter board 23 connected to an expansion throttle such as a PCI bus of a personal computer.
  • the control device 1 functions by executing the control program 18 for controlling the operation of the robot arm 8, and is output from the encoder 35 connected to the motor 34 of each joint portion of the robot arm 8.
  • the joint angle information is taken into the control device 1 through the counter board 23 and the control device 1 calculates the control command value for the rotational movement of each joint.
  • the calculated control command values are given to the motor driver 19 through the DZA board 21. In accordance with each control command value sent from the motor driver 19, the motor 34 of each joint portion of the robot arm 8 is driven.
  • the robot arm 8 is a multi-link manipulator with 4 degrees of freedom, and is connected to the hand 9, the second link 11 having the wrist portion 10 to which the hand 9 is attached, and the second link 11 to be rotatable.
  • the wrist part 10 has two rotation axes (a rotation axis along the vertical direction V and a rotation axis along the horizontal direction) of the third joint part 16 and the fourth joint part 17.
  • the relative posture (orientation) of the hand 9 can be changed.
  • the four-degree-of-freedom multi-link manipulator is configured to be rotatable about a total of four axes so that the first joint part 14 can rotate about the rotation axis along the vertical direction.
  • Each joint portion constituting the rotating portion of each shaft is provided with one of the two members connected at each joint portion, and is rotationally driven and controlled by a motor driver 19 described later.
  • a motor 34 (actually disposed inside each joint portion of the robot arm 8) and an encoder 35 that detects the rotational phase angle (ie, joint angle) of the rotating shaft of the motor 34. (Actually disposed inside each joint of the robot arm 8) and the rotational axial force of the motor 34 connected to the other of the two members connected at each joint Then, by rotating the rotating shaft forward and backward, the other member is configured to be rotatable around each axis with respect to the one member.
  • [0046] 32 is an absolute coordinate system in which the relative positional relationship with respect to the lower fixed portion of the base portion 13 is fixed. 33 is fixed relative to hand 9.
  • the hand coordinate system The origin position Oe (x, y) of the hand coordinate system 33 viewed from the absolute coordinate system 32 is the hand position of the robot arm 8, and the posture ( ⁇ , 0) of the hand coordinate system 33 viewed from the absolute coordinate system 32 is the robot arm 8
  • the control device 1 controls the hand position 'posture vector r so that it follows the target hand position / posture vector r.
  • Image data captured by the image pickup device 36 is input to the human motion detection means 2, and the image recognition processing by the human motion detection means 2 is performed, so that the robot arm 8 is placed from the ceiling to the floor.
  • V (V, V) is detected, and the information of the two-dimensional position X (X, y) and the moving velocity vector V (V, v) is obtained from the human motion detection means 2 to the human approach detection means 3 and the collision position estimation means 5 Is output.
  • the human approach detection means 3 defines a collision warning area 100 shown in FIG. 2, and determines whether or not the person 38 has approached the robot arm 8 based on whether or not the person 38 has entered this area 100. Line
  • the sectoral area 100A on the proximal end side of the collision warning area 100 is oc times the length L of the first link 12, that is, a L is a radius, and the first joint axis (the rotation axis of the first joint part 14)
  • the joint angle q of the first joint portion 14 is, for example, a region having an angle of ⁇
  • the fan-shaped area 100B on the tip side of the collision warning area 100 has a length L of the second link 11 and a length L of the hand 9 (D o times, that is, a (L + L) as a radius, and the second joint axis.
  • the area is 2 °. In this way, even if the range of the sector area is changed in proportion to the speed, it is possible to reliably prevent the tip of the hand 9 from coming out of the sector area 100B on the tip side.
  • the values of ⁇ , a, ⁇ , and ⁇ that define the collision warning area 100 are arbitrary values.
  • V is m / s
  • V is [Number 1]
  • V r 0.5 [m / s]
  • a value (variable) defined as .95 and a constant.
  • the human approach detection means 3 uses the information on the position of the person 38 detected by the human motion detection means 2 and the joint angle information of the robot arm 8 obtained from the motion control means 7, so that the person 38 and the robot arm 8 The relative relationship is calculated, and when the person 38 enters the collision warning area 100, the collision response operation control means 4 is notified of the person intrusion.
  • the collision position estimation means 5 determines the position of the collision with the person 38 from the information on the position of the person 38 detected by the human motion detection means 2 and the information on the moving speed vector.
  • the collision handling operation generating means 6 generates the joint target trajectory to the collision receiving posture in Fig. 3B in the state (current state) force during normal work in Fig. 3A.
  • the line of the central axis of the first link 12 of the robot arm 8 is the expected collision position.
  • the angle q of the first joint portion 14 is determined by the collision response motion generating means 6 so as to overlap with the first joint portion 14. You li
  • the fixed value is 60 ° so that the arm 8 can be enclosed.
  • the angle of the first joint portion 14 of the robot arm 8 in the collision handling posture is q.
  • the robot arm 8 can perform an impedance control operation with the following posture.
  • Nk 11 is in a straight line.
  • ⁇ nd (0 ⁇ ⁇ + a x l + a, t 2 + a + 4 + a s
  • T is the operation end time of the impedance control operation.
  • the collision handling motion generation means 6 outputs the joint angle target value q (t) calculated by the equation (4) to the motion control means 7 as the joint angle target value.
  • the collision response motion generating means 6 determines whether each joint portion in the collision response posture of FIGS. 3B to 3D corresponds to the contact patterns (1) to (3) and the speed component of the person 38 at the time of the collision. Determine machine impedance value.
  • Mechanical impedance value setting parameters include inertial I, viscosity D, and Oka IJ '.
  • K, K, and K are constant gains, and specific values are experimentally determined to ensure safe operation.
  • V 0.
  • the mechanical impedance value force is set more quickly than before the impedance control operation, and the first joint portion 14 becomes flexible, and the second joint portion 15, the third joint portion 16, and the fourth joint portion.
  • the mechanical impedance value is set to the upper limit value before the impedance control operation, and the second joint part 15, the third joint part 16, and the fourth joint part 17 become stiff. That is, the rigidity of the first joint portion 14 that is closer to the root portion (the base portion 13) than the first link 12 to which the collision position of the first link 12 belongs is set to the other joint portions such as the second joint portion 15 and the second link portion 15.
  • the collision handling operation control means 4 can perform a collision handling operation that lowers the rigidity of the third joint portion 16 and the fourth joint portion 17.
  • the rigidity of the second joint part 15 is set to be low and the second joint part 15 is soft.
  • the first joint portion 14 is stiffer than before the impedance control operation, and the expected collision position belongs according to the component vi2 perpendicular to the second link 11 of the moving speed of the person 38. Since the second joint portion 15, which is the joint portion closest to the base portion (the base portion 13) with respect to the planned collision position of the second link 11, is set softer than before the impedance control operation, the person 38 Since the impact that collides with the link 11 can be absorbed by the flexibility of the second joint portion 15, safety can be ensured.
  • the inertia applied at the time of collision is mainly the inertia of the second link 11, and the first link 12 Since the inertia is not force, the impact at the time of collision can be reduced.
  • the first joint part 14 and the second joint part 15 are both Softer than the third joint part 16 and the fourth joint part 17, that is, all joint parts closer to the root part (base part 13) than the second link 11 to which the expected collision position belongs are connected to other joint parts. You can also think of ways to soften yourself.
  • 8 is the robot arm shown in FIG. 1, which is a control target.
  • Reference numeral 24 denotes a work target trajectory generating means for outputting a hand position 'posture target vector r for realizing the work of the target robot arm 8. As shown in Figure 7, the target mouth wd
  • the movement of the bot arm 8 is determined in advance by teaching according to the target work (r 1, r 2, r 3 ⁇ ), and the target trajectory generator 24 uses the polynomial wdO wdl wd2
  • the hand position / posture target vector r input from the target trajectory generation unit 24 to the inverse kinematics calculation unit 25 is converted into a joint target vector q by the inverse kinematics calculation unit 25.
  • Reference numeral 26 denotes a target trajectory switching means.
  • the target trajectory switching means 26 includes an inverse kinematics calculation means 25 to a joint target vector q force a collision corresponding action generating means 6 to a collision corresponding action joint target wd.
  • the target trajectory cut wd wd conversion means 26 selects the joint target vector q obtained by converting the hand position / posture target vector r generated by the work target trajectory generation means 24 by the inverse kinematic calculation means 25, Output from the target trajectory switching means 26 as the joint target vector q.
  • the target trajectory switching means 26 receives the collision response motion switching command from the human approach detection means 3 when the person approaches, the target trajectory switching means 26 selects the contact motion joint target vector q input from the collision response motion generation means 6. And target trajectory id d as joint target vector q
  • Reference numeral 27 denotes torque estimation means for estimating the external force torque applied to each joint portion of the robot arm 8 due to contact between the person 38 and the robot arm 8.
  • the current value i [i, i, i, i] T flowing through the motor 34 that drives each joint part of the robot arm 8, measured by the current sensor of the motor driver 19, is the AZD board 22. Is taken through and also the joint angle
  • the torque estimation means 27 functions as an observer, and the current value i, the current value q of the joint angle q, and the joint angle error compensation output u
  • the joint impedance calculation means 28 is a part that performs the function of realizing the mechanical impedance of the robot arm 8.
  • the joint impedance calculation means 28 is set to 0 from the joint impedance calculation means 28. Output to the input side of control system 31.
  • the machine impedance parameters I, D, K set by the collision response motion generation means 6 and the current value q of the joint angle From the external force torque ⁇ estimated by the torque estimation means 27, the function is determined for each joint of the robot arm 8.
  • the joint target correction output q for realizing the mechanical impedance is calculated by the joint impedance calculation means 28 by the following equation (12) and output to the input side of the position control system 31.
  • the joint target correction output q is the position of the joint target q output by the target trajectory switching means 26.
  • S is a Laplace operator.
  • [0090] 30 is a joint error compensation means in the position control system 31, and is a value between the current value q of the joint angle vector measured by the robot arm 8 and the joint correction target vector q.
  • the joint error compensation output u is supplied to the motor driver 19 via the DZA board 21 as a voltage command value qe.
  • the robot arm 8 is operated by rotating each joint axis forward and backward.
  • the motion control means 7 includes the target trajectory generation means 24, the inverse kinematics calculation means 25, the target trajectory switching means 26, the torque estimation means 27, the joint impedance calculation means 28, and the position control system. It consists of 31 and
  • the basic operation is feedback control (position control) of the joint vector (current value of the joint angle) q by the joint error compensation means 30, and the portion surrounded by the dotted line in FIG. It has become.
  • position control position control of the joint vector (current value of the joint angle) q by the joint error compensation means 30, and the portion surrounded by the dotted line in FIG. It has become.
  • a PID compensator is used as the joint error compensation means 30, the control works so as to converge to the joint error q force SO, and the target operation of the robot arm 8 is realized.
  • the joint target calculation output 28 is used by the joint impedance calculation means 28 to the position control system 31 described above q 1S target trajectory switching Position control system 31 entered into joint target q output by means 26 ⁇ ⁇ d
  • Step 1 joint angle data (joint variable vector or joint angle vector q) measured by the encoder 35 is taken into the control device 1.
  • step 2 based on the motion control program 18 of the robot arm 8 stored in advance in the memory (not shown) of the control device 1, the robot is operated by the work target trajectory generating means 24 of the motion control means 7. The hand position of arm 8 'posture target vector r is calculated.
  • step 3 the hand position / posture target vector r 1S inverse kinematics calculation means 25
  • step 4 the target trajectory is switched by the target trajectory switching means 26.
  • Step 5A If the person 38 has not entered the collision warning area 100, go to Step 5A to perform the work action. On the other hand, if the person 38 has entered the collision warning area 100, the process proceeds to step 5B to execute the collision response operation (processing by the target trajectory switching means 26).
  • step 5B the joint target vector q is determined by the connection generated by the collision response motion generating means 6.
  • the tactile motion joint target vector q is set (processing by the target trajectory switching means 26). Then step
  • step 5A the joint target vector q is set as the joint target q. (Target trajectory switching means 2
  • Step 6 from the drive current value i of each motor 34, joint angle data (joint angle vector (joint angle current value) q), and joint angle error compensation output u,
  • the external force torque at the joint is calculated by the force torque estimation means 27 (torque estimation
  • step 7 the mechanical impedance parameters I, D, K set in the collision response motion generating means 6, the joint angle data (joint angle vector q), and the torque estimator. From the external force torque ⁇ applied to the robot arm 8 calculated in step 27, the joint target correction is output.
  • step 8 the complement d ⁇ ⁇ is calculated as the sum of the joint target vector q and the joint target correction output q.
  • the normal joint target vector q is calculated and input to the position control system 31.
  • step 9 the difference between the corrected joint target vector q and the current joint vector q is dm
  • the error q of a certain joint is input to the joint error compensation means 30, and the joint angle error guarantee output u
  • a specific example of the difference compensation means 30 is a PID compensator. Control is performed so that the joint error converges to 0 by appropriately adjusting the three gains of proportional, differential, and integral, which are constant diagonal matrices.
  • step 10 the joint angle error compensation output u force 3 ⁇ 4ZA board 21
  • each joint axis of the robot arm 8 is generated by changing the amount of current flowing through the motor 34 of each joint portion given to the motor driver 19.
  • Control of the operation of the robot arm 8 is realized by repeatedly executing the above steps 1 to 10 as a control calculation loop.
  • step 21 the human motion detection means 2 performs image recognition processing from the image data of the image pickup device 36, and detects the position of the person 38 approaching the robot arm 8 and information on the moving speed and moving direction. .
  • step 22 if the person approach detection means 3 determines whether the person 38 enters the collision warning area 100, and if the person approach detection means 3 determines that there is no entry, go to step 23. move on.
  • step 23 the robot arm 8 is motion-controlled by the motion control means 7, and performs an operation of gripping and transporting an object with the hand 9 of the robot arm 8.
  • step 23 the process returns to step 21 and the loop of step 21 ⁇ step 22 ⁇ step 23 ⁇ step 21 ... is repeated unless the human approach detection means 3 confirms that the person 38 has entered.
  • the robot arm 8 performs the above-described normal object gripping and transporting operations.
  • step 22 If intrusion of person 38 is confirmed in step 22, proceed to step 24, where the collision position Predicted collision position by estimation means 5
  • Step 24.1 the distance between the expected collision position X and the origin O of the absolute coordinate system 32
  • L is calculated as the collision response generation means 6, and the distance L and the length L are calculated as the collision response generation means 6.
  • a collision-corresponding motion target trajectory q (t) for taking a collision-corresponding posture at X P ⁇ X i, y,) is generated by Equation (4) in the collision-corresponding motion target trajectory generating means 6.
  • step 26 the mechanical impedance value of the joint set in the collision response posture depends on the contact patterns (1) to (3), and also on the moving speed of the approaching person 38. As described above, the mechanical impedance of the joint is set by the collision-responsive operation target trajectory generating means 6 as described above.
  • step 27 in the motion control means 7, the target trajectory switching means 26 operates, the collision-corresponding motion target trajectory q (t) is selected, and the robot arm 8 is operated by the position control system. It becomes a corresponding posture.
  • the joint impedance calculating means 28 is also operated, and each joint part of the robot arm 8 is individually controlled to the set mechanical impedance value.
  • step 28 the human motion detection means 2 performs image recognition processing from the image data of the image pickup device 36, and information on the position of the person 38 approaching the robot arm 8, the moving speed, and the moving direction. Is detected.
  • step 29 intrusion determination of person 38 into collision warning area 100 is performed by human approach detection means 3, and if it is determined that there is an intrusion by human approach detection means 3, step 27 is performed.
  • the loop of step 27 ⁇ step 28 ⁇ step 29 ⁇ step 27 ... is repeated and the robot arm 8 continues the collision response operation unless the person 38 is confirmed to leave the collision warning area 100. .
  • step 29 if it is determined in step 29 that the person 38 does not enter the collision warning area 100 and the human approach detection means 3 returns to step 21, the robot arm 8 holds the above-mentioned normal object. And return to transport operation.
  • the joint part closer to the base part (base part 13) than the planned collision position is more rigid than the other joint parts. If there is no joint that is low and easy to move, a drag force will be generated against the collision and an impact force will be generated.
  • the rigidity is higher in the joint portion closer to the root (base portion 13) than the other joint portions. Since the joint is set in a state that is low and easy to move, the force applied at the time of a collision at the joint can be released, and the impact force on the person is reduced, so that safety can be increased.
  • the force with the number of joints of the robot arm 8 being three is not limited to this.
  • the same effect is exhibited in the robot arm 8 with two or more joints.
  • the collision between the robot arm 8 and a person has been described as an example.
  • the present invention is not limited to this.
  • Other mobile objects such as a mobile robot and a moving wagon are not limited thereto. The same effect is exhibited in the collision with the robot arm 8.
  • the estimated collision position is estimated once.
  • the present invention is not limited to this, and the collision schedule is continued. A method of continuously estimating the position is also possible. In this case, since the collision estimation accuracy is improved, it is possible to cope with a more optimal posture and contact pattern, and further improve safety.
  • the estimated collision position is estimated once as in the first embodiment, there is an advantage that the amount of calculation can be reduced and the impossibility to the CPU can be reduced.
  • FIG. 8A and 8B are diagrams showing the configuration of the robot arm control device 1 and the configuration of the robot arm 8 to be controlled in the second embodiment of the present invention, and the operation control of the control device in the second embodiment. It is a block diagram which shows the detailed structure of a means. Since the basic configuration of the control device 1 in the second embodiment of the present invention is the same as that in the first embodiment shown in FIG. 1, description of common parts is omitted, and only different parts are described in detail below. Explained.
  • human motion detection and human approach detection are performed by detecting the force generated when the robot arm 8 and the person 38 are not in contact with each other in the image recognition process. Therefore, the human motion detection means 2 has a structure in which external force torque information is input from the torque estimation means 27 of the operation control means 7. Therefore, the image pickup device 36 is not necessary in the control device 1 in the second embodiment.
  • lext 2ext Estimated by human motion detection means 2 and contact of person 38 at second link 11 as shown in FIG. 9D.
  • the human approach detecting means 3 is configured to detect the external force torque ⁇ of the first joint portion 14.
  • the collision handling motion control means 4 can coexist with the person 38 by controlling the posture and joint torque according to the positional relationship. Safe operation of the robot arm 8 can be controlled.
  • the human motion detection means 2 is based on the image recognition process.
  • the present invention is not limited to this, and other sensing means such as a laser radar sensor, an ultrasonic sensor, etc. If the position and speed of the person 38 can be detected, the same effect can be achieved.
  • the force for performing human detection based on the external force torque estimated by the torque estimating means 27 is not limited to this.
  • the contact sensor 39 is provided as an example of the collision position acquisition means at the part where the person 38 may contact, such as the links 12 and 11, and the person 38 is in contact with the contact sensor 39, The same effect can be exhibited.
  • the contact sensor and human detection using external force torque are used in combination, the estimation accuracy can be improved and the robot arm 8 can be controlled more safely.
  • a force with the number of joints of the robot arm 8 being three is not limited to this, and the same effect is exhibited in the robot arm 8 having two or more joints.
  • the collision between the robot arm 8 and a person has been described as an example.
  • the present invention is not limited to this.
  • Other mobile objects such as a mobile robot and a moving wagon are not limited thereto. The same effect is exhibited in the collision with the robot arm 8.
  • the robot arm 8 has been described as an example.
  • the robot arm 8 is not limited to the arm, and may be a moving robot such as a biped walking robot or a multi-legged walking robot.
  • the robot arm control device and method, the robot, and the robot arm control program of the present invention include a robot arm control device that controls the operation of a robot arm that may come into contact with a person such as a home robot, and the like. It is useful as a control method, robot, and robot arm control program. Further, the present invention can be applied not only to home robots but also to industrial robots and control devices for movable mechanisms in production facilities.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Description

明 細 書
ロボットアームの制御装置及び制御方法、ロボット、及びロボットアームの 制御プログラム
技術分野
[0001] 本発明は、家庭用ロボット等、人との物理的な接触の可能性のあるロボットアームの 制御装置及び制御方法、ロボット、及びロボットアームの制御プログラムに関する。 背景技術
[0002] 近年、ペットロボットなどの家庭用ロボットの開発が盛んに行われており、将来は家 事支援ロボット等、より実用的な家庭用ロボットが実用化されるものと期待されている 。家庭用ロボットは、家庭内に入り人と共生する必要があるため、人との物理的な接 触が不可欠であり、安全性の面から、柔軟であることが必要とされる。
[0003] こうした課題に対し、従来技術としては、特許文献 1 (特開平 10— 329071号公報) において、ロボットアームに加わった人との接触カを検知し、アームに大きな力が加 わった時には復元力を小さくし安全性を高め、アームに微少な力が加わって 、る時 には復元力を大きくし動作精度を確保する制御装置を開示して!/、る。
[0004] また、特許文献 2には、図 11Aに示すように、障害物が存在する環境とロボット 513 との接触部およびその接触力をそれぞれ検知するセンサ機構 515と、移動機構 511 およびマニピュレータ 512の位置姿勢をそれぞれ計測する位置姿勢計測装置 514と 、前記接触力と位置姿勢とからロボット 513の接触力回避動作を計算する計算機 51 7と、この計算機 517の計算結果によって移動機構 511とマニピュレータ 512とを駆 動させるァクチユエータ 516とを有する制御装置が開示されており、障害物が存在す る環境とロボット 513との接触時には、移動機構 511とマニピュレータ 512との両者の 連携動作により回避動作を行うようにして 、る。
[0005] また、特許文献 3には、図 12に示すように、エンドエフヱクタ 411を有するロボット 40 1に作用したことをカ覚センサ 412で検出した外部環境からの力に対して、リアルタイ ムに外部環境の剛性係数を推定して、モータ 413aの制御によりロボット 401のァー ム 410を駆動制御するインピーダンス制御装置が開示されている。 [0006] 特許文献 1 :特開平 10— 329071号公報
特許文献 2:特開 2005— 59161号公報
特許文献 3:特開 2004 - 223663号公報
発明の開示
発明が解決しょうとする課題
[0007] し力しながら、上記従来制御装置では、多関節型のロボットアームへの適用を考慮 しておらず、多関節型のロボットアームの場合にぉ 、て安全性が保証された制御装 置となっていない。
[0008] また、上記従来制御装置では、接触する人の動きを考慮しておらず、人の動きに合 わせた最適な制御になって!/ヽな ヽ。
[0009] また、特許文献 2では、図 11B及び図 11Cに示すように、ロボット 513における、障 害物が存在する環境との接触部 532を、接触力 531の方向に接触回避経路 526沿 いに移動させることで、回避動作 527を行うことで、環境力もの接触力 531を小さくし 、最終的に接触がなくなるようにしている。また、図 11D及び図 11Eに示すように、口 ボット 513における、障害物が存在する環境との接触部 532の接触面を、接触力 53 1により発生するモーメント 533の方向に傾けるとともに、前記接触部を、任意の大き さの円 526を描くように移動させることで、回避動作 527を行うことで、環境からの接 触力 531を小さくし、最終的に接触がなくなるようにしている。しかしながら、それぞれ の回避動作 527の具体的な動作制御にっ 、ては、何ら開示はされて ヽな 、。
[0010] また、特許文献 3については、図 12に示すように、算出された外部環境の剛性係数 と相関関係をもってロボット側のインピーダンス特性を変化させ、これらの値を用いて エンドェフエクタ 411の位置を算出するものであって、エンドェフエクタ 411の位置に しか着目しておらず、人へ接触のダメージを与えないようにするためのアーム 410の 具体的な動作制御につ 、ては全く開示されて ヽな 、。
[0011] 本発明の目的は、上記従来の制御装置の課題を解決し、多関節型のロボットァー ムであっても安全に人と接触することができ、さらに、人の動きに応じた最適な接触動 作が可能で、人へ接触のダメージを与えることなく人と共存できる安全なロボットァー ムの動作制御を実現できるロボットアームの制御装置及び制御方法、ロボット、及び ロボットアームの制御プログラムを提供することにある。
課題を解決するための手段
[0012] 上記目的を達成するために、本発明は以下のように構成する。
[0013] 本発明の第 1態様によれば、多関節型ロボットアームの制御装置であって、
人または移動体と上記多関節型ロボットアームの衝突位置を取得する衝突位置取 得手段と、
上記衝突位置取得手段が取得した、上記人または移動体と上記多関節型ロボット アームの上記衝突位置に基づいて上記衝突位置の属する上記多関節型ロボットァ ームのリンクより根元部に近い側の関節部の剛性を他の関節部の剛性よりも低下させ る衝突対応動作を行なうように制御する衝突対応動作制御手段とを有するロボットァ ームの制御装置を提供する。
[0014] 本発明の第 9態様によれば、多関節型ロボットアームの制御方法であって、
上記ロボットアームに接近する人または移動体の運動を運動検出手段で検出し、 上記運動検出手段で検出された上記人または移動体の運動検出結果に基づいて 上記ロボットアームに上記人または移動体が接近したことを接近検知手段で検知し、 上記接近検知手段により上記人または移動体の接近を検知したときに、上記運動 検出手段で検出した上記人または移動体の上記運動に基づいて上記人または移動 体と上記多関節型ロボットアームの上記衝突位置を推定して上記衝突位置を衝突位 置取得手段で取得するとともに、衝突対応動作制御手段により、上記衝突位置取得 手段で取得した上記衝突位置の属する上記多関節型ロボットアームのリンクより根元 部に近い側の関節部の剛性を他の関節部の剛性よりも低下させることで、上記人と 上記ロボットアームの衝突に対応する衝突対応動作を行なうように制御するロボットァ ームの制御方法を提供する。
[0015] 本発明の第 10態様によれば、上記多関節型ロボットアームと、
上記ロボットアームを制御する第 1態様〜第 8態様のいずれか 1つに記載のロボット アームの制御装置とを有して、
上記人と上記ロボットアームの衝突に対応する上記衝突対応動作を上記衝突対応 動作制御手段により行なうように制御することを特徴とするロボットを提供する。 [0016] 本発明の第 11態様によれば、コンピューターを、
人または移動体と多関節型ロボットアームの衝突位置を取得する衝突位置取得手 段と、
上記衝突位置取得手段が取得した、上記人または移動体と上記多関節型ロボット アームの上記衝突位置に基づいて上記衝突位置の属する上記多関節型ロボットァ ームのリンクより根元部に近い側の関節部の剛性を他の関節部の剛性よりも低下させ る衝突対応動作を行なうように制御する衝突対応動作制御手段として機能させるた めのロボットアームの制御プログラムを提供する。 発明の効果
[0017] 本発明のロボットアームの制御装置及び制御方法、ロボット、及びロボットアームの 制御プログラムによれば、衝突位置取得手段と衝突対応動作制御手段とを備えるか 、又は、それらの機能を備えるようにしている。このため、ロボットアームに人が接近し たときに、人の運動に応じた適切な姿勢で動作したり又は適切な関節部の機械イン ピーダンスで動作することが可能となる。言い換えれば、上記人または移動体と上記 多関節型ロボットアームの上記衝突位置に基づ 、て、上記衝突位置の属する上記多 関節型ロボットアームのリンクより根元部に近い側の関節部の剛性を他の関節部の剛 性よりも低下させることにより、根元部に近い側の関節部を動きやすくして、当該関節 部で衝突時にかかる力を逃がすことができ、人に与える衝撃力が小さくなり、安全性 を高くすることができる。よって、多関節型のロボットアームであっても安全に人と接触 することができ、さらに、人の動きに応じた最適な接触動作が可能で、人へ接触のダ メージを与えることなく人と共存できる安全なロボットアームの動作制御を実現できる
図面の簡単な説明
[0018] 本発明のこれらと他の目的と特徴は、添付された図面についての好ましい実施形 態に関連した次の記述から明らかになる。この図面においては、
[図 1]図 1は、本発明の第 1実施形態におけるロボットアームの制御装置の構成及び 制御対象であるロボットアームの構成を示す説明図であり、
[図 2]図 2は、本発明の上記第 1実施形態における上記ロボットアームの制御装置で のロボットアームの衝突警戒領域を説明する図であり、
[図 3A]図 3Aは、上記第 1実施形態における上記制御装置の人運動検出手段及び 衝突位置推定手段の機能を説明する平面図であり、
[図 3B]図 3Bは、上記第 1実施形態における上記制御装置の人運動検出手段及び 衝突位置推定手段の機能を説明する平面図であり、
[図 3C]図 3Cは、上記第 1実施形態における上記制御装置の人運動検出手段及び 衝突位置推定手段の機能を説明する平面図であり、
[図 3D]図 3Dは、上記第 1実施形態における上記制御装置の人運動検出手段及び 衝突位置推定手段の機能を説明する平面図であり、
[図 4]図 4は、上記第 1実施形態における上記制御装置の動作制御手段の詳細構成 を示すブロック線図であり、
[図 5]図 5は、上記第 1実施形態における上記制御装置の動作制御手段での制御プ ログラムの動作ステップを表すフローチャートであり、
[図 6]図 6は、上記第 1実施形態における上記制御装置の全体的な動作ステップを表 すフローチャートであり、
[図 7]図 7は、本発明の上記第 1実施形態における上記ロボットアームの制御装置の 目標軌道を説明する図であり、
圆 8A]図 8Aは、本発明の第 2実施形態におけるロボットアームの制御装置の構成及 び制御対象であるロボットアームの構成を示す図であり、
[図 8B]図 8Bは、上記第 2実施形態における上記制御装置の動作制御手段の詳細構 成を示すブロック線図であり、
[図 9A]図 9Aは、本発明の上記第 2実施形態における上記ロボットアームの制御装置 の動作を説明する図であり、
[図 9B]図 9Bは、本発明の上記第 2実施形態における上記ロボットアームの制御装置 の動作を説明する図であり、
[図 9C]図 9Cは、本発明の上記第 2実施形態における上記ロボットアームの制御装置 の動作を説明する図であり、
[図 9D]図 9Dは、本発明の上記第 2実施形態における上記ロボットアームの制御装置 の動作を説明する図であり、
[図 10]図 10は、本発明の第 2実施形態におけるロボットアームの制御装置の制御対 象であるロボットアームの他の構成を示す図であり、
[図 11A]図 11Aは、特許文献 2にかかる従来技術のロボット制御装置の概略構成図 であり、
[図 11B]図 11Bは、図 11Aのロボット制御装置における接触回避動作の具体的な例 を示す図であり、
[図 11C]図 11Cは、図 11Aのロボット制御装置における接触回避動作の上記具体的 な例を示す図であり、
[図 11D]図 11Dは、図 11Aのロボット制御装置における接触回避動作の別の具体的 な例を示す図であり、
[図 11E]図 11Eは、図 11Aのロボット制御装置における接触回避動作の上記別の具 体的な例を示す図であり、
[図 12]図 12は、特許文献 3にかかる従来技術のロボット制御装置のブロック線図であ る。
発明を実施するための最良の形態
[0019] 本発明の記述を続ける前に、添付図面において同じ部品については同じ参照符号 を付している。
[0020] 以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
[0021] 以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の 種々の態様にっ 、て説明する。
[0022] 本発明の第 1態様によれば、多関節型ロボットアームの制御装置であって、
人または移動体と上記多関節型ロボットアームの衝突位置を取得する衝突位置取 得手段と、
上記衝突位置取得手段が取得した、上記人または移動体と上記多関節型ロボット アームの上記衝突位置に基づいて上記衝突位置の属する上記多関節型ロボットァ ームのリンクより根元部に近い側の関節部の剛性を他の関節部の剛性よりも低下させ る衝突対応動作を行なうように制御する衝突対応動作制御手段とを有するロボットァ ームの制御装置を提供する。
[0023] 本発明の第 2態様によれば、上記衝突対応動作制御手段は、上記衝突位置の属 する上記多関節型ロボットアームのリンクの上記根元部に最も近い側の関節部の剛 性を他の関節部の剛性よりも低下させる上記衝突対応動作を行なうように制御する 第 1態様に記載のロボットアームの制御装置を提供する。
[0024] 本発明の第 3態様によれば、上記衝突対応動作制御手段は、上記衝突位置の属 する上記多関節型ロボットアームのリンクより手首部に近い側の関節部の剛性を維持 またはさらなる剛性を与えることで、上記衝突対応動作を行なうように制御する第 1態 様又は第 2態様に記載のロボットアームの制御装置を提供する。
[0025] 本発明の第 4態様によれば、上記衝突対応動作制御手段は、上記衝突位置の属 する上記多関節型ロボットアームの上記リンクより手首部に近い側の各関節部ごとに 個別に関節角度を制御することで、上記衝突対応動作を行なうように制御する第 1態 様又は第 2態様に記載のロボットアームの制御装置を提供する。
[0026] 本発明の第 5態様によれば、上記人または移動体の運動を検出する運動検出手段 をさらに備え、
上記衝突位置取得手段は、上記運動検出手段の検出結果に基づ!、て上記人また は移動体と上記多関節型ロボットアームの上記衝突位置を推定して上記衝突位置を 取得し、
上記衝突対応動作制御手段は、上記衝突位置取得手段で推定した上記衝突位置 に基づいて上記衝突対応動作を行なうように制御する第 1態様又は第 2態様に記載 のロボットアームの制御装置を提供する。
[0027] 本発明の第 6態様によれば、上記運動検出手段の検出結果に基づいて上記ロボッ トアームに上記人または移動体が接近したことを検知する接近検知手段をさらに備え 上記衝突対応動作制御手段は、上記接近検知手段が上記人または移動体の接近 を検知したときに、上記衝突対応動作を行なうように制御する第 5態様に記載のロボ ットアームの制御装置を提供する。
[0028] 本発明の第 7態様によれば、上記衝突対応動作制御手段は、上記運動検出手段 の検出した上記人または移動体の運動の速度成分に基づ 、て、上記衝突対応動作 を行なうように制御する第 5態様又は第 6態様に記載のロボットアームの制御装置を 提供する。
[0029] 本発明の第 8態様によれば、上記運動検出手段は、上記人または移動体の位置と 移動速度を検出して上記人の運動を検出する第 5〜7態様のいずれ力 1つに記載の ロボットアームの制御装置を提供する。
[0030] 本発明の第 9態様によれば、多関節型ロボットアームの制御方法であって、
上記ロボットアームに接近する人または移動体の運動を運動検出手段で検出し、 上記運動検出手段で検出された上記人または移動体の運動検出結果に基づいて 上記ロボットアームに上記人または移動体が接近したことを接近検知手段で検知し、 上記接近検知手段により上記人または移動体の接近を検知したときに、上記運動 検出手段で検出した上記人または移動体の上記運動に基づいて上記人または移動 体と上記多関節型ロボットアームの上記衝突位置を推定して上記衝突位置を衝突位 置取得手段で取得するとともに、衝突対応動作制御手段により、上記衝突位置取得 手段で取得した上記衝突位置の属する上記多関節型ロボットアームのリンクより根元 部に近い側の関節部の剛性を他の関節部の剛性よりも低下させることで、上記人と 上記ロボットアームの衝突に対応する衝突対応動作を行なうように制御するロボットァ ームの制御方法を提供する。
[0031] 本発明の第 10態様によれば、上記多関節型ロボットアームと、
上記ロボットアームを制御する第 1態様〜第 8態様のいずれか 1つに記載のロボット アームの制御装置とを有して、
上記人と上記ロボットアームの衝突に対応する上記衝突対応動作を上記衝突対応 動作制御手段により行なうように制御することを特徴とするロボットを提供する。
本発明の第 11態様によれば、コンピューターを、
人または移動体と多関節型ロボットアームの衝突位置を取得する衝突位置取得手 段と、
上記衝突位置取得手段が取得した、上記人または移動体と上記多関節型ロボット アームの上記衝突位置に基づいて上記衝突位置の属する上記多関節型ロボットァ ームのリンクより根元部に近い側の関節部の剛性を他の関節部の剛性よりも低下させ る衝突対応動作を行なうように制御する衝突対応動作制御手段として機能させるた めのロボットアームの制御プログラムを提供する。
[0032] 以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
[0033] (第 1実施形態)
図 1は本発明の第 1実施形態における多関節型のロボットアームの制御装置 1の構 成及びその制御対象である多関節型のロボットアーム 8の構成を示す図である。この ロボットアームの制御装置 1は、上記第 1実施形態のロボットアームの制御方法を実 施するものであって、多関節型のロボットアーム 8を備えたロボットに使用可能であり、 後述するように、多関節型のロボットアーム 8の制御プログラムとしても使用可能なも のである。
[0034] 図 1において、 2は運動検出手段の一例としての人運動検出手段であり、カメラなど の画像撮像装置 36で撮像された画像データにより画像認識処理を人運動検出手段 2で行い、ロボットアーム 8に接近する人 38の位置並びに移動速度及び移動方向の 情報を人運動検出手段 2で検出する。
[0035] 3は接近検知手段の一例としての人接近検知手段であり、人運動検出手段 2による 検出結果である人位置の情報と、後述する動作制御手段 7から得られるロボットァー ム 8の関節角度情報より求められるロボットアーム 8の姿勢の情報との関係より、ロボッ トアーム 8に人 38が接近していることを検知する。
[0036] 5は衝突位置取得手段の一例としての衝突位置推定手段であり、人運動検出手段 2で検出した、接近する人 38の位置の情報、並びに、人 38の移動速度及び移動方 向すなわち移動速度ベクトル情報より、ロボットアーム 8と人 38との衝突予定位置 (衝 突位置として取り扱い可能な位置)を推定し、推定結果を、後述する衝突対応動作 生成手段 6に出力する。
[0037] 4は衝突対応動作制御手段であり、ロボットアーム 8で作業を遂行する際のロボット アーム 8の動作の制御(具体的には、上記ロボットアーム 8の機械インピーダンスの値 の制御)を行い、人接近検知手段 3がロボットアーム 8への人 38の接近を検知した際 には、人運動検出手段 2の検出結果に基づき、人 38とロボットアーム 8の衝突時の衝 突対応動作を制御する。
[0038] 衝突対応動作制御手段 4は、衝突対応動作生成手段 6、及び動作制御手段 7とより 構成される。
[0039] 衝突対応動作生成手段 6は、衝突位置推定手段 5が推定した衝突予定位置にお いて、ロボットアーム 8と人 38が接触するときのロボットアーム 8の関節目標軌道及び 関節目標の機械インピーダンス値を計算して、計算結果を動作制御手段 7に出力す る。
[0040] 動作制御手段 7は、ロボットアーム 8の手先の位置姿勢を制御し、目標とする作業を ロボットアーム 8の手先で実現すると共に、人 38が接近した場合には、衝突対応動作 生成手段 6が生成した関節目標軌道に追従するように制御を切り換えると同時に、衝 突対応動作生成手段 6が生成した関節目標の機械インピーダンス値になるように口 ボットアーム 8の各関節部の機械インピーダンスの値を制御するインピーダンス制御 を行う。ここで、ロボットアーム 8の各関節部は、後述するように、 DZ Aボード 21及び AZDボード 22に接続されたモータドライバ 19を介して、各関節部の駆動装置の一 例としてのモータ 34力インピーダンス制御の下に駆動されてそれぞれ屈曲動作が行 われるようになつている。
[0041] 制御装置 1は、ハードウェア的には一般的なパーソナルコンピュータにより構成され ており、人運動検出手段 2、人接近検知手段 3、衝突位置推定手段 5、衝突対応動 作生成手段 6、及び、動作制御手段 7のうちの入出力 IF (入出力インターフェース) 2 0を除く部分は、パーソナルコンピュータで実行可能な制御プログラム 18としてソフト ゥ ア的に実現される。
[0042] 入出力 IF20は、パーソナルコンピュータの PCIバスなどの拡張スロットルに接続さ れた、 DZAボード 21、 AZDボード 22、カウンタボード 23により構成される。
[0043] ロボットアーム 8の動作を制御するための制御プログラム 18が実行されることにより 制御装置 1が機能しており、ロボットアーム 8の各関節部のモータ 34に連結されたェ ンコーダ 35より出力される関節角度情報がカウンタボード 23を通じて制御装置 1に 取り込まれ、制御装置 1によって各関節部の回転動作での制御指令値が算出される 。算出された各制御指令値は、 DZAボード 21を通じてモータドライバ 19に与えられ 、モータドライバ 19から送られた各制御指令値に従って、ロボットアーム 8の各関節部 のモータ 34が駆動される。
[0044] ロボットアーム 8は、 4自由度の多リンクマニピュレータであり、ハンド 9と、ハンド 9が 取付けられる手首部 10を先端に有する第 2リンク 11と、第 2リンク 11が回転可能に連 結される第 1リンク 12と、第 1リンク 12が回転可能に連結支持される台部 13とを有し ている。手首部 10は、第 3関節部 16及び第 4関節部 17の 2つの回転軸(上下方向沿 V、の回転軸と横方向沿 、の回転軸)を有しており、第 2リンク 11に対するハンド 9の相 対的な姿勢(向き)を変化させることができる。第 2リンク 11の他端は第 1リンク 12の先 端に対して第 2関節部 15の上下方向沿いの回転軸周りに回転可能とし、第 1リンク 1 2の他端は台部 13に対して第 1関節部 14の上下方向沿いの回転軸周りに回転可能 として、合計 4個の軸周りに回転可能として上記 4自由度の多リンクマニピュレータを 構成している。
[0045] 各軸の回転部分を構成する各関節部には、各関節部で連結される 2つの部材のう ちの一方の部材に備えられかつ後述するモータドライバ 19により駆動制御される回 転駆動装置の一例としてのモータ 34 (実際には、ロボットアーム 8の各関節部の内部 に配設されている)と、モータ 34の回転軸の回転位相角(すなわち関節角)を検出す るエンコーダ 35 (実際には、ロボットアーム 8の各関節部の内部に配設されている)と を備えて、モータ 34の回転軸力 各関節部で連結される 2つの部材のうちの他方の 部材に連結されて上記回転軸を正逆回転させることにより他方の部材を一方の部材 に対して各軸周りに回転可能とするように構成して 、る。
[0046] 32は、台部 13の下側固定部に対して相対的な位置関係が固定された絶対座標系 であり、その原点を Oとする。 33は、ハンド 9に対して相対的な位置関係が固定され
0
た手先座標系である。絶対座標系 32から見た手先座標系 33の原点位置 Oe (x、 y) をロボットアーム 8の手先位置、絶対座標系 32から見た手先座標系 33の姿勢( φ、 0 )をロボットアーム 8の手先姿勢とし、手先位置'姿勢ベクトル rを r= [x、 y、 φ、 0 ]τ と定義する。ロボットアーム 8の手先位置及び姿勢を制御する場合には、手先位置' 姿勢ベクトル rを目標手先位置 ·姿勢ベクトル r に追従させるように制御装置 1で制 wd
御すること〖こなる。 [0047] 次に、制御装置 1を構成する各機能ブロックについて、詳細構成と動作について説 明する。
[0048] 人運動検出手段 2には、画像撮像装置 36で撮影した画像データが入力され、人運 動検出手段 2での画像認識処理により、ロボットアーム 8が配置された部屋の天井か ら床を見下ろしたときの人 38の 2次元位置 X (X , y )及び人 38の移動速度ベクトル
P P P
V (V , V )が検出され、 2次元位置 X (X , y )及び移動速度ベクトル V (V , v )の情 報が人運動検出手段 2から人接近検知手段 3及び衝突位置推定手段 5へ出力され る。
[0049] 人接近検知手段 3は、図 2に示す衝突警戒領域 100を定義し、人 38がこの領域 10 0に入ったかどうかで、人 38がロボットアーム 8に接近したかどうかの検知判断を行な
[0050] 衝突警戒領域 100の基端側の扇形領域 100Aは、第 1リンク 12の長さ Lの oc倍、 すなわち a Lを半径とし、第 1関節軸 (第 1関節部 14の回転軸)を要に、第 1関節部 14の関節角 qの、例えば、第 1リンク 12の中心軸を中心とした ± |8 ° の角度の領域 とする。また、衝突警戒領域 100の先端側の扇形領域 100Bは、第 2リンク 11の長さ Lとハンド 9の長さ L (D o 倍、すなわち a (L +L )を半径とし、第 2関節軸 (第 2関
2 Η 2 2 2 Η
節部 15の回転軸)を要に、第 2関節部 15の関節角 qの、例えば、第 2リンク 11の中
2
心軸を中心とした ± j8
2 ° の角度の領域とする。このようにすれば、速度に比例して 扇形領域の範囲を変化させても、ハンド 9の先が、先端側の扇形領域 100Bの外に 出るのを確実に防止できる。
[0051] 衝突警戒領域 100を定義する α 、 a 、 β 、 β の値は、任意の値であるが、例え
1 2 1 2
ばロボットアーム 8を動作させる手先速度 V ={(dx/dt)2+(dy/dt)2}1/2を基にこれらの値を 決めることができ、手先速度 Vに比例して α 、 a 、 β 、 β の値を大きくするように決 r 1 2 1 2
めてやれば、ロボットアーム 8の動作速度が大きい場合には衝突警戒領域 100の面 積が大きくなり、安全性を向上させることができる。
[0052] この第 1実施形態では、例えば、手先速度 Vの単位を m/sとするとともに、 Vは Vの r K r 大きさによって Vに比例する値又は定数となるものとして、 = 1. 2V 、 ひ = 1. 2V r 1 K 2 ヽ β 二 24V 、 β = 24Vとする。ただし、 Vは、 [数 1]
V r > 0 . 5 [m/ s ] の場合、 V = 1. 9Vで定義される値 (変数)であり、 V < 0. 5[mZs]の場合、 V = 0
. 95と定数として定義される値 (変数)である。
[0053] このようにすれば手先速度が 0. 5[mZs]以上の時には手先速度の大きさに比例し て衝突警戒領域 100の大きさが決まり、また、 0. 5[mZs]未満の時には α = 1. 14 、 a = 1. 14、 β = 22. 8、 β = 22. 8と固定値になり、手先速度が小さい場合でも
、ある程度の大きさの衝突警戒領域 100が確保される。
[0054] 人接近検知手段 3は、人運動検出手段 2の検出した人 38の位置の情報と、動作制 御手段 7から得られるロボットアーム 8の関節角度情報より、人 38とロボットアーム 8の 相対関係を算出し、人 38が衝突警戒領域 100に入れば、衝突対応動作制御手段 4 に人侵入を通知する。
[0055] 衝突位置推定手段 5は、人運動検出手段 2の検出した人 38の位置の情報及び移 動速度ベクトルの情報から人 38との衝突予定位置
[数 2]
Χ μ ( Λ' ,. , y , )
を推定して衝突対応動作生成手段 6に出力する。
[0056] 例えば、図 3Αに示すように、速度ベクトル V (V , V )の延長線と垂直に交わり、口 ボットアーム 8の第 1関節部 14の回転軸を通る直線 Aを考える。直線 Aと絶対座標系 32の X軸がなす角度を q とし、速度ベクトル V (V , V )の延長線と直線 Aとの交点を
、衝突予定位置
[数 3]
X κ X i , y i )
とすると、角度 q は以下の式で与えられ、
X P ( y , ) は以下の式(1)〜(3)で与えられる。
[0057] [数 5]
Figure imgf000016_0001
•式 ( 1 )
[数 6]
{ l2-q )xp+yp
- - · , 式 (2)
tan a -gu +π/2
[数 7] y, =x, tan^, . . . , 式 ( 3 )
[0058] 次に、図 3Α〜図 3Cを使い、衝突対応動作生成手段 6の詳細について説明する。
[0059] 衝突対応動作生成手段 6は、図 3Aの通常作業時の状態 (現在状態)力 図 3Bの 衝突受け止め姿勢への関節目標軌道を生成する。
[0060] ロボットアーム 8の第 1リンク 12の中心軸の線が衝突予定位置
[数 8]
Χμ ( Λ' ,. , y , )
に重なるよう第 1関節部 14の角度 q を衝突対応動作生成手段 6により決定する。す li
なわち、 q =atan2(y, x)である。ただし、 atan2(y, x) =arg(y +jx)であり、 jは 虚数、 argは複素数の偏角である。また、第 2関節部 15の角度 q は、人 38をロボット
2i
アーム 8が囲うようにするために、例えば 60° という固定値とする。
[0061] 衝突対応姿勢時のロボットアーム 8の第 1関節部 14の角度は qとする。また、第 2関
li
節部 15の角度 q に関しては、衝突予定位置
2i
[数 9]
X X y
と絶対座標系 32の原点 O間の距離 L に応じて、以下の接触パターン(1)〜(3)の 3
0 xi
パターンで変化させるとする。
[0062] 図 3Bに示す接触パターン(1):
[数 10] Lx i < L ! X 0 . 8 式 ( 3 A ) の場合、 q =90° とする。
2i
[0063] 図 3Cに示す接触パターン(2):
[数 11]
LXX 0. 8く
Figure imgf000017_0001
LjX l. 2 式 ( 3 B ) の場合、 q ={(L — L )ZO.4XL }X90° とする。
2i xi 1 1
[0064] 図 3Dに示す接触パターン(3): L XI.2<L の場合、 q =0° とする。
1 xi 2i
[0065] このようにすれば、ロボットアーム 8は、以下のような姿勢を伴うインピーダンス制御 動作を行なうことができる。
[0066] 上記接触パターン(1)の場合、図 3Bに示すように、人 38との接触は第 1リンク 12で 発生し、第 2リンク 11は第 1リンク 12に対して 90° 折れ曲がるような姿勢になるため、 ロボットアーム 8は人 38を囲うような姿勢となる。
[0067] 上記接触パターン(2)の場合、図 3Cに示すように、人 38との接触は第 2関節部 15 付近で発生し、人 38との接触位置に応じて、第 2関節部 15の開き角度 q が変化す
2i
る姿勢になる。
[0068] 上記接触パターン(3)の場合、図 3Dに示すように、人 38との接触は第 2リンク 11で 発生し、第 2関節部 15の角度 q は 0° となり、ロボットアーム 8は第 1リンク 12と第 2リ
2i
ンク 11がー直線上にある姿勢となる。
[0069] このようなインピーダンス制御動作において、ロボットアーム 8の関節角度の現在値
(q、q ) (q 、q )
1 2から、接触動作時の関節角度 li 2iへの目標軌道である関節角度目標 値 q (t)は、以下の 5次多項式補間により衝突対応動作生成手段 6で計算して求め nd
る。ここで、 tは時間である。
[0070] [数 12]
^nd (0 = αϋ + axl + a,t2 + a + 4 + as · ■ ' '式 (4) ただし,
[数 13] ao - Ί,, 式 ( 5 )
[数 14]
α = qn . . . . 式 ( 6 ) [数 15] a2 =—a
2 · · · · 式 m
[数 16] a? = It^^"' ~20q" " 12^/ "3¾2) · ■ · ' 式 (8 ) [数 17] a4 . . . . 式 (9 )
Figure imgf000018_0001
[数 18]
"5 = 12¾— ό¾ .—^/, ) . . . · 式 ( 1 0) [数 19] η = I , 2 , · · · ·式 ( 1 1 )
である。また、 tはインピーダンス制御動作の動作終了時間である。
f
[0071] 衝突対応動作生成手段 6は、関節角度目標値として、式 (4)で計算される関節角 度目標値 q (t)を動作制御手段 7へと出力する。
nd
[0072] また、衝突対応動作生成手段 6は、接触パターン(1)〜(3)及び衝突時の人 38の 速度成分に応じて、図 3B〜図 3Dの衝突対応姿勢時の各関節部の機械インピーダ ンス値を決定する。機械インピーダンス値の設定パラメータとしては、慣性 I、粘性 D、 岡 IJ'性 Kがある。
[0073] 接触パターン(1)及び(2)の場合:接触時の人 38の速度の第 1及び第 2リンク 12, 11に垂直な成分 V 、v に応じて、各関節部の機械インピーダンスパラメータを、 I = K /v 、 D =K ZV 、 K =K ZV により決定する。ただし、 n= l、 2である。また
I in n D in n K in
、K、K、Kは定数ゲインであり、具体的数値は安全な動作となるように実験的に求
1 D K
める。また、各パラメータの上限値 Imax、 Dmax、 Kmaxを定め、計算値がこれら の上限値を超える場合、各パラメータは上限値に等しいとする。
[0074] 接触パターン(3)の場合:第 1関節部 14に関しては I =Imax、 D =Dmax、 K
=Kmaxとし、第 2関節部 15に関しては、接触時の人 38の速度の第 2リンク 11に垂 直な成分 V に応じて、第 2関節部 15の機械インピーダンスパラメータを、 I =K /v
i2 2 I i2
、 D
2 =κ D Zv 、
i2 κ 2 =κ Κ Ζν により決定する。
i2
[0075] 手首部 10の機械インピーダンスに関しては、常に、上限値 I =Imax、 D =Dmax
、 K =Kmax、ただし、 (n= 3, 4)とする。
[0076] 上限値は十分大きな値とし、例えば、 Imax =Dmax =Kmax = 10000、ただし
、 (n= l, 2, 3, 4)とする。
[0077] 上記のように関節部の機械インピーダンスを決定すれば、接触パターン(1)及び(2
)では、例えば、人 38が第 1リンク 12にほぼ垂直に衝突する場合、 V =0であるので
i2
、第 1関節部 14では、インピーダンス制御動作前よりも機械インピーダンス値力 、さく 設定されて第 1関節部 14が柔軟になり、第 2関節部 15及び第 3関節部 16及び第 4関 節部 17では、インピーダンス制御動作前よりも機械インピーダンス値が上限値に設 定されて第 2関節部 15及び第 3関節部 16及び第 4関節部 17が固くなる。すなわち、 第 1リンク 12の衝突位置の属する第 1リンク 12よりも根元部(台部 13)に近い側である 第 1関節部 14の剛性を、他の関節部例えば第 2関節部 15及び第 3関節部 16及び第 4関節部 17の剛性よりも低下させる衝突対応動作を衝突対応動作制御手段 4により 行なうことができる。したがって、第 1関節部 14の柔軟性により、衝突の衝撃が緩和さ れると共に、第 2関節部 15が固いことで、衝突の反動で第 2リンク 11が不用意に動い て第 2リンク 11が人 38に衝突してしまうこともなぐ安全性が確保される。また、第 1リ ンク 12と第 2リンク 11で L字形を構成して人 38を囲うようにすることにより、人 38の前 側及び横側の 2方向での支えとして働くことができて、人 38が転倒するのを防ぎ (人 3 8が転倒しかけたときに第 1リンク 12又は第 2リンク 11に人 38が捉まることにより、人 3 8が転倒するのを防ぐことができて)、より安全性を高めることができる。 [0078] また、接触パターン(2)において、第 2リンク 11に垂直な速度成分 Vがある場合で i2
も、速度成分 V に応じて第 2関節部 15の剛性が低く設定されて第 2関節部 15が柔ら i2
力べなることになるので、安全性を確保することができる。
[0079] また、接触パターン(3)では、インピーダンス制御動作前よりも第 1関節部 14が固く 、人 38の移動速度の第 2リンク 11に垂直な成分 vi2に応じて、衝突予定位置の属す る第 2リンク 11の衝突予定位置よりも根元部(台部 13)に最も近い側の関節部である 第 2関節部 15がインピーダンス制御動作前よりも柔らかく設定されるため、人 38が第 2リンク 11に衝突する衝撃を、第 2関節部 15の柔軟性で吸収できるため、安全性を 確保することができる。また、上記とは逆に、第 1関節部 14を柔らかぐ第 2関節部 15 を固く設定する場合に比べて、衝突時にかかる慣性は第 2リンク 11の慣性が主であり 、第 1リンク 12の慣性は力からないため、衝突時の衝撃を小さくすることができる。
[0080] なお、接触パターン (3)では、第 1関節部 14を柔らかぐ第 2関節部 15を固く設定 する場合の他に、第 1関節部 14と第 2関節部 15を共に、他の第 3関節部 16及び第 4 関節部 17よりも柔らかぐすなわち、衝突予定位置の属する第 2リンク 11より根元部( 台部 13)に近い側の全ての関節部を、それ以外の関節部よりも柔ら力べする方法も考 えられる。
[0081] この方法では、関節部に可動範囲がある場合に、より安全にすることが可能である 。各関節部に可動範囲がある場合、衝突により関節部が動作し、可動範囲を越えると それ以上は関節部を動かすことができなくなるため、柔軟性を発揮することができなく なる。しかし、根元部(台部 13)に近い側の関節部を、それ以外の関節部よりも、すべ て柔らかくする場合、第 1関節部 14と第 2関節部 15の可動範囲が加算され、より大き な可動範囲が取れるため、柔軟性を発揮できる範囲が大きくなり安全性を高くするこ とがでさる。
[0082] 次に、図 4を使い、動作制御手段 7の詳細について説明する。
[0083] 図 4において、 8は制御対象である図 1に示したロボットアームである。ロボットァー ム 8からは、それぞれの関節軸のエンコーダ 35により計測された関節角の現在値(関 節角度ベクトル) q= [q , q , q , q ]Tが出力され、カウンタボード 23により制御装置
1 2 3 4
に取り込まれる。ただし、 q , q , q , qは、それぞれ、第 1関節部 14、第 2関節部 15 、第 3関節部 16、第 4関節部 17の関節角度である。
[0084] 24は作業目標軌道生成手段であり、目標とするロボットアーム 8の作業を実現する ための手先位置'姿勢目標ベクトル r が出力される。図 7に示すように、目標とする口 wd
ボットアーム 8の動作は、目的とする作業に応じて、ティーチングによるポイントごとの 位置 (r 、r 、r · · ·)が事前に与えられており、目標軌道生成手段 24は多項式 wdO wdl wd2
補間を使用し、各ポイントごとの位置間の軌道を補完し、手先位置'姿勢目標べタト ル r を生成する。ただし、上記位置 r は時間 t=0のときの位置、 r は時間 t=t wd wdO wdl 1 のときの位置、 r は時間 t=tのときの位置と仮定する。
wd2 2
[0085] 目標軌道生成手段 24から逆運動学計算手段 25に入力された手先位置 ·姿勢目標 ベクトル r は、逆運動学計算手段 25により関節目標ベクトル q へと変換される。
wd wa
[0086] 26は目標軌道切換手段であり、目標軌道切換手段 26には、逆運動学計算手段 2 5から関節目標ベクトル q 力 衝突対応動作生成手段 6から衝突対応動作関節目標 wd
ベクトル q 力 人接近検知手段 3から衝突対応動作切換指令がそれぞれ入力されて id
いる。通常は、作業目標軌道生成手段 24により生成された手先位置 ·姿勢目標べク トル r が逆運動学計算手段 25により変換された関節目標ベクトル q を目標軌道切 wd wd 換手段 26は選択し、関節目標ベクトル qとして目標軌道切換手段 26から出力する。
d
しかしながら、人接近時に人接近検知手段 3から衝突対応動作切換指令を目標軌道 切換手段 26が受け取ると、衝突対応動作生成手段 6から入力された接触動作関節 目標ベクトル qを目標軌道切換手段 26は選択し、関節目標ベクトル qとして目標軌 id d
道切換手段 26から出力する。
[0087] 27はトルク推定手段であり、人 38とロボットアーム 8の接触によってロボットアーム 8 の各関節部に加わる外力トルクを推定する。トルク推定手段 27には、モータドライバ 19の電流センサで計測された、ロボットアーム 8の各関節部を駆動するモータ 34を 流れる電流値 i= [i , i , i , i ]Tが AZDボード 22を介して取り込まれ、また、関節角
1 2 3 4
の現在値 q及び、後述する関節角度誤差補償出力 u が関節誤差補償手段 30から qe
取り込まれる。トルク推定手段 27は、オブザーバ一として機能し、以上の電流値 i、関 節角の現在値 q、関節角度誤差補償出力 u よりロボットアーム 8に加わる外力により qe
、各関節部に発生するトルク τ = [ τ 、 τ 、 τ 、 τ ]Τを算出する。
ext lex 2ext 3ext [0088] 関節インピーダンス計算手段 28は、ロボットアーム 8に機械インピーダンスを実現す る機能を果たす部分であり、人 38が接近していない通常動作の際は 0を関節インピ 一ダンス計算手段 28から位置制御系 31の入力側に出力する。一方、人 38が接近し 、衝突対応動作生成手段 6から接触動作切換指令を受け取ると、衝突対応動作生成 手段 6で設定された機械インピーダンスパラメータ I、 D、 Kと、関節角の現在値 qと、ト ルク推定手段 27が推定した外力トルク τ より、ロボットアーム 8の各関節部ごとに機
ext
械インピーダンスを実現するための関節目標補正出力 q を以下の式(12)により関 節インピーダンス計算手段 28で計算し、位置制御系 31の入力側に出力する。関節 目標補正出力 q は、目標軌道切換手段 26の出力する関節目標 qに位置制御系 3
1の入力側で加算され、補正関節目標ベクトル q が生成されて位置制御系 31に入 力される。
[0089] [数 20] q = (52I + 5D + K) 式 ( 1 2 ) ただし、
[数 21]
0 0 0
0 12 0 0
式 ( 1 3
0 0 0
0 0 0 h
[数 22]
1 0 0
0 D, 0
D 式 ( 1 4 )
0 0
[数 23] κ、 0 0 0
0 κ2 0 0
0 0 0
0 0 0 であり、 Sはラプラス演算子である。
[0090] 30は位置制御系 31内の関節誤差補償手段であり、ロボットアーム 8において計測 される関節角度ベクトルの現在値 qと、関節補正目標ベクトル q との
dm 誤差 q
eが関節誤 差補償手段 30に入力され、関節誤差補償手段 30から関節誤差補償出力 u がロボ qe ットアーム 8に向けて出力される。
[0091] 関節誤差補償出力 u は、 DZAボード 21を介してモータドライバ 19に電圧指令値 qe
として与えられ、各関節軸が正逆回転駆動されてロボットアーム 8が動作する。
[0092] なお、上記動作制御手段 7は、上記したように、目標軌道生成手段 24と逆運動学 計算手段 25と目標軌道切換手段 26とトルク推定手段 27と関節インピーダンス計算 手段 28と位置制御系 31とより構成されて 、る。
[0093] 以上のように構成される動作制御手段 7に関して動作の原理について説明する。
[0094] 動作の基本は、関節誤差補償手段 30による関節ベクトル (関節角の現在値) qのフ イードバック制御 (位置制御)であり、図 4の点線で囲まれた部分が位置制御系 31に なっている。関節誤差補償手段 30として、例えば、 PID補償器を使用すれば、関節 誤差 q力 SOに収束するように制御が働き、目標とするロボットアーム 8の動作が実現す e
る。
[0095] 人 38の衝突警戒領域 100への侵入を人接近検知手段 3により検知した場合、上記 説明した位置制御系 31に対し、関節インピーダンス計算手段 28により関節目標補 正出力 q 1S 目標軌道切換手段 26の出力する関節目標 qに位置制御系 31の入 ά Δ d
力側で加算され、関節部の目標値の補正が行われる。このために、上記した位置制 御系 31は、関節部の目標値が本来の値より微妙にずれることになり、結果的に機械 インピーダンスが実現される。関節目標補正出力 q は式(12)により関節インピーダ ンス計算手段 28で算出されるため、慣性 I、粘性 D、剛性 Kの機械インピーダンスが 実現される。 [0096] 以上の原理に基づく動作制御手段 7の動作を実現する制御プログラムの実際の動 作ステップについて、図 5のフローチャートに基づいて説明する。
[0097] ステップ 1では、エンコーダ 35により計測された関節角度データ(関節変数ベクトル 又は関節角度ベクトル q)が制御装置 1に取り込まれる。
[0098] 次いで、ステップ 2では、制御装置 1のメモリ(図示せず)に予め記憶されていたロボ ットアーム 8の動作制御プログラム 18に基づき、動作制御手段 7の作業目標軌道生 成手段 24によりロボットアーム 8の手先位置'姿勢目標ベクトル r が計算される。
wd
[0099] 次いで、ステップ 3では、手先位置 ·姿勢目標ベクトル r 1S 逆運動学計算手段 25
wd
において関節目標 q に変換される。
wd
[0100] 次いで、ステップ 4では、 目標軌道切換手段 26により目標軌道の切換が行われる。
人 38の衝突警戒領域 100への侵入がない場合には、作業動作を実行するため、ス テツプ 5Aへ進む。一方、人 38の衝突警戒領域 100への侵入があった場合には、衝 突対応動作を実行するためステップ 5Bへ処理を進める(目標軌道切換手段 26での 処理)。
[0101] ステップ 5Bでは、関節目標ベクトル qを、衝突対応動作生成手段 6が生成した接
d
触動作関節目標ベクトル q とする(目標軌道切換手段 26での処理)。その後、ステツ
id
プ 6に進む。
[0102] ステップ 5Aでは、関節目標ベクトル qを関節目標 q とする。 (目標軌道切換手段 2
d wd
6での処理)。その後、ステップ 8に進む。
[0103] ステップ 6では、それぞれのモータ 34の駆動電流値 iと、関節角度データ(関節角度 ベクトル(関節角の現在値) q)と、関節角度誤差補償出力 u から、ロボットアーム 8の
qe
関節部における外力トルクて 力 トルク推定手段 27により計算される(トルク推定手
ext
段 27での処理)。
[0104] 次 、で、ステップ 7では、衝突対応動作生成手段 6にお 、て設定された機械インピ 一ダンスパラメータ I、 D、 Kと、関節角度データ(関節角度ベクトル q)と、トルク推定手 段 27により計算されたロボットアーム 8に加わる外力トルク τ から、関節目標補正出
ext
力 q 力 関節インピーダンス計算手段 28により計算される(関節インピーダンス計算 手段 28での処理)。 [0105] 次いで、ステップ 8では、関節目標ベクトル qと関節目標補正出力 q の和として補 d ά Δ
正関節目標ベクトル q が計算されて位置制御系 31に入力される。
dm
[0106] 次いで、ステップ 9では、補正関節目標ベクトル q と現在の関節ベクトル qとの差で dm
ある関節部の誤差 qが関節誤差補償手段 30に入力され、関節角度誤差保証出力 u
e
が関節誤差補償手段 30で計算される(関節誤差補償手段 30での処理)。関節誤 qe
差補償手段 30の具体例としては PID補償器が考えられる。定数の対角行列である 比例、微分、積分の 3つのゲインを適切に調整することにより、関節誤差が 0に収束 するように制御が働く。
[0107] 次いで、ステップ 10では、関節角度誤差補償出力 u 力 ¾ZAボード 21を通じ、モ qe
ータドライバ 19に与えられ、それぞれの関節部のモータ 34を流れる電流量を変化さ せることによりロボットアーム 8のそれぞれの関節軸の回転運動が発生する。
[0108] 以上のステップ 1〜ステップ 10が制御の計算ループとして繰り返し実行されることに より、ロボットアーム 8の動作の制御が実現する。
[0109] 次に、本発明の第 1実施形態における制御装置 1の全体的な動作について、ロボッ トアーム 8のハンド 9で物体を把持し、運搬する作業を例に、図 6のフローチャートに 基づいて説明する。
[0110] ステップ 21では、人運動検出手段 2において、画像撮像装置 36の画像データより 画像認識処理を行 ヽ、ロボットアーム 8に接近する人 38の位置並びに移動速度及び 移動方向の情報を検出する。
[0111] 次いで、ステップ 22では、人 38の衝突警戒領域 100への侵入判断が人接近検知 手段 3により行なわれ、侵入無しと人接近検知手段 3で判断された場合には、ステツ プ 23へ進む。
[0112] ステップ 23では、ロボットアーム 8は動作制御手段 7により動作制御されて、ロボット アーム 8のハンド 9で物体を把持し、運搬する作業動作を行なう。
[0113] ステップ 23の後はステップ 21に戻り、人接近検知手段 3で人 38の侵入が確認され ない限り、ステップ 21→ステップ 22→ステップ 23→ステップ 21 · · ·のループが繰り返 され、ロボットアーム 8は通常の上記物体把持及び運搬作業を実行する。
[0114] ステップ 22において人 38の侵入が確認された場合、ステップ 24へ進み、衝突位置 推定手段 5により衝突予定位置
[数 24]
X P "'い y , )
が推定される。
[0115] 次いで、ステップ 24. 1では、衝突予定位置 Xと絶対座標系 32の原点 O間の距離
P 0
L を衝突対応動作生成手段 6算出し、距離 L と長さ Lを衝突対応動作生成手段 6
1
比較し、式 (3A)の不等式の場合を接触パターン(1)、式 (3B)の不等式の場合を接 触パターン (2)、その他の場合を接触パターン (3)であると、衝突対応動作生成手段 6により判断する。
[0116] 次!、で、ステップ 25では、衝突予定位置
[数 25]
X P { X i , y , ) で衝突対応姿勢をとるための、衝突対応動作目標軌道 q (t)が衝突対応動作目標 軌道生成手段 6において式 (4)により生成される。
[0117] 次いで、ステップ 26では、衝突対応姿勢において設定する関節部の機械インピー ダンス値が、接触パターン(1)〜(3)に応じて、また、接近する人 38の移動速度に応 じて、先に、関節部の機械インピーダンスを決定の仕方として述べたように、衝突対 応動作目標軌道生成手段 6によって設定される。
[0118] 次いで、ステップ 27では、動作制御手段 7において、 目標軌道切換手段 26が動作 し、衝突対応動作目標軌道 q (t)が選択され、位置制御系によりロボットアーム 8が動 作し、衝突対応姿勢となる。また、関節インピーダンス計算手段 28も動作し、ロボット アーム 8の各関節部は設定した機械インピーダンス値に個別に制御される。
[0119] 次いで、ステップ 28では、人運動検出手段 2において、画像撮像装置 36の画像デ ータより画像認識処理を行い、ロボットアーム 8に接近する人 38の位置並びに移動 速度及び移動方向の情報を検出する。
[0120] 次 ヽで、ステップ 29では、人 38の衝突警戒領域 100への侵入判断が人接近検知 手段 3で行なわれ、侵入有りと人接近検知手段 3で判断された場合には、ステップ 27 へ戻り、人 38の衝突警戒領域 100からの離脱が確認されない限り、ステップ 27→ス テツプ 28→ステップ 29→ステップ 27· · ·のループが繰り返され、ロボットアーム 8は衝 突対応動作を継続する。
[0121] 一方、ステップ 29において、人 38の衝突警戒領域 100への侵入無しと人接近検知 手段 3で判断された場合には、ステップ 21へと戻り、ロボットアーム 8は通常の上記物 体把持及び運搬作業動作へと復帰する。
[0122] 以上の動作ステップ 21〜ステップ 29により、ロボットアーム 8による上記物体把持及 び運搬作業が実現し、人 38が接近した際には衝突対応動作への切換が実現する。
[0123] 以上のように、人運動検出手段 2、人接近検知手段 3、衝突位置推定手段 5、衝突 対応動作制御手段 4を備える事により、ロボットアーム 8に人 38が接近したときに、人
38の運動に応じた適切な姿勢で動作し、適切な関節部の機械インピーダンスで、人
38と上記ロボットアーム 8の衝突に対応する衝突対応動作を制御することが可能とな る。
[0124] ロボットアーム 8は根元部である台部 13にて床面に固定されているため、衝突予定 位置より根元部(台部 13)側の関節部において、他の関節部よりも剛性が低く動きや すい状態の関節部が無いと、衝突に対する抗力が発生し、衝撃力が発生してしまうこ とになる。しかし、本発明の上記第 1実施形態によれば、ロボットアーム 8の各関節部 ごとに個別に機械インピーダンスを設定するとき、他の関節部よりも根元 (台部 13)側 の関節部において剛性が低く動きやすい状態の関節部が設定されるため、その関節 部で衝突時にかかる力を逃がすことができ、人に対する衝撃力は小さくなり、安全性 を高くすることができる。
[0125] したがって、本発明の上記第 1実施形態の制御装置 1によれば、多関節型のロボッ トアーム 8であっても安全に人と接触することができ、さらに、人の動きに応じた最適な 接触動作が可能で、人へ接触のダメージを与えることなく人と共存することができる 安全なロボットアーム 8の動作制御を実現できる。
[0126] なお、上記第 1実施形態では、ロボットアーム 8の関節部の数を 3とした力 これに限 られるわけではなぐ 2関節部以上のロボットアーム 8において同様の効果を発揮する [0127] また、上記第 1実施形態では、ロボットアーム 8と人との衝突を例に説明を行ったが 、これに限られるわけではなぐ移動ロボットや移動中のワゴン等、その他の移動体と ロボットアーム 8との衝突でも同様の効果を発揮する。
[0128] なお、上記第 1実施形態では、衝突警戒領域 100に人 38が進入した場合に、一度 、衝突予定位置の推定を行うとしたが、これに限られるわけではなぐ継続して衝突 予定位置の推定を連続的に行う方法も可能である。この場合、衝突の推定精度が向 上するため、より最適な姿勢、接触パターンで対応することができ、さらに安全性を向 上することができる。一方、上記第 1実施形態のように、一度、衝突予定位置の推定 を行う場合は、計算量が少なくでき、 CPUへの不可を軽減できるという利点がある。
[0129] (第 2実施形態)
図 8A及び図 8Bは本発明の第 2実施形態におけるロボットアームの制御装置 1の構 成及び制御対象であるロボットアーム 8の構成を示す図並びに上記第 2実施形態に おける上記制御装置の動作制御手段の詳細構成を示すブロック線図である。本発明 の第 2実施形態における制御装置 1の基本的な構成は、図 1に示した第 1実施形態 の場合と同様であるので、共通部分の説明は省略し、異なる部分についてのみ以下 、詳細に説明する。
[0130] 本発明の第 2実施形態では、画像認識処理ではなぐロボットアーム 8と人 38が接 触することにより発生する力を検出することにより、人運動検出及び人接近検知を行 う。そのため、人運動検出手段 2には、動作制御手段 7のトルク推定手段 27から外力 トルク情報が入力される構造となっている。従って、第 2実施形態における制御装置 1 では画像撮像装置 36は不要となっている。
[0131] 人運動検出手段 2は、トルク推定手段 27が推定した外力トルク τ = [ τ 、 τ ext lex 2ext
、 τ 、 τ ]Tを基に、以下のパターンにて、ロボットアーム 8と人 38の相対的な位
3ext 4ext
置関係を推定する。ただし、図 9A〜図 9Dにおいて(ロボットアーム 8を上方側から見 下ろして)関節部を左回りに回そうとするトルクを正のトルクと定義する。
[0132] (1)第 1関節部 14の外力トルク τ >0、第 2関節部 15の外力トルク τ Oの場 lext 2ext 合:図 9Aのように、人 38の第 1リンク 12での接触と、人運動検出手段 2で推定する。
[0133] (2)第 1関節部 14の外力トルク τ く 0、第 2関節部 15の外力トルク τ Oの場 合:図 9Bのように、人 38の第 1リンク 12での接触と、人運動検出手段 2で推定する。
[0134] (3)第 1関節部 14の外力トルク τ >0、第 2関節部 15の外力トルク τ >0の場
lext 2ext 合:図 9Cのように、人 38の第 2リンク 11での接触と、人運動検出手段 2で推定する。
[0135] (4)第 1関節部 14の外力トルク τ く 0、第 2関節部 15の外力トルク τ く 0の場
lext 2ext 合:図 9Dのように、人 38の第 2リンク 11での接触と、人運動検出手段 2で推定する。
[0136] 以上の 4パターンによる分類を行えば、ロボットアーム 8と人 38の大まかな位置関係 を知ることができる。また、人接近検知手段 3は、第 1関節部 14の外力トルク τ
lext
、第 2関節部 15の外力トルク τ 0の状態から上記(1)〜 (4)のパターンのいづ
2ext
れかに外力トルクが変化するのを検知することで、人 38の接近を検知することになる
[0137] 以上の方法により、人 38の概略位置を推定することで、衝突対応動作制御手段 4 で、位置関係に応じた姿勢、関節トルクを制御することにより、人 38と共存することが できる安全なロボットアーム 8の動作制御が可能となる。
[0138] なお、上記第 1実施形態では、人運動検出手段 2を画像認識処理によるとしたが、 これに限られるわけではなぐその他のセンシング手段、例えば、レーザーレーダー センサや、超音波センサ等、人 38の位置と速度が検出できるものであれば、同様の 効果を発揮することができる。
[0139] また、上記第 2実施形態では、トルク推定手段 27の推定した外力トルクを基に人検 知を行うとした力 これに限られるわけではなぐ図 10に示すように、ロボットアーム 8 のリンク 12, 11など、人 38が接触する可能性のある部分に接触センサ 39を衝突位 置取得手段の一例として設けて、接触センサ 39に人 38が接触することにより人検知 を行うことでも、同様の効果を発揮することができる。また、接触センサと外力トルクを 利用した人検知を併用すれば推定精度が向上し、さらに安全なロボットアーム 8の制 御を行なうことができる。
[0140] なお、上記第 2実施形態では、ロボットアーム 8の関節の数を 3とした力 これに限ら れるわけではなぐ 2関節以上のロボットアーム 8において同様の効果を発揮する。
[0141] また、上記第 2実施形態では、ロボットアーム 8と人との衝突を例に説明を行ったが 、これに限られるわけではなぐ移動ロボットや移動中のワゴン等、その他の移動体と ロボットアーム 8との衝突でも同様の効果を発揮する。
[0142] また、上記第 1及び第 2実施形態ではロボットアーム 8を例に説明したが、アームに 限らず、車輪により動く移動ロボットや、 2足歩行ロボット、多足歩行ロボットなどの移 動体でも、本体と人との接触に置いて本発明を適用することにより、本発明と同様の 効果を発揮することができる。
[0143] なお、上記様々な実施形態のうちの任意の実施形態を適宜組み合わせることにより
、それぞれの有する効果を奏するようにすることができる。
産業上の利用可能性
[0144] 本発明のロボットアームの制御装置及び制御方法、ロボット、及びロボットアームの 制御プログラムは、家庭用ロボットなど人と接する可能性があるロボットアームの動作 の制御を行うロボットアームの制御装置及び制御方法、ロボット、及びロボットアーム の制御プログラムとして有用である。また、家庭用ロボットに限らず、産業用ロボットや 、生産設備等における可動機構の制御装置としても適用が可能である。
[0145] 本発明は、添付図面を参照しながら好ましい実施形態に関連して充分に記載され ているが、この技術の熟練した人々にとつては種々の変形や修正は明白である。そ のような変形や修正は、添付した請求の範囲による本発明の範囲から外れない限り において、その中に含まれると理解されるべきである。

Claims

請求の範囲
[1] 多関節型ロボットアームの制御装置であって、
人または移動体と上記多関節型ロボットアームの衝突位置を取得する衝突位置取 得手段と、
上記衝突位置取得手段が取得した、上記人または移動体と上記多関節型ロボット アームの上記衝突位置に基づいて上記衝突位置の属する上記多関節型ロボットァ ームのリンクより根元部に近い側の関節部の剛性を他の関節部の剛性よりも低下させ る衝突対応動作を行なうように制御する衝突対応動作制御手段とを有するロボットァ ームの制御装置。
[2] 上記衝突対応動作制御手段は、上記衝突位置の属する上記多関節型ロボットァー ムのリンクの上記根元部に最も近い側の関節部の剛性を他の関節部の剛性よりも低 下させる上記衝突対応動作を行なうように制御する請求項 1に記載のロボットアーム の制御装置。
[3] 上記衝突対応動作制御手段は、上記衝突位置の属する上記多関節型ロボットァー ムのリンクより手首部に近い側の関節部の剛性を維持またはさらなる剛性を与えるこ とで、上記衝突対応動作を行なうように制御する請求項 1または請求項 2に記載の口 ボットアームの制御装置。
[4] 上記衝突対応動作制御手段は、上記衝突位置の属する上記多関節型ロボットァー ムの上記リンクより手首部に近い側の各関節部ごとに個別に関節角度を制御すること で、上記衝突対応動作を行なうように制御する請求項 1又は 2に記載のロボットァー ムの制御装置。
[5] 上記人または移動体の運動を検出する運動検出手段をさらに備え、
上記衝突位置取得手段は、上記運動検出手段の検出結果に基づ!、て上記人また は移動体と上記多関節型ロボットアームの上記衝突位置を推定して上記衝突位置を 取得し、
上記衝突対応動作制御手段は、上記衝突位置取得手段で推定した上記衝突位置 に基づ!/、て上記衝突対応動作を行なうように制御する請求項 1又は 2に記載のロボッ トアームの制御装置。
[6] 上記運動検出手段の検出結果に基づいて上記ロボットアームに上記人または移動 体が接近したことを検知する接近検知手段をさらに備え、
上記衝突対応動作制御手段は、上記接近検知手段が上記人または移動体の接近 を検知したときに、上記衝突対応動作を行なうように制御する請求項 5に記載のロボ ットアームの制御装置。
[7] 上記衝突対応動作制御手段は、上記運動検出手段の検出した上記人または移動 体の運動の速度成分に基づ 、て、上記衝突対応動作を行なうように制御する請求項
5または請求項 6に記載のロボットアームの制御装置。
[8] 上記運動検出手段は、上記人または移動体の位置と移動速度を検出して上記人 の運動を検出する請求項 5〜請求項 7のいずれか 1つに記載のロボットアームの制御 装置。
[9] 多関節型ロボットアームの制御方法であって、
上記ロボットアームに接近する人または移動体の運動を運動検出手段で検出し、 上記運動検出手段で検出された上記人または移動体の運動検出結果に基づいて 上記ロボットアームに上記人または移動体が接近したことを接近検知手段で検知し、 上記接近検知手段により上記人または移動体の接近を検知したときに、上記運動 検出手段で検出した上記人または移動体の上記運動に基づいて上記人または移動 体と上記多関節型ロボットアームの上記衝突位置を推定して上記衝突位置を衝突位 置取得手段で取得するとともに、衝突対応動作制御手段により、上記衝突位置取得 手段で取得した上記衝突位置の属する上記多関節型ロボットアームのリンクより根元 部に近い側の関節部の剛性を他の関節部の剛性よりも低下させることで、上記人と 上記ロボットアームの衝突に対応する衝突対応動作を行なうように制御するロボットァ ームの制御方法。
[10] 上記多関節型ロボットアームと、
上記ロボットアームを制御する請求項 1〜請求項 8のいずれか 1つに記載のロボット アームの制御装置とを有して、
上記人または移動体と上記ロボットアームの衝突に対応する上記衝突対応動作を 上記衝突対応動作制御手段により行なうように制御するロボット。 コンピューターを、
人または移動体と多関節型ロボットアームの衝突位置を取得する衝突位置取得手 段と、
上記衝突位置取得手段が取得した、上記人または移動体と上記多関節型ロボット アームの上記衝突位置に基づいて上記衝突位置の属する上記多関節型ロボットァ ームのリンクより根元部に近い側の関節部の剛性を他の関節部の剛性よりも低下させ る衝突対応動作を行なうように制御する衝突対応動作制御手段として機能させるた めのロボットアームの制御プログラム。
PCT/JP2007/062984 2006-07-04 2007-06-28 Apparatus and method for controlling robot arm, robot, and robot arm control program Ceased WO2008004487A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2007800149419A CN101432103B (zh) 2006-07-04 2007-06-28 机器人手臂的控制装置
US12/096,106 US8676379B2 (en) 2006-07-04 2007-06-28 Device and method for controlling robot arm, robot, and robot arm control program
JP2007551501A JP4243309B2 (ja) 2006-07-04 2007-06-28 ロボットアームの制御装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006184172 2006-07-04
JP2006-184172 2006-07-04

Publications (1)

Publication Number Publication Date
WO2008004487A1 true WO2008004487A1 (en) 2008-01-10

Family

ID=38894459

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/062984 Ceased WO2008004487A1 (en) 2006-07-04 2007-06-28 Apparatus and method for controlling robot arm, robot, and robot arm control program

Country Status (4)

Country Link
US (1) US8676379B2 (ja)
JP (2) JP4243309B2 (ja)
CN (1) CN101432103B (ja)
WO (1) WO2008004487A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009125886A (ja) * 2007-11-26 2009-06-11 Toyota Motor Corp ロボットアーム
JP2009297810A (ja) * 2008-06-11 2009-12-24 Panasonic Corp マニピュレータの姿勢制御装置および姿勢制御方法
WO2010025828A1 (de) * 2008-08-27 2010-03-11 Kuka Roboter Gmbh Roboter und verfahren zum steuern eines roboters
JP2010120139A (ja) * 2008-11-21 2010-06-03 New Industry Research Organization 産業用ロボットの安全制御装置
CN101890715A (zh) * 2009-04-22 2010-11-24 库卡机器人有限公司 调节机械手的方法及装置
CN102239032A (zh) * 2008-12-03 2011-11-09 Abb研究有限公司 机器人安全系统和方法
JP2016524544A (ja) * 2013-04-26 2016-08-18 ピルツ ゲーエムベーハー アンド コー.カーゲー 自動的に作動する機械を保護するための装置および方法
JP2019166580A (ja) * 2018-03-22 2019-10-03 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
WO2020158642A1 (ja) * 2019-01-31 2020-08-06 ソニー株式会社 ロボットの制御装置、ロボットの制御方法、及びプログラム
WO2023037437A1 (ja) * 2021-09-08 2023-03-16 東京ロボティクス株式会社 無人飛行機、飛行体及び飛行ロボット

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8452443B2 (en) * 2007-10-01 2013-05-28 Abb Research Ltd Method for controlling a plurality of axes in an industrial robot system and an industrial robot system
JP4445038B2 (ja) * 2008-02-06 2010-04-07 パナソニック株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボットの制御装置の制御プログラム
KR101537039B1 (ko) * 2008-11-28 2015-07-16 삼성전자 주식회사 로봇 및 그 제어방법
CN104308849B (zh) * 2009-05-22 2016-06-01 丰田自动车东日本株式会社 作业辅助机器人系统
JP5167548B2 (ja) * 2009-09-01 2013-03-21 川田工業株式会社 吊下げ型協調作業ロボット
JP4962551B2 (ja) * 2009-10-20 2012-06-27 株式会社安川電機 ロボットシステムおよびロボットシステムの制御方法
JP5528095B2 (ja) * 2009-12-22 2014-06-25 キヤノン株式会社 ロボットシステム、その制御装置及び方法
WO2011080856A1 (ja) * 2010-01-04 2011-07-07 パナソニック株式会社 ロボット、ロボットの制御装置、及び制御方法
JP5059978B2 (ja) * 2010-01-25 2012-10-31 パナソニック株式会社 危険提示装置、危険提示システム、危険提示方法およびプログラム
IT1399248B1 (it) * 2010-03-11 2013-04-11 Uni Politecnica Delle Marche Apparecchiatura per la gestione di un sistema di controllo di un macchinario dotato di una parte mobile provvista di almeno un sensore di prossimità e contatto
WO2011161765A1 (ja) * 2010-06-22 2011-12-29 株式会社 東芝 ロボット制御装置
US9199373B2 (en) * 2010-11-26 2015-12-01 Rorze Corporation Robot control device and control method
US8777818B1 (en) * 2010-12-22 2014-07-15 Larry E. Tate, Jr. Training device
CN103118842A (zh) * 2011-03-17 2013-05-22 松下电器产业株式会社 机器人、机器人的控制装置、控制方法以及控制程序
JP2012236244A (ja) * 2011-05-10 2012-12-06 Sony Corp ロボット装置、ロボット装置の制御方法、並びにロボット装置制御用プログラム
EP2708334B1 (en) * 2011-05-12 2020-05-06 IHI Corporation Device and method for controlling prediction of motion
TW201247373A (en) * 2011-05-23 2012-12-01 Hon Hai Prec Ind Co Ltd System and method for adjusting mechanical arm
DE102012108418A1 (de) 2011-09-14 2013-03-14 Robotics Technology Leaders Gmbh Vorrichtung zur sicheren Kollaboration zwischen Mensch und Roboter
WO2013140514A1 (ja) 2012-03-19 2013-09-26 株式会社安川電機 作業ロボットおよびロボットシステム
EP2829371A1 (en) 2012-03-22 2015-01-28 Kabushiki Kaisha Yaskawa Denki Work robot and robot system
DE202012101121U1 (de) * 2012-03-29 2013-07-16 Kuka Systems Gmbh Trenneinrichtung
EP2845065B1 (en) * 2012-05-04 2019-09-18 Leoni Cia Cable Systems SAS Imitation learning method for a multi-axis manipulator
CN104321169A (zh) * 2012-05-21 2015-01-28 株式会社安川电机 机器人及机器人系统
CN104302454B (zh) 2012-05-21 2016-08-17 株式会社安川电机 机器人
JP5802191B2 (ja) * 2012-12-21 2015-10-28 本田技研工業株式会社 リンク機構の制御装置
JP5907859B2 (ja) * 2012-12-21 2016-04-26 本田技研工業株式会社 リンク機構
CN103902020B (zh) * 2012-12-25 2017-04-12 苏茂 数据手套手腕关节检测装置
JP5668770B2 (ja) * 2013-03-15 2015-02-12 株式会社安川電機 ロボットシステム、及び、ロボットシステムの制御方法
EP2824522B1 (en) * 2013-05-06 2017-11-29 ABB Schweiz AG Human safety provision in mobile automation environments
KR20140147267A (ko) * 2013-06-19 2014-12-30 광주과학기술원 위치 제어 산업 로봇의 제어 방법 및 장치
CN103600354B (zh) * 2013-11-08 2016-10-05 北京卫星环境工程研究所 航天器机械臂柔性随动控制重力补偿方法
EP3105015B1 (en) * 2014-02-13 2021-08-18 ABB Schweiz AG Robot sytem and method for controlling the robot system
JP6512216B2 (ja) * 2014-03-14 2019-05-15 ソニー株式会社 ロボットアーム装置、ロボットアーム制御方法及びプログラム
JP5946859B2 (ja) * 2014-04-14 2016-07-06 ファナック株式会社 力に応じて動かすロボットのロボット制御装置およびロボットシステム
CN104020699A (zh) * 2014-05-30 2014-09-03 哈尔滨工程大学 一种移动式视觉识别物料分拣智能机器人控制装置
DE102014210544B4 (de) * 2014-06-04 2023-04-13 Robert Bosch Gmbh Verfahren zur Steuerung eines Manipulators bei einer point-to-point Bewegung
US9908244B2 (en) * 2014-07-02 2018-03-06 Siemens Aktiengesellschaft Warning method and robot system
US10099609B2 (en) * 2014-07-03 2018-10-16 InfoMobility S.r.L. Machine safety dome
JP6140114B2 (ja) * 2014-07-31 2017-05-31 ファナック株式会社 移動式人協調型ロボット
US9740193B2 (en) * 2014-08-08 2017-08-22 Roboticvisiontech, Inc. Sensor-based safety features for robotic equipment
JP6682120B2 (ja) * 2014-10-23 2020-04-15 立花 純江 ロボットティーチング装置
PL3017920T3 (pl) * 2014-11-07 2018-02-28 Comau S.P.A. Robot przemysłowy i sposób sterowania robotem przemysłowym
DE102014222809B3 (de) * 2014-11-07 2016-01-14 Kuka Roboter Gmbh Event-basierte Redundanzwinkelkonfiguartion für Gelenkarmroboter
US9889566B2 (en) 2015-05-01 2018-02-13 General Electric Company Systems and methods for control of robotic manipulation
KR101849894B1 (ko) * 2015-05-21 2018-04-17 닛산 지도우샤 가부시키가이샤 고장 진단 장치 및 고장 진단 방법
WO2016189740A1 (ja) * 2015-05-28 2016-12-01 株式会社安川電機 ロボットシステム、教示治具及び教示方法
US9868213B2 (en) 2015-08-11 2018-01-16 Empire Technology Development Llc Incidental robot-human contact detection
US10215852B1 (en) * 2015-10-05 2019-02-26 Google Llc Robotic radar assistance
JP6850538B2 (ja) 2016-02-08 2021-03-31 川崎重工業株式会社 作業ロボット
JP6481635B2 (ja) * 2016-02-15 2019-03-13 オムロン株式会社 接触判定装置、制御装置、接触判定システム、接触判定方法及び接触判定プログラム
GB2549072B (en) * 2016-03-24 2020-07-29 Cmr Surgical Ltd Robot control
CN109070366B (zh) * 2016-05-16 2021-09-28 三菱电机株式会社 机器人动作评价装置、机器人动作评价方法及机器人系统
JP6755724B2 (ja) * 2016-06-20 2020-09-16 キヤノン株式会社 制御方法、ロボットシステム、および物品の製造方法
CN106725861B (zh) * 2017-02-15 2019-12-10 山东大学 一种手术机器人末端工具碰撞位置检测方法
JP6496335B2 (ja) * 2017-03-03 2019-04-03 ファナック株式会社 ロボットシステム
TWI774666B (zh) * 2017-03-17 2022-08-21 達明機器人股份有限公司 協作型機器手臂的防夾方法
JP7427358B2 (ja) * 2017-07-20 2024-02-05 キヤノン株式会社 ロボットシステム、物品の製造方法、制御方法、制御プログラム、および記録媒体
KR102370879B1 (ko) 2017-09-12 2022-03-07 주식회사 한화 협동로봇제어장치 및 협동로봇을 제어하는 방법
JP6680752B2 (ja) * 2017-11-28 2020-04-15 ファナック株式会社 ロボットの速度を制限する制御装置
JP7483321B2 (ja) 2018-02-13 2024-05-15 キヤノン株式会社 制御装置、制御方法、ロボットシステム、物品の製造方法、表示装置、プログラム及び記録媒体
CN111712356A (zh) * 2018-02-23 2020-09-25 Abb瑞士股份有限公司 机器人系统和操作方法
JP2019150919A (ja) * 2018-03-02 2019-09-12 オムロン株式会社 ロボットシステム
DE102018109320A1 (de) * 2018-04-19 2019-10-24 Gottfried Wilhelm Leibniz Universität Hannover Verfahren zur Erkennung einer Intention eines Partners gegenüber einer mehrgliedrigen aktuierten Kinematik
IT201800005091A1 (it) 2018-05-04 2019-11-04 "Procedimento per monitorare lo stato di funzionamento di una stazione di lavorazione, relativo sistema di monitoraggio e prodotto informatico"
CN109715350B (zh) * 2018-05-07 2022-07-05 深圳蓝胖子机器智能有限公司 机器人及其机械抓手
JP7155660B2 (ja) * 2018-06-26 2022-10-19 セイコーエプソン株式会社 ロボット制御装置およびロボットシステム
CN109240092B (zh) * 2018-11-30 2021-09-10 长春工业大学 基于多智能体可重构模块化柔性机械臂轨迹跟踪控制方法
JP2020089927A (ja) * 2018-12-03 2020-06-11 学校法人立命館 ロボット制御システム
CN109620410B (zh) * 2018-12-04 2021-01-26 微创(上海)医疗机器人有限公司 机械臂防碰撞的方法及系统、医疗机器人
DE102018133349A1 (de) * 2018-12-21 2020-06-25 Pilz Gmbh & Co. Kg Verfahren und Vorrichtung zur Momentschätzung
JP7160118B2 (ja) * 2019-02-08 2022-10-25 日本電気株式会社 制御装置、制御方法、プログラム
DE102020104364B3 (de) * 2020-02-19 2021-05-27 Franka Emika Gmbh Steuerung eines Robotermanipulators bei Kontakt mit einer Person
CN113319844A (zh) * 2020-02-28 2021-08-31 东莞市李群自动化技术有限公司 机械臂控制方法、控制设备和机器人
JP2022113567A (ja) * 2021-01-25 2022-08-04 三菱重工業株式会社 制御装置、位置推定方法及びプログラム
US20240083031A1 (en) * 2021-02-04 2024-03-14 Abb Schweiz Ag Method of Controlling Mechanical Impedance of Robot, Control System and Robot
US20240378846A1 (en) * 2021-09-15 2024-11-14 Sony Group Corporation Robot device and robot control method
US12449546B2 (en) * 2022-04-15 2025-10-21 Zebra Technologies Corporation Lidar sensor system for enabling or disabling use of a robotic arm
WO2025079150A1 (ja) * 2023-10-10 2025-04-17 日本電気株式会社 制御システム、制御方法、およびコンピュータ読み取り可能な記録媒体
KR102807881B1 (ko) * 2024-11-11 2025-05-16 주식회사 브릴스 물품 형상 기반 로봇의 경로 설정 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
CN120533717B (zh) * 2025-07-28 2025-11-04 广东省科学院智能制造研究所 一种交变冲击拆解作业机器人动态特性建模方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002187090A (ja) * 2000-12-21 2002-07-02 Matsushita Electric Works Ltd マニピュレータ
JP2004130460A (ja) * 2002-10-11 2004-04-30 Sony Corp 脚式移動ロボットの動作制御装置及び動作制御方法
JP2004167674A (ja) * 2002-10-29 2004-06-17 Matsushita Electric Ind Co Ltd ロボット把持制御装置及びロボット把持制御方法
JP2004237403A (ja) * 2003-02-06 2004-08-26 Toyota Motor Corp 歩行ロボットの制御用データ作成装置とzmp位置の計算方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2196763A (en) 1986-10-29 1988-05-05 Philips Electronic Associated Solid modeling
US5150026A (en) * 1990-11-19 1992-09-22 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Obstacle avoidance for redundant robots using configuration control
US5737500A (en) * 1992-03-11 1998-04-07 California Institute Of Technology Mobile dexterous siren degree of freedom robot arm with real-time control system
JP3865158B2 (ja) 1997-05-30 2007-01-10 株式会社安川電機 ロボットアームのインピーダンス制御装置
JP2000162062A (ja) 1998-12-01 2000-06-16 Fujitsu Ltd 障害物センサ装置
US7443115B2 (en) 2002-10-29 2008-10-28 Matsushita Electric Industrial Co., Ltd. Apparatus and method for robot handling control
JP2004223663A (ja) 2003-01-24 2004-08-12 Doshisha インピーダンス制御装置、およびインピーダンス制御プログラム
JP2005059161A (ja) 2003-08-18 2005-03-10 Univ Waseda ロボット制御装置
DE102004041821A1 (de) * 2004-08-27 2006-03-16 Abb Research Ltd. Vorrichtung und Verfahren zur Sicherung eines maschinell gesteuerten Handhabungsgerätes
DE102004043514A1 (de) * 2004-09-08 2006-03-09 Sick Ag Verfahren und Vorrichtung zum Steuern einer sicherheitsrelevanten Funktion einer Maschine

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002187090A (ja) * 2000-12-21 2002-07-02 Matsushita Electric Works Ltd マニピュレータ
JP2004130460A (ja) * 2002-10-11 2004-04-30 Sony Corp 脚式移動ロボットの動作制御装置及び動作制御方法
JP2004167674A (ja) * 2002-10-29 2004-06-17 Matsushita Electric Ind Co Ltd ロボット把持制御装置及びロボット把持制御方法
JP2004237403A (ja) * 2003-02-06 2004-08-26 Toyota Motor Corp 歩行ロボットの制御用データ作成装置とzmp位置の計算方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009125886A (ja) * 2007-11-26 2009-06-11 Toyota Motor Corp ロボットアーム
JP2009297810A (ja) * 2008-06-11 2009-12-24 Panasonic Corp マニピュレータの姿勢制御装置および姿勢制御方法
US9579793B2 (en) 2008-08-27 2017-02-28 Kuka Roboter Gmbh Robot and method for controlling a robot
WO2010025828A1 (de) * 2008-08-27 2010-03-11 Kuka Roboter Gmbh Roboter und verfahren zum steuern eines roboters
JP2010120139A (ja) * 2008-11-21 2010-06-03 New Industry Research Organization 産業用ロボットの安全制御装置
CN102239032A (zh) * 2008-12-03 2011-11-09 Abb研究有限公司 机器人安全系统和方法
CN101890715A (zh) * 2009-04-22 2010-11-24 库卡机器人有限公司 调节机械手的方法及装置
EP2243602A3 (de) * 2009-04-22 2012-05-09 KUKA Roboter GmbH Verfahren und Vorrichtung zur Regelung eines Manipulators
JP2016524544A (ja) * 2013-04-26 2016-08-18 ピルツ ゲーエムベーハー アンド コー.カーゲー 自動的に作動する機械を保護するための装置および方法
US10302251B2 (en) 2013-04-26 2019-05-28 Pilz Gmbh & Co. Kg Apparatus and method for safeguarding an automatically operating machine
JP2019166580A (ja) * 2018-03-22 2019-10-03 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7127316B2 (ja) 2018-03-22 2022-08-30 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
WO2020158642A1 (ja) * 2019-01-31 2020-08-06 ソニー株式会社 ロボットの制御装置、ロボットの制御方法、及びプログラム
JPWO2020158642A1 (ja) * 2019-01-31 2021-12-02 ソニーグループ株式会社 ロボットの制御装置、ロボットの制御方法、及びプログラム
US12023811B2 (en) 2019-01-31 2024-07-02 Sony Group Corporation Robot control device and robot control method
JP2024103652A (ja) * 2019-01-31 2024-08-01 ソニーグループ株式会社 ロボットの制御装置、ロボットの制御方法、及びプログラム
US12296481B2 (en) 2019-01-31 2025-05-13 Sony Group Corporation Robot control device and robot control method
WO2023037437A1 (ja) * 2021-09-08 2023-03-16 東京ロボティクス株式会社 無人飛行機、飛行体及び飛行ロボット
JPWO2023037437A1 (ja) * 2021-09-08 2023-03-16

Also Published As

Publication number Publication date
JPWO2008004487A1 (ja) 2009-12-03
CN101432103B (zh) 2012-05-23
CN101432103A (zh) 2009-05-13
JP4243309B2 (ja) 2009-03-25
US8676379B2 (en) 2014-03-18
JP2008302496A (ja) 2008-12-18
US20090171505A1 (en) 2009-07-02

Similar Documents

Publication Publication Date Title
WO2008004487A1 (en) Apparatus and method for controlling robot arm, robot, and robot arm control program
JP4896276B2 (ja) ロボット、ロボットの制御装置、制御方法、及び制御プログラム
JP5261495B2 (ja) 重み行列を用いたリアルタイム自己衝突および障害物回避
JP5114019B2 (ja) エフェクタの軌道を制御するための方法
JP5765355B2 (ja) ロボットピッキングシステム及び被加工物の製造方法
JP4903173B2 (ja) 衝突回避機能を有するロボット
US8112179B2 (en) Multi-joint robot and control program thereof
JP5156836B2 (ja) リアルタイム自己衝突および障害物回避
US20090148035A1 (en) Controller of mobile robot
CN102015223A (zh) 机械手及其控制方法
JP2009039852A (ja) 衝突回避機能を有するロボット
JP6322949B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
US8483876B2 (en) Controller of mobile robot
JP7144754B2 (ja) 多関節ロボットおよび多関節ロボットシステム
Winiarski et al. Multi-sensory feedback control in door approaching and opening
Broquere et al. From motion planning to trajectory control with bounded jerk for service manipulator robots
WO2020161910A1 (ja) 制御装置、制御方法、記録媒体
Pepe et al. A hybrid teleoperation control scheme for a single-arm mobile manipulator with omnidirectional wheels
Sarić et al. Robotic surface assembly via contact state transitions
CN112292238A (zh) 机器人的末端执行器在一末端执行器姿势与另一末端执行器姿势之间转移的方法和系统
Zube et al. Model predictive contact control for human-robot interaction
JP4222338B2 (ja) 適応型ビジュアルフィードバック制御方法
CN112654469A (zh) 机器人的直接示教装置及直接示教方法
Sami et al. Object tracking with a robotic manipulator mounted on ground vehicle using Image Based Visual Servoing
Campos et al. Conveying Surroundings Information of a Robot End-Effector by Adjusting Controller Button Stiffness

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2007551501

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07767778

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12096106

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200780014941.9

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

122 Ep: pct application non-entry in european phase

Ref document number: 07767778

Country of ref document: EP

Kind code of ref document: A1