WO2024201737A1 - Robot control device, robot control method, and program - Google Patents
Robot control device, robot control method, and program Download PDFInfo
- Publication number
- WO2024201737A1 WO2024201737A1 PCT/JP2023/012613 JP2023012613W WO2024201737A1 WO 2024201737 A1 WO2024201737 A1 WO 2024201737A1 JP 2023012613 W JP2023012613 W JP 2023012613W WO 2024201737 A1 WO2024201737 A1 WO 2024201737A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- movable part
- robot
- image
- correspondence relationship
- detection target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Definitions
- This disclosure relates to a robot control device, a robot control method, and a program.
- a single visual sensor e.g., a two-dimensional camera
- the moving part of the robot e.g., a hand, end effector, etc.
- the appearance of the detection target on the workpiece being transported in the transport direction which is included in the image generated by the visual sensor, changes. If the appearance of the detection target included in the image changes, there is a risk that the moving part of the robot cannot be made to properly follow the workpiece being transported in the transport direction with conventional visual feedback that uses a single visual sensor.
- One aspect of the present disclosure is a robot control device that includes an image acquisition unit that acquires image data including a detection target on a workpiece moving in a conveying direction, generated by a visual sensor provided on a movable part of a robot; a storage unit that stores at least a first correspondence relationship that is a correspondence relationship between a first position of the movable part in an optical axis direction of the visual sensor, which is a direction intersecting the conveying direction, and a first detection target position that is a target position on the image where the detection target should be located when the movable part is located at the first position; and a second correspondence relationship that is a correspondence relationship between a second position of the movable part in the optical axis direction and a second detection target position that is a target position on the image where the detection target should be located when the movable part is located at the second position; and a target position setting unit that sets the target position on the image where the detection target should be located based on the first correspondence relationship, the second correspondence relationship, and the position
- FIG. 1 is a diagram illustrating an example of a robot system 100 to which a robot control device 2 of a first embodiment is applied.
- FIG. 2 is a diagram illustrating an example of functional blocks of the robot system 100 shown in FIG. 1 .
- FIG. 2 is a diagram showing a robot 1 and the like included in the robot system 100 shown in FIG. 1 as viewed from the top of FIG. 13 is a diagram for explaining an example of robot teaching executed at a movement start position X1 in the X direction of a movable part 11B (hand) of the robot 1.
- FIG. 5 is a diagram showing an example of an image IM captured by a visual sensor 14 (two-dimensional camera) in the robot teaching shown in FIG. 4.
- FIG. 13 is a diagram for explaining an example of robot teaching executed at a movement end position X2 in the X direction of a movable part 11B (hand) of the robot 1.
- FIG. 7 is a diagram showing an example of an image IM captured by a visual sensor 14 (two-dimensional camera) in the robot teaching shown in FIG. 6.
- 13 is a diagram for explaining an example of control (visual feedback) of the position of the movable part 11B (hand) of the robot 1 executed by the robot control unit 232.
- FIG. 9 is a diagram showing an example of the target position (Hz(X), Vt(X)) of the detection target DT on the image IM that is set by the target position setting unit 231B when the visual feedback shown in FIG. 8 is executed.
- FIG. 4 is a flowchart illustrating an example of a process executed by the robot control device 2 of the first embodiment.
- FIG. 13 is a diagram illustrating an example of a robot control device 2 according to a second embodiment.
- Fig. 1 is a diagram showing an example of a robot system 100 to which a robot control device 2 according to a first embodiment is applied.
- Fig. 2 is a diagram showing an example of functional blocks of the robot system 100 shown in Fig. 1.
- Fig. 3 is a diagram showing a robot 1 and the like included in the robot system 100 shown in Fig. 1 as viewed from the top of Fig. 1.
- a robot system 100 includes a robot 1 and a robot control device 2 .
- the robot system 100 does not include a teaching pendant, but in other examples, the robot system 100 may include a teaching pendant.
- the robot 1 is a six-axis vertical articulated robot.
- the robot 1 includes a plurality of links 11, a plurality of joints 12, a plurality of actuators 13, a visual sensor 14, and a connecting member 15.
- the multiple link parts 11 include a base part 11A, multiple movable parts 11C, and a movable part 11B.
- the multiple movable parts 11C include a part that functions as the torso of the robot 1 and a part that functions as the lower arm of the robot 1.
- the multiple movable parts 11C also include a part that functions as the upper arm of the robot 1 (more specifically, a part on the lower arm side of the upper arm of the robot 1 and a part on the wrist side of the upper arm of the robot 1).
- the multiple movable parts 11C also include a part that functions as the wrist of the robot 1 (more specifically, a part on the upper arm side of the wrist of the robot 1).
- the movable part 11B includes a part (hand) on the tip side of the wrist of the robot 1.
- the joints 12 include a joint 12 that connects the base 11A and the movable part 11C that functions as the torso of the robot 1.
- the joints 12 also include a joint 12 that connects the movable part 11C that functions as the torso of the robot 1 and the movable part 11C that functions as the lower arm of the robot 1.
- the joints 12 also include a joint 12 that connects the movable part 11C that functions as the lower arm of the robot 1 and the movable part 11C that functions as a part of the lower arm side of the upper arm of the robot 1.
- the joints 12 also include a joint 12 that connects the movable part 11C that functions as a part of the lower arm side of the upper arm of the robot 1 and the movable part 11C that functions as a part of the wrist side of the upper arm of the robot 1.
- the joints 12 also include a joint 12 that connects the movable part 11C that functions as a part of the wrist side of the upper arm of the robot 1 and the movable part 11C that functions as a part of the upper arm side of the wrist of the robot 1.
- the multiple joint parts 12 also include a joint part 12 that connects a movable part 11C that functions as the upper arm side part of the wrist of the robot 1 and a movable part 11B (hand) that functions as the tip side part of the wrist of the robot 1.
- the joint portion 12 may function as a linear joint.
- the actuators 13 include an actuator 13 that rotates (turns) the movable part 11C that functions as the body of the robot 1 with respect to the base part 11A.
- the actuators 13 also include an actuator 13 that rotates the movable part 11C that functions as the lower arm of the robot 1 with respect to the movable part 11C that functions as the body of the robot 1.
- the actuators 13 also include an actuator 13 that rotates the movable part 11C that functions as the lower arm side part of the upper arm of the robot 1 with respect to the movable part 11C that functions as the lower arm side part of the upper arm of the robot 1.
- the actuators 13 also include an actuator 13 that rotates the movable part 11C that functions as the wrist side part of the upper arm of the robot 1 with respect to the movable part 11C that functions as the lower arm side part of the upper arm of the robot 1 (i.e., twists the upper arm of the robot 1).
- the actuators 13 also include an actuator 13 that rotates the movable part 11C that functions as the upper arm side part of the wrist of the robot 1 with respect to the movable part 11C that functions as the wrist side part of the upper arm of the robot 1.
- the multiple actuators 13 also include an actuator 13 that rotates movable part 11B (hand) that functions as the tip side part of the wrist of robot 1 relative to movable part 11C that functions as the upper arm side part of the wrist of robot 1 (i.e., twists the wrist of robot 1).
- Each of the multiple actuators 13 is composed of a servo motor.
- the servo motor rotates a rotation shaft of the servo motor based on a control signal from the robot control device 2.
- Each of the multiple actuators 13 (servo motor) has an actuator sensor 13A.
- the actuator sensor 13A is composed of an encoder that detects the position and speed of the rotation shaft of the servo motor.
- the actuator sensor 13A (encoder) outputs actuator sensor data indicating the position and speed of the rotation shaft of the servo motor to the robot control device 2.
- an actuator other than a servo motor may be used as the actuator 13
- an actuator sensor other than an encoder may be used as the actuator sensor 13A.
- the visual sensor 14 is a two-dimensional camera.
- the two-dimensional camera captures an image IM (see FIG. 5, etc.) including a detection target DT on a workpiece W1 being transported in a transport direction (negative side of the Y direction, the front side in FIG. 1, the right side in FIG. 3) by a conveyor C.
- the visual sensor 14 generates data of the image IM including the detection target DT on the workpiece W1 moving in the transport direction and transmits it to the robot control device 2.
- the visual sensor 14 is connected to the movable part 11B (hand) that functions as the tip side part of the wrist of the robot 1 via a connection member 15.
- the visual sensor 14 moves integrally with the movable part 11B (hand).
- the visual sensor 14 is provided on the movable part 11B (hand) of the robot 1.
- the optical axis direction of the visual sensor 14 is set to the X direction. That is, the optical axis direction of the visual sensor 14 is a direction intersecting the conveying direction (Y direction) of the workpiece W1, for example, a direction approximately perpendicular to the conveying direction (Y direction) of the workpiece W1.
- the optical axis of the visual sensor 14 and the conveyor C conveying the workpiece W1 may cross each other, for example, at a three-dimensional intersection (that is, the optical axis of the visual sensor 14 and the conveyor C conveying the workpiece W1 may have a relationship of, for example, a "twist position").
- the optical axis direction of the visual sensor 14 and the conveying direction of the workpiece W1 are not limited to being approximately perpendicular, and may include a slight angular deviation.
- the visual sensor 14 is connected to the movable part 11B (hand) that functions as a part on the tip side of the wrist of the robot 1 via the connection member 15.
- the visual sensor 14 may be connected to a movable part 11C other than the movable part 11B (hand) of the robot 1 via the connection member 15.
- the visual sensor 14 may be connected to the movable part 11C that functions as a part on the upper arm side of the wrist of the robot 1 via the connection member 15.
- the robot control device 2 is configured by a computer having a communication unit 21, a storage unit 22, and a processing unit .
- the communication unit 21 is a communication interface and has an interface circuit for connecting the robot control device 2 to the actuator 13, visual sensor 14, etc. of the robot 1 via, for example, a signal line.
- the storage unit 22 is a memory such as a ROM (Read Only Memory) or a RAM (Random Access Memory), or a storage such as a HDD (Hard Disk Drive) or an SDD (Solid State Drive).
- the storage unit 22 stores programs and various data used in the processing executed by the processing unit 23.
- the processing unit 23 is a processor and has a function as an image processing unit 231 and a function as a robot control unit 232.
- the image processing unit 231 processes the image IM captured by the visual sensor 14 (two-dimensional camera), etc.
- the robot control unit 232 controls the robot 1 (visual feedback) based on the image IM captured by the visual sensor 14 (two-dimensional camera).
- the image processing unit 231 has a function as an image acquisition unit 231A and a function as a target position setting unit 231B.
- the image acquisition unit 231A acquires data of an image IM (see FIG. 5, etc.) including a detection target DT on a workpiece W1 moving in a conveying direction (right side in FIG. 3) generated by the visual sensor 14. That is, the image acquisition unit 231A acquires data of the image IM captured by the visual sensor 14 (two-dimensional camera).
- the target position setting unit 231B sets a target position (Hz(X), Vt(X)) (see FIG. 9) of the detection target DT on the image IM captured by the visual sensor 14 (two-dimensional camera), which is used in the visual feedback executed by the robot control unit 232.
- the target position setting unit 231B sets the target position (Hz(X), Vt(X)) of the detection target DT on the image IM when the position (actual coordinate value) in the X direction of the movable part 11B (hand) of the robot 1 calculated by the position calculation unit 232A described later is X.
- the robot control unit 232 has a function as a position calculation unit 232A and a function as a control unit 232B.
- the position calculation unit 232A calculates the position (more specifically, the position in the X-direction, Y-direction, and Z-direction (X, Y, Z)) of the movable part 11B (hand) of the robot 1 connected to the visual sensor 14 via the connecting member 15, based on the position of the rotation axis of each of the multiple actuators 13 (servo motors) detected by each of the multiple actuator sensors 13A (encoders).
- the control unit 232B executes control (visual feedback) of the position (X, Y, Z) of the movable part 11B (hand) of the robot 1 connected to the visual sensor 14 via the connecting member 15, based on the target position (Hz(X), Vt(X)) of the detection target DT on the image IM set by the target position setting unit 231B.
- control unit 232B executes control to move the movable part 11B (hand (more specifically, the hand holding the workpiece W2)) of the robot 1 closer to the workpiece W1 on the conveyor C in the X direction in visual feedback of the position (X, Y, Z) of the movable part 11B (hand) of the robot 1. Furthermore, the control unit 232B executes control to change the position of the movable part 11B (hand) of the robot 1 in the Y direction to follow the workpiece W1 transported by the conveyor C to the negative side in the Y direction (the right side in Figure 3).
- control unit 232B does not execute control to change the position of the movable part 11B (hand) of the robot 1 in the Z direction.
- control unit 232B may execute control to change the position in the Z direction of the movable part 11B (hand) of the robot 1 in visual feedback of the position (X, Y, Z) of the movable part 11B (hand) of the robot 1.
- control unit 232B executes control to bring the movable part 11B (hand) of the robot 1 closer to the workpiece W1 on the conveyor C in the X direction, and executes control to change the position in the Y direction of the movable part 11B (hand) of the robot 1 to follow the workpiece W1 transported by the conveyor C to the negative side in the Y direction (the right side in FIG. 3 ).
- an operator performs robot teaching to register the position and posture of the robot 1.
- robot teaching to register the position and posture of the robot 1 at the movement start position X1 and movement end position X2 in the X direction of the movable part 11B (hand) of the robot 1.
- Figure 4 is a diagram for explaining an example of robot teaching that is performed at the movement start position X1 in the X direction of the movable part 11B (hand) of the robot 1.
- Figure 5 is a diagram showing an example of an image IM captured by the visual sensor 14 (two-dimensional camera) during the robot teaching shown in Figure 4 (i.e., when the X direction position of the movable part 11B (hand) of the robot 1 is the movement start position X1).
- the operator when performing robot teaching at the X-direction movement start position X1 of the movable part 11B (hand) of the robot 1, the operator sets the X-direction position (actual coordinate value) of the movable part 11B (hand) of the robot 1 to X1. Furthermore, for example, the operator appropriately sets the Y-direction position (actual coordinate value) and the Z-direction position (actual coordinate value) of the movable part 11B (hand) of the robot 1 so that the detection target DT on the workpiece W1 is included in the image IM captured by the visual sensor 14 (two-dimensional camera) as shown in FIG. 5.
- the memory unit 22 stores information indicating the positions of the rotation axes of each of the multiple actuators 13 (servo motors) detected by the actuator sensor 13A when, for example, the operator sets the X-direction position (movement start position X1), Y-direction position, and Z-direction position of the movable part 11B (hand) of the robot 1.
- the visual sensor 14 captures an image IM including the detection target DT on the workpiece W1 shown in Fig. 5, the image acquisition unit 231A acquires data of the image IM, and the storage unit 22 stores the data of the image IM.
- the target position setting unit 231B calculates the position (coordinates) (Hz1, Vt1) of the detection target DT on the image IM shown in Fig. 5.
- the target position setting unit 231B further sets the position (Hz1, Vt1) as the target position of the detection target DT on the image IM captured by the visual sensor 14 when the robot control unit 232 executes visual feedback (more specifically, when the movable part 11B (hand) of the robot 1 starts moving in the X direction when the visual feedback is executed).
- an operator sets the X-direction position (actual coordinate value) of the movable part 11B (hand) of the robot 1 to the movement end position X2, and performs robot teaching at the X-direction movement end position X2 of the movable part 11B (hand) of the robot 1.
- Fig. 6 is a diagram for explaining an example of robot teaching executed at the movement end position X2 in the X direction of the movable part 11B (hand) of the robot 1.
- Fig. 7 is a diagram showing an example of an image IM captured by the visual sensor 14 (two-dimensional camera) in the robot teaching shown in Fig. 6 (i.e., when the position of the movable part 11B (hand) of the robot 1 in the X direction is the movement end position X2).
- an operator changes the X-direction position (actual coordinate value) of the movable part 11B (hand) of the robot 1 from X1 to X2 without changing the Y-direction position (actual coordinate value) and Z-direction position (actual coordinate value) of the movable part 11B (hand) of the robot 1 from the state shown in Fig. 4, and executes robot teaching at the X-direction movement end position X2 of the movable part 11B (hand) of the robot 1.
- the storage unit 22 stores information indicating the positions of the rotation axes of each of the multiple actuators 13 (servo motors) when, for example, the operator changes the X-direction position of the movable part 11B (hand) of the robot 1 from X1 to X2.
- the visual sensor 14 captures an image IM including the detection target DT on the workpiece W1 shown in FIG. 6, the image acquisition unit 231A acquires the data of the image IM, and the memory unit 22 stores the data of the image IM.
- the target position setting unit 231B calculates the position (coordinates) (Hz2, Vt2) of the detection target DT on the image IM shown in FIG. 7.
- the target position setting unit 231B further sets the position (Hz2, Vt2) as the target position of the detection target DT on the image IM captured by the visual sensor 14 when the robot control unit 232 executes visual feedback (more specifically, when the movement of the movable part 11B (hand) of the robot 1 in the X direction ends when executing visual feedback).
- one visual sensor 14 two-dimensional camera
- a connection member 15 is connected to the movable part 11B (hand) of the robot 1 via a connection member 15 and moves integrally with the movable part 11B (hand) of the robot 1. Therefore, when the movable part 11B (hand) of the robot 1 moves in the optical axis direction (X direction) of the visual sensor 14 as shown in Figs. 4 and 6, the appearance of the detection target DT on the workpiece W1 being transported in the transport direction (Y direction) included in the image IM generated (captured) by the visual sensor 14 (two-dimensional camera) changes as shown in Figs. 5 and 7.
- the Y-direction position and Z-direction position of the movable part 11B (hand) of the robot 1 in the state shown in Figures 4 and 5 are the same (unchanged) as the Y-direction position and Z-direction position of the movable part 11B (hand) of the robot 1 in the state shown in Figures 6 and 7.
- the position (coordinates) (Hz1, Vt1) of the detection target DT on the image IM captured by the visual sensor 14 (two-dimensional camera) in the state shown in Figures 4 and 5 differs from the position (coordinates) (Hz2, Vt2) of the detection target DT on the image IM captured by the visual sensor 14 (two-dimensional camera) in the state shown in Figures 6 and 7.
- the horizontal position (coordinate) Hz1 of the detection target DT on the image IM shown in Figure 5 is different from the horizontal position (coordinate) Hz2 of the detection target DT on the image IM shown in Figure 7, so there is a risk that the robot control device 2 will erroneously determine that the position of the workpiece W1 in the transport direction (Y direction) has changed.
- the memory unit 22 stores a first correspondence relationship, which is a correspondence relationship between the movement start position X1 in the X direction of the movable part 11B of the robot 1 and the target position (Hz1, Vt1) on the image IM where the detection target DT should be located when the movable part 11B of the robot 1 is located at the movement start position X1 (i.e., in the state shown in Figures 4 and 5).
- the memory unit 22 also stores a second correspondence relationship, which is a correspondence relationship between the movement end position X2 of the movable part 11B of the robot 1 in the X direction and the target position (Hz2, Vt2) on the image IM where the detection target DT should be located when the movable part 11B of the robot 1 is located at the movement end position X2 (i.e., in the state shown in Figures 6 and 7).
- a second correspondence relationship which is a correspondence relationship between the movement end position X2 of the movable part 11B of the robot 1 in the X direction and the target position (Hz2, Vt2) on the image IM where the detection target DT should be located when the movable part 11B of the robot 1 is located at the movement end position X2 (i.e., in the state shown in Figures 6 and 7).
- the target position setting unit 231B sets the target position (Hz(X), Vt(X)) on the image IM where the detection target DT should be located when the X-direction position of the movable part 11B (hand) of the robot 1 is neither the movement start position X1 nor the movement end position X2, based on the first correspondence relationship, the second correspondence relationship, and the X-direction position X of the movable part 11B of the robot 1.
- the target position (Hz(X), Vt(X)) on the image IM where the detection target DT should be located which is set by the target position setting unit 231B, is represented by a horizontal coordinate value Hz(X) and a vertical coordinate value Vt(X).
- the horizontal coordinate value Hz(X) changes in proportion to the change in the position of the movable part 11B (hand) of the robot 1 in the X direction.
- the vertical coordinate value Vt(X) also changes in proportion to the change in the position of the movable part 11B (hand) of the robot 1 in the X direction.
- the robot control unit 232 controls the position of the movable part 11B (hand) of the robot 1 (visual feedback) based on the position (Hz, Vt) of the detection target DT on the image IM captured by the visual sensor 14 (two-dimensional camera) and the target position (Hz(X), Vt(X)) on the image IM where the detection target DT should be located, set by the target position setting unit 231B.
- the robot control unit 232 controls the position (visual feedback) of the movable part 11B (hand) of the robot 1 so that the position (Hz, Vt) of the detection target DT on the image IM matches the target position (Hz(X), Vt(X)) of the detection target DT on the image IM.
- the robot control unit 232 controls the position of the movable part 11B (hand) of the robot 1 in the X direction based on information stored in the memory unit 22 indicating the movement start position X1 and the movement end position X2 of the movable part 11B (hand) of the robot 1.
- Fig. 8 is a diagram for explaining an example of control (visual feedback) of the position of the movable part 11B (hand) of the robot 1 executed by the robot control unit 232.
- Fig. 9 is a diagram showing an example of the target position (Hz(X), Vt(X)) of the detection target DT on the image IM set by the target position setting unit 231B when the visual feedback shown in Fig. 8 is executed. As shown in FIG.
- the trajectory of the target position (Hz(X), Vt(X)) of the detection target DT on the image IM set by the target position setting unit 231B is a straight line connecting the position (Hz1, Vt1) of the detection target DT on the image IM when the X-direction position of the movable part 11B (hand) of the robot 1 is the movement start position X1, and the position (Hz2, Vt2) of the detection target DT on the image IM when the X-direction position of the movable part 11B (hand) of the robot 1 is the movement end position X2.
- the robot control unit 232 executes control to move the movable part 11B (hand) of the robot 1 closer to the workpiece W1 on the conveyor C in the X direction, and also executes control to change the position of the movable part 11B (hand) of the robot 1 in the Y direction to the negative side in the Y direction (the right side in FIG. 8) by following the workpiece W1 transported by the conveyor C to the negative side in the Y direction (the right side in FIG. 8). Specifically, the workpiece W2 (door) grasped by the movable part 11B (hand) of the robot 1 is attached to the workpiece W1 (car body) transported by the conveyor C to the negative side in the Y direction (the right side in FIG. 8).
- the robot control unit 232 controls the position of the movable part 11B (hand) of the robot 1 only in the transport direction (Y direction) of the workpiece W1 based on the position (Hz, Vt) of the detection target DT on the image IM and the target position (Hz(X), Vt(X)) of the detection target DT on the image IM set by the target position setting unit 231B. That is, in the example shown in Figures 8 and 9, control of the Z-direction position of the movable part 11B (hand) of the robot 1 is different from control of the Y-direction position of the movable part 11B (visual feedback).
- robot teaching is performed at position X1 where the movable part 11B (hand) of the robot 1 starts moving in the X direction
- robot teaching is performed at position X2 where the movable part 11B (hand) of the robot 1 ends moving in the X direction.
- robot teaching may be performed at any two positions between the movement start position X1 and movement end position X2 of the movable part 11B (hand) of the robot 1 in the X direction.
- the storage unit 22 stores a first correspondence relationship between one of two positions (first position) between the movement start position X1 and the movement end position X2 in the X direction of the movable part 11B of the robot 1 and a target position on the image IM where the detection target DT should be located when the movable part 11B of the robot 1 is located at the first position.
- the storage unit 22 also stores a second correspondence relationship between the other of two positions (second position) between the movement start position X1 and the movement end position X2 in the X direction of the movable part 11B of the robot 1 and a target position on the image IM where the detection target DT should be located when the movable part 11B of the robot 1 is located at the second position.
- the target position setting unit 231B sets a target position (Hz(X), Vt(X)) on the image IM where the detection target DT should be located when the position of the movable part 11B (hand) of the robot 1 in the X direction is neither the first position nor the second position, based on the first correspondence relationship, the second correspondence relationship, and the position X in the X direction of the movable part 11B of the robot 1.
- the robot control unit 232 controls the position of the movable part 11B (hand) of the robot 1 (visual feedback) based on the position (Hz, Vt) of the detection target DT on the image IM captured by the visual sensor 14 (two-dimensional camera) and the target position (Hz(X), Vt(X)) on the image IM where the detection target DT should be located, which is set by the target position setting unit 231B.
- FIG. 10 is a flowchart for explaining an example of processing executed by the robot control device 2 of the first embodiment.
- robot teaching is executed to register the position and posture of the robot 1 at a movement start position X1 in the X direction of the movable part 11B (hand) of the robot 1.
- an operator sets the X-direction position (actual coordinate value) of the movable part 11B (hand) of the robot 1 to X1, and also sets the Y-direction position (actual coordinate value) and the Z-direction position (actual coordinate value) of the movable part 11B (hand) of the robot 1 so that the detection target DT on the workpiece W1 is included in the image IM captured by the visual sensor 14 (two-dimensional camera) as shown in FIG. 5.
- step S11A the storage unit 22 stores information indicating the positions of the rotation axes of the actuators 13 (servo motors) detected by the actuator sensors 13A. That is, the position and orientation of the robot 1 at the movement start position X1 in the X direction of the movable part 11B (hand) of the robot 1 are registered.
- step S11B the image acquisition unit 231A acquires data of an image IM (see FIG. 5) including the detection target DT on the workpiece W1 captured by the visual sensor 14, and the memory unit 22 stores the data of the image IM.
- step S11C the target position setting unit 231B calculates the position (coordinates) (Hz1, Vt1) (see FIG. 5) of the detection target DT on the image IM.
- step S11D the target position setting unit 231B sets the position (Hz1, Vt1) as the target position of the detection target DT on the image IM captured by the visual sensor 14 when the movable part 11B (hand) of the robot 1 starts moving in the X direction when the robot control unit 232 executes visual feedback.
- step S11E the memory unit 22 stores a first correspondence relationship between the movement start position X1 in the X-direction of the movable part 11B of the robot 1 and the target position (Hz1, Vt1) on the image IM where the detection target DT should be located when the movable part 11B of the robot 1 is located at the movement start position X1 (i.e., in the state shown in Figures 4 and 5). That is, in step S11, the target position (Hz1, Vt1) of the detection target DT on the image IM when the movable part 11B (hand) of the robot 1 is located at the movement start position X1 is taught.
- step S12 robot teaching is executed to register the position and posture of the robot 1 at the movement end position X2 of the movable part 11B (hand) of the robot 1 in the X direction.
- the position (actual coordinate value) in the X direction of the movable part 11B (hand) of the robot 1 is changed by an operator from X1 to X2.
- step S12A the storage unit 22 stores information indicating the positions of the rotation axes of the actuators 13 (servo motors) detected by the actuator sensors 13A. That is, the position and posture of the robot 1 at the movement end position X2 in the X direction of the movable part 11B (hand) of the robot 1 are registered.
- step S12B the image acquisition unit 231A acquires data of an image IM (see FIG. 7) including the detection target DT on the workpiece W1 captured by the visual sensor 14, and the memory unit 22 stores the data of the image IM.
- step S12C the target position setting unit 231B calculates the position (coordinates) (Hz2, Vt2) (see FIG. 7) of the detection target DT on the image IM.
- step S12D the target position setting unit 231B sets the position (Hz2, Vt2) as the target position of the detection target DT on the image IM captured by the visual sensor 14 at the end of the X-directional movement of the movable part 11B (hand) of the robot 1 when visual feedback is executed by the robot control unit 232.
- step S12E the memory unit 22 stores a second correspondence relationship between the end position X2 of the movement of the movable part 11B of the robot 1 in the X-direction and the target position (Hz2, Vt2) on the image IM where the detection target DT should be located when the movable part 11B of the robot 1 is located at the end position X2 (i.e., in the state shown in Figures 6 and 7). That is, in step S12, the target position (Hz2, Vt2) of the detection target DT on the image IM when the movable part 11B (hand) of the robot 1 is located at the movement end position X2 is taught.
- step S13 the robot control unit 232 executes control (visual feedback) of the position of the movable part 11B (hand) of the robot 1.
- control visual feedback
- an operator sets the position of the movable part 11B (hand) of the robot 1 in the X direction to a movement start position X1, and the control unit 232B starts control (visual feedback) of the Y direction position of the movable part 11B (hand) of the robot 1.
- the robot control unit 232 executes control (different from visual feedback) to change the position of the movable part 11B (hand) of the robot 1 in the X direction from the movement start position X1 to the movement end position X2.
- step S13A the position calculation unit 232A calculates the X-, Y-, and Z-directional positions (X, Y, Z) of the movable part 11B (hand) of the robot 1 connected to the visual sensor 14 via the connecting member 15, based on the positions of the rotation axes of each of the multiple actuators 13 (servo motors) detected by each of the multiple actuator sensors 13A (encoders).
- step S13B the image acquisition unit 231A acquires data of an image IM including the detection target DT on the workpiece W1 captured by the visual sensor 14.
- step S13C the target position setting unit 231B sets a target position (Hz(X), Vt(X)) on the image IM where the detection target DT should be located, based on the first correspondence relationship, the second correspondence relationship, and the position X in the X-direction of the movable part 11B of the robot 1.
- the target position setting unit 231B calculates the horizontal target position Hz(X) of the detection target DT on the image IM and the vertical target position Vt(X) of the detection target DT on the image IM based on the above-mentioned formula. In the example shown in FIG.
- a process of calculating the target position (Hz(X), Vt(X)) of the detection target DT on the image IM is performed during the execution of visual feedback.
- a process of calculating the target position (Hz(X), Vt(X)) of the detection target DT on the image IM may be performed in pre-processing.
- a map is created that shows the correspondence between the position X in the X-direction of the movable part 11B (hand) of the robot 1 and the target position (Hz(X), Vt(X)) of the detection target DT on the image IM.
- the target position (Hz(X), Vt(X)) of the detection target DT on the image IM that corresponds to the position X in the X-direction of the movable part 11B (hand) of the robot 1 is set.
- step S13D the robot control unit 232 controls the Y-direction position (visual feedback) of the movable part 11B (hand) of the robot 1 based on the position (Hz, Vt) of the detection target DT on the image IM indicated by the data acquired in step S13B and the target position (Hz(X), Vt(X)) on the image IM where the detection target DT should be located, which is set in step S13C.
- the robot control unit 232 executes control (visual feedback) of the Y-direction position of the movable part 11B (hand) of the robot 1 so that the position (Hz, Vt) of the detection target DT on the image IM indicated by the data acquired in step S13B coincides with the target position (Hz(X), Vt(X)) on the image IM where the detection target DT should be located, which was set in step S13C.
- the movable part 11B (hand) of the robot 1 can be made to follow the workpiece W1 being transported in the transport direction (Y direction) while moving the X-direction position of the movable part 11B (hand) of the robot 1.
- step S13 while the movable part 11B (hand) of the robot 1 is moved in the X direction, control (visual feedback) of the position of the movable part 11B (hand) of the robot 1 in the Y direction is executed. Furthermore, during execution of the visual feedback, the target position (Hz(X), Vt(X)) of the detection target DT on the image IM is changed according to the position of the movable part 11B (hand) of the robot 1 in the X direction.
- the robot control device 2 of the second embodiment is configured similarly to the robot control device 2 of the above-described first embodiment, except for the points that will be described later.
- FIG. 11 is a diagram showing an example of a robot control device 2 according to the second embodiment.
- the robot control device 2 includes an image processing section 2-1 and a robot control section 2-2.
- the image processing section 2-1 is configured by a computer having a communication section 21-1, a storage section 22-1, and a processing section 23-1.
- the communication unit 21-1 is a communication interface and has an interface circuit for connecting the image processing unit 2-1 to the visual sensor 14 of the robot 1, the robot control unit 2-2, etc., via, for example, a signal line.
- the storage unit 22-1 is a memory such as a ROM or RAM, or a storage such as a HDD or SDD.
- the storage unit 22-1 stores programs and various data used in the processing executed by the processing unit 23-1.
- the processing unit 23-1 is a processor and has a function as an image acquisition unit 231A-1 and a function as a target position setting unit 231B-1.
- the image acquisition unit 231A-1 has the same function as the image acquisition unit 231A shown in FIG. 2.
- the target position setting unit 231B-1 has the same function as the target position setting unit 231B shown in FIG. 2.
- the robot control unit 2-2 is composed of a computer having a communication unit 21-2, a storage unit 22-2, and a processing unit 23-2.
- the communication unit 21-2 is a communication interface, and has an interface circuit for connecting the robot control unit 2-2 to the actuator 13 of the robot 1, the image processing unit 2-1, etc., via, for example, a signal line.
- the storage unit 22-2 is a memory such as a ROM or RAM, or a storage such as a HDD or SDD.
- the storage unit 22-2 stores programs and various data used in the processing executed by the processing unit 23-2.
- the processing unit 23-2 is a processor, and has a function as a position calculation unit 232A-2 and a function as a control unit 232B-2.
- the position calculation unit 232A-2 has the same function as the position calculation unit 232A shown in FIG. 2.
- the control unit 232B-2 has the same function as the control unit 232B shown in FIG. 2.
- the robot system 100 to which the robot control device 2 of the third embodiment is applied is configured similarly to the robot system 100 to which the robot control device 2 of the first embodiment described above is applied, except for the points described below.
- the actuator 13 is configured by a servo motor, and has an encoder as the actuator sensor 13A.
- the actuator 13 is configured by a stepping motor and does not have an actuator sensor.
- the position and speed of the rotation axis of the stepping motor serving as the actuator 13 are estimated based on a control signal (information indicating a drive pulse) transmitted from the robot control device 2 to the stepping motor serving as the actuator 13.
- the position calculation unit 232A calculates the position (more specifically, the position in the X-direction, Y-direction, and Z-direction (X, Y, Z)) of the movable part 11B (hand) of the robot 1 connected to the visual sensor 14 via the connecting member 15, based on the positions of the rotation axes of each of the multiple actuators 13 (stepping motors) estimated based on the control signals (information indicating drive pulses) transmitted to the actuators 13 (stepping motors).
- the robot system 100 to which the robot control device 2 of the fourth embodiment is applied is configured similarly to the robot system 100 to which the robot control device 2 of the first embodiment described above is applied, except for the points described below.
- the robot 1 included in the robot system 100 to which the robot control device 2 of the first embodiment is applied is a six-axis vertical articulated robot.
- the robot 1 included in the robot system 100 to which the robot control device 2 of the fourth embodiment is applied is a robot other than a six-axis vertical articulated robot (e.g., a horizontal articulated robot, a Cartesian coordinate robot, a parallel link robot, etc.).
- the robot control device 2 of the first to fourth embodiments even if the appearance of the detection target DT on the workpiece W1 moving in the transport direction contained in the image IM generated by the visual sensor 14 changes as the visual sensor 14, which is connected to the movable part 11B (hand) of the robot 1 and moves integrally with the movable part 11B (hand) of the robot 1, moves in the optical axis direction of the visual sensor 14, the position of the movable part 11B (hand) of the robot 1 can be appropriately controlled to follow the workpiece W1 moving in the transport direction based on the image IM generated by the visual sensor 14.
- (Appendix 2) The robot control device (2) according to claim 1, wherein the optical axis direction is a direction substantially perpendicular to the conveying direction.
- (Appendix 3) The robot control device (2) according to appendix 1 or 2, further comprising a robot control unit (231; 2-2) that executes control of a position (X) of the movable part (11B) based on a position (Hz, Vt) of the detection target (DT) on the image (IM) and a target position (Hz(X), Vt(X)) on the image (IM) where the detection target (DT) should be located, which is set by the target position setting unit (231B; 231B-1).
- the robot control unit (2) described in Appendix 3 controls the position of the movable part (11B) only in the transport direction based on the position (Hz, Vt) of the detection target (DT) on the image (IM) and the target position (Hz(X), Vt(X)) on the image (IM) where the detection target (DT) should be located, which is set by the target position setting unit (231B; 231B-1), when the movable part (11B) is brought closer to the workpiece (W1) in the optical axis direction.
- the robot control unit (232; 2-2) controls the position (X) of the movable part (11B) in the optical axis direction based on information indicating the first position (X1) and information indicating the second position (X2) stored in the memory unit (22).
- the first position (X1) is a movement start position of the movable part (11B) in the optical axis direction
- the second position (X2) is a movement end position of the movable part (11B) in the optical axis direction
- the first correspondence relationship is a correspondence relationship between the movement start position (X1) and the first detection target position (Hz1, Vt1) which is a target position on the image (IM) where the detection target (DT) should be located when the movable part (11B) is located at the movement start position (X1)
- the second correspondence relationship is a correspondence relationship between the movement end position (X2) and the second detection target position (Hz2, Vt2) which is a target position on the image (IM) where the detection target (DT) should be located when the movable part (11B) is located at the movement end position (X2)
- the robot control device (2) according to any one of Appendices 1 to 5, wherein the target position setting unit (231B; 231B-1) sets a target position (Hz(X), Vt
- the target position (Hz(X), Vt(X)) on the image (IM) where the detection target (DT) is to be positioned which is set by the target position setting unit (231B; 231B-1), is represented by a horizontal coordinate value (Hz(X)) and a vertical coordinate value (Vt(X)); the horizontal coordinate value (Hz(X)) changes in proportion to a change in the position (X) of the movable part (11B) in the optical axis direction;
- the robot control device (2) according to any one of appendices 1 to 7, wherein the vertical coordinate value (Vt(X)) changes in proportion to a change in the position (X) of the movable part (11B) in the optical axis direction.
- Robot system 1 Robot 11 Link section 11A Base section 11B Movable section 12 Joint section 13 Actuator 13A Actuator sensor 14 Visual sensor 15 Connection member 2 Robot control device 21 Communication section 22 Memory section 23 Processing section 231 Image processing section 231A Image acquisition section 231B Target position setting section 232 Robot control section 232A Position calculation section 232B Control section C Conveyor W1 Work DT Detection target W2 Work IM Image
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
Description
本開示は、ロボット制御装置、ロボット制御方法及びプログラムに関する。 This disclosure relates to a robot control device, a robot control method, and a program.
従来、ロボットと、ワークを搬送する搬送装置とを備えた生産ラインが知られている。この生産ラインでは、ロボットは、搬送装置によって搬送方向に搬送されているワークに追従してから、ワークに対する作業を開始する。 Conventionally, there is known a production line equipped with a robot and a transport device that transports workpieces. In this production line, the robot follows the workpiece being transported in the transport direction by the transport device, and then starts working on the workpiece.
搬送方向に搬送されているワークにロボットを追従させるために、ロボットの可動部(例えばハンド、エンドエフェクタ等)に接続されてロボットの可動部と一体的に移動する1台の視覚センサ(例えば2次元カメラ)が用いられる場合、ロボットの可動部が視覚センサの光軸方向に移動すると、視覚センサによって生成される画像に含まれる搬送方向に搬送されているワーク上の検出対象の見え方が変わってしまう。画像に含まれる検出対象の見え方が変わってしまうと、1台の視覚センサが用いられる従来のビジュアルフィードバックでは、搬送方向に搬送されているワークにロボットの可動部を適切に追従させることができないおそれがある。 When a single visual sensor (e.g., a two-dimensional camera) that is connected to the moving part of the robot (e.g., a hand, end effector, etc.) and moves integrally with the moving part of the robot is used to make the robot follow the workpiece being transported in the transport direction, when the moving part of the robot moves in the optical axis direction of the visual sensor, the appearance of the detection target on the workpiece being transported in the transport direction, which is included in the image generated by the visual sensor, changes. If the appearance of the detection target included in the image changes, there is a risk that the moving part of the robot cannot be made to properly follow the workpiece being transported in the transport direction with conventional visual feedback that uses a single visual sensor.
そこで、従来においては、ロボットの可動部に接続されておらず、ロボットの可動部と一体的に移動しない固定の2次元カメラが用いられ、検出対象が2次元カメラの光軸上に位置するタイミングで搬送装置によるワークの搬送が停止させられる(例えば特開2012-161850号公報参照)。そのため、この技術では、2次元カメラによって撮像される画像に含まれる検出対象の見え方が変わらず、ロボットの可動部をワークに追従させることができる。一方、この技術では、固定の2次元カメラを用いる必要があり、2次元カメラの光軸上に検出対象を存在させる必要がある。 Consequently, a fixed two-dimensional camera that is not connected to the moving part of the robot and does not move integrally with the moving part of the robot is used, and the transport of the workpiece by the transport device is stopped when the detection target is positioned on the optical axis of the two-dimensional camera (see, for example, JP 2012-161850 A). Therefore, with this technology, the appearance of the detection target contained in the image captured by the two-dimensional camera does not change, and the moving part of the robot can be made to follow the workpiece. On the other hand, with this technology, it is necessary to use a fixed two-dimensional camera, and the detection target needs to be on the optical axis of the two-dimensional camera.
ロボットの可動部に接続されてロボットの可動部と一体的に移動する視覚センサが視覚センサの光軸方向に移動することに伴い、視覚センサによって生成される画像に含まれる搬送方向に移動するワーク上の検出対象の見え方が変わる場合であっても、視覚センサによって生成される画像に基づいて、搬送方向に移動するワークに追従させてロボットの可動部の位置を適切に制御できることが望まれている。 Even if the appearance of the detection target on the workpiece moving in the transport direction, which is included in the image generated by the visual sensor, changes as the visual sensor, which is connected to the moving part of the robot and moves integrally with the moving part of the robot, moves in the direction of the optical axis of the visual sensor, it is desirable to be able to appropriately control the position of the moving part of the robot to follow the workpiece moving in the transport direction based on the image generated by the visual sensor.
本開示の一態様は、ロボットの可動部に設けられた視覚センサによって生成された搬送方向に移動するワーク上の検出対象を含む画像のデータを取得する画像取得部と、前記搬送方向に交差する方向である前記視覚センサの光軸方向の前記可動部の第1位置と前記可動部が前記第1位置に位置するときに前記検出対象が位置すべき前記画像上の目標位置である第1検出対象目標位置との対応関係である第1対応関係と、前記光軸方向の前記可動部の第2位置と前記可動部が前記第2位置に位置するときに前記検出対象が位置すべき前記画像上の目標位置である第2検出対象目標位置との対応関係である第2対応関係とを少なくとも記憶する記憶部と、前記第1対応関係及び前記第2対応関係と前記光軸方向の前記可動部の位置とに基づいて、前記検出対象が位置すべき前記画像上の目標位置を設定する目標位置設定部と、を備えるロボット制御装置である。 One aspect of the present disclosure is a robot control device that includes an image acquisition unit that acquires image data including a detection target on a workpiece moving in a conveying direction, generated by a visual sensor provided on a movable part of a robot; a storage unit that stores at least a first correspondence relationship that is a correspondence relationship between a first position of the movable part in an optical axis direction of the visual sensor, which is a direction intersecting the conveying direction, and a first detection target position that is a target position on the image where the detection target should be located when the movable part is located at the first position; and a second correspondence relationship that is a correspondence relationship between a second position of the movable part in the optical axis direction and a second detection target position that is a target position on the image where the detection target should be located when the movable part is located at the second position; and a target position setting unit that sets the target position on the image where the detection target should be located based on the first correspondence relationship, the second correspondence relationship, and the position of the movable part in the optical axis direction.
以下、添付図面を参照して本開示のロボット制御装置、ロボット制御方法及びプログラムの実施形態について説明する。 Below, embodiments of the robot control device, robot control method, and program disclosed herein will be described with reference to the attached drawings.
<第1実施形態>
図1は第1実施形態のロボット制御装置2が適用されたロボットシステム100の一例を概略的に示す図である。図2は図1に示すロボットシステム100の機能ブロックの一例を示す図である。図3は図1に示すロボットシステム100に含まれるロボット1等を図1の上側から見た図である。
図1~図3に示す例では、ロボットシステム100に、ロボット1とロボット制御装置2とが含まれる。
図1~図3に示す例では、ロボットシステム100にティーチングペンダントが含まれないが、他の例では、ロボットシステム100にティーチングペンダントが含まれていてもよい。
First Embodiment
Fig. 1 is a diagram showing an example of a
In the example shown in FIGS. 1 to 3, a
In the example shown in FIGS. 1 to 3, the
図1~図3に示す例では、ロボット1が6軸の垂直多関節型ロボットである。ロボット1は、複数のリンク部11と、複数のジョイント部12と、複数のアクチュエータ13と、視覚センサ14と、接続部材15とを備えている。
複数のリンク部11には、ベース部11Aと、複数の可動部11Cと、可動部11Bとが含まれる。複数の可動部11Cには、ロボット1の胴体として機能する部分と、ロボット1の下腕として機能する部分とが含まれる。また、複数の可動部11Cには、ロボット1の上腕として機能する部分(詳細には、ロボット1の上腕の下腕側の部分及びロボット1の上腕の手首側の部分)が含まれる。更に、複数の可動部11Cには、ロボット1の手首として機能する部分(詳細には、ロボット1の手首の上腕側の部分)が含まれる。可動部11Bには、ロボット1の手首の先端側の部分(ハンド)が含まれる。
1 to 3, the
The
複数のジョイント部12のそれぞれは、回転関節としての機能を有する。
複数のジョイント部12には、ベース部11Aとロボット1の胴体として機能する可動部11Cとを接続するジョイント部12が含まれる。また、複数のジョイント部12には、ロボット1の胴体として機能する可動部11Cとロボット1の下腕として機能する可動部11Cとを接続するジョイント部12が含まれる。また、複数のジョイント部12には、ロボット1の下腕として機能する可動部11Cとロボット1の上腕の下腕側の部分として機能する可動部11Cとを接続するジョイント部12が含まれる。また、複数のジョイント部12には、ロボット1の上腕の下腕側の部分として機能する可動部11Cとロボット1の上腕の手首側の部分として機能する可動部11Cとを接続するジョイント部12が含まれる。また、複数のジョイント部12には、ロボット1の上腕の手首側の部分として機能する可動部11Cとロボット1の手首の上腕側の部分として機能する可動部11Cとを接続するジョイント部12が含まれる。また、複数のジョイント部12には、ロボット1の手首の上腕側の部分として機能する可動部11Cとロボット1の手首の先端側の部分として機能する可動部11B(ハンド)とを接続するジョイント部12が含まれる。
他の例では、ジョイント部12が、直動関節としての機能を有していてもよい。
Each of the multiple
The
In another example, the
図1~図3に示す例では、複数のアクチュエータ13に、ベース部11Aに対してロボット1の胴体として機能する可動部11Cを回転(旋回)させるアクチュエータ13が含まれる。また、複数のアクチュエータ13には、ロボット1の胴体として機能する可動部11Cに対してロボット1の下腕として機能する可動部11Cを回転させるアクチュエータ13が含まれる。また、複数のアクチュエータ13には、ロボット1の下腕として機能する可動部11Cに対してロボット1の上腕の下腕側の部分として機能する可動部11Cを回転させるアクチュエータ13が含まれる。また、複数のアクチュエータ13には、ロボット1の上腕の下腕側の部分として機能する可動部11Cに対してロボット1の上腕の手首側の部分として機能する可動部11Cを回転させる(つまり、ロボット1の上腕をねじる)アクチュエータ13が含まれる。また、複数のアクチュエータ13には、ロボット1の上腕の手首側の部分として機能する可動部11Cに対してロボット1の手首の上腕側の部分として機能する可動部11Cを回転させるアクチュエータ13が含まれる。また、複数のアクチュエータ13には、ロボット1の手首の上腕側の部分として機能する可動部11Cに対してロボット1の手首の先端側の部分として機能する可動部11B(ハンド)を回転させる(つまり、ロボット1の手首をねじる)アクチュエータ13が含まれる。
複数のアクチュエータ13のそれぞれは、サーボモータによって構成されている。サーボモータは、ロボット制御装置2からの制御信号に基づいてサーボモータの回転軸を回転させる。複数のアクチュエータ13(サーボモータ)のそれぞれは、アクチュエータセンサ13Aを有する。アクチュエータセンサ13Aは、サーボモータの回転軸の位置及び速度を検出するエンコーダによって構成されている。アクチュエータセンサ13A(エンコーダ)は、サーボモータの回転軸の位置及び速度を示すアクチュエータセンサデータをロボット制御装置2に出力する。
他の例では、アクチュエータ13としてサーボモータ以外のアクチュエータが用いられたり、アクチュエータセンサ13Aとしてエンコーダ以外のアクチュエータセンサが用いられたりしてもよい。
In the example shown in FIG. 1 to FIG. 3, the
Each of the
In other examples, an actuator other than a servo motor may be used as the
図1~図3に示す例では、視覚センサ14が2次元カメラである。2次元カメラは、コンベヤCによって搬送方向(Y方向のマイナス側、図1の手前側、図3の右側)に搬送されるワークW1上の検出対象DTを含む画像IM(図5等参照)を撮像する。つまり、視覚センサ14は、搬送方向に移動するワークW1上の検出対象DTを含む画像IMのデータを生成してロボット制御装置2に送信する。
また、視覚センサ14は、ロボット1の手首の先端側の部分として機能する可動部11B(ハンド)に接続部材15を介して接続されている。つまり、視覚センサ14は、アクチュエータ13によってロボット1の可動部11B(ハンド)が移動させられると、可動部11B(ハンド)と一体的に移動する。すなわち、視覚センサ14は、ロボット1の可動部11B(ハンド)に設けられている。
1 to 3, the
The
更に、図3に一点鎖線(中心線)で示すように、視覚センサ14の光軸方向はX方向に設定されている。つまり、視覚センサ14の光軸方向は、ワークW1の搬送方向(Y方向)に交差する方向であり、例えば、ワークW1の搬送方向(Y方向)に概略垂直な方向である。視覚センサ14の光軸と、ワークW1を搬送するコンベヤCとは、例えば立体交差等していてもよい(つまり、視覚センサ14の光軸とワークW1を搬送するコンベヤCとが、例えば「ねじれの位置」の関係を有していてもよい)。なお、視覚センサ14の光軸方向とワークW1の搬送方向は、概略垂直な方向に限らず、微小な角度ズレは含まれてもよい。
図1~図3に示す例では、視覚センサ14が接続部材15を介してロボット1の手首の先端側の部分として機能する可動部11B(ハンド)に接続されている。一方、他の例では、視覚センサ14が接続部材15を介してロボット1の可動部11B(ハンド)以外の可動部11Cに接続されていてもよい。例えばロボット1の手首の上腕側の部分として機能する可動部11Cに対してロボット1の可動部11B(ハンド)を回転させるアクチュエータ13が作動させられない例では、視覚センサ14が接続部材15を介してロボット1の手首の上腕側の部分として機能する可動部11Cに接続されていてもよい。
3, the optical axis direction of the
1 to 3, the
図1~図3に示す例では、ロボット制御装置2が、通信部21と記憶部22と処理部23とを有するコンピュータによって構成されている。
通信部21は、通信インターフェースであり、ロボット制御装置2をロボット1のアクチュエータ13、視覚センサ14等に例えば信号線を介して接続するためのインターフェース回路を有する。記憶部22は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ、HDD(Hard Disk Drive)、SDD(Solid State Drive)等のストレージ等である。記憶部22は、処理部23により実行される処理において使用されるプログラム及び各種のデータを記憶する。処理部23は、プロセッサであり、画像処理部231としての機能と、ロボット制御部232としての機能とを有する。
画像処理部231は、視覚センサ14(2次元カメラ)によって撮像された画像IMの処理等を実行する。ロボット制御部232は、視覚センサ14(2次元カメラ)によって撮像された画像IMに基づくロボット1の制御(ビジュアルフィードバック)を実行する。
In the example shown in FIGS. 1 to 3, the
The
The
画像処理部231は、画像取得部231Aとしての機能と、目標位置設定部231Bとしての機能とを有する。
画像取得部231Aは、視覚センサ14によって生成された搬送方向(図3の右側)に移動するワークW1上の検出対象DTを含む画像IM(図5等参照)のデータを取得する。つまり、画像取得部231Aは、視覚センサ14(2次元カメラ)によって撮像された画像IMのデータを取得する。
目標位置設定部231Bは、ロボット制御部232によって実行されるビジュアルフィードバックにおいて用いられる、視覚センサ14(2次元カメラ)によって撮像される画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))(図9参照)を設定する。詳細には、目標位置設定部231Bは、後述する位置算出部232Aによって算出されるロボット1の可動部11B(ハンド)のX方向の位置(実座標値)がXである時の画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))を設定する。
The
The
The target
ロボット制御部232は、位置算出部232Aとしての機能と、制御部232Bとしての機能とを有する。
位置算出部232Aは、複数のアクチュエータセンサ13A(エンコーダ)のそれぞれによって検出された複数のアクチュエータ13(サーボモータ)のそれぞれの回転軸の位置に基づいて、接続部材15を介して視覚センサ14に接続されているロボット1の可動部11B(ハンド)の位置(詳細には、X方向、Y方向及びZ方向の位置(X,Y,Z))を算出する。
制御部232Bは、目標位置設定部231Bによって設定された画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))等に基づいて、接続部材15を介して視覚センサ14に接続されているロボット1の可動部11B(ハンド)の位置(X,Y,Z)の制御(ビジュアルフィードバック)を実行する。
The
The
The
図1~図3に示す例では、制御部232Bが、ロボット1の可動部11B(ハンド)の位置(X,Y,Z)のビジュアルフィードバックにおいて、ロボット1の可動部11B(ハンド(詳細には、ワークW2を把持しているハンド))をコンベヤC上のワークW1に対してX方向に近づける制御を実行する。更に、制御部232Bは、コンベヤCによってY方向のマイナス側(図3の右側)に搬送されるワークW1に追従させてロボット1の可動部11B(ハンド)のY方向の位置を変化させる制御を実行する。一方、制御部232Bは、ロボット1の可動部11B(ハンド)のZ方向の位置を変化させる制御を実行しない。
他の例では、制御部232Bが、ロボット1の可動部11B(ハンド)の位置(X,Y,Z)のビジュアルフィードバックにおいて、ロボット1の可動部11B(ハンド)のZ方向の位置を変化させる制御を実行してもよい。詳細には、この例では、制御部232Bが、ロボット1の可動部11B(ハンド)をコンベヤC上のワークW1に対してX方向に近づける制御を実行すると共に、コンベヤCによってY方向のマイナス側(図3の右側)に搬送されるワークW1に追従させてロボット1の可動部11B(ハンド)のY方向の位置を変化させる制御を実行する時に、ロボット1の可動部11B(ハンド)のZ方向の位置を変化させる制御を実行する。
In the example shown in Figures 1 to 3, the
In another example, the
図1~図3に示す例では、制御部232Bがロボット1の可動部11B(ハンド)の位置(X,Y,Z)の制御を実行する前に、例えばオペレータが、ロボット1の位置及び姿勢の登録を行うロボットティーチングを実行する。詳細には、例えばオペレータが、ロボット1の可動部11B(ハンド)のX方向の移動開始位置X1及び移動終了位置X2において、ロボット1の位置及び姿勢の登録を行うロボットティーチングを実行する。
In the example shown in Figs. 1 to 3, before the
図4はロボット1の可動部11B(ハンド)のX方向の移動開始位置X1において実行されるロボットティーチングの一例を説明するための図である。図5は図4に示すロボットティーチングにおいて(つまり、ロボット1の可動部11B(ハンド)のX方向の位置が移動開始位置X1である時に)視覚センサ14(2次元カメラ)によって撮像される画像IMの一例を示す図である。
Figure 4 is a diagram for explaining an example of robot teaching that is performed at the movement start position X1 in the X direction of the
図4及び図5に示す例では、例えばオペレータが、ロボット1の可動部11B(ハンド)のX方向の移動開始位置X1におけるロボットティーチングの実行時に、ロボット1の可動部11B(ハンド)のX方向の位置(実座標値)をX1に設定する。更に、例えばオペレータが、図5に示すようにワークW1上の検出対象DTが、視覚センサ14(2次元カメラ)によって撮像される画像IMに含まれるように、ロボット1の可動部11B(ハンド)のY方向の位置(実座標値)及びZ方向の位置(実座標値)を適宜設定する。記憶部22は、例えばオペレータがロボット1の可動部11B(ハンド)のX方向の位置(移動開始位置X1)、Y方向の位置及びZ方向の位置を設定する時にアクチュエータセンサ13Aによって検出される複数のアクチュエータ13(サーボモータ)のそれぞれの回転軸の位置を示す情報を記憶する。
4 and 5, for example, when performing robot teaching at the X-direction movement start position X1 of the
次いで、視覚センサ14が、図5に示すワークW1上の検出対象DTを含む画像IMを撮像し、画像取得部231Aがその画像IMのデータを取得し、記憶部22がその画像IMのデータを記憶する。また、目標位置設定部231Bが、図5に示す画像IM上の検出対象DTの位置(座標)(Hz1,Vt1)を算出する。更に、目標位置設定部231Bが、その位置(Hz1,Vt1)を、ロボット制御部232によるビジュアルフィードバックの実行時(詳細には、ビジュアルフィードバックの実行時におけるロボット1の可動部11B(ハンド)のX方向の移動開始時)に視覚センサ14によって撮像される画像IM上の検出対象DTの目標位置として設定する。
次いで、例えばオペレータが、ロボット1の可動部11B(ハンド)のX方向の位置(実座標値)を移動終了位置X2に設定し、ロボット1の可動部11B(ハンド)のX方向の移動終了位置X2におけるロボットティーチングを実行する。
Next, the
Next, for example, an operator sets the X-direction position (actual coordinate value) of the
図6はロボット1の可動部11B(ハンド)のX方向の移動終了位置X2において実行されるロボットティーチングの一例を説明するための図である。図7は図6に示すロボットティーチングにおいて(つまり、ロボット1の可動部11B(ハンド)のX方向の位置が移動終了位置X2である時に)視覚センサ14(2次元カメラ)によって撮像される画像IMの一例を示す図である。
図6及び図7に示す例では、例えばオペレータが、ロボット1の可動部11B(ハンド)のY方向の位置(実座標値)及びZ方向の位置(実座標値)を図4に示す状態から変更することなく、ロボット1の可動部11B(ハンド)のX方向の位置(実座標値)をX1からX2に変更し、ロボット1の可動部11B(ハンド)のX方向の移動終了位置X2におけるロボットティーチングを実行する。記憶部22は、例えばオペレータがロボット1の可動部11B(ハンド)のX方向の位置をX1からX2に変更した時の複数のアクチュエータ13(サーボモータ)のそれぞれの回転軸の位置を示す情報を記憶する。
Fig. 6 is a diagram for explaining an example of robot teaching executed at the movement end position X2 in the X direction of the
6 and 7, for example, an operator changes the X-direction position (actual coordinate value) of the
次いで、視覚センサ14が、図6に示すワークW1上の検出対象DTを含む画像IMを撮像し、画像取得部231Aがその画像IMのデータを取得し、記憶部22がその画像IMのデータを記憶する。また、目標位置設定部231Bが、図7に示す画像IM上の検出対象DTの位置(座標)(Hz2,Vt2)を算出する。更に、目標位置設定部231Bが、その位置(Hz2,Vt2)を、ロボット制御部232によるビジュアルフィードバックの実行時(詳細には、ビジュアルフィードバックの実行時におけるロボット1の可動部11B(ハンド)のX方向の移動終了時)に視覚センサ14によって撮像される画像IM上の検出対象DTの目標位置として設定する。
Then, the
図1~図3に示す例では、搬送方向(Y方向)に搬送されているワークW1にロボット1を追従させるために、ロボット1の可動部11B(ハンド)に接続部材15を介して接続されてロボット1の可動部11B(ハンド)と一体的に移動する1台の視覚センサ14(2次元カメラ)が用いられる。そのため、図4及び図6に示すようにロボット1の可動部11B(ハンド)が視覚センサ14の光軸方向(X方向)に移動すると、図5及び図7に示すように視覚センサ14(2次元カメラ)によって生成(撮像)される画像IMに含まれる搬送方向(Y方向)に搬送されているワークW1上の検出対象DTの見え方が変化してしまう。
詳細には、図4及び図5に示す状態におけるロボット1の可動部11B(ハンド)のY方向の位置及びZ方向の位置と、図6及び図7に示す状態におけるロボット1の可動部11B(ハンド)のY方向の位置及びZ方向の位置とが同一である(変更されていない)。にもかかわらず、図4及び図5に示す状態の時に視覚センサ14(2次元カメラ)によって撮像される画像IM上の検出対象DTの位置(座標)(Hz1,Vt1)と、図6及び図7に示す状態の時に視覚センサ14(2次元カメラ)によって撮像される画像IM上の検出対象DTの位置(座標)(Hz2,Vt2)とが異なってしまう。
従って、仮に従来のビジュアルフィードバックが適用される場合には、図5に示す画像IM上の検出対象DTの水平方向の位置(座標)Hz1と、図7に示す画像IM上の検出対象DTの水平方向の位置(座標)Hz2とが異なるため、ロボット制御装置2が、搬送方向(Y方向)のワークW1の位置が変化したと誤判定するおそれがある。
1 to 3, in order to make the
In detail, the Y-direction position and Z-direction position of the
Therefore, if conventional visual feedback were applied, the horizontal position (coordinate) Hz1 of the detection target DT on the image IM shown in Figure 5 is different from the horizontal position (coordinate) Hz2 of the detection target DT on the image IM shown in Figure 7, so there is a risk that the
上述した点に鑑み、図1~図3に示す例では、記憶部22が、ロボット1の可動部11BのX方向の移動開始位置X1とロボット1の可動部11Bが移動開始位置X1に位置するとき(つまり、図4及び図5に示す状態の時)に検出対象DTが位置すべき画像IM上の目標位置(Hz1,Vt1)との対応関係である第1対応関係を記憶する。また、記憶部22は、ロボット1の可動部11BのX方向の移動終了位置X2とロボット1の可動部11Bが移動終了位置X2に位置するとき(つまり、図6及び図7に示す状態の時)に検出対象DTが位置すべき画像IM上の目標位置(Hz2,Vt2)との対応関係である第2対応関係を記憶する。
In consideration of the above, in the example shown in Figures 1 to 3, the
更に、図1~図3に示す例では、ロボット制御部232がロボット1の可動部11B(ハンド)の位置の制御(ビジュアルフィードバック)を実行する時、目標位置設定部231Bは、ロボット1の可動部11B(ハンド)のX方向の位置が移動開始位置X1及び移動終了位置X2のいずれでもないときに検出対象DTが位置すべき画像IM上の目標位置(Hz(X),Vt(X))を、第1対応関係及び第2対応関係とロボット1の可動部11BのX方向の位置Xとに基づいて設定する。
Furthermore, in the example shown in Figures 1 to 3, when the
詳細には、目標位置設定部231Bによって設定される検出対象DTが位置すべき画像IM上の目標位置(Hz(X),Vt(X))は、水平方向の座標値Hz(X)と垂直方向の座標値Vt(X)とによって表される。水平方向の座標値Hz(X)は、ロボット1の可動部11B(ハンド)のX方向の位置の変化に比例して変化する。また、垂直方向の座標値Vt(X)も、ロボット1の可動部11B(ハンド)のX方向の位置の変化に比例して変化する。
In detail, the target position (Hz(X), Vt(X)) on the image IM where the detection target DT should be located, which is set by the target
更に詳細には、目標位置設定部231Bは、下記の数式に基づいて、画像IM上の検出対象DTの水平方向の目標位置Hz(X)を算出する。
Hz(X)=Hz1+((Hz2-Hz1)/(X2-X1))×(X-X1)
更に、目標位置設定部231Bは、下記の数式に基づいて、画像IM上の検出対象DTの垂直方向の目標位置Vt(X)を算出する。
Vt(X)=Vt1+((Vt2-Vt1)/(X2-X1))×(X-X1))
More specifically, the target
Hz(X)=Hz1+((Hz2-Hz1)/(X2-X1))×(X-X1)
Furthermore, the target
Vt(X)=Vt1+((Vt2-Vt1)/(X2-X1))×(X-X1))
また、図1~図3に示す例では、ロボット制御部232が、視覚センサ14(2次元カメラ)によって撮像される画像IM上の検出対象DTの位置(Hz,Vt)と、目標位置設定部231Bによって設定された検出対象DTが位置すべき画像IM上の目標位置(Hz(X),Vt(X))とに基づいて、ロボット1の可動部11B(ハンド)の位置の制御(ビジュアルフィードバック)を実行する。詳細には、ロボット制御部232は、画像IM上の検出対象DTの位置(Hz,Vt)が、画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))に一致するように、ロボット1の可動部11B(ハンド)の位置の制御(ビジュアルフィードバック)を実行する。
In the example shown in Figs. 1 to 3, the
つまり、図1~図3に示す例では、ロボット制御部232が、記憶部22に記憶されているロボット1の可動部11B(ハンド)の移動開始位置X1を示す情報と移動終了位置X2を示す情報とに基づいて、ロボット1の可動部11B(ハンド)のX方向の位置の制御を実行する。
In other words, in the example shown in Figures 1 to 3, the
図8はロボット制御部232によって実行されるロボット1の可動部11B(ハンド)の位置の制御(ビジュアルフィードバック)の一例を説明するための図である。図9は図8に示すビジュアルフィードバックの実行時に目標位置設定部231Bによって設定される画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))の一例を示す図である。
図9に示すように、目標位置設定部231Bによって設定される画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))の軌跡は、ロボット1の可動部11B(ハンド)のX方向の位置が移動開始位置X1である時の画像IM上の検出対象DTの位置(Hz1,Vt1)と、ロボット1の可動部11B(ハンド)のX方向の位置が移動終了位置X2である時の画像IM上の検出対象DTの位置(Hz2,Vt2)とを結ぶ直線になる。
図8及び図9に示す例では、ロボット制御部232が、ロボット1の可動部11B(ハンド)をコンベヤC上のワークW1に対してX方向に近づける制御を実行すると共に、コンベヤCによってY方向のマイナス側(図8の右側)に搬送されるワークW1に追従させてロボット1の可動部11B(ハンド)のY方向の位置をY方向のマイナス側(図8の右側)に変化させる制御を実行する。具体的には、ロボット1の可動部11B(ハンド)によって把持されたワークW2(ドア)を、コンベヤCによってY方向のマイナス側(図8の右側)に搬送されるワークW1(車体)に取り付ける作業が行われる。
Fig. 8 is a diagram for explaining an example of control (visual feedback) of the position of the
As shown in FIG. 9, the trajectory of the target position (Hz(X), Vt(X)) of the detection target DT on the image IM set by the target
8 and 9, the
詳細には、図8及び図9に示す例では、ロボット制御部232は、ロボット1の可動部11B(ハンド)をX方向にワークW1に近づける時、画像IM上の検出対象DTの位置(Hz,Vt)と目標位置設定部231Bによって設定された画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))とに基づくロボット1の可動部11B(ハンド)の位置の制御(ビジュアルフィードバック)をワークW1の搬送方向(Y方向)にのみ実行する。
つまり、図8及び図9に示す例では、ロボット1の可動部11B(ハンド)のZ方向の位置の制御が、可動部11BのY方向の位置の制御(ビジュアルフィードバック)とは異なる制御である。
Specifically, in the example shown in FIGS. 8 and 9, when the
That is, in the example shown in Figures 8 and 9, control of the Z-direction position of the
上述したように、図4及び図5に示す例では、ロボット1の可動部11B(ハンド)のX方向の移動開始位置X1においてロボットティーチングが実行され、図6及び図7に示す例では、ロボット1の可動部11B(ハンド)のX方向の移動終了位置X2においてロボットティーチングが実行される。
As described above, in the example shown in Figures 4 and 5, robot teaching is performed at position X1 where the
他の例では、ロボット1の可動部11B(ハンド)のX方向の移動開始位置X1と移動終了位置X2との間の任意の2か所でロボットティーチングが実行されてもよい。
この例では、記憶部22が、ロボット1の可動部11BのX方向の移動開始位置X1と移動終了位置X2との間の2か所のうちの一方の位置(第1位置)とロボット1の可動部11Bがその第1位置に位置するときに検出対象DTが位置すべき画像IM上の目標位置との対応関係である第1対応関係を記憶する。また、記憶部22は、ロボット1の可動部11BのX方向の移動開始位置X1と移動終了位置X2との間の2か所のうちの他方の位置(第2位置)とロボット1の可動部11Bがその第2位置に位置するときに検出対象DTが位置すべき画像IM上の目標位置との対応関係である第2対応関係を記憶する。
更に、この例では、ロボット制御部232がロボット1の可動部11B(ハンド)の位置の制御(ビジュアルフィードバック)を実行する時、目標位置設定部231Bは、ロボット1の可動部11B(ハンド)のX方向の位置が第1位置及び第2位置のいずれでもないときに検出対象DTが位置すべき画像IM上の目標位置(Hz(X),Vt(X))を、第1対応関係及び第2対応関係とロボット1の可動部11BのX方向の位置Xとに基づいて設定する。
また、この例では、図1~図3に示す例と同様に、ロボット制御部232が、視覚センサ14(2次元カメラ)によって撮像される画像IM上の検出対象DTの位置(Hz,Vt)と、目標位置設定部231Bによって設定された検出対象DTが位置すべき画像IM上の目標位置(Hz(X),Vt(X))とに基づいて、ロボット1の可動部11B(ハンド)の位置の制御(ビジュアルフィードバック)を実行する。
In another example, robot teaching may be performed at any two positions between the movement start position X1 and movement end position X2 of the
In this example, the
Furthermore, in this example, when the
Also, in this example, similar to the examples shown in Figures 1 to 3, the
図10は第1実施形態のロボット制御装置2によって実行される処理の一例を説明するためのフローチャートである。
図10に示す例では、ステップS11において、ロボット1の可動部11B(ハンド)のX方向の移動開始位置X1のロボット1の位置及び姿勢の登録を行うロボットティーチングが実行される。
詳細には、例えばオペレータによって、ロボット1の可動部11B(ハンド)のX方向の位置(実座標値)がX1に設定されると共に、図5に示すようにワークW1上の検出対象DTが、視覚センサ14(2次元カメラ)によって撮像される画像IMに含まれるように、ロボット1の可動部11B(ハンド)のY方向の位置(実座標値)及びZ方向の位置(実座標値)が設定される。
FIG. 10 is a flowchart for explaining an example of processing executed by the
In the example shown in FIG. 10, in step S11, robot teaching is executed to register the position and posture of the
In detail, for example, an operator sets the X-direction position (actual coordinate value) of the
ステップS11Aでは、記憶部22が、アクチュエータセンサ13Aによって検出される複数のアクチュエータ13(サーボモータ)のそれぞれの回転軸の位置を示す情報を記憶する。つまり、ロボット1の可動部11B(ハンド)のX方向の移動開始位置X1のロボット1の位置及び姿勢の登録が行われる。
ステップS11Bでは、画像取得部231Aが、視覚センサ14によって撮像されたワークW1上の検出対象DTを含む画像IM(図5参照)のデータを取得し、記憶部22がその画像IMのデータを記憶する。
ステップS11Cでは、目標位置設定部231Bが、画像IM上の検出対象DTの位置(座標)(Hz1,Vt1)(図5参照)を算出する。
ステップS11Dでは、目標位置設定部231Bが、その位置(Hz1,Vt1)を、ロボット制御部232によるビジュアルフィードバックの実行時におけるロボット1の可動部11B(ハンド)のX方向の移動開始時に視覚センサ14によって撮像される画像IM上の検出対象DTの目標位置として設定する。
ステップS11Eでは、記憶部22が、ロボット1の可動部11BのX方向の移動開始位置X1とロボット1の可動部11Bが移動開始位置X1に位置するとき(つまり、図4及び図5に示す状態の時)に検出対象DTが位置すべき画像IM上の目標位置(Hz1,Vt1)との対応関係である第1対応関係を記憶する。
つまり、ステップS11では、ロボット1の可動部11B(ハンド)が移動開始位置X1に位置するときの画像IM上の検出対象DTの目標位置(Hz1,Vt1)の教示が行われる。
In step S11A, the
In step S11B, the
In step S11C, the target
In step S11D, the target
In step S11E, the
That is, in step S11, the target position (Hz1, Vt1) of the detection target DT on the image IM when the
次いで、ステップS12では、ロボット1の可動部11B(ハンド)のX方向の移動終了位置X2のロボット1の位置及び姿勢の登録を行うロボットティーチングが実行される。
詳細には、例えばオペレータによって、ロボット1の可動部11B(ハンド)のX方向の位置(実座標値)がX1からX2に変更される。
Next, in step S12, robot teaching is executed to register the position and posture of the
In detail, for example, the position (actual coordinate value) in the X direction of the
ステップS12Aでは、記憶部22が、アクチュエータセンサ13Aによって検出される複数のアクチュエータ13(サーボモータ)のそれぞれの回転軸の位置を示す情報を記憶する。つまり、ロボット1の可動部11B(ハンド)のX方向の移動終了位置X2のロボット1の位置及び姿勢の登録が行われる。
ステップS12Bでは、画像取得部231Aが、視覚センサ14によって撮像されたワークW1上の検出対象DTを含む画像IM(図7参照)のデータを取得し、記憶部22がその画像IMのデータを記憶する。
ステップS12Cでは、目標位置設定部231Bが、画像IM上の検出対象DTの位置(座標)(Hz2,Vt2)(図7参照)を算出する。
ステップS12Dでは、目標位置設定部231Bが、その位置(Hz2,Vt2)を、ロボット制御部232によるビジュアルフィードバックの実行時におけるロボット1の可動部11B(ハンド)のX方向の移動終了時に視覚センサ14によって撮像される画像IM上の検出対象DTの目標位置として設定する。
ステップS12Eでは、記憶部22が、ロボット1の可動部11BのX方向の移動終了位置X2とロボット1の可動部11Bが移動終了位置X2に位置するとき(つまり、図6及び図7に示す状態の時)に検出対象DTが位置すべき画像IM上の目標位置(Hz2,Vt2)との対応関係である第2対応関係を記憶する。
つまり、ステップS12では、ロボット1の可動部11B(ハンド)が移動終了位置X2に位置するときの画像IM上の検出対象DTの目標位置(Hz2,Vt2)の教示が行われる。
In step S12A, the
In step S12B, the
In step S12C, the target
In step S12D, the target
In step S12E, the
That is, in step S12, the target position (Hz2, Vt2) of the detection target DT on the image IM when the
次いで、ステップS13では、ロボット制御部232が、ロボット1の可動部11B(ハンド)の位置の制御(ビジュアルフィードバック)を実行する。
詳細には、例えばオペレータによって、ロボット1の可動部11B(ハンド)のX方向の位置が移動開始位置X1に設定され、制御部232Bが、ロボット1の可動部11B(ハンド)のY方向の位置の制御(ビジュアルフィードバック)を開始する。ロボット1の可動部11B(ハンド)のY方向の位置の制御(ビジュアルフィードバック)の実行中、ロボット制御部232は、ロボット1の可動部11B(ハンド)のX方向の位置を移動開始位置X1から移動終了位置X2に変更する制御(ビジュアルフィードバックとは異なる制御)を実行する。
Next, in step S13, the
In detail, for example, an operator sets the position of the
ステップS13Aでは、位置算出部232Aが、複数のアクチュエータセンサ13A(エンコーダ)のそれぞれによって検出された複数のアクチュエータ13(サーボモータ)のそれぞれの回転軸の位置に基づいて、接続部材15を介して視覚センサ14に接続されているロボット1の可動部11B(ハンド)のX方向、Y方向及びZ方向の位置(X,Y,Z)を算出する。
ステップS13Bでは、画像取得部231Aが、視覚センサ14によって撮像されたワークW1上の検出対象DTを含む画像IMのデータを取得する。
ステップS13Cでは、目標位置設定部231Bが、検出対象DTが位置すべき画像IM上の目標位置(Hz(X),Vt(X))を、第1対応関係及び第2対応関係とロボット1の可動部11BのX方向の位置Xとに基づいて設定する。
詳細には、目標位置設定部231Bが、上述した数式に基づいて、画像IM上の検出対象DTの水平方向の目標位置Hz(X)及び画像IM上の検出対象DTの垂直方向の目標位置Vt(X)を算出する。
図10に示す例では、画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))を算出する処理がビジュアルフィードバックの実行中に行われる。一方、他の例では、画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))を算出する処理が前処理において行われてもよい。この例では、ロボット1の可動部11B(ハンド)のX方向の位置Xと画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))との対応関係を示すマップが作成される。更に、ビジュアルフィードバックの実行中に、そのマップを用いることによって、ロボット1の可動部11B(ハンド)のX方向の位置Xに対応する画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))が設定される。
In step S13A, the
In step S13B, the
In step S13C, the target
In detail, the target
In the example shown in FIG. 10, a process of calculating the target position (Hz(X), Vt(X)) of the detection target DT on the image IM is performed during the execution of visual feedback. Meanwhile, in another example, a process of calculating the target position (Hz(X), Vt(X)) of the detection target DT on the image IM may be performed in pre-processing. In this example, a map is created that shows the correspondence between the position X in the X-direction of the
図10に示す例では、ステップS13Dにおいて、ロボット制御部232が、ステップS13Bにおいて取得されたデータが示す画像IM上の検出対象DTの位置(Hz,Vt)と、ステップS13Cにおいて設定された検出対象DTが位置すべき画像IM上の目標位置(Hz(X),Vt(X))とに基づいて、ロボット1の可動部11B(ハンド)のY方向の位置の制御(ビジュアルフィードバック)を実行する。
詳細には、ロボット制御部232は、ステップS13Bにおいて取得されたデータが示す画像IM上の検出対象DTの位置(Hz,Vt)が、ステップS13Cにおいて設定された検出対象DTが位置すべき画像IM上の目標位置(Hz(X),Vt(X))に一致するように、ロボット1の可動部11B(ハンド)のY方向の位置の制御(ビジュアルフィードバック)を実行する。その結果、検出対象DTが画像IM上のどの位置に存在する場合であっても、ロボット1の可動部11B(ハンド)のX方向の位置を移動させながら、搬送方向(Y方向)に搬送されているワークW1にロボット1の可動部11B(ハンド)を追従させることができる。
つまり、ステップS13では、ロボット1の可動部11B(ハンド)がX方向に移動させられながら、ロボット1の可動部11B(ハンド)のY方向の位置の制御(ビジュアルフィードバック)が実行される。更に、ビジュアルフィードバックの実行中に、画像IM上の検出対象DTの目標位置(Hz(X),Vt(X))が、ロボット1の可動部11B(ハンド)のX方向の位置に応じて変更される。
In the example shown in FIG. 10, in step S13D, the
In detail, the
That is, in step S13, while the
<第2実施形態>
第2実施形態のロボット制御装置2は、後述する点を除き、上述した第1実施形態のロボット制御装置2と同様に構成されている。
Second Embodiment
The
図11は第2実施形態のロボット制御装置2の一例を示す図である。
図11に示す例では、ロボット制御装置2が、画像処理部2-1とロボット制御部2-2とを備えている。
画像処理部2-1は、通信部21-1と記憶部22-1と処理部23-1とを有するコンピュータによって構成されている。
通信部21-1は、通信インターフェースであり、画像処理部2-1をロボット1の視覚センサ14、ロボット制御部2-2等に例えば信号線を介して接続するためのインターフェース回路を有する。記憶部22-1は、ROM、RAM等のメモリ、HDD、SDD等のストレージ等である。記憶部22-1は、処理部23-1により実行される処理において使用されるプログラム及び各種のデータを記憶する。処理部23-1は、プロセッサであり、画像取得部231A-1としての機能と、目標位置設定部231B-1としての機能とを有する。画像取得部231A-1は、図2に示す画像取得部231Aと同様の機能を有する。目標位置設定部231B-1は、図2に示す目標位置設定部231Bと同様の機能を有する。
FIG. 11 is a diagram showing an example of a
In the example shown in FIG. 11, the
The image processing section 2-1 is configured by a computer having a communication section 21-1, a storage section 22-1, and a processing section 23-1.
The communication unit 21-1 is a communication interface and has an interface circuit for connecting the image processing unit 2-1 to the
ロボット制御部2-2は、通信部21-2と記憶部22-2と処理部23-2とを有するコンピュータによって構成されている。
通信部21-2は、通信インターフェースであり、ロボット制御部2-2をロボット1のアクチュエータ13、画像処理部2-1等に例えば信号線を介して接続するためのインターフェース回路を有する。記憶部22-2は、ROM、RAM等のメモリ、HDD、SDD等のストレージ等である。記憶部22-2は、処理部23-2により実行される処理において使用されるプログラム及び各種のデータを記憶する。処理部23-2は、プロセッサであり、位置算出部232A-2としての機能と、制御部232B-2としての機能とを有する。位置算出部232A-2は、図2に示す位置算出部232Aと同様の機能を有する。制御部232B-2は、図2に示す制御部232Bと同様の機能を有する。
The robot control unit 2-2 is composed of a computer having a communication unit 21-2, a storage unit 22-2, and a processing unit 23-2.
The communication unit 21-2 is a communication interface, and has an interface circuit for connecting the robot control unit 2-2 to the
<第3実施形態>
第3実施形態のロボット制御装置2が適用されたロボットシステム100は、後述する点を除き、上述した第1実施形態のロボット制御装置2が適用されたロボットシステム100と同様に構成されている。
Third Embodiment
The
上述したように第1実施形態のロボット制御装置2が適用されたロボットシステム100では、アクチュエータ13が、サーボモータによって構成されており、アクチュエータセンサ13Aとしてのエンコーダを有する。
一方、第3実施形態のロボット制御装置2が適用されたロボットシステム100では、アクチュエータ13が、ステッピングモータによって構成されており、アクチュエータセンサを有さない。
As described above, in the
On the other hand, in a
第3実施形態のロボット制御装置2が適用されたロボットシステム100では、アクチュエータ13としてのステッピングモータの回転軸の位置及び速度が、ロボット制御装置2からアクチュエータ13としてのステッピングモータに送信される制御信号(駆動パルスを示す情報)に基づいて推定される。
つまり、第3実施形態のロボット制御装置2が適用されたロボットシステム100では、位置算出部232Aが、アクチュエータ13(ステッピングモータ)に送信される制御信号(駆動パルスを示す情報)に基づいて推定された複数のアクチュエータ13(ステッピングモータ)のそれぞれの回転軸の位置に基づいて、接続部材15を介して視覚センサ14に接続されているロボット1の可動部11B(ハンド)の位置(詳細には、X方向、Y方向及びZ方向の位置(X,Y,Z))を算出する。
In a
That is, in the
<第4実施形態>
第4実施形態のロボット制御装置2が適用されたロボットシステム100は、後述する点を除き、上述した第1実施形態のロボット制御装置2が適用されたロボットシステム100と同様に構成されている。
Fourth Embodiment
The
上述したように第1実施形態のロボット制御装置2が適用されたロボットシステム100に含まれるロボット1が、6軸の垂直多関節型ロボットである。
一方、第4実施形態のロボット制御装置2が適用されたロボットシステム100に含まれるロボット1は、6軸の垂直多関節型ロボット以外のロボット(例えば水平多関節ロボット、直角座標ロボット、パラレルリンクロボット等)である。
As described above, the
On the other hand, the
第1から第4実施形態のロボット制御装置2によれば、ロボット1の可動部11B(ハンド)に接続されてロボット1の可動部11B(ハンド)と一体的に移動する視覚センサ14が視覚センサ14の光軸方向に移動することに伴い、視覚センサ14によって生成される画像IMに含まれる搬送方向に移動するワークW1上の検出対象DTの見え方が変わる場合であっても、視覚センサ14によって生成される画像IMに基づいて、搬送方向に移動するワークW1に追従させてロボット1の可動部11B(ハンド)の位置を適切に制御することができる。
According to the
本開示のロボット制御装置、ロボット制御方法及びプログラムの実施形態について詳述したが、本開示は上述した個々の実施形態に限定されるものではない。これらの実施形態は、発明の要旨を逸脱しない範囲で、または請求の範囲に記載された内容とその均等物から導き出される本発明の思想および趣旨を逸脱しない範囲で、種々の追加、置き換え、変更、部分的削除などが可能である。例えば、上述した実施形態において、各動作の順序や各処理の順序は、一例として示したものであり、これらに限定されるものではない。また、上述した実施形態の説明に数値又は数式が用いられている場合も同様である。さらに、前述した実施形態の幾つかを適宜組み合わせることは本開示の範囲に含まれる。 Although the embodiments of the robot control device, robot control method, and program of the present disclosure have been described in detail, the present disclosure is not limited to the individual embodiments described above. Various additions, substitutions, modifications, partial deletions, etc. are possible to these embodiments without departing from the gist of the invention, or without departing from the idea and intent of the present invention derived from the contents described in the claims and their equivalents. For example, in the above-mentioned embodiments, the order of each operation and the order of each process are shown as examples, and are not limited to these. The same applies when numerical values or formulas are used in the explanation of the above-mentioned embodiments. Furthermore, appropriate combinations of several of the above-mentioned embodiments are included in the scope of the present disclosure.
上記実施形態および変型例に関し、更に以下の付記を開示する。
(付記1)
ロボット(1)の可動部(11B)に設けられた視覚センサ(14)によって生成された搬送方向に移動するワーク(W1)上の検出対象(DT)を含む画像(IM)のデータを取得する画像取得部(231A;231A-1)と、
前記搬送方向に交差する方向である前記視覚センサ(14)の光軸方向の前記可動部(11B)の第1位置(X1)と前記可動部(11B)が前記第1位置(X1)に位置するときに前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置である第1検出対象目標位置(Hz1,Vt1)との対応関係である第1対応関係と、前記光軸方向の前記可動部(11B)の第2位置(X2)と前記可動部(11B)が前記第2位置(X2)に位置するときに前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置である第2検出対象目標位置(Hz2,Vt2)との対応関係である第2対応関係とを少なくとも記憶する記憶部(22;22-1)と、
前記第1対応関係及び前記第2対応関係と前記光軸方向の前記可動部(11B)の位置(X)とに基づいて、前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置(Hz(X),Vt(X))を設定する目標位置設定部(231B;231B-1)と、を備えるロボット制御装置(2)。
(付記2)
前記光軸方向は、前記搬送方向に略垂直な方向である、付記1に記載のロボット制御装置(2)。
(付記3)
前記画像(IM)上の前記検出対象(DT)の位置(Hz,Vt)と、前記目標位置設定部(231B;231B-1)によって設定された前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置(Hz(X),Vt(X))とに基づいて前記可動部(11B)の位置(X)の制御を実行するロボット制御部(231;2-2)を備える、付記1又は2に記載のロボット制御装置(2)。
(付記4)
前記ロボット制御部(232;2-2)は、前記光軸方向に前記可動部(11B)を前記ワーク(W1)に近づける時、前記画像(IM)上の前記検出対象(DT)の位置(Hz,Vt)と前記目標位置設定部(231B;231B-1)によって設定された前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置(Hz(X),Vt(X))とに基づく前記可動部(11B)の位置の制御を前記搬送方向にのみ実行する、付記3に記載のロボット制御装置(2)。
(付記5)
前記ロボット制御部(232;2-2)は、前記記憶部(22)に記憶されている前記第1位置(X1)を示す情報と前記第2位置(X2)を示す情報とに基づいて、前記光軸方向の前記可動部(11B)の位置(X)の制御を実行する、付記4に記載のロボット制御装置(2)。
(付記6)
前記第1位置(X1)は、前記光軸方向の前記可動部(11B)の移動開始位置であり、
前記第2位置(X2)は、前記光軸方向の前記可動部(11B)の移動終了位置であり、
前記第1対応関係は、前記移動開始位置(X1)と前記可動部(11B)が前記移動開始位置(X1)に位置するときに前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置である前記第1検出対象目標位置(Hz1,Vt1)との対応関係であり、
前記第2対応関係は、前記移動終了位置(X2)と前記可動部(11B)が前記移動終了位置(X2)に位置するときに前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置である前記第2検出対象目標位置(Hz2,Vt2)との対応関係であり、
前記目標位置設定部(231B;231B-1)は、前記光軸方向の前記可動部(11B)の位置(X)が前記移動開始位置(X1)及び前記移動終了位置(X2)のいずれでもないときに前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置(Hz(X),Vt(X))を、前記第1対応関係及び前記第2対応関係と前記光軸方向の前記可動部(11B)の位置(X)とに基づいて設定する、付記1~5のいずれかに記載のロボット制御装置(2)。
(付記7)
前記光軸方向の前記可動部(11B)の前記第1位置(X1)及び前記光軸方向の前記可動部(11B)の前記第2位置(X2)は、ロボットティーチングにおいて前記ロボット(1)の位置及び姿勢の登録が行われる位置である、付記1~6のいずれかに記載のロボット制御装置(2)。
(付記8)
前記目標位置設定部(231B;231B-1)によって設定される前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置(Hz(X),Vt(X))は、水平方向の座標値(Hz(X))と垂直方向の座標値(Vt(X))とによって表され、
前記水平方向の座標値(Hz(X))は、前記光軸方向の前記可動部(11B)の位置(X)の変化に比例して変化し、
前記垂直方向の座標値(Vt(X))は、前記光軸方向の前記可動部(11B)の位置(X)の変化に比例して変化する、付記1~7のいずれかに記載のロボット制御装置(2)。
(付記9)
前記目標位置設定部(231B;231B-1)は、前記光軸方向の前記可動部(11B)の位置(X)が前記第1位置(X1)及び前記第2位置(X2)のいずれでもないときに、前記第1対応関係及び前記第2対応関係と前記光軸方向の前記可動部(11B)の位置(X)とに基づいて、前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置(Hz(X),Vt(X))を設定する、付記1~8のいずれかに記載のロボット制御装置(2)。
(付記10)
ロボット(1)の可動部(11B)に設けられた視覚センサ(14)によって生成された搬送方向に移動するワーク(W1)上の検出対象(DT)を含む画像(IM)のデータを取得する画像取得ステップと、
前記搬送方向に交差する方向である前記視覚センサ(14)の光軸方向の前記可動部(11B)の第1位置(X1)と前記可動部(11B)が前記第1位置(X1)に位置するときに前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置である第1検出対象目標位置(Hz1,Vt1)との対応関係である第1対応関係と、前記光軸方向の前記可動部(11B)の第2位置(X2)と前記可動部(11B)が前記第2位置(X2)に位置するときに前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置である第2検出対象目標位置(Hz2,Vt2)との対応関係である第2対応関係とを少なくとも記憶する記憶ステップと、
前記第1対応関係及び前記第2対応関係と前記光軸方向の前記可動部(11B)の位置(X)とに基づいて、前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置(Hz(X),Vt(X))を設定する目標位置設定ステップと、を備えるロボット制御方法。
(付記11)
コンピュータに、
ロボット(1)の可動部(11B)に設けられた視覚センサ(14)によって生成された搬送方向に移動するワーク(W1)上の検出対象(DT)を含む画像(IM)のデータを取得する画像取得ステップと、
前記搬送方向に交差する方向である前記視覚センサ(14)の光軸方向の前記可動部(11B)の第1位置(X1)と前記可動部(11B)が前記第1位置(X1)に位置するときに前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置である第1検出対象目標位置(Hz1,Vt1)との対応関係である第1対応関係と、前記光軸方向の前記可動部(11B)の第2位置(X2)と前記可動部(11B)が前記第2位置(X2)に位置するときに前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置である第2検出対象目標位置(Hz2,Vt2)との対応関係である第2対応関係とを少なくとも記憶する記憶ステップと、
前記第1対応関係及び前記第2対応関係と前記光軸方向の前記可動部(11B)の位置(X)とに基づいて、前記検出対象(DT)が位置すべき前記画像(IM)上の目標位置(Hz(X),Vt(X))を設定する目標位置設定ステップと、を実行させるためのプログラム。
The following supplementary notes are further disclosed regarding the above-described embodiments and modifications.
(Appendix 1)
an image acquisition unit (231A; 231A-1) that acquires data of an image (IM) including a detection target (DT) on a workpiece (W1) moving in a conveying direction, the image (IM) being generated by a visual sensor (14) provided on a movable unit (11B) of the robot (1);
a storage unit (22; 22-1) that stores at least a first correspondence relationship that is a correspondence relationship between a first position (X1) of the movable part (11B) in an optical axis direction of the visual sensor (14), which is a direction intersecting the conveying direction, and a first detection target position (Hz1, Vt1) that is a target position on the image (IM) where the detection target (DT) should be located when the movable part (11B) is located at the first position (X1), and a second correspondence relationship that is a correspondence relationship between a second position (X2) of the movable part (11B) in the optical axis direction, and a second detection target position (Hz2, Vt2) that is a target position on the image (IM) where the detection target (DT) should be located when the movable part (11B) is located at the second position (X2);
a target position setting unit (231B; 231B-1) that sets a target position (Hz(X), Vt(X)) on the image (IM) where the detection target (DT) should be located, based on the first correspondence relationship, the second correspondence relationship, and a position (X) of the movable part (11B) in the optical axis direction.
(Appendix 2)
The robot control device (2) according to
(Appendix 3)
The robot control device (2) according to
(Appendix 4)
The robot control unit (2) described in Appendix 3 controls the position of the movable part (11B) only in the transport direction based on the position (Hz, Vt) of the detection target (DT) on the image (IM) and the target position (Hz(X), Vt(X)) on the image (IM) where the detection target (DT) should be located, which is set by the target position setting unit (231B; 231B-1), when the movable part (11B) is brought closer to the workpiece (W1) in the optical axis direction.
(Appendix 5)
The robot control unit (232; 2-2) controls the position (X) of the movable part (11B) in the optical axis direction based on information indicating the first position (X1) and information indicating the second position (X2) stored in the memory unit (22).
(Appendix 6)
The first position (X1) is a movement start position of the movable part (11B) in the optical axis direction,
The second position (X2) is a movement end position of the movable part (11B) in the optical axis direction,
the first correspondence relationship is a correspondence relationship between the movement start position (X1) and the first detection target position (Hz1, Vt1) which is a target position on the image (IM) where the detection target (DT) should be located when the movable part (11B) is located at the movement start position (X1);
the second correspondence relationship is a correspondence relationship between the movement end position (X2) and the second detection target position (Hz2, Vt2) which is a target position on the image (IM) where the detection target (DT) should be located when the movable part (11B) is located at the movement end position (X2),
The robot control device (2) according to any one of
(Appendix 7)
The robot control device (2) described in any one of
(Appendix 8)
The target position (Hz(X), Vt(X)) on the image (IM) where the detection target (DT) is to be positioned, which is set by the target position setting unit (231B; 231B-1), is represented by a horizontal coordinate value (Hz(X)) and a vertical coordinate value (Vt(X));
the horizontal coordinate value (Hz(X)) changes in proportion to a change in the position (X) of the movable part (11B) in the optical axis direction;
The robot control device (2) according to any one of
(Appendix 9)
The robot control device (2) described in any of
(Appendix 10)
an image acquisition step of acquiring data of an image (IM) including a detection target (DT) on a workpiece (W1) moving in a conveying direction, the image (IM) being generated by a visual sensor (14) provided on a movable part (11B) of the robot (1);
a storage step of storing at least a first correspondence relationship which is a correspondence relationship between a first position (X1) of the movable part (11B) in an optical axis direction of the visual sensor (14), which is a direction intersecting the conveying direction, and a first detection target position (Hz1, Vt1) which is a target position on the image (IM) where the detection target (DT) should be located when the movable part (11B) is located at the first position (X1), and a second correspondence relationship which is a correspondence relationship between a second position (X2) of the movable part (11B) in the optical axis direction, and a second detection target position (Hz2, Vt2) which is a target position on the image (IM) where the detection target (DT) should be located when the movable part (11B) is located at the second position (X2);
a target position setting step of setting a target position (Hz(X), Vt(X)) on the image (IM) where the detection target (DT) is to be located, based on the first correspondence relationship, the second correspondence relationship, and a position (X) of the movable part (11B) in the optical axis direction.
(Appendix 11)
On the computer,
an image acquisition step of acquiring data of an image (IM) including a detection target (DT) on a workpiece (W1) moving in a conveying direction, the image (IM) being generated by a visual sensor (14) provided on a movable part (11B) of the robot (1);
a storage step of storing at least a first correspondence relationship which is a correspondence relationship between a first position (X1) of the movable part (11B) in an optical axis direction of the visual sensor (14), which is a direction intersecting the conveying direction, and a first detection target position (Hz1, Vt1) which is a target position on the image (IM) where the detection target (DT) should be located when the movable part (11B) is located at the first position (X1), and a second correspondence relationship which is a correspondence relationship between a second position (X2) of the movable part (11B) in the optical axis direction, and a second detection target position (Hz2, Vt2) which is a target position on the image (IM) where the detection target (DT) should be located when the movable part (11B) is located at the second position (X2);
a target position setting step of setting a target position (Hz(X), Vt(X)) on the image (IM) where the detection target (DT) is to be located, based on the first correspondence relationship, the second correspondence relationship, and a position (X) of the movable part (11B) in the optical axis direction.
100 ロボットシステム
1 ロボット
11 リンク部
11A ベース部
11B 可動部
12 ジョイント部
13 アクチュエータ
13A アクチュエータセンサ
14 視覚センサ
15 接続部材
2 ロボット制御装置
21 通信部
22 記憶部
23 処理部
231 画像処理部
231A 画像取得部
231B 目標位置設定部
232 ロボット制御部
232A 位置算出部
232B 制御部
C コンベヤ
W1 ワーク
DT 検出対象
W2 ワーク
IM 画像
REFERENCE SIGNS
Claims (11)
前記搬送方向に交差する方向である前記視覚センサの光軸方向の前記可動部の第1位置と前記可動部が前記第1位置に位置するときに前記検出対象が位置すべき前記画像上の目標位置である第1検出対象目標位置との対応関係である第1対応関係と、前記光軸方向の前記可動部の第2位置と前記可動部が前記第2位置に位置するときに前記検出対象が位置すべき前記画像上の目標位置である第2検出対象目標位置との対応関係である第2対応関係とを少なくとも記憶する記憶部と、
前記第1対応関係及び前記第2対応関係と前記光軸方向の前記可動部の位置とに基づいて、前記検出対象が位置すべき前記画像上の目標位置を設定する目標位置設定部と、を備えるロボット制御装置。 an image acquisition unit that acquires image data including a detection target on a workpiece moving in a conveying direction, the image data being generated by a visual sensor provided on a movable part of the robot;
a storage unit that stores at least a first correspondence relationship that is a correspondence relationship between a first position of the movable part in an optical axis direction of the visual sensor that is a direction intersecting the transport direction and a first detection target position that is a target position on the image where the detection target should be located when the movable part is located at the first position, and a second correspondence relationship that is a correspondence relationship between a second position of the movable part in the optical axis direction and a second detection target position that is a target position on the image where the detection target should be located when the movable part is located at the second position;
a target position setting unit that sets a target position on the image where the detection object should be located based on the first correspondence relationship, the second correspondence relationship and the position of the movable part in the optical axis direction.
前記第2位置は、前記光軸方向の前記可動部の移動終了位置であり、
前記第1対応関係は、前記移動開始位置と前記可動部が前記移動開始位置に位置するときに前記検出対象が位置すべき前記画像上の目標位置である前記第1検出対象目標位置との対応関係であり、
前記第2対応関係は、前記移動終了位置と前記可動部が前記移動終了位置に位置するときに前記検出対象が位置すべき前記画像上の目標位置である前記第2検出対象目標位置との対応関係であり、
前記目標位置設定部は、前記光軸方向の前記可動部の位置が前記移動開始位置及び前記移動終了位置のいずれでもないときに前記検出対象が位置すべき前記画像上の目標位置を、前記第1対応関係及び前記第2対応関係と前記光軸方向の前記可動部の位置とに基づいて設定する、請求項1又は2に記載のロボット制御装置。 the first position is a movement start position of the movable part in the optical axis direction,
the second position is a movement end position of the movable part in the optical axis direction,
the first correspondence relationship is a correspondence relationship between the movement start position and the first detection target position which is a target position on the image where the detection target should be located when the movable part is located at the movement start position,
the second correspondence relationship is a correspondence relationship between the movement end position and the second detection target position which is a target position on the image where the detection target should be located when the movable part is located at the movement end position,
3. The robot control device according to claim 1 or 2, wherein the target position setting unit sets a target position on the image where the detection object should be located when the position of the movable part in the optical axis direction is neither the movement start position nor the movement end position, based on the first correspondence relationship, the second correspondence relationship, and the position of the movable part in the optical axis direction.
前記水平方向の座標値は、前記光軸方向の前記可動部の位置の変化に比例して変化し、
前記垂直方向の座標値は、前記光軸方向の前記可動部の位置の変化に比例して変化する、請求項1又は2に記載のロボット制御装置。 the target position on the image where the detection target is to be positioned, which is set by the target position setting unit, is represented by a horizontal coordinate value and a vertical coordinate value;
the horizontal coordinate value changes in proportion to a change in the position of the movable part in the optical axis direction;
The robot control device according to claim 1 , wherein the vertical coordinate value changes in proportion to a change in the position of the movable part in the optical axis direction.
前記搬送方向に交差する方向である前記視覚センサの光軸方向の前記可動部の第1位置と前記可動部が前記第1位置に位置するときに前記検出対象が位置すべき前記画像上の目標位置である第1検出対象目標位置との対応関係である第1対応関係と、前記光軸方向の前記可動部の第2位置と前記可動部が前記第2位置に位置するときに前記検出対象が位置すべき前記画像上の目標位置である第2検出対象目標位置との対応関係である第2対応関係とを少なくとも記憶する記憶ステップと、
前記第1対応関係及び前記第2対応関係と前記光軸方向の前記可動部の位置とに基づいて、前記検出対象が位置すべき前記画像上の目標位置を設定する目標位置設定ステップと、を備えるロボット制御方法。 an image acquiring step of acquiring image data including a detection target on a workpiece moving in a conveying direction, the image data being generated by a visual sensor provided on a movable part of the robot;
a storage step of storing at least a first correspondence relationship which is a correspondence relationship between a first position of the movable part in an optical axis direction of the visual sensor which is a direction intersecting the transport direction and a first detection target position which is a target position on the image where the detection target should be located when the movable part is located at the first position, and a second correspondence relationship which is a correspondence relationship between a second position of the movable part in the optical axis direction and a second detection target position which is a target position on the image where the detection target should be located when the movable part is located at the second position;
a target position setting step of setting a target position on the image where the detection object should be located based on the first correspondence relationship, the second correspondence relationship and the position of the movable part in the optical axis direction.
ロボットの可動部に設けられた視覚センサによって生成された搬送方向に移動するワーク上の検出対象を含む画像のデータを取得する画像取得ステップと、
前記搬送方向に交差する方向である前記視覚センサの光軸方向の前記可動部の第1位置と前記可動部が前記第1位置に位置するときに前記検出対象が位置すべき前記画像上の目標位置である第1検出対象目標位置との対応関係である第1対応関係と、前記光軸方向の前記可動部の第2位置と前記可動部が前記第2位置に位置するときに前記検出対象が位置すべき前記画像上の目標位置である第2検出対象目標位置との対応関係である第2対応関係とを少なくとも記憶する記憶ステップと、
前記第1対応関係及び前記第2対応関係と前記光軸方向の前記可動部の位置とに基づいて、前記検出対象が位置すべき前記画像上の目標位置を設定する目標位置設定ステップと、を実行させるためのプログラム。 On the computer,
an image acquiring step of acquiring image data including a detection target on a workpiece moving in a conveying direction, the image data being generated by a visual sensor provided on a movable part of the robot;
a storage step of storing at least a first correspondence relationship which is a correspondence relationship between a first position of the movable part in an optical axis direction of the visual sensor which is a direction intersecting the transport direction and a first detection target position which is a target position on the image where the detection target should be located when the movable part is located at the first position, and a second correspondence relationship which is a correspondence relationship between a second position of the movable part in the optical axis direction and a second detection target position which is a target position on the image where the detection target should be located when the movable part is located at the second position;
a target position setting step of setting a target position on the image where the detection object should be located based on the first correspondence relationship, the second correspondence relationship and the position of the movable part in the optical axis direction.
Priority Applications (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202380096097.8A CN120936465A (en) | 2023-03-28 | 2023-03-28 | Robot control device, robot control method and program |
| DE112023005639.0T DE112023005639T5 (en) | 2023-03-28 | 2023-03-28 | Robot control device, robot control method and program |
| PCT/JP2023/012613 WO2024201737A1 (en) | 2023-03-28 | 2023-03-28 | Robot control device, robot control method, and program |
| JP2025509356A JPWO2024201737A1 (en) | 2023-03-28 | 2023-03-28 | |
| TW113107171A TW202502501A (en) | 2023-03-28 | 2024-02-29 | Robot control device, robot control method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/012613 WO2024201737A1 (en) | 2023-03-28 | 2023-03-28 | Robot control device, robot control method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2024201737A1 true WO2024201737A1 (en) | 2024-10-03 |
Family
ID=92903522
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/012613 Pending WO2024201737A1 (en) | 2023-03-28 | 2023-03-28 | Robot control device, robot control method, and program |
Country Status (5)
| Country | Link |
|---|---|
| JP (1) | JPWO2024201737A1 (en) |
| CN (1) | CN120936465A (en) |
| DE (1) | DE112023005639T5 (en) |
| TW (1) | TW202502501A (en) |
| WO (1) | WO2024201737A1 (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014128855A (en) * | 2012-12-28 | 2014-07-10 | Kawasaki Heavy Ind Ltd | Automatic teaching system and teaching method |
| JP2016083705A (en) * | 2014-10-23 | 2016-05-19 | 株式会社メカトロデザイン | Robot teaching device |
| WO2022039245A1 (en) * | 2020-08-21 | 2022-02-24 | ファナック株式会社 | Robot control device |
-
2023
- 2023-03-28 WO PCT/JP2023/012613 patent/WO2024201737A1/en active Pending
- 2023-03-28 JP JP2025509356A patent/JPWO2024201737A1/ja active Pending
- 2023-03-28 CN CN202380096097.8A patent/CN120936465A/en active Pending
- 2023-03-28 DE DE112023005639.0T patent/DE112023005639T5/en active Pending
-
2024
- 2024-02-29 TW TW113107171A patent/TW202502501A/en unknown
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014128855A (en) * | 2012-12-28 | 2014-07-10 | Kawasaki Heavy Ind Ltd | Automatic teaching system and teaching method |
| JP2016083705A (en) * | 2014-10-23 | 2016-05-19 | 株式会社メカトロデザイン | Robot teaching device |
| WO2022039245A1 (en) * | 2020-08-21 | 2022-02-24 | ファナック株式会社 | Robot control device |
Also Published As
| Publication number | Publication date |
|---|---|
| TW202502501A (en) | 2025-01-16 |
| DE112023005639T5 (en) | 2025-11-20 |
| JPWO2024201737A1 (en) | 2024-10-03 |
| CN120936465A (en) | 2025-11-11 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Baeten et al. | Hybrid vision/force control at corners in planar robotic-contour following | |
| JP4976883B2 (en) | Manipulator system | |
| WO2006022201A1 (en) | Robot evaluation system and evaluation method | |
| CN104057456A (en) | Robot picking system and method of manufacturing a workpiece | |
| JP2010228028A (en) | Robot arm, contact detection method for robot arm, and device equipped with robot arm | |
| JP2003117861A (en) | Robot position correction system | |
| CN111093911B (en) | Robot systems and methods of operating them | |
| CN110026986B (en) | Multi-arm cooperative operation compliance control method | |
| CN106493711A (en) | Control device, robot and robot system | |
| JP2767417B2 (en) | Robot control device | |
| JP6217322B2 (en) | Robot control apparatus, robot, and robot control method | |
| JP2020171989A (en) | Robot teaching system | |
| JP6990120B2 (en) | Robot control device | |
| WO2024201737A1 (en) | Robot control device, robot control method, and program | |
| JP2000055664A (en) | Articulated robot system with function of measuring attitude, method and system for certifying measuring precision of gyro by use of turntable for calibration reference, and device and method for calibrating turntable formed of n-axes | |
| JP4396553B2 (en) | Robot controller, computer program | |
| JP2000039911A (en) | Robot controller | |
| JPWO2018173178A1 (en) | Robot system | |
| JPH0385608A (en) | How to control the robot | |
| JPS5946758B2 (en) | Operation control method for automatic working machines | |
| JP7710901B2 (en) | Control method, control device, information processing method, information processing device, robot device, article manufacturing method, program, and recording medium | |
| JP7311971B2 (en) | ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD | |
| US20250033197A1 (en) | Control device, teaching device, and mechanical system | |
| CN117325173A (en) | Robot dynamic grabbing method based on visual servo | |
| Hirzinger | Sensory feedback in the external loop |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23930377 Country of ref document: EP Kind code of ref document: A1 |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2025509356 Country of ref document: JP |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 112023005639 Country of ref document: DE |