[go: up one dir, main page]

WO2016189740A1 - ロボットシステム、教示治具及び教示方法 - Google Patents

ロボットシステム、教示治具及び教示方法 Download PDF

Info

Publication number
WO2016189740A1
WO2016189740A1 PCT/JP2015/065439 JP2015065439W WO2016189740A1 WO 2016189740 A1 WO2016189740 A1 WO 2016189740A1 JP 2015065439 W JP2015065439 W JP 2015065439W WO 2016189740 A1 WO2016189740 A1 WO 2016189740A1
Authority
WO
WIPO (PCT)
Prior art keywords
hand
axis
detection
detection target
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2015/065439
Other languages
English (en)
French (fr)
Inventor
昌稔 古市
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to PCT/JP2015/065439 priority Critical patent/WO2016189740A1/ja
Publication of WO2016189740A1 publication Critical patent/WO2016189740A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/677Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations

Definitions

  • the present disclosure relates to a robot system, a teaching jig, and a teaching method.
  • Patent Document 1 discloses a system that includes a plurality of arms, each of which teaches a transfer robot that transfers a substrate such as a semiconductor wafer.
  • This disclosure is intended to provide a robot system, a teaching jig, and a teaching method that can perform teaching work efficiently.
  • a robot system includes a robot having a first hand and a second hand rotatable around a first axis, and a controller for controlling the robot, the controller moving the second hand
  • the first relative value indicating the relative difference between the distance from the first hand to the first axis and the distance from the second hand to the first axis is used.
  • the teaching method according to the present disclosure includes a first detection mechanism that is detachably attached to one of a robot having a first hand and a second hand that can rotate about a first axis, and is detachable to the other hand.
  • the first detection mechanism has a first detection target and a variable mechanism that can change the distance from the first detection target to the first axis
  • the second detection mechanism Has at least one sensor including a first sensor that detects the first detection target in accordance with a change in the distance from the first detection target to the first axis.
  • a teaching method uses a robot system including a robot having a first hand and a second hand rotatable around a first axis, and a controller for controlling the robot. And causing the controller to obtain a first relative value indicating a relative difference between the distance to the second hand and the distance from the second hand to the first axis.
  • FIG. 6 is a plan view showing a first detection mechanism and a second detection mechanism during detection of a first relative value. It is a flowchart which shows the recording procedure of a teaching value. It is a perspective view which shows the example of arrangement
  • the robot system 1 automatically performs work on the workpiece W.
  • the work content is conveyance of the work W and the work W is a circular substrate (for example, a semiconductor wafer).
  • the circular shape includes notches (for example, notches or orientation flats), protrusions, and the like formed on a part of the periphery, and is circular if most of the periphery has the same circumference.
  • the robot system 1 includes a robot 10 and a controller 100 for controlling the robot 10.
  • the robot 10 has a plurality of hands that can rotate around the first axis.
  • the robot 10 includes a base 11, an elevating unit 12, a first arm 13, a second arm 14, and hands 20 and 30.
  • the base 11 is fixed to the floor surface of the placement area of the robot 10.
  • the elevating unit 12 protrudes vertically upward from the base 11 and can be elevated along the vertical axis Ax1.
  • the first arm 13 is connected to the upper end of the elevating unit 12.
  • the first arm 13 extends in the horizontal direction from the upper end of the elevating unit 12 and can swing around the axis Ax1.
  • the second arm 14 is connected to the tip of the first arm 13.
  • the second arm 14 extends in the horizontal direction from the tip of the first arm 13 and can swing around an axis Ax2 parallel to the axis Ax1.
  • the hands 20 and 30 are connected to the tip of the second arm 14. Each of the hands 20 and 30 projects horizontally from the tip of the second arm 14 and can rotate about an axis Ax3 (corresponding to the “first axis”) parallel to the axis Ax2.
  • the hand 30 may be provided below the hand 20 or may be provided on the hand 20.
  • the robot 10 includes an actuator that moves the lifting unit 12 up and down along the axis Ax1, an actuator that swings the first arm 13 around the axis Ax1, an actuator that swings the second arm 14 around the axis Ax2, and a hand 20 around the axis Ax3.
  • an actuator for rotating and an actuator for rotating the hand 30 around the axis Ax3 illustration of these actuators is omitted.
  • Examples of the actuator include an electric actuator using an electric motor as a power source.
  • the hands 20 and 30 each hold a workpiece W.
  • the elevating unit 12, the first arm 13 and the second arm 14 convey the work W held by the hands 20 and 30.
  • the configuration of the robot 10 is not limited to that illustrated here, and any configuration may be used as long as it has a plurality of hands that can rotate around a common axis (corresponding to the “first axis”). Good.
  • the robot 10 may have three or more hands that can rotate around a common axis.
  • the hand 20 includes a base portion 21, finger portions 22 and 23, claw portions 22 a and 23 a, and a movable claw portion 24.
  • the base portion 21 is a horizontal plate-like portion, is connected to the distal end portion of the second arm 14 and protrudes in the horizontal direction.
  • the finger parts 22 and 23 are divided into two branches from the base part 21 and further project.
  • an axis passing through the middle part of the finger parts 22 and 23 and orthogonal to the axis Ax3 is defined as a center axis CL1 of the hand 20.
  • the claw portions 22a and 23a are provided at the tip portions of the finger portions 22 and 23, respectively, and protrude upward from the finger portions 22 and 23.
  • the movable claw portion 24 is provided on the base portion 21 so as to be reciprocable along the central axis CL1, and faces the claw portions 22a and 23a.
  • the hand 20 further includes an actuator for reciprocating the movable claw portion 24 along the central axis CL1, but illustration of this actuator is omitted.
  • the actuator include an electric actuator using an electric motor as a power source, a pressure-driven actuator using a fluid pressure as a power source, and the like.
  • the base 21 and the finger parts 22 and 23 support the workpiece W.
  • the claw portions 22a and 23a and the movable claw portion 24 surround the periphery of the workpiece W.
  • the movable claw portion 24 presses the workpiece W against the claw portions 22a and 23a. Thereby, the workpiece
  • the hand 30 also has a base portion 31, finger portions 32 and 33, claw portions 32 a and 33 a, and a movable claw portion 34.
  • an axis passing through the middle part of the finger parts 32 and 33 and orthogonal to the axis Ax3 is defined as a center axis CL2 of the hand 30.
  • the movable claw portion 34 reciprocates along the central axis CL2.
  • the configurations of the hands 20 and 30 are not limited to those illustrated here.
  • the hands 20 and 30 may be configured in any manner as long as the work W can be held.
  • the hands 20 and 30 may be configured to suck and hold the workpiece W instead of gripping the workpiece W by the claw portion.
  • the controller 100 holds the workpiece W by the hands 20 and 30 and controls the robot 10 to convey the workpiece W by moving the hands 20 and 30 holding the workpiece W.
  • the controller 100 controls any one of the plurality of hands as the first hand and controls the other hand as the second hand.
  • the hand 20 is controlled as the first hand and the hand 30 is controlled as the second hand.
  • the controller 100 is configured to use the first relative value indicating the relative difference between the distance from the hand 20 to the axis Ax3 and the distance from the hand 30 to the axis Ax3 when the robot 10 is controlled to move the hand 30.
  • the distance from the hand 20 to the axis Ax3 is a distance in the direction along the central axis CL1, for example, and is a distance from a predetermined part of the hand 20 to the axis Ax3.
  • the distance from the hand 30 to the axis Ax3 is, for example, a distance in the direction along the central axis CL2, and is a distance from a predetermined part of the hand 30 to the axis Ax3.
  • the “predetermined part” may be any part of the hands 20 and 30 as long as the hand 20 and the hand 30 are the same.
  • Specific examples of the “predetermined portion” include an intermediate position CP1 of the claw portions 22a and 23a and an intermediate position CP2 of the claw portions 32a and 33a.
  • the first relative value is generated due to processing errors and assembly errors of the constituent members of the hands 20 and 30.
  • the controller 100 controls the robot 10 to move the hand 30, the controller 100 further uses a second relative value indicating a relative difference between the angle of the hand 20 around the axis Ax3 and the angle of the hand 30 around the axis Ax3. It may be configured.
  • the angle of the hands 20 and 30 around the axis Ax3 is, for example, the rotation angle of the central axes CL1 and CL2 with respect to the reference line.
  • the reference line can be arbitrarily set. For example, a line that forms 180 ° with respect to the second arm 14 may be used as the reference line.
  • the relative difference between the angle of the hand 20 around the axis Ax3 and the angle of the hand 30 around the axis Ax3 makes the angle of the hand 20 around the axis Ax3 and the angle of the hand 30 around the axis Ax3 coincide with the same target angle value.
  • the angle formed by the hands 20 and 30 (for example, the angle formed by the central axes CL1 and CL2).
  • the second relative value is generated due to processing errors and assembly errors of the constituent members of the hand 20 and the hand 30.
  • the controller 100 may be configured to further use a teaching value for correcting a positioning error of the hand 20 when the robot 10 is controlled to move the hand 30.
  • the controller 100 may be configured to acquire the first relative value, the second relative value, and the teaching value.
  • the robot system 1 may further include a console 200 as a user interface of the controller 100.
  • the console 200 is connected to the controller 100, acquires input information from the user to the controller 100, and displays output information from the controller 100 to the user.
  • Specific examples of the console 200 include a keyboard, a mouse, and a monitor.
  • the console 200 may be a so-called teaching pendant in which a display unit and an input unit are integrated, or may be a touch panel display.
  • the controller 100 includes a relative value recording unit 111, a teaching value recording unit 112, and a control unit 113 as functional modules.
  • the relative value recording unit 111 records the first relative value and the second relative value.
  • the relative value recording unit 111 may be configured to acquire a first relative value and a second relative value for recording.
  • the relative value recording unit 111 may be configured to acquire the first relative value and the second relative value from the console 200, and as described later in the description of the teaching procedure, the relative value recording unit 111 receives the second relative value from the control unit 113. You may be comprised so that a relative value may be acquired.
  • the teaching value recording unit 112 records the teaching value.
  • the teaching value recording unit 112 may be configured to acquire a teaching value for recording.
  • the teaching value recording unit 112 may be configured to acquire the teaching value from the console 200, or may be configured to acquire the teaching value from the control unit 113 as described later in the description of the teaching procedure. It may be.
  • the control unit 113 controls the robot 10 to move the hand 20 using the teaching value recorded in the teaching value recording unit 112. For example, the control unit 113 calculates a movement path of the hand 20 for conveying the workpiece W based on the teaching value. Next, the control unit 113 calculates an operation target value of each movable unit for moving the hand 20 along the calculated movement route. Next, the control unit 113 controls the robot 10 to operate each movable unit according to the operation target value.
  • the control unit 113 causes the robot 10 to move the hand 30 using the teaching value recorded in the teaching value recording unit 112 and the first relative value and the second relative value recorded in the relative value recording unit 111. Control. For example, the control unit 113 calculates the movement path of the hand 30 for conveying the workpiece W based on the teaching value. Next, the control unit 113 sets an operation target value of each movable unit for moving the hand 30 along the calculated movement route. At this time, the control unit 113 uses the first relative value and the second relative value.
  • the control unit 113 calculates the distance D2 by adding the first relative value Dr to the distance D1 from the hand 20 to the axis Ax3. Thereafter, the control unit 113 replaces the distance D1 with the distance D2, and calculates the operation target value of each movable unit by performing the same calculation as in the case of moving the hand 20. Thereafter, as shown in FIG. 3, the control unit 113 subtracts the second relative value ⁇ r from the target angle value (the target operation value of the hand 30) ⁇ 1 about the axis Ax3 to calculate the target angle value ⁇ 2. . Next, the control unit 113 replaces the angle target value ⁇ 1 with the angle target value ⁇ 2, and then controls the robot 10 to operate each movable unit according to the operation target value.
  • the first relative value Dr is added to the distance D1 when the first relative value Dr is based on the hand 20 side.
  • the distance D2 is calculated by subtracting the first relative value Dr from the distance D1.
  • the second relative value ⁇ r is subtracted from the target angle value ⁇ 2 when the second relative value ⁇ r is based on the hand 20 side.
  • the angle target value ⁇ 2 is calculated by adding the second relative value ⁇ r to the angle target value ⁇ 1.
  • “addition” and “subtraction” are “addition” and “subtraction” when one side is positive and each value has a positive / negative sign, and “addition” and “subtraction” in absolute values May be different.
  • the angle target value ⁇ 2 is expressed by an absolute value
  • the angle target value ⁇ 2 is set to the angle target value ⁇ 1 and the second relative value A value obtained by adding ⁇ r (see FIG. 3).
  • the hardware of the controller 100 includes, for example, one or a plurality of control computers.
  • the controller 100 includes, for example, a circuit 120 illustrated in FIG. 4 as a hardware configuration.
  • the circuit 120 includes a processor 121, a memory 122, a storage 123, an input / output port 124, and a driver 125.
  • the driver 125 is a circuit for driving various actuators of the robot 10.
  • the input / output port 124 inputs / outputs signals to / from the driver 125 in addition to inputting / outputting external signals.
  • the processor 121 executes the program in cooperation with at least one of the memory 122 and the storage 123 and executes input / output of signals via the input / output port 124, thereby configuring the above-described functional module.
  • the hardware configuration of the controller 100 is not necessarily limited to that which constitutes a functional module by executing a program.
  • the controller 100 may constitute these functional modules by a dedicated logic circuit or an ASIC (Application Specific Integrated Circuit) in which the controller 100 is integrated.
  • ASIC Application Specific Integrated Circuit
  • the robot system 1 may further include a first detection mechanism and a second detection mechanism for detecting the first relative value as an example of the teaching jig.
  • the first detection mechanism 40 and the second detection mechanism 50 will be described in detail with reference to FIGS.
  • the first detection mechanism 40 is provided in one of the first hand and the second hand, and the second detection mechanism 50 is provided in the other hand.
  • the first detection mechanism 40 may be provided detachably with respect to the one hand
  • the second detection mechanism 50 may be provided detachably with respect to the other hand.
  • the first detection mechanism 40 is detachably provided on the hand 30 controlled as the second hand
  • the second detection mechanism 50 is detachably provided on the hand 20 controlled as the first hand.
  • the first detection mechanism 40 is detachably provided on the hand 30 controlled as the second hand
  • the second detection mechanism 50 is detachably provided on the hand 20 controlled as the first hand.
  • the first detection mechanism 40 includes a first detection target and a variable mechanism that can change the distance from the first detection target to the axis Ax3.
  • the distance from the first detection target to the axis Ax3 is, for example, a distance in a direction along the center axis CL2.
  • the first detection mechanism 40 may further include a second detection target.
  • the first detection mechanism 40 includes, for example, a support plate 41, a first convex portion 42, a variable mechanism VS1, a second convex portion 43, a scale plate 44, and a positioning convex portion. 46.
  • the support plate 41 is, for example, a disc having the same diameter as the workpiece W, and can be held by the hand 30 in the same manner as the workpiece W is held.
  • the support plate 41 is supported by the base portion 31 and the finger portions 32 and 33 and is held by the claw portions 32 a and 33 a and the movable claw portion 34.
  • the first detection mechanism 40 is attached to and detached from the hand 30 by holding and releasing the support plate 41 by the hand 30.
  • “up and down” in the description of the first detection mechanism 40 means up and down in a state of being attached to the hand 30.
  • the first convex portion 42 is provided on the upper surface of the support plate 41, and has a cylindrical outer peripheral surface 42 a perpendicular to the support plate 41.
  • the first convex portion 42 is located closer to the claw portions 22 a and 23 a with respect to the center of the support plate 41.
  • the outer peripheral surface 42a functions as the first detection target.
  • the variable mechanism VS1 can change the distance from the outer peripheral surface 42a to the axis Ax3.
  • the variable mechanism VS1 may constrain the outer peripheral surface 42a so that the change in the distance from the outer peripheral surface 42a to the axis Ax3 is accompanied by the movement of the outer peripheral surface 42a around the axis Ax3.
  • the variable mechanism VS1 holds the first convex portion 42 so as to be rotatable around an axis Ax4 (second axis) parallel to the axis Ax3, and the axis Ax4 is decentered with respect to the central axis CL3 of the outer peripheral surface 42a. (See FIG. 7).
  • the first convex portion 42 is rotated around the axis Ax4
  • the distance from the outer peripheral surface 42a to the axis Ax3 changes with the movement of the outer peripheral surface 42a around the axis Ax3.
  • the constraining structure of the outer peripheral surface 42a is not limited to that exemplified here.
  • the shape of the outer peripheral surface 42a in plan view may be an ellipse, and the axis Ax4 may coincide with the central axis CL3 of the outer peripheral surface 42a.
  • the change in the distance from the outer peripheral surface 42a to the axis Ax3 is accompanied by the movement of the outer peripheral surface 42a around the axis Ax3.
  • variable mechanism VS1 guides the first convex portion 42 along a line inclined to the central axis CL1 in a plan view, instead of holding the first convex portion 42 so as to be rotatable around the axis Ax4. It may be configured to. Also in this case, the change in the distance from the outer peripheral surface 42a to the axis Ax3 is accompanied by the movement of the outer peripheral surface 42a around the axis Ax3.
  • the scale plate 44 is a disc centered on the axis Ax4, and is integrated with the lower portion of the first convex portion 42. That is, the scale plate 44 rotates together with the first convex portion 42. As shown in FIG. 7, a scale 45 is provided on the upper surface of the scale plate 44 and the upper surface of the support plate 41 so that the rotation angle of the first convex portion 42 can be visually recognized. A numerical value indicating the rotation angle of the first convex portion 42 may be displayed along with the scale 45. As will be described later, since the rotation angle of the first convex portion 42 correlates with the first relative value, the first relative value corresponding to the rotation angle is used instead of the numerical value indicating the rotation angle of the first convex portion 42. A numerical value may be displayed.
  • the second convex portion 43 is provided on the upper surface of the support plate 41 and has a cylindrical outer peripheral surface 43 a perpendicular to the support plate 41.
  • the second convex portion 43 is located at the center of the support plate 41.
  • the outer peripheral surface 43a functions as the second detection target.
  • the positioning convex portion 46 is provided on the lower surface of the support plate 41.
  • the positioning convex portion 46 is disposed so as to contact one of the finger portions 32 and 33 when the first convex portion 42 is appropriately disposed. For this reason, it becomes possible to arrange
  • the second detection mechanism 50 includes at least one sensor including a first sensor that detects the first detection target in accordance with a change in the distance from the first detection target to the axis Ax3.
  • the at least one sensor may further include a second sensor that detects a second detection target in accordance with a change in relative angle around the axis Ax3 of the hands 20 and 30.
  • the second detection mechanism 50 includes a first sensor 51, a second sensor 52, and a support plate 53.
  • the support plate 53 includes a base portion 54 and finger portions 55 and 56 that are divided into two portions and project from the base portion 54.
  • a circumferential portion 54 a having the same diameter as the workpiece W is formed on the opposite side of the finger portions 55 and 56.
  • Circumferential portions 55a and 56a that are concentric with the circumferential portion 54a and have the same diameter are formed at the tips of the finger portions 55 and 56, respectively.
  • the width of the support plate 53 in the direction in which the finger portions 55 and 56 are arranged may be equal to the width of the hand 20 in the direction in which the finger portions 22 and 23 are arranged.
  • the support plate 53 is disposed on the base portion 21 and the finger portions 22 and 23 so that the circumferential portions 55a and 56a face the claw portions 22a and 23a, respectively, and the circumferential portion 54a faces the movable claw portion 24. .
  • the support plate 53 is held by pressing the support plate 53 against the claw portions 22a and 23a by the movable claw portion 24.
  • the second detection mechanism 50 is attached to and detached from the hand 20 by holding and releasing the support plate 53 on the hand 20.
  • “up and down” in the description of the second detection mechanism 50 means up and down in a state where the second detection mechanism 50 is attached to the hand 20.
  • the first sensor 51 is, for example, a transmissive optical sensor, and detects an object between the light projecting unit and the light receiving unit according to a light receiving state of light emitted from the light projecting unit to the light receiving unit.
  • the first sensor 51 includes a light projecting unit 51a, a light receiving unit 51b, and an amplifier 51c.
  • the light projecting portion 51a and the light receiving portion 51b are provided at the tip portions of the finger portions 55 and 56, respectively, and face each other.
  • the light projecting unit 51a emits light toward the light receiving unit 51b.
  • the amplifier 51c is provided on the base 54, and is connected to the light projecting unit 51a and the light receiving unit 51b via an optical fiber (not shown).
  • the amplifier 51c sends the outgoing light to the light projecting unit 51a via the optical fiber, and receives the light incident on the light receiving unit 51b via the optical fiber.
  • the second sensor 52 is, for example, a transmissive optical sensor, and detects an object between the light projecting unit and the light receiving unit according to a light receiving state of light emitted from the light projecting unit to the light receiving unit.
  • the second sensor 52 includes a light projecting unit 52a, a light receiving unit 52b, and an amplifier 52c.
  • the light projecting unit 52a and the light receiving unit 52b are provided at the distal end portion and the base portion 54 of the projecting portion 57, and face each other.
  • the light projecting unit 52a emits light toward the light receiving unit 52b.
  • the amplifier 52c is provided on the base 54, and is connected to the light projecting unit 52a and the light receiving unit 52b via an optical fiber (not shown).
  • the amplifier 52c sends the outgoing light to the light projecting unit 52a via the optical fiber, and receives the light incident on the light receiving unit 52b via the optical fiber.
  • the first sensor 51 and the second sensor 52 may be connected to the controller 100.
  • the control unit 113 of the controller 100 may be configured to acquire detection results output from the first sensor 51 and the second sensor 52.
  • the first sensor 51 and the second sensor 52 are not limited to transmissive optical sensors.
  • the first sensor 51 and the second sensor 52 may be any sensors as long as the first detection target and the second detection target can be detected.
  • the first sensor 51 and the second sensor 52 may be a reflection type optical sensor or a contact type sensor such as a dial gauge.
  • the first detection mechanism 40 and the second detection mechanism 50 are used in a state where the hand 20 and the hand 30 are overlapped.
  • the first sensor 51 detects the outer peripheral surface 42a in accordance with a change in the distance from the outer peripheral surface 42a to the axis Ax3. For example, if the incident light from the light projecting unit 51a to the light receiving unit 51b is blocked at a predetermined ratio by the outer peripheral surface 42a entering between the light projecting unit 51a and the light receiving unit 51b away from the axis Ax3, the first sensor 51 Detects the outer peripheral surface 42a.
  • the predetermined ratio can be set as appropriate, for example, 50%.
  • the second sensor 52 detects the outer peripheral surface 43a according to a change in the relative angle around the axis Ax3 of the hands 20 and 30. Specifically, the second sensor 52 detects the outer peripheral surface 43a in response to the outer peripheral surface 43a entering between the light projecting unit 52a and the light receiving unit 52b in accordance with the change in the relative angle. For example, the second sensor 52 detects the outer peripheral surface 43a when the incident light to the light receiving unit 52b is blocked at a predetermined rate by the outer peripheral surface 43a entering between the light projecting unit 52a and the light receiving unit 52b.
  • the predetermined ratio can be set as appropriate, for example, 50%.
  • the robot system 1 may further include a third detection mechanism for causing the teaching value recording unit 112 (see FIG. 1) to acquire a teaching value as an example of the teaching jig.
  • the third detection mechanism 60 will be described in detail with reference to FIG.
  • the third detection mechanism 60 is disposed at a place where the hand 20 should be moved.
  • the third detection mechanism 60 is disposed at a place where the workpiece W to be held by the hand 20 is disposed.
  • the third detection mechanism 60 has a third detection target and a fourth detection target.
  • the third detection mechanism 60 includes a third convex portion 61, a fourth convex portion 62, and a support plate 63.
  • the support plate 63 is a plate having a size that can be disposed at a place where the workpiece W is disposed.
  • “up and down” in the description of the third detection mechanism 60 means up and down in a state in which the support plate 63 is disposed at a position where the workpiece W is disposed.
  • the third convex portion 61 is provided on the upper surface of the support plate 63 and has a columnar outer peripheral surface 61 a perpendicular to the support plate 63.
  • the fourth convex portion 62 is provided on the upper surface of the support plate 63 at a position different from the third convex portion 61.
  • a circumferential surface 62 a concentric with the outer circumferential surface 61 a is formed on a portion of the circumferential surface of the fourth convex portion 62 facing the opposite side of the third convex portion 61.
  • the fourth convex portion 62 is arranged in accordance with the second detection mechanism 50.
  • the 4th convex part 62 arrange
  • the circumferential surface 62 a is arranged so as to be detected by the first sensor 51.
  • the support plate 63 may be circular or polygonal.
  • the support plate 63 and the outer peripheral surface 61a may be concentric.
  • the third detection mechanism 60 is used with the second detection mechanism 50 attached to the hand 20.
  • the outer peripheral surface 61 a functions as a third detection target and is a detection target by the second sensor 52.
  • the circumferential surface 62 a functions as a fourth detection target and is a detection target by the first sensor 51.
  • the teaching procedure for the robot system 1 includes causing the controller 100 to acquire the first relative value.
  • the teaching procedure may further include causing the controller 100 to acquire the second relative value.
  • a procedure for causing the controller 100 to acquire both the first relative value and the second relative value will be described in detail.
  • this procedure includes steps S01 to S06.
  • step S01 the operator operates the robot system 1 so as to temporarily align the angles of the hands 20 and 30 around the axis Ax3.
  • the operator inputs a command to the console 200 to make the angles of the hands 20 and 30 around the axis Ax3 coincide with the same angle target value.
  • the controller 100 controls the robot 10.
  • the control unit 113 controls the robot 10 so that the angles of the hands 20 and 30 coincide with the same angle target value.
  • step S02 the operator attaches the second detection mechanism 50 and the first detection mechanism 40 to the hands 20 and 30 after the execution of step S01.
  • the operator inputs an instruction to the console 200 to press the support plate 41 toward the claw portions 32 a and 33 a by the movable claw portion 34.
  • the controller 100 controls the robot 10.
  • the control unit 113 controls the robot 10 so that the movable claw unit 34 presses the support plate 41 toward the claw units 32a and 33a.
  • the controller 100 controls the robot 10.
  • the control unit 113 controls the robot 10 such that the movable claw unit 24 presses the support plate 53 against the claw units 22a and 23a.
  • Steps S03 and S04 are started when the operator inputs a command to acquire the second relative value to the console 200 and executed by the controller 100.
  • the control unit 113 controls the robot 10 to change the relative angle around the axis Ax3 of the hands 20, 30 by rotating at least one of the hands 20, 30 around the axis Ax3 (FIG. 12). reference).
  • the “relative angle” here means a relative angle when it is assumed that the second relative value is zero.
  • step S04 the control unit 113 acquires the second relative value based on the relative angle when the outer peripheral surface 43a is detected by the second sensor 52, and records the second relative value in the teaching value recording unit 112.
  • the control unit 113 acquires a value obtained by reversing the sign of the relative angle with respect to the hand 20 side as a second relative value with the hand 20 side as a reference.
  • this procedure changes the relative angle around the axis Ax3 of the hands 20 and 30, and sets the second relative value on the controller 100 based on the relative angle when the outer peripheral surface 43a is detected by the second sensor 52. Including the acquisition.
  • step S05 an operator rotates the 1st convex part 42 (refer FIG. 13). Thereby, the distance from the outer peripheral surface 42a to the axis Ax3 changes. The operator rotates the first convex portion 42 until the light beam LF1 from the light projecting portion 51a toward the light receiving portion 51b is blocked by the outer peripheral surface 42a and the first sensor 51 detects the outer peripheral surface 42a.
  • step S06 the operator causes the controller to acquire the first relative value based on the position of the outer peripheral surface 42a when detected by the first sensor 51.
  • the operator determines the difference between the position of the outer peripheral surface 42a to be detected by the first sensor 51 and the position of the outer peripheral surface 42a when actually detected by the first sensor 51 when the first relative value is zero.
  • the controller 100 acquires the first relative value.
  • the relative value recording unit 111 acquires and records the first relative value.
  • this procedure changes the distance from the outer peripheral surface 42a to the axis Ax3, and causes the controller 100 to acquire the first relative value based on the position of the outer peripheral surface 42a when detected by the first sensor 51.
  • the position of the outer peripheral surface 42a means the position in the direction along the center axis line CL2. This procedure may be executed before the factory shipment of the robot system 1 or may be executed when the robot system 1 is installed after the factory shipment.
  • the teaching procedure for the robot system 1 may further include causing the controller 100 to acquire a teaching value for correcting the positioning error of the hand 20.
  • a procedure for causing the controller 100 to acquire the teaching value will be described in detail.
  • this procedure includes steps S11 to S15.
  • step S ⁇ b> 11 the operator attaches the second detection mechanism 50 to the hand 20 and arranges the third detection mechanism 60.
  • the procedure for mounting the second detection mechanism 50 is the same as that in step S02.
  • the operator places the third detection mechanism 60 at a place where the hand 20 should be moved.
  • a place where the hand 20 should be moved a place where the work W to be held by the hand 20 is arranged can be mentioned.
  • the operator arranges the third detection mechanism 60 in the slot 71 of the cassette 70 for accommodating a plurality of workpieces W in multiple stages (see FIG. 15).
  • the operator arranges the fourth protrusion 62 on the back side of the third protrusion 61.
  • step S12 the operator operates the robot system 1 so that the hand 20 is placed on the third detection mechanism 60.
  • the operator inputs a command for moving the hand 20 toward the third detection mechanism 60 to the console 200.
  • the controller 100 controls the robot 10.
  • the control unit 113 controls the robot 10 so as to move the hand 20 in accordance with a command input to the console 200.
  • the operator continues to operate the robot system 1 until the hand 20 is positioned on the third detection mechanism 60 and the third convex portion 61 and the fourth convex portion 62 are arranged between the finger portions 55 and 56.
  • Steps S13 to S15 are started when the operator inputs a command for acquiring a teaching value to the console 200, and is executed by the controller 100.
  • the control unit 113 controls the robot 10 to rotate the hand 20 about the axis Ax3 (see FIG. 16).
  • the control unit 113 controls the robot 10 to stop the hand 20 when the light beam LF2 from the light projecting unit 52a toward the light receiving unit 52b is blocked by the outer peripheral surface 61a and the second sensor 52 detects the outer peripheral surface 61a.
  • step S14 the control unit 113 controls the robot 10 to move the hand 20 along the central axis CL1 (see FIG. 17).
  • the control unit 113 stops the hand 20 so that the hand 20 is stopped. To control.
  • step S15 the teaching for correcting the positioning error of the hand 20 based on the state of the robot 10 when the outer circumferential surface 61a is detected by the second sensor 52 and the circumferential surface 62a is detected by the first sensor 51.
  • the value is acquired by the control unit 113 and recorded in the teaching value recording unit 112.
  • the control unit 113 calculates the position of the hand 20 stopped through steps S13 and S14, and records this in the teaching value recording unit 112 as a teaching value.
  • the position of the hand 20 calculated by the control unit 113 is, for example, the position of the hand 20 in the coordinate system with the robot 10 as a reference.
  • the present procedure is based on the state of the robot 10 when the hand 20 is moved, and the indicator whose position relative to the target position is known is detected by at least one sensor of the second detection mechanism 50. Obtaining a teaching value for correcting 20 positioning errors.
  • This procedure is executed when the robot system 1 is installed after the factory shipment of the robot system 1. This procedure may be executed before or after steps S01 to S06.
  • the robot system 1 includes the robot 10 having the hands 20 and 30 rotatable around the axis Ax3 and the controller 100 for controlling the robot 10.
  • the controller 100 is configured to use the first relative value indicating the relative difference between the distance from the hand 30 to the axis Ax3 and the distance from the hand 20 to the axis Ax3 when the robot 10 is controlled to move the hand 30. Has been.
  • the target position of the hand 20 if the target position of the hand 20 is accurately determined, the target position of the hand 30 can also be accurately calculated using the first relative value. For this reason, it is not necessary to individually execute teaching for determining the target position for the hands 20 and 30. Therefore, teaching work can be performed efficiently.
  • the controller 100 controls the robot 10 to move the hand 30, the controller 100 further uses a second relative value indicating a relative difference between the angle of the hand 20 around the axis Ax3 and the angle of the hand 30 around the axis Ax3. It may be configured. In this case, since the target position of the hand 30 can be calculated based on the relative difference between the declination direction and the radial direction about the axis Ax3, the positioning accuracy of the hand 30 is improved.
  • the robot system 1 may further include a first detection mechanism 40 provided in one of the hands 20 and 30 and a second detection mechanism 50 provided in the other hand.
  • the first detection mechanism 40 includes an outer peripheral surface 42a as a first detection target, and a variable mechanism VS1 that can change the distance from the outer peripheral surface 42a to the axis Ax3.
  • the second detection mechanism 50 includes at least one sensor including a first sensor 51 that detects the outer peripheral surface 42a in accordance with a change in the distance from the outer peripheral surface 42a to the axis Ax3.
  • the controller 100 may be configured to further execute obtaining the first relative value.
  • the first relative value can be easily detected based on the position of the outer peripheral surface 42a when detected by the first sensor 51, and can be acquired by the controller.
  • the teaching work can be performed more efficiently.
  • the first detection mechanism 40 may further include an outer peripheral surface 43a as a second detection target, and at least one sensor of the second detection mechanism 50 changes the relative angle around the axis Ax3 of the hands 20 and 30. Accordingly, a second sensor 52 that detects the outer peripheral surface 43a may be further included.
  • the controller 100 may be configured to further execute obtaining the second relative value. In this case, the second relative value can also be easily detected and acquired by the controller. Therefore, since both the first relative value and the second relative value can be easily taught, the teaching work can be performed more efficiently.
  • the controller 100 controls the robot 10 to change the relative angle around the axis Ax3 of the hands 20 and 30, and calculates the second relative value based on the relative angle when the outer peripheral surface 43a is detected by the second sensor 52. You may get it. In this case, since the second relative value is automatically acquired, the teaching work can be performed more efficiently.
  • the first detection mechanism 40 may be provided detachably with respect to the one hand, and the second detection mechanism 50 may be provided detachably with respect to the other hand.
  • the configuration of the hands 20 and 30 can be simplified.
  • variable mechanism VS1 may constrain the outer peripheral surface 42a so that the change in the distance from the outer peripheral surface 42a to the axis Ax3 is accompanied by the movement of the outer peripheral surface 42a around the axis Ax3. In this case, since the operation amount for changing the distance from the outer peripheral surface 42a to the axis Ax3 is increased, fine adjustment of the distance is facilitated.
  • variable mechanism VS1 may hold the outer peripheral surface 42a so as to be rotatable around an axis Ax4 parallel to the axis Ax3, and the axis Ax4 may be eccentric with respect to the central axis CL3 of the outer peripheral surface 42a.
  • a configuration that increases the amount of operation for changing the distance from the outer peripheral surface 42a to the axis Ax3 can be realized with a simple rotation mechanism.
  • the controller 100 may be configured to further use a teaching value for correcting a positioning error of the hand 20 when controlling the robot 10 to move the hand 30.
  • the positioning error of the hand 30 can also be corrected by using the teaching value for correcting the positioning error of the hand 20 and the first relative value. Therefore, the teaching work can be performed more efficiently.
  • the second detection mechanism 50 is provided in the hand 20, and the controller 100 controls the robot 10 to move the hand 20, and an index whose position relative to the target position is known is determined by at least one sensor of the second detection mechanism 50.
  • the robot 10 is further controlled to move the hand 30 by further obtaining a teaching value for correcting the positioning error of the hand 20 based on the state of the robot 10 detected.
  • the teaching value for correcting the positioning error of 20 may be further used. In this case, since the teaching value is automatically acquired, the teaching operation can be performed more efficiently.
  • This disclosure can be used for a robot system that automatically executes work on a workpiece.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

ロボットシステム1は、軸線(Ax3)まわりに回転可能なハンド(20),(30)を有するロボット(10)と、ロボット(10)を制御するためのコントローラ(100)と、を備える。 コントローラ(100)は、ハンド(30)を移動させるようにロボット(10)を制御する際に、ハンド(30)から軸線(Ax3)までの距離及びハンド(20)から軸線(Ax3)までの距離の相対差を示す第一相対値を用いるように構成されている。

Description

ロボットシステム、教示治具及び教示方法
 本開示は、ロボットシステム、教示治具及び教示方法に関する。
 特許文献1には、複数のアームを備え、その各々によって半導体ウェハ等の基板を搬送する搬送ロボットに対して教示作業を行うシステムが開示されている。
特開2002-313872号公報
 本開示は、効率よく教示作業を行うことができるロボットシステム、教示治具及び教示方法を提供することを目的とする。
 本開示に係るロボットシステムは、第一軸線まわりに回転可能な第一ハンド及び第二ハンドを有するロボットと、ロボットを制御するためのコントローラと、を備え、コントローラは、第二ハンドを移動させるようにロボットを制御する際に、第一ハンドから第一軸線までの距離及び第二ハンドから第一軸線までの距離の相対差を示す第一相対値を用いるように構成されている。
 本開示に係る教示方法は、第一軸線まわりに回転可能な第一ハンド及び第二ハンドを有するロボットのいずれか一方のハンドに着脱自在に取り付けられる第一検出機構と、他方のハンドに着脱自在に取り付けられる第二検出機構とを備え、第一検出機構は、第一検出対象と、第一検出対象から第一軸線までの距離を変更可能とする可変機構とを有し、第二検出機構は、第一検出対象から第一軸線までの距離の変化に応じて第一検出対象を検出する第一センサを含む少なくとも一つのセンサを有する。
 本開示に係る教示方法は、第一軸線まわりに回転可能な第一ハンド及び第二ハンドを有するロボットと、ロボットを制御するためのコントローラとを備えるロボットシステムを用い、第一ハンドから第一軸線までの距離及び第二ハンドから第一軸線までの距離の相対差を示す第一相対値をコントローラに取得させること、を含む。
 本開示によれば、効率よく教示作業を行うことができる。
ロボットシステムの全体構成を示す模式図である。 第一相対値に基づく目標値の設定例を示す平面図である。 第二相対値に基づく目標値の設定例を示す平面図である。 コントローラのハードウェア構成図である。 第一検出機構及び第二検出機構の斜視図である。 第一検出機構の斜視図である。 第一検出機構の平面図である。 第一検出機構及び第二検出機構が重なった状態を示す斜視図である。 第三検出機構の斜視図である。 第一検出機構及び第三検出機構が重なった状態を示す斜視図である。 第一相対値及び第二相対値の記録手順を示すフローチャートである。 第二相対値の検出中における第一検出機構及び第二検出機構を示す平面図である。 第一相対値の検出中における第一検出機構及び第二検出機構を示す平面図である。 教示値の記録手順を示すフローチャートである。 第三検出機構の配置例を示す斜視図である。 教示値の検出中における第二検出機構及び第三検出機構を示す平面図である。 教示値の検出中における第二検出機構及び第三検出機構を示す平面図である。
 以下、実施形態について、図面を参照しつつ詳細に説明する。説明において、同一要素又は同一機能を有する要素には同一の符号を付し、重複する説明を省略する。
〔ロボットシステム〕
 本実施形態に係るロボットシステム1は、ワークWに対する作業を自動実行するものである。作業内容及びワークWの種類に特に制限はないが、一例として、以下では作業内容がワークWの搬送であり、ワークWが円形の基板(例えば半導体ウェハ)であるものとする。円形とは、周縁の一部に切欠き(例えば、ノッチ又はオリエンテーションフラット)、出っ張り等が形成されたものも含み、周縁の大半が同一の円周をなしていれば円形であるものとする。
 図1に示すように、ロボットシステム1は、ロボット10と、ロボット10を制御するためのコントローラ100とを備える。
(ロボット)
 ロボット10は、第一軸線まわりに回転可能な複数のハンドを有する。一例として、ロボット10は、基台11と、昇降部12と、第一アーム13と、第二アーム14と、ハンド20,30とを有する。
 基台11は、ロボット10の配置領域の床面に固定される。昇降部12は、基台11から鉛直上方に突出しており、鉛直な軸線Ax1に沿って昇降可能である。第一アーム13は、昇降部12の上端部に接続されている。第一アーム13は、昇降部12の上端部から水平方向に延びており、軸線Ax1まわりに揺動可能である。第二アーム14は、第一アーム13の先端部に接続されている。第二アーム14は、第一アーム13の先端部から水平方向に延びており、軸線Ax1に平行な軸線Ax2まわりに揺動可能である。
 ハンド20,30は、第二アーム14の先端部に接続されている。ハンド20,30は、それぞれ第二アーム14の先端部から水平方向に張り出しており、軸線Ax2に平行な軸線Ax3(上記「第一軸線」に相当)まわりに回転可能である。ハンド30はハンド20の下に設けられていてもよいし、ハンド20の上に設けられていてもよい。
 ロボット10は、軸線Ax1に沿って昇降部12を昇降させるアクチュエータ、軸線Ax1まわりに第一アーム13を搖動させるアクチュエータ、軸線Ax2まわりに第二アーム14を搖動させるアクチュエータ、軸線Ax3まわりにハンド20を回転させるアクチュエータ、及び軸線Ax3まわりにハンド30を回転させるアクチュエータを有するが、これらのアクチュエータの図示は省略する。アクチュエータとしては、例えば電動モータを動力源とする電動式のアクチュエータが挙げられる。
 ハンド20,30は、それぞれワークWを保持する。昇降部12、第一アーム13及び第二アーム14は、ハンド20,30に保持されたワークWを搬送する。ロボット10の構成はここに例示したものに限られず、共通な一軸線(上記「第一軸線」に相当)まわりに回転可能な複数のハンドを有するものであればどのようなものであってもよい。例えばロボット10は、共通な一軸線まわりに回転可能な三つ以上のハンドを有してもよい。
(ハンド)
 続いて、ハンド20,30の構成について更に詳細に説明する。ハンド20は、基部21と、指部22,23と、爪部22a,23aと、可動爪部24とを有する。基部21は水平な板状部分であり、第二アーム14の先端部に接続され、水平方向に張り出している。指部22,23は、基部21から二股に分かれて更に張り出している。以下、指部22,23の中間部を通り、軸線Ax3に直交する軸線をハンド20の中心軸線CL1とする。爪部22a,23aは、指部22,23の先端部にそれぞれ設けられ、指部22,23から上方に突出している。可動爪部24は、中心軸線CL1に沿って往復可能となるように基部21上に設けられ、爪部22a,23aに対向している。
 ハンド20は、中心軸線CL1に沿って可動爪部24を往復させるアクチュエータを更に有するが、このアクチュエータの図示は省略する。アクチュエータとしては、例えば電動モータを動力源とする電動式のアクチュエータ、流体圧を動力源とする圧力駆動式のアクチュエータ等が挙げられる。
 基部21及び指部22,23は、ワークWを支持する。爪部22a,23a及び可動爪部24はワークWの周縁を取り囲む。可動爪部24はワークWを爪部22a,23a側に押し付ける。これによりワークWが保持される(図2参照)。
 ハンド30も、ハンド20と同様に、基部31と、指部32,33と、爪部32a,33aと、可動爪部34とを有する。以下、指部32,33の中間部を通り、軸線Ax3に直交する軸線をハンド30の中心軸線CL2とする。可動爪部34は、中心軸線CL2に沿って往復する。
 ハンド20,30の構成は、ここに例示したものに限られない。ハンド20,30は、ワークWを保持可能であればどのように構成されてもよい。例えばハンド20,30は、爪部によりワークWを把持する代わりに、ワークWを吸着して保持するように構成されていてもよい。
(コントローラ)
 コントローラ100は、ハンド20,30によりワークWを保持し、ワークWを保持したハンド20,30を移動させることでワークWを搬送するようにロボット10を制御する。コントローラ100は、複数のハンドのいずれか一つを第一ハンドとして制御し、他のハンドを第二ハンドとして制御する。いずれのハンドを第一ハンドとするかに制限はないが、以下では、ハンド20が第一ハンドとして制御され、ハンド30が第二ハンドとして制御されるものとして説明する。
 コントローラ100は、ハンド30を移動させるようにロボット10を制御する際に、ハンド20から軸線Ax3までの距離及びハンド30から軸線Ax3までの距離の相対差を示す第一相対値を用いるように構成されている。ハンド20から軸線Ax3までの距離は、例えば中心軸線CL1に沿う方向における距離であり、ハンド20の所定部位から軸線Ax3までの距離である。ハンド30から軸線Ax3までの距離は、例えば中心軸線CL2に沿う方向における距離であり、ハンド30の所定部位から軸線Ax3までの距離である。上記「所定部位」は、ハンド20とハンド30とで同一であれば、ハンド20,30のどの部位であってもよい。「所定部位」の具体例としては、爪部22a,23aの中間位置CP1及び爪部32a,33aの中間位置CP2が挙げられる。第一相対値は、ハンド20,30の構成部材の加工誤差及び組み付け誤差等によって生じる。
 コントローラ100は、ハンド30を移動させるようにロボット10を制御する際に、軸線Ax3まわりのハンド20の角度及び軸線Ax3まわりのハンド30の角度の相対差を示す第二相対値を更に用いるように構成されていてもよい。軸線Ax3まわりのハンド20,30の角度は、例えば、基準線に対する中心軸線CL1,CL2の回転角度である。基準線は任意に設定可能である。例えば第二アーム14に対して180°をなす線を基準線としてもよい。軸線Ax3まわりのハンド20の角度及び軸線Ax3まわりのハンド30の角度の相対差とは、軸線Ax3まわりのハンド20の角度と軸線Ax3まわりのハンド30の角度とを同一の角度目標値に一致させた状態において、ハンド20,30がなす角度(例えば中心軸線CL1,CL2がなす角度)である。第二相対値は、ハンド20及びハンド30の構成部材の加工誤差及び組み付け誤差等によって生じる。
 コントローラ100は、ハンド30を移動させるようにロボット10を制御する際に、ハンド20の位置決め誤差を補正するための教示値を更に用いるように構成されていてもよい。
 コントローラ100は、上記第一相対値、上記第二相対値及び上記教示値を取得するように構成されていてもよい。
 ロボットシステム1は、コントローラ100のユーザインタフェースとしてコンソール200を更に備えてもよい。コンソール200は、コントローラ100に接続されており、ユーザからコントローラ100への入力情報を取得し、コントローラ100からユーザへの出力情報を表示する。コンソール200の具体例としては、キーボード、マウス及びモニタが挙げられる。コンソール200は表示部と入力部とが一体化した所謂ティーチングペンダントであってもよいし、タッチパネルディスプレイであってもよい。
 以下、コントローラ100の具体的な構成例について説明する。コントローラ100は、機能モジュールとして、相対値記録部111と、教示値記録部112と、制御部113とを有する。
 相対値記録部111は、上記第一相対値及び第二相対値を記録する。相対値記録部111は、記録するための第一相対値及び第二相対値を取得するように構成されていてもよい。例えば相対値記録部111は、コンソール200から第一相対値及び第二相対値を取得するように構成されていてもよいし、教示手順の説明にて後述するように、制御部113から第二相対値を取得するように構成されていてもよい。
 教示値記録部112は、上記教示値を記録する。教示値記録部112は、記録するための教示値を取得するように構成されていてもよい。例えば教示値記録部112は、コンソール200から教示値を取得するように構成されていてもよいし、教示手順の説明にて後述するように、制御部113から教示値を取得するように構成されていてもよい。
 制御部113は、教示値記録部112に記録された教示値を用いてハンド20を移動させるようにロボット10を制御する。例えば、制御部113は、上記教示値に基づいて、ワークWを搬送するためのハンド20の移動経路を算出する。次に、制御部113は、算出した移動経路に沿ってハンド20を移動させるための各可動部の動作目標値を算出する。次に、制御部113は、各可動部を動作目標値に従って動作させるようにロボット10を制御する。
 制御部113は、教示値記録部112に記録された教示値と、相対値記録部111に記録された第一相対値及び第二相対値とを用いてハンド30を移動させるようにロボット10を制御する。例えば、制御部113は、上記教示値に基づいて、ワークWを搬送するためのハンド30の移動経路を算出する。次に、制御部113は、算出した移動経路に沿ってハンド30を移動させるための各可動部の動作目標値を設定する。この際に、制御部113は上記第一相対値及び第二相対値を用いる。
 図2及び図3を参照し、第一相対値及び第二相対値の利用例を説明する。図2に示すように、例えば制御部113は、ハンド20から軸線Ax3までの距離D1に第一相対値Drを加算して距離D2を算出する。その後、制御部113は、距離D1を距離D2に置き換えた上で、ハンド20を移動させる場合と同様の演算を行って各可動部の動作目標値を算出する。その後、制御部113は、図3に示すように、軸線Ax3まわりのハンド30の角度目標値(ハンド30の動作目標値)θ1から第二相対値θrを減算して角度目標値θ2を算出する。次に、制御部113は、角度目標値θ1を角度目標値θ2に置き換えた上で、各可動部を動作目標値に従って動作させるようにロボット10を制御する。
 なお、距離D1に第一相対値Drを加算するのは、第一相対値Drがハンド20側を基準としている場合である。第一相対値Drがハンド30側を基準としている場合、距離D2は、距離D1から第一相対値Drを減算することで算出される。角度目標値θ2から第二相対値θrを減算するのは、第二相対値θrがハンド20側を基準としている場合である。第二相対値θrがハンド30側を基準としている場合、角度目標値θ2は、角度目標値θ1に第二相対値θrを加算することで算出される。また、「加算」及び「減算」は、一方側を正方向とし、各値に正負の符号が付いている場合の「加算」及び「減算」であり、絶対値における「加算」及び「減算」とは異なる場合がある。例えば、角度目標値θ2の演算を絶対値で表すと、角度目標値θ1と第二相対値θrの方向が逆向きである場合には、角度目標値θ2は角度目標値θ1に第二相対値θrを加算した値となる(図3参照)。
 コントローラ100のハードウェアは、例えば一つ又は複数の制御用のコンピュータにより構成される。コントローラ100は、ハードウェア上の構成として、例えば図4に示す回路120を有する。回路120は、プロセッサ121と、メモリ122と、ストレージ123と、入出力ポート124と、ドライバ125とを有する。ドライバ125は、ロボット10の各種アクチュエータを駆動するための回路である。入出力ポート124は、外部信号の入出力を行うのに加え、ドライバ125に対する信号の入出力も行う。プロセッサ121は、メモリ122及びストレージ123の少なくとも一方と協働してプログラムを実行し、入出力ポート124を介した信号の入出力を実行することで、上述した機能モジュールを構成する。
 なお、コントローラ100のハードウェア上の構成は、必ずしもプログラムの実行により機能モジュールを構成するものに限られない。例えばコントローラ100は、専用の論理回路により、又はこれを集積したASIC(Application Specific Integrated Circuit)によりこれらの機能モジュールを構成するものであってもよい。
(教示治具)
 ロボットシステム1は、教示治具の一例として、第一相対値を検出するための第一検出機構及び第二検出機構を更に備えてもよい。以下、図5~図8を参照し、第一検出機構40及び第二検出機構50について詳細に説明する。図5に示すように、第一検出機構40は、上記第一ハンド及び上記第二ハンドのいずれか一方のハンドに設けられ、第二検出機構50は他方のハンドに設けられる。第一検出機構40は上記一方のハンドに対して着脱自在に設けられてもよく、第二検出機構50は上記他方のハンドに対して着脱自在に設けられてもよい。一例として、以下では、第二ハンドとして制御されるハンド30に第一検出機構40が着脱自在に設けられ、第一ハンドとして制御されるハンド20に第二検出機構50が着脱自在に設けられるものとする。
 第一検出機構40は、第一検出対象と、第一検出対象から軸線Ax3までの距離を変更可能とする可変機構とを有する。第一検出対象から軸線Ax3までの距離は、例えば中心軸線CL2に沿う方向における距離である。第一検出機構40は、第二検出対象を更に有してもよい。
 図5及び図6に示すように、第一検出機構40は、例えば支持板41と、第一凸部42と、可変機構VS1と、第二凸部43と、目盛板44と、位置決め凸部46とを有する。支持板41は、例えばワークWと同径の円板であり、ワークWを保持するのと同様にハンド30により保持可能である。例えば支持板41は、基部31及び指部32,33により支持され、爪部32a,33a及び可動爪部34により保持される。支持板41をハンド30に保持・解放させることにより、第一検出機構40がハンド30に対して着脱される。以下、第一検出機構40の説明における「上下」は、ハンド30に装着された状態での上下を意味する。
 第一凸部42は支持板41の上面に設けられており、支持板41に対して垂直な円柱状の外周面42aを有する。第一凸部42は、支持板41の中心に対して爪部22a,23a寄りに位置している。外周面42aは上記第一検出対象として機能する。
 可変機構VS1は、外周面42aから軸線Ax3までの距離を変更可能とする。可変機構VS1は、外周面42aから軸線Ax3までの距離の変化が、軸線Ax3まわりの外周面42aの移動を伴うように、外周面42aを拘束してもよい。例えば可変機構VS1は、軸線Ax3に平行な軸線Ax4(第二軸線)まわりに回転自在となるように第一凸部42を保持し、軸線Ax4は外周面42aの中心軸線CL3に対して偏心していてもよい(図7参照)。この場合、軸線Ax4まわりに第一凸部42を回転させると、軸線Ax3まわりの外周面42aの移動を伴いながら、外周面42aから軸線Ax3までの距離が変化する。
 なお、外周面42aの拘束構造はここに例示するものに限られない。例えば、平面視における外周面42aの形状を楕円形にし、軸線Ax4を外周面42aの中心軸線CL3に一致させてもよい。この場合、軸線Ax4と中心軸線CL3とが一致していても、外周面42aから軸線Ax3までの距離の変化が軸線Ax3まわりの外周面42aの移動を伴う。また、可変機構VS1は、軸線Ax4まわりに回転自在となるように第一凸部42を保持するのに代えて、平面視で中心軸線CL1に傾斜する線に沿って第一凸部42を案内するように構成されていてもよい。この場合も、外周面42aから軸線Ax3までの距離の変化が軸線Ax3まわりの外周面42aの移動を伴う。
 目盛板44は、軸線Ax4を中心とする円板であり、第一凸部42の下部に一体化されている。すなわち目盛板44は、第一凸部42と共に回転する。図7に示すように、目盛板44の上面及び支持板41の上面には、第一凸部42の回転角度を視認可能とする目盛45が設けられる。第一凸部42の回転角度を示す数値を目盛45に添えて表示してもよい。また、後述するように、第一凸部42の回転角度は第一相対値に相関するので、第一凸部42の回転角度を示す数値に代えて、回転角度に対応する第一相対値を示す数値を表示してもよい。
 図5及び図6に示すように、第二凸部43は、支持板41の上面に設けられており、支持板41に対して垂直な円柱状の外周面43aを有する。第二凸部43は、支持板41の中心に位置している。外周面43aは、上記第二検出対象として機能する。
 位置決め凸部46は、支持板41の下面に設けられている。位置決め凸部46は、第一凸部42が適切に配置されると指部32,33のいずれか一方の指部に接するように配置されている。このため、上記一方の指部に位置決め凸部46が接するように支持板41を配置することにより、第一凸部42を正確に配置することが可能となる。
 第二検出機構50は、第一検出対象から軸線Ax3までの距離の変化に応じて第一検出対象を検出する第一センサを含む少なくとも一つのセンサを有する。上記少なくとも一つのセンサは、ハンド20,30の軸線Ax3まわりの相対角度の変化に応じて第二検出対象を検出する第二センサを更に含んでもよい。
 一例として、第二検出機構50は、第一センサ51と、第二センサ52と、支持板53とを有する。支持板53は、基部54と、二股に分かれて基部54から張り出す指部55,56とを有する。基部54の外周において、指部55,56の逆側には、ワークWと同径の円周部54aが形成されている。指部55,56の先端には、円周部54aと同心で同径の円周部55a,56aがそれぞれ形成されている。指部55,56が並ぶ方向における支持板53の幅は、指部22,23が並ぶ方向におけるハンド20の幅と同等であってもよい。支持板53の幅とハンド20の幅とが同等であれば、ハンド20に対する支持板53の位置合わせが容易となる。指部56の中間部には、指部55側に張り出した張出部57が形成されている。支持板53は、円周部55a,56aが爪部22a,23aにそれぞれ対向し、円周部54aが可動爪部24に対向するように、基部21及び指部22,23上に配置される。この状態で、可動爪部24により支持板53を爪部22a,23a側に押し付けることにより、支持板53が保持される。支持板53をハンド20に保持・解放させることにより、第二検出機構50がハンド20に対して着脱される。以下、第二検出機構50の説明における「上下」は、ハンド20に装着された状態での上下を意味する。
 第一センサ51は、例えば透過型の光センサであり、投光部から受光部に出射した光の受光状況に応じて、投光部及び受光部の間の物体を検出する。具体例として、第一センサ51は、投光部51aと、受光部51bと、アンプ51cとを有する。投光部51a及び受光部51bは、指部55,56の先端部にそれぞれ設けられ、互いに対向している。投光部51aは、受光部51b側に光を出射する。アンプ51cは基部54上に設けられており、光ファイバ(不図示)を介して投光部51a及び受光部51bに接続される。アンプ51cは、出射用の光を光ファイバ経由で投光部51aに送り、受光部51bに入射した光を光ファイバ経由で受光する。
 第二センサ52は、例えば透過型の光センサであり、投光部から受光部に出射した光の受光状況に応じて、投光部及び受光部の間の物体を検出する。具体例として、第二センサ52は、投光部52aと、受光部52bと、アンプ52cとを有する。投光部52a及び受光部52bは、張出部57の先端部及び基部54にそれぞれ設けられ、互いに対向している。投光部52aは、受光部52b側に光を出射する。アンプ52cは基部54上に設けられており、光ファイバ(不図示)を介して投光部52a及び受光部52bに接続される。アンプ52cは、出射用の光を光ファイバ経由で投光部52aに送り、受光部52bに入射した光を光ファイバ経由で受光する。
 図4に示すように、第一センサ51及び第二センサ52は、コントローラ100に接続されていてもよい。図5に示すように、コントローラ100の制御部113は、第一センサ51及び第二センサ52から出力される検出結果を取得するように構成されていてもよい。
 第一センサ51及び第二センサ52は、透過型の光センサに限られない。第一センサ51及び第二センサ52は、第一検出対象及び第二検出対象をそれぞれ検出可能であればどのようなセンサであってもよい。例えば第一センサ51及び第二センサ52は、反射型の光センサであってもよいし、ダイヤルゲージのように接触型のセンサであってもよい。
 図8に示すように、第一検出機構40及び第二検出機構50は、ハンド20及びハンド30が重なった状態で用いられる。第一センサ51は、外周面42aから軸線Ax3までの距離の変化に応じて外周面42aを検出する。例えば、軸線Ax3から遠ざかって投光部51a及び受光部51bの間に進入した外周面42aにより、投光部51aから受光部51bへの入射光が所定の割合で遮られると、第一センサ51が外周面42aを検出する。所定の割合は適宜設定可能であり、例えば50%である。
 第二センサ52は、ハンド20,30の軸線Ax3まわりの相対角度の変化に応じて外周面43aを検出する。具体的に、第二センサ52は、上記相対角度の変化に応じて外周面43aが投光部52a及び受光部52bの間に進入するのに応じて、外周面43aを検出する。例えば第二センサ52は、投光部52a及び受光部52bの間に進入した外周面43aにより、受光部52bへの入射光が所定の割合で遮られるのに応じて外周面43aを検出する。所定の割合は適宜設定可能であり、例えば50%である。
 ロボットシステム1は、教示治具の一例として、上記教示値記録部112(図1参照)に教示値を取得させるための第三検出機構を更に備えてもよい。以下、図9を参照し、第三検出機構60について詳細に説明する。第三検出機構60は、ハンド20を移動させるべき場所に配置される。例えば、第三検出機構60は、ハンド20による保持対象のワークWが配置される場所に配置される。第三検出機構60は、第三検出対象及び第四検出対象を有する。
 一例として、第三検出機構60は、第三凸部61と、第四凸部62と、支持板63とを有する。支持板63は、ワークWが配置される箇所に配置可能な大きさの板である。以下、第三検出機構60の説明における「上下」は、ワークWが配置される箇所に支持板63が配置された状態での上下を意味する。
 第三凸部61は、支持板63の上面に設けられており、支持板63に対して垂直な円柱状の外周面61aを有する。第四凸部62は、第三凸部61と異なる位置において支持板63の上面に設けられている。第四凸部62の周面のうち、第三凸部61の逆側に面する部分には、外周面61aと同心の円周面62aが形成されている。第四凸部62は、第二検出機構50に合わせて配置されている。例えば第四凸部62は、第三凸部61及び第四凸部62を指部55,56の間に配置し、円周部54a,55a,56aの中心と、外周面61aの中心とを一致させた場合に、円周面62aが第一センサ51により検出されるように配置されている。支持板63は、例えば円形であってもよいし、多角形であってもよい。支持板63と外周面61aとが同心であってもよい。
 図10に示すように、第三検出機構60は、第二検出機構50をハンド20に装着した状態で用いられる。外周面61aは第三検出対象として機能し、第二センサ52による検出対象となる。円周面62aは第四検出対象として機能し、第一センサ51による検出対象となる。
〔教示手順〕
 続いて、教示方法の一例として、ロボットシステム1に対する教示手順について説明する。
(相対値記録手順)
 ロボットシステム1に対する教示手順は、第一相対値をコントローラ100に取得させること、を含む。この教示手順は、第二相対値をコントローラ100に取得させることを更に含んでもよい。以下、第一相対値及び第二相対値の両方をコントローラ100に取得させる手順について詳細に説明する。
 図11に示すように、本手順は、ステップS01~ステップS06を含む。ステップS01では、オペレータが、軸線Ax3まわりのハンド20,30の角度を仮合わせするようにロボットシステム1を操作する。例えば、オペレータは、軸線Ax3まわりのハンド20,30の角度を同一の角度目標値に一致させる指令をコンソール200に入力する。これに応じ、コントローラ100がロボット10を制御する。具体的には、制御部113が、ハンド20,30の角度を同一の角度目標値に一致させるようにロボット10を制御する。
 ステップS02では、オペレータが、ステップS01の実行後のハンド20,30に第二検出機構50及び第一検出機構40をそれぞれ装着する。例えば、オペレータは、ハンド30上に第一検出機構40を配置した後、可動爪部34により支持板41を爪部32a,33a側に押し付ける指令をコンソール200に入力する。これに応じ、コントローラ100がロボット10を制御する。具体的には、制御部113が、可動爪部34により支持板41を爪部32a,33a側に押し付けるようにロボット10を制御する。次に、オペレータは、ハンド20上に第二検出機構50を配置した後、可動爪部24により支持板53を爪部22a,23a側に押し付ける指令をコンソール200に入力する。これに応じ、コントローラ100がロボット10を制御する。具体的には、制御部113が、可動爪部24により支持板53を爪部22a,23a側に押し付けるようにロボット10を制御する。
 ステップS03,S04は、第二相対値を取得する指令をオペレータがコンソール200に入力することで開始され、コントローラ100により実行される。ステップS03では、制御部113が、ハンド20,30の少なくとも一方を軸線Ax3まわりに回転させることで、ハンド20,30の軸線Ax3まわりの相対角度を変化させるようにロボット10を制御する(図12参照)。なお、ここでの「相対角度」は、第二相対値がゼロであると仮定した場合の相対角度を意味する。制御部113は、投光部52aから受光部52bに向かう光束LF2が外周面43aにより遮られ、第二センサ52により外周面43aが検出されると、ハンド20,30を停止させるようにロボット10を制御する。
 ステップS04では、制御部113が、第二センサ52により外周面43aが検出されたときの上記相対角度に基づいて第二相対値を取得し、教示値記録部112に記録する。例えば制御部113は、ハンド20側を基準とした上記相対角度の正負を逆転させた値を、ハンド20側を基準とした第二相対値として取得する。このように、本手順は、ハンド20,30の軸線Ax3まわりの相対角度を変化させ、第二センサ52により外周面43aが検出されたときの上記相対角度に基づいて第二相対値をコントローラ100に取得させることを含む。
 ステップS05では、オペレータが第一凸部42を回転させる(図13参照)。
これにより、外周面42aから軸線Ax3までの距離が変化する。オペレータは、投光部51aから受光部51bに向かう光束LF1が外周面42aにより遮られ、第一センサ51により外周面42aが検出されるまで第一凸部42を回転させる。
 ステップS06では、オペレータが、第一センサ51により検出されたときの外周面42aの位置に基づいて第一相対値をコントローラに取得させる。例えばオペレータは、第一相対値がゼロである場合に第一センサ51により検出されるべき外周面42aの位置と、第一センサ51により実際に検出されたときの外周面42aの位置との差を第一相対値としてコンソール200に入力する。これにより、コントローラ100が第一相対値を取得する。具体的には、相対値記録部111が第一相対値を取得し、記録する。このように、本手順は、外周面42aから軸線Ax3までの距離を変更し、第一センサ51により検出されたときの外周面42aの位置に基づいて第一相対値をコントローラ100に取得させることを含む。なお、外周面42aの位置は、中心軸線CL2に沿う方向における位置を意味する。本手順は、ロボットシステム1の工場出荷前に実行されてもよいし、工場出荷後において、当該ロボットシステム1を設置する際に実行されてもよい。
(教示値記録手順)
 ロボットシステム1に対する教示手順は、ハンド20の位置決め誤差を補正するための教示値をコントローラ100に取得させることを更に含んでもよい。以下、教示値をコントローラ100に取得させる手順について詳細に説明する。
 図14に示すように、本手順は、ステップS11~S15を含む。ステップS11では、オペレータが、ハンド20に第二検出機構50を装着し、第三検出機構60を配置する。第二検出機構50を装着する手順は上記ステップS02と同様である。オペレータは、ハンド20を移動させるべき場所に第三検出機構60を配置する。ハンド20を移動させるべき場所としては、ハンド20による保持対象のワークWが配置される場所が挙げられる。一例として、オペレータは、複数のワークWを多段に収容するためのカセット70のスロット71に第三検出機構60を配置する(図15参照)。この際オペレータは、第三凸部61よりも奥側に第四凸部62を配置する。
 ステップS12では、オペレータが、ハンド20を第三検出機構60上に配置するようにロボットシステム1を操作する。例えば、オペレータは、ハンド20を第三検出機構60側に移動させる指令をコンソール200に入力する。これに応じ、コントローラ100がロボット10を制御する。具体的には、制御部113が、コンソール200に入力された指令に応じてハンド20を移動させるようにロボット10を制御する。オペレータは、ハンド20が第三検出機構60上に位置し、第三凸部61及び第四凸部62が指部55,56の間に配置されるまでロボットシステム1の操作を継続する。
 ステップS13~S15は、教示値を取得する指令をオペレータがコンソール200に入力することで開始され、コントローラ100により実行される。ステップS13では、制御部113が、ハンド20を軸線Ax3まわりに回転させるようにロボット10を制御する(図16参照)。制御部113は、投光部52aから受光部52bに向かう光束LF2が外周面61aにより遮られ、第二センサ52により外周面61aが検出されると、ハンド20を停止させるようにロボット10を制御する。
 ステップS14では、制御部113が、ハンド20を中心軸線CL1に沿って移動させるようにロボット10を制御する(図17参照)。制御部113は、投光部51aから受光部51bに向かう光束LF1が円周面62aにより遮られ、第二センサ52により円周面62aが検出されると、ハンド20を停止させるようにロボット10を制御する。
 ステップS15では、第二センサ52により外周面61aが検出され、第一センサ51により円周面62aが検出されたときのロボット10の状態に基づいて、ハンド20の位置決め誤差を補正するための教示値を制御部113が取得し、教示値記録部112に記録する。例えば制御部113は、ステップS13,S14を経て停止したハンド20の位置を算出し、これを教示値として教示値記録部112に記録する。なお、制御部113が算出するハンド20の位置は、例えばロボット10を基準とした座標系におけるハンド20の位置である。
 このように、本手順は、ハンド20を移動させること、目標位置に対する位置が既知である指標が第二検出機構50の少なくとも一つのセンサにより検出されたときのロボット10の状態に基づいて、ハンド20の位置決め誤差を補正するための教示値を取得すること、を含む。本手順は、ロボットシステム1の工場出荷後において、当該ロボットシステム1を設置する際に実行される。本手順は、上記ステップS01~S06の前後のいずれで実行されてもよい。
〔本実施形態の効果〕
 以上に説明したように、ロボットシステム1は、軸線Ax3まわりに回転可能なハンド20,30を有するロボット10と、ロボット10を制御するためのコントローラ100と、を備える。コントローラ100は、ハンド30を移動させるようにロボット10を制御する際に、ハンド30から軸線Ax3までの距離及びハンド20から軸線Ax3までの距離の相対差を示す第一相対値を用いるように構成されている。
 ロボットシステム1によれば、ハンド20の目標位置が正確に定まっていれば、第一相対値を用いてハンド30の目標位置も正確に算出可能である。このため、目標位置を定めるための教示をハンド20,30に対して個別に実行する必要がない。従って、効率よく教示作業を行うことができる。
 コントローラ100は、ハンド30を移動させるようにロボット10を制御する際に、軸線Ax3まわりのハンド20の角度及び軸線Ax3まわりのハンド30の角度の相対差を示す第二相対値を更に用いるように構成されていてもよい。この場合、軸線Ax3まわりの偏角方向及び動径方向の2方向における相対差に基づいてハンド30の目標位置を算出できるので、ハンド30の位置決め精度が向上する。
 ロボットシステム1は、ハンド20,30のいずれか一方のハンドに設けられる第一検出機構40と、他方のハンドに設けられる第二検出機構50とを更に備えてもよい。第一検出機構40は、第一検出対象としての外周面42aと、外周面42aから軸線Ax3までの距離を変更可能とする可変機構VS1とを有する。第二検出機構50は、外周面42aから軸線Ax3までの距離の変化に応じて外周面42aを検出する第一センサ51を含む少なくとも一つのセンサを有する。
コントローラ100は、第一相対値を取得することを更に実行するように構成されていてもよい。この場合、第一センサ51に検出されるときの外周面42aの位置に基づいて第一相対値を容易に検出し、コントローラに取得させることができる。このように、第一相対値を容易に教示できるので、更に効率よく教示作業を行うことができる。
 第一検出機構40は、第二検出対象としての外周面43aを更に有してもよく、第二検出機構50の少なくとも一つのセンサは、ハンド20,30の軸線Ax3まわりの相対角度の変化に応じて外周面43aを検出する第二センサ52を更に含んでもよい。コントローラ100は、第二相対値を取得することを更に実行するように構成されていてもよい。この場合、第二相対値も容易に検出し、コントローラに取得させることができる。従って、第一相対値及び第二相対値の両方を容易に教示できるので、更に効率よく教示作業を行うことができる。
 コントローラ100は、ハンド20,30の軸線Ax3まわりの相対角度を変化させるようにロボット10を制御し、第二センサ52により外周面43aが検出されたときの相対角度に基づいて第二相対値を取得してもよい。この場合、第二相対値が自動的に取得されるので、更に効率よく教示作業を行うことができる。
 第一検出機構40は、上記一方のハンドに対して着脱自在に設けられ、第二検出機構50は、上記他方のハンドに対して着脱自在に設けられてもよい。この場合、第一検出機構40及び第二検出機構50をハンドに常設する場合に比べ、ハンド20,30の構成を単純化できる。
 可変機構VS1は、外周面42aから軸線Ax3までの距離の変化が、軸線Ax3まわりの外周面42aの移動を伴うように、外周面42aを拘束してもよい。この場合、外周面42aから軸線Ax3までの距離を変化させるための操作量が大きくなるので、当該距離の微調整が容易となる。
 可変機構VS1は、軸線Ax3に平行な軸線Ax4まわりに回転自在となるように外周面42aを保持し、軸線Ax4は外周面42aの中心軸線CL3に対して偏心していてもよい。この場合、外周面42aから軸線Ax3までの距離を変化させるための操作量を大きくする構成を、単純な回転機構で実現できる。
 コントローラ100は、ハンド30を移動させるようにロボット10を制御する際に、ハンド20の位置決め誤差を補正するための教示値を更に用いるように構成されていてもよい。この場合、ハンド20の位置決め誤差を補正するための教示値と、第一相対値とを用いることで、ハンド30の位置決め誤差をも補正できる。従って、更に効率よく教示作業を行うことができる。
 第二検出機構50はハンド20に設けられ、コントローラ100は、ハンド20を移動させるようにロボット10を制御し、目標位置に対する位置が既知である指標が第二検出機構50の少なくとも一つのセンサにより検出されたときのロボット10の状態に基づいて、ハンド20の位置決め誤差を補正するための教示値を取得することを更に実行し、ハンド30を移動させるようにロボット10を制御する際に、ハンド20の位置決め誤差を補正するための教示値を更に用いるように構成されていてもよい。この場合、教示値が自動的に取得されるので、更に効率よく教示作業を行うことができる。
 以上、実施形態について説明したが、本発明は必ずしも上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲で様々な変更が可能である。
 本開示は、ワークに対する作業を自動実行するロボットシステムに利用可能である。
 1…ロボットシステム、10…ロボット、20,30…ハンド、40…第一検出機構、42a…外周面(第一検出対象)、43a…外周面(第二検出対象)、50…第二検出機構、51…第一センサ、52…第二センサ、100…コントローラ、Ax3…軸線(第一軸線)、Ax4…軸線(第二軸線)、CL3…中心軸線、VS1…可変機構、W…ワーク。

Claims (21)

  1.  第一軸線まわりに回転可能な第一ハンド及び第二ハンドを有するロボットと、前記ロボットを制御するためのコントローラと、を備え、
     前記コントローラは、
     前記第二ハンドを移動させるように前記ロボットを制御する際に、前記第一ハンドから前記第一軸線までの距離及び前記第二ハンドから前記第一軸線までの距離の相対差を示す第一相対値を用いるように構成されている、ロボットシステム。
  2.  前記コントローラは、
     前記第二ハンドを移動させるように前記ロボットを制御する際に、前記第一軸線まわりの前記第一ハンドの角度及び前記第一軸線まわりの前記第二ハンドの角度の相対差を示す第二相対値を更に用いるように構成されている、請求項1記載のロボットシステム。
  3.  前記第一ハンド及び前記第二ハンドのいずれか一方のハンドに設けられる第一検出機構と、他方のハンドに設けられる第二検出機構とを更に備え、
     前記第一検出機構は、第一検出対象と、前記第一検出対象から前記第一軸線までの距離を変更可能とする可変機構とを有し、
     前記第二検出機構は、前記第一検出対象から前記第一軸線までの距離の変化に応じて前記第一検出対象を検出する第一センサを含む少なくとも一つのセンサを有し、
     前記コントローラは、前記第一相対値を取得することを更に実行するように構成されている、請求項1又は2記載のロボットシステム。
  4.  前記第一ハンド及び前記第二ハンドのいずれか一方のハンドに設けられる第一検出機構と、他方のハンドに設けられる第二検出機構とを備え、
     前記第一検出機構は、第一検出対象と、第二検出対象と、前記第一検出対象から前記第一軸線までの距離を変更可能とする可変機構とを有し、
     前記第二検出機構は、前記第一検出対象から前記第一軸線までの距離の変化に応じて前記第一検出対象を検出する第一センサと、前記第一ハンド及び前記第二ハンドの前記第一軸線まわりの相対角度の変化に応じて前記第二検出対象を検出する第二センサとを含む複数のセンサを有し、
     前記コントローラは、前記第一相対値及び前記第二相対値を取得することを更に実行するように構成されている、請求項2記載のロボットシステム。
  5.  前記コントローラは、前記第一ハンド及び前記第二ハンドの前記第一軸線まわりの相対角度を変化させるように前記ロボットを制御し、前記第二センサにより前記第二検出対象が検出されたときの前記相対角度に基づいて前記第二相対値を取得する、請求項4記載のロボットシステム。
  6.  前記第一検出機構は、前記一方のハンドに対して着脱自在に設けられ、
     前記第二検出機構は、前記他方のハンドに対して着脱自在に設けられる、請求項3~5のいずれか一項記載のロボットシステム。
  7.  前記可変機構は、前記第一検出対象から前記第一軸線までの距離の変化が、前記第一軸線まわりの前記第一検出対象の移動を伴うように、前記第一検出対象を拘束する、請求項3~6のいずれか一項記載のロボットシステム。
  8.  前記可変機構は、前記第一軸線に平行な第二軸線まわりに回転自在となるように前記第一検出対象を保持し、前記第二軸線は前記第一検出対象の中心に対して偏心している、請求項7記載のロボットシステム。
  9.  前記コントローラは、
     前記第二ハンドを移動させるように前記ロボットを制御する際に、前記第一ハンドの位置決め誤差を補正するための教示値を更に用いるように構成されている、請求項1~8のいずれか一項記載のロボットシステム。
  10.  前記第二検出機構は前記第一ハンドに設けられ、
     前記コントローラは、
     前記第一ハンドを移動させるように前記ロボットを制御し、目標位置に対する位置が既知である指標が前記第二検出機構の少なくとも一つの前記センサにより検出されたときの前記ロボットの状態に基づいて、前記第一ハンドの位置決め誤差を補正するための教示値を取得することを更に実行し、
     前記第二ハンドを移動させるように前記ロボットを制御する際に、前記第一ハンドの位置決め誤差を補正するための教示値を更に用いるように構成されている、請求項3~8のいずれか一項記載のロボットシステム。
  11.  第一軸線まわりに回転可能な第一ハンド及び第二ハンドを有するロボットのいずれか一方のハンドに着脱自在に取り付けられる第一検出機構と、他方のハンドに着脱自在に取り付けられる第二検出機構とを備え、
     前記第一検出機構は、第一検出対象と、前記第一検出対象から前記第一軸線までの距離を変更可能とする可変機構とを有し、
     前記第二検出機構は、前記第一検出対象から前記第一軸線までの距離の変化に応じて前記第一検出対象を検出する第一センサを含む少なくとも一つのセンサを有する、教示治具。
  12.  前記第一検出機構は、第二検出対象を更に有し、
     前記第二検出機構は、前記第一ハンド及び前記第二ハンドの前記第一軸線まわりの相対角度の変化に応じて前記第二検出対象を検出する第二センサを更に含む複数の前記センサを有する、請求項11記載の教示治具。
  13.  前記可変機構は、前記第一検出対象から前記第一軸線までの距離の変化が、前記第一軸線まわりの前記第一検出対象の移動を伴うように、前記第一検出対象を拘束する、請求項11又は12記載の教示治具。
  14.  前記可変機構は、前記第一軸線に平行な第二軸線まわりに回転自在となるように前記第一検出対象を保持し、前記第二軸線は前記第一検出対象の中心に対して偏心している、請求項13記載の教示治具。
  15.  第一軸線まわりに回転可能な第一ハンド及び第二ハンドを有するロボットと、前記ロボットを制御するためのコントローラとを備えるロボットシステムを用い、
     前記第一ハンドから前記第一軸線までの距離及び前記第二ハンドから前記第一軸線までの距離の相対差を示す第一相対値を前記コントローラに取得させること、を含む教示方法。
  16.  前記第一軸線まわりの前記第一ハンドの角度及び前記第一軸線まわりの前記第二ハンドの角度の相対差を示す第二相対値を前記コントローラに取得させることを更に含む、請求項15記載の教示方法。
  17.  前記第一ハンド及び前記第二ハンドのいずれか一方のハンドに設けられ、第一検出対象と、前記第一検出対象から前記第一軸線までの距離を変更可能とする可変機構とを有する第一検出機構と、
     前記第一ハンド及び前記第二ハンドの他方のハンドに設けられ、前記第一検出対象から前記第一軸線までの距離の変化に応じて前記第一検出対象を検出する第一センサを含む少なくとも一つのセンサを有する第二検出機構と、を用い、
     前記第一検出対象から前記第一軸線までの距離を変更し、前記第一センサにより検出されたときの前記第一検出対象の位置に基づいて前記第一相対値を前記コントローラに取得させる、請求項15又は16記載の教示方法。
  18.  前記第一ハンド及び前記第二ハンドのいずれか一方のハンドに設けられ、第一検出対象と、第二検出対象と、前記第一検出対象から前記第一軸線までの距離を変更可能とする可変機構とを有する第一検出機構と、
     前記第一ハンド及び前記第二ハンドの他方のハンドに設けられ、前記第一検出対象から前記第一軸線までの距離の変化に応じて前記第一検出対象を検出する第一センサと、前記第一ハンド及び前記第二ハンドの前記第一軸線まわりの相対角度の変化に応じて前記第二検出対象を検出する第二センサとを含む複数のセンサを有する第二検出機構と、を用い、
     前記第一検出対象から前記第一軸線までの距離を変更し、前記第一センサにより検出されたときの前記第一検出対象の位置に基づいて前記第一相対値を前記コントローラに取得させ、
     前記第一ハンド及び前記第二ハンドの前記第一軸線まわりの相対角度を変化させ、前記第二センサにより前記第二検出対象が検出されたときの前記相対角度に基づいて前記第二相対値を前記コントローラに取得させる、請求項16記載の教示方法。
  19.  前記第一ハンド及び前記第二ハンドのいずれか一方のハンドに前記第一検出機構を装着すること、
     前記第一ハンド及び前記第二ハンドの他方のハンドに前記第二検出機構を装着すること、を更に含む、請求項17又は18記載の教示方法。
  20.  前記第一ハンドの位置決め誤差を補正するための教示値を前記コントローラに取得させることを更に含む、請求項15~19のいずれか一項記載の教示方法。
  21.  前記第一ハンドに設けられた前記第二検出機構を用い、
     前記第一ハンドを移動させること、
     目標位置に対する位置が既知である指標が前記第二検出機構の少なくとも一つの前記センサにより検出されたときの前記ロボットの状態に基づいて、前記第一ハンドの位置決め誤差を補正するための教示値を取得すること、を更に含む、請求項17~19のいずれか一項記載の教示方法。
PCT/JP2015/065439 2015-05-28 2015-05-28 ロボットシステム、教示治具及び教示方法 Ceased WO2016189740A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/065439 WO2016189740A1 (ja) 2015-05-28 2015-05-28 ロボットシステム、教示治具及び教示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/065439 WO2016189740A1 (ja) 2015-05-28 2015-05-28 ロボットシステム、教示治具及び教示方法

Publications (1)

Publication Number Publication Date
WO2016189740A1 true WO2016189740A1 (ja) 2016-12-01

Family

ID=57392660

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/065439 Ceased WO2016189740A1 (ja) 2015-05-28 2015-05-28 ロボットシステム、教示治具及び教示方法

Country Status (1)

Country Link
WO (1) WO2016189740A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020098851A (ja) * 2018-12-18 2020-06-25 株式会社安川電機 搬送システム及び搬送制御方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002313872A (ja) * 2001-04-16 2002-10-25 Tokyo Electron Ltd 基板搬送手段のティーチング方法
JP2008502498A (ja) * 2004-06-09 2008-01-31 ブルックス オートメーション インコーポレイテッド 二重スカラアーム
JP2008302496A (ja) * 2006-07-04 2008-12-18 Panasonic Corp ロボットアームの制御装置及び制御方法、ロボット、及びロボットアームの制御プログラム
JP2009136981A (ja) * 2007-12-07 2009-06-25 Daihen Corp ロボット制御装置
JP2013163231A (ja) * 2012-02-09 2013-08-22 Daihen Corp ロボット制御装置
JP2014099576A (ja) * 2012-10-15 2014-05-29 Tokyo Electron Ltd 搬送機構の位置決め方法、被処理体の位置ずれ量算出方法及び搬送機構のティーチングデータの修正方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002313872A (ja) * 2001-04-16 2002-10-25 Tokyo Electron Ltd 基板搬送手段のティーチング方法
JP2008502498A (ja) * 2004-06-09 2008-01-31 ブルックス オートメーション インコーポレイテッド 二重スカラアーム
JP2008302496A (ja) * 2006-07-04 2008-12-18 Panasonic Corp ロボットアームの制御装置及び制御方法、ロボット、及びロボットアームの制御プログラム
JP2009136981A (ja) * 2007-12-07 2009-06-25 Daihen Corp ロボット制御装置
JP2013163231A (ja) * 2012-02-09 2013-08-22 Daihen Corp ロボット制御装置
JP2014099576A (ja) * 2012-10-15 2014-05-29 Tokyo Electron Ltd 搬送機構の位置決め方法、被処理体の位置ずれ量算出方法及び搬送機構のティーチングデータの修正方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020098851A (ja) * 2018-12-18 2020-06-25 株式会社安川電機 搬送システム及び搬送制御方法
CN111332833A (zh) * 2018-12-18 2020-06-26 株式会社安川电机 运送系统以及运送控制方法
JP7103200B2 (ja) 2018-12-18 2022-07-20 株式会社安川電機 搬送システム及び搬送制御方法

Similar Documents

Publication Publication Date Title
US10395956B2 (en) Substrate transfer apparatus and method of teaching substrate transfer robot
JP6637494B2 (ja) ロボットの教示方法及びロボット
JP2015168012A (ja) 教示ジグ、教示システムおよび教示方法
CN105382828A (zh) 机器人系统、机器人示教方法及机器人示教装置
JP2009090406A (ja) ロボットのターゲット位置検出装置
US20170066137A1 (en) Control device, robot, and robot system
JP2015119066A (ja) 検出システムおよび検出方法
WO2011001675A1 (ja) ロボットのティーチング装置及びロボットのティーチング方法
TW201702160A (zh) 搬送系統、搬送機器人及其教導方法
JP2010162611A (ja) 相対ティーチング方法
US10864643B2 (en) Substrate conveying apparatus
JP2016107378A (ja) 産業用ロボットおよび産業用ロボットの教示方法
KR102308091B1 (ko) 기판 반송 장치 및 기판 반송 로봇과 기판 재치부의 위치 관계를 구하는 방법
JP6603289B2 (ja) ロボット、ロボットシステム、およびロボットの座標系設定方法
KR102477371B1 (ko) 반송 시스템 및 반송 제어 방법
KR102560896B1 (ko) 로봇의 위치 보정 방법 및 로봇
JP2013144325A (ja) ロボット装置、故障検出方法
JP2011018828A (ja) 位置認識装置及び位置認識方法並びに位置決め装置
WO2016189740A1 (ja) ロボットシステム、教示治具及び教示方法
KR102783064B1 (ko) 기판 반송 로봇의 제어 장치 및 관절 모터의 제어 방법
JP2012152898A (ja) ロボットのターゲット位置検出装置、半導体装置およびターゲット位置検出方法
WO2022163084A1 (ja) アライナ装置及びアライメント方法
TWI661914B (zh) 機器人點位調節方法與系統
KR102508280B1 (ko) 틸팅 헤드용 회전중심 보정장치
WO2019064890A1 (ja) 基板搬送装置及び基板載置部の回転軸の探索方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15893374

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15893374

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP