WO2025013294A1 - Teaching system, teaching device, robot control device, and program - Google Patents
Teaching system, teaching device, robot control device, and program Download PDFInfo
- Publication number
- WO2025013294A1 WO2025013294A1 PCT/JP2023/025931 JP2023025931W WO2025013294A1 WO 2025013294 A1 WO2025013294 A1 WO 2025013294A1 JP 2023025931 W JP2023025931 W JP 2023025931W WO 2025013294 A1 WO2025013294 A1 WO 2025013294A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- image data
- display
- teaching
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
Definitions
- This disclosure relates to a teaching system, a teaching device, a robot control device, and a program.
- the worker When performing calibration or position detection using a dot pattern or marker, the worker generally needs to take out the jig or printed material on which the dot pattern or marker is formed from its storage location to perform the work. There is a demand for technology that can reduce the burden on workers when performing calibration or position detection using a dot pattern or marker.
- One aspect of the present disclosure is a teaching system for teaching calibration or position detection, comprising a first device having a first processor and a storage unit that stores image data for the calibration or position detection, and a second device having a second processor and a display.
- the second processor acquires the image data from the first device, and displays an image represented by the image data on the display to be captured by a visual sensor in performing the calibration or position detection.
- FIG. 1 is a system configuration diagram of a teaching system for teaching regarding calibration or position detection according to a first embodiment.
- 1 is a functional block diagram of a teaching system according to a first embodiment.
- FIG. FIG. 4 is a diagram showing an overall flow of processing related to teaching a predetermined pattern in calibration or position detection in the first embodiment.
- 3B is a flowchart showing the process of the second device in step S1 of FIG. 3A.
- FIG. 13 is a diagram showing a state in which a dot pattern for calibration is displayed on the display of the teaching pendant.
- FIG. 13 is a diagram showing a state in which a dot pattern is displayed in an overlapping manner on an operation screen for teaching.
- FIG. 13 is a diagram showing an example of an image data registration screen displayed on a display of a teaching pendant.
- FIG. 11 is a diagram showing the configuration of a device in which a second device that downloads and displays image data of a predetermined pattern is a tablet terminal separate from the teaching pendant.
- FIG. 2 is a functional block diagram of the tablet terminal.
- FIG. 13 is a diagram showing a state in which a marker for position detection is displayed on the display of the tablet terminal.
- FIG. 13 is a diagram showing a state in which a marker for position detection is displayed on a display of a machine tool.
- FIG. 11 is a system configuration diagram of a teaching system for teaching regarding calibration or position detection according to a second embodiment.
- FIG. 11 is a functional block diagram of a teaching system according to a second embodiment.
- FIG. 13 is a diagram showing a state in which an image showing a dot pattern and a numerical value of a dot interval as dimensional information is displayed on the display of a teaching pendant.
- FIG. 13 is a diagram showing a state in which a code image is displayed as dimensional information together with a dot pattern on the display of a teaching pendant.
- FIG. 11 is a diagram showing an overall flow of processing related to teaching a predetermined pattern in calibration or position detection in the second embodiment.
- 14B is a flowchart showing the process performed by the second device in step S1a of FIG. 14A.
- FIG. 11 is a system configuration diagram of a teaching system for teaching regarding calibration or position detection according to a third embodiment.
- FIG. 13 is a functional block diagram of a teaching system according to a third embodiment.
- FIG. 13 is a diagram showing an overall flow of processing related to teaching a predetermined pattern in calibration or position detection in the third embodiment.
- 17B is a flowchart showing the process performed by the second device in step S1b of FIG. 17A.
- FIG. 13 is a diagram illustrating an example of an execution screen of a calibration program.
- the predetermined pattern for calibration may include various dot patterns and markers known in the art that can be used for calibration.
- the above-mentioned Patent Documents 1 and 2 describe examples of dot patterns and markers used for calibration.
- Calibration corresponds to obtaining calibration data (transformation matrix) that associates a position on a camera image with a position in three-dimensional space.
- the calibration data includes internal parameters corresponding to the transformation from the camera coordinate system to the image coordinate system and external parameters corresponding to the transformation (rotation and translation) from the world coordinate system to the camera coordinate system.
- FIG. 4 illustrates such a dot pattern 301.
- dot pattern 301 dots are arranged at equal intervals in a grid pattern, and a coordinate system (X axis, Y axis, and origin O) is defined on the dot pattern by large dots M (only some of which are marked with symbols), thereby identifying the position of each grid point.
- markers or targets There are various types of predetermined patterns for detecting the position of a measurement target, called markers or targets, known in the art. Examples of this type of marker are described in the above-mentioned Patent Documents 3 and 4.
- a coordinate system is corrected using a marker.
- a marker is attached to one or more locations on the measurement target (machine tool), and the positional relationship is corrected by detecting the marker with a robot equipped with a calibrated camera.
- Markers that can be used for position detection include not only the marker 302 illustrated in FIG. 5 and those illustrated in Patent Documents 3 and 4, but also various ones that can be detected on an image, such as dot patterns, relatively simple figures, symbols, and characters.
- predetermined pattern for calibration or position detection can include the various types described above that can be used for calibration or for detecting or measuring the position of an object.
- the teaching system of each embodiment described below includes a first device having a first processor and a storage unit that stores image data of a predetermined pattern for calibration or position detection, and a second device having a second processor and a display.
- the second processor of the second device has a function of acquiring image data of the predetermined pattern from the first device, and displaying an image of the predetermined pattern on the display to be captured by a visual sensor when performing calibration or position detection.
- Fig. 1 shows a system configuration of a teaching system 501 for teaching on calibration or position detection according to a first embodiment.
- the teaching system 501 includes a robot system 100.
- Fig. 2 shows a functional block diagram of the teaching system 501.
- the robot system 100 includes a robot 10, a robot control device 20 for controlling the robot 10, a teaching operation panel 30, an image processing device 40 connected to the robot control device 20, and a visual sensor 70.
- the visual sensor 70 is attached to the tip of the arm of the robot 10 and is connected to the image processing device 40. By calibrating the visual sensor 70, the robot system 100 is able to detect the position of an object using the visual sensor 70 and handle the object.
- the robot control device 20 (first device) is responsible for performing calibration or position detection using the visual sensor 70.
- the teaching operation panel 30 (second device) has the function of acquiring image data of a predetermined pattern for calibration or position detection from the robot control device 20 (first device), and displaying an image of the predetermined pattern based on the acquired image data on the display 32 of the teaching operation panel 30 (second device) so that the image can be captured by the visual sensor.
- the robot control device 20 controls the operation of the robot 10 according to the robot program or commands from the teaching operation panel 30.
- the robot control device 20 may have a hardware configuration as a general computer having a processor 21, memory (ROM, RAM, non-volatile memory, etc.), a storage unit 22, an operation unit, an input/output interface, a network interface, etc. (see Figure 2).
- the teaching operation panel 30 is connected to the robot control device 20 by wire or wirelessly, and can provide functions for teaching the robot 10 and inputting various settings.
- a teaching device configured with various portable terminal devices may be used as the teaching operation panel 30.
- the teaching operation panel 30 may have a hardware configuration as a general computer having a processor 31, memory (ROM, RAM, non-volatile memory, etc.), a storage device, a display 32, an operation unit 33, an input/output interface, a network interface, etc. (see Figure 2).
- the operation unit may be configured as a touch operation panel integrated with the display 32.
- the robot 10 is a vertical articulated robot, but various types of robots may be used as the robot 10, such as a horizontal articulated robot, a parallel link robot, or a dual-arm robot, depending on the work target.
- the robot 10 can perform the desired work using an end effector attached to the wrist.
- the end effector is an external device that can be replaced depending on the application, such as a hand, a welding gun, or a tool.
- Figure 1 shows an example in which a hand 11 is used as the end effector.
- the image processing device 40 has the function of controlling the visual sensor 70 based on commands from the robot control device 20 (operation control unit 121) and executing image processing (detection, determination, etc.) on the captured images.
- the visual sensor 70 may be a camera that captures grayscale or color images, or a stereo camera or three-dimensional sensor that can obtain distance images or three-dimensional point clouds.
- the image processing device 40 is disposed as a separate device from the robot control device 20, but the functions of the image processing device 40 may be integrated into the robot control device 20.
- the robot control device 20 includes an operation control unit 121, a dimension information calculation unit 122, and an image data storage control unit 123. These functional blocks may be realized by the processor 21 of the robot control device 20 executing software.
- FIG. 2 illustrates a memory unit 22 as a hardware component of the robot control device 20.
- the memory unit 22 is, for example, a storage device formed of a non-volatile memory or a hard disk device.
- the memory unit 22 stores various programs such as a robot program for controlling the robot 10, a calibration program, a position detection program (a program for measuring or detecting the position of an object using a predetermined pattern such as a marker), and various setting information.
- the memory unit 22 also holds image data of a predetermined pattern that can be used for calibration or position detection.
- the motion control unit 121 controls the motion of the robot 10 according to the robot program or according to commands from the teaching operation panel 30.
- the robot control device 20 is equipped with a servo control unit (not shown) that performs servo control on the servo motors of each axis according to commands for each axis generated by the motion control unit 121.
- the teaching operation panel 30 includes an image data acquisition unit 131, an image data display control unit 132, a brightness adjustment unit 133, and an image data registration unit 134. These functional blocks may be realized by the processor 31 executing software.
- the image data acquisition unit 131 has a function of acquiring image data of a predetermined pattern for calibration or position detection from the robot control device 20.
- the image data display control unit 132 has a function of displaying the acquired image of the predetermined pattern on the display 32.
- the operator can use the teaching operation panel 30 as a calibration tool or a tool for detecting the position of an object by displaying an image of a predetermined pattern such as a dot pattern or marker on the teaching operation panel 30.
- the robot control device 20 calculates dimensional information based on information related to the display 32 of the teaching operation panel 30, and stores the information in association with image data of the dot pattern.
- the dimensional information calculation unit 122 of the robot control device 20 can calculate, for example, from the number of pixels at the lattice point interval in the image data of the dot pattern and information on the resolution and size of the display 32 of the teaching pendant 30, what the dimension of the dot interval will be when the dot pattern is displayed on the display 32.
- the dimensional information calculation unit 122 may be configured to control the execution of the following procedure.
- Step b1 The input of information (resolution and size) regarding the display 32 is accepted via the teaching pendant 30.
- Step b2 The above-mentioned dimensional information is calculated based on the image data of the dot pattern and information related to the display 32.
- the calculated dimensional information is stored in the storage unit 22 in association with the image data of the dot pattern.
- the image data storage control unit 123 has a function of associating image data of a dot pattern with dimensional information and storing the associated data in the storage unit 22.
- the dimensions of the dot spacing when displayed on the display 32 for each dot pattern (image data) may be calculated and associated with the image data, as shown in Table 1 below. This allows the teaching pendant 30 to be used as multiple types of calibration jigs with different dot spacing.
- FIG. 3A shows the overall flow of the process for teaching a specific pattern for calibration or position detection.
- an operator executes a process for acquiring and displaying image data of a specific pattern for calibration or position detection on the teaching operation panel 30 (second device) (step 1).
- FIG. 3B is a flowchart showing the process in step S1 in FIG. 3A.
- the image data acquisition unit 131 of the teaching operation panel 30 acquires image data of a predetermined pattern for calibration or position detection from the robot control device 20 (first device) (step S11).
- the image data acquisition unit 131 may be configured to display a list of multiple patterns on the display 32 and accept a user operation to select desired image data from the list.
- the image data display control unit 132 of the teaching pendant 30 displays the image of the predetermined pattern acquired from the robot control device 20 on the display 32 (step S12). This makes it possible for the teaching pendant 30 to be used as a jig for calibration or position detection.
- the worker then places the teaching pendant 30 (second device) on which the predetermined pattern is displayed at a predetermined position for calibration or position correction where it can be imaged by the visual sensor 70 (step S2).
- the worker then causes the visual sensor 70 to image the teaching pendant 30 on which the image of the predetermined pattern is displayed, and causes the robot control device 20 to perform calibration or position detection (step S3).
- the robot control device 20 (first device) has dimensional information for when the dot pattern is displayed on the teaching pendant 30, and can use that dimensional information when performing calibration.
- FIG. 4 shows the state where an image of a dot pattern 301 for calibration is displayed on the display 32 of the teaching operation panel 30 in step S1 above.
- the dot pattern 301 shown in FIG. 4 satisfies the above-mentioned requirements (a1) to (a3) as a dot pattern for performing calibration.
- the dot spacing d on the display 32 when the dot pattern 301 is displayed as in FIG. 4 is known to the robot control device 20, which is responsible for performing the calibration. Therefore, the robot control device 20 can appropriately perform the calibration using the value of the dot spacing d held by the robot control device 20.
- a dot pattern 301 may be used to detect the position of an object or to set a coordinate system.
- the operator can perform calibration or position detection simply by operating the teaching operation panel 30 to download image data of a specified pattern from the robot control device 20 and display it. Therefore, the operator does not need to perform the time-consuming task of retrieving jigs for calibration or position detection from a storage location and setting them up, as was done in the past.
- the worker can obtain image data of dot patterns of a size that matches the execution environment from the robot control device 20 at any time, display it on the teaching operation panel 30, and use it for teaching.
- the operator can perform calibration or position detection by displaying an image of a predetermined pattern on the teaching operation panel 30 whenever necessary.
- the operator can also activate the function of the image data acquisition unit 131 whenever necessary to download image data of a predetermined pattern from the robot control device 20 and display it overlapping on the operation screen 401 for teaching.
- the example in FIG. 5 shows a case where a dot pattern 301 is displayed overlapping on the operation screen 401 for teaching.
- the brightness adjustment unit 133 of the teaching operation panel 30 has a function of receiving information on the brightness of an image captured by the visual sensor 70 of the teaching operation panel 30 displaying an image of a predetermined pattern from the robot control device 20 (calibration program or position detection program) and adjusting the brightness of the image of the predetermined pattern displayed on the display 32. For example, when the information from the robot control device 20 indicates that the captured image is too dark, the brightness adjustment unit 133 increases the brightness of the image of the predetermined pattern on the display 32. Alternatively, when the information from the robot control device 20 indicates that the captured image is too bright, the brightness adjustment unit 133 decreases the brightness of the image of the predetermined pattern on the display 32.
- This function makes it possible to automatically adjust the brightness of the predetermined pattern to an appropriate state regardless of the lighting environment in the work space.
- the operator does not need to perform time-consuming tasks such as adjusting the lighting device in the work space in order to adjust the brightness of the image of the predetermined pattern captured by the visual sensor 70.
- the brightness adjustment unit 133 may also have a function for adjusting the brightness of the display of the image of the specified pattern by manual operation. Even in this case, the operator can adjust the brightness of the image of the specified pattern displayed on the teaching operation panel 30 to an appropriate state by looking at the state of the image captured by the visual sensor 70. The operator does not need to carry out time-consuming tasks such as adjusting the lighting equipment in the work space in order to adjust the brightness of the image of the specified pattern captured by the visual sensor 70.
- the teaching operation panel 30 (second device), which has the function of displaying an image of a specific pattern, has the function of appropriately adjusting the brightness of the display of the image of the specific pattern in this way, so that the worker does not need to adjust the brightness of the lighting in the work space. Therefore, the burden on the worker when performing calibration or position detection is reduced, and the work can be carried out more efficiently.
- the image data registration unit 134 provides a function for registering new image data of a specified pattern for calibration or position detection to the robot control device 20 (first device) that stores image data of a specified pattern.
- the image data registration unit 134 provides a function for registering any image data among the image data stored in the teaching operation panel 30 (or an external storage device connected to the teaching operation panel 30) in the robot control device 20 as new image data for calibration or position detection.
- FIG. 6 shows an example of an image data registration screen 402 displayed on the display 32 of the teaching operation panel 30 by the function of the image data registration unit 134.
- the registration screen 402 displays a list of image data stored in the teaching operation panel 30 (or an external storage device connected to the teaching operation panel 30). The operator can select the desired image data from the displayed list of image data and press the OK button 411 to register the selected image data in the storage unit 22 of the robot control device 20 as image data of a new pattern.
- the image data storage control unit 123 of the robot control device 20 provides a function of accepting a registration request from the image data registration unit 134 and storing the new image data in the storage unit 22.
- the image data registration unit 134 may be configured to accept registration of information regarding the dimensions of the pattern when accepting registration of image data of a new pattern.
- the dimensional information may be, for example, the number of pixels between dots in a dot pattern, or the dimension (millimeters) of the dot spacing on a specific display, as described above.
- the dimensional information may be information about the size of the marker (for example, the size (number of dots) of circle C, the size (square millimeters) of circle C when it is displayed on a specific display, etc.). This allows the robot control device 20 to hold information that associates image data with dimensional information, such as that shown in Table 1 above, even for new image data.
- the above-described embodiment is an example of a configuration in which image data of a predetermined pattern held by the robot control device 20 (first device) is downloaded to the teaching operation panel 30 (second device) and displayed, but the second device that downloads and displays the image data of the predetermined pattern is not limited to the teaching operation panel 30.
- the configuration may be such that the image data of the predetermined pattern is downloaded and displayed by a portable terminal device separate from the teaching operation panel 30.
- the terminal device can be positioned as a teaching device for performing calibration or position detection-related teaching.
- FIG. 7 shows an example of the equipment configuration of such a teaching system 501A.
- a tablet terminal 80 separate from the teaching pendant 30 downloads and displays image data of a predetermined pattern.
- FIG. 8 shows a functional block diagram of the tablet terminal 80 in this system configuration.
- the tablet terminal 80 includes an image data acquisition unit 181, an image data display control unit 182, and an image data registration unit 184.
- the functions of the image data acquisition unit 181, the image data display control unit 182, and the image data registration unit 184 are equivalent to the functions of the image data acquisition unit 131, the image data display control unit 132, and the image data registration unit 134 of the teaching pendant 30 described above.
- FIG. 8 also shows a display 82 and an operation unit 83 as hardware components of the tablet terminal 80.
- the tablet terminal 80 may have a hardware configuration as a general computer having a processor 81, memory (ROM, RAM, non-volatile memory, etc.), a storage device, a display 82, an operation unit 83, an input/output interface, a network interface, etc.
- the operation unit may be configured as a touch operation panel integrated with the display.
- the tablet terminal 80 may be connected to the robot control device 20 so as to be able to communicate with it, or it may not be able to communicate with it. If the tablet terminal 80 is not able to communicate with the robot control device 20, for example, the worker may download and store image data of the robot control device 20 in a USB memory. The worker may then connect this USB memory to the tablet terminal 80, and obtain and display image data of a desired pattern on the tablet terminal 80.
- the robot control device 20 may store information about the display 82 of the tablet terminal 80 in addition to information about the display 32 of the teaching operation panel 30. This allows the robot control device 20 to calculate and store the size of the dot spacing of the dot pattern on the display 82 from the number of pixels of the dot spacing in the image data of the dot pattern and the resolution and size of the display 82 of the tablet terminal 80. This allows the robot control device 20 to store dimensional information of the dot spacing when the dot pattern is displayed on the teaching operation panel 30 and dimensional information of the dot spacing when the dot pattern is displayed on the tablet terminal 80, in association with the image data, as shown in Table 2 below.
- the information shown in Table 2 can also be expanded to accommodate three or more types of terminal devices.
- the dot spacing when the dot pattern is displayed on three or more types of terminal devices can be calculated based on the number of pixels for the dot spacing in the dot pattern and the display information (resolution, size) of the three or more types of terminal devices.
- the robot control device 20 when the robot control device 20 is configured to hold dimensional information for multiple types of displays, the robot control device 20 (processor 21) may be configured to obtain information about which display is to be used in performing calibration or position detection through user input, for example, via the teaching operation panel 30.
- the marker 302 is a type of marker that includes mutually perpendicular straight lines a and b and a circle C of a known size.
- the marker 302 is used as follows. When detecting the position of an object using the marker 302, the worker calibrates the visual sensor 70 in advance. Then, the worker operates the tablet terminal 80 to download image data of the marker 302 from the robot control device 20 and display it on the display 82 (step S1).
- the worker places the tablet terminal 80 on which the marker 302 is displayed at a predetermined position of the measurement object (workbench, machine tool, etc.) (step S2), and causes the robot control device 20 to execute a position detection program (step S3).
- the position detection program grasps the three-dimensional position of the marker 302 based on the detected position of the marker 302 on the captured image, and obtains the three-dimensional position of the measurement object.
- a stereo measurement method using a visual sensor 70 may be used to measure the three-dimensional position of the marker 302. Therefore, even when performing such position detection, the worker does not need to take out a marker jig or a printed copy of the marker stored in a separate location and install it on the target.
- the robot control device 20 may associate the dimensional information with the image data of the marker and store the dimensional information when the marker is displayed on the display 82 of the tablet terminal 80 (second device), and use this dimensional information when detecting the position of the object.
- the second device that displays an image of the predetermined pattern may be a machine tool used together with the robot 10.
- FIG. 10 shows a schematic diagram of the equipment configuration in this case.
- this case corresponds to an application example in which the robot 10 is mounted on a cart or AGV and placed at a predetermined position relative to the machine tool 90 to load and unload workpieces from the machine tool 90.
- the machine tool 90 incorporates a control device (numerical control device) 91 with an integrated display 92.
- the control device 91 can download and display image data of the predetermined pattern from the robot control device 20, for example, via a network.
- image data of the predetermined pattern may be registered in advance in the memory unit of the control device 91.
- the 10 shows a state in which the marker 302 is displayed on the display 92 of the control device 91.
- the display 92 of the control device 91 is attached to a fixed position on the machine tool 90, so that the marker 302 can be used as an indicator of the position of the machine tool 90 by displaying the marker 302 at a predetermined position on the display 92.
- the worker operates the control device 91 to display the marker 302 on the display 92.
- the robot control device 20 measures the positional relationship between the robot 10 and the machine tool 90 by capturing an image of the marker 302 displayed on the display 92 with the visual sensor 70.
- the robot control device 20 can hold information regarding the specifications of the display 92 of the control device 91 (resolution, screen size, etc.) and use the dimensional information of the marker 302 when displayed on the display 92 based on the image data of the marker 302 for detection.
- the processor of the control device 91 can execute the functions of an image data acquisition unit 181, an image data display control unit 182, and an image data registration unit 184, as described above with reference to FIG. 8 for the tablet terminal 80.
- FIG. 11 is a diagram showing the equipment configuration of a teaching system 502 according to the second embodiment.
- the teaching system 503 includes a robot system 100A.
- the second device that displays an image of a predetermined pattern for calibration or position detection is the teaching pendant 30, and the first device that provides image data to the second device (teaching pendant 30) is an external device other than the robot control device 20A.
- the external device is another control device (numerical control device, robot control device, etc.) 220 arranged in the factory where the robot system 100A is arranged. It is assumed that the teaching pendant 30 can communicate with the control device 220 by wire or wirelessly via a network in the factory.
- the control device 220 may have a hardware configuration as a general computer having a processor 224, memory (ROM, RAM, non-volatile memory, etc.), a storage unit 225, a display unit, an operation unit, an input/output interface, a network interface, etc. (see FIG. 12).
- the control device 220 (first device) holds image data of a predetermined pattern for calibration or position detection in a format similar to that of the robot control device 20 in the first embodiment. Therefore, with regard to a dot pattern, the control device 220 holds dimensional information of the dot spacing when the dot pattern is displayed on the display 32 of the teaching operation panel 30 in association with the image data of the dot pattern. In this embodiment, in order to provide the dimensional information of the dot spacing to the robot control device 20A that is responsible for calibration or position detection, an image showing the dimensional information is displayed on the display 32 of the teaching operation panel 30 together with an image of the dot pattern.
- the control device 220 includes a dimension information calculation unit 221 and an image data storage control unit 222.
- the dimension information calculation unit 221 and the image data storage control unit 222 have functions equivalent to the dimension information calculation unit 122 and the image data storage control unit 123 of the robot control device 20 of the first embodiment. That is, the dimension information calculation unit 221 and the image data storage control unit 222 can execute the same processes as the above-mentioned (steps b1) to (steps b3) in advance and store image data and dimension information of a predetermined pattern in the storage unit 225.
- the storage unit 225 is a storage device configured with a non-volatile memory or a hard disk, etc., and stores image data and dimension information of a predetermined pattern in addition to programs and various setting information related to the control of the machine in the control device 220.
- the image data acquisition unit 131 of the teaching operation panel 30 has a function of downloading image data and dimensional information of a specified pattern from the memory unit 225 of the control device 220.
- the image data display control unit 132 and brightness adjustment unit 133 have the same functions as those described above in relation to the first embodiment.
- the image data registration unit 134 provides the control device 220 with a function for newly registering image data of a specified pattern for calibration or position detection.
- the robot control device 20A includes an operation control unit 121 and a dimension recognition unit 124.
- the storage unit 22 stores a robot program, a calibration program, a position detection program, and various other setting information.
- the dimension recognition unit 124 provides a function for recognizing dimensions from an image of dimensional information displayed together with an image of a specified pattern.
- FIGS. 13A and 13B show examples of images showing dimensional information about dot spacing together with a dot pattern 301 displayed on the display 32 of the teaching pendant 30.
- FIG. 13A shows an example in which an image G1 showing the numerical value of the dot spacing is displayed as dimensional information.
- FIG. 13B shows an example in which an image G2 in which the numerical value of the dot spacing is coded as dimensional information is displayed.
- the dimensional information calculation unit 221 may have a function for coding the calculated dot spacing dimension as in image G2.
- the control device 220 may store such image G1 or image G2 as dimensional information.
- FIG. 14A shows the overall flow of the process related to teaching a specified pattern for calibration or position detection.
- the flow is explained focusing on the process when a dot pattern is used as the specified pattern.
- the operator executes a process for acquiring and displaying image data and dimensional information of the specified pattern for calibration or position detection on the teaching operation panel 30 (second device) (step S1a).
- FIG. 14B is a flowchart showing the processing content in step S1a of FIG. 14A.
- the image data acquisition unit 131 of the teaching pendant 30 acquires image data of a predetermined pattern for calibration or position detection, and dimensional information from the control device 220 (first device) (step S11a).
- the control device 220 holds image data of multiple types of patterns
- the image data acquisition unit 131 may be configured to display a list of multiple patterns on the display 32 and accept a user operation to select desired image data from the list.
- the image data display control unit 132 of the teaching pendant 30 causes the image and dimensional information of the predetermined pattern acquired from the control device 220 to be displayed on the display 32 (step S12a). This makes it possible for the teaching pendant 30 to be used as a jig for calibration or position detection.
- the operator then places the teaching pendant 30, on which an image showing dimensional information is displayed together with an image of a dot pattern, at a predetermined position for calibration and position correction where an image can be captured by the visual sensor 70 (step S2).
- the operator causes the robot control device 20A to recognize the dimensional information of the dot interval (step S2a).
- the operator can cause the robot control device 20A to recognize the dot interval by any of the following methods (c1) to (c3).
- (c1) An operator directly inputs the data into the setting items of the calibration program.
- the robot control device reads and recognizes the numerical values on the image.
- the robot control device reads and recognizes the code information on the image.
- the above method (c1) is an effective method when an image G1 showing the numerical value of the dot spacing is displayed together with an image of a dot pattern, as shown in FIG. 13A.
- the worker can see the image of the dimensional information displayed together with the image of the dot pattern, grasp the dot spacing, and directly input it into the setting item of the calibration program.
- FIG. 18 shows an example of an execution screen 450 of the calibration program.
- the execution screen 450 displays an input field 451 for specifying the dot spacing together with an image G5 captured by the visual sensor 70 of the teaching pendant 30 placed in a predetermined position.
- the worker can input the dot spacing by directly entering a numerical value into the input field 451, or by specifying the dot spacing from a menu list of numerical values.
- the worker can then perform a predetermined operation on the execution screen 450 to execute the calibration and check the results.
- the above method (c2) is an effective method when displaying an image G1 showing the numerical value of the dot spacing together with an image of a dot pattern, as shown in FIG. 13A.
- the dimension recognition unit 124 of the robot control device 20A has the function of recognizing the numbers of the dimensional information from an image captured by the visual sensor 70 of the teaching operation panel 30 in a state in which the image G1 of the dimensional information is displayed on the display 32 together with the dot pattern, and providing the numbers to the calibration program.
- Various character recognition techniques known in the field can be used to recognize the numbers from the image.
- the above method (c3) is an effective method when displaying an image G2 of a code representing the dot spacing together with an image of a dot pattern, as shown in FIG. 13B.
- the dimension recognition unit 124 of the robot control device 20A has a function of reading the code from an image captured by the visual sensor 70 of the teaching operation panel 30 in a state in which an image G2 of dimensional information is displayed on the display 32 together with a dot pattern, and providing the code to the calibration program.
- the code may be a one-dimensional code or a two-dimensional code.
- Various code recognition technologies known in the field can be used to recognize the code.
- the worker causes the visual sensor 70 to capture an image of the dot pattern and causes the robot control device 20A to perform calibration or position detection (step S3).
- the process flow shown in FIG. 3A-FIG. 3B in the first embodiment can be applied instead of the process flow of FIG. 14A-FIG. 14B described above.
- the control device 220 first device holds configuration information (dimensional information, etc.) of the marker together with the image data of the marker.
- the teaching operation panel 30 may acquire the configuration information together with the image data of the marker from the control device 220 (first device), and provide the acquired configuration information to the robot control device 20A so that it can be used for teaching the marker.
- the teaching operation panel 30 may display an image showing the dimensional information of the marker on the display 32 together with the image of the marker.
- the robot control device 20A dimension recognition unit 124) can recognize the dimensional information from the captured image in which the visual sensor 70 captures an image showing the marker and the dimensional information.
- the operator can perform calibration or position detection by displaying an image of a specific pattern on the teaching operation panel 30 whenever necessary.
- the operator does not need to perform the time-consuming task of retrieving a jig for calibration or position detection from a storage location and setting it up, as was done in the past.
- By displaying an image showing dimensional information together with an image of the specific pattern it is also possible to have the robot control device 20A recognize the dimensional information, so the operator can perform calibration simply by operating the teaching operation panel 30 to download image data of the specific pattern from the control device 220 and display it.
- the second device that downloads and displays the image data of the specified pattern is the teaching operation panel 30, but a portable terminal device other than the teaching operation panel 30 may be used as the second device.
- the terminal device is positioned as a teaching device for teaching regarding calibration or position detection.
- the control device 220 associates the dimensional information of each dot interval when the image of the dot pattern is displayed on each terminal device, as described in Table 2 of the first embodiment, with the image data of the dot pattern and stores it.
- control device 220 may be configured to identify the terminal device that requested the image data and provide the terminal device with the dimensional information corresponding to the terminal device along with the image data of the specified pattern.
- the second device that downloads and displays the image data of the specified pattern may be a machine tool.
- images of a specific pattern can be displayed on various terminal devices other than the teaching pendant 30, making them available for calibration and position detection.
- FIG. 11 shows an example in which the first device that provides image data of a predetermined pattern is the machine control device 220
- the first device that provides image data of a predetermined pattern can be various external devices.
- the first device that provides image data of a predetermined pattern can be the teaching operation panel 30 used by the worker, or a computer or cloud that is network-connected to another terminal device.
- the teaching operation panel 30 displays the dimensional information received from the control device 220 together with an image of a specified pattern, but the teaching operation panel 30 may also transmit the dimensional information received from the control device 220 to the robot control device 20A so that the robot control device 20A can use it for calibration and position detection.
- the first and second embodiments described above are configuration examples in which a first device providing image data of a predetermined pattern has a function for generating dimensional information of the dot interval when the dot pattern is displayed on a second device based on information about the display of the second device displaying the image data of the predetermined pattern.
- the second device displaying the image data of the predetermined pattern has a function for generating dimensional information of the dot interval.
- FIG. 15 is a diagram showing the equipment configuration of a teaching system 503 according to the third embodiment.
- the teaching system 503 includes a robot system 100B.
- the second device that displays an image of a predetermined pattern for calibration or position detection is a teaching operation panel 30B
- the first device that provides image data to the second device is an external device 320 that is network-connected to the teaching operation panel 30B.
- the network may include an in-house network such as a LAN (Local Area Network) or a commercial network such as the Internet.
- the external device 320 may include various devices and computer systems, such as a control device arranged in the same factory as the robot system 100B, a computer, a server connected via a commercial network, and a cloud.
- the external device 320 may have a hardware configuration as a general computer having a processor 321, memory (ROM, RAM, non-volatile memory, etc.), a storage unit 322, a display unit, an operation unit, an input/output interface, a network interface, etc. (see FIG. 16).
- FIG. 16 shows a functional block diagram of the robot control device 20A, teaching operation panel 30B, and external device 320 in the teaching system 503 according to the third embodiment.
- the external device 320 holds image data of a predetermined pattern for calibration or position detection in the memory unit 322.
- the teaching operation panel 30B has the functions of an image data acquisition unit 131, an image data display control unit 132, a brightness adjustment unit 133, and an image data registration unit 134. These functions have been described above, so details will be omitted.
- the image data acquisition unit 131 has the function of acquiring image data of a specified pattern from the external device 320.
- the image data registration unit 134 provides a function of registering new image data that can be used for calibration or position detection in the external device 320.
- the teaching operation panel 30B according to this embodiment further includes a dimension information generation unit 135.
- the dimensional information generating unit 135 has a function of calculating, based on the resolution and size information of the display 32, the size of the dot spacing of the dot pattern when the image data of the dot pattern downloaded from the external device 320 is displayed on the display 32. Specifically, the dimensional information generating unit 135 analyzes the image of the dot pattern and determines the number of pixels of the dot spacing. Then, based on the resolution and size of the display 32, the dimensional information generating unit 135 calculates the size of the dot spacing on the display 32 and generates dimensional information.
- the dimensional information is, for example, a numerical value or a code.
- the image data display control unit 132 can display an image showing the dimensional information on the display 32 together with the image of the dot pattern.
- Examples of the display format in this case include displaying an image of numerical values showing the dimensional information together with the image of the dot pattern, as shown in Figures 13A and 13B, and displaying an image in which the dimensional information is coded together with the image of the dot pattern.
- the robot control device 20A may have the same functional configuration as the robot control device 20A in the second embodiment described above.
- FIG. 17A shows the overall flow of processing related to teaching a specified pattern for calibration or position detection.
- the flow is explained focusing on the processing when a dot pattern is used as the specified pattern.
- the operator acquires image data of the specified pattern for calibration or position detection on the teaching operation panel 30B (second device) and executes processing to display it together with dimensional information (step S1b).
- FIG. 17B is a flow chart showing the processing content in step S1b of FIG. 17A.
- the image data acquisition unit 131 of the teaching pendant 30B acquires image data of a predetermined pattern for calibration or position detection from the external device 320 (first device) (step S11).
- the processor 321 of the external device 320 has a function of sending image data in the memory unit 322 to the teaching pendant 30B in response to a request from the teaching pendant 30B.
- the image data acquisition unit 131 may be configured to display a list of multiple patterns on the display 32 and accept a user operation to select desired image data from the list.
- the dimensional information generating unit 135 of the teaching pendant 30B calculates dimensional information of the dot spacing when the dot pattern is displayed on the display 32 based on the number of pixels between dots in the acquired image data of the dot pattern and the resolution and size information of the display 32 (step S11b). Then, the image data display control unit 132 causes the display 32 to display an image representing the dimensional information together with the image of the dot pattern (step S12a).
- the operator then places the teaching pendant 30B, on which an image showing dimensional information is displayed together with an image of a dot pattern, at a predetermined position for calibration and position correction where an image can be captured by the visual sensor 70 (step S2).
- the operator causes the robot control device 20A to recognize the dimensional information of the dot spacing (step S2a).
- the operator may cause the robot control device 20A to recognize the dot spacing using any of the methods (c1) to (c3) described in the second embodiment.
- the worker causes the visual sensor 70 to capture an image of the dot pattern and perform calibration or position detection (step S3).
- the process flow shown in Figures 3A-3B in the first embodiment can be applied instead of the process flow of Figures 17A-17B described above.
- the external device 320 first device stores configuration information of the marker together with image data of the marker.
- the teaching operation panel 30B second device may obtain the configuration information together with image data of the marker from the external device 320 (first device), and provide the obtained configuration information to the robot control device 20A so that it can be used for teaching of the marker.
- the second device that displays the image of the specified pattern is configured to calculate and display the dot spacing of the dot pattern, so there is no need to generate and store dimensional information in advance in the first device that provides the image data of the specified pattern.
- the operator can perform calibration or position detection by displaying an image of a specific pattern on the teaching operation panel 30B whenever necessary.
- the operator does not need to perform the time-consuming task of retrieving a jig for calibration or position detection from a storage location and setting it up, as was done in the past.
- the robot control device 20A recognize the dimensional information, so the operator can perform calibration simply by operating the teaching operation panel 30B to download image data of the specific pattern from the external device 320 and display it.
- the second device that downloads and displays an image of a predetermined pattern from the first device is the teaching operation panel 30B, but this is an example, and the second device that downloads an image of a predetermined pattern from the first device (external device 320), generates dimensional information, and displays it together with the image of the predetermined pattern may be a portable terminal device separate from the teaching operation panel 30B.
- the terminal device is positioned as a teaching device for performing calibration or position detection-related teaching.
- the configuration has been described where the teaching operation panel 30B displays the calculated dimensional information together with an image of a specified pattern, but the teaching operation panel 30B may also transmit the calculated dimensional information to the robot control device 20A so that the robot control device 20A can use it for calibration and position detection.
- the burden on the worker when performing calibration or position detection using a specified pattern is reduced, and these tasks can be performed efficiently.
- the functional distribution shown in the functional block diagrams of the above-mentioned embodiments is an example, and various modifications of the functional distribution are possible.
- the teaching operation panel 30 shown in the first embodiment does not need to have the functions of the brightness adjustment unit 133 and the image data registration unit 134.
- a configuration example is also possible in which a first device that has the function of providing image data also has an application program that displays image data along with image data of a predetermined pattern, and provides such an application along with the image data to a second device that has the function of displaying the predetermined pattern.
- This application program may have a function of obtaining display information (resolution, size, etc.) of the device that executes this application, and calculating dimensional information when the predetermined pattern is displayed.
- the second device that executes this application may display an image (an image of numerical values or codes) that represents the calculated dimensional information together with an image of the pattern, as shown in Figures 13A-13B.
- the second device that executes this application may provide the calculated dimensional information to the first device.
- the robot control device 20 which serves as a first device, has image data of a predetermined pattern together with an application program for displaying the image data.
- the robot control device 20 transmits the application program together with the image data to the tablet terminal 80, which serves as a second device.
- the tablet terminal 80 executes the application program, displays an image of the predetermined pattern, and calculates dimensional information.
- the tablet terminal 80 may display an image (numerical values or codes) representing the dimensional information together with the image of the predetermined pattern.
- the tablet terminal 80 may transmit the calculated dimensional information to the robot control device 20.
- the robot control device 20 can use the dimensional information recognized from the image captured by the visual sensor 70 or provided by the tablet terminal 80 for calibration or position detection.
- the functional blocks in the functional block diagrams relating to the robot control device, teaching operation panel, tablet terminal, and external device may be realized by one or more processors of these devices executing various software stored in a storage device, or may be realized by a configuration mainly based on hardware such as an ASIC (Application Specific Integrated Circuit).
- ASIC Application Specific Integrated Circuit
- the programs for executing the teaching processes for calibration or position detection in the above-mentioned embodiments can be recorded on various computer-readable recording media (e.g., semiconductor memories such as ROM, EEPROM, and flash memory, magnetic recording media, and optical disks such as CD-ROM and DVD-ROM).
- a teaching system (501, 501A, 502, 503) for teaching on calibration or position detection, A first processor; A first device (20, 220, 320) having a storage unit that stores image data for the calibration or position detection; A second processor; and a second device (30, 80, 30B) having a display; The second processor of the second device acquiring the image data from the first device; displaying an image represented by the image data on the display so as to be captured by a visual sensor in performing the calibration or position detection; Teaching system (501, 501A, 502, 503).
- the first device is a robot control device (20) that performs the calibration or position detection, The first processor of the first device performing the calibration or position detection based on a captured image obtained by capturing the image displayed on the display of the second device by the visual sensor;
- the storage unit of the first device (20) stores information about a size of the image on a display of the second device when the image represented by the image data is displayed on the display of the second device in association with the image data;
- the storage unit of the first device (220) holds information about a size of an image represented by the image data when the image is displayed on the display of the second device (30) in association with the image data;
- the second processor receives information regarding the dimensions together with the image data from the first device (220);
- the second processor (1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data; (2) transmitting information regarding the dimensions to the robot controller;
- the teaching system (502) according to claim 4, which executes one of the processes.
- the second processor calculates information regarding dimensions of the image based on the image data when the image is displayed on the display based on the acquired image data and information regarding a resolution and a size of the display; The second processor, (1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data; (2) transmitting information about the calculated dimensions to the robot controller;
- Appendix 7 The teaching system (502, 503) of appendix 5 or 6, wherein the other device is either a machine control device, an external device, or a cloud.
- the second processor displays on the display an image showing information related to the dimensions together with an image represented by the image data;
- the second device is a teaching pendant (30, 30B) connected to a robot control device,
- the second processor of the second device obtains information regarding the brightness of an image captured by the visual sensor of the second device displaying an image represented by the image data on the display from the robot control device, and adjusts the display brightness of the display displaying the image based on the information regarding the brightness.
- the storage unit of the first device further stores an application program for displaying an image represented by the image data;
- the second processor obtains the application program together with the image data from the first device;
- the application program further has a function of calculating information regarding dimensions when an image represented by the image data is displayed on a display of a device that executes the application, based on information regarding the display of the device;
- the second processor (1) displaying an image showing the information about the dimensions obtained by executing the application together with an image represented by the image data; (2) transmitting information regarding the dimensions to the first device;
- the teaching system (501, 501A, 502) according to Appendix 13, which executes any one of the processes above.
- a teaching device (30, 80, 30B) used for teaching regarding calibration or position detection, A display (32, 82); A processor (31, 81), The processor (31, 81) Acquiring image data for the calibration or position detection from an external device; A teaching device (30, 80, 30B) displays an image represented by the image data on the display to be captured by a visual sensor in performing the calibration or position detection.
- the processor further acquires, from the external device, information regarding a size of the image represented by the image data when the image is displayed on the display;
- the processor (1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data; (2) transmitting information about the dimensions to a robot control device that controls the calibration or position detection;
- the teaching device (30) according to claim 15, which executes any one of the processes above.
- the processor calculates information about dimensions of the image based on the image data when the image is displayed on the display based on the acquired image data and information about a resolution and a size of the display;
- the processor (1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data; (2) transmitting information about the calculated dimensions to a robot control device that controls the calibration or position detection;
- the processor (31, 81) further A teaching device (30, 80, 30B) described in any one of appendices 15 to 17, which registers new image data of a predetermined pattern that can be used for the calibration or position detection and information regarding the dimensions of the new image data in a memory unit of the external device based on a user operation.
- the external device is a robot control device (20, 20A) that performs the calibration or position detection,
- the processor (31) obtains information regarding the brightness of an image captured by the visual sensor of the teaching device displaying an image represented by the image data on the display from the robot control device, and adjusts the display brightness of the display showing the image based on the information regarding the brightness.
- the storage unit stores information about a size of the image on a display of the external device when the image represented by the image data is displayed on the display of the external device in association with the image data; 21.
- Appendix 22 The processor (21) A robot control device (20) as described in Appendix 19, which calculates information regarding the dimensions based on the image data and information regarding the resolution and size of the display of the external device.
- Appendix 23 an image represented by the image data is displayed on a display of the external device together with information regarding a size of the image when the image is displayed on the display;
- the processor (21) Recognizing information regarding the size from a captured image obtained by capturing an image represented by the image data and an image represented by the information regarding the size displayed on the display of the external device by the visual sensor;
- a robot control device (20A) as described in Appendix 20, wherein information regarding the recognized dimensions is used in performing the calibration or position detection.
- the computer processor A procedure for storing image data for calibration or position detection in a storage unit; transmitting the image data to an external device in response to a request from the external device; A procedure for performing the calibration or position detection based on an image captured by a visual sensor of an image represented by the image data displayed on a display of the external device, and a program for causing the procedure to execute the procedure.
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Numerical Control (AREA)
Abstract
Description
本開示は、教示システム、教示装置、ロボット制御装置、及びプログラムに関する。 This disclosure relates to a teaching system, a teaching device, a robot control device, and a program.
ドットパターン治具等の特定のパターンが形成された治具を用いてロボットシステムに配置したカメラのキャリブレーションを行う技術については、当分野で各種手法が知られている(例えば、特許文献1-2)。また、カメラでマーカを撮像して計測対象の位置を計測或いは検出するための様々な技術が知られている(例えば、特許文献3-4)。 Various techniques are known in the art for calibrating a camera placed in a robot system using a jig with a specific pattern, such as a dot pattern jig (e.g., Patent Documents 1 and 2). In addition, various techniques are known for capturing an image of a marker with a camera to measure or detect the position of a measurement target (e.g., Patent Documents 3 and 4).
ドットパターンやマーカを用いてキャリブレーション或いは位置検出を行おうとする場合、一般には、作業者は、ドットパターンやマーカが形成された治具や印刷物を保管場所から取り出して作業を行う必要がある。ドットパターンやマーカを利用してキャリブレーションや位置検出を行う場合における作業者の負担を軽減可能な技術が望まれている。 When performing calibration or position detection using a dot pattern or marker, the worker generally needs to take out the jig or printed material on which the dot pattern or marker is formed from its storage location to perform the work. There is a demand for technology that can reduce the burden on workers when performing calibration or position detection using a dot pattern or marker.
本開示の一態様は、キャリブレーション又は位置検出に関する教示を行うための教示システムであって、第1プロセッサと、前記キャリブレーション又は位置検出のための画像データを記憶する記憶部と、を有する第1の装置と、第2プロセッサと、ディスプレイと、を有する第2の装置と、を備える教示システムである。この教示システムにおいて、前記第2プロセッサは、前記第1の装置から前記画像データを取得し、前記キャリブレーション又は位置検出の実行において視覚センサに撮像させるために前記画像データが表す画像を前記ディスプレイに表示する。 One aspect of the present disclosure is a teaching system for teaching calibration or position detection, comprising a first device having a first processor and a storage unit that stores image data for the calibration or position detection, and a second device having a second processor and a display. In this teaching system, the second processor acquires the image data from the first device, and displays an image represented by the image data on the display to be captured by a visual sensor in performing the calibration or position detection.
添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれらの目的、特徴および利点ならびに他の目的、特徴および利点がさらに明確になるであろう。 These and other objects, features and advantages of the present invention will become more apparent from the detailed description of exemplary embodiments of the present invention illustrated in the accompanying drawings.
次に、本開示の実施形態について図面を参照して説明する。参照する図面において、同様の構成部分または機能部分には同様の参照符号が付けられている。理解を容易にするために、これらの図面は縮尺を適宜変更している。また、図面に示される形態は本発明を実施するための一つの例であり、本発明は図示された形態に限定されるものではない。 Next, an embodiment of the present disclosure will be described with reference to the drawings. In the drawings, similar components or functional parts are given similar reference symbols. The scale of these drawings has been appropriately changed to facilitate understanding. Furthermore, the form shown in the drawings is one example for implementing the present invention, and the present invention is not limited to the form shown.
以下で説明する各実施形態では、キャリブレーションや位置検出に関する教示を行うための教示システムについて説明する。 In each of the embodiments described below, a teaching system for teaching calibration and position detection will be described.
本明細書においてキャリブレーションのための所定のパターンには、キャリブレーションに用いることのできる当分野で知られた各種のドットパターンやマーカが含まれ得る。上述の特許文献1及び2には、キャリブレーションに用いられるドットパターンやマーカの例が記載されている。キャリブレーションとは、カメラの画像上での位置と三次元空間上での位置とを関連付けるキャリブレーションデータ(変換行列)を求めることに対応する。キャリブレーションデータには、カメラ座標系から画像座標系への変換に対応する内部パラメータと、ワールド座標系からカメラ座標系への変換(回転や並進)に対応する外部パラメータとが含まれる。キャリブレーションに使用可能なドットパターンとして、例えば、(a1)ドットパターンの格子点間隔が既知であること、(a2)一定数以上の格子点が存在すること、(a3)各格子点がどの格子点であるかを一意に特定可能であること、との要件を満たすものが用いられる。図4には、このようなドットパターン301が例示されている。ドットパターン301では、ドットが格子状に等間隔に配置され、大きいドットM(一部のみに符号を付している)によりドットパターン上に座標系(X軸、Y軸、及び原点O)が定義され、それにより各格子点がどの格子点であるが位置に特定される。
In this specification, the predetermined pattern for calibration may include various dot patterns and markers known in the art that can be used for calibration. The above-mentioned Patent Documents 1 and 2 describe examples of dot patterns and markers used for calibration. Calibration corresponds to obtaining calibration data (transformation matrix) that associates a position on a camera image with a position in three-dimensional space. The calibration data includes internal parameters corresponding to the transformation from the camera coordinate system to the image coordinate system and external parameters corresponding to the transformation (rotation and translation) from the world coordinate system to the camera coordinate system. As a dot pattern that can be used for calibration, for example, one that satisfies the following requirements is used: (a1) the lattice point interval of the dot pattern is known, (a2) there is a certain number or more of lattice points, and (a3) each lattice point can be uniquely identified. FIG. 4 illustrates such a
計測対象の位置を検出するための所定のパターンには、マーカやターゲットと称される当分野で知られた様々なタイプのものがある。上述の特許文献3及び4には、この種のマーカの例が記載されている。マーカを使用した座標系の補正を行う適用例もある。例えば、台車やAGV(Automated Guided Vehicle:無人搬送車)に搭載されたロボットが移動した際に工作機械との位置関係を補正する適用例では、マーカが測定対象(工作機械)の1又は複数の箇所に貼り付けられ、キャリブレーション済みのカメラを搭載したロボットによりマーカを検出することで位置関係が補正される。なお、位置検出に使用可能なマーカには、図5に例示したマーカ302や、特許文献3及び4に例示されるもののみでなく、ドットパターン、比較的単純な図形、記号、文字等の画像上で検出可能な様々なものが含まれ得る。
There are various types of predetermined patterns for detecting the position of a measurement target, called markers or targets, known in the art. Examples of this type of marker are described in the above-mentioned Patent Documents 3 and 4. There are also application examples in which a coordinate system is corrected using a marker. For example, in an application example in which a robot mounted on a cart or AGV (Automated Guided Vehicle) corrects its positional relationship with a machine tool when the robot moves, a marker is attached to one or more locations on the measurement target (machine tool), and the positional relationship is corrected by detecting the marker with a robot equipped with a calibrated camera. Markers that can be used for position detection include not only the
本明細書においてキャリブレーション又は位置検出のための所定のパターンというときには、キャリブレーションや対象の位置の検出或いは計測で使用可能な上述した様々なタイプのものが含まれ得る。 In this specification, the term "predetermined pattern for calibration or position detection" can include the various types described above that can be used for calibration or for detecting or measuring the position of an object.
以下で説明する各実施形態の教示システムは、第1プロセッサと、キャリブレーション又は位置検出のための所定のパターンの画像データを記憶する記憶部と、を有する第1の装置と、第2プロセッサと、ディスプレイと、を有する第2の装置と、を備える。この教示システムにおいて、第2の装置の第2プロセッサは、第1の装置から所定のパターンの画像データを取得し、キャリブレーション又は位置検出の実行において視覚センサに撮像させるために所定のパターンの画像をディスプレイに表示する機能を有する。 The teaching system of each embodiment described below includes a first device having a first processor and a storage unit that stores image data of a predetermined pattern for calibration or position detection, and a second device having a second processor and a display. In this teaching system, the second processor of the second device has a function of acquiring image data of the predetermined pattern from the first device, and displaying an image of the predetermined pattern on the display to be captured by a visual sensor when performing calibration or position detection.
第1実施形態
図1は第1実施形態に係る、キャリブレーション又は位置検出に関する教示を行うための教示システム501のシステム構成を示している。この教示システム501は、ロボットシステム100を備える。図2は、教示システム501における機能ブロック図を示す。図1に示されるように、ロボットシステム100は、ロボット10と、ロボット10を制御するロボット制御装置20と、教示操作盤30と、ロボット制御装置20に接続された画像処理装置40と、視覚センサ70とを含む。視覚センサ70は、ロボット10のアーム先端部に取り付けられ、また、画像処理装置40に接続されている。ロボットシステム100は、視覚センサ70をキャリブレーションすることで、視覚センサ70により対象物の位置を検出して対象物のハンドリングを実行可能となる。
First embodiment Fig. 1 shows a system configuration of a
図1に示した構成において、ロボット制御装置20(第1の装置)は、視覚センサ70を用いたキャリブレーション或いは位置検出の実行を司る。教示操作盤30(第2の装置)は、キャリブレーション又は位置検出のための所定のパターンの画像データをロボット制御装置20(第1の装置)から取得し、取得した画像データに基づき、所定のパターンの画像を、視覚センサに撮像させるために教示操作盤30(第2の装置)のディスプレイ32に表示する機能を有する。
In the configuration shown in FIG. 1, the robot control device 20 (first device) is responsible for performing calibration or position detection using the
ロボット制御装置20は、ロボットプログラム或いは教示操作盤30からの指令に従ってロボット10の動作を制御する。ロボット制御装置20は、プロセッサ21、メモリ(ROM、RAM、不揮発性メモリ等)、記憶部22、操作部、入出力インタフェース、ネットワークインタフェース等を有する一般的なコンピュータとしてのハードウェア構成を有していても良い(図2参照)。
The
教示操作盤30は、ロボット制御装置20に有線又は無線で接続され、ロボット10の教示や、各種設定入力を行う機能を提供することができる。教示操作盤30として、可搬型の各種端末装置(タブレット端末等)により構成された教示装置を用いても良い。教示操作盤30は、プロセッサ31、メモリ(ROM、RAM、不揮発性メモリ等)、記憶装置、ディスプレイ32、操作部33、入出力インタフェース、ネットワークインタフェース等を有する一般的なコンピュータとしてのハードウェア構成を有していても良い(図2参照)。操作部は、ディスプレイ32と一体化されたタッチ操作パネルとして構成されていてもよい。
The
ロボット10は、図1では垂直多関節ロボットであるが、ロボット10として、水平多関節ロボット、パラレルリンク型ロボット、双腕ロボット等、作業対象に応じて様々なタイプのロボットが用いられても良い。ロボット10は、手首部に取り付けられたエンドエフェクタによって所望の作業を実行することができる。エンドエフェクタは、用途に応じて交換可能な外部装置であり、例えば、ハンド、溶接ガン、工具等である。図1では、エンドエフェクタとしてのハンド11が用いられている例を示す。
In Figure 1, the
画像処理装置40は、ロボット制御装置20(動作制御部121)からの指令に基づき視覚センサ70の制御、及び、撮像画像に対する画像処理(検出、判定等)を実行する機能を担う。視覚センサ70は、濃淡画像やカラー画像を撮像するカメラでも、距離画像や3次元点群を取得できるステレオカメラや3次元センサでもよい。
The
なお、本実施形態では、画像処理装置40は、ロボット制御装置20とは別の装置として配置される場合の構成例を示しているが、画像処理装置40としての機能がロボット制御装置20内に一体として組み込まれていてもよい。
In this embodiment, the
図2に示すように、ロボット制御装置20は、動作制御部121と、寸法情報算出部122と、画像データ記憶制御部123とを備える。これらの機能ブロックは、ロボット制御装置20のプロセッサ21がソフトウェアを実行することで実現されるものであってもよい。図2には、ロボット制御装置20のハードウェア構成要素としての記憶部22を図示している。記憶部22は、例えば、不揮発性メモリ或いはハードディスク装置等からなる記憶装置である。記憶部22には、ロボット10を制御するロボットプログラム、キャリブレーションプログラム、位置検出プログラム(マーカ等の所定のパターンを用いて対象の位置を計測或いは検出するためのプログラム)等の各種プログラム、及び各種設定情報等が格納されている。また、記憶部22は、キャリブレーション又は位置検出に使用可能な所定のパターンの画像データを保有している。
As shown in FIG. 2, the
動作制御部121は、ロボットプログラムにしたがって、或いは教示操作盤30からの指令に従ってロボット10の動作を制御する。ロボット制御装置20は、動作制御部121が生成する各軸に対する指令に従って各軸のサーボモータに対するサーボ制御を実行するサーボ制御部(不図示)を備えている。
The
図2に示すように、教示操作盤30は、画像データ取得部131と、画像データ表示制御部132と、明るさ調整部133と、画像データ登録部134とを備える。なお、これらの機能ブロックは、プロセッサ31がソフトウェアを実行することで実現されるものであってもよい。画像データ取得部131は、ロボット制御装置20から、キャリブレーション又は位置検出のための所定のパターンの画像データを取得する機能を有する。画像データ表示制御部132は、取得した所定のパターンの画像をディスプレイ32に表示させる機能を有する。この構成により、作業者は、教示操作盤30にドットパターンやマーカ等の所定のパターンの画像を表示させることで、教示操作盤30をキャリブレーション治具或いは対象の位置検出のための治具として用いることができる。
As shown in FIG. 2, the
ドットパターンを用いてキャリブレーションを行うためには、ドット間隔の寸法情報が必要となる。キャリブレーションを実行するロボット制御装置20において教示操作盤30上に表示されるドットパターンのドット間隔の寸法を把握するための構成の一例として、本実施形態では、ロボット制御装置20において教示操作盤30のディスプレイ32に関する情報に基づいて寸法情報を算出し、ドットパターンの画像データに関連付けて保有する構成とする。
In order to perform calibration using a dot pattern, dimensional information on the dot spacing is required. As an example of a configuration for grasping the dimensions of the dot spacing of the dot pattern displayed on the
ロボット制御装置20の寸法情報算出部122は、例えば、ドットパターンの画像データにおける格子点間隔の画素数と、教示操作盤30のディスプレイ32の解像度及びサイズの情報とから、ドットパターンをディスプレイ32に表示した場合にドット間隔がどのような寸法になるかを算出することができる。例えば、寸法情報算出部122は、下記の手順の実行を司るように構成されていてもよい。
(手順b1)教示操作盤30を介してディスプレイ32に関する情報(解像度及びサイズ)の入力を受け付ける。
(手順b2)ドットパターンの画像データ、及び、ディスプレイ32に関する情報に基づいて上記寸法情報を算出する。
(手順b3)算出した寸法情報をドットパターンの画像データと関連付けて記憶部22に記憶する。
The dimensional
(Step b1) The input of information (resolution and size) regarding the
(Step b2) The above-mentioned dimensional information is calculated based on the image data of the dot pattern and information related to the
(Step b3) The calculated dimensional information is stored in the
画像データ記憶制御部123は、ドットパターンの画像データと寸法情報とを関連付けて記憶部22に記憶させる機能を有する。なお、ドット間隔の異なる複数種類のドットパターンの画像データを準備しておく場合には、下記表1のように、各ドットパターン(画像データ)について、ディスプレイ32に表示した場合のドット間隔の寸法を算出しておいて画像データと関連付けて保存しておいてもよい。これにより、教示操作盤30を、異なるドット間隔を有する複数種類のキャリブレーション治具として利用できることとなる。
The image data
図3Aに、キャリブレーション又は位置検出における所定のパターンの教示に関する処理の全体フローを示す。はじめに、作業者は、教示操作盤30(第2の装置)上でキャリブレーション又は位置検出のための所定のパターンの画像データを取得して表示するための処理を実行する(ステップ1)。 FIG. 3A shows the overall flow of the process for teaching a specific pattern for calibration or position detection. First, an operator executes a process for acquiring and displaying image data of a specific pattern for calibration or position detection on the teaching operation panel 30 (second device) (step 1).
図3Bは、図3AのステップS1における処理内容を示すフローチャートである。作業者による指示に応じ、教示操作盤30(第2の装置)の画像データ取得部131は、キャリブレーション又は位置検出のための所定のパターンの画像データをロボット制御装置20(第1の装置)から取得する(ステップS11)。このとき、ロボット制御装置20が上述のように複数種類のパターンの画像データを保有している場合には、画像データ取得部131は、複数のパターンのリストをディスプレイ32に表示し、当該リストから所望の画像データを選択するユーザ操作を受け付けるように構成されていてもよい。
FIG. 3B is a flowchart showing the process in step S1 in FIG. 3A. In response to an instruction from an operator, the image
次に、教示操作盤30の画像データ表示制御部132は、ロボット制御装置20から取得した所定のパターンの画像をディスプレイ32に表示させる(ステップS12)。これにより、教示操作盤30は、キャリブレーション又は位置検出のため治具として利用可能となる。
Next, the image data
図3Aに示すように、次に、作業者は、所定のパターンが表示された教示操作盤30(第2の装置)を、視覚センサ70により撮像可能な、キャリブレーションや位置補正のための所定の位置に配置する(ステップS2)。そして、作業者は、所定のパターンの画像を表示した教示操作盤30を視覚センサ70に撮像させて、ロボット制御装置20にキャリブレーション或いは位置検出を実行させる(ステップS3)。この場合、ロボット制御装置20(第1の装置)は、ドットパターンを教示操作盤30に表示させる場合の寸法情報を保有しているので、キャリブレーションを実行する場合にはその寸法情報を用いることができる。
As shown in FIG. 3A, the worker then places the teaching pendant 30 (second device) on which the predetermined pattern is displayed at a predetermined position for calibration or position correction where it can be imaged by the visual sensor 70 (step S2). The worker then causes the
図4は、上記ステップS1により、教示操作盤30のディスプレイ32にキャリブレーション用のドットパターン301の画像を表示させた状態を示している。図4に示すドットパターン301は、キャリブレーションを行うためのドットパターンとしての上述の要件(a1)から(a3)を満たしている。図4のようにドットパターン301を表示した状態でのディスプレイ32上でのドット間隔dは、キャリブレーションの実行を司るロボット制御装置20において既知である。よって、ロボット制御装置20は、ロボット制御装置20が保有するドット間隔dの値を用いてキャリブレーションを適切に実行することができる。なお、このようなドットパターン301が対象の位置を検出し或いは座標系を設定するために用いられてもよい。
FIG. 4 shows the state where an image of a
作業者は、教示操作盤30を操作して所定のパターンの画像データをロボット制御装置20からダウンロードして表示させるという簡単な操作を行うのみでキャリブレーション或いは位置検出を遂行することができる。よって、作業者は、従来のようにキャリブレーションや位置検出のための治具を保存場所から取り出して設置するといった手間のかかる作業を行う必要はない。
The operator can perform calibration or position detection simply by operating the
また、上述したように様々なサイズのドットパターンの画像データをロボット制御装置20において保存しておくことで、作業者は、実行環境にマッチしたサイズのドットパターンの画像データをロボット制御装置20からいつでも取得して教示操作盤30に表示させ教示に用いることができる。
In addition, by storing image data of dot patterns of various sizes in the
本実施形態によれば、作業者は、必要な時にいつでも教示操作盤30上に所定のパターンの画像を表示させてキャリブレーション或いは位置検出を行うことができる。図5に示すように、作業者は、教示操作盤30上にロボット10のロボットプログラムを教示するための操作画面401を表示している状態で、必要なときにいつでも、画像データ取得部131の機能を起動させてロボット制御装置20から所定のパターンの画像データをダウンロードして、教示のための操作画面401にオーバラップさせて表示させることもできる。図5の例では、教示のための操作画面401に重ねてドットパターン301を表示させた場合を示している。
According to this embodiment, the operator can perform calibration or position detection by displaying an image of a predetermined pattern on the
教示操作盤30の明るさ調整部133は、所定のパターンの画像を表示する教示操作盤30を視覚センサ70により撮像した画像の明るさに関する情報をロボット制御装置20(キャリブレーションプログラム或いは位置検出プログラム)から受け取り、ディスプレイ32に表示する所定のパターンの画像の明るさを調整する機能を有する。例えば、明るさ調整部133は、ロボット制御装置20からの上記情報が撮像画像が暗すぎることが示している場合に、ディスプレイ32上での所定のパターンの画像の明るさを上昇させる。或いは、明るさ調整部133は、ロボット制御装置20からの上記情報が撮像画像が明るすぎることを示している場合に、ディスプレイ32上での所定のパターンの画像の明るさを低下させる。このような機能により、作業空間内での照明環境に左右されることなく、所定のパターンの明るさを自動的に適切な状態に調整することが可能となる。作業者は、視覚センサ70が所定のパターンを撮像した画像の明るさを調整するために、作業空間内の照明装置の調整等を行うといった手間のかかる作業を行う必要はない。
The
なお、明るさ調整部133は、マニュアル操作により所定のパターンの画像の表示の明るさを調整する機能を備えていてもよい。この場合においても、作業者は、視覚センサ70による撮像画像の状態をみて、教示操作盤30に表示する所定のパターンの画像の明るさを適切な状態に調整することができる。作業者は、視覚センサ70が所定のパターンを撮像した画像の明るさを調整するために、作業空間内の照明装置の調整等を行うといった手間のかかる作業を行う必要はない。
The
所定のパターンの画像を表示する機能を担う教示操作盤30(第2の装置)がこのように所定のパターンの画像の表示の明るさを適切に調整する機能を有することで、作業者が作業空間の照明の明るさ等を調整する必要がなくなる。したがって、キャリブレーションや位置検出を実行する場合の作業者の負荷が軽減され、作業をいっそう効率よく遂行することが可能となる。 The teaching operation panel 30 (second device), which has the function of displaying an image of a specific pattern, has the function of appropriately adjusting the brightness of the display of the image of the specific pattern in this way, so that the worker does not need to adjust the brightness of the lighting in the work space. Therefore, the burden on the worker when performing calibration or position detection is reduced, and the work can be carried out more efficiently.
画像データ登録部134は、所定のパターンの画像データを格納するロボット制御装置20(第1の装置)に対して、キャリブレーション或いは位置検出のための所定のパターンの画像データを新たに登録するための機能を提供する。画像データ登録部134は、例えば、教示操作盤30(或いは、教示操作盤30に接続された外部記憶装置)に保存されている画像データのうちの任意の画像データを、キャリブレーション又は位置検出のための新たな画像データとしてロボット制御装置20に登録する機能を提供する。
The image
図6に画像データ登録部134の機能により、教示操作盤30のディスプレイ32に表示された画像データの登録画面402の例を示す。登録画面402には、教示操作盤30(或いは、教示操作盤30に接続された外部記憶装置)に保存されている画像データのリストが表示される。作業者は、表示された画像データのリストから所望の画像データを選択してOKボタン411を押下することで、選択された画像データを新たなパターンの画像データとしてロボット制御装置20の記憶部22に登録することができる。ロボット制御装置20の画像データ記憶制御部123は、画像データ登録部134からの登録依頼を受け付け、新たな画像データを記憶部22に保存する機能を提供する。なお、新たに登録するパターンの画像として、各種のマーク、図形、記号、文字等の、キャリブレーション又は位置検出に利用可能なあらゆる画像を用いることができる。なお、画像データ登録部134は、新たなパターンの画像データの登録を受け付ける場合に、当該パターンの寸法に関する情報についても登録を受け付けるように構成されていてもよい。寸法に関する情報は、例えば、上述したようにドットパターンのドット間隔の画素数、或いは、所定のディスプレイ上でのドット間隔の寸法(ミリメートル)である。或いは、寸法に関する情報は、マーカのサイズに関する情報(例えば、円Cのサイズ(ドット数)、円Cを特定のディスプレイに表示した場合の円Cのサイズ(平方ミリメートル)等)であってもよい。これにより、ロボット制御装置20は、新たな画像データに関しても、上記表1に例示したような、画像データと寸法情報とを対応付けた情報を保有することができる。
FIG. 6 shows an example of an image
上述した実施形態は、ロボット制御装置20(第1の装置)が保有する所定のパターンの画像データを教示操作盤30(第2の装置)にダウンロードして表示させる場合の構成例であったが、所定のパターンの画像データをダウンロードし表示する第2の装置は、教示操作盤30である場合に限られない。例えば、教示操作盤30とは別の可搬型の端末装置で所定のパターンの画像データをダウンロードして表示する構成としてもよい。この場合、当該端末装置は、キャリブレーション或いは位置検出に関する教示を行うための教示装置と位置付けることができる。
The above-described embodiment is an example of a configuration in which image data of a predetermined pattern held by the robot control device 20 (first device) is downloaded to the teaching operation panel 30 (second device) and displayed, but the second device that downloads and displays the image data of the predetermined pattern is not limited to the
図7にこのような教示システム501Aの機器構成例を示す。教示システム501Aでは、教示操作盤30とは別のタブレット端末80で所定のパターンの画像データをダウンロードして表示する。図8に、このシステム構成の場合のタブレット端末80の機能ブロック図を示す。図8に示すように、タブレット端末80は、画像データ取得部181と、画像データ表示制御部182と、画像データ登録部184とを備える。これら、画像データ取得部181、画像データ表示制御部182、及び画像データ登録部184の機能は、上述した教示操作盤30の画像データ取得部131、画像データ表示制御部132、及び画像データ登録部134の機能と同等である。なお、図8には、タブレット端末80のハードウェア構成要素としてのディスプレイ82、及び操作部83を図示している。
FIG. 7 shows an example of the equipment configuration of such a
なお、タブレット端末80は、プロセッサ81、メモリ(ROM、RAM、不揮発性メモリ等)、記憶装置、ディスプレイ82、操作部83、入出力インタフェース、ネットワークインタフェース等を有する一般的なコンピュータとしてのハードウェア構成を有していても良い。操作部は、ディスプレイと一体化されたタッチ操作パネルとして構成されていてもよい。
The
タブレット端末80は、ロボット制御装置20と通信可能に接続されていてもよく、或いは、ロボット制御装置20とは通信可能ではなくてもよい。タブレット端末80がロボット制御装置20と通信可能でない場合には、例えば作業者はUSBメモリ内にロボット制御装置20の画像データをダウンロードして保存しておく。そして、作業者は、タブレット端末80にこのUSBメモリを接続することで、タブレット端末80上で所望のパターンの画像データを取得し表示してもよい。
The
この場合に、ロボット制御装置20は、教示操作盤30のディスプレイ32の情報に加えて、タブレット端末80のディスプレイ82の情報も保有しておいてもよい。それにより、ロボット制御装置20は、ドットパターンの画像データにおけるドット間隔の画素数、及び、タブレット端末80のディスプレイ82の解像度及びサイズから、ドットパターンのドット間隔がディスプレイ82上でどのようなサイズになるかを計算し保有しておくことができる。それにより、ロボット制御装置20は、下記表2のように、画像データに関連付けて、教示操作盤30にドットパターンを表示した場合におけるドット間隔の寸法情報と、タブレット端末80にドットパターンを表示した場合におけるドット間隔の寸法情報とを保持しておくことができる。
In this case, the
なお、表2に示した情報を更に3種類以上の端末装置に対応できるように拡張することもできる。この場合、ドットパターンのドット間隔の画素数と、3種類以上の端末装置のディスプレイの情報(解像度、サイズ)とに基づいて、3種類以上の端末装置にドットパターンを表示した場合のドット間隔をそれぞれ求めることができる。 The information shown in Table 2 can also be expanded to accommodate three or more types of terminal devices. In this case, the dot spacing when the dot pattern is displayed on three or more types of terminal devices can be calculated based on the number of pixels for the dot spacing in the dot pattern and the display information (resolution, size) of the three or more types of terminal devices.
このようにロボット制御装置20が複数種類のディスプレイについての寸法情報を保有する構成の場合、ロボット制御装置20(プロセッサ21)は、キャリブレーション又は位置検出の実行においてどのディスプレイが使用されるかについての情報を、例えば教示操作盤30を介してユーザ入力により取得できるように構成されていてもよい。
In this manner, when the
図7及び図8に示した構成例の場合においても、ドットパターンをタブレット端末80に表示した場合のドット間隔の寸法はロボット制御装置20において既知であるため、図1から図6を参照して上述した実施形態のメリットと同様のメリットを得ることができる。なお、図7及び図8に示した構成例の場合には、教示操作盤30を用いたロボット10の操作と、タブレット端末80を用いたキャリブレーション或いは位置検出とを同時並行的に実施できるメリットが得られる。
Even in the configuration example shown in Figures 7 and 8, the dimensions of the dot spacing when the dot pattern is displayed on the
図9は、、タブレット端末80のディスプレイ82にロボット制御装置20から取得したマーカ302の画像を表示させた状態を表している。例示として、マーカ302は、互いに直交する直線a、bおよび既知のサイズの円Cを含むタイプのマーカである。マーカ302は、一例として、以下のように利用される。マーカ302による対象の位置検出を行う場合、作業者は、予め視覚センサ70をキャリブレーションしておく。そして、作業者は、タブレット端末80を操作しロボット制御装置20からマーカ302の画像データをダウンロードしディスプレイ82に表示させる(ステップS1)。作業者は、マーカ302が表示されたタブレット端末80を、計測対象(作業台、工作機械等)の所定の位置に設置し(ステップS2)、ロボット制御装置20に位置検出プログラムを実行させる(ステップS3)。位置検出プログラムは、マーカ302の撮像画像上での検出位置に基づいてマーカ302の3次元位置を把握し、計測対象の3次元位置を得る。なお、マーカ302の3次元位置の計測のために視覚センサ70によるステレオ計測の手法が用いられてもよい。したがって、作業者は、このような位置検出を行う場合においても、別の場所に保管されているマーカ治具或いはマーカの印刷物を取り出して対象に設置する等の作業を行う必要はない。
9 shows a state in which an image of the
なお、マーカ302のようなタイプのマーカを用いて対象の位置検出を行う場合において、マーカの教示のための寸法情報(円Cのサイズ等)が必要とされる場合には、ロボット制御装置20(第1の装置)は、マーカの画像データに関連付けて、マーカをタブレット端末80(第2の装置)のディスプレイ82に表示した場合の寸法情報を保有しておき、対象の位置検出においてこの寸法情報を用いてもよい。
When detecting the position of an object using a marker of a type such as
所定のパターンの画像を表示する第2の装置は、ロボット10と共に使用される工作機械であってもよい。図10にこの場合の機器構成の概略図を示す。例えば、ロボット10が台車やAGVに搭載され工作機械90に対して所定に位置に配置されて工作機械90に対してワークの搬入や搬出を行うような応用例がこの場合に対応する。工作機械90には、ディスプレイ92が一体化された制御装置(数値制御装置)91が組み込まれている。制御装置91は、例えば、ネットワーク経由で、ロボット制御装置20から所定のパターンの画像データをダウンロードし表示することができる。或いは、制御装置91の記憶部には、所定のパターンの画像データが予め登録されていてもよい。
The second device that displays an image of the predetermined pattern may be a machine tool used together with the
図10には、制御装置91のディスプレイ92にマーカ302を表示させた状況を示している。制御装置91のディスプレイ92は、工作機械90上で固定された位置に組み付けられているので、ディスプレイ92上の所定位置にマーカ302を表示させることで、マーカ302を工作機械90の位置を示す指標として用いることができる。この場合、例えば、作業者は、位置検出を行う際に、制御装置91を操作してディスプレイ92上にマーカ302を表示させる。ロボット制御装置20は、ディスプレイ92に表示されたマーカ302を視覚センサ70で撮像することで、ロボット10と工作機械90との位置関係を計測する。なお、この場合において、ロボット制御装置20は、制御装置91のディスプレイ92の仕様に関する情報(解像度、画面サイズ等)を保有しておくことで、マーカ302の画像データに基づき、マーカ302をディスプレイ92に表示した場合の寸法情報を算出して検出に利用することもできる。なお、本構成の場合、制御装置91のプロセッサは、タブレット端末80に関して図8を参照して上述したような、画像データ取得部181、画像データ表示制御部182、および画像データ登録部184としての機能を実行できる。
10 shows a state in which the
第2実施形態
図11は、第2実施形態に係る教示システム502の機器構成を示す図である。教示システム503は、ロボットシステム100Aを含む。図11に示される教示システム502では、キャリブレーション又は位置検出のための所定のパターンの画像を表示する第2の装置は教示操作盤30であり、第2の装置(教示操作盤30)に対して画像データを提供する側の第1の装置は、ロボット制御装置20Aとは別の外部装置である。本実施形態では、一例として、外部装置は、ロボットシステム100Aが配置される工場内に配置されている他の制御装置(数値制御装置、ロボット制御装置等)220であるものとする。教示操作盤30は、工場内のネットワークを介して制御装置220と有線又は無線により通信可能である場合を想定する。
Second embodiment FIG. 11 is a diagram showing the equipment configuration of a
なお、制御装置220は、プロセッサ224、メモリ(ROM、RAM、不揮発性メモリ等)、記憶部225、表示部、操作部、入出力インタフェース、ネットワークインタフェース等を有する一般的なコンピュータとしてのハードウェア構成を有していても良い(図12参照)。
The
本実施形態において、制御装置220(第1の装置)は、第1実施形態におけるロボット制御装置20と同様の形式で、キャリブレーション又は位置検出のための所定のパターンの画像データを保有する。よって、制御装置220は、ドットパターンに関しては、ドットパターンの画像データに関連付けて、当該ドットパターンを教示操作盤30のディスプレイ32に表示した場合のドット間隔の寸法情報を保有している。本実施形態では、キャリブレーション或いは位置検出を司るロボット制御装置20Aにドット間隔の寸法情報を提供するため、教示操作盤30のディスプレイ32にドットパターンの画像と共に寸法情報を示す画像を表示する。
In this embodiment, the control device 220 (first device) holds image data of a predetermined pattern for calibration or position detection in a format similar to that of the
図12に第2実施形態に係るロボット制御装置20A、教示操作盤30、及び制御装置220の機能ブロック図を示す。制御装置220は、寸法情報算出部221と、画像データ記憶制御部222とを備える。寸法情報算出部221及び画像データ記憶制御部222は、第1実施形態のロボット制御装置20の寸法情報算出部122及び画像データ記憶制御部123と同等の機能を有する。すなわち、寸法情報算出部221及び画像データ記憶制御部222は、予め上述の(手順b1)から(手順b3)と同等の処理を実行し、所定のパターンの画像データ及び寸法情報を記憶部225に保存しておくことができる。記憶部225は、不揮発性メモリ或いはハードディスク等により構成される記憶装置であり、制御装置220における機械の制御に係わるプログラムや各種設定情報に加えて、所定のパターンの画像データと、寸法情報とを記憶する。
12 shows a functional block diagram of the
教示操作盤30の画像データ取得部131は、制御装置220の記憶部225から所定のパターンの画像データ及び寸法情報をダウンロードする機能を有する。画像データ表示制御部132及び明るさ調整部133は、第1実施形態に関して上述した機能と同じ機能を有する。画像データ登録部134は、制御装置220に対して、キャリブレーション或いは位置検出のための所定のパターンの画像データを新たに登録するための機能を提供する。
The image
ロボット制御装置20Aは、動作制御部121と、寸法認識部124とを備える。記憶部22内には、ロボットプログラム、キャリブレーションプログラム、位置検出プログラム、その他各種設定情報等が格納される。寸法認識部124は、所定のパターンの画像と共に表示される寸法情報の画像から寸法を認識する機能を提供する。
The
図13A及び図13Bは、教示操作盤30のディスプレイ32上にドットパターン301と共にドット間隔の寸法情報を表す画像を表示した場合の例を示す。図13Aでは、寸法情報としてドット間隔の数値を表す画像G1を表示した例を示す。図13Bでは、寸法情報としてドット間隔の数値をコード化した画像G2を表示した例を示す。寸法情報算出部221は、算出したドット間隔の寸法を画像G2のようにコード化する機能を備えていてもよい。制御装置220は、このような画像G1或いは画像G2を寸法情報として保有していてもよい。
FIGS. 13A and 13B show examples of images showing dimensional information about dot spacing together with a
図14Aに、キャリブレーション又は位置検出における所定のパターンの教示に関する処理の全体フローを示す。ここでは、所定のパターンとしてドットパターンが用いられる場合の処理に着目した流れを説明する。はじめに、作業者は、教示操作盤30(第2の装置)上でキャリブレーション又は位置検出のための所定のパターンの画像データ及び寸法情報を取得して表示するための処理を実行する(ステップS1a)。 FIG. 14A shows the overall flow of the process related to teaching a specified pattern for calibration or position detection. Here, the flow is explained focusing on the process when a dot pattern is used as the specified pattern. First, the operator executes a process for acquiring and displaying image data and dimensional information of the specified pattern for calibration or position detection on the teaching operation panel 30 (second device) (step S1a).
図14Bは、図14AのステップS1aにおける処理内容を表すフローチャートである。作業者による指示に応じ、教示操作盤30(第2の装置)の画像データ取得部131は、キャリブレーション又は位置検出のための所定のパターンの画像データ、及び、寸法情報を制御装置220(第1の装置)から取得する(ステップS11a)。このとき、制御装置220が複数種類のパターンの画像データを保有している場合には、画像データ取得部131は、複数のパターンのリストをディスプレイ32に表示し、当該リストから所望の画像データを選択するユーザ操作を受け付けるように構成されていてもよい。
FIG. 14B is a flowchart showing the processing content in step S1a of FIG. 14A. In response to instructions from an operator, the image
次に、教示操作盤30の画像データ表示制御部132は、制御装置220から取得した所定のパターンの画像及び寸法情報をディスプレイ32に表示させる(ステップS12a)。これにより、教示操作盤30は、キャリブレーション又は位置検出のため治具として利用可能となる。
Next, the image data
図14Aに示すように、次に、作業者は、ドットパターンの画像と共に寸法情報を表す画像が表示された教示操作盤30を、視覚センサ70により撮像可能な、キャリブレーションや位置補正のための所定の位置に配置する(ステップS2)。次に、作業者は、ドット間隔の寸法情報をロボット制御装置20Aに認識させる(ステップS2a)。本実施形態の場合には、以下のような手法(c1)から(c3)のいずれかによりロボット制御装置20Aにドット間隔を認識させることができる。
(c1)作業者がキャリブレーションプログラムの設定項目に直接入力する。
(c2)ロボット制御装置が画像上の数値を読み取って認識する。
(c3)ロボット制御装置が画像上のコード情報を読み取って認識する。
14A, the operator then places the
(c1) An operator directly inputs the data into the setting items of the calibration program.
(c2) The robot control device reads and recognizes the numerical values on the image.
(c3) The robot control device reads and recognizes the code information on the image.
上記手法(c1)は、図13Aで示したように、ドットパターンの画像と共に、ドット間隔の数値を表す画像G1を表示する場合に有効な手法である。この場合、作業者は、ドットパターンの画像と共に表示された寸法情報の画像を見て、ドット間隔を把握し、キャリブレーションプログラムの設定項目に直接入力することができる。図18に、キャリブレーションプログラムの実行画面450の例を示す。実行画面450には、所定の位置に配置された状態の教示操作盤30を視覚センサ70により撮像した画像G5と共に、ドット間隔を指定するための入力欄451が表示されている。作業者は、入力欄451に数値を直接入力するやり方、或いは、数値のメニューリストから指定を行うやり方でドット間隔を入力することができる。そして、作業者は、実行画面450上で所定の操作を行うことでキャリブレーションを実行させ、結果を確認することができる。
The above method (c1) is an effective method when an image G1 showing the numerical value of the dot spacing is displayed together with an image of a dot pattern, as shown in FIG. 13A. In this case, the worker can see the image of the dimensional information displayed together with the image of the dot pattern, grasp the dot spacing, and directly input it into the setting item of the calibration program. FIG. 18 shows an example of an
なお、ロボット制御装置20Aにドット間隔を把握させるための手法として上記手法(c1)を適用する場合には、ロボット制御装置20Aは、寸法認識部124としての機能を備えていなくてもよい。
Note that when the above method (c1) is applied as a method for making the
上記手法(c2)は、図13Aで示したように、ドットパターンの画像と共にドット間隔の数値を表す画像G1を表示する場合に有効な手法である。ロボット制御装置20Aの寸法認識部124は、ドットパターンと共に寸法情報の画像G1がディスプレイ32に表示された状態の教示操作盤30を視覚センサ70により撮像した画像から、寸法情報の数字を認識し、キャリブレーションプログラムに提供する機能を有する。画像からの数字の認識には、当分野で知られた各種の文字認識技術を用いることができる。
The above method (c2) is an effective method when displaying an image G1 showing the numerical value of the dot spacing together with an image of a dot pattern, as shown in FIG. 13A. The
上記手法(c3)は、図13Bで示したように、ドットパターンの画像と共にドット間隔を表すコードの画像G2を表示する場合に有効な手法である。ロボット制御装置20Aの寸法認識部124は、ドットパターンと共に寸法情報の画像G2がディスプレイ32に表示された状態の教示操作盤30を視覚センサ70により撮像した画像から、コードを読み取り、キャリブレーションプログラムに提供する機能を有する。コードは、1次元コードであっても、2次元コードであってもよい。コードの認識に、当分野で知られた各種のコード認識技術を用いることができる。
The above method (c3) is an effective method when displaying an image G2 of a code representing the dot spacing together with an image of a dot pattern, as shown in FIG. 13B. The
次に、作業者は、ドットパターンを視覚センサ70に撮像させて、ロボット制御装置20Aにキャリブレーション或いは位置検出を実行させる(ステップS3)。
Next, the worker causes the
なお、本実施形態の機器構成で、教示操作盤30(第2の装置)に表示させる所定のパターンとしてドットパターン以外のマーカを使用する場合において、教示操作盤30(第2の装置)における寸法情報の取得や表示が必要とされない応用例では、上述した図14A-図14Bの処理フローに代えて、第1実施形態において図3A-図3Bに示した処理フローを適用することができる。なお、位置検出プログラムにおいてマーカの教示が必要となる場合には、制御装置220(第1の装置)においてマーカの画像データと共にマーカの構成情報(寸法情報等)を保有しておく。そして、教示操作盤30(第2の装置)は、制御装置220(第1の装置)からマーカの画像データと共に構成情報を取得し、取得した構成情報をロボット制御装置20Aに提供しマーカの教示に利用できるようにしてもよい。或いは、教示操作盤30は、ディスプレイ32上でのマーカの寸法情報を示す画像を、マーカの画像と共に表示するようしてもよい。この場合、ロボット制御装置20A(寸法認識部124)は、視覚センサ70がマーカ及び寸法情報を示す画像を撮像した撮像画像から寸法情報を認識することができる。
In the device configuration of this embodiment, when a marker other than a dot pattern is used as the predetermined pattern to be displayed on the teaching operation panel 30 (second device), in an application example in which the acquisition and display of dimensional information on the teaching operation panel 30 (second device) is not required, the process flow shown in FIG. 3A-FIG. 3B in the first embodiment can be applied instead of the process flow of FIG. 14A-FIG. 14B described above. In addition, when teaching of a marker is required in the position detection program, the control device 220 (first device) holds configuration information (dimensional information, etc.) of the marker together with the image data of the marker. Then, the teaching operation panel 30 (second device) may acquire the configuration information together with the image data of the marker from the control device 220 (first device), and provide the acquired configuration information to the
本実施形態によれば、作業者は、必要な時にいつでも教示操作盤30上に所定のパターンの画像を表示させてキャリブレーション或いは位置検出を行うことができる。作業者は、従来のようにキャリブレーションや位置検出のための治具を保存場所から取り出して設置するといった手間のかかる作業を行う必要がない。所定のパターンの画像と共に寸法情報を示す画像を表示することで、ロボット制御装置20Aに寸法情報を認識させることも可能なので、作業者は、教示操作盤30を操作して所定のパターンの画像データを制御装置220からダウンロードして表示させる操作を行うのみでキャリブレーションを遂行することができる。
According to this embodiment, the operator can perform calibration or position detection by displaying an image of a specific pattern on the
なお、図11に示した機器構成例では、所定のパターンの画像データをダウンロードして表示する第2の装置を教示操作盤30としているが、教示操作盤30以外の他の可搬型の端末装置を第2の装置として用いてもよい。なお、この場合、当該端末装置は、キャリブレーション或いは位置検出に関する教示を行うための教示装置と位置付けられる。この場合、制御装置220は、第1実施形態の表2に記載したような、ドットパターンの画像を各端末装置で表示した場合のそれぞれのドット間隔の寸法情報を、ドットパターンの画像データに関連付けて保存しておく。制御装置220(プロセッサ224)は、端末装置から画像データのダウンロードの要求があった場合に、画像データを要求した端末装置を識別し、所定のパターンの画像データと共に、当該端末装置に対応する寸法情報を当該端末装置に提供するように構成されていてもよい。なお、所定のパターンの画像データをダウンロードして表示する第2の装置は工作機械であってもよい。
In the example of the device configuration shown in FIG. 11, the second device that downloads and displays the image data of the specified pattern is the
このような構成によれば、教示操作盤30以外の各種の端末装置に所定のパターンの画像を表示させて、キャリブレーションや位置検出に利用可能となる。
With this configuration, images of a specific pattern can be displayed on various terminal devices other than the
なお、図11では、所定のパターンの画像データを提供する第1装置が機械の制御装置220である場合の例を示しているが、所定のパターンの画像データを提供する第1の装置は様々な外部装置であり得る。例えば、所定のパターンの画像データを提供する第1の装置は、作業者が使用する教示操作盤30或いは他の端末装置とネットワーク接続されたコンピュータやクラウドであってもよい。
Note that while FIG. 11 shows an example in which the first device that provides image data of a predetermined pattern is the
なお、本実施形態では、教示操作盤30が、制御装置220から受け取った寸法情報を、所定のパターンの画像と共に表示する場合の構成について説明したが、教示操作盤30は制御装置220から受け取った寸法情報をロボット制御装置20Aに送信し、ロボット制御装置20Aがキャリブレーションや位置検出で利用できるようにしてもよい。
In this embodiment, the configuration has been described where the
第3実施形態
上述した第1実施形態および第2実施形態は、所定のパターンの画像データを提供する第1の装置が、所定のパターンの画像データを表示する第2の装置のディスプレイに関する情報を元にドットパターンが第2の装置に表示された場合のドット間隔の寸法情報を生成する機能を備える構成例であった。本実施形態では、所定のパターンの画像データを表示する第2の装置側がドット間隔の寸法情報を生成する機能を備える。
The first and second embodiments described above are configuration examples in which a first device providing image data of a predetermined pattern has a function for generating dimensional information of the dot interval when the dot pattern is displayed on a second device based on information about the display of the second device displaying the image data of the predetermined pattern. In this embodiment, the second device displaying the image data of the predetermined pattern has a function for generating dimensional information of the dot interval.
図15は、第3実施形態に係る教示システム503の機器構成を表す図である。教示システム503は、ロボットシステム100Bを含む。図15に示すように、教示システム503では、キャリブレーション又は位置検出のための所定のパターンの画像を表示する第2の装置は教示操作盤30Bであり、第2の装置(教示操作盤30B)に対して画像データを提供する側の第1の装置は、教示操作盤30Bとネットワーク接続された外部装置320である。この場合の、ネットワークには、LAN(Local Area Network)等の構内ネットワークやインターネット等の商用ネットワークが含まれ得る。
FIG. 15 is a diagram showing the equipment configuration of a
外部装置320には、ロボットシステム100Bと同一工場内に配置された制御装置、コンピュータ、商用ネットワークを介して接続されたサーバ、クラウドなど様々な装置やコンピュータシステムが含まれ得る。なお、外部装置320は、プロセッサ321、メモリ(ROM、RAM、不揮発性メモリ等)、記憶部322、表示部、操作部、入出力インタフェース、ネットワークインタフェース等を有する一般的なコンピュータとしてのハードウェア構成を有していても良い(図16参照)。
The
図16に、第3実施形態に係る教示システム503における、ロボット制御装置20A、教示操作盤30B、及び外部装置320の機能ブロック図を示す。外部装置320は、記憶部322内にキャリブレーション又は位置検出のための所定のパターンの画像データを保有している。
FIG. 16 shows a functional block diagram of the
教示操作盤30Bは、画像データ取得部131、画像データ表示制御部132、明るさ調整部133、及び画像データ登録部134としての機能を有する。これらの機能については上述しているため詳細を省略する。画像データ取得部131は、外部装置320から所定のパターンの画像データを取得する機能を有する。画像データ登録部134は、キャリブレーション又は位置検出で使用可能な新たな画像データを外部装置320に登録する機能を提供する。本実施形態に係る教示操作盤30Bは、更に、寸法情報生成部135を備えている。
The
寸法情報生成部135は、ディスプレイ32の解像度及びサイズ情報に基づいて、外部装置320からダウンロードしたドットパターンの画像データをディスプレイ32に表示した場合に、ドットパターンのドット間隔がどのようなサイズとなるかを計算する機能を有する。具体的には、寸法情報生成部135は、ドットパターンの画像を解析し、ドット間隔の画素数を求める。そして、寸法情報生成部135は、ディスプレイ32の解像度及びサイズに基づいて、ディスプレイ32上でドット間隔がどのような寸法になるかを算出し寸法情報を生成する。寸法情報は、例えば、数値、或いはコードである。
The dimensional
画像データ表示制御部132は、ドットパターンの画像と共に、寸法情報を表す画像をディスプレイ32に表示することができる。この場合の表示態様の例としては、図13A及び図13Bに示したように、ドットパターンの画像と共に寸法情報示す数値の画像を表示する例や、ドットパターンの画像と共に寸法情報をコード化した画像を表示する例があり得る。
The image data
図16に示すように、ロボット制御装置20Aは、上述した第2実施形態におけるロボット制御装置20Aと同じ機能構成を有していてもよい。
As shown in FIG. 16, the
図17Aに、キャリブレーション又は位置検出における所定のパターンの教示に関する処理の全体フローを示す。ここでは、所定のパターンとしてドットパターンが用いられる場合の処理に着目した流れを説明する。はじめに、作業者は、教示操作盤30B(第2の装置)上でキャリブレーション又は位置検出のための所定のパターンの画像データを取得し、寸法情報と共に表示するための処理を実行する(ステップS1b)。
FIG. 17A shows the overall flow of processing related to teaching a specified pattern for calibration or position detection. Here, the flow is explained focusing on the processing when a dot pattern is used as the specified pattern. First, the operator acquires image data of the specified pattern for calibration or position detection on the
図17Bは、図17AのステップS1bにおける処理内容を表すフローチャートである。作業者による指示に応じ、教示操作盤30B(第2の装置)の画像データ取得部131は、キャリブレーション又は位置検出のための所定のパターンの画像データを外部装置320(第1の装置)から取得する(ステップS11)。外部装置320(第1の装置)のプロセッサ321は、教示操作盤30Bからの要求に応じ記憶部322内の画像データを教示操作盤30Bに送出する機能を有する。このとき、外部装置320が複数種類のパターンの画像データを保有している場合には、画像データ取得部131は、複数のパターンのリストをディスプレイ32に表示し、当該リストから所望の画像データを選択するユーザ操作を受け付けるように構成されていてもよい。
FIG. 17B is a flow chart showing the processing content in step S1b of FIG. 17A. In response to an instruction from an operator, the image
次に、教示操作盤30B(第2の装置)の寸法情報生成部135は、取得したドットパターンの画像データにおけるドット間の画素数、及びディスプレイ32の解像度及びサイズの情報を元に、ドットパターンをディスプレイ32に表示した場合におけるドット間隔の寸法情報を計算する(ステップS11b)。そして、画像データ表示制御部132は、ドットパターンの画像と共に寸法情報を表す画像をディスプレイ32に表示させる(ステップS12a)。
Then, the dimensional
図17Aに示すように、次に、作業者は、ドットパターンの画像と共に寸法情報を表す画像が表示された教示操作盤30Bを、視覚センサ70により撮像可能な、キャリブレーションや位置補正のための所定の位置に配置する(ステップS2)。次に、作業者は、ドット間隔の寸法情報をロボット制御装置20Aに認識させる(ステップS2a)。ここでは、第2実施形態において説明した手法(c1)から(c3)のいずれかを用いてロボット制御装置20Aにドット間隔を認識させてもよい。
As shown in FIG. 17A, the operator then places the
そして、作業者は、ドットパターンを視覚センサ70に撮像させてキャリブレーション或いは位置検出を実行する(ステップS3)。
Then, the worker causes the
なお、本実施形態の機器構成で、教示操作盤30B(第2の装置)に表示させる所定のパターンとしてドットパターン以外のマーカを使用する場合において、教示操作盤30B(第2の装置)における寸法情報の生成や表示が必要とされない応用例では、上述した図17A-図17Bの処理フローに代えて、第1実施形態において図3A-図3Bに示した処理フローを適用することができる。なお、位置検出プログラムにおいてマーカの教示が必要となる場合には、外部装置320(第1の装置)においてマーカの画像データと共にマーカの構成情報を保有しておく。そして、教示操作盤30B(第2の装置)は、外部装置320(第1の装置)からマーカの画像データと共に構成情報を取得し、取得した構成情報をロボット制御装置20Aに提供しマーカの教示に利用できるようにしてもよい。
In the case of using a marker other than a dot pattern as the predetermined pattern to be displayed on the
このように本実施形態では、所定のパターンの画像を表示する第2の装置側でドットパターンのドット間隔を計算して表示する構成としたので、所定のパターンの画像データを提供する側の第1の装置において寸法情報を予め生成して保存しておく必要はない。 In this way, in this embodiment, the second device that displays the image of the specified pattern is configured to calculate and display the dot spacing of the dot pattern, so there is no need to generate and store dimensional information in advance in the first device that provides the image data of the specified pattern.
本実施形態によれば、作業者は、必要な時にいつでも教示操作盤30B上に所定のパターンの画像を表示させてキャリブレーション或いは位置検出を行うことができる。本実施形態の構成によれば、作業者は、従来のようにキャリブレーションや位置検出のための治具を保存場所から取り出して設置するといった手間のかかる作業を行う必要がない。所定のパターンの画像と共に寸法情報を示す画像を表示することで、ロボット制御装置20Aに寸法情報を認識させることも可能なので、作業者は、教示操作盤30Bを操作して所定のパターンの画像データを外部装置320からダウンロードして表示させる操作を行うのみでキャリブレーションを遂行することができる。
According to this embodiment, the operator can perform calibration or position detection by displaying an image of a specific pattern on the
なお、図15に示した構成例では、所定のパターンの画像を第1の装置(外部装置320)からダウンロードして表示する第2の装置は教示操作盤30Bであるとしているが、これは例示であり、所定のパターンの画像を第1の装置(外部装置320)からダウンロードして寸法情報を生成し所定のパターンの画像と共に表示する第2の装置として、教示操作盤30Bとは別の可搬型の端末装置であってもよい。この場合、当該端末装置は、キャリブレーション或いは位置検出に関する教示を行うための教示装置と位置付けられる。
In the configuration example shown in FIG. 15, the second device that downloads and displays an image of a predetermined pattern from the first device (external device 320) is the
なお、本実施形態では、教示操作盤30Bが、計算した寸法情報を、所定のパターンの画像と共に表示する場合の構成について説明したが、教示操作盤30Bは、計算した寸法情報をロボット制御装置20Aに送信し、ロボット制御装置20Aがキャリブレーションや位置検出で利用できるようにしてもよい。
In this embodiment, the configuration has been described where the
以上説明したように、各実施形態によれば、所定のパターンを用いてキャリブレーションや位置検出を行う場合における作業者の負担が軽減され効率的にこれらの作業を行うことが可能になる。 As described above, according to each embodiment, the burden on the worker when performing calibration or position detection using a specified pattern is reduced, and these tasks can be performed efficiently.
上述した各実施形態の機能ブロック図に示した機能配分は例示であり、機能配分については様々な変形例があり得る。例えば、第1実施形態で示した教示操作盤30は、明るさ調整部133及び画像データ登録部134としての機能を有していなくてもよい。
The functional distribution shown in the functional block diagrams of the above-mentioned embodiments is an example, and various modifications of the functional distribution are possible. For example, the
上述した実施形態の変形例として、画像データを提供する機能を担う第1の装置が所定のパターンの画像データと共に画像データを表示するアプリケーションプログラムも保有しており、所定のパターンを表示する機能を担う第2の装置に対して、画像データと共にこのようなアプリケーションを提供するような構成例もあり得る。このアプリケーションプログラムは、このアプリケーションを実行する装置のディスプレイの情報(解像度、サイズ等)を取得し、所定のパターンを表示した場合の寸法情報を算出する機能を有していてもよい。このアプリケーションを実行した第2の装置は、図13A-図13Bに示したように、算出した寸法情報を表す画像(数値或いはコードの画像)をパターンの画像と共に表示してもよい。或いは、このアプリケーションを実行した第2の装置は、算出した寸法情報を第1の装置に提供してもよい。 As a variation of the above-described embodiment, a configuration example is also possible in which a first device that has the function of providing image data also has an application program that displays image data along with image data of a predetermined pattern, and provides such an application along with the image data to a second device that has the function of displaying the predetermined pattern. This application program may have a function of obtaining display information (resolution, size, etc.) of the device that executes this application, and calculating dimensional information when the predetermined pattern is displayed. The second device that executes this application may display an image (an image of numerical values or codes) that represents the calculated dimensional information together with an image of the pattern, as shown in Figures 13A-13B. Alternatively, the second device that executes this application may provide the calculated dimensional information to the first device.
この構成は、例示として図7の機器構成を参照して説明すること以下のようになる。第1の装置としてのロボット制御装置20は、所定のパターンの画像データと共に、画像データを表示するためのアプリケーションプログラムを保有している。ロボット制御装置20は、第2の装置としてのタブレット端末80に対して画像データと共にアプリケーションプログラムを送信する。タブレット端末80はアプリケーションプログラムを実行し、所定のパターンの画像を表示すると共に、寸法情報を計算する。タブレット端末80は、寸法情報を表す画像(数値或いはコード)を所定のパターンの画像と共に表示してもよい。或いは、タブレット端末80は、算出した寸法情報をロボット制御装置20に送信してもよい。ロボット制御装置20は、視覚センサ70による撮像画像から認識した、或いはタブレット端末80から提供された寸法情報を、キャリブレーションや位置検出に利用することができる。
This configuration will be described below with reference to the device configuration in FIG. 7 as an example. The
上述した実施形態においてロボット制御装置、教示操作盤、タブレット端末、外部機器に関して記載した機能ブロック図における機能ブロックは、これらの装置の1又は複数のプロセッサが、記憶装置に格納された各種ソフトウェアを実行することで実現されても良く、或いは、ASIC(Application Specific Integrated Circuit)等のハードウェアを主体とした構成により実現されても良い。 In the above-described embodiments, the functional blocks in the functional block diagrams relating to the robot control device, teaching operation panel, tablet terminal, and external device may be realized by one or more processors of these devices executing various software stored in a storage device, or may be realized by a configuration mainly based on hardware such as an ASIC (Application Specific Integrated Circuit).
上述した実施形態におけるキャリブレーション或いは位置検出等のための教示処理実行するためのプログラムは、コンピュータに読み取り可能な各種記録媒体(例えば、ROM、EEPROM、フラッシュメモリ等の半導体メモリ、磁気記録媒体、CD-ROM、DVD-ROM等の光ディスク)に記録することができる。 The programs for executing the teaching processes for calibration or position detection in the above-mentioned embodiments can be recorded on various computer-readable recording media (e.g., semiconductor memories such as ROM, EEPROM, and flash memory, magnetic recording media, and optical disks such as CD-ROM and DVD-ROM).
本開示について詳述したが、本開示は上述した個々の実施形態に限定されるものではない。これらの実施形態は、本開示の要旨を逸脱しない範囲で、または、特許請求の範囲に記載された内容とその均等物から導き出される本開示の趣旨を逸脱しない範囲で、種々の追加、置き換え、変更、部分的削除等が可能である。また、これらの実施形態は、組み合わせて実施することもできる。例えば、上述した実施形態において、各動作の順序や各処理の順序は、一例として示したものであり、これらに限定されるものではない。また、上述した実施形態の説明に数値又は数式が用いられている場合も同様である。 Although the present disclosure has been described in detail, the present disclosure is not limited to the individual embodiments described above. Various additions, substitutions, modifications, partial deletions, etc. are possible to these embodiments without departing from the gist of the present disclosure, or without departing from the spirit of the present disclosure derived from the contents described in the claims and their equivalents. These embodiments can also be implemented in combination. For example, in the above-mentioned embodiments, the order of each operation and the order of each process are shown as examples, and are not limited to these. The same applies when numerical values or formulas are used to explain the above-mentioned embodiments.
上記実施形態および変形例に関し更に以下の付記を記載する。
(付記1)
キャリブレーション又は位置検出に関する教示を行うための教示システム(501、501A、502、503)であって、
第1プロセッサと、
前記キャリブレーション又は位置検出のための画像データを記憶する記憶部と、を有する第1の装置(20、220、320)と、
第2プロセッサと、
ディスプレイと、を有する第2の装置(30、80、30B)と、を備え、
前記第2の装置の前記第2プロセッサは、
前記第1の装置から前記画像データを取得し、
前記キャリブレーション又は位置検出の実行において視覚センサに撮像させるために前記画像データが表す画像を前記ディスプレイに表示する、
教示システム(501、501A、502、503)。
(付記2)
前記第1の装置は、前記キャリブレーション又は位置検出を実行するロボット制御装置(20)であり、
前記第1の装置の前記第1プロセッサは、
前記第2の装置の前記ディスプレイに表示されている前記画像を前記視覚センサにより撮像した撮像画像に基づいて前記キャリブレーション又は位置検出を実行し、
前記第2の装置は、前記ロボット制御装置(20)に有線又は無線接続された教示操作盤(30)、又は、前記教示操作盤とは別の装置(80)である、付記1に記載の教示システム(501、501A)。
(付記3)
前記第1の装置(20)の前記記憶部は、前記画像データが表す画像を前記第2の装置のディスプレイに表示した場合における前記ディスプレイ上での前記画像の寸法に関する情報を前記画像データと関連付けて記憶し、
前記第1の装置の第1プロセッサは、前記キャリブレーション又は前記位置検出の実行において当該寸法に関する情報を使用する、付記2に記載の教示システム(501、501A)。
(付記4)
前記キャリブレーション又は前記位置検出を実行する第3プロセッサを有するロボット制御装置(20A)を更に備え、
前記第1の装置は、前記ロボット制御装置とは別の装置(220、320)であり、
前記第2の装置は、前記ロボット制御装置(20A)に有線又は無線接続された教示操作盤(30、30B)、又は、前記教示操作盤とは別の装置である、付記1に記載の教示システム。
(付記5)
前記第1の装置(220)の前記記憶部は、前記画像データが表す画像を前記第2の装置(30)の前記ディスプレイに表示した場合の前記画像の寸法に関する情報を前記画像データに関連付けて保有し、
前記第2プロセッサは、前記第1の装置(220)から前記画像データと共に前記寸法に関する情報を取得し、
前記第2プロセッサは、
(1)前記画像データが表す画像と共に前記寸法に関する情報を示す画像を前記ディスプレイに表示する、
(2)前記寸法に関する情報を前記ロボット制御装置に送信する、
のいずれか一方の処理を実行する、付記4に記載の教示システム(502)。
(付記6)
前記第2プロセッサは、取得した前記画像データと、前記ディスプレイの解像度及びサイズに関する情報とに基づき、前記画像データに基づく前記画像を前記ディスプレイに表示した場合の寸法に関する情報を計算し、
前記第2プロセッサは、
(1)前記画像データが表す画像と共に前記寸法に関する情報を示す画像を前記ディスプレイに表示する、
(2)計算した前記寸法に関する情報を前記ロボット制御装置に送信する、
のいずれか一方の処理を実行する付記4に記載の教示システム(503)。
(付記7)
前記別の装置は、機械の制御装置、外部装置、又はクラウドのいずれかである、付記5又は6に記載の教示システム(502、503)。
(付記8)
前記寸法情報を示す画像は、前記寸法の数値の画像、又は、前記寸法をコード化した画像である、付記5から7のいずれか一項に記載の教示システム(502、503)。
(付記9)
前記第2プロセッサは、前記画像データが表す画像と共に前記寸法に関する情報を示す画像を前記ディスプレイに表示し、
前記ロボット制御装置(20A)の前記第3プロセッサは、
前記第2の装置(30、30B)の前記ディスプレイに表示されている前記画像データが表す画像及び前記寸法に関する情報を示す画像を前記視覚センサにより撮像した撮像画像から、前記寸法に関する情報を認識し、
認識した前記寸法に関する情報を前記キャリブレーション又は位置検出の実行において使用する、付記5から8のいずれか一項に記載の教示システム(502、503)。
(付記10)
前記第1の装置(20、220)の前記第1プロセッサは、前記ドットパターンの画像データと、前記第2の装置の前記ディスプレイの解像度及びサイズに関する情報とに基づいて前記寸法に関する情報を生成する、付記3又は5に記載の教示システム(501501A、502)。
(付記11)
前記第2の装置(30、80、30B)の前記第2プロセッサは、
ユーザ操作に基づいて、前記キャリブレーション又は位置検出に使用可能な所定のパターンの新たな画像データおよび当該新たな画像データの寸法に関する情報を前記第1の装置の前記記憶部に登録する、付記1から10のいずれか一項に記載の教示システム(501、501A、502、503)。
(付記12)
前記第2の装置は、ロボット制御装置と接続された教示操作盤(30、30B)であり、
前記第2の装置の第2プロセッサは、前記画像データが表す画像を前記ディスプレイ上に表示している前記第2の装置を前記視覚センサが撮像した撮像画像の明るさに関する情報を前記ロボット制御装置から取得し、当該明るさに関する情報に基づいて、前記画像を表示する前記ディスプレイの表示の明るさを調整する、付記1に記載の教示システム(501、501A、502、503)。
(付記13)
前記第1の装置の前記記憶部には、更に、前記画像データが表す画像を表示するためのアプリケーションプログラムが格納されており、
前記第2プロセッサは、前記第1の装置から前記画像データと共に前記アプリケーションプログラムを取得し、
前記第2プロセッサは、前記アプリケーションプログラムを実行することで前記画像データが表す画像を前記第1の装置のディスプレイに表示する、付記1に記載の教示システム(501、501A、502)。
(付記14)
前記アプリケーションプログラムは、更に、当該アプリケーションを実行する装置のディスプレイに関する情報に基づいて前記画像データが表す画像を当該ディスプレイに表示した場合の寸法に関する情報を計算する機能を有し、
前記第2プロセッサは、
(1)前記アプリケーションの実行により得られた、前記寸法に関する情報を示す画像を前記画像データが表す画像と共に表示する、
(2)前記寸法に関する情報を前記第1の装置に送信する、
のいずれか一方の処理を実行する、付記13に記載の教示システム(501、501A、502)。
(付記15)
キャリブレーション又は位置検出に関する教示に用いられる教示装置(30、80、30B)であって、
ディスプレイ(32、82)と、
プロセッサ(31、81)と、を備え、
前記プロセッサ(31、81)は、
外部の機器から前記キャリブレーション又は位置検出のための画像データを取得し、
前記キャリブレーション又は位置検出の実行において視覚センサに撮像させるために前記画像データが表すの画像を前記ディスプレイに表示する、教示装置(30、80、30B)。
(付記16)
前記プロセッサは、前記外部の機器から、前記画像データが表す画像を前記ディスプレイに表示した場合の前記画像の寸法に関する情報を更に取得し、
前記プロセッサは、
(1)前記画像データが表す画像と共に前記寸法に関する情報を示す画像を前記ディスプレイに表示する、
(2)前記寸法に関する情報を、前記キャリブレーション又は位置検出を司るロボット制御装置に送信する、
のいずれか一方の処理を実行する、付記15に記載の教示装置(30)。
(付記17)
前記プロセッサは、取得した前記画像データと、前記ディスプレイの解像度及びサイズに関する情報とに基づき、前記画像データに基づく前記画像を前記ディスプレイに表示した場合の寸法に関する情報を計算し、
前記プロセッサは、
(1)前記画像データが表す画像と共に前記寸法に関する情報を示す画像を前記ディスプレイに表示する、
(2)計算した前記寸法に関する情報を前記キャリブレーション又は位置検出を司るロボット制御装置に送信する、
のいずれか一方の処理を実行する付記15に記載の教示装置(30B)。
(付記18)
前記プロセッサ(31、81)は、更に、
ユーザ操作に基づいて、前記キャリブレーション又は位置検出に使用可能な所定のパターンの新たな画像データおよび当該新たな画像データの寸法に関する情報を前記外部の機器の記憶部に登録する、付記15から17のいずれか一項に記載の教示装置(30、80、30B)。
(付記19)
前記外部の機器は、前記キャリブレーション又は位置検出を実行するロボット制御装置(20、20A)であり、
前記プロセッサ(31)は、前記画像データが表す画像を前記ディスプレイ上に表示している前記教示装置を前記視覚センサが撮像した撮像画像の明るさに関する情報を前記ロボット制御装置から取得し、当該明るさに関する情報に基づいて、前記画像を表示する前記ディスプレイの表示の明るさを調整する、付記15に記載の教示装置(30、30B)。
(付記20)
ロボット制御装置(20、20A)であって、
プロセッサ(21)と、
キャリブレーション又は位置検出のための画像データを記憶する記憶部(22)と、を備え、
前記プロセッサ(21)は、
外部の装置からの要求に応じて前記画像データを前記外部の装置に送信し、
前記外部の装置のディスプレイに表示されている前記画像データが表す画像を視覚センサにより撮像した撮像画像に基づいて前記キャリブレーション又は位置検出を実行する、ロボット制御装置(20、20A)。
(付記21)
前記記憶部は、前記画像データが表す画像を前記外部の装置のディスプレイに表示した場合における前記ディスプレイ上での前記画像の寸法に関する情報を前記画像データと関連付けて記憶し、
前記プロセッサは、前記キャリブレーション又は前記位置検出の実行において当該寸法に関する情報を使用する、付記20に記載のロボット制御装置(20)。
(付記22)
前記プロセッサ(21)は、
前記画像データと、前記外部の装置の前記ディスプレイの解像度及びサイズに関する情報とに基づいて、前記寸法に関する情報を算出する、付記19に記載のロボット制御装置(20)。
(付記23)
前記外部の装置のディスプレイには、前記画像データが表す画像と共に、前記画像を前記ディスプレイに表示した場合の前記画像の寸法に関する情報が表示され、
前記プロセッサ(21)は、
前記外部の装置の前記ディスプレイに表示された前記画像データが表す画像及び前記寸法に関する情報が示す画像を前記視覚センサにより撮像した撮像画像から、前記寸法に関する情報を認識し、
認識した前記寸法に関する情報を前記キャリブレーション又は位置検出の実行において使用する、付記20に記載のロボット制御装置(20A)。
(付記24)
コンピュータのプロセッサに、
キャリブレーション又は位置検出のための画像データを記憶部に記憶する手順と、
外部の装置からの要求に応じて前記画像データを前記外部の装置に送信する手順と、
前記外部の装置のディスプレイに表示されている前記画像データが表す画像を視覚センサにより撮像した撮像画像に基づいて前記キャリブレーション又は位置検出を実行する手順と、を実行させるためのプログラム。
The following additional notes are provided regarding the above embodiment and modifications.
(Appendix 1)
A teaching system (501, 501A, 502, 503) for teaching on calibration or position detection,
A first processor;
A first device (20, 220, 320) having a storage unit that stores image data for the calibration or position detection;
A second processor; and
a second device (30, 80, 30B) having a display;
The second processor of the second device
acquiring the image data from the first device;
displaying an image represented by the image data on the display so as to be captured by a visual sensor in performing the calibration or position detection;
Teaching system (501, 501A, 502, 503).
(Appendix 2)
The first device is a robot control device (20) that performs the calibration or position detection,
The first processor of the first device
performing the calibration or position detection based on a captured image obtained by capturing the image displayed on the display of the second device by the visual sensor;
The teaching system (501, 501A) described in Appendix 1, wherein the second device is a teaching operation panel (30) connected by wire or wirelessly to the robot control device (20), or a device (80) separate from the teaching operation panel.
(Appendix 3)
The storage unit of the first device (20) stores information about a size of the image on a display of the second device when the image represented by the image data is displayed on the display of the second device in association with the image data;
The teaching system (501, 501A) of Appendix 2, wherein the first processor of the first device uses information about the dimensions in performing the calibration or the position detection.
(Appendix 4)
A robot control device (20A) having a third processor that executes the calibration or the position detection,
the first device is a device (220, 320) separate from the robot control device;
The teaching system described in Appendix 1, wherein the second device is a teaching operation panel (30, 30B) connected by wire or wirelessly to the robot control device (20A), or a device separate from the teaching operation panel.
(Appendix 5)
The storage unit of the first device (220) holds information about a size of an image represented by the image data when the image is displayed on the display of the second device (30) in association with the image data;
The second processor receives information regarding the dimensions together with the image data from the first device (220);
The second processor,
(1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data;
(2) transmitting information regarding the dimensions to the robot controller;
The teaching system (502) according to claim 4, which executes one of the processes.
(Appendix 6)
The second processor calculates information regarding dimensions of the image based on the image data when the image is displayed on the display based on the acquired image data and information regarding a resolution and a size of the display;
The second processor,
(1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data;
(2) transmitting information about the calculated dimensions to the robot controller;
The teaching system (503) according to appendix 4, which executes any one of the processes above.
(Appendix 7)
The teaching system (502, 503) of appendix 5 or 6, wherein the other device is either a machine control device, an external device, or a cloud.
(Appendix 8)
The teaching system (502, 503) of any one of appendix 5 to 7, wherein the image indicating the dimensional information is an image of a numerical value of the dimension or an image in which the dimension is coded.
(Appendix 9)
The second processor displays on the display an image showing information related to the dimensions together with an image represented by the image data;
The third processor of the robot control device (20A)
Recognizing information regarding the size from a captured image obtained by capturing an image represented by the image data displayed on the display of the second device (30, 30B) and an image showing information regarding the size by the visual sensor;
A teaching system (502, 503) according to any one of appendixes 5 to 8, wherein information about the recognized dimensions is used in performing the calibration or position detection.
(Appendix 10)
The teaching system (501501A, 502) described in Appendix 3 or 5, wherein the first processor of the first device (20, 220) generates information regarding the dimensions based on image data of the dot pattern and information regarding the resolution and size of the display of the second device.
(Appendix 11)
The second processor of the second device (30, 80, 30B)
A teaching system (501, 501A, 502, 503) described in any one of appendices 1 to 10, which registers new image data of a predetermined pattern that can be used for the calibration or position detection and information regarding the dimensions of the new image data in the memory unit of the first device based on a user operation.
(Appendix 12)
The second device is a teaching pendant (30, 30B) connected to a robot control device,
The second processor of the second device obtains information regarding the brightness of an image captured by the visual sensor of the second device displaying an image represented by the image data on the display from the robot control device, and adjusts the display brightness of the display displaying the image based on the information regarding the brightness.
(Appendix 13)
the storage unit of the first device further stores an application program for displaying an image represented by the image data;
The second processor obtains the application program together with the image data from the first device;
The teaching system (501, 501A, 502) described in Appendix 1, wherein the second processor executes the application program to display an image represented by the image data on a display of the first device.
(Appendix 14)
the application program further has a function of calculating information regarding dimensions when an image represented by the image data is displayed on a display of a device that executes the application, based on information regarding the display of the device;
The second processor,
(1) displaying an image showing the information about the dimensions obtained by executing the application together with an image represented by the image data;
(2) transmitting information regarding the dimensions to the first device;
The teaching system (501, 501A, 502) according to Appendix 13, which executes any one of the processes above.
(Appendix 15)
A teaching device (30, 80, 30B) used for teaching regarding calibration or position detection,
A display (32, 82);
A processor (31, 81),
The processor (31, 81)
Acquiring image data for the calibration or position detection from an external device;
A teaching device (30, 80, 30B) displays an image represented by the image data on the display to be captured by a visual sensor in performing the calibration or position detection.
(Appendix 16)
The processor further acquires, from the external device, information regarding a size of the image represented by the image data when the image is displayed on the display;
The processor,
(1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data;
(2) transmitting information about the dimensions to a robot control device that controls the calibration or position detection;
The teaching device (30) according to claim 15, which executes any one of the processes above.
(Appendix 17)
The processor calculates information about dimensions of the image based on the image data when the image is displayed on the display based on the acquired image data and information about a resolution and a size of the display;
The processor,
(1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data;
(2) transmitting information about the calculated dimensions to a robot control device that controls the calibration or position detection;
A teaching device (30B) according to appendix 15, which executes any one of the processes above.
(Appendix 18)
The processor (31, 81) further
A teaching device (30, 80, 30B) described in any one of appendices 15 to 17, which registers new image data of a predetermined pattern that can be used for the calibration or position detection and information regarding the dimensions of the new image data in a memory unit of the external device based on a user operation.
(Appendix 19)
The external device is a robot control device (20, 20A) that performs the calibration or position detection,
The processor (31) obtains information regarding the brightness of an image captured by the visual sensor of the teaching device displaying an image represented by the image data on the display from the robot control device, and adjusts the display brightness of the display showing the image based on the information regarding the brightness.
(Appendix 20)
A robot control device (20, 20A),
A processor (21);
A storage unit (22) that stores image data for calibration or position detection,
The processor (21)
Transmitting the image data to an external device in response to a request from the external device;
A robot control device (20, 20A) that executes the calibration or position detection based on a captured image obtained by capturing, by a visual sensor, an image represented by the image data displayed on a display of the external device.
(Appendix 21)
the storage unit stores information about a size of the image on a display of the external device when the image represented by the image data is displayed on the display of the external device in association with the image data;
21. The robot control device (20) of
(Appendix 22)
The processor (21)
A robot control device (20) as described in Appendix 19, which calculates information regarding the dimensions based on the image data and information regarding the resolution and size of the display of the external device.
(Appendix 23)
an image represented by the image data is displayed on a display of the external device together with information regarding a size of the image when the image is displayed on the display;
The processor (21)
Recognizing information regarding the size from a captured image obtained by capturing an image represented by the image data and an image represented by the information regarding the size displayed on the display of the external device by the visual sensor;
A robot control device (20A) as described in
(Appendix 24)
The computer processor
A procedure for storing image data for calibration or position detection in a storage unit;
transmitting the image data to an external device in response to a request from the external device;
A procedure for performing the calibration or position detection based on an image captured by a visual sensor of an image represented by the image data displayed on a display of the external device, and a program for causing the procedure to execute the procedure.
10 ロボット
11 ハンド
20、20A ロボット制御装置
21 プロセッサ
22 記憶部
30、30B 教示操作盤
31 プロセッサ
32 ディスプレイ
33 操作部
40 画像処理装置
70 視覚センサ
80 タブレット端末
81 プロセッサ
82 ディスプレイ
83 操作部
90 工作機械
91 制御装置
92 ディスプレイ
100、100A、100B ロボットシステム
121 動作制御部
122 寸法情報算出部
123 画像データ記憶制御部
124 寸法認識部
131 画像データ取得部
132 画像データ表示制御部
133 明るさ調整部
134 画像データ登録部
135 寸法情報生成部
181 画像データ取得部
182 画像データ表示制御部
184 画像データ登録部
220 制御装置
221 寸法情報算出部
222 画像データ記憶制御部
224 プロセッサ
225 記憶部
301 ドットパターン
302 マーカ
320 外部装置
321 プロセッサ
322 記憶部
402 登録画面
501、501A、502、503 教示システム
REFERENCE SIGNS
Claims (24)
第1プロセッサと、
前記キャリブレーション又は位置検出のための画像データを記憶する記憶部と、を有する第1の装置と、
第2プロセッサと、
ディスプレイと、を有する第2の装置と、を備え、
前記第2プロセッサは、
前記第1の装置から前記画像データを取得し、
前記キャリブレーション又は位置検出の実行において視覚センサに撮像させるために前記画像データが表す画像を前記ディスプレイに表示する、
教示システム。 A teaching system for teaching calibration or position detection, comprising:
A first processor;
A first device having a storage unit that stores image data for the calibration or position detection;
A second processor; and
a second device having a display;
The second processor,
acquiring the image data from the first device;
displaying an image represented by the image data on the display so as to be captured by a visual sensor in performing the calibration or position detection;
Teaching system.
前記第1の装置の前記第1プロセッサは、
前記第2の装置の前記ディスプレイに表示されている前記画像を前記視覚センサにより撮像した撮像画像に基づいて前記キャリブレーション又は位置検出を実行し、
前記第2の装置は、前記ロボット制御装置に有線又は無線接続された教示操作盤、又は、前記教示操作盤とは別の装置である、請求項1に記載の教示システム。 the first device is a robot control device that performs the calibration or position detection;
The first processor of the first device
performing the calibration or position detection based on a captured image obtained by capturing the image displayed on the display of the second device by the visual sensor;
2. The teaching system according to claim 1, wherein the second device is a teaching pendant connected to the robot control device by wire or wirelessly, or is a device separate from the teaching pendant.
前記第1の装置の第1プロセッサは、前記キャリブレーション又は前記位置検出の実行において当該寸法に関する情報を使用する、請求項2に記載の教示システム。 the storage unit of the first device stores information about a size of the image on a display of the second device when the image represented by the image data is displayed on the display of the second device in association with the image data;
The teaching system of claim 2 , wherein the first processor of the first device uses information about the dimensions in performing the calibration or the position detection.
前記第1の装置は、前記ロボット制御装置とは別の装置であり、
前記第2の装置は、前記ロボット制御装置に有線又は無線接続された教示操作盤、又は、前記教示操作盤とは別の装置である、請求項1に記載の教示システム。 a robot control device having a third processor for performing the calibration or the position detection;
the first device is a device separate from the robot control device,
2. The teaching system according to claim 1, wherein the second device is a teaching pendant connected to the robot control device by wire or wirelessly, or is a device separate from the teaching pendant.
前記第2プロセッサは、前記第1の装置から前記画像データと共に前記寸法に関する情報を取得し、
前記第2プロセッサは、
(1)前記画像データが表す画像と共に前記寸法に関する情報を示す画像を前記ディスプレイに表示する、
(2)前記寸法に関する情報を前記ロボット制御装置に送信する、
のいずれか一方の処理を実行する、請求項4に記載の教示システム。 the storage unit of the first device holds information relating to a size of an image represented by the image data when the image is displayed on the display of the second device in association with the image data;
The second processor receives information regarding the dimensions along with the image data from the first device;
The second processor,
(1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data;
(2) transmitting information regarding the dimensions to the robot controller;
The teaching system according to claim 4 , wherein the teaching system executes any one of the processes above.
前記第2プロセッサは、
(1)前記画像データが表す画像と共に前記寸法に関する情報を示す画像を前記ディスプレイに表示する、
(2)計算した前記寸法に関する情報を前記ロボット制御装置に送信する、
のいずれか一方の処理を実行する請求項4に記載の教示システム。 The second processor calculates information regarding dimensions of the image based on the image data when the image is displayed on the display based on the acquired image data and information regarding a resolution and a size of the display;
The second processor,
(1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data;
(2) transmitting information about the calculated dimensions to the robot controller;
5. The teaching system according to claim 4, wherein the teaching system executes any one of the processes above.
前記ロボット制御装置の前記第3プロセッサは、
前記第2の装置の前記ディスプレイに表示されている前記画像データが表す画像及び前記寸法に関する情報を示す画像を前記視覚センサにより撮像した撮像画像から、前記寸法に関する情報を認識し、
認識した前記寸法に関する情報を前記キャリブレーション又は位置検出の実行において使用する、請求項5から8のいずれか一項に記載の教示システム。 The second processor displays on the display an image showing information related to the dimensions together with an image represented by the image data;
The third processor of the robot control device
Recognizing information regarding the size from a captured image obtained by capturing an image represented by the image data displayed on the display of the second device and an image indicating information regarding the size by the visual sensor;
A teaching system according to claim 5 , wherein information relating to the recognised dimensions is used in carrying out the calibration or position detection.
ユーザ操作に基づいて、前記キャリブレーション又は位置検出に使用可能な新たな画像データおよび当該新たな画像データの寸法に関する情報を前記第1の装置の前記記憶部に登録する、請求項1から10のいずれか一項に記載の教示システム。 The second processor of the second device
The teaching system according to claim 1 , further comprising: a memory unit for storing information on new image data that can be used for the calibration or position detection and dimensions of the new image data, the memory unit being configured to store the information on the new image data and dimensions of the new image data, based on a user operation.
前記第2の装置の第2プロセッサは、前記画像データが表す画像を前記ディスプレイ上に表示している前記第2の装置を前記視覚センサが撮像した撮像画像の明るさに関する情報を前記ロボット制御装置から取得し、当該明るさに関する情報に基づいて、前記画像を表示する前記ディスプレイの表示の明るさを調整する、請求項1に記載の教示システム。 the second device is a teaching pendant connected to a robot control device,
The teaching system of claim 1, wherein the second processor of the second device acquires from the robot control device information regarding the brightness of an image captured by the visual sensor of the second device displaying an image represented by the image data on the display, and adjusts the display brightness of the display that displays the image based on the information regarding the brightness.
前記第2プロセッサは、前記第1の装置から前記画像データと共に前記アプリケーションプログラムを取得し、
前記第2プロセッサは、前記アプリケーションプログラムを実行することで前記画像データが表す画像を前記第1の装置のディスプレイに表示する、請求項1に記載の教示システム。 the storage unit of the first device further stores an application program for displaying an image represented by the image data;
The second processor obtains the application program together with the image data from the first device;
The teaching system according to claim 1 , wherein the second processor executes the application program to display an image represented by the image data on a display of the first device.
前記第2プロセッサは、
(1)前記アプリケーションの実行により得られた、前記寸法に関する情報を示す画像を前記画像データが表す画像と共に表示する、
(2)前記寸法に関する情報を前記第1の装置に送信する、
のいずれか一方の処理を実行する、請求項13に記載の教示システム。 the application program further has a function of calculating information regarding dimensions when an image represented by the image data is displayed on a display of a device that executes the application, based on information regarding the display of the device;
The second processor,
(1) displaying an image showing the information about the dimensions obtained by executing the application together with an image represented by the image data;
(2) transmitting information regarding the dimensions to the first device;
The teaching system according to claim 13, wherein the teaching system executes any one of the processes above.
ディスプレイと、
プロセッサと、を備え、
前記プロセッサは、
外部の機器から前記キャリブレーション又は位置検出のための画像データを取得し、
前記キャリブレーション又は位置検出の実行において視覚センサに撮像させるために前記画像データが表す画像を前記ディスプレイに表示する、教示装置。 A teaching device used for teaching regarding calibration or position detection,
A display and
A processor,
The processor,
Acquiring image data for the calibration or position detection from an external device;
A teaching device that displays an image represented by the image data on the display to be captured by a visual sensor in performing the calibration or position detection.
前記プロセッサは、
(1)前記画像データが表す画像と共に前記寸法に関する情報を示す画像を前記ディスプレイに表示する、
(2)前記寸法に関する情報を、前記キャリブレーション又は位置検出を司るロボット制御装置に送信する、
のいずれか一方の処理を実行する、請求項15に記載の教示装置。 The processor further acquires, from the external device, information regarding a size of the image represented by the image data when the image is displayed on the display;
The processor,
(1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data;
(2) transmitting information about the dimensions to a robot control device that controls the calibration or position detection;
The teaching device according to claim 15, wherein the teaching device executes any one of the processes above.
前記プロセッサは、
(1)前記画像データが表す画像と共に前記寸法に関する情報を示す画像を前記ディスプレイに表示する、
(2)計算した前記寸法に関する情報を前記キャリブレーション又は位置検出を司るロボット制御装置に送信する、
のいずれか一方の処理を実行する請求項15に記載の教示装置。 The processor calculates information about dimensions of the image based on the image data when the image is displayed on the display based on the acquired image data and information about a resolution and a size of the display;
The processor,
(1) displaying, on the display, an image showing information related to the dimensions together with the image represented by the image data;
(2) transmitting information about the calculated dimensions to a robot control device that controls the calibration or position detection;
The teaching device according to claim 15, wherein the teaching device executes any one of the processes above.
ユーザ操作に基づいて、前記キャリブレーション又は位置検出に使用可能な新たな画像データおよび当該新たな画像データの寸法に関する情報を前記外部の機器の記憶部に登録する、請求項15から17のいずれか一項に記載の教示装置。 The processor further comprises:
The teaching device according to claim 15 , further comprising: a memory unit for registering new image data usable for the calibration or position detection and information regarding dimensions of the new image data in the storage unit of the external device based on a user operation.
前記プロセッサは、前記画像データが表す画像を前記ディスプレイ上に表示している前記教示装置を前記視覚センサが撮像した撮像画像の明るさに関する情報を前記ロボット制御装置から取得し、当該明るさに関する情報に基づいて、前記画像を表示する前記ディスプレイの表示の明るさを調整する、請求項15に記載の教示装置。 the external device is a robot control device that performs the calibration or position detection,
The teaching device of claim 15, wherein the processor acquires information regarding the brightness of an image captured by the visual sensor of the teaching device displaying an image represented by the image data on the display from the robot control device, and adjusts the display brightness of the display that displays the image based on the information regarding the brightness.
プロセッサと、
キャリブレーション又は位置検出のための画像データを記憶する記憶部と、を備え、
前記プロセッサは、
外部の装置からの要求に応じて前記画像データを前記外部の装置に送信し、
前記外部の装置のディスプレイに表示されている前記画像データが表す画像を視覚センサにより撮像した撮像画像に基づいて前記キャリブレーション又は位置検出を実行する、ロボット制御装置。 A robot control device,
A processor;
A storage unit that stores image data for calibration or position detection,
The processor,
Transmitting the image data to an external device in response to a request from the external device;
A robot control device that performs the calibration or position detection based on a captured image obtained by capturing, by a visual sensor, an image represented by the image data displayed on a display of the external device.
前記プロセッサは、前記キャリブレーション又は前記位置検出の実行において当該寸法に関する情報を使用する、請求項20に記載のロボット制御装置。 the storage unit stores information about a size of the image on a display of the external device when the image represented by the image data is displayed on the display of the external device in association with the image data;
The robot controller of claim 20 , wherein the processor uses information about the dimensions in performing the calibration or the position detection.
前記画像データと、前記外部の装置の前記ディスプレイの解像度及びサイズに関する情報とに基づいて、前記寸法に関する情報を算出する、請求項21に記載のロボット制御装置。 The processor,
The robot control device according to claim 21 , wherein the dimensional information is calculated based on the image data and information about a resolution and a size of the display of the external device.
前記プロセッサは、
前記外部の装置の前記ディスプレイに表示された前記画像データが表す画像及び前記寸法に関する情報が示す画像を前記視覚センサにより撮像した撮像画像から、前記寸法に関する情報を認識し、
認識した前記寸法に関する情報を前記キャリブレーション又は位置検出の実行において使用する、請求項20に記載のロボット制御装置。 an image of information regarding a size of the image when the image is displayed on the display of the external device is displayed together with the image represented by the image data;
The processor,
Recognizing information regarding the size from a captured image obtained by capturing an image represented by the image data and an image represented by the information regarding the size displayed on the display of the external device by the visual sensor;
The robot controller according to claim 20 , wherein information regarding the recognized dimensions is used in performing the calibration or position detection.
キャリブレーション又は位置検出のための画像データを記憶部に記憶する手順と、
外部の装置からの要求に応じて前記画像データを前記外部の装置に送信する手順と、
前記外部の装置のディスプレイに表示されている前記画像データが表す画像を視覚センサにより撮像した撮像画像に基づいて前記キャリブレーション又は位置検出を実行する手順と、を実行させるためのプログラム。 The computer processor
A procedure for storing image data for calibration or position detection in a storage unit;
transmitting the image data to an external device in response to a request from the external device;
A procedure for performing the calibration or position detection based on an image captured by a visual sensor of an image represented by the image data displayed on a display of the external device, and a program for causing the procedure to be executed.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/025931 WO2025013294A1 (en) | 2023-07-13 | 2023-07-13 | Teaching system, teaching device, robot control device, and program |
| TW113121901A TW202502502A (en) | 2023-07-13 | 2024-06-13 | Teaching system, teaching device, robot control device and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/025931 WO2025013294A1 (en) | 2023-07-13 | 2023-07-13 | Teaching system, teaching device, robot control device, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025013294A1 true WO2025013294A1 (en) | 2025-01-16 |
Family
ID=94215059
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/025931 Pending WO2025013294A1 (en) | 2023-07-13 | 2023-07-13 | Teaching system, teaching device, robot control device, and program |
Country Status (2)
| Country | Link |
|---|---|
| TW (1) | TW202502502A (en) |
| WO (1) | WO2025013294A1 (en) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0843026A (en) * | 1994-07-29 | 1996-02-16 | Mazda Motor Corp | Calibration device and hologram |
| JPH1049218A (en) * | 1996-08-07 | 1998-02-20 | Fanuc Ltd | Movement control system for instructing position of robot |
| US20120287240A1 (en) * | 2011-05-11 | 2012-11-15 | Tyzx, Inc. | Camera calibration using an easily produced 3d calibration pattern |
| JP2014128845A (en) * | 2012-12-28 | 2014-07-10 | Fanuc Ltd | Robot system display device |
| JP2019030943A (en) * | 2017-08-09 | 2019-02-28 | オムロン株式会社 | Calibration method, calibration system and program |
| JP2019141935A (en) * | 2018-02-16 | 2019-08-29 | オムロン株式会社 | Conveyor tracking system and calibration method |
-
2023
- 2023-07-13 WO PCT/JP2023/025931 patent/WO2025013294A1/en active Pending
-
2024
- 2024-06-13 TW TW113121901A patent/TW202502502A/en unknown
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0843026A (en) * | 1994-07-29 | 1996-02-16 | Mazda Motor Corp | Calibration device and hologram |
| JPH1049218A (en) * | 1996-08-07 | 1998-02-20 | Fanuc Ltd | Movement control system for instructing position of robot |
| US20120287240A1 (en) * | 2011-05-11 | 2012-11-15 | Tyzx, Inc. | Camera calibration using an easily produced 3d calibration pattern |
| JP2014128845A (en) * | 2012-12-28 | 2014-07-10 | Fanuc Ltd | Robot system display device |
| JP2019030943A (en) * | 2017-08-09 | 2019-02-28 | オムロン株式会社 | Calibration method, calibration system and program |
| JP2019141935A (en) * | 2018-02-16 | 2019-08-29 | オムロン株式会社 | Conveyor tracking system and calibration method |
Also Published As
| Publication number | Publication date |
|---|---|
| TW202502502A (en) | 2025-01-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20080013825A1 (en) | Simulation device of robot system | |
| JP4763074B2 (en) | Measuring device and measuring method of position of tool tip of robot | |
| CN105269578B (en) | Pointing devices and robotic systems | |
| US11833697B2 (en) | Method of programming an industrial robot | |
| US9519736B2 (en) | Data generation device for vision sensor and detection simulation system | |
| US9199379B2 (en) | Robot system display device | |
| JP6538751B2 (en) | Programming device and robot control method | |
| US10825193B2 (en) | Position detecting apparatus and computer-readable recording medium | |
| JP6235664B2 (en) | Measuring device used to calibrate mechanism parameters of robot | |
| CN108687770B (en) | Device, system and method for automatically generating motion track of robot | |
| US20150045949A1 (en) | Robot control apparatus and method for controlling robot | |
| US11590657B2 (en) | Image processing device, control method thereof, and program storage medium | |
| JP7366264B2 (en) | Robot teaching method and robot working method | |
| JP2016078195A (en) | Robot system, robot, control device and control method of robot | |
| JP2012240174A (en) | Calibration device and calibration method | |
| TWI699264B (en) | Correction method of vision guided robotic arm | |
| WO2025013294A1 (en) | Teaching system, teaching device, robot control device, and program | |
| TW202241660A (en) | Program generation device and robot control device | |
| TW202245708A (en) | Teaching device, marker measuring method, and program | |
| TWI853525B (en) | Non-transitory computer-readable medium recording thereon marker position registration program, a marker position registration device, method, and markers used in the method | |
| JPH11351824A (en) | Coordinate system correcting method and image measuring instrument | |
| JP2024025074A (en) | Marker position registration device, marker position registration program, and marker position registration method | |
| JP2024025076A (en) | Marker position registration device, marker position registration program, and marker position registration method | |
| JP2024013243A (en) | Point cloud data synthesis device, point cloud data synthesis program, point cloud data synthesis method, and point cloud data synthesis system | |
| WO2024062535A1 (en) | Robot control device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23945166 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2025532357 Country of ref document: JP Kind code of ref document: A |