WO2025120757A1 - 検出領域設定方法および検出領域設定装置 - Google Patents
検出領域設定方法および検出領域設定装置 Download PDFInfo
- Publication number
- WO2025120757A1 WO2025120757A1 PCT/JP2023/043543 JP2023043543W WO2025120757A1 WO 2025120757 A1 WO2025120757 A1 WO 2025120757A1 JP 2023043543 W JP2023043543 W JP 2023043543W WO 2025120757 A1 WO2025120757 A1 WO 2025120757A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- detection area
- detection
- safety sensor
- area
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
Definitions
- This specification discloses a detection area setting method and a detection area setting device.
- Patent Document 1 describes a method in which multiple reflectors are arranged to surround the outer periphery of the area desired to be detected within the detectable area, and the detection area is set based on the detection positions of the reflectors when detected by the safety sensor.
- a reflector must be prepared in order to set the detection area of the safety sensor, which is time-consuming.
- the detection state of the safety sensor may differ between the detection target in the actual usage environment and the reflector in the set environment, so there is a risk that an appropriate detection area may not be set.
- the primary objective of this disclosure is to easily and appropriately set the detection area of a safety sensor.
- the detection area setting method of the present disclosure includes the steps of: A detection area setting method for setting a detection area of a safety sensor, comprising the steps of: (a) acquiring a detection result of an object detected by the safety sensor in a state where the object is present in a detectable area of the safety sensor in a usage environment of the safety sensor; (b) setting the detection area from the detectable area based on the detection result obtained in the step (a); (c) outputting setting information of the detection area set in the step (b) to the safety sensor;
- the gist of the invention is that it includes the following:
- the detection area setting method disclosed herein when an object that can be detected in the usage environment of the safety sensor is present in the detectable area, a detection result in which the object is detected by the safety sensor is obtained, and the detection area is set from the detectable area based on the obtained detection result. This eliminates the need to prepare an object just for setting the detection area. In addition, because the detection result in which the safety sensor detects an object that can be detected in the usage environment is used, it is possible to prevent the set environment from deviating from the actual usage environment. Therefore, the detection area of the safety sensor can be set appropriately without hassle.
- FIG. 2 is a schematic diagram of a safety sensor 10 and a PC 20.
- 1 is a schematic configuration diagram of a work system 40 including a safety sensor 10 and a robot 50.
- FIG. 11 is a flowchart showing an example of a detection area setting process.
- FIG. 4 is an explanatory diagram showing an example of a detection area setting screen 30.
- 11 is a flowchart showing an example of a setting process based on human detection.
- FIG. 11 is an explanatory diagram showing an example of a setting process performed by detecting a person;
- FIG. 11 is an explanatory diagram showing an example of a setting process performed by detecting a person;
- FIG. 11 is an explanatory diagram showing an example of a setting process performed by detecting a person;
- FIG. 11 is an explanatory diagram showing an example of a setting process performed by detecting a person;
- FIG. 11 is an explanatory diagram showing an example of a setting process performed by detecting a person;
- FIG. 4 is an explanatory diagram showing an example of a detection area setting screen 35.
- 11 is a flowchart showing an example of a setting process based on object detection.
- FIG. 11 is an explanatory diagram showing an example of a setting process based on object detection.
- FIG. 11 is an explanatory diagram showing an example of a setting process based on object detection.
- FIG. 4 is an explanatory diagram showing an example of a detection area setting screen 35.
- 2 is a schematic diagram of a safety sensor 10, a PC 20, and goggles 60.
- FIG. 11 is a flowchart showing an example of a detection region display process.
- FIG. 4 is an explanatory diagram showing an example of a stereoscopic display of a detection area A.
- FIG. 4 is an explanatory diagram showing an example of a stereoscopic display of a detection area A.
- FIG. 4 is an explanatory diagram showing an example of a stereoscopic display of a detection area A.
- FIG. 1 is a schematic diagram of a safety sensor 10 and a PC 20.
- FIG. 2 is a schematic diagram of a work system 40 including the safety sensor 10 and a robot 50.
- the left-right direction, the front-rear direction, and the up-down direction are defined as shown in FIG. 2.
- the safety sensor 10 comprises a control unit 11 having a CPU, ROM, RAM, etc., a sensor unit 12 that detects surrounding objects, and a communication unit 13 that communicates with external devices such as a PC 20 or a robot 50 via wired or wireless communication.
- the sensor unit 12 of the safety sensor 10 is configured as a laser radar, for example, but may also be a millimeter wave radar.
- the sensor unit 12 monitors the presence or absence of a worker M within a set detection area (monitoring area) A within a detectable area (maximum detection area) that is a roughly sector-shaped area when viewed from above and in which objects can be detected.
- the PC 20 is a general-purpose computer on which a designer such as the manager of the work system 40 or the worker M sets the detection area A of the safety sensor 10.
- the PC 20 includes a control unit 21 having a CPU, ROM, RAM, etc., a storage unit 22 such as a HDD that stores various application programs and various data, and a communication unit 23 that communicates with external devices connected via a network and with the safety sensor 10 connected via a communication line 18.
- a USB cable is used as the communication line 18.
- the PC 20 and the safety sensor 10 may be connected to be able to communicate wirelessly.
- the PC 20 also includes an input unit 27 such as a keyboard or touchpad on which a designer such as the manager or the worker M enters various inputs, and a display screen 28 such as a liquid crystal display.
- the work system 40 includes, for example, a robot 50, a robot stand 41 on which the robot 50 is arranged, a conveyor device 43, a mounting table 45, and one or more safety sensors 10.
- the conveyor device 43 and the mounting table 45 are arranged on opposite sides of the left and right direction with the robot 50 sandwiched between them.
- the conveyor device 43 includes a roller conveyor 43a and an end table 43b.
- the roller conveyor 43a includes multiple rollers, and conveys the item P in the left and right direction by transmitting the power of a motor (not shown) to each roller to rotate them.
- the end table 43b is provided at both ends of the conveyor device 43 in the left and right direction (only one end is shown in FIG. 2) and is used as a temporary placement location for the item P before or after transportation.
- the mounting table 45 has an upper surface divided into multiple placement areas 45a, and the item P is placed on each placement area 45a by the worker M or the robot 50.
- pillars 47 and the like are also arranged within the work system 40.
- the robot stand 41, the conveyor device 43, the mounting stand 45, and the pillars 47 are also referred to as objects (fixed objects).
- the robot 50 includes a vertical articulated robot arm 52 in which multiple links are rotatably connected via joints, an end effector 54 as a work tool that can be attached to and detached from the tip link of the robot arm 52, and a control unit and an imaging unit (not shown).
- the end effector 54 may be an electromagnetic chuck, a mechanical chuck, or a suction nozzle, and is selected according to the shape and material of the article P. In the example of FIG. 2, a mechanical chuck having a pair of chuck jaws that can be opened and closed is attached.
- the robot 50 grasps a knob portion (projection) Pa formed on the top surface of the article P with the mechanical chuck and transfers the article P between the conveyor device 43 and the placement table 45.
- the control unit of the robot 50 inputs detection signals from an encoder that detects the rotation angle of each joint of the robot arm 52, detection signals from the safety sensor 10, images captured by the imaging unit, and the like, and controls the operation of the robot arm 52 and the end effector 54.
- a worker M may work around the robot 50. That is, the robot 50 of the work system 40 is used as a collaborative robot that works in the same work space as the worker M.
- a plurality of safety sensors 10 are arranged to improve the safety of the worker M around the robot 50.
- three safety sensors 10 are shown in FIG. 2, for example, four safety sensors 10 are arranged on the robot stand 41 so as to monitor the entire circumference in the four directions of front, back, left and right with the robot 50 at the center.
- the detection area A of these safety sensors 10 is set as follows.
- FIG. 3 is a flowchart showing an example of a detection area setting process. This process is executed by the control unit 21 of the PC 20.
- the control unit 21 acquires information about the safety sensor 10 from the safety sensor 10 connected to the PC 20 via the communication line 18 (S100).
- the control unit 21 acquires information such as the detectable area of the safety sensor 10 and parameters related to the setting of the detection area A.
- the control unit 21 displays a selection screen on the display screen 28 for selecting the setting process of the detection area A (not shown), and determines whether the setting process using the detection target has been selected by the designer (S110).
- normal setting process and setting process using the detection target are possible.
- the normal setting process is a process in which the designer sets the detection area A using the parameters of the safety sensor 10.
- the setting process using the detection target is a process in which the detection area A is set using the actual detection target of the safety sensor 10 of the work system 40, such as a person (worker M) or a placed object.
- the selection screen allows the user to select whether the detection target is a person or a placed object.
- the control unit 21 determines that the normal setting process has been selected instead of the detection target use, it executes the normal setting process (S120).
- the normal detection area setting screen 30 is displayed on the display screen 28 to allow the designer to set the detection area A.
- FIG. 4 is an explanatory diagram showing an example of the detection area setting screen 30.
- the detection area setting screen 30 displays detection area display fields 31a and 31b, a parameter setting field 32, various buttons, and an instruction pointer 34.
- the detection area display field 31a displays the detectable area of the safety sensor 10 in a planar view from above.
- the detection area display field 31b displays the detectable area of the safety sensor 10 in a planar view from the side.
- the detectable area is shown in a triangular shape in a rectangular display field, and within the detectable area, detection area A is shown as a white area and non-detection area B is shown as a colored area.
- various parameters for determining the detection area A are displayed and can be set by moving the slider.
- “Distance” is the detection distance equivalent to the radius r of the approximately sector-shaped detection area A centered on the safety sensor 10, and a lower limit and an upper limit can be set.
- the designer can set the area from the safety sensor 10 to the lower limit to the non-detection area B by setting the lower limit to a value other than 0.
- "Width” is the horizontal (left and right) detection width w set by a pair of parallel lines centered on the safety sensor 10.
- This detection width becomes the detection area A, and the outside of the detection width becomes the non-detection area B.
- "Horizontal angle” determines the horizontal central angle of the detection area A, i.e., the horizontal spread angle.
- "Vertical angle” determines the vertical central angle of the detection area A, i.e., the vertical spread angle.
- the various buttons displayed are a cancel button 33a, a save button 33b, an output button 33c, a back button 33d, and an end button 33e.
- the cancel button 33a is a button for canceling the detection area A (parameters) being set and returning to the default settings.
- the save button 33b is a button for saving the detection area A being set.
- the output button 33c is a button for outputting setting information such as the parameters of the detection area A to the safety sensor 10.
- the back button 33d is a button for returning to the above-mentioned selection screen.
- the end button 33e is a button for ending the setting process.
- the instruction pointer 34 can be operated by the designer via the input unit 27, and is used for operating various buttons and sliders for various parameters.
- the designer sets various parameters in the parameter setting field 32 so as to obtain the required detection area A (non-detection area B). Therefore, the designer needs to know in advance the detection distance and detection width required in the actual usage environment of the safety sensor 10, which makes the setting process complicated.
- control unit 21 determines in S110 that the setting process using the detection target has been selected, it determines whether the detection target is a person or not (S130). If the control unit 21 determines that the detection target is a person, it executes the setting process using person detection (S140), and if it determines that the detection target is not a person but an object, it executes the setting process using object detection (S150).
- FIG. 5 is a flow chart showing an example of the setting process by human detection.
- FIG. 6 to FIG. 8 are explanatory diagrams showing an example of the setting process by human detection, for example, an explanatory diagram showing from above how the safety sensor 10 arranged in front of the robot 50 on the robot stand 41 detects a person.
- the colored areas in FIG. 6 to FIG. 8 are the detectable areas of the safety sensor 10.
- control unit 21 determines whether a person (object) has been detected (S210), and if it determines that a person has been detected, it determines whether a registration operation has been performed (S220). If the control unit 21 determines that a person has not been detected, or that a person has been detected but a registration operation has not been performed, the process proceeds to S250.
- the registration operation is performed based on an operation on the input unit 27 of the PC 20, but may also be performed based on an operation on an operation unit wirelessly connected to the PC 20. For example, a person standing at position n may operate the operation unit to perform the registration operation.
- the control unit 21 then updates the position n by incrementing it by one, and instructs the person to stand at the next position n (S240).
- the control unit 21 displays on the display screen 28 an instruction to stand at the next position on the arc of the detection area A to be set.
- the control unit 21 also displays on the display screen 28 a setting button for setting the detection area A based on the registered detection position Pn.
- the control unit 21 determines whether a setting operation has been performed based on whether the setting button has been operated (S250), and if it determines that a setting operation has not been performed, returns to S210.
- the control unit 21 determines in S250 that a setting operation has been performed, it approximates each of the detection positions Pn registered up to that point to generate an arc-shaped trajectory that indicates the trajectory of the person's movement (S260).
- the control unit 21 also displays a detection area A with the safety sensor 10 at its center and the arc-shaped trajectory as its boundary L, and a non-detection area B on the detection area setting screen 35 of the display screen 28 (S270).
- the detection area setting screen 35 displays a detection area display field 36, a margin setting field 37, various buttons, and an instruction pointer 39.
- the detection area display field 36 displays the detectable area of the safety sensor 10 in a planar top view.
- the detectable area is divided into a fan-shaped detection area A with the boundary L as an arc and the safety sensor 10 as the center, and the remaining non-detection area B.
- the margin setting field 37 is used to set a margin for the boundary L, and details will be explained in the setting process by object detection.
- buttons displayed include a cancel button 38a, a save button 38b, an output button 38c, a back button 38d, and an end button 38e, and their explanation will be omitted.
- the instruction pointer 39 can be operated by the designer via the input unit 27 and is used to operate the various buttons.
- control unit 21 determines whether or not an output to the safety sensor 10 has been instructed based on whether the output button 38c has been operated (S280). If the control unit 21 determines that an output has not been instructed, the process proceeds to S295. If the control unit 21 determines that an output has been instructed, the control unit 21 outputs the setting information of the set detection area A and non-detection area B to the connected safety sensor 10 (S290) and proceeds to S295.
- the control unit 21 judges whether or not an end command has been issued based on whether the end button 38e has been operated (S295), and if it judges that an end command has not been issued, the process returns to S280. If the control unit 21 judges that an end command has been issued, the process ends. In the setting process based on person detection, the designer sets the detection area A by determining an arc (boundary L) by moving the person sequentially, so that the necessary detection area A can be easily set. Although not shown in the flowchart, if the cancel button 38a is operated, the control unit 21 returns to S200, for example, to cancel the detection area A being set and to generate the boundary L again. If the save button 38b is operated, the control unit 21 saves the detection area A (non-detection area B) being set in the memory unit 22. If the back button 38d is operated, the control unit 21 returns to the selection screen described above.
- FIG. 10 is a flow chart showing an example of the setting process by detecting placed objects.
- FIG. 11 is an explanatory diagram showing an example of the setting process by detecting placed objects, for example, a diagram showing from above how the safety sensor 10 arranged to the left of the robot 50 on the robot stand 41 detects placed objects.
- the control unit 21 causes the safety sensor 10 to detect placed objects that are not to be detected (S300).
- the control unit 21 turns on the safety sensor 10 arranged at a position where placed objects such as the conveyor device 43, the mounting stand 45, and the pillar 47 are included in the detectable area, and displays an instruction to detect the placed objects on the display screen 28.
- the safety sensor 10 detects multiple positions (points) on the edge of the mounting table 45 on the safety sensor 10 side (thick line in the figure) and multiple positions (points) on the edge of the pillar 47 on the safety sensor 10 side (thick line in the figure).
- the control unit 21 determines whether an object (a placement object) has been detected (S310), and if it determines that an object has been detected, it determines whether a registration operation has been performed (S320). If the control unit 21 determines that an object has not been detected, or that an object has been detected but a registration operation has not been performed, the process proceeds to S340. On the other hand, if the control unit 21 determines that a registration operation has been performed in S320, it registers multiple detection positions when the safety sensor 10 detected an object (a placement object) (S330). The control unit 21 also displays a setting button on the display screen 28 for setting the detection area A based on the detection positions. The control unit 21 determines whether a setting operation has been performed based on whether the setting button has been operated (S340), and if it determines that a setting operation has not been performed, the process returns to S310.
- control unit 21 determines in S340 that a setting operation has been performed, it generates an edge line on the safety sensor 10 side of the object based on each registered detection position (S350). Next, the control unit 21 sets a detection area A and a non-detection area B using the generated edge line as the boundary L, and displays them on the detection area setting screen 35 of the display screen 28 (S360).
- FIG. 12 is an explanatory diagram showing an example of a detection area setting screen 35. Similar to FIG. 9, this detection area setting screen 35 displays a detection area display field 36, a margin setting field 37, various buttons, and an instruction pointer 39.
- the detection area display field 36 displays the generated edge line as the boundary L, with the front side (safety sensor 10 side) set as the detection area A and the back side set as the non-detection area B.
- the control unit 21 determines whether a margin addition operation has been performed based on whether an operation has been performed on the margin setting field 37 (S365), and if it determines that a margin addition operation has not been performed, proceeds to S380. For example, when the margin Ma is selected to be on in the margin setting field 37 and the value of the margin Ma is set, the control unit 21 determines that a margin addition operation has been performed. When the control unit 21 determines that a margin addition operation has been performed, the control unit 21 resets and displays the detection area A and non-detection area B by moving the above-mentioned edge line closer to the safety sensor 10 side by the margin Ma set in the margin setting field 37 as a new boundary L (S370). FIG.
- FIG. 13 is an explanatory diagram showing an example of the detection area setting screen 35.
- the boundary L is moved closer to the safety sensor 10 side by the margin Ma than in FIG. 12, and the detection area A and non-detection area B are divided based on the boundary L.
- the process for the margin setting field 37 was omitted, but it can be executed in the same way as S365 and S370 by moving the generated trajectory closer to the safety sensor 10 by the margin Ma and setting the boundary L as the boundary L.
- control unit 21 determines whether or not an output to the safety sensor 10 has been instructed based on whether the output button 38c has been operated (S380). If the control unit 21 determines that an output has not been instructed, the process proceeds to S395. If the control unit 21 determines that an output has been instructed, the control unit 21 outputs the setting information of the set detection area A and non-detection area B to the connected safety sensor 10 (S390) and proceeds to S395.
- the control unit 21 judges whether or not an end command has been issued based on whether the end button 38e has been operated (S395), and if it judges that an end command has not been issued, the control unit 21 returns to S365. If the control unit 21 judges that an end command has been issued, the control unit 21 ends this process. In the setting process by object detection, the designer sets the detection area A by detecting the object and determining the front edge (boundary L) of the non-detection area B, so that the necessary detection area A can be easily set. Although not shown in the flowchart, if the cancel button 38a is operated, the control unit 21 returns to S300, for example, to cancel the detection area A being set and to generate the edge line (boundary L) of the object again. If the save button 38b is operated, the control unit 21 saves the detection area A (non-detection area B) being set in the memory unit 22. If the back button 38d is operated, the control unit 21 returns to the selection screen described above.
- control unit 21 that executes S200 to S240 of the setting process by person detection in this embodiment corresponds to step (a) of this disclosure
- control unit 21 that executes S250 to S270 of the same process corresponds to step (b)
- control unit 21 that executes S280 and S290 of the same process corresponds to step (c).
- control unit 21 that executes S300 to S330 of the setting process by object detection corresponds to step (a) of the present disclosure
- control unit 21 that executes S340 to S360 of the same process corresponds to step (b)
- control unit 21 that executes S380 and S390 of the same process corresponds to step (c).
- control unit 21 that executes S200 to S240 of the setting process by human detection corresponds to the acquisition unit
- control unit 21 that executes S250 to S270 of the same process (excluding screen display) corresponds to the setting unit
- control unit 21 that executes the screen display of S270 of the same process and the display screen 28 correspond to the display unit.
- control unit 21 that executes S300 to S330 of the setting process by object detection corresponds to the acquisition unit
- control unit 21 that executes S340 to S360 of the same process (excluding screen display) corresponds to the setting unit
- control unit 21 that executes the screen display of S360 of the same process and the display screen 28 correspond to the display unit.
- the detection area setting process (detection area setting method) of the embodiment described above, when an object (person, object) that can be detected in the usage environment of the safety sensor 10 is present in the detectable area, a detection result in which the object is detected by the safety sensor 10 is obtained, and a detection area A is set from the detectable area based on the obtained detection result. Therefore, it is not necessary to prepare an object just for setting the detection area.
- the detection result of the safety sensor 10 detecting an object that can be detected in the usage environment is used, it is possible to prevent the set environment from deviating from the actual usage environment.
- the setting information of the set detection area A can be output to the safety sensor 10, the effort of setting the detection area A can be further reduced. Therefore, the detection area of the safety sensor 10 can be appropriately set without any effort.
- the detection area setting process when a person is present in the detectable area as a detection target, the person moves sequentially through multiple positions and each time the person stops at each position, the detection position Pn at which at least a part of the person's body is detected by the safety sensor 10 is obtained as the detection result for each of the multiple positions. Then, a trajectory of the person's movement is generated based on the detection position Pn for each of the multiple positions, and a detection area A and a non-detection area B are set from the detectable area using the trajectory as the boundary L. Therefore, the detection area A can be appropriately set by a simple method of having a person, such as a designer or worker M, move sequentially through multiple positions and have the safety sensor 10 detect each position.
- detection area setting process when an object is present in the detectable area as a detection target, the detection position when the object is detected by the safety sensor 10 is obtained as the detection result. Then, an edge line of the object on the safety sensor 10 side is generated based on the detection position, and detection area A and non-detection area B are set from the detectable area with the edge line as the boundary L. Therefore, detection area A can be appropriately set using a simple method that allows the safety sensor 10 to detect objects placed in the usage environment.
- the edge line is moved closer to the safety sensor 10 by a margin Ma (margin distance) to set the detection area A and the non-detection area B.
- the edge line is used as the boundary L, for example, depending on the positional deviation or sensitivity of the safety sensor 10, the placed object may be easily included in the detection area A, and there may be frequent erroneous detection of placed objects that do not need to be detected.
- the boundary L can be set so that erroneous detection of placed objects can be suppressed, and the detection area can be set more appropriately. Note that by using the trajectory of the person moved closer to the safety sensor 10 by the margin Ma instead of the edge line of the placed object as the boundary L, erroneous detection in unnecessary areas can be similarly suppressed.
- the detection area A based on the detection results is displayed on the display screen 28, so the designer can easily check the detection area A on the display screen 28, allowing the designer to reliably set the desired detection area A.
- the detection area A based on the detection result is displayed on the display screen 28, but this is not limited thereto, and the detection area A does not necessarily have to be displayed on the display screen 28.
- the control unit 21 determines that a setting operation has been performed in S250 of the setting process by human detection, it is sufficient to set the detection area A and the non-detection area B with the trajectory as the boundary L, and it does not necessarily have to be displayed on the display screen 28. Even in the setting process by object detection, it does not necessarily have to be displayed on the display screen 28.
- the PC 20 has been exemplified as the detection area setting device, a smartphone, tablet terminal, etc. may also be used.
- the detection area A and the non-detection area B can be set using the boundary L with a margin Ma added to the trajectory or edge line in the setting process based on human detection and the setting process based on object detection, but this is not limited to the above. It may be possible to set using the boundary L with a margin Ma added only in one of the setting processes based on human detection and the setting process based on object detection. Alternatively, it is not necessary to add such a margin Ma, and the margin setting field 37 on the detection area setting screen 35 may be omitted.
- the setting process using the detection target is performed by detecting a person and detecting a placed object, but this is not limited thereto, and only one of the setting process using the person detection and the setting process using the placed object detection may be performed.
- the detection area A of the safety sensor 10 may be set by executing both the setting process using the person detection and the setting process using the placed object detection.
- the detection area A may be provisionally set by the setting process using the placed object detection, and the setting of the detection area A may be completed by moving a person within the detection area A and executing the setting process using the person detection.
- the parameter setting field 32 may be displayed on the detection area setting screen 35, and the setting of the detection area A set using the detection target may be completed by accepting adjustments using various parameters.
- the setting process by human detection detects the position of the center of the chest on the human body, but this is not limited to this. For example, it is sufficient to detect at least a part of the human body, such as by moving the human's hand to multiple positions in sequence to detect the position of the human's hand.
- the generated trajectory is an outer arc (boundary L) of the detection area A, but this is not limited and it may be an inner arc of the detection area A.
- the generated trajectory is the upper limit of the lower and upper limits of the "distance" described above, but it may also be the lower limit.
- the lower limit and upper limit may each be set by performing the setting process by human detection twice.
- the detection area A is displayed two-dimensionally on the display screen 28, but this is not limiting and the detection area A may be displayed three-dimensionally. Furthermore, the detection area A may be displayed three-dimensionally on goggles 60 worn by a designer such as a manager or worker M as an AR image (augmented reality image) or VR image (virtual reality image) in the usage environment.
- FIG. 14 is a schematic diagram of the safety sensor 10, PC 20, and goggles 60. In a modified example, the safety sensor 10 and PC 20 are capable of wireless communication with the goggles 60. Note that, although a VR image is used as an example in the following explanation, this may also be applied to an AR image.
- the goggles 60 are equipped with a control unit 61 having a CPU, ROM, RAM, etc., a display unit 62 having a liquid crystal panel and lenses, etc., which are placed in front of both eyes of the designer wearing the goggles, and a communication unit 63 which communicates with the safety sensor 10, the PC 20, etc.
- the goggles 60 are also equipped with a display button (not shown), and the display of a stereoscopic image on the display unit 62 is started or ended by operating the display button.
- the goggles 60 are also equipped with a changeover switch 64, and the viewpoint of the VR image including the detection area A displayed stereoscopically can be changed by operating the changeover switch 64.
- the PC 20 can output VR content of the robot 50 and objects (such as the conveyor device 43, the mounting table 45, and the pillars 47) of the work system 40 to the goggles 60.
- the safety sensor 10 also has an output button (not shown), and when the designer operates the output button, information on the detection area A and the detection state, position information on the placement position, and the like can be output to the goggles 60. Note that the detection area A of the safety sensor 10 and position information on the placement position, and the like may be output from the PC 20 to the goggles 60.
- the control unit 61 of the goggles 60 stereoscopically displays a VR image generated based on the VR content, the detection area A, and the like on the display unit 62.
- FIG. 15 is a flow chart showing an example of the detection area display process, which is executed by the control unit 61 of the goggles 60.
- FIG. 16 to FIG. 18 are explanatory diagrams showing an example of a three-dimensional display of the detection area A, and show, for example, the detection area A of the safety sensor 10 arranged behind the robot 50 on the robot stand 41.
- the control unit 61 In the detection area display process, the control unit 61 generates a VR image including the detection area A of the safety sensor 10 based on information received from the PC 20 and the safety sensor 10 (S400).
- the control unit 61 determines whether the viewpoint switched by the changeover switch 64 is the reference viewpoint (S410) or the bird's-eye viewpoint (S420).
- the changeover switch 64 can be used to switch between the reference viewpoint for viewing the detection area A from the safety sensor 10 side, the bird's-eye viewpoint for viewing the safety sensor 10 and the detection area A from outside the detection area A, and the opposite viewpoint for viewing the detection area A from the opposite side to the reference viewpoint.
- the control unit 61 determines in S410 that it is the reference viewpoint, it displays a VR image from the reference viewpoint on the display unit 62 (S430, FIG. 16).
- a VR image is displayed in which the detection area A spreads from the front side where the safety sensor 10 is located to the back side.
- the detection area A in FIGS. 16 to 18 is set to an area excluding the pillar 47, for example, in a setting process based on object detection. Therefore, in the VR image displayed on the display unit 62, the detection area A and the pillar 47, which is an object, are displayed.
- control unit 61 determines in S420 that the viewpoint is a bird's-eye view, it displays the VR image from the bird's-eye view on the display unit 62 (S440, FIG. 17). In the bird's-eye view, as shown in FIG. 17, for example, an image of a bird's-eye view of the three-dimensional detection area A and the safety sensor 10 from the left outside the detection area A is displayed, and the pillar 47 is also displayed. If the control unit 61 determines in S420 that the viewpoint is not a bird's-eye view, it determines that the opposite viewpoint is selected, and displays the VR image from the opposite viewpoint on the display unit 62 (S450, FIG. 18). In the opposite viewpoint, as shown in FIG. 18, an image of the detection area A converging from the near side toward the far side where the safety sensor 10 is located is displayed, and the pillar 47 is also displayed.
- the control unit 61 determines whether the viewpoint has been switched by operating the changeover switch 64 (S460), and if it determines that the viewpoint has been switched, the process returns to S410. Therefore, even while the image is being displayed, the designer can switch to any viewpoint by operating the changeover switch 64. Furthermore, if the control unit 61 determines that the viewpoint has not been switched, it determines whether an instruction to end the display has been issued by operating the display button (S470), and if it determines that an instruction to end the display has not been issued, the process returns to S460. If the control unit 61 determines that an instruction to end the display has been issued, the display of the VR image is terminated (S480), and the process ends.
- the set detection area A is displayed three-dimensionally on the goggles 60 worn by the designer as a VR image in the work system 40 (usage environment). It is also possible to switch between a reference viewpoint that views the detection area A from the safety sensor 10 side, a bird's-eye view that views the safety sensor 10 and detection area A from outside the detection area A, and an opposite viewpoint that views the detection area A from the opposite side to the reference viewpoint. This allows the designer to grasp the detection area A more reliably, making it possible to set the detection area A appropriately and without further hassle.
- the goggles 60 are switchable between the reference viewpoint, the bird's-eye view, and the opposite viewpoint, but this is not limited thereto, and it is sufficient that the goggles 60 are switchable between the reference viewpoint and the bird's-eye view, and they do not have to be switched to the opposite viewpoint.
- the safety sensor 10 since the safety sensor 10 outputs information on the detection state, the detection state (multiple detection points of the object being detected) may be included in the VR image and displayed.
- the present invention may be applied to AR images instead of VR images, and for example, the goggles 60 may be configured to display the detection area A adjusted to the size of the work system 40 (usage environment) seen through the lens.
- control unit 61 when the control unit 61 is located in a place where the designer can see the safety sensor 10 from a bird's-eye view, and the changeover switch 64 is switched to the bird's-eye view, the control unit 61 may display the detection area A as shown in FIG. 17 on the work system 40 and the safety sensor 10 seen through the lens of the goggles 60. Furthermore, when the designer is located near the reference viewpoint of the safety sensor 10 and the changeover switch 64 is switched to the reference viewpoint, the control unit 61 can display the detection area A as shown in FIG. 16 on the work system 40 seen through the lens portion of the goggles 60.
- This disclosure can be used to set the detection area of a safety sensor.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- Geophysics And Detection Of Objects (AREA)
Abstract
本開示は、安全センサの検出領域を、手間なく適切に設定することを主目的とする。 安全センサ(10)の検出領域(A)を設定する検出領域設定方法は、(a)安全センサ(10)の使用環境で検出され得る対象が安全センサ(10)の検出可能領域に存在する状態で、安全センサ(10)により対象が検出された検出結果を取得するステップと、(b)ステップ(a)で取得された検出結果に基づいて、検出可能領域から検出領域(A)を設定するステップと、(c)ステップ(b)で設定された検出領域(A)の設定情報を、安全センサ(10)に出力するステップと、を含む。
Description
本明細書は、検出領域設定方法および検出領域設定装置について開示する。
従来、安全センサの検出可能領域(最大検出領域)から必要な検出領域を設定する方法が提案されている。例えば、特許文献1には、検出可能領域のうち検出を望む領域の外周を囲むように複数個の反射板を配置し、それらの反射板を安全センサにより検出させた際の検出位置に基づいて、検出領域を設定することが記載されている。
上述した特許文献1では、安全センサの検出領域を設定するために、反射板を用意する必要があり、手間がかかるものとなる。また、実際の使用環境における検出対象と、設定環境における反射板とでは、安全センサの検出状態が異なる場合があるため、適切な検出領域が設定されないおそれもある。
本開示は、安全センサの検出領域を、手間なく適切に設定することを主目的とする。
本開示は、上述の主目的を達成するために以下の手段を採った。
本開示の検出領域設定方法は、
安全センサの検出領域を設定する検出領域設定方法であって、
(a)前記安全センサの使用環境で検出され得る対象が前記安全センサの検出可能領域に存在する状態で、前記安全センサにより前記対象が検出された検出結果を取得するステップと、
(b)前記ステップ(a)で取得された前記検出結果に基づいて、前記検出可能領域から前記検出領域を設定するステップと、
(c)前記ステップ(b)で設定された前記検出領域の設定情報を、前記安全センサに出力するステップと、
を含むことを要旨とする。
安全センサの検出領域を設定する検出領域設定方法であって、
(a)前記安全センサの使用環境で検出され得る対象が前記安全センサの検出可能領域に存在する状態で、前記安全センサにより前記対象が検出された検出結果を取得するステップと、
(b)前記ステップ(a)で取得された前記検出結果に基づいて、前記検出可能領域から前記検出領域を設定するステップと、
(c)前記ステップ(b)で設定された前記検出領域の設定情報を、前記安全センサに出力するステップと、
を含むことを要旨とする。
本開示の検出領域設定方法では、安全センサの使用環境で検出され得る対象が検出可能領域に存在する状態で、安全センサにより対象が検出された検出結果を取得し、取得した検出結果に基づいて、検出可能領域から検出領域を設定する。これにより、検出領域を設定するためだけの対象物を用意する必要がないものとなる。また、使用環境で検出され得る対象を安全センサが検出した検出結果を用いるから、設定環境が実際の使用環境と乖離するのを防止することができる。したがって、安全センサの検出領域を、手間なく適切に設定することができる。
本開示の実施形態について図面を用いて説明する。図1は、安全センサ10とPC20の概略構成図である。図2は、安全センサ10とロボット50とを含む作業システム40の概略構成図である。なお、本実施形態では、図2に示すように、左右方向と前後方向と上下方向とを定める。
安全センサ10は、CPUやROM、RAMなどを有する制御部11と、周囲の対象物を検出するセンサ部12と、PC20やロボット50などの外部装置と有線または無線により通信する通信部13とを備える。安全センサ10のセンサ部12は、例えばレーザレーダとして構成されているが、ミリ波レーダなどでもよい。センサ部12は、上面視で略扇状の領域であって対象物の検出が可能な検出可能領域(最大検出領域)のうち、設定された検出領域(監視領域)A内で作業者Mの有無などを監視する。
PC20は、作業システム40の管理者や作業者Mなどの設計者が、安全センサ10の検出領域Aの設定などを行う汎用のコンピュータである。PC20は、CPUやROM、RAMなどを有する制御部21と、各種アプリケーションプログラムや各種データなどを記憶するHDDなどの記憶部22と、ネットワークを介して接続される外部装置との通信や通信線18を介して接続される安全センサ10との通信を行う通信部23とを備える。通信線18としては、例えばUSBケーブルなどが用いられる。なお、PC20と安全センサ10とが、無線により通信可能に接続されてもよい。また、PC20は、管理者や作業者Mなどの設計者が各種入力を行うキーボードやタッチパッドなどの入力部27と、液晶ディスプレイなどの表示画面28とを備える。
作業システム40は、例えば、ロボット50と、ロボット50が配設されたロボット台41と、コンベア装置43と、載置台45と、1つ以上の安全センサ10とを備える。コンベア装置43と載置台45とは、例えばロボット50を間に挟んで左右方向に互いに反対側に配設されている。コンベア装置43は、ローラコンベア43aと、エンドテーブル43bとを有する。ローラコンベア43aは、複数のローラを有し、図示しないモータの動力を各ローラに伝達して回転させることにより物品Pを左右方向に搬送する。エンドテーブル43bは、コンベア装置43の左右方向の両端に設けられており(図2では一端のみ図示)、搬送前または搬送後の物品Pの一時的な載置場所として使用される。載置台45は、上面が複数の載置エリア45aに区画されており、各載置エリア45aに作業者Mやロボット50により物品Pが載置される。また、作業システム40内には柱47なども配置されている。ロボット台41やコンベア装置43、載置台45、柱47を配置物(固定物)ともいう。
ロボット50は、複数のリンクが関節を介して回転可能に連結された垂直多関節型のロボットアーム52と、ロボットアーム52の先端リンクに着脱可能な作業ツールとしてのエンドエフェクタ54と、図示しない制御部や撮像部などを備える。なお、エンドエフェクタ54としては、電磁チャックやメカニカルチャック、吸着ノズルなどを挙げることができ、物品Pの形状や材質に合わせて選択されたものが取り付けられる。図2の例では、開閉可能な一対のチャック爪を有するメカニカルチャックが取り付けられている。ロボット50は、物品Pの上面に形成されたつまみ部(突部)Paをメカニカルチャックにより把持して、コンベア装置43と載置台45との間で物品Pを移載する。ロボット50の制御部は、ロボットアーム52の各関節の回転角度を検出するエンコーダからの検出信号や、安全センサ10からの検出信号、撮像部により撮像された画像などを入力したり、ロボットアーム52やエンドエフェクタ54の作動を制御したりする。
ここで、作業システム40では、ロボット50の周辺で作業者Mが作業を行う場合がある。即ち、作業システム40のロボット50は、作業者Mと同じ作業空間で作業を行う協働ロボットとして用いられる。作業システム40では、ロボット50の周辺の作業者Mの安全性を向上させるために、複数の安全センサ10が配置されている。図2では3つの安全センサ10を示すが、ロボット50を中心として前後左右の四方向を全周に亘って監視するように、例えば4つの安全センサ10がロボット台41に配置される。これらの安全センサ10の検出領域Aは、以下のように設定される。図3は、検出領域設定処理の一例を示すフローチャートである。この処理は、PC20の制御部21により実行される。
検出領域設定処理では、制御部21は、通信線18を介してPC20に接続されている安全センサ10から、その安全センサ10の情報を取得する(S100)。制御部21は、例えば安全センサ10の検出可能領域や検出領域Aの設定に関するパラメータなどの情報を取得する。次に、制御部21は、図示は省略するが、検出領域Aの設定処理を選択させる選択画面を表示画面28に表示して、検出対象を利用する設定処理が設計者に選択されたか否かを判定する(S110)。ここで、本実施形態では、通常設定処理と、検出対象利用の設定処理とが可能となっている。通常設定処理は、設計者が安全センサ10のパラメータを用いて検出領域Aを設定する処理である。検出対象を利用する検出対象利用の設定処理は、作業システム40の安全センサ10の実際の検出対象である人(作業者M)や配置物などを用いて検出領域Aを設定する処理である。なお、選択画面では、検出対象利用の設定処理が選択された場合に、検出対象が人か配置物かを選択させるようになっている。制御部21は、検出対象利用ではなく、通常設定処理が選択されたと判定すると、通常設定処理を実行する(S120)。通常設定処理では、通常の検出領域設定画面30を表示画面28に表示して設計者に検出領域Aを設定させる。
図4は、検出領域設定画面30の一例を示す説明図である。検出領域設定画面30には、検出領域表示欄31a,31bと、パラメータ設定欄32と、各種ボタンと、指示ポインタ34とが表示されている。検出領域表示欄31aには、安全センサ10の検出可能領域が、上面視で平面的に表示されている。検出領域表示欄31bには、安全センサ10の検出可能領域が、側面視で平面的に表示されている。検出領域表示欄31a,31bでは、長方形状の表示欄のうち検出可能領域を三角形状で示し、検出可能領域のうち、検出領域Aを白色領域で示し、非検出領域Bを着色領域で示す。
パラメータ設定欄32には、検出領域A(非検出領域B)を定める各種パラメータとして、例えば「距離」と「幅」と「横角度」と「縦角度」とがスライダを移動させることにより設定可能に表示されている。「距離」は、安全センサ10を中心とする略扇状の検出領域Aの半径rに相当する検出距離であり、下限値と上限値とを設定可能である。例えば、設計者は、下限値を値0以外の値に設定することで、安全センサ10から下限値までの領域を非検出領域Bに設定することが可能である。「幅」は、安全センサ10を中心とする一対の平行線により設定される横方向(左右)の検出幅wである。この検出幅の内側が検出領域Aとなり、検出幅の外側が非検出領域Bとなる。「横角度」は、検出領域Aの横方向の中心角、即ち水平方向の広がり角を定めるものである。「縦角度」は、検出領域Aの縦方向の中心角、即ち垂直方向の広がり角を定めるものである。
各種ボタンとしては、取消ボタン33aと、保存ボタン33bと、出力ボタン33cと、戻るボタン33dと、終了ボタン33eとが表示されている。取消ボタン33aは、設定中の検出領域A(パラメータ)を取り消してデフォルトの設定に戻すためのボタンである。保存ボタン33bは、設定中の検出領域Aを保存するためのボタンである。出力ボタン33cは、検出領域Aのパラメータなどの設定情報を安全センサ10に出力するためのボタンである。戻るボタン33dは、上述した選択画面に戻るためのボタンである。終了ボタン33eは、設定処理を終了するためのボタンである。指示ポインタ34は、設計者が入力部27を介して操作可能であり、各種ボタンの操作や各種パラメータのスライダの操作などに用いられる。通常設定処理では、設計者は、必要な検出領域A(非検出領域B)となるようにパラメータ設定欄32で各種パラメータを設定する。そのため、設計者は、安全センサ10の実際の使用環境において必要な検出距離や検出幅などを事前に把握しておく必要があり、設定処理が煩雑となる。
また、制御部21は、S110で検出対象利用の設定処理が選択されたと判定すると、検出対象が人か否かを判定する(S130)。制御部21は、検出対象が人であると判定すると、人検出による設定処理を実行し(S140)、検出対象が人ではなく配置物であると判定すると、配置物検出による設定処理を実行する(S150)。
図5は、人検出による設定処理の一例を示すフローチャートである。また、図6~図8は、人検出による設定処理の様子の一例を示す説明図であり、例えばロボット台41においてロボット50の前方に配置された安全センサ10が人を検出する様子を上方から見た説明図である。なお、図6~図8の着色領域は、安全センサ10の検出可能領域である。図5の領域設定処理では、制御部21は、まず、最初の位置n(n=1)に作業者Mなどの人が立つように指示する(S200)。例えば、制御部21は、表示画面28に、設定したい検出領域Aの円弧の一端の位置に、人が立つ旨の指示を表示する。次に、制御部21は、人(物体)を検出したか否かを判定し(S210)、人を検出したと判定すると、登録操作が行われたか否かを判定する(S220)。制御部21は、人を検出していないか、人を検出していても登録操作が行われていないと判定すると、S250に進む。登録操作は、PC20の入力部27での操作に基づいて行われるが、PC20に無線により接続された操作部での操作に基づいて行われてもよい。例えば位置nに立った人が、自ら操作部を操作して登録操作を行ってもよい。
制御部21は、S220で登録操作が行われたと判定すると、安全センサ10が人(物体)を検出した際の複数の検出位置(検出点)のうち、安全センサ10に最も近い位置を検出位置Pnとして記憶部22に記憶させることで登録する(S230)。図6に示すように、人が位置n=1に立っている場合に検出される複数の検出位置のうち安全センサ10に最も近い位置、例えば人の胸の中心辺りの位置が検出位置P1として登録される。
続いて、制御部21は、位置nを値1インクリメントすることにより更新し、次の位置nに人が立つように指示する(S240)。制御部21は、設定したい検出領域Aの円弧上において次の位置に立つ旨の指示を、表示画面28に表示する。また、制御部21は、表示画面28に、登録済みの検出位置Pnに基づいて検出領域Aを設定させるための設定ボタンも表示する。制御部21は、その設定ボタンが操作されたか否かに基づいて、設定操作がされたか否かを判定し(S250)、設定操作がされていないと判定すると、S210に戻る。
このように、人検出による設定処理では、制御部21は、位置nにおいて人を検出して登録操作がされる度に検出位置Pnを登録する処理を繰り返す。即ち、設計者は、設定したい検出領域Aにおいて円弧の一端の位置から他端の位置までの複数の位置nに人を順次移動させて、各位置に人が立つ(停止する)度に、検出位置Pnを順次登録させる。例えば、図7に示すように、位置n=2で人が検出されると、安全センサ10に最も近い検出位置が検出位置P2として登録される。同様に、図8に示すように、位置n=3で人が検出されると、安全センサ10に最も近い検出位置が検出位置P3として登録される。
こうして検出位置Pnを順次登録するうちに、制御部21は、S250で設定操作がされたと判定すると、それまでに登録した各検出位置Pnを近似して、人の移動の軌跡を示す円弧状の軌跡を生成する(S260)。また、制御部21は、安全センサ10を中心とし円弧状の軌跡を境界Lとする検出領域Aと、非検出領域Bとを表示画面28の検出領域設定画面35に表示する(S270)。
図9は、検出領域設定画面35の一例を示す説明図である。検出領域設定画面35には、検出領域表示欄36と、マージン設定欄37と、各種ボタンと、指示ポインタ39とが表示されている。検出領域表示欄36には、安全センサ10の検出可能領域が上面視で平面的に表示されている。また、検出可能領域は、境界Lを円弧とし安全センサ10を中心とする扇状の検出領域Aと、残りの非検出領域Bとに分けて表示されている。マージン設定欄37は、境界Lに対するマージンを設定するために用いられるものであり、詳細は配置物検出による設定処理で説明する。各種ボタンとしては、検出領域設定画面30と同様に、取消ボタン38aと、保存ボタン38bと、出力ボタン38cと、戻るボタン38dと、終了ボタン38eとが表示されており、これらの説明は省略する。指示ポインタ39は、設計者が入力部27を介して操作可能であり、各種ボタンの操作などに用いられる。
続いて、制御部21は、出力ボタン38cが操作された否かに基づいて安全センサ10への出力が指示されたか否かを判定する(S280)。制御部21は、出力が指示されていないと判定すると、S295に進む。制御部21は、出力が指示されたと判定すると、設定した検出領域Aや非検出領域Bの設定情報を、接続されている安全センサ10に出力して(S290)、S295に進む。
そして、制御部21は、終了ボタン38eが操作された否かに基づいて終了が指示されたか否かを判定し(S295)、指示されていないと判定すると、S280に戻る。制御部21は、終了が指示されたと判定すると、本処理を終了する。人検出による設定処理では、設計者は、人を順次移動させることで円弧(境界L)を定めて検出領域Aを設定するから、必要な検出領域Aを容易に設定することができる。なお、フローチャートでは省略したが、制御部21は、取消ボタン38aが操作されと、例えば設定中の検出領域Aを取り消して境界Lを再度生成させるために、S200に戻る。また、制御部21は、保存ボタン38bが操作されると、設定中の検出領域A(非検出領域B)を記憶部22に保存する。また、制御部21は、戻るボタン38dが操作されると、上述した選択画面に戻る。
次に、配置物検出による設定処理を説明する。図10は、配置物検出による設定処理の一例を示すフローチャートである。また、図11は、配置物検出による設定処理の一例を示す説明図であり、例えばロボット台41においてロボット50の左方に配置された安全センサ10が配置物を検出する様子を上方から見た説明図である。図10の領域設定処理では、制御部21は、非検出対象である配置物を安全センサ10に検出させる(S300)。制御部21は、コンベア装置43や載置台45、柱47などの配置物が検出可能領域内に含まれる位置に配置された安全センサ10をオンとして、配置物を検出させる旨の指示を、表示画面28に表示する。例えばロボット50の左方に配置された安全センサ10の場合、図11に示すように、配置物として載置台45と柱47とが検出可能領域内に含まれる。このため、安全センサ10は、載置台45の安全センサ10側の縁(図中の太線)における複数の位置(点)と、柱47の安全センサ10側の縁(図中の太線)における複数の位置(点)とを検出する。
次に、制御部21は、配置物(物体)を検出したか否かを判定し(S310)、配置物を検出したと判定すると、登録操作が行われたか否かを判定する(S320)。制御部21は、配置物を検出していないか、配置物を検出していても登録操作が行われていないと判定すると、S340に進む。一方、制御部21は、S320で登録操作が行われたと判定すると、安全センサ10が配置物(物体)を検出した際の複数の検出位置を登録する(S330)。また、制御部21は、表示画面28に、検出位置に基づいて検出領域Aを設定させるための設定ボタンも表示する。制御部21は、その設定ボタンが操作されたか否かに基づいて、設定操作がされたか否かを判定し(S340)、設定操作がされていないと判定すると、S310に戻る。
制御部21は、S340で設定操作がされたと判定すると、登録した各検出位置に基づいて、配置物の安全センサ10側の縁線を生成する(S350)。次に、制御部21は、生成した縁線を境界Lとして検出領域Aと非検出領域Bとを設定して表示画面28の検出領域設定画面35に表示する(S360)。
図12は、検出領域設定画面35の一例を示す説明図である。この検出領域設定画面35には、図9と同様に、検出領域表示欄36と、マージン設定欄37と、各種ボタンと、指示ポインタ39とが表示されている。検出領域表示欄36には、生成した縁線を境界Lとし、手前側(安全センサ10側)を検出領域A、奥側を非検出領域Bに設定したものが表示される。
次に、制御部21は、マージン設定欄37に対する操作がなされたか否かに基づいて、マージン付加操作が行われたか否かを判定し(S365)、マージン付加操作が行われていないと判定すると、S380に進む。制御部21は、例えばマージン設定欄37においてマージンMaのオンが選択されて、マージンMaの値が設定されると、マージン付加操作が行われたと判定する。制御部21は、マージン付加操作が行われたと判定すると、上記の縁線を、マージン設定欄37で設定されたマージンMa分、安全センサ10側に近付けたものを新たな境界Lとして、検出領域Aと非検出領域Bとを再設定して表示する(S370)。図13は、検出領域設定画面35の一例を示す説明図である。図13では、図12よりもマージンMa分だけ境界Lが安全センサ10側に近付けられており、その境界Lに基づいて検出領域Aと非検出領域Bとが分けられた様子を示す。なお、上述した人検出による設定処理のフローチャートでは、マージン設定欄37に対する処理を省略したが、生成した軌跡をマージンMa分だけ安全センサ10側に近付けたものを境界Lとすることで、S365、S370と同様に実行することができる。
続いて、制御部21は、出力ボタン38cが操作された否かに基づいて安全センサ10への出力が指示されたか否かを判定する(S380)。制御部21は、出力が指示されていないと判定すると、S395に進む。制御部21は、出力が指示されたと判定すると、設定した検出領域Aや非検出領域Bの設定情報を、接続されている安全センサ10に出力して(S390)、S395に進む。
そして、制御部21は、終了ボタン38eが操作された否かに基づいて終了が指示されたか否かを判定し(S395)、指示されていないと判定すると、S365に戻る。制御部21は、終了が指示されたと判定すると、本処理を終了する。配置物検出による設定処理では、設計者は、配置物を検出させることで非検出領域Bの前縁(境界L)を定めて検出領域Aを設定するから、必要な検出領域Aを容易に設定することができる。なお、フローチャートでは省略したが、制御部21は、取消ボタン38aが操作されと、例えば設定中の検出領域Aを取り消して配置物の縁線(境界L)を再度生成させるために、S300に戻る。また、制御部21は、保存ボタン38bが操作されると、設定中の検出領域A(非検出領域B)を記憶部22に保存する。また、制御部21は、戻るボタン38dが操作されると、上述した選択画面に戻る。
ここで、本実施形態の構成要素と本開示の構成要素との対応関係を明らかにする。本実施形態の人検出による設定処理のS200~S240を実行する制御部21が本開示のステップ(a)に相当し、同処理のS250~S270を実行する制御部21がステップ(b)に相当し、同処理のS280,S290を実行する制御部21がステップ(c)に相当する。また、配置物検出による設定処理のS300~S330を実行する制御部21が本開示のステップ(a)に相当し、同処理のS340~S360を実行する制御部21がステップ(b)に相当し、同処理のS380,S390を実行する制御部21がステップ(c)に相当する。また、人検出による設定処理のS200~S240を実行する制御部21が取得部に相当し、同処理のS250~S270(画面表示を除く)を実行する制御部21が設定部に相当し、同処理のS270の画面表示を実行する制御部21と表示画面28とが表示部に相当する。また、配置物検出による設定処理のS300~S330を実行する制御部21が取得部に相当し、同処理のS340~S360(画面表示を除く)を実行する制御部21が設定部に相当し、同処理のS360の画面表示を実行する制御部21と表示画面28とが表示部に相当する。
以上説明した実施形態の検出領域設定処理(検出領域設定方法)では、安全センサ10の使用環境で検出され得る対象(人,配置物)が検出可能領域に存在する状態で、安全センサ10により対象が検出された検出結果を取得し、取得した検出結果に基づいて、検出可能領域から検出領域Aを設定する。このため、検出領域を設定するためだけの対象物を用意する必要がないものとなる。また、使用環境で検出され得る対象を安全センサ10が検出した検出結果を用いるから、設定環境が実際の使用環境と乖離するのを防止することができる。また、設計者が、各種パラメータをそれぞれ設定するなど、煩雑な設定処理を行う必要がないものとなる。さらに、設定された検出領域Aの設定情報を、安全センサ10に出力可能であるから、検出領域Aの設定の手間をより軽減することができる。したがって、安全センサ10の検出領域を、手間なく適切に設定することができる。
また、検出領域設定処理では、検出対象として人が検出可能領域に存在する状態で、人が複数の位置を順次移動して各位置で停止する度に、安全センサ10により少なくとも人の身体の一部が検出された際の検出位置Pnを、検出結果として複数の位置毎に取得する。そして、複数の位置毎の検出位置Pnに基づいて人の移動の軌跡を生成し、軌跡を境界Lとして検出可能領域から検出領域Aと非検出領域Bとを設定する。このため、設計者や作業者Mなどの人に複数の位置を順次移動させて、各位置で安全センサ10に検出させる簡易な方法で、検出領域Aを適切に設定することができる。
また、検出領域設定処理では、検出対象として配置物が検出可能領域に存在する状態で、安全センサ10により配置物が検出された際の検出位置を検出結果として取得する。そして、検出位置に基づいて配置物の安全センサ10側の縁線を生成し、縁線を境界Lとして検出可能領域から検出領域Aと非検出領域Bとを設定する。このため、使用環境に配置されている配置物を安全センサ10に検出させる簡易な方法で、検出領域Aを適切に設定することができる。
また、検出領域設定処理では、縁線をマージンMa(マージン距離)だけ安全センサ10側に近付けたものを境界Lとして、検出領域Aと非検出領域Bとを設定可能である。ここで、例えば縁線をそのまま境界Lとすると、安全センサ10の位置ずれや感度状況によっては配置物が検出領域Aに含まれやすくなり、検出の必要のない配置物を頻繁に誤検出する場合がある。本実施形態では、縁線をマージンMaだけ安全センサ10側に近付けることで、配置物の誤検出を抑制できるように境界Lを設定することができるから、検出領域をより適切に設定することができる。なお、配置物の縁線ではなく、人の軌跡をマージンMaだけ安全センサ10側に近付けたものを境界Lとすることで、同様に不要な領域での誤検出を抑制することができる。
また、検出領域設定処理では、表示画面28に検出結果に基づく検出領域Aを表示するため、設計者は表示画面28で検出領域Aを容易に確認することができるから、設計者が望む検出領域Aを確実に設定することができる。
なお、本開示は上述した実施形態に何ら限定されることはなく、本開示の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。
実施形態では、表示画面28に検出結果に基づく検出領域Aを表示したが、これに限られず、表示画面28に検出領域Aを表示しなくてもよい。例えば、制御部21は、人検出による設定処理のS250で設定操作がされたと判定すると、軌跡を境界Lとして検出領域Aと非検出領域Bとを設定すればよく、必ずしも表示画面28に表示しなくてもよい。配置物検出による設定処理でも、必ずしも表示画面28に表示しなくてもよい。また、検出領域設定装置としてPC20を例示したが、スマートフォンやタブレット端末などとしてもよい。
実施形態では、人検出による設定処理と配置物検出による設定処理とにおいて、軌跡または縁線にマージンMaを付加した境界Lを用いて、検出領域Aと非検出領域Bとを設定可能としたが、これに限られない。人検出による設定処理と配置物検出による設定処理とのうち、一方の設定処理においてのみマージンMaを付加した境界Lを用いて設定可能としてもよい。あるいは、このようなマージンMaの付加を行わなくてもよく、検出領域設定画面35のマージン設定欄37を省略してもよい。
実施形態では、検出対象を利用する設定処理として、人検出による設定処理と配置物検出による設定処理とを実行したが、これに限られず、人検出による設定処理と配置物検出による設定処理とのうち一方のみを実行してもよい。また、安全センサ10の検出領域Aに対し、人検出による設定処理と配置物検出による設定処理との両方を実行して設定してもよい。例えば、配置物検出による設定処理で検出領域Aを仮設定し、さらに、その検出領域A内で人を移動させて人検出による設定処理を実行することで、検出領域Aの設定を完了させてもよい。また、検出領域設定画面35にパラメータ設定欄32を表示しておき、検出対象を利用して設定された検出領域Aに対し、各種パラメータによる調整を受け付けて、検出領域Aの設定を完了させてもよい。
実施形態では、人検出による設定処理では、人の身体において例えば胸の中心の位置を検出したが、これに限られない。例えば、人の手を複数の位置に順次移動させて、人の手の位置を検出するなど、少なくとも人の身体の一部を検出すればよい。また、人検出による設定処理では、生成した軌跡を検出領域Aの外側の円弧(境界L)としたが、これに限られず、検出領域Aの内側の円弧としてもよい。即ち、生成した軌跡を、上述した「距離」の下限値と上限値とのうち上限値としたが、下限値としてもよい。また、人検出による設定処理を2回行うことにより、下限値と上限値とをそれぞれ設定してもよい。
実施形態では、検出領域Aを表示画面28に平面的に表示したが、これに限られず、検出領域Aを立体的に表示してもよい。また、検出領域Aを、使用環境におけるAR画像(拡張現実画像)またはVR画像(仮想現実画像)として、管理者や作業者Mなどの設計者が装着したゴーグル60に立体的に表示してもよい。図14は、安全センサ10とPC20とゴーグル60の概略構成図である。変形例では、安全センサ10とPC20が、ゴーグル60と無線通信が可能となっている。なお、以下ではVR画像を例示して説明するが、AR画像に適用してもよい。
ゴーグル60は、CPUやROM、RAMなどを有する制御部61と、装着した設計者の両目の前に配置される液晶パネルやレンズなどを有する表示部62と、安全センサ10やPC20などとの通信を行う通信部63とを備える。また、ゴーグル60は、図示しない表示ボタンを備えており、表示ボタンの操作により、表示部62への立体画像の表示を開始したり、表示を終了したりする。また、ゴーグル60は、切替スイッチ64を備えており、切替スイッチ64の操作により、立体的に表示する検出領域Aを含むVR画像の視点を切り替え可能である。
変形例では、PC20は、ゴーグル60に対し、作業システム40のロボット50や配置物(コンベア装置43や載置台45、柱47など)のVRコンテンツを出力可能となっている。また、安全センサ10は、図示しない出力ボタンを備えており、設計者により出力ボタンが操作されると、検出領域Aや検出状態に関する情報、配置位置に関する位置情報などをゴーグル60に出力可能となっている。なお、安全センサ10の検出領域Aや配置位置に関する位置情報などが、PC20からゴーグル60に出力されてもよい。ゴーグル60の制御部61は、VRコンテンツや検出領域Aなどに基づいて生成したVR画像を、表示部62に立体的に表示する。
図15は、検出領域表示処理の一例を示すフローチャートであり、ゴーグル60の制御部61により実行される。また、図16~図18は、検出領域Aの立体表示の一例を示す説明図であり、例えばロボット台41においてロボット50の後方に配置された安全センサ10の検出領域Aを示す。検出領域表示処理では、制御部61は、PC20や安全センサ10から受信した情報に基づいて、安全センサ10の検出領域Aを含むVR画像を生成する(S400)。次に、制御部61は、切替スイッチ64により切り替えられている視点が、基準視点であるか(S410)、俯瞰視点であるか(S420)、をそれぞれ判定する。本実施形態では、切替スイッチ64により、安全センサ10側から検出領域Aを見る基準視点と、検出領域Aの外側から安全センサ10と検出領域Aとを俯瞰的に見る俯瞰視点と、基準視点とは反対側から検出領域Aを見る反対視点とに切替可能である。
制御部61は、S410で基準視点であると判定すると、基準視点でVR画像を表示部62に表示する(S430,図16)。基準視点では、図16に示すように、安全センサ10のある手前側から奥側に向かって検出領域Aが広がるような画像が表示される。また、図16~図18の検出領域Aは、例えば配置物検出による設定処理で、柱47を除いた領域に設定されたものとする。このため、表示部62に表示されるVR画像では、検出領域Aと共に配置物である柱47も表示される。
また、制御部61は、S420で俯瞰視点であると判定すると、俯瞰視点でVR画像を表示部62に表示する(S440,図17)。俯瞰視点では、図17に示すように、例えば検出領域Aの外側の左方から、立体的な検出領域Aと安全センサ10とを俯瞰的に見るような画像が表示され、柱47も表示される。さらに、制御部61は、S420で俯瞰視点でないと判定すると、反対視点であると判定し、反対視点でVR画像を表示部62に表示する(S450,図18)。反対視点では、図18に示すように、手前側から安全センサ10のある奥側に向かって検出領域Aが収束するような画像が表示され、柱47も表示される。
次に、制御部61は、切替スイッチ64の切替操作により、視点が切り替えられたか否かを判定し(S460)、切り替えられたと判定すると、S410に戻る。このため、画像の表示中も、設計者は切替スイッチ64の切替操作により任意の視点に切り替えることができる。また、制御部61は、視点が切り替えられていないと判定すると、表示ボタンの操作により、表示終了が指示されたか否かを判定し(S470)、表示終了が指示されていないと判定すると、S460に戻る。そして、制御部61は、表示終了が指示されたと判定すると、VR画像の表示を終了して(S480)、本処理を終了する。
このように、変形例では、設定された検出領域Aを、作業システム40(使用環境)におけるVR画像として、設計者が装着したゴーグル60に立体的に表示させる。また、安全センサ10側から検出領域Aを見る基準視点と、検出領域Aの外側から安全センサ10と検出領域Aとを俯瞰的に見る俯瞰視点と、基準視点とは反対側から検出領域Aを見る反対視点を切り替えて表示可能である。このため、検出領域Aを、設計者により確実に把握させることができるから、検出領域Aをさらに手間なく適切に設定することができる。
変形例では、ゴーグル60が、基準視点と俯瞰視点と反対視点とに切替可能としたが、これに限られず、基準視点と俯瞰視点とに切替可能であればよく、反対視点に切り替えなくてもよい。また、図示は省略したが、安全センサ10から検出状態の情報が出力されているため、検出状態(検出中の物体の複数の検出点)をVR画像に含めて表示してもよい。また、上述したようにVR画像ではなくAR画像に適用してもよく、例えば、ゴーグル60が、レンズを通して見られる作業システム40(使用環境)に、その大きさに合わせて調整された検出領域Aを表示可能に構成されていればよい。また、制御部61は、設計者が安全センサ10を俯瞰的に見られる場所に位置し、切替スイッチ64が俯瞰視点に切り替えられている場合、ゴーグル60のレンズ部を通して見られる作業システム40や安全センサ10に、図17のような検出領域Aを合わせて表示すればよい。また、制御部61は、設計者が安全センサ10の基準視点の近くに位置し、切替スイッチ64が基準視点に切り替えられている場合、ゴーグル60のレンズ部を通して見られる作業システム40に、図16のような検出領域Aを合わせて表示すればよい。
本明細書では、出願当初の請求項5の「請求項1または2に記載の検出領域設定方法」を「請求項1ないし4のいずれか1項に記載の検出領域設定方法」に変更した技術思想、出願当初の請求項6の「請求項1または2に記載の検出領域設定方法」を「請求項1ないし5のいずれか1項に記載の検出領域設定方法」に変更した技術思想も開示されている。
本開示は、安全センサの検出領域の設定に利用可能である。
10 安全センサ、11,21,61 制御部、12 センサ部、13,23,63 通信部、18 通信線、20 PC(検出領域設定装置)、22 記憶部、27 入力部、28 表示画面(表示部)、30,35 検出領域設定画面、31a,31b,36 検出領域表示欄、32 パラメータ設定欄、33a,38a 取消ボタン、33b,38b 保存ボタン、33c,38c 出力ボタン、33d,38d 戻るボタン、33e,38e 終了ボタン、34,39 指示ポインタ、37 マージン設定欄、40 作業システム、41 ロボット台、43 コンベア装置、43a ローラコンベア、43b エンドテーブル、45 載置台、45a 載置エリア、47 柱、50 ロボット、52 ロボットアーム、54 エンドエフェクタ、60 ゴーグル、62 表示部(レンズ部)、64 切替スイッチ、A 検出領域、B 非検出領域、M 作業者、P 物品、Pa つまみ部。
Claims (7)
- 安全センサの検出領域を設定する検出領域設定方法であって、
(a)前記安全センサの使用環境で検出され得る対象が前記安全センサの検出可能領域に存在する状態で、前記安全センサにより前記対象が検出された検出結果を取得するステップと、
(b)前記ステップ(a)で取得された前記検出結果に基づいて、前記検出可能領域から前記検出領域を設定するステップと、
(c)前記ステップ(b)で設定された前記検出領域の設定情報を、前記安全センサに出力するステップと、
を含む検出領域設定方法。 - 前記ステップ(a)では、前記対象として人が前記検出可能領域に存在する状態で、前記人が複数の位置を順次移動して各位置で停止する度に、前記安全センサにより少なくとも前記人の身体の一部が検出された際の検出位置を、前記検出結果として前記複数の位置毎に取得し、
前記ステップ(b)では、前記複数の位置毎の前記検出位置に基づいて前記人の移動の軌跡を生成し、前記軌跡を境界として前記検出可能領域から前記検出領域と非検出領域とを設定する、
請求項1に記載の検出領域設定方法。 - 前記ステップ(a)では、前記対象として配置物が前記検出可能領域に存在する状態で、前記安全センサにより前記配置物が検出された際の検出位置を前記検出結果として取得し、
前記ステップ(b)では、前記検出位置に基づいて前記配置物の前記安全センサ側の縁線を生成し、前記縁線を境界として前記検出可能領域から前記検出領域と非検出領域とを設定する、
請求項1に記載の検出領域設定方法。 - 前記ステップ(b)では、前記軌跡または前記縁線を、所定のマージン距離だけ前記安全センサ側に近付けたものを前記境界として、前記検出領域と前記非検出領域とを設定する、
請求項2または3に記載の検出領域設定方法。 - 前記ステップ(b)では、所定の表示画面に、前記検出結果と共に、前記設定された検出領域を表示する、
請求項1または2に記載の検出領域設定方法。 - (d)前記ステップ(b)で設定された前記検出領域を、前記使用環境における拡張現実画像または仮想現実画像に含めて、設計者が装着したゴーグルに立体的に表示させるステップを含み、
前記ステップ(d)では、少なくとも、前記安全センサ側から前記検出領域を見る基準視点と、前記検出領域の外側から前記安全センサと前記検出領域とを俯瞰的に見る俯瞰視点とを切り替えて表示可能である、
請求項1または2に記載の検出領域設定方法。 - 安全センサの検出領域を設定する検出領域設定装置であって、
前記安全センサの使用環境で検出され得る対象が前記安全センサの検出可能領域に存在する状態で、前記安全センサにより前記対象が検出された検出結果を取得する取得部と、
取得された前記検出結果に基づいて、前記検出可能領域から前記検出領域を設定する設定部と、
取得された前記検出結果と共に、前記設定された検出領域を表示する表示部と、
を備える検出領域設定装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/043543 WO2025120757A1 (ja) | 2023-12-05 | 2023-12-05 | 検出領域設定方法および検出領域設定装置 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/043543 WO2025120757A1 (ja) | 2023-12-05 | 2023-12-05 | 検出領域設定方法および検出領域設定装置 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025120757A1 true WO2025120757A1 (ja) | 2025-06-12 |
Family
ID=95980769
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/043543 Pending WO2025120757A1 (ja) | 2023-12-05 | 2023-12-05 | 検出領域設定方法および検出領域設定装置 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025120757A1 (ja) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013228343A (ja) * | 2012-04-27 | 2013-11-07 | Hokuyo Automatic Co | 物体検出装置、物体検出方法、及び駐車場の管理システム |
| JP2017151570A (ja) * | 2016-02-22 | 2017-08-31 | 株式会社キーエンス | 光学安全システム、安全スキャナ用の設定支援装置及び設定支援プログラム |
| JP2018202531A (ja) * | 2017-06-01 | 2018-12-27 | オムロン株式会社 | 安全制御装置、安全制御装置の制御方法、情報処理プログラム、および記録媒体 |
| WO2022187937A1 (en) * | 2021-03-06 | 2022-09-15 | Mbi Produits De Forage Inc. | System for detecting an entity in the vicinity of a drilling machine, and corresponding method |
| JP2023074350A (ja) * | 2021-11-17 | 2023-05-29 | パナソニックIpマネジメント株式会社 | スキャナ装置及びエリア設定方法 |
-
2023
- 2023-12-05 WO PCT/JP2023/043543 patent/WO2025120757A1/ja active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2013228343A (ja) * | 2012-04-27 | 2013-11-07 | Hokuyo Automatic Co | 物体検出装置、物体検出方法、及び駐車場の管理システム |
| JP2017151570A (ja) * | 2016-02-22 | 2017-08-31 | 株式会社キーエンス | 光学安全システム、安全スキャナ用の設定支援装置及び設定支援プログラム |
| JP2018202531A (ja) * | 2017-06-01 | 2018-12-27 | オムロン株式会社 | 安全制御装置、安全制御装置の制御方法、情報処理プログラム、および記録媒体 |
| WO2022187937A1 (en) * | 2021-03-06 | 2022-09-15 | Mbi Produits De Forage Inc. | System for detecting an entity in the vicinity of a drilling machine, and corresponding method |
| JP2023074350A (ja) * | 2021-11-17 | 2023-05-29 | パナソニックIpマネジメント株式会社 | スキャナ装置及びエリア設定方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7490349B2 (ja) | 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体 | |
| JP4844453B2 (ja) | ロボットの教示装置及び教示方法 | |
| CN110154017B (zh) | 输送机跟踪系统以及校准方法 | |
| JP7153594B2 (ja) | 較正作業支援システム | |
| JP4137862B2 (ja) | 計測装置及びロボット制御装置 | |
| US9651370B2 (en) | Manual measuring system | |
| US11389967B2 (en) | Three-dimensional shape measurement system and three-dimensional shape measurement method | |
| JP5390813B2 (ja) | 空間情報表示装置及び支援装置 | |
| EP3512194B1 (en) | Bird's-eye view image system, bird's-eye view image display method and program | |
| US20160158937A1 (en) | Robot system having augmented reality-compatible display | |
| WO2020006144A1 (en) | Visualization and modification of operational bounding zones using augmented reality | |
| KR20140062174A (ko) | 핸즈 프리 인스펙션을 위한 시스템들 및 방법들 | |
| US11358286B2 (en) | Robot system and method of operating the same | |
| US11618166B2 (en) | Robot operating device, robot, and robot operating method | |
| JP7250489B2 (ja) | 画像処理装置およびその制御方法、プログラム | |
| JP2009269134A (ja) | 視覚検査装置のシミュレーション装置 | |
| JP2009175012A (ja) | 計測装置および計測方法 | |
| KR101096068B1 (ko) | 로봇 비젼 검사를 위한 휴대용 교시 단말기와 이를 이용한 검사로봇 교시 방법 | |
| JP5573537B2 (ja) | ロボットのティーチングシステム | |
| WO2025120757A1 (ja) | 検出領域設定方法および検出領域設定装置 | |
| JP6657858B2 (ja) | ロボット操作システム | |
| JPH05318361A (ja) | 物体操作方式 | |
| JP6368503B2 (ja) | 障害物監視システム及びプログラム | |
| WO2020110780A1 (ja) | 解体システム | |
| JP2006051550A (ja) | 移動体への位置教示装置および位置教示方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23960770 Country of ref document: EP Kind code of ref document: A1 |