KR20170121933A - Method and Apparatus for avoiding collision using depth sensor - Google Patents
Method and Apparatus for avoiding collision using depth sensor Download PDFInfo
- Publication number
- KR20170121933A KR20170121933A KR1020160050829A KR20160050829A KR20170121933A KR 20170121933 A KR20170121933 A KR 20170121933A KR 1020160050829 A KR1020160050829 A KR 1020160050829A KR 20160050829 A KR20160050829 A KR 20160050829A KR 20170121933 A KR20170121933 A KR 20170121933A
- Authority
- KR
- South Korea
- Prior art keywords
- depth
- collision avoidance
- distance
- sensing
- section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
- G08G1/163—Decentralised systems, e.g. inter-vehicle communication involving continuous checking
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L23/00—Control, warning or like safety means along the route or between vehicles or trains
- B61L23/04—Control, warning or like safety means along the route or between vehicles or trains for monitoring the mechanical state of the route
- B61L23/041—Obstacle detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L23/00—Control, warning or like safety means along the route or between vehicles or trains
- B61L23/04—Control, warning or like safety means along the route or between vehicles or trains for monitoring the mechanical state of the route
- B61L23/042—Track changes detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L23/00—Control, warning or like safety means along the route or between vehicles or trains
- B61L23/34—Control, warning or like safety means along the route or between vehicles or trains for indicating the distance between vehicles or trains by the transmission of signals therebetween
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L25/00—Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
- B61L25/02—Indicating or recording positions or identities of vehicles or trains
- B61L25/021—Measuring and recording of train speed
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B61—RAILWAYS
- B61L—GUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
- B61L2201/00—Control methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명의 일 실시예에 따른 깊이 센서를 이용한 충돌 회피 방법은, 충돌 회피 장치에 의해 실행되는 방법으로서, 깊이 기반 영상 정보를 수신하여, 경로를 식별하는 단계와 상기 깊이 기반 영상 정보의 각 영역 별로 깊이 레벨을 결정하는 단계와 상기 결정된 깊이 레벨을 기초로, 상기 식별된 경로 상의 거리 기반 감지 영역을 하나 이상 설정하는 단계와 상기 하나 이상 설정된 거리 기반 감지 영역 마다 상기 객체가 검출되는지 판단하는 단계와 상기 판단 결과, 상기 객체가 검출된 경우, 상기 반송 장치의 운행을 제어하기 위한 제어 신호를 출력하는 단계를 포함할 수 있다.The collision avoiding method using a depth sensor according to an embodiment of the present invention is a method executed by a collision avoiding apparatus, comprising: receiving depth-based image information and identifying a path; Determining a depth level based on the determined depth level; setting at least one distance-based sensing area on the identified path based on the determined depth level; determining whether the object is detected for each of the one or more set distance- And outputting a control signal for controlling the operation of the transport apparatus when the object is detected as a result of the determination.
Description
본 발명은 깊이 센서를 이용한 충돌 회피 방법 및 그 장치에 관한 것이다. 보다 자세하게는, 깊이 센서를 이용하여 전방 장애물을 검출함에 따라, 충돌을 회피할 수 있는 방법 및 그 장치에 관한 것이다.The present invention relates to a collision avoiding method and apparatus using a depth sensor. More particularly, the present invention relates to a method and apparatus for avoiding a collision by detecting a front obstacle using a depth sensor.
반송 장치의 전방 차량, 사람, 사물 등 다른 객체와의 충돌을 방지하기 위하여, 전방 감지 센서가 전면에 부착된 반송 장치가 제공되고 있다. 이러한 전방 감지 센서로 레이저 센서가 널리 이용되고 있다. 레이저 센서가 차량의 이동 경로 상의 전방 차량을 감지하기 위해서는, 전방 차량의 후면에 반사판이 부착되어야 한다. 반면, 충돌 가능성이 없는 다른 경로 상의 차량에 대한 레이저 센서의 오 검출을 방지하기 위해서, 차량의 이동 경로와 다른 경로 사이에 비반사판이 부착되어야 한다.In order to prevent a collision with another object such as a forward vehicle, a person, an object, etc., of the transport apparatus, a transport apparatus having a front sensor attached to the front side is provided. Laser sensors are widely used as front-facing sensors. In order for the laser sensor to detect the preceding vehicle on the moving path of the vehicle, a reflector must be attached to the rear surface of the preceding vehicle. On the other hand, in order to prevent erroneous detection of the laser sensor on a vehicle on another path which is not likely to collide, a non-reflector must be attached between the path of travel of the vehicle and another path.
이에 따라, 반송 장치가 이용되는 작업 환경에서, 감지 대상과 감지 제외 대상을 일일이 구별하여야 하고, 반송 장치 또는 작업 환경에 반사판 또는 비반사판을 부착해야 하는 불편이 발생한다.Accordingly, in the work environment in which the conveying device is used, it is necessary to distinguish between the object to be sensed and the object to be sensed and excluded, and there arises inconvenience to attach the reflector or the non-reflector to the conveying device or the work environment.
또한, 반송 장치가 전방 차량 외의 사람 또는 사물과 충돌하는 것을 방지하기 위해서는, 레이저 센서 외에 별도의 감지 센서가 반송 장치에 구비되어야 한다. 이 경우, 별도의 감지 센서의 구비에 비용이 추가로 소요되고, 각각의 감지 센서 별로 수명 주기에 따라 별도의 관리가 요구된다.In addition, in order to prevent the transport apparatus from colliding with a person or object other than the front vehicle, a separate detection sensor other than the laser sensor must be provided in the transport apparatus. In this case, additional cost is required for the provision of a separate sensing sensor, and separate management is required for each sensing sensor according to the life cycle.
그럼에도, 하나의 감지 센서로 전방 차량, 사람, 사물 등 모든 객체를 감지하고 충돌을 회피할 수 있고, 별도의 반사판 부착이 요구되지 않는 충돌 회피 장치는 제공되지 않고 있다.Nevertheless, there is not provided a collision avoiding apparatus which can detect all objects such as a forward vehicle, a person, an object and avoid collision with a single sensor and does not require the attachment of a separate reflector.
본 발명이 해결하고자 하는 기술적 과제는, 깊이 센서를 이용하여 전방 영상을 분석함에 따라, 객체와 충돌을 회피할 수 있는 방법 및 그 장치를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention provides a method and apparatus for avoiding collision with an object by analyzing a forward image using a depth sensor.
구체적으로 본 발명이 해결하고자 하는 기술적 과제는, 반송 장치로부터의 거리 별로, 깊이 레벨에 따른 감지 영역을 설정할 수 있는 방법 및 그 장치를 제공하는 것이다. Specifically, the present invention provides a method and apparatus for setting a sensing area according to a depth level for each distance from a transfer device.
본 발명이 해결하고자 하는 다른 기술적 과제는, 반송 장치가 운행되는 경로를 분석함에 따라, 충돌 회피 대상을 감지하기 위한 감지 영역을 변경할 수 있는 방법 및 그 장치를 제공하는 것이다.It is another object of the present invention to provide a method and apparatus for changing a sensing area for sensing a collision avoiding object by analyzing a route on which a transportation device is operated.
또한, 본 발명이 해결하고자 하는 또 다른 기술적 과제는 반송 장치가 운행되는 속도에 따라 충돌 회피 대상에 대한 감지 거리를 변경할 수 있는 방법 및 그 장치를 제공하는 것이다.Another object of the present invention is to provide a method and apparatus for changing the detection distance for a collision avoiding object according to the speed at which the transport apparatus is operated.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명의 기술분야에서의 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.The technical objects of the present invention are not limited to the above-mentioned technical problems, and other technical subjects not mentioned can be clearly understood by those skilled in the art from the following description.
상기 기술적 과제를 해결하기 위한 깊이 센서를 이용한 충돌 회피 방법은, 충돌 회피 장치에 의해 실행되는 방법으로서, 깊이 센서를 이용한 충돌 회피 방법은, 충돌 회피 장치에 의해 실행되는 방법으로서, 깊이 기반 영상 정보를 수신하여, 경로를 식별하는 단계와 상기 깊이 기반 영상 정보의 각 영역 별로 깊이 레벨을 결정하는 단계와 상기 결정된 깊이 레벨을 기초로, 상기 식별된 경로 상의 거리 기반 감지 영역을 하나 이상 설정하는 단계와 상기 하나 이상 설정된 거리 기반 감지 영역 마다 상기 객체가 검출되는지 판단하는 단계와 상기 판단 결과, 상기 객체가 검출된 경우, 상기 반송 장치의 운행을 제어하기 위한 제어 신호를 출력하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a collision avoidance method using a depth sensor, the collision avoidance method using a depth sensor, the method being implemented by a collision avoiding apparatus, Based depth information based on the determined depth level; and setting at least one distance-based sensing area on the identified path based on the determined depth level, Determining whether the object is detected for each of the one or more distance-based detection areas; and outputting a control signal for controlling the operation of the transport apparatus when the object is detected as a result of the determination.
또한, 상기 기술적 과제를 해결하기 깊이 센서를 이용한 충돌 회피 방법은, 상기 경로를 식별하는 단계는, 상기 반송 장치의 속도를 측정하는 단계를 포함하고, 상기 식별된 경로 상의 감지 영역을 설정하는 단계는, 상기 측정된 속도를 기초로 상기 감지 영역을 설정하는 단계를 포함한다.According to another aspect of the present invention, there is provided a collision avoiding method using a depth sensor, wherein the step of identifying the path includes a step of measuring a speed of the transporting device, and the step of setting the sensing area on the identified path And setting the sensing area based on the measured speed.
또한, 상기 기술적 과제를 해결하기 위한 깊이 센서를 이용한 충돌 회피 방법은, 상기 경로를 식별하는 단계에서, 상기 수신된 깊이 기반 영상 정보를 기초로, 반송 장치의 운행이 예정된 경로 상의 곡선 구간을 식별하는 단계를 포함하고, 상기 식별된 경로 상의 거리 기반 감지 영역을 하나 이상 설정하는 단계에서, 상기 곡선 구간이 식별됨에 따라, 상기 설정된 감지 영역을 변경하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of avoiding collision using a depth sensor, the method comprising the steps of: identifying a curved section on a path on which a transportation apparatus is scheduled to run, based on the received depth- Based sensing area on the identified path; and modifying the set sensing area as the curved segment is identified, in the step of setting one or more distance-based sensing areas on the identified path.
또한, 상기 식별된 경로 상의 거리 기반 감지 영역을 하나 이상 설정하는 단계는, 본 발명의 다른 실시예에 따르면, 미리 저장된 깊이 레벨 별 감지 영역을 식별하는 단계와 상기 식별된 깊이 레벨 별 감지 영역 중 거리 기반 감지 영역을 하나 이상 설정하는 단계와 상기 하나 이상 설정된 거리 기반 감지 영역 마다 상기 객체가 검출되는지 판단하는 단계와 상기 판단 결과, 상기 객체가 검출된 경우, 상기 반송 장치의 운행을 제어하기 위한 제어 신호를 출력하는 단계를 포함할 수 있다.According to another embodiment of the present invention, the step of setting one or more distance-based sensing regions on the identified path may include the steps of: identifying a sensing region for each depth level that is stored in advance; Based detection area, and determining whether the object is detected for each of the at least one set of distance-based detection areas; and when the object is detected as a result of the determination, And outputting the output signal.
본 발명에 따르면, 깊이 센서를 이용하여 객체와 충돌을 회피할 수 있는 방법이 제공되므로, UGB 센서와 같은 레이저 센서를 사용하지 않을 수 있다. 따라서, 본 발명에 따르면, 반사판 부착, 비반사판의 대상을 선정 및 부착 작업이 요구되지 않는다.According to the present invention, there is provided a method of avoiding collision with an object using a depth sensor, so that a laser sensor such as a UGB sensor can be avoided. Therefore, according to the present invention, it is not required to select and attach an object to or from a reflector.
또한, 본 발명에 따르면, 반송 장치의 운행 경로에 따라 충돌 회피 대상을 감지하기 위한 감지 영역을 변경할 수 있으므로, 충돌 회피 대상의 감지 정확성을 높일 수 있는 장점이 있다.Further, according to the present invention, it is possible to change the sensing area for detecting the collision avoiding object according to the traveling route of the transporting device, thereby improving the detection accuracy of the collision avoiding object.
또한, 본 발명에 따르면, 충돌 회피 대상에 대한 감지 거리를 변경함에 따라 충돌 회피 대상의 감지를 위한 연산량이 최적화되는 장점이 있다.In addition, according to the present invention, there is an advantage that the calculation amount for detecting the collision avoiding object is optimized by changing the sensing distance to the collision avoiding object.
도 1은 본 발명의 일 실시예에 따른 반송 장치, 충돌 회피 장치 및 깊이 기반 영상 정보를 설명하기 위한 예시도이다.
도 2는 본 발명의 다른 실시예에 따른 충돌 회피 장치의 블록도이다.
도 3은 본 발명의 또 다른 실시예에 따른 깊이 센서를 이용한 충돌 회피 방법의 순서도이다.
도 4는 본 발명의 몇몇 실시예에서 참조되는 충돌 회피 대상과의 거리에 따른 깊이 레벨 변화를 설명하기 위한 예시도이다.
도 5는 본 발명의 몇몇 실시예에서 참조되는 충돌 회피 대상과의 거리, 깊이 레벨과 감지 영역과의 관계를 설명하기 위한 예시도이다.
도 6은 본 발명의 몇몇 실시예에서 참조되는 전방 감지 영역 상의 경로가 곡선 또는 직선 경로임을 식별하는 방법을 설명하기 위한 예시도이다.
도 7은 본 발명의 몇몇 실시예에서 참조되는 충돌 회피 대상을 감지하기 위해 설정된 복수의 감지 영역을 설명하기 위한 예시도이다.
도 8은 본 발명의 몇몇 실시예에서 참조되는 반송 장치의 운행 방향에 따라 감지 영역이 변경되는 경우를 설명하기 위한 예시도이다.
도 9는 본 발명의 몇몇 실시예에서 참조되는 반송 장치의 운행 속도에 따라 감지 영역이 변경되는 경우를 설명하기 위한 예시도이다.
도 10은 본 발명의 몇몇 실시예에서 참조되는 반송 장치의 운행 방향 및 속도에 따라 감지 영역이 변경되는 경우를 설명하기 위한 예시도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an exemplary view for explaining a transport apparatus, a collision avoiding apparatus, and depth-based image information according to an embodiment of the present invention; FIG.
2 is a block diagram of a collision avoidance apparatus according to another embodiment of the present invention.
3 is a flowchart of a collision avoidance method using a depth sensor according to another embodiment of the present invention.
4 is an exemplary view for explaining the depth level change according to the distance to the collision avoiding object referred to in some embodiments of the present invention.
5 is an exemplary diagram for explaining the relationship between the distance to the collision avoidance object, the depth level, and the sensing area, which is referred to in some embodiments of the present invention.
FIG. 6 is an exemplary view for explaining a method of identifying a path on a front sensing area referred to in some embodiments of the present invention as a curved or straight path. FIG.
FIG. 7 is an exemplary view for explaining a plurality of sensing areas set for sensing a collision avoiding object referred to in some embodiments of the present invention. FIG.
8 is an exemplary view for explaining a case in which the sensing area is changed according to the traveling direction of the transport apparatus, which is referred to in some embodiments of the present invention.
FIG. 9 is an exemplary view for explaining a case where a sensing area is changed according to a traveling speed of a transporting device, which is referred to in some embodiments of the present invention.
10 is an exemplary view for explaining a case where a sensing area is changed according to a traveling direction and a speed of a transporting device, which is referred to in some embodiments of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise. The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.
도 1은 본 발명의 일 실시예에 따른 반송 장치, 충돌 회피 장치 및 깊이 기반 영상 정보를 설명하기 위한 예시도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is an exemplary view for explaining a transport apparatus, a collision avoiding apparatus, and depth-based image information according to an embodiment of the present invention; FIG.
도 1을 참조하면, 반송 장치(10)는 트랙(20)과 같이 정해진 경로를 이동하며, 자재를 이송하는 장치일 수 있다. 예를 들어, 반송 장치(10) OHT(Overhead Hoist Transport), AGV(Automated Guided Vehicle)일 수 있다. 트랙(20)은 예를 들어, 레일일 수 있다. 도 1에서 트랙(20)이 반송 장치(10)의 바닥 면에 배치되는 형태가 도시되었으나, 이는 예시일 뿐이며, 반송 장치(10)의 건물의 천장 면에 배치되어 반송 장치(10)가 운행될 수도 있다. 또한, 반송 장치(10)는 철도와 같은 교통 수단을 포함할 수도 있다.Referring to Fig. 1, the
반송 장치(10)는 충돌 회피 장치(100)와 유선 또는 무선 통신을 수행하기 위한 통신 모듈을 구비할 수 있다.The
충돌 회피 장치(100)는 반송 장치(10)의 전방 영상을 입력 받고, 영상 분석을 수행하며, 이에 따라 반송 장치(10)의 운행을 제어할 수 있는 컴퓨팅 장치이다. 본 발명의 일 실시예에 따르면, 충돌 회피 장치(100)는 반송 장치(10)와 유선 또는 무선 통신을 수행하기 위한 통신 모듈을 구비할 수 있다. 또는, 본 발명의 다른 실시예에 따르면, 충돌 회피 장치(100)는 반송 장치(10)의 일부 구성 요소로서 반송 장치(10)와 통합된 형태로 구성될 수도 있다.The
충돌 회피 장치(100)는 반송 장치(10)의 전면에 부착될 수 있다. 또는 충돌 회피 장치(100)는 일부 구성 요소는 반송 장치(10)의 내부에 구비되고, 전방 영상 수집을 위한 나머지 구성 요소만 반송 장치(10)의 외면에 위치할 수도 있다.The
충돌 회피 장치(100)는 반송 장치(10)의 전방에 위치하는 객체를 검출하기 위하여, 반송 장치(10)로부터 소정의 거리 별 감지 영역(30, 40, 50)을 설정하고, 각 감지 영역 상에서 충돌 위험이 있는 객체가 검출되는지 판단할 수 있다. 도 1에서 근거리, 중거리, 원거리에 3개의 감지 영역(30, 40, 50)이 설정된 경우가 예로써 도시되었다. 감지 영역(30, 40, 50)의 개수, 각 감지 영역(30, 40, 50) 사이의 거리는 충돌 회피 장치(100)의 사용자 또는 제조자의 설정에 따라 결정될 수 있다. 또는, 반송 장치(10)의 운행 방향, 속도에 따라 충돌 회피 장치(100)에 의해 감지 영역(30, 40, 50)의 개수, 거리가 결정될 수도 있다.The
영상(55)는 충돌 회피 장치(100)에 의해 촬영된, 반송 장치(10)의 전방 영상이다. 도 1에서, 영상(55)이 적외선(IR, Infrared Ray) 기반 깊이(Depth) 센서를 통해 입력된 전방 영상이 예로써 도시되었다. 영상(55)에 따르면, 반송 장치(10)의 전방에 위치한 객체의 질감이나 색상 정보 대신, 거리에 따른 깊이 값으로 객체가 구별될 수 있다. 본 발명의 실시예에 따른 충돌 회피 장치(100)는 반송 장치(10)의 전방 영상 수집을 위하여 다양한 센서를 하나 이상 구비할 수 있으나, 이하, 적외선 기반 깊이 센서를 이용하여 객체를 검출하는 경우를 주로 설명하도록 한다.The
이하, 도 2를 참조하여, 충돌 회피 장치(100)의 구성 및 동작에 대하여 구체적으로 설명한다. 도 2는 본 발명의 다른 실시예에 따른 충돌 회피 장치의 블록도이다.Hereinafter, the configuration and operation of the
도 2를 참조하면, 충돌 회피 장치(100)는 영상 수집부(110), 입력부(120), 제어 신호 출력부(130), 저장부(140) 및 제어부(150)를 포함하여 구성될 수 있다.2, the
영상 수집부(110)는 정지영상 또는 동영상 등의 화상 프레임을 처리할 수 있다. 특히, 영상 수집부(110)는 반송 장치(10)의 전면에 배치되어, 반송 장치(10)의 전방 영상을 입력 받는다.The
영상 수집부(110)는 반송 장치(10) 전방의 영상을 수집하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 영상 수집부(110)는 적외선 기반 깊이 센서를 구비할 수 있다. 영상 수집부(110)는 수집된 영상을 데이터 신호로 변환하여 제어부(150)에 제공할 수 있다.The
입력부(120)는 충돌 회피 장치(100)의 사용자로부터 각종 설정을 입력 받는다. 입력부(120)는 이를 위해, 버튼, 터치 패드 또는 터치 스크린을 포함하여 구성될 수 있다. 입력부(120)가 터치 스크린으로 구성된 경우, 입력부(120)는 반송 장치(10)의 운행 정보 및/또는 각종 상태 정보를 디스플레이할 수도 있다.The
제어 신호 출력부(130)는 반송 장치(100)에 반송 장치(100)의 운행을 제어하는 제어 신호를 출력한다. 즉, 제어 신호 출력부(130)는 반송 장치(100)의 가속, 감속, 정거 등을 명령하는 제어 신호를 반송 장치(100)에 제공할 수 있다. 이를 위해, 제어 신호 출력부(130)는 반송 장치(10)와 유선 또는 무선 통신을 수행하기 위한 통신 모듈을 구비할 수 있다. 특히, 본 발명의 실시예들에 따르면, 상기 통신 모듈은 근거리 통신 모듈을 포함할 수 있다. 상기 근거리 통신 모듈은 예를 들어, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct 기술 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 통신모듈은 제어 신호 출력부(130)와 별도 구성으로 충돌 회피 장치(100)에 구비될 수도 있다.The control
저장부(140)는 각종 데이터, 명령 및/또는 정보를 저장한다. 저장부(140)는, 본 발명의 실시예들에 따른 충돌 회피 장치(100)의 충돌 회피 방법을 제공하기 위한 하나 이상의 프로그램을 저장할 수 있다. 특히, 저장부(140)는 영상 수집부(110)를 통해 입력된 전방 영상이나, 제어부(150)를 통해 연산된, 거리 별 깊이 레벨, 깊이 레벨에 매칭되는 감지 영역에 대한 정보를 저장할 수 있다.The
저장부(140)는 외부 장치로부터 전달되거나, 사용자에 의해 입력된 데이터, 또는 제어부(150)의 연산 결과를 임시적으로 또는 비임시적으로 저장할 수 있다. 저장부(140)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The
제어부(150)는 충돌 회피 장치(100)의 각 구성의 전반적인 동작을 제어한다. 제어부(150)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), 또는 본 발명의 기술 분야에 잘 알려진 임의의 형태의 프로세서를 포함하여 구성될 수 있다. 또한, 제어부(150)는 본 발명의 실시예들에 따른 방법을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 특히, 제어부(150)는 반송 장치(10)의 운행을 제어하기 위한 제어 신호를 생성할 수 있다. 제어부(150)의 제어에 의한 충돌 회피 장치(100)의 구체적인 동작은 도 3 내지 도 10을 참조하여 후술하도록 한다.The
이하, 상술한 도 1 내지 도 2에 대한 설명을 바탕으로, 본 발명의 실시예들을 구체적으로 설명하도록 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the above description of Figs.
도 3은 본 발명의 또 다른 실시예에 따른 깊이 센서를 이용한 충돌 회피 방법의 순서도이다.3 is a flowchart of a collision avoidance method using a depth sensor according to another embodiment of the present invention.
도 3을 참조하면, 충돌 회피 장치(100)는 깊이 기반 영상 정보를 수신하여, 경로를 식별할 수 있다(S10). 여기에서 경로란, 반송 장치(10)의 운행이 예정된 경로일 수 있다. 즉, 반송장치(10)가 운행되는 트랙, 또는 반송 장치(10)가 접하는 레일과 같이 방향성을 가지는 경로일 수 있다.Referring to FIG. 3, the
다음으로, 충돌 회피 장치(100)는 수신된 깊이 기반 영상 정보의 각 영역 별로 깊이 레벨을 결정할 수 있다. 이를 위해 충돌 회피 장치(100)는 수신된 깊이 기반 영상 정보를 기초로, 영상 수집부(110)를 통해 입력된 영상의 각 영역 별로 거리에 따른 깊이를 수치화할 수 있다.Next, the
충돌 회피 장치(100)는 식별된 경로 상의 거리 기반 감지 영역을 설정할 수 있다(S20). 여기에서 감지 영역은 도 1의 영상(55)과 같이 수신된 깊이 기반 영상 정보 중, 일부 영역일 수 있다. 거리 기반 감지 영역은 충돌 회피 장치(100)가 반송 장치(10)의 전방에 위치하는 객체와 충돌을 회피하기 위하여, 객체에 대한 검출을 시도하는 영역을 의미한다. 즉, 충돌 회피 장치(100)는 거리 기반 감지 영역 상에 객체가 검출되는지 판단할 수 있다. 이때, 객체가 검출되는 경우, 충돌 회피 장치(100)는 충돌 위험 여부를 판단할 수 있다.The
다음으로, 충돌 회피 장치(100)는 객체 검출 여부 또는 충돌 위험 여부 판단 결과에 응답하여, 반송 장치(10)를 제어하기 위한 제어 신호를 출력할 수 있다.Next, the
영상 수집부(110)는 상기 경로가 곡선 구간을 가지는 경우를 고려하여, 넓은 화각으로 전방 영상을 수집하므로, 충돌 회피 장치(100)에 수집된 영상(55)과 같이 영상 전체가 입력된다. 상기 감지 영역이 설정되면, 충돌 회피 장치(100)는 감지 영역 밖의 객체는 검출하지 않음으로써 연산량을 줄일 수 있다.The
충돌 회피 장치(100)가 감지 영역을 설정하는 구체적인 방법에 대하여는 도 4 내지 10에 대한 설명에서 후술하도록 한다.A specific method of setting the sensing area by the
충돌 회피 장치(100)는 수신된 깊이 기반 영상 정보를 기초로, 반송 장치(10)의 운행이 예정된 경로 상에 곡선 구간이 식별되는지 판단할 수 있다(S30). 충돌 회피 장치(100)는 또한, 반송 장치(10)의 운행이 예정된 경로 상에 직선 구간이 식별되는지 판단할 수도 있다. 충돌 회피 장치(100)는 반송 장치(10)의 운행 중에, 수신된 깊이 기반 영상 정보를 참조하여, 경로 상의 곡선 구간을 식별할 수 있다. 또는, 충돌 회피 장치(100)는 반송 장치(10)가 정지 상태일 때 수신된 깊이 기반 영상 정보를 기초로 상기 경로 상의 곡선 구간을 식별할 수도 있다.Based on the received depth-based image information, the
상기 판단 결과, 반송 장치(10)의 운행이 예정된 경로 상에 곡선 구간이 식별되면, 충돌 회피 장치(100)는 단계(S20)에서 설정된 감지 영역을 상기 식별된 곡선 구간을 기초로 변경할 수 있다(S40).As a result of the determination, if the curved section is identified on the route on which the
충돌 회피 장치(100)는 곡선 구간이 식별되지 않거나, 즉, 반송 장치(10)의 운행이 예정된 경로가 직선 구간인 경우, 단계(S20)에서 설정된 감지 영역 상에서 객체가 검출되는지 판단할 수 있다(S50). 또는 곡선 구간이 식별된 경우라도, 충돌 회피 장치(100)는 단계(S40)에서 변경된 감지 영역 상에서 객체가 검출되는지 판단할 수 있다(S50).The
상기 판단 결과, 객체가 검출되면, 충돌 회피 장치(100)는 반송 장치(10)의 운행을 제어하기 위한 제어 신호를 생성할 수 있다. 제어 신호는 예를 들어, 반송 장치(10)의 가속, 감속, 정지, 출발 등의 운행을 제어하기 위한 명령을 포함할 수 있다. 생성된 제어 신호는 반송 장치(10)로 출력될 수 있다(S60). 즉, 생성된 제어 신호는 반송 장치(10)로 전달되어 반송 장치(10)의 운행이 제어된다.As a result of the determination, if the object is detected, the
이하, 도 4 내지 도 10을 참조하여, 도 3에 대한 설명에서 참조된 각 단계에 대하여 자세히 설명하도록 한다.Hereinafter, each step referenced in the description of FIG. 3 will be described in detail with reference to FIGS. 4 to 10. FIG.
도 4는 본 발명의 몇몇 실시예에서 참조되는 충돌 회피 대상과의 거리에 따른 깊이 레벨 변화를 설명하기 위한 예시도이다.4 is an exemplary view for explaining the depth level change according to the distance to the collision avoiding object referred to in some embodiments of the present invention.
도 4는, 영상(401) 및 영상(402)는 영상 수집부(110)를 통해 입력된 영상의 예시이다. 영상(401, 402)는 각 영역별로 다른 명도로 표현된다. 즉, 전방 영상의 각 영역, 객체 별로 반송 장치(10)로부터의 거리에 따른 깊이 차이가 존재하며, 이러한 차이는 서로 다른 명도로 표현된다. 이때, 서로 다른 명도는 각각 서로 다른 데이터 값으로 치환될 수 있다. 이때, 데이터 값을 깊이 레벨로 칭할 수 있다.4, the
깊이 레벨 범위가 0~255단계로 8bit 범위로 표현된다고 가정하자. 이때, 반송 장치(10)로부터 가까이 있을 수록 구조물이나 객체는 0에 가까운 값으로 치환되고, 멀리 있을 수록 구조물이나 객체는 255에 가까운 값으로 치환될 수 있다. 이때 감지가 되지 않는 지나치게 가까운 거리나 먼 거리는 0 혹은 255값으로 표현될 수 있다. 또한, 이와 같이 치환된 깊이 레벨을 기초로 충돌 회피 장치(100)는 객체를 검출 가능한 거리를 설정할 수 있다.Assume that the depth level range is expressed in an 8-bit range from 0 to 255 steps. At this time, the closer to the
한편, 같은 평면에 속하는 영역이라도 영상 수집 환경 또는 객체의 특성에 따라 깊이 레벨은 차이가 있을 수 있다. 또한 하나의 영역에 속하는 영상의 픽셀들도 서로 다른 깊이 레벨을 가질 수 있다. 따라서, 깊이 레벨은 동일 평면 상에 위치하는 객체, 구조물, 공간을 식별하기 위하여 일정한 범위를 가질 수 있다. 상기 깊이 레벨의 범위 및 감지 가능 거리는 영상 수집부(110)에 구비된 적외선 기반 깊이 센서의 종류나 성능에 따라 달라질 수 있다.On the other hand, the depth level may vary depending on the characteristics of the image collection environment or the object even in the area belonging to the same plane. Also, pixels of an image belonging to one area can have different depth levels. Thus, the depth level can have a certain range to identify objects, structures, and spaces that lie on the same plane. The range of the depth level and the detectable distance may vary depending on the type and performance of the infrared-based depth sensor provided in the
영상(401) 및 영상(402)를 참조하면, 영상(401, 402)는 각 영역의 영상이 공통되나, 객체(411) 및 객체(412)의 깊이 차이가 존재한다. 즉, 객체(411)는 객체(412)보다 어두운 편으로 표시되었다. 이는, 객체(411)가 객체(412) 보다 반송 장치(10)로부터 가까운 거리에 있음을 나타낸다. 따라서, 이 경우, 객체(411)의 깊이 레벨은 객체(412)의 깊이 레벨 대비 상대적으로 낮은 값을 갖는다. 객체(411)가 위치하는 평면 상의 구조물, 영역 등의 깊이 레벨은 객체(411)의 깊이 레벨과 유사한 값을 가지며, 소정의 범위를 갖는다. 객체(412)가 위치하는 평면 상의 구조물, 영역 등의 깊이 레벨 또한 객체(412)의 깊이 레벨과 유사한 값을 가지며, 소정의 범위를 갖는다.Referring to the
충돌 회피 장치(100)는 각각의 깊이 레벨 또는 깊이 레벨의 범위가 획득된 때의 반송 장치(10)와 객체와의 거리 정보를 입력부(120)를 통해 입력 받을 수 있다. 이에 따라 입력된 거리 정보 별로 상기 각각의 깊이 레벨 또는 깊이 레벨의 범위가 매칭되어 저장부(140)에 저장될 수 있다.The
충돌 회피 장치(100)는 결정된 깊이 레벨을 기초로, 상기 식별된 경로 상의 거리 기반 감지 영역을 하나 이상 설정할 수 있다. 즉, 충돌 회피 장치(100)는 객체 검출을 위한 감지 영역을 복수 개 설정할 수도 있다.The
도 5는 본 발명의 몇몇 실시예에서 참조되는 충돌 회피 대상과의 거리, 깊이 레벨과 감지 영역과의 관계를 설명하기 위한 예시도이다.5 is an exemplary diagram for explaining the relationship between the distance to the collision avoidance object, the depth level, and the sensing area, which is referred to in some embodiments of the present invention.
충돌 회피 장치(100)는 상술한 거리 기반 감지 영역이 설정되면, 매칭되어 저장된, 거리 정보 별 각각의 깊이 레벨 또는 깊이 레벨의 범위에 대한 정보에 상기 설정된 감지 영역에 대한 정보를 매칭하여 저장할 수 있다.When the distance-based sensing area is set, the
도 5에서, 거리 정보, 길이 레벨 및 감지 영역(ROI)가 매칭되어 저장된 테이블이 예로써 도시되었다. 도 5를 참조하면, 거리가 가까울수록, 깊이 레벨의 범위가 낮으며, 충돌 회피 장치(100)가 식별해야 되는 영역이 넓다. 즉, 반송 장치(10)로부터 객체가 가까운 경우, 획득되는 영상은 명도가 낮다. 따라서, 깊이 레벨 역시 낮은 값을 가지고, 감지 영역은 상대적으로 넓을 수밖에 없다.In Fig. 5, a table in which the distance information, the length level, and the detection area (ROI) are matched and stored is shown as an example. Referring to FIG. 5, the closer the distance is, the lower the depth level range, and the range in which the
상기 테이블은 충돌 회피 장치(100)에 미리 저장될 수 있다.The table may be stored in the
충돌 회피 장치(100)는 미리 저장된 깊이 레벨 별 감지 영역을 식별할 수 있다.The
또한, 충돌 회피 장치(100)는 식별된 깊이 레벨 별 감지 영역 중 거리 기반 감지 영역을 하나 이상 설정할 수 있다. 충돌 회피 장치(100)는 거리 기반 감지 영역 마다 상기 객체가 검출되는지 판단할 수 있다. 예를 들어, 도 1의 감지 영역(30, 40, 50)과 같이 3개의 거리 기반 감지 영역이 설정된 경우, 3개의 각 영역 마다 객체가 검출되는지 충돌 회피 장치(100)가 판단할 수 있다. 이때, 충돌 회피 장치(100)는 설정된 거리 기반 감지 영역은 각각 도 5의 테이블과 같이 깊이 레벨이 매칭되어 있을 수 있다.In addition, the
이때, 충돌 회피 장치(100)가 거리 기반 감지 영역 중에서, 상기 매칭된 깊이 레벨을 나타내는 영역을 감지할 수 있다. 예를 들어, 도 5의 테이블을 참조하여, 거리 기반 감지 영역A에 매칭된 깊이 레벨이 18~34 범위를 갖는 경우를 가정한다. 특히, 거리 기반 감지 영역A는 도 1의 감지 영역(30)이라고 가정한다. 이때, 감지 영역(30)은 후술할 도 7의 근거리 기반 감지 영역일 수 있다. At this time, the
충돌 회피 장치(100)는 감지 영역(30) 상에서, 상기 감지 영역(30)에 매칭된 깊이 레벨 18~34에 속하는 깊이 레벨을 갖는 일부 영역을 감지할 수 있다.The
이때, 상기 일부 영역이, 후술한 도 7의 거리 기반 감지 영역A의 일부 영역인 영역a1이라고 가정한다.Here, it is assumed that the partial area is the area a1, which is a partial area of the distance-based sensing area A of FIG. 7 described later.
상기 깊이 레벨 18~34 범위에 속하는 깊이 레벨을 갖는 영역a1이 감지되면, 충돌 회피 장치(100)는 객체가 검출된 것으로 판단할 수 있다.When the area a1 having a depth level belonging to the
객체가 검출된 것으로 판단되면, 충돌 회피 장치(100)는 반송 장치(10)의 운행을 제어하기 위한 제어 신호를 출력할 수 있다.If it is determined that the object has been detected, the
상기 예에서, 충돌 회피 장치(100)는 영역a1이 감지되고, 영역a1이 이동되는 것을 감지할 수도 있다. 즉, 충돌 회피 장치(100)는 영역a1과 같은 깊이 레벨 25의 객체가 거리 기반 감지 영역A 상의 오른쪽 영역에서 왼쪽 영역으로 이동하는 것을 감지할 수 있다.In the above example, the
도 4의, 영상(401, 402)은 직진 방향으로 객체가 (411)에서 객체(412)로 멀어지는 경우이므로, 객체의 명도가 어두웠다가 밝아지며, 깊이 레벨이 낮은 값에서 높은 값으로 변경되었다.Since the
반면, 객체의 좌우 이동의 경우, 객체가 동일한 평면 상에서 이동되므로, 깊이 레벨이 동일하게 유지될 수 있다. 따라서, 충돌 회피 장치(100)는 수신된 영상의 제1 영역 픽셀에서의 깊이 레벨로, 제2 영역 픽셀 위치의 깊이 레벨이 연속적으로 변경되는 것이 감지되면, 객체가 이동하는 것으로 판단할 수 있다.On the other hand, in the case of moving the object left and right, the objects can be moved on the same plane, so that the depth level can be kept the same. Accordingly, the
충돌 회피 장치(100)는 상기 객체의 이동 상태를 결정할 수도 있다. 예를 들어, 충돌 회피 장치(100)는 객체의 이동 속도, 방향을 결정할 수 있다. 또한, 충돌 회피 장치(100)는 결정된 상기 객체의 이동 상태를 기초로 반송 장치(10)의 운행을 제어하기 위한 제어 신호를 출력할 수도 있다.The
예를 들어, 충돌 회피 장치(100)는 객체가 이동 속도를 감지하여, 반송 장치(10)가 객체의 거리에 도 달하기 전에 전방에서 이탈되는 것을 판단할 수 있다. 이를 위해, 충돌 회피 장치(100)는 깊이 레벨에 매칭되어 저장된 거리 정보를 이용할 수 있다. 또는, 충돌 회피 장치(100)는 객체가 낮은 속도로 이동하거나, 정치해 있는 것을 판단할 수 있다. 이 경우, 제어 신호는 반송 장치(10)를 감속 시키거나, 정지 시키는 제어 명령을 포함할 수 있다.For example, the
한편, 충돌 회피 장치(100)는 깊이 레벨 별로 설정한 감지 영역 내에서 해당 깊이 레벨이 아래 조건과 같이 일정 부분 이상 검출되면 반송 장치(10)와 충돌할 수 있는 범위 내에 객체가 위치한다고 판단할 수 있다. On the other hand, the
식1) if Rd * td < Sd Equation 1) if R d * t d <S d
아래 첨자 d는 도 5의 테이블의 거리 단계 수,The subscript d is the number of distance steps in the table of Figure 5,
Rd는 d번째 감지 영역의 폭과 높이를 곱한 면적,R d is the area multiplied by the width and height of the d-th sensing area,
td는 d번째 감지 영역의 면적 점유를 판단하기 위한 임계 계수,t d is a threshold coefficient for determining the area occupation of the d-th sensing area,
Sd는 d번째 감지 영역의 깊이 레벨에 매칭되는 픽셀의 합으로 아래와 같은 조건을 만족하는 경우에 해당된다.And S d is the sum of pixels matched to the depth level of the d-th sensing area, which corresponds to the following condition.
식2) Sd Equation 2) S d
(모든 Iimage (i, j) | I''d -min < I'image (i, j) ^ I'image (i, j) < I''d -max)(All I image (i, j) | I '' d -min <I 'image (i, j) ^ I' image (i, j) <I '' d -max)
i는 0부터 d번??의 감지 영역의 폭,i is the width of the sensing area from 0 to d,
j는 0부터 d번??의 감지 영역의 높이,j is the height of the sensing area from 0 to d,
I'image는 식2)의 아래 조건을 만족하는, 즉 해당 감지 영역의 깊이 레벨의 범위에 해당되는 (i, j)번째 위치의 깊이 레벨이다. I ' image is the depth level of the (i, j) th position that satisfies the following condition of Eq. 2), that is, the range of the depth level of the sensing area.
충돌 방지 장치(100)는 0번째부터 d번째 감지 영역까지의 객체 검출 여부를 판단할 수 있다.The
도 6은 본 발명의 몇몇 실시예에서 참조되는 반송 장치(10)의 경로를 식별하는 방법을 설명하기 위한 예시도이다. 특히, 도 6을 참조하여, 반송 장치(10)의 전방 감지 영역 상의 경로가 곡선 또는 직선 경로임을 식별하는 방법을 설명하도록 한다. 또한, 상기 경로가 곡선 경로인 경우, 곡선의 곡률을 판단하는 방법에 대하여도 설명한다.6 is an exemplary diagram illustrating a method of identifying a path of the
도 6을 참조하면, 단계(S10)에서, 충돌 회피 장치(100)는 수신된 깊이 기반 영상 정보 상에서 반송 장치(10)의 운행을 가이드하는 트랙을 식별할 수 있다. Referring to FIG. 6, in step S10, the
영상(601)을 참조하면, 트랙이 시작되는 제1 시작점 B, 제2 시작점 C 및 트랙의 소실점 A가 도시되었다. 충돌 회피 장치(100)는 상기 B, A를 잇는 제1 방향 벡터, 상기 C, A를 잇는 제2 방향 벡터를 생성할 수 있다. 이때 제1 방향 벡터BA의 길이 값과 제2 방향 벡터CA의 길이 값이 동일한 경우, 충돌 회피 장치(100)는 식별된 트랙의 경로가 직선 구간임을 식별할 수 있다.Referring to the
또한, 영상(602)를 참조하면, 단계(S30)에서, 영상(601)에 대한 설명과 마찬가지로, 제1 방향 벡터BA와 제2 방향 벡터CA가 생성된 경우, 제1 방향 벡터BA의 길이 값과 제2 방향 벡터CA의 길이 값이 다른 경우, 충돌 회피 장치(100)는 식별된 트랙의 경로가 곡선 구간임을 식별할 수 있다.Referring to the
이때, 충돌 회피 장치(100)는 제1 방향 벡터BA의 길이 값과 제2 방향 벡터CA의 길이 값을 기초로, 곡선 구간의 곡률을 판단할 수도 있다. 예를 들어, 제1 방향 벡터BA의 길이 값이 제2 방향 벡터CA의 길이 값보다 클수록 경우, 경로의 곡선 구간의 곡률이 커진다.At this time, the
본 발명의 다른 실시예에 따라,영상(602)를 참조하면,충돌 회피 장치(100)는 제1 시작점 B 및 제2 시작점 C를 잇는 수평 방향의 벡터BC를 생성할 수도 있다. 이 경우, 충돌 회피 장치(100)는 벡터BC와 벡터CA 사이의 각도(이를 제1 내각이라 한다) 및 벡터BC와 벡터BA 사이의 각도(이를 제2 내각이라 한다)를 측정하여, 상기 식별된 트랙의 경로가 곡선 구간임을 식별할 수 있다.According to another embodiment of the present invention, referring to the
즉, 충돌 회피 장치(100)는, 상기 제1 내각 및 제2 내각을 비교하여, 양 각도가 동일한 경우, 상기 식별된 트랙의 경로를 직선 구간으로 식별하고, 양 각도가 다른 경우, 곡선 구간으로 식별할 수 있다. 또한, 충돌 회피 장치(100)는 상기 양 각도가 다른 경우, 상기 양 각도의 차이를 연산하여, 상기 곡선 구간의 곡률을 판단할 수도 있다. 양 각도의 차이가 클수록, 경로의 곡선 구간의 곡률은 커진다. That is, the
도 7은 본 발명의 몇몇 실시예에서 참조되는 전방 감지 영역을 설명하기 위한 예시도이다. 도 7의 전방 감지 영역은 충돌 회피 대상을 감지하기 위해 설정된 복수의 감지 영역을 포함할 수 있다.7 is an exemplary view for explaining a front sensing area referred to in some embodiments of the present invention. The front sensing area of FIG. 7 may include a plurality of sensing areas set for sensing a collision avoiding object.
앞서, 충돌 회피 장치(100)가 거리 기반 감지 영역을 하나 이상 설정할 수 있음을 설명하였다. 도 7을 참조하면, 충돌 회피 장치(100)는 하나 이상 설정된 거리 기반 감지 영역 마다 객체가 검출되는지 판단할 수 있으며, 상기 판단 결과, 상기 객체가 검출된 경우, 상기 반송 장치의 운행을 제어하기 위한 제어 신호를 출력할 수도 있다.It has been described above that the
즉, 도 7에서 충돌 회피 장치(100)는 거리 기반 감지 영역(700)을 거리 별로 3개 설정할 수 있다. 도 7을 참조하면, 상기 3개의 설정된 거리 기반 감지 영역은 근거리 기반의 감지 영역, 중거리 기반의 감지 영역 및 원거리 기반의 감지 영역을 포함할 수 있다. 특히, 도 7에서 근거리 기반의 감지 영역이 영역A인 경우가 예로써 도시되었다.That is, in FIG. 7, the
이때, 거리 기반 감지 영역(700)은 전방 영상(701) 상의 영역이다. 반송 장치(10)는 직진으로 운행되며, 충돌 회피 장치(100)는 설정된 근거리, 중거리, 원거리 기반의 감지 영역 각각에서 객체가 검출되는지 판단할 수 있다.At this time, the distance-based
예를 들어, 충돌 회피 장치(100)는 근거리 기반의 감지 영역인 영역A 상의 일부 영역인 영역a1에서 객체를 검출할 수 있다.For example, the
도 8은 본 발명의 몇몇 실시예에서 참조되는 반송 장치(10)의 운행 방향에 따라 감지 영역이 변경되는 경우를 설명하기 위한 예시도이다.8 is an exemplary diagram for explaining a case where the sensing area is changed according to the traveling direction of the
도 6의 영상(602)에 대한 설명에서와 같이 경로의 곡선 구간의 곡률이 판단된 경우, 충돌 회피 장치(100)는 판단된 곡선 구간의 곡률을 기초로, 감지 영역의 위치를 변경할 수 있다.When the curvature of the curved section of the path is determined as described in the description of the
도 8을 참조하면, 영상(801)에서 도 7의 감지 영역(700) 대비 감지 영역이(811, 821, 831)과 같이 변경된다. 즉, 도 7의 감지 영역(700)은 거리 별로 3개의 감지 영역이 소실점을 기준으로 정렬되나, 영상(801)의 감지 영역(811, 821, 831)은 곡선 구간을 따라 배열된다. 이때, 충돌 회피 장치(100)는 곡선 구간의 곡률에 따라 영역(811), 영역(821), 영역(831) 사이의 위치가 결정할 수도 있다.Referring to FIG. 8, the sensing area of the
즉, 영상(802)를 참조하면, 영상(801) 대비 영상(802)는 반송 장치(10)가 곡률이 더 큰 곡선 구간의 경로의 운행이 예정된 경우이다. 이때, 영역(812), 영역(822), 영열(832)는 영상(801)의 영역(811), 영역(821), 영역(831) 대비 각각 곡선의 중심 방향으로 더욱 이동되었다.That is, referring to the
도 9는 본 발명의 몇몇 실시예에서 참조되는 반송 장치(10)의 운행 속도에 따라 감지 영역이 변경되는 경우를 설명하기 위한 예시도이다.9 is an exemplary diagram for explaining a case where the sensing area is changed according to the traveling speed of the
단계(S10)에서, 충돌 회피 장치(100)는 반송 장치(10)의 속도를 측정할 수 있다. 이를 위해 충돌 방지 장치(100)는 속도 측정을 위한 구성요소를 추가로 구비할 수 있다. 또는 충돌 방지 장치(100)는 수집된 영상 정보를 이용하여 속도를 측정할 수도 있다. 즉, 충돌 방지 장치(100)는 타이머로 측정된 시간 대비 수집된 영상 상의 특정 지점에 도달 거리를 식별하여 반송 장치(10)의 속도를 측정할 수 있다. 이때, 단계(S20)에서 충돌 방지 장치(100)는 측정된 속도를 기초로, 감지 영역을 설정할 수 있다.In step S10, the
또한, 충돌 방지 장치(100)는 반송 장치(10)의 속도를 측정 시, 측정된 속도의 변화를 감지할 수도 있다. 이에 따라, 충돌 방지 장치(100)는, 감지된 속도의 변화를 기초로, 설정된 감지 영역을 재설정할 수도 있다.In addition, the
도 9를 참조하면, 반송 장치(10)의 가장 근접한 소정의 거리 내의 영역은, 충돌 방지 장치(100)의 사각지대이다. 충돌 방지 장치(100)가 근거리, 원거리, 중거리인 거리 기반 3개의 감지 영역을 설정한 경우를 가정한다. 9, the area within the closest predetermined distance of the
반송 장치(10)가 저속 운행하는 경우(저속 구간), 충돌 방지 장치(100)로부터 감속 명령이 수신되면 반송 장치(10)는 정지 구간 내에 정지할 수 있다. 따라서, 객체가 정지 구간보다 반송 장치(10)로부터 멀리 있는 경우, 객체와 반송 장치(10)가 충돌하지 않는다. 이 경우, 설정된 감지 영역은 정지 구간 내에 있으면 족하다. 따라서, 충돌 방지 장치(100)는 중거리, 원거리 감지 영역은 불필요하므로 제외되도록 감지 영역을 재설정함으로써, 연산량을 줄일 수 있다.When the
다음으로, 반송 장치(10)가 중속 운행하는 경우(중속 구간), 충돌 방지 장치(100)로부터 감속 명령이 수신되면 반송 장치(10)는 정지 구간을 경과하고, 감속 구간에서 감소된다. 따라서, 객체가 감속 구간에서 반송 장치(10는 객체와 충돌 가능성이 존재한다. 이 경우, 설정된 감지 영역은 정지 구간의 종점 및 감속 구간 내에 있어야 한다. 따라서, 충돌 방지 장치(100)는 근거리 중거리 감지 영역의 위치를 재설정할 수 있다.Next, when the
마지막으로, 반송 장치(10)가 고속 운행하는 경우(고속 구간), 충돌 방지 장치(100)로부터 감속 명령이 수신되면 반송 장치(10)는 정지 구간 및 감속 구간을 경과하고, 감지 구간에서 감지된다. 따라서, 객체가 감지 구간에서 반송 장치(10는 객체와 충돌 가능성이 존재한다. 이 경우, 설정된 감지 영역은 정지 구간의 종점, 감속 구간의 종점 및 감지 구간 내에 있어야 한다. 특히, 감지 구간에서 충돌 회피를 위해 감지 영역이 추가적으로 설정되도록 충돌 회피 장치(100)는 감지 영역의 위치를 재설정할 수도 있다.Finally, when the
도 10은 본 발명의 몇몇 실시예에서 참조되는 반송 장치의 운행 방향 및 속도에 따라 감지 영역이 변경되는 경우를 설명하기 위한 예시도이다.10 is an exemplary view for explaining a case where a sensing area is changed according to a traveling direction and a speed of a transporting device, which is referred to in some embodiments of the present invention.
도 10을 참조하면, 도 7 내지 도 9에서 설명된 실시예를 혼합하여, 충돌 회피 장치(100)가 거리 기반 감지 영역을 설정할 수 있다.Referring to FIG. 10, the
예를 들어, 충돌 회피 장치(100)는 영상(701)과 같은 직선 구간에서 거리 별 감지 영역을 설정하고, 반송 장치(10)의 속도 또는 속도의 변화를 기초로 설정된 감지 영역을 재설정할 수 있다.For example, the
다른 예에서, 반송 장치(10)가 영상 (701) 같은 직선 구간에서 영상(801)과 같은 곡선 구간으로 운행 경로가 변경되는 경우, 충돌 회피 장치(100)는 설정된 거리 별 감지 영역을, 경로 변경에 따라 곡률을 기초로 변경할 수 있다. 또한, 반송 장치(10)의 곡선 구간의 운행 중에 충돌 회피 장치(100)는 반송 장치(10)의 속도 또는 속도의 변화를 측정할 수 있다. 충돌 회피 장치(100)는 상기 속도 또는 속도의 변화를 기초로 상기 변경된 감지 영역을 재설정할 수도 있다.In another example, when the conveying
지금까지 첨부된 도면을 참조하여 설명된 본 발명의 실시예에 따른 방법들은 컴퓨터가 읽을 수 있는 코드로 구현된 컴퓨터프로그램의 실행에 의하여 수행될 수 있다. 상기 컴퓨터프로그램은 인터넷 등의 네트워크를 통하여 제1 컴퓨팅 장치로부터 제2 컴퓨팅 장치에 송신되어 상기 제2 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 제2 컴퓨팅 장치에서 사용될 수 있다. 상기 제1 컴퓨팅 장치 및 상기 제2 컴퓨팅 장치는, 서버 장치, 데스크탑 PC와 같은 고정식 컴퓨팅 장치, 노트북, 스마트폰, 태블릿 피씨와 같은 모바일 컴퓨팅 장치를 모두 포함한다.The methods according to embodiments of the present invention described above with reference to the accompanying drawings can be performed by the execution of a computer program embodied in computer readable code. The computer program may be transmitted from a first computing device to a second computing device via a network, such as the Internet, and installed in the second computing device, thereby enabling it to be used in the second computing device. The first computing device and the second computing device all include mobile computing devices such as a server device, a fixed computing device such as a desktop PC, a notebook, a smart phone, and a tablet PC.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
Claims (12)
상기 깊이 기반 영상 정보의 각 영역 별로 깊이 레벨을 결정하는 단계;
상기 결정된 깊이 레벨을 기초로, 상기 식별된 경로 상의 거리 기반 감지 영역을 하나 이상 설정하는 단계;
상기 하나 이상 설정된 거리 기반 감지 영역 마다 상기 객체가 검출되는지 판단하는 단계; 및
상기 판단 결과, 상기 객체가 검출된 경우, 상기 반송 장치의 운행을 제어하기 위한 제어 신호를 출력하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법. Receiving depth-based image information and identifying a path;
Determining a depth level for each region of the depth-based image information;
Setting at least one distance based sensing area on the identified path based on the determined depth level;
Determining whether the object is detected for each of the one or more distance-based sensing areas; And
And outputting a control signal for controlling the operation of the transport apparatus when the object is detected as a result of the determination.
Collision avoidance method using depth sensor.
상기 경로를 식별하는 단계는,
상기 수신된 깊이 기반 영상 정보를 기초로, 반송 장치의 운행이 예정된 경로 상의 곡선 구간을 식별하는 단계를 포함하고,
상기 식별된 경로 상의 거리 기반 감지 영역을 하나 이상 설정하는 단계는,
상기 곡선 구간이 식별됨에 따라, 상기 설정된 감지 영역을 변경하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법.The method according to claim 1,
Wherein identifying the path comprises:
Based on the received depth-based image information, identifying a curve section on a path on which the transportation apparatus is scheduled to run,
Wherein the step of setting one or more distance based sensing areas on the identified path comprises:
And modifying the set sensing area as the curve section is identified.
Collision avoidance method using depth sensor.
상기 경로를 식별하는 단계는,
상기 깊이 기반 영상 정보 상에서 상기 반송 장치의 운행을 가이드하는 트랙을 식별하는 단계;
상기 수신된 깊이 기반 영상 정보를 기초로, 상기 트랙의 제1 시작점, 제2 시작점 및 소실점을 결정하는 단계;
상기 제1 시작점 및 상기 소실점을 기초로 제1 방향 벡터를 생성하고, 상기 제2 시작점 및 상기 소실점을 기초로 제2 방향 벡터를 생성하는 단계; 및
상기 제1 방향 벡터의 길이 값 및 상기 제2 방향 벡터의 길이 값을 기초로, 상기 경로 상의 구간이 직선 구간인지 곡선 구간인지 여부를 식별하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법.The method according to claim 1,
Wherein identifying the path comprises:
Identifying a track guiding operation of the transport apparatus on the depth-based image information;
Determining a first start point, a second start point, and a vanishing point of the track based on the received depth-based image information;
Generating a first direction vector based on the first starting point and the vanishing point, and generating a second direction vector based on the second starting point and the vanishing point; And
Determining whether a section on the path is a straight section or a curved section based on a length value of the first direction vector and a length value of the second direction vector.
Collision avoidance method using depth sensor.
상기 경로 상의 구간이 직선 구간인지 곡선 구간인지 여부를 식별하는 단계는,
상기 식별된 구간이 곡선 구간인 경우, 상기 제1 방향 벡터의 길이 값과 상기 제2 방향 벡터의 길이 값을 기초로, 상기 곡선 구간의 곡률을 판단하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법.The method of claim 3,
Wherein identifying whether the section on the path is a straight section or a curved section comprises:
Determining a curvature of the curve section based on a length value of the first direction vector and a length value of the second direction vector when the identified section is a curve section,
Collision avoidance method using depth sensor.
상기 식별된 경로 상의 거리 기반 감지 영역을 하나 이상 설정하는 단계는,
상기 곡선 구간이 식별됨에 따라, 상기 설정된 감지 영역을 변경하는 단계; 및
상기 판단된 곡선 구간의 곡률을 기초로, 상기 거리 기반 감지 영역의 위치를 변경하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법.5. The method of claim 4,
Wherein the step of setting one or more distance based sensing areas on the identified path comprises:
Changing the set sensing area as the curved section is identified; And
Based sensing area; and changing the position of the distance based sensing area based on the curvature of the determined curved segment.
Collision avoidance method using depth sensor.
상기 경로를 식별하는 단계는,
상기 깊이 기반 영상 정보 상에서 상기 반송 장치의 운행을 가이드하는 트랙을 식별하는 단계;
상기 수신된 깊이 기반 영상 정보를 기초로, 상기 트랙의 제1 시작점, 제2 시작점 및 소실점을 결정하는 단계;
상기 제1 시작점 및 상기 소실점을 기초로 제1 방향 벡터를 생성하고, 상기 제2 시작점 및 상기 소실점을 기초로 제2 방향 벡터를 생성하고, 상기 제1 시작점 및 제2 시작점을 기초로 제3 방향 벡터를 생성하는 단계; 및
상기 제1 방향 벡터와 상기 제3 방향 벡터 사이의 제1 각도 및 상기 제2 방향 벡터와 상기 제3 방향 벡터 사이의 제2 각도를 기초로, 상기 경로 상의 구간이 직선 구간인지 곡선 구간인지 여부를 식별하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법.The method according to claim 1,
Wherein identifying the path comprises:
Identifying a track guiding operation of the transport apparatus on the depth-based image information;
Determining a first start point, a second start point, and a vanishing point of the track based on the received depth-based image information;
Generating a first direction vector based on the first starting point and the vanishing point, generating a second direction vector based on the second starting point and the vanishing point, and generating a second direction vector based on the first starting point and the vanishing point, Generating a vector; And
Based on a first angle between the first direction vector and the third direction vector and a second angle between the second direction vector and the third direction vector, whether the section on the path is a straight section or a curved section Comprising:
Collision avoidance method using depth sensor.
상기 경로 상의 구간이 직선 구간인지 곡선 구간인지 여부를 식별하는 단계는,
상기 식별된 구간이 곡선 구간인 경우, 상기 제1 각도와 상기 제2 각도를 기초로, 상기 곡선 구간의 곡률을 판단하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법.The method according to claim 6,
Wherein identifying whether the section on the path is a straight section or a curved section comprises:
Determining a curvature of the curved section based on the first angle and the second angle when the identified section is a curved section,
Collision avoidance method using depth sensor.
상기 식별된 경로 상의 거리 기반 감지 영역을 하나 이상 설정하는 단계는,
미리 저장된 깊이 레벨 별 감지 영역을 식별하는 단계;
상기 식별된 깊이 레벨 별 감지 영역 중 거리 기반 감지 영역을 하나 이상 설정하는 단계;
상기 하나 이상 설정된 거리 기반 감지 영역 마다 상기 객체가 검출되는지 판단하는 단계; 및
상기 판단 결과, 상기 객체가 검출된 경우, 상기 반송 장치의 운행을 제어하기 위한 제어 신호를 출력하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법.The method according to claim 1,
Wherein the step of setting one or more distance based sensing areas on the identified path comprises:
Identifying a pre-stored depth level sensing area;
Setting one or more distance-based sensing areas among the sensing areas for each identified depth level;
Determining whether the object is detected for each of the one or more distance-based sensing areas; And
And outputting a control signal for controlling the operation of the transport apparatus when the object is detected as a result of the determination.
Collision avoidance method using depth sensor.
상기 하나 이상 설정된 거리 기반 감지 영역 마다 상기 객체가 검출되는지 판단하는 단계는,
상기 하나 이상 설정된 거리 기반 감지 영역에서 상기 거리 기반 감지 영역에 매칭된 깊이 레벨을 나타내는 영역을 감지하는 단계; 및
상기 매칭된 깊이 레벨을 나타내는 영역이 감지됨에 따라, 상기 객체가 검출된 것으로 판단하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법.9. The method of claim 8,
Wherein the step of determining whether the object is detected for each of the one or more distance-
Sensing an area representing a depth level matched to the distance based sensing area in the one or more established distance based sensing areas; And
And determining that the object has been detected as an area representing the matched depth level is detected.
Collision avoidance method using depth sensor.
상기 매칭된 깊이 레벨을 나타내는 영역을 감지하는 단계는,
상기 매칭된 깊이 레벨을 나타내는 영역의 이동을 감지하는 단계를 포함하고,
상기 매칭된 깊이 레벨을 나타내는 영역이 감지됨에 따라, 상기 객체가 검출된 것으로 판단하는 단계는,
상기 영역의 이동을 감지함에 따라, 상기 객체의 이동 상태를 결정하는 단계; 및
상기 결정된 상기 객체의 이동 상태를 기초로 상기 반송 장치의 운행을 제어하기 위한 제어 신호를 출력하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법.10. The method of claim 9,
Wherein the step of sensing an area representing the matched depth level comprises:
Sensing a movement of an area representing the matched depth level,
Determining that the object is detected as an area representing the matched depth level is detected,
Determining a movement state of the object as the movement of the region is sensed; And
And outputting a control signal for controlling the operation of the transporting device based on the determined moving state of the object.
Collision avoidance method using depth sensor.
상기 경로를 식별하는 단계는,
상기 반송 장치의 속도를 측정하는 단계를 포함하고,
상기 식별된 경로 상의 거리 기반 감지 영역을 하나 이상 설정하는 단계는,
상기 측정된 속도를 기초로 상기 감지 영역을 설정하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법. The method according to claim 1,
Wherein identifying the path comprises:
And measuring the speed of the transporting device,
Wherein the step of setting one or more distance based sensing areas on the identified path comprises:
And setting the sensing area based on the measured speed.
Collision avoidance method using depth sensor.
상기 반송 장치의 속도를 측정하는 단계는,
상기 측정된 속도의 변화를 감지하는 단계를 포함하고,
상기 측정된 속도를 기초로 상기 감지 영역을 설정하는 단계는,
상기 감지된 속도의 변화를 기초로, 상기 설정된 감지 영역을 재설정하는 단계를 포함하는,
깊이 센서를 이용한 충돌 회피 방법.12. The method of claim 11,
Wherein the step of measuring the speed of the transfer device comprises:
Sensing a change in the measured velocity,
Wherein the step of setting the sensing area based on the measured speed comprises:
And resetting the set sensing area based on a change in the sensed speed.
Collision avoidance method using depth sensor.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160050829A KR20170121933A (en) | 2016-04-26 | 2016-04-26 | Method and Apparatus for avoiding collision using depth sensor |
| US15/491,065 US20170308760A1 (en) | 2016-04-26 | 2017-04-19 | Collision avoidance method and apparatus using depth sensor |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160050829A KR20170121933A (en) | 2016-04-26 | 2016-04-26 | Method and Apparatus for avoiding collision using depth sensor |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20170121933A true KR20170121933A (en) | 2017-11-03 |
Family
ID=60089092
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020160050829A Withdrawn KR20170121933A (en) | 2016-04-26 | 2016-04-26 | Method and Apparatus for avoiding collision using depth sensor |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US20170308760A1 (en) |
| KR (1) | KR20170121933A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101980277B1 (en) * | 2017-11-22 | 2019-05-20 | (주)화인파워엑스 | accident prevention device for OHT |
| WO2025127549A1 (en) * | 2023-12-15 | 2025-06-19 | 포스코홀딩스 주식회사 | Object detection apparatus and method using monocular camera |
Families Citing this family (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| BR112017022816A2 (en) * | 2015-04-23 | 2018-07-17 | Nissan Motor Co., Ltd. | Scene understanding device |
| KR102541559B1 (en) * | 2017-08-04 | 2023-06-08 | 삼성전자주식회사 | Method and apparatus of detecting objects of interest |
| US10748012B2 (en) * | 2018-02-13 | 2020-08-18 | Ford Global Technologies, Llc | Methods and apparatus to facilitate environmental visibility determination |
| CN112118993B (en) | 2018-05-01 | 2022-12-27 | 铁路视像有限公司 | System and method for dynamically selecting high sampling rate of selected region of interest |
| CN109101874B (en) * | 2018-06-21 | 2022-03-18 | 南京大学 | Library robot obstacle identification method based on depth image |
| US10899408B2 (en) * | 2019-01-10 | 2021-01-26 | Luxonis LLC | Method and apparatus to reduce the probability of vehicle collision |
| JP7316107B2 (en) * | 2019-06-19 | 2023-07-27 | 日本信号株式会社 | monitoring device |
| US11216689B2 (en) * | 2019-07-29 | 2022-01-04 | Waymo Llc | Detection of emergency vehicles |
| US11391842B2 (en) * | 2020-01-06 | 2022-07-19 | Luminar, Llc | Adaptive scan pattern with virtual horizon estimation |
| JP7327174B2 (en) * | 2020-01-14 | 2023-08-16 | 株式会社ダイフク | Goods transport equipment |
| WO2021226786A1 (en) * | 2020-05-11 | 2021-11-18 | Mtr Corporation Limited | On-board systems for trains and methods of determining safe speeds and locations of trains |
-
2016
- 2016-04-26 KR KR1020160050829A patent/KR20170121933A/en not_active Withdrawn
-
2017
- 2017-04-19 US US15/491,065 patent/US20170308760A1/en not_active Abandoned
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101980277B1 (en) * | 2017-11-22 | 2019-05-20 | (주)화인파워엑스 | accident prevention device for OHT |
| WO2025127549A1 (en) * | 2023-12-15 | 2025-06-19 | 포스코홀딩스 주식회사 | Object detection apparatus and method using monocular camera |
Also Published As
| Publication number | Publication date |
|---|---|
| US20170308760A1 (en) | 2017-10-26 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR20170121933A (en) | Method and Apparatus for avoiding collision using depth sensor | |
| US9747802B2 (en) | Collision avoidance system and method for an underground mine environment | |
| US9964958B2 (en) | Driverless vehicle, and apparatus, system, and method of vehicle control | |
| EP3033287B1 (en) | Sensors for conveyance control | |
| CN105074602B (en) | Position identification device and mobile robot with the position identification device | |
| US8019475B2 (en) | Routing apparatus for autonomous mobile unit | |
| JP2020033165A (en) | Forklift remote control system | |
| RU2014109966A (en) | DEVICE AND METHOD FOR MANAGING A USER OBJECT | |
| US11370417B2 (en) | Remote parking device and remote parking method | |
| EP4057880B1 (en) | Robot cleaner and controlling method thereof | |
| JP2023523657A (en) | Method and system for non-contact elevator control | |
| US12490049B2 (en) | Electronic device for confirming position of external electronic device, and operation method therefor | |
| KR102529555B1 (en) | System and method for Autonomous Emergency Braking | |
| KR101869291B1 (en) | Apparatus and methdo for detecting obstacle of vehicle | |
| KR100922495B1 (en) | Container detection method, apparatus and transport vehicle system having same | |
| JP7062558B2 (en) | A moving body with a position detecting device and a moving body having a position detecting device. | |
| KR20200083360A (en) | Method and apparatus for detecting an object | |
| US20140062864A1 (en) | Method and apparatus for extracting three-dimensional distance information from recognition target | |
| US10109059B1 (en) | Methods and systems for background subtraction re-initialization | |
| KR102302790B1 (en) | Electronic Device and the Method for Sensing Gesture | |
| WO2013058372A1 (en) | Platform door safety device | |
| CN114076597A (en) | Walking estimation system, walking estimation method, and computer-readable medium | |
| KR102859176B1 (en) | Method and device for controlling a drone based on its expected location | |
| KR101967315B1 (en) | Apparatus for detecting forward object of vehicle and method thereof | |
| KR102492161B1 (en) | Transfer Vehicle for Transfer System and Driving Method Thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20160426 |
|
| PG1501 | Laying open of application | ||
| PC1203 | Withdrawal of no request for examination |