KR102296205B1 - Lane departure detecting device and controlling method thereof - Google Patents
Lane departure detecting device and controlling method thereof Download PDFInfo
- Publication number
- KR102296205B1 KR102296205B1 KR1020170144687A KR20170144687A KR102296205B1 KR 102296205 B1 KR102296205 B1 KR 102296205B1 KR 1020170144687 A KR1020170144687 A KR 1020170144687A KR 20170144687 A KR20170144687 A KR 20170144687A KR 102296205 B1 KR102296205 B1 KR 102296205B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- lane departure
- value
- lane
- generated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G06K9/00798—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/10—Path keeping
- B60Y2300/12—Lane keeping
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
차선 이탈 감지 장치 및 제어 방법이 개시된다. 차선 이탈 감지 장치의 제어 방법은 차선이 포함된 이미지를 입력받는 단계, 입력된 이미지에 랜덤 변형 값을 적용하여 합성 이미지를 생성하는 단계 및 랜덤 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 생성된 합성 이미지를 이탈 이미지로 레이블링하고, 기 설정된 임계값보다 작은 경우 생성된 합성 이미지를 정상 이미지로 레이블링하는 단계를 포함한다.A lane departure detection apparatus and control method are disclosed. The control method of the lane departure detection apparatus includes the steps of receiving an image including a lane, generating a composite image by applying a random deformation value to the input image, and generating when the absolute value of the random deformation value is greater than a preset threshold value and labeling the synthesized image as a deviation image, and labeling the synthesized image generated as a normal image when it is smaller than a preset threshold.
Description
본 개시는 차선 이탈 감지 장치 및 제어 방법에 관한 것으로, 더욱 상세하게는 학습데이터를 자동으로 레이블링하는 차선 이탈 감지 장치 및 제어 방법에 관한 것이다.The present disclosure relates to a lane departure detection apparatus and a control method, and more particularly, to a lane departure detection apparatus and a control method for automatically labeling learning data.
촬영된 이미지로부터 객체를 인식하는 기술에 대한 연구가 진행되고 있다. 객체를 인식하는 기술은 보안 장치, 자동차 안전 장치 등에 널리 사용되고 있다. 예전에는 개발자가 객체를 인식하기 위한 기준을 설정하고 설정된 기준에 맞추어 객체를 인식하고 상황을 판단하는 기술이 널리 사용되었다. 그러나, 개발자가 기준을 설정하는 방식은 예상하지 못하는 이벤트가 발생하는 경우 객체 인식 오류 또는 상황 판단의 오류가 발생하는 문제가 있었다.Research on a technology for recognizing an object from a photographed image is in progress. A technology for recognizing an object is widely used in a security device, a vehicle safety device, and the like. In the past, a technology in which a developer sets a standard for recognizing an object, recognizes an object according to the set standard, and judges a situation has been widely used. However, the method in which the developer sets the standard has a problem in that when an unexpected event occurs, an object recognition error or an error in situation determination occurs.
그러나, 최근 인공지능에 대한 연구가 활발해지면서 미리 수많은 데이터를 이용하여 인공지능을 학습시키고 학습된 인공지능이 객체를 인식하고 상황을 판단하는 기술에 대한 발전이 이루어지고 있다. 학습된 인공지능은 기존 학습 데이터를 이용하여 적절하게 객체를 인식하거나 상황을 판단함으로써 예상하지 못하는 이벤트가 발생하는 경우에도 적절하게 대처할 수 있다. 인공지능이 예상치 못한 이벤트 발생에도 적절하게 대처하도록 학습하기 위해서는 수많은 데이터가 필요하다. 기존에는 개발자가 직접 학습데이터를 레이블링하여 인공지능을 학습시켰다. 그러나, 개발자가 수만장의 학습데이터를 직접 레이블링해야 하기 때문에 많은 시간 및 비용이 발생하는 문제점이 있었다. 따라서, 인공지능을 학습시키기 위한 효율적인 기술에 대한 필요성이 존재한다.However, as research on artificial intelligence has become active in recent years, advances in technology for learning artificial intelligence by using a large number of data in advance and the learned artificial intelligence recognizing objects and judging situations are being made. The learned artificial intelligence can properly respond to unexpected events by properly recognizing objects or judging situations using existing learning data. AI needs a lot of data to learn to respond appropriately to unexpected events. In the past, developers directly labeled the learning data to learn artificial intelligence. However, there was a problem in that a lot of time and money was generated because the developer had to label tens of thousands of training data directly. Therefore, there is a need for an efficient technique for learning artificial intelligence.
본 개시는 상술한 문제점을 해결하기 위한 것으로, 본 개시의 목적은 영상 데이터에 대해 자동으로 레이블링하는 차선 이탈 감지 장치 및 제어 방법을 제공하는 것이다.SUMMARY The present disclosure has been made to solve the above problems, and an object of the present disclosure is to provide an apparatus for detecting a lane departure and a control method for automatically labeling image data.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 차선 이탈 감지 장치의 제어 방법은 차선이 포함된 이미지를 입력받는 단계, 상기 입력된 이미지에 랜덤 변형 값을 적용하여 합성 이미지를 생성하는 단계 및 상기 랜덤 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 상기 생성된 합성 이미지를 이탈 이미지로 레이블링하고, 상기 기 설정된 임계값보다 작은 경우 상기 생성된 합성 이미지를 정상 이미지로 레이블링하는 단계를 포함한다.According to an embodiment of the present disclosure for achieving the above object, the control method of the apparatus for detecting lane departure includes receiving an image including a lane, and generating a composite image by applying a random deformation value to the input image and labeling the generated composite image as a deviation image when the absolute value of the random transformation value is greater than a preset threshold value, and labeling the generated composite image as a normal image when it is smaller than the preset threshold value. includes
그리고, 상기 랜덤 변형 값은 회전 변형 값 및 시프트 변형 값 중 적어도 하나일 수 있다.In addition, the random deformation value may be at least one of a rotational deformation value and a shift deformation value.
또한, 차선 이탈 감지 장치의 제어 방법은 상기 레이블링된 합성 이미지를 이용하여 신경망을 학습하는 단계를 더 포함할 수 있다.Also, the control method of the apparatus for detecting lane departure may further include learning a neural network using the labeled composite image.
또한, 상기 신경망을 학습하는 단계는 상기 레이블링된 합성 이미지를 컨벌루션하여 제1 매트릭스 맵을 생성하고, 상기 생성된 제1 매트릭스 맵을 0과 비교하여 큰 값이 리턴된 제2 매트릭스 맵을 생성하며, 상기 생성된 제2 매트릭스 맵을 리사이징(resizing)하여 특성 맵을 생성하고, 상기 생성된 특성 맵을 연결하고, 상기 연결된 특성 맵에 기초하여 상기 레이블링된 합성 이미지의 클래스를 분류할 수 있다.In addition, the step of learning the neural network generates a first matrix map by convolving the labeled composite image, and compares the generated first matrix map with 0 to generate a second matrix map in which a large value is returned, A characteristic map may be generated by resizing the generated second matrix map, the generated characteristic map may be connected, and classes of the labeled composite image may be classified based on the connected characteristic map.
한편, 상기 클래스는 정상 운행, 좌측 차선 이탈 및 우측 차선 이탈 중 적어도 하나일 수 있다.Meanwhile, the class may be at least one of normal driving, left lane departure, and right lane departure.
한편, 차선 이탈 감지 장치의 제어 방법은 차선이 포함된 판단 대상 이미지를 입력받는 단계, 상기 판단 대상 이미지로부터 차선을 감지하는 단계 및 상기 학습된 신경망 및 상기 감지된 차선의 위치에 기초하여 정상 운행, 좌측 차선 이탈 또는 우측 차선 이탈을 판단하는 단계를 더 포함할 수 있다.On the other hand, the control method of the lane departure detection apparatus includes the steps of receiving a determination target image including a lane, detecting a lane from the determination target image, and normal driving based on the learned neural network and the detected lane position; The method may further include determining a left lane departure or a right lane departure.
이상과 같은 목적을 달성하기 위한 본 개시의 일 실시 예에 따르면, 차선 이탈 감지 장치는 차선이 포함된 이미지를 입력받는 입력부 및 상기 입력된 이미지를 변형하여 레이블링하는 자동 주석부를 포함하고, 상기 자동 주석부는 상기 입력된 이미지에 랜덤 변형 값을 적용하여 합성 이미지를 생성하고, 상기 랜덤 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 상기 생성된 합성 이미지를 이탈 이미지로 레이블링하고, 상기 기 설정된 임계값보다 작은 경우 상기 생성된 합성 이미지를 정상 이미지로 레이블링한다.According to an embodiment of the present disclosure for achieving the above object, the lane departure detection device includes an input unit for receiving an image including a lane and an automatic annotation unit for transforming and labeling the input image, and the automatic annotation The unit generates a composite image by applying a random transformation value to the input image, and when the absolute value of the random transformation value is greater than a preset threshold value, labels the generated composite image as a departure image, and the preset threshold value If it is smaller, the generated composite image is labeled as a normal image.
이상 설명한 바와 같이, 본 개시의 다양한 실시 예에 따르면, 차선 이탈 감지 장치 및 제어 방법은 영상 데이터에 대해 자동으로 레이블링할 수 있다.As described above, according to various embodiments of the present disclosure, the apparatus and control method for detecting lane departure may automatically label image data.
그리고, 차선 이탈 감지 장치 및 제어 방법은 수분 내로 수만 장의 영상 데이터에 레이블링을 할 수 있다.In addition, the lane departure detection apparatus and control method can label tens of thousands of image data within minutes.
또한, 차선 이탈 감지 장치 및 제어 방법은 짧은 시간에 보다 많은 영상 데이터로 인공 지능을 학습시킴으로써 보다 정확한 차선 이탈 여부를 감지할 수 있다.In addition, the lane departure detection apparatus and control method may more accurately detect whether or not lane departure exists by learning artificial intelligence with more image data in a short time.
도 1은 본 개시의 일 실시 예에 따른 차선 이탈 감지 장치의 블록도이다.
도 2는 본 개시의 다른 실시 예에 따른 차선 이탈 감지 장치의 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 영상 데이터에 레이블링하는 과정을 설명하는 도면이다.
도 4는 본 개시의 일 실시 예에 따른 차선 이탈을 학습시키는 과정을 설명하는 도면이다.
도 5는 본 개시의 일 실시 예에 따른 차선 이탈 네트워크의 결과물을 나타내는 도면이다.
도 6은 본 개시의 일 실시 예에 따른 차선 이탈 감지 장치 제어 방법의 흐름도이다.1 is a block diagram of an apparatus for detecting lane departure according to an embodiment of the present disclosure.
2 is a block diagram of an apparatus for detecting lane departure according to another exemplary embodiment of the present disclosure.
3 is a diagram illustrating a process of labeling image data according to an embodiment of the present disclosure.
4 is a view for explaining a process of learning lane departure according to an embodiment of the present disclosure.
5 is a diagram illustrating a result of a lane departure network according to an embodiment of the present disclosure.
6 is a flowchart of a method for controlling an apparatus for detecting lane departure according to an embodiment of the present disclosure.
이하에서는 첨부된 도면을 참조하여 다양한 실시 예를 보다 상세하게 설명한다. 본 명세서에 기재된 실시 예는 다양하게 변형될 수 있다. 특정한 실시 예가 도면에서 묘사되고 상세한 설명에서 자세하게 설명될 수 있다. 그러나, 첨부된 도면에 개시된 특정한 실시 예는 다양한 실시 예를 쉽게 이해하도록 하기 위한 것일 뿐이다. 따라서, 첨부된 도면에 개시된 특정 실시 예에 의해 기술적 사상이 제한되는 것은 아니며, 발명의 사상 및 기술 범위에 포함되는 모든 균등물 또는 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, various embodiments will be described in more detail with reference to the accompanying drawings. The embodiments described herein may be variously modified. Certain embodiments may be depicted in the drawings and described in detail in the detailed description. However, the specific embodiments disclosed in the accompanying drawings are only provided to facilitate understanding of the various embodiments. Accordingly, the technical spirit is not limited by the specific embodiments disclosed in the accompanying drawings, and it should be understood to include all equivalents or substitutes included in the spirit and scope of the invention.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이러한 구성요소들은 상술한 용어에 의해 한정되지는 않는다. 상술한 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but these elements are not limited by the above-described terms. The above terminology is used only for the purpose of distinguishing one component from another component.
본 명세서에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.In this specification, terms such as "comprises" or "have" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof. When a component is referred to as being “connected” or “connected” to another component, it is understood that the other component may be directly connected or connected to the other component, but other components may exist in between. it should be On the other hand, when it is mentioned that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.
한편, 본 명세서에서 사용되는 구성요소에 대한 "모듈" 또는 "부"는 적어도 하나의 기능 또는 동작을 수행한다. 그리고, "모듈" 또는 "부"는 하드웨어, 소프트웨어 또는 하드웨어와 소프트웨어의 조합에 의해 기능 또는 동작을 수행할 수 있다. 또한, 특정 하드웨어에서 수행되어야 하거나 적어도 하나의 프로세서에서 수행되는 "모듈" 또는 "부"를 제외한 복수의 "모듈들" 또는 복수의 "부들"은 적어도 하나의 모듈로 통합될 수도 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Meanwhile, as used herein, a “module” or “unit” for a component performs at least one function or operation. In addition, a "module" or "unit" may perform a function or operation by hardware, software, or a combination of hardware and software. In addition, a plurality of “modules” or a plurality of “units” other than a “module” or “unit” that must be performed in specific hardware or are executed in at least one processor may be integrated into at least one module. The singular expression includes the plural expression unless the context clearly dictates otherwise.
그 밖에도, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그에 대한 상세한 설명은 축약하거나 생략한다.In addition, in describing the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be abbreviated or omitted.
도 1은 본 개시의 일 실시 예에 따른 차선 이탈 감지 장치의 블록도이다.1 is a block diagram of an apparatus for detecting lane departure according to an embodiment of the present disclosure.
도 1을 참조하면, 차선 이탈 감지 장치(100)는 제1 입력부(110) 및 자동 주석부(auto annotator)(120)를 포함한다. 제1 입력부(110)는 차선이 포함된 이미지를 입력받는다. 차선이 포함된 이미지는 차선이 이탈되지 않은 정상 이미지일 수 있다. 예를 들어, 제1 입력부(110)는 통신 인터페이스로 연결된 통신 모듈, 입력 인터페이스로 연결된 입력 단자 등을 포함할 수 있다. 즉, 제1 입력부(110)가 통신 모듈로 구현되는 경우, 차선 이탈 감지 장치(100)는 유무선 통신 방식을 이용하여 차선이 포함된 이미지를 입력받을 수 있다. 또는, 제1 입력부(110)가 입력 단자로 구현되는 경우, 차선 이탈 감지 장치(100)는 내외부 저장 장치로부터 차선이 포함된 이미지를 입력받을 수 있다.Referring to FIG. 1 , the lane
자동 주석부(120)는 제1 입력부(110)를 통해 입력된 차선이 포함된 이미지를 전달받는다. 자동 주석부(120)는 임의의(random) 변형 값을 생성한 후 입력된 이미지에 임의의 변형 값을 적용하여 합성 이미지를 생성한다. 예를 들어, 임의의 변형 값은 회전 변형 값 및 시프트 변형 값 중 적어도 하나의 값을 포함할 수 있다. 일 실시 예로서, 자동 주석부(120)는 입력된 이미지에 임의의 회전 변형 값을 적용할 수 있다. 자동 주석부(120)가 입력된 이미지에 임의의 회전 변형 값을 적용하는 경우, 입력된 이미지는 좌측 또는 우측으로 회전 변형 값만큼 회전한 이미지로 변형된다. 즉, 자동 주석부(120)는 입력된 이미지로부터 임의의 회전 변형 값이 적용된 합성 이미지를 생성할 수 있다. 또는, 자동 주석부(120)는 입력된 이미지에 임의의 시프트 변형 값을 적용할 수 있다. 자동 주석부(120)가 입력된 이미지에 임의의 시프트 변형 값을 적용하는 경우, 입력된 이미지는 좌측 또는 우측으로 시프트 변형 값만큼 이동한 이미지로 변형된다. 즉, 자동 주석부(120)는 입력된 이미지로부터 임의의 시프트 변형 값이 적용된 합성 이미지를 생성할 수 있다. 자동 주석부(120)는 임의의 회전 변형 값 및 임의의 시프트 변형 값이 함께 적용된 합성 이미지를 생성할 수도 있다.The
자동 주석부(120)는 입력된 이미지에 대해 각각 다른 임의의 변형 값을 적용하여 합성 이미지를 생성할 수 있다. 따라서, 자동 주석부(120)는 하나의 입력 이미지에 대해 서로 다른 임의의 변형 값이 적용된 복수 개의 합성 이미지를 생성할 수도 있다.The
자동 주석부(120)는 임의의 변형 값의 절대값을 기 설정된 임계값과 비교한다. 예를 들어, 기 설정된 임계값은 절대적인 값 또는 입력된 이미지에 따른 상대적인 값으로 설정될 수 있다. 일 실시 예로서, 입력된 이미지의 스케일 또는 차선 폭이 일정한 경우, 기 설정된 임계값은 20도 또는 2cm와 같이 절대적인 값으로 설정될 수 있다. 입력된 이미지의 스케일 또는 차선 폭이 다양한 경우, 기 설정된 임계값은 입력된 이미지의 차선 폭의 20%와 같이 상대적인 값으로 설정될 수도 있다. 기 설정된 임계값이 입력된 이미지에 따라 상대적인 값으로 설정되는 경우, 자동 주석부(120)는 다양한 스케일 또는 다양한 차선 폭을 포함하는 이미지에 대해서도 정상 이미지 또는 차선 이탈 이미지로 레이블링(labeling)할 수 있다.The
자동 주석부(120)는 임의의 변형 값의 절대값을 기 설정된 임계값과 비교하여 임의의 변형 값이 기 설정된 임계값보다 큰 경우 생성된 합성 이미지를 차선 이탈 이미지로 레이블링한다. 그리고, 자동 주석부(120)는 임의의 변형 값의 절대값을 기 설정된 임계값과 비교하여 임의의 변형 값이 기 설정된 임계값보다 작은 경우 생성된 합성 이미지를 정상 이미지로 레이블링한다. 즉, 자동 주석부(120)는 가상으로 차선이 이탈된 이미지를 생성하여 차선 이탈 이미지로 레이블링할 수 있다.The
상술한 바와 같이, 자동 주석부(120)는 하나의 입력 이미지에 대해 서로 다른 임의의 변형 값을 적용하여 복수의 합성 이미지를 생성할 수 있다. 그리고, 자동 주석부(120)는 복수의 합성 이미지에 대해 복수의 레이블링 이미지를 생성할 수 있다. 따라서, 기존 기술은 하나의 입력 이미지에 대해 하나의 레이블링 이미지만을 생성할 수 있었지만, 본 개시에 따른 차선 이탈 감지 장치(100)는 하나의 입력 이미지에 대해 복수 개의 레이블링 이미지를 생성할 수도 있다.As described above, the
또한, 자동 주석부(120)는 복수의 이미지를 입력받아 복수의 레이블링 이미지를 생성할 수도 있다. 한편, 차선 이탈 감지 장치(100)는 추가적인 구성을 더 포함할 수도 있다.Also, the
도 2는 본 개시의 다른 실시 예에 따른 차선 이탈 감지 장치의 블록도이다.2 is a block diagram of an apparatus for detecting lane departure according to another exemplary embodiment of the present disclosure.
도 2를 참조하면, 차선 이탈 감지 장치(100a)는 제1 입력부(110), 자동 주석부(120), CNN(Convolution Neural Network)(130), 제2 입력부(140) 및 출력부(150)를 포함할 수 있다. 제1 입력부(110) 및 자동 주석부(120)는 도 1과 동일하므로 설명을 생략한다. Referring to FIG. 2 , the lane
CNN(130)은 레이블링된 합성 이미지를 이용하여 차선 이탈에 대해 학습한다. CNN(130)이 차선 이탈에 대해 학습하는 구체적인 과정은 후술한다. CNN(130)이 합성 이미지를 이용하여 차선 이탈에 대해 학습을 완료하면, 차선 이탈 감지 장치(100a)는 실제 이미지를 입력받아 차선 이탈 여부를 감지할 수 있다.The
제2 입력부(140)는 차선이 포함된 판단 대상 이미지를 입력받을 수 있다. 예를 들어, 제2 입력부(140)는 제1 입력부(110)와 유사하게 통신 인터페이스로 연결된 통신 모듈, 입력 인터페이스로 연결된 입력 단자 등을 포함할 수 있다. 즉, 제1 입력부(110)가 통신 모듈로 구현되는 경우, 차선 이탈 감지 장치(100a)는 유무선 통신 방식을 이용하여 차선이 포함된 판단 대상 이미지를 입력받을 수 있다. 또는, 제1 입력부(110)가 입력 단자로 구현되는 경우, 차선 이탈 감지 장치(100a)는 내외부 저장 장치로부터 차선이 포함된 판단 대상 이미지를 입력받을 수 있다. 또한, 제2 입력부(140)는 카메라를 포함할 수 있다. 즉, 제2 입력부(140)가 카메라로 구현되는 경우, 차선 이탈 감지 장치(100a)는 카메라에서 촬영된 차선을 포함하는 실제 운행 이미지를 입력받을 수 있다. 제2 입력부(140)가 카메라로 구현되는 경우, 차선을 포함하는 실제 운행 이미지가 판단 대상 이미지일 수 있다.The
CNN(130)은 판단 대상 이미지로부터 차선을 감지할 수 있다. 그리고, CNN(130)은 감지된 차선 및 학습된 차선 이탈 데이터를 기초로 차선 이탈 여부를 판단할 수 있다. 즉, CNN(130)은 판단 대상 이미지로부터 정상 운행, 좌측 차선 이탈 또는 우측 차선 이탈 여부를 판단할 수 있다.The
출력부(150)는 차선 이탈 감지 결과에 기초하여 차선 이탈 경고를 출력할 수 있다. 예를 들어, 출력부(150)는 부저, 스피커, 모터, 햅틱 모듈, LED, 디스플레이 등을 포함할 수 있다. 출력부(150)가 부저로 구현되는 경우, 출력부(150)는 다양한 형태의 경고음을 출력할 수 있다. 출력부(150)가 스피커로 구현되는 경우, 출력부(150)는 좌측 차선 이탈 또는 우측 차선 이탈이라는 음성을 출력할 수 있다. 출력부(150)가 모터 또는 햅틱 모듈로 구현되는 경우, 출력부(150)는 다양한 패턴의 진동을 출력할 수 있다. 출력부(150)가 LED로 구현되는 경우, 출력부(150)는 다양한 패턴의 광을 출력할 수 있다. 출력부(150)가 디스플레이로 구현되는 경우, 출력부(150)는 좌측 차선 이탈 또는 우측 차선 이탈이라는 메시지 등을 디스플레이할 수 있다. 출력부(150)는 하나의 유닛으로 구현될 수도 있고, 복수의 유닛으로 구현될 수도 있다. 예를 들어, 출력부(150)는 부저, 모터 및 LED로 구현되는 경우, 출력부(150)는 경고음, 진동 및 광을 동시에 출력할 수도 있다.The
한편, CNN(130)은 단순히 좌측 차선 이탈 또는 우측 차선 이탈 여부만을 판단하는 것이 아니라 이탈 정도를 판단할 수도 있다. 일 실시 예로서, CNN(130)은 좌측 차선 이탈 정도가 10%, 20%, 30%라는 것을 판단할 수 있다. CNN(130)이 차선 이탈 정도를 판단하는 경우, 출력부(150)는 이탈 정도에 대응하는 기 설정된 형태의 경고음, 진동 패턴, 광 패턴, 기 설정된 주기의 음성 출력 또는 기 설정된 주기로 디스플레이하는 메시지를 출력할 수도 있다.Meanwhile, the
상술한 바와 같이, 차선 이탈 감지 장치(100a)는 제1 입력부(110), 자동 주석부(120), CNN(130), 제2 입력부(140) 및 출력부(150)를 포함할 수 있다. 한편, 차선 이탈 감지 장치(100a)는 학습 장치(100a-1)와 응용 장치(100a-2)가 별개의 장치로 구현될 수도 있다. 즉, 차선 이탈 감지 장치(100a) 중 학습 장치(100a-1)는 제1 입력부(110)와 자동 주석부(120)만을 포함하여 레이블링 이미지를 생성하여 CNN(130)을 학습시킬 수 있다. 그리고, 응용 장치(100a-2)는 CNN(130), 제2 입력부(140) 및 출력부(150)를 포함하여 차선 이탈에 대해 학습된 CNN(130)을 이용하여 차선 이탈 여부를 판단할 수 있다.As described above, the lane
도 3은 본 개시의 일 실시 예에 따른 영상 데이터에 레이블링하는 과정을 설명하는 도면이다.3 is a diagram illustrating a process of labeling image data according to an embodiment of the present disclosure.
도 3을 참조하면 자동 주석부의 구조가 도시되어 있다. 먼저, 자동 주석부는 입력부를 통해 영상 이미지를 전달받는다(S11). 영상 이미지는 차선을 이탈하지 않은 정상 이미지이고, 1 프레임의 영상 이미지일 수 있다. 자동 주석부는 임의의 변형 값을 사용하여 합성 이미지를 생성할 수 있다(S12). 예를 들어, 임의의 변형 값은 임의의 회전 변형 값 또는 임의의 시프트 변형 값일 수 있다. 자동 주석부는 1개의 영상 이미지로부터 다양한 임의의 변형 값을 적용하여 복수 개의 합성 이미지를 생성할 수 있다.Referring to FIG. 3 , the structure of the automatic annotation unit is illustrated. First, the automatic annotation unit receives the video image through the input unit (S11). The video image is a normal image that does not deviate from a lane, and may be a video image of one frame. The automatic annotation unit may generate a composite image using an arbitrary transformation value (S12). For example, any transformation value may be any rotational transformation value or any shift transformation value. The automatic annotation unit may generate a plurality of composite images by applying various arbitrary transformation values from one video image.
자동 주석부는 생성된 각각의 합성 이미지에 대해 임의의 변형 값의 절대값과 기 설정된 임계값을 비교할 수 있다(S13). 예를 들어, 기 설정된 임계값은 회전 임계값일 수 있고, 시프트 임계값일 수 있다. 자동 주석부는 임의의 변형 값이 임의의 회전 변형 값인 경우 회전 임계값과 비교하고, 임의의 변형 값이 임의의 시프트 변형 값인 경우 시프트 임계값과 비교할 수 있다.The automatic annotation unit may compare an absolute value of an arbitrary deformation value with a preset threshold value for each generated composite image (S13). For example, the preset threshold may be a rotation threshold or a shift threshold. The auto-annotator may compare with a rotation threshold when the arbitrary transformation value is an arbitrary rotational transformation value, and compare with a shift threshold when the arbitrary transformation value is an arbitrary shift transformation value.
자동 주석부는 임의의 변형 값의 절대값과 기 설정된 임계값을 비교하여 임의의 변형 값의 절대값이 기 설정된 임계값보다 작은 경우 정상 이미지로 레이블링할 수 있다(S14-1). 그리고, 자동 주석부는 임의의 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 이탈 이미지로 레이블링할 수 있다(S14-2). 도 3에는 임의의 변형 값이 기 설정된 임계값과 같은 경우는 도시되지 않았다. 그러나, 임의의 변형 값이 기 설정된 임계값과 같은 경우 정상 이미지 또는 이탈 이미지 중 하나의 이미지로 레이블링하도록 자동 주석부가 설정될 수 있다.The automatic annotation unit may compare the absolute value of the arbitrary deformation value with a preset threshold value, and label the normal image when the absolute value of the arbitrary deformation value is less than the preset threshold value (S14-1). And, the automatic annotation unit may label the deviation image when the absolute value of the arbitrary deformation value is greater than a preset threshold value (S14-2). The case where the arbitrary deformation value is equal to the preset threshold value is not shown in FIG. 3 . However, when an arbitrary deformation value is equal to a preset threshold value, the automatic annotation unit may be set to label the image as either a normal image or a deviation image.
상술한 바와 같이, 차선 이탈 감지 장치는 하나의 영상 이미지로부터 복수의 레이블링 이미지를 자동으로 생성할 수 있으므로 CNN 학습을 위한 레이블링 이미지를 용이하고 빠르게 생성할 수 있다. 차선 이탈 감지 장치는 생성된 레이블링 이미지를 이용하여 딥뉴럴 네트워크를 학습시킬 수 있다.As described above, since the lane departure detecting apparatus can automatically generate a plurality of labeling images from one video image, it is possible to easily and quickly generate a labeling image for CNN learning. The lane departure detection apparatus may train a deep neural network using the generated labeling image.
도 4는 본 개시의 일 실시 예에 따른 차선 이탈을 학습시키는 과정을 설명하는 도면이다.4 is a view for explaining a process of learning lane departure according to an embodiment of the present disclosure.
도 4를 참조하면, CNN(22)의 구조가 도시되어 있다. 도 4에서는 컨벌루션 레이어, ReLU(Rectified Linear Unit) 레이어 및 풀링 레이어를 각각 3개씩 포함하는 CNN(22)이 도시되어 있으나, 각 레이어의 개수는 다양하게 설정할 수 있다. CNN(22)은 레이블링 이미지(21)를 입력받을 수 있다. 예를 들어, 레이블링 이미지는 360×120 사이즈일 수 있고, RGB 데이터를 포함하는 컬러 이미지일 수 있다. 그리고, CNN(22)에 입력되는 레이블링 이미지는 CNN(22)에 입력되기 전 전체 학습 영상의 평균을 감산한 이미지일 수 있다.4, the structure of the
CNN(22)에 입력된 레이블링 이미지는 제1 컨벌류션 레이어에서 기 설정된 필터에 의해 제1 매트릭스 맵으로 생성될 수 있다. 생성된 제1 매트릭스 맵은 활성화 함수(activation function)로서 ReLU를 사용하는 제1 ReLU 레이어로 전달된다. 활성화 함수는 인간의 시냅스에 전달된 활동전위 신호가 최소의 자극값을 초과할 때 활성화되어 다음 뉴런으로 전달되는 과정을 구현한 함수를 의미한다. 즉, ReLU 레이어는 생성된 제1 매트릭스 맵을 0과 비교하여 큰 값이 리턴된 제2 매트릭스 맵을 생성한다.The labeling image input to the
제1 ReLU 레이어에서 처리된 제2 매트릭스 맵은 제1 풀링 레이어로 전달된다. 일 실시 예로서, 풀링 레이어는 평균 풀링(average pooling)을 수행할 수 있다. 풀링 레이어는 이미지의 크기를 줄이는 역할을 수행하며, 평균 풀링은 풀링 윈도우(pooling window) 내에 있는 픽셀들의 평균을 취하는 방식을 의미한다. 제1 풀링 레이어에서 처리된 맵(또는 이미지)은 최초 이미지에 비해 절반의 크기로 리사이징될 수 있다. 따라서, 도 4에 도시된 CNN(22)에서 처리된 이미지는 45×15 사이즈의 특성 맵(feature map)으로 출력될 수 있다.The second matrix map processed in the first ReLU layer is transferred to the first pooling layer. As an embodiment, the pooling layer may perform average pooling. The pooling layer serves to reduce the size of an image, and average pooling refers to a method of taking an average of pixels within a pooling window. The map (or image) processed in the first pooling layer may be resized to half the size of the original image. Accordingly, the image processed by the
도 4에 도시된 CNN(22)은 2개의 FC(Fully connected layer)를 포함하며, 각각 1024개의 노드를 가질 수 있다. 상술한 FC 개수 및 노드 개수는 일 실시 예이며, 구현 방식에 따라 CNN(22)은 다양한 개수의 FC 및 노드 개수를 포함할 수 있다. FC는 특성 맵의 특성들을 연결하고 특성들이 연결된 특성 맵은 소프트맥스의 확률 처리 과정을 거쳐 세 개의 클래스 중 하나로 분류될 수 있다. 예를 들어, 세 개의 클래스는 정상 운행, 좌측 차선 이탈 및 우측 차선 이탈을 포함할 수 있다.The
도 4에서는 세 개의 클래스로 차선 이탈 여부를 분류하는 실시 예를 설명하였으나, 구현 방법에 따라 CNN(22)은 좌측 10% 차선 이탈, 좌측 20% 차선 이탈, 좌측 30% 차선 이탈, 우측 10% 차선 이탈, 우측 20% 차선 이탈 및 우측 30% 차선 이탈의 클래스로 차선 이탈 여부를 분류할 수도 있다.In FIG. 4, an embodiment of classifying lane departure into three classes has been described, but depending on the implementation method, the
도 5는 본 개시의 일 실시 예에 따른 차선 이탈 네트워크의 결과물을 나타내는 도면이다.5 is a diagram illustrating a result of a lane departure network according to an embodiment of the present disclosure.
도 5를 참조하면, CNN에서 판단된 다양한 이미지가 도시되어 있다. 도 5에 도시된 바와 같이, CNN은 학습 과정을 통해 좌측 차선 이탈, 우측 차선 이탈 및 정상 운행의 클래스로 이미지를 분류할 수 있다.5, various images determined by CNN are shown. As shown in FIG. 5 , the CNN may classify images into classes of left lane departure, right lane departure, and normal driving through a learning process.
지금까지 차선 이탈 감지 장치의 다양한 실시 예를 설명하였다. 아래에서는 차선 이탈 감지 장치 제어 방법의 흐름도를 설명한다.So far, various embodiments of the lane departure detection device have been described. Hereinafter, a flowchart of a method for controlling the lane departure detection device will be described.
도 6은 본 개시의 일 실시 예에 따른 차선 이탈 감지 장치 제어 방법의 흐름도이다.6 is a flowchart of a method for controlling an apparatus for detecting lane departure according to an embodiment of the present disclosure.
도 6을 참조하면, 차선 이탈 감지 장치는 차선이 포함된 이미지를 입력받는다(S610). 예를 들어, 차선이 포함된 이미지는 차선이 이탈되지 않은 정상 운행 이미지일 수 있다. 차선 이탈 감지 장치는 입력된 이미지에 임의의 변형 값을 적용하여 합성 이미지를 생성한다(S620). 임의의 변형 값은 입력된 이미지를 회전시키는 회전 변형 값 또는 좌우로 시프트시키는 시프트 변형 값일 수 있다. 차선 이탈 감지 장치는 하나의 입력 이미지에 다양한 임의의 변형 값을 적용하여 복수의 합성 이미지를 생성할 수 있다.Referring to FIG. 6 , the lane departure detecting apparatus receives an image including a lane ( S610 ). For example, the image including the lane may be a normal driving image in which the lane is not deviated. The lane departure detecting apparatus generates a composite image by applying an arbitrary deformation value to the input image (S620). The arbitrary transformation value may be a rotation transformation value that rotates the input image or a shift transformation value that shifts the input image left and right. The lane departure detecting apparatus may generate a plurality of composite images by applying various arbitrary deformation values to one input image.
차선 이탈 감지 장치는 임의의 변형 값의 절대값을 기 설정된 임계값과 비교한다(S630). 기 설정된 임계값은 기 설정된 임계값은 회전 임계값일 수 있고, 시프트 임계값일 수 있다.The lane departure detecting apparatus compares the absolute value of the arbitrary deformation value with a preset threshold value (S630). The preset threshold may be a rotation threshold or a shift threshold.
차선 이탈 감지 장치는 임의의 변형 값의 절대값이 기 설정된 임계값보다 작은 경우 정상 이미지로 레이블링한다(S640). 차선 이탈 감지 장치는 임의의 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 이탈 이미지로 레이블링한다(S650). 차선 이탈 감지 장치는 레이블링 이미지를 이용하여 CNN을 학습시킬 수 있다.When the absolute value of the arbitrary deformation value is less than a preset threshold value, the lane departure detection apparatus labels the normal image (S640). When the absolute value of the arbitrary deformation value is greater than a preset threshold value, the lane departure detection apparatus labels the departure image as a departure image (S650). The lane departure detection device may train the CNN using the labeling image.
상술한 다양한 실시 예에 따른 ~ 방법은 컴퓨터 프로그램 제품으로 제공될 수도 있다. 컴퓨터 프로그램 제품은 S/W 프로그램 자체 또는 S/W 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)를 포함할 수 있다.The ~ method according to the above-described various embodiments may be provided as a computer program product. The computer program product may include the S/W program itself or a non-transitory computer readable medium in which the S/W program is stored.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다. The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, etc., and can be read by a device. Specifically, the above-described various applications or programs may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims Various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.
100, 100a: 차선 이탈 감지 장치 110: 제1 입력부
120: 자동 주석부 130: CNN
140: 제2 입력부 150: 출력부100, 100a: lane departure detection device 110: first input unit
120: automatic annotation 130: CNN
140: second input unit 150: output unit
Claims (7)
상기 입력된 이미지에 랜덤 변형 값을 적용하여 합성 이미지를 생성하는 단계; 및
상기 랜덤 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 상기 생성된 합성 이미지를 이탈 이미지로 레이블링하고, 상기 기 설정된 임계값보다 작은 경우 상기 생성된 합성 이미지를 정상 이미지로 레이블링하는 단계;를 포함하는 차선 이탈 감지 장치의 제어 방법.receiving an image including a lane;
generating a composite image by applying a random transformation value to the input image; and
Labeling the generated composite image as a deviation image when the absolute value of the random transformation value is greater than a preset threshold, and labeling the generated composite image as a normal image when less than the preset threshold. A method of controlling a lane departure detection system.
상기 랜덤 변형 값은,
회전 변형 값 및 시프트 변형 값 중 적어도 하나인 차선 이탈 감지 장치의 제어 방법.According to claim 1,
The random transformation value is
A method of controlling a lane departure detecting device that is at least one of a turning deformation value and a shift deformation value.
상기 레이블링된 합성 이미지를 이용하여 신경망을 학습하는 단계;를 더 포함하는 차선 이탈 감지 장치의 제어 방법.According to claim 1,
Learning a neural network using the labeled composite image; The control method of the lane departure detection device further comprising a.
상기 신경망을 학습하는 단계는,
상기 레이블링된 합성 이미지를 컨벌루션하여 제1 매트릭스 맵을 생성하고, 상기 생성된 제1 매트릭스 맵을 0과 비교하여 큰 값이 리턴된 제2 매트릭스 맵을 생성하며, 상기 생성된 제2 매트릭스 맵을 리사이징(resizing)하여 특성 맵을 생성하고, 상기 생성된 특성 맵을 연결하고, 상기 연결된 특성 맵에 기초하여 상기 레이블링된 합성 이미지의 클래스를 분류하는 차선 이탈 감지 장치의 제어 방법.4. The method of claim 3,
The step of learning the neural network is,
Convolving the labeled composite image to generate a first matrix map, comparing the generated first matrix map with 0 to generate a second matrix map in which a large value is returned, and resizing the generated second matrix map (resizing) to generate a characteristic map, connect the generated characteristic map, and classify a class of the labeled composite image based on the connected characteristic map.
상기 클래스는,
정상 운행, 좌측 차선 이탈 및 우측 차선 이탈 중 적어도 하나인 차선 이탈 감지 장치의 제어 방법.5. The method of claim 4,
The class is
A method of controlling a lane departure detecting device that is at least one of normal driving, left lane departure, and right lane departure.
차선이 포함된 판단 대상 이미지를 입력받는 단계;
상기 판단 대상 이미지로부터 차선을 감지하는 단계; 및
상기 학습된 신경망 및 상기 감지된 차선의 위치에 기초하여 정상 운행, 좌측 차선 이탈 또는 우측 차선 이탈을 판단하는 단계;를 더 포함하는 차선 이탈 감지 장치의 제어 방법.6. The method of claim 5,
receiving a judgment target image including a lane;
detecting a lane from the judgment target image; and
and determining normal driving, left lane departure, or right lane departure based on the learned neural network and the detected lane position.
상기 입력된 이미지를 변형하여 레이블링하는 자동 주석부;를 포함하고,
상기 자동 주석부는,
상기 입력된 이미지에 랜덤 변형 값을 적용하여 합성 이미지를 생성하고, 상기 랜덤 변형 값의 절대값이 기 설정된 임계값보다 큰 경우 상기 생성된 합성 이미지를 이탈 이미지로 레이블링하고, 상기 기 설정된 임계값보다 작은 경우 상기 생성된 합성 이미지를 정상 이미지로 레이블링하는 차선 이탈 감지 장치.
an input unit for receiving an image including a lane; and
and an automatic annotation unit for labeling and transforming the input image.
The automatic annotation section,
A composite image is generated by applying a random transformation value to the input image, and when the absolute value of the random transformation value is greater than a preset threshold value, the generated composite image is labeled as a departure image, and greater than the preset threshold value. A lane departure detection device that labels the generated composite image as a normal image when it is small.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170144687A KR102296205B1 (en) | 2017-11-01 | 2017-11-01 | Lane departure detecting device and controlling method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020170144687A KR102296205B1 (en) | 2017-11-01 | 2017-11-01 | Lane departure detecting device and controlling method thereof |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20190049147A KR20190049147A (en) | 2019-05-09 |
| KR102296205B1 true KR102296205B1 (en) | 2021-09-01 |
Family
ID=66545670
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020170144687A Active KR102296205B1 (en) | 2017-11-01 | 2017-11-01 | Lane departure detecting device and controlling method thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102296205B1 (en) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002300573A (en) | 2001-03-30 | 2002-10-11 | Toshiba Corp | Video diagnostic system for on-board video monitoring equipment |
| JP2002318130A (en) | 2001-02-13 | 2002-10-31 | Alpine Electronics Inc | Traveling lane detecting device and navigation apparatus |
| KR100633297B1 (en) | 2005-07-04 | 2006-10-13 | 현대자동차주식회사 | How to save and display lane information in black box system using lane departure alarm device data |
| JP2012527681A (en) | 2009-05-19 | 2012-11-08 | イメージネクスト シーオー エルティディ | Lane departure detection method and apparatus using vehicle periphery image |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101437743B1 (en) * | 2012-12-10 | 2014-10-30 | 민정곤 | System and method for detecting traffic lane in real time, navigation and black-box for vechicle using the same |
-
2017
- 2017-11-01 KR KR1020170144687A patent/KR102296205B1/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2002318130A (en) | 2001-02-13 | 2002-10-31 | Alpine Electronics Inc | Traveling lane detecting device and navigation apparatus |
| JP2002300573A (en) | 2001-03-30 | 2002-10-11 | Toshiba Corp | Video diagnostic system for on-board video monitoring equipment |
| KR100633297B1 (en) | 2005-07-04 | 2006-10-13 | 현대자동차주식회사 | How to save and display lane information in black box system using lane departure alarm device data |
| JP2012527681A (en) | 2009-05-19 | 2012-11-08 | イメージネクスト シーオー エルティディ | Lane departure detection method and apparatus using vehicle periphery image |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20190049147A (en) | 2019-05-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11430124B2 (en) | Visual object instance segmentation using foreground-specialized model imitation | |
| CN109978893B (en) | Training method, device, equipment and storage medium of image semantic segmentation network | |
| KR102415503B1 (en) | Method for training classifier and detecting object | |
| US10282623B1 (en) | Depth perception sensor data processing | |
| CN111985458B (en) | Method for detecting multiple targets, electronic equipment and storage medium | |
| US20180114071A1 (en) | Method for analysing media content | |
| US20180211099A1 (en) | Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition | |
| US20170371329A1 (en) | Multi-modal sensor data fusion for perception systems | |
| US10762440B1 (en) | Sensor fusion and deep learning | |
| CN107851213A (en) | Shift learning in neutral net | |
| CN110020580A (en) | Identify the method for object and facial expression and the method for training facial expression | |
| US20190244008A1 (en) | Manufacturing Part Identification Using Computer Vision And Machine Learning | |
| CN107533669A (en) | Wave filter specificity is as the training criterion for neutral net | |
| KR102476758B1 (en) | Method and device to normalize image | |
| CN113591543B (en) | Traffic sign recognition method, device, electronic equipment and computer storage medium | |
| CN112541394A (en) | Black eye and rhinitis identification method, system and computer medium | |
| US10735660B2 (en) | Method and device for object identification | |
| JP7706975B2 (en) | DETECTION DEVICE, DETECTION METHOD, AND DETECTION PROGRAM | |
| CN115100614A (en) | Evaluation method, device, vehicle and storage medium for vehicle perception system | |
| CN111985537A (en) | Target image identification method, terminal, system and storage medium | |
| KR102608471B1 (en) | Method and apparatus for eye tracking | |
| CN114067401A (en) | Target detection model training and identity verification method and device | |
| CN111277812B (en) | Image processing method and apparatus | |
| US11335128B2 (en) | Methods and systems for evaluating a face recognition system using a face mountable device | |
| CN111178363A (en) | Character recognition method, device, electronic device and readable storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20171101 |
|
| PG1501 | Laying open of application | ||
| A201 | Request for examination | ||
| PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20200810 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20171101 Comment text: Patent Application |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20210819 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210825 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20210826 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration | ||
| PR1001 | Payment of annual fee |
Payment date: 20240723 Start annual number: 4 End annual number: 4 |