KR102060662B1 - 차량의 주행 이벤트를 검출하는 전자 장치 및 방법 - Google Patents
차량의 주행 이벤트를 검출하는 전자 장치 및 방법 Download PDFInfo
- Publication number
- KR102060662B1 KR102060662B1 KR1020180049405A KR20180049405A KR102060662B1 KR 102060662 B1 KR102060662 B1 KR 102060662B1 KR 1020180049405 A KR1020180049405 A KR 1020180049405A KR 20180049405 A KR20180049405 A KR 20180049405A KR 102060662 B1 KR102060662 B1 KR 102060662B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- learning
- driving
- data
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/04—Traffic conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0062—Adapting control system settings
- B60W2050/0075—Automatic parameter input, automatic initialising or calibrating means
- B60W2050/0083—Setting, resetting, calibration
- B60W2050/0088—Adaptive recalibration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2111/00—Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
- G05D2111/10—Optical signals
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
일 실시예에 의하여 프로세서 및 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리를 포함하고, 프로세서는 명령어들을 실행함으로써, 차량으로부터 차량의 주행 중 촬영된 복수의 프레임(frame)들을 포함하는 비디오 시퀀스를 획득하고, 복수의 프레임들 내에 포함된 객체의 위치를 인식하고, 복수의 프레임들 내의 객체의 위치에 대한 시계열적 변화를 분석함으로써, 차량의 주행에 관련된 이벤트 발생 여부를 결정할 수 있다.
Description
도 2는 일 개시에 의한 전자 장치가 이벤트 발생 여부를 결정하는 방법을 나타내는 흐름도이다.
도 3은 일 개시에 의한 차량의 주행에 관련된 이벤트 발생 여부를 결정하는 학습모델의 생성을 설명하기 위한 도면이다.
도 4는 일 개시에 의한 제 1 학습 모델을 이용하여 객체를 검출하는 예시를 설명하기 위한 도면이다.
도 5는 일 개시에 의한 검출된 객체와 차량과의 거리에 따라 객체인지 또는 노이즈인지 여부를 결정하는 것을 설명하기 위한 도면이다.
도 6은 일 개시에 의하여 제 2 학습 모델을 이용하여 객체의 시계열적 이동에 따른 이벤트 발생 여부를 결정하는 예시를 나타내는 도면이다.
도 7은 일 개시에 의한 복수개의 데이터프레임 중 시간의 흐름에 따른 이벤트 발생 검출을 위하여 차량의 전방에 감지된 객체의 프레임을 획득하는 예시를 나타내는 도면이다.
도 8은 일 개시에 따른 학습 모델을 이용하여 시계열적 프레임 분석을 통한 이벤트 발생 여부를 검출하는 예시를 설명하기 위한 도면이다.
도 9는 일 개시에 의한 가상현실을 이용하여 차량 주행 데이터를 획득하기 위한 예시를 나타내는 도면이다.
도 10은 일 개시에 의한 이벤트의 종류에 따른 알림 메시지 및 차량 제어 명령을 결정하기 위한 예시를 나타내는 도면이다.
도 11은 일 개시에 의한 차량의 HUD(head up display)에 알림메시지를 출력하는 예시를 설명하는 도면이다.
도 12는 일 개시에 의한 차량에 알림 메시지를 출력하는 예시를 나타내는 도면이다.
도 13은 일 개시에 따른 전자 장치의 구성을 나타내는 블록도이다.
도 14는 일 개시에 따른 전자 장치의 상세 구성을 나타내는 블록도이다.
도 15는 일 실시예에 따른 제어부를 나타내는 블록도이다.
도 16은 일 실시예에 따른 데이터 학습부를 나타내는 블록도이다.
도 17은 일 실시예에 따른 데이터 인식부를 나타내는 블록도이다.
도 18은 일 실시예에 따른 전자 장치 및 서버가 서로 연동함으로써 데이터를 학습하고 인식하는 예시를 나타내는 도면이다.
Claims (20)
- 프로세서; 및
상기 프로세서에 의해 실행 가능한 명령어들을 저장하는 메모리; 를 포함하고,
상기 프로세서는,
상기 명령어들을 실행함으로써,
차량으로부터 상기 차량의 주행 중 촬영된 복수의 프레임(frame)들을 포함하는 영상을 획득하고,
상기 획득된 영상에 포함된 복수의 프레임들 중 제1 프레임과 제2 프레임을 순차적으로 제1 학습 모델에 입력하고,
상기 제1 학습 모델을 통해, 상기 제1 프레임에 포함된 적어도 하나의 객체의 위치와, 상기 제2 프레임에 포함된 적어도 하나의 객체의 위치를 출력하고,
상기 제1 학습 모델에서 출력된 상기 제1 프레임에 포함된 적어도 하나의 객체의 위치 중 제1 객체의 위치와, 상기 제2 프레임에 포함된 적어도 하나의 객체의 위치 중 제1 객체의 위치에 기초하여, 제2 학습 모델을 통해 상기 차량의 주행에 관련된 이벤트의 발생에 대한 정보를 출력하는, 전자 장치.
- 제1항에 있어서,
상기 프로세서는,
상기 제1 객체의 위치를 인식하고,
상기 제1 객체의 종류를 결정하고,
상기 제1 객체가 인식된 위치에서 상기 제1 객체의 종류가 가질 수 있는 기준 크기 정보와 상기 인식된 제1 객체의 크기 정보를 비교하여, 상기 제1 객체가 노이즈인지 여부를 결정하는, 전자 장치.
- 제2항에 있어서,
상기 크기 정보는,
상기 차량과 상기 제1 객체와의 거리에 따라 상기 제1 객체가 프레임에서 차지할 수 있는 면적의 범위에 대하여 미리 정의한 정보를 포함하는, 전자 장치.
- 제1항에 있어서,
상기 프로세서는,
학습 차량의 주행 중 촬영된 복수의 학습 프레임들을 포함하는 비디오 시퀀스에서 학습 객체를 검출하는 동시에, 상기 학습 객체에 좌표 정보를 매핑함으로써, 상기 복수의 학습 프레임들 내에서 상기 학습 객체의 좌표 정보에 대응하는 상기 학습 객체의 위치를 학습한 결과에 기초하여 상기 제1 학습 모델을 획득하고,
상기 획득한 제1 학습 모델을 이용하여, 상기 복수의 프레임들에 포함된 상기 제1 객체의 위치를 인식하는, 전자 장치.
- 제4항에 있어서,
상기 제1 학습 모델은, FCN(Fully Convolutional Network)에 추가된 좌표 정보를 이용하여, 복수의 학습 프레임들 내에서의 학습 객체의 위치에 따른 중요도를 판단하는 기준을 학습함으로써 생성되는, 전자 장치.
- 제1항에 있어서,
상기 프로세서는,
상기 제1 객체의 위치를 상기 복수의 프레임들로부터 픽셀(pixel) 단위로 인식하는, 전자 장치.
- 제4항에 있어서,
상기 프로세서는,
상기 제1 학습 모델에 입력하기 위하여, 상기 복수의 프레임들의 명도(lightening degree)를 평탄화(flattening)하기 위한 필터를 상기 복수의 프레임들에 적용하는, 전자 장치.
- 제1항에 있어서,
상기 프로세서는,
상기 복수의 프레임들 내에서의 상기 제1 객체의 위치에 대한 시계열적 변화에 따른 상기 제1 객체의 이동 속도 및 이동 방향을 결정하고, 상기 제1 객체의 이동 속도 및 이동 방향에 기초하여, 상기 차량의 주행에 관련된 이벤트의 종류 및 주행의 위험도를 결정하는, 전자 장치.
- 제8항에 있어서,
상기 프로세서는,
상기 결정된 이벤트의 종류 및 주행의 위험도에 기초하여 상기 차량의 주행을 제어하는 명령을 생성하는, 전자 장치.
- 제9항에 있어서,
상기 프로세서는,
상기 주행의 위험도가 임계 값 이상인 경우, 상기 차량의 주행을 제어하는 명령을 자동으로 실행하여 상기 차량의 주행을 자동 제어하는, 전자 장치.
- 제8항에 있어서,
상기 프로세서는,
상기 이벤트의 종류 및 주행의 위험도에 기초하여 상기 이벤트를 알리는 알림 메시지를 출력하는, 전자 장치.
- 제11항에 있어서,
상기 프로세서는,
상기 알림 메시지를 상기 차량의 HUD(head up display)에 디스플레이 하는, 전자 장치.
- 제1항에 있어서,
상기 프로세서는,
상기 복수의 프레임들 내에서 복수개의 객체가 검출되는 경우, 상기 복수개의 객체의 위치에 대한 시계열적 변화에 따라, 상기 복수개의 객체 각각에 의하여 야기될 수 있는 상기 차량의 주행에 관련된 이벤트 발생 가능성을 수치로 판단하는, 전자 장치.
- 제1항에 있어서,
상기 프로세서는,
RNN(Recurrent Neural Network)을 이용하여, 복수의 학습 프레임들 내에서의 학습 객체의 위치에 대한 시계열적 변화에 따라 학습 차량의 주행에 관련된 이벤트가 발생하였는지를 학습한 결과에 기초하여 상기 제2 학습 모델을 획득하고,
상기 획득한 제2 학습 모델을 이용하여, 상기 제1 객체와 관련된 상기 차량의 주행에 관련된 이벤트 발생 여부를 결정하는, 전자 장치.
- 제1항에 있어서,
상기 프로세서는,
가상 시뮬레이션 장치로부터, 학습 차량의 주행 데이터를 획득하고,
상기 학습 차량의 주행 데이터는, 상기 학습 차량의 주행 중 촬영된 주행 영상, 상기 가상 시뮬레이션 장치의 정보, 상기 학습 차량의 상태 정보, 상기 학습 차량의 운행 정보, 다른 차량의 주행 정보 및 주변 환경 정보를 중 적어도 하나를 포함하는, 전자 장치.
- 제15항에 있어서,
상기 학습 차량의 주행 데이터는,
일정한 패턴을 포함하는 주행 환경에 비일정한 패턴을 포함하는 주행 이벤트를 추가한 가상의 주행 환경에서 상기 학습 차량을 주행시킴으로써 획득한 주행 데이터를 포함하는, 전자 장치.
- 차량으로부터 상기 차량의 주행 중 촬영된 복수의 프레임(frame)들을 포함하는 비디오 시퀀스를 획득하는 단계;
상기 획득된 영상에 포함된 복수의 프레임들 중 제1 프레임과 제2 프레임을 순차적으로 제1 학습 모델에 입력하는 단계;
상기 제1 학습 모델을 통해, 상기 제1 프레임에 포함된 적어도 하나의 객체의 위치와, 상기 제2 프레임에 포함된 적어도 하나의 객체의 위치를 출력하는 단계; 및
상기 제1 학습 모델에서 출력된 상기 제1 프레임에 포함된 적어도 하나의 객체의 위치 중 제1 객체의 위치와, 상기 제2 프레임에 포함된 적어도 하나의 객체의 위치 중 제1 객체의 위치에 기초하여, 제2 학습 모델을 통해 상기 차량의 주행에 관련된 이벤트의 발생에 대한 정보를 출력하는 단계;
를 포함하는, 방법.
- 제17항에 있어서,
상기 제1 객체의 위치를 인식하는 단계를 더 포함하고,
상기 제1 객체의 위치를 인식하는 단계는,
상기 제1 객체의 종류를 결정하는 단계; 및
상기 제1 객체가 인식된 위치에서 상기 제1 객체의 종류가 가질 수 있는 기준 크기 정보와 상기 인식된 제1 객체의 크기 정보를 비교하여, 상기 제1 객체가 노이즈인지 여부를 결정하는 단계;
를 포함하는, 방법.
- 제18항에 있어서,
상기 크기 정보는,
상기 차량과 상기 제1 객체와의 거리에 따라 상기 제1 객체가 프레임에서 차지할 수 있는 면적의 범위에 대하여 미리 정의한 정보를 포함하는, 방법.
- 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터 프로그램에 있어서, 상기 기록매체는,
차량으로부터 상기 차량의 주행 중 촬영된 복수의 프레임(frame)들을 포함하는 비디오 시퀀스를 획득하는 단계;
상기 획득된 영상에 포함된 복수의 프레임들 중 제1 프레임과 제2 프레임을 순차적으로 제1 학습 모델에 입력하는 단계;
상기 제1 학습 모델을 통해, 상기 제1 프레임에 포함된 적어도 하나의 객체의 위치와, 상기 제2 프레임에 포함된 적어도 하나의 객체의 위치를 출력하는 단계; 및
상기 제1 학습 모델에서 출력된 상기 제1 프레임에 포함된 적어도 하나의 객체의 위치 중 제1 객체의 위치와, 상기 제2 프레임에 포함된 적어도 하나의 객체의 위치 중 제1 객체의 위치에 기초하여, 제2 학습 모델을 통해 상기 차량의 주행에 관련된 이벤트의 발생에 대한 정보를 출력하는 단계; 를 수행하는 명령어들을 포함하는, 컴퓨터 프로그램.
Priority Applications (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/KR2018/005524 WO2018212538A1 (en) | 2017-05-16 | 2018-05-15 | Electronic device and method of detecting driving event of vehicle |
| CN201880046552.2A CN110892451B (zh) | 2017-05-16 | 2018-05-15 | 检测车辆的驾驶事件的电子装置和方法 |
| US15/979,915 US10803323B2 (en) | 2017-05-16 | 2018-05-15 | Electronic device and method of detecting driving event of vehicle |
| EP18801907.9A EP3602497A4 (en) | 2017-05-16 | 2018-05-15 | ELECTRONIC DEVICE AND METHOD FOR DETECTING A DRIVING EVENT OF A VEHICLE |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201762506712P | 2017-05-16 | 2017-05-16 | |
| US62/506,712 | 2017-05-16 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20180125885A KR20180125885A (ko) | 2018-11-26 |
| KR102060662B1 true KR102060662B1 (ko) | 2019-12-30 |
Family
ID=64602944
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020180049405A Expired - Fee Related KR102060662B1 (ko) | 2017-05-16 | 2018-04-27 | 차량의 주행 이벤트를 검출하는 전자 장치 및 방법 |
Country Status (3)
| Country | Link |
|---|---|
| EP (1) | EP3602497A4 (ko) |
| KR (1) | KR102060662B1 (ko) |
| CN (1) | CN110892451B (ko) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102244380B1 (ko) | 2020-07-29 | 2021-04-26 | 고려대학교 산학협력단 | 자율 주행 환경에서 큐잉 기반 모델 선택과 광학 흐름을 이용한 사물 인식 방법, 이를 수행하기 위한 기록 매체 및 장치 |
| KR102286272B1 (ko) * | 2021-02-02 | 2021-08-06 | 주식회사 파트리지시스템즈 | 이벤트 검출 장치 및 그 방법 |
| WO2025079980A1 (ko) * | 2023-10-10 | 2025-04-17 | 주식회사 카데아 | 차량용 3d 어라운드 뷰 생성 방법 및 이용하여 생성된 동영상 정보 검색을 위한 데이터 분석 방법 |
Families Citing this family (24)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102052534B1 (ko) * | 2018-12-05 | 2019-12-06 | 주식회사 비욘드테크 | 딥 러닝 기반의 객체 인식을 이용한 불법복제 영상 판단 장치 및 그 방법 |
| WO2020131140A1 (en) * | 2018-12-18 | 2020-06-25 | Google Llc | Systems and methods for geolocation prediction |
| US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
| KR102190527B1 (ko) | 2019-02-28 | 2020-12-14 | 현대모비스 주식회사 | 자동 영상 합성 장치 및 방법 |
| WO2020242179A1 (ko) * | 2019-05-29 | 2020-12-03 | (주) 애니펜 | 콘텐츠를 제공하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 |
| US12361703B2 (en) | 2019-07-17 | 2025-07-15 | Telefonaktiebolaget Lm Ericsson (Publ) | Computer software module arrangement, a circuitry arrangement, an arrangement and a method for improved object detection |
| KR102322815B1 (ko) | 2019-09-11 | 2021-11-10 | 한국도로공사 | 카메라 기반의 도로이벤트 점유차로 검출 장치 및 그 방법 |
| KR102255178B1 (ko) * | 2019-11-20 | 2021-05-24 | 주식회사 엠씨넥스 | 프리즘 구동형 듀얼 카메라 장치 |
| KR102334388B1 (ko) * | 2019-12-16 | 2021-12-01 | 연세대학교 산학협력단 | 순차적 특징 데이터 이용한 행동 인식 방법 및 그를 위한 장치 |
| KR102498615B1 (ko) * | 2020-04-24 | 2023-02-14 | 군산대학교산학협력단 | 인공지능 기반의 나이트비전 시스템 |
| US11157813B1 (en) * | 2020-04-24 | 2021-10-26 | StradVision, Inc. | Method and device for on-vehicle active learning to be used for training perception network of autonomous vehicle |
| KR102189262B1 (ko) * | 2020-04-29 | 2020-12-11 | 주식회사 글로벌브릿지 | 엣지 컴퓨팅을 이용한 교통 정보 수집 장치 및 방법 |
| KR102311245B1 (ko) * | 2020-07-15 | 2021-10-08 | 한국로봇융합연구원 | 해상 환경에서 다종 카메라 영상을 기초로 심층신경망을 이용하여 목표 대상물과 항해장치 간 헤딩각도 차이와 상대거리를 추정하여 복수의 스러스터를 제어하기 위한 방법 |
| KR20220032799A (ko) * | 2020-09-08 | 2022-03-15 | 삼성전자주식회사 | 뉴럴 네트워크 프로파일링 방법 및 장치 |
| KR102699264B1 (ko) * | 2020-10-20 | 2024-08-29 | (주)와이파워원 | 무선 충전 전기자동차의 충전위치 정렬정보 제공 장치 및 방법 |
| KR102454281B1 (ko) * | 2020-11-10 | 2022-10-14 | 연세대학교 산학협력단 | 다중 객체의 박스-레벨 위치 정보만을 이용한 박스-레벨 다중 객체 동선 예측 장치 |
| KR102585258B1 (ko) * | 2020-12-07 | 2023-10-05 | 부경대학교 산학협력단 | 실시간 다중 객체 검출 장치 및 방법 |
| CN114911219B (zh) * | 2021-02-07 | 2025-05-23 | 深圳引望智能技术有限公司 | 一种用于视觉传感器的控制指令生成方法及装置、控制方法及装置 |
| US12030577B2 (en) | 2021-09-30 | 2024-07-09 | Snap Inc. | AR based performance modulation of a personal mobility system |
| KR102408481B1 (ko) * | 2022-01-11 | 2022-06-13 | 주식회사 다리소프트 | 도로 상의 위험물 정보를 수집하기 위한 정보 수집 단말 장치 및 그 동작 방법 |
| US12175605B2 (en) * | 2022-03-22 | 2024-12-24 | Snap Inc. | Situational-risk-based AR display |
| KR102594804B1 (ko) * | 2022-09-27 | 2023-10-30 | (주)에이아이매틱스 | 메모리 연동 가능한 계층적 구조 기반의 이벤트 검출 방법 및 장치 |
| KR102634365B1 (ko) * | 2022-10-21 | 2024-02-06 | 주식회사세오 | 안전 목적의 분산 처리 기반의 돌발 상황 인식 방법 및 장치 |
| KR102695981B1 (ko) * | 2023-10-27 | 2024-08-16 | 주식회사 자동차공학연구소 | 가상 도로주행 사건의 설계 방법 및 가상 도로주행 사건의 설계 시스템 |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20070073463A1 (en) * | 2005-03-23 | 2007-03-29 | Rini Sherony | Crash prediction network with graded warning for vehicle |
| US20160358477A1 (en) * | 2015-06-05 | 2016-12-08 | Arafat M.A. ANSARI | Smart vehicle |
Family Cites Families (15)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR950014862B1 (ko) * | 1992-02-08 | 1995-12-16 | 삼성전자주식회사 | 움직임추정방법 및 그 장치 |
| JPH1097700A (ja) * | 1996-09-20 | 1998-04-14 | Oki Electric Ind Co Ltd | 情報提供装置 |
| JP4615139B2 (ja) * | 2001-03-30 | 2011-01-19 | 本田技研工業株式会社 | 車両の周辺監視装置 |
| US7057532B2 (en) * | 2003-10-15 | 2006-06-06 | Yossef Shiri | Road safety warning system and method |
| JP5189157B2 (ja) * | 2010-11-30 | 2013-04-24 | 株式会社豊田中央研究所 | 可動物の目標状態決定装置及びプログラム |
| WO2012145819A1 (en) * | 2011-04-25 | 2012-11-01 | Magna International Inc. | Image processing method for detecting objects using relative motion |
| JP5939357B2 (ja) * | 2013-05-31 | 2016-06-22 | トヨタ自動車株式会社 | 移動軌跡予測装置及び移動軌跡予測方法 |
| CN103996178A (zh) * | 2014-05-30 | 2014-08-20 | 天津大学 | 一种沙尘天气彩色图像增强方法 |
| US9604639B2 (en) * | 2015-08-28 | 2017-03-28 | Delphi Technologies, Inc. | Pedestrian-intent-detection for automated vehicles |
| CN105868691B (zh) * | 2016-03-08 | 2019-05-21 | 青岛邃智信息科技有限公司 | 基于快速区域卷积神经网络的城市车辆追踪方法 |
| CN105976400B (zh) * | 2016-05-10 | 2017-06-30 | 北京旷视科技有限公司 | 基于神经网络模型的目标跟踪方法及装置 |
| CN106326837B (zh) * | 2016-08-09 | 2019-09-17 | 北京旷视科技有限公司 | 对象追踪方法和装置 |
| CN106250863B (zh) * | 2016-08-09 | 2019-07-26 | 北京旷视科技有限公司 | 对象追踪方法和装置 |
| CN106355573B (zh) * | 2016-08-24 | 2019-10-25 | 北京小米移动软件有限公司 | 图片中目标物的定位方法及装置 |
| GB201616095D0 (en) * | 2016-09-21 | 2016-11-02 | Univ Oxford Innovation Ltd | A neural network and method of using a neural network to detect objects in an environment |
-
2018
- 2018-04-27 KR KR1020180049405A patent/KR102060662B1/ko not_active Expired - Fee Related
- 2018-05-15 EP EP18801907.9A patent/EP3602497A4/en active Pending
- 2018-05-15 CN CN201880046552.2A patent/CN110892451B/zh active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20070073463A1 (en) * | 2005-03-23 | 2007-03-29 | Rini Sherony | Crash prediction network with graded warning for vehicle |
| US20160358477A1 (en) * | 2015-06-05 | 2016-12-08 | Arafat M.A. ANSARI | Smart vehicle |
Non-Patent Citations (2)
| Title |
|---|
| Classifications of Driving Patterns Using a Supervised Learning Method for Human-Vehicle Interaction, 2013.08.* |
| SqueezeDet: Unified, Small, Low Power Fully Convolutional Neural Networks for Real-Time Object Detection for Autonomous Driving, 2016.12.* |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102244380B1 (ko) | 2020-07-29 | 2021-04-26 | 고려대학교 산학협력단 | 자율 주행 환경에서 큐잉 기반 모델 선택과 광학 흐름을 이용한 사물 인식 방법, 이를 수행하기 위한 기록 매체 및 장치 |
| US12223737B2 (en) | 2020-07-29 | 2025-02-11 | Korea University Research And Business Foundation | Method for object recognition using queue-based model selection and optical flow in autonomous driving environment, recording medium and device for performing the method |
| KR102286272B1 (ko) * | 2021-02-02 | 2021-08-06 | 주식회사 파트리지시스템즈 | 이벤트 검출 장치 및 그 방법 |
| WO2022169076A1 (ko) * | 2021-02-02 | 2022-08-11 | 주식회사 파트리지시스템즈 | 이벤트 검출 장치 및 그 방법 |
| WO2025079980A1 (ko) * | 2023-10-10 | 2025-04-17 | 주식회사 카데아 | 차량용 3d 어라운드 뷰 생성 방법 및 이용하여 생성된 동영상 정보 검색을 위한 데이터 분석 방법 |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20180125885A (ko) | 2018-11-26 |
| EP3602497A1 (en) | 2020-02-05 |
| CN110892451A (zh) | 2020-03-17 |
| CN110892451B (zh) | 2025-02-28 |
| EP3602497A4 (en) | 2020-05-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102060662B1 (ko) | 차량의 주행 이벤트를 검출하는 전자 장치 및 방법 | |
| US10803323B2 (en) | Electronic device and method of detecting driving event of vehicle | |
| KR102480416B1 (ko) | 차선 정보를 추정하는 방법 및 전자 장치 | |
| US10769453B2 (en) | Electronic device and method of controlling operation of vehicle | |
| US11688195B2 (en) | Electronic device and method for assisting with driving of vehicle | |
| KR102298541B1 (ko) | 이미지 데이터에서 사용자를 인식하는 인공 지능 장치 및 그 방법 | |
| US11269328B2 (en) | Method for entering mobile robot into moving walkway and mobile robot thereof | |
| KR102404791B1 (ko) | 입력 영상에 포함된 객체를 인식하는 디바이스 및 방법 | |
| US20240031644A1 (en) | Video playback device and control method thereof | |
| US11138453B2 (en) | Driving guide method and apparatus for vehicle | |
| US11592825B2 (en) | Electronic device and operation method therefor | |
| KR102360181B1 (ko) | 차량의 동작을 제어하는 전자 장치 및 방법 | |
| EP3753688A1 (en) | Mobile robot device and method for providing service to user | |
| US11769047B2 (en) | Artificial intelligence apparatus using a plurality of output layers and method for same | |
| KR20190109663A (ko) | 차량의 주행을 보조하는 전자 장치 및 방법 | |
| KR20210073252A (ko) | 인공 지능 장치 및 그의 동작 방법 | |
| CN119559601A (zh) | 一种智能辅助驾驶系统的显著性目标检测方法 | |
| EP4654149A1 (en) | Natural language-based three-dimensional object manipulation device and method | |
| US11211079B2 (en) | Artificial intelligence device with a voice recognition | |
| KR20200084395A (ko) | 영상에서 오브젝트를 인식하는 전자 장치 및 그 동작 방법 | |
| US11205248B2 (en) | Mobile terminal | |
| CN110997415A (zh) | 控制车辆的操作的电子设备和方法 | |
| US20250108833A1 (en) | Autonomous driving using predictions of trust | |
| EP4672151A1 (en) | DEVICE AND METHOD FOR IMAGE-BASED HUMAN POSING ESTIMATION |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| AMND | Amendment | ||
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-2-2-P10-P22-nap-X000 |
|
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
St.27 status event code: N-2-6-B10-B15-exm-PE0601 |
|
| AMND | Amendment | ||
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| PX0901 | Re-examination |
St.27 status event code: A-2-3-E10-E12-rex-PX0901 |
|
| PX0701 | Decision of registration after re-examination |
St.27 status event code: A-3-4-F10-F13-rex-PX0701 |
|
| X701 | Decision to grant (after re-examination) | ||
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20221224 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20221224 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |