KR102350181B1 - 자율 주행 차량에서 rnn 및 lstm을 사용하여 시간적 평활화를 수행하는 lidar 위치 추정 - Google Patents
자율 주행 차량에서 rnn 및 lstm을 사용하여 시간적 평활화를 수행하는 lidar 위치 추정 Download PDFInfo
- Publication number
- KR102350181B1 KR102350181B1 KR1020197036976A KR20197036976A KR102350181B1 KR 102350181 B1 KR102350181 B1 KR 102350181B1 KR 1020197036976 A KR1020197036976 A KR 1020197036976A KR 20197036976 A KR20197036976 A KR 20197036976A KR 102350181 B1 KR102350181 B1 KR 102350181B1
- Authority
- KR
- South Korea
- Prior art keywords
- point cloud
- probability
- lidar
- offset amount
- rnns
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/001—Model-based coding, e.g. wire frame
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/14—Yaw
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Networks & Wireless Communication (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Computer Graphics (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
도 1은 본 발명의 일 실시형태에 따른 자율 주행 차량의 네트워크 구성을 도시하는 블록도이다.
도 2는 일 실시형태에 따른 자율 주행 차량의 예시를 도시하는 블록도이다.
도 3a 내지 도 3b는 일 실시형태에 따른 자율 주행 차량과 함께 사용되는 감지 및 계획 시스템의 예시를 도시하는 블록도이다.
도 4는 본 발명의 실시형태에 따른 학습 기반 LiDAR 위치 추정 시스템을 도시한다.
도 5는 실시형태에 따른 포인트 클라우드 특징을 추출하기 위한 시스템을 도시한다.
도 6은 실시형태에 따른 포인트 클라우드 특징을 추출하기 위한 시스템의 예시적 실시수단을 도시한다.
도 7은 실시형태에 따른 포인트 클라우드 특징을 추출하는 예시적 프로세스를 도시하는 흐름도이다.
도 8은 실시형태에 따른 LiDAR 위치 추정에서 신경망을 사용하는 해결수단을 추론하기 위한 시스템을 도시한다.
도 9는 실시형태에 따른 LiDAR 위치 추정에서 신경망을 사용하는 해결수단을 추론하기 위한 시스템의 예시적 실시수단을 도시한다.
도 10은 실시형태에 따른 LiDAR 위치 추정에서 신경망을 사용하는 해결수단을 추론하기 위한 예시적 프로세의 흐름도를 도시한다.
도 11은 실시형태에 따른 ADV의 위치 확정 결과에서 시간적 평활화를 수행하기 위한 시스템을 도시한다.
도 12는 실시형태에 따른 ADV의 위치 확정 결과에서 시간적 평활화를 수행하기 위한 시스템의 예시적 실시수단을 도시한다.
도 13은 실시형태에 따른 ADV의 위치 확정 결과에서 시간적 평활화를 수행하기 위한 예시적 프로세의 흐름도를 도시한다.
도 14는 실시형태에 따른 학습 기반 LiDAR 위치 추정 시스템(1400)의 전체 아키텍처를 도시한다.
도 15는 실시형태에 따른 학습 기반 LiDAR 위치 추정 시스템(1500)의 전체 아키텍처를 보다 자세히 도시한다.
도 16은 본 발명의 일 실시형태와 함께 사용될 수 있는 데이터 처리 시스템의 예시를 도시하는 블록도이다.
Claims (21)
- 자율 주행 차량(ADV)의 위치 추정 결과에서 시간적 평활화를 수행하기 위한 컴퓨터 실행 방법에 있어서,
온라인 포인트 클라우드의 복수의 연속적인 광 검출 및 거리 측정(LiDAR) 프레임 중 각각에 대해 확률 오프셋량을 생성하는 단계 - 상기 확률 오프셋량은, 상기 온라인 포인트 클라우드의 제1 그룹 키 포인트와 미리 구축된 포인트 클라우드 지도의 제2 그룹 키 포인트 사이의 전체 매칭 비용을 나타냄 -;
상기 확률 오프셋량을 X 차원, Y 차원 및 요 (yaw) 차원에서 복수의 확률 벡터로 압축하는 단계;
상기 확률 오프셋량의 각 확률 벡터를 복수의 순환 신경망 (RNN)에 제공하는 단계; 와
상기 복수의 RNN에 의해, 복수의 연속적인 LiDAR 프레임에서 위치 추정 결과의 궤적을 생성하는 단계를 포함하는 컴퓨터 실행 방법. - 제1항에 있어서,
상기 확률 오프셋량은 복수의 서브량을 포함하고, 각 서브량은 상기 ADV의 특정 위치 오프셋에 대한 상기 온라인 포인트 클라우드와 상기 미리 구축된 포인트 클라우드 지도 사이의 전체 매칭 비용을 나타내는 컴퓨터 실행 방법. - 제1항에 있어서,
상기 RNN 각각은 복수의 LSTM (long short term memory) 유닛을 포함하는 컴퓨터 실행 방법. - 제3항에 있어서,
상기 확률 벡터 각각을 입력으로서 상기 복수의 LSTM 유닛 중 하나에 제공되는 컴퓨터 실행 방법. - 제1항에 있어서,
상기 복수의 RNN은, 상기 복수의 연속적인 LiDAR 프레임의 학습된 이력 정보에 기반하여, 상기 복수의 연속적인 LiDAR 프레임에서 위치 추정 결과의 궤적을 평활화하는 컴퓨터 실행 방법. - 제1항에 있어서,
상기 ADV는 상기 복수의 연속적인 LiDAR 프레임에서 복수의 예측 포즈를 갖는 컴퓨터 실행 방법. - 제1항에 있어서,
상기 확률 오프셋량은 비용량에 기반하여 구축되고, 상기 비용량은 상기 온라인 포인트 클라우드로부터 추출된 제1 그룹 특징 기술어 및 상기 미리 구축된 포인트 클라우드 지도로부터 추출된 제2 그룹 특징 기술어에 기반하여 구축된 컴퓨터 실행 방법. - 자율 주행 차량(ADV)의 위치 추정 결과에서 시간적 평활화를 수행하기 위한 시스템에 있어서,
프로세서; 및
명령을 저장하기 위해 상기 프로세서에 연결된 메로리를 포함하고,
상기 명령이 프로세서에 의해 실행될 경우, 상기 프로세서가 동작을 실행하도록 하며, 상기 동작은,
온라인 포인트 클라우드의 복수의 연속적인 광 검출 및 거리 측정(LiDAR) 프레임 중 각각에 대해 확률 오프셋량을 생성하는 동작 - 상기 확률 오프셋량은, 상기 온라인 포인트 클라우드의 제1 그룹 키 포인트와 미리 구축된 포인트 클라우드 지도의 제2 그룹 키 포인트 사이의 전체 매칭 비용을 나타냄 -;
상기 확률 오프셋량을 X 차원, Y 차원 및 요 (yaw) 차원에서 복수의 확률 벡터로 압축하는 동작;
상기 확률 오프셋량의 각 확률 벡터를 복수의 순환 신경망 (RNN)에 제공하는 동작; 과
상기 복수의 RNN에 의해, 복수의 연속적인 LiDAR 프레임에서 위치 추정 결과의 궤적을 생성하는 동작을 포함하는 시스템. - 제8항에 있어서,
상기 확률 오프셋량은 복수의 서브량을 포함하고, 각 서브량은 상기 ADV의 특정 위치 오프셋에 대한 상기 온라인 포인트 클라우드와 상기 미리 구축된 포인트 클라우드 지도 사이의 전체 매칭 비용을 나타내는 시스템. - 제8항에 있어서,
상기 RNN 각각은 복수의 LSTM (long short term memory) 유닛을 포함하는 시스템. - 제10항에 있어서,
상기 확률 벡터 각각을 입력으로서 상기 복수의 LSTM 유닛 중 하나에 제공되는 시스템. - 제8항에 있어서,
상기 복수의 RNN은, 상기 복수의 연속적인 LiDAR 프레임의 학습된 이력 정보에 기반하여, 상기 복수의 연속적인 LiDAR 프레임에서 위치 추정 결과의 궤적을 평활화하는 시스템. - 제8항에 있어서,
상기 ADV는 상기 복수의 연속적인 LiDAR 프레임에서 복수의 예측 포즈를 갖는 시스템. - 제8항에 있어서,
상기 확률 오프셋량은 비용량에 기반하여 구축되고, 상기 비용량은 상기 온라인 포인트 클라우드로부터 추출된 제1 그룹 특징 기술어 및 상기 미리 구축된 포인트 클라우드 지도로부터 추출된 제2 그룹 특징 기술어에 기반하여 구축된 시스템. - 명령이 저장된 비일시적 기계 판독 가능 매체에 있어서,
상기 명령은 프로세서에 의해 실행될 경우, 상기 프로세서가 동작을 실행하도록 하며, 상기 동작은,
온라인 포인트 클라우드의 복수의 연속적인 광 검출 및 거리 측정(LiDAR) 프레임 중 각각에 대해 확률 오프셋량을 생성하는 동작 - 상기 확률 오프셋량은, 상기 온라인 포인트 클라우드의 제1 그룹 키 포인트와 미리 구축된 포인트 클라우드 지도의 제2 그룹 키 포인트 사이의 전체 매칭 비용을 나타냄 -;
상기 확률 오프셋량을 X 차원, Y 차원 및 요 (yaw) 차원에서 복수의 확률 벡터로 압축하는 동작;
상기 확률 오프셋량의 각 확률 벡터를 복수의 순환 신경망 (RNN)에 제공하는 동작; 과
상기 복수의 RNN에 의해, 복수의 연속적인 LiDAR 프레임에서 위치 추정 결과의 궤적을 생성하는 동작을 포함하는 비일시적 기계 판독 가능 매체. - 제15항에 있어서,
상기 확률 오프셋량은 복수의 서브량을 포함하고, 각 서브량은 자율 주행 차량(ADV)의 특정 위치 오프셋에 대한 상기 온라인 포인트 클라우드와 상기 미리 구축된 포인트 클라우드 지도 사이의 전체 매칭 비용을 나타내는 비일시적 기계 판독 가능 매체. - 제15항에 있어서,
상기 RNN 각각은 복수의 LSTM (long short term memory) 유닛을 포함하는 비일시적 기계 판독 가능 매체. - 제17항에 있어서,
상기 확률 벡터 각각을 입력으로서 상기 복수의 LSTM 유닛 중 하나에 제공되는 비일시적 기계 판독 가능 매체. - 제15항에 있어서,
상기 복수의 RNN은, 상기 복수의 연속적인 LiDAR 프레임의 학습된 이력 정보에 기반하여, 상기 복수의 연속적인 LiDAR 프레임에서 위치 추정 결과의 궤적을 평활화하는 비일시적 기계 판독 가능 매체. - 제15항에 있어서,
자율 주행 차량(ADV)는 상기 복수의 연속적인 LiDAR 프레임에서 복수의 예측 포즈를 갖는 비일시적 기계 판독 가능 매체. - 제15항에 있어서,
상기 확률 오프셋량은 비용량에 기반하여 구축되고, 상기 비용량은 상기 온라인 포인트 클라우드로부터 추출된 제1 그룹 특징 기술어 및 상기 미리 구축된 포인트 클라우드 지도로부터 추출된 제2 그룹 특징 기술어에 기반하여 구축된 비일시적 기계 판독 가능 매체.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/CN2019/073978 WO2020154973A1 (en) | 2019-01-30 | 2019-01-30 | Lidar localization using rnn and lstm for temporal smoothness in autonomous driving vehicles |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20200096411A KR20200096411A (ko) | 2020-08-12 |
| KR102350181B1 true KR102350181B1 (ko) | 2022-01-11 |
Family
ID=71840732
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020197036976A Expired - Fee Related KR102350181B1 (ko) | 2019-01-30 | 2019-01-30 | 자율 주행 차량에서 rnn 및 lstm을 사용하여 시간적 평활화를 수행하는 lidar 위치 추정 |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US11364931B2 (ko) |
| EP (1) | EP3714285B1 (ko) |
| JP (1) | JP7256758B2 (ko) |
| KR (1) | KR102350181B1 (ko) |
| CN (1) | CN111771135B (ko) |
| WO (1) | WO2020154973A1 (ko) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102526710B1 (ko) | 2022-12-15 | 2023-04-28 | 주식회사 맥스트 | 센서 주행 거리 측정 방법 및 이를 수행하기 위한 컴퓨팅 장치 |
Families Citing this family (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11531110B2 (en) * | 2019-01-30 | 2022-12-20 | Baidu Usa Llc | LiDAR localization using 3D CNN network for solution inference in autonomous driving vehicles |
| CN119126012A (zh) | 2019-08-29 | 2024-12-13 | 派珀网络公司 | 增强型交通定位系统和方法 |
| CN112444785B (zh) * | 2019-08-30 | 2024-04-12 | 华为技术有限公司 | 一种目标行为识别的方法、装置和雷达系统 |
| EP4028304A4 (en) | 2019-09-09 | 2024-04-10 | Piper Networks, Inc. | ENHANCED TRANSIT LOCATION SYSTEMS AND METHODS |
| JP6819758B1 (ja) * | 2019-09-30 | 2021-01-27 | ダイキン工業株式会社 | 点群データ同一性推定装置及び点群データ同一性推定システム |
| US11794723B2 (en) * | 2020-10-08 | 2023-10-24 | Hyundai Mobis Co., Ltd. | Apparatus and method for controlling driving of vehicle |
| DE102020127051A1 (de) | 2020-10-14 | 2022-04-14 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zur Bestimmung von sicherheitskritischen Ausgabewerten mittels einer Datenanalyseeinrichtung für eine technische Entität |
| CN112561947A (zh) * | 2020-12-10 | 2021-03-26 | 中国科学院深圳先进技术研究院 | 一种图像自适应运动估计方法及应用 |
| EP4020396A1 (en) * | 2020-12-23 | 2022-06-29 | Beijing Xiaomi Mobile Software Co., Ltd. | Method and apparatus of entropy encoding/decoding point cloud geometry data captured by a spinning sensors head |
| CN113505625B (zh) * | 2021-01-12 | 2022-08-02 | 湖南师范大学 | 一种专家知识引导机制下的交通文本检测方法 |
| US11403817B1 (en) * | 2021-04-14 | 2022-08-02 | Lineage Logistics, LLC | Point cloud filtering |
| CN117355764A (zh) * | 2021-06-02 | 2024-01-05 | 华为技术有限公司 | 用于确定相对位姿的数据处理装置和方法 |
| EP4336456A4 (en) * | 2021-06-04 | 2024-07-03 | Huawei Technologies Co., Ltd. | DECODING APPARATUS AND METHOD FOR 3D MAP AND ENCODED CODE STREAM OF A 3D MAP |
| CN114413881B (zh) * | 2022-01-07 | 2023-09-01 | 中国第一汽车股份有限公司 | 高精矢量地图的构建方法、装置及存储介质 |
| US12142058B2 (en) | 2022-03-11 | 2024-11-12 | Ford Global Technologies, Llc | End-to-end systems and methods for streaming 3D detection and forecasting from lidar point clouds |
| US20240212221A1 (en) * | 2022-12-21 | 2024-06-27 | Sony Group Corporation | Rate-adaptive codec for dynamic point cloud compression |
| CN116578088B (zh) * | 2023-05-04 | 2024-02-09 | 浙江大学 | 室外自主移动机器人连续轨迹生成方法及系统 |
Family Cites Families (27)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9811884B2 (en) * | 2012-07-16 | 2017-11-07 | Flir Systems, Inc. | Methods and systems for suppressing atmospheric turbulence in images |
| US9715016B2 (en) * | 2015-03-11 | 2017-07-25 | The Boeing Company | Real time multi dimensional image fusing |
| EP3278317B1 (en) * | 2015-03-31 | 2022-11-16 | Sony Group Corporation | Method and electronic device |
| US9802599B2 (en) * | 2016-03-08 | 2017-10-31 | Ford Global Technologies, Llc | Vehicle lane placement |
| US9760806B1 (en) * | 2016-05-11 | 2017-09-12 | TCL Research America Inc. | Method and system for vision-centric deep-learning-based road situation analysis |
| WO2018035505A1 (en) * | 2016-08-19 | 2018-02-22 | Linear Algebra Technologies Limited | Operations using sparse volumetric data |
| KR102749006B1 (ko) * | 2016-11-29 | 2025-01-02 | 삼성전자주식회사 | 비정상 객체 판단 방법 및 장치 |
| KR102471072B1 (ko) | 2016-12-21 | 2022-11-25 | 삼성전자주식회사 | 전자 장치 및 그 동작 방법 |
| US20180211403A1 (en) * | 2017-01-20 | 2018-07-26 | Ford Global Technologies, Llc | Recurrent Deep Convolutional Neural Network For Object Detection |
| US10198655B2 (en) * | 2017-01-24 | 2019-02-05 | Ford Global Technologies, Llc | Object detection using recurrent neural network and concatenated feature map |
| KR102742851B1 (ko) | 2017-02-16 | 2024-12-13 | 삼성전자주식회사 | 자율 주행을 위한 차량 제어 방법, 차량 제어 장치 및 자율 주행을 위한 학습 방법 |
| KR102183204B1 (ko) * | 2017-02-17 | 2020-11-25 | 현대자동차주식회사 | 차량 및 차량의 제어 방법 |
| US11308391B2 (en) * | 2017-03-06 | 2022-04-19 | Baidu Usa Llc | Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles |
| JP6799169B2 (ja) * | 2017-03-17 | 2020-12-09 | 本田技研工業株式会社 | マルチモーダル融合による3dオブジェクト検出と配向推定の結合 |
| US10088559B1 (en) * | 2017-03-29 | 2018-10-02 | Luminar Technologies, Inc. | Controlling pulse timing to compensate for motor dynamics |
| US10108867B1 (en) * | 2017-04-25 | 2018-10-23 | Uber Technologies, Inc. | Image-based pedestrian detection |
| KR102360181B1 (ko) * | 2017-05-16 | 2022-02-08 | 삼성전자주식회사 | 차량의 동작을 제어하는 전자 장치 및 방법 |
| US10282860B2 (en) * | 2017-05-22 | 2019-05-07 | Honda Motor Co., Ltd. | Monocular localization in urban environments using road markings |
| US10809361B2 (en) * | 2017-05-31 | 2020-10-20 | Uatc, Llc | Hybrid-view LIDAR-based object detection |
| US10007269B1 (en) * | 2017-06-23 | 2018-06-26 | Uber Technologies, Inc. | Collision-avoidance system for autonomous-capable vehicle |
| US10671082B2 (en) * | 2017-07-03 | 2020-06-02 | Baidu Usa Llc | High resolution 3D point clouds generation based on CNN and CRF models |
| US11009884B2 (en) * | 2017-09-29 | 2021-05-18 | Direct Current Capital LLC | Method for calculating nominal vehicle paths for lanes within a geographic region |
| US11415676B2 (en) * | 2017-10-09 | 2022-08-16 | Luminar, Llc | Interlaced scan patterns for lidar system |
| US10852146B2 (en) * | 2018-02-28 | 2020-12-01 | Ford Global Technologies, Llc | Localization technique selection |
| CN108415032B (zh) * | 2018-03-05 | 2021-06-25 | 中山大学 | 一种基于深度学习与激光雷达的点云语义地图构建方法 |
| US11237269B2 (en) * | 2018-04-26 | 2022-02-01 | Ford Global Technologies, Llc | Localization technique |
| CN109270545B (zh) * | 2018-10-23 | 2020-08-11 | 百度在线网络技术(北京)有限公司 | 一种定位真值校验方法、装置、设备及存储介质 |
-
2019
- 2019-01-30 WO PCT/CN2019/073978 patent/WO2020154973A1/en not_active Ceased
- 2019-01-30 KR KR1020197036976A patent/KR102350181B1/ko not_active Expired - Fee Related
- 2019-01-30 CN CN201980002101.3A patent/CN111771135B/zh active Active
- 2019-01-30 JP JP2019567307A patent/JP7256758B2/ja active Active
- 2019-01-30 US US16/337,391 patent/US11364931B2/en active Active
- 2019-01-30 EP EP19795077.7A patent/EP3714285B1/en active Active
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102526710B1 (ko) | 2022-12-15 | 2023-04-28 | 주식회사 맥스트 | 센서 주행 거리 측정 방법 및 이를 수행하기 위한 컴퓨팅 장치 |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20200096411A (ko) | 2020-08-12 |
| CN111771135B (zh) | 2023-03-21 |
| EP3714285B1 (en) | 2022-07-27 |
| WO2020154973A1 (en) | 2020-08-06 |
| JP2021515178A (ja) | 2021-06-17 |
| EP3714285A4 (en) | 2020-09-30 |
| US20210354718A1 (en) | 2021-11-18 |
| US11364931B2 (en) | 2022-06-21 |
| JP7256758B2 (ja) | 2023-04-12 |
| EP3714285A1 (en) | 2020-09-30 |
| CN111771135A (zh) | 2020-10-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102335389B1 (ko) | 자율 주행 차량의 lidar 위치 추정을 위한 심층 학습 기반 특징 추출 | |
| KR102292277B1 (ko) | 자율 주행 차량에서 3d cnn 네트워크를 사용하여 솔루션을 추론하는 lidar 위치 추정 | |
| KR102350181B1 (ko) | 자율 주행 차량에서 rnn 및 lstm을 사용하여 시간적 평활화를 수행하는 lidar 위치 추정 | |
| JP6748244B2 (ja) | 自動運転車に用いられる学習に基づく速度計画装置 | |
| JP6644742B2 (ja) | 頑健で効率的な車両測位用のアルゴリズム及びインフラ | |
| JP6722280B2 (ja) | 自律走行車の交通予測における予測軌跡の評価フレームワーク | |
| CN108684203B (zh) | 确定自动驾驶车辆的道路摩擦的方法和系统 | |
| JP2020083308A (ja) | オブジェクト挙動のリアルタイム予測 | |
| KR20200096409A (ko) | 자율 주행 차량을 위한 포인트 클라우드 고스트 효과 검출 시스템 | |
| JP2019182411A (ja) | オブジェクトの二次元境界枠を自動運転車両の三次元位置に転換するための方法[method for transforming 2d bounding boxes of objects into 3d positions for autonomous driving vehicles (advs)] | |
| JP2020001678A (ja) | 重み付け幾何学的コストを有する区分的螺旋曲線を使用した基準線平滑化方法 | |
| KR20200096725A (ko) | 자율 주행 차량을 위한 rgb 포인트 클라우드 기반의 맵 생성 시스템 | |
| KR20200096723A (ko) | 자율 주행 차량을 위한 포인트 클라우드 등록 시스템 | |
| JP2019128962A (ja) | 自動運転車のための経路及び速度の最適化フォールバックメカニズム[path and speed optimization fallback mechanism for autonomous vehicles] | |
| KR20200096724A (ko) | 자율 주행 차량을 위한 실시간 지도 생성 시스템 | |
| JP2020097388A (ja) | 自動運転車両のための曲率補正経路サンプリングシステム | |
| CN112232104B (zh) | 使用相对距离表示消失点 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0105 | International application |
St.27 status event code: A-0-1-A10-A15-nap-PA0105 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U12-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20250108 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| H13 | Ip right lapsed |
Free format text: ST27 STATUS EVENT CODE: N-4-6-H10-H13-OTH-PC1903 (AS PROVIDED BY THE NATIONAL OFFICE); TERMINATION CATEGORY : DEFAULT_OF_REGISTRATION_FEE Effective date: 20250108 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20250108 |