JP7753164B2 - 推定装置、推定方法及びプログラム - Google Patents
推定装置、推定方法及びプログラムInfo
- Publication number
- JP7753164B2 JP7753164B2 JP2022120572A JP2022120572A JP7753164B2 JP 7753164 B2 JP7753164 B2 JP 7753164B2 JP 2022120572 A JP2022120572 A JP 2022120572A JP 2022120572 A JP2022120572 A JP 2022120572A JP 7753164 B2 JP7753164 B2 JP 7753164B2
- Authority
- JP
- Japan
- Prior art keywords
- monocular
- monocular camera
- estimation
- movement
- rotation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Automation & Control Theory (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
第1実施形態では、次のような自律移動ロボット(移動体の一例)に搭載される推定装置を例にして説明する。
・自律移動ロボットがどこを通るかは、障害物の状況に応じて、走行中に変わるものとする。
・自律移動ロボットの例としてドローンが挙げられる。ドローンが目的地を与えられそこに移動している例を図1に示す。
運動推定開始時において、オプティカルフロー106がほぼ同じ向きでほぼ同じ長さとなる場合がある。この場合、上述の図4A及び4Bに示すように、回転と並進の区別がつかないため、運動推定開始時に運動推定の精度が劣化する。
運動推定継続時であっても、その場回転し続ける場合(例えば、180度続く場合)、被写体102の3次元点104のほとんどが無限遠方の3次元点104となってしまう。したがって、その場回転が継続すると、並進の推定の精度が劣化する。
・運動推定開始時に、オプティカルフロー106だけでは、回転と並進の区別がつかない場合があり、回転と並進の両方の推定の精度が劣化する。
・その場回転が継続すると、最適化時に入力される3次元点104のうち、有限の奥行きで推定された3次元点104の数が減るため、並進の推定精度が劣化する。
・運動推定時に、推定された3次元点104の入力が無い場合(有限奥行の3次元点104と無限遠方の3次元点104の両方が運動推定の入力に使えない場合)、回転と並進の両方の推定ができない。
・運動推定時に、有限の奥行きで推定された3次元点104の入力が無い場合、並進の推定ができない。
・その場回転時に、自律移動ロボット100(単眼カメラ1)を並進させる。
・被写体102の距離に応じて、自律移動ロボット100(単眼カメラ1)を並進させる量(ベースライン)を変える。被写体102までの距離が遠いほど、見え方の変化(視差)が小さい。単眼SLAMは、見え方の変化に基づいて被写体102と単眼カメラ1との距離の情報を得るので、見え方の変化が小さいほど運動推定の精度がでない。
・オプティカルフロー106からその場回転を検出する。具体的には次の基準で判断する。オプティカルフロー106の長さに、ばらつきがある場合は、並進と判定する。オプティカルフロー106の長さに、ばらつきがない場合は、その場回転と判定する。
図9は第1実施形態の推定装置10の機能構成の例を示す図である。第1実施形態の推定装置10は、自律移動ロボット100に接続される。推定装置10は、自律移動ロボット100に搭載される。なお、推定装置10を、単眼カメラ1以外の構成(SLAM部2、推定部3及び制御部4)を含むサーバ装置とし、当該サーバ装置が無線ネットワークなどによって遠隔から自律移動ロボット100に接続されてもよい。
b=移動可能領域の上限 ・・・(1)
<運動推定継続時>
b=F(d) ・・・(2)
ただし、F(d)が移動可能領域を超える場合、bは移動可能領域の上限に設定される。
d=b×(f/s) ・・・(3)
s=f×(b/d) ・・・(4)
図12は第1実施形態の推定方法の例を示すフローチャートである。図12の例は、自律移動ロボット100の運動が、その場回転であることが推定された場合のフローチャートを示す。
・運動推定開始時にその場回転する場合でも、十分なベースラインが取れるようになるため、有限の奥行きの3次元点104が得られる。これにより運動推定精度の劣化、または運動推定の失敗を防ぐことができる。
・その場回転し続ける(例えば、180度続く場合)場合でも、十分なベースラインが取れるため、有限の奥行きの3次元点104が得られる。これにより運動推定精度の劣化、または運動推定の失敗を防ぐことができる。
・被写体102の距離に対して、単眼カメラ1を並進させる量が小さいと、運動推定の精度や、3次元点の推定精度が劣化することがある。第1実施形態の推定装置10は、被写体102が遠いほどベースラインが大きくなるように、単眼カメラ1を並進させる量を大きくする(被写体102の距離に応じて、単眼カメラ1を並進させる量を変える)ことにより、運動推定精度の劣化を防ぐことができる。
・遠方の被写体102に対応するため、無条件に、単眼カメラ1を大きく並進させる場合と比較して、単眼カメラ1を並進させる量を削減できる。
・運動推定の履歴を用いないので、運動推定開始時でもその場回転か否かを検出できる(開始時は運動推定の履歴が無い)。
・その場回転か否かを単眼カメラ1のみで検出できる。その場回転検出用にIMU(Inertial Measurement Unit)などを必要としていたアプリケーションにおいても、単眼カメラ1以外のセンサを取り付けなくても良くなるため、製品コストを削減できる。
・ドローンなどの長時間動かすことが想定されるような自律移動ロボット100の場合、IMUを用いたその場回転検出方法に課題が生じる。具体的には、IMUから回転運動と並進運動とが推定される場合、速度の推定に誤差が蓄積し、その場回転の推定精度が著しく劣化する課題である。第1実施形態の推定装置10によるその場回転検出方法であれば、このような課題が発生しない。以下、加速度にのる誤差が蓄積する具体例を述べる。ある時刻に初速が与えられるとする。また、ある時刻以降の速度を求めるために、加速度から速度を積分し続けるとする。このとき、IMUから取得できる加速度に誤差がのっている場合、積分するたびに、加速度の誤差が速度に蓄積する。したがって、速度にのる誤差の量は、時間経過に伴い大きくなっていく。
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
図13は第2実施形態の推定装置10-2の機能構成の例を示す図である。第2実施形態の推定装置10-2は、単眼カメラ1、SLAM部2、推定部3、制御部4及び移動部5を備える。第1実施形態の構成との違いは、移動部5を更に備えていることである。
図15は第1及び第2実施形態の推定装置10(10-2)のハードウェア構成の例を示す図である。第1及び第2実施形態の推定装置10(10-2)は、プロセッサ201、主記憶装置202、補助記憶装置203、表示装置204、入力装置205及び通信装置206を備える。プロセッサ201、主記憶装置202、補助記憶装置203、表示装置204、入力装置205及び通信装置206は、バス210を介して接続されている。
2 SLAM部
3 推定部
4 制御部
5 移動部
10 推定装置
100 自律移動ロボット
201 プロセッサ
202 主記憶装置
203 補助記憶装置
204 表示装置
205 入力装置
206 通信装置
210 バス
Claims (8)
- 移動体に搭載された単眼カメラにより取得された複数の第1の単眼画像から、前記移動体の運動が、その場回転であるか否かを推定する推定部と、
前記移動体の運動が、前記単眼カメラの被写体の特徴点の動きを示すオプティカルフローから、その場回転であると推定される場合、前記単眼カメラを並進させる並進量を決定する制御部と、
前記複数の第1の単眼画像と、前記並進量に基づき並進させた前記単眼カメラに取得された第2の単眼画像とから、単眼SLAM(Monocular Simultaneous Localization and Mapping)によって、前記単眼カメラの位置及び姿勢の少なくとも一方と、前記単眼カメラの被写体の3次元点とを推定するSLAM部と、を備え、
前記推定部は、前記オプティカルフローの長さのばらつきを、前記オプティカルフローの長さの分散値により特定し、前記分散値が閾値未満の場合、前記運動が、その場回転であると推定する、
推定装置。 - 前記制御部は、前記運動の推定開始時に、前記単眼カメラの移動可能領域の上限を決定し、前記運動の推定継続時に、前記並進量を、前記被写体との距離に応じて前記上限以下の範囲で決定する、
請求項1に記載の推定装置。 - 前記制御部は、前記単眼カメラを並進させる場合、前記移動体を所定の方向に並進させることによって、前記単眼カメラを並進させる、
請求項2に記載の推定装置。 - 前記制御部は、前記運動の推定開始時に、前記単眼カメラの移動可能領域の上限に基づき、前記上限がより大きい方向を前記所定の方向に決定する、
請求項3に記載の推定装置。 - 前記並進量に基づき、前記移動体に搭載された単眼カメラの位置を、並進移動させる移動部を更に備え、
前記制御部は、前記単眼カメラを並進させる場合、前記移動部を制御することによって前記単眼カメラを並進させる、
請求項2に記載の推定装置。 - 前記推定部は、前記分散値が閾値以上の場合、前記運動が並進であると推定する、
請求項1に記載の推定装置。 - 推定装置が、移動体に搭載された単眼カメラにより取得された複数の第1の単眼画像から、前記移動体の運動が、その場回転であるか否かを推定するステップと、
前記推定装置が、前記移動体の運動が、前記単眼カメラの被写体の特徴点の動きを示すオプティカルフローから、その場回転であると推定される場合、前記単眼カメラを並進させる並進量を決定するステップと、
前記推定装置が、前記複数の第1の単眼画像と、前記並進量に基づき並進させた前記単眼カメラに取得された第2の単眼画像とから、単眼SLAM(Monocular Simultaneous Localization and Mapping)によって、前記単眼カメラの位置及び姿勢の少なくとも一方と、前記単眼カメラの被写体の3次元点とを推定するステップと、を含み、
前記その場回転であるか否かを推定するステップは、前記オプティカルフローの長さのばらつきを、前記オプティカルフローの長さの分散値により特定するステップと、
前記分散値が閾値未満の場合、前記運動が、その場回転であると推定するステップと、
を含む推定方法。 - コンピュータを、
移動体に搭載された単眼カメラにより取得された複数の第1の単眼画像から、前記移動体の運動が、その場回転であるか否かを推定する推定部と、
前記移動体の運動が、前記単眼カメラの被写体の特徴点の動きを示すオプティカルフローから、その場回転であると推定される場合、前記単眼カメラを並進させる並進量を決定する制御部と、
前記複数の第1の単眼画像と、前記並進量に基づき並進させた前記単眼カメラに取得された第2の単眼画像とから、単眼SLAM(Monocular Simultaneous Localization and Mapping)によって、前記単眼カメラの位置及び姿勢の少なくとも一方と、前記単眼カメラの被写体の3次元点とを推定するSLAM部、として機能させ、
前記推定部は、前記オプティカルフローの長さのばらつきを、前記オプティカルフローの長さの分散値により特定し、前記分散値が閾値未満の場合、前記運動が、その場回転であると推定する、
プログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022120572A JP7753164B2 (ja) | 2022-07-28 | 2022-07-28 | 推定装置、推定方法及びプログラム |
| CN202310257478.1A CN117470198A (zh) | 2022-07-28 | 2023-03-09 | 推测装置、推测方法以及存储介质 |
| US18/181,101 US12198384B2 (en) | 2022-07-28 | 2023-03-09 | Estimation device, estimation method, and computer program product |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022120572A JP7753164B2 (ja) | 2022-07-28 | 2022-07-28 | 推定装置、推定方法及びプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024017734A JP2024017734A (ja) | 2024-02-08 |
| JP7753164B2 true JP7753164B2 (ja) | 2025-10-14 |
Family
ID=89636738
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022120572A Active JP7753164B2 (ja) | 2022-07-28 | 2022-07-28 | 推定装置、推定方法及びプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US12198384B2 (ja) |
| JP (1) | JP7753164B2 (ja) |
| CN (1) | CN117470198A (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12316828B2 (en) * | 2023-05-18 | 2025-05-27 | Taiwan Semiconductor Manufacturing Company, Ltd. | Automatic time delay and integration (TDI) mask inspection system calibration |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017518547A (ja) | 2014-03-14 | 2017-07-06 | クアルコム,インコーポレイテッド | 制約なしslam用のセンサベースのカメラ運動検出 |
Family Cites Families (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8744169B2 (en) * | 2011-05-31 | 2014-06-03 | Toyota Motor Europe Nv/Sa | Voting strategy for visual ego-motion from stereo |
| US20140104771A1 (en) * | 2012-10-17 | 2014-04-17 | Matthew A. COLAN | Universal Keyless Entry System |
| US9674507B2 (en) | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
| US9495761B2 (en) * | 2013-11-04 | 2016-11-15 | The Regents Of The University Of California | Environment mapping with automatic motion model selection |
| CN109887087B (zh) * | 2019-02-22 | 2021-02-19 | 广州小鹏汽车科技有限公司 | 一种车辆的slam建图方法及系统 |
| CN110853032B (zh) * | 2019-11-21 | 2022-11-01 | 北京航空航天大学 | 基于多模态深度学习的无人机视频标签获取方法 |
| CN111862148B (zh) * | 2020-06-05 | 2024-02-09 | 中国人民解放军军事科学院国防科技创新研究院 | 实现视觉跟踪的方法、装置、电子设备及介质 |
| CN111402429B (zh) * | 2020-06-08 | 2020-09-15 | 成都索贝数码科技股份有限公司 | 一种尺度还原、三维重建方法、系统、存储介质及设备 |
| CN111882589A (zh) * | 2020-06-23 | 2020-11-03 | 广州万维创新科技有限公司 | 基于图像的单目视觉slam的初始化方法 |
| CN112132754B (zh) * | 2020-11-25 | 2021-06-04 | 蘑菇车联信息科技有限公司 | 一种车辆移动轨迹修正方法及相关装置 |
| US20220319041A1 (en) * | 2021-03-31 | 2022-10-06 | Facebook Technologies, Llc | Egocentric pose estimation from human vision span |
-
2022
- 2022-07-28 JP JP2022120572A patent/JP7753164B2/ja active Active
-
2023
- 2023-03-09 US US18/181,101 patent/US12198384B2/en active Active
- 2023-03-09 CN CN202310257478.1A patent/CN117470198A/zh active Pending
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017518547A (ja) | 2014-03-14 | 2017-07-06 | クアルコム,インコーポレイテッド | 制約なしslam用のセンサベースのカメラ運動検出 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2024017734A (ja) | 2024-02-08 |
| CN117470198A (zh) | 2024-01-30 |
| US20240037789A1 (en) | 2024-02-01 |
| US12198384B2 (en) | 2025-01-14 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
| US10133279B2 (en) | Apparatus of updating key frame of mobile robot and method thereof | |
| US10399228B2 (en) | Apparatus for recognizing position of mobile robot using edge based refinement and method thereof | |
| EP3942794B1 (en) | Depth-guided video inpainting for autonomous driving | |
| US10275649B2 (en) | Apparatus of recognizing position of mobile robot using direct tracking and method thereof | |
| KR101784183B1 (ko) | ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
| US10444761B2 (en) | Monocular modes for autonomous platform guidance systems with auxiliary sensors | |
| US8644557B2 (en) | Method and apparatus for estimating position of moving vehicle such as mobile robot | |
| JP4052650B2 (ja) | 障害物検出装置、方法及びプログラム | |
| US9058521B2 (en) | Mobile robot and simultaneous localization and map building method thereof | |
| JP2020534617A (ja) | 二次元画像および点群データからの三次元境界ボックス | |
| JP6743171B2 (ja) | 自動車両の道路付近の物体を検出するための方法、コンピュータデバイス、運転者支援システム、及び、自動車両 | |
| JP2011175393A (ja) | 経路計画装置、自律移動ロボット、及び移動経路の計画方法 | |
| JP7133927B2 (ja) | 情報処理装置及びその制御方法及びプログラム | |
| JP2013097675A (ja) | 勾配推定装置、勾配推定方法、及び勾配推定プログラム | |
| JP7753164B2 (ja) | 推定装置、推定方法及びプログラム | |
| JP7322670B2 (ja) | 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット | |
| Do et al. | Autonomous flights through image-defined paths | |
| JP7701101B2 (ja) | 地図生成装置、地図生成方法、及びプログラム | |
| JP7744064B2 (ja) | 地図生成装置、地図生成方法、及びプログラム | |
| US20250360916A1 (en) | Vehicle control apparatus, vehicle control method, and non-transitory computer-readable medium | |
| Yamada et al. | Vision based obstacle avoidance and target tracking for autonomous mobile robots | |
| CN120833591A (zh) | 数据处理方法、装置、计算机设备及存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240905 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250416 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250422 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250619 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250902 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20251001 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7753164 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |