JP6946255B2 - 学習装置、推定装置、学習方法およびプログラム - Google Patents
学習装置、推定装置、学習方法およびプログラム Download PDFInfo
- Publication number
- JP6946255B2 JP6946255B2 JP2018213008A JP2018213008A JP6946255B2 JP 6946255 B2 JP6946255 B2 JP 6946255B2 JP 2018213008 A JP2018213008 A JP 2018213008A JP 2018213008 A JP2018213008 A JP 2018213008A JP 6946255 B2 JP6946255 B2 JP 6946255B2
- Authority
- JP
- Japan
- Prior art keywords
- class
- estimation
- learning
- parallax
- likelihood
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Measurement Of Optical Distance (AREA)
Description
・クロスエントロピー(Cross Entropy)損失:最も真の奥行きに近い奥行きのラベルに対して、一定の重みを設定する。
・ソフトクロスエントロピー(Soft Cross Entropy)損失:最も真の奥行きに近い奥行きラベルと、その周辺に一定の重みを設定する。
第1の実施形態にかかる学習装置は、サブクラス単位(例えばサブピクセル単位)でクラスを推定できるように、推定モデルを学習する。この結果、推定モデルが尤度を出力する対象として予め定められた推定クラスの中間のクラスに相当するサブクラスを推定可能となる。すなわち、クラスをより高精度に推定可能となる。以下では、ステレオ画像を用いた視差の推定(奥行きの推定)を例に説明するが、視差の推定以外のクラス推定にも同様の手順を適用可能である。
あてはめる関数として、2次曲線を用いる場合について説明する。図6は、あてはめた2次曲線の例を示す図である。図6に示すように、真値601に最も近い視差dgtとそれに隣接する視差dgt+1と視差dgt−1の相違度に対して2次曲線611をあてはめると、真値601に最も近い視差dgtから真値601までの偏差d^は以下の(3)式によって求めることができる。
あてはめる関数として、等角直線を用いる場合について説明する。図7は、あてはめた等角直線の例を示す図である。図7に示すように、真値701に最も近い視差dgtとそれに隣接する視差dgt+1と視差dgt−1の相違度に対して等角直線711、712をあてはめると、等角直線の極小値で真の視差となる。また、真値701に最も近い視差dgtから真値701までの偏差d^は以下の(10)式によって求めることができる。
第2の実施形態では、第1の実施形態の学習装置100で学習した推定モデルを用いてクラスを推定する推定装置を備える推定システムについて説明する。
101 受付部
102 尤度算出部
103 重み算出部
104 学習部
105 出力制御部
121 記憶部
200 推定装置
201 通信制御部
202 受付部
203 尤度算出部
204 推定部
221 記憶部
300 ネットワーク
Claims (13)
- 入力データが複数の推定クラスのいずれに属するかを推定するための推定モデルを用いて、学習データが複数の前記推定クラスに属する尤度を算出する尤度算出部と、
複数の前記推定クラスのうち他の前記推定クラスより正解データに近い第1クラスの尤度と、前記第1クラスに隣接する第2クラスおよび第3クラスの尤度と、を予め定められた形状の関数にあてはめたときに、前記関数の極値となる位置が前記正解データに相当するように、前記推定モデルを学習するときに用いる損失関数の重みを算出する重み算出部と、
前記損失関数を用いて前記推定モデルを学習する学習部と、
を備える学習装置。 - 前記形状は、2次曲線の形状、または、等角直線の形状である、
請求項1に記載の学習装置。 - 複数の前記推定クラスは、画像データから推定される視差を表すクラス、画像データから推定される画像データ内のオブジェクトの動きを表すクラス、または、画像データから推定される画像データ内の物体の属性を表すクラスである、
請求項1に記載の学習装置。 - 前記推定モデルは、ニューラルネットワークモデルである、
請求項1に記載の学習装置。 - 請求項1に記載の学習装置により学習された前記推定モデルを用いて、入力データが複数の前記推定クラスに属する尤度を算出する第2尤度算出部と、
複数の前記推定クラスのうち前記尤度が最大となる第4クラスの前記尤度と、前記第4クラスに隣接する第5クラスおよび第6クラスの尤度と、を前記関数にあてはめたときに、前記関数の極値となる位置に相当するクラスを推定する推定部と、
を備える推定装置。 - 入力データが複数の推定クラスのいずれに属するかを推定するための推定モデルを用いて、学習データが複数の前記推定クラスに属する尤度を算出する尤度算出ステップと、
複数の前記推定クラスのうち他の前記推定クラスより正解データに近い第1クラスの尤度と、前記第1クラスに隣接する第2クラスおよび第3クラスの尤度と、を予め定められた形状の関数にあてはめたときに、前記関数の極値となる位置が前記正解データに相当するように、前記推定モデルを学習するときに用いる損失関数の重みを算出する重み算出ステップと、
前記損失関数を用いて前記推定モデルを学習する学習ステップと、
を含む学習方法。 - 前記形状は、2次曲線の形状、または、等角直線の形状である、
請求項6に記載の学習方法。 - 複数の前記推定クラスは、画像データから推定される視差を表すクラス、画像データから推定される画像データ内のオブジェクトの動きを表すクラス、または、画像データから推定される画像データ内の物体の属性を表すクラスである、
請求項6に記載の学習方法。 - 前記推定モデルは、ニューラルネットワークモデルである、
請求項6に記載の学習方法。 - コンピュータを、
入力データが複数の推定クラスのいずれに属するかを推定するための推定モデルを用いて、学習データが複数の前記推定クラスに属する尤度を算出する尤度算出部と、
複数の前記推定クラスのうち他の前記推定クラスより正解データに近い第1クラスの尤度と、前記第1クラスに隣接する第2クラスおよび第3クラスの尤度と、を予め定められた形状の関数にあてはめたときに、前記関数の極値となる位置が前記正解データに相当するように、前記推定モデルを学習するときに用いる損失関数の重みを算出する重み算出部と、
前記損失関数を用いて前記推定モデルを学習する学習部と、
として機能させるためのプログラム。 - 前記形状は、2次曲線の形状、または、等角直線の形状である、
請求項10に記載のプログラム。 - 複数の前記推定クラスは、画像データから推定される視差を表すクラス、画像データから推定される画像データ内のオブジェクトの動きを表すクラス、または、画像データから推定される画像データ内の物体の属性を表すクラスである、
請求項10に記載のプログラム。 - 前記推定モデルは、ニューラルネットワークモデルである、
請求項10に記載のプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018213008A JP6946255B2 (ja) | 2018-11-13 | 2018-11-13 | 学習装置、推定装置、学習方法およびプログラム |
| US16/548,550 US11531862B2 (en) | 2018-11-13 | 2019-08-22 | Learning device, estimating device, learning method, and computer program product |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018213008A JP6946255B2 (ja) | 2018-11-13 | 2018-11-13 | 学習装置、推定装置、学習方法およびプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020080047A JP2020080047A (ja) | 2020-05-28 |
| JP6946255B2 true JP6946255B2 (ja) | 2021-10-06 |
Family
ID=70550668
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018213008A Active JP6946255B2 (ja) | 2018-11-13 | 2018-11-13 | 学習装置、推定装置、学習方法およびプログラム |
Country Status (2)
| Country | Link |
|---|---|
| US (1) | US11531862B2 (ja) |
| JP (1) | JP6946255B2 (ja) |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12131491B2 (en) * | 2019-05-10 | 2024-10-29 | Nippon Telegraph And Telephone Corporation | Depth estimation device, depth estimation model learning device, depth estimation method, depth estimation model learning method, and depth estimation program |
| US12050664B2 (en) * | 2020-10-09 | 2024-07-30 | Nec Corporation | Real-time cross-spectral object association and depth estimation |
| CN112418498B (zh) * | 2020-11-12 | 2024-06-04 | 中国农业大学 | 用于智能温室的温度预测方法及系统 |
| US20220176998A1 (en) * | 2020-12-08 | 2022-06-09 | Guangzhou Automobile Group Co., Ltd. | Method and Device for Loss Evaluation to Automated Driving |
| DE102021102233B4 (de) * | 2021-02-01 | 2022-08-18 | Recognitionfocus Gmbh | Vorrichtung und Verfahren zur Korrespondenzanalyse in Bildern |
| CN114912568A (zh) * | 2021-02-09 | 2022-08-16 | 日本电气株式会社 | 数据处理的方法、设备和计算机可读存储介质 |
| WO2022186141A1 (ja) * | 2021-03-04 | 2022-09-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | ニューラルネットワークのネットワークパラメータの学習方法、カメラパラメータの算出方法、及びプログラム |
| JP7646446B2 (ja) * | 2021-05-13 | 2025-03-17 | キヤノン株式会社 | 画像処理方法、画像処理装置、プログラム、学習済みモデルの製造方法、および画像処理システム |
| WO2023084900A1 (ja) * | 2021-11-10 | 2023-05-19 | 富士フイルム株式会社 | 学習方法、学習装置、学習プログラム、及び画像処理装置 |
| WO2025210865A1 (ja) * | 2024-04-05 | 2025-10-09 | 本田技研工業株式会社 | 学習装置、学習方法及びプログラム |
Family Cites Families (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5974325B2 (ja) * | 2012-09-11 | 2016-08-23 | 東海光学株式会社 | 光学レンズのクラス判別方法 |
| US10572800B2 (en) * | 2016-02-05 | 2020-02-25 | Nec Corporation | Accelerating deep neural network training with inconsistent stochastic gradient descent |
| US10176198B1 (en) * | 2016-05-09 | 2019-01-08 | A9.Com, Inc. | Techniques for identifying visually similar content |
| JP6733302B2 (ja) | 2016-05-17 | 2020-07-29 | 株式会社リコー | 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム |
| GB2553782B (en) * | 2016-09-12 | 2021-10-20 | Niantic Inc | Predicting depth from image data using a statistical model |
| CN108537871B (zh) * | 2017-03-03 | 2024-02-20 | 索尼公司 | 信息处理设备和信息处理方法 |
| US11003989B2 (en) * | 2017-04-27 | 2021-05-11 | Futurewei Technologies, Inc. | Non-convex optimization by gradient-accelerated simulated annealing |
-
2018
- 2018-11-13 JP JP2018213008A patent/JP6946255B2/ja active Active
-
2019
- 2019-08-22 US US16/548,550 patent/US11531862B2/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2020080047A (ja) | 2020-05-28 |
| US20200151540A1 (en) | 2020-05-14 |
| US11531862B2 (en) | 2022-12-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6946255B2 (ja) | 学習装置、推定装置、学習方法およびプログラム | |
| CN108961327B (zh) | 一种单目深度估计方法及其装置、设备和存储介质 | |
| CN111209770B (zh) | 一种车道线识别方法及装置 | |
| US12340556B2 (en) | System and method for correspondence map determination | |
| US11274922B2 (en) | Method and apparatus for binocular ranging | |
| CN112287824B (zh) | 基于双目视觉的三维目标检测方法、装置及系统 | |
| CN107735797B (zh) | 用于确定第一坐标系与第二坐标系之间的运动的方法 | |
| KR20180087994A (ko) | 스테레오 매칭 방법 및 영상 처리 장치 | |
| KR20170034226A (ko) | 객체 인식 장치 및 방법, 객체 인식 모델 학습 장치 및 방법 | |
| EP3510561A1 (en) | Predicting depth from image data using a statistical model | |
| CN103310421B (zh) | 针对高清图像对的快速立体匹配方法及视差图获取方法 | |
| CN116402876B (zh) | 双目深度估计方法、装置、嵌入式设备和可读存储介质 | |
| CN105335955A (zh) | 对象检测方法和对象检测装置 | |
| EP3182369B1 (en) | Stereo matching method, controller and system | |
| US12307695B2 (en) | System and method for self-supervised monocular ground-plane extraction | |
| CN110895807B (zh) | 用于评估图像的系统、运行辅助方法和工作设备 | |
| JP7055769B2 (ja) | データ生成装置、データ生成方法およびプログラム | |
| CN115249269A (zh) | 目标检测方法、计算机程序产品、存储介质及电子设备 | |
| CN114072842A (zh) | 从图像中确定深度的方法和相关系统 | |
| WO2021051382A1 (zh) | 白平衡处理方法和设备、可移动平台、相机 | |
| CN110176037A (zh) | 一种用于室外道路辅助驾驶的目标距离快速估算方法 | |
| US20250123119A1 (en) | Feature fusion of sensor data | |
| JP6800901B2 (ja) | 物体領域識別装置、物体領域識別方法およびプログラム | |
| CN113344988B (zh) | 立体匹配方法、终端及存储介质 | |
| CN117670969A (zh) | 深度估计方法、装置、终端设备以及存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200826 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210714 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210915 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 6946255 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |