JP7708969B2 - センサデータに自動的に注釈付けするための方法およびシステム - Google Patents
センサデータに自動的に注釈付けするための方法およびシステムInfo
- Publication number
- JP7708969B2 JP7708969B2 JP2024517021A JP2024517021A JP7708969B2 JP 7708969 B2 JP7708969 B2 JP 7708969B2 JP 2024517021 A JP2024517021 A JP 2024517021A JP 2024517021 A JP2024517021 A JP 2024517021A JP 7708969 B2 JP7708969 B2 JP 7708969B2
- Authority
- JP
- Japan
- Prior art keywords
- frames
- frame
- sample
- packet
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
- G11B20/10527—Audio or video recording; Data buffering arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
複数のセンサデータフレームを受信することと、
少なくとも1つの条件属性に基づいてフレームを複数のパケットにグループ化することであって、条件属性は、センサデータフレームの記録中に存在していた周囲条件を表す、ことと、
ニューラルネットワークを使用して第1のパケットからのフレームに注釈付けすることであって、注釈付けは、それぞれのフレームに少なくとも1つのデータ点を割り当てることを含み、第1のパケットは、少なくとも1つの条件属性が選択された値範囲内にあるようなフレームを含む、ことと、
第1のパケットからの1つまたは複数のフレームの第1の無作為サンプルを選択し、データ点に対する品質尺度を決定することと
を含み、
第1の無作為サンプルにおける少なくとも1つのフレームに対する品質尺度が所定の閾値を下回っていることをコンピュータが特定した場合に、当該方法は、
第1の無作為サンプルにおけるフレームに対する修正された注釈付けを受信することと、
第1の無作為サンプルにおけるフレームに基づいてニューラルネットワークを再訓練することと、
第1のパケットのフレームから、第1の無作為サンプルに含まれていなかった1つまたは複数のフレームの第2の無作為サンプルを選択することと、
再訓練されたニューラルネットワークを用いて第2の無作為サンプルのフレームに注釈付けすることと、
データ点に対する品質尺度を受信し、第2の無作為サンプルにおけるフレームに対する品質尺度が所定の閾値を上回っていることを確認することと、
再訓練されたニューラルネットワークを用いて第1のパケットの残りのフレームに注釈付けすることと、
第1のパケットの注釈付けされたフレームをエクスポートすることと
をさらに含む、方法が提供される。
a)複数のセンサデータフレームを受信することと、
b)少なくとも1つの条件属性に基づいてフレームをパケットにグループ化することであって、条件属性は、センサデータフレームの記録中に存在していた周囲条件を表す、ことと、
c)ニューラルネットワークを使用して第1のパケットからのフレームに注釈付けすることであって、注釈付けは、それぞれのフレームに少なくとも1つのデータ点を割り当てることを含み、第1のパケットは、少なくとも1つの条件属性が選択された値範囲内にあるようなフレームを含む、ことと、
d)第1のパケットからの1つまたは複数のフレームの第1の無作為サンプルを選択し、データ点に対する品質尺度を決定することと、
e)第1の無作為サンプルにおける少なくとも1つのフレームに対する品質尺度が所定の閾値を下回っていることを特定することと、
f)第1の無作為サンプルにおけるフレームに対する修正された注釈付けを受信し、第1の無作為サンプルにおけるフレームを用いてニューラルネットワークを再訓練することと、
g)再訓練されたニューラルネットワークを用いて、第1のパケットの残りのフレームのうちの少なくとも1つに注釈付けすることと、
h)第1のパケットの少なくとも1つの注釈付けされた残りのフレームから1つまたは複数のフレームの第2の無作為サンプルを選択し、データ点に対する品質尺度を決定することと、
i)第2の無作為サンプルにおけるフレームに対する品質尺度が所定の閾値を上回っていることを特定することと、
j)再訓練されたニューラルネットワークを用いて、第1のパケットからの残りのフレームに注釈付けすることと、
k)注釈付けされたフレームをエクスポートすることと、
を含む。
好ましい実施形態の以下の詳細な説明を、以下の図面と組み合わせて考察すると、本発明のより良好な理解を得ることができる。
Claims (10)
- センサデータフレームに自動的に注釈付けするためのコンピュータにより実装される方法であって、前記方法は、
複数のフレームを受信することと、
少なくとも1つの条件属性に基づいて前記フレームを複数のパケットにグループ化することであって、前記条件属性は、前記フレームの記録中に存在していた周囲条件を表すことと、
ニューラルネットワークを使用して、前記複数のパケットのうちの第1のパケットからのフレームに注釈付けすることであって、前記注釈付けは、それぞれのフレームに少なくとも1つのデータ点を割り当てることを含み、前記第1のパケットは、前記少なくとも1つの条件属性が選択された値範囲内にあるようなフレームを含むことと、
前記第1のパケットからの1つまたは複数のフレームの第1のサンプルを選択し、前記データ点に対する品質尺度を決定することであって、前記第1のサンプルにおける少なくとも1つのフレームに対する前記品質尺度が所定の閾値を下回っていることをコンピュータが特定した場合に、前記方法は、前記第1のサンプルにおける前記フレームに対する手動で修正された注釈付けを前記コンピュータが受信することと、前記第1のサンプルにおける前記フレームに基づいて前記ニューラルネットワークを再訓練することと、をさらに含むことと、
前記第1のパケットのフレームから、前記第1のサンプルに含まれていなかった1つまたは複数のフレームの第2のサンプルを選択することと、
再訓練された前記ニューラルネットワークを用いて前記第2のサンプルのフレームに注釈付けして、前記データ点に対する品質尺度を決定することと、
前記第2のサンプルにおける前記フレームに対する前記品質尺度が所定の閾値を上回っていることを特定することと、
再訓練された前記ニューラルネットワークを用いて前記第1のパケットの残りのフレームに注釈付けすることと、
前記第1のパケットの注釈付けされた前記フレームをエクスポートすることと、
を含み、
画像フレームの場合には、前記少なくとも1つのデータ点は、オブジェクトの位置、オブジェクトの分類、境界枠の縁部の位置、前記画像フレーム内のオブジェクトと、先行または後続する画像フレーム内のオブジェクトと、の相関および/または指示灯の作動を含み、かつ/または
オーディオフレームの場合には、前記少なくとも1つのデータ点は、前記オーディオフレームから識別された1つまたは複数のテキストワードを含む、
方法。 - 画像データを有するフレームの場合には、前記条件属性は、地理的場所、時刻、気象条件、視認条件、道路種類、オブジェクトまでの距離および/または交通密度であり、かつ/または
オーディオフレームの場合には、前記条件属性は、地理的場所、話者の性別および/または年齢、部屋の大きさおよび/または背景雑音の尺度である、
請求項1記載の方法。 - 複数のフレームを受信するステップは、前記フレームを前処理するステップを含み、
フレームに対する前記条件属性のうちの少なくとも1つは、前記フレームに基づいて専用のニューラルネットワークによって決定され、かつ/または
フレームに対する前記条件属性のうちの少なくとも1つは、前記フレームと同時に記録された追加的なセンサデータに基づいて決定される、
請求項1記載の方法。 - 前記第1のサンプルは、前記第1のパケットから選択された2つ以上のフレームを含み、
前記第1のサンプルに対する前記品質尺度が前記所定の閾値を下回っていることを前記コンピュータが特定するとすぐに、前記第1のサンプルにおける前記フレームに対する修正された注釈付けが受信されるまで、前記第1のパケットからの前記フレームにおけるさらなる計算が実施されなくなる、
請求項1記載の方法。 - 前記第1のサンプルのためのフレームの選択は、前記品質尺度が決定されるべきデータ点に依存しており、とりわけ、オブジェクト検出の場合には単一のフレームがランダムに選択され、かつ/または、オブジェクト追跡の場合には連続したフレームのバッチがランダムに選択される、
請求項1記載の方法。 - 前記第1のパケットからの1つまたは複数のフレームから現在のサンプルを選択するステップと、
前記データ点に対する品質尺度を決定するステップと、
前記現在のサンプルにおける前記フレームに対する修正された注釈付けを受信するステップと、
前記現在のサンプルにおける前記フレームに基づいて前記ニューラルネットワークを再訓練するステップと、
は、前記現在のサンプルにおける前記フレームに対する前記品質尺度が前記所定の閾値を上回るまで、または前記第1のパケットが残りのフレームを含まなくなるまで繰り返される、
請求項1記載の方法。 - センサデータに注釈付けすることと、センサデータを記録することと、が交互または同時に実施され、
前記第1のサンプルにおける少なくとも1つのフレームに対する前記品質尺度が所定の閾値を下回っていることが特定されると、前記コンピュータは、前記少なくとも1つの条件属性が前記第1のパケットの前記選択された値範囲内にあるような追加的なセンサデータを記録することを要求する、
請求項1記載の方法。 - ビデオフレームまたはオーディオフレームのようなフレームが含まれるセンサデータに自動的に注釈付けするための方法であって、
前記方法は、ホストコンピュータの少なくとも1つのプロセッサによって実施され、
前記方法は、
a)複数のフレームを受信することと、
b)少なくとも1つの条件属性に基づいて前記フレームを複数のパケットにグループ化することであって、前記条件属性は、前記フレームの記録中に存在していた周囲条件を表すことと、
c)ニューラルネットワークを使用して、前記複数のパケットのうちの第1のパケットからのフレームに注釈付けすることであって、前記注釈付けは、それぞれのフレームに少なくとも1つのデータ点を割り当てることを含み、前記第1のパケットは、前記少なくとも1つの条件属性が選択された値範囲内にあるようなフレームを含むことと、
d)前記第1のパケットからの1つまたは複数のフレームの第1のサンプルを選択し、前記データ点に対する品質尺度を決定することと、
e)前記第1のサンプルにおける少なくとも1つのフレームに対する前記品質尺度が所定の閾値を下回っていることを特定することと、
f)前記第1のサンプルにおける前記フレームに対する手動で修正された注釈付けを前記ホストコンピュータが受信し、前記第1のサンプルにおける前記フレームを用いて前記ニューラルネットワークを再訓練することと、
g)再訓練された前記ニューラルネットワークを用いて、前記第1のパケットの残りのフレームのうちの少なくとも1つに注釈付けすることと、
h)前記第1のパケットの少なくとも1つの注釈付けされた残りのフレームから1つまたは複数のフレームの第2のサンプルを選択し、前記データ点に対する品質尺度を決定することと、
i)前記第2のサンプルにおける前記フレームに対する前記品質尺度が所定の閾値を上回っていることを特定することと、
j)再訓練された前記ニューラルネットワークを用いて、前記第1のパケットからの残りのフレームに注釈付けすることと、
k)注釈付けされた前記フレームをエクスポートすることと、
を含み、
画像フレームの場合には、前記少なくとも1つのデータ点は、オブジェクトの位置、オブジェクトの分類、境界枠の縁部の位置、前記画像フレーム内のオブジェクトと、先行または後続する画像フレーム内のオブジェクトと、の相関および/または指示灯の作動を含み、かつ/または
オーディオフレームの場合には、前記少なくとも1つのデータ点は、前記オーディオフレームから識別された1つまたは複数のテキストワードを含む、
方法。 - コンピュータシステムのマイクロプロセッサによって実行された場合に、請求項1から8までのいずれか1項記載の方法を前記コンピュータシステムに実施させる命令を含む、不揮発性コンピュータ可読媒体。
- ホストコンピュータを含んでいるコンピュータシステムであって、
前記ホストコンピュータは、マイクロプロセッサ、ダイレクトアクセスメモリ、ディスプレイ、人間の入力のための装置および不揮発性メモリ、とりわけハードディスクまたはソリッドステートドライブを含み、
前記不揮発性メモリは、前記マイクロプロセッサによって実行された場合に、請求項1から8までのいずれか1項記載の方法を前記コンピュータシステムに実施させる命令を含む、コンピュータシステム。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021124103 | 2021-09-17 | ||
| DE102021124103.0 | 2021-09-17 | ||
| PCT/EP2022/075621 WO2023041628A1 (de) | 2021-09-17 | 2022-09-15 | Verfahren und system zum automatischen annotieren von sensordaten |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2024536784A JP2024536784A (ja) | 2024-10-08 |
| JP7708969B2 true JP7708969B2 (ja) | 2025-07-15 |
Family
ID=83689907
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2024517021A Active JP7708969B2 (ja) | 2021-09-17 | 2022-09-15 | センサデータに自動的に注釈付けするための方法およびシステム |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US12374366B2 (ja) |
| EP (1) | EP4402647A1 (ja) |
| JP (1) | JP7708969B2 (ja) |
| DE (1) | DE102022123580A1 (ja) |
| WO (1) | WO2023041628A1 (ja) |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10867255B2 (en) * | 2017-03-03 | 2020-12-15 | Hong Kong Applied Science and Technology Research Institute Company Limited | Efficient annotation of large sample group |
| US11475358B2 (en) * | 2019-07-31 | 2022-10-18 | GE Precision Healthcare LLC | Annotation pipeline for machine learning algorithm training and optimization |
| US11443209B2 (en) * | 2020-04-16 | 2022-09-13 | International Business Machines Corporation | Method and system for unlabeled data selection using failed case analysis |
-
2022
- 2022-09-15 WO PCT/EP2022/075621 patent/WO2023041628A1/de not_active Ceased
- 2022-09-15 DE DE102022123580.7A patent/DE102022123580A1/de active Pending
- 2022-09-15 EP EP22786900.5A patent/EP4402647A1/de active Pending
- 2022-09-15 JP JP2024517021A patent/JP7708969B2/ja active Active
- 2022-09-16 US US17/946,073 patent/US12374366B2/en active Active
Non-Patent Citations (1)
| Title |
|---|
| Xinghao Ding, et al.,Vehicle Type Recognition From Surveillance Data Based on Deep Active Learning,IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY,米国,IEEE,2020年01月16日,Vol.69 No.3,p.2477-2486,DOI: 10.1109/TVT.2020.2967077 |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2023041628A1 (de) | 2023-03-23 |
| US12374366B2 (en) | 2025-07-29 |
| EP4402647A1 (de) | 2024-07-24 |
| DE102022123580A1 (de) | 2023-03-23 |
| JP2024536784A (ja) | 2024-10-08 |
| US20230094252A1 (en) | 2023-03-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN113569968B (zh) | 模型训练方法、目标检测方法、装置、设备及存储介质 | |
| US10726304B2 (en) | Refining synthetic data with a generative adversarial network using auxiliary inputs | |
| CN110610197B (zh) | 一种困难样本挖掘和模型训练方法、装置和电子设备 | |
| CN111667001B (zh) | 目标重识别方法、装置、计算机设备和存储介质 | |
| WO2021232229A1 (zh) | 虚拟场景生成方法、装置、计算机设备和存储介质 | |
| CN115830399B (zh) | 分类模型训练方法、装置、设备、存储介质和程序产品 | |
| JP2025503714A (ja) | センサデータを自動的にアノテーションする方法およびシステム | |
| CN111753592B (zh) | 交通标志识别方法、装置、计算机设备和存储介质 | |
| CN116204726A (zh) | 一种基于多模态模型的数据处理方法、装置及设备 | |
| CN114743063B (zh) | 多数据集目标检测训练方法、系统、存储介质及电子设备 | |
| CN114359172B (zh) | 一种库存或陈列场景下的条烟多面检测识别方法及系统 | |
| CN117952224A (zh) | 一种深度学习模型部署方法、存储介质和计算机设备 | |
| CN115857685A (zh) | 一种感知算法数据闭环方法及相关装置 | |
| CN116188405A (zh) | 一种基于单目高位摄像头采集图片的车辆姿态估计方法及系统 | |
| CN112529116B (zh) | 场景元素融合处理方法、装置和设备及计算机存储介质 | |
| CN113569888A (zh) | 图像标注方法、装置、设备及介质 | |
| CN110414845B (zh) | 针对目标交易的风险评估方法及装置 | |
| JP7708969B2 (ja) | センサデータに自動的に注釈付けするための方法およびシステム | |
| CN114596435A (zh) | 语义分割标签的生成方法、装置、设备及存储介质 | |
| US12462528B2 (en) | Method for classifying images and electronic device | |
| CN112883876A (zh) | 室内行人检测的方法、装置、设备及计算机存储介质 | |
| CN112380993A (zh) | 基于目标实时追踪信息的智能违法行为检测系统及方法 | |
| CN117909737A (zh) | 数据标注方法、电子设备和计算机可读存储介质 | |
| CN115880514A (zh) | 输变电设备故障检测方法及装置、终端、存储介质 | |
| TWI874831B (zh) | 圖像分類方法、電腦設備及儲存介質 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240418 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240418 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250114 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250326 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250624 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250703 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7708969 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |