JP7110359B2 - ビデオチューブを使用した行動認識方法 - Google Patents
ビデオチューブを使用した行動認識方法 Download PDFInfo
- Publication number
- JP7110359B2 JP7110359B2 JP2020538568A JP2020538568A JP7110359B2 JP 7110359 B2 JP7110359 B2 JP 7110359B2 JP 2020538568 A JP2020538568 A JP 2020538568A JP 2020538568 A JP2020538568 A JP 2020538568A JP 7110359 B2 JP7110359 B2 JP 7110359B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- image
- video
- image frame
- processors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/113—Recognition of static hand signs
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2302/00—Responses or measures related to driver conditions
- B60Y2302/03—Actuating a signal or alarm device
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Description
本出願は、参照によりその全体が本明細書に組み込まれる、2018年1月11日に出願された、「Activity Recognition Method Using Videotubes」という名称の米国特許出願第15/867,932号の優先権を主張するものである。
オーバーラップスコア=αe-βoverlap area(2)
式中、αおよびβは事前設定係数である。
top=s*min(tophand,topobj)+(1-s)*tophand(3)
left=s*min(lefthand,leftobj)+(1-s)*lefthand(4)
bot=s*max(bothand,botobj)+(1-s)*bothand(5)
right=s*max(righthand,rightobj)+(1-s)*righthand(6)
式中、(top,left,bot,right)、(tophand,lefthand,bothand,righthand)、(topobj,leftobj,botobj,rightobj)は、それぞれ、AAAボックス、手領域、およびオブジェクト領域のパラメータの代替表現である。変数は式(2)からのオーバーラップスコアである。
本明細書で前述したように、手のジェスチャおよび手のモーションフローは、車両内の運転者および同乗者の行動を理解するのに役立つ。ビデオチューブが生成されるとき、ビデオチューブは、ビデオストリームの画像フレームの1つまたは複数のウィンドウ表示部分からの画像のシーケンスを含む。ビデオチューブの画像のシーケンスを使用して、行動を特定するために処理できる動きのシーケンスを決定することができる。
図3の行動認識分類コンポーネント355は、特定された手画像、オブジェクト、ヒートマップおよびモーションフローに関連した機械抽出されたキー特徴情報を使用して、乗員の行動を直接、または間接的に特定する。
105 撮像装置/イメージセンサアレイ
107 手エリア
300 システム
301 車両
305 ビデオソース
310 行動認識装置
315 ポート
320 メモリ
325 グローバル関心領域(ROI)検出コンポーネント
330 動的行動アクティブエリア(AAA)検出コンポーネント
335 キー特徴生成コンポーネント
340 空間的正規化コンポーネント
345 キー特徴再配置コンポーネント
350 時間的正規化コンポーネント
355 行動認識分類コンポーネント
400 方法
805 大まかな手エリア
810 深層畳み込みニューラルネットワーク
815 手およびオブジェクト
930 動的ウィンドウ表示コンポーネント
932 制御可能なスイッチ
1139 ヒートマップコンポーネント
1135 キー特徴生成コンポーネント
1130 動的AAA生成コンポーネント
1137 モーションフローコンポーネント
1145 キー特徴再配置コンポーネント
1405 手1の画像およびモーションフロー
1410 手2の画像およびモーションフロー
1415 ヒートマップストリーム
1505 手画像フレーム
1510 モーションフロー情報
1515 ヒートマップ情報
1905 正規化されたビデオチューブ
1910 別々の手特徴抽出器
1915 深層学習ベースの分類器
1920 運転者の独立した行動
1925 1人または複数の同乗者の独立した行動
1930 運転者と同乗者との間の相互作用行動
2005 テンソルビデオチューブ
2010 行方向の注意
2012 列方向の注意
2015 分類器
2020 運転者の独立した行動
2025 1人または複数の同乗者の独立した行動
2030 運転者と同乗者との間の相互作用行動
2200 コンピュータ
2202 処理部
2203 メモリ
2204 出力
2206 入力
2208 不揮発性メモリ
2210 リムーバブル記憶
2212 ノンリムーバブル記憶
2214 揮発性メモリ
2216 通信接続
2218 プログラム
Claims (20)
- 行動認識装置であって、前記装置が、
第1のオブジェクトおよび第2のオブジェクトについてビデオソースからビデオストリームを受け取るように構成されたポートと、
命令および前記ビデオストリームの画像フレームを格納するように構成されたメモリと、
1つまたは複数のプロセッサであって、前記1つまたは複数のプロセッサが前記メモリに格納された前記命令を実行し、前記1つまたは複数のプロセッサが、
前記第1のオブジェクトの存在に基づいて前記画像フレームの部分を選択し、
画像フレームの前記部分内の複数のエリアを決定し、前記決定された複数のエリアによって前記画像フレーム内の前記第1のオブジェクトの位置の境界が示され、前記複数のエリアのうちの1つのエリアのウィンドウサイズが、前記第1のオブジェクトの画像を含むように設定され、
前記複数のエリア内の前記第1のオブジェクトの動きおよび第2のオブジェクトの位置を決定し、
前記決定された動きおよび前記第2のオブジェクトの位置に従って行動を特定し、前記特定された行動に従って警報を生成する、
ように構成される、1つまたは複数のプロセッサと、
を含む、行動認識装置。 - 前記1つまたは複数のプロセッサが、
第1の画像フレームの第1のウィンドウ表示部分と第2の画像フレームの同じ第1のウィンドウ表示部分との間の類似性スコアを決定し、前記画像フレームの前記部分が前記第1および第2の画像フレームを含み、前記第1および第2の画像フレームの前記第1のウィンドウ表示部分が前記第1および第2の画像フレーム内の複数のエリアを含み、
前記類似性スコアが指定された類似性閾値より大きい場合、前記第2の画像フレームの前記第1のウィンドウ表示部分の処理を省略し、
前記類似性スコアが前記指定された類似性閾値より小さい場合、前記画像フレームの他の部分より前記第1のオブジェクトの前記画像を含む可能性が高い前記ビデオストリームの前記画像フレームの第2のウィンドウ表示部分を生成するため、前記第2の画像フレームにおいて前記第1のオブジェクトの検出を行い、前記ビデオストリームの前記画像フレームの再配置された部分の集合を含むビデオチューブに前記第2のウィンドウ表示部分を含める、ように構成される、請求項1に記載の行動認識装置。 - 前記第1のオブジェクトが手であり、前記1つまたは複数のプロセッサが、
手のアクティブエリアの中心を決定し、
前記決定された中心を基準として前記手のアクティブエリアの境界をスケール変更することによって探索エリアを特定し、
前記特定された探索エリアで手画像検出を行い、
前記手画像検出の結果に従って前記ウィンドウサイズを設定する、ように構成される、請求項1に記載の行動認識装置。 - 前記1つまたは複数のプロセッサが、
次のウィンドウを予測するために、前記第1のオブジェクトの前記決定された動きを使用し、
前記次のウィンドウを使用して前記第1のオブジェクトの画像検出を行い、
前記次のウィンドウが前記第1のオブジェクトの検出された画像の前記境界を含む場合、現在のウィンドウを前記次のウィンドウで置き換え、
前記第1のオブジェクトの前記検出された画像の前記境界が前記次のウィンドウを越えて延在する場合、
前記現在のウィンドウと前記次のウィンドウとをマージし、
前記マージされたウィンドウにおいて前記第1のオブジェクトの画像を特定し、
前記第1のオブジェクトの前記特定された画像を含む新しい最小化されたウィンドウサイズを決定する、ように構成される、請求項1に記載の行動認識装置。 - 前記第1のオブジェクトが手であり、前記1つまたは複数のプロセッサが、
手画像を含む前記決定された複数のエリアの画素を特定し、
手の動きを決定するために、前記画像フレームのウィンドウ表示部分間で前記手画像を含む画素の変化を追跡する、ように構成される、請求項1に記載の行動認識装置。 - 前記第1のオブジェクトが手であり、前記1つまたは複数のプロセッサが、
前記画像フレームにおいて指先および関節点の位置を決定し、
前記手の動きを決定するために、前記画像フレームのウィンドウ表示部分間で指先および関節点の変化を追跡する、ように構成される、請求項1に記載の行動認識装置。 - 前記第1のオブジェクトが手であり、前記1つまたは複数のプロセッサが、
手の動きを決定し、
前記決定された手の動きおよび前記第2のオブジェクトを使用して前記行動を特定する、ように構成される、請求項1に記載の行動認識装置。 - 前記1つまたは複数のプロセッサが、
前記決定された手の動きと第2のオブジェクトの組み合わせを前記メモリに格納された手の動きとオブジェクトの1つまたは複数の組み合わせと比較し、
前記比較の結果に基づいて前記行動を特定する、ようにさらに構成される、請求項7に記載の行動認識装置。 - 前記1つまたは複数のプロセッサが、
前記画像フレームの前記決定された複数のエリアを使用して手の動きのシーケンスを検出し、
前記検出された手の動きのシーケンスを、1つまたは複数の指定された行動の指定された手の動きのシーケンスと比較し、
前記比較の結果に従って前記1つまたは複数の指定された行動の中から行動を選択する、ようにさらに構成される、請求項7に記載の行動認識装置。 - 前記1つまたは複数のプロセッサが、前記第1のおよび第2のオブジェクト、ならびに対応する特徴マップを含む前記ビデオストリームの前記画像フレームの再配置された部分の集合を含むビデオチューブを生成するようにさらに構成される、請求項1に記載の行動認識装置。
- 前記1つまたは複数のプロセッサが、ビデオチューブ情報を前記メモリにスケーラブルテンソルビデオチューブとして格納するように構成され、前記1つまたは複数のプロセッサが、前記スケーラブルテンソルビデオチューブを、人の前記行動を特定するために前記1つまたは複数のプロセッサによって実行される深層学習アルゴリズムへの入力として適用するように構成される、請求項10に記載の行動認識装置。
- 前記1つまたは複数のプロセッサが、前記人の識別に従って前記スケーラブルテンソルビデオチューブ内の前記画像フレームの部分の行方向の構成を選択し、前記選択された行方向の構成を、前記人の前記行動を特定するために前記深層学習アルゴリズムに前記入力として適用するように構成される、請求項11に記載の行動認識装置。
- 前記1つまたは複数のプロセッサが、複数の人の識別に従って前記スケーラブルテンソルビデオチューブ内の前記画像フレームの部分の列方向の構成を選択し、前記選択された列方向の構成を、前記複数の人の間の相互作用を特定するために前記深層学習アルゴリズムに前記入力として適用するように構成される、請求項11に記載の行動認識装置。
- 前記1つまたは複数のプロセッサが、複数の人のグループの識別に従って前記スケーラブルテンソルビデオチューブ内の前記画像フレームの部分の複数の列方向の構成を選択し、前記選択された複数の列方向の構成を、前記複数の人のグループの間の複数の相互作用を特定するために前記深層学習アルゴリズムに前記入力として適用するように構成される、請求項11に記載の行動認識装置。
- 前記ビデオソースが、車両コンパートメントの画像のビデオストリームを提供するように構成されたイメージングアレイを含み、前記1つまたは複数のプロセッサが、前記車両コンパートメントの前記画像の前記ビデオストリームを使用して行動を特定するように構成された車両処理部に含まれる、請求項1に記載の行動認識装置。
- 行動の機械認識のコンピュータ実装方法であって、前記方法が、
ビデオソースを使用して第1のオブジェクトおよび第2のオブジェクトのビデオストリームを取得するステップと、
前記ビデオストリームの画像フレームの部分を前記部分内の第1のオブジェクトの存在に基づいて選択するステップと、
前記第1のオブジェクトの位置の境界を示す前記画像フレームの前記部分内の複数のエリアを決定するステップであって、前記複数のエリアのうちの1つのエリアのウィンドウサイズが、前記第1のオブジェクトの画像を含むように設定される、ステップと、
前記決定された複数のエリア内の前記第1のオブジェクトの動きおよび前記第2のオブジェクトの位置を決定するステップと、
前記決定された前記第1のオブジェクトの動きおよび前記第2のオブジェクトの位置を使用して行動を特定するステップと、
前記特定された行動に従って可聴警報および視覚警報の一方または両方を生成するステップと、
を含む、方法。 - 前記第1のオブジェクトの位置の境界を示す前記画像フレームの前記部分内の複数のエリアを決定するステップが、
前記ビデオストリームの第1の画像フレームおよび後続の第2の画像フレームを受け取るステップと、
前記第1の画像フレームの第1のウィンドウ表示部分と前記第2の画像フレームの前記第1のウィンドウ表示部分との間の類似性スコアを決定するステップであって、前記画像フレームの前記部分が前記第1および第2の画像フレームを含み、前記第1のオブジェクトの前記位置が前記画像フレームの前記第1のウィンドウ表示部分に位置決めされる、ステップと、
前記類似性スコアが指定された類似性閾値より大きい場合、前記第2の画像フレームの前記第1のウィンドウ表示部分の処理を省略するステップと、
前記類似性スコアが前記指定された類似性閾値より小さい場合、前記画像フレームの他の部分より前記第1のオブジェクトを含む可能性が高い前記画像フレームの第2のウィンドウ表示部分を生成するために、前記第2の画像フレームにおいて前記第1のオブジェクトの検出をトリガし、前記決定された複数のエリアに前記第2のウィンドウ表示部分を含めるステップと、
を含む、請求項16に記載の方法。 - 手の動きを決定するステップと、
前記決定された手の動きおよび前記第2のオブジェクトを使用して前記行動を特定するステップと、
を含む、請求項16に記載の方法。 - 前記決定された手の動きと第2のオブジェクトの組み合わせをメモリに格納された手の動きとオブジェクトの1つまたは複数の組み合わせと比較するステップと、
前記比較の結果に基づいて前記行動を特定するステップと、
を含む、請求項16に記載の方法。 - 行動認識装置の1つまたは複数のプロセッサによって実行されると、前記行動認識装置に、請求項16~19のいずれか一項に記載の方法の動作を行わせる命令を含む、非一時的なコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US15/867,932 US10628667B2 (en) | 2018-01-11 | 2018-01-11 | Activity recognition method using videotubes |
| US15/867,932 | 2018-01-11 | ||
| PCT/CN2018/120397 WO2019137137A1 (en) | 2018-01-11 | 2018-12-11 | Activity recognition method using videotubes |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021510225A JP2021510225A (ja) | 2021-04-15 |
| JP7110359B2 true JP7110359B2 (ja) | 2022-08-01 |
Family
ID=67140805
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020538568A Active JP7110359B2 (ja) | 2018-01-11 | 2018-12-11 | ビデオチューブを使用した行動認識方法 |
Country Status (7)
| Country | Link |
|---|---|
| US (2) | US10628667B2 (ja) |
| EP (1) | EP3732617B1 (ja) |
| JP (1) | JP7110359B2 (ja) |
| KR (1) | KR102433216B1 (ja) |
| CN (1) | CN111587437B (ja) |
| BR (1) | BR112020014184A2 (ja) |
| WO (1) | WO2019137137A1 (ja) |
Families Citing this family (72)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11935281B2 (en) * | 2010-06-07 | 2024-03-19 | Affectiva, Inc. | Vehicular in-cabin facial tracking using machine learning |
| US10187343B2 (en) * | 2014-12-18 | 2019-01-22 | Facebook, Inc. | Location data for defining places and traffic |
| US10242474B2 (en) | 2015-07-15 | 2019-03-26 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
| US12495134B2 (en) | 2015-07-15 | 2025-12-09 | Fyusion, Inc. | Drone based capture of multi-view interactive digital media |
| US10147211B2 (en) | 2015-07-15 | 2018-12-04 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
| US12261990B2 (en) | 2015-07-15 | 2025-03-25 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
| US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
| US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
| US11783864B2 (en) | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
| US10437879B2 (en) | 2017-01-18 | 2019-10-08 | Fyusion, Inc. | Visual search using multi-view interactive digital media representations |
| US20180227482A1 (en) | 2017-02-07 | 2018-08-09 | Fyusion, Inc. | Scene-aware selection of filters and effects for visual digital media content |
| US10313651B2 (en) | 2017-05-22 | 2019-06-04 | Fyusion, Inc. | Snapshots at predefined intervals or angles |
| US11069147B2 (en) | 2017-06-26 | 2021-07-20 | Fyusion, Inc. | Modification of multi-view interactive digital media representation |
| CN110832493A (zh) * | 2017-07-04 | 2020-02-21 | 日本电气株式会社 | 分析装置、分析方法和程序 |
| EP3493116B1 (en) | 2017-12-04 | 2023-05-10 | Aptiv Technologies Limited | System and method for generating a confidence value for at least one state in the interior of a vehicle |
| US10628667B2 (en) | 2018-01-11 | 2020-04-21 | Futurewei Technologies, Inc. | Activity recognition method using videotubes |
| CN108537151A (zh) * | 2018-03-27 | 2018-09-14 | 上海小蚁科技有限公司 | 一种非极大值抑制运算装置及系统 |
| US10592747B2 (en) * | 2018-04-26 | 2020-03-17 | Fyusion, Inc. | Method and apparatus for 3-D auto tagging |
| US10706584B1 (en) * | 2018-05-18 | 2020-07-07 | Facebook Technologies, Llc | Hand tracking using a passive camera system |
| US11482045B1 (en) | 2018-06-28 | 2022-10-25 | Amazon Technologies, Inc. | Associating events with actors using digital imagery and machine learning |
| GB2577732B (en) * | 2018-10-04 | 2022-02-23 | Advanced Risc Mach Ltd | Processing data in a convolutional neural network |
| US10922573B2 (en) * | 2018-10-22 | 2021-02-16 | Future Health Works Ltd. | Computer based object detection within a video or image |
| TWI681343B (zh) * | 2018-12-14 | 2020-01-01 | 瑞昱半導體股份有限公司 | 物件追蹤系統、物件追蹤方法與非暫態電腦可讀取媒體 |
| GB2582775B (en) * | 2019-04-02 | 2022-04-06 | Jaguar Land Rover Ltd | Attention level determination |
| GB2583742B (en) | 2019-05-08 | 2023-10-25 | Jaguar Land Rover Ltd | Activity identification method and apparatus |
| KR102850050B1 (ko) * | 2019-07-16 | 2025-08-26 | 삼성전자주식회사 | 객체 검출 방법 및 객체 검출 장치 |
| EP3796209B1 (en) * | 2019-09-17 | 2025-05-21 | Aptiv Technologies AG | Method and system for determining an activity of an occupant of a vehicle |
| US11043003B2 (en) | 2019-11-18 | 2021-06-22 | Waymo Llc | Interacted object detection neural network |
| CN112292689B (zh) * | 2019-12-23 | 2024-07-19 | 商汤国际私人有限公司 | 样本图像的获取方法、装置和电子设备 |
| SG10201913056VA (en) * | 2019-12-23 | 2021-04-29 | Sensetime Int Pte Ltd | Method and apparatus for obtaining sample images, and electronic device |
| CN111310616B (zh) * | 2020-02-03 | 2023-11-28 | 北京市商汤科技开发有限公司 | 图像处理方法及装置、电子设备和存储介质 |
| JP2022522551A (ja) * | 2020-02-03 | 2022-04-20 | ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド | 画像処理方法及び装置、電子機器並びに記憶媒体 |
| US11222200B2 (en) | 2020-02-13 | 2022-01-11 | Tencent America LLC | Video-based 3D hand pose and mesh estimation based on temporal-aware self-supervised learning |
| EP4100865A1 (en) * | 2020-03-13 | 2022-12-14 | Google LLC | Context-based speaker counter for a speaker diarization system |
| WO2021240671A1 (ja) * | 2020-05-27 | 2021-12-02 | 三菱電機株式会社 | ジェスチャ検出装置およびジェスチャ検出方法 |
| CN111652114B (zh) * | 2020-05-29 | 2023-08-25 | 深圳市商汤科技有限公司 | 一种对象检测方法、装置、电子设备及存储介质 |
| US12148318B1 (en) * | 2020-07-02 | 2024-11-19 | Lytx, Inc. | Data handling using edge decision processing |
| JP7494033B2 (ja) * | 2020-07-07 | 2024-06-03 | 株式会社日立製作所 | アクティビティ検出装置、アクティビティ検出システム及びアクティビティ検出方法 |
| US11842363B2 (en) * | 2020-07-16 | 2023-12-12 | Mehmet Yigit GUNEY | Method, system, and apparatus for organizing competing user content |
| US11636694B2 (en) * | 2020-09-10 | 2023-04-25 | Qualcomm Incorporated | Video-based activity recognition |
| US11514605B2 (en) | 2020-09-29 | 2022-11-29 | International Business Machines Corporation | Computer automated interactive activity recognition based on keypoint detection |
| DE102020129164A1 (de) * | 2020-11-05 | 2022-05-05 | Gestigon Gmbh | Verfahren und vorrichtung zur unterscheidung von verschiedenen konfigurationszuständen eines objekts auf der grundlage einer bildlichen darstellung des objekts |
| DE102020214910A1 (de) * | 2020-11-27 | 2022-06-02 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Überwachung eines Fahrzeuginnenraums |
| WO2022120669A1 (zh) * | 2020-12-10 | 2022-06-16 | 深圳市优必选科技股份有限公司 | 手势识别方法、计算机设备及存储介质 |
| WO2022162645A1 (en) * | 2021-02-01 | 2022-08-04 | Thales Canada Inc. | Machine-learned explainable object detection system and method |
| US11930302B2 (en) * | 2021-02-09 | 2024-03-12 | Ford Global Technologies, Llc | Enhanced sensor operation |
| US11636663B2 (en) * | 2021-02-19 | 2023-04-25 | Microsoft Technology Licensing, Llc | Localizing relevant objects in multi-object images |
| JP7548059B2 (ja) * | 2021-02-25 | 2024-09-10 | 富士通株式会社 | 設定方法、設定プログラム及び設定装置 |
| JP7619103B2 (ja) * | 2021-03-16 | 2025-01-22 | 日本電気株式会社 | 情報処理装置、情報処理システム、情報処理方法、及び、プログラム |
| CN112966655B (zh) * | 2021-03-29 | 2024-11-15 | 高新兴科技集团股份有限公司 | 一种办公区玩手机行为识别方法、装置和计算设备 |
| CN113033458B (zh) * | 2021-04-09 | 2023-11-07 | 京东科技控股股份有限公司 | 动作识别方法和装置 |
| WO2022232875A1 (en) * | 2021-05-05 | 2022-11-10 | Seeing Machines Limited | Systems and methods for detection of mobile device use by a vehicle driver |
| CN115497156A (zh) * | 2021-06-01 | 2022-12-20 | 阿里巴巴新加坡控股有限公司 | 动作识别方法和装置、电子设备及计算机可读存储介质 |
| CN114051632B (zh) * | 2021-06-22 | 2025-02-25 | 商汤国际私人有限公司 | 人体与人手的关联方法、装置、设备及存储介质 |
| JP7636276B2 (ja) * | 2021-06-28 | 2025-02-26 | 株式会社日立システムズ | 画像処理装置、画像処理方法及び画像処理システム |
| US12183091B2 (en) * | 2021-06-30 | 2024-12-31 | Tobii Technologies Limited | Vehicle occupant monitoring system and method |
| CN113553938B (zh) * | 2021-07-19 | 2024-05-14 | 黑芝麻智能科技(上海)有限公司 | 安全带检测方法、装置、计算机设备和存储介质 |
| WO2023058155A1 (ja) * | 2021-10-06 | 2023-04-13 | 日本電気株式会社 | 運転手監視装置、運転手監視方法及びプログラム |
| KR102683444B1 (ko) * | 2021-12-16 | 2024-07-10 | 숭실대학교 산학협력단 | Cgam을 이용한 스포츠 동영상 내 활동 인식 장치 및 그 방법 |
| US20230281749A1 (en) * | 2021-12-28 | 2023-09-07 | Viqi, Inc. | Efficient multi-dimensional storage of very large dense, sparse and semi-sparse image datasets with machine learning |
| US12165399B2 (en) * | 2021-12-29 | 2024-12-10 | Halliburton Energy Services, Inc. | Systems and methods to determine an activity associated with an object of interest |
| CN114333067B (zh) * | 2021-12-31 | 2024-05-07 | 深圳市联洲国际技术有限公司 | 行为活动的检测方法、检测装置与计算机可读存储介质 |
| US12382179B1 (en) | 2022-03-30 | 2025-08-05 | Amazon Technologies, Inc. | Detecting events by streaming pooled location features from cameras |
| CN114863336B (zh) * | 2022-05-06 | 2025-04-29 | 咪咕文化科技有限公司 | 一种信息确定方法、装置及电子设备 |
| US12131539B1 (en) | 2022-06-29 | 2024-10-29 | Amazon Technologies, Inc. | Detecting interactions from features determined from sequences of images captured using one or more cameras |
| KR102490011B1 (ko) * | 2022-07-19 | 2023-01-19 | 주식회사 라이드플럭스 | 로드 유저 예측 기반 자율주행 차량의 주행 계획 결정방법, 장치 및 컴퓨터프로그램 |
| CN120226054A (zh) * | 2022-12-02 | 2025-06-27 | 哈曼国际工业有限公司 | 用于确定场景的roi的方法、设备和计算机可读存储介质 |
| WO2024132157A1 (en) * | 2022-12-22 | 2024-06-27 | Brainlab Ag | Virtual camera sources showing regions of interest of devices |
| DE102023116054A1 (de) * | 2023-06-20 | 2024-12-24 | Bayerische Motoren Werke Aktiengesellschaft | Vorrichtung und Verfahren zum Ermitteln einer Position eines Körperteils eines Fahrzeuginsassen in einem Fahrzeug |
| JP7642182B1 (ja) * | 2023-07-05 | 2025-03-07 | 三菱電機株式会社 | 情報処理装置、再学習システム、再学習方法、及び再学習プログラム |
| KR20250038019A (ko) * | 2023-09-11 | 2025-03-19 | 현대자동차주식회사 | 차량 제어 장치 및 그 방법 |
| US20250182432A1 (en) * | 2023-12-01 | 2025-06-05 | SimpliSafe, Inc. | Object detection via panoramic image regions of interest |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015201174A (ja) | 2014-04-03 | 2015-11-12 | 富士ゼロックス株式会社 | ユーザ認証方法、システム、及びプログラム |
| US20160210504A1 (en) | 2015-01-21 | 2016-07-21 | Hyundai Motor Company | Vehicle, method for controlling the same and gesture recognition apparatus therein |
| JP2017505477A (ja) | 2013-12-30 | 2017-02-16 | アルカテル−ルーセント | ドライバ行動監視システムおよびドライバ行動監視のための方法 |
Family Cites Families (28)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5809437A (en) | 1995-06-07 | 1998-09-15 | Automotive Technologies International, Inc. | On board vehicle diagnostic module using pattern recognition |
| US5454043A (en) | 1993-07-30 | 1995-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Dynamic and static hand gesture recognition through low-level image analysis |
| DE69626208T2 (de) | 1996-12-20 | 2003-11-13 | Hitachi Europe Ltd., Maidenhead | Verfahren und System zur Erkennung von Handgesten |
| JP3414683B2 (ja) | 1999-11-16 | 2003-06-09 | 株式会社国際電気通信基礎技術研究所 | 対象物の表面動き測定方法および装置、ならびに当該方法を実現するようコンピュータを動作させるためのプログラムを記憶したコンピュータ読取可能な記録媒体 |
| CN1200397C (zh) | 2000-11-14 | 2005-05-04 | 三星电子株式会社 | 对象行为建模方法 |
| AU2004233453B2 (en) | 2003-12-03 | 2011-02-17 | Envysion, Inc. | Recording a sequence of images |
| KR20060070280A (ko) | 2004-12-20 | 2006-06-23 | 한국전자통신연구원 | 손 제스처 인식을 이용한 사용자 인터페이스 장치 및 그방법 |
| JP5028751B2 (ja) | 2005-06-09 | 2012-09-19 | ソニー株式会社 | 行動認識装置 |
| US8189866B1 (en) | 2008-08-26 | 2012-05-29 | Adobe Systems Incorporated | Human-action recognition in images and videos |
| KR20100065480A (ko) | 2008-12-08 | 2010-06-17 | 한국전자통신연구원 | 일상행위 인식 시스템 |
| JP5118620B2 (ja) | 2008-12-24 | 2013-01-16 | 日立Geニュークリア・エナジー株式会社 | 動態認識装置、動態認識システムおよび動態認識方法 |
| KR101640077B1 (ko) | 2009-06-05 | 2016-07-15 | 삼성전자주식회사 | 인체 동작 및 얼굴 표정 모델링 및 인식을 위한 비디오 센서 기반의 장치 및 방법 |
| US8345984B2 (en) | 2010-01-28 | 2013-01-01 | Nec Laboratories America, Inc. | 3D convolutional neural networks for automatic human action recognition |
| US20120200486A1 (en) | 2011-02-09 | 2012-08-09 | Texas Instruments Incorporated | Infrared gesture recognition device and method |
| US9278255B2 (en) | 2012-12-09 | 2016-03-08 | Arris Enterprises, Inc. | System and method for activity recognition |
| US9129155B2 (en) * | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
| US9701258B2 (en) * | 2013-07-09 | 2017-07-11 | Magna Electronics Inc. | Vehicle vision system |
| WO2015037273A1 (ja) * | 2013-09-12 | 2015-03-19 | 三菱電機株式会社 | 操作入力装置及び方法、並びにプログラム及び記録媒体 |
| US9501693B2 (en) | 2013-10-09 | 2016-11-22 | Honda Motor Co., Ltd. | Real-time multiclass driver action recognition using random forests |
| KR101537936B1 (ko) * | 2013-11-08 | 2015-07-21 | 현대자동차주식회사 | 차량 및 그 제어방법 |
| US9296421B2 (en) * | 2014-03-06 | 2016-03-29 | Ford Global Technologies, Llc | Vehicle target identification using human gesture recognition |
| US9778750B2 (en) | 2014-09-30 | 2017-10-03 | Xerox Corporation | Hand-gesture-based region of interest localization |
| US9354711B2 (en) | 2014-09-30 | 2016-05-31 | Xerox Corporation | Dynamic hand-gesture-based region of interest localization |
| US10860872B2 (en) * | 2016-03-21 | 2020-12-08 | Ford Global Technologies, Llc | Virtual vehicle occupant rendering |
| US10043084B2 (en) * | 2016-05-27 | 2018-08-07 | Toyota Jidosha Kabushiki Kaisha | Hierarchical context-aware extremity detection |
| CN109074497B (zh) | 2016-06-02 | 2024-01-19 | 英特尔公司 | 使用深度信息识别视频图像序列中的活动 |
| KR101809916B1 (ko) * | 2017-07-19 | 2018-01-25 | 현대자동차주식회사 | 차량, 차량의 제어 방법 및 차량에 포함되는 동작 인식 장치 |
| US10628667B2 (en) | 2018-01-11 | 2020-04-21 | Futurewei Technologies, Inc. | Activity recognition method using videotubes |
-
2018
- 2018-01-11 US US15/867,932 patent/US10628667B2/en active Active
- 2018-12-11 CN CN201880085888.XA patent/CN111587437B/zh active Active
- 2018-12-11 JP JP2020538568A patent/JP7110359B2/ja active Active
- 2018-12-11 WO PCT/CN2018/120397 patent/WO2019137137A1/en not_active Ceased
- 2018-12-11 EP EP18899053.5A patent/EP3732617B1/en active Active
- 2018-12-11 KR KR1020207022695A patent/KR102433216B1/ko active Active
- 2018-12-11 BR BR112020014184-4A patent/BR112020014184A2/pt unknown
-
2020
- 2020-03-18 US US16/822,923 patent/US11100316B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2017505477A (ja) | 2013-12-30 | 2017-02-16 | アルカテル−ルーセント | ドライバ行動監視システムおよびドライバ行動監視のための方法 |
| JP2015201174A (ja) | 2014-04-03 | 2015-11-12 | 富士ゼロックス株式会社 | ユーザ認証方法、システム、及びプログラム |
| US20160210504A1 (en) | 2015-01-21 | 2016-07-21 | Hyundai Motor Company | Vehicle, method for controlling the same and gesture recognition apparatus therein |
Also Published As
| Publication number | Publication date |
|---|---|
| CN111587437A (zh) | 2020-08-25 |
| JP2021510225A (ja) | 2021-04-15 |
| KR20200106526A (ko) | 2020-09-14 |
| US20190213406A1 (en) | 2019-07-11 |
| US10628667B2 (en) | 2020-04-21 |
| BR112020014184A2 (pt) | 2020-12-01 |
| KR102433216B1 (ko) | 2022-08-18 |
| US20200320287A1 (en) | 2020-10-08 |
| EP3732617A1 (en) | 2020-11-04 |
| CN111587437B (zh) | 2023-10-24 |
| US11100316B2 (en) | 2021-08-24 |
| EP3732617B1 (en) | 2023-07-12 |
| EP3732617A4 (en) | 2021-03-10 |
| WO2019137137A1 (en) | 2019-07-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7110359B2 (ja) | ビデオチューブを使用した行動認識方法 | |
| Wang et al. | A survey on driver behavior analysis from in-vehicle cameras | |
| US11535280B2 (en) | Method and device for determining an estimate of the capability of a vehicle driver to take over control of a vehicle | |
| US10387725B2 (en) | System and methodologies for occupant monitoring utilizing digital neuromorphic (NM) data and fovea tracking | |
| EP3796209B1 (en) | Method and system for determining an activity of an occupant of a vehicle | |
| EP3488382B1 (en) | Method and system for monitoring the status of the driver of a vehicle | |
| US20210081754A1 (en) | Error correction in convolutional neural networks | |
| EP3418944A2 (en) | Information processing apparatus, information processing method, and program | |
| Jegham et al. | Deep learning-based hard spatial attention for driver in-vehicle action monitoring | |
| Yan et al. | Driving posture recognition by joint application of motion history image and pyramid histogram of oriented gradients | |
| Garg | Drowsiness detection of a driver using conventional computer vision application | |
| Borghi et al. | Hands on the wheel: a dataset for driver hand detection and tracking | |
| Ahmad et al. | Bridging Domains with Artificial Intelligence and Machine Learning | |
| Ulhaq et al. | Deep actionlet proposals for driver's behavior monitoring | |
| Bachtiar et al. | Distraction Detection in Driving Using Pose Extraction and Machine Learning Techniques | |
| Sharma et al. | Real time image segmentation and drowsiness detection using deep learning | |
| Cauvery et al. | Distracted Driving Detection With Object Detections as the Basis Using Deep Learning Algorithm | |
| Apatean et al. | Image Features Extraction, Selection and Fusion for Computer Vision | |
| Prethija et al. | An Alarm based Driver Drowsiness Detection system | |
| Paul et al. | A Study on Recognition of Two-Person Interactions Based on Concatenated History Images | |
| Ghaziasgar et al. | Hand Gesture Recognition for Drone Control | |
| Verschae | Human Detection and Identification by Robots Using Thermal and Visual Information in Domestic Environments |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200817 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201216 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210927 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211101 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220127 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220627 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220720 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7110359 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |