JP7771747B2 - 情報処理プログラム、情報処理方法および情報処理装置 - Google Patents
情報処理プログラム、情報処理方法および情報処理装置Info
- Publication number
- JP7771747B2 JP7771747B2 JP2021215310A JP2021215310A JP7771747B2 JP 7771747 B2 JP7771747 B2 JP 7771747B2 JP 2021215310 A JP2021215310 A JP 2021215310A JP 2021215310 A JP2021215310 A JP 2021215310A JP 7771747 B2 JP7771747 B2 JP 7771747B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- video data
- behavior
- relationship
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Medical Informatics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
図1は、実施例1にかかる行動予測システムの全体構成例を示す図である。図1に示すように、この行動予測システムは、空間の一例である店舗1と、それぞれが店舗1内の異なる場所に設置された複数のカメラ2と、映像データの解析を実行する情報処理装置10とを有する。
図4は、実施例1にかかる情報処理装置10の機能構成を示す機能ブロック図である。図4に示すように、情報処理装置10は、通信部11、記憶部20、制御部30を有する。
事前処理部40は、行動予測の運用に先立って、記憶部20に記憶される訓練データを用いて、各モデルやルールなどの生成を実行する処理部である。事前処理部40は、関係性モデル生成部41、骨格認識モデル生成部42、表情認識モデル生成部43、ルール生成部44を有する。
関係性モデル生成部41は、訓練データDB22に記憶される訓練データを用いて、関係性モデル23を生成する処理部である。ここでは、一例として、関係性モデル23として、ニューラルネットワークなどを用いたHOID用のモデルを生成する例で説明する。なお、あくまで一例として、人物と物体の関係性を特定するHOID用のモデルの生成について説明するが、人物と人物の関係性を特定するHOID用のモデルについても同様に生成することができる。
骨格認識モデル生成部42は、訓練データを用いて、骨格認識モデル24の生成を実行する処理部である。具体的には、骨格認識モデル生成部42は、正解情報(ラベル)付の訓練データを用いた教師あり学習により、骨格認識モデル24を生成する。
表情認識モデル生成部43は、訓練データを用いて、表情認識モデル25の生成を実行する処理部である。具体的には、表情認識モデル生成部43は、正解情報(ラベル)付の訓練データを用いた教師あり学習により、表情認識モデル25を生成する。
図4に戻り、ルール生成部44は、過去の履歴等を用いて、上位行動特定ルール27を生成する処理部である。具体的には、ルール生成部44は、過去の様々な映像データから、人物がある行動を行うまでの動作および表情の遷移を特定することで、上位行動特定ルール27を生成する。
図4に戻り、運用処理部50は、取得部51、関係性特定部52、行動特定部53、行動予測部54を有し、事前処理部40により事前に準備された各モデルや各ルールを用いて、映像データに写る人物の将来の行動を予測する行動予測処理を実行する処理部である。
関係性特定部52は、関係性モデル23を用いて、映像データに写る人物と人物との関係性、または、人物と物体との関係性を特定する関係性特定処理を実行する処理部である。具体的には、関係性特定部52は、映像データに含まれるフレームごとに、各フレームを関係性モデル23に入力し、関係性モデル23の出力結果に応じて、関係性を特定する。そして、関係性特定部52は、特定された関係性を、行動予測部54に出力する。
行動特定部53は、映像データから、人物の現在の行動を特定する処理部である。具体的には、行動特定部53は、映像データ内の各フレームに対して、骨格認識モデル24を用いて人物の各部位の骨格情報を取得するとともに、表情認識モデル25を用いて人物の表情を特定する。そして、行動特定部53は、各フレームに対して特定された人物の各部位の骨格情報および人物の表情を用いて、人物の行動を特定し、行動予測部54に出力する。
行動予測部54は、人物の現行動と関係性と用いて、人物の将来の行動予測を実行する処理部である。具体的には、行動予測部54は、関係性特定部52により特定された関係性と、行動特定部53により特定された人物の現行動とを用いて、行動予測ルール28を検索して、人物の将来の行動を予測する。そして、行動予測部54は、予測結果を管理者の端末に送信したり、ディスプレイ等に表示したりする。
図20は、行動予測処理の流れを示すフローチャートである。なお、ここでは、事前処理は完了済とする。図20に示すように、運用処理部50は、1フレームを取得すると(S101:Yes)、フレームを関係性モデル23に入力し、関係性モデル23の出力結果に基づき、フレームに写っている対象物を特定し(S102)、対象物の関係性を特定する(S103)。
次に、上述した情報処理装置10による行動予測を用いた安心安全な社会の実現に寄与するソリューションの具体例について説明する。ここでは、人と物の関係性を用いたソリューションと、人と人の関係性を用いたソリューションとについて説明する。
図21は、人と物に関連する行動予測を適用したソリューション例を説明する図である。図21では、スーパーマーケットなどの監視カメラにより撮像された映像データを用いた行動予測の例を説明する。なお、以下で説明する処理は、1つの映像データ内の1つのフレームもしくは複数のフレームに跨って実行される。
図22は、人と人に関連する行動予測を適用したソリューション例を説明する図である。図22では、街路などの監視カメラにより夜間に撮像された映像データを用いた行動予測の例を説明する。なお、以下で説明する処理は、1つの映像データ内の1つのフレームもしくは複数のフレームに跨って実行される。
上述したように、情報処理装置10は、事故や犯罪の発生ではなく、兆候を予測することができるので、映像データから事前に対策が必要な状況を検出することができる。また、情報処理装置10は、監視カメラなどの一般的なカメラが撮像する映像データから行動予測を実行することができるので、複雑なシステム構成や新たな装置を必要とせず、既存のシステムに導入することができる。また、情報処理装置10は、既存のシステムに導入するので、新規システム構築よりもコストを削減できる。また、情報処理装置10は、過去および現在の行動から連続するような単純な行動の予測のみならず、過去および現在の行動から単純に特定することができないような人物の複雑な行動を予測することができる。これにより、情報処理装置10は、人物の将来の行動の予測精度を向上させることができる。
上記実施例で用いた数値例、カメラ数、ラベル名、ルール例、行動例、状態例、行動予測ルールの形式および内容等は、あくまで一例であり、任意に変更することができる。また、各フローチャートで説明した処理の流れも矛盾のない範囲内で適宜変更することができる。また、上記実施例では、店舗を例にして説明したが、これに限定されるものではなく、例えば倉庫、工場、教室、電車の車内や飛行機の客室などにも適用することができる。なお、関係性モデル23は、第一の機械学習モデル、骨格認識モデル24は、第二の機械学習モデル、表情認識モデル25は、第三の機械学習モデルの一例である。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
図23は、ハードウェア構成例を説明する図である。図23に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図23に示した各部は、バス等で相互に接続される。
11 通信部
20 記憶部
21 映像データDB
22 訓練データDB
23 関係性モデル
24 骨格認識モデル
25 表情認識モデル
26 表情認識ルール
27 上位行動特定ルール
28 行動予測ルール
30 制御部
40 事前処理部
41 関係性モデル生成部
42 骨格認識モデル生成部
43 表情認識モデル生成部
44 ルール生成部
50 運用処理部
51 取得部
52 関係性特定部
53 行動特定部
54 行動予測部
Claims (10)
- 人物と物体を含む対象物を有する映像データを取得し、
取得された前記映像データを、第一の機械学習モデルに入力することで、取得した前記映像データの中の各対象物のそれぞれの関係性を特定し、
取得した前記映像データに含まれる人物の特徴量を用いて、前記映像データの中の人物の行動を特定し、
特定した前記人物の行動と、特定した前記関係性とに基づいて、前記人物の今後の行動または状態を予測する、
処理をコンピュータに実行させ、
前記行動を特定する処理は、
画像データである説明変数をニューラルネットワークに入力したときに前記ニューラルネットワークが出力する出力結果と、動作のラベルである正解データとの誤差が小さくなるように、前記ニューラルネットワークのパラメータを変更した第二の機械学習モデルを取得し、
前記映像データを前記第二の機械学習モデルに入力することで、前記人物の部位ごとの動作を特定し、
前記人物の表情を含む画像データである説明変数をニューラルネットワークに入力したときに前記ニューラルネットワークから出力された出力結果と、前記人物の表情の各マーカの強度である目的変数を示す正解データとの誤差が小さくなるように、前記ニューラルネットワークのパラメータを変更した第三の機械学習モデルを取得し、
前記映像データを前記第三の機械学習モデルに入力することで、前記人物のマーカの強度を生成し、生成された前記マーカの強度を用いて、前記人物の表情を特定し、
特定した前記人物の部位ごとの動作と、特定した前記人物の表情と、予め設定されたルールとを比較することで、前記映像データの中の前記人物の行動を特定する、ことを特徴とする情報処理プログラム。 - 前記人物は、前記映像データの所定のエリアを移動する顧客であり、
前記物体は、前記顧客が購入する対象の商品であり、
前記関係性は、前記人物の前記商品に対する行動の種類であり、
前記予測する処理は、前記人物の今後の行動または状態として、前記顧客の商品に対する購買に関する行動を予測する、ことを特徴とする請求項1に記載の情報処理プログラム。 - 人物と物体を含む対象物を有する映像データを取得し、
取得された前記映像データを、第一の機械学習モデルに入力することで、取得した前記映像データの中の各対象物のそれぞれの関係性を特定し、
取得した前記映像データに含まれる人物の特徴量を用いて、前記映像データの中の人物の行動を特定し、
特定した前記人物の行動と、特定した前記関係性とに基づいて、前記人物の今後の行動または状態を予測する、
処理をコンピュータに実行させ、
前記第一の機械学習モデルは、
人物を示す第1クラスおよび前記人物が出現する領域を示す第1領域情報と、物体を示す第2クラスおよび前記物体が出現する領域を示す第2領域情報と、前記第1クラスと前記第2クラスとの関係性と、を識別するように、機械学習により生成されたHOID(Human Object Interaction Detection)用のモデルであり、
前記関係性を特定する処理は、
前記映像データを前記HOID用のモデルに入力し、
前記HOID用のモデルの出力として、前記映像データに出現する人物と物体について、前記第1クラスおよび前記第1領域情報、前記第2クラスおよび前記第2領域情報、前記第1クラスと前記第2クラスとの関係性を取得し、
取得した結果に基づき、前記人物と前記物体との間の関係性と特定する、ことを特徴とする情報処理プログラム。 - 人物と物体を含む対象物を有する映像データを取得し、
取得された前記映像データを、第一の機械学習モデルに入力することで、取得した前記映像データの中の各対象物のそれぞれの関係性を特定し、
取得した前記映像データに含まれる人物の特徴量を用いて、前記映像データの中の人物の行動を特定し、
特定した前記人物の行動と、特定した前記関係性とに基づいて、前記人物の今後の行動または状態を予測する、
処理をコンピュータに実行させ、
前記第一の機械学習モデルは、
第一の人物を示す第1クラスおよび前記第一の人物が出現する領域を示す第1領域情報と、第二の人物を示す第2クラスおよび前記第二の人物が出現する領域を示す第2領域情報と、前記第1クラスと前記第2クラスとの関係性と、を識別するように機械学習により生成されたHOID(Human Object Interaction Detection)用のモデルであり、
前記関係性を特定する処理は、
前記映像データを前記HOID用のモデルに入力し、
前記HOID用のモデルの出力として、前記映像データに出現する各人物について、前記第1クラスおよび前記第1領域情報、前記第2クラスおよび前記第2領域情報、前記第1クラスと前記第2クラスとの関係性を取得し、
取得した結果に基づき、前記各人物間の関係性と特定する、ことを特徴とする情報処理プログラム。 - 前記第一の人物は、犯人であり、
前記第二の人物は、被害者であり、
前記関係性は、前記第一の人物の前記第二の人物に対する行動の種類であり、
前記予測する処理は、前記人物の今後の行動または状態として、前記第一の人物が前記第二の人物に対する犯罪行為を予測する、ことを特徴とする請求項4に記載の情報処理プログラム。 - 前記予測する処理は、
特定した人物の行動および特定した関係性と、人物の行動と関係性との組み合わせ毎に人物の今後の行動が対応付けられたルールである行動予測ルールとを比較することで、前記人物の今後の行動を予測する、ことを特徴とする請求項1、3または4に記載の情報処理プログラム。 - 人物と物体を含む対象物を有する映像データを取得し、
取得された前記映像データを、第一の機械学習モデルに入力することで、取得した前記映像データの中の各対象物のそれぞれの関係性を特定し、
取得した前記映像データに含まれる人物の特徴量を用いて、前記映像データの中の人物の行動を特定し、
特定した前記人物の行動と、特定した前記関係性とに基づいて、前記人物の今後の行動または状態を予測する、
処理をコンピュータが実行し、
前記行動を特定する処理は、
画像データである説明変数をニューラルネットワークに入力したときに前記ニューラルネットワークが出力する出力結果と、動作のラベルである正解データとの誤差が小さくなるように、前記ニューラルネットワークのパラメータを変更した第二の機械学習モデルを取得し、
前記映像データを前記第二の機械学習モデルに入力することで、前記人物の部位ごとの動作を特定し、
前記人物の表情を含む画像データである説明変数をニューラルネットワークに入力したときに前記ニューラルネットワークから出力された出力結果と、前記人物の表情の各マーカの強度である目的変数を示す正解データとの誤差が小さくなるように、前記ニューラルネットワークのパラメータを変更した第三の機械学習モデルを取得し、
前記映像データを前記第三の機械学習モデルに入力することで、前記人物のマーカの強度を生成し、生成された前記マーカの強度を用いて、前記人物の表情を特定し、
特定した前記人物の部位ごとの動作と、特定した前記人物の表情と、予め設定されたルールとを比較することで、前記映像データの中の前記人物の行動を特定する、ことを特徴とする情報処理方法。 - 人物と物体を含む対象物を有する映像データを取得し、
取得された前記映像データを、第一の機械学習モデルに入力することで、取得した前記映像データの中の各対象物のそれぞれの関係性を特定し、
取得した前記映像データに含まれる人物の特徴量を用いて、前記映像データの中の人物の行動を特定し、
特定した前記人物の行動と、特定した前記関係性とに基づいて、前記人物の今後の行動または状態を予測する、
処理をコンピュータが実行し、
前記第一の機械学習モデルは、
人物を示す第1クラスおよび前記人物が出現する領域を示す第1領域情報と、物体を示す第2クラスおよび前記物体が出現する領域を示す第2領域情報と、前記第1クラスと前記第2クラスとの関係性と、を識別するように、機械学習により生成されたHOID(Human Object Interaction Detection)用のモデルであり、
前記関係性を特定する処理は、
前記映像データを前記HOID用のモデルに入力し、
前記HOID用のモデルの出力として、前記映像データに出現する人物と物体について、前記第1クラスおよび前記第1領域情報、前記第2クラスおよび前記第2領域情報、前記第1クラスと前記第2クラスとの関係性を取得し、
取得した結果に基づき、前記人物と前記物体との間の関係性と特定する、ことを特徴とする情報処理方法。 - 人物と物体を含む対象物を有する映像データを取得し、
取得された前記映像データを、第一の機械学習モデルに入力することで、取得した前記映像データの中の各対象物のそれぞれの関係性を特定し、
取得した前記映像データに含まれる人物の特徴量を用いて、前記映像データの中の人物の行動を特定し、
特定した前記人物の行動と、特定した前記関係性とに基づいて、前記人物の今後の行動または状態を予測する、
処理を実行する制御部を有し、
前記制御部は、
画像データである説明変数をニューラルネットワークに入力したときに前記ニューラルネットワークが出力する出力結果と、動作のラベルである正解データとの誤差が小さくなるように、前記ニューラルネットワークのパラメータを変更した第二の機械学習モデルを取得し、
前記映像データを前記第二の機械学習モデルに入力することで、前記人物の部位ごとの動作を特定し、
前記人物の表情を含む画像データである説明変数をニューラルネットワークに入力したときに前記ニューラルネットワークから出力された出力結果と、前記人物の表情の各マーカの強度である目的変数を示す正解データとの誤差が小さくなるように、前記ニューラルネットワークのパラメータを変更した第三の機械学習モデルを取得し、
前記映像データを前記第三の機械学習モデルに入力することで、前記人物のマーカの強度を生成し、生成された前記マーカの強度を用いて、前記人物の表情を特定し、
特定した前記人物の部位ごとの動作と、特定した前記人物の表情と、予め設定されたルールとを比較することで、前記映像データの中の前記人物の行動を特定する、ことを特徴とする情報処理装置。 - 人物と物体を含む対象物を有する映像データを取得し、
取得された前記映像データを、第一の機械学習モデルに入力することで、取得した前記映像データの中の各対象物のそれぞれの関係性を特定し、
取得した前記映像データに含まれる人物の特徴量を用いて、前記映像データの中の人物の行動を特定し、
特定した前記人物の行動と、特定した前記関係性とに基づいて、前記人物の今後の行動または状態を予測する、
処理を実行する制御部を有し、
前記第一の機械学習モデルは、
人物を示す第1クラスおよび前記人物が出現する領域を示す第1領域情報と、物体を示す第2クラスおよび前記物体が出現する領域を示す第2領域情報と、前記第1クラスと前記第2クラスとの関係性と、を識別するように、機械学習により生成されたHOID(Human Object Interaction Detection)用のモデルであり、
前記制御部は、
前記映像データを前記HOID用のモデルに入力し、
前記HOID用のモデルの出力として、前記映像データに出現する人物と物体について、前記第1クラスおよび前記第1領域情報、前記第2クラスおよび前記第2領域情報、前記第1クラスと前記第2クラスとの関係性を取得し、
取得した結果に基づき、前記人物と前記物体との間の関係性と特定する、ことを特徴とする情報処理装置。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021215310A JP7771747B2 (ja) | 2021-12-28 | 2021-12-28 | 情報処理プログラム、情報処理方法および情報処理装置 |
| EP22195813.5A EP4207098A1 (en) | 2021-12-28 | 2022-09-15 | Information processing program, information processing method, and information processing apparatus |
| US17/946,173 US20230206693A1 (en) | 2021-12-28 | 2022-09-16 | Non-transitory computer-readable recording medium, information processing method, and information processing apparatus |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021215310A JP7771747B2 (ja) | 2021-12-28 | 2021-12-28 | 情報処理プログラム、情報処理方法および情報処理装置 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023098506A JP2023098506A (ja) | 2023-07-10 |
| JP7771747B2 true JP7771747B2 (ja) | 2025-11-18 |
Family
ID=83355206
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021215310A Active JP7771747B2 (ja) | 2021-12-28 | 2021-12-28 | 情報処理プログラム、情報処理方法および情報処理装置 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US20230206693A1 (ja) |
| EP (1) | EP4207098A1 (ja) |
| JP (1) | JP7771747B2 (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7315048B1 (ja) * | 2022-02-21 | 2023-07-26 | 富士通株式会社 | 配信プログラム、配信方法および情報処理装置 |
| CN116956222A (zh) * | 2023-07-26 | 2023-10-27 | 山东大学 | 一种基于自适应特征提取的多复杂度行为识别系统及方法 |
| JP2025060145A (ja) * | 2023-09-29 | 2025-04-10 | 横河電機株式会社 | 画像解析装置、画像解析方法、および画像解析プログラム |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000293685A (ja) | 1999-04-06 | 2000-10-20 | Toyota Motor Corp | シーン認識装置 |
| WO2006030742A1 (ja) | 2004-09-14 | 2006-03-23 | Matsushita Electric Industrial Co., Ltd. | 機器制御システムおよび機器制御方法 |
| JP2017121017A (ja) | 2015-12-28 | 2017-07-06 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 機器制御システム及び機器制御方法 |
| WO2019235350A1 (ja) | 2018-06-06 | 2019-12-12 | 日本電気株式会社 | 情報処理システム、情報処理方法及び記憶媒体 |
| WO2019235050A1 (ja) | 2018-06-05 | 2019-12-12 | コニカミノルタ株式会社 | 物体検出方法および物体検出装置 |
| WO2020075283A1 (ja) | 2018-10-11 | 2020-04-16 | 株式会社オプティム | 異常者予知システム、異常者予知方法、およびプログラム |
| JP2021047659A (ja) | 2019-09-19 | 2021-03-25 | コニカミノルタ株式会社 | 作業関与状況評価装置、作業関与状況評価方法及びプログラム |
| US20210110203A1 (en) | 2019-10-11 | 2021-04-15 | Perceptive Automata, Inc. | Visualizing machine learning predictions of human interaction with vehicles |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20200057964A1 (en) * | 2018-08-20 | 2020-02-20 | Newton Howard | Brain operating system |
| EP3679994B1 (en) | 2017-09-05 | 2025-10-22 | Fujitsu Limited | Grading method, grading program and grading device |
| JP7283037B2 (ja) * | 2018-07-26 | 2023-05-30 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、およびプログラム |
| JP7119912B2 (ja) | 2018-10-31 | 2022-08-17 | 富士通株式会社 | 行動認識方法、行動認識プログラムおよび行動認識装置 |
| JP7172472B2 (ja) | 2018-11-09 | 2022-11-16 | 富士通株式会社 | ルール生成装置、ルール生成方法及びルール生成プログラム |
| KR102260120B1 (ko) * | 2019-11-04 | 2021-06-03 | 주식회사 넥스트케이 | 딥러닝기반 행동인식장치 및 그 장치의 구동방법 |
| JP7452016B2 (ja) | 2020-01-09 | 2024-03-19 | 富士通株式会社 | 学習データ生成プログラム、及び学習データ生成方法 |
| US11625646B2 (en) * | 2020-04-06 | 2023-04-11 | Huawei Cloud Computing Technologies Co., Ltd. | Method, system, and medium for identifying human behavior in a digital video using convolutional neural networks |
| CN112668384B (zh) * | 2020-08-07 | 2024-05-31 | 深圳市唯特视科技有限公司 | 一种知识图谱构建方法、系统、电子设备及存储介质 |
| EP4064118A1 (en) * | 2021-03-25 | 2022-09-28 | Grazper Technologies ApS | Utility vehicle and corresponding apparatus, method and computer program for a utility vehicle |
-
2021
- 2021-12-28 JP JP2021215310A patent/JP7771747B2/ja active Active
-
2022
- 2022-09-15 EP EP22195813.5A patent/EP4207098A1/en active Pending
- 2022-09-16 US US17/946,173 patent/US20230206693A1/en active Pending
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000293685A (ja) | 1999-04-06 | 2000-10-20 | Toyota Motor Corp | シーン認識装置 |
| WO2006030742A1 (ja) | 2004-09-14 | 2006-03-23 | Matsushita Electric Industrial Co., Ltd. | 機器制御システムおよび機器制御方法 |
| JP2017121017A (ja) | 2015-12-28 | 2017-07-06 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 機器制御システム及び機器制御方法 |
| WO2019235050A1 (ja) | 2018-06-05 | 2019-12-12 | コニカミノルタ株式会社 | 物体検出方法および物体検出装置 |
| WO2019235350A1 (ja) | 2018-06-06 | 2019-12-12 | 日本電気株式会社 | 情報処理システム、情報処理方法及び記憶媒体 |
| WO2020075283A1 (ja) | 2018-10-11 | 2020-04-16 | 株式会社オプティム | 異常者予知システム、異常者予知方法、およびプログラム |
| JP2021047659A (ja) | 2019-09-19 | 2021-03-25 | コニカミノルタ株式会社 | 作業関与状況評価装置、作業関与状況評価方法及びプログラム |
| US20210110203A1 (en) | 2019-10-11 | 2021-04-15 | Perceptive Automata, Inc. | Visualizing machine learning predictions of human interaction with vehicles |
Also Published As
| Publication number | Publication date |
|---|---|
| US20230206693A1 (en) | 2023-06-29 |
| EP4207098A1 (en) | 2023-07-05 |
| JP2023098506A (ja) | 2023-07-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11669979B2 (en) | Method of searching data to identify images of an object captured by a camera system | |
| JP7771747B2 (ja) | 情報処理プログラム、情報処理方法および情報処理装置 | |
| JP7761061B2 (ja) | 情報処理プログラム、情報処理方法および情報処理装置 | |
| Popa et al. | Semantic assessment of shopping behavior using trajectories, shopping related actions, and context information | |
| EP4207096B1 (en) | Information processing program, information processing method, and information processing apparatus | |
| Aljuaid et al. | Postures anomaly tracking and prediction learning model over crowd data analytics | |
| Ezatzadeh et al. | A human fall detection framework based on multi-camera fusion | |
| JP7362102B2 (ja) | 情報処理装置及び情報処理プログラム | |
| EP4207101A1 (en) | Information processing program, information processing method, and information processing apparatus | |
| EP4207097B1 (en) | Information processing program, information processing method, and information processing apparatus | |
| US10929688B2 (en) | System and method of video content filtering | |
| EP4207107A1 (en) | Information processing program, information processing method, and information processing apparatus | |
| EP4231222A1 (en) | Information processing program, information processing method, and information processing apparatus | |
| Chen | A video surveillance system designed to detect multiple falls | |
| Ali et al. | Estimating human running indoor based on the speed of human detection by using OpenPose | |
| US20250131805A1 (en) | Management and security alert system and self-service retail store initialization system | |
| Kemmotsu et al. | Human behavior recognition using unconscious cameras and a visible robot in a network robot system | |
| Lee et al. | Understanding human-place interaction from tracking and identification of many users | |
| Antonov et al. | An Intelligent System for Video-Based Proximity Analysis | |
| Wijaya | Crowd Behaviour Prediction using Visual and Location Data in Super-Crowded Scenarios | |
| Aslam et al. | Attention Guided Human Fall Detection for Elderly Patient Monitoring | |
| Bourbakis et al. | A synergistic model for representing and interpreting human activities and events from video | |
| Raguraman et al. | Social Distancing and Face Mask Detection Using YOLO Object Detection Algorithm | |
| Kosmopoulos | Behavior monitoring for assistive environments using multiple views | |
| Husz | Articulated human tracking and behavioural analysis in video sequences |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240912 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250526 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250624 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250825 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20251007 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20251020 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7771747 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |