JP7667723B2 - Information processing device and information processing method - Google Patents
Information processing device and information processing method Download PDFInfo
- Publication number
- JP7667723B2 JP7667723B2 JP2021170384A JP2021170384A JP7667723B2 JP 7667723 B2 JP7667723 B2 JP 7667723B2 JP 2021170384 A JP2021170384 A JP 2021170384A JP 2021170384 A JP2021170384 A JP 2021170384A JP 7667723 B2 JP7667723 B2 JP 7667723B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- work
- frame image
- information processing
- trained model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
Description
本開示は、情報処理装置および情報処理方法に関する。 This disclosure relates to an information processing device and an information processing method.
従来、たとえば特開平7-146897号公報(特許文献1)に示すように、赤外線ビデオカメラによって撮像された作業場の映像を再生しながら、当該作業場における作業内容を分類するシステムが知られている。 Conventionally, as shown in, for example, Japanese Patent Application Laid-Open No. 7-146897 (Patent Document 1), a system is known that classifies the tasks performed in a workplace while playing back video of the workplace captured by an infrared video camera.
詳しくは、このシステムでは、赤外線ビデオカメラによって記録したビデオテープの内容をビデオデッキにて再生する。システムのコントローラ内の人体認識部は、赤外ビデオモニタに表示された作業者に相当する赤色部を追跡し、当該赤色部の動きをモード切替部を介して条件比較部に入力する。コントローラ内の条件比較部は、条件記憶部に格納してある条件を読み出し、人体認識部から送られてきたデータと比較して作業者が行っている作業を分類する。 In more detail, in this system, the contents of a video tape recorded by an infrared video camera are played back on a video deck. The human body recognition unit in the system's controller tracks the red area displayed on the infrared video monitor that corresponds to the worker, and inputs the movement of the red area into the condition comparison unit via the mode switching unit. The condition comparison unit in the controller reads the conditions stored in the condition memory unit, compares them with the data sent from the human body recognition unit, and classifies the work being performed by the worker.
特許文献1のシステムでは、被写体を赤外線ビデオカメラによって撮像する必要があり、汎用性に欠ける。
The system in
本開示は、可視光カメラによる撮像によって得られた動画像データ(複数のフレーム画像データ)に基づき、作業場において行われている作業の種別を判定可能な情報処理装置および情報処理方法を提供する。 The present disclosure provides an information processing device and information processing method that can determine the type of work being performed in a workplace based on video image data (multiple frame image data) captured by a visible light camera.
本開示のある局面に従うと、情報処理装置は、可視光カメラによる撮像によって得られた連続する複数のフレーム画像データを取得する取得手段を備える。可視光カメラは、設置位置および姿勢が固定され、かつ、光の明滅を伴う作業が作業者によって行われている作業場を被写体として撮像する。情報処理装置は、複数のフレーム画像データのうちの第1のフレーム画像データにおいて、作業者の領域を検出する検出手段と、第1のフレーム画像データと、複数のフレーム画像データのうち第1のフレーム画像データよりも所定個前の第2のフレーム画像データとに基づいて、被写体の状態変化を示す画像データを生成する生成手段と、生成された画像データから、検出された作業者の領域に対応する領域の画像データを抽出する抽出手段と、抽出された画像データに基づき、作業場で行われている作業の種別を判定する判定手段とをさらに備える。 According to one aspect of the present disclosure, an information processing device includes an acquisition means for acquiring a series of multiple frame image data captured by an image capture using a visible light camera. The visible light camera is fixed in position and orientation, and captures an image of a workplace where a worker is performing work involving blinking light as a subject. The information processing device further includes a detection means for detecting an area of the worker in a first frame image data of the multiple frame image data, a generation means for generating image data showing a change in the state of the subject based on the first frame image data and a second frame image data of the multiple frame image data that is a predetermined number of frames before the first frame image data, an extraction means for extracting image data of an area corresponding to the detected area of the worker from the generated image data, and a determination means for determining the type of work being performed in the workplace based on the extracted image data.
本開示の他の局面に従うと、情報処理方法は、可視光カメラによって、光の明滅を伴う作業が作業者によって行われている作業場を被写体として撮像するステップを備える。可視光カメラは、設置位置および姿勢が固定されている。情報処理方法は、可視光カメラによる撮像によって得られた連続する複数のフレーム画像データを取得するステップと、複数のフレーム画像データのうちの第1のフレーム画像データにおいて、作業者の領域を検出するステップと、第1のフレーム画像データと、複数のフレーム画像データのうち第1のフレーム画像データよりも所定個前の第2のフレーム画像データとに基づいて、被写体の状態変化を示す画像データを生成するステップと、生成された画像データから、検出された作業者の領域に対応する領域の画像データを抽出するステップと、抽出された画像データに基づき、作業場で行われている作業の種別を判定するステップとをさらに備える。 According to another aspect of the present disclosure, the information processing method includes a step of capturing an image of a workplace where a worker is performing work involving blinking light, as a subject, by a visible light camera. The visible light camera is fixed in its installation position and attitude. The information processing method further includes a step of acquiring a plurality of consecutive frame image data obtained by capturing images by the visible light camera, a step of detecting an area of the worker in a first frame image data of the plurality of frame image data, a step of generating image data showing a change in the state of the subject based on the first frame image data and a second frame image data of the plurality of frame image data that is a predetermined number of frames before the first frame image data, a step of extracting image data of an area corresponding to the area of the detected worker from the generated image data, and a step of determining a type of work being performed in the workplace based on the extracted image data.
本開示によれば、可視光カメラによる撮像によって得られた複数のフレーム画像データに基づき、作業場において行われている作業の種別を判定可能となる。 According to the present disclosure, it is possible to determine the type of work being performed in a workplace based on multiple frame image data obtained by capturing images using a visible light camera.
以下、実施形態について図に基づいて説明する。なお、以下の説明では、同一部品には、同一の符号を付している。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 The following describes the embodiment with reference to the drawings. In the following description, identical parts are given the same reference numerals. Their names and functions are also the same. Therefore, detailed descriptions of them will not be repeated.
はじめに、本実施の形態で用いる用語の一部について説明する。 First, we will explain some of the terms used in this embodiment.
「学習済みモデル」とは「学習済みパラメータ」が組み込まれた「推論プログラム」をいう。「学習済みパラメータ」とは、学習用データセットを用いた学習の結果、得られたパラメータ(係数)をいう。学習済みパラメータは、学習用データセットを学習用プログラムに対して入力することで、一定の目的のために機械的に調整されることで生成される。「推論プログラム」とは、組み込まれた学習済みパラメータを適用することで、入力に対して一定の結果を出力することを可能にするプログラムをいう。 "Trained model" refers to an "inference program" that incorporates "trained parameters." "Trained parameters" refer to parameters (coefficients) obtained as a result of learning using a training dataset. Trained parameters are generated by inputting the training dataset into a training program and mechanically adjusting it for a certain purpose. "Inference program" refers to a program that makes it possible to output a certain result for an input by applying the incorporated trained parameters.
「学習用プログラム」とは、学習用データセットの中から一定の規則を見出し、その規則を表現するモデルを生成するためのアルゴリズムを実行するプログラムをいう。具体的には、採用する学習手法による学習を実現するために、コンピュータに実行させる手順を規定するプログラムがこれに該当する。 "Learning program" refers to a program that executes an algorithm to find certain rules from a training dataset and generate a model that expresses those rules. Specifically, this refers to a program that specifies the procedures to be executed by a computer in order to realize learning using the adopted learning method.
「学習用データセット」とは、生データに対して、欠測値および外れ値の除去等の前処理、ラベル情報(正解データ)等の別個のデータの付加、あるいはこれらを組み合わせて、変換および/または加工処理を施すことによって、対象とする学習の手法による解析を容易にするために生成された二次的な加工データをいう。学習用データセットは、データ(以下、「学習用データ」とも称する)の集合体である。本実施の形態では、学習用データは、1枚の画像データと、ラベル情報とを含む。 A "learning dataset" refers to secondary processed data that is generated by converting and/or processing raw data through preprocessing such as removing missing values and outliers, adding separate data such as label information (ground truth data), or combining these to facilitate analysis using a target learning method. A learning dataset is a collection of data (hereinafter also referred to as "learning data"). In this embodiment, the learning data includes one image data and label information.
<A.システム構成>
図1は、本実施の形態の判定システムの概略構成を説明するための図である。
A. System Configuration
FIG. 1 is a diagram for explaining a schematic configuration of a determination system according to the present embodiment.
図1に示されるように、判定システム1000は、カメラ1と、情報処理装置2とを備える。
As shown in FIG. 1, the determination system 1000 includes a
カメラ1は、可視光カメラである。カメラ1は、設置位置および姿勢が固定されている。カメラ1は、光の明滅を伴う作業が作業者900によって行われている作業場を被写体として撮像する。光の明滅を伴う作業としては、たとえば、溶接作業、グラインダ作業、ガウジング作業等がある。なお、溶接作業には、スポット溶接を含む。
カメラ1によって撮像された動画像データDaは、情報処理装置2に送られる。動画像データDaは、複数の連続するフレーム画像データ#1,#2,#3,…を含んで構成される。
Movie data Da captured by
情報処理装置2は、ユーザ950によって利用される。情報処理装置2は、典型的には、パーソナルコンピュータである。情報処理装置2は、カメラ1によって撮像された動画像データDaをカメラ1から取得する。なお、情報処理装置2は、サーバ装置等の他の機器を介して、動画像データDaを取得してもよい。また、情報処理装置2は、ICカード、USBメモリ等の記憶媒体を介して、動画像データDaを取得してもよい。
The
図2は、情報処理装置2のハードウェア構成を示した図である。
Figure 2 shows the hardware configuration of
図2に示されるように、情報処理装置2は、プロセッサ201と、メモリ202と、ディスプレイ203と、入力装置204と、通信インターフェイス205と、カードリーダ206と、USBポート207とを備える。メモリ202は、ROM(Read Only Memory)221と、RAM(Random Access Memory)222と、SSD(Solid State Drive)223と、HDD(Hard Disk Drive)224とを含む。
2, the
メモリ202には、オペレーティングシステムと、学習済みモデルを含む各種のプログラムとが格納されている。メモリ202には、後述する各種の処理を実行するためのプログラムが格納されている。プロセッサ201は、オペレーティングシステムおよび上記プログラムを実行する。
The
入力装置204は、ユーザ950からの操作入力を受け付ける。入力装置204は、典型的には、キーボード、マウスである。
The
プロセッサ201は、入力装置204が受け付けた操作に基づき、各種の処理を実行する。プロセッサ201は、各種の情報をディスプレイ203に表示する。プロセッサ201は、プログラムの実行結果をディスプレイに表示する。
The
通信インターフェイス205は、外部の機器と通信するためのインターフェイスである。プロセッサ201は、通信インターフェイス205を介して、カメラ1から動画像データDaを取得する。
The
カードリーダ206は、ICカードに記憶されたデータを読み取る。USBポート207には、USBメモリが接続される。プロセッサ201は、カードリーダ206またはUSBポート207を介して、動画像データDaを取得することも可能である。
The
<B.作業種別の判定>
図3は、情報処理装置2で実行される処理の概要を説明するための図である。
<B. Determination of work type>
FIG. 3 is a diagram for explaining an overview of the process executed by the
図3に示されるように、情報処理装置2は、動画像データ取得部10と、人物領域検出部20と、生成部30と、抽出部40と、作業種別判定部50と、記憶部60と、表示制御部70と、表示部80とを備える。
As shown in FIG. 3, the
なお、動画像データ取得部10は、通信インターフェイス205、カードリーダ206、または、USBポート207に対応する。人物領域検出部20と、生成部30と、抽出部40と、作業種別判定部50と、表示制御部70とは、プロセッサ201が、メモリ202に記憶されたプログラム等を実行することにより実現される機能ブロックである。記憶部60は、メモリ202に対応する。表示部80は、ディスプレイ203に対応する。
The video
動画像データ取得部10は、カメラ1による撮像によって得られた動画像データDaを、カメラ1から取得する。詳しくは、動画像データ取得部10は、カメラ1によって得られた連続する複数のフレーム画像データ#1,#2,#3,…を取得する。
The video
情報処理装置2では、複数のフレーム画像データ#1,#2,#3,…に対し、人物領域検出部20による検出処理と、生成部30による画像生成処理とが個別に行われる。なお、人物領域検出部20による検出処理と、生成部30による画像生成処理とが行われるタイミングは、いずれが先であってもよいし、同時であってもよい。
In the
詳しくは、動画像データ取得部10によって取得された動画像データDaは、記憶部60等のメモリ202に一時的に格納され、その後、人物領域検出部20および生成部30によって読み出される。
In detail, the video data Da acquired by the video
以下、主として、人物領域検出部20と、生成部30と、抽出部40と、作業種別判定部50と、表示制御部70とについて説明する。 The following mainly describes the person area detection unit 20, the generation unit 30, the extraction unit 40, the task type determination unit 50, and the display control unit 70.
(b1.人物領域検出部20)
人物領域検出部20は、複数のフレーム画像データ#1,#2,#3,…の各々のフレーム画像データ(以下、Nを自然数として、「フレーム画像データ#N」と称する)において、作業者の領域(以下、「人物領域」とも称する)を検出する。本例では、人物領域検出部20は、学習済みモデルM20によって実現される。なお、本例では、フレーム画像データ#1における人物領域は利用しないため、フレーム画像データ#1において人物領域を検出する必要はない。
(b1. Person area detection unit 20)
The person area detection unit 20 detects the area of the worker (hereinafter also referred to as "person area") in each of the multiple frame
学習済みモデルM20は、フレーム画像データ#Nを入力とし、かつ、人物領域を示す情報を出力する。具体的には、学習済みモデルM20は、人物領域の座標を出力する。より具体的には、学習済みモデルM20は、人物領域として、矩形状の領域を抽出する。当該領域は、典型的には、矩形の4つの角の座標値として表すことができる。このように、学習済みモデルM20は、人物領域の座標として、4つ座標値を出力する。 The trained model M20 receives frame image data #N as input and outputs information indicating a person area. Specifically, the trained model M20 outputs the coordinates of the person area. More specifically, the trained model M20 extracts a rectangular area as the person area. Typically, the area can be expressed as the coordinate values of the four corners of the rectangle. In this way, the trained model M20 outputs four coordinate values as the coordinates of the person area.
人物領域検出部20は、フレーム画像データ#Nを示す識別子(たとえば、フレームナンバー、タイムスタンプ)とともに、人物領域の座標を抽出部40に送る。具体的には、人物領域検出部20は、フレーム画像データ#Nの識別子に関連付けられた、フレーム画像データ#Nにおける人物領域の座標を、抽出部40に送る。たとえば、動画像データDaにフレーム画像データがK個(1≦N≦K)だけ含まれる場合、人物領域検出部20は、K個の人物領域の座標のセット(座標値は、合計個数4K=4×K)を抽出部40に送る。より詳しくは、本例では、K個の人物領域の座標は、記憶部60等のメモリ202に一時的に格納され、その後、抽出部40によって読み出される。
The person area detection unit 20 sends the coordinates of the person area to the extraction unit 40 along with an identifier (e.g., frame number, timestamp) indicating frame image data #N. Specifically, the person area detection unit 20 sends the coordinates of the person area in frame image data #N associated with the identifier of frame image data #N to the extraction unit 40. For example, if the video data Da contains K frame image data (1≦N≦K), the person area detection unit 20 sends a set of coordinates of K person areas (coordinate values are 4K=4×K in total) to the extraction unit 40. More specifically, in this example, the coordinates of the K person areas are temporarily stored in
(b2.生成部30)
生成部30は、フレーム画像データ#Nと、フレーム画像データ#1よりも1個前のフレーム画像データ#N-1とに基づいて、被写体の状態変化を示す画像データを生成する。詳しくは、生成部30は、フレーム差分法(「フレーム間差分法」とも称される)によって、被写体の状態変化を示す画像データを生成する。なお、フレーム画像データ#0は存在しないため、フレーム画像データ#0とフレーム画像データ#1とに基づいた、被写体の状態変化を示す画像データは生成されない。
(b2. Generation unit 30)
The generating unit 30 generates image data showing a change in the subject's state based on frame image data #N and frame image data #N-1, which is one frame before frame
より詳しくは、生成部30は、連続するフレーム画像データ#N-1とフレーム画像データ#Nとから、フレーム差分法によって、マスク処理後の画像データ#N-1(2≦N≦K)を生成する。なお、フレーム差分法およびマスク処理については後述する。 More specifically, the generator 30 generates masked image data #N-1 (2≦N≦K) from consecutive frame image data #N-1 and frame image data #N using the frame difference method. The frame difference method and mask processing will be described later.
生成部30によって、複数のマスク処理後の画像データ#N-1が生成される。このように、生成部30によって、各々が被写体の状態変化を示す画像データが複数生成される。 The generating unit 30 generates multiple pieces of image data #N-1 after mask processing. In this way, the generating unit 30 generates multiple pieces of image data, each of which indicates a change in the state of the subject.
生成部30は、フレーム画像データ#Nを示す識別子とともに、マスク処理後の画像データ#N-1を、抽出部40に送る。具体的には、生成部30は、フレーム画像データ#Nの識別子に関連付けられたマスク処理後の画像データ#N-1を抽出部40に送る。たとえば、動画像データDaにフレーム画像データがK個含まれる場合、生成部30は、K-1個のマスク処理後の画像データを抽出部40に送る。より詳しくは、本例では、K-1個のマスク処理後の画像データは、記憶部60等のメモリ202に一時的に格納され、その後、抽出部40によって読み出される。
The generation unit 30 sends the masked image data #N-1 to the extraction unit 40 along with an identifier indicating the frame image data #N. Specifically, the generation unit 30 sends the masked image data #N-1 associated with the identifier of the frame image data #N to the extraction unit 40. For example, if the video image data Da contains K frame image data, the generation unit 30 sends the K-1 masked image data to the extraction unit 40. More specifically, in this example, the K-1 masked image data are temporarily stored in a
(b3.抽出部40)
抽出部40は、生成部30によって生成された画像データ(マスク処理後の画像データ#N-1)から、人物領域検出部20によって検出された人物領域に対応する領域の画像データを抽出する。換言すれば、抽出部40は、画像の切り出しを行う。
(b3. Extraction Unit 40)
The extraction unit 40 extracts image data of an area corresponding to the person area detected by the person area detection unit 20 from the image data (masked image data #N-1) generated by the generation unit 30. In other words, the extraction unit 40 cuts out the image.
詳しくは、抽出部40は、同じ識別子が付された、人物領域の座標とマスク処理後の画像データとを用いて、当該マスク処理後の画像データから、人物領域に対応する矩形領域の画像データを抽出する。 In detail, the extraction unit 40 uses the coordinates of the person area and the masked image data, which are assigned the same identifier, to extract image data of a rectangular area corresponding to the person area from the masked image data.
具体的には、抽出部40は、たとえばフレーム画像データ#1とフレーム画像データ#2とにフレーム差分法を適用することよって生成されたマスク処理後の画像データ#1から、フレーム画像データ#2において検出された人物領域に対応する領域(詳しくは、人物領域の4つの頂点座標で特定される矩形領域)の画像データを抽出する。同様に、抽出部40は、フレーム画像データ#2とフレーム画像データ#3とにフレーム差分法を適用することよって生成されたマスク処理後の画像データ#2から、フレーム画像データ#3において検出された人物領域に対応する領域の画像データを抽出する。動画像データDaにフレーム画像データがK個含まれる場合、抽出部40は、このような抽出処理を、合計K-1回行う。
Specifically, the extraction unit 40 extracts image data of an area (more specifically, a rectangular area specified by the coordinates of the four vertices of the person area) corresponding to the person area detected in frame
抽出部40は、抽出された画像データ#N-1を、作業種別判定部50に送る。詳しくは、本例では、K-1個の抽出された画像データは、記憶部60等のメモリ202に一時的に格納され、その後、作業種別判定部50によって読み出される。
The extraction unit 40 sends the extracted image data #N-1 to the work type determination unit 50. In detail, in this example, the K-1 extracted image data are temporarily stored in a
(b4.作業種別判定部50)
作業種別判定部50は、抽出部40によって抽出された画像データに基づき、作業場で行われている作業の種別を判定する。換言すれば、作業種別判定部50は、作業場で行われている作業を分類する。作業種別判定部50は、溶接作業判定部51と、グラインダ作業判定部52と、ガウジング作業判定部53と、最終判定部54とを含む。
(b4. Work type determination unit 50)
The work type determination unit 50 determines the type of work being performed in the workplace based on the image data extracted by the extraction unit 40. In other words, the work type determination unit 50 classifies the works being performed in the workplace. The work type determination unit 50 includes a welding work determination unit 51, a grinding work determination unit 52, a gouging work determination unit 53, and a final determination unit 54.
溶接作業は、金属同士を接合する接合加工である。溶接作業が行われる際、アーク光と呼ばれる発光が生じる。グライダ作業は、砥石などで金属を削る研削加工である。グラインダ作業が行われる際、削られた金属粉が発光する。ガウジング作業は、金属を切断、溶断、除去する加工である。ガウジング作業が行われる際、アーク放電によって発光が生じる。このように、溶接作業と、グラインダ作業と、ガウジング作業とは、いずれも金属加工であって、かつ、作業に伴い加工対象の部分で発光が生じる。しかしながら、溶接作業と、グラインダ作業と、ガウジング作業とは、それぞれ、光の発光状態が異なる。本実施の形態では、情報処理装置2は、これらの光の発光状態の違いに着目し、作業種別を判定する。
Welding is a joining process that joins metals together. When welding is performed, light is emitted, called arc light. Grinding is a grinding process that cuts metal with a grindstone or the like. When grinding is performed, the shaved metal powder emits light. Gouging is a process that cuts, melts, and removes metal. When gouging is performed, light is emitted by arc discharge. In this way, welding, grinding, and gouging are all metal processing, and light is emitted from the part being processed as the work is performed. However, welding, grinding, and gouging each have different light emission states. In this embodiment, the
溶接作業判定部51は、抽出部40によって抽出された画像データ#N-1に基づき、作業場で行われている作業が溶接作業であるか否かを判定する。詳しくは、本例では、溶接作業判定部51は、学習済みモデルM51によって実現される。 The welding work determination unit 51 determines whether the work being performed in the workplace is welding work or not based on the image data #N-1 extracted by the extraction unit 40. In more detail, in this example, the welding work determination unit 51 is realized by the trained model M51.
学習済みモデルM51は、抽出部40によって抽出された画像データ#N-1(1個の画像データ)を入力とし、かつ、作業場で行われている作業が溶接作業であることを示す確度を出力する。本例では、確度は、0以上1以下の値である。このように、学習済みモデルM51は、確度を正規化(本例では、最小値が0、最大値が1)して出力する。確度が高い程、作業場で行われている作業が溶接作業である可能性が高い。 The trained model M51 receives as input the image data #N-1 (one piece of image data) extracted by the extraction unit 40, and outputs a degree of accuracy indicating that the work being performed in the workplace is welding work. In this example, the degree of accuracy is a value between 0 and 1 inclusive. In this way, the trained model M51 normalizes the degree of accuracy (in this example, the minimum value is 0 and the maximum value is 1) and outputs it. The higher the degree of accuracy, the more likely it is that the work being performed in the workplace is welding work.
学習済みモデルM51は、抽出された画像データ#N-1毎に算出された確度を、抽出された画像データ#N-1の識別子に関連付けて、最終判定部54に出力する。たとえば動画像データDaにフレーム画像データがK個含まれる場合、学習済みモデルM51は、K-1個の確度を最終判定部54に出力する。 The trained model M51 associates the accuracy calculated for each extracted image data #N-1 with the identifier of the extracted image data #N-1 and outputs it to the final determination unit 54. For example, if the video image data Da contains K frame image data, the trained model M51 outputs K-1 accuracy values to the final determination unit 54.
グラインダ作業判定部52は、抽出部40によって抽出された画像データ#N-1に基づき、作業場で行われている作業がグラインダ作業であるか否かを判定する。詳しくは、本例では、グラインダ作業判定部は、学習済みモデルM52によって実現される。 The grinding operation determination unit 52 determines whether the work being performed in the workplace is grinding operation based on the image data #N-1 extracted by the extraction unit 40. In more detail, in this example, the grinding operation determination unit is realized by the trained model M52.
学習済みモデルM52は、抽出部40によって抽出された画像データ#N-1(1個の画像データ)を入力とし、かつ、作業場で行われている作業がグラインダ作業であることを示す確度を出力する。本例では、確度は、0以上1以下の値である。このように、学習済みモデルM52は、学習済みモデルM51と同様に、確度を正規化(本例では、最小値が0、最大値が1)して出力する。確度が高い程、作業場で行われている作業がグラインダ作業である可能性が高い。 The trained model M52 receives as input the image data #N-1 (one piece of image data) extracted by the extraction unit 40, and outputs a degree of accuracy indicating that the work being done in the workshop is grinding work. In this example, the degree of accuracy is a value between 0 and 1 inclusive. In this way, like the trained model M51, the trained model M52 normalizes the degree of accuracy (in this example, the minimum value is 0 and the maximum value is 1) and outputs it. The higher the degree of accuracy, the more likely it is that the work being done in the workshop is grinding work.
学習済みモデルM52は、学習済みモデルM51と同様、抽出された画像データ#N-1毎に算出された確度を、抽出された画像データ#N-1の識別子に関連付けて、最終判定部54に出力する。たとえば動画像データDaにフレーム画像データがK個含まれる場合、学習済みモデルM52は、K-1個の確度を最終判定部54に出力する。 Like the trained model M51, the trained model M52 associates the accuracy calculated for each extracted image data #N-1 with the identifier of the extracted image data #N-1 and outputs it to the final determination unit 54. For example, if the video image data Da contains K frame image data, the trained model M52 outputs K-1 accuracy rates to the final determination unit 54.
ガウジング作業判定部53は、抽出部40によって抽出された画像データ#N-1に基づき、作業場で行われている作業がガウジング作業であるか否かを判定する。詳しくは、本例では、ガウジング作業判定部は、学習済みモデルM53によって実現される。 The gouging operation determination unit 53 determines whether the work being performed in the workplace is gouging work based on the image data #N-1 extracted by the extraction unit 40. In more detail, in this example, the gouging operation determination unit is realized by the trained model M53.
学習済みモデルM53は、抽出部40によって抽出された画像データ#N-1(1個の画像データ)を入力とし、かつ、作業場で行われている作業がガウジング作業であることを示す確度を出力する。本例では、確度は、0以上1以下の値である。このように、学習済みモデルM53は、学習済みモデルM51,M52と同様に、確度を正規化(本例では、最小値が0、最大値が1)して出力する。確度が高い程、作業場で行われている作業がガウジング作業である可能性が高い。 The trained model M53 receives as input the image data #N-1 (one piece of image data) extracted by the extraction unit 40, and outputs a degree of accuracy indicating that the work being performed in the workplace is gouging work. In this example, the degree of accuracy is a value between 0 and 1 inclusive. In this way, like the trained models M51 and M52, the trained model M53 normalizes the degree of accuracy (in this example, the minimum value is 0 and the maximum value is 1) and outputs it. The higher the degree of accuracy, the more likely it is that the work being performed in the workplace is gouging work.
学習済みモデルM53は、学習済みモデルM51,M52と同様、抽出された画像データ#N-1毎に算出された確度を、抽出された画像データ#N-1の識別子に関連付けて、最終判定部54に出力する。たとえば動画像データDaにフレーム画像データがK個含まれる場合、学習済みモデルM53は、K-1個の確度を最終判定部54に出力する。 Similar to trained models M51 and M52, trained model M53 associates the accuracy calculated for each extracted image data #N-1 with the identifier of the extracted image data #N-1 and outputs it to final determination unit 54. For example, if video image data Da contains K frame image data, trained model M53 outputs K-1 accuracy rates to final determination unit 54.
最終判定部54は、学習済みモデルM51による判定の結果と、学習済みモデルM52による判定の結果と、学習済みモデルM53による判定の結果とに基づき、作業場で行われている作業が、溶接作業、グラインダ作業、ガウジング作業、および、分類が不可な作業のうちの何れであるかを判定する。他の作業としては、たとえば、作業者の移動が挙げられる。 The final determination unit 54 determines whether the work being performed in the workplace is welding work, grinding work, gouging work, or work that cannot be classified, based on the results of the determination by the trained model M51, the results of the determination by the trained model M52, and the results of the determination by the trained model M53. Examples of other work include the movement of workers.
詳しくは、最終判定部54は、抽出された各画像データ#N-1(1個毎の画像データ)について、確度が閾値(たとえば、0.6)以上となった作業が存在するかを判断する。最終判定部54は、確度が閾値以上となった作業が存在する場合には、当該作業を、作業場で行われている作業と判定する。 In more detail, the final determination unit 54 determines whether or not there is any work whose accuracy is equal to or greater than a threshold value (e.g., 0.6) for each extracted image data #N-1 (each piece of image data). If there is any work whose accuracy is equal to or greater than the threshold value, the final determination unit 54 determines that the work is being performed in a workplace.
たとえば、抽出された1個の画像データ#1について、学習済みモデルM51から出力された確度が0.7であり、学習済みモデルM52から出力された確度が0.1であり、学習済みモデルM53から出力された確度が0.05である場合、最終判定部54は、作業場で行われている作業が溶接作業であると判定する。また、抽出された1個の画像データ#2について、学習済みモデルM51から出力された確度が0.5であり、学習済みモデルM52から出力された確度が0.2であり、学習済みモデルM53から出力された確度が0.1である場合、確度が閾値(本例では、0.6)以上となるものがないため、最終判定部54は、作業場で行われている作業については分類が不可であると判定する。このような判定は、抽出された各画像データ#N-1について行われる。
For example, if the accuracy output from trained model M51 for one extracted
さらに、最終判定部54は、所定の周期(たとえば、1秒毎)に、最終判定を行う。当該周期は、動画像データDaのフレームレートに基づき適宜設定され得る。たとえば、動画像データDaのフレームレートが60fps(frames per second)とする。この場合、動画像データDaは、1秒間に60個のフレーム画像データを含む。 Furthermore, the final judgment unit 54 performs the final judgment at a predetermined cycle (for example, every second). The cycle can be set appropriately based on the frame rate of the video data Da. For example, the frame rate of the video data Da is 60 fps (frames per second). In this case, the video data Da includes 60 frame image data per second.
したがって、最終判定部54では、動画像データDaの1秒間において、60個の判定結果が得られる。最終判定部54は、当該60個の判定結果のうち、最も数が多い作業種別を、当該期間(1秒間)において作業場で行われている作業であると判定(以下、「最終判定」とも称する)する。 Therefore, the final determination unit 54 obtains 60 determination results during one second of the video image data Da. The final determination unit 54 determines (hereinafter also referred to as the "final determination") that the work type with the greatest number of results among the 60 determination results is the work being performed in the workplace during that period (one second).
たとえば、ある1秒の期間における60個の判定結果のうち、溶接作業の判定が40回、グラインダ作業の判定が4回、ガウジング作業の判定が0回、分類が不可の判定が16回であったとすると、最終判定部54は、当該期間の作業種別を溶接と判定(最終判定)する。 For example, if, out of 60 judgment results in a one-second period, there were 40 judgments of welding work, 4 judgments of grinding work, 0 judgments of gouging work, and 16 judgments that classification was not possible, the final judgment unit 54 will judge the work type for that period to be welding (final judgment).
最終判定部54は、最終判定の結果を、記憶部60に記憶させる。詳しくは、最終判定部54は、最終判定の結果を、動画像データDaに関連付けて記憶部60に記憶させる。より詳しくは、最終判定部54は、最終判定の結果を動画像データDaに同期させる。最終判定部54は、最終判定の元になった各フレーム画像データに、当該最終判定の結果を関連付ける。 The final judgment unit 54 stores the result of the final judgment in the storage unit 60. In particular, the final judgment unit 54 stores the result of the final judgment in the storage unit 60 in association with the moving image data Da. In even more particular, the final judgment unit 54 synchronizes the result of the final judgment with the moving image data Da. The final judgment unit 54 associates the result of the final judgment with each frame image data on which the final judgment was based.
なお、関連付けの方法は、フレーム画像データの識別子であってもよいし、動画像データDaの再生開始からの経過時刻を基準にしてもよい。 The association may be based on the identifier of the frame image data, or on the elapsed time from the start of playback of the video image data Da.
(b5.表示制御部70)
表示制御部70は、表示部80の表示を制御する。表示制御部70は、ユーザ操作に基づき、動画像データDaとともに、最終判定の結果を表示する。上述した関連付けにより、最終判定の結果は、動画像データDaの再生が進むに連れて逐次変化する。本例では、動画像データDaの再生時、最終判定の結果は1秒毎に更新される。
(b5. Display control unit 70)
The display control unit 70 controls the display of the display unit 80. The display control unit 70 displays the result of the final judgment together with the moving image data Da based on a user operation. Due to the association described above, the result of the final judgment changes successively as the playback of the moving image data Da progresses. In this example, the result of the final judgment is updated every second during playback of the moving image data Da.
<C学習済みモデル>
学習済みモデルM20,M51,M52,M53について、説明する。
<C-trained model>
The trained models M20, M51, M52, and M53 will be explained.
学習済みモデルM20は、予め準備された学習用データセットと、学習用プログラムとにより生成される。当該学習用データセットは、複数の学習用データを含む。各学習用データは、作業場で作業を行う作業者を撮像した画像データ(静止画像データ、フレーム画像データ)に、当該画像データにおける人物領域を示すラベル情報(正解データ)が付与されたものである。本例では、ラベル情報の人物領域は、矩形領域で指定されている。 The trained model M20 is generated by a training dataset and a training program that have been prepared in advance. The training dataset includes multiple training data. Each training data is image data (still image data, frame image data) of a worker performing work in a workplace, to which label information (correct answer data) indicating the person area in the image data has been added. In this example, the person area in the label information is specified as a rectangular area.
学習済みモデルM51は、学習済みモデルM20と同様、予め準備された学習用データセットと、学習用プログラムとにより生成される。当該学習用データセットは、複数の学習用データを含む。各学習用データは、作業場で溶接作業を行う作業者を撮像した画像データに、作業種別が溶接であることを示すラベル情報(正解データ)が付加されたものである。 Like trained model M20, trained model M51 is generated from a training data set and a training program that have been prepared in advance. The training data set includes multiple pieces of training data. Each piece of training data is image data of a worker performing welding work in a workplace, to which label information (correct answer data) indicating that the work type is welding has been added.
学習済みモデルM52は、学習済みモデルM20,M51と同様、予め準備された学習用データセットと、学習用プログラムとにより生成される。当該学習用データセットは、複数の学習用データを含む。各学習用データは、作業場でグラインダ作業を行う作業者を撮像した画像データに、作業種別がグラインダであることを示すラベル情報が付加されたものである。 Like trained models M20 and M51, trained model M52 is generated from a training data set and a training program that have been prepared in advance. The training data set includes multiple pieces of training data. Each piece of training data is image data of a worker performing grinding work in a workshop, to which label information indicating that the work type is grinding has been added.
学習済みモデルM53は、学習済みモデルM20,M51,M52と同様、予め準備された学習用データセットと、学習用プログラムとにより生成される。当該学習用データセットは、複数の学習用データを含む。各学習用データは、作業場でガウジング作業を行う作業者を撮像した画像データに、作業種別がガウジングであることを示すラベル情報が付加されたものである。 Like trained models M20, M51, and M52, trained model M53 is generated from a training data set and a training program that have been prepared in advance. The training data set includes multiple pieces of training data. Each piece of training data is image data of a worker performing gouging work in a workplace, to which label information indicating that the work type is gouging has been added.
学習済みモデルM20,M51,M52,M53は、DNN(Deep Neural Network)に分類されるネットワークである。学習済みモデルM20,M51,M52,M53は、CNN(Convolutional Neural Network)に分類される前処理ネットワークと、中間層と、出力層に相当する活性化関数と、Softmax関数とを含む。 The trained models M20, M51, M52, and M53 are networks classified as DNNs (Deep Neural Networks). The trained models M20, M51, M52, and M53 include a preprocessing network classified as a CNN (Convolutional Neural Network), an intermediate layer, an activation function corresponding to the output layer, and a Softmax function.
前処理ネットワークは、相対的に次数の大きな特徴量から、推定結果を算出するために有効な特徴量を抽出するための一種のフィルタとして機能することが予定されている。前処理ネットワークは、畳み込み層(CONV)およびプーリング層(Pooling)が交互に配置された構成を有している。なお、畳み込み層とプーリング層との数は同数でなくてもよく、また、畳み込み層の出力側にはReLU(正規化線形関数:rectified linear unit)などの活性化関数が配置される。 The preprocessing network is expected to function as a kind of filter for extracting effective features for calculating estimation results from features with relatively large degrees. The preprocessing network has a configuration in which convolutional layers (CONV) and pooling layers (Pooling) are arranged alternately. Note that the number of convolutional layers and pooling layers does not have to be the same, and an activation function such as ReLU (rectified linear unit) is arranged on the output side of the convolutional layer.
より具体的には、前処理ネットワークは、特徴量の入力を受けて、所定の属性情報を示す内部特徴量を出力するように構築される。中間層は、所定数の層数を有する全結合ネットワークからなり、前処理ネットワークからの出力を、各ノードについて決定される重みおよびバイアスを用いてノード毎に順次結合する。 More specifically, the preprocessing network is constructed to receive feature inputs and output internal features that indicate specified attribute information. The intermediate layer is made up of a fully connected network with a specified number of layers, and sequentially connects the outputs from the preprocessing network for each node using weights and biases determined for each node.
中間層の出力側には、ReLUなどの活性化関数が配置され、最終的には、Softmax関数により確率分布に正規化された上で、推定結果が出力される。 An activation function such as ReLU is placed on the output side of the intermediate layer, and finally, the estimation result is output after being normalized to a probability distribution using the Softmax function.
学習用プログラムがパラメータの値を最適化するにあたっては、任意の最適化アルゴリズムを用いることができる。より具体的には、最適化アルゴリズムとしては、たとえば、SGD(Stochastic Gradient Descent:確率的勾配降下法)、Momentum SGD(慣性項付加SGD)、AdaGrad、RMSprop、AdaDelta、Adam(Adaptive moment estimation)などの勾配法を用いることができる。 When the learning program optimizes the parameter values, any optimization algorithm can be used. More specifically, the optimization algorithm can be, for example, a gradient method such as SGD (Stochastic Gradient Descent), Momentum SGD (SGD with inertia term added), AdaGrad, RMSprop, AdaDelta, or Adam (Adaptive moment estimation).
<D.処理の流れ>
情報処理装置2における上述した処理の流れについて、フロー図等を用いてさらに説明する。
D. Processing Flow
The above-mentioned process flow in the
図4は、判定処理の流れを示すフロー図である。 Figure 4 is a flow diagram showing the flow of the determination process.
図4に示されるように、ステップS1において、情報処理装置2は、動画像データDaを構成する各フレーム画像データ#Nにおいて、人物領域を検出する。ステップS2において、情報処理装置2は、人物領域の検出結果を用いてフレーム画像データ#N毎に作業種別を判定し、さらに、各フレーム画像データ#Nによる判定結果に基づき、1秒間毎の最終判定を実行する。
As shown in FIG. 4, in step S1, the
ステップS1およびステップS2の処理は、プロセッサ201によって実行される。ステップS1の処理は、人物領域検出部20(図3)によって実行される。具体的には、ステップS1の処理は、学習済みモデルM20によって実現される。ステップS2の処理は、作業種別判定部50(図3)によって実行される。具体的には、ステップS2の処理は、学習済みモデルM51,M52,M53によって実現される。
The processes of steps S1 and S2 are executed by the
図5は、図4のステップS1の処理の詳細を示したフロー図である。 Figure 5 is a flow diagram showing the details of the processing of step S1 in Figure 4.
図5に示されているように、ステップS101において、プロセッサ201は、入力装置204を介して、判定する人数の設定入力を受け付ける。典型的には、プロセッサ201は、1人(1人作業)または2人(2人作業)を示す入力を受け付ける。人数の設定入力を受け付ける理由は、人物領域の検出精度を高めるためである。
As shown in FIG. 5, in step S101, the
ステップS102において、プロセッサ201は、メモリ202から動画像データDaを読み込む。ステップS103において、プロセッサ201は、メモリ202から人物領域検出用の学習済みモデルM20を読み込む。ステップS104において、プロセッサ201は、各フレーム画像データ#Nに対して、学習済みモデルM20を用いた人物領域検出処理を実行する。
In step S102, the
ステップS105において、プロセッサ201は、ステップS101で設定された設定人数に合わせて判定を調整する。具体的には、プロセッサ201は、同じフレーム画像データ内で、設定人数分だけ、人物領域の判定の確度が高い順に人物領域を選定する。たとえば、設定人数が1人の場合、プロセッサ201は、複数の人物領域(候補領域)から、確度が最も高い人物領域を選定する。設定人数が2人の場合、プロセッサ201は、複数の人物領域(候補領域)から、確度が最も高い人物領域と、確度が次に高い人物領域とを選定する。ステップS106において、プロセッサ201は、前後補完等の後処理を実行する。
In step S105, the
ステップS107において、プロセッサ201は、フレーム画像データ#N毎に,人物領域検出結果(座標)を所定の形式でメモリ202に保存する。プロセッサ201は、典型的には、人物領域検出結果を、互換性が高いフィアル形式の一つ(たとえば、csv(Comma Separated Value)形式)でデータ保存する。詳しくは、プロセッサ201は、人物領域検出(座標)を、タイムスタンプ、フレーム画像データのフレームナンバー、オブジェクトナンバー、人物領域検出についての判定の確度等の情報と関連付けて判定する。
In step S107, the
ステップS108において、プロセッサ201は、人物領域検出結果の動画像データDcを作成し、かつメモリ202に保存する。なお、動画像データDcは、動画像データDaに対して、人物領域を示す図形(矩形)を重畳したものである。
In step S108, the
図6は、図4のステップS2の処理の詳細を示したフロー図である。 Figure 6 is a flow diagram showing the details of the processing of step S2 in Figure 4.
図6に示されているように、ステップS201において、プロセッサ201は、メモリ202から動画像データDaを読み込む。ステップS202において、プロセッサ201は、フレーム差分法を用いて、フレーム差分動画像データDbを作成する。この処理は、生成部30(図3)によって実行される処理である。なお、ステップS202の処理の詳細については、後述する(図7)。
As shown in FIG. 6, in step S201, the
ステップS203において、プロセッサ201は、メモリ202から人物領域検出結果を読み込む。なお、人物領域検出結果は、人物領域の座標と、上述したフレーム画像データの識別子(タイムスタンプまたはフレームナンバー)等の情報を含む。
In step S203, the
ステップS204において、プロセッサ201は、人物領域検出結果に基づき、フレーム差分動画像データDbを構成する各フレーム画像データPから人物領域に対応する領域を抽出する。換言すれば、プロセッサ201は、画像の切り出しを行う。詳しくは、プロセッサ201は、各フレーム画像データPに関連付いた人物領域検出結果を用いて、各フレーム画像データPから、人物領域に対応する領域を抽出する。詳しくは、プロセッサ201は、フレーム画像データP毎に、異なる人物領域検出結果を用いて、画像の切り出しを行う。
In step S204, the
ステップS205において、プロセッサ201は、メモリ202から、作業種別判定用の学習済みモデルM51,M52,M53を読み込む。ステップS206において、プロセッサ201は、学習済みモデルM51,M52,M53を実行することにより、ステップS204で抽出された各画像データQ(切り出した部分の画像データ)から作業種別の判定処理を実行する。なお、ステップS206の処理の詳細については、後述する(図9)。
In step S205, the
ステップS207において、プロセッサ201は、ステップS206における作業種別判定結果を、1秒毎の最終判定結果として出力する。具体的には、上述したように、プロセッサ201は、1秒間において最も数が多い作業種別を、当該1秒間において作業場で行われている作業であると判定(最終判定)する。1秒毎の最終判定結果は、逐次、メモリ202の作業領域(典型的には、RAM222)に一時的に記憶される。
In step S207, the
ステップS208において、プロセッサ201は、1秒間における作業が分類不可と判定された場合、当該作業が作業者の移動であるか否かを判定する移動判定処理を実行する。なお、移動判定処理の詳細については、後述する。
In step S208, if the
ステップS209において、プロセッサ201は、前後補完等の後処理を実行する。ステップS210において、プロセッサ201は、1秒毎の最終判定結果を所定の形式でメモリ202に不揮発的に保存する。典型的には、プロセッサ201は、最終判定結果を、SSD223またはHDD224にcsv形式でデータ保存する。詳しくは、プロセッサ201は、最終判定結果を、タイムスタンプ、フレームナンバー等の情報と関連付けて判定する。
In step S209, the
ステップS211において、プロセッサ201は、最終判定結果を含んだ動画像データDdを作成し、かつメモリ202に保存する。なお、動画像データDdは、動画像データDaに対して、最終判定結果を文字等の識別情報で示した画像を重畳したものである。
In step S211, the
ユーザ950が、情報処理装置2において動画像データDdを再生することにより、ディスプレイ203には、作業場での作業の映像に重畳した形式で作業種別が表示される。また、作業種別の表示は、1秒毎に更新される。
When the user 950 plays the video data Dd on the
次に、ステップS208の移動判定処理について説明する。移動判定処理では、先ず、プロセッサ201は、検出された各人物領域の幅と高さとについて平均値を算出する。すなわち、プロセッサ201は、各人物領域のフレーム画像データ#N内での重心位置を算出する。
Next, the movement determination process of step S208 will be described. In the movement determination process, the
次に、プロセッサ201は、1秒間毎の重心位置の平均値を算出する。その後、プロセッサ201は、重心位置の各平均値を、同じ時刻(タイミング)の最終判定結果に関連付ける。さらにプロセッサ201は、重心位置の各平均値に基づき、1秒毎の人物領域の移動量を算出する。
Next, the
プロセッサ201は、他の作業(分類不可)とされた最終判定結果を、メモリ202の作業領域から抽出する。その後、プロセッサ201は、抽出された最終判定結果に関連付けられた移動量が所定の範囲内(下限の閾値と上限の閾値との間)に収まっているか否かを判定する。プロセッサ201は、移動量が所定の範囲内に収まっている場合、他の作業(分類不可)の情報を「移動」に置換する。
The
図7は、図6のステップS202の処理の詳細を説明するためのフロー図である。図8は、画像データを用いて図7の処理を説明するための図である。 Figure 7 is a flow diagram for explaining the details of the process of step S202 in Figure 6. Figure 8 is a diagram for explaining the process of Figure 7 using image data.
図7に示されるように、ステップS2201において、プロセッサ201は、上述した変数N(#N)の値を2とする。ステップS2202において、プロセッサ201は、読み込んだ動画像データDaから、連続する2つのフレーム画像データ#N-1,#Nを取得する。図8に、フレーム画像データ#N-1とフレーム画像データ#Nとの例を示す。
As shown in FIG. 7, in step S2201, the
ステップS2203において、プロセッサ201は、フレーム画像データ#N-1とフレーム画像データ#Nとの差分を表す差分画像データR(図8参照)を生成する。ステップS2204において、プロセッサ201は、差分画像データRを二値化し、二値化画像データT(図8参照)を生成する。
In step S2203, the
ステップS2205において、プロセッサ201は、二値化画像データTに対してクロージング処理を行うことにより、クロージング画像データU(図8参照)を生成する。クロージング画像データUは、マスク画像として用いられる。ステップS2206において、プロセッサ201は、フレーム画像データ#Nに対してクロージング画像データUでマスキング処理を行う。これにより、マスク処理後の画像データV(図8参照)が生成される。
In step S2205, the
ステップS2207において、プロセッサ201は、マスク処理後の画像データVを、新規画像データ#N-1としてメモリ202に保存する。ステップS2208において、プロセッサ201は、動画像データDaが終了したか否かを判断する。具体的には、プロセッサ201は、動画像データDaの全ての連続する2つのフレーム画像データに対して上述した処理を実行したか否かを判断する。
In step S2207, the
動画像データDaが終了していないと判断された場合(ステップS2208においてNO)、プロセッサ201は、ステップS2210において、Nの値を1つだけ増加(インクリメント)させる。動画像データDaが終了したと判断された場合(ステップS2208においてYES)、プロセッサ201は、ステップS2209において、新規画像データ#Nの全てを時系列の順につなげることにより上述したフレーム差分動画像データDbを生成し、かつ、メモリ202に保存する。
If it is determined that the video data Da is not complete (NO in step S2208), the
プロセッサ201は、ステップS2209の後、処理を図6のステップS203に進める。
After step S2209, the
図9は、図6のステップS206の処理の詳細を説明するためのフロー図である。 Figure 9 is a flow diagram for explaining the details of the processing of step S206 in Figure 6.
図9に示されるように、ステップS2601において、プロセッサ201は、メモリ202から抽出された各画像データQ(切り出した部分の画像データ)を読み込む。
As shown in FIG. 9, in step S2601, the
ステップS2602において、プロセッサ201は、1つの画像データQに対して、各学習済みモデルM51,M52,M53を用いて判定を行う。具体的には、プロセッサ201は、各学習済みモデルM51,M52,M53を実行することにより、上述したように各作業(溶接作業、グラインダ作業、ガウジング作業)の確度を算出する。ステップS2603において、プロセッサ201は、算出された3つの作業の確度のうち最大の確度が閾値(たとえば、0.6)を超えているか否かを判断する。
In step S2602, the
最大の確度が閾値を超えていると判断された場合(ステップS2603においてYES)、プロセッサ201は、ステップS2604において、最大の確度の判定を採用する。具体例を挙げると、学習済みモデルM51から出力された確度が0.7であり、学習済みモデルM52から出力された確度が0.1であり、学習済みモデルM53から出力された確度が0.05である場合、プロセッサ201は、学習済みモデルM51による判定を採用する。プロセッサ201は、作業種別が溶接であると判定する。
If it is determined that the maximum accuracy exceeds the threshold (YES in step S2603), the
最大の確度が閾値を超えていないと判断された場合(ステップS2603においてNO)、プロセッサ201は、ステップS2607において、分類不可と判定する。ステップS2605において、プロセッサ201は、判定の結果をメモリ202に保存する。
If it is determined that the maximum accuracy does not exceed the threshold (NO in step S2603), the
ステップS2606において、プロセッサ201は、最後の画像データQであるか否かを判断する。最後の画像データQであると判定された場合(ステップS2606においてYES)、プロセッサ201は、ステップS206の一連の処理を終了し、処理を図6のステップS207に進める。最後の画像データQでないと判定された場合(ステップS2606においてNO)、プロセッサ201は、ステップS2608において、処理対象を次の画像データQに切り替える。その後、プロセッサ201は、処理をステップS2602に進める。
In step S2606, the
<E.最終判定結果例>
図10は、互換性が高いファイル形式(本例では、csv形式)としてメモリ202に保存された最終判定結果を含むデータ示した図である。
<E. Final judgment result example>
FIG. 10 is a diagram showing data including the final determination results stored in the
図10に示されるように、データの「Predict」の欄には、1秒ごとに最終判定結果が記録されている。“Indistinguishable”は「分類不可」を、“Moving”は「移動」を、“Welding”は「溶接」を表している。 As shown in Figure 10, the "Predict" column of the data records the final judgment results every second. "Indistinguishable" means "unclassifiable," "Moving" means "moving," and "Welding" means "welding."
なお、“G_X”と“G_Y”とは、それぞれ、人物領域の重心のX座標とY座標とを表している。詳しくは、“G_X”と“G_Y”とは、1秒間における重心位置の平均値である。“Width”と“Height”とは、それぞれ、人物領域の幅と高さとを表している。 Note that "G_X" and "G_Y" respectively represent the X and Y coordinates of the center of gravity of the person area. More specifically, "G_X" and "G_Y" are the average values of the center of gravity position over one second. "Width" and "Height" respectively represent the width and height of the person area.
このように、情報処理装置2によれば、1秒毎に作業種別が特定される。それゆえ、作業種別毎に時間を累積すれば、各作業種別の作業に要した時間を算出できる。情報処理装置2は、たとえばユーザ操作に応じて、このような時間を算出し、かつ算出された結果(作業種別毎の作業時間)をディスプレイ203に表示させる。
In this way, the
<F.小括>
情報処理装置2で実行される処理の一部を小括すると、以下のとおりである。
<F. Summary>
Some of the processes executed by the
(1)情報処理装置2は、カメラ1(可視光カメラ)による撮像によって得られた連続する複数のフレーム画像データ(動画像データ、映像データ)を取得する動画像データ取得部10を備える。カメラ1は、設置位置および姿勢が固定され、かつ、光の明滅を伴う作業が作業者によって行われている作業場を被写体として撮像する。
(1) The
情報処理装置2は、上記複数のフレーム画像データのうちのフレーム画像データ#Nにおいて、作業者の領域(人物領域)を検出する人物領域検出部20と、フレーム画像データ#Nと、上記複数のフレーム画像データのうちフレーム画像データ#Nよりも1個前のフレーム画像データ#N-1とに基づいて、被写体の状態変化を示す画像データを生成する生成部30と、生成された画像データから、検出された作業者の領域に対応する領域の画像データを抽出する抽出部40と、抽出された画像データに基づき、作業場で行われている作業の種別を判定する作業種別判定部50とをさらに備える。
The
このような構成の情報処理装置2によれば、可視光カメラによる撮像によって得られた複数のフレーム画像データにおいて、作業者の領域における状態変化を示す画像データを抽出できる。さらに、情報処理装置2によれば、作業者の領域における状態変化を示す画像データに基づいて、作用場で行われている作業の種別を判定する。
According to the
それゆえ、情報処理装置2によれば、可視光カメラによる撮像によって得られた動画像データに基づき、作業場において行われている作業の種別を判定可能となる。詳しくは、フレーム画像データ毎に、光の明滅を伴う作業の種別を精度良く判定することができる。
Therefore, the
(2)情報処理装置2は、判定された作業の種別を示す情報を記憶する記憶部60をさらに備える。このような構成によれば、情報処理装置2では、判定の結果が記憶されるため、当該結果を用いた各種の後処理(たとえば、上述した最終判定処理、表示処理)を行うことができる。
(2) The
(3)生成部30は、フレーム画像データ#Nとフレーム画像データ#N-1とを用いたフレーム差分法により、被写体の状態変化を示す画像データを生成する。このような構成によれば、移動物体の検出方法の1つであるフレーム差分法を用いることにより、被写体の状態変化を示す画像データを生成できる。 (3) The generation unit 30 generates image data indicating a change in the state of the subject by a frame difference method using frame image data #N and frame image data #N-1. With this configuration, image data indicating a change in the state of the subject can be generated by using the frame difference method, which is one of the methods for detecting moving objects.
(4)作業種別判定部50は、作業場で行われている作業が溶接作業であるか否かを判定する。このような構成によれば、光の明滅を伴う作業が溶接作業であるか否かを判定できる。 (4) The work type determination unit 50 determines whether the work being performed in the workplace is welding work. With this configuration, it is possible to determine whether work accompanied by blinking light is welding work.
(5)作業種別判定部50は、作業場で行われている作業が、予め指定された複数の作業のうちのいずれであるかを判定する。このような構成によれば、光の明滅を伴う作業が複数の作業のうちの何れであるか否かを判定できる。 (5) The task type determination unit 50 determines which of multiple pre-specified tasks the task being performed in the workplace is. With this configuration, it is possible to determine which of the multiple tasks the task that is accompanied by blinking light is.
(6)上記複数の作業は、溶接作業と、グラインダ作業と、ガウジング作業とを含む。このような構成によれば、光の明滅を伴う作業が、溶接作業、グラインダ作業、およびガウジング作業の何れであるかを判定できる。 (6) The multiple operations include welding, grinding, and gouging. With this configuration, it is possible to determine whether the operation accompanied by the blinking of light is welding, grinding, or gouging.
(7)作業種別判定部50は、抽出された画像データを入力として受け付け、作業場で行われている作業が溶接作業であるか否かを判定する学習済みモデルM51と、抽出された画像データを入力として受け付け、作業場で行われている作業がグラインダ作業であるか否かを判定する学習済みモデルM52と、抽出された画像データを入力として受け付け、作業場で行われている作業がガウジング作業であるか否かを判定する学習済みモデルM53とを含む。 (7) The work type determination unit 50 includes a trained model M51 that receives the extracted image data as input and determines whether the work being performed in the workplace is welding work, a trained model M52 that receives the extracted image data as input and determines whether the work being performed in the workplace is grinding work, and a trained model M53 that receives the extracted image data as input and determines whether the work being performed in the workplace is gouging work.
作業種別判定部50は、学習済みモデルM51による判定の結果と、学習済みモデルM52による判定の結果と、学習済みモデルM53による判定の結果とに基づき、作業場で行われている作業が、溶接作業とグラインダ作業とガウジング作業とのうちの何れであるかを判定する。 The work type determination unit 50 determines whether the work being performed in the workplace is welding work, grinding work, or gouging work, based on the results of the determination by the trained model M51, the results of the determination by the trained model M52, and the results of the determination by the trained model M53.
このような構成によれば、情報処理装置2は、学習済みモデルM51,M52,M53を用いて、作業種別の判定をおこなう。それゆえ、情報処理装置2によれば、学習済みモデルを用いないルールベースの判定処理に比べて、精度の高い判定が可能となる。
According to this configuration, the
(8)人物領域検出部20は、フレーム画像データ#Nを入力とし、かつ、作業者の領域を示す情報を出力する、学習済みモデルM20である。このような構成によれば、情報処理装置2は、学習済みモデルM20を用いて、作業者の領域(人物領域)の検出をおこなう。それゆえ、情報処理装置2によれば、学習済みモデルを用いないルールベースの検出処理に比べて、精度の高い検出が可能となる。
(8) The person area detection unit 20 is a trained model M20 that receives frame image data #N as input and outputs information indicating the area of the worker. With this configuration, the
(9)情報処理装置2は、複数のフレーム画像データの各々について、人物領域検出部20による検出と、生成部30による生成と、抽出部40による抽出と、作業種別判定部50による判定とを行う。情報処理装置2は、作業種別判定部50により判定された作業種別毎の判定数に基づき、作業種別毎の作業時間を算出する。
(9) For each of the multiple frame image data, the
このような構成によれば、情報処理装置2は、カメラ1による撮像によって得られた複数のフレーム画像データに基づいて、各作業の作業時間の合計を作業毎に算出する。それゆえ、情報処理装置2のユーザ950は、どの作業にどの位の時間を要しているかを把握することができる。
With this configuration, the
<G.変形例>
(1)図11は、図7に示したステップS202の一連の処理の変形例を示したフロー図である。以下では、3つの連続するフレーム画像データを用いたフレーム差分法を利用する構成について説明する。
G. Modifications
(1) Fig. 11 is a flow chart showing a modified example of the series of processes in step S202 shown in Fig. 7. In the following, a configuration using a frame difference method using three consecutive frame image data will be described.
図11を参照して、図11に示す一連の処理は、図7に示す一連の処理に比べて、以下の点が異なっている。図11に示す一連の処理は、ステップS2202,S2203,S2204,S2205(図7参照)の代わりに、ステップS2202A,S2203A,S2204A,S2205Aを備える。さらに、図11に示す一連の処理は、ステップS2211を備える点で、このステップを備えない図7とは異なる。 Referring to FIG. 11, the series of processes shown in FIG. 11 differs from the series of processes shown in FIG. 7 in the following respects. The series of processes shown in FIG. 11 includes steps S2202A, S2203A, S2204A, and S2205A instead of steps S2202, S2203, S2204, and S2205 (see FIG. 7). Furthermore, the series of processes shown in FIG. 11 differs from FIG. 7 in that it includes step S2211, which does not include this step.
なお、図11の他のステップの処理は、図7で説明した処理と同じである。そこで、以下では、これらのステップS2202A,S2203A,S2204A,S2205A,S2211について説明する。 Note that the processing of the other steps in FIG. 11 is the same as the processing described in FIG. 7. Therefore, the following describes these steps S2202A, S2203A, S2204A, S2205A, and S2211.
ステップS2201の後のステップS2202Aにおいて、プロセッサ201は、読み込んだ動画像データDaから、連続する3つのフレーム画像データ#N-1,#N,#N+1を取得する。ステップS2203Aにおいて、プロセッサ201は、フレーム画像データ#N-1とフレーム画像データ#Nとの差分を表す差分画像データRと、フレーム画像データ#Nとフレーム画像データ#N+1との差分を表す差分画像データRとを生成する。
In step S2202A after step S2201, the
ステップS2204Aにおいて、プロセッサ201は、各差分画像データRを二値化し、2つの二値化画像データTを生成する。ステップS2211において、プロセッサ201は、2つの二値化画像データTの共有部分を抽出し、画像データWを生成する。具体的には、プロセッサ201は、2つの二値化画像データTにおいてともに白色(すなわち、値が1の部分)となっている部分は白色(値を1)とし、それ以外は、黒色(値を0)とする。
In step S2204A, the
ステップS2205Aにおいて、プロセッサ201は、抽出された画像データWに対してクロージング処理を行うことにより、クロージング画像データUを生成する。その後、プロセッサ201は、処理をステップS2206に進める。
In step S2205A, the
詳しくは、本変形例においては、生成部30が、フレーム画像データ#Nとフレーム画像データ#N-1とフレーム画像データ#N+1とを用いたフレーム差分法により、被写体の状態変化を示す画像データを生成する。 In more detail, in this modified example, the generation unit 30 generates image data indicating a change in the state of the subject by a frame difference method using frame image data #N, frame image data #N-1, and frame image data #N+1.
このような処理によれば、図7の構成よりも精度の高い判定処理が可能となる。 This type of processing enables more accurate determination processing than the configuration in Figure 7.
(2)上記においては、生成部30が、連続するフレーム画像データ#N,#N-1を用いて、被写体の状態変化を示す画像データを生成する構成を例に挙げて説明したが、必ずしも、これに限定されるものではない。生成部30は、フレーム画像データ#Nと、フレーム画像データ#Nよりも所定個前(1個以上前)のフレーム画像データとに基づいて、被写体の状態変化を示す画像データを生成する構成であればよい。たとえば、生成部30は、フレーム画像データ#Nと、フレーム画像データ#Nよりも2個前のフレーム画像データ#N-2とに基づいて、被写体の状態変化を示す画像データを生成してもよい。 (2) In the above, an example was described in which the generation unit 30 generates image data indicating a change in the subject's condition using successive frame image data #N and #N-1, but this is not necessarily limited to this. The generation unit 30 may be configured to generate image data indicating a change in the subject's condition based on frame image data #N and a predetermined number of frame image data (one or more frames) before frame image data #N. For example, the generation unit 30 may generate image data indicating a change in the subject's condition based on frame image data #N and frame image data #N-2, which is two frames before frame image data #N.
(3)被写体の状態変化を示す画像データを生成できれば、フレーム差分法以外の移動体検出の手法も適用可能である。 (3) If it is possible to generate image data that indicates changes in the state of a subject, it is possible to apply moving object detection methods other than the frame difference method.
(4)作業者の領域(人物領域)の検出には、必ずしも、学習済みモデルを用いる必要はない。ルールベースの手法により、作業者の領域を検出してもよい。 (4) It is not necessary to use a trained model to detect the worker's area (person area). The worker's area may be detected using a rule-based method.
今回開示された実施の形態は例示であって、上記内容のみに制限されるものではない。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed herein are illustrative and are not limited to the above. The scope of the present invention is defined by the claims, and is intended to include all modifications within the scope and meaning equivalent to the claims.
1 カメラ、2 情報処理装置、10 動画像データ取得部、20 人物領域検出部、30 生成部、40 抽出部、50 作業種別判定部、51 溶接作業判定部、52 グラインダ作業判定部、53 ガウジング作業判定部、54 最終判定部、60 記憶部、70 表示制御部、80 表示部、201 プロセッサ、202 メモリ、203 ディスプレイ、204 入力装置、205 通信インターフェイス、206 カードリーダ、207 ポート、900 作業者、950 ユーザ、1000 判定システム、M20,M51,M52,M53 学習済みモデル。 1 camera, 2 information processing device, 10 video data acquisition unit, 20 person area detection unit, 30 generation unit, 40 extraction unit, 50 work type determination unit, 51 welding work determination unit, 52 grinding work determination unit, 53 gouging work determination unit, 54 final determination unit, 60 storage unit, 70 display control unit, 80 display unit, 201 processor, 202 memory, 203 display, 204 input device, 205 communication interface, 206 card reader, 207 port, 900 worker, 950 user, 1000 determination system, M20, M51, M52, M53 trained model.
Claims (6)
前記複数のフレーム画像データのうちの第1のフレーム画像データにおいて、前記作業者の領域を検出する検出手段と、
前記第1のフレーム画像データと、前記複数のフレーム画像データのうち前記第1のフレーム画像データよりも所定個前の第2のフレーム画像データとの差分データをフレーム差分法によって生成し、かつ、生成された前記差分データと前記第1のフレーム画像データとに基づいて、前記被写体の状態変化を示す画像データを生成する生成手段と、
生成された前記画像データから、検出された前記作業者の領域に対応する領域の画像データを抽出する抽出手段と、
抽出された前記画像データに基づき、前記作業場で行われている作業の種別が溶接作業とグラインダ作業とガウジング作業とのうちの何れであるかを判定する判定手段とをさらに備える、情報処理装置。 an acquisition means for acquiring a plurality of consecutive frame image data obtained by imaging with a visible light camera, the visible light camera being installed at a fixed position and attitude, and capturing an image of a workplace where a worker is performing work involving blinking light as a subject;
a detection means for detecting an area of the worker in a first frame image data of the plurality of frame image data;
a generating means for generating difference data between the first frame image data and a second frame image data that is a predetermined number of frames before the first frame image data among the plurality of frame image data by a frame difference method, and for generating image data that indicates a change in state of the subject based on the generated difference data and the first frame image data;
an extraction means for extracting image data of an area corresponding to an area of the detected worker from the generated image data;
The information processing device further comprises a determination means for determining whether a type of work being performed at the workplace is welding work, grinding work, or gouging work, based on the extracted image data.
抽出された前記画像データを入力として受け付け、前記作業場で行われている作業が前記溶接作業であるか否かを判定する第1の学習済みモデルと、
抽出された前記画像データを入力として受け付け、前記作業場で行われている作業が前記グラインダ作業であるか否かを判定する第2の学習済みモデルと、
抽出された前記画像データを入力として受け付け、前記作業場で行われている作業が前記ガウジング作業であるか否かを判定する第3の学習済みモデルとを含み、
前記第1の学習済みモデルによる判定の結果と、前記第2の学習済みモデルによる判定の結果と、前記第3の学習済みモデルによる判定の結果とに基づき、前記作業場で行われている作業が、前記溶接作業と前記グラインダ作業と前記ガウジング作業とのうちの何れであるかを判定する、請求項1または2に記載の情報処理装置。 The determination means is
A first trained model that receives the extracted image data as an input and determines whether the work being performed at the workplace is the welding work; and
A second trained model that receives the extracted image data as an input and determines whether the work being performed at the workplace is the grinding work; and
a third trained model that receives the extracted image data as an input and determines whether the work being performed at the work site is the gouging work;
3. The information processing device according to claim 1 or 2, which determines whether the work being performed in the workplace is the welding work, the grinding work, or the gouging work based on a result of judgment using the first trained model, a result of judgment using the second trained model, and a result of judgment using the third trained model.
前記判定手段により判定された前記作業の種別毎の判定数に基づき、前記作業の種別毎の作業時間を算出する、請求項1から4のいずれか1項に記載の情報処理装置。 For each of the plurality of frame image data, detection by the detection means, generation by the generation means, extraction by the extraction means, and determination by the determination means are performed;
The information processing apparatus according to claim 1 , further comprising: a determining unit that determines a task time for each of the task types based on a determination number for each of the task types determined by the determining unit.
前記可視光カメラによる撮像によって得られた連続する複数のフレーム画像データを取得するステップと、
前記複数のフレーム画像データのうちの第1のフレーム画像データにおいて、前記作業者の領域を検出するステップと、
前記第1のフレーム画像データと、前記複数のフレーム画像データのうち前記第1のフレーム画像データよりも所定個前の第2のフレーム画像データとの差分データをフレーム差分法によって生成するステップと、
生成された前記差分データと前記第1のフレーム画像データとに基づいて、前記被写体の状態変化を示す画像データを生成するステップと、
生成された前記画像データから、検出された前記作業者の領域に対応する領域の画像データを抽出するステップと、
抽出された前記画像データに基づき、前記作業場で行われている作業の種別が溶接作業とグラインダ作業とガウジング作業とのうちの何れであるかを判定するステップとをさらに備える、情報処理方法。 a step of capturing an image of a workplace where a worker is performing work involving blinking light by a visible light camera as a subject, the visible light camera having a fixed installation position and attitude;
acquiring a plurality of consecutive frame image data captured by the visible light camera;
detecting an area of the worker in a first frame image data of the plurality of frame image data;
generating difference data between the first frame image data and a second frame image data that is a predetermined number of frames before the first frame image data among the plurality of frame image data by a frame difference method;
generating image data representing a change in a state of the subject based on the generated difference data and the first frame image data;
extracting image data of an area corresponding to an area of the detected worker from the generated image data;
The information processing method further comprises a step of determining whether a type of work being performed at the workplace is welding work, grinding work, or gouging work based on the extracted image data.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021170384A JP7667723B2 (en) | 2021-10-18 | 2021-10-18 | Information processing device and information processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021170384A JP7667723B2 (en) | 2021-10-18 | 2021-10-18 | Information processing device and information processing method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023060666A JP2023060666A (en) | 2023-04-28 |
| JP7667723B2 true JP7667723B2 (en) | 2025-04-23 |
Family
ID=86098169
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021170384A Active JP7667723B2 (en) | 2021-10-18 | 2021-10-18 | Information processing device and information processing method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7667723B2 (en) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025203479A1 (en) * | 2024-03-28 | 2025-10-02 | 富士通株式会社 | Model generation program, model generation method, and information processing device |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021022232A (en) | 2019-07-29 | 2021-02-18 | コニカミノルタ株式会社 | Production result recording system and production result recording program |
| JP2021067981A (en) | 2019-10-17 | 2021-04-30 | 国立大学法人九州大学 | Work analysis device and work analysis method |
| JP2021121710A (en) | 2020-01-31 | 2021-08-26 | 株式会社小松製作所 | Work machine monitoring device and work machine monitoring method |
-
2021
- 2021-10-18 JP JP2021170384A patent/JP7667723B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021022232A (en) | 2019-07-29 | 2021-02-18 | コニカミノルタ株式会社 | Production result recording system and production result recording program |
| JP2021067981A (en) | 2019-10-17 | 2021-04-30 | 国立大学法人九州大学 | Work analysis device and work analysis method |
| JP2021121710A (en) | 2020-01-31 | 2021-08-26 | 株式会社小松製作所 | Work machine monitoring device and work machine monitoring method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023060666A (en) | 2023-04-28 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5001260B2 (en) | Object tracking method and object tracking apparatus | |
| JP5863400B2 (en) | Similar image search system | |
| JP2004199669A (en) | Face detection | |
| JP2004192637A (en) | Face detection | |
| JP2005276220A (en) | Extraction of intelligent key frames from video | |
| JP6557592B2 (en) | Video scene division apparatus and video scene division program | |
| KR20180020123A (en) | Asynchronous signal processing method | |
| GB2409030A (en) | Face detection | |
| JP6217888B1 (en) | Analysis device, analysis method, and program | |
| JP7038642B2 (en) | Work proficiency support device and work proficiency support system | |
| CN105095853A (en) | Image processing apparatus and image processing method | |
| EP4287145A1 (en) | Statistical model-based false detection removal algorithm from images | |
| Xu et al. | Motion based event recognition using HMM | |
| GB2409031A (en) | Face detection | |
| Ponce-López et al. | Multi-modal social signal analysis for predicting agreement in conversation settings | |
| JP7667723B2 (en) | Information processing device and information processing method | |
| KR102110375B1 (en) | Video watch method based on transfer of learning | |
| CN113611387A (en) | Motion quality assessment method based on human body pose estimation and terminal equipment | |
| Kankanhalli et al. | Experiential sampling in multimedia systems | |
| KR102475752B1 (en) | Method and apparatus for prodicting moving path | |
| WO2018111105A1 (en) | System and method of video content filtering | |
| CN110580708B (en) | Rapid movement detection method and device and electronic equipment | |
| US7616779B2 (en) | Method for automatic key posture information abstraction | |
| JP2007148663A (en) | Object tracking device, object tracking method, and program | |
| US9538146B2 (en) | Apparatus and method for automatically detecting an event in sensor data |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240216 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241126 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241203 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250127 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250408 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250411 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7667723 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |