[go: up one dir, main page]

JP7572843B2 - Worker management support system and worker management support processing method - Google Patents

Worker management support system and worker management support processing method Download PDF

Info

Publication number
JP7572843B2
JP7572843B2 JP2020193788A JP2020193788A JP7572843B2 JP 7572843 B2 JP7572843 B2 JP 7572843B2 JP 2020193788 A JP2020193788 A JP 2020193788A JP 2020193788 A JP2020193788 A JP 2020193788A JP 7572843 B2 JP7572843 B2 JP 7572843B2
Authority
JP
Japan
Prior art keywords
worker
mental
prediction
information
physical abnormality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020193788A
Other languages
Japanese (ja)
Other versions
JP2022082304A (en
Inventor
晃 左近允
正己 樋口
洋輔 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Create Ltd
Original Assignee
Hitachi Solutions Create Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Create Ltd filed Critical Hitachi Solutions Create Ltd
Priority to JP2020193788A priority Critical patent/JP7572843B2/en
Publication of JP2022082304A publication Critical patent/JP2022082304A/en
Application granted granted Critical
Publication of JP7572843B2 publication Critical patent/JP7572843B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本開示は、企業等で作業に従事する従業員の画像に基づいて従業員の状態を管理する技術に関する。 This disclosure relates to technology for managing the status of employees based on images of employees working in a company or the like.

近年、人物を撮影した動画からその人物の心身状態を表すバイタルサインの情報(以下、バイタル情報という)を取得する技術が研究されている(非特許文献1参照)。バイタル情報は、例えば、心拍、血圧、体温、血中酸素濃度、ストレスレベル、血中アルロール濃度などである。この技術により、人物の心拍や体表温度を測定するために着用するセンシングウェアや、指を挟んで人物の血中酸素濃度を測定するパルスオキシメーターといった専用デバイスを用いることなく、カメラで撮影した画像から精度の高いバイタル情報を取得することができる。 In recent years, research has been conducted into technology for acquiring vital sign information (hereinafter referred to as vital information) that indicates a person's mental and physical state from a video of the person (see Non-Patent Document 1). Examples of vital information include heart rate, blood pressure, body temperature, blood oxygen concentration, stress level, and blood alcohol concentration. This technology makes it possible to acquire highly accurate vital information from images captured by a camera without using dedicated devices such as sensing wear worn to measure a person's heart rate and body surface temperature, or a pulse oximeter that measures a person's blood oxygen concentration by pinching a finger.

東北大学サイバーサイエンスセンター 吉沢 誠,東北大学 大学院工学研究科 杉田 典大、「血行状態モニタリング装置“魔法の鏡”の開発」、光技術コンタクト誌 2017年10月号Makoto Yoshizawa, Cyberscience Center, Tohoku University, Norihiro Sugita, Graduate School of Engineering, Tohoku University, "Development of the "Magic Mirror" Blood Circulation Monitoring Device," Optical Technology Contact, October 2017 issue

製造現場や倉庫などで作業を行う従業員、鉄道、バス、タクシーなどの運転士(運転手)、飛行機や船舶の操縦士など、何らかの作業に従事する人物(作業従事者)は、業務を安全に遂行するためにも、心身の健康が求められる。非特許文献1には、そこに開示された技術を職場の鏡と一体化したコンピュータに適用した鏡型ディスプレイが開示されている。これは、職場での従業員の健康状態のチェックを可能にするものである。しかし、非特許文献1に開示された技術では、鏡型ディスプレイの前に立たなければ、作業従事者の健康状態をチェックできず、製造現場や倉庫などで作業に従事している従業員の作業をリアルタイムでチェックすることはできない。 People who work in any kind of job (workers), such as employees working in manufacturing sites or warehouses, drivers of trains, buses, taxis, etc., and pilots of airplanes or ships, need to be physically and mentally healthy in order to perform their jobs safely. Non-Patent Document 1 discloses a mirror-type display in which the technology disclosed therein is applied to a computer integrated with a workplace mirror. This makes it possible to check the health status of employees in the workplace. However, with the technology disclosed in Non-Patent Document 1, it is not possible to check the health status of workers unless they stand in front of the mirror-type display, and it is not possible to check the work of employees working in manufacturing sites or warehouses in real time.

本開示のひとつの目的は、作業に従事する従業員の作業の維持管理を支援する技術を提供することである。 One objective of this disclosure is to provide technology that assists employees in maintaining and managing the work they perform.

本開示のひとつの態様による作業従事者管理支援システムは、作業に従事する作業従事者の動画を撮影する撮影装置と、前記撮影された動画から得られる前記作業従事者のバイタル情報に基づいて前記作業従事者に関する所定事象の発生を予測する処理装置と、前記所定事象の発生が予測された旨を提示する管理装置と、を有し、前記処理装置は、学習データを学習することにより、作業従事者のバイタル情報を入力とし作業従事者に関する所定事象の発生の予測結果を出力とする事象予測モデルを生成し、該事象予測モデルを用いて前記作業従事者に関する所定事象の発生を予測し、前記管理装置は、前記予測された所定事象が発生したか否かを表す実績情報を前記作業従事者から取得し、該実績情報を前記学習データとして前記処理装置に提供する。 A worker management support system according to one aspect of the present disclosure includes a camera that captures video of a worker engaged in work, a processing device that predicts the occurrence of a predetermined event related to the worker based on vital sign information of the worker obtained from the captured video, and a management device that indicates that the occurrence of the predetermined event has been predicted. The processing device learns learning data to generate an event prediction model that takes the vital sign information of the worker as input and outputs a predicted result of the occurrence of a predetermined event related to the worker, and predicts the occurrence of the predetermined event related to the worker using the event prediction model. The management device obtains performance information from the worker indicating whether the predicted predetermined event has occurred, and provides the performance information to the processing device as the learning data.

本開示のひとつの態様によれば、作業従事者の心身状態の維持管理を支援することができる。 According to one aspect of the present disclosure, it is possible to assist in maintaining and managing the mental and physical condition of workers.

実施形態に係る作業従事者管理システムのブロック図である。FIG. 1 is a block diagram of a worker management system according to an embodiment. 図1に示した動画撮影装置のデータ保存領域の一構成例を示す図である。2 is a diagram showing an example of the configuration of a data storage area of the moving image shooting device shown in FIG. 1 . 図1に示したクラウドシステムのAIサーバの一構成例示す図である。FIG. 2 is a diagram illustrating an example of a configuration of an AI server in the cloud system shown in FIG. 図1に示したクラウドシステムのデータ保存領域の一構成例を示す図である。2 is a diagram illustrating an example of a configuration of a data storage area of the cloud system illustrated in FIG. 1 . 図1に示したクラウドシステムのデータ保存領域の一構成例を示す図である。2 is a diagram illustrating an example of a configuration of a data storage area of the cloud system illustrated in FIG. 1 . 図1に示したクラウドシステムの作業従事者の属性情報データ保存領域の一例を示す図である。2 is a diagram showing an example of an attribute information data storage area of a worker in the cloud system shown in FIG. 1 . 図1に示した作業従事者管理システムの動画撮影装置における処理を説明するためのフローチャートである。4 is a flowchart for explaining a process in the video shooting device of the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムの事業者システムにおいて管理される情報をクラウドシステムが取得する際の処理を説明するためのフローチャートである。4 is a flowchart for explaining a process performed when a cloud system acquires information managed in a business operator system of the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムのクラウドシステムにおける作業従事者の行動解析処理を説明するためのフローチャートである。10 is a flowchart for explaining a worker behavior analysis process in the cloud system of the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムにおいてAIを用いずに作業従事者の不調を予測する処理を説明するためのフローチャートである。10 is a flowchart for explaining a process for predicting an illness of a worker without using AI in the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムのクラウドシステムから事業者システムに不調予測が通知された際の処理を説明するためのフローチャートである。10 is a flowchart for explaining a process performed when a malfunction prediction is notified to a business operator system from a cloud system of the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムにおいて心身異常予測モデルを作成する際の処理を説明するためのフローチャートである。4 is a flowchart for explaining a process for creating a mental and physical abnormality prediction model in the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムにおいて作業不良予測モデルを作成する際の処理を説明するためのフローチャートである。4 is a flowchart for explaining a process for creating a work defect prediction model in the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムにおいて作業従事者のバイタル情報および動作情報に応じたアドバイスを生成する際の処理を説明するためのフローチャートである。10 is a flowchart for explaining a process for generating advice according to vital information and motion information of a worker in the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムにおいてAIを用いて作業従事者の心身の異常を検知する処理を説明するためのフローチャートである。10 is a flowchart for explaining a process for detecting mental and physical abnormalities of a worker using AI in the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムにおいてAIを用いて作業不良やミスを予測する処理を説明するためのフローチャートである。2 is a flowchart for explaining a process for predicting work defects or mistakes using AI in the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムの事業者システムにて作業従事者のバイタル情報などを確認する処理を説明するためのフローチャートである。4 is a flowchart for explaining a process of checking vital sign information and the like of a worker in a business operator system of the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムにおいて作業従事者に対して作業に関する注意点などをプッシュ配信する処理を説明するためのフローチャートである。10 is a flowchart for explaining a process of push-distributing important information about work to workers in the worker management system shown in FIG. 1 . 図1に示した作業従事者管理システムにおいて、作業従事者が自身のモバイル端末を用いてバイタル傾向などを確認する処理を説明するためのフローチャートである。2 is a flowchart for explaining a process in which a worker checks vital signs trends and the like using his or her own mobile terminal in the worker management system shown in FIG. 1 .

以下に、本発明の実施形態について図面を参照して説明する。 Below, an embodiment of the present invention will be described with reference to the drawings.

図1は、本実施形態に係る作業従事者管理システムのブロック図である。 Figure 1 is a block diagram of the worker management system according to this embodiment.

図1に示すように、作業従事者管理システムは、動画撮影装置10と、クラウドシステム20と、モバイル端末50と、事業者管理システム60とを有している。動画撮影装置10、モバイル端末50および事業者管理システム60はそれぞれ、クラウドシステム20と通信可能に構成されている。 As shown in FIG. 1, the worker management system includes a video capture device 10, a cloud system 20, a mobile terminal 50, and a business management system 60. The video capture device 10, the mobile terminal 50, and the business management system 60 are each configured to be able to communicate with the cloud system 20.

動画撮影装置10は、本願発明にて撮影装置となるものであって、作業従事者が作業を行う作業場所などに、いわゆる定点カメラとして設置されている。動画撮影装置10は、作業に従事する作業従事者の動画を撮影するものであって、カメラ11とCPU12とメモリ13とを有している。CPU12は、顔認証制御部14と動画バイタル制御部15と行動解析制御部16とクラウド通信制御部17とカメラ画像制御部18とを実現する。メモリ13には、カメラ画像制御部18によってデータが保存されるデータ保存領域19が設けられている。 Video recording device 10 is the recording device in the present invention, and is installed as a so-called fixed camera in a work area where workers perform their work. Video recording device 10 records videos of workers engaged in work, and has a camera 11, a CPU 12, and a memory 13. CPU 12 realizes a face authentication control unit 14, a video vitals control unit 15, a behavior analysis control unit 16, a cloud communication control unit 17, and a camera image control unit 18. Memory 13 is provided with a data storage area 19 in which data is stored by camera image control unit 18.

カメラ11は、設置された作業場所の作業従事者を含めた動画を撮影する。 The camera 11 captures video including workers at the work site where it is installed.

顔認証制御部14は、カメラ11にて撮影された動画の中から、作業従事者の顔を認識し、顔認証を行う。動画バイタル制御部15は、カメラ11にて撮影された動画に基づいて、作業従事者のバイタル情報を取得する。行動解析制御部16は、カメラ11にて撮影された動画に基づいて、モーションキャプチャにより、作業従事者の行動を示す動作情報を取得する。なお、行動解析制御部は、動画撮影装置10ではなくクラウドシステム20が有していてもよし、双方が有してもよい。カメラ画像制御部18は、カメラ11にて撮影された動画を、動画バイタル制御部15にて取得した作業従事者のバイタル情報とともにデータ保存領域19に保存する。なお、行動解析制御部16にて取得した作業従事者の動作情報も、データ保存領域19に保存してもよい。クラウド通信制御部17は、顔認証制御部14にて認証した顔情報と動画バイタル制御部15にて取得したバイタル情報とを、通信回線(不図示)を介してクラウドシステム20に送信する。なお、行動解析制御部16にて取得した作業従事者の動作情報も、クラウドシステム20に送信してもよい。 The face authentication control unit 14 recognizes the face of the worker from the video captured by the camera 11 and performs face authentication. The video vitals control unit 15 acquires vital information of the worker based on the video captured by the camera 11. The behavior analysis control unit 16 acquires motion information indicating the behavior of the worker by motion capture based on the video captured by the camera 11. The behavior analysis control unit may be included in the cloud system 20 instead of the video capture device 10, or may be included in both. The camera image control unit 18 stores the video captured by the camera 11 in the data storage area 19 together with the vital information of the worker acquired by the video vitals control unit 15. The motion information of the worker acquired by the behavior analysis control unit 16 may also be stored in the data storage area 19. The cloud communication control unit 17 transmits the face information authenticated by the face authentication control unit 14 and the vital information acquired by the video vitals control unit 15 to the cloud system 20 via a communication line (not shown). The worker's movement information acquired by the behavior analysis control unit 16 may also be transmitted to the cloud system 20.

図2は、図1に示した動画撮影装置10のデータ保存領域19の一構成例を示す図である。 Figure 2 is a diagram showing an example of the configuration of the data storage area 19 of the video recording device 10 shown in Figure 1.

図2に示すように、図1に示した動画撮影装置10のデータ保存領域19には、カメラ11にて撮影された画像が、その撮影日時とともに、動画ファイルおよび静止画ファイルとして登録されている。また、動画ファイルおよび静止画ファイルは、撮影日時の情報とともに、クラウドシステム20に送られる。 As shown in FIG. 2, images captured by the camera 11 are registered as video files and still image files together with the capture date and time in the data storage area 19 of the video capture device 10 shown in FIG. 1. In addition, the video files and still image files are sent to the cloud system 20 together with information on the capture date and time.

クラウドシステム20は、処理装置となるものであって、クラウド上に実現されている。クラウドシステム20は、CPU22とメモリ23と含むコンピューティングシステムによりAIサーバ40を構成し、動画撮影装置10にて撮影された動画から得られる作業従事者のバイタル情報に基づいて、AIサーバ40により作業従事者に関する所定事象の発生を予測する。具体的には、学習データを学習することにより、作業従事者のバイタル情報を入力とし作業従事者に関する所定事象の発生の予測結果を出力とする事象予測モデルを生成し、生成した事象予測モデルを用いて作業従事者に関する所定事象の発生を予測する。CPU22は、動画撮影装置通信制御部21と行動解析制御部25と労務管理制御部28と情報提供制御部29と作業従事者通信制御部30と事業者通信制御部32とを実現する。AIサーバ40の詳細は後述する。メモリ23には、動画撮影装置10から受信したデータや行動解析制御部25にて取得されたデータが保存されるデータ保存領域26と、作業従事者の属性情報27と、事業者システム生産管理情報32とが設けられている。 The cloud system 20 is a processing device and is realized on the cloud. The cloud system 20 configures an AI server 40 with a computing system including a CPU 22 and a memory 23, and predicts the occurrence of a predetermined event related to the worker by the AI server 40 based on the vital information of the worker obtained from the video taken by the video shooting device 10. Specifically, by learning the learning data, an event prediction model is generated in which the vital information of the worker is input and the predicted result of the occurrence of a predetermined event related to the worker is output, and the occurrence of a predetermined event related to the worker is predicted using the generated event prediction model. The CPU 22 realizes the video shooting device communication control unit 21, the behavior analysis control unit 25, the labor management control unit 28, the information provision control unit 29, the worker communication control unit 30, and the business communication control unit 32. Details of the AI server 40 will be described later. The memory 23 includes a data storage area 26 in which data received from the video capture device 10 and data acquired by the behavior analysis control unit 25 are stored, worker attribute information 27, and business operator system production management information 32.

動画撮影装置通信制御部21は、動画撮影装置10から送信されてきたデータを通信回線(不図示)を介して受信する。顔認証制御部24は、動画撮影装置10から送信されてきたデータの中から、作業従事者の顔を認識し、顔認証を行う。行動解析制御部25は、動画撮影装置10から送信されてきたデータに基づいて、モーションキャプチャにより、作業従事者の行動を示す動作情報を取得する。労務管理制御部28は、動画撮影装置10から送信されてきたバイタル情報による数値を予め決められたしきい値と比較することで、作業従事者のバイタル情報のチェックを行う。情報提供制御部29は、モバイル端末50や事業者システム60からの要求に応じて、あるいは自律的に、AIサーバ40における予測結果に応じて、作業従事者の心身状態に関する事象を事業者システム60に提供する。作業従事者通信制御部30は、モバイル端末50からの要求に応じて、あるいは自律的に、情報提供制御部29にて提供される情報を、通信回線(不図示)を介してモバイル端末50に送信する。事業者通信制御部32は、事業者システム60からの要求に応じて、あるいは自律的に、情報提供制御部29にて提供される情報や、事業者システム管理情報31を、通信回線(不図示)を介して事業者システム60に送信する。 The video shooting device communication control unit 21 receives data transmitted from the video shooting device 10 via a communication line (not shown). The face authentication control unit 24 recognizes the face of the worker from the data transmitted from the video shooting device 10 and performs face authentication. The behavior analysis control unit 25 acquires motion information indicating the behavior of the worker by motion capture based on the data transmitted from the video shooting device 10. The labor management control unit 28 checks the vital information of the worker by comparing the numerical value of the vital information transmitted from the video shooting device 10 with a predetermined threshold value. The information provision control unit 29 provides the business system 60 with events related to the mental and physical state of the worker in response to a request from the mobile terminal 50 or the business system 60, or autonomously, in response to the prediction result in the AI server 40. The worker communication control unit 30 transmits the information provided by the information provision control unit 29 to the mobile terminal 50 via a communication line (not shown) in response to a request from the mobile terminal 50 or autonomously. The carrier communication control unit 32 transmits information provided by the information provision control unit 29 and carrier system management information 31 to the carrier system 60 via a communication line (not shown), either in response to a request from the carrier system 60 or autonomously.

図3は、図1に示したクラウドシステム20のAIサーバ40の一構成例示す図である。 Figure 3 is a diagram showing an example configuration of the AI server 40 of the cloud system 20 shown in Figure 1.

図3に示すように、図1に示したクラウドシステム20のAIサーバ40は、第1心身異常予測部41aと、第2心身異常予測部41bと、作業不良予測部42と、予測制御部44と、学習部45,46と、アドバイス部47とを有している。また、第2心身異常予測部41bは心身異常予測モデル41cを有しており、作業不良予測部42は作業不良予測モデル42aを有しており、アドバイス部47はデータベース48を有している。 As shown in FIG. 3, the AI server 40 of the cloud system 20 shown in FIG. 1 has a first mental and physical abnormality prediction unit 41a, a second mental and physical abnormality prediction unit 41b, a work defect prediction unit 42, a prediction control unit 44, learning units 45 and 46, and an advice unit 47. In addition, the second mental and physical abnormality prediction unit 41b has a mental and physical abnormality prediction model 41c, the work defect prediction unit 42 has a work defect prediction model 42a, and the advice unit 47 has a database 48.

第1心身異常予測部41aは、バイタル情報の指標値を所定のしきい値と比較した結果と、動作情報とに基づいて、作業従事者の心身の異常の発生を予測する。第2心身異常予測部41bは、バイタル情報および動作情報を、心身異常予測モデル41cに入力し、心身異常予測モデル41cの出力から、作業従事者の心身の異常の発生の予測の結果を取得する。予測制御部44は、実績情報に基づき心身異常予測モデル41cによる予測精度の良否を設定し、予測精度が良に設定されていれば第2心身異常予測部41bによる予測結果を事業者システム60に提供し、予測精度が不良に設定されていれば第1心身異常予測部41aによる予測結果を事業者システム60に提供する。 The first mental and physical abnormality prediction unit 41a predicts the occurrence of mental and physical abnormalities in the worker based on the result of comparing the index value of the vital information with a predetermined threshold value and the movement information. The second mental and physical abnormality prediction unit 41b inputs the vital information and movement information to the mental and physical abnormality prediction model 41c, and obtains the result of predicting the occurrence of mental and physical abnormalities in the worker from the output of the mental and physical abnormality prediction model 41c. The prediction control unit 44 sets the prediction accuracy of the mental and physical abnormality prediction model 41c based on the performance information, and if the prediction accuracy is set to good, provides the prediction result of the second mental and physical abnormality prediction unit 41b to the business operator system 60, and if the prediction accuracy is set to poor, provides the prediction result of the first mental and physical abnormality prediction unit 41a to the business operator system 60.

なお、心身異常予測モデル41cは、作業従事者のバイタル情報および動作情報を入力とし作業従事者の心身の異常の発生の予測結果を出力とするものであって、事象予測モデルに含まれる。 The mental and physical abnormality prediction model 41c receives the worker's vital signs and movement information as input and outputs the predicted occurrence of mental and physical abnormalities in the worker, and is included in the event prediction model.

作業不良予測部42は、バイタル情報を作業不良予測モデル42aに入力し、作業不良予測モデル42aの出力から、作業従事者による作業の不良の発生の予測の結果を取得する。なお、作業不良予測モデル42aは、作業従事者のバイタル情報および動作情報を入力とし作業従事者による作業の不良の発生の予測結果を出力とするものであって、事象予測モデルに含まれる。 The work defect prediction unit 42 inputs the vital sign information to the work defect prediction model 42a, and obtains the result of the prediction of the occurrence of work defects by the worker from the output of the work defect prediction model 42a. Note that the work defect prediction model 42a inputs the vital sign information and movement information of the worker, and outputs the prediction result of the occurrence of work defects by the worker, and is included in the event prediction model.

学習部45,46はそれぞれ、予測された事象が実際に起こったか否かを表す実績情報を学習データとして学習することにより、心身異常予測モデル41cおよび作業不良予測モデル42aを生成する。 The learning units 45 and 46 each generate a mental and physical abnormality prediction model 41c and a work defect prediction model 42a by learning actual performance information indicating whether or not a predicted event has actually occurred as learning data.

アドバイス部47は、バイタル情報および動作情報と作業品質とを対応づけて蓄積したアドバイスデータベース48を生成し、アドバイスデータベース48から所定の作業品質に対応するバイタル情報および動作情報を取得し、取得したバイタル情報および動作情報と、作業従事者の現在のバイタル情報および動作情報との差分に基づいて、作業従事者への作業に関するアドバイスを生成する。 The advice unit 47 generates an advice database 48 that stores vital information and movement information in association with work quality, acquires vital information and movement information corresponding to a specified work quality from the advice database 48, and generates work-related advice for the worker based on the difference between the acquired vital information and movement information and the worker's current vital information and movement information.

図4および図5は、図1に示したクラウドシステム20のデータ保存領域26の一構成例を示す図である。 Figures 4 and 5 are diagrams showing an example configuration of the data storage area 26 of the cloud system 20 shown in Figure 1.

図4に示すように、図1に示したクラウドシステム20のデータ保存領域26には、動画、バイタル情報、および静止画を送信した動画撮影装置の動作撮影装置IDおよびそれらが受信された受信日時に紐づけて、動画撮影装置10から送信されてきた作業従事者のバイタル情報と、静止画の画像ファイルとが付与されて保存されている。ここに保存されるバイタル情報には、動画に写っていた全ての作業従事者のバイタル情報が含まれている。バイタル情報として、各作業従事者の作業従事者IDに紐づけて、心拍、血中酸素濃度、血圧、体温、ストレスレベル、血中アルコール濃度の情報が保存される。 As shown in FIG. 4, the data storage area 26 of the cloud system 20 shown in FIG. 1 stores the vital information of workers sent from the video capture device 10 and image files of still images, linked to the motion capture device ID of the video capture device that sent the video, vital information, and still images and the date and time they were received. The vital information stored here includes the vital information of all workers who appeared in the video. The vital information stored includes the heart rate, blood oxygen concentration, blood pressure, body temperature, stress level, and blood alcohol concentration of each worker, linked to the worker ID.

また、図5に示すように、データ保存領域26には、行動解析制御部16あるいは行動解析制御部25における解析結果である、作業従事者の動作情報が保存されている。動画、バイタル情報、および静止画を送信した動画撮影装置の動作撮影装置IDおよびそれらが受信された受信日時に紐づけて、動作情報および動画ファイルが保存されている。動作情報には、作業従事者の各関節や身体の部位を示す計測ポイント毎にその位置を示すX、Y、Z座標が時系列に保存されている。 As shown in FIG. 5, the data storage area 26 stores the motion information of the worker, which is the analysis result in the motion analysis control unit 16 or the motion analysis control unit 25. The motion information and video files are stored in association with the motion capture device ID of the video capture device that transmitted the video, vital information, and still images, and the date and time when they were received. The motion information stores the X, Y, and Z coordinates indicating the position of each measurement point indicating each joint or body part of the worker in chronological order.

図6は、図1に示したクラウドシステム20の作業従事者の属性情報データ保存領域26の一例を示す図である。 Figure 6 is a diagram showing an example of the worker attribute information data storage area 26 of the cloud system 20 shown in Figure 1.

図6に示すように、図1に示したクラウドシステム20の作業従事者の属性情報データ保存領域26には、本システムにて管理される作業従事者の従業員ID、氏名、性別、生年月日、病歴が保存されている。 As shown in FIG. 6, the worker attribute information data storage area 26 of the cloud system 20 shown in FIG. 1 stores the employee ID, name, gender, date of birth, and medical history of the workers managed by the system.

モバイル端末50は、クラウド通信制御部51と情報表示部52とを有している。クラウド通信制御部51は、作業従事者の操作によって、クラウドシステム20に対して作業従事者の傾向を要求する。また、クラウド通信制御部51は、作業従事者の要求によりクラウドシステム20から送信されてくる、あるいはクラウドシステム20から自律的に送信されてくる作業従事者の傾向やバイタル情報を受信する。情報表示部52は、クラウド通信制御部51にて受信した作業従事者の傾向をディスプレイに表示する。 The mobile terminal 50 has a cloud communication control unit 51 and an information display unit 52. The cloud communication control unit 51 requests the worker's tendencies from the cloud system 20 in response to the worker's operation. The cloud communication control unit 51 also receives the worker's tendencies and vital sign information that are sent from the cloud system 20 in response to the worker's request or that are sent autonomously from the cloud system 20. The information display unit 52 displays the worker's tendencies received by the cloud communication control unit 51 on a display.

事業者システム60は、管理装置となるものであって、所定事象の発生が予測された旨を提示する。事業者システム60は、クラウド通信制御部61とデータ保存領域62と労務状況管理部63と業務管理システム64とを有し、クラウドシステム20にて予測された所定事象が発生したか否かを表す実績情報を作業従事者から取得し、取得した実績情報を学習データとしてクラウドシステム20に提供する。 The business operator system 60 is a management device that indicates that a specified event is predicted to occur. The business operator system 60 has a cloud communication control unit 61, a data storage area 62, a labor status management unit 63, and a business management system 64, and acquires performance information from workers indicating whether a specified event predicted by the cloud system 20 has occurred, and provides the acquired performance information to the cloud system 20 as learning data.

クラウド通信制御部61は、クラウドシステム20に対して、バイタル情報や画像の送信の要求、またはこれらを受信したり、作業従事者の心身状態の不調発生予測を受信したり、予測された事象が実際に起こったか否かを示す実績情報を送信したりする。データ保存領域62には、クラウド通信制御部61にて受信した情報や労務状況管理部63にて管理される情報が保存されている。労務状況管理部63は、クラウドシステム20に対して、バイタル情報や画像の送信を要求したり、クラウドシステム20から送信されてきてデータ保存領域42に保存されたバイタル情報を表示したり、予測された事象が実際に起こったか否かを示す実績情報を収集したりする。業務管理システム64は、作業従事者の業務を管理する。 The cloud communication control unit 61 requests the cloud system 20 to send vital sign information and images, or receives these, receives predictions of the occurrence of mental and physical disorders of workers, and transmits performance information indicating whether or not the predicted events have actually occurred. The data storage area 62 stores information received by the cloud communication control unit 61 and information managed by the labor status management unit 63. The labor status management unit 63 requests the cloud system 20 to send vital sign information and images, displays vital sign information sent from the cloud system 20 and stored in the data storage area 42, and collects performance information indicating whether or not the predicted events have actually occurred. The work management system 64 manages the work of workers.

以下に、上記のように構成された作業従事者管理システムにおける処理について説明する。 The following describes the processing performed in the worker management system configured as above.

まず、動画撮影装置10における処理について説明する。 First, we will explain the processing in the video capture device 10.

図7は、図1に示した作業従事者管理システムの動画撮影装置10における処理を説明するためのフローチャートである。 Figure 7 is a flowchart for explaining the processing in the video capture device 10 of the worker management system shown in Figure 1.

動画撮影装置10のカメラ11にて作業従事者の動画が撮影されると(ステップS101)、まず、顔認証制御部14にて、カメラ11にて撮影された動画の中から作業従事者の顔認証が行われる(ステップS102)。また、動画バイタル制御部15において、カメラ11にて撮影された動画に基づいて作業従事者のバイタル情報となるバイタル数値が取得される(ステップS103)。 When a video of a worker is captured by the camera 11 of the video capture device 10 (step S101), the face recognition control unit 14 first performs face recognition of the worker from the video captured by the camera 11 (step S102). In addition, the video vitals control unit 15 acquires vital signs, which are vital information of the worker, based on the video captured by the camera 11 (step S103).

動画バイタル制御部15においては、バイタル数値が取得されると、取得されたバイタル数値が、予め決められたしきい値と比較され、取得したバイタル数値がしきい値を超えているかどうかが判断される(ステップS104)。 When the vital sign value is acquired, the video vital sign control unit 15 compares the acquired vital sign value with a predetermined threshold value and determines whether the acquired vital sign value exceeds the threshold value (step S104).

取得したバイタル数値がしきい値を超えていない場合、動画、または行動解析制御部16にて解析された動作情報に基づき、作業従事者の行動が異常であるかどうかが判断される(ステップS105)。 If the acquired vital signs do not exceed the threshold, a determination is made as to whether the worker's behavior is abnormal based on the video or the motion information analyzed by the behavior analysis control unit 16 (step S105).

そして、動画バイタル制御部15において取得したバイタル数値がしきい値を超えていると判断された場合や、作業従事者の行動が異常であると判断された場合、カメラ画像制御部18により動画の保存が指示され(ステップS106)、カメラ11で撮影された作業従事者の周囲の動画がデータ保存領域19に保存される(ステップS107)。同時に撮影された静止画もデータ保存領域19に保存される。 If the video vitals control unit 15 determines that the acquired vital signs value exceeds a threshold value or that the worker's behavior is abnormal, the camera image control unit 18 instructs the worker to save the video (step S106), and the video of the worker's surroundings captured by the camera 11 is saved in the data storage area 19 (step S107). A still image captured at the same time is also saved in the data storage area 19.

さらに、クラウド通信制御部17の制御によって、動画バイタル制御部15において取得したバイタル情報が、カメラ11にて撮影された動画および静止画とともにクラウドシステム20に送信される(ステップS108)。行動解析制御部16により作業従事者の動作情報を取得する場合にはその動作情報もクラウドシステム20に送信される。 Furthermore, under the control of the cloud communication control unit 17, the vital information acquired by the video/vital control unit 15 is transmitted to the cloud system 20 together with the video and still images captured by the camera 11 (step S108). When the behavior analysis control unit 16 acquires the motion information of the worker, the motion information is also transmitted to the cloud system 20.

次に、事業者システム60において管理される情報をクラウドシステム20が取得する際の処理について説明する。 Next, we will explain the process by which the cloud system 20 acquires information managed in the business operator system 60.

図8は、図1に示した作業従事者管理システムの事業者システム60において管理される情報をクラウドシステム20が取得する際の処理を説明するためのフローチャートである。 Figure 8 is a flowchart to explain the process when the cloud system 20 acquires information managed in the operator system 60 of the worker management system shown in Figure 1.

事業者システム60においては、業務管理システム64において、作業従事者に係る作業の工程情報や作業不良情報が保存される(ステップS201)。また、労務状況管理部64において、各作業従事者について、過去の心身の異常の発生実績が保存される(ステップS202)。 In the business operator system 60, the business management system 64 stores information on the work process and work defects related to the workers (step S201). In addition, the labor status management unit 64 stores the past occurrence of mental and physical abnormalities for each worker (step S202).

これら工程情報、作業不良情報および過去の心身の異常の発生実績は、クラウド通信制御部61の制御によってクラウドシステム20に送信される(ステップS203)。 The process information, work defect information, and past occurrences of mental and physical abnormalities are transmitted to the cloud system 20 under the control of the cloud communication control unit 61 (step S203).

事業者システム60から送信された、工程情報、作業不良情報および過去の心身の異常の発生実績は、クラウドシステム20の事業者通信制御部32にて受信される(ステップS204)。 The process information, work defect information, and past occurrences of mental and physical abnormalities sent from the business operator system 60 are received by the business operator communication control unit 32 of the cloud system 20 (step S204).

すると、受信された工程情報、作業不良情報および過去の心身の異常の発生実績は、事業者システム生産管理情報31として保存され(ステップS205)、その後、AIサーバ40において、心身異常予測モデルや作業不良モデルの生成に学習データとして利用される(ステップS206)。 The received process information, work defect information, and past occurrences of mental and physical abnormalities are then stored as business operator system production management information 31 (step S205), and are then used as learning data in the AI server 40 to generate a mental and physical abnormality prediction model and a work defect model (step S206).

次に、クラウドシステム20における作業従事者の行動解析処理について説明する。 Next, we will explain the behavior analysis process of workers in the cloud system 20.

図9は、図1に示した作業従事者管理システムのクラウドシステム20における作業従事者の行動解析処理を説明するためのフローチャートである。 Figure 9 is a flowchart for explaining the worker behavior analysis process in the cloud system 20 of the worker management system shown in Figure 1.

動画撮影装置10から送信されたバイタル情報および動画がクラウドシステム20の動画撮影装置通信制御部21にて受信されると(ステップS301)、クラウドシステム20においてはまず、顔認証制御部24において、受信した動画を用いて作業従事者の顔認証が行われる(ステップS302)。この顔認識においては、作業従事者の属性情報27に保存されている作業従事者の顔データとの照合を行うことで作業従事者を特定する。 When the vital information and video transmitted from the video shooting device 10 are received by the video shooting device communication control unit 21 of the cloud system 20 (step S301), the face recognition control unit 24 in the cloud system 20 first performs face recognition of the worker using the received video (step S302). In this face recognition, the worker is identified by comparing the face data of the worker stored in the worker attribute information 27.

次に、受信したバイタル情報と動画をデータ保存領域26に保存する(ステップS303)。 Next, the received vital information and video are stored in the data storage area 26 (step S303).

次に、行動解析制御部25において、モーションキャプチャを用いて、受信した動画による作業従事者の動作をデータに変換し(ステップS304)、作業従事者の属性情報27を参照して作業従事者を特定し、データ保存領域26に動作情報を作業従事者と対応づけて保存し(ステップS305)、ステップS301の処理に戻る。 Next, the behavior analysis control unit 25 uses motion capture to convert the movements of the worker in the received video into data (step S304), identifies the worker by referring to the worker's attribute information 27, and stores the movement information in the data storage area 26 in association with the worker (step S305), and returns to the processing of step S301.

次に、AIを用いずに作業従事者の不調を予測する処理について説明する。 Next, we will explain the process of predicting worker ailments without using AI.

図10は、図1に示した作業従事者管理システムにおいてAIを用いずに作業従事者の不調を予測する処理を説明するためのフローチャートである。 Figure 10 is a flowchart to explain the process of predicting worker ailments without using AI in the worker management system shown in Figure 1.

まず、クラウドシステム20の労務管理制御部28において、図9のステップS305にてデータ保存領域26に保存されたバイタル情報がチェックされる(ステップS401)。この際、作業従事者の属性情報27が参照されて作業従事者が特定される。 First, the labor management control unit 28 of the cloud system 20 checks the vital information stored in the data storage area 26 in step S305 of FIG. 9 (step S401). At this time, the worker's attribute information 27 is referenced to identify the worker.

データ保存領域26に保存されたバイタル情報によるバイタル数値が、予め決められたしきい値を超えている場合(ステップS402)、その作業従事者についての不調フラグが“ON”に設定される(ステップS403)。このバイタル数値としては、心拍や、血中酸素濃度、血圧、体温、ストレスレベル、血中アルコール濃度が考えられ、これら複数の数値のしきい値との判定を組み合わせてもよい。 If the vital sign value based on the vital sign information stored in the data storage area 26 exceeds a predetermined threshold value (step S402), the illness flag for that worker is set to "ON" (step S403). Possible vital signs include heart rate, blood oxygen concentration, blood pressure, body temperature, stress level, and blood alcohol concentration, and a combination of these values may be judged against threshold values.

また、データ保存領域26に保存されたバイタル情報によるバイタル数値が、予め決められたしきい値を超えていない場合や、不調フラグが“ON”に設定された後、労務管理制御部28において、作業従事者の行動が異常であるかどうかがチェックされる(ステップS404,S405)。 In addition, if the vital signs based on the vital signs information stored in the data storage area 26 do not exceed a predetermined threshold value, or after the illness flag is set to "ON", the labor management control unit 28 checks whether the worker's behavior is abnormal (steps S404, S405).

そして、作業従事者の行動が異常であると判断された場合は、その作業従事者についての行動異常フラグが“ON”に設定される(ステップS406)。 If the worker's behavior is determined to be abnormal, the behavior abnormality flag for that worker is set to "ON" (step S406).

その後、2つのフラグが確認され(ステップS407)、少なくともいずれかが“ON”である場合は、事業者通信制御部32の制御によって、作業従事者の心身の異常が事業者システム60に通知される(ステップS408)。 Then, the two flags are checked (step S407), and if at least one of them is "ON", the operator communication control unit 32 controls the operator system 60 to be notified of the worker's physical or mental abnormality (step S408).

また、2つのフラグがいずれも“ON”に設定されていない場合や、ステップS408における処理後、動画に写っている作業従事者の分だけ上述した一連の処理が完了したら、図9のステップS301の処理に戻る。 If neither of the two flags is set to "ON" or if the above-described series of processes has been completed for all the workers shown in the video after the processing in step S408, the process returns to step S301 in FIG. 9.

次に、クラウドシステム20から事業者システム60に不調予測が通知された際の処理について説明する。 Next, we will explain the processing that occurs when the cloud system 20 notifies the provider system 60 of a malfunction prediction.

図11は、図1に示した作業従事者管理システムのクラウドシステム20から事業者システム60に不調予測が通知された際の処理を説明するためのフローチャートである。 Figure 11 is a flowchart to explain the processing when a malfunction prediction is notified to the business operator system 60 from the cloud system 20 of the worker management system shown in Figure 1.

作業従事者の心身の異常がクラウドシステム20の事業者通信制御部32から通知され(ステップS501)、事業者システム60のクラウド通信制御部61にて受信されると(ステップS502)、事業者システム60において、受信した作業従事者の心身の異常がデータ保存領域62に保存される(ステップS503)。 When the worker's physical and mental abnormalities are notified by the business operator communication control unit 32 of the cloud system 20 (step S501) and received by the cloud communication control unit 61 of the business operator system 60 (step S502), the business operator system 60 stores the received physical and mental abnormalities of the worker in the data storage area 62 (step S503).

また、労務状況管理部63において、心身の異常が受信された作業従事者に対して、電話や対面などで状況の確認が行われる(ステップS504)。 The labor status management unit 63 also checks the status of workers whose physical or mental abnormalities have been reported, by telephone or in person (step S504).

そして、作業従事者の状況確認結果が、労務状況管理部63にて登録されるとともに、クラウド通信制御部32の制御によってクラウドシステム20に対して送信される(ステップS505)。 Then, the results of the worker's status check are registered in the labor status management unit 63 and transmitted to the cloud system 20 under the control of the cloud communication control unit 32 (step S505).

事業者システム60から送信された作業従事者の状況確認結果が、クラウドシステム20の事業者通信制御部32にて受信されると(ステップS506)、受信された作業従事者の状況確認結果が事業者システム生産管理情報31として保存される(ステップS507)。 When the worker status check result sent from the business operator system 60 is received by the business operator communication control unit 32 of the cloud system 20 (step S506), the received worker status check result is stored as business operator system production management information 31 (step S507).

そして、受信された作業従事者の状況確認結果において、作業従事者の心身に異常がない場合は(ステップS508)、予測精度が不良であることになるため、予測精度が「不良」に設定される(ステップS509)。 If the received worker status check result indicates that the worker has no physical or mental abnormalities (step S508), the prediction accuracy is poor, and the prediction accuracy is set to "poor" (step S509).

一方、受信された作業従事者の状況確認結果において、作業従事者の心身に異常がある場合は予測精度が良であることになるため、予測精度が「良」に設定される(ステップS510)。 On the other hand, if the received worker status check result indicates that the worker has a mental or physical abnormality, the prediction accuracy is set to "good" (step S510).

ここで、クラウドシステム20における作業従事者の心身の不調の判断は、第2心身異常予測部41bにおける心身異常モデル41cを用いたものと、第1心身異常予測部41aにおけるしきい値判定によるものとがある。ここで、作業従事者の心身の異常の予測を対象としており、その作業従事者の心身の異常が日常的に発生するようなものでないため、必ずしも十分な学習データが早期に得られるとは言えない。本態様では、そのような事情を考慮し、心身異常予測モデルの予測精度の良否を管理し、その予測精度が良ければ心身異常予測モデルによる予測結果を利用し、予測精度が良くなければバイタル情報の指標値を閾値と比較することによる予測結果を利用する。 Here, the mental and physical disorders of workers in the cloud system 20 are judged either by using the mental and physical abnormality model 41c in the second mental and physical abnormality prediction unit 41b or by threshold judgment in the first mental and physical abnormality prediction unit 41a. Here, the target is to predict mental and physical abnormalities of workers, and since mental and physical abnormalities of workers do not occur on a daily basis, it cannot necessarily be said that sufficient learning data can be obtained early. In this embodiment, taking such circumstances into consideration, the prediction accuracy of the mental and physical abnormality prediction model is managed, and if the prediction accuracy is good, the prediction result by the mental and physical abnormality prediction model is used, and if the prediction accuracy is not good, the prediction result obtained by comparing the index value of vital information with a threshold is used.

すなわち、予測制御部44において、実績情報に基づき心身異常予測モデル41cによる予測精度の良否を設定し、予測精度が良に設定されていれば第2心身異常予測部41bによる予測結果を事業者システム60に提供し、予測精度が不良に設定されていれば第1心身異常予測部41aによる予測結果を事業者システム60に提供するというように、予測精度の良否に基づいて予測部を切り替える。これにより、十分な学習データが得られているときとそうでないときのいずれにおいても、適切な予測を可能にする。 In other words, the prediction control unit 44 sets the prediction accuracy of the mental and physical abnormality prediction model 41c based on performance information, and if the prediction accuracy is set to good, the prediction result of the second mental and physical abnormality prediction unit 41b is provided to the business operator system 60, and if the prediction accuracy is set to poor, the prediction result of the first mental and physical abnormality prediction unit 41a is provided to the business operator system 60. In this way, the prediction unit is switched based on the prediction accuracy. This makes it possible to make appropriate predictions whether or not sufficient learning data has been obtained.

また、本態様では、作業従事者の心身の異常を画像から直接予測するのではなく、一旦バイタル情報を算出し、そのバイタル情報に基づいて心身の異常を予測するので、バイタル情報の指標値を閾値と比較する比較的単純な予測手法の方も、バイタル情報と作業従事者の心身の状態との関係に関する既存の知見を利用して実用に十分な精度の予測が可能である。 In addition, in this embodiment, mental and physical abnormalities of workers are not predicted directly from images, but vital information is first calculated and mental and physical abnormalities are predicted based on that vital information. Therefore, even a relatively simple prediction method that compares an index value of vital information with a threshold value can make predictions with sufficient accuracy for practical use by utilizing existing knowledge regarding the relationship between vital information and the mental and physical state of workers.

また、クラウドシステム20において、予測精度が不良に設定されている間にも第2心身異常予測部41bが心身異常予測モデル41cの出力から作業従事者の心身の異常の予測の結果を取得し、第1心身異常予測部41aにて心身の異常が予測されたときに得られる実績情報を、第2心身異常予測部41bによる予測の結果と照合して予測精度の良否を設定する。これにより、第1心身異常予測部41aによる予測結果を用いている間に第2心身異常予測部41bによる予測精度を判定し、設定することが可能となる。 In addition, in the cloud system 20, even while the prediction accuracy is set to poor, the second mental and physical abnormality prediction unit 41b obtains the results of the prediction of the worker's mental and physical abnormality from the output of the mental and physical abnormality prediction model 41c, and sets the quality of the prediction accuracy by comparing the performance information obtained when the first mental and physical abnormality prediction unit 41a predicts a mental and physical abnormality with the prediction results by the second mental and physical abnormality prediction unit 41b. This makes it possible to determine and set the prediction accuracy by the second mental and physical abnormality prediction unit 41b while using the prediction results by the first mental and physical abnormality prediction unit 41a.

また、クラウドシステム20において、予測精度が不良に設定されている間にも第2心身異常予測部41bが心身異常予測モデル41cの出力から作業従事者の心身の異常の予測の結果を取得し、第1心身異常予測部41aにて不調が予測されたときに得られる実績情報を、第2心身異常予測部41bによる予測の結果と組み合わせて学習データとする。これにより、第1心身異常予測部41aによる予測結果を用いている間に心身異常予測モデル41cの学習を行うことができる。 In addition, in the cloud system 20, even while the prediction accuracy is set to poor, the second mental and physical abnormality prediction unit 41b obtains the results of prediction of the worker's mental and physical abnormality from the output of the mental and physical abnormality prediction model 41c, and the performance information obtained when the first mental and physical abnormality prediction unit 41a predicts illness is combined with the prediction results by the second mental and physical abnormality prediction unit 41b to create learning data. This allows the mental and physical abnormality prediction model 41c to be trained while using the prediction results by the first mental and physical abnormality prediction unit 41a.

次に、心身異常予測モデル41cを作成する際の処理について説明する。 Next, we will explain the process for creating the mental and physical abnormality prediction model 41c.

図12は、図1に示した作業従事者管理システムにおいて心身異常予測モデル41cを作成する際の処理を説明するためのフローチャートである。 Figure 12 is a flowchart for explaining the process of creating the mental and physical abnormality prediction model 41c in the worker management system shown in Figure 1.

クラウドシステム20のAIサーバ40においては、図9のステップS305にて保存された、バイタル情報および動作情報、並びに心身の異常発生実績および予測精度に基づいて、機械学習によって心身異常予測モデル41cが作成される(ステップS601,S602)。バイタル情報および動作情報は、作業従事者の属性情報27として保存された情報が参照され、心身の異常発生実績は、事業者システム生産管理情報31に保存された過去の心身の異常発生実績が参照され、予測精度は、図11にて設定された予測精度が参照される。 In the AI server 40 of the cloud system 20, a mental and physical abnormality prediction model 41c is created by machine learning based on the vital sign information and movement information, as well as the mental and physical abnormality occurrence history and prediction accuracy stored in step S305 of FIG. 9 (steps S601, S602). For the vital sign information and movement information, information stored as the worker's attribute information 27 is referenced, for the mental and physical abnormality occurrence history, past mental and physical abnormality occurrence history stored in the business operator system production management information 31 is referenced, and for the prediction accuracy, the prediction accuracy set in FIG. 11 is referenced.

その後、心身異常予測モデル41cが作成されると、図9のステップS301における処理に移行する。 After that, once the mental and physical abnormality prediction model 41c has been created, the process proceeds to step S301 in FIG. 9.

次に、作業不良予測モデル42aを作成する際の処理について説明する。 Next, we will explain the process for creating the work defect prediction model 42a.

図13は、図1に示した作業従事者管理システムにおいて作業不良予測モデル42aを作成する際の処理を説明するためのフローチャートである。 Figure 13 is a flowchart for explaining the process for creating the work defect prediction model 42a in the worker management system shown in Figure 1.

クラウドシステム20のAIサーバ40においては、図9のステップS305にて保存された、バイタル情報および動作情報、並びに不良発生実績、予測精度および不良発生時の周辺の動画に基づいて、機械学習によって作業不良予測モデル42aが作成される(ステップS701,S702)。 In the AI server 40 of the cloud system 20, a work defect prediction model 42a is created by machine learning based on the vital signs and operation information stored in step S305 of FIG. 9, as well as the defect occurrence history, prediction accuracy, and video of the surrounding area at the time of defect occurrence (steps S701 and S702).

バイタル情報および動作情報は、作業従事者の属性情報27として保存された情報が参照され、不良発生実績は、事業者システム生産管理情報31に保存された過去の不良発生実績が参照され、予測精度は、図11にて設定された予測精度が参照され、不良発生時の周辺の動画は、データ保存領域26に保存された動画が参照される。この際、動作情報として、作業従事者の属性情報27として保存された情報が参照されるが、この動作情報は、例えば、モーションキャプチャを用いて取得された作業従事者の各関節を含むポイントの位置により動作を表す情報である。 For vital information and movement information, information stored as worker attribute information 27 is referenced, for defect occurrence records, past defect occurrence records stored in business operator system production management information 31 are referenced, for prediction accuracy, the prediction accuracy set in FIG. 11 is referenced, and for video of the surrounding area at the time of defect occurrence, video stored in data storage area 26 is referenced. At this time, information stored as worker attribute information 27 is referenced as movement information, and this movement information is, for example, information that represents the movement by the positions of points including each of the worker's joints obtained using motion capture.

このように、事象予測モデルが、バイタル情報と、作業従事者の複数の関節の位置により表される動作情報とを入力として含むことで、作業従事者による良好な作業の維持管理をすることが可能となる。また、事象予測モデルは、更に、作業従事者の周辺の画像を入力として含んでいてもよい。例えば、作業従事者の周辺に邪魔な物が置かれていれば、画像にその物が写り込む。その場合、事象予測モデルの予測には、作業従事者の周辺に置かれた物と事象の発生との相関が反映される。 In this way, the event prediction model includes as inputs vital information and motion information represented by the positions of multiple joints of the worker, making it possible to maintain and manage good work by the worker. The event prediction model may also include as inputs an image of the worker's surroundings. For example, if an obstructive object is placed near the worker, that object will appear in the image. In this case, the predictions of the event prediction model reflect the correlation between the objects placed near the worker and the occurrence of an event.

その後、作業不良予測モデル42aが作成されると、図9のステップS301における処理に移行する。 After that, once the work defect prediction model 42a has been created, the process proceeds to step S301 in FIG. 9.

次に、作業従事者のバイタル情報および動作情報に応じたアドバイスを生成する際の処理について説明する。 Next, we will explain the process for generating advice based on a worker's vital signs and movement information.

図14は、図1に示した作業従事者管理システムにおいて作業従事者のバイタル情報および動作情報に応じたアドバイスを生成する際の処理を説明するためのフローチャートである。 Figure 14 is a flowchart to explain the process of generating advice based on vital information and movement information of a worker in the worker management system shown in Figure 1.

クラウドシステム20のAIサーバ40においては、図9のステップS305にて保存された、バイタル情報および動作情報、並びに不良発生実績、予測精度および不良発生時の周辺の動画に基づいて、機械学習によって、これらバイタル情報などと作業品質とを対応づけたアドバイスデータベース48が作成される(ステップS801,S802)。バイタル情報および動作情報は、作業従事者の属性情報27として保存された情報が参照され、不良発生実績は、事業者システム生産管理情報31に保存された過去の不良発生実績が参照され、予測精度は、図11にて設定された予測精度が参照され、不良発生時の周辺の動画は、データ保存領域26に保存された動画が参照される。 In the AI server 40 of the cloud system 20, an advice database 48 is created by machine learning based on the vital information and operation information, as well as the defect occurrence history, prediction accuracy, and surrounding video at the time of defect occurrence, stored in step S305 of FIG. 9, in which the vital information and operation information are associated with work quality (steps S801, S802). For the vital information and operation information, information stored as the worker's attribute information 27 is referenced, for the defect occurrence history, past defect occurrence history stored in the business operator system production management information 31 is referenced, for the prediction accuracy, the prediction accuracy set in FIG. 11 is referenced, and for the surrounding video at the time of defect occurrence, the video stored in the data storage area 26 is referenced.

その後、アドバイスデータベース48が作成されると、図9のステップS301における処理に移行する。 After that, once the advice database 48 has been created, the process proceeds to step S301 in FIG. 9.

このように、作業従事者のバイタル情報および動作情報に応じたアドバイスを生成するので、作業従事者の作業のより効果的な維持管理を支援することができる。例えば、作業従事者の作業にてヒヤリハットが予測されるときにヒヤリハットあるいはそれによる事故を未然に防止するためのアドバイスを作業従事者に通知できる。ヒヤリハットは、重大な事故が起こる前の事象である。また、上記ステップS801にて、過去の不良発生実績の代わりに、あるいは過去の不良発生実績に加えて、過去の作業が良好に行われた実績の情報(不図示)を加えて機械学習することにより、バイタル情報と作業品質とを対応づけることにしてもよい。これにより、より良い作業(ベストプラクティス)を行うためのアドバイスを作業従事者に通知できるようになる。 In this way, advice is generated according to the worker's vital information and motion information, which can support more effective maintenance and management of the worker's work. For example, when a near miss is predicted during the worker's work, the worker can be notified of advice to prevent the near miss or an accident resulting from it. A near miss is an event that occurs before a serious accident occurs. Furthermore, in step S801 above, vital information and work quality can be associated by machine learning by adding information on past records of well-performed work (not shown) instead of or in addition to past records of defective occurrences. This makes it possible to notify the worker of advice for performing better work (best practices).

次に、AIを用いて作業従事者の心身の異常を検知する処理について説明する。 Next, we will explain the process of using AI to detect mental and physical abnormalities in workers.

図15は、図1に示した作業従事者管理システムにおいてAIを用いて作業従事者の心身の異常を検知する処理を説明するためのフローチャートである。 Figure 15 is a flowchart to explain the process of detecting mental and physical abnormalities of workers using AI in the worker management system shown in Figure 1.

クラウドシステム20の労務管理制御部28においては、図9のステップS305にて保存されたバイタル情報と動作情報とから、既存のシステムに連携した作業工程情報と心身異常予測モデル41cとを用いて、作業従事者の心身の異常の発生の予測が行われる(ステップS901)。 In the labor management control unit 28 of the cloud system 20, the occurrence of mental and physical abnormalities of workers is predicted based on the vital information and movement information stored in step S305 of FIG. 9, using work process information linked to the existing system and the mental and physical abnormality prediction model 41c (step S901).

そして、作業従事者の心身の異常の発生が予測される場合(ステップS902)、作業従事者の心身の異常が予測された旨が事業者通信制御部32の制御によって事業者システム60に通知される(ステップS903)。 If the occurrence of a mental or physical abnormality in the worker is predicted (step S902), the operator system 60 is notified of the prediction of a mental or physical abnormality in the worker under the control of the operator communication control unit 32 (step S903).

そして、作業従事者の心身の異常が予測された旨が事業者通信制御部32の制御によって事業者システム60に通知された後、または作業従事者の心身の異常の発生が予測されない場合、図9のステップS301における処理に移行する。 Then, after the operator system 60 is notified by the control of the operator communication control unit 32 that a mental or physical abnormality of the worker has been predicted, or if no mental or physical abnormality of the worker is predicted, the process proceeds to step S301 in FIG. 9.

次に、AIを用いて作業不良やミスを予測する処理について説明する。 Next, we will explain the process of using AI to predict work defects and mistakes.

図16は、図1に示した作業従事者管理システムにおいてAIを用いて作業不良やミスを予測する処理を説明するためのフローチャートである。 Figure 16 is a flowchart to explain the process of predicting work defects and errors using AI in the worker management system shown in Figure 1.

クラウドシステム20の労務管理制御部28においては、図9のステップS305にて保存されたバイタル情報と動画とから、既存のシステムに連携した作業工程情報と作業不良モデル42aとを用いて、作業不良の発生の予測が行われる(ステップS1001)。 In the labor management control unit 28 of the cloud system 20, the occurrence of work defects is predicted based on the vital sign information and video stored in step S305 of FIG. 9, using the work process information linked to the existing system and the work defect model 42a (step S1001).

そして、作業不良の発生が予測される場合(ステップS1002)、作業従事者の作業不良の発生が予測された旨が事業者通信制御部32の制御によって事業者システム60に通知される(ステップS1003)。 If a work defect is predicted (step S1002), the operator system 60 is notified by the control of the operator communication control unit 32 that a work defect by the worker is predicted (step S1003).

そして、作業従事者の作業不良の発生が予測された旨が事業者通信制御部32の制御によって事業者システム60に通知された後、または作業従事者の作業不良の発生が予測されない場合、図9のステップS301における処理に移行する。 Then, after the operator system 60 is notified by the control of the operator communication control unit 32 that a work defect by the worker is predicted, or if a work defect by the worker is not predicted, the process proceeds to step S301 in FIG. 9.

このように、作業従事者の心身の異常に加え、作業従事者の作業の不良も予測するので、作業従事者の作業のより効果的な維持管理を支援することができる。 In this way, in addition to predicting mental and physical abnormalities of workers, defects in the work of workers can also be predicted, which can support more effective maintenance and management of the work of workers.

次に、事業者システム60にて作業従事者のバイタル情報などを確認する処理について説明する。 Next, we will explain the process of checking workers' vital signs and other information in the business operator system 60.

図17は、図1に示した作業従事者管理システムの事業者システム60にて作業従事者のバイタル情報などを確認する処理を説明するためのフローチャートである。 Figure 17 is a flowchart to explain the process of checking vital signs and other information of workers in the operator system 60 of the worker management system shown in Figure 1.

図1に示した作業従事者管理システムの事業者システム60にて作業従事者のバイタル情報などを確認する場合は、事業者システム60のクラウド通信制御部61の制御によってクラウドシステム20に対するアクセスが行われ、労務状況管理部63からバイタル情報および画像の収集が要求され(ステップS1101)、この要求がクラウドシステム20の事業者通信制御部32にて受信されると(ステップS1102)、クラウドシステム20の労務管理制御部28において、バイタル情報および画像、ならびにアドバイスデータがある場合はアドバイスデータが取得され(ステップ1103)、事業者通信制御部32の制御によって、これらのデータが事業者システム60に送信される(ステップS1104)。 When checking a worker's vital signs and other information in the operator system 60 of the worker management system shown in FIG. 1, the cloud system 20 is accessed under the control of the cloud communication control unit 61 of the operator system 60, and the labor status management unit 63 requests the collection of vital signs and images (step S1101). When this request is received by the operator communication control unit 32 of the cloud system 20 (step S1102), the labor management control unit 28 of the cloud system 20 obtains the vital signs and images, as well as advice data if available (step 1103), and these data are sent to the operator system 60 under the control of the operator communication control unit 32 (step S1104).

クラウドシステム20から送信されたバイタル情報および画像が事業者システム60のクラウド通信制御部61にて受信されると(ステップS1105)、これらのデータがデータ保存領域62に保存される(ステップS1106)。 When the vital information and images sent from the cloud system 20 are received by the cloud communication control unit 61 of the business operator system 60 (step S1105), these data are stored in the data storage area 62 (step S1106).

また、労務状況管理部63において、クラウドシステム20から送信されたバイタル情報および画像が表示される(ステップS1107)。 The labor status management unit 63 also displays the vital signs information and images sent from the cloud system 20 (step S1107).

次に、作業従事者に対して作業に関する注意点などをプッシュ配信する処理について説明する。 Next, we will explain the process of pushing work-related precautions and other information to workers.

図18は、図1に示した作業従事者管理システムにおいて作業従事者に対して作業に関する注意点などをプッシュ配信する処理を説明するためのフローチャートである。 Figure 18 is a flowchart to explain the process of pushing work-related precautions and other information to workers in the worker management system shown in Figure 1.

クラウドシステム20の労務管理制御部28においては、図9のステップS305にて保存されたバイタル情報と動画とから、該当する工程での心がけや行動となるアドバイスとベストプラクティス動画が抽出される(ステップS1201)。これは、作業従事者の属性情報27と、既存システムと連携した作業工程情報と、作業不良予測モデル42aと、アドバイスデータベース48が参照される。 In the labor management control unit 28 of the cloud system 20, advice and best practice videos that are to be considered as attitudes and actions for the corresponding process are extracted from the vital information and videos saved in step S305 of FIG. 9 (step S1201). This is done by referring to the worker attribute information 27, work process information linked to the existing system, the work defect prediction model 42a, and the advice database 48.

アドバイスとベストプラクティス動画が抽出されると、これらの情報が作業従事者通信制御部30の制御によってモバイル端末50に送信される(ステップS1202)。 Once the advice and best practice video have been extracted, this information is sent to the mobile terminal 50 under the control of the worker communication control unit 30 (step S1202).

クラウドシステム20から送信されたアドバイスとベストプラクティス動画がモバイル端末50のクラウド通信制御部51にて受信された後(ステップS1203)、受信されたアドバイスとベストプラクティス動画が情報表示部52にて表示される(ステップS1204)。 After the advice and best practice video sent from the cloud system 20 are received by the cloud communication control unit 51 of the mobile terminal 50 (step S1203), the received advice and best practice video are displayed on the information display unit 52 (step S1204).

次に、作業従事者が自身のモバイル端末50を用いてバイタル傾向などを確認する処理について説明する。 Next, we will explain the process by which workers check vital signs trends using their own mobile terminals 50.

図19は、図1に示した作業従事者管理システムにおいて、作業従事者が自身のモバイル端末50を用いてバイタル傾向などを確認する処理を説明するためのフローチャートである。 Figure 19 is a flowchart to explain the process by which a worker checks vital signs trends and the like using his or her own mobile terminal 50 in the worker management system shown in Figure 1.

図1に示した作業従事者管理システムにおいて作業従事者が自身のバイタル情報などを確認する場合は、モバイル端末50を用いてモバイル端末50のクラウド通信制御部51の制御によってクラウドシステム20に対するアクセスが行われ、バイタル情報などの傾向確認が要求され(ステップS1301)、この要求がクラウドシステム20の作業従事者通信制御部30にて受信されると(ステップS1302)、クラウドシステム20の情報提供制御部29において、バイタル情報および画像、ならびにアドバイスデータがある場合はアドバイスデータが取得され(ステップ1303)、作業従事者通信制御部30の制御によって、これらのデータによって示される、作業従事者の傾向を示す傾向情報がモバイル端末5に送信される(ステップS1304)。 When a worker checks his/her own vital signs in the worker management system shown in FIG. 1, the cloud system 20 is accessed using the mobile terminal 50 under the control of the cloud communication control unit 51 of the mobile terminal 50, and a request is made to check the trends of the vital signs (step S1301). When this request is received by the worker communication control unit 30 of the cloud system 20 (step S1302), the information provision control unit 29 of the cloud system 20 acquires the vital signs and images, as well as advice data if available (step 1303), and trend information showing the worker's tendencies as indicated by these data is transmitted to the mobile terminal 5 under the control of the worker communication control unit 30 (step S1304).

クラウドシステム20から送信された作業従事者の傾向を示す傾向情報がモバイル端末50のクラウド通信制御部51にて受信された後(ステップS1305)、受信された傾向情報が情報表示部52にて表示される(ステップS1306)。 After the trend information indicating the worker's tendencies transmitted from the cloud system 20 is received by the cloud communication control unit 51 of the mobile terminal 50 (step S1305), the received trend information is displayed on the information display unit 52 (step S1306).

このように、本実施形態では、クラウドシステム20が、モバイル端末50からの要求を受け、作業従事者の過去のバイタル情報と作業品質との相関に基づく作業従事者の作業における傾向情報を生成し、該傾向を示す傾向情報をモバイル端末50に送信する。これにより、より効果的な作業従事者による作業の維持管理を支援することができる。 In this manner, in this embodiment, the cloud system 20 receives a request from the mobile terminal 50, generates trend information on the work of the worker based on the correlation between the worker's past vital information and the work quality, and transmits the trend information indicating the trend to the mobile terminal 50. This makes it possible to support more effective maintenance and management of the work performed by the worker.

作業従事者の作業における傾向は、例えば、作業従事者のバイタル情報が特定の条件を満たすとき、ベストプラクティスを発揮できる可能性が高いといった情報である。あるいは、例えば、作業従事者のバイタル情報が特定の条件を満たすとき、ヒヤリハットが起こる可能性があるといった情報である。 A trend in the work of a worker is, for example, information that indicates that there is a high possibility of demonstrating best practices when the worker's vital signs meet certain conditions. Or, for example, information that indicates that there is a high possibility of a near miss occurring when the worker's vital signs meet certain conditions.

上述したように本実施形態においては、事象予測モデルにより作業従事者に関する所定事象の発生を予測し、作業従事者へ確認し、確認の結果を事象予測モデルの学習データとして反映するので、作業従事者による良好な作業の維持管理をすることが可能となる。 As described above, in this embodiment, the occurrence of a specific event related to a worker is predicted using an event prediction model, the worker is confirmed, and the confirmation result is reflected as learning data for the event prediction model, making it possible to maintain and manage good work by the worker.

以上、本発明の実施形態について述べてきたが、本発明は、これらの実施形態だけに限定されるものではなく、本発明の技術思想の範囲内において、これらの実施形態を組み合わせて使用したり、一部の構成を変更したりしてもよい。 Although the embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and these embodiments may be used in combination or some of the configuration may be changed within the scope of the technical concept of the present invention.

10…動画撮影装置、11…カメラ、12,22…CPU、13,23…メモリ、14,24…顔認証制御部、15…動画バイタル制御部、16,25…行動解析制御部、17,51,61…クラウド通信制御部、18…カメラ画像制御部、19,26,62…データ保存領域、20…クラウドシステム、21…動画撮影装置通信制御部、27…作業従事者の属性情報、28…労務管理制御部、29…情報提供制御部、30…作業従事者通信制御部、31…事業者システム生産管理情報、32…事業者通信制御部、40…AIサーバ、41…心身異常予測部、41a…第1心身異常予測部、42a…第2心身異常予測部、41c…心身異常予測モデル、42…作業不良予測部、42a…作業不良予測モデル、43…作業状態予測部、44…予測制御部、45,46…学習部、47…アドバイス部、48…データベース、50…モバイル端末、52…情報表示部、60…事業者システム、63…労務状況管理部、64…業務管理システム 10...Video recording device, 11...Camera, 12, 22...CPU, 13, 23...Memory, 14, 24...Facial recognition control unit, 15...Video vitals control unit, 16, 25...Behavioral analysis control unit, 17, 51, 61...Cloud communication control unit, 18...Camera image control unit, 19, 26, 62...Data storage area, 20...Cloud system, 21...Video recording device communication control unit, 27...Worker attribute information, 28...Labor management control unit, 29...Information provision control unit, 30...Worker communication control unit, 31...Business operator system System production management information, 32...Business operator communication control unit, 40...AI server, 41...Mental and physical abnormality prediction unit, 41a...First mental and physical abnormality prediction unit, 42a...Second mental and physical abnormality prediction unit, 41c...Mental and physical abnormality prediction model, 42...Work defect prediction unit, 42a...Work defect prediction model, 43...Work status prediction unit, 44...Prediction control unit, 45, 46...Learning unit, 47...Advice unit, 48...Database, 50...Mobile terminal, 52...Information display unit, 60...Business operator system, 63...Labor status management unit, 64...Business management system

Claims (4)

作業に従事する作業従事者の動画を撮影する撮影装置と、
前記撮影された動画から得られる前記作業従事者のバイタル情報と前記作業従事者の複数の関節の位置により表される動作情報とに基づいて前記作業従事者に関する所定事象の発生を予測する処理装置と、
前記所定事象の発生が予測された旨を提示する管理装置と、を有し、
前記処理装置は、学習データを学習することにより、作業従事者のバイタル情報と動作情報とを入力とし作業従事者に関する心身の異常の発生の予測結果を出力とする心身異常予測モデルを生成し、該心身異常予測モデルを用いて前記作業従事者に関する心身の異常の発生を予測し、
前記管理装置は、前記予測された心身の異常が発生したか否かを表す実績情報を前記作業従事者から取得し、該実績情報を前記学習データに加えるデータとして前記処理装置に提供する、ものであり、
前記処理装置は、
前記心身異常予測モデルを用いずに、前記バイタル情報の指標値を所定のしきい値と比較した結果と、前記動作情報とに基づいて、前記作業従事者の心身の異常の発生を予測する第1心身異常予測部と、
前記バイタル情報および前記動作情報を前記心身異常予測モデルに入力し、前記心身異常予測モデルの出力から、前記作業従事者の心身の異常の発生の予測の結果を取得する第2心身異常予測部と、
前記実績情報を第2心身異常予測部による予測の結果と照合して前記心身異常予測モデルによる予測精度の良否を定め、前記予測精度が良であれば前記第2心身異常予測部による予測結果を前記管理装置に提供し、前記予測精度が良でなければ前記第1心身異常予測部による予測結果を前記管理装置に提供する予測制御部と、
を有し、
前記予測精度が良でない間にも前記第2心身異常予測部が前記心身異常予測モデルの出力から前記作業従事者の心身の異常の予測の結果を取得し、前記第1心身異常予測部にて心身の異常が予測されたときに得られる実績情報を、前記第2心身異常予測部による予測の結果と照合して前記予測精度の良否を定め、前記実績情報を、前記バイタル情報および前記動作情報と組み合わせて前記学習データとする、
作業従事者管理支援システム。
A camera for taking video of workers engaged in work;
a processing device that predicts the occurrence of a predetermined event related to the worker based on vital information of the worker obtained from the captured video and motion information represented by positions of a plurality of joints of the worker ;
a management device that indicates that the occurrence of the predetermined event is predicted,
The processing device learns the learning data to generate a mental and physical abnormality prediction model that receives the worker's vital information and motion information as input and outputs a prediction result of the occurrence of mental and physical abnormalities related to the worker, and predicts the occurrence of mental and physical abnormalities related to the worker using the mental and physical abnormality prediction model;
the management device acquires performance information indicating whether the predicted mental and physical abnormality has occurred from the worker, and provides the performance information to the processing device as data to be added to the learning data;
The processing device includes:
a first mental and physical abnormality prediction unit that predicts the occurrence of a mental and physical abnormality of the worker based on a result of comparing an index value of the vital information with a predetermined threshold value and the motion information without using the mental and physical abnormality prediction model;
a second mental and physical abnormality prediction unit that inputs the vital information and the motion information into the mental and physical abnormality prediction model and obtains a prediction result of the occurrence of a mental and physical abnormality of the worker from an output of the mental and physical abnormality prediction model;
a prediction control unit that compares the performance information with a result of prediction by a second mental and physical abnormality prediction unit to determine whether the prediction accuracy by the mental and physical abnormality prediction model is good or bad, and if the prediction accuracy is good, provides the prediction result by the second mental and physical abnormality prediction unit to the management device, and if the prediction accuracy is not good, provides the prediction result by the first mental and physical abnormality prediction unit to the management device;
having
Even while the prediction accuracy is not good, the second mental and physical abnormality prediction unit obtains a prediction result of the mental and physical abnormality of the worker from the output of the mental and physical abnormality prediction model, and determines whether the prediction accuracy is good or bad by comparing performance information obtained when a mental and physical abnormality is predicted by the first mental and physical abnormality prediction unit with the prediction result by the second mental and physical abnormality prediction unit, and combines the performance information with the vital information and the motion information to form the learning data.
Worker management support system.
前記処理装置は、作業従事者のバイタル情報および動作情報を入力とし作業従事者による作業の不良の発生の予測結果を出力とする作業不良予測モデルに、前記バイタル情報および前記動作情報を入力し、前記作業不良予測モデルの出力から、前記作業従事者による作業の不良の発生の予測の結果を取得する作業不良予測部を更に有する、
請求項に記載の作業従事者管理支援システム。
The processing device further includes a work defect prediction unit that inputs vital information and motion information of a worker into a work defect prediction model that inputs the vital information and motion information of a worker and outputs a prediction result of the occurrence of work defects by the worker, and obtains a prediction result of the occurrence of work defects by the worker from the output of the work defect prediction model.
2. The worker management support system according to claim 1 .
前記処理装置がクラウド上に実現される、
請求項1に記載の作業従事者管理支援システム。
The processing device is realized on a cloud.
2. The worker management support system according to claim 1.
撮影装置で撮影された作業に従事する作業従事者の動画から得られる前記作業従事者のバイタル情報と前記作業従事者の複数の関節の位置により表される動作情報とに基づいて前記作業従事者に関する所定事象の発生を予測し、前記所定事象の発生が予測された旨を提示するコンピュータシステムが、A computer system for predicting the occurrence of a predetermined event related to a worker based on vital information of the worker obtained from a video of the worker engaged in work captured by a camera device and motion information represented by positions of a plurality of joints of the worker, and presenting a message indicating that the occurrence of the predetermined event has been predicted, comprising:
学習データを学習することにより、作業従事者のバイタル情報と動作情報とを入力とし作業従事者に関する心身の異常の発生の予測結果を出力とする心身異常予測モデルを生成し、該心身異常予測モデルを用いて前記作業従事者に関する心身の異常の発生を予測し、By learning the learning data, a mental and physical abnormality prediction model is generated, which inputs the vital information and movement information of the worker and outputs a prediction result of the occurrence of mental and physical abnormalities related to the worker, and predicts the occurrence of mental and physical abnormalities related to the worker using the mental and physical abnormality prediction model;
前記予測された心身の異常が発生したか否かを表す実績情報を前記作業従事者から取得し、該実績情報を前記学習データに加えるデータとして提供する、方法であり、acquiring performance information from the worker indicating whether the predicted mental and physical abnormality has occurred, and providing the performance information as data to be added to the learning data,
前記心身異常予測モデルを用いずに、前記バイタル情報の指標値を所定のしきい値と比較した結果と、前記動作情報とに基づいて、前記作業従事者の心身の異常の発生を予測する第1予測処理と、a first prediction process for predicting the occurrence of a mental or physical abnormality of the worker based on a result of comparing an index value of the vital information with a predetermined threshold value and the motion information without using the mental or physical abnormality prediction model;
前記バイタル情報および前記動作情報を前記心身異常予測モデルに入力し、前記心身異常予測モデルの出力から、前記作業従事者の心身の異常の発生の予測の結果を取得する第2予測処理とが可能であり、a second prediction process for inputting the vital information and the movement information into the mental and physical abnormality prediction model and obtaining a prediction result of the occurrence of a mental and physical abnormality of the worker from an output of the mental and physical abnormality prediction model;
前記実績情報を第2予測処理による予測の結果と照合して前記心身異常予測モデルによる予測精度の良否を定め、前記予測精度が良であれば前記第2予測処理による予測結果を提供し、前記予測精度が良でなければ前記第1予測処理による予測結果を提供し、The performance information is compared with the result of the prediction by the second prediction process to determine whether the prediction accuracy by the mental and physical abnormality prediction model is good or bad, and if the prediction accuracy is good, the prediction result by the second prediction process is provided, and if the prediction accuracy is not good, the prediction result by the first prediction process is provided;
前記予測精度が良でない間にも前記第2予測処理として前記心身異常予測モデルの出力から前記作業従事者の心身の異常の予測の結果を取得し、前記第1予測処理にて心身の異常が予測されたときに得られる実績情報を、前記第2予測処理による予測の結果と照合して前記予測精度の良否を定め、前記実績情報を、前記バイタル情報および前記動作情報と組み合わせて前記学習データとする、Even when the prediction accuracy is not good, a prediction result of the mental and physical abnormality of the worker is obtained from the output of the mental and physical abnormality prediction model as the second prediction process, and performance information obtained when a mental and physical abnormality is predicted in the first prediction process is compared with the prediction result by the second prediction process to determine whether the prediction accuracy is good or bad, and the performance information is combined with the vital information and the motion information to form the learning data.
作業従事者管理支援方法。Methods for supporting worker management.
JP2020193788A 2020-11-20 2020-11-20 Worker management support system and worker management support processing method Active JP7572843B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020193788A JP7572843B2 (en) 2020-11-20 2020-11-20 Worker management support system and worker management support processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020193788A JP7572843B2 (en) 2020-11-20 2020-11-20 Worker management support system and worker management support processing method

Publications (2)

Publication Number Publication Date
JP2022082304A JP2022082304A (en) 2022-06-01
JP7572843B2 true JP7572843B2 (en) 2024-10-24

Family

ID=81801848

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020193788A Active JP7572843B2 (en) 2020-11-20 2020-11-20 Worker management support system and worker management support processing method

Country Status (1)

Country Link
JP (1) JP7572843B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000354943A (en) 1999-06-09 2000-12-26 Nippon Telegr & Teleph Corp <Ntt> Work management / support method, device and recording medium for recording program
JP2019527878A (en) 2016-06-23 2019-10-03 スリーエム イノベイティブ プロパティズ カンパニー Personal protective equipment system with analysis engine that integrates monitoring, alert generation, and predictive safety event avoidance
WO2020013060A1 (en) 2018-07-09 2020-01-16 パナソニックIpマネジメント株式会社 Bidirectional video communication system and operator management method therefor
JP2020027324A (en) 2018-08-09 2020-02-20 株式会社東芝 Analysis system, analysis method, program, and storage medium
JP2020052758A (en) 2018-09-27 2020-04-02 本田技研工業株式会社 Motion capture device
JP2020149150A (en) 2019-03-11 2020-09-17 三菱電機株式会社 Health management support device, health management support system, health management support method, and health management support program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11154231A (en) * 1997-11-21 1999-06-08 Toshiba Corp Pattern recognition dictionary learning method, pattern recognition dictionary creation method, pattern recognition dictionary learning device, pattern recognition dictionary creation device, pattern recognition method, and pattern recognition device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000354943A (en) 1999-06-09 2000-12-26 Nippon Telegr & Teleph Corp <Ntt> Work management / support method, device and recording medium for recording program
JP2019527878A (en) 2016-06-23 2019-10-03 スリーエム イノベイティブ プロパティズ カンパニー Personal protective equipment system with analysis engine that integrates monitoring, alert generation, and predictive safety event avoidance
WO2020013060A1 (en) 2018-07-09 2020-01-16 パナソニックIpマネジメント株式会社 Bidirectional video communication system and operator management method therefor
JP2020027324A (en) 2018-08-09 2020-02-20 株式会社東芝 Analysis system, analysis method, program, and storage medium
JP2020052758A (en) 2018-09-27 2020-04-02 本田技研工業株式会社 Motion capture device
JP2020149150A (en) 2019-03-11 2020-09-17 三菱電機株式会社 Health management support device, health management support system, health management support method, and health management support program

Also Published As

Publication number Publication date
JP2022082304A (en) 2022-06-01

Similar Documents

Publication Publication Date Title
Baghdadi et al. Monitoring worker fatigue using wearable devices: A case study to detect changes in gait parameters
US12062441B2 (en) Personal protective equipment and safety management system having active worker sensing and assessment
US10037821B2 (en) System for integrated protocol and decision support
JP6219417B2 (en) Community-based response system
US20190180875A1 (en) Risk monitoring scores
Mohapatra et al. An appraisal of literature for design and implementation of developing a framework for digital twin and validation through case studies
CN113823396A (en) Medical equipment management method and device, computer equipment and storage medium
Pavlov et al. Case study of using virtual and augmented reality in industrial system monitoring
KR20170072451A (en) Smart care system for solitary senior people
JP7572843B2 (en) Worker management support system and worker management support processing method
CN119811606A (en) A system and method for providing inpatient services
CN119580976A (en) A hospital support platform
Wasim et al. Stress assessment based on Ergonomics coupled with image-processing tools and techniques for lean product design and development
CN118052298A (en) Cognitive intervention system based on deep learning model
Mistry The new Frontiers of AI in medicine
Dinler et al. Hybrid model used for reducing latency in smart healthcare systems
JP7773266B2 (en) Dementia and/or depression estimation AI system and training data creation method
JP7736176B2 (en) Monitoring system, information processing device, method and program
KR102823885B1 (en) Kiosk device and woker safety management methods using them
Marques et al. Modular Platform for Health and Safety Data Monitoring
Dutta et al. AIoT in Healthcare and Remote Monitoring: A Case Study
JP2023027813A (en) Information processing device, information processing method, and program
Gambo et al. Impact of IoT towards Achieving Smart Primary Healthcare Building Facilities in Gauteng, South Africa
WO2025071838A1 (en) Healthcare improvement based on composite healthcare scores
Roy et al. Adaptive Multimodal AI for Early Detection of Cognitive Decline Using Real-Time Health Data and Wearables in Aged Care

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241011

R150 Certificate of patent or registration of utility model

Ref document number: 7572843

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150