[go: up one dir, main page]

WO2021166733A1 - Information processing device, evaluation system, machine learning device, information processing method, and program - Google Patents

Information processing device, evaluation system, machine learning device, information processing method, and program Download PDF

Info

Publication number
WO2021166733A1
WO2021166733A1 PCT/JP2021/004705 JP2021004705W WO2021166733A1 WO 2021166733 A1 WO2021166733 A1 WO 2021166733A1 JP 2021004705 W JP2021004705 W JP 2021004705W WO 2021166733 A1 WO2021166733 A1 WO 2021166733A1
Authority
WO
WIPO (PCT)
Prior art keywords
evaluation
nail
information processing
image data
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2021/004705
Other languages
French (fr)
Japanese (ja)
Inventor
春香 長尾
晃汰 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
To Solutions Co Ltd
Kewpie Corp
Original Assignee
To Solutions Co Ltd
Kewpie Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by To Solutions Co Ltd, Kewpie Corp filed Critical To Solutions Co Ltd
Priority to JP2021533187A priority Critical patent/JP7164135B2/en
Publication of WO2021166733A1 publication Critical patent/WO2021166733A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the machine learning device 40 is realized by using a general-purpose computer, and includes a processor 401, a primary memory 402, a secondary memory 403, an input / output interface 404, a communication interface 405, and a bus 406.
  • the processor 401, the primary memory 402, the secondary memory 403, the input / output interface 404, and the communication interface 405 are connected to each other via the bus 406.
  • the secondary memory 403 stores a machine learning program and a learning data set.
  • the secondary memory 403 is an example of a configuration that realizes the storage unit 41.
  • a training data set is a set of a plurality of training data.
  • the processor 401 expands the machine learning program stored in the secondary memory 403 on the primary memory 402. Then, the processor 401 functions as the control unit 42 by executing each step included in the machine learning method M2 according to the instructions included in the machine learning program expanded on the primary memory 402.
  • the learning data set stored in the secondary memory 403 is created in the learning data set construction step M21 of the machine learning method M2, and is used in the trained model construction step M22 of the machine learning method M2.
  • the present embodiment employs a configuration in which the machine learning method M2 is executed using a single processor (processor 401), the present invention is not limited to this. That is, a configuration may be adopted in which the machine learning method M2 is executed using a plurality of processors. For example, a configuration may be adopted in which the training data set construction step M21 is executed in the first processor and the trained model construction step M22 is executed in the second processor.
  • a plurality of processors that collaborate to execute the machine learning method M2 may be provided in a single computer and may be configured to be able to communicate with each other via a bus, or may be distributed to a plurality of computers. It may be provided and configured to be able to communicate with each other via a network.
  • a mode in which a processor built in a computer constituting a cloud server and a processor built in a computer owned by a user of the cloud server cooperate to execute the machine learning method M2 can be considered.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

The objective of the present invention is to provide a technique for inspecting the condition of a fingernail, with which it is possible to determine, simply, whether the fingernail condition is acceptable, without involving a visual observation by a person. An information processing device (20a) is provided with: an acquiring unit (221) for acquiring image data including a fingernail, as a subject; and an evaluating unit (222) for generating information indicating an evaluation result, by evaluating the sanitary state of the fingernail based on the length of the fingernail, with reference to the image data.

Description

情報処理装置、評価システム、機械学習装置、情報処理方法、及びプログラムInformation processing equipment, evaluation system, machine learning equipment, information processing method, and program

 本発明は、爪の状態を検査する技術に関する。 The present invention relates to a technique for inspecting the condition of nails.

 人間の手の爪は日々伸び続け、定期的に切りそろえる必要がある。伸びきった爪には内側に汚れがたまりやすいことから、食品の製造現場や医療現場等では、常に適切な長さまで切りそろえられていることが求められる。また、つけ爪やマニキュア等のネイルアートが施された爪も、清潔面や異物混入の面、医療現場では感染リスクの面で、好ましくない。 The nails of human hands continue to grow every day and need to be trimmed regularly. Since dirt tends to accumulate on the inside of the stretched nails, it is required that the nails are always cut to an appropriate length at food manufacturing sites and medical sites. In addition, nails with nail art such as artificial nails and nail polish are not preferable in terms of cleanliness, contamination with foreign substances, and risk of infection in the medical field.

 これらの状態を防ぐためには、熱心な指導により一人ひとりの身だしなみへの心がけを正すことや、部屋への入退出時に、他人にダブルチェックしてもらうルールを徹底する等の方法がとられてきた。しかしながら、この方法では人為的なミスを防ぎきることはできず、また、他人にダブルチェックしてもらう際には周囲の人の作業を止めてチェックしてもらう必要があり、作業効率の面でも問題があった。 In order to prevent these conditions, enthusiastic guidance has been taken to correct each person's grooming, and to ensure that others double-check when entering or leaving the room. However, this method cannot prevent human error, and when someone else double-checks it, it is necessary to stop the work of the people around it and check it, which is also in terms of work efficiency. There was a problem.

日本国特開2017-185102号公報Japanese Patent Application Laid-Open No. 2017-185102

 本発明は上記した課題を解決するためになされたものであり、人の目視確認を介さず簡便に爪状態可否を判定することのできる、爪の状態を検査する技術を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a technique for inspecting the state of a nail, which can easily determine whether or not the state of the nail is present without visual confirmation by a person. do.

 特許文献1に記載された技術によれば、測定された手の3次元形状に基づき、推奨するスポーツ用手保護具を選択することができる。しかしながら、人の目視確認を介さず簡便に爪状態可否を判定することについて解決する技術は存在しなかった。 According to the technique described in Patent Document 1, the recommended sports hand protector can be selected based on the measured three-dimensional shape of the hand. However, there has been no technique for easily determining whether or not the nail state is possible without visual confirmation by a person.

 上記課題を解決するため、本発明の一態様に係る情報処理装置は、爪を被写体として含む画像データを取得する取得部と、前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価部と、を備えた構成である。 In order to solve the above problems, the information processing apparatus according to one aspect of the present invention includes an acquisition unit that acquires image data including a nail as a subject, and the nail based on the length of the nail with reference to the image data. It is configured to include an evaluation unit that generates information indicating the evaluation result by evaluating the hygiene condition.

 本発明の各態様に係る情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記情報処理装置が備える各部(ソフトウェア要素)として動作させることにより前記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The information processing device according to each aspect of the present invention may be realized by a computer. In this case, the information processing device is made into a computer by operating the computer as each part (software element) included in the information processing device. The control program of the information processing device to be realized and the computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

 本発明によれば、人の目視確認を介さず簡便に爪状態可否を判定することのできる技術を提供することができる。 According to the present invention, it is possible to provide a technique capable of easily determining whether or not a nail state is present without visual confirmation by a person.

本発明の実施の形態1に係る爪の状態検査装置(情報処理装置)の構成図である。It is a block diagram of the nail state inspection apparatus (information processing apparatus) which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る撮像装置の説明図である。It is explanatory drawing of the image pickup apparatus which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係る爪の状態検査装置(評価システム)の概略構成一例である。This is an example of a schematic configuration of a nail condition inspection device (evaluation system) according to a first embodiment of the present invention. 本発明の実施の形態1に係る爪の状態検査装置(評価システム)の概略構成一例である。This is an example of a schematic configuration of a nail condition inspection device (evaluation system) according to a first embodiment of the present invention. 本発明の実施の形態2に係る評価システムの構成を示すブロック図である。It is a block diagram which shows the structure of the evaluation system which concerns on Embodiment 2 of this invention. 図5の評価システムに含まれる情報処理装置が実施する情報処理方法の流れを示すフローチャートである。It is a flowchart which shows the flow of the information processing method carried out by the information processing apparatus included in the evaluation system of FIG. 図6のフローチャートに示す評価ステップの処理の一例を説明する模式図である。It is a schematic diagram explaining an example of the process of the evaluation step shown in the flowchart of FIG. 図5の評価システムに含まれる被検者側の出力装置が出力する「評価結果を示す情報」の一例を示す図である。It is a figure which shows an example of the "information which shows the evaluation result" output by the output device on the subject side included in the evaluation system of FIG. 図5の評価システムに含まれる管理者側の出力装置が出力する「評価結果を示す情報」の一例を示す図である。It is a figure which shows an example of the "information which shows the evaluation result" output by the output device on the manager side included in the evaluation system of FIG. 図5の評価システムに含まれる撮像装置の構成を示す斜視図である。It is a perspective view which shows the structure of the image pickup apparatus included in the evaluation system of FIG. 図10の撮像装置が備えているガイド機構の構成の一例を示す上面図である。It is a top view which shows an example of the structure of the guide mechanism provided in the image pickup apparatus of FIG. 図5の評価システムに含まれる機械学習装置が実施する機械学習方法の流れを示すフローチャートである。It is a flowchart which shows the flow of the machine learning method carried out by the machine learning apparatus included in the evaluation system of FIG. 図5の評価システムに含まれる情報処理装置のハードウエア構成を示すブロック図である。It is a block diagram which shows the hardware configuration of the information processing apparatus included in the evaluation system of FIG. 図5の評価システムに含まれる機械学習装置のハードウエア構成を示すブロック図である。It is a block diagram which shows the hardware configuration of the machine learning apparatus included in the evaluation system of FIG. 本発明の実施の形態3に係る評価システムの構成を示すブロック図である。It is a block diagram which shows the structure of the evaluation system which concerns on Embodiment 3 of this invention.

 〔実施形態1〕
 以下、添付図面を参照して、本発明を実施するための形態(以下、実施形態と称する)について、詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号を付している。
[Embodiment 1]
Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as embodiments) will be described in detail with reference to the accompanying drawings. The same elements are numbered the same throughout the description of the embodiment.

 (実施形態1の構成)
 図1に示すように、本実施形態1に係る爪の状態検査装置(評価システム)1は、少なくとも、撮像装置10と、演算装置(情報処理装置)20と、入出力装置30と、をハードウエア資源として備え、前記演算装置(情報処理装置)20は学習済みニューラルネットワーク(評価モデル)21を備える。
(Structure of Embodiment 1)
As shown in FIG. 1, the claw condition inspection device (evaluation system) 1 according to the first embodiment hardware at least an image pickup device 10, an arithmetic device (information processing device) 20, and an input / output device 30. The arithmetic unit (information processing unit) 20 is provided as a hardware resource, and includes a trained neural network (evaluation model) 21.

 演算装置(情報処理装置)20と入出力装置30は、例えば、スタンドアローン構成のコンピュータ(例えば、パソコン(Personal Computer)等)や、サーバとコンピュータを組み合わせたオンライン構成のもので実現可能である。 The arithmetic unit (information processing device) 20 and the input / output device 30 can be realized by, for example, a computer having a stand-alone configuration (for example, a personal computer (Personal Computer) or the like) or an online configuration in which a server and a computer are combined.

 爪の状態検査装置(評価システム)1は、あらゆる目的での判定に使用できるが、特に前記判定により、部屋(屋内)Rへの人の入退場可否を判定することに使用できる。さらに、部屋(屋内)Rが手の衛生的状態が求められる、食品の製造現場や医療現場であると好適であり、特に食品工場の部屋(屋内)Rまたは食品加工場Rが特に好適である。 The nail condition inspection device (evaluation system) 1 can be used for determination for all purposes, but in particular, it can be used to determine whether or not a person can enter or leave the room (indoor) R by the above determination. Further, the room (indoor) R is preferably a food manufacturing site or a medical site where a hygienic condition of the hand is required, and a food factory room (indoor) R or a food processing plant R is particularly suitable. ..

 演算装置(情報処理装置)20は、人の手の画像Hで学習された学習済みニューラルネットワーク(評価モデル)21を備える。人の手の画像Hは、撮像装置10で得られたものでもよいし、またその他の撮像装置を用いたものでもよいが、画角・色調などの観点から、撮像装置10と同じ構成の撮像装置から得られたものが好ましい。また、人の手の画像は、爪を検査するため、少なくとも人の手の甲側の画像を含む。 The arithmetic unit (information processing unit) 20 includes a trained neural network (evaluation model) 21 learned from the image H of a human hand. The image H of the human hand may be an image obtained by the image pickup device 10 or may be an image obtained by using another image pickup device, but from the viewpoint of the angle of view, color tone, etc., an image pickup having the same configuration as that of the image pickup device 10 may be obtained. The one obtained from the device is preferable. Also, the image of the human hand includes at least the image of the back side of the human hand to inspect the nails.

 前記学習済みニューラルネットワーク(評価モデル)21は、爪の長さや爪全体の色調等といった爪の情報と、目視による判定結果情報により学習されていることができ、これにより、被検者Pの手の甲側の画像から、爪の状態を判定することができる。 The trained neural network (evaluation model) 21 can be learned from nail information such as the length of the nail and the color tone of the entire nail and visual judgment result information, whereby the back of the hand of the subject P can be learned. The state of the nail can be determined from the image on the side.

 また前記学習済みニューラルネットワーク(評価モデル)21は、前記爪全体の色調をもとに学習することで、爪に付着物があるかを判別できるようにすることができる。付着物とは例えば、ネイルアートのことをいい、スカルプ、ネイルチップ、ラインストーンの設置、マニキュア、ジェル等が挙げられる。 Further, the trained neural network (evaluation model) 21 can determine whether or not there is an deposit on the nail by learning based on the color tone of the entire nail. The deposit refers to, for example, nail art, and includes scalp, nail tip, rhinestone installation, nail polish, gel, and the like.

 入出力装置30は、ディスプレイ、表示灯、ブザーなどの音響機器などの出力機器(出力装置)を用いることができる。またさらに、マウス、キーボード、タッチパネル、などの入力機器を備えてもよい。 As the input / output device 30, an output device (output device) such as an audio device such as a display, an indicator light, and a buzzer can be used. Further, an input device such as a mouse, a keyboard, and a touch panel may be provided.

 図2に示すように、本実施形態に係る撮像部(撮像装置)10は、上部に撮像機器101が設置され、下部に底面103が設置され、さらに遮光壁102を有することができる。前記底面103は、単色であると好ましい。遮光壁102と底面103とは、外からの光が底面103にあたりにくいよう連続体として構成することもできる。またさらに、後述する図10に示すように、天面104を加えて連続体として構成された箱体である撮像ボックス105として構成することもでき、手を入れる一面を除いて他の面からの光の侵入を防止し、部屋(屋内)の入退場口に設置されることもできる。被検者Pは前記撮像装置に自分の手の甲を上にした状態で差し入れ、画像を取得することができる。 As shown in FIG. 2, the imaging unit (imaging device) 10 according to the present embodiment can have an imaging device 101 installed at the upper part, a bottom surface 103 installed at the lower part, and a light-shielding wall 102. The bottom surface 103 is preferably a single color. The light-shielding wall 102 and the bottom surface 103 can also be configured as a continuous body so that light from the outside does not easily hit the bottom surface 103. Further, as shown in FIG. 10 to be described later, it can also be configured as an imaging box 105 which is a box body formed as a continuous body by adding the top surface 104, and can be configured from other surfaces except one surface to be touched. It can be installed at the entrance / exit of a room (indoor) to prevent the intrusion of light. The subject P can insert the image pickup device with the back of his / her hand facing up and acquire an image.

 図3に、爪の状態検査装置(評価システム)1がスタンドアローン構成の場合の構成例を示す。この場合、演算装置(情報処理装置)20及び入出力装置30は1台のパソコンとして構成されてもよい。被検者Pは撮像装置10により手の画像H(後述する図7参照)を取得し、演算装置(情報処理装置)20に手の画像Hを送信する。演算装置20は学習済みニューラルネットワーク(評価モデル)21により、前記手の画像Hを判定する。判定の結果を入出力装置30に出力することができてもよい。 FIG. 3 shows a configuration example when the nail condition inspection device (evaluation system) 1 has a stand-alone configuration. In this case, the arithmetic unit (information processing device) 20 and the input / output device 30 may be configured as one personal computer. The subject P acquires the image H of the hand (see FIG. 7 described later) by the imaging device 10, and transmits the image H of the hand to the arithmetic unit (information processing device) 20. The arithmetic unit 20 determines the image H of the hand by the trained neural network (evaluation model) 21. The result of the determination may be output to the input / output device 30.

 管理者Sは前記パソコンにより、保存された被検者Pの情報を確認することができてもよい。その際、被検者Pの社員コード等個人に一意に設定された情報に紐づき、別途測定または入力した、被検者Pの体調の情報、例えば体温や吐息のアルコール情報、傷の有無、髪の毛が帽子から出ていないか等の情報を一覧で表示することができてもよい。 The administrator S may be able to confirm the saved information of the subject P by the personal computer. At that time, information on the physical condition of the subject P, such as body temperature and sighing alcohol information, presence / absence of scratches, which is separately measured or input in association with information uniquely set for the individual such as the employee code of the subject P. Information such as whether or not the hair has come out of the hat may be displayed in a list.

 図4に、入退場検査装置(評価システム)1がオンライン構成の場合の構成例を示す。この場合、被検者Pと管理者Sは別々の入出力装置30を用いることができてもよい。被検者Pは撮像装置10により手の画像H(後述する図7参照)を取得し、演算装置(情報処理装置)20に手の画像Hを送信する。演算装置(情報処理装置)20は学習済みニューラルネットワーク(評価モデル)21により、前記手の画像Hを判定する。判定の結果を被検者側及び/または管理者側の入出力装置30に出力することができてもよい。 FIG. 4 shows a configuration example when the entrance / exit inspection device (evaluation system) 1 has an online configuration. In this case, the subject P and the manager S may be able to use separate input / output devices 30. The subject P acquires the image H of the hand (see FIG. 7 described later) by the imaging device 10, and transmits the image H of the hand to the arithmetic unit (information processing device) 20. The arithmetic unit (information processing unit) 20 determines the image H of the hand by the trained neural network (evaluation model) 21. The result of the determination may be output to the input / output device 30 on the subject side and / or the administrator side.

 管理者Sは管理者側の入出力装置を用い、保存された被検者Pの情報を確認することができてもよい。その際、被検者Pの社員コード等個人に一意に設定された情報に紐づき、別途測定または入力した、被検者Pの体調の情報、例えば、体温や吐息のアルコール情報、傷の有無、髪の毛が帽子から出ていないか等の情報を一覧で表示することができてもよい。 The administrator S may be able to confirm the saved information of the subject P by using the input / output device on the administrator side. At that time, information on the physical condition of the subject P, which is separately measured or input in association with information uniquely set for the individual such as the employee code of the subject P, such as body temperature and sighing alcohol information, and the presence or absence of scratches. , Information such as whether or not the hair has come out of the hat may be displayed in a list.

 〔実施形態2〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Other embodiments of the present invention will be described below. For convenience of explanation, the members having the same functions as the members described in the first embodiment are designated by the same reference numerals, and the description thereof will not be repeated.

 (評価システム1aの構成)
 本発明の実施形態2に係る評価システム1aについて、図5を参照して説明する。図5は、評価システム1aの構成を表す図である。
(Configuration of evaluation system 1a)
The evaluation system 1a according to the second embodiment of the present invention will be described with reference to FIG. FIG. 5 is a diagram showing the configuration of the evaluation system 1a.

 評価システム1aは、爪の長さに基づく衛生状態を評価するためのシステムである。評価システム1aは、図5に示すように、撮像装置10aと、情報処理装置20aと、出力装置30aと、機械学習装置40と、を備えている。入出力装置30は、特許請求の範囲に記載した出力装置の一例である。情報処理装置20aは、撮像装置10a、機械学習装置40、及び出力装置30aのそれぞれと通信可能に接続される。 The evaluation system 1a is a system for evaluating the hygiene condition based on the length of the nail. As shown in FIG. 5, the evaluation system 1a includes an image pickup device 10a, an information processing device 20a, an output device 30a, and a machine learning device 40. The input / output device 30 is an example of the output device described in the claims. The information processing device 20a is communicably connected to each of the image pickup device 10a, the machine learning device 40, and the output device 30a.

 撮像装置10aは、爪を含む人体の部位を撮像して、爪を被写体として含む画像データ(以下、単に「画像データ」という場合がある。)を生成するための装置である。撮像装置10aは、撮像ボックス105を備えている点が、実施形態1における撮像装置10と少なくとも異なる。撮像装置10aの構成の詳細については、参照する図面を代えて後述する。出力装置30aは、実施形態1における入出力装置30に含まれる出力機器である。 The image pickup device 10a is a device for imaging a part of the human body including the nail and generating image data including the nail as a subject (hereinafter, may be simply referred to as "image data"). The image pickup device 10a is at least different from the image pickup device 10 in the first embodiment in that the image pickup device 10a is provided with the image pickup box 105. The details of the configuration of the image pickup apparatus 10a will be described later instead of the reference drawings. The output device 30a is an output device included in the input / output device 30 according to the first embodiment.

 情報処理装置20aは、学習済みニューラルネットワーク21(図1)の代わりに、第1の評価モデル21a及び第2の評価モデル21bを用いる点が、実施形態1における演算装置(情報処理装置)20と少なくとも異なる。情報処理装置20aは、情報処理方法M1を実施するための装置である。情報処理方法M1は、撮像装置10aから提供された画像データに基づき、第1の評価モデル21a及び第2の評価モデル21bを用いて爪の衛生状態を評価する方法である。情報処理装置20aの構成及び情報処理方法M1の流れの詳細については、参照する図面を代えて後述する。 The information processing device 20a uses the first evaluation model 21a and the second evaluation model 21b instead of the trained neural network 21 (FIG. 1), which is different from the arithmetic unit (information processing device) 20 in the first embodiment. At least not. The information processing device 20a is a device for implementing the information processing method M1. The information processing method M1 is a method of evaluating the sanitary state of the nail using the first evaluation model 21a and the second evaluation model 21b based on the image data provided by the image pickup apparatus 10a. The configuration of the information processing device 20a and the details of the flow of the information processing method M1 will be described later instead of the reference drawings.

 ここで、第1の評価モデル21a及び第2の評価モデル21bとしては、それぞれ、例えば、CNN(Convolution Neural Network)、GAN(Generative Adversarial Network)等といった、ニューラルネットワークを利用した機械学習アルゴリズムを用いることができる。また、第1の評価モデル21a及び第2の評価モデル21bとしては、サポートベクタマシン、ランダムフォレスト、勾配ブースティング・ツリー等といった、ニューラルネットワークを利用しない機械学習アルゴリズムを用いることができる。ただし、第1の評価モデル21a及び第2の評価モデル21bをそれぞれ実現するアルゴリズムは、上述したものに限られない。また、第1の評価モデル21a及び第2の評価モデル21bをそれぞれ実現するアルゴリズムは、同一であってもよいし、異なっていてもよい。 Here, as the first evaluation model 21a and the second evaluation model 21b, machine learning algorithms using neural networks such as CNN (Convolution Neural Network) and GAN (Generative Adversarial Network) are used, respectively. Can be done. Further, as the first evaluation model 21a and the second evaluation model 21b, machine learning algorithms that do not use a neural network, such as a support vector machine, a random forest, and a gradient boosting tree, can be used. However, the algorithms that realize the first evaluation model 21a and the second evaluation model 21b are not limited to those described above. Further, the algorithms for realizing the first evaluation model 21a and the second evaluation model 21b may be the same or different.

 第1の評価モデル21aは、画像データを入力として、爪の長さに基づく衛生状態の評価結果を示す第1情報を出力するよう機械学習により構築される。ここで、「爪の長さ」は、例えば、爪先の長さである。「爪先」は、爪床から出て白く見える部分であり、爪先の長さは、爪の黄線から爪の先端までの長さに相当する。なお、「黄線」は、爪甲と爪先との境界であり、「爪甲」は、爪床の上にある爪の領域であり、「爪床」は、爪甲の下にある皮下組織である。ただし、第1の評価モデル21aは、爪の長さ(例えば、上述した爪先の長さ)自体を正解データとして機械学習されるものではない。第1の評価モデル21aは、評価者が爪の長さ(例えば、上述した爪先の長さ)の観点から衛生状態を評価した評価結果を正解データとして機械学習により構築される。なお、「爪の長さ」とは、上述した爪先の長さに限定されない。例えば、「爪の長さ」とは、爪全体の長さであってもよいし、爪全体の長さに対する爪先の長さの割合であってもよい。また、「爪の長さ」とは、爪先の長さ、爪全体の長さ、爪全体の長さに対する爪先の長さの割合、及びその他の観点の一部または全てを含む総合的な観点であってもよい。この場合、第1の評価モデル21aは、評価者が爪の長さの総合的な観点から衛生状態を評価した評価結果を正解データとして機械学習により構築される。第1の評価モデル21aを機械学習により構築する方法については後述する。 The first evaluation model 21a is constructed by machine learning so as to input image data and output first information indicating the evaluation result of the sanitary condition based on the length of the nail. Here, the "nail length" is, for example, the length of the toe. The "toe" is the part that appears white from the nail bed, and the length of the toe corresponds to the length from the yellow line of the nail to the tip of the nail. The "yellow line" is the boundary between the nail plate and the tip of the nail, the "nail plate" is the area of the nail above the nail plate, and the "nail plate" is the subcutaneous tissue under the nail plate. Is. However, the first evaluation model 21a is not machine-learned using the nail length (for example, the above-mentioned toe length) itself as correct answer data. The first evaluation model 21a is constructed by machine learning using the evaluation result in which the evaluator evaluates the sanitation state from the viewpoint of the length of the nail (for example, the length of the toe described above) as correct answer data. The "nail length" is not limited to the above-mentioned toe length. For example, the "nail length" may be the length of the entire nail or the ratio of the length of the tip of the nail to the length of the entire nail. In addition, "nail length" is a comprehensive viewpoint including the length of the toe, the length of the entire nail, the ratio of the length of the toe to the total length of the nail, and some or all of the other viewpoints. It may be. In this case, the first evaluation model 21a is constructed by machine learning using the evaluation result in which the evaluator evaluates the sanitary condition from the comprehensive viewpoint of the length of the nail as correct answer data. The method of constructing the first evaluation model 21a by machine learning will be described later.

 第2の評価モデル21bは、画像データを入力として、爪の色に基づく衛生状態の評価結果を示す第2情報を出力するよう機械学習により構築される。ここで、「爪の色」は、爪の色調、色相等である。また、「爪の色」は、少なくとも爪の一部の色であればよいが、衛生上の観点から、爪全体の色であることが好ましい。第2の評価モデル21bを機械学習により構築する方法については後述する。 The second evaluation model 21b is constructed by machine learning so as to input image data and output second information indicating the evaluation result of the sanitary condition based on the color of the nail. Here, the "nail color" is the color tone, hue, etc. of the nail. The "nail color" may be at least a part of the color of the nail, but is preferably the color of the entire nail from the viewpoint of hygiene. The method of constructing the second evaluation model 21b by machine learning will be described later.

 第1の評価モデル21aの入力である爪を被写体として含む画像データと第1の評価モデル21aの出力である爪の長さに基づく衛生状態との間には、関係式として明示的に特定することは困難であるものの、一定の関係があることが知られている。同様に、第2の評価モデル21bの入力である爪を被写体として含む画像データと第2の評価モデル21bの出力である爪の色に基づく衛生状態との間にも、一定の関係があることが知られている。したがって、爪を被写体として含む画像データを入力とする第1の評価モデル21aを用いれば、爪の長さに基づく衛生状態を精度良く評価することができる。また、爪を被写体として含む画像データを入力とする第2の評価モデル21bを用いれば、爪の色に基づく衛生状態を精度良く評価することができる。 The image data including the nail as the subject, which is the input of the first evaluation model 21a, and the sanitary condition based on the length of the nail, which is the output of the first evaluation model 21a, are explicitly specified as a relational expression. Although difficult, it is known that there is a certain relationship. Similarly, there is a certain relationship between the image data including the nail as the subject, which is the input of the second evaluation model 21b, and the sanitary condition based on the color of the nail, which is the output of the second evaluation model 21b. It has been known. Therefore, by using the first evaluation model 21a that inputs image data including the nail as a subject, it is possible to accurately evaluate the sanitary state based on the length of the nail. Further, by using the second evaluation model 21b in which the image data including the nail as a subject is input, the sanitary state based on the color of the nail can be evaluated with high accuracy.

 機械学習装置40は、機械学習方法M2を実施するための装置である。機械学習方法M2は、学習用の画像データを用いて学習用データセットを作成すると共に、学習用データデータセットを用いた機械学習によって第1の評価モデル21a及び第2の評価モデル21bを構築するための方法である。機械学習装置40の構成及び機械学習方法M2の流れの詳細については、参照する図面を代えて後述する。 The machine learning device 40 is a device for implementing the machine learning method M2. The machine learning method M2 creates a learning data set using image data for learning, and constructs a first evaluation model 21a and a second evaluation model 21b by machine learning using the learning data data set. Is the way to. The configuration of the machine learning device 40 and the details of the flow of the machine learning method M2 will be described later instead of the drawings to be referred to.

 評価システム1aは、準備フェーズと試用フェーズとを経て実用フェーズに至る。準備フェーズ、試用フェーズ、及び実用フェーズについて、その内容を簡単に説明すれば、以下のとおりである。 The evaluation system 1a reaches the practical phase through the preparation phase and the trial phase. The contents of the preparation phase, trial phase, and practical phase are as follows.

 (1)準備フェーズ
 準備フェーズは、機械学習装置40が第1の評価モデル21a及び第2の評価モデル21bを構築するフェーズである。準備フェーズにおいては、評価者が、複数の学習用の画像データの各々に被写体として含まれる爪に対して、爪の長さに基づく評価及び爪の色に基づく評価を行う。機械学習装置40は、各学習用の画像データに対して評価者による評価結果をラベル付けした教師データからなる学習用データセットを生成し、学習用データセットを用いた機械学習によって第1の評価モデル21a及び第2の評価モデル21bを構築する。構築された第1の評価モデル21a及び第2の評価モデル21bは、機械学習装置40から情報処理装置20aに転送される。
(1) Preparation Phase The preparation phase is a phase in which the machine learning device 40 constructs the first evaluation model 21a and the second evaluation model 21b. In the preparation phase, the evaluator performs an evaluation based on the length of the nail and an evaluation based on the color of the nail for the nail included as a subject in each of the plurality of image data for learning. The machine learning device 40 generates a learning data set consisting of teacher data in which the evaluation results by the evaluator are labeled with respect to the image data for each learning, and the first evaluation is performed by machine learning using the learning data set. A model 21a and a second evaluation model 21b are constructed. The constructed first evaluation model 21a and second evaluation model 21b are transferred from the machine learning device 40 to the information processing device 20a.

 (2)試用フェーズ
 試用フェーズにおいては、評価システム1aは、屋内(例えば、食品工場の部屋等の部屋)の入口に設置される。屋内に入場すべき作業者が手の爪を撮像装置10aの撮像ボックス105(後述する図10参照)に差し入れると、情報処理装置20aは、爪を被写体として含む画像データを撮像装置10aから取得して、当該爪の衛生状態の評価を行う。試用フェーズにおいて、評価者は、情報処理装置20aが評価対象とした画像データに対して、爪の長さに基づく評価及び爪の色に基づく評価を行う。評価者による評価は、情報処理装置20aによる評価が行われる度に行われてもよいし、情報処理装置20aによる評価が所定の期間(例えば、1週間、1ヶ月、または1年など)または所定回数(例えば、100回、1000回、または10000回など)実施された後にまとめて実施されてもよい。評価者は、当該評価者による評価結果と、情報処理装置20aによる評価結果とを比較し、情報処理装置20aの評価精度を評価する。評価精度が不十分である場合には、準備フェーズに戻る。評価精度が十分である場合には、実用フェーズに進む。なお、評価精度の確認は、準備フェーズが終了した段階で、学習用データセットの一部を利用して行ってもよい。この場合、試用フェーズを省略することができる。
(2) Trial Phase In the trial phase, the evaluation system 1a is installed at the entrance indoors (for example, a room such as a food factory room). When an operator who should enter the room inserts the fingernail of the hand into the image pickup box 105 (see FIG. 10 described later) of the image pickup device 10a, the information processing device 20a acquires image data including the nail as a subject from the image pickup device 10a. Then, the hygiene condition of the nail is evaluated. In the trial phase, the evaluator performs an evaluation based on the length of the nail and an evaluation based on the color of the nail with respect to the image data evaluated by the information processing apparatus 20a. The evaluation by the evaluator may be performed every time the evaluation by the information processing device 20a is performed, or the evaluation by the information processing device 20a is performed for a predetermined period (for example, one week, one month, or one year) or a predetermined time. It may be carried out a number of times (for example, 100 times, 1000 times, or 10000 times) and then collectively. The evaluator compares the evaluation result by the evaluator with the evaluation result by the information processing device 20a, and evaluates the evaluation accuracy of the information processing device 20a. If the evaluation accuracy is insufficient, the process returns to the preparation phase. If the evaluation accuracy is sufficient, the process proceeds to the practical phase. The evaluation accuracy may be confirmed by using a part of the learning data set at the stage when the preparation phase is completed. In this case, the trial phase can be omitted.

 (3)実用フェーズ
 実用フェーズにおいては、情報処理装置20aが爪の長さ及び色に基づく爪の衛生状態の評価を行う。実用フェーズにおいて情報処理装置20aが用いる第1の評価モデル21a及び第2の評価モデル21bは、試用フェーズにおいて十分な推定精度を有することを確かめられたものである。実用フェーズにおいては、食品工場の部屋に被検者が入場する際に、目視による爪の長さ及び色に基づく衛生状態の評価を省略することができる。このため、爪の長さ及び色に基づく衛生状態の評価の手間から被検者を解放すると共に、人の目視確認を介さず簡便に、且つ精度良く爪の長さ及び色に基づく衛生状態の評価を行うことが可能になる。
(3) Practical phase In the practical phase, the information processing device 20a evaluates the hygiene condition of the nail based on the length and color of the nail. The first evaluation model 21a and the second evaluation model 21b used by the information processing apparatus 20a in the practical phase have been confirmed to have sufficient estimation accuracy in the trial phase. In the practical phase, when a subject enters a food factory room, visual evaluation of hygiene based on nail length and color can be omitted. For this reason, the subject is freed from the trouble of evaluating the hygiene condition based on the length and color of the nail, and the hygiene condition based on the length and color of the nail is easily and accurately obtained without visual confirmation by a person. It becomes possible to evaluate.

 (情報処理装置20aの構成)
 情報処理装置20aの構成について、図5を参照して説明する。情報処理装置20aは、制御部22及び記憶部23を備えている。制御部22は、情報処理装置20aを統括的に制御する。情報処理装置20aにおいて、制御部22は、取得部221及び評価部222を含む。取得部221は、情報処理方法M1の取得ステップM11を実行する。評価部222は、情報処理方法M1の評価ステップM12及び出力ステップM13を実行する。情報処理方法M1の流れの詳細については後述する。記憶部23には、第1の評価モデル21a及び第2の評価モデル21bが格納されている。
(Configuration of information processing device 20a)
The configuration of the information processing device 20a will be described with reference to FIG. The information processing device 20a includes a control unit 22 and a storage unit 23. The control unit 22 comprehensively controls the information processing device 20a. In the information processing device 20a, the control unit 22 includes an acquisition unit 221 and an evaluation unit 222. The acquisition unit 221 executes the acquisition step M11 of the information processing method M1. The evaluation unit 222 executes the evaluation step M12 and the output step M13 of the information processing method M1. The details of the flow of the information processing method M1 will be described later. The first evaluation model 21a and the second evaluation model 21b are stored in the storage unit 23.

 (情報処理方法M1の流れ)
 情報処理方法M1の流れについて、図6を参照して説明する。図6は、情報処理方法M1の流れを示すフローチャートである。
(Flow of information processing method M1)
The flow of the information processing method M1 will be described with reference to FIG. FIG. 6 is a flowchart showing the flow of the information processing method M1.

 情報処理方法M1は、取得ステップM11と、評価ステップM12と、出力ステップM13と、を含んでいる。 The information processing method M1 includes an acquisition step M11, an evaluation step M12, and an output step M13.

 (取得ステップM11)
 取得ステップM11は、取得部221が、爪を被写体として含む画像データを取得するステップである。取得ステップM11において、取得部221は、撮像装置10aが生成した爪を被写体として含む画像データを取得する。
(Acquisition step M11)
The acquisition step M11 is a step in which the acquisition unit 221 acquires image data including the nail as a subject. In the acquisition step M11, the acquisition unit 221 acquires image data including the nail generated by the image pickup apparatus 10a as a subject.

 (評価ステップM12)
 評価ステップM12は、評価部222が、第1の評価モデル21a及び第2の評価モデル21bを用いて爪の長さ及び色に基づく衛生状態を評価するステップである。評価ステップM12において、評価部222は、取得部221が取得した画像データに含まれている少なくとも2本以上の指の爪の領域に基づいて、爪の衛生状態を評価する。具体的には、評価部222は、取得部221が取得した爪を被写体として含む画像データを第1の評価モデル21aに入力し、第1の評価モデル21aから出力される第1情報を取得する。また、評価部222は、取得部221が取得した爪を被写体として含む画像データを第2の評価モデル21bに入力し、第2の評価モデル21bから出力される第2情報を取得する。また、評価部222は、第1情報および第2情報に基づいて、評価結果を示す情報を生成する。なお、評価部222は、評価結果を示す情報を記憶部23に書き込む。
(Evaluation step M12)
The evaluation step M12 is a step in which the evaluation unit 222 evaluates the hygiene condition based on the length and color of the nail using the first evaluation model 21a and the second evaluation model 21b. In the evaluation step M12, the evaluation unit 222 evaluates the hygiene state of the nail based on the region of at least two fingernails included in the image data acquired by the acquisition unit 221. Specifically, the evaluation unit 222 inputs the image data including the nail acquired by the acquisition unit 221 as the subject into the first evaluation model 21a, and acquires the first information output from the first evaluation model 21a. .. Further, the evaluation unit 222 inputs the image data including the nail acquired by the acquisition unit 221 as the subject into the second evaluation model 21b, and acquires the second information output from the second evaluation model 21b. Further, the evaluation unit 222 generates information indicating the evaluation result based on the first information and the second information. The evaluation unit 222 writes information indicating the evaluation result in the storage unit 23.

 図7は、評価ステップM12の処理の一例を説明する模式図である。例えば、評価ステップM12は、部分画像データの抽出処理と、第1の評価処理と、第2の評価処理と、評価結果を示す情報の生成処理とを含む。図7を参照して、これらの処理について説明する。 FIG. 7 is a schematic diagram illustrating an example of the process of the evaluation step M12. For example, the evaluation step M12 includes a partial image data extraction process, a first evaluation process, a second evaluation process, and an information generation process indicating an evaluation result. These processes will be described with reference to FIG. 7.

 (部分画像データの抽出処理)
 評価部222は、取得部221が取得した爪を被写体として含む画像データHから、5本の指それぞれの「爪」の領域を、部分画像データIMG-1、IMG-2、IMG-3、IMG-4、IMG-5として抽出する。部分画像データIMG-1は親指の爪の領域であり、部分画像データIMG-2は人差し指の爪の領域であり、部分画像データIMG-3は中指の爪の領域であり、部分画像データIMG-4は薬指の爪の領域であり、部分画像データIMG-5は小指の爪の領域である。以降、部分画像データIMG1~IMG5のそれぞれを特に区別する必要が無い場合には、単に部分画像データIMG-i(i=1,2,3,4,5)とも記載する。換言すると、部分画像データIMG-iは、1つの爪を被写体として含む。
(Extraction process of partial image data)
The evaluation unit 222 extracts the "nail" region of each of the five fingers from the image data H including the nail acquired by the acquisition unit 221 as the subject, and partially image data IMG-1, IMG-2, IMG-3, and IMG. -4, Extract as IMG-5. The partial image data IMG-1 is the area of the thumb claw, the partial image data IMG-2 is the area of the index finger claw, the partial image data IMG-3 is the area of the middle finger claw, and the partial image data IMG- Reference numeral 4 denotes a region of the ring finger claw, and partial image data IMG-5 is a region of the little finger claw. Hereinafter, when it is not necessary to distinguish each of the partial image data IMG1 to IMG5, the partial image data IMG-i (i = 1, 2, 3, 4, 5) is also simply described. In other words, the partial image data IMG-i includes one nail as a subject.

 なお、画像データから爪の領域を抽出する手法としては、公知の物体検出アルゴリズムを用いることができる。そのような物体検出アルゴリズムの一例として、YOLO V3(You Only Look Once V3)、MASK R-CNN(MASK Regions with CNN features)等が挙げられるが、これらに限られない。 A known object detection algorithm can be used as a method for extracting the nail region from the image data. Examples of such an object detection algorithm include, but are not limited to, YOLO V3 (You Only Look Once V3), MASK R-CNN (MASK Regions with CNN features), and the like.

 また、評価部222が画像データHから抽出する部分画像データIMG-iの数は、5つに限定されないが、複数であることが好ましい。例えば、評価部222は、n(nは2以上の整数)個以上の部分画像データIMG-iを抽出した場合に処理を続行し、n個未満の部分画像データIMG-iを抽出した場合には処理を中断してエラー情報を出力してもよい。例えば、nを2以上5未満に設定することにより、撮影時の手の位置等に起因して5つの爪の全てが画像データHに含まれていない場合、又は、撮影時の指の向き等に起因して一部の爪が明瞭に画像データHに含まれていない場合にも柔軟に対応可能となる。 Further, the number of partial image data IMG-i extracted from the image data H by the evaluation unit 222 is not limited to 5, but is preferably a plurality. For example, the evaluation unit 222 continues the process when n (n is an integer of 2 or more) or more partial image data IMG-i is extracted, and when less than n partial image data IMG-i are extracted. May interrupt the process and output error information. For example, by setting n to 2 or more and less than 5, if all five nails are not included in the image data H due to the position of the hand at the time of shooting, or the direction of the finger at the time of shooting, etc. Therefore, it is possible to flexibly deal with the case where some of the nails are not clearly included in the image data H.

 (第1の評価処理)
 評価部222は、抽出したn個の部分画像データIMG-iのそれぞれを第1の評価モデル21aに入力する。その結果、第1の評価モデル21aから第1スコアが出力される。ここで、第1スコアは、爪の長さに基づく衛生状態の評価結果を示す第1情報の一例である。第1スコアは、0以上、1以下の範囲の数値であり、爪の長さに基づく衛生状態が良好である可能性を示している。つまり、第1スコアが1に近いほど、爪の長さに基づく衛生状態が良好である可能性が高く、0に近いほど良好でない可能性が高い。n個の部分画像データIMG-iから得られたn個の第1スコアの平均値が所定の閾値以上であれば、評価部222は、被検者Pの爪の長さに基づく衛生状態を「合格」と評価する。一方、第1スコアの平均値が所定の閾値未満であれば、評価部222は、被検者Pの爪の長さに基づく衛生状態を「不合格」と評価する。評価部222は、被検者Pの識別情報(社員コード等)に関連付けて、爪の長さの合否を示す情報を記憶部23に記憶する。
(First evaluation process)
The evaluation unit 222 inputs each of the extracted n partial image data IMG-i into the first evaluation model 21a. As a result, the first score is output from the first evaluation model 21a. Here, the first score is an example of the first information showing the evaluation result of the hygiene state based on the length of the nail. The first score is a numerical value in the range of 0 or more and 1 or less, and indicates that the hygiene condition based on the length of the nail may be good. That is, the closer the first score is to 1, the better the hygiene condition based on the length of the nail is, and the closer it is to 0, the less likely it is to be good. If the average value of the n first scores obtained from the n partial image data IMG-i is equal to or higher than a predetermined threshold value, the evaluation unit 222 determines the hygiene condition based on the nail length of the subject P. Evaluate as "pass". On the other hand, if the average value of the first score is less than a predetermined threshold value, the evaluation unit 222 evaluates the hygiene condition based on the claw length of the subject P as "failed". The evaluation unit 222 stores in the storage unit 23 information indicating the pass / fail of the nail length in association with the identification information (employee code, etc.) of the subject P.

 なお、第1の評価処理において、n個の第1スコアを参照して被検者Pの爪の長さに基づく衛生状態の合否を判定する手法は、上述したものに限定されない。例えば、評価部222は、n個の第1スコアの最大値、最小値、中央値等の各種の統計値が閾値以上であるか否かに基づき判定を行ってもよい。例えば、最小値を用いる場合、換言すると、爪の長さが良好でない爪が1つでもある場合、不合格と判定される。また、例えば、最大値を用いる場合、換言すると、爪の長さが良好である爪が1つでもある場合、合格と判定される。 In the first evaluation process, the method of determining the pass / fail of the hygiene condition based on the length of the claws of the subject P by referring to the n first scores is not limited to the above. For example, the evaluation unit 222 may make a determination based on whether or not various statistical values such as the maximum value, the minimum value, and the median value of n first scores are equal to or more than the threshold value. For example, when the minimum value is used, in other words, if there is even one claw whose claw length is not good, it is determined to be rejected. Further, for example, when the maximum value is used, in other words, if there is even one claw having a good claw length, it is determined to pass.

 (第2の評価処理)
 評価部222は、抽出したn個の部分画像データIMG-iのそれぞれを第2の評価モデル21bに入力する。その結果、第2の評価モデル21bから第2スコアが出力される。ここで、第2スコアは、爪の色に基づく衛生状態の評価結果を示す第2情報の一例である。第2スコアは、0以上、1以下の範囲の数値であり、爪の色に基づく衛生状態が良好である可能性を示している。つまり、第2スコアが1に近いほど、爪の色に基づく衛生状態が良好である可能性が高く、0に近いほど良好でない可能性が高い。n個の部分画像データIMG-iから得られたn個の第2スコアの平均値が所定の閾値以上であれば、評価部222は、被検者Pの爪の色に基づく衛生状態を「合格」と評価する。一方、第2スコアの平均値が所定の閾値未満であれば、評価部222は、被検者Pの爪の色に基づく衛生状態を「不合格」と評価する。評価部222は、被検者の識別情報に関連付けて、爪の色の合否を示す情報を記憶部23に記憶する。
(Second evaluation process)
The evaluation unit 222 inputs each of the extracted n partial image data IMG-i into the second evaluation model 21b. As a result, the second score is output from the second evaluation model 21b. Here, the second score is an example of the second information showing the evaluation result of the hygiene state based on the color of the nail. The second score is a numerical value in the range of 0 or more and 1 or less, and indicates that the hygiene condition based on the color of the nail may be good. That is, the closer the second score is to 1, the better the hygiene condition based on the color of the nail is, and the closer it is to 0, the less likely it is to be good. If the average value of the n second scores obtained from the n partial image data IMG-i is equal to or higher than a predetermined threshold value, the evaluation unit 222 determines the hygiene condition based on the nail color of the subject P. Evaluate as "passed". On the other hand, if the average value of the second score is less than a predetermined threshold value, the evaluation unit 222 evaluates the hygiene condition based on the nail color of the subject P as "failed". The evaluation unit 222 stores the information indicating the pass / fail of the nail color in the storage unit 23 in association with the identification information of the subject.

 なお、第2の評価処理において、n個の第2スコアを参照して被検者Pの爪の色に基づく衛生状態の合否を判定する手法は、上述したものに限定されない。例えば、評価部222は、n個の第2スコアの最大値、最小値、中央値等の各種の統計値が閾値以上であるか否かに基づき判定を行ってもよい。例えば、最小値を用いる場合、換言すると、爪の色が良好でない爪が1つでもある場合、不合格と判定される。また、例えば、最大値を用いる場合、換言すると、爪の色が良好である爪が1つでもある場合、合格と判定される。また、第1の評価処理及び第2の評価処理の実行順序は、順不同である。換言すると、評価部222は、第1の評価処理の次に第2の評価処理を行ってもよいし、第2の評価処理の次に第1の評価処理を行ってもよいし、これらの評価処理を並行して行ってもよい。 In the second evaluation process, the method of determining the pass / fail of the hygiene condition based on the color of the nail of the subject P by referring to the n second scores is not limited to the above. For example, the evaluation unit 222 may make a determination based on whether or not various statistical values such as the maximum value, the minimum value, and the median value of n second scores are equal to or more than the threshold value. For example, when the minimum value is used, in other words, if there is even one nail whose nail color is not good, it is determined to be rejected. Further, for example, when the maximum value is used, in other words, if there is even one nail having a good nail color, it is determined to pass. Further, the execution order of the first evaluation process and the second evaluation process is in no particular order. In other words, the evaluation unit 222 may perform the second evaluation process after the first evaluation process, or may perform the first evaluation process after the second evaluation process, and these The evaluation process may be performed in parallel.

 (評価結果を示す情報の生成処理)
 評価部222は、第1情報及び第2情報に基づき、屋内への入退場可否を示す情報を生成する。例えば、評価部222は、(i)抽出できた部分画像の個数nが2以上であり、且つ(ii)爪の長さに基づく衛生状態の評価結果及び爪の色に基づく衛生状態の評価結果の両方が「合格」である場合に、被検者Pは屋内への入退可能であることを示す情報を生成する。また、評価部222は、(i)および(ii)の何れも満たされない場合に、被検者Pは屋内への入退不可であることを示す情報を生成する。評価部222は、被検者Pの識別情報に関連付けて、入退可否を示す情報を記憶部23に記憶する。なお、評価部222は、被験者Pの識別情報に、当該評価ステップM12を実行した評価日時を関連付け、被検者Pの識別情報及び評価日時で一意に識別されるレコードとして、爪の長さの合否、爪の色の合否、及び入退可否を示す情報を記憶してもよい。ここで、「屋内」は、任意の建物の内部であり、例えば、建物内の任意の部屋である。「建物」は、特に限定されないが、手の衛生的状態が求められる食品の製造現場の建物(例えば、食品加工工場等)や医療現場の建物(例えば、病院等)であることが好適である。
(Generation process of information showing evaluation result)
The evaluation unit 222 generates information indicating whether or not to enter or leave the room based on the first information and the second information. For example, the evaluation unit 222 has (i) the number n of the extracted partial images n is 2 or more, and (ii) the evaluation result of the hygiene condition based on the length of the nail and the evaluation result of the hygiene condition based on the color of the nail. If both of the above are "passed", the subject P generates information indicating that he / she can enter and leave the room. In addition, the evaluation unit 222 generates information indicating that the subject P cannot enter or leave the room when neither (i) nor (ii) is satisfied. The evaluation unit 222 stores in the storage unit 23 information indicating whether or not to enter or leave the subject P in association with the identification information of the subject P. The evaluation unit 222 associates the identification information of the subject P with the evaluation date and time when the evaluation step M12 is executed, and records the claw length as a record uniquely identified by the identification information of the subject P and the evaluation date and time. Information indicating pass / fail, pass / fail of nail color, and pass / fail of entry / exit may be stored. Here, "indoor" is the interior of any building, for example, any room in the building. The “building” is not particularly limited, but is preferably a building at a food manufacturing site (for example, a food processing factory) or a building at a medical site (for example, a hospital) where hygiene of hands is required. ..

 評価部222は、衛生上の観点から、被検者Pの両手について、爪の長さ及び色に基づく衛生状態を評価することが好ましい。被検者Pの両手の画像データは1つの画像データであってもよく、片手ずつをそれぞれ撮像することによって取得した個別の画像データであってもよい。 From the viewpoint of hygiene, the evaluation unit 222 preferably evaluates the hygiene condition of both hands of the subject P based on the length and color of the nails. The image data of both hands of the subject P may be one image data, or may be individual image data acquired by imaging each hand.

 衛生上の観点から、評価部222は、画像データに含まれている少なくとも2本以上の指の爪の領域(部分画像データIMG-i)に基づいて、爪の長さ及び色に基づく衛生状態を評価することが好ましい。物体検出アルゴリズムによって1本の爪として認識された爪の部分画像データの内、2つ以上の爪の部分画像データを入力データとして用いればよく、どの指の爪の部分画像データを入力データとして選択するかについては特に限定されない。なお、被検者Pの両手について爪の長さ及び色に基づく衛生状態を評価する場合は、片方の手につき2つ以上の爪の部分画像データを入力データとして用いればよい。 From a hygienic point of view, the evaluation unit 222 has a hygienic condition based on the length and color of the nail based on the area of at least two fingernails (partial image data IMG-i) included in the image data. It is preferable to evaluate. Of the partial image data of the nail recognized as one nail by the object detection algorithm, the partial image data of two or more nails may be used as the input data, and the partial image data of which fingernail is selected as the input data. There is no particular limitation as to whether or not to do so. When evaluating the sanitary condition of both hands of the subject P based on the length and color of the nails, partial image data of two or more nails per one hand may be used as input data.

 出力ステップM13は、評価ステップM12にて評価した爪の衛生状態の評価結果を示す情報を出力するステップである。この出力ステップM13において、情報処理装置20aは、評価結果を示す情報を記憶部23から読み出して出力装置30aに出力することによって、ユーザに提示する。 The output step M13 is a step of outputting information indicating the evaluation result of the hygiene condition of the nail evaluated in the evaluation step M12. In the output step M13, the information processing device 20a reads the information indicating the evaluation result from the storage unit 23 and outputs the information to the output device 30a, thereby presenting the information to the user.

 図8は、図5の評価システム1aに含まれる出力装置30aが出力する画面の一例を示す図である。図8に示す画面例500は、典型的には、出力装置30aが、被験者Pにより視認可能に設置されている場合に好適な画面例である。画面例500は、各被験者に関する入退可否を示す情報501を含む。入退可否を示す情報501は、評価ステップM12において評価部222が記憶部23に記憶した情報が読み込まれて出力される。画面例500を視認することにより、被検者Pは、屋内への入退場可否を容易に確認することができる。なお、画面例500は、屋内への入場可否を示す情報501に加えて、他の付加情報を含んでいてもよい。例えば、画面例500は、屋内への入場不可を示す情報501を含む場合は、不可と評価された理由(例えば、爪の長さが不合格、爪の色が不合格等)も出力してもよい。 FIG. 8 is a diagram showing an example of a screen output by the output device 30a included in the evaluation system 1a of FIG. The screen example 500 shown in FIG. 8 is typically a suitable screen example when the output device 30a is visibly installed by the subject P. Screen example 500 includes information 501 indicating whether or not each subject can enter or leave. The information 501 indicating whether or not entry / exit is possible is output by reading the information stored in the storage unit 23 by the evaluation unit 222 in the evaluation step M12. By visually recognizing the screen example 500, the subject P can easily confirm whether or not to enter or leave the room. The screen example 500 may include other additional information in addition to the information 501 indicating whether or not to enter the room. For example, when the screen example 500 includes information 501 indicating that entry into the room is not possible, the reason why it is evaluated as impossible (for example, the length of the nail is rejected, the color of the nail is rejected, etc.) is also output. May be good.

 図9は、図5の評価システム1aに含まれる出力装置30aが出力する画面の一例を示す図である。図9に示す画面例600は、典型的には、出力装置30aが、管理者Sにより視認可能に設置されている場合に好適な画面例である。画面例600は、各被験者に関する評価結果を示す情報601を含む。評価結果を示す情報601は、被検者Pの識別情報である社員コードと、評価日時と、爪の長さの合否と、爪の色の合否と、入退可否とをそれぞれ示す情報を含む。これらの情報は、評価ステップM12において評価部222が記憶部23に記憶した情報が読み込まれて出力される。画面例601を視認することにより、管理者Sは、各被検者Pの爪の衛生状態の評価結果を示す情報を一覧で確認することができる。 FIG. 9 is a diagram showing an example of a screen output by the output device 30a included in the evaluation system 1a of FIG. The screen example 600 shown in FIG. 9 is typically a screen example suitable when the output device 30a is visibly installed by the administrator S. Screen example 600 includes information 601 showing the evaluation results for each subject. The information 601 indicating the evaluation result includes the employee code which is the identification information of the subject P, the evaluation date and time, the pass / fail of the nail length, the pass / fail of the nail color, and the information indicating whether or not to enter or leave. .. As for these information, the information stored in the storage unit 23 by the evaluation unit 222 in the evaluation step M12 is read and output. By visually recognizing the screen example 601, the manager S can confirm a list of information indicating the evaluation result of the nail hygiene state of each subject P.

 (撮像装置10aの構成)
 撮像装置10aの構成について、図10を参照して説明する。図10は、図5の評価システム1aに含まれる撮像装置10aの構成を示す斜視図である。撮像装置10aは、撮像ボックス105を備えている。撮像装置10aにおいて、撮像機器101は、撮像ボックス105の内部に設置されている。撮像ボックス105は、底面103と、遮光壁としての側面102と、撮像機器101が設置される天面104と、を有している。撮像装置10aは、図10に示される3次元座標空間に配置される。撮像装置10aの撮像ボックス105における底面103をxy平面に配置し、xy平面に直交する法線方向のうち、天頂へ向かう方向をz軸方向と定める。
(Configuration of Imaging Device 10a)
The configuration of the image pickup apparatus 10a will be described with reference to FIG. FIG. 10 is a perspective view showing the configuration of the image pickup apparatus 10a included in the evaluation system 1a of FIG. The image pickup apparatus 10a includes an image pickup box 105. In the image pickup apparatus 10a, the image pickup apparatus 101 is installed inside the image pickup box 105. The image pickup box 105 has a bottom surface 103, a side surface 102 as a light-shielding wall, and a top surface 104 on which the image pickup device 101 is installed. The image pickup apparatus 10a is arranged in the three-dimensional coordinate space shown in FIG. The bottom surface 103 of the image pickup box 105 of the image pickup apparatus 10a is arranged on the xy plane, and the direction toward the zenith among the normal directions orthogonal to the xy plane is defined as the z-axis direction.

 撮像ボックス105の4つの側面102の内の1つの面は、撮像ボックス105の内部に被検者Pの爪を含む人体の部位を挿入可能な開口部107を有している。この開口部107を有している側面を特に、前面106と称する。 One of the four side surfaces 102 of the imaging box 105 has an opening 107 inside the imaging box 105 into which a part of the human body including the claw of the subject P can be inserted. The side surface having the opening 107 is particularly referred to as a front surface 106.

 前面106は、撮像ボックス105の内部を撮像ボックス105の外側から目視可能であり、且つ撮像ボックス105内の光の照射が一定となるように、半透明の材料で形成されている。これにより、被検者Pが、撮像ボックス105の内部の様子を撮像ボックス105の外側から目視で確認しながら、被検者Pの手を撮像ボックス105の内部に差し入れることができる。前面106を形成する材料は、半透明の材料であれば特に限定されない。例えば、樹脂、ガラス等の半透明の材料から形成することができる。ここで、「半透明」とは、撮像ボックス105内の光環境が撮像時に外部からの光に干渉されにくく、かつ、被検者Pが撮像ボックス105の外側から撮像ボックス105内の自分の手を目視で認識できる程度に透明であればよい。 The front surface 106 is made of a translucent material so that the inside of the image pickup box 105 can be visually recognized from the outside of the image pickup box 105 and the irradiation of light inside the image pickup box 105 is constant. As a result, the subject P can insert the subject P's hand into the imaging box 105 while visually checking the inside of the imaging box 105 from the outside of the imaging box 105. The material forming the front surface 106 is not particularly limited as long as it is a translucent material. For example, it can be formed from a translucent material such as resin or glass. Here, "semi-transparent" means that the light environment inside the imaging box 105 is less likely to be interfered with by external light during imaging, and the subject P has his or her own hand inside the imaging box 105 from the outside of the imaging box 105. It suffices if it is transparent enough to be visually recognized.

 開口部107の大きさは特に限定されないが、撮像ボックス105の外からの光が撮像ボックス105の内部に侵入することを防ぐ観点から、被検者Pの手を撮像ボックス105の内部に差し入れ可能な範囲で最小の大きさであることが好ましい。また、撮像ボックス105の内部に差し入れた手を底面103上に載置し易いように、開口部107は、前面106の下側に設けられていることが好ましい。 The size of the opening 107 is not particularly limited, but the hand of the subject P can be inserted into the image pickup box 105 from the viewpoint of preventing light from the outside of the image pickup box 105 from entering the inside of the image pickup box 105. It is preferable that the size is the smallest in the above range. Further, it is preferable that the opening 107 is provided on the lower side of the front surface 106 so that the hand inserted inside the image pickup box 105 can be easily placed on the bottom surface 103.

 底面103は、撮像機器101に対する被検者Pの手の水平方向の位置合わせを可能にする位置合わせ台として機能する。撮像機器101は、位置合わせ台としての撮像ボックス105の底面103を撮像範囲に含むように設置されている。底面103は、撮像機器101に向く面が単色であることが好ましく、例えば、黒色、青色等の被検者Pの手の色とのコントラストが大きい色であることが好ましい。底面103の色として被検者Pの手の色とのコントラストが大きい色を選択することで、撮像機器101が生成した「爪を被写体として含む画像データ」において、情報処理装置20aによる爪の認識精度を高めることができる。 The bottom surface 103 functions as an alignment table that enables horizontal alignment of the subject P's hand with respect to the imaging device 101. The imaging device 101 is installed so as to include the bottom surface 103 of the imaging box 105 as an alignment table in the imaging range. The bottom surface 103 preferably has a single color on the surface facing the imaging device 101, and is preferably a color having a large contrast with the color of the subject P's hand, such as black or blue. By selecting a color having a large contrast with the color of the hand of the subject P as the color of the bottom surface 103, the information processing device 20a recognizes the nail in the "image data including the nail as the subject" generated by the imaging device 101. The accuracy can be improved.

 撮像装置10aは、隣接する爪同士が離間した状態で爪を含む人体の部位を撮影することを可能にするガイド機構を備えていることが好ましい。図11は、図10の撮像装置10aが備えているガイド機構の構成の一例を示す上面図であり、1101は、撮像ボックス105の底面103aがガイド機構として複数個の突起109aを備えている構成(変形例1)を説明しており、1102は、撮像ボックス105の底面103bがガイド機構として手の形状のガイド線109bを備えている構成(変形例2)を説明している。 It is preferable that the imaging device 10a is provided with a guide mechanism that enables an image of a part of the human body including the nails in a state where adjacent nails are separated from each other. FIG. 11 is a top view showing an example of the configuration of the guide mechanism included in the imaging device 10a of FIG. 10, and 1101 is a configuration in which the bottom surface 103a of the imaging box 105 includes a plurality of protrusions 109a as a guide mechanism. (Modification 1) is described, and 1102 describes a configuration in which the bottom surface 103b of the imaging box 105 includes a hand-shaped guide line 109b as a guide mechanism (Modification 2).

 変形例1において、ガイド機構としての複数個の突起109aは、撮像ボックス105の底面103aからZ軸正方向に突出している。複数個の突起109aは、底面103a上に所定の間隔で配置されている。被検者Pは、撮像ボックス105内に手を差し込んだ後に、指と指との間に突起109aがそれぞれ位置するように底面103a上に手を載置すればよい。撮像装置10aがガイド機構としての複数個の突起109aを備えることにより、被検者Pが、底面103a上に撮影に適した状態で手を載置できるようガイドすることができるので、隣接する爪同士が離間した状態で爪を含む人体の部位を撮影することが可能になる。その結果、撮像機器101が生成した「爪を被写体として含む画像データ」において、情報処理装置20aによる爪の認識精度を高めることができる。 In the first modification, the plurality of protrusions 109a as the guide mechanism protrude from the bottom surface 103a of the image pickup box 105 in the positive direction of the Z axis. The plurality of protrusions 109a are arranged on the bottom surface 103a at predetermined intervals. After inserting the hand into the imaging box 105, the subject P may place the hand on the bottom surface 103a so that the protrusions 109a are located between the fingers. By providing the imaging device 10a with a plurality of protrusions 109a as a guide mechanism, the subject P can be guided so that the subject P can place his / her hand on the bottom surface 103a in a state suitable for photographing. It is possible to photograph parts of the human body including the nails while they are separated from each other. As a result, in the "image data including the nail as a subject" generated by the imaging device 101, the recognition accuracy of the nail by the information processing device 20a can be improved.

 変形例2のように、ガイド機構が手の形状のガイド線109bである場合は、被検者Pは、撮像ボックス105内に手を差し込んだ後に、ガイド線109bの形状に合うように開いた状態で底面103b上に手を載置すればよい。変形例2においても、変形例1と同様に、被検者Pが、底面103b上に撮影に適した状態で手を載置できるようガイドすることができるので、隣接する爪同士が離間した状態で爪を含む人体の部位を撮影することが可能になる。その結果、撮像機器101が生成した「爪を被写体として含む画像データ」において、情報処理装置20aによる爪の認識精度を高めることができる。なお、前面106は半透明の材料で形成されているため、被検者Pは、撮像ボックス105内の手の位置を前面106越しに目視で確認しながら、底面103b上の適切な位置に手を載置することができる。 When the guide mechanism is a hand-shaped guide line 109b as in the second modification, the subject P inserts his / her hand into the imaging box 105 and then opens it so as to match the shape of the guide line 109b. The hand may be placed on the bottom surface 103b in this state. In the second modification as well, as in the first modification, the subject P can be guided so that the subject P can place his / her hand on the bottom surface 103b in a state suitable for photographing, so that the adjacent nails are separated from each other. It is possible to photograph parts of the human body including the nails. As a result, in the "image data including the nail as a subject" generated by the imaging device 101, the recognition accuracy of the nail by the information processing device 20a can be improved. Since the front surface 106 is made of a translucent material, the subject P visually confirms the position of the hand in the imaging box 105 through the front surface 106 and places the hand at an appropriate position on the bottom surface 103b. Can be placed.

 撮像装置10aが備えているガイド機構の構成は、前述の変形例に限定されない。例えば、底面103の凸凹であったり、底面103の表面の一部に棒状のものを設置したり、複数の色彩を用いた模様であってもよい。また、例えば、撮像装置10aが生成した「爪を被写体として含む画像データ」において、被検者Pの手の指の開き具合が十分でなく、情報処理装置20aが1本の爪として認識することができなかった場合に、情報処理装置20aは、隣り合う指同士がもっと離れた状態で底面103上に手を載置し直すことを被検者Pに促すメッセージを出力装置30aに表示させるように構成してもよい。 The configuration of the guide mechanism provided in the image pickup apparatus 10a is not limited to the above-mentioned modification. For example, the bottom surface 103 may be uneven, a rod-shaped object may be placed on a part of the surface of the bottom surface 103, or a pattern using a plurality of colors may be used. Further, for example, in the "image data including a nail as a subject" generated by the imaging device 10a, the degree of opening of the fingers of the subject P's hand is not sufficient, and the information processing device 20a recognizes it as one nail. If this is not possible, the information processing device 20a causes the output device 30a to display a message prompting the subject P to reposition his / her hand on the bottom surface 103 with the adjacent fingers further separated from each other. It may be configured as.

 撮像装置10aは、撮像ボックス105内部に照明として複数個のLED(light emitting diode)108を備えている。これにより、底面103の全面に均一な光を照射することができる。複数個のLED108が照射する光の強さは、爪に照射された光の反射が強くなり過ぎて爪の色に基づく衛生状態の評価精度に影響を及ぼさないように、適宜調整すればよい。 The image pickup apparatus 10a includes a plurality of LEDs (light emission diodes) 108 as illumination inside the image pickup box 105. This makes it possible to irradiate the entire surface of the bottom surface 103 with uniform light. The intensity of the light emitted by the plurality of LEDs 108 may be appropriately adjusted so that the reflection of the light applied to the nails does not become too strong and does not affect the evaluation accuracy of the sanitary condition based on the color of the nails.

 (機械学習装置40の構成)
 機械学習装置40の構成について、図5を参照して説明する。機械学習装置40は、記憶部41及び制御部42を備えている。制御部42は、機械学習装置40を統括的に制御する。機械学習装置40において、制御部42は、構築部421を含む。構築部421は、機械学習方法M2を実行する。
(Configuration of machine learning device 40)
The configuration of the machine learning device 40 will be described with reference to FIG. The machine learning device 40 includes a storage unit 41 and a control unit 42. The control unit 42 comprehensively controls the machine learning device 40. In the machine learning device 40, the control unit 42 includes the construction unit 421. The construction unit 421 executes the machine learning method M2.

 (機械学習方法M2の流れ)
 機械学習方法M2の流れについて、図12を参照して説明する。図12は、機械学習方法M2の流れを示すフローチャートである。
(Flow of machine learning method M2)
The flow of the machine learning method M2 will be described with reference to FIG. FIG. 12 is a flowchart showing the flow of the machine learning method M2.

 機械学習方法M2は、学習用データセット構築ステップM21と、学習済モデル構築ステップM22と、を含んでいる。 The machine learning method M2 includes a learning data set construction step M21 and a trained model construction step M22.

 (学習用データセット構築ステップM21)
 学習用データセット構築ステップM21は、プロセッサ401が、第1の学習用データセット及び第2の学習用データセットを作成するステップである。
(Training data set construction step M21)
The learning data set construction step M21 is a step in which the processor 401 creates a first learning data set and a second learning data set.

 (第1の学習用データセットの作成処理)
 第1の学習用データセットは、第1の評価モデル21aを構築するための複数個の第1学習用データ(教師データ)の集合である。
(Creation process of the first learning data set)
The first learning data set is a set of a plurality of first learning data (teacher data) for constructing the first evaluation model 21a.

 各第1学習用データは、1本の爪を被写体として含む教師画像データと、正解情報とを含む。教師画像データは、撮像装置10aが撮影したものであってもよいし、他の撮像装置が撮影したものであってもよい。また、教師画像データは、複数の爪を被写体として含む画像データから抽出された部分画像データであってもよい。また、教師画像データは、ネットワーク上に公開された公開画像データであってもよいし、当該公開画像データから抽出された部分画像データであってもよい。正解情報は、評価者による爪の長さの評価結果を示す情報である。 Each first learning data includes teacher image data including one nail as a subject and correct answer information. The teacher image data may be captured by the imaging device 10a or may be captured by another imaging device. Further, the teacher image data may be partial image data extracted from image data including a plurality of nails as subjects. Further, the teacher image data may be public image data published on the network, or may be partial image data extracted from the public image data. The correct answer information is information indicating the evaluation result of the nail length by the evaluator.

 学習用データセット構築ステップM21において、構築部421は、教師画像データを取得し、表示装置(図示せず)に表示する。また、構築部421は、評価者による爪の長さに基づく衛生状態の評価結果を示す正解情報を、入力装置(図示せず)を介して取得する。例えば、評価者は、表示装置に表示された教師画像データを視認して、「合格」または「不合格」との評価結果を入力装置から入力してもよい。また、評価者は、表示装置に表示された教師画像データを視認して、衛生状態のスコアを入力装置から入力してもよい。 In the learning data set construction step M21, the construction unit 421 acquires the teacher image data and displays it on the display device (not shown). In addition, the construction unit 421 acquires correct answer information indicating the evaluation result of the hygiene condition based on the length of the nail by the evaluator via an input device (not shown). For example, the evaluator may visually recognize the teacher image data displayed on the display device and input the evaluation result of "pass" or "fail" from the input device. Further, the evaluator may visually recognize the teacher image data displayed on the display device and input the sanitation score from the input device.

 また、構築部421は、教師画像データと、正解情報とを含む第1学習用データを生成する。また、構築部421は、生成した第1学習用データを記憶部41に格納する。以上のプロセスを、複数の教師画像データに対して構築部421が繰り返すことによって、第1の学習用データセットが作成される。 Further, the construction unit 421 generates the first learning data including the teacher image data and the correct answer information. Further, the construction unit 421 stores the generated first learning data in the storage unit 41. The first learning data set is created by repeating the above process for the plurality of teacher image data by the construction unit 421.

 (第2の学習用データセットの作成処理)
 第2の学習用データセットは、第2の評価モデル21bを構築するための複数個の第2学習用データ(教師データ)の集合である。
(Creation process of the second training data set)
The second learning data set is a set of a plurality of second learning data (teacher data) for constructing the second evaluation model 21b.

 各第2学習用データは、1本の爪を被写体として含む教師画像データと、正解情報とを含む。教師画像データについては、第1の学習用データセットの作成処理において説明した通りである。なお、第2の学習用データセットの作成処理で用いる教師データの一部または全部は、第1の学習用データセットの作成に用いたものと同一であってもよい。正解情報は、評価者による爪の色の評価結果を示す情報である。 Each second learning data includes teacher image data including one nail as a subject and correct answer information. The teacher image data is as described in the first learning data set creation process. Note that part or all of the teacher data used in the process of creating the second learning data set may be the same as that used in the process of creating the first learning data set. The correct answer information is information indicating the evaluation result of the nail color by the evaluator.

 学習用データセット構築ステップM21において、構築部421は、教師画像データを取得し、表示装置(図示せず)に表示する。また、構築部421は、評価者による爪の色に基づく衛生状態の評価結果を示す正解情報を、入力装置(図示せず)を介して取得する。評価者による正解情報の入力手法の具体例については、第1の学習用データセットの作成処理において説明した通りである。 In the learning data set construction step M21, the construction unit 421 acquires the teacher image data and displays it on the display device (not shown). In addition, the construction unit 421 acquires correct answer information indicating the evaluation result of the hygiene condition based on the color of the nail by the evaluator via an input device (not shown). A specific example of the method for inputting correct answer information by the evaluator is as described in the first process of creating the learning data set.

 また、構築部421は、教師画像データと、正解情報とを含む第2学習用データを生成する。また、構築部421は、生成した第2学習用データを記憶部41に格納する。以上のプロセスを、複数の教師画像データに対して構築部421が繰り返すことによって、第2の学習用データセットが作成される。 Further, the construction unit 421 generates the second learning data including the teacher image data and the correct answer information. Further, the construction unit 421 stores the generated second learning data in the storage unit 41. The construction unit 421 repeats the above process for a plurality of teacher image data, thereby creating a second learning data set.

 (学習済モデル構築ステップM22)
 学習済モデル構築ステップM22は、構築部421が、第1の評価モデル21a及び第2の評価モデル21bを構築するステップである。学習済モデル構築ステップM22において、構築部421は、第1の学習用データセットを用いた教師あり学習によって、第1の評価モデル21aを構築する。また、構築部421は、第2の学習用データセットを用いた教師あり学習によって、第2の評価モデル21bを構築する。構築された第1の評価モデル21a及び第2の評価モデル21bは、記憶部41に格納される。
(Trained model construction step M22)
The trained model construction step M22 is a step in which the construction unit 421 constructs the first evaluation model 21a and the second evaluation model 21b. In the trained model construction step M22, the construction unit 421 constructs the first evaluation model 21a by supervised learning using the first learning data set. In addition, the construction unit 421 constructs the second evaluation model 21b by supervised learning using the second learning data set. The constructed first evaluation model 21a and second evaluation model 21b are stored in the storage unit 41.

 (実施形態2の他の態様1)
 実施形態2として、評価部222が爪の衛生状態を評価するために用いる評価モデルの個数が、2つである態様を説明した。ただし、評価部222が用いる評価モデルの個数は2つに限定されない。例えば、評価部222は、第1の評価モデル21a及び第2の評価モデル21bの何れか一方を用いて爪の衛生状態を評価してもよい。また、評価部222は、第1の評価モデル21a及び第2の評価モデル21bに加えて、他の評価モデルを用いて爪の衛生状態を評価してもよい。この場合、他の評価モデルは、爪を被写体として含む画像データを入力として、爪の他の観点に基づく衛生状態の評価結果を示す情報を出力するよう機械学習により構築される。
(Other Aspect 1 of Embodiment 2)
As the second embodiment, the embodiment in which the number of evaluation models used by the evaluation unit 222 for evaluating the hygiene condition of the nail is two has been described. However, the number of evaluation models used by the evaluation unit 222 is not limited to two. For example, the evaluation unit 222 may evaluate the hygiene state of the nail using either the first evaluation model 21a or the second evaluation model 21b. Further, the evaluation unit 222 may evaluate the hygiene state of the nail by using another evaluation model in addition to the first evaluation model 21a and the second evaluation model 21b. In this case, the other evaluation model is constructed by machine learning so as to input image data including the nail as a subject and output information indicating the evaluation result of the sanitation state based on another viewpoint of the nail.

 (実施形態2の他の態様2)
 実施形態2として、第1の評価モデル21a及び第2の評価モデル21bの入力が、1つの爪を被写体として含む部分画像データIMG-iである態様を説明した。ただし、第1の評価モデル21a及び第2の評価モデル21bの入力は、2本以上の指の爪を被写体として含む画像データHであってもよい。
(Other Aspect 2 of Embodiment 2)
As the second embodiment, the aspect in which the input of the first evaluation model 21a and the second evaluation model 21b is the partial image data IMG-i including one nail as a subject has been described. However, the input of the first evaluation model 21a and the second evaluation model 21b may be image data H including two or more fingernails as subjects.

 この場合、構築部421は、複数の爪を被写体として含む学習用の画像データと、評価者が複数の爪の長さに基づく衛生状態を評価した評価結果を示す正解情報とを含む第1学習用データを生成する。これにより、第1の評価モデル21aは、そのような第1学習用データからなる第1学習用データセットを用いて機械学習される。また、構築部421は、複数の爪を被写体として含む学習用の画像データと、評価者が複数の爪の色に基づく衛生状態を評価した評価結果を示す正解情報とを含む第2学習用データを生成する。これにより、第2の評価モデル21bは、そのような第2学習用データからなる第2学習用データセットを用いて機械学習される。 In this case, the construction unit 421 includes first learning including image data for learning including a plurality of claws as subjects and correct answer information indicating an evaluation result in which the evaluator evaluates the sanitation state based on the lengths of the plurality of claws. Generate data for. As a result, the first evaluation model 21a is machine-learned using the first learning data set including such first learning data. In addition, the construction unit 421 includes second learning data including image data for learning including a plurality of nails as subjects and correct answer information indicating an evaluation result in which an evaluator evaluates a sanitary condition based on the colors of the plurality of nails. To generate. As a result, the second evaluation model 21b is machine-learned using the second learning data set including such second learning data.

 また、この場合、評価部222は、評価ステップM12において、部分画像データの抽出処理を省略し、取得部221が取得した画像データHを第1の評価モデル21a及び第2の評価モデル21bのそれぞれに入力してもよい。 Further, in this case, the evaluation unit 222 omits the partial image data extraction process in the evaluation step M12, and uses the image data H acquired by the acquisition unit 221 as the first evaluation model 21a and the second evaluation model 21b, respectively. You may enter in.

 なお、第1の評価モデル21a及び第2の評価モデル21bの入力が部分画像データIMG-iである場合、比較的少ない学習用の画像データを用いて第1の評価モデル21a及び第2の評価モデル21bを精度よく構築することが可能である。これに対して、第1の評価モデル21a及び第2の評価モデル21bの入力が画像データHである場合、評価部222の処理コストを低減することが可能であるというメリットがある。 When the input of the first evaluation model 21a and the second evaluation model 21b is the partial image data IMG-i, the first evaluation model 21a and the second evaluation are evaluated using a relatively small amount of image data for learning. It is possible to construct the model 21b with high accuracy. On the other hand, when the input of the first evaluation model 21a and the second evaluation model 21b is the image data H, there is an advantage that the processing cost of the evaluation unit 222 can be reduced.

 (実施形態2の他の態様3)
 実施形態2において、評価システム1aは、出力装置30aの代わりに、被検者端末と、被検者側の出力装置と、管理者端末と、管理者側の出力装置とを含んでもよい。この場合、情報処理装置20aは、被検者端末及び管理者端末のそれぞれと、ネットワークを介して通信可能に接続される。例えば、被検者端末と、被検者側の出力装置と、撮像装置10aとは、食品工場の入口付近に設置される。また、例えば、管理者端末と、管理者側の出力装置とは、管理者のオフィスに設置される。
(Other Aspect 3 of Embodiment 2)
In the second embodiment, the evaluation system 1a may include a subject terminal, a subject-side output device, an administrator terminal, and an administrator-side output device instead of the output device 30a. In this case, the information processing device 20a is communicably connected to each of the subject terminal and the administrator terminal via the network. For example, the subject terminal, the subject-side output device, and the image pickup device 10a are installed near the entrance of the food factory. Further, for example, the administrator terminal and the output device on the administrator side are installed in the office of the administrator.

 本態様において、評価部222は、出力ステップM13において、図8に示すような被検者向けの情報を被検者側の出力装置に出力し、図9に示すような管理者向けの情報を管理者側の出力装置に出力してもよい。また、評価部222は、管理者向けの情報を管理者側の出力装置に出力する処理を、出力ステップM13において実行することに代えて、または加えて、管理者による要求に応じて実行してもよい。管理者による要求は、管理者端末の入力装置(図示せず)を介して入力される。 In this embodiment, in the output step M13, the evaluation unit 222 outputs the information for the subject as shown in FIG. 8 to the output device on the subject side, and outputs the information for the administrator as shown in FIG. It may be output to the output device on the administrator side. Further, the evaluation unit 222 executes the process of outputting the information for the administrator to the output device on the administrator side instead of or in addition to executing the process in the output step M13 in response to the request from the administrator. May be good. The request by the administrator is input via an input device (not shown) of the administrator terminal.

 (実施形態2の他の態様4)
 実施形態2として、情報処理装置20aの記憶部23に第1の評価モデル21aおよび第2の評価モデル21bが格納されている態様を説明した。しかし、情報処理装置20aは、第1の評価モデル21aおよび第2の評価モデル21bを含んでいなくてもよい。例えば、第1の評価モデル21aおよび第2の評価モデル21bは、情報処理装置20aとネットワークを介して接続された他のコンピュータ(例えば、クラウドサーバを構成するコンピュータ)に内蔵されていてもよい。そしてこの場合、情報処理装置20aの評価部222は、ネットワーク経由で第1の評価モデル21aおよび第2の評価モデル21bを利用して、爪の長さ及び色に基づく衛生状態の評価結果を生成すればよい。
(Other Aspect 4 of Embodiment 2)
As the second embodiment, the mode in which the first evaluation model 21a and the second evaluation model 21b are stored in the storage unit 23 of the information processing device 20a has been described. However, the information processing device 20a does not have to include the first evaluation model 21a and the second evaluation model 21b. For example, the first evaluation model 21a and the second evaluation model 21b may be built in another computer (for example, a computer constituting a cloud server) connected to the information processing device 20a via a network. In this case, the evaluation unit 222 of the information processing device 20a uses the first evaluation model 21a and the second evaluation model 21b via the network to generate an evaluation result of the sanitary condition based on the length and color of the nail. do it.

 (実施形態2の効果)
 本実施形態は、画像データを入力として、AI(Artificial Intelligence、人工知能)を用いて爪の衛生状態を評価するので、画像解析が不要であり、また、解析結果に基づき爪の衛生状態を評価する評価ルールをあらかじめ設ける必要がないというメリットを有している。これは、AIを用いている実施形態1の評価システム1と同様の効果といえる。また、本実施形態では、評価部222は、爪の長さ及び色に基づく衛生状態を評価するので、爪の長さのみに基づく衛生状態を評価する場合と比較して、爪の衛生状態を精度よく、より多角的に評価することができる。さらには、本実施形態では、評価部222が、第1の評価モデル21a及び第2の評価モデル21bの2種類の評価モデルを用いるので、1種の評価モデルを用いて爪の長さ及び色に基づく衛生状態を評価する場合と比較して、爪の衛生状態をより精度良く評価することができる。
(Effect of Embodiment 2)
In this embodiment, since image data is input and the hygiene state of the nail is evaluated using AI (Artificial Intelligence), image analysis is not required, and the hygiene state of the nail is evaluated based on the analysis result. It has the advantage that it is not necessary to set up evaluation rules in advance. This can be said to have the same effect as the evaluation system 1 of the first embodiment using AI. Further, in the present embodiment, the evaluation unit 222 evaluates the hygiene condition based on the length and color of the nail, so that the hygiene condition of the nail is evaluated as compared with the case of evaluating the hygiene condition based only on the length of the nail. It is possible to evaluate with high accuracy and from various angles. Further, in the present embodiment, since the evaluation unit 222 uses two types of evaluation models, the first evaluation model 21a and the second evaluation model 21b, the length and color of the nail are used by using one type of evaluation model. Compared with the case of evaluating the sanitary condition based on the above, the sanitary condition of the nail can be evaluated more accurately.

 (情報処理装置20aのハードウエア構成例)
 情報処理装置20aは、例えば図13のようなハードウエア構成を備えていてもよい。図13は、情報処理装置20aのハードウエア構成の一例を示すブロック図である。
(Example of hardware configuration of information processing device 20a)
The information processing device 20a may have a hardware configuration as shown in FIG. 13, for example. FIG. 13 is a block diagram showing an example of the hardware configuration of the information processing apparatus 20a.

 情報処理装置20aは、汎用コンピュータを用いて実現されており、プロセッサ201と、一次メモリ202と、二次メモリ203と、入出力インタフェース204と、通信インタフェース205と、バス206とを備えている。プロセッサ201、一次メモリ202、二次メモリ203、入出力インタフェース204、及び通信インタフェース205は、バス206を介して相互に接続されている。 The information processing device 20a is realized by using a general-purpose computer, and includes a processor 201, a primary memory 202, a secondary memory 203, an input / output interface 204, a communication interface 205, and a bus 206. The processor 201, the primary memory 202, the secondary memory 203, the input / output interface 204, and the communication interface 205 are connected to each other via the bus 206.

 二次メモリ203には、情報処理プログラム及び1または複数の評価モデルが格納されている。二次メモリ203は、記憶部23を実現する構成の一例である。プロセッサ201は、二次メモリ203に格納されている情報処理プログラム及び1または複数の評価モデルを一次メモリ202上に展開する。そして、プロセッサ201は、一次メモリ202上に展開された情報処理プログラムに含まれる命令に従って、情報処理方法M1に含まれる各ステップを実行することにより、制御部22として機能する。一次メモリ202上に展開された1または複数の評価モデル(例えば、第1の評価モデル21a及び第2の評価モデル21b)は、情報処理方法M1の評価ステップM12をプロセッサ201が実行する際に利用される。なお、情報処理プログラムが二次メモリ203に格納されているとは、ソースコード、または、ソースコードをコンパイルすることにより得られた実行形式ファイルが二次メモリ203に記憶されていることを指す。また、1または複数の評価モデルが二次メモリ203に格納されているとは、1または複数の評価モデルを規定するパラメータが二次メモリ203に格納されていることを指す。 The information processing program and one or more evaluation models are stored in the secondary memory 203. The secondary memory 203 is an example of a configuration that realizes the storage unit 23. The processor 201 develops the information processing program and one or more evaluation models stored in the secondary memory 203 on the primary memory 202. Then, the processor 201 functions as the control unit 22 by executing each step included in the information processing method M1 according to the instructions included in the information processing program expanded on the primary memory 202. One or a plurality of evaluation models (for example, the first evaluation model 21a and the second evaluation model 21b) developed on the primary memory 202 are used when the processor 201 executes the evaluation step M12 of the information processing method M1. Will be done. The fact that the information processing program is stored in the secondary memory 203 means that the source code or the execution format file obtained by compiling the source code is stored in the secondary memory 203. Further, the fact that one or more evaluation models are stored in the secondary memory 203 means that the parameters defining the one or more evaluation models are stored in the secondary memory 203.

 プロセッサ201として利用可能なデバイスとしては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、DSP(Digital Signal Processor)、MPU(Micro Processing Unit)、FPU(Floating point number Processing Unit)、PPU(Physics Processing Unit)、マイクロコントローラ、または、これらの組み合わせを挙げることができる。 Devices that can be used as the processor 201 include, for example, a CPU (Central Processing Unit), a GPU (Graphic Processing Unit), a DSP (Digital Signal Processor), an MPU (Micro Processing Unit), an FPU (Floating point number Processing Unit), and a PPU. (Physics Processing Unit), a microcontroller, or a combination thereof.

 また、一次メモリ202として利用可能なデバイスとしては、例えば、RAM(Random Access Memory)を挙げることができる。一次メモリ202は、「主記憶装置」と呼ばれることもある。また、二次メモリ203として利用可能なデバイスとしては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、ODD(Optical Disk Drive)、または、これらの組み合わせを挙げることができる。二次メモリ203は、「補助記憶装置」と呼ばれることもある。なお、二次メモリ203は、情報処理装置20aに内蔵されていてもよいし、入出力インタフェース204または通信インタフェース205を介して情報処理装置20aと接続された他のコンピュータ(例えば、クラウドサーバを構成するコンピュータ)に内蔵されていてもよい。なお、本実施形態においては、情報処理装置20aにおける記憶を2つのメモリ(一次メモリ202及び二次メモリ203)により実現しているが、これに限定されない。すなわち、情報処理装置20aにおける記憶を1つのメモリにより実現してもよい。この場合、例えば、そのメモリの或る記憶領域を一次メモリ202として利用し、そのメモリの他の記憶領域を二次メモリ203として利用すればよい。 Further, as a device that can be used as the primary memory 202, for example, RAM (Random Access Memory) can be mentioned. The primary memory 202 is sometimes referred to as the "main storage device". Examples of the device that can be used as the secondary memory 203 include a flash memory, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an ODD (Optical Disk Drive), or a combination thereof. .. The secondary memory 203 is sometimes called an "auxiliary storage device". The secondary memory 203 may be built in the information processing device 20a, or constitutes another computer (for example, a cloud server) connected to the information processing device 20a via the input / output interface 204 or the communication interface 205. It may be built into the computer. In the present embodiment, the storage in the information processing apparatus 20a is realized by two memories (primary memory 202 and secondary memory 203), but the present invention is not limited to this. That is, the memory in the information processing device 20a may be realized by one memory. In this case, for example, a certain storage area of the memory may be used as the primary memory 202, and the other storage area of the memory may be used as the secondary memory 203.

 入出力インタフェース204には、入力デバイス及び/または出力デバイスが接続される。入出力インタフェース204としては、例えば、USB(Universal Serial Bus)、ATA(Advanced Technology Attachment)、SCSI(Small Computer System Interface)、PCI(Peripheral Component Interconnect)などのインタフェースが挙げられる。入出力インタフェース204に接続される入力デバイスとしては、撮像装置10aが挙げられる。情報処理方法M1において撮像装置10aから取得する画像データは、一次メモリ202に記憶される。また、入出力インタフェース204に接続される入力デバイスとしては、例えば、キーボード、マウス、タッチパッド、マイク、または、これらの組み合わせが挙げられる。また、入出力インタフェース204に接続される出力デバイスとしては、例えば、出力装置30a(ディスプレイ、プロジェクタ、プリンタ、スピーカ、ヘッドホン、または、これらの組み合わせ)が挙げられる。情報処理方法M1においてユーザに提供する情報は、これらの出力デバイスを介して情報処理装置20aから出力される。なお、情報処理装置20aは、ラップトップ型コンピュータのように、入力デバイスとして機能するキーボードと、出力デバイスとして機能するディスプレイとを、それぞれ内蔵してもよい。或いは、情報処理装置20aは、タブレット型コンピュータのように、入力デバイス及び出力デバイスの両方として機能するタッチパネルを内蔵していてもよい。 An input device and / or an output device is connected to the input / output interface 204. Examples of the input / output interface 204 include interfaces such as USB (Universal Serial Bus), ATA (Advanced Technology Attachment), SCSI (Small Computer System Interface), and PCI (Peripheral Component Interconnect). Examples of the input device connected to the input / output interface 204 include an image pickup device 10a. The image data acquired from the image pickup apparatus 10a in the information processing method M1 is stored in the primary memory 202. Examples of the input device connected to the input / output interface 204 include a keyboard, a mouse, a touch pad, a microphone, or a combination thereof. Examples of the output device connected to the input / output interface 204 include an output device 30a (display, projector, printer, speaker, headphones, or a combination thereof). The information provided to the user in the information processing method M1 is output from the information processing device 20a via these output devices. The information processing device 20a may include a keyboard that functions as an input device and a display that functions as an output device, such as a laptop computer. Alternatively, the information processing device 20a may have a built-in touch panel that functions as both an input device and an output device, such as a tablet computer.

 通信インタフェース205には、ネットワークを介して他のコンピュータが有線接続または無線接続される。通信インタフェース205としては、例えば、イーサネット(登録商標)、Wi-Fi(登録商標)などのインタフェースが挙げられる。利用可能なネットワークとしては、例えば、PAN(Personal Area Network)、LAN(Local Area Network)、CAN(Campus Area Network)、MAN(Metropolitan Area Network)、WAN(Wide Area Network)、GAN(Global Area Network)、または、これらのネットワークを含むインターネットワークが挙げられる。インターネットワークは、イントラネットであってもよいし、エクストラネットであってもよいし、インターネットであってもよい。情報処理方法M1において情報処理装置20aが他のコンピュータ(例えば、機械学習装置40)から取得するデータ(例えば、1または複数の評価モデル)、及び、情報処理方法M1において情報処理装置20aが他のコンピュータに提供するデータは、これらのネットワークを介して送受信される。 Another computer is connected to the communication interface 205 by wire or wirelessly via a network. Examples of the communication interface 205 include interfaces such as Ethernet (registered trademark) and Wi-Fi (registered trademark). Available networks include, for example, PAN (Personal Area Network), LAN (Local Area Network), CAN (Campus Area Network), MAN (Metropolitan Area Network), WAN (Wide Area Network), and GAN (Global Area Network). , Or an interconnect network including these networks. Internetwork may be an intranet, an extranet, or the Internet. In the information processing method M1, the information processing device 20a acquires data (for example, one or more evaluation models) from another computer (for example, the machine learning device 40), and in the information processing method M1, the information processing device 20a is another. The data provided to the computer is transmitted and received via these networks.

 なお、本実施形態においては、単一のプロセッサ(プロセッサ201)を用いて情報処理方法M1を実行する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のプロセッサを用いて情報処理方法M1を実行する構成を採用してもよい。例えば、取得ステップM11を第1のプロセッサにおいて実行し、評価ステップM12を第2のプロセッサにおいて実行してもよい。この場合、連携して情報処理方法M1を実行する複数のプロセッサは、単一のコンピュータに設けられ、バスを介して相互に通信可能に構成されていてもよいし、複数のコンピュータに分散して設けられ、ネットワークを介して相互に通信可能に構成されていてもよい。一例として、クラウドサーバを構成するコンピュータに内蔵されたプロセッサと、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサとが、連携して情報処理方法M1を実行する態様などが考えられる。 Although the present embodiment employs a configuration in which the information processing method M1 is executed using a single processor (processor 201), the present invention is not limited to this. That is, a configuration may be adopted in which the information processing method M1 is executed using a plurality of processors. For example, the acquisition step M11 may be executed in the first processor and the evaluation step M12 may be executed in the second processor. In this case, a plurality of processors that cooperate to execute the information processing method M1 may be provided in a single computer and may be configured to be able to communicate with each other via a bus, or may be distributed to the plurality of computers. It may be provided and configured to be able to communicate with each other via a network. As an example, a mode in which a processor built in a computer constituting a cloud server and a processor built in a computer owned by a user of the cloud server cooperate to execute the information processing method M1 can be considered.

 また、本実施形態においては、情報処理方法M1を実行するプロセッサ(プロセッサ201)と同じコンピュータに内蔵されたメモリ(二次メモリ203)に評価モデルを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、情報処理方法M1を実行するプロセッサと異なるコンピュータに内蔵されたメモリに1または複数の評価モデルを格納する構成を採用してもよい。この場合、1または複数の評価モデルを格納するメモリが内蔵されたコンピュータは、情報処理方法M1を実行するプロセッサが内蔵されたコンピュータとネットワークを介して相互に通信可能に構成される。一例として、クラウドサーバを構成するコンピュータに内蔵されたメモリに1または複数の評価モデルを格納し、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサが情報処理方法M1を実行する態様などが考えられる。 Further, in the present embodiment, the configuration in which the evaluation model is stored in the memory (secondary memory 203) built in the same computer as the processor (processor 201) that executes the information processing method M1 is adopted, but the present invention. Is not limited to this. That is, a configuration may be adopted in which one or a plurality of evaluation models are stored in a memory built in a computer different from the processor that executes the information processing method M1. In this case, a computer having a built-in memory for storing one or a plurality of evaluation models is configured to be able to communicate with each other via a network with a computer having a built-in processor that executes the information processing method M1. As an example, an embodiment in which one or more evaluation models are stored in the memory built in the computer constituting the cloud server, and the processor built in the computer owned by the user of the cloud server executes the information processing method M1. Can be considered.

 また、本実施形態においては、単一のメモリ(二次メモリ203)に1または複数の評価モデルを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のメモリに1または複数の評価モデルを分散して格納する構成を採用してもよい。この場合、1または複数の評価モデルを格納する複数のメモリは、単一のコンピュータ(情報処理方法M1を実行するプロセッサが内蔵されたコンピュータであってもよいし、そうでなくてもよい)に設けられていてもよいし、複数のコンピュータ(情報処理方法M1を実行するプロセッサが内蔵されたコンピュータを含んでいてもよいし、そうでなくてもよい)に分散して設けられていてもよい。一例として、クラウドサーバを構成する複数のコンピュータの各々に内蔵されたメモリに1または複数の評価モデルを分散して格納する構成などが考えられる。 Further, in the present embodiment, a configuration in which one or more evaluation models are stored in a single memory (secondary memory 203) is adopted, but the present invention is not limited to this. That is, a configuration may be adopted in which one or a plurality of evaluation models are distributed and stored in a plurality of memories. In this case, the plurality of memories for storing one or more evaluation models may or may not be a computer having a built-in processor that executes the information processing method M1. It may be provided, or may be distributed among a plurality of computers (which may or may not include a computer having a processor that executes the information processing method M1). .. As an example, a configuration in which one or a plurality of evaluation models are distributed and stored in a memory built in each of a plurality of computers constituting a cloud server can be considered.

 (機械学習装置40のハードウエア構成)
 機械学習装置40は、例えば図14のようなハードウエア構成を備えていてもよい。図14は、機械学習装置40のハードウエア構成の一例を示すブロック図である。
(Hardware configuration of machine learning device 40)
The machine learning device 40 may have a hardware configuration as shown in FIG. 14, for example. FIG. 14 is a block diagram showing an example of the hardware configuration of the machine learning device 40.

 機械学習装置40は、汎用コンピュータを用いて実現されており、プロセッサ401と、一次メモリ402と、二次メモリ403と、入出力インタフェース404と、通信インタフェース405と、バス406とを備えている。プロセッサ401、一次メモリ402、二次メモリ403、入出力インタフェース404、及び通信インタフェース405は、バス406を介して相互に接続されている。 The machine learning device 40 is realized by using a general-purpose computer, and includes a processor 401, a primary memory 402, a secondary memory 403, an input / output interface 404, a communication interface 405, and a bus 406. The processor 401, the primary memory 402, the secondary memory 403, the input / output interface 404, and the communication interface 405 are connected to each other via the bus 406.

 二次メモリ403には、機械学習プログラム及び学習用データセットが格納されている。二次メモリ403は、記憶部41を実現する構成の一例である。学習用データセットは、複数個の学習用データの集合である。プロセッサ401は、二次メモリ403に格納されている機械学習プログラムを一次メモリ402上に展開する。そして、プロセッサ401は、一次メモリ402上に展開された機械学習プログラムに含まれる命令に従って、機械学習方法M2に含まれる各ステップを実行することにより制御部42として機能する。二次メモリ403に格納された学習用データセットは、機械学習方法M2の学習用データセット構築ステップM21にて作成され、機械学習方法M2の学習済モデル構築ステップM22において利用される。また、機械学習方法M2の学習済モデル構築ステップM22にて構築された1または複数の評価モデルも、二次メモリ403に格納される。なお、機械学習プログラムが二次メモリ403に格納されているとは、ソースコード、または、ソースコードをコンパイルすることにより得られた実行形式ファイルが二次メモリ403に記憶されていることを指す。また、1または複数の評価モデルが二次メモリ403に格納されているとは、1または複数の評価モデルを規定するパラメータが二次メモリ403に格納されていることを指す。 The secondary memory 403 stores a machine learning program and a learning data set. The secondary memory 403 is an example of a configuration that realizes the storage unit 41. A training data set is a set of a plurality of training data. The processor 401 expands the machine learning program stored in the secondary memory 403 on the primary memory 402. Then, the processor 401 functions as the control unit 42 by executing each step included in the machine learning method M2 according to the instructions included in the machine learning program expanded on the primary memory 402. The learning data set stored in the secondary memory 403 is created in the learning data set construction step M21 of the machine learning method M2, and is used in the trained model construction step M22 of the machine learning method M2. Further, one or a plurality of evaluation models constructed in the trained model construction step M22 of the machine learning method M2 are also stored in the secondary memory 403. The fact that the machine learning program is stored in the secondary memory 403 means that the source code or the execution format file obtained by compiling the source code is stored in the secondary memory 403. Further, the fact that one or more evaluation models are stored in the secondary memory 403 means that the parameters defining the one or more evaluation models are stored in the secondary memory 403.

 プロセッサ401、一次メモリ402または二次メモリ403として利用可能なデバイスの具体例としては、情報処理装置20aのハードウエア構成の説明において記載したとおりである。なお、二次メモリ403は、機械学習装置40に内蔵されていてもよいし、入出力インタフェース404または通信インタフェース405を介して機械学習装置40と接続された他のコンピュータ(例えば、クラウドサーバを構成するコンピュータ)に内蔵されていてもよい。なお、本実施形態においては、機械学習装置40における記憶を2つのメモリ(一次メモリ402及び二次メモリ403)により実現しているが、これに限定されない。すなわち、機械学習装置40における記憶を1つのメモリにより実現してもよい。この場合、例えば、そのメモリの或る記憶領域を一次メモリ402として利用し、そのメモリの他の記憶領域を二次メモリ403として利用すればよい。 Specific examples of the devices that can be used as the processor 401, the primary memory 402, or the secondary memory 403 are as described in the description of the hardware configuration of the information processing device 20a. The secondary memory 403 may be built in the machine learning device 40, or constitutes another computer (for example, a cloud server) connected to the machine learning device 40 via the input / output interface 404 or the communication interface 405. It may be built into the computer. In the present embodiment, the storage in the machine learning device 40 is realized by two memories (primary memory 402 and secondary memory 403), but the present invention is not limited to this. That is, the memory in the machine learning device 40 may be realized by one memory. In this case, for example, a certain storage area of the memory may be used as the primary memory 402, and the other storage area of the memory may be used as the secondary memory 403.

 入出力インタフェース404には、入力デバイス及び/又は出力デバイスが接続される。入出力インタフェース404の具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。入出力インタフェース404に接続される入力デバイスとしては、撮像装置10aが挙げられる。機械学習方法M2において撮像装置10aから取得するデータは、機械学習装置40に入力され、一次メモリ402に記憶される。また、入出力インタフェース404に接続される入力デバイスの具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。機械学習方法M2においてユーザから取得するデータは、これらの入力デバイスを介して機械学習装置40に入力され、一次メモリ402に記憶される。また、入出力インタフェース404に接続される出力デバイスの具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。機械学習方法M2においてユーザに提供する情報は、これらの出力デバイスを介して機械学習装置40から出力される。なお、機械学習装置40は、ラップトップ型コンピュータのように、入力デバイスとして機能するキーボードと、出力デバイスとして機能するディスプレイとを、それぞれ内蔵してもよい。或いは、機械学習装置40は、タブレット型コンピュータのように、入力デバイス及び出力デバイスの両方として機能するタッチパネルを内蔵していてもよい。 An input device and / or an output device is connected to the input / output interface 404. A specific example of the input / output interface 404 is as described in the description of the hardware configuration of the information processing apparatus 20a. Examples of the input device connected to the input / output interface 404 include an image pickup device 10a. The data acquired from the image pickup apparatus 10a in the machine learning method M2 is input to the machine learning apparatus 40 and stored in the primary memory 402. Further, a specific example of the input device connected to the input / output interface 404 is as described in the description of the hardware configuration of the information processing device 20a. The data acquired from the user in the machine learning method M2 is input to the machine learning device 40 via these input devices and stored in the primary memory 402. Further, a specific example of the output device connected to the input / output interface 404 is as described in the description of the hardware configuration of the information processing device 20a. The information provided to the user in the machine learning method M2 is output from the machine learning device 40 via these output devices. The machine learning device 40 may include a keyboard that functions as an input device and a display that functions as an output device, such as a laptop computer. Alternatively, the machine learning device 40 may have a built-in touch panel that functions as both an input device and an output device, such as a tablet computer.

 通信インタフェース405には、ネットワークを介して他のコンピュータが有線接続又は無線接続される。通信インタフェース405の具体例は、情報処理装置20aのハードウエア構成の説明において記載したとおりである。インターネットワークは、イントラネットであってもよいし、エクストラネットであってもよいし、インターネットであってもよい。機械学習装置40が他のコンピュータ(例えば、情報処理装置20a)に提供するデータ(例えば、1または複数の評価モデル)は、これらのネットワークを介して送受信される。 Another computer is connected to the communication interface 405 by wire or wirelessly via a network. A specific example of the communication interface 405 is as described in the description of the hardware configuration of the information processing device 20a. Internetwork may be an intranet, an extranet, or the Internet. Data (eg, one or more evaluation models) provided by the machine learning device 40 to another computer (eg, information processing device 20a) is transmitted and received via these networks.

 なお、本実施形態においては、単一のプロセッサ(プロセッサ401)を用いて機械学習方法M2を実行する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のプロセッサを用いて機械学習方法M2を実行する構成を採用してもよい。例えば、学習用データセット構築ステップM21を第1のプロセッサにおいて実行し、学習済モデル構築ステップM22を第2のプロセッサにおいて実行する構成を採用してもよい。この場合、連携して機械学習方法M2を実行する複数のプロセッサは、単一のコンピュータに設けられ、バスを介して相互に通信可能に構成されていてもよいし、複数のコンピュータに分散して設けられ、ネットワークを介して相互に通信可能に構成されていてもよい。一例として、クラウドサーバを構成するコンピュータに内蔵されたプロセッサと、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサとが、連携して機械学習方法M2を実行する態様などが考えられる。 Although the present embodiment employs a configuration in which the machine learning method M2 is executed using a single processor (processor 401), the present invention is not limited to this. That is, a configuration may be adopted in which the machine learning method M2 is executed using a plurality of processors. For example, a configuration may be adopted in which the training data set construction step M21 is executed in the first processor and the trained model construction step M22 is executed in the second processor. In this case, a plurality of processors that collaborate to execute the machine learning method M2 may be provided in a single computer and may be configured to be able to communicate with each other via a bus, or may be distributed to a plurality of computers. It may be provided and configured to be able to communicate with each other via a network. As an example, a mode in which a processor built in a computer constituting a cloud server and a processor built in a computer owned by a user of the cloud server cooperate to execute the machine learning method M2 can be considered.

 また、本実施形態においては、機械学習方法M2を実行するプロセッサ(プロセッサ401)と同じコンピュータに内蔵されたメモリ(二次メモリ403)に学習用データセットを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、機械学習方法M2を実行するプロセッサと異なるコンピュータに内蔵されたメモリに学習用データセットを格納する構成を採用してもよい。この場合、学習用データセットを格納するメモリが内蔵されたコンピュータは、機械学習方法M2を実行するプロセッサが内蔵されたコンピュータとネットワークを介して相互に通信可能に構成される。一例として、クラウドサーバを構成するコンピュータに内蔵されたメモリに学習用データセットを格納し、そのクラウドサーバの利用者が所有するコンピュータに内蔵されたプロセッサが機械学習方法M2を実行する態様などが考えられる。 Further, in the present embodiment, a configuration is adopted in which the learning data set is stored in the memory (secondary memory 403) built in the same computer as the processor (processor 401) that executes the machine learning method M2. The present invention is not limited to this. That is, a configuration may be adopted in which the learning data set is stored in a memory built in a computer different from the processor that executes the machine learning method M2. In this case, the computer having the built-in memory for storing the learning data set is configured to be able to communicate with each other via the network with the computer having the built-in processor that executes the machine learning method M2. As an example, a mode in which a learning data set is stored in a memory built in a computer constituting a cloud server and a processor built in the computer owned by the user of the cloud server executes the machine learning method M2 is considered. Be done.

 また、本実施形態においては、単一のメモリ(二次メモリ403)に学習用データセットを格納する構成を採用しているが、本発明は、これに限定されない。すなわち、複数のメモリに学習用データセットを分散して格納する構成を採用してもよい。この場合、学習用データセットを格納する複数のメモリは、単一のコンピュータ(機械学習方法M2を実行するプロセッサが内蔵されたコンピュータであってもよいし、そうでなくてもよい)に設けられていてもよいし、複数のコンピュータ(機械学習方法M2を実行するプロセッサが内蔵されたコンピュータを含んでいてもよいし、そうでなくてもよい)に分散して設けられていてもよい。一例として、クラウドサーバを構成する複数のコンピュータの各々に内蔵されたメモリに学習用データセットを分散して格納する構成などが考えられる。 Further, in the present embodiment, a configuration in which the learning data set is stored in a single memory (secondary memory 403) is adopted, but the present invention is not limited to this. That is, a configuration may be adopted in which the learning data set is distributed and stored in a plurality of memories. In this case, the plurality of memories for storing the learning data set are provided in a single computer (which may or may not be a computer having a processor that executes the machine learning method M2). It may be distributed to a plurality of computers (which may or may not include a computer having a processor for executing the machine learning method M2). As an example, a configuration in which a learning data set is distributed and stored in a memory built in each of a plurality of computers constituting a cloud server can be considered.

 また、本実施形態においては、情報処理方法M1及び機械学習方法M2を異なるプロセッサ(プロセッサ201及びプロセッサ401)を用いて実行する構成を採用しているが、本発明は、これに限定されない。すなわち、情報処理方法M1及び機械学習方法M2を同一のプロセッサを用いて実行してもよい。この場合、機械学習方法M2を実行することによって、このプロセッサと同じコンピュータに内蔵されたメモリに1または複数の評価モデルが格納さる。そして、このプロセッサは、情報処理方法M1を実行する際に、このメモリに格納された1または複数の評価モデルを利用することになる。 Further, in the present embodiment, the configuration in which the information processing method M1 and the machine learning method M2 are executed by using different processors (processor 201 and processor 401) is adopted, but the present invention is not limited to this. That is, the information processing method M1 and the machine learning method M2 may be executed using the same processor. In this case, by executing the machine learning method M2, one or more evaluation models are stored in the memory built in the same computer as this processor. Then, this processor uses one or more evaluation models stored in this memory when executing the information processing method M1.

 〔実施形態3〕
 (評価システム1bの構成)
 本発明の実施形態3に係る評価システム1bについて、図15を参照して説明する。図15は、評価システム1bの構成を表すブロック図である。評価システム1aは、図15に示すように、撮像装置10aと、情報処理装置20bと、出力装置30aと、を備えている。撮像装置10aおよび出力装置30aについては、実施形態2で説明したとおりである。
[Embodiment 3]
(Configuration of evaluation system 1b)
The evaluation system 1b according to the third embodiment of the present invention will be described with reference to FIG. FIG. 15 is a block diagram showing the configuration of the evaluation system 1b. As shown in FIG. 15, the evaluation system 1a includes an image pickup device 10a, an information processing device 20b, and an output device 30a. The image pickup device 10a and the output device 30a are as described in the second embodiment.

 情報処理装置20bは、情報処理方法M1bを実行するための装置である。情報処理装置20bは、機械学習により構築された評価モデルを用いずに、爪の衛生状態を評価する点が、実施形態2と少なくとも異なる。 The information processing device 20b is a device for executing the information processing method M1b. The information processing device 20b is at least different from the second embodiment in that it evaluates the hygiene state of the nail without using the evaluation model constructed by machine learning.

 (情報処理装置20bの構成)
 情報処理装置20bの構成について、図15を参照して説明する。情報処理装置20bは、制御部22b及び記憶部23bを備えている。制御部22bは、情報処理装置20bを統括的に制御する。情報処理装置20bにおいて、制御部22bは、取得部221及び評価部222bを含む。取得部221は、情報処理方法M1bの取得ステップM11を実行する。評価部222bは、情報処理方法M1bの評価ステップM12b及び出力ステップM13を実行する。
(Configuration of information processing device 20b)
The configuration of the information processing device 20b will be described with reference to FIG. The information processing device 20b includes a control unit 22b and a storage unit 23b. The control unit 22b comprehensively controls the information processing device 20b. In the information processing device 20b, the control unit 22b includes an acquisition unit 221 and an evaluation unit 222b. The acquisition unit 221 executes the acquisition step M11 of the information processing method M1b. The evaluation unit 222b executes the evaluation step M12b and the output step M13 of the information processing method M1b.

 (情報処理方法M1bの流れ)
 情報処理方法M1bは、評価ステップM12の代わりに評価ステップM12bを含む点が、実施形態2に係る情報処理方法M1に対して相違する。以下では、当該相違点についてのみ説明する。
(Flow of information processing method M1b)
The information processing method M1b is different from the information processing method M1 according to the second embodiment in that the evaluation step M12b is included instead of the evaluation step M12. In the following, only the differences will be described.

 (評価ステップM12b)
 評価ステップM12bにおいて、評価部222bは、公知の画像解析技術を用いて、取得部221が取得した爪を被写体として含む画像データにおける爪の長さを測定する。また、評価部222bは、記憶部23bに予め格納された爪の長さと衛生状態との対応関係を示す情報を参照して、爪の長さの測定結果から、爪の長さに基づく衛生状態を評価し、その評価結果を示すデータを記憶部23bに書き込む。例えば、評価部222は、爪を被写体として含む画像データにおける爪全体の領域の長さに対する、爪先の相対的な長さを「爪の長さ」として測定してもよい。この場合、記憶部23bには、爪の相対的な長さと衛生状態との対応関係を示す情報が格納されている。
(Evaluation step M12b)
In the evaluation step M12b, the evaluation unit 222b uses a known image analysis technique to measure the length of the nail in the image data including the nail acquired by the acquisition unit 221 as a subject. Further, the evaluation unit 222b refers to the information indicating the correspondence between the nail length and the sanitary condition stored in advance in the storage unit 23b, and based on the measurement result of the nail length, the sanitary condition based on the nail length. Is evaluated, and data indicating the evaluation result is written in the storage unit 23b. For example, the evaluation unit 222 may measure the relative length of the tip of the nail as the "length of the nail" with respect to the length of the region of the entire nail in the image data including the nail as a subject. In this case, the storage unit 23b stores information indicating the correspondence between the relative length of the nail and the hygiene state.

 同様に、評価部222bは、公知の画像解析技術を用いて、取得部221が取得した爪を被写体として含む画像データにおける爪の色を測定する。記憶部23bに予め格納された爪の色と衛生状態との対応関係を示す情報を参照して、爪の色の測定結果から、爪の色に基づく衛生状態を評価し、その評価結果を示すデータを記憶部23bに書き込む。 Similarly, the evaluation unit 222b measures the color of the nail in the image data including the nail acquired by the acquisition unit 221 as a subject by using a known image analysis technique. With reference to the information indicating the correspondence between the nail color and the hygiene state stored in advance in the storage unit 23b, the hygiene state based on the nail color is evaluated from the measurement result of the nail color, and the evaluation result is shown. The data is written in the storage unit 23b.

 (実施形態3の効果)
 本実施形態は、情報処理装置20bは、機械学習により構築された評価モデルを用いずに爪の衛生状態を評価するので、機械学習装置が不要である。従って、評価システム1bの構築コストを低減することが可能であるというメリットがある。
(Effect of Embodiment 3)
In the present embodiment, the information processing device 20b evaluates the sanitary state of the nail without using the evaluation model constructed by machine learning, so that the machine learning device is unnecessary. Therefore, there is an advantage that the construction cost of the evaluation system 1b can be reduced.

 〔ハードウエアによる実現例〕
 上述した各実施形態では、情報処理装置20、20a及び20bの制御ブロック(特に制御部22、22b)が、二次メモリ203に記憶されたプログラムを読み込んでプロセッサ201が実行することにより実現される態様について説明した。これに限らず、情報処理装置20、20a及び20bの制御ブロックの一部または全部は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよい。また、実施形態2では、機械学習装置40の制御ブロック(特に制御部42)が、二次メモリ403に記憶されたプログラムを読み込んでプロセッサ401が実行することにより実現される態様について説明した。これに限らず、機械学習装置40の制御ブロックの一部または全部は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよい。
[Example of realization by hardware]
In each of the above-described embodiments, the control blocks (particularly the control units 22 and 22b) of the information processing devices 20, 20a and 20b are realized by reading the program stored in the secondary memory 203 and executing the processor 201. Aspects have been described. Not limited to this, a part or all of the control blocks of the information processing devices 20, 20a and 20b may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. Further, in the second embodiment, the mode realized by the control block (particularly the control unit 42) of the machine learning device 40 reading the program stored in the secondary memory 403 and executing the processor 401 has been described. Not limited to this, a part or all of the control block of the machine learning device 40 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like.

 以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施例に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It will also be apparent to those skilled in the art that such changes or improvements can be made. Further, it is clear from the description of the scope of claims that such a modified or improved form may be included in the technical scope of the present invention.

 〔まとめ〕
 本発明は、
 (1)爪を被写体として含む画像データを取得する取得部と、前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価部と、を備えた情報処理装置、
 (2)前記評価部は、前記評価結果を示す情報として、前記爪を有する人に対する屋内への入退場可否を含む情報を生成する、(1)の情報処理装置、
 (3)前記屋内が、食品工場の部屋または食品加工場である、(2)の情報処理装置、
 (4)前記評価部は、前記画像データに含まれている少なくとも2本以上の指の爪の領域に基づいて、前記爪の衛生状態を評価する、(1)~(3)のいずれか1つの情報処理装置、
 (5)前記評価部は、前記画像データを参照して、前記爪の色に基づく前記爪の衛生状態をさらに評価する、(1)~(4)のいずれか1つの情報処理装置、
 (6)前記画像データを入力として、前記爪の長さに基づく衛生状態の評価結果を示す第1情報を出力するよう機械学習により構築された第1の評価モデルを利用し、前記評価部は、前記第1情報に基づいて前記評価結果を示す情報を生成する、(1)~(5)のいずれか1つの情報処理装置、
 (7)前記画像データを入力として、前記爪の色に基づく衛生状態の評価結果を示す第2情報を出力するよう機械学習により構築された第2の評価モデルを利用し、前記評価部は、前記第1情報及び前記第2情報に基づいて前記評価結果を示す情報を生成する、(6)の情報処理装置、
 (8)(1)~(7)のいずれか1つの情報処理装置と、前記爪を含む人体の部位を撮像して前記画像データを生成する撮像装置と、前記評価結果を示す情報を出力する出力装置と、を含む評価システム、
 (9)前記撮像装置は、撮像機器と、当該撮像機器に対する前記部位の位置合わせを可能にする位置合わせ台と、外部から前記位置合わせ台に入射する光を遮る遮光壁と、を備えており、前記撮像機器は、前記位置合わせ台を撮像範囲に含むように設置され、前記位置合わせ台は、前記撮像機器に向く面が単色であり、前記遮光壁は、前記位置合わせ台の周囲に設置されている、(8)の評価システム、
 (10)前記撮像機器は、撮像ボックスの内部に設置され、前記撮像ボックスは、前記位置合わせ台としての底面と、前記遮光壁としての側面と、前記撮像機器が設置される天面と、を有し、前記側面は前記撮像ボックスの内部に前記部位を挿入可能な開口部を有している、(9)の評価システム、
 (11)前記撮像装置は、隣接する爪同士が離間した状態で前記部位を撮影することを可能にするガイド機構を備えている、(9)または(10)の評価システム、
 (12)学習用データセットを用いた機械学習によって、爪の長さに基づく衛生状態を評価する第1の評価モデルを構築する構築部を備えており、前記第1の評価モデルの入力は、爪を被写体として含む画像データであり、前記第1の評価モデルの出力は、前記爪の長さに基づく衛生状態の評価結果を示す第1情報である、機械学習装置、
 (13)前記構築部は、学習用データセットを用いた機械学習によって、爪の色に基づく衛生状態を評価する第2の評価モデルをさらに構築し、前記第2の評価モデルの入力は、爪を被写体として含む画像データであり、前記第2の評価モデルの出力は、前記爪の色に基づく衛生状態の評価結果を示す第2情報である、(12)の機械学習装置、
 (14)爪を被写体として含む画像データを取得する取得ステップと、前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価ステップと、を含む、情報処理方法、
 (15)(1)~(7)のいずれか1つの情報処理装置としてコンピュータを機能させるためのプログラム、
である。
〔summary〕
The present invention
(1) Information indicating the evaluation result is generated by evaluating the sanitary state of the nail based on the length of the nail with reference to the acquisition unit that acquires the image data including the nail as the subject and the image data. An information processing device equipped with an evaluation unit,
(2) The information processing apparatus according to (1), wherein the evaluation unit generates information including whether or not the person having the claw can enter or leave the room as information indicating the evaluation result.
(3) The information processing device of (2), wherein the indoor is a food factory room or a food processing plant.
(4) The evaluation unit evaluates the hygiene state of the nail based on the region of at least two or more fingernails included in the image data, any one of (1) to (3). Two information processing devices,
(5) The information processing device according to any one of (1) to (4), wherein the evaluation unit further evaluates the sanitary state of the nail based on the color of the nail with reference to the image data.
(6) Using the image data as an input, the first evaluation model constructed by machine learning is used to output the first information indicating the evaluation result of the hygiene condition based on the length of the claw, and the evaluation unit uses the first evaluation model. , An information processing apparatus according to any one of (1) to (5), which generates information indicating the evaluation result based on the first information.
(7) Using the image data as input, the second evaluation model constructed by machine learning to output the second information indicating the evaluation result of the hygiene condition based on the color of the nail is used, and the evaluation unit uses the second evaluation model. The information processing apparatus of (6), which generates information indicating the evaluation result based on the first information and the second information.
(8) An information processing device according to any one of (1) to (7), an imaging device that images a part of the human body including the nail and generates the image data, and outputs information indicating the evaluation result. Output device and evaluation system, including
(9) The image pickup apparatus includes an image pickup device, an alignment table that enables alignment of the portion with respect to the image pickup device, and a light-shielding wall that blocks light incident on the alignment table from the outside. The imaging device is installed so as to include the alignment table in the imaging range, the alignment table has a single color on the surface facing the imaging device, and the light-shielding wall is installed around the alignment table. (8) Evaluation system,
(10) The image pickup device is installed inside the image pickup box, and the image pickup box has a bottom surface as the alignment table, a side surface as the light-shielding wall, and a top surface on which the image pickup device is installed. The evaluation system of (9), wherein the side surface has an opening into which the part can be inserted inside the imaging box.
(11) The evaluation system according to (9) or (10), wherein the imaging device includes a guide mechanism capable of photographing the portion in a state where adjacent nails are separated from each other.
(12) A construction unit for constructing a first evaluation model for evaluating the hygiene condition based on the length of the nail by machine learning using the learning data set is provided, and the input of the first evaluation model is The machine learning device, which is image data including a nail as a subject, and the output of the first evaluation model is the first information indicating an evaluation result of a sanitary condition based on the length of the nail.
(13) The construction unit further constructs a second evaluation model for evaluating the hygiene condition based on the color of the nail by machine learning using the learning data set, and the input of the second evaluation model is the nail. The machine learning device of (12), which is the image data including the subject, and the output of the second evaluation model is the second information indicating the evaluation result of the sanitary condition based on the color of the nail.
(14) Information indicating the evaluation result is generated by the acquisition step of acquiring the image data including the nail as the subject and the evaluation of the hygiene state of the nail based on the length of the nail with reference to the image data. Information processing methods, including evaluation steps,
(15) A program for operating a computer as an information processing device according to any one of (1) to (7).
Is.

 1 爪の状態検査装置(評価システム)
 1a、1b 評価システム
 10(10’) 撮像装置(撮像端末)
 10a 撮像装置(撮像端末)
 20 演算装置(情報処理装置)
 20a、20b 情報処理装置
 21 学習済みニューラルネットワーク
 21a 第1の評価モデル
 21b 第2の評価モデル
 22、22b 制御部
 23、23b 記憶部
 30(30’) 入出力装置(入出力端末)(出力装置)
 30a 出力装置
 40 機械学習装置
 101 撮像装置(撮像機器)
 102 遮光壁(側面)
 103、103a、103b 底面(位置合わせ台)
 104 天面
 105 撮像ボックス
 106 前面
 107 開口部
 108 LED
 109a 突起(ガイド機構)
 109b ガイド線(ガイド機構)
 201 プロセッサ
 202 一次メモリ
 203 二次メモリ
 204 入出力インタフェース
 205 通信インタフェース
 206 バス
 221 取得部
 222、222b 評価部
 401 プロセッサ
 402 一次メモリ
 403 二次メモリ
 404 入出力インタフェース
 405 通信インタフェース
 406 バス
 500 画面例
 501 屋内への入場不可を示す情報
 600 画面例
 601 屋内への入場不可を示す情報
 R 部屋(屋内)
 H 手の画像
 P 被検者
 S 管理者

 
1 Nail condition inspection device (evaluation system)
1a, 1b Evaluation system 10 (10') Imaging device (imaging terminal)
10a Imaging device (imaging terminal)
20 Arithmetic logic unit (information processing device)
20a, 20b Information processing device 21 Learned neural network 21a First evaluation model 21b Second evaluation model 22,22b Control unit 23, 23b Storage unit 30 (30') Input / output device (input / output terminal) (output device)
30a Output device 40 Machine learning device 101 Imaging device (imaging device)
102 Shading wall (side)
103, 103a, 103b Bottom surface (alignment table)
104 Top surface 105 Imaging box 106 Front surface 107 Opening 108 LED
109a protrusion (guide mechanism)
109b Guide wire (guide mechanism)
201 Processor 202 Primary memory 203 Secondary memory 204 I / O interface 205 Communication interface 206 Bus 221 Acquisition unit 222, 222b Evaluation unit 401 Processor 402 Primary memory 403 Secondary memory 404 I / O interface 405 Communication interface 406 Bus 500 Screen example 501 Indoor Information indicating that entry is not possible 600 Screen example 601 Information indicating that entry is not possible indoors R Room (indoor)
H Hand image P Subject S Administrator

Claims (15)

 爪を被写体として含む画像データを取得する取得部と、
 前記画像データを参照して、前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価部と、
を備えた情報処理装置。
An acquisition unit that acquires image data that includes the nail as a subject,
An evaluation unit that generates information indicating an evaluation result by evaluating the sanitary state of the nail based on the length of the nail with reference to the image data.
Information processing device equipped with.
 前記評価部は、前記評価結果を示す情報として、前記爪を有する人に対する屋内への入退場可否を含む情報を生成する、請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the evaluation unit generates information including whether or not the person having the claw can enter or leave the room as information indicating the evaluation result.  前記屋内が、食品工場の部屋または食品加工場である、請求項2に記載の情報処理装置。 The information processing device according to claim 2, wherein the indoor is a food factory room or a food processing plant.  前記評価部は、前記画像データに含まれている少なくとも2本以上の指の爪の領域に基づいて、前記爪の衛生状態を評価する、請求項1から3のいずれか1項に記載の情報処理装置。 The information according to any one of claims 1 to 3, wherein the evaluation unit evaluates the sanitary state of the nail based on the region of at least two or more fingernails contained in the image data. Processing equipment.  前記評価部は、前記画像データを参照して、前記爪の色に基づく前記爪の衛生状態をさらに評価する、請求項1から4のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 4, wherein the evaluation unit further evaluates the sanitary state of the nail based on the color of the nail with reference to the image data.  前記画像データを入力として、前記爪の長さに基づく衛生状態の評価結果を示す第1情報を出力するよう機械学習により構築された第1の評価モデルを利用し、
 前記評価部は、前記第1情報に基づいて前記評価結果を示す情報を生成する、請求項1から5のいずれか1項に記載の情報処理装置。
Using the image data as an input, the first evaluation model constructed by machine learning to output the first information indicating the evaluation result of the sanitary condition based on the length of the nail is used.
The information processing apparatus according to any one of claims 1 to 5, wherein the evaluation unit generates information indicating the evaluation result based on the first information.
 前記画像データを入力として、前記爪の色に基づく衛生状態の評価結果を示す第2情報を出力するよう機械学習により構築された第2の評価モデルを利用し、
 前記評価部は、前記第1情報及び前記第2情報に基づいて前記評価結果を示す情報を生成する、請求項6に記載の情報処理装置。
Using the image data as an input, a second evaluation model constructed by machine learning is used to output a second information indicating the evaluation result of the sanitation state based on the color of the nail.
The information processing apparatus according to claim 6, wherein the evaluation unit generates information indicating the evaluation result based on the first information and the second information.
 請求項1から7のいずれか1項に記載の情報処理装置と、
 前記爪を含む人体の部位を撮像して前記画像データを生成する撮像装置と、
 前記評価結果を示す情報を出力する出力装置と、
を含む評価システム。
The information processing device according to any one of claims 1 to 7.
An imaging device that images a part of the human body including the nail and generates the image data,
An output device that outputs information indicating the evaluation results and
Evaluation system including.
 前記撮像装置は、
 撮像機器と、
 当該撮像機器に対する前記部位の位置合わせを可能にする位置合わせ台と、
 外部から前記位置合わせ台に入射する光を遮る遮光壁と、
を備えており、
 前記撮像機器は、前記位置合わせ台を撮像範囲に含むように設置され、
 前記位置合わせ台は、前記撮像機器に向く面が単色であり、
 前記遮光壁は、前記位置合わせ台の周囲に設置されている、請求項8に記載の評価システム。
The image pickup device
Imaging equipment and
An alignment table that enables alignment of the part with respect to the imaging device,
A light-shielding wall that blocks light incident on the alignment table from the outside,
Is equipped with
The imaging device is installed so as to include the alignment table in the imaging range.
The alignment table has a single color on the surface facing the imaging device.
The evaluation system according to claim 8, wherein the light-shielding wall is installed around the alignment table.
 前記撮像機器は、撮像ボックスの内部に設置され、
 前記撮像ボックスは、
  前記位置合わせ台としての底面と、
  前記遮光壁としての側面と、
  前記撮像機器が設置される天面と、を有し、
  前記側面は前記撮像ボックスの内部に前記部位を挿入可能な開口部を有している、請求項9に記載の評価システム。
The imaging device is installed inside the imaging box and is installed.
The imaging box
The bottom surface as the alignment table and
The side surface as the light-shielding wall and
It has a top surface on which the imaging device is installed.
The evaluation system according to claim 9, wherein the side surface has an opening into which the portion can be inserted inside the imaging box.
 前記撮像装置は、隣接する爪同士が離間した状態で前記部位を撮影することを可能にするガイド機構を備えている、請求項9または10に記載の評価システム。 The evaluation system according to claim 9 or 10, wherein the imaging device includes a guide mechanism that enables imaging of the portion in a state where adjacent nails are separated from each other.  学習用データセットを用いた機械学習によって、爪の長さに基づく衛生状態を評価する第1の評価モデルを構築する構築部を備えており、
 前記第1の評価モデルの入力は、爪を被写体として含む画像データであり、
 前記第1の評価モデルの出力は、前記爪の長さに基づく衛生状態の評価結果を示す第1情報である、機械学習装置。
It is equipped with a construction unit that builds a first evaluation model that evaluates hygiene based on nail length by machine learning using a learning data set.
The input of the first evaluation model is image data including the nail as a subject, and is
The output of the first evaluation model is a machine learning device which is the first information indicating the evaluation result of the hygiene state based on the length of the nail.
 前記構築部は、学習用データセットを用いた機械学習によって、爪の色に基づく衛生状態を評価する第2の評価モデルをさらに構築し、
 前記第2の評価モデルの入力は、爪を被写体として含む画像データであり、前記第2の評価モデルの出力は、前記爪の色に基づく衛生状態の評価結果を示す第2情報である、請求項12に記載の機械学習装置。
The construction unit further constructs a second evaluation model for evaluating the hygiene condition based on the color of the nail by machine learning using the learning data set.
The input of the second evaluation model is image data including the nail as a subject, and the output of the second evaluation model is the second information indicating the evaluation result of the sanitation state based on the color of the nail. Item 12. The machine learning device according to Item 12.
 爪を被写体として含む画像データを取得する取得ステップと、
 前記画像データを参照して前記爪の長さに基づく前記爪の衛生状態を評価することにより、評価結果を示す情報を生成する評価ステップと、
を含む、情報処理方法。
The acquisition step to acquire image data including the nail as the subject,
An evaluation step of generating information indicating an evaluation result by evaluating the sanitary state of the nail based on the length of the nail with reference to the image data, and an evaluation step.
Information processing methods, including.
 請求項1から7の何れか1項に記載の情報処理装置としてコンピュータを機能させるためのプログラム。

 
A program for operating a computer as the information processing device according to any one of claims 1 to 7.

PCT/JP2021/004705 2020-02-19 2021-02-09 Information processing device, evaluation system, machine learning device, information processing method, and program Ceased WO2021166733A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021533187A JP7164135B2 (en) 2020-02-19 2021-02-09 Information processing device, evaluation system, machine learning device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020026256 2020-02-19
JP2020-026256 2020-02-19

Publications (1)

Publication Number Publication Date
WO2021166733A1 true WO2021166733A1 (en) 2021-08-26

Family

ID=77390980

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/004705 Ceased WO2021166733A1 (en) 2020-02-19 2021-02-09 Information processing device, evaluation system, machine learning device, information processing method, and program

Country Status (3)

Country Link
JP (1) JP7164135B2 (en)
TW (1) TW202137059A (en)
WO (1) WO2021166733A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7466966B1 (en) 2023-08-17 2024-04-15 株式会社ルシェノン Nail evaluation program, device and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004000428A (en) * 2001-10-01 2004-01-08 L'oreal Sa Image acquisition method
JP2017161958A (en) * 2016-03-07 2017-09-14 株式会社ニッセーデリカ Sanitation management system and sanitation management terminal
JP2018005268A (en) * 2016-06-27 2018-01-11 東海電子株式会社 Roll call support system and roll call support program
WO2018232510A1 (en) * 2017-06-21 2018-12-27 H3Alth Technologies Inc. SYSTEM AND METHOD FOR MANUFACTURING PERSONALIZED NAILS

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6790513B2 (en) * 2016-07-05 2020-11-25 カシオ計算機株式会社 Drawing device and drawing method of drawing device
JP6955369B2 (en) * 2017-05-22 2021-10-27 キヤノン株式会社 Information processing equipment, control methods and programs for information processing equipment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004000428A (en) * 2001-10-01 2004-01-08 L'oreal Sa Image acquisition method
JP2017161958A (en) * 2016-03-07 2017-09-14 株式会社ニッセーデリカ Sanitation management system and sanitation management terminal
JP2018005268A (en) * 2016-06-27 2018-01-11 東海電子株式会社 Roll call support system and roll call support program
WO2018232510A1 (en) * 2017-06-21 2018-12-27 H3Alth Technologies Inc. SYSTEM AND METHOD FOR MANUFACTURING PERSONALIZED NAILS

Also Published As

Publication number Publication date
TW202137059A (en) 2021-10-01
JPWO2021166733A1 (en) 2021-08-26
JP7164135B2 (en) 2022-11-01

Similar Documents

Publication Publication Date Title
US12266108B2 (en) Method for analyzing an image of a dental arch
US10685259B2 (en) Method for analyzing an image of a dental arch
US11314983B2 (en) Method for analyzing an image of a dental arch
US11049248B2 (en) Method for analyzing an image of a dental arch
TWI754806B (en) System and method for locating iris using deep learning
US10755409B2 (en) Method for analyzing an image of a dental arch
Shie et al. A hybrid feature-based segmentation and classification system for the computer aided self-diagnosis of otitis media
Gavrilov et al. Use of neural network-based deep learning techniques for the diagnostics of skin diseases
US11900252B2 (en) System and method for evaluating the performance of a user in capturing an ultrasound image of an anatomical region
JP6625504B2 (en) Information processing apparatus, information processing system and program
US20240008962A1 (en) Method for analyzing an image of a dental arch
ES2256768T3 (en) COMPARISON OF MODELS.
US20240407711A1 (en) System and method of determining an accurate enhanced lund and browder chart and total body surface area burn score
US12469127B2 (en) Method for analyzing an image of a dental arch
ALbahbah et al. Detection of caries in panoramic dental X-ray images using back-propagation neural network
Popat et al. Quantitative analysis of facial movement—A review of three-dimensional imaging techniques
CN112655014B (en) Method for converting a view of a 3D model of a dental arch into a photorealistic view
Gaber et al. Comprehensive assessment of facial paralysis based on facial animation units
JP7164135B2 (en) Information processing device, evaluation system, machine learning device, information processing method, and program
KR102333120B1 (en) Self Scalp Diagnostic System and Method
CN119991620A (en) Method, device and computer equipment for quantitative analysis of dental plaque
Khanna et al. Rule based system for recognizing emotions using multimodal approach
Fang et al. Identifying laryngeal neoplasms in laryngoscope images via deep learning based object detection: A case study on an extremely small data set
RU2005100267A (en) METHOD AND SYSTEM OF AUTOMATIC VERIFICATION OF THE PRESENCE OF A LIVING FACE OF A HUMAN IN BIOMETRIC SECURITY SYSTEMS
To et al. Comparison of a custom Photogrammetry for Anatomical CarE (PHACE) system with other low-cost facial scanning devices

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2021533187

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21756624

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21756624

Country of ref document: EP

Kind code of ref document: A1