[go: up one dir, main page]

JP6846765B1 - 情報処理プログラム - Google Patents

情報処理プログラム Download PDF

Info

Publication number
JP6846765B1
JP6846765B1 JP2020137952A JP2020137952A JP6846765B1 JP 6846765 B1 JP6846765 B1 JP 6846765B1 JP 2020137952 A JP2020137952 A JP 2020137952A JP 2020137952 A JP2020137952 A JP 2020137952A JP 6846765 B1 JP6846765 B1 JP 6846765B1
Authority
JP
Japan
Prior art keywords
chunk
scene
information
image
meta
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020137952A
Other languages
English (en)
Other versions
JP2021157759A (ja
Inventor
黒田 聡
聡 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information System Engineering Inc
Original Assignee
Information System Engineering Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020056425A external-priority patent/JP6818308B1/ja
Application filed by Information System Engineering Inc filed Critical Information System Engineering Inc
Priority to JP2020137952A priority Critical patent/JP6846765B1/ja
Priority to DE112021000014.4T priority patent/DE112021000014T5/de
Priority to PCT/JP2021/010015 priority patent/WO2021193136A1/ja
Priority to US17/417,987 priority patent/US12450900B2/en
Priority to CN202180001969.9A priority patent/CN113728328B/zh
Application granted granted Critical
Publication of JP6846765B1 publication Critical patent/JP6846765B1/ja
Publication of JP2021157759A publication Critical patent/JP2021157759A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0633Workflow analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Human Resources & Organizations (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Library & Information Science (AREA)
  • Marketing (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Game Theory and Decision Science (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

【課題】大規模な情報の再構築をせずに、使用者が必要な際に、使用者が必要な量の情報を、使用者に提示するためのデータ構造、情報処理プログラム及び学習済みモデルを提供する。【解決手段】データ構造は、使用者が作業を行う作業場所であるシーンの画像である第1の画像からシーンを推定するための第1の学習済みモデルと、作業に関係する機器の画像である第2の画像と、作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと、チャンクIDに対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されており、1又は複数のチャンク用メタIDを推定するために使用される、複数の第2の学習済みモデルと、を有し、シーンを第1の画像から推定し、推定されたシーンによって複数の第2の学習済みモデルのうちの1つを選定し、第2の画像から1又は複数のチャンク用メタIDを推定し、チャンクを推定する処理に用いる。【選択図】図1

Description

本発明は、報処理プログラに関する。
例えば特許文献1の作業支援システムでは、作業の手順、内容、留意点又はその他の事項を記述したマニュアルに基づいて、作業の対象又は作業の状況の判定条件を記述したルールを生成し、作業者が装着した機器からのセンサ情報に基づいて作業の対象及び作業の状況を認識し、生成したルール及び認識手段の認識結果に基づいて作業支援情報を出力する。
特開2019−109844号公報
しかしながら特許文献1に記載されたような従来の手法においては、マニュアルなどの文書として蓄積されている情報は、文書単位の検索しかできない。例えば段落単位での検索を文書に対して行う場合には、文書を構造化された情報に再構築する必要がある。検索対象となる全ての文書の再構築は費用対効果を考慮すると現実的ではないことが多く、また文書単位での情報では不要な情報を多分に閲覧してしまい、文書の閲覧者が迅速な対応ができないことがあるという課題がある。
本発明の実施の形態の一態様は、大規模な情報の再構築をせずに、使用者が必要な際に、使用者が必要な量の情報を、使用者に提示するための情報処理プログラムを提供することを目的とする。
使用者の行う作業に関する情報である作業情報を出力する処理を情報処理装置に実行させるプログラムであって、使用者が作業を行う作業場所であるシーンの画像である第1の画像、使用者がいる位置の情報である位置情報及び使用者が作業を行う時間の情報である時間情報を取得し、第1の画像に関係する情報と、シーンを一意に示すシーンIDに関係する情報と、の間における連関性が記憶されている第1の学習済みモデルを使用して、シーンを推定する第1のステップと、作業に関係する機器の画像である第2の画像を取得し、第2の画像と、作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用して、チャンクを推定する第2のステップと、チャンクを出力する第3のステップと、を備え、複数の第2の学習済みモデルのうちの1つを、シーンIDと1対1に対応付けられたモデルIDを用いて選定し、チャンク用メタIDは機器の性質に関する情報であるチャンク用メタ値を一意に示作業情報は、チャンク用メタIDを最下層である第1層とし、チャンクIDを第2層とし、チャンクを意味のあるひとまとまりの情報とした情報であるコンテンツを一意に示すコンテンツIDを第3層とし、シーンIDを最上層である第4層とする階層構造を有する、情報処理プログラムを提供する。
本発明の実施の形態の一態様によれば大規模な情報の再構築をせずに、使用者が必要な際に、使用者が必要な量の情報を、使用者に提示する情報処理プログラムを実現できる。
図1は、本実施の形態による利用段階における情報処理装置の構成を示すブロック図である。 図2は、本実施の形態による学習段階における情報処理装置の構成を示すブロック図である。 図3は、本実施の形態による第1の画像及び第2の画像を示す図である。 図4は、本実施の形態による第1の学習済みモデル及び第2の学習済みモデルを示す図である。 図5は、本実施の形態による補助記憶装置に記憶されている情報を示す図である。 図6は、本実施の形態によるシーン推定機能、チャンク推定機能及びチャンク出力機能の説明に供するシーケンス図である。 図7は、本実施の形態による第1の学習済みモデル生成機能及び第2の学習済みモデル生成機能の説明に供するシーケンス図である。 図8は、本実施の形態による利用段階における情報処理の処理手順を示すフローチャートである。 図9は、本実施の形態による学習段階における情報処理の処理手順を示すフローチャートである。 図10は、他の実施の形態による利用段階における情報処理装置の構成を示すブロック図である。 図11は、シーンIDをあいまい検索により検索する際の説明に供する概念図である。
以下図面を用いて、本発明の実施の形態の一態様を詳述する。例えば医療、介護などの現場で機器の手入れをする作業者が参照する情報について説明する。
(本実施の形態)
まず図1を用いて利用段階における情報処理装置1について説明する。図1は、本実施の形態による利用段階における情報処理装置1の構成を示すブロック図である。情報処理装置1は、中央演算装置2、主記憶装置3及び補助記憶装置10を備える。
中央演算装置2は、例えばCPU(Central Processing Unit)であって、主記憶装置3に記憶されたプログラムを呼び出すことで処理を実行する。主記憶装置3は、例えばRAM(Random Access Memory)であって、後述のシーン推定部4、チャンク推定部5、チャンク出力部6、第1の学習済みモデル生成部7及び第2の学習済みモデル生成部8といったプログラムを記憶する。
なおシーン推定部4、チャンク推定部5及びチャンク出力部6を含むプログラムを制御部15と呼んでもよく、第1の学習済みモデル生成部7及び第2の学習済みモデル生成部8を含むプログラムを学習済みモデル生成部16と呼んでもよい。
補助記憶装置10は、例えばSSD(Solid State Drive)やHDD(Hard Disk Drive)であって、後述の第1の学習済みモデルDB1や第1の学習モデルDB1’や第2の学習済みモデルDB2や第2の学習モデルDB2’といったデータベースやシーンテーブルTB1やモデルテーブルTB2やコンテンツテーブルTB3やシーン・コンテンツテーブルTB4やコンテンツ・チャンクテーブルTB5やチャンク・メタテーブルTB6やチャンクテーブルTB7やチャンク用メタテーブルTB8といったテーブルを記憶する。
図1に示すように使用者の行う作業に関する情報である作業情報を出力する情報処理装置1は、利用段階において、使用者が作業を行う作業場所であるシーンを推定するシーン推定部4と、チャンクを推定するチャンク推定部5と、作業情報を分割又は示唆した情報であるチャンクを出力するチャンク出力部6と、を備える。ここで作業情報をコンテンツと呼んでもよく、コンテンツIDは作業情報を一意に示すものとする。
シーン推定部4は、シーンの画像である後述の第1の画像20(25)、使用者がいる位置の情報である位置情報及び使用者が作業を行う時間の情報である時間情報を取得し、第1の画像20(25)に関係する情報とシーンを一意に示すシーンIDに関する情報と、の間における連関性が記憶されている第1の学習済みモデルDB1を使用して、シーンを推定する。
チャンク推定部5は、作業に関係する後述の機器22(23)の画像である後述の第2の画像30(35)を取得し、第2の画像30(35)と、作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルDB2のうちの1つを使用して、チャンクを推定する。
チャンク推定部5は、複数の第2の学習済みモデルDB2のうちの1つを、シーンIDと1対1に対応付けられたモデルIDを用いて選定する。またチャンク用メタIDは機器22,23の性質に関する情報であるチャンク用メタ値を一意に示す。
なお情報処理装置1は、シーンを推定するために利用段階においてスマートフォンなどのユーザ端末11から第1の画像20(25)と、位置情報と、時間情報と、を取得する。なお位置情報と時間情報とは取得する第1の画像20(25)に関連する位置と時間とを示すものとする。また情報処理装置1は、チャンクを推定するために利用段階においてスマートフォンなどのユーザ端末11から第2の画像30(35)を取得する。
ここで具体的には第1の画像に関係する情報は第1の画像20(25)、位置情報及び時間情報であり、シーンIDに関係する情報はシーンIDであって、シーン推定部4は、第1の画像20(25)、位置情報及び時間情報と、シーンIDと、の間における連関性が記憶されている第1の学習済みモデルDB1を使用して、シーンを推定する。
シーン推定部4は、シーンIDとシーンの名称であるシーン名とが1対1で紐づけられたテーブルであるシーンテーブルTB1から、シーンIDを検索キーとしてシーン名を取得してユーザ端末11に送信する。ユーザ端末11はシーン推定部4から受信したシーン名を使用者に提示する。
チャンク推定部5は、モデルIDとシーンIDとが1対1で紐づけられたテーブルであるモデルテーブルTB2からシーンIDを検索キーとしてモデルIDを取得する。またチャンク推定部5は、チャンクIDとチャンク用メタIDとが1対1又は1対複数で紐づけられたテーブルであるチャンク・メタテーブルTB6からチャンク用メタIDを検索キーとしてチャンクIDを取得する。
またチャンク推定部5は、チャンクテーブルTB7からチャンクIDを検索キーとしてチャンクの概要を示すチャンクサマリを取得して、チャンクサマリをユーザ端末11に送信する。ユーザ端末11は、チャンク推定部5から受信したチャンクサマリを使用者に提示する。
またチャンク推定部5は、チャンクテーブルTB7からチャンクIDを検索キーとしてチャンクを取得して、チャンクをユーザ端末11に送信する。ユーザ端末11は、チャンク推定部5から受信したチャンクを使用者に提示する。
なおチャンクテーブルTB7は、チャンクIDにチャンクとチャンクサマリとハッシュ値とがそれぞれ1対1で紐づけられたテーブルである。なおハッシュ値は例えばチャンクが変更されたか否かを確認するために用いられる。
次に図2を用いて学習段階における情報処理装置1について説明する。例えば学習段階においては図示せぬ入力装置から入力される第1の画像20(25)と1又は複数の第2の画像30(35)とを1組として学習させる。ここで学習は、例えば教師あり学習を指すものとする。
図2は、本実施の形態による学習段階における情報処理装置の構成を示すブロック図である。学習段階においては、情報処理装置1は、第1の学習済みモデル生成部7と、第2の学習済みモデル生成部8と、を備える。
第1の学習済みモデル生成部7は、シーンIDと、第1の画像20(25)、位置情報及び時間情報と、を1対として第1の学習モデルDB1’に学習させることで第1の学習済みモデルDB1を生成するプログラムである。
第1の学習済みモデル生成部7は、第1の画像20(25)に関してシーンテーブルTB1からシーンIDを取得し、シーンIDに対応するモデルIDをモデルテーブルTB2から取得する。
第2の学習済みモデル生成部8は、モデルIDを指定して1又は複数のチャンク用メタIDと第2の画像30(35)とを1対として第2の学習モデルDB2’に学習させることで第2の学習済みモデルDB2を生成するプログラムである。
第2の学習済みモデル生成部8は、シーンIDとコンテンツIDとが1対多で紐づけられたテーブルであるシーン・コンテンツテーブルTB4からシーンIDを検索キーとしてコンテンツIDを取得する。なおここで検索キーとなるシーンIDは、処理の対象となる第2の画像30(35)と対になっている第1の画像20(25)と紐づくものである。
第2の学習済みモデル生成部8は、コンテンツIDとコンテンツとが1対1で紐づけられたテーブルであるコンテンツテーブルTB3からコンテンツIDを検索キーとしてコンテンツを取得する。
第2の学習済みモデル生成部8は、コンテンツIDとチャンクIDとが1対1又は多で紐づけられたテーブルであるコンテンツ・チャンクテーブルTB5からコンテンツIDを検索キーとしてチャンクIDを取得する。
第2の学習済みモデル生成部8は、チャンクテーブルTB7からチャンクIDを検索キーとしてチャンクを取得し、チャンク・メタテーブルTB6からチャンクIDを検索キーとしてチャンク用メタIDを取得する。
第2の学習済みモデル生成部8は、チャンク用メタテーブルTB8からチャンク用メタIDを検索キーとしてチャンク用メタ値を取得する。チャンク用メタテーブルTB8は、チャンク用メタIDにチャンク用カテゴリIDとチャンク用カテゴリ名とチャンク用メタ値とがそれぞれ1対1で結び付けられたテーブルである。
チャンク用カテゴリIDはチャンク用メタ値が属するカテゴリの名前であるチャンク用カテゴリ名を一意に示す。なお第2の学習済みモデル生成部8は、第2の画像30(35)を参照したうえで、取得したチャンク、コンテンツ及びチャンク用メタ値に問題がないことを確認する。
問題がある値を異常値と判断し教師あり学習の学習には使用しないことで、第2の学習済みモデル生成部8は、精度の高い学習済みモデルDB2を生成することが可能となり、利用段階において情報処理装置1は、精度の高い処理を行うことができる。
次に図3を用いてユーザ端末11が取得し、情報処理装置1が情報として処理する第1の画像20(25)及び第2の画像30(35)について説明する。図3は、本実施の形態による第1の画像20(25)及び第2の画像30(35)を示す図である。
第1の画像20(25)及び第2の画像30(35)はユーザ端末11に表示される。図3においては同時に表示されている例を示しているが、第1の画像20(25)及び第2の画像30(35)は別々にユーザ端末11に表示されてもよい。
第1の画像20(25)には、機器22と機器23とが撮像される。第1の画像20(25)にはシーンを特定できるようなプレート21が撮像されていてもよい。第2の画像30(35)には、機器22,23のうちの1つが撮像され、機器22(23)に付されたシール31などが鮮明に撮像される。
次に図4を用いて第1の学習済みモデルDB1及び第2の学習済みモデルDB2について説明する。図4は、本実施の形態による第1の学習済みモデルDB1及び第2の学習済みモデルDB2を示す。
第1の学習済みモデルDB1は、第1の画像20(25)、位置情報及び時間情報と、シーンIDと、を1対の学習データとして複数用いた機械学習により生成された、複数の第1の画像20(25)、位置情報及び時間情報と、複数のシーンIDと、の間における連関性が記憶されている。ここで機械学習とは例えば畳み込みニューラルネットワーク(CNN:Convolution Neural Network)とする。
第1の画像20(25)、位置情報及び時間情報と、シーンIDと、の間における連関性は、具体的には、図4に丸で示すノードと矢印で示すエッジとエッジに設定される重み係数とによってあらわされる畳み込みニューラルネットワークによって表すことができる。なお図4に示すように第1の学習済みモデルDB1への第1の画像20(25)の入力は、例えば画素p1,p2といった画素ごととする。
例えば位置情報は、N43,E141のように緯度と経度との組み合わせや、01:23:45:67:89:AB,accesspoint01,−65のようにMACアドレス、SSID及び電波強度の組み合わせなどによって表される。また例えば時間情報は、Fri,140000のように作業を行う曜日と作業を開始する時刻との組み合わせやMon,Wed,Friのように複数の作業を行う曜日によって表される。
第2の学習済みモデルDB2は、モデルIDと1対1で紐づけられ、複数とする。それぞれの第2の学習済みモデルDB2は、第2の画像30(35)と、1又は複数のチャンク用メタIDと、を1対の学習データとして複数用いた機械学習により生成された、複数の第2の画像30(35)と、複数の1又は複数のチャンク用メタIDと、の間における連関性が記憶されている。ここで機械学習とは例えば畳み込みニューラルネットワーク(CNN:Convolution Neural Network)とする。
複数の第2の画像30(35)と、複数の1又は複数のチャンク用メタIDと、の間における連関性は、具体的には、図4に丸で示すノードと矢印で示すエッジとエッジに設定される重み係数とによってあらわされる畳み込みニューラルネットワークによって表すことができる。なお図4に示すように第2の学習済みモデルDB2への第2の画像30(35)の入力は、例えば画素p1,p2といった画素ごととする。
次に図5を用いて補助記憶装置10に記憶されている情報であるシーンテーブルTB1、モデルテーブルTB2、コンテンツテーブルTB3、シーン・コンテンツテーブルTB4、コンテンツ・チャンクテーブルTB5、チャンク・メタテーブルTB6、チャンクテーブルTB7及びチャンク用メタテーブルTB8について説明する。図5は、本実施の形態による補助記憶装置10に記憶されている情報を示す図である。
シーンテーブルTB1などに格納されるシーンIDは例えば0FDなどの3桁の16進数とする。またシーンテーブルTB1などに格納されるシーン名は、例えば手術室や処置室などとし、例えばプレート21に記載された名称とする。
モデルテーブルTB2などに格納されるモデルIDは、例えばMD1のように2文字の英字と1桁の10進数で表される。コンテンツテーブルTB3などに格納されるコンテンツIDは、例えば1B827−01のように5桁の16進数と2桁の10進数とで表される。コンテンツテーブルTB3などに格納されるコンテンツは、例えば1B827−01.txtのようにファイル名がコンテンツIDである拡張子付きで示され、コンテンツの実体へのポインタなどが格納される。
コンテンツ・チャンクテーブルTB5などに格納されるチャンクIDは、例えば82700−01のように5桁と2桁の10進数で表される。チャンク・メタテーブルTB6などに格納されるチャンク用メタIDは、例えば24FDのように4桁の16進数とする。
チャンクテーブルTB7に格納されるチャンクは、例えば1B827−01.txt_0のように対象となるチャンクと対応するコンテンツのファイル名と1桁の10進数とで示され、対象となるチャンクと対応するコンテンツの実体の一部分へのポインタなどが格納される。
チャンクテーブルTB7に格納されるチャンクサマリは、例えば「経年劣化のため、…」といったチャンクの内容を要約した文書とする。チャンクテーブルTB7に格納されるハッシュ値は、例えば564544d8f0b746eのように15桁の16進数とする。
チャンク用メタテーブルTB8に格納されるチャンク用カテゴリIDは、例えば394のように3桁の10進数とする。チャンク用メタテーブルTB8に格納されるチャンク用カテゴリ名は、例えば重量や色や形などとする。チャンク用メタテーブルTB8に格納されるチャンク用メタ値は、例えば軽や重や白や青などとする。なおチャンク用カテゴリID及びチャンク用カテゴリ名の値はNULLであってもよい。
シーン・コンテンツテーブルTB4、コンテンツ・チャンクテーブルTB5及びチャンク・メタテーブルTB6に示すように、使用者が作業場所において行う作業に関する情報である作業情報のデータ構造はチャンク用メタIDを最下層である第1の層とし、チャンクIDを第2の層とし、コンテンツIDを第3の層とし、シーンIDを最上層である第4の層とする階層構造を有している。
次に図6を用いてシーン推定機能、チャンク推定機能及びチャンク出力機能について説明する。図6は、本実施の形態によるシーン推定機能、チャンク推定機能及びチャンク出力機能の説明に供するシーケンス図である。
利用段階の情報処理機能は、後述のシーン推定処理S60によって実現されるシーン推定機能と、後述のチャンク推定処理S80によって実現されるチャンク推定機能と、後述のチャンク出力処理S100によって実現されるチャンク出力機能と、から構成される。
まずシーン推定機能について説明する。制御部15に含まれるシーン推定部4は、ユーザ端末11から第1の画像20(25)と、位置情報と、時間情報と、を受信すると(S1)、第1の画像20(25)、位置情報及び時間情報を第1の学習済みモデルDB1に入力する(S2)。
第1の学習済みモデルDB1は、受信した第1の画像20(25)、位置情報及び時間情報と強く結びついているシーンIDを1又は複数選択し、シーン推定部4に対して選択した1又は複数のシーンID(以下、これを第1のシーンIDリストと呼んでもよい)を出力する(S3)。
シーン推定部4は、第1のシーンIDリストを取得すると、ユーザ端末11にそのまま送信する(S4)。ユーザ端末11は、第1のシーンIDリストに含まれるそれぞれのシーンIDについてのキャッシュの有無をシーン推定部4に対して送信する(S5)。
ユーザ端末11は、過去に処理した情報に関しては、シーンテーブルTB1と同等のテーブルを保持している。ユーザ端末11は、受信した第1のシーンIDリストのシーンIDを検索キーとしてユーザ端末11が保持するテーブル内を検索する。検索結果が見つかったシーンIDはキャッシュ有りとなり、検索結果がみつからないシーンIDについてはキャッシュ無しとなる。
シーン推定部4は、ユーザ端末11から受信した第1のシーンIDリストに含まれるそれぞれのシーンIDのうちユーザ端末11にキャッシュが無い1又は複数のシーンID(以下、これを第2のシーンIDリストと呼んでもよい)を検索キーとしてシーンテーブルTB1を検索する(S6)。
シーン推定部4は、検索結果として第2のシーンIDリストに含まれるそれぞれのシーンIDに対応するシーン名(以下、これをシーン名リストと呼んでもよい)をシーンテーブルTB1から取得する(S7)。
シーン推定部4は、取得したシーン名リストをユーザ端末11にそのままに送信する(S8)。利用段階において情報処理装置1は、ステップS1〜S8によって、ユーザ端末11が取得した第1の画像20(25)のシーンを、シーン名を推定することで、推定するシーン推定機能を実現する。
次にチャンク推定機能について説明する。ユーザ端末11は、受信したシーン名リストを使用者に提示する。使用者は、提示されたシーン名リストの中から例えば1つのシーン名を選択する。ユーザ端末11は、使用者に選択されたシーン名を制御部15に含まれるチャンク推定部5に送信する(S9)。
チャンク推定部5は、ユーザ端末11から受信したシーン名に対応するシーンIDを検索キーとして(S10)、モデルテーブルTB2を検索しモデルIDを取得する(S11)。
チャンク推定部5は、第2の画像30(35)をユーザ端末11から受信する(S12)。チャンク推定部5は、モデルテーブルTB2から取得したモデルIDによって複数の第2の学習済みモデルDB2のうちの1つを指定し、第2の画像30(35)を指定した第2の学習済みモデルDB2に入力する(S13)。
第2の学習済みモデルDB2は、受信した第2の画像30(35)と強く結びついている1又は複数のチャンク用メタIDを1又は複数選択し、チャンク推定部5に対して選択した1又は複数の、1又は複数のチャンク用メタID(以下、これをチャンク用メタIDリストと呼んでもよい)を出力する(S14)。
チャンク推定部5は、チャンク用メタIDリストに含まれるそれぞれの1又は複数のチャンク用メタIDを検索キーとしてチャンク・メタテーブルTB6を検索する(S15)。
チャンク推定部5は、検索結果として1又は複数のチャンクID(以下、これを第1のチャンクIDリストと呼んでもよい)をチャンク・メタテーブルTB6から取得する(S16)。チャンク推定部5は、取得した第1のチャンクIDリストをユーザ端末11にそのままに送信する(S17)。
ユーザ端末11は、第1のチャンクIDリストに含まれるそれぞれのチャンクIDについてのキャッシュの有無をチャンク推定部5に対して送信する(S18)。ユーザ端末11は、過去に処理した情報に関しては、チャンクテーブルTB7におけるチャンクID列とチャンクサマリ列とを備えたテーブルを保持している。
ユーザ端末11は、受信した第1のチャンクIDリストのチャンクIDを検索キーとしてユーザ端末11が保持するテーブル内を検索する。検索結果が見つかったチャンクIDはキャッシュ有りとなり、検索結果がみつからないチャンクIDについてはキャッシュ無しとなる。
チャンク推定部5は、ユーザ端末11から受信した第1のチャンクIDリストに含まれるそれぞれのチャンクIDのうちユーザ端末11にキャッシュが無い1又は複数のチャンクID(以下、これを第2のチャンクIDリストと呼んでもよい)を検索キーとしてチャンクテーブルTB7を検索する(S19)。
チャンク推定部5は、検索結果として第2のチャンクIDリストに含まれるそれぞれのチャンクIDに対応するチャンクサマリ(以下、これをチャンクサマリリストと呼んでもよい)をチャンクテーブルTB7から取得する(S20)。チャンク推定部5は、取得したチャンクサマリリストをユーザ端末11にそのままに送信する(S21)。
利用段階において情報処理装置1は、ステップS9〜S21によって、ユーザ端末11が取得した第2の画像30(35)のチャンクを、チャンクサマリを推定することで、推定するチャンク推定機能を実現する。
次にチャンク出力機能について説明する。ユーザ端末11は、受信したチャンクサマリリストを使用者に提示する。使用者は、提示されたチャンクサマリリストの中から例えば1つのチャンクサマリを選択する。ユーザ端末11は、使用者に選択されたチャンクサマリを制御部15に含まれるチャンク出力部6に送信する(S22)。
チャンク出力部6は、ユーザ端末11から受信したチャンクサマリに対応するチャンクIDを検索キーとして(S23)、チャンクテーブルTB7を検索しチャンクを取得する(S24)。
チャンク出力部6は、取得したチャンクをユーザ端末11にそのままに送信する(S25)。ユーザ端末11は、受信したチャンクをユーザに提示する。利用段階において情報処理装置1は、ステップS22〜S25によって、ユーザ端末11が取得した第2の画像30(35)のチャンクを出力するチャンク出力機能を実現する。
次に図7を用いて第1の学習済みモデル生成機能及び第2の学習済みモデル生成機能について説明する。図7は、本実施の形態による第1の学習済みモデル生成機能及び第2の学習済みモデル生成機能の説明に供するシーケンス図である。
学習段階の情報処理機能は、第1の学習済みモデル生成処理によって実現される第1の学習済みモデル生成機能と、第2の学習済みモデル生成処理によって実現される第2の学習済みモデル生成機能と、から構成される。
まず第1の学習済みモデル生成機能について説明する。学習済みモデル生成部16に含まれる第1の学習済みモデル生成部7は、処理対象とするシーン名と、第1の画像20(25)、位置情報及び時間情報と、第2の画像30(35)と、の組を決め、シーンテーブルTB1にシーン名を検索キーとして予め生成されたシーンテーブルTB1を検索する(S31)。
第1の学習済みモデル生成部7は、検索結果としてシーンIDをシーンテーブルTB1から取得し(S32)、第1の学習モデルDB1’に第1の画像20(25)、位置情報及び時間情報と、シーンIDと、を1対として学習させる(S33)。
また第1の学習済みモデル生成部7は、モデルテーブルTB2に取得したシーンIDを送信しモデルID取得要求を行う(S34)。モデルテーブルTB2は、受信したシーンIDに対応するモデルIDを生成して、シーンIDとモデルIDとの組み合わせを記憶する。次に第1の学習済みモデル生成部7は、モデルIDをモデルテーブルTB2から取得する(S35)。学習段階において情報処理装置1は、ステップS31〜S35によって、第1の学習済みモデルDB1を生成する第1の学習済みモデル生成機能を実現する。
次に第2の学習済みモデル生成機能について説明する。学習済みモデル生成部16に含まれる第2の学習済みモデル生成部8は、ステップS32において第1の学習済みモデル生成部7が受信したシーンIDを検索キーとして、予め生成されたシーン・コンテンツテーブルTB4を検索する(S36)。
第2の学習済みモデル生成部8は、検索結果としてコンテンツIDをシーン・コンテンツテーブルTB4から取得し(S37)、取得したコンテンツIDを検索キーとして予め生成されたコンテンツテーブルTB3を検索する(S38)。
第2の学習済みモデル生成部8は、検索結果としてコンテンツをコンテンツテーブルTB3から取得し(S39)、ステップS37で取得したコンテンツIDを検索キーとして予め生成されたコンテンツ・チャンクテーブルTB5を検索する(S40)。
第2の学習済みモデル生成部8は、検索結果としてチャンクIDをコンテンツ・チャンクテーブルTB5から取得し(S41)、取得したチャンクIDを検索キーとして予め生成されたチャンクテーブルTB7を検索する(S42)。
第2の学習済みモデル生成部8は、検索結果としてチャンクをチャンクテーブルTB7から取得し(S43)、ステップS41で取得したチャンクIDを検索キーとして予め生成されたチャンク・メタテーブルTB6を検索する(S44)。
第2の学習済みモデル生成部8は、検索結果として1又は複数のチャンク用メタIDをチャンク・メタテーブルTB6から取得し(S45)、取得したそれぞれのチャンク用メタIDを検索キーとして予め生成されたチャンク用メタテーブルTB8を検索する(S46)。
第2の学習済みモデル生成部8は、検索結果としてそれぞれのチャンク用メタIDに対応するチャンク用メタ値をチャンク用メタテーブルTB8からそれぞれ取得する(S47)。第2の学習済みモデル生成部8は、ステップS39で取得したコンテンツ、ステップS43で取得したチャンク及びステップS47で取得したそれぞれのチャンク用メタ値に問題がないかを第1の画像20(25)及び第2の画像30(35)を参照して確認を行う。
例えば第2の学習済みモデル生成部8は、第1の画像20(25)において撮像されたプレート21や第2の画像30(35)において撮像されたシール31を参照して確認を行う。
参照した結果、コンテンツやチャンクやチャンク用メタ値が第1の画像20(25)や第2の画像30(35)に撮像されている機器とは明らかに違う機器についての情報であることが明確であるなどの問題があった場合は対象となる組についての処理を終了する。
次に第2の学習済みモデル生成部8は、第2の学習モデルDB2’にモデルIDと、第2の画像30(35)と、1又は複数のチャンク用メタIDと、を1対として学習させる(S48)。学習段階において情報処理装置1は、ステップS36〜S48によって、第2の学習済みモデルDB2を生成する第2の学習済みモデル生成機能を実現する。
次に図8を用いて利用段階における情報処理について説明する。図8は、本実施の形態による利用段階における情報処理の処理手順を示すフローチャートである。利用段階における情報処理は、シーン推定処理S60と、チャンク推定処理S80と、チャンク出力処理S100と、から構成される。
まずシーン推定処理S60について説明する。シーン推定処理S60は、ステップS61〜ステップS67から構成される。シーン推定部4は、ユーザ端末11から第1の画像20(25)と、位置情報と、時間情報と、を受信すると(S61)、第1の画像20(25)、位置情報及び時間情報を第1の学習済みモデルDB1に入力する(S62)。
シーン推定部4は、第1の学習済みモデルDB1から出力として第1のシーンIDリストを取得し(S63)、ユーザ端末11に第1のシーンIDリストをそのまま送信してキャッシュの有無をユーザ端末11に問い合わせる(S64)。
ユーザ端末11からの返答結果がすべてキャッシュ有りの場合(S65:NO)、シーン推定処理S60は終了しチャンク推定処理S80が開始される。ユーザ端末11からの返答結果が1つでもキャッシュ無しの場合(S65:YES)、シーン推定部4は、シーンテーブルTB1からシーン名リストを取得し(S66)、そのままユーザ端末11に送信し(S67)、シーン推定処理S60は終了する。
次にチャンク推定処理S80について説明する。チャンク推定処理S80は、ステップS81〜ステップS88から構成される。チャンク推定部5は、使用者に選択されたシーン名をユーザ端末11から受信する(S81)。
ユーザ端末11からシーン名を受信すると、チャンク推定部5は、モデルテーブルTB2からモデルIDを取得する(S82)。ユーザ端末11からモデルIDと第2の画像30(35)とを受信すると、チャンク推定部5は、モデルIDによって複数の第2の学習済みモデルDB2のうちの1つを指定し、第2の画像30(35)を指定した第2の学習済みモデルDB2に入力する(S83)。
チャンク推定部5は、第2の学習済みモデルDB2から出力としてチャンク用メタIDリストを取得し(S84)、チャンク・メタテーブルTB6から第1のチャンクIDリストを取得する(S85)。次にチャンク推定部5は、ユーザ端末11に第1のチャンクIDリストをそのまま送信してキャッシュの有無をユーザ端末11に問い合わせる(S86)。
ユーザ端末11からの返答結果がすべてキャッシュ有りの場合(S86:NO)、チャンク推定処理S80は終了しチャンク出力処理S100が開始される。ユーザ端末11からの返答結果が1つでもキャッシュ無しの場合(S86:YES)、チャンク推定部5は、チャンクテーブルTB7からチャンクサマリリストを取得し(S87)、そのままユーザ端末11に送信し(S88)、チャンク推定処理S80は終了する。
次にチャンク出力処理S100について説明する。チャンク出力処理S100は、ステップS101〜ステップS103から構成される。チャンク出力部6は、使用者に選択されたチャンクサマリをユーザ端末11から受信する(S101)。
ユーザ端末11からチャンクサマリを受信すると、チャンク出力部6は、チャンクテーブルTB7からチャンクを取得し(S102)、そのままユーザ端末11に送信し(S103)、チャンク出力処理S100は終了する。
次に図9を用いて学習段階における情報処理について説明する。図9は、本実施の形態による学習段階における情報処理の処理手順を示すフローチャートである。学習段階における情報処理は、第1の学習済みモデル生成処理S120と、第2の学習済みモデル生成処理S140と、から構成される。
まず第1の学習済みモデル生成処理S120について説明する。第1の学習済みモデル生成処理S120は、ステップS121〜ステップS124から構成される。第1の学習済みモデル生成部7は、シーン名と、第1の画像20(25)、位置情報及び時間情報と、第2の画像30(35)と、の組を決めると、シーン名を検索キーとしてシーンテーブルTB1を検索する(S121)。
第1の学習済みモデル生成部7は、検索結果としてシーンテーブルTB1からシーンIDを取得し(S122)、第1の学習モデルDB1’にシーンIDと、第1の画像20(25)、位置情報及び時間情報と、を1対として学習させる(S123)。
次に第1の学習済みモデル生成部7は、モデルテーブルTB2にステップS122で取得したシーンIDを送信しモデルID取得要求を行い、モデルIDを取得する(S124)。
次に第2の学習済みモデル生成処理S140について説明する。第2の学習済みモデル生成処理S140は、ステップS141〜ステップS150から構成される。第2の学習済みモデル生成部8は、ステップS122で取得されたシーンIDを検索キーとしてシーン・コンテンツテーブルTB4を検索しコンテンツIDを取得する(S141)。
第2の学習済みモデル生成部8は、取得したコンテンツIDを検索キーとしてコンテンツテーブルTB3を検索しコンテンツを取得する(S142)。また第2の学習済みモデル生成部8は、取得したコンテンツIDを検索キーとしてコンテンツ・チャンクテーブルTB5を検索しチャンクIDを取得する(S143)。
また第2の学習済みモデル生成部8は、取得したチャンクIDを検索キーとしてチャンクテーブルTB7を検索しチャンクを取得する(S144)。また第2の学習済みモデル生成部8は、取得したチャンクIDを検索キーとしてチャンク・メタテーブルTB6を検索し1又は複数のチャンク用メタIDを取得する(S145)。
また第2の学習済みモデル生成部8は、取得した1又は複数のチャンク用メタIDのそれぞれを検索キーとしてチャンク用メタテーブルTB8を検索し、それぞれのチャンク用メタIDに対応するチャンク用メタ値をそれぞれ取得する(S146)。
第2の学習済みモデル生成部8は、ステップS142で取得したコンテンツ、ステップS144で取得したチャンク及びステップS146で取得したそれぞれのチャンク用メタ値に問題がないかを第1の画像20(25)及び第2の画像30(35)を参照して確認を行う(S147)。
確認の結果問題があった場合(S148:NO)、処理中の組に関しての学習段階の情報処理は終了する。確認の結果問題がない場合(S148:YES)、第2の学習済みモデル生成部8は、第2の学習モデルDB2’にモデルIDと、1又は複数のチャンク用メタIDと、第2の画像30(35)と、を1対として学習させ(S149)、処理中の組に関しての学習段階の情報処理は終了する。
以上のように本実施の形態による情報処理装置1によって、作業情報を分割又は示唆したチャンクは、ユーザ端末11を介して提示される。このため、チャンクを適切に設定することで必要な分量の情報を提示することが可能となる。またチャンクを、文書全体を示唆するような情報とすれば、大規模な情報の再構築は不要となる。
また位置情報や位置情報を入力データとすることで、使用者が必要な際をより正確に判断することができるようになる。またモデルテーブルTB2を使用することで、第1の学習済みモデルDB1と第2の学習済みモデルDB2との関係が変わった場合にも、モデルテーブルTB2を変更するだけ対応が可能となり、メンテナンス性に優れた装置を提供できる。
なおモデルテーブルTB2を使用しない場合、第1の学習済みモデルDB1と第2の学習済みモデルDB2との関係が変わった場合には学習済みモデルDB2を再度生成する必要がある。
本実施の形態においては、シーン推定部4、チャンク推定部5、チャンク出力部6、第1の学習済みモデル生成部7及び第2の学習済みモデル生成部8は、プログラムとしたがこれに限らず論理回路でもよい。
またシーン推定部4、チャンク推定部5、チャンク出力部6、第1の学習済みモデル生成部7、第2の学習済みモデル生成部8、第1の学習済みモデルDB1、第1の学習モデルDB1’、第2の学習済みモデルDB2、第2の学習モデルDB2’、シーンテーブルTB1、モデルテーブルTB2、コンテンツテーブルTB3、シーン・コンテンツテーブルTB4、コンテンツ・チャンクテーブルTB5、チャンク・メタテーブルTB6、チャンクテーブルTB7及びチャンク用メタテーブルTB8は1つの装置に実装されておらず、ネットワークで接続された複数の装置に分散して実装されていてもよい。
(他の実施の形態)
上述の実施の形態においては、ユーザ端末11は、スマートフォンなどとしたが本発明はこれに限らず、例えば、ヘッドマウントディスプレイの1種類であるホロレンズ(登録商標)であってもよい。
また上述の実施の形態においては、第1の画像に関係する情報は第1の画像20(25)、位置情報及び時間情報とし、シーンIDに関係する情報はシーンIDとしたがこれに限らない。
例えば、第1の画像に関係する情報を第1の画像20(25)とし、シーンIDに関係する情報をシーンIDとしてもよい。この場合、学習段階において学習時に第1の学習モデルDB1’に学習させるために入力するパラメータが減るため、学習にかかる時間が減り、また利用段階において第1の学習済みモデルDB1からデータが出力されるまでの時間も減る。
また例えば第1の画像に関係する情報を第1の画像20(25)とし、シーンIDに関係する情報を作業場所の性質に関する情報であるシーン用メタ値を一意に示すシーン用メタIDとしてもよい。図10及び図11を用いて詳細を説明する。
図10は、他の実施の形態による利用段階における情報処理装置1の構成を示すブロック図である。図11は、シーンIDをあいまい検索により検索する際の説明に供する概念図である。
図10に示すように、他の実施の形態において、情報処理装置1は、第1の学習済みモデル生成部7の代わりに第3の学習済みモデル生成部40を備えていてもよい。また情報処理装置1は、第1の学習済みモデルDB1の代わりに第3の学習済みモデルDB3を備えていてもよい。
また情報処理装置1は、シーンテーブルTB1の代わりにシーンテーブルTB12を備えていてもよい。またシーン用メタテーブルTB9、位置情報テーブルTB10及び時間情報テーブルTB11をさらに備えていてもよい。
第3の学習済みモデル生成部40は、1又は複数のシーン用メタIDと第1の画像20(25)とを1対として図示せぬ第3の学習モデルに学習させることで第3の学習済みモデルDB3を生成するプログラムである。
図11に示すようにシーン用メタテーブルTB9は、シーン用メタIDとシーン用カテゴリIDとシーン用カテゴリ名とシーン用メタ値とが1対1で結び付けられたテーブルである。シーン用カテゴリIDはシーン用メタ値が属するカテゴリの名前であるシーン用カテゴリ名を一意に示す。
シーン用メタテーブルTB9などに格納されるシーン用メタIDは、例えばzaq1などのように3文字の英字と1桁の10進数で表される。シーン用メタテーブルTB9に格納されるシーン用カテゴリ名は、例えば施設や建造物などとする。シーン用メタテーブルTB9に格納されるシーン用メタ値は、例えばAAA株式会社や化学プラントや浴場などとする。なおシーン用カテゴリID及びシーン用カテゴリ名の値はNULLであってもよい。
図11に示すように位置情報テーブルTB10は、位置情報と位置情報を一意に示す場所IDと作業場所の名称である場所名とテーブル内の対象となる行のいずれかの欄を更新した時間である更新日時とが1対1で結び付けられたテーブルである。
位置情報テーブルTB10などに格納される場所IDは、例えばLC001などのように2文字の英字と3桁の十進数とで表される。位置情報テーブルに格納される場所名は、例えばxx事業所などとする。位置情報テーブルなどに格納される更新日時は例えば20200120104513などのように西暦、月日及び時刻情報などによって表される。
図11に示すように時間情報テーブルTB11は、時間情報と時間情報を一意に示す作業IDと作業の名称である作業名と更新日時とが1対1で結び付けられたテーブルである。
時間情報テーブルTB11などに格納される作業IDは、例えばWO001などのように2文字の英字と3桁の十進数とで表される。時間情報テーブルに格納される作業名は、例えば圧力点検などとする。
図11に示すようにシーンテーブルTB12は、場所IDと作業IDとシーン用メタIDとシーンIDとシーン名と更新日時とが1対1で結び付けられたテーブルである。
図11に示すように第3の学習済みモデルDB3は、第1の画像20(25)と、1又は複数のシーン用メタIDと、を1対の学習データとして複数用いた機械学習により生成された、複数の第1の画像20(25)と、複数の1又は複数のシーン用メタIDと、の間における連関性が記憶されている。ここで機械学習とは例えば畳み込みニューラルネットワーク(CNN:Convolution Neural Network)とする。
複数の第1の画像20(25)と、複数の1又は複数のシーン用メタIDと、の間における連関性は、具体的には、図11に丸で示すノードと矢印で示すエッジとエッジに設定される重み係数とによってあらわされる畳み込みニューラルネットワークによって表すことができる。なお図11に示すように第3の学習済みモデルDB3への第1の画像20(25)の入力は、例えば画素p1,p2といった画素ごととする。
図10に示したような情報処理装置1に含まれるシーン推定部4は、場所IDと、作業IDと、シーン用メタIDと、を検索キーとして、シーンテーブルTB12において、シーンIDを検索するあいまい検索を行うことでシーンを推定する。
なお実際にユーザ端末11が使用者から取得する位置情報や時間情報は、TB10に格納されている位置情報やTB11に格納されている時間情報と完全に一致することは少ない。
例えば情報処理装置1は、使用者から、01:23:45:67:AB,accesspoint01,−63,wed,95552,zat1,bgt5という情報を取得したとする。シーンテーブルTB12から得られる情報は、01:23:45:67:AB,accesspoint01,−65,wed,100000,zaq1,bgt5である。
このように使用者から取得する情報とシーンテーブルTB12から得られる情報とが完全に一致しないような場合においてもあいまい検索をすることで、情報処理装置1は、シーンIDを推定することができる。
図10に示したような情報処理装置1では特に、データベースやテーブルが更新される頻度が低く、読み出される頻度が高い場合に有効である。例えば、データベースやテーブルはシステム構築時や作業フローの変更時や業務拠点移転時などの長いスパンで更新されるのに対し、読みだされる頻度は予測できず不定期であるような場合が挙げられる。これはあいまい検索をすることで、使用者からの情報とデータベースやテーブルとの情報とが少し違っていても処理を進められるためである。
また図10に示したような情報処理装置1では、学習段階において位置情報及び時間情報を第3の学習モデルに学習させる必要がなくなる。このため、図10に示したような情報処理装置1では、作業者が作業を行う時間だけを頻繁に変える場合や、同じ外観の建物が複数ある場合などに、都度ごとに学習モデルの学習が不要となる。
また上述の図7及び図9に示した学習段階では、第1の学習済みモデル及び第2の学習済みモデルを関連付けて生成する場合について説明したが、本発明はこれに限らず、第1の学習済みモデルDB1と第2の学習済みモデルDB2とは、別々に生成してもよい。
第1の学習済みモデルDB1と第2の学習済みモデルDB2とを別々に生成する場合、例えばシーンは既存のものであってコンテンツのみを追加する場合などに、シーンに関する学習を行わずに済む。
1……情報処理装置、2……中央演算装置、3……主記憶装置、4……シーン推定部、5……チャンク推定部、6……チャンク出力部、7……第1の学習済みモデル生成部、8……第2の学習済みモデル生成部、10……補助記憶装置、11……ユーザ端末。

Claims (1)

  1. 使用者の行う作業に関する情報である作業情報を出力する処理を情報処理装置に実行させる情報処理プログラムであって、
    前記使用者が前記作業を行う作業場所であるシーンの画像である第1の画像、前記使用者がいる位置の情報である位置情報及び前記使用者が前記作業を行う時間の情報である時間情報を取得し、前記第1の画像に関係する情報と、前記シーンを一意に示すシーンIDに関係する情報と、の間における連関性が記憶されている第1の学習済みモデルを使用して、前記シーンを推定する第1のステップと、
    前記作業に関係する機器の画像である第2の画像を取得し、前記第2の画像と、前記作業情報を分割又は示唆した情報であるチャンクを一意に示すチャンクIDと1対1に対応付けられた1又は複数のチャンク用メタIDと、の間における連関性が記憶されている複数の第2の学習済みモデルのうちの1つを使用して、前記チャンクを推定する第2のステップと、
    前記チャンクを出力する第3のステップと、を備え、
    前記複数の第2の学習済みモデルのうちの1つを、シーンIDと1対1に対応付けられたモデルIDを用いて選定し、前記チャンク用メタIDは前記機器の性質に関する情報であるチャンク用メタ値を一意に示
    前記作業情報は、前記チャンク用メタIDを最下層である第1層とし、前記チャンクIDを第2層とし、前記チャンクを意味のあるひとまとまりの情報とした情報であるコンテンツを一意に示すコンテンツIDを第3層とし、前記シーンIDを最上層である第4層とする階層構造を有する、
    情報処理プログラム。
JP2020137952A 2020-03-26 2020-08-18 情報処理プログラム Active JP6846765B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2020137952A JP6846765B1 (ja) 2020-03-26 2020-08-18 情報処理プログラム
DE112021000014.4T DE112021000014T5 (de) 2020-03-26 2021-03-12 Informationsverarbeitungsvorrichtung und Informationsverarbeitungsverfahren
PCT/JP2021/010015 WO2021193136A1 (ja) 2020-03-26 2021-03-12 情報処理装置及び情報処理方法
US17/417,987 US12450900B2 (en) 2020-03-26 2021-03-12 Information processing device and method for scene estimation and chunk estimation
CN202180001969.9A CN113728328B (zh) 2020-03-26 2021-03-12 信息处理装置和信息处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020056425A JP6818308B1 (ja) 2020-03-26 2020-03-26 情報処理装置及び情報処理方法
JP2020137952A JP6846765B1 (ja) 2020-03-26 2020-08-18 情報処理プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020056425A Division JP6818308B1 (ja) 2020-03-26 2020-03-26 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP6846765B1 true JP6846765B1 (ja) 2021-03-24
JP2021157759A JP2021157759A (ja) 2021-10-07

Family

ID=77891997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020137952A Active JP6846765B1 (ja) 2020-03-26 2020-08-18 情報処理プログラム

Country Status (5)

Country Link
US (1) US12450900B2 (ja)
JP (1) JP6846765B1 (ja)
CN (1) CN113728328B (ja)
DE (1) DE112021000014T5 (ja)
WO (1) WO2021193136A1 (ja)

Family Cites Families (133)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2096374C (en) 1992-05-18 2006-08-08 Michael A. Sandifer Computer aided maintenance and repair information system for equipment subject to regulatory compliance
US6959235B1 (en) 1999-10-28 2005-10-25 General Electric Company Diagnosis and repair system and method
WO2003038660A2 (en) 2001-10-31 2003-05-08 Essibuy.Com Interactive electronic references systems and methods
US7039625B2 (en) 2002-11-22 2006-05-02 International Business Machines Corporation International information search and delivery system providing search results personalized to a particular natural language
US20040183918A1 (en) 2003-03-20 2004-09-23 Eastman Kodak Company Producing enhanced photographic products from images captured at known picture sites
WO2005029364A1 (en) 2003-05-05 2005-03-31 Arbortext, Inc. System and method for managing dynamic content assembly
US20040230564A1 (en) 2003-05-16 2004-11-18 Horatiu Simon Filtering algorithm for information retrieval systems
US7296011B2 (en) 2003-06-20 2007-11-13 Microsoft Corporation Efficient fuzzy match for evaluating data records
JP2005196540A (ja) 2004-01-08 2005-07-21 Sony Corp メタデータ関連情報管理システム,メタデータ関連情報管理方法,関連メタデータ管理サーバ,メタデータ参照端末およびコンピュータプログラム
US9799060B2 (en) 2004-04-01 2017-10-24 Google Inc. Content access with handheld document data capture devices
US8799401B1 (en) 2004-07-08 2014-08-05 Amazon Technologies, Inc. System and method for providing supplemental information relevant to selected content in media
EP1669896A3 (en) 2004-12-03 2007-03-28 Panscient Pty Ltd. A machine learning system for extracting structured records from web pages and other text sources
US20060136362A1 (en) 2004-12-22 2006-06-22 Jones Michael P Systems and methods for data conversion
US20080052281A1 (en) 2006-08-23 2008-02-28 Lockheed Martin Corporation Database insertion and retrieval system and method
US7444216B2 (en) 2005-01-14 2008-10-28 Mobile Productivity, Inc. User interface for display of task specific information
JP4743390B2 (ja) 2005-04-28 2011-08-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 情報提供装置、制御方法およびプログラム
US8732025B2 (en) 2005-05-09 2014-05-20 Google Inc. System and method for enabling image recognition and searching of remote content on display
US7627564B2 (en) 2005-06-21 2009-12-01 Microsoft Corporation High scale adaptive search systems and methods
JP4923042B2 (ja) 2006-04-04 2012-04-25 パナソニック株式会社 個人情報管理装置
JP5130732B2 (ja) 2006-07-27 2013-01-30 富士通株式会社 振り返りデータ処理方法、振り返りデータ評価方法及び装置
JP5040624B2 (ja) * 2007-02-19 2012-10-03 セイコーエプソン株式会社 情報処理方法、情報処理装置及びプログラム
JP5175852B2 (ja) 2007-07-31 2013-04-03 パナソニック株式会社 映像解析装置、映像解析による人物間の評価値算出方法
JP2011090348A (ja) 2007-12-25 2011-05-06 J Magic Kk 広告管理システム、広告管理サーバ、広告管理方法、プログラム、および閲覧クライアント
US8041695B2 (en) 2008-04-18 2011-10-18 The Boeing Company Automatically extracting data from semi-structured documents
JP4876103B2 (ja) 2008-06-23 2012-02-15 株式会社日立製作所 保守点検システム
US10007882B2 (en) 2008-06-24 2018-06-26 Sharon Belenzon System, method and apparatus to determine associations among digital documents
CN101315652A (zh) 2008-07-17 2008-12-03 张小粤 医院内部的临床医学信息系统的构成及其信息查询方法
JP5558684B2 (ja) 2008-07-25 2014-07-23 株式会社デンソー 地図データ更新装置、地図データ更新プログラム及び地図データの更新方法
WO2011041672A1 (en) 2009-10-02 2011-04-07 Massachusetts Institute Of Technology Translating text to, merging, and optimizing graphical user interface tasks
JP2011170690A (ja) * 2010-02-19 2011-09-01 Sony Corp 情報処理装置、情報処理方法、およびプログラム。
KR101180278B1 (ko) 2010-02-25 2012-09-07 연세대학교 산학협력단 증강 현실을 이용한 사용자 설명서 제공 단말기, 서버 및 방법
JP5515890B2 (ja) 2010-03-15 2014-06-11 オムロン株式会社 画像処理装置、画像処理方法、画像処理システム、制御プログラムおよび記録媒体
JP2011198245A (ja) 2010-03-23 2011-10-06 Canon Inc 文書管理システム
WO2012006578A2 (en) 2010-07-08 2012-01-12 The Regents Of The University Of California End-to-end visual recognition system and methods
KR101293776B1 (ko) * 2010-09-03 2013-08-06 주식회사 팬택 객체 리스트를 이용한 증강 현실 제공 장치 및 방법
US8860760B2 (en) 2010-09-25 2014-10-14 Teledyne Scientific & Imaging, Llc Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
US20120086792A1 (en) 2010-10-11 2012-04-12 Microsoft Corporation Image identification and sharing on mobile devices
US8989950B2 (en) 2011-02-15 2015-03-24 Bosch Automotive Service Solutions Llc Diagnostic tool with smart camera
WO2012142250A1 (en) 2011-04-12 2012-10-18 Radiation Monitoring Devices, Inc. Augumented reality system
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
RU2487403C1 (ru) 2011-11-30 2013-07-10 Федеральное государственное бюджетное учреждение науки Институт системного программирования Российской академии наук Способ построения семантической модели документа
US20130266228A1 (en) 2012-04-10 2013-10-10 Siemens Industry, Inc. Automatic part identification and workflow generation
US9064326B1 (en) * 2012-05-10 2015-06-23 Longsand Limited Local cache of augmented reality content in a mobile computing device
US9854328B2 (en) 2012-07-06 2017-12-26 Arris Enterprises, Inc. Augmentation of multimedia consumption
US8757485B2 (en) 2012-09-05 2014-06-24 Greatbatch Ltd. System and method for using clinician programmer and clinician programming data for inventory and manufacturing prediction and control
US9336541B2 (en) 2012-09-21 2016-05-10 Paypal, Inc. Augmented reality product instructions, tutorials and visualizations
JP2014085730A (ja) 2012-10-19 2014-05-12 Mitsubishi Heavy Ind Ltd 機器の損傷解析支援システム及び損傷解析支援方法
US20140111542A1 (en) 2012-10-20 2014-04-24 James Yoong-Siang Wan Platform for recognising text using mobile devices with a built-in device video camera and automatically retrieving associated content based on the recognised text
US10438050B2 (en) 2013-02-27 2019-10-08 Hitachi, Ltd. Image analysis device, image analysis system, and image analysis method
JP5729407B2 (ja) * 2013-02-28 2015-06-03 カシオ計算機株式会社 撮像装置、表示制御方法及びプログラム
EP2775408A1 (en) 2013-03-07 2014-09-10 ABB Technology AG Mobile device for identifying devices for technical maintenance
JP6188400B2 (ja) 2013-04-26 2017-08-30 オリンパス株式会社 画像処理装置、プログラム及び画像処理方法
US20140320677A1 (en) 2013-04-26 2014-10-30 iStoc Oy Portable electrical device, external entity, and system comprising them
JP2014224877A (ja) 2013-05-15 2014-12-04 株式会社ベネッセコーポレーション 学習支援システム、表示制御方法、プログラム及び情報記憶媒体
US9129161B2 (en) 2013-05-31 2015-09-08 Toyota Jidosha Kabushiki Kaisha Computationally efficient scene classification
US10096003B2 (en) 2013-05-31 2018-10-09 Javid Vahid Apparatus, methods and systems for knowledge based maintenance
US20160049010A1 (en) 2013-06-05 2016-02-18 Top Image Systems Ltd. Document information retrieval for augmented reality display
JP2014238680A (ja) 2013-06-07 2014-12-18 株式会社日立システムズ 保守装置、保守プログラムおよび保守方法
JP2015106862A (ja) 2013-12-02 2015-06-08 日本放送協会 コンテンツ情報取得装置およびそのプログラム、ならびに、コンテンツ配信装置
KR20150105149A (ko) 2014-03-07 2015-09-16 삼성메디슨 주식회사 도움말 정보를 제공하는 의료 영상 장치 및 그 도움말 정보 제공 방법
FR3023948B1 (fr) 2014-07-21 2017-12-22 Airbus Operations Sas Procede d'aide a la maintenance d'un aeronef par realite augmentee.
CN107015572B (zh) 2014-07-30 2021-01-22 深圳市大疆创新科技有限公司 目标追踪系统及方法
JP6448325B2 (ja) * 2014-11-19 2019-01-09 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US9697432B2 (en) 2014-12-09 2017-07-04 International Business Machines Corporation Generating support instructions by leveraging augmented reality
DE102014226554A1 (de) 2014-12-19 2016-06-23 Robert Bosch Gmbh Identifikations- und Reparaturunterstützungs-Vorrichtung und -Verfahren
US9348920B1 (en) 2014-12-22 2016-05-24 Palantir Technologies Inc. Concept indexing among database of documents using machine learning techniques
JP6693704B2 (ja) 2015-03-30 2020-05-13 株式会社バンダイナムコエンターテインメント サーバシステム
EP3272611B1 (en) 2015-04-21 2019-07-24 Panasonic Intellectual Property Management Co., Ltd. Information processing system, information processing method, and program
US10600015B2 (en) 2015-06-24 2020-03-24 Karl Storz Se & Co. Kg Context-aware user interface for integrated operating room
US10354182B2 (en) 2015-10-29 2019-07-16 Microsoft Technology Licensing, Llc Identifying relevant content items using a deep-structured neural network
WO2017169907A1 (ja) 2016-03-29 2017-10-05 日本電気株式会社 作業支援装置、作業支援方法および記録媒体
US11210777B2 (en) 2016-04-28 2021-12-28 Blancco Technology Group IP Oy System and method for detection of mobile device fault conditions
JP6452168B2 (ja) 2016-06-15 2019-01-16 Necフィールディング株式会社 保守作業手順データ管理装置、システム、方法及びプログラム
JP6718964B2 (ja) * 2016-06-16 2020-07-08 株式会社オプティム 医療機器情報提供システム、医療機器情報提供方法及びプログラム
JP6586402B2 (ja) * 2016-09-16 2019-10-02 富士フイルム株式会社 画像分類装置、画像分類方法及びプログラム
JP6521923B2 (ja) 2016-09-21 2019-05-29 株式会社 日立産業制御ソリューションズ 作業支援装置及び作業支援方法
US10783451B2 (en) 2016-10-12 2020-09-22 Accenture Global Solutions Limited Ensemble machine learning for structured and unstructured data
JP2018092227A (ja) 2016-11-30 2018-06-14 ソニー株式会社 提示制御装置、提示制御方法およびプログラム
US20180150598A1 (en) 2016-11-30 2018-05-31 General Electric Company Methods and systems for compliance accreditation for medical diagnostic imaging
JP2018097437A (ja) 2016-12-08 2018-06-21 株式会社テレパシージャパン ウェアラブル情報表示端末及びこれを備えるシステム
JP6883195B2 (ja) 2016-12-13 2021-06-09 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム
JP6719373B2 (ja) 2016-12-21 2020-07-08 ヤフー株式会社 判定システム、判定方法、及び判定プログラム
US20180204083A1 (en) * 2017-01-17 2018-07-19 International Business Machines Corporation Cognitive object and object use recognition using digital images
JP6987508B2 (ja) * 2017-02-20 2022-01-05 オムロン株式会社 形状推定装置及び方法
CN106920071B (zh) 2017-02-23 2018-03-27 广东电网有限责任公司教育培训评价中心 变电站现场作业辅助方法和系统
CN110546644B (zh) * 2017-04-10 2022-10-21 富士通株式会社 识别装置、识别方法以及记录介质
JP6267841B1 (ja) 2017-04-28 2018-01-24 株式会社オプティム ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
EP3401918A1 (en) 2017-05-12 2018-11-14 Samsung Electronics Co., Ltd. Method of providing scan protocol information to medical devices and electronic devices
JP7021428B2 (ja) 2017-05-15 2022-02-17 ダイキン工業株式会社 製品の情報生成システム
US10152571B1 (en) 2017-05-25 2018-12-11 Enlitic, Inc. Chest x-ray differential diagnosis system
US20180374105A1 (en) * 2017-05-26 2018-12-27 Get Attached, Inc. Leveraging an intermediate machine learning analysis
JP6260979B1 (ja) 2017-06-05 2018-01-17 クリスタルメソッド株式会社 事象評価支援システム、事象評価支援装置、及び事象評価支援プログラム
JP2019021150A (ja) 2017-07-20 2019-02-07 オリンパス株式会社 工事支援装置
CN107403194B (zh) 2017-07-26 2020-12-18 广州慧扬健康科技有限公司 基于t-SNE的皮肤癌图像识别可视化系统
JP2019032593A (ja) * 2017-08-04 2019-02-28 オリンパス株式会社 撮影システム、撮影装置、および撮影方法
CN109658455B (zh) 2017-10-11 2023-04-18 阿里巴巴集团控股有限公司 图像处理方法和处理设备
WO2019079430A1 (en) 2017-10-17 2019-04-25 Verily Life Sciences Llc SYSTEMS AND METHODS FOR SEGMENTING SURGICAL VIDEOS
US20190122124A1 (en) 2017-10-23 2019-04-25 Honeywell International Inc. System and method for cognitive troubleshooting assistance
JP6936957B2 (ja) 2017-11-07 2021-09-22 オムロン株式会社 検査装置、データ生成装置、データ生成方法及びデータ生成プログラム
JP2018206341A (ja) 2017-11-16 2018-12-27 クリスタルメソッド株式会社 事象評価支援システム、事象評価支援装置、及び事象評価支援プログラム
US11222081B2 (en) 2017-11-27 2022-01-11 Evoqua Water Technologies Llc Off-line electronic documentation solutions
US10528816B2 (en) 2017-11-30 2020-01-07 Salesforce.Com, Inc. System and method for retrieving and displaying supplemental information and pertinent data using augmented reality
US10417501B2 (en) 2017-12-06 2019-09-17 International Business Machines Corporation Object recognition in video
JP6321879B1 (ja) 2017-12-20 2018-05-09 グレイステクノロジー株式会社 作業支援システム及び作業支援プログラム
JP6924413B2 (ja) 2017-12-25 2021-08-25 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
CN109977731B (zh) * 2017-12-27 2021-10-29 深圳市优必选科技有限公司 一种场景的识别方法、识别设备及终端设备
JP7133926B2 (ja) * 2018-01-15 2022-09-09 キヤノン株式会社 情報処理装置、システム、情報処理方法
US20190236489A1 (en) 2018-01-30 2019-08-01 General Electric Company Method and system for industrial parts search, harmonization, and rationalization through digital twin technology
US10592726B2 (en) 2018-02-08 2020-03-17 Ford Motor Company Manufacturing part identification using computer vision and machine learning
US10517681B2 (en) 2018-02-27 2019-12-31 NavLab, Inc. Artificial intelligence guidance system for robotic surgery
US10796153B2 (en) 2018-03-12 2020-10-06 International Business Machines Corporation System for maintenance and repair using augmented reality
US10922585B2 (en) 2018-03-13 2021-02-16 Recogni Inc. Deterministic labeled data generation and artificial intelligence training pipeline
US10769738B2 (en) 2018-03-19 2020-09-08 Adobe Inc. Interactive tutorial integration
US11093747B2 (en) 2018-04-16 2021-08-17 Peerwell, Inc. Hazard recognition
US10956817B2 (en) 2018-04-18 2021-03-23 Element Ai Inc. Unsupervised domain adaptation with similarity learning for images
US10768605B2 (en) 2018-07-23 2020-09-08 Accenture Global Solutions Limited Augmented reality (AR) based fault detection and maintenance
US10810543B2 (en) 2018-07-30 2020-10-20 Maplebear, Inc. Populating catalog data with item properties based on segmentation and classification models
US10482675B1 (en) 2018-09-28 2019-11-19 The Toronto-Dominion Bank System and method for presenting placards in augmented reality
JP7191461B2 (ja) * 2018-09-28 2022-12-19 ダイハツ工業株式会社 無段変速機の制御装置
EP3895174A1 (en) 2018-12-10 2021-10-20 Koninklijke Philips N.V. Systems and methods for augmented reality-enhanced field services support
CN109782902A (zh) * 2018-12-17 2019-05-21 中国科学院深圳先进技术研究院 一种操作提示方法及眼镜
US10755128B2 (en) * 2018-12-18 2020-08-25 Slyce Acquisition Inc. Scene and user-input context aided visual search
US11531970B2 (en) 2018-12-26 2022-12-20 General Electric Company Imaging modality maintenance care package systems and methods
US11531901B2 (en) 2018-12-26 2022-12-20 General Electric Company Imaging modality smart find maintenance systems and methods
US11158100B2 (en) * 2019-02-13 2021-10-26 Adobe Inc. Automatic generation of context-aware composite images
US11645110B2 (en) 2019-03-13 2023-05-09 International Business Machines Corporation Intelligent generation and organization of user manuals
JP6651190B1 (ja) * 2019-03-29 2020-02-19 株式会社 情報システムエンジニアリング 機械学習用のデータ構造、学習方法及び情報提供システム
JP6607589B1 (ja) * 2019-03-29 2019-11-20 株式会社 情報システムエンジニアリング 情報提供システム及び情報提供方法
US11429809B2 (en) 2019-09-24 2022-08-30 Beijing Sensetime Technology Development Co., Ltd Image processing method, image processing device, and storage medium
CN110807392B (zh) * 2019-10-25 2022-09-06 浙江大华技术股份有限公司 编码控制方法以及相关装置
JP6800453B1 (ja) * 2020-05-07 2020-12-16 株式会社 情報システムエンジニアリング 情報処理装置及び情報処理方法
JP6933345B1 (ja) * 2020-07-20 2021-09-08 株式会社 情報システムエンジニアリング 情報処理装置及び情報処理方法
KR102419018B1 (ko) 2021-08-05 2022-07-08 한화시스템 주식회사 항공기 정보 관리 시스템 및 항공기 정비방법

Also Published As

Publication number Publication date
US12450900B2 (en) 2025-10-21
CN113728328A (zh) 2021-11-30
US20220335717A1 (en) 2022-10-20
JP2021157759A (ja) 2021-10-07
CN113728328B (zh) 2024-04-12
WO2021193136A1 (ja) 2021-09-30
DE112021000014T5 (de) 2022-03-10

Similar Documents

Publication Publication Date Title
US11036754B2 (en) Database table conversion
US20150205847A1 (en) Database generation from a spreadsheet
US20170161291A1 (en) Database table conversion
KR20050005413A (ko) 데이터화일 저장장치, 데이터화일 저장프로그램 및데이터화일 저장방법
CN102272784A (zh) 用于提供内容项关联的分析和可视化的方法、装置和计算机程序产品
US9495469B2 (en) System and method to identify machine-readable codes
CN114424183B (zh) 信息处理装置和信息处理方法
JP6818308B1 (ja) 情報処理装置及び情報処理方法
US11108862B2 (en) Bi-directional data sync between a client device and an application server
US10855764B2 (en) Multi-location exchange of medical images and data
JP4237461B2 (ja) ホームページ自動更新システム
JP6846765B1 (ja) 情報処理プログラム
WO2022019222A1 (ja) 情報処理装置及び情報処理方法
US20170357697A1 (en) Using adaptors to manage data indexed by dissimilar identifiers
JP2002236709A (ja) Cad情報管理システムおよびcad情報管理方法
CN109063067A (zh) 图片更新方法、图片更新装置、服务器、终端及存储介质
HK40055012A (en) Information processing device and information processing method
JP6537702B1 (ja) 情報処理装置、端末装置、情報処理方法、およびプログラム
JP2018169900A (ja) 情報提供装置、情報提供方法、プログラム及び情報提供システム
CN112052234B (zh) 业务数据的处理方法和装置、存储介质、电子装置
US20170357591A1 (en) Cache management in a composite data environment
JP2006243981A (ja) 文書管理プログラム、文書管理方法及び文書管理装置
US20020107845A1 (en) Electronic component data sheet retrieving apparatus and electronic component data sheet retrieving method
JP2002132570A (ja) ウェブサイト履歴管理システム、ウェブサイト履歴管理方法、アクセスパターン分析システム、アクセスパターン分析方法、及び記録媒体
HK40072929A (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200820

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200820

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210218

R150 Certificate of patent or registration of utility model

Ref document number: 6846765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150