[go: up one dir, main page]

JP7706987B2 - 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム - Google Patents

学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム Download PDF

Info

Publication number
JP7706987B2
JP7706987B2 JP2021132919A JP2021132919A JP7706987B2 JP 7706987 B2 JP7706987 B2 JP 7706987B2 JP 2021132919 A JP2021132919 A JP 2021132919A JP 2021132919 A JP2021132919 A JP 2021132919A JP 7706987 B2 JP7706987 B2 JP 7706987B2
Authority
JP
Japan
Prior art keywords
image
feature
sentence
neural network
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021132919A
Other languages
English (en)
Other versions
JP2023027663A (ja
Inventor
晶路 一ノ瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2021132919A priority Critical patent/JP7706987B2/ja
Priority to US17/884,525 priority patent/US12183450B2/en
Publication of JP2023027663A publication Critical patent/JP2023027663A/ja
Priority to JP2025074452A priority patent/JP2025111698A/ja
Application granted granted Critical
Publication of JP7706987B2 publication Critical patent/JP7706987B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Quality & Reliability (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本開示は、学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラムに関する。
ディープラーニング等により機械学習がなされた学習済みモデルを用いて画像から抽出した特徴ベクトルのような特徴量が属する特徴空間を構築する手法が提案されている。例えば非特許文献1には、画像およびテキストのそれぞれから特徴量を抽出し、特徴量に基づいて画像とテキストとの関係性を推定する手法が提案されている。
また、テキストデータを解析して単語データを取得し、単語データに基づいて画像中の物体を特定する手法も提案されている(特許文献1参照)。
特開2020-013594号公報
Stacked Cross Attention for Image-Text Matching、Kuang-Huei Leeら、21 Mar 2018、arXiv:1803.08024
ところで、画像についてその内容を文として記載した場合、内容は同一であっても記載した人に応じて表現の仕方が異なる。このため、医用画像についての所見文は、同一の所見であっても医師に応じて表現の仕方が異なる。例えば、右肺の区域S6に充実型の結節があり、そのサイズが10mmであり、かつ境界が不明瞭である所見を呈する医用画像についての所見文は、それを記載する医師に応じて、「右肺S6に充実型結節を認める。サイズは10mm。境界はやや不明瞭である。」、「右肺S6に10mm大の充実型結節を認める。辺縁は比較的不明瞭である。」、および「右下葉S6にφ10mmの充実型結節。境界はやや不明瞭。」のように表現の仕方が異なるものとなる。このように、所見文等の文は内容が同一であっても、表現の仕方が異なることからばらつきが非常に多いものとなる。このように多様な表現を有する文から精度よく特徴量を導出できるモデルを構築するためには、大量の教師データが必要となる。
しかしながら、文の数は限りがあるため、大量の教師データを用意することが困難である。このため、画像と文とを高精度に対応づけることができる学習済みモデルを構築することは困難である。
本開示は上記事情に鑑みなされたものであり、画像と文とを高精度に対応づけできるようにすることを目的とする。
本開示による学習装置は、少なくとも1つのプロセッサを備え、
プロセッサは、第1ニューラルネットワークにより、画像に含まれるオブジェクトについての第1特徴量を導出し、
画像に含まれるオブジェクトに関する記載を含む文を構造化することにより、文についての構造化情報を導出し、
第2ニューラルネットワークにより、構造化情報から文についての第2特徴量を導出し、
画像に含まれるオブジェクトと文に記載されたオブジェクトとが対応する場合には、第1特徴量および第2特徴量が属する特徴空間において、画像に含まれるオブジェクトと文に記載されたオブジェクトとが対応しない場合よりも、導出される第1特徴量と第2特徴量との距離が小さくなるように第1ニューラルネットワークおよび第2ニューラルネットワークを学習することにより、画像に含まれるオブジェクトについての特徴量を導出する第1導出モデルおよびオブジェクトに関する記載を含む文についての特徴量を導出する第2導出モデルを構築する。
なお、本開示による学習装置においては、プロセッサは、画像に含まれるオブジェクトと文に記載されたオブジェクトとが対応しない場合には、特徴空間において、画像に含まれるオブジェクトと文に記載されたオブジェクトとが対応する場合よりも、導出される第1特徴量と第2特徴量との距離が大きくなるように、第1ニューラルネットワークおよび第2ニューラルネットワークを学習するものであってもよい。
また、本開示による学習装置においては、プロセッサは、文からオブジェクトに関する1以上の固有表現を抽出し、固有表現についての事実性を判定することにより、固有表現および事実性の判定結果を構造化情報として導出するものであってもよい。
また、本開示による学習装置においては、固有表現は、オブジェクトの位置、所見およびサイズの少なくとも1つを表し、
事実性の判定結果は、所見についての陽性、陰性および疑いのいずれかを表すものであってもよい。
また、本開示による学習装置においては、プロセッサは、固有表現が複数抽出された場合に固有表現間の関係性を、さらに構造化情報として導出するものであってもよい。
また、本開示による学習装置においては、関係性は、複数の固有表現のそれぞれが関連するか否かを表すものであってもよい。
また、本開示による学習装置においては、プロセッサは、固有表現および事実性を正規化することにより、正規化された構造化情報を導出するものであってもよい。
また、本開示による学習装置においては、画像は医用画像であり、画像に含まれるオブジェクトは医用画像に含まれる病変であり、
文は、病変についての所見が記載された所見文であってもよい。
本開示による第1の情報処理装置は、少なくとも1つのプロセッサを備え、
プロセッサは、本開示による学習装置により構築された第1導出モデルにより、対象画像に含まれる1以上のオブジェクトについての第1特徴量を導出し、
オブジェクトに関する記載を含む1以上の対象文を構造化することにより対象文についての構造化情報を導出し、
本開示による学習装置により構築された第2導出モデルにより、対象文についての構造化情報から対象文についての第2特徴量を導出し、
導出された第1特徴量および第2特徴量の特徴空間における距離に基づいて第2特徴量に対応する第1特徴量を特定し、
特定された第1特徴量を導出したオブジェクトを対象画像において他の領域と区別して表示する。
本開示による第2の情報処理装置は、少なくとも1つのプロセッサを備え、
プロセッサは、オブジェクトに関する記載を含む対象文の入力を受け付け、
対象文を構造化することにより対象文についての構造化情報を導出し、
本開示による学習装置により構築された第2導出モデルにより、対象文についての構造化情報から入力された対象文についての第2の特徴量を導出し、
本開示による学習装置により構築された第1導出モデルにより導出された、複数の参照画像のそれぞれに含まれる1以上のオブジェクトについての第1特徴量が参照画像のそれぞれと対応づけられたデータベースを参照することにより、複数の参照画像についての第1特徴量と導出された第2特徴量との特徴空間における距離に基づいて第2特徴量に対応する少なくとも1つの第1特徴量を特定し、
特定された第1特徴量と対応づけられた参照画像を特定する。
なお、本開示による第1および第2の情報処理装置においては、プロセッサは、第1特徴量との対応づけに寄与した固有表現を通知するものであってもよい。
本開示による学習方法は、第1ニューラルネットワークにより、画像に含まれるオブジェクトについての第1特徴量を導出し、
画像に含まれるオブジェクトに関する記載を含む文を構造化することにより、文についての構造化情報を導出し、
第2ニューラルネットワークにより、構造化情報から文についての第2特徴量を導出し、
画像に含まれるオブジェクトと文に記載されたオブジェクトとが対応する場合には、第1特徴量および第2特徴量が属する特徴空間において、画像に含まれるオブジェクトと文に記載されたオブジェクトとが対応しない場合よりも、導出される第1特徴量と第2特徴量との距離が小さくなるように第1ニューラルネットワークおよび第2ニューラルネットワークを学習することにより、画像に含まれるオブジェクトについての特徴量を導出する第1導出モデルおよびオブジェクトに関する記載を含む文についての特徴量を導出する第2導出モデルを構築する。
本開示による第1の情報処理方法は、本開示による学習装置により構築された第1導出モデルにより、対象画像に含まれる1以上のオブジェクトについての第1特徴量を導出し、
オブジェクトに関する記載を含む1以上の対象文を構造化することにより対象文についての構造化情報を導出し、
本開示による学習装置により構築された第2導出モデルにより、対象文についての構造化情報から対象文についての第2特徴量を導出し、
導出された第1特徴量および第2特徴量の特徴空間における距離に基づいて第2特徴量に対応する第1特徴量を特定し、
特定された第1特徴量を導出したオブジェクトを対象画像において他の領域と区別して表示する。
本開示による第2の情報処理方法は、オブジェクトに関する記載を含む対象文の入力を受け付け、
対象文を構造化することにより対象文についての構造化情報を導出し、
本開示による学習装置により構築された第2導出モデルにより、対象文についての構造化情報から入力された対象文についての第2の特徴量を導出し、
本開示による学習装置により構築された第1導出モデルにより導出された、複数の参照画像のそれぞれに含まれる1以上のオブジェクトについての第1特徴量が参照画像のそれぞれと対応づけられたデータベースを参照することにより、複数の参照画像についての第1特徴量と導出された第2特徴量との特徴空間における距離に基づいて第2特徴量に対応する少なくとも1つの第1特徴量を特定し、
特定された第1特徴量と対応づけられた参照画像を特定する。
なお、本開示による学習方法、並びに第1および第2の情報処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示によれば、画像と文とを高精度に対応づけできる。
本開示の第1の実施形態による学習装置をおよび情報処理装置を適用した医療情報システムの概略構成を示す図 第1の実施形態による学習装置の概略構成を示す図 第1の実施形態による情報処理装置の概略構成を示す図 第1の実施形態による学習装置の機能構成図 医用画像および読影レポートの例を示す図 第1の実施形態において、第1導出部、構造化情報導出部、第2導出部および学習部が行う処理を模式的に示す図 構造化を説明するための図 同義の表現と正規化された表現とを対応づけたリストの例を示す図 第2ニューラルネットワークを模式的に示す図 RNNとアテンション機構とを組み合わせたネットワーク構造を模式的に示す図 損失の導出を説明するための図 第1の実施形態による情報処理装置の機能構成図 第1特徴量の特定を説明するための図 表示画面を示す図 第1の実施形態において行われる学習処理を示すフローチャート 第1の実施形態において行われる情報処理を示すフローチャート 第2の実施形態による学習装置により学習される第2ニューラルネットワークを模式的に示す図 GCNによる第2特徴量の導出を説明するための図 第2の実施形態による情報処理装置の機能構成図 検索を説明するための図 表示画面を示す図 第2の実施形態において行われる情報処理を示すフローチャート 読影WSに表示される読影レポートの作成画面の他の例を示す図
以下、図面を参照して本開示の実施形態について説明する。まず、本開示の第1の実施形態による学習装置および情報処理装置を適用した医療情報システムの構成について説明する。図1は、医療情報システム1の概略構成を示す図である。図1に示す医療情報システム1は、公知のオーダリングシステムを用いた診療科の医師からの検査オーダに基づいて、被写体である患者の検査対象部位の撮影、撮影により取得された医用画像の保管、読影医による医用画像の読影と読影レポートの作成、および依頼元の診療科の医師による読影レポートの閲覧と読影対象の医用画像の詳細観察とを行うためのシステムである。
図1に示すように、医療情報システム1は、複数の撮影装置2、読影端末である複数の読影WS(WorkStation)3、診療WS4、画像サーバ5、画像DB(DataBase)5A、レポートサーバ6、レポートDB6A、および学習装置7が、有線または無線のネットワーク10を介して互いに通信可能な状態で接続されて構成されている。
各機器は、医療情報システム1の構成要素として機能させるためのアプリケーションプログラムがインストールされたコンピュータである。アプリケーションプログラムは、DVD(Digital Versatile Disc)およびCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。または、ネットワーク10に接続されたサーバコンピュータの記憶装置、若しくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じてコンピュータにダウンロードされ、インストールされる。
撮影装置2は、患者の診断対象となる部位を撮影することにより、診断対象部位を表す医用画像を生成する装置(モダリティ)である。具体的には、単純X線撮影装置、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。撮影装置2により生成された医用画像は画像サーバ5に送信され、画像DB5Aに保存される。
読影WS3は、例えば放射線科の読影医が、医用画像の読影および読影レポートの作成等に利用するコンピュータであり、本実施形態による情報処理装置(詳細は後述)を内包する。読影WS3では、画像サーバ5に対する医用画像の閲覧要求、画像サーバ5から受信した医用画像に対する各種画像処理、医用画像の表示、医用画像に関する所見文の入力受付が行われる。また、読影WS3では、医用画像に対する解析処理、解析結果に基づく読影レポートの作成の支援、レポートサーバ6に対する読影レポートの登録要求と閲覧要求、およびレポートサーバ6から受信した読影レポートの表示が行われる。これらの処理は、読影WS3が各処理のためのソフトウェアプログラムを実行することにより行われる。
診療WS4は、例えば診療科の医師が、画像の詳細観察、読影レポートの閲覧、および電子カルテの作成等に利用するコンピュータであり、処理装置、ディスプレイ等の表示装置、並びにキーボードおよびマウス等の入力装置により構成される。診療WS4では、画像サーバ5に対する画像の閲覧要求、画像サーバ5から受信した画像の表示、レポートサーバ6に対する読影レポートの閲覧要求、およびレポートサーバ6から受信した読影レポートの表示が行われる。これらの処理は、診療WS4が各処理のためのソフトウェアプログラムを実行することにより行われる。
画像サーバ5は、汎用のコンピュータにデータベース管理システム(DataBase Management System: DBMS)の機能を提供するソフトウェアプログラムがインストールされたものである。また、画像サーバ5は画像DB5Aが構成されるストレージを備えている。このストレージは、画像サーバ5とデータバスとによって接続されたハードディスク装置であってもよいし、ネットワーク10に接続されているNAS(Network Attached Storage)およびSAN(Storage Area Network)に接続されたディスク装置であってもよい。また、画像サーバ5は、撮影装置2からの医用画像の登録要求を受け付けると、その医用画像をデータベース用のフォーマットに整えて画像DB5Aに登録する。
画像DB5Aには、撮影装置2において取得された医用画像の画像データと付帯情報とが登録される。付帯情報には、例えば、個々の医用画像を識別するための画像ID(identification)、患者を識別するための患者ID、検査を識別するための検査ID、医用画像毎に割り振られるユニークなID(UID:unique identification)、医用画像が生成された検査日、検査時刻、医用画像を取得するための検査で使用された撮影装置の種類、患者氏名、年齢、性別等の患者情報、検査部位(撮影部位)、撮影情報(撮影プロトコル、撮影シーケンス、撮像手法、撮影条件、造影剤の使用等)、1回の検査で複数の医用画像を取得した場合のシリーズ番号あるいは採取番号等の情報が含まれる。また、本実施形態においては、読影WS3において後述するように導出された医用画像の第1特徴量が医用画像と対応づけられて画像DB5Aに登録される。
また、画像サーバ5は、読影WS3および診療WS4からの閲覧要求をネットワーク10経由で受信すると、画像DB5Aに登録されている医用画像を検索し、検索された医用画像を要求元の読影WS3および診療WS4に送信する。
レポートサーバ6には、汎用のコンピュータにデータベース管理システムの機能を提供するソフトウェアプログラムが組み込まれる。レポートサーバ6は、読影WS3からの読影レポートの登録要求を受け付けると、その読影レポートをデータベース用のフォーマットに整えてレポートDB6Aに登録する。
レポートDB6Aには、読影医が読影WS3を用いて作成した所見文を含む読影レポートが多数登録される。読影レポートは、例えば、読影対象の医用画像、医用画像を識別する画像ID、読影を行った読影医を識別するための読影医ID、病変名、病変の位置情報、および病変の性状等の情報を含んでいてもよい。本実施形態においては、レポートDB6Aには、読影レポートと読影レポートを作成した1以上の医用画像とが関連付けられて登録されている。
また、レポートサーバ6は、読影WS3および診療WS4からの読影レポートの閲覧要求をネットワーク10経由で受信すると、レポートDB6Aに登録されている読影レポートを検索し、検索された読影レポートを要求元の読影WS3および診療WS4に送信する。
ネットワーク10は、病院内の各種機器を接続する有線または無線のローカルエリアネットワークである。読影WS3が他の病院あるいは診療所に設置されている場合には、ネットワーク10は、各病院のローカルエリアネットワーク同士をインターネットまたは専用回線で接続した構成としてもよい。
次に、学習装置7について説明する。まず、図2を参照して、第1の実施形態による学習装置7のハードウェア構成を説明する。図2に示すように、学習装置7は、CPU(Central Processing Unit)11、不揮発性のストレージ13、および一時記憶領域としてのメモリ16を含む。また、学習装置7は、液晶ディスプレイ等のディスプレイ14、キーボードおよびマウス等のポインティングデバイス等からなる入力デバイス15、並びにネットワーク10に接続されるネットワークI/F(InterFace)17を含む。CPU11、ストレージ13、ディスプレイ14、入力デバイス15、メモリ16およびネットワークI/F17は、バス18に接続される。なお、CPU11は、本開示におけるプロセッサの一例である。
ストレージ13は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ13には、学習プログラム12が記憶される。CPU11は、ストレージ13から学習プログラム12を読み出してメモリ16に展開し、展開した学習プログラム12を実行する。
次に読影WS3に内包された、第1の実施形態による情報処理装置30について説明する。まず、図3を参照して、本実施形態による情報処理装置30のハードウェア構成を説明する。図3に示すように、情報処理装置30は、CPU41、不揮発性のストレージ43、および一時記憶領域としてのメモリ46を含む。また、情報処理装置30は、液晶ディスプレイ等のディスプレイ44、キーボードおよびマウス等のポインティングデバイス等からなる入力デバイス45、並びにネットワーク10に接続されるネットワークI/F47を含む。CPU41、ストレージ43、ディスプレイ44、入力デバイス45、メモリ46およびネットワークI/F47は、バス48に接続される。なお、CPU41は、本開示におけるプロセッサの一例である。
ストレージ43は、ストレージ13と同様に、HDD、SSD、およびフラッシュメモリ等によって実現される。記憶媒体としてのストレージ43には、情報処理プログラム42が記憶される。CPU41は、ストレージ43から情報処理プログラム42を読み出してメモリ46に展開し、展開した情報処理プログラム42を実行する。
次いで、第1の実施形態による学習装置の機能的な構成を説明する。図4は、第1の実施形態による学習装置の機能的な構成を示す図である。図4に示すように学習装置7は、情報取得部21、第1導出部22、構造化情報導出部23、第2導出部24および学習部25を備える。そして、CPU11が、学習プログラム12を実行することにより、CPU11は、情報取得部21、第1導出部22、構造化情報導出部23、第2導出部24および学習部25として機能する。
情報取得部21は、医用画像および医用画像に関する読影レポートを、ネットワークI/F17を介して画像サーバ5およびレポートサーバ6からそれぞれ取得する。医用画像および読影レポートは、後述する第1および第2のニューラルネットワークの学習に使用される。図5は医用画像および読影レポートの例を示す図である。図5に示すように、医用画像51は複数の断層画像からなる3次元画像である。本実施形態においては、医用画像51は、人体の胸部のCT画像とする。また、図5に示すように、複数の断層画像には、例えば右肺S6に病変をオブジェクト55Aとして含む断層画像55が含まれるものとする。
また、図5に示すように、読影レポート52は所見文53,54を含む。所見文53,54は、医用画像51に含まれるオブジェクトすなわち病変に関する記載を含む。図5に示す所見文53は、「右肺S6に充実型結節を認める。サイズは10mm。境界はやや不明瞭である。」の記載を含む。また、所見文54は、「左肺S9にも微小結節あり。」の記載を含む。
図5に示す2つの所見文53,54のうち、所見文53が医用画像51に含まれる断層画像55を読影した結果生成されたものである。このため断層画像55が所見文53と対応する。所見文54は、医用画像51のうちの断層画像55以外の断層画像を読影した結果生成されたものである。このため、断層画像55と所見文54とは対応しない。
第1導出部22は、医用画像に含まれるオブジェクトについての特徴量を導出する第1導出モデルを構築するために、第1ニューラルネットワーク61(NN)により医用画像に含まれる1以上のオブジェクトについての第1特徴量を導出する。本実施形態においては、第1ニューラルネットワーク61は畳み込みニューラルネットワーク(CNN(Convolutional Neural Network))とするが、これに限定されるものではない。図6に示すように、第1導出部22は、第1ニューラルネットワーク61に病変等のオブジェクトを含む医用画像等の画像を入力する。第1ニューラルネットワーク61は、画像に含まれる病変等のオブジェクトを抽出し、オブジェクトの特徴ベクトルを第1特徴量V1として導出する。
構造化情報導出部23は、所見文53,54を構造化することにより所見文53,54についての構造化情報を導出する。図7は構造化情報導出部23が行う処理を示す図である。以下、所見文53の構造化について説明するが、所見文54についても同様にして構造化情報を導出すればよい。まず、構造化情報導出部23は、所見文53からオブジェクトに関する固有表現を導出する。固有表現は構造化情報の一例である。固有表現は、所見文53に含まれるオブジェクトの位置、所見およびサイズの少なくとも1つを表す。本実施形態においては、所見文53に含まれるオブジェクトの位置、所見およびサイズのすべてを固有表現として導出する。したがって、構造化情報導出部23は、「右肺S6」、「充実型結節」、「10mm」、「境界」および「不明瞭」を固有表現として導出する。なお、「右肺S6」は位置、「充実型結節」は所見、「10mm」はサイズ、「境界」は位置、「不明瞭」は所見をそれぞれ表す固有表現である。以下、所見文53から導出した固有表現を、「右肺S6(位置)」、「充実型結節(所見)」、「10mm(サイズ)」、「境界(位置)」および「不明瞭(所見)」と示す。
また、構造化情報導出部23は、導出した固有表現についての事実性を判定する。具体的には、構造化情報導出部23は、所見の固有表現が陰性を表すものであるか、陽性を表すものであるか、あるいは疑いがあるものかを判定し、判定結果を導出する。本実施形態においては、所見の固有表現は「充実型結節」および「不明瞭」であり、いずれも陽性である。このため、構造化情報導出部23は、「充実型結節」および「不明瞭」の事実性をそれぞれ陽性と判定する。図7においては、陽性であることを+の符号を付与することにより示している。また、陰性である場合には-の符号を付与し、疑いがある場合には±の符号を付与するようにすればよい。事実性の判定結果は構造化情報の一例である。
また、構造化情報導出部23は、複数の固有表現間の関係性を導出する。関係性は構造化情報の一例である。なお、第1の実施形態においては、後述する処理において関係性を使用しないが、関係性は構造化情報の1つであるため、ここで関係性についても説明する。関係性は、固有表現同士が関連するか否かを表す。例えば、固有表現のうちの代表的な病変についての所見を表す固有表現「充実型結節(所見+)」は、サイズを表す固有表現「10mm(サイズ)」、位置を表す固有表現「右肺S6(位置)」および所見を表す固有表現「不明瞭(所見+)」と関連するが、位置を表す固有表現「境界(位置)」とは関連しない。また、位置を表す固有表現「境界(位置)」は所見を表す固有表現「不明瞭(所見+)」と関連する。
なお、関係性の導出は、多数の固有表現間の関係性の有無を予め定義したテーブルを参照することにより行えばよい。また、固有表現間の関係性の有無を出力するように機械学習を行うことにより構築された導出モデルを用いて関係性の導出を行うようにしてもよい。また、固有表現に記載された病変をキーワードに特定し、キーワードを修飾するすべての固有表現を関係性がある固有表現に特定してもよい。
さらに、構造化情報導出部23は、固有表現および事実性を正規化することにより、正規化された構造化情報を導出する。本実施形態における正規化とは、同義であるがばらつきがある表現を1つの定型の表現に変換することである。例えば、「右肺S6」と「右肺下葉S6」とはいずれも同義であるが表現が異なる。また、「10mm」と「10.0mm」とは同義であるが表現が異なる。また、「境界」および「不明瞭(+)」の組み合わせは、「境界明瞭」の事実性が陰性である表現「境界明瞭(-)」と同義であるが表現が異なる。
例えば、本実施形態においては、多数の固有表現および事実性について、同義の表現と正規化された表現とを対応づけたリストを予め用意してストレージ13に保存しておく。図8は同義の表現と正規化された表現とを対応づけたリストの例を示す図である。そして、構造化情報導出部23は、リスト59を参照して、固有表現および事実性を正規化する。これにより、構造化情報導出部23は、所見文53から、「右肺下葉S6(位置)」、「充実型結節(所見+)」、「10.0mm(サイズ)」および「境界明瞭(所見-)」の正規化された構造化情報を導出する。一方、構造化情報導出部23は、所見文54から、「左肺下葉S9(位置)」、「微小(サイズ)」および「結節(所見+)」の正規化された構造化情報を導出する。
第2導出部24は、オブジェクトに関する記載を含む文についての特徴量を導出する第2導出モデルを構築するために、第2ニューラルネットワーク(NN)62により、構造化情報導出部23が導出した構造化情報から、オブジェクトに関する記載を含む文についての第2特徴量を導出する。図9は第2ニューラルネットワーク62を模式的に示す図である。図9に示すように、第2ニューラルネットワーク62は、埋め込み層(embedding)62Aと、加算機構62Bと、トランスフォーマ(Transformer)62Cとを有する。第2導出部24は、入力された構造化情報を、固有表現、固有表現の種類および事実性の判定結果に分割して、埋め込み層62Aに入力する。埋め込み層62Aは、固有表現、固有表現の種類および事実性の判定結果についての特徴ベクトル65を出力する。
加算機構62Bは、個々の構造化情報毎に特徴ベクトル65を加算して、構造化情報毎に特徴ベクトル66を導出する。
トランスフォーマは、例えば「Vaswani, Ashish, et al. "Attention is all you need." Advances in neural information processing systems. 2017.」において提案されている。トランスフォーマ62Cは、特徴ベクトル66間の類似度を導出し、導出した類似度に応じた重みにより特徴ベクトル66を加算する処理を繰り返すことにより特徴ベクトル66を統合して、第2ニューラルネットワーク62に入力された構造化情報の特徴ベクトル、すなわち構造化情報導出部23に入力された所見文53についての特徴ベクトルを第2特徴量V2として出力する。
なお、加算機構62Bの後段の機構として、トランスフォーマ62Cに代えて、RNNとアテンション機構とを組み合わせたネットワーク構造を用いてもよい。図10はRNNとアテンション機構とを組み合わせたネットワーク構造を模式的に示す図である。図10に示すネットワーク構造67は、リカレントニューラルネットワーク層(Recurrent Neural Network: 以下RNN層とする)67Aと、アテンション機構67Bとを有する。
RNN層67Aは加算機構62Bが出力した特徴ベクトル66の前後関係を考慮した特徴ベクトル68を出力する。アテンション機構67Bは、予め学習することにより導出されたベクトルuwと各特徴ベクトル68との内積を重み係数wとして導出する。ベクトルuwは出力される第2特徴量V2の導出に際して寄与の程度が大きい固有表現ほど、大きい重みが付与されるように学習される。そして、アテンション機構67Bは、導出した重み係数wにより特徴ベクトル68を重み付け加算することにより、第2特徴量V2を導出する。
ここで、第1の実施形態においては、図6に示すように、「右肺S6に充実型結節を認める。サイズは10mm。境界はやや不明瞭である。」の所見文53から構造化情報53Aが導出され、構造化情報53Aから第2ニューラルネットワーク62により第2特徴量V2-1が取得されたものとする。また、「左肺S9にも微小結節あり。」の所見文54から構造化情報54Aが導出され、構造化情報54Aから第2ニューラルネットワーク62により第2特徴量V2-2が取得されたものとする。
学習部25は、画像に含まれるオブジェクトと文に記載されたオブジェクトとが対応する場合には、第1特徴量V1および第2特徴量V2が属する特徴空間において、導出される第1特徴量V1と第2特徴量V2との距離が小さくなるように第1ニューラルネットワーク61および第2ニューラルネットワーク62を学習する。
このために、学習部25は、第1特徴量V1および第2特徴量V2を、第1特徴量V1および第2特徴量V2により規定される特徴空間にプロットする。そして、学習部25は、特徴空間において第1特徴量V1と第2特徴量V2との距離を導出する。ここで、第1特徴量V1および第2特徴量V2はn次元のベクトルであるため、特徴空間もn次元である。なお、図6においては説明のために、第1特徴量V1および第2特徴量V2は2次元であり、2次元の特徴空間に第1特徴量V1および第2特徴量V2(V2-1,V2-2)をプロットした状態を示している。
ここで、図6に示す断層画像55は所見文53と対応するが、所見文54とは対応しない。このため、学習部25は、特徴空間において、第1特徴量V1と第2特徴量V2-1とが近づき、第1特徴量V1と第2特徴量V2-2とが離れるように、第1ニューラルネットワーク61および第2ニューラルネットワーク62を学習する。
このために、学習部25は、特徴空間における第1特徴量V1と第2特徴量V2との距離を導出する。距離としては、ユークリッド距離およびマハラノビス距離等、任意の距離を用いることができる。そして、距離に基づいて学習の際に使用する損失を導出する。図11は損失の導出を説明するための図である。まず、対応する第1特徴量V1および第2特徴量V2-1に関して、学習部25は特徴空間での距離d1を算出する。そして、距離d1を予め定められたしきい値α0と比較し、以下の式(1)に基づいて損失L1を導出する。
すなわち、第1特徴量V1と第2特徴量V2-1との距離d1がしきい値α0より大きい場合は、第2特徴量V2-1の第1特徴量V1からの距離がしきい値α0よりも小さくなるように、第1および第2ニューラルネットワーク61,62を学習するための損失L1を、d1-α0により算出する。一方、第1特徴量V1と第2特徴量V2-1との距離d1がしきい値α0以下の場合は、第1特徴量V1と第2特徴量V2-1との距離d1を小さくする必要はないため、L1を0とする。
L1=d1-α0(d1>α0)
L1=0(d1≦α0) (1)
一方、対応しない第1特徴量V1と第2特徴量V2-2に関して、学習部25は特徴空間での距離d2を算出する。そして、予め定められたしきい値β0と距離d2とを比較し、以下の式(2)に基づいて損失L2を導出する。
すなわち、第1特徴量V1と第2特徴量V2-2との距離d2がしきい値β0より小さい場合は、第2特徴量V2-2の第1特徴量V1からの距離がしきい値β0よりも大きくなるように、第1および第2ニューラルネットワーク61,62を学習するための損失L2を、β0-d2により算出する。一方、第1特徴量V1と第2特徴量V2-2との距離d2がしきい値β0以上の場合は、第1特徴量V1と第2特徴量V2-2との距離d2を大きくする必要はないため、L2を0とする。
L2=β0-d2(d2<β0)
L2=0(d2≧β0) (2)
学習部25は導出した損失L1,L2に基づいて、第1ニューラルネットワーク61および第2ニューラルネットワーク62を学習する。すなわち、d1>α0の場合およびd2<β0の場合には、損失L1,L2が小さくなるように、第1ニューラルネットワーク61および第2ニューラルネットワーク62のそれぞれを構成する層間の結合の重みおよび畳み込みに使用するカーネルの係数等を学習する。
そして学習部25は、損失L1が予め定められたしきい値以下となり、かつ損失L2がしきい値以下となるまで繰り返し学習を行う。なお、学習部25は、損失L1が予め定められた回数連続してしきい値以下となり、かつ損失L2が予め定められた回数連続してしきい値以下となるまで繰り返し学習を行うことが好ましい。これにより、画像と文とが対応する場合には、画像と文とが対応しない場合と比較して特徴空間における距離が小さくなり、画像と文とが対応しない場合には、画像と文とが対応する場合と比較して特徴空間における距離が大きくなるように第1特徴量V1および第2特徴量V2を導出する第1導出モデルおよび第2導出モデルが構築される。なお、学習部25は、予め定められた回数の学習を繰り返し行うものであってもよい。
このようにして構築された第1導出モデルおよび第2導出モデルは、読影WS3に送信され、第1の実施形態による情報処理装置において使用される。
次いで、第1の実施形態による情報処理装置の機能的な構成を説明する。図12は、第1の実施形態による情報処理装置の機能的な構成を示す図である。図12に示すように情報処理装置30は、情報取得部31、第1解析部32、構造化情報導出部33、第2解析部34、特定部35および表示制御部36を備える。そして、CPU41が、情報処理プログラム42を実行することにより、CPU41は、情報取得部31、第1解析部32、構造化情報導出部33、第2解析部34、特定部35および表示制御部36として機能する。
情報取得部31は、操作者である読影医による入力デバイス45からの指示により、画像サーバ5から読影対象となる対象医用画像G0を取得する。
第1解析部32は、上述した学習装置7により構築された第1導出モデル32Aを用いて対象医用画像G0を解析することにより、対象医用画像G0に含まれる病変等のオブジェクトについての第1特徴量V1を導出する。なお、本実施形態においては、対象医用画像G0に2つのオブジェクトが含まれ、2つのオブジェクトのそれぞれについて第1の特徴量V1-1,V1-2が導出されたものとする。
ここで、第1の実施形態による情報処理装置30においては、読影WS3において読影医が対象医用画像G0を読影し、読影結果を含む所見文を入力デバイス45を用いて入力することにより読影レポートが生成される。
構造化情報導出部33は、入力された所見文から構造化情報を導出する。構造化情報の導出は学習装置7の構造化情報導出部23と同様に行われる。
第2解析部34は、入力された所見文から導出した構造化情報を上述した学習装置7により構築された第2導出モデル34Aを用いて解析することにより、入力された所見文についての第2特徴量V2を導出する。
特定部35は、第1解析部32が導出した第1特徴量V1と、第2解析部34が導出した第2特徴量V2との特徴空間における距離を導出する。そして、導出した距離に基づいて第2特徴量V2に対応する第1特徴量V1を特定する。図13は第1特徴量の特定を説明するための図である。なお、図13においては説明のために特徴空間を2次元で示している。図13に示すように、特徴空間において、第1特徴量V1-1と第2特徴量V2との距離d3と、第1特徴量V1-2と第2特徴量V2との距離d4を比較すると、d3<d4である。このため、特定部35は、第2特徴量V2に対応する第1特徴量を第1特徴量V1-1に特定する。
表示制御部36は、特定された第1特徴量を導出したオブジェクトを対象医用画像G0において他の領域と区別して表示する。図14は読影WS3に表示される読影レポートの作成画面を示す図である。図14に示すように読影レポートの作成画面70は、画像表示領域71と文章表示領域72とを有する。画像表示領域71には対象医用画像G0が表示される。図14において、対象医用画像G0は胸部の3次元画像を構成する1つの断層画像である。文章表示領域72には読影医により入力された所見文が表示される。図14においては、「右肺S6に10mmの充実型結節あり。」の所見文が表示されている。なお、右肺S6は右肺下葉S6と同義である。
図14に示す対象医用画像G0には右肺に病変73が含まれ、左肺に病変74が含まれる。右肺の病変73について導出された第1特徴量V1-1と、左肺の病変74について導出された第1特徴量V1-2とを比較すると、「右肺S6に10mmの充実型結節あり。」の所見文について導出された第2の特徴量V2との距離は、第1特徴量V1-1の方が小さい。このため、表示制御部36は、対象医用画像G0において右肺の病変73を他の領域と区別して表示する。図14においては、右肺の病変73を矩形のマーク75によって囲むことにより、病変73を他の領域と区別して表示しているが、これに限定されるものではない。矢印等の任意の形状のマークを用いることができる。
次いで、第1の実施形態において行われる処理について説明する。図15は第1の実施形態による学習処理のフローチャートである。なお、学習に使用する画像および読影レポートは、情報取得部21により画像サーバ5およびレポートサーバ6からそれぞれ取得されてストレージ13に保存されているものとする。また、学習の終了条件は予め定められた回数の学習を行うことであるものとする。
まず第1導出部22が、第1ニューラルネットワーク61により、画像に含まれるオブジェクトについての第1特徴量V1を導出する(ステップST1)。また、構造化情報導出部23が、オブジェクトに関する記載を含む文から構造化情報を導出する(ステップST2)。続いて、第2導出部24が、構造化情報から第2ニューラルネットワーク62により、オブジェクトに関する記載を含む文についての第2特徴量V2を導出する(ステップST3)。なお、ステップST2,ST3の処理を先に行ってもよく、ステップST1およびステップST2,ST3の処理を並列に行ってもよい。
次いで、学習部25が、画像と文との対応関係に応じて、導出される第1特徴量V1と第2特徴量V2との距離が小さくなるように、第1ニューラルネットワークおよび第2ニューラルネットワークを学習する(ステップST4)。さらに学習部25は予め定められた回数の学習を行ったか否かを判定し(所定回数学習:ステップST5)、ステップST5が否定されるとステップST1に戻り、ステップST1~ステップST5の処理を繰り返す。ステップST5が肯定されると、処理を終了する。
次いで、第1の実施形態による情報処理について説明する。図16は第1の実施形態による情報処理のフローチャートである。なお、処理対象となる対象医用画像G0は情報取得部31により取得されてストレージ43に保存されているものとする。まず、第1解析部32が、第1導出モデル32Aを用いて対象医用画像G0を解析することにより、対象医用画像G0に含まれる病変等のオブジェクトについての第1特徴量V1を導出する(ステップST11)。
次いで、情報取得部31が、読影医が入力デバイス45を用いて入力した所見文を取得し(ステップST12)、構造化情報導出部33が、入力された所見文から構造化情報を導出する(ステップST13)。次いで、第2解析部34が、導出された構造化情報を第2導出モデル34Aを用いて解析することにより、入力された所見文についての第2特徴量V2を導出する(ステップST14)。
続いて、特定部35が、第1解析部32が導出した第1特徴量V1と、第2解析部34が導出した第2特徴量V2との特徴空間における距離を導出し、導出した距離に基づいて第2特徴量V2に対応する第1特徴量V1を特定する(ステップST15)。そして、表示制御部36が、特定された第1特徴量V1を導出したオブジェクトを対象医用画像G0において他の領域と区別して表示し(ステップST16)、処理を終了する。
このように、第1の実施形態による学習装置においては、画像に含まれるオブジェクトに関する記載を含む文を構造化することにより文についての構造化情報を導出し、構造化情報から文についての第2特徴量V2を導出するようにした。そして、画像に含まれるオブジェクトと文に記載されたオブジェクトとが対応する場合には、第1特徴量V1および第2特徴量V2が属する特徴空間において、導出される第1特徴量V1と第2特徴量V2との距離が小さくなるように第1ニューラルネットワーク61および第2ニューラルネットワーク62を学習することにより、第1導出モデル32Aおよび第2導出モデル34Aを構築するようにした。
このため、第2ニューラルネットワーク62を学習するための文に表現のばらつきがあっても、内容が同一であれば略同一の構造化情報が導出されることとなる。特に構造化情報が正規化されていれば同一の構造化情報が導出されることとなる。これにより、第2ニューラルネットワーク62は略同一の固有表現を用いて学習がなされることから、表現のばらつきに影響されることなく、第2特徴量を導出するように第2導出モデル34Aを構築することができる。したがって、第2ニューラルネットワーク62を学習するための文を大量に用意しなくても、画像と文とを高精度に対応づけることができる第1導出モデル32Aおよび第2導出モデル34Aを構築することができる。
また、学習により構築された第1導出モデル32Aおよび第2導出モデル34Aを第1の実施形態による情報処理装置30に適用することにより、入力される文の表現にばらつきがあっても、対応するオブジェクトを含む画像とオブジェクトの記載を含む文とは互いに対応づけられ、対応しないオブジェクトを含む医用画像とオブジェクトの記載を含む文とは互いに対応づけられないように、第1特徴量V1および第2特徴量V2が導出されることとなる。したがって、導出された第1特徴量V1および第2特徴量V2を用いることにより、画像と文との対応づけを精度よく行うことができる。
また、画像と文との対応づけを精度よく行うことができるため、医用画像に関して読影レポートを作成する際に、入力された所見文に記載されたオブジェクトを、医用画像において精度よく特定することができる。
なお、上記第1の実施形態による学習装置において、構造化情報に含まれる関係性をさらに用いて第2導出部を構築するようにしてもよい。以下これを学習装置の第2の実施形態として説明する。なお、第2の実施形態による学習装置の構成は、第2導出部24が第2ニューラルネットワーク62に代えて、グラフ畳み込みネットワーク(Graph Convolutional Network)(以下、GCNとする)を有する第2ニューラルネットワークを用いて第2特徴量を導出するようにした点を除いて図4に示す学習装置7と同一であるため、ここでは装置についての詳細な説明は省略する。
図17は第2の実施形態による学習装置により学習される第2ニューラルネットワークを模式的に示す図である。図17に示すように第2の実施形態における第2ニューラルネットワーク80は、埋め込み層(embedding)80Aと、GCN80Bとを有する。第2の実施形態においては、第2導出部24は、入力された正規化前の構造化情報を埋め込み層80Aに入力する。埋め込み層80Aは構造化情報についての特徴ベクトル81を出力する。GCN80Bは、特徴ベクトル81および構造化情報導出部23が導出した関係性に基づいて、第2特徴量V2を導出する。
図18はGCNによる第2特徴量の導出を説明するための図である。図18は構造化情報導出部23が導出した関係性に基づいて、正規化前の構造化情報がグラフ構造で示されている。すなわち、所見を表す固有表現「充実型結節(所見+)」のノードが、サイズを表す固有表現「10mm(サイズ)」のノード、位置を表す固有表現「右肺S6(位置)」のノードおよび所見を表す固有表現「不明瞭(所見+)」のノードと関連するが位置を表す固有表現「境界(位置)」のノードとは関連せず、位置を表す固有表現「境界(位置)」のノードが所見を表す固有表現「不明瞭(所見+)」のノードと関連している状態を示している。なお、図18においては、「充実型結節(所見+)」、「10mm(サイズ)」、「右肺S6(位置)」、「不明瞭(所見+)」および「境界(位置)」を、「充実型結節」、「10mm」、「右肺S6」、「不明瞭」および「境界」と示している。
GCN80Bにおいては、各ノードにおいて、自身のノードの特徴ベクトルと隣接するノードの特徴ベクトルとの畳み込みが行われて、各ノードの特徴ベクトルが更新される。そして、更新された特徴ベクトルを用いた畳み込みが繰り返し行われ、構造化情報のうちの代表的な病変の特徴を表す充実型結節についての特徴ベクトルを第2特徴量V2として出力する。
第2の実施形態においては、学習部25は上記第1の実施形態と同様に第1特徴量V1および第2特徴量V2を用いて第1ニューラルネットワーク61および第2ニューラルネットワーク80を学習する。これにより、第2の実施形態においては、文から導出される固有表現の関係性も考慮して第2特徴量V2を導出することができる。
次いで、情報処理装置の第2の実施形態について説明する。図19は第2の実施形態による情報処理装置の機能構成図である。なお、図19において図11と同一の構成については同一の参照番号を付与し、詳細な説明は省略する。図19に示すように第2の実施形態による情報処理装置30Aは、特定部35に代えて検索部37を備えた点が第1の実施形態による情報処理装置と異なる。
第2の実施形態による情報処理装置30Aにおいては、情報取得部31は、画像サーバ5に保存される多数の医用画像を取得する。そして第1解析部32が医用画像のそれぞれについて第1特徴量V1を導出する。情報取得部31は第1特徴量V1を画像サーバ5に送信する。画像サーバ5においては、医用画像が第1特徴量V1と対応づけられて画像DB5Aに保存される。第1特徴量V1と対応づけられて画像DB5Aに登録された医用画像を、以降の説明において参照画像と称する。
また、第2の実施形態による情報処理装置30Aにおいては、読影WS3において読影医が対象医用画像G0を読影し、読影結果を含む所見文を入力デバイス45を用いて入力することにより読影レポートが生成される。構造化情報導出部33は、入力された所見文から構造化情報を導出する。構造化情報の導出は学習装置7の構造化情報導出部23と同様に行われる。第2解析部34は、導出された構造化情報を上述した学習装置7により構築された第2導出モデル34Aを用いて解析することにより、入力された所見文についての第2特徴量V2を導出する。
検索部37は、画像DB5Aを参照して、特徴空間において、第2解析部34が導出した第2特徴量V2との距離が近い第1特徴量V1が対応づけられた参照画像を検索する。図20は第2の実施形態による情報処理装置30Aにおいて行われる検索を説明するための図である。なお、図20においても説明のために特徴空間を2次元で示している。また、説明のために5個の第1特徴量V1-11~V1-15が特徴空間にプロットされている。
検索部37は特徴空間において第2特徴量V2との距離が予め定められたしきい値以内にある第1特徴量を特定する。図20においては第2特徴量V2を中心とした半径d5の円85が示されている。検索部37は特徴空間において円85内に含まれる第1特徴量を特定する。図20においては、3つの第1特徴量V1-11~V1-13が特定される。
検索部37は、特定された第1特徴量V1-11~V1-13と対応づけられた参照画像を画像DB5Aにおいて検索し、検索された参照画像を画像サーバ5から取得する。
表示制御部36は、取得した参照画像をディスプレイ44に表示する。図21は第2の実施形態による情報処理装置30Aにおける読影レポートの作成画面を示す図である。図21に示すように、作成画面90は、画像表示領域91、文章表示領域92および結果表示領域93を有する。画像表示領域91には対象医用画像G0が表示される。図21において、対象医用画像G0は胸部の3次元画像を構成する1つの断層画像である。文章表示領域92には読影医により入力された所見文が表示されている。図21においては、「右肺S6に10mmの充実型結節あり。」の所見文が表示されている。
結果表示領域93には、検索部37が検索した参照画像が表示される。図21においては3つの参照画像R1~R3が結果表示領域93に表示されている。
次いで、第2の実施形態による情報処理について説明する。図22は第2の実施形態による情報処理のフローチャートである。なお、参照画像についての第1特徴量は第1解析部32により導出され、参照画像と対応づけられて画像DB5Aに多数登録されているものとする。また、対象医用画像G0は表示制御部36によりディスプレイ44に表示されているものとする。第2の実施形態においては、情報取得部31が、読影医が入力デバイス45を用いて入力した所見文を取得し(ステップST21)、構造化情報導出部33が、入力された所見文から構造化情報を導出する(ステップST22)。次いで、第2解析部34が、導出された構造化情報を第2導出モデル34Aを用いて解析することにより、入力された所見文についての第2特徴量V2を導出する(ステップST23)。
続いて、検索部37が画像DB5Aを参照して、第2特徴量V2との距離が近い第1特徴量V1が対応づけられた参照画像を検索する(ステップST24)。そして、表示制御部36が、検索された参照画像をディスプレイ44に表示し(ステップST25)、処理を終了する。
第2の実施形態において検索された参照画像R1~R3は、読影医が入力した所見文と特徴が類似する医用画像である。所見文は対象医用画像G0に関するものであることから、参照画像R1~R3は対象医用画像G0と症例が類似するものとなる。したがって、第2の実施形態によれば、症例が類似する参照画像を参照して、対象医用画像G0の読影を行うことができる。また、参照画像についての読影レポートをレポートサーバ6から取得し、対象医用画像G0についての読影レポートの作成に活用することができる。
なお、上記情報処理装置の第1の実施形態においては、表示制御部36が所見文を表示するに際し、画像に含まれるオブジェクトについての第1特徴量との対応づけに寄与した固有表現を通知するようにしてもよい。この場合、上述した図10に示すRNNとアテンション機構とを組み合わせたネットワーク構造を有する第2ニューラルネットワーク62から構築された第2導出部24を使用し、アテンション機構における重み付けの大きさに応じて、第1特徴量との対応づけに寄与した固有表現を特定すればよい。また、重み係数の大きさに応じて寄与の程度を導出してもよい。
図23は読影WS3に表示される読影レポートの作成画面の他の例を示す図である。図23に示す読影レポートの作成画面70Aにおいて、文章表示領域72に表示された「右肺S6に10mmの充実型結節あり。」の所見文に含まれる「右肺S6」、「10mm」および「充実型結節」が、対象医用画像G0に含まれる病変73についての第1特徴量との対応づけに寄与した固有表現であり、これらが強調表示されている。なお、図23においては各固有表現の寄与の程度が異なることをハッチングの線の間隔および線の数の相違により示している。図23においては、所見文に含まれる固有表現は、寄与の程度が高い順に「右肺S6」、「充実型結節」、「10mm」の順となっている。このように、第1特徴量との対応づけに寄与した固有表現を通知することにより、所見文における重要なキーワードを容易に認識することができる。
なお、第1特徴量との対応づけに寄与した固有表現の通知を、情報処理装置の第2の実施形態における、図21に示す表示画面90において行うようにしてもよいことはもちろんである。
また、上記実施形態においては、医用画像および医用画像についての所見文の特徴量を導出する導出モデルを構築しているが、これに限定されるものではない。例えば、写真画像および写真画像に対するコメント等の文の特徴量を導出する導出モデルを構築する場合にも、本開示の技術を適用できることはもちろんである。
また、上記実施形態において、例えば、学習装置7における情報取得部21、第1導出部22、構造化情報導出部23、第2導出部24および学習部25、並びに情報処理装置30,30Aにおける情報取得部31、第1解析部32、構造化情報導出部33、第2解析部34、特定部35、表示制御部36および検索部37といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
1 医療情報システム
2 撮影装置
3 読影WS
4 診療WS
5 画像サーバ
5A 画像DB
6 レポートサーバ
6A レポートDB
7 学習装置
10 ネットワーク
11,41 CPU
12 学習プログラム
13,43 ストレージ
14,44 ディスプレイ
15,45 入力デバイス
16,46 メモリ
17,47 ネットワークI/F
18,48 バス
21 情報取得部
22 第1導出部
23 構造化情報導出部
24 第2導出部
25 学習部
30,30A 情報処理装置
31 情報取得部
32 第1解析部
32A 第1導出モデル
33 構造化情報導出部
34 第2解析部
34A 第2導出モデル
35 特定部
36 表示制御部
37 検索部
42 情報処理プログラム
51 医用画像
52 読影レポート
53,54 所見文
53A,54A 構造化情報
55 断層画像
55A オブジェクト
59 リスト
61 第1ニューラルネットワーク
62 第2ニューラルネットワーク
62A 埋め込み層
62B 加算機構
62C トランスフォーマ
65,66,68 特徴ベクトル
67 ネットワーク構造
67A RNN層
67B アテンション機構
70,70A,90 読影レポートの作成画面
71,91 画像表示領域
72,92 文章表示領域
73,74 病変
75 マーク
80 第2ニューラルネットワーク
80A 埋め込み層
80B GCN層
81 特徴ベクトル
85 円
93 結果表示領域
d1,d2,d3,d4 距離
d5 半径
G0 対象医用画像
R1,R2,R3 参照画像
uw ベクトル
V1,V1-1,V1-2,V1-11~V1-15 第1特徴量
V2,V2-1,V2-2 第2特徴量

Claims (8)

  1. 少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    第1ニューラルネットワークにより、画像に含まれるオブジェクトについての第1特徴量を導出し、
    画像に含まれるオブジェクトに関する記載を含む文から前記オブジェクトに関する1以上の固有表現を抽出し、前記固有表現についての事実性を判定することによって前記固有表現および前記事実性の判定結果を前記文についての構造化情報として導出し、前記固有表現が複数抽出された場合に前記抽出された複数の固有表現間の関係性をさらに前記構造化情報として導出し
    第2ニューラルネットワークにより、前記構造化情報から前記文についての第2特徴量を導出し、
    前記画像に含まれるオブジェクトと前記文に記載されたオブジェクトとが対応する場合には、前記第1特徴量および前記第2特徴量が属する特徴空間において、前記画像に含まれるオブジェクトと前記文に記載されたオブジェクトとが対応しない場合よりも、導出される前記第1特徴量と前記第2特徴量との距離が小さくなるように前記第1ニューラルネットワークおよび前記第2ニューラルネットワークを学習することにより、画像に含まれるオブジェクトについての特徴量を導出する第1導出モデルおよびオブジェクトに関する記載を含む文についての特徴量を導出する第2導出モデルを構築する学習装置。
  2. 前記プロセッサは、前記画像に含まれるオブジェクトと前記文に記載されたオブジェクトとが対応しない場合には、前記特徴空間において、前記画像に含まれるオブジェクトと前記文に記載されたオブジェクトとが対応する場合よりも、導出される前記第1特徴量と前記第2特徴量との距離が大きくなるように、前記第1ニューラルネットワークおよび前記第2ニューラルネットワークを学習する請求項1に記載の学習装置。
  3. 前記固有表現は、前記オブジェクトの位置、所見およびサイズの少なくとも1つを表し、
    前記事実性の判定結果は、前記所見についての陽性、陰性および疑いのいずれかを表す請求項1または2に記載の学習装置。
  4. 前記関係性は、前記複数の固有表現のそれぞれが関連するか否かを表す請求項1から3のいずれか1項に記載の学習装置。
  5. 前記プロセッサは、前記固有表現および前記事実性を正規化することにより、正規化された構造化情報を導出する請求項からのいずれか1項に記載の学習装置。
  6. 前記画像は医用画像であり、前記画像に含まれるオブジェクトは前記医用画像に含まれる病変であり、
    前記文は、病変についての所見が記載された所見文である請求項1からのいずれか1項に記載の学習装置。
  7. 第1ニューラルネットワークにより、画像に含まれるオブジェクトについての第1特徴量を導出し、
    画像に含まれるオブジェクトに関する記載を含む文から前記オブジェクトに関する1以上の固有表現を抽出し、前記固有表現についての事実性を判定することによって前記固有表現および前記事実性の判定結果を前記文についての構造化情報として導出し、前記固有表現が複数抽出された場合に前記抽出された複数の固有表現間の関係性をさらに前記構造化情報として導出し
    第2ニューラルネットワークにより、前記構造化情報から前記文についての第2特徴量を導出し、
    前記画像に含まれるオブジェクトと前記文に記載されたオブジェクトとが対応する場合には、前記第1特徴量および前記第2特徴量が属する特徴空間において、前記画像に含まれるオブジェクトと前記文に記載されたオブジェクトとが対応しない場合よりも、導出される前記第1特徴量と前記第2特徴量との距離が小さくなるように前記第1ニューラルネットワークおよび前記第2ニューラルネットワークを学習することにより、画像に含まれるオブジェクトについての特徴量を導出する第1導出モデルおよびオブジェクトに関する記載を含む文についての特徴量を導出する第2導出モデルを構築する学習方法。
  8. 第1ニューラルネットワークにより、画像に含まれるオブジェクトについての第1特徴量を導出する手順と、
    画像に含まれるオブジェクトに関する記載を含む文から前記オブジェクトに関する1以上の固有表現を抽出し、前記固有表現についての事実性を判定することによって前記固有表現および前記事実性の判定結果を前記文についての構造化情報として導出し、前記固有表現が複数抽出された場合に前記抽出された複数の固有表現間の関係性をさらに前記構造化情報として導出する手順と、
    第2ニューラルネットワークにより、前記構造化情報から前記文についての第2特徴量を導出する手順と、
    前記画像に含まれるオブジェクトと前記文に記載されたオブジェクトとが対応する場合には、前記第1特徴量および前記第2特徴量が属する特徴空間において、前記画像に含まれるオブジェクトと前記文に記載されたオブジェクトとが対応しない場合よりも、導出される前記第1特徴量と前記第2特徴量との距離が小さくなるように前記第1ニューラルネットワークおよび前記第2ニューラルネットワークを学習することにより、画像に含まれるオブジェクトについての特徴量を導出する第1導出モデルおよびオブジェクトに関する記載を含む文についての特徴量を導出する第2導出モデルを構築する手順とをコンピュータに実行させる学習プログラム。
JP2021132919A 2021-08-17 2021-08-17 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム Active JP7706987B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021132919A JP7706987B2 (ja) 2021-08-17 2021-08-17 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム
US17/884,525 US12183450B2 (en) 2021-08-17 2022-08-09 Constructing trained models to associate object in image with description in sentence where feature amount for sentence is derived from structured information
JP2025074452A JP2025111698A (ja) 2021-08-17 2025-04-28 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021132919A JP7706987B2 (ja) 2021-08-17 2021-08-17 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2025074452A Division JP2025111698A (ja) 2021-08-17 2025-04-28 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2023027663A JP2023027663A (ja) 2023-03-02
JP7706987B2 true JP7706987B2 (ja) 2025-07-14

Family

ID=85227595

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021132919A Active JP7706987B2 (ja) 2021-08-17 2021-08-17 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム
JP2025074452A Pending JP2025111698A (ja) 2021-08-17 2025-04-28 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2025074452A Pending JP2025111698A (ja) 2021-08-17 2025-04-28 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US12183450B2 (ja)
JP (2) JP7706987B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7718915B2 (ja) * 2021-08-30 2025-08-05 富士フイルム株式会社 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム
US20230376687A1 (en) * 2022-05-17 2023-11-23 Adobe Inc. Multimodal extraction across multiple granularities

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002334A (ja) 2019-06-20 2021-01-07 学校法人関西医科大学 骨関連事象を引き起こす可能性が高いハイリスク患者を提示するための方法、及び装置
JP2021099803A (ja) 2019-12-20 2021-07-01 楽天グループ株式会社 ディープバイナリハッシュおよび量子化を介した効率的なクロスモーダル検索

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6797088B2 (ja) * 2017-08-17 2020-12-09 富士フイルム株式会社 学習データ生成支援装置および学習データ生成支援装置の作動方法並びに学習データ生成支援プログラム
CN109583440B (zh) * 2017-09-28 2021-12-17 北京西格码列顿信息技术有限公司 结合影像识别与报告编辑的医学影像辅助诊断方法及系统
JP2019169049A (ja) * 2018-03-26 2019-10-03 富士フイルム株式会社 医用画像特定装置、方法およびプログラム
EP3977916A4 (en) * 2019-05-31 2022-08-03 FUJIFILM Corporation MEDICAL DOCUMENT CREATION DEVICE, METHOD, AND PROGRAM, LEARNING DEVICE, METHOD, AND PROGRAM, AND LEARNED MODEL
JP2020013594A (ja) 2019-09-03 2020-01-23 株式会社メルカリ 情報処理方法、プログラム、及び情報処理装置
JP7374215B2 (ja) * 2019-12-03 2023-11-06 富士フイルム株式会社 文書作成支援装置、方法およびプログラム
WO2021157705A1 (ja) * 2020-02-07 2021-08-12 富士フイルム株式会社 文書作成支援装置、方法およびプログラム
WO2021167018A1 (ja) * 2020-02-18 2021-08-26 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2021167080A1 (ja) * 2020-02-20 2021-08-26 富士フイルム株式会社 情報処理装置、方法およびプログラム
JP7504987B2 (ja) * 2020-03-03 2024-06-24 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2021177312A1 (ja) * 2020-03-03 2021-09-10 富士フイルム株式会社 情報保存装置、方法およびプログラム、並びに解析記録生成装置、方法およびプログラム
WO2021177358A1 (ja) * 2020-03-03 2021-09-10 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2021187483A1 (ja) * 2020-03-17 2021-09-23 富士フイルム株式会社 文書作成支援装置、方法およびプログラム
JP7436636B2 (ja) * 2020-03-23 2024-02-21 富士フイルム株式会社 文書作成支援装置、方法およびプログラム
CN111782921B (zh) * 2020-03-25 2025-01-14 北京沃东天骏信息技术有限公司 检索目标的方法和装置
JPWO2022163071A1 (ja) * 2021-01-27 2022-08-04
WO2022196105A1 (ja) * 2021-03-19 2022-09-22 富士フイルム株式会社 情報管理装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム
EP4310854A4 (en) * 2021-03-19 2024-08-21 FUJIFILM Corporation DEVICE, METHOD AND PROGRAM FOR CREATING DOCUMENT
WO2022230641A1 (ja) * 2021-04-30 2022-11-03 富士フイルム株式会社 文書作成支援装置、文書作成支援方法、及び文書作成支援プログラム
WO2022261472A1 (en) * 2021-06-11 2022-12-15 Genentech, Inc. Hierarchical workflow for generating annotated training data for machine learning enabled image segmentation
CN113591839B (zh) * 2021-06-28 2023-05-09 北京有竹居网络技术有限公司 一种特征提取模型构建方法、目标检测方法及其设备
JP7686490B2 (ja) * 2021-07-29 2025-06-02 富士フイルム株式会社 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム
JP7718915B2 (ja) * 2021-08-30 2025-08-05 富士フイルム株式会社 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム
JPWO2023032345A1 (ja) * 2021-09-02 2023-03-09
WO2023054645A1 (ja) * 2021-09-30 2023-04-06 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム
CN114530224A (zh) * 2022-01-18 2022-05-24 深圳市智影医疗科技有限公司 基于医学影像的诊断报告辅助生成方法及系统
JP2024054748A (ja) * 2022-10-05 2024-04-17 富士フイルム株式会社 言語特徴抽出モデルの生成方法、情報処理装置、情報処理方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002334A (ja) 2019-06-20 2021-01-07 学校法人関西医科大学 骨関連事象を引き起こす可能性が高いハイリスク患者を提示するための方法、及び装置
JP2021099803A (ja) 2019-12-20 2021-07-01 楽天グループ株式会社 ディープバイナリハッシュおよび量子化を介した効率的なクロスモーダル検索

Also Published As

Publication number Publication date
JP2025111698A (ja) 2025-07-30
US20230054096A1 (en) 2023-02-23
JP2023027663A (ja) 2023-03-02
US12183450B2 (en) 2024-12-31

Similar Documents

Publication Publication Date Title
Narin et al. Automatic detection of coronavirus disease (COVID-19) using X-ray images and deep convolutional neural networks
Chan et al. Deep learning in medical image analysis
JP2019169049A (ja) 医用画像特定装置、方法およびプログラム
JP2025111698A (ja) 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム
CN115249228A (zh) 胸部x射线图像识别方法、装置、计算机设备和存储介质
CN107077528A (zh) 具有基于文本识别的文本图像链接的图片归档系统
JP7237089B2 (ja) 医療文書作成支援装置、方法およびプログラム
JP7684374B2 (ja) 情報保存装置、方法およびプログラム、並びに解析記録生成装置、方法およびプログラム
JP7686490B2 (ja) 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム
JP7007469B2 (ja) 医療文書作成支援装置、方法およびプログラム、学習済みモデル、並びに学習装置、方法およびプログラム
JP2024009342A (ja) 文書作成支援装置、方法およびプログラム
Aziz et al. Computer‐aided diagnosis of COVID‐19 disease from chest x‐ray images integrating deep feature extraction
JP2024054748A (ja) 言語特徴抽出モデルの生成方法、情報処理装置、情報処理方法及びプログラム
US20250322641A1 (en) Methods and systems for automated follow-up reading of medical image data
WO2021187483A1 (ja) 文書作成支援装置、方法およびプログラム
US20240193932A1 (en) Information processing apparatus, method, and program
WO2022196106A1 (ja) 文書作成装置、方法およびプログラム
WO2021193548A1 (ja) 文書作成支援装置、方法およびプログラム
JP7299314B2 (ja) 医療文書作成装置、方法およびプログラム、学習装置、方法およびプログラム、並びに学習済みモデル
JP7718915B2 (ja) 学習装置、方法およびプログラム、並びに情報処理装置、方法およびプログラム
Pivithuru et al. E-patient Card: An Integrated Electronic Health Recording System for Patient
US20230070906A1 (en) Information processing apparatus, method, and program
Pant et al. Attention U-Net Model for Accurate Thoracic Disease Detection, Segmentation and Localization
Keerthana et al. Transfer learning-based CNN diagnostic framework for diagnosis of COVID-19 from lung CT images
JP7376715B2 (ja) 経過予測装置、経過予測装置の作動方法および経過予測プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240509

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250311

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250702

R150 Certificate of patent or registration of utility model

Ref document number: 7706987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150