JP7587815B2 - Medical image processing method, medical image processing device, and medical image processing program - Google Patents
Medical image processing method, medical image processing device, and medical image processing program Download PDFInfo
- Publication number
- JP7587815B2 JP7587815B2 JP2020181621A JP2020181621A JP7587815B2 JP 7587815 B2 JP7587815 B2 JP 7587815B2 JP 2020181621 A JP2020181621 A JP 2020181621A JP 2020181621 A JP2020181621 A JP 2020181621A JP 7587815 B2 JP7587815 B2 JP 7587815B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- tissue
- axis
- analyzed
- imaged
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Magnetic Resonance Imaging Apparatus (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
本開示は、医用画像処理方法、医用画像処理装置および医用画像処理プログラムに関する。 This disclosure relates to a medical image processing method, a medical image processing device, and a medical image processing program.
被験者の組織およびその周辺を撮像した領域から、対象の組織を特定する手法が検討されている。例えば、特許文献1では、全層畳み込みニューラルネットワーク(CNN)を用いて、MRI画像から解剖学的構造の少なくとも1つの部分をセグメンテーションするようなモデルを作成することが記載されている。
Methods for identifying target tissue from an area in which the subject's tissue and its surroundings are imaged are being considered. For example,
しかしながら、MRI画像では水平方向の断面についてより詳細な検討ができるものの、例えば、垂直方向における被験者の組織の状況等を把握することが困難である。 However, while MRI images allow for more detailed examination of horizontal cross sections, it is difficult to grasp, for example, the condition of the subject's tissues in the vertical direction.
本開示は上記を鑑みてなされたものであり、画像として取得した方向とは異なる方向における対象の組織の状況をより適切に把握することが可能な技術を提供することを目的とする。 The present disclosure has been made in consideration of the above, and aims to provide a technology that can more appropriately grasp the condition of a target tissue in a direction different from the direction in which the image is acquired.
上記目的を達成するため、本開示の一形態に係る医用画像処理方法は、分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られた、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備することと、準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、を含む。 To achieve the above object, a medical image processing method according to one embodiment of the present disclosure includes: preparing a plurality of pixel information constituting a plurality of images of a cross section including a first axis, obtained by imaging a tissue to be analyzed at different positions along one direction; generating image information relating to an image of a second axis cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from the plurality of pixel information prepared; and identifying, using machine learning, an area in the image of the second axis cross section where the tissue to be analyzed is estimated to be imaged.
本開示の一形態に係る医用画像処理装置は、分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られた、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備する画像準備部と、準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成する画像再構成部と、機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定する対象組織特定部と、を含む。 A medical image processing device according to one embodiment of the present disclosure includes an image preparation unit that prepares a plurality of pixel information constituting a plurality of images of a cross section including a first axis obtained by imaging a tissue to be analyzed at different positions along one direction, an image reconstruction unit that generates image information relating to an image of a second axis cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, among the plurality of pixel information prepared, and a target tissue identification unit that uses machine learning to identify an area in the image of the second axis cross section where the tissue to be analyzed is estimated to be imaged.
本開示の一形態に係る医用画像処理プログラムは、医用画像処理装置としてコンピュータを機能させるための医用画像処理プログラムであって、分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られる、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備することと、準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、をコンピュータに実行させる。 A medical image processing program according to one embodiment of the present disclosure is a medical image processing program for causing a computer to function as a medical image processing device, and causes a computer to execute the following: preparing a plurality of pixel information constituting a plurality of images of a cross section including a first axis, obtained by imaging a tissue to be analyzed at different positions along one direction; generating image information relating to an image of a second-axis cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared; and identifying, using machine learning, an area in the image of the second-axis cross section where the tissue to be analyzed is estimated to have been imaged.
上記の医用画像処理方法、医用画像処理装置および医用画像処理プログラムによれば、第1軸を含む断面の複数の画像を構成する複数の画素情報から、第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、第2軸を含む平面の画像である第2軸断面の画像に係る画像情報が生成される。また、機械学習を用いて、第2軸断面の画像のうち、分析対象の組織を撮像したと推定される領域が特定される。このように、第2軸断面の画像に係る画像情報を生成した上で、当該画像から分析対象の組織を撮像したと推定される領域を特定する構成とすることで、第2軸に沿った方向、すなわち、画像として取得した方向とは異なる方向における対象の組織の状況をより適切に把握することが可能となる。 According to the above medical image processing method, medical image processing device, and medical image processing program, image information relating to an image of a second axial section, which is an image of a plane including the second axis, is generated by combining pixel information relating to pixels included in the same plane including the second axis from multiple pixel information constituting multiple images of a section including the first axis. In addition, machine learning is used to identify an area of the image of the second axial section in which the tissue to be analyzed is estimated to be imaged. In this way, by generating image information relating to the image of the second axial section and then identifying an area from the image in which the tissue to be analyzed is estimated to be imaged, it becomes possible to more appropriately grasp the condition of the target tissue in a direction along the second axis, i.e., in a direction different from the direction in which the image was acquired.
前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記第1軸を含む断面の画像に含まれる画素のうち、前記分析対象の組織を撮像したと推定される領域をさらに特定し、前記分析対象の組織を撮像したと推定される領域に係る情報を用いて3次元データを作成することをさらに含む態様とすることができる。 In identifying the region presumed to have imaged the tissue to be analyzed, the embodiment may further include identifying the region presumed to have imaged the tissue to be analyzed among pixels included in the image of the cross section including the first axis, and creating three-dimensional data using information related to the region presumed to have imaged the tissue to be analyzed.
この場合、対象となる組織の3次元データを得ることが可能となるため、第2軸を含めた、対象の組織の3次元の形状をより適切に把握することができる。 In this case, it is possible to obtain three-dimensional data of the target tissue, making it possible to more appropriately grasp the three-dimensional shape of the target tissue, including the second axis.
前記分析対象の組織は周期的な動作を行う組織であって、前記複数の画素情報を準備することにおいて、1周期中の複数の時点それぞれにおける、前記第1軸を含む断面の複数の画像を構成する複数の画素情報を準備し、前記第2軸断面に対応する画像情報を生成することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像に係る画像情報を生成し、前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像のうち、前記分析対象の組織を撮像したと推定される領域を特定し、前記分析対象の組織を撮像したと推定される領域の特定結果から、前記1周期中の前記分析対象の組織の時系列に沿った変化に係る情報を算出することをさらに含む態様とすることができる。 The tissue to be analyzed may be a tissue that performs cyclical operations, and in preparing the plurality of pieces of pixel information, the method further includes preparing a plurality of pieces of pixel information constituting a plurality of images of a cross section including the first axis at each of a plurality of time points during one cycle, generating image information corresponding to the second axial cross section for each of the plurality of time points, generating image information related to the image of the second axial cross section, and in identifying an area in which the tissue to be analyzed is presumed to have been imaged, identifying an area in the image of the second axial cross section for each of the plurality of time points in which the tissue to be analyzed is presumed to have been imaged, and calculating information related to the change in the tissue to be analyzed along the time series during one cycle from the result of identifying the area in which the tissue to be analyzed is presumed to have been imaged.
この場合、分析対象が周期的に変化する組織である場合、組織の時系列に沿った変化に係る情報を取得することができるため、第2軸に沿った方向における対象の組織の周期的な変化を適切に把握することが可能となる。 In this case, if the subject of analysis is a tissue that changes periodically, it is possible to obtain information related to the changes in the tissue over time, making it possible to properly grasp the periodic changes in the subject tissue in the direction along the second axis.
本開示によれば、画像として取得した方向とは異なる方向における対象の組織の状況をより適切に把握することが可能な技術が提供される。 The present disclosure provides a technology that can more appropriately grasp the condition of a target tissue in a direction different from the direction in which the image was captured.
以下、添付図面を参照して、本開示を実施するための形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 Below, the embodiments for implementing the present disclosure will be described in detail with reference to the attached drawings. Note that in the description of the drawings, the same elements are given the same reference numerals, and duplicate descriptions will be omitted.
図1は、本開示の一形態に係る医用画像処理装置の構成を説明するブロック図である。本実施形態に係る医用画像処理装置1は、被験者の分析対象の組織(臓器等)を撮像した画像データから、当該臓器に係る特徴量を算出する装置である。対象となる組織(臓器)は、特に限定されないが、例えば、体内に存在する臓器を対象とすることができる。また、対象となる臓器として、特定の周期で動作(変形)する臓器を選択することもできる。このような臓器としては、例えば、心臓(心房または心室)、肺、肝臓、前立腺等が挙げられるが、これらに限定されるものではない。例えば心臓の場合、心拍に対応した周期で繰り返し変形している。医用画像処理装置1では、時系列に沿った変化に着目した特徴量の算出も可能となっている。したがって、特定の周期で繰り返し動作(変形)する組織(臓器)の周期的な変化に着目した特徴量も算出可能である。さらに、医用画像処理装置1は、詳細は後述するが、特に、被験者の体軸方向(垂直方向)の変形に係る特徴量も算出可能となっている。したがって、例えば、右心室のように体軸方向に周期的に変化(変形)する組織を対象とした場合に特に有用である。
FIG. 1 is a block diagram for explaining the configuration of a medical image processing device according to one embodiment of the present disclosure. The medical
対象の組織を心臓とした場合、被験者に係る画像検査、例えば、MRI検査では、心臓の短軸のシネ画像が得られる。このシネ画像の断面と平行な方向を第1軸とする。心臓の短軸のシネ画像からは、第1軸に沿った心臓の動きを把握することができる。一方、このシネ画像では、例えば第1軸と直交する方向の心臓の動きを把握することは困難である。以下の実施形態では、第1軸と異なる、例えば、第1軸に垂直な軸(第2軸)の画像をコンピュータで自動的に再構成し、第2軸方向における対象の組織の情報を付加することによって、対象の組織の抽出を行うと共に、対象の組織の情報を把握する。 When the target tissue is the heart, an imaging test on a subject, for example an MRI test, produces a cine image of the short axis of the heart. The direction parallel to the cross section of this cine image is the first axis. From the cine image of the short axis of the heart, it is possible to grasp the movement of the heart along the first axis. On the other hand, from this cine image, it is difficult to grasp the movement of the heart in a direction perpendicular to the first axis, for example. In the following embodiment, an image of an axis different from the first axis, for example an axis (second axis) perpendicular to the first axis, is automatically reconstructed by a computer, and information on the target tissue in the second axis direction is added, thereby extracting the target tissue and grasping the information on the target tissue.
なお、以下の実施形態では、対象の組織(臓器等)として心臓の右心室を選択した場合を想定して説明する場合がある。右心室は、拍動によって周期的に形状が変化する組織の一種である。そこで、以下の実施形態では、拍動による右心室の形状変化に係る特徴量を、医用画像処理装置1を用いて取得することについて説明する。また、以下の実施形態では、第1軸が水平方向(体軸に対して直交する方向)に延びる軸とし、第2軸が垂直方向(体軸方向)に延びる軸である場合について説明するが、この設定は一例であって、対象となる組織の特性、医用画像処理装置1で利用する画像の取得方法等によって変更され得る。例えば、第1軸と第2軸とが直交しない組み合わせであってもよい。
In the following embodiments, the right ventricle of the heart may be selected as the target tissue (organ, etc.). The right ventricle is a type of tissue whose shape changes periodically due to pulsation. In the following embodiments, the medical
図1に示すように、医用画像処理装置1は、画像取得部11(画像準備部)、画像処理部12、特徴量算出部13、記憶部14、および、出力部15を有する。また、画像処理部12は、画像再構成部21および対象組織特定部22を含む。
As shown in FIG. 1, the medical
医用画像処理装置1のハードウェアは、例えば一つ又は複数の制御用のコンピュータにより構成される。例えば医用画像処理装置1は、図2に示す回路120を有する。回路120は、一つ又は複数のプロセッサ121と、メモリ122と、ストレージ123と、入出力ポート124と、タイマー125とを有する。ストレージ123は、例えばハードディスク等、コンピュータによって読み取り可能な記憶媒体を有する。記憶媒体は、後述の医用画像処理に係る手順を医用画像処理装置1に実行させるためのプログラム(医用画像処理プログラム)を記憶している。記憶媒体は、不揮発性の半導体メモリ、磁気ディスクおよび光ディスク等の取り出し可能な媒体であってもよい。メモリ122は、ストレージ123の記憶媒体からロードしたプログラムおよびプロセッサ121による演算結果を一時的に記憶する。プロセッサ121は、メモリ122と協働して上記プログラムを実行することで、上述の各機能部を構成する。入出力ポート124は、プロセッサ121からの指令に従って、医用画像処理装置1の各機能部との間で電気信号の入出力を行う。タイマー125は、例えば一定周期の基準パルスをカウントすることで経過時間を計測する。
The hardware of the medical
図1に戻り、医用画像処理装置1の各機能部について説明する。医用画像処理装置1の画像取得部11は、外部装置等から特徴量を算出する対象となる被験者の対象の組織(臓器)を撮像した複数の画像データを取得する機能を有する。複数の画像データとは、対象の臓器を撮像した複数の画像データである。複数の画像データは、例えば、被験者の体軸に沿った互いに異なる位置において、体軸に対して直交する平面を撮像した複数の画像データである。このような画像データとしては、例えば、磁気共鳴動画像(CMR:Cardiovascular MRI)を用いることができる。より詳細には、シネMRI画像を用いることができる。CMR画像は、一般的に体軸に沿って(一の方向に沿って)複数回の撮像を行うことで、対象の組織(臓器)およびその周辺の立体的な情報を取得する。ただし、画像データの種類は上記に限定されない。また、対象の臓器によって画像データの種類を変更することができる。医用画像処理装置1では、このような体軸および体軸に対して直交する2軸の3軸に係る情報が含まれる複数の画像データを取得し、後段の処理を行う。なお、体軸は一般的に垂直方向に延びるものであり、体軸に直交する平面とは、水平面に相当する。CMR画像は被験者の水平方向断面を撮像した画像に相当する。
Returning to FIG. 1, each functional unit of the medical
なお、被験者の対象の臓器の時系列変化を博するために、画像取得部11が取得する画像データとして、所定の間隔を開けて撮像された複数回の画像データであってもよい。一例として、臓器が周期的に変化をする場合、1周期中の変化を捉えた複数のタイミングで取得された画像データ群を取得してもよい。例えば、対象の臓器が心臓(心房または心室)である場合、1周期(1拍)の間で拡張と収縮とが行われる。したがって、心臓の場合は、拡張期および収縮期を含む複数のタイミングの画像データが特徴量の算出のために準備され、医用画像処理装置1ではこれらの画像データを取得してもよい。
In order to obtain time-series changes in the subject's target organ, the image data acquired by the
画像処理部12は、対象の臓器に係る複数の画像データから、他事象の組織に係る特徴量を取得するために画像を再構成し、再構成された画像に含まれる組織を特定する処理を行う機能を有する。画像処理部12は、画像再構成部21と、対象組織特定部22と、を有する。
The
画像再構成部21は、対象組織特定部22における特徴量の算出のために複数の画像データを用いた種々の処理を行う機能を有する。画像再構成部21は、体軸に対して直交する断面(水平方向断面)の画像に含まれる各画素の情報(画素情報)から、体軸を含む平面(垂直方向を含む断面)に沿った画像を再構成する機能を有する。
The
また、対象組織特定部22は、画像再構成部21において再構成された画像において対象となる組織(臓器等)を特定する機能を有する。
The target
画像再構成部21と、対象組織特定部22では、画像情報に含まれる各位置(画素)における輝度情報等を用いた機械学習・統計処理等を用いて、各部の機能を発揮する。詳細については後述するが、機械学習・統計解析等を繰り返し行うことによって、画像処理が行われる。機械学習は、教師あり学習(線形回帰、サポートベクターマシン(SVM)、ロジスティック回帰等)、教師なし学習(主成分分析、k-means法等)、強化学習、ディープラーニング(ニューラルネットワーク等)、深層強化学習等が含まれ得る。また統計解析手法の一種とされる主成分分析、クラスタリング等も本実施形態では「機械学習」に含まれることとする。以降の説明では、機械学習・統計解析等をまとめて「機械学習等」として説明する。機械学習等を利用する場合、利用するデータの種類・数等に応じて適切な手法が選択されてよい。
The
特徴量算出部13は、画像処理部12において処理された後の画像から、予め設定された特徴量を算出する機能を有する。特徴量としては、例えば、ある時間における対象の組織(臓器等)の大きさ、形状、容量や、これらの時間的な変化率の差や変化のタイミングの差等に係る各種パラメータが挙げられる。特徴量を算出する場合にも、機械学習・統計処理等を用いてもよい。なお、特徴量算出部13は、画像取得部11で取得された画像から、予め設定された特徴量を算出する機能を有していてもよい。
The
記憶部14は、画像取得部11において取得された画像データ、画像処理部12により再構成された画像データ、特徴量算出部13による解析結果等を記憶する機能を有する。
The
出力部15は、特徴量算出部13による算出結果を出力する機能を有する。出力先としては、医用画像処理装置1に設けられたモニタ、外部装置等が挙げられる。また、出力内容等は特に限定されず、例えば、特徴量算出部13により算出された特徴量をそのまま出力する態様としてもよいし、算出された特徴量に基づいて何らかの評価を行いその結果を出力する態様としてもよい。特徴量に基づく評価等を行う場合には、評価を行うためのロジック等を記憶部14において保持し、特徴量を算出した後に当該ロジックを用いて評価を行うこととしてもよい。さらに、出力部15は、画像処理部12により再構成された画像データ、画像処理部12によって組織が特定された画像データ等を出力する機能を有していてもよい。また、出力部15は、画像処理部12によって組織が特定された画像データから3次元データを生成して出力する構成としてもよい。
The
次に、図3~図6を参照しながら、医用画像処理装置1による対象の組織(臓器)を撮像した複数の画像データについての画像処理(画像再構成)および特徴量算出の手順について説明する。図3は、医用画像処理装置1において行われる特徴量の算出に係る処理を説明するフロー図である。
Next, the procedure for image processing (image reconstruction) and feature calculation for multiple image data capturing target tissues (organs) by the medical
まず、医用画像処理装置1では、画像取得部11により、対象の組織(臓器)を含む領域を撮像した複数の画像データを取得する(ステップS01:画像取得ステップ)。画像取得部11が取得する画像データの例を図4に示す。図4は、画像取得ステップにおいて得られる複数の画像データを画像として構成した状態を模式的に示している。複数の画像データは、例えば同時刻(もしくは同時刻とみなせる程度の期間内)に取得される。複数の画像とは、体軸(Z軸)に沿って、体軸に対して直交するXY平面(水平面)を撮像した画像であって、Z軸に沿った異なる位置で撮像を行ったデータである。なお、XY軸は任意の方向とすることができるが、一例として、図4に示すように、X軸を被験者の左右方向とし、Y軸を被験者の前後方向としてもよい。
First, in the medical
また、組織の周期的な変形等を観察する場合、時系列tに沿って複数回の複数の画像データを取得することが必要となる。一例として、図4では、時刻t1,t2,t3の3回に、同一の条件でそれぞれ複数の画像データを取得したことを示している。例えば、時刻t1には、体軸(Z軸)に沿って水平方向の断面の画像P11,P12,…P1nが取得され、時刻t2には、体軸(Z軸)に沿って水平方向の断面の画像P21,P22,…P2nが取得され、時刻t3には、体軸(Z軸)に沿って水平方向の断面の画像P31,P32,…P3nが取得されるとする。各画像は、体軸に対して直交する面に沿って撮像されたものであり、例えば、図5に示す画像P1に対応するものである。一例として、これらの水平方向の断面の画像には、XY方向にそれぞれ256画素の画素情報が含まれる。画像P11,P12,…P1nは、体軸に対して直交する互いに平行な断面を撮像したものであり、水平方向(X軸方向およびY軸方向)では同じ位置を撮像したものである。 In addition, when observing periodic deformation of tissue, it is necessary to obtain a plurality of image data a plurality of times along a time series t. As an example, FIG. 4 shows that a plurality of image data are obtained under the same conditions at three times, t1, t2, and t3. For example, it is assumed that at time t1, images P1 1 , P1 2 , ... P1 n of horizontal cross sections are obtained along the body axis (Z axis), at time t2, images P2 1 , P2 2 , ... P2 n of horizontal cross sections are obtained along the body axis (Z axis), and at time t3, images P3 1 , P3 2 , ... P3 n of horizontal cross sections are obtained along the body axis (Z axis). Each image is captured along a plane perpendicular to the body axis, and corresponds to, for example, image P1 shown in FIG. 5. As an example, each of these horizontal cross-sectional images includes pixel information of 256 pixels in the XY direction. The images P1 1 , P1 2 , . . . P1 n are images of parallel cross sections perpendicular to the body axis, and are images of the same position in the horizontal direction (X-axis direction and Y-axis direction).
同じ位置として、例えば、X軸方向には、位置x1~位置xlにそれぞれl個の画素が設けられ、Y軸方向には、位置y1~位置ymにそれぞれm個の画素が設けられているとする。この場合、画像P11が、例えばZ=z1における水平面の画像である場合、画像P11の画像データを構成する画素の配置は、例えば、座標(x1~xl、y1~ym,z1)として表現することができる。同様に、画像P1nが、例えばZ=znにおける水平面の画像である場合、画像P1nの画像データを構成する画素の配置は、例えば、座標(x1~xl、y1~ym,zn)として表現することができる。上記のように、XY方向にそれぞれ256画素の画素情報が含まれる場合、l=m=256となる。 For example, l pixels are provided at positions x1 to xl in the X-axis direction, and m pixels are provided at positions y1 to ym in the Y-axis direction. In this case, if image P1 1 is an image of a horizontal plane at Z=z1, the arrangement of pixels constituting the image data of image P1 1 can be expressed, for example, as coordinates (x1 to xl, y1 to ym, z1). Similarly, if image P1 n is an image of a horizontal plane at Z=zn, the arrangement of pixels constituting the image data of image P1 n can be expressed, for example, as coordinates (x1 to xl, y1 to ym, zn). As described above, if pixel information of 256 pixels is included in each of the X and Y directions, l=m=256.
なお、時系列に沿って複数回撮像を行う場合、撮像の間隔・回数等は対象の組織に応じて適宜変更される。例えば、心臓の心拍の1周期内に複数回撮像されるように、撮像の回数・間隔が設定されてもよい。 When imaging is performed multiple times in a time series, the interval and number of imaging operations are appropriately changed depending on the target tissue. For example, the number and interval of imaging operations may be set so that imaging is performed multiple times within one cardiac cycle.
次に、医用画像処理装置1では、画像処理部12の画像再構成部21により、画像から画像再構成を行う対象となる組織を撮像したと推定されるおおよその領域(おおまかな領域)を特定する(ステップS02)。「おおよその領域」とするのは、この段階で特定した領域を基準として後段の処理での画像再構成を行うためである。したがって、「おおよその領域」は、対象の組織を撮像した領域全体が含まれているように設定されているとよい。図5では、上記の「おおよその領域」を特定する際のイメージを示している。図5では、例えば、画像P1において、領域A1が「おおよその領域」に相当する。領域A1中の輝度が高い(白っぽい)領域が対象の組織を撮像した領域であると推定されるが、対象の組織を撮像した領域全体をカバーするように領域A1が「おおよその領域」として設定されていてもよい。「おおよその領域」の特定方法としては、画像中の輝度の差に基づいて、対象の組織を撮像した「おおよその領域」を特定する手法が挙げられる。なお、対象の組織を撮像したおおよその領域を特定する手法として、機械学習等を用いてもよい。一例として、画像再構成部21では、予め「おおよその領域」が特定された複数の画像を教師データとして準備し、これらの画像から対象のおおよその領域を特定するための基準を学習してもよい。一例として、「おおよその領域」が特定された複数の画像を利用して、「おおよその領域」を撮像した画素と、その他の画素とを区別するための特徴量を設定し、これを用いて「おおよその領域」を撮像した画とその他の画素とを区別するための特徴空間を設定してもよい。また、学習に基づいて被験者の画像から対象の「おおよその領域」を特定してもよい。機械学習等を用いる場合に、各画素の輝度情報を調整するような前処理を行ってもよい。
Next, in the medical
次に、医用画像処理装置1では、画像処理部12の画像再構成部21により、おおよその領域が特定された画像について、画像の再構成を行う(ステップS03)。この画像再構成は、XY平面に沿って撮像された画像群から、XZ平面またはYZ平面に対応する画像群を生成するものである。
Next, in the medical
ここでは、画像P11~P1nを用いて説明する。画像P11~P1nは、それぞれ、図4で示すXYZ軸を用いて、各画像が撮像している領域(画素の位置)を3次元座標を用いて示すと、例えば、以下の通りとされる(l,m,nはそれぞれ自然数)。
P11;(x1,y1,z1)…(xl,ym,z1)
P12;(x1,y1,z2)…(xl,ym,z2)
P13;(x1,y1,z3)…(xl,ym,z3)
…
P1n;(x1,y1,zn)…(xl,ym,zn)
Here, the description will be given using images P1 1 to P1 n . When the area (position of pixels ) captured by each image is expressed using three-dimensional coordinates using the XYZ axes shown in Fig. 4, it is expressed as follows (l, m, n are natural numbers):
P1 1 ; (x1, y1, z1)...(xl, ym, z1)
P1 2 ; (x1, y1, z2)...(xl, ym, z2)
P1 3 ; (x1, y1, z3)...(xl, ym, z3)
…
P1 n ; (x1, y1, zn)...(xl, ym, zn)
これらの画像に含まれる各画素の情報から、例えば、XZ平面に沿った画像を再構成するとする。このとき、XZ平面に沿った画像は、Y座標を一定として、X,Z座標を互いに異ならせた画素の情報を組み合わせることで構成することができる。Y軸が1~mまで変化する場合、例えば、再構成画像として、m枚の画像P1y1~P1ymを生成することができる。
P1y1;(x1,y1,z1)…(xl,y1,zn)
P1y2;(x1,y2,z1)…(xl,y2,zn)
P1y3;(x1,y3,z1)…(xl,y3,zn)
…
P1ym;(x1,ym,z1)…(xl,ym,zn)
For example, an image along the XZ plane is reconstructed from the information of each pixel contained in these images. In this case, the image along the XZ plane can be constructed by combining information of pixels whose X and Z coordinates are different from each other while keeping the Y coordinate constant. When the Y axis varies from 1 to m, for example, m images P1 y1 to P1 ym can be generated as reconstructed images.
P1 y1 ; (x1, y1, z1)...(xl, y1, zn)
P1 y2 ; (x1, y2, z1)...(xl, y2, zn)
P1 y3 ; (x1, y3, z1)...(xl, y3, zn)
…
P1 ym ; (x1, ym, z1)...(xl, ym, zn)
YZ平面に沿った画像の再構成も、同様に行うことができる。YZ平面に沿った画像は、X座標を一定として、Y,Z座標を互いに異ならせた画素の情報を組み合わせることで構成することができる。X軸が1~lまで変化する場合、例えば、再構成画像として、l枚の画像P1x1~P1xlを生成することができる。
P1x1;(x1,y1,z1)…(x1,ym,zn)
P1x2;(x2,y1,z1)…(x2,ym,zn)
P1x3;(x3,y1,z1)…(x3,ym,zn)
…
P1xl;(xl,y1,z1)…(xl,ym,zn)
The image along the YZ plane can be reconstructed in a similar manner. The image along the YZ plane can be constructed by combining information on pixels with different Y and Z coordinates while keeping the X coordinate constant. When the X axis varies from 1 to l, for example, l images P1 x1 to P1 xl can be generated as reconstructed images.
P1 x1 ; (x1, y1, z1)...(x1, ym, zn)
P1 x2 ; (x2, y1, z1)...(x2, ym, zn)
P1 x3 ; (x3, y1, z1)...(x3, ym, zn)
…
P1 xl ; (xl, y1, z1)...(xl, ym, zn)
このように、Z軸に沿ったn枚の画像に含まれる各画素の情報について、1枚の画像に含まれる画素情報の組み合わせを変更することによって、垂直方向(Z軸)を含む平面に係る断面の画像として、XZ画像またはYZ画像を再構成することができる。 In this way, by changing the combination of pixel information contained in one image for each pixel contained in n images along the Z axis, an XZ image or YZ image can be reconstructed as a cross-sectional image related to a plane including the vertical direction (Z axis).
なお、上述のように全ての条件を変更しながら全パターンで2平面での画像の再構成を行うと、m+lパターンの再構成画像が生成され得る。さらに、時系列に沿って複数(例えば、t回の撮像を行った場合)の画像を撮像する場合、(m+l)×tパターンの再構成画像が生成され得る。このとき、このステップでは、上記の全パターンでの画像の再構成を行うことに代えて、その一部のみ画像を再構成する構成としてもよい。例えば、Y座標が特定の値のXZ平面について画像再構成を行ってもよいし、X座標が特定の値のYZ平面について画像再構成を行ってもよい。画像の再構成を行う対象は、例えば、装置のユーザ(操作者)によって指定されてもよいし、予め定められたルールに基づいて画像処理部12の画像再構成部21においてどの平面の画像を再構成するか決定してもよい。なお、3次元データを作成することを想定している場合、対象の組織の形状をより正確に把握するために、複数のパターンでの画像の再構成を行うこととしてもよい。
When reconstructing images in two planes in all patterns while changing all conditions as described above, reconstructed images in m+l patterns can be generated. Furthermore, when multiple images (for example, when t images are taken) are taken in a time series, reconstructed images in (m+l)×t patterns can be generated. In this case, in this step, instead of reconstructing images in all patterns, only a part of the images can be reconstructed. For example, image reconstruction can be performed on the XZ plane with a specific Y coordinate value, or on the YZ plane with a specific X coordinate value. The target for which image reconstruction is performed can be specified by, for example, the user (operator) of the device, or the
次に、医用画像処理装置1では、画像処理部12の対象組織特定部22において、画像再構成部21によって再構成された画像(XZ画像、YZ画像)から、対象となる組織を撮像した領域を特定する(ステップS04)。
Next, in the medical
対象となる組織を撮像した領域の特定方法としては、画像中の輝度の差に基づいて、対象の組織を撮像した領域を特定する手法が挙げられる。なお、対象の組織を撮像した領域を特定する手法として、機械学習等を用いてもよい。一例として、画像再構成部21では、予め対象の組織を撮像した領域」が特定された複数の画像を教師データとして準備し、これらの画像から対象を撮像した領域を特定するための基準を学習してもよい。また、学習に基づいて被験者の画像から対象を撮像した領域を特定してもよい。機械学習等を用いる場合に、各画素の輝度情報を調整するような前処理を行ってもよい。なおこのステップS04で用いる機械学習等は、他のステップで用いる機械学習等とは異なるものであってもよい。また、機械学習等で用いる教師データは、例えば、XZ画像、YZ画像等に応じて異なるものであってもよい。
As a method for identifying the area where the target tissue is imaged, a method for identifying the area where the target tissue is imaged based on the difference in brightness in the image can be mentioned. Machine learning or the like can be used as a method for identifying the area where the target tissue is imaged. As an example, the
ステップS03およびステップS04における処理結果の一例を図6に示す。図6に示す画像P1は、図5に示す画像P1と同じであり、おおよその領域A1が特定されているとする。この画像P1は上述のXY画像に相当する。なお、画像P1は、横方向にY軸が延び縦方向にX軸が延びている画像である(画像P1の左下参照)。 An example of the processing results in steps S03 and S04 is shown in FIG. 6. Image P1 shown in FIG. 6 is the same as image P1 shown in FIG. 5, and it is assumed that area A1 has been roughly identified. This image P1 corresponds to the XY image described above. Note that image P1 is an image in which the Y axis extends horizontally and the X axis extends vertically (see the bottom left of image P1).
ここで、例えば、領域A1の重心ACを通る断面に沿って、XZ画像およびYZ画像を再構成したとする。重心ACの位置は3次元座標で特定され得るので、この重心ACの座標と同じX値またはY値を持つ平面を撮像した画素の情報を組み合わせることで、再構成画像を得ることができる。 Now, for example, suppose that an XZ image and a YZ image are reconstructed along a cross section passing through the center of gravity AC of area A1. Since the position of the center of gravity AC can be specified by three-dimensional coordinates, a reconstructed image can be obtained by combining information from pixels capturing an image of a plane having the same X or Y value as the coordinates of the center of gravity AC.
画像P2は、画像P1における破線L1に沿ったXZ画像であり、画像P3は、画像P1における破線L2に沿ったYZ画像である。それぞれ、重心ACを通る断面における再構成画像である。なお、時系列に沿って複数回画像を取得している場合には、各図で重心を算出するのではなく、複数回の画像のうちの特定のタイミングの画像データにおける重心ACを通るような平面の画像を各回のそれぞれについて再構成する。すなわち、時系列に沿った複数回の画像データそれぞれについて、同一の重心座標を用いて、XZ画像およびYZ画像の再構成を行う。この結果、時系列に沿って同一断面における対象の組織の形状変化を特定することが可能となる。 Image P2 is an XZ image taken along dashed line L1 in image P1, and image P3 is a YZ image taken along dashed line L2 in image P1. They are reconstructed images in a cross section passing through center of gravity AC. When images are acquired multiple times along a time series, the center of gravity is not calculated for each image, but an image of a plane passing through center of gravity AC in image data at a specific timing among the multiple images is reconstructed for each time. In other words, XZ and YZ images are reconstructed using the same center of gravity coordinates for each of the multiple image data along the time series. As a result, it is possible to identify changes in the shape of the target tissue in the same cross section along the time series.
画像P4は、画像P2において対象の組織を撮像した領域を抽出した画像である。また、画像P5は、画像P3において対象の組織を撮像した領域を抽出した画像である。画像P4,P5は、いずれも対象組織を撮像したと特定された領域の輝度を高くして表示しているため、画像P2,P3と比べて特定された領域が白くなっている。 Image P4 is an image obtained by extracting the area in image P2 where the target tissue is imaged. Image P5 is an image obtained by extracting the area in image P3 where the target tissue is imaged. Images P4 and P5 both display the area identified as the area where the target tissue is imaged with a higher brightness, so the identified area appears whiter than in images P2 and P3.
次に、医用画像処理装置1では、画像処理部12の対象組織特定部22において、画像再構成部21によって再構成を行う際に使用した元画像、すなわち、XY平面に沿ったXY画像についても、必要に応じて、対象となる組織を撮像した領域を特定する(ステップS05)。
Next, in the medical
これまでのステップでは、XY画像については対象の組織を撮像した「おおよその領域」の特定(ステップS02)のみが行われている。したがって、XY画像についても、機械学習等を用いて改めて対象の組織を撮像した領域を特定してもよい。対象となる組織を撮像した領域の特定方法としては、画像中の輝度の差に基づいて、対象の組織を撮像した領域を特定する手法が挙げられる。また、他の平面の画像と同様に、対象の組織を撮像した領域を特定する手法として、機械学習等を用いてもよい。 In the steps up to this point, only the "approximate area" in which the target tissue is imaged has been identified for the XY image (step S02). Therefore, the area in which the target tissue is imaged may also be identified again for the XY image using machine learning or the like. One method for identifying the area in which the target tissue is imaged is to identify the area in which the target tissue is imaged based on the difference in brightness in the image. Furthermore, machine learning or the like may be used as a method for identifying the area in which the target tissue is imaged, as with other planar images.
なお、このステップは、後段で算出する特徴量の種類等に応じて省略されてもよい。すなわち、XY画像については対象の組織を撮像した領域の特定が不要であると判断される場合には、この処理は省略してもよい。 This step may be omitted depending on the type of feature to be calculated later. In other words, if it is determined that it is not necessary to identify the region of the target tissue in the XY image, this process may be omitted.
次に、画像再構成部21によって再構成を行う際に使用した元画像、すなわち、XY平面に沿ったXY画像についても、必要に応じて、対象となる組織を撮像した領域を特定する(ステップS05)。
Next, if necessary, the area in which the target tissue is imaged is identified for the original image used for reconstruction by the
これまでのステップでは、XY画像については対象の組織を撮像した「おおよその領域」の特定(ステップS02)のみが行われている。したがって、XY画像についても、機械学習等を用いて改めて対象の組織を撮像した領域を特定してもよい。対象となる組織を撮像した領域の特定方法としては、画像中の輝度の差に基づいて、対象の組織を撮像した領域を特定する手法が挙げられる。また、他の平面の画像と同様に、対象の組織を撮像した領域を特定する手法として、機械学習等を用いてもよい。 In the steps up to this point, only the "approximate area" in which the target tissue is imaged has been identified for the XY image (step S02). Therefore, the area in which the target tissue is imaged may also be identified again for the XY image using machine learning or the like. One method for identifying the area in which the target tissue is imaged is to identify the area in which the target tissue is imaged based on the difference in brightness in the image. Furthermore, machine learning or the like may be used as a method for identifying the area in which the target tissue is imaged, as with other planar images.
XZ画像またはYZ画像について、対象を撮像した領域を特定(ステップS04)の後に、XY画像について、対象を撮像した領域を特定(ステップS05)する構成とすることで、対象を撮像した領域の特定に係る精度が向上する場合がある。この点について、図7を参照しながら説明する。 By configuring the system to identify the area in the XY image where the target is imaged (step S05) after identifying the area in the XZ image or YZ image where the target is imaged (step S04), the accuracy of identifying the area in which the target is imaged may be improved. This point will be explained with reference to FIG. 7.
図7では、時系列tに沿って20回(20フレーム)撮像が行われた場合であって、各回について、Z軸(体軸)に沿って15枚(15スライス)の画像が取得されていたとする。なお、XY平面の画素数は,例えば、256×256画素とすることができる。図7では、1つの画像を1つのセルCとして示している。ここでは、15セルを表示することに代えて4セルのみ示している。このような条件において、XY画像について対象の組織を撮像した領域を特定する場合、通常は全画像、すなわち、15×20個の画像について、対象を撮像した領域を特定することになる。 In FIG. 7, it is assumed that imaging was performed 20 times (20 frames) along the time series t, and 15 images (15 slices) were acquired along the Z axis (body axis) for each imaging. The number of pixels in the XY plane can be, for example, 256 x 256 pixels. In FIG. 7, one image is shown as one cell C. Here, instead of showing 15 cells, only four cells are shown. Under such conditions, when identifying the area in which the target tissue is imaged in the XY image, the area in which the target is imaged is usually identified for all images, i.e., 15 x 20 images.
しかしながら、XZ画像およびYZ画像において、対象の組織を撮像した領域を特定した結果、Z軸方向のどの範囲に対象の組織を撮像した領域が存在するかを推定した結果が得られることになる。したがって、15×20個の画像のうち、対象の組織を撮像した領域が存在すると想定される画像を特定することができる。図7では、対象の組織を撮像した領域が存在すると想定される画像に対応するセルCについてはハッチングを施している。このように、対象の組織を撮像した領域が存在すると想定される画像を予め特定しておくことで、特定されたXY画のみ像を対象として対象の組織を撮像した領域を特定する処理を行うことができる。このような処理の流れとすることで、対象の組織を撮像した領域が存在しないと推定される画像について、対象の組織を撮像した領域を特定する処理を行わない構成とすることができる。そのため、誤検出を防ぐことができるとともに、作業性が向上する。 However, as a result of identifying the area in which the target tissue is imaged in the XZ image and the YZ image, an estimate is obtained as to which range in the Z-axis direction the area in which the target tissue is imaged exists. Therefore, it is possible to identify the image in which the area in which the target tissue is imaged exists among the 15 x 20 images. In FIG. 7, the cell C corresponding to the image in which the area in which the target tissue is imaged exists is hatched. In this way, by identifying the image in which the area in which the target tissue is imaged exists in advance, it is possible to perform a process of identifying the area in which the target tissue is imaged using only the identified XY image. By adopting such a process flow, it is possible to configure a configuration in which the process of identifying the area in which the target tissue is imaged is not performed for images in which it is estimated that the area in which the target tissue is imaged does not exist. Therefore, it is possible to prevent erroneous detection and improve workability.
なお、このステップは、後段で算出する特徴量の種類等に応じて省略されてもよい。すなわち、XY画像については対象の組織を撮像した領域の特定が不要であると判断される場合には、この処理は省略してもよい。 This step may be omitted depending on the type of feature to be calculated later. In other words, if it is determined that it is not necessary to identify the region of the target tissue in the XY image, this process may be omitted.
次に、医用画像処理装置1では、特徴量算出部13において、対象の組織を撮像したと特定された領域に基づいて、特徴量を算出する(ステップS06)。撮像した画像(XY画像)および再構成した画像(XZ画像、YZ画像)からどのような特徴量を算出するかは、対象の組織の種類または分析対象となる疾患等に応じて設定され得る。したがって、特徴量の算出対象・算出方法は、適宜変更され得る。
Next, in the medical
図8は画像P5に対応する画像(YZ画像)と、同一の条件で時系列が後の画像P5’とを2つ並べた状態を示している。画像P5は、対象となる右心室の拡張期の画像に対応し、画像P5’は収縮期の画像に対応する。画像P5と画像P5’とは隣接した状態で示している。画像P5と画像P5’とを比較すると、対象の組織のZ方向の大きさ(図中の白線で示す領域)が変化していることが確認される。このように、Z軸を含む平面の画像を用いると、Z軸方向に沿った組織の変化(臓器の変形等)を検出しやすくなる。また、画像に基づいた特徴量の算出も可能となるため、定量的な評価がしやすくなる。 Figure 8 shows two images (YZ image) corresponding to image P5 and image P5' taken later in the time series under the same conditions. Image P5 corresponds to an image of the right ventricle in diastole, and image P5' corresponds to an image of the systole. Images P5 and P5' are shown adjacent to each other. Comparing images P5 and P5', it can be seen that the size of the target tissue in the Z direction (the area indicated by the white line in the figure) has changed. In this way, using an image of a plane including the Z axis makes it easier to detect changes in the tissue along the Z axis (such as organ deformation). It also makes it possible to calculate feature values based on the images, facilitating quantitative evaluation.
図3に戻り、医用画像処理装置1の出力部15では、上記の処理によって算出された特徴量に係る結果を出力する(ステップS07)。出力する結果とは、上記の処理で算出された特徴量であってもよいし、特徴量に基づいて評価を行う場合、その評価結果であってもよい。
Returning to FIG. 3, the
出力部15から結果を出力する際には、上述した様に種々の評価・データ加工等を行ってもよい。一例として、XZ画像、YZ画像、およびXY画像のそれぞれにおいて、対象の組織を撮像した領域を特定する処理を行った場合、これらの特定結果に基づいて、3次元データを作成する構成としてもよい。上記の3種類の画像において、各軸に沿って互いに異なる複数の位置で得られた画像を取得または再構成し、さらに、それぞれについて、対象の組織を撮像した領域を特定する処理を行うことで、対象の組織を撮像した領域を3次元的に把握することができる。この場合、3次元として把握できた情報を組み合わせて3次元データとして出力する構成とした場合、ユーザは組織の形状を立体的に把握することが可能となる。
When the results are output from the
また、時系列に沿って複数回撮像された画像を用いて上記の処理を行った場合、特徴量の算出(ステップS06)において、特徴量の時系列に応じた変化に係る情報を得ることが可能となる。その場合、時系列に沿った画像が1周期以上にわたって取得されている場合、特徴量の周期的な変化を得ることができる。したがって、この周期的な変化に関する情報(例えば、最大値・最小値等)を算出して出力する構成とすることとしてもよい。 In addition, when the above processing is performed using images captured multiple times in a time series, it is possible to obtain information related to the change in the feature quantity according to the time series in the calculation of the feature quantity (step S06). In this case, if the images in the time series are acquired over one or more cycles, it is possible to obtain the periodic change in the feature quantity. Therefore, the configuration may be such that information related to this periodic change (e.g., maximum value, minimum value, etc.) is calculated and output.
なお、心臓の心室を撮像した画像を用いた場合、時系列に沿って変化する心室の体軸方向の大きさの変化は、心疾患または関連する疾患の分析に有用である可能性がある。例えば、心臓(右心室)のリモデリングが発生している場合、拍動に伴う形状の変化は有用な情報となり得る。したがって、周期的な組織の変化に係る特徴量を取得することで、右心室の形状の変化をより適切に把握できる可能性がある。 When using images of the ventricles of the heart, the change in size of the ventricles in the body axis direction over time may be useful in analyzing cardiac disease or related diseases. For example, if remodeling of the heart (right ventricle) is occurring, the change in shape associated with pulsation may be useful information. Therefore, by acquiring features related to periodic tissue changes, it may be possible to more appropriately grasp the change in the shape of the right ventricle.
[作用]
上記の医用画像処理方法、医用画像処理装置および医用画像処理プログラムによれば、水平方向断面(第1軸を含む断面)の複数の画像を構成する複数の画素情報から、垂直方向(第2軸)を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、第垂直方向を含む平面の画像である垂直方向断面(第2軸断面)の画像に係る画像情報が生成される。また、機械学習を用いて、垂直方向断面の画像のうち、分析対象の組織を撮像したと推定される領域が特定される。このように、垂直方向断面の画像に係る画像情報を生成した上で、当該画像から分析対象の組織を撮像したと推定される領域を特定する構成とすることで、垂直方向、すなわち、画像として取得した方向とは異なる方向における対象の組織の状況をより適切に把握することが可能となる。
[Action]
According to the above-mentioned medical image processing method, medical image processing device, and medical image processing program, image information relating to an image of a vertical section (second axis section), which is an image of a plane including the vertical direction, is generated by combining pixel information relating to pixels included in the same plane including the vertical direction (second axis) from a plurality of pixel information constituting a plurality of images of a horizontal section (section including the first axis). In addition, a region in the image of the vertical section that is estimated to have imaged the tissue to be analyzed is identified using machine learning. In this way, by generating image information relating to the image of the vertical section and then identifying the region from the image that is estimated to have imaged the tissue to be analyzed, it is possible to more appropriately grasp the condition of the target tissue in the vertical direction, i.e., in a direction different from the direction in which the image was acquired.
従来から、シネMRI画像等を利用して、対象の組織に係る分析が行われている。しかしながら、体軸に沿った垂直方向(第2軸の延在方向)の組織の変形等を把握する場合には、一般的に水平方向(第1軸の延在方向)の断面の画像に基づいて推定する必要があった。垂直方向の組織の断面を得ることは難しく、水平方向の断面の画像からより正確に垂直方向の組織の形状を把握することが求められていた。これに対して、上記の手法によれば、水平方向断面画像に含まれる情報を用いて垂直方向断面の画像を生成し、さらにこの垂直方向断面の画像から機械学習を用いて分析対象の組織を撮像したと推定される領域が特定される。機械学習を用いて領域の特定を行うため、例えばユーザが個別に領域を特定する場合と比較して、速やかに且つ精度良く特定を行うことができる。このため、垂直方向における組織の形状をより正確に把握することが可能となる。 Conventionally, analysis of target tissue has been performed using cine MRI images and the like. However, when grasping deformation of tissue in the vertical direction (extension direction of the second axis) along the body axis, it was generally necessary to estimate based on an image of a horizontal cross section (extension direction of the first axis). It is difficult to obtain a cross section of tissue in the vertical direction, and it has been required to grasp the shape of tissue in the vertical direction more accurately from an image of a horizontal cross section. In contrast, according to the above method, an image of a vertical cross section is generated using information contained in a horizontal cross section image, and a region in which the tissue to be analyzed is estimated to be imaged is identified from this image of the vertical cross section using machine learning. Since the region is identified using machine learning, it can be identified quickly and accurately compared to, for example, when a user individually identifies the region. Therefore, it is possible to grasp the shape of tissue in the vertical direction more accurately.
また、分析対象の組織を撮像したと推定される領域を特定することでは、水平方向断面の画像についても分析対象の組織を撮像したと推定される領域をさらに特定してもよい。このとき、領域の特定結果を用いて、組織に係る3次元データを作成してもよい。この場合、対象となる組織の3次元データを得ることが可能となるため、垂直方向、すなわち、画像として取得した方向とは異なる方向を含んだ対象の組織の3次元の形状をより適切に把握することができる。 In addition, by identifying the area where the tissue to be analyzed is estimated to have been imaged, the area where the tissue to be analyzed is estimated to have been imaged in the horizontal cross-section image may also be identified. In this case, the result of identifying the area may be used to create three-dimensional data related to the tissue. In this case, since it is possible to obtain three-dimensional data of the target tissue, it is possible to more appropriately grasp the three-dimensional shape of the target tissue including the vertical direction, i.e., a direction different from the direction in which the image was acquired.
また、分析対象の組織は周期的な動作を行う組織である場合、1周期中の複数の時点それぞれにおける水平方向断面の複数の画像を構成する複数の画素情報を準備してもよい。また、複数の時点のそれぞれにおいて、垂直方向断面の画像に係る画像情報を生成し、領域の特定を行ってもよい。さらに、特定結果から、1周期中の分析対象の組織の時系列に沿った変化に係る情報を算出してもよい。この場合、分析対象が周期的に変化する組織である場合、組織の時系列に沿った変化に係る情報を取得することができるため、垂直方向、すなわち、画像として取得した方向とは異なる方向における対象の組織の周期的な変化を適切に把握することが可能となる。 In addition, when the tissue to be analyzed is a tissue that performs cyclical behavior, multiple pieces of pixel information constituting multiple images of horizontal cross sections at multiple time points during one cycle may be prepared. Also, image information relating to images of vertical cross sections may be generated at each of the multiple time points, and the region may be identified. Furthermore, information relating to the chronological changes in the tissue to be analyzed during one cycle may be calculated from the identification results. In this case, when the tissue to be analyzed is a tissue that changes cyclically, information relating to the chronological changes in the tissue can be obtained, making it possible to appropriately grasp the cyclical changes in the target tissue in the vertical direction, i.e., in a direction different from the direction acquired as an image.
本開示は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の開示を形成できる。 This disclosure is not limited to the above-described embodiment as it is, and in the implementation stage, the components can be modified and embodied without departing from the gist of the disclosure. In addition, various disclosures can be formed by appropriately combining multiple components disclosed in the above-described embodiment.
例えば、上記実施形態では、被験者の対象の組織(臓器)を撮像した画像がシネMRI画像である場合について説明したが、組織の特定方向の断面を撮像した画像であればよく、画像の種類は限定されない。また、被験者の対象の組織(臓器)を撮像した第1軸を含む画像は、第1軸に沿って互いに異なる位置で撮像されたものであってもよいが、第1軸に対して傾いた方向(一の方向)に沿って互いに異なる位置で撮像されたものであってもよい。さらに、第1軸と第2軸とは互いに交差していればよく、上記実施形態で説明したように「直交」に限定されない。上記実施形態で説明した構成は、第1軸と第2軸とが直交していない場合にも適用できる。 For example, in the above embodiment, the image of the subject's target tissue (organ) is described as a cine MRI image, but the type of image is not limited as long as it is an image of a cross section of the tissue in a specific direction. Furthermore, the images including the first axis of the subject's target tissue (organ) may be images taken at different positions along the first axis, or may be images taken at different positions along a direction tilted relative to the first axis (one direction). Furthermore, the first axis and the second axis only need to intersect with each other, and are not limited to being "orthogonal" as described in the above embodiment. The configuration described in the above embodiment can also be applied to cases where the first axis and the second axis are not orthogonal.
また、上記実施形態では、複数のステップにおいて機械学習等を用いる場合について説明したが、分析対象の組織を撮像した領域を特定する場合を除いて、機械学習とは異なる手法を用いてもよい。また、上記実施形態で説明したおおまかな領域の特定(ステップS02)は行わない構成としてもよい。このように、上記実施形態で説明した手順は適宜変更され得る。 In addition, in the above embodiment, a case where machine learning or the like is used in multiple steps has been described, but a method other than machine learning may be used except when identifying the area where the tissue to be analyzed is imaged. Also, the configuration may not include the rough area identification (step S02) described in the above embodiment. In this way, the procedure described in the above embodiment may be modified as appropriate.
1…医用画像処理装置、11…画像取得部、12…画像処理部、13…特徴量算出部、14…記憶部、15…出力部、21…画像再構成部、22…対象組織特定部。 1... medical image processing device, 11... image acquisition unit, 12... image processing unit, 13... feature amount calculation unit, 14... storage unit, 15... output unit, 21... image reconstruction unit, 22... target tissue identification unit.
Claims (6)
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、
を含む、医用画像処理方法であって、
前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記第1軸を含む断面の画像に含まれる画素のうち、前記分析対象の組織を撮像したと推定される領域をさらに特定し、
前記分析対象の組織を撮像したと推定される領域に係る情報を用いて3次元データを作成することをさらに含む、医用画像処理方法。 preparing a plurality of pieces of pixel information constituting a plurality of images of a cross section including a first axis, the images being obtained by imaging a tissue to be analyzed at different positions along one direction;
generating image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
Using machine learning, a region in the image of the second axial cross section that is estimated to include the tissue to be analyzed is identified;
A medical image processing method comprising:
In the step of identifying a region in which the tissue to be analyzed is estimated to have been imaged, the region in which the tissue to be analyzed is estimated to have been imaged is further identified from among pixels included in an image of a cross section including the first axis;
The medical image processing method further comprises generating three-dimensional data using information relating to a region presumably where the tissue to be analyzed is imaged.
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、
を含む、医用画像処理方法であって、
前記分析対象の組織は周期的な動作を行う組織であり、
前記複数の画素情報を準備することにおいて、1周期中の複数の時点それぞれにおける、前記第1軸を含む断面の複数の画像を構成する複数の画素情報を準備し、
前記第2軸断面に対応する画像情報を生成することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像に係る画像情報を生成し、
前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像のうち、前記分析対象の組織を撮像したと推定される領域を特定し、
前記分析対象の組織を撮像したと推定される領域の特定結果から、前記1周期中の前記分析対象の組織の時系列に沿った前記第2軸における変化に係る情報を算出することをさらに含む、医用画像処理方法。 preparing a plurality of pieces of pixel information constituting a plurality of images of a cross section including a first axis, the images being obtained by imaging a tissue to be analyzed at different positions along one direction;
generating image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
Using machine learning, a region in the image of the second axial cross section that is estimated to include the tissue to be analyzed is identified;
A medical image processing method comprising:
the analyzed tissue is a tissue that performs a periodic operation,
In preparing the plurality of pieces of pixel information, a plurality of pieces of pixel information constituting a plurality of images of a cross section including the first axis are prepared at a plurality of time points in one period,
In generating image information corresponding to the second axial slice, image information relating to an image of the second axial slice is generated for each of the plurality of time points;
In identifying a region in which the tissue to be analyzed is estimated to have been imaged, an area in which the tissue to be analyzed is estimated to have been imaged is identified in the image of the second axial cross section for each of the plurality of time points;
The medical image processing method further includes calculating information relating to changes in the second axis along the time series of the tissue to be analyzed during one cycle from the result of identifying an area estimated to have imaged the tissue to be analyzed.
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成する画像再構成部と、
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定する対象組織特定部と、
を含む、医用画像処理装置であって、
前記対象組織特定部は、前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記第1軸を含む断面の画像に含まれる画素のうち、前記分析対象の組織を撮像したと推定される領域をさらに特定し、
前記分析対象の組織を撮像したと推定される領域に係る情報を用いて3次元データを作成する出力部をさらに含む、医用画像処理装置。 an image preparation unit that prepares a plurality of pieces of pixel information constituting a plurality of images of a cross section including a first axis, the images being obtained by imaging the tissue to be analyzed at different positions along one direction;
an image reconstruction unit that generates image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
a target tissue specifying unit that specifies a region in the image of the second axial cross section in which the tissue to be analyzed is estimated to be imaged by using machine learning;
A medical image processing apparatus comprising:
the target tissue specifying unit, in specifying a region in which the analysis target tissue is estimated to have been imaged, further specifies a region in which the analysis target tissue is estimated to have been imaged among pixels included in an image of a cross section including the first axis;
The medical image processing apparatus further includes an output unit that creates three-dimensional data using information related to a region estimated to have been imaged of the tissue to be analyzed .
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成する画像再構成部と、an image reconstruction unit that generates image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定する対象組織特定部と、a target tissue specifying unit that specifies a region in the image of the second axial cross section in which the tissue to be analyzed is estimated to be imaged by using machine learning;
を含む、医用画像処理装置であって、A medical image processing apparatus comprising:
前記分析対象の組織は周期的な動作を行う組織であり、the analyzed tissue is a tissue that performs a periodic operation,
前記画像準備部は、前記複数の画素情報を準備することにおいて、1周期中の複数の時点それぞれにおける、前記第1軸を含む断面の複数の画像を構成する複数の画素情報を準備し、the image preparation unit prepares a plurality of pieces of pixel information constituting a plurality of images of a cross section including the first axis at a plurality of time points in one cycle,
前記画像再構成部は、前記第2軸断面に対応する画像情報を生成することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像に係る画像情報を生成し、the image reconstruction unit generates image information relating to an image of the second axial slice for each of the plurality of time points in generating image information corresponding to the second axial slice;
前記対象組織特定部は、前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像のうち、前記分析対象の組織を撮像したと推定される領域を特定し、the target tissue specifying unit, in specifying a region in which the analysis target tissue is estimated to have been imaged, specifies a region in which the analysis target tissue is estimated to have been imaged in the image of the second axial cross section for each of the plurality of time points;
前記分析対象の組織を撮像したと推定される領域の特定結果から、前記1周期中の前記分析対象の組織の時系列に沿った前記第2軸における変化に係る情報を算出する特徴量算出部をさらに含む、医用画像処理装置。The medical image processing device further includes a feature calculation unit that calculates information related to changes in the second axis along the time series of the tissue to be analyzed during one cycle from the result of identifying the area estimated to have been imaged of the tissue to be analyzed.
分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られる、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備することと、
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、
をコンピュータに実行させ、
前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記第1軸を含む断面の画像に含まれる画素のうち、前記分析対象の組織を撮像したと推定される領域がさらに特定され、
前記分析対象の組織を撮像したと推定される領域に係る情報を用いて3次元データを作成することをコンピュータにさらに実行させる、医用画像処理プログラム。 A medical image processing program for causing a computer to function as a medical image processing device, comprising:
preparing a plurality of pieces of pixel information constituting a plurality of images of a cross section including a first axis, the images being obtained by imaging a tissue to be analyzed at different positions along one direction;
generating image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
Using machine learning, a region in the image of the second axial cross section that is estimated to include the tissue to be analyzed is identified;
on the computer ,
In the step of identifying a region in which the tissue to be analyzed is estimated to have been imaged, a region in which the tissue to be analyzed is estimated to have been imaged is further identified from among pixels included in an image of a cross section including the first axis,
The medical image processing program further causes the computer to create three-dimensional data using information related to a region estimated to have been imaged of the tissue to be analyzed .
分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られる、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備することと、preparing a plurality of pieces of pixel information constituting a plurality of images of a cross section including a first axis, the images being obtained by imaging a tissue to be analyzed at different positions along one direction;
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、generating image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、Using machine learning, a region in the image of the second axial cross section that is estimated to include the tissue to be analyzed is identified;
をコンピュータに実行させ、on the computer,
前記分析対象の組織は周期的な動作を行う組織であり、the analyzed tissue is a tissue that performs a periodic operation,
前記複数の画素情報を準備することにおいて、1周期中の複数の時点それぞれにおける、前記第1軸を含む断面の複数の画像を構成する複数の画素情報が準備され、In preparing the plurality of pieces of pixel information, a plurality of pieces of pixel information constituting a plurality of images of a cross section including the first axis at each of a plurality of time points in one period are prepared,
前記第2軸断面に対応する画像情報を生成することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像に係る画像情報が生成され、In generating image information corresponding to the second axial cross section, image information relating to an image of the second axial cross section is generated for each of the plurality of time points;
前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像のうち、前記分析対象の組織を撮像したと推定される領域が特定され、In identifying a region in which the tissue to be analyzed is estimated to have been imaged, a region in which the tissue to be analyzed is estimated to have been imaged is identified in the image of the second axial cross section for each of the plurality of time points;
前記分析対象の組織を撮像したと推定される領域の特定結果から、前記1周期中の前記分析対象の組織の時系列に沿った前記第2軸における変化に係る情報を算出することをコンピュータにさらに実行させる、医用画像処理プログラム。The medical image processing program further causes the computer to calculate information relating to changes in the second axis along the time series of the tissue to be analyzed during one cycle from the result of identifying the area estimated to have been imaged of the tissue to be analyzed.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020181621A JP7587815B2 (en) | 2020-10-29 | 2020-10-29 | Medical image processing method, medical image processing device, and medical image processing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020181621A JP7587815B2 (en) | 2020-10-29 | 2020-10-29 | Medical image processing method, medical image processing device, and medical image processing program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022072269A JP2022072269A (en) | 2022-05-17 |
| JP7587815B2 true JP7587815B2 (en) | 2024-11-21 |
Family
ID=81604376
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020181621A Active JP7587815B2 (en) | 2020-10-29 | 2020-10-29 | Medical image processing method, medical image processing device, and medical image processing program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7587815B2 (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011120825A (en) | 2009-12-14 | 2011-06-23 | Fujifilm Corp | Medical image display device, method, and program |
| JP2016022111A (en) | 2014-07-18 | 2016-02-08 | 株式会社東芝 | Magnetic resonance imaging apparatus |
| US20190050981A1 (en) | 2017-08-09 | 2019-02-14 | Shenzhen Keya Medical Technology Corporation | System and method for automatically detecting a target object from a 3d image |
-
2020
- 2020-10-29 JP JP2020181621A patent/JP7587815B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2011120825A (en) | 2009-12-14 | 2011-06-23 | Fujifilm Corp | Medical image display device, method, and program |
| JP2016022111A (en) | 2014-07-18 | 2016-02-08 | 株式会社東芝 | Magnetic resonance imaging apparatus |
| US20190050981A1 (en) | 2017-08-09 | 2019-02-14 | Shenzhen Keya Medical Technology Corporation | System and method for automatically detecting a target object from a 3d image |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022072269A (en) | 2022-05-17 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Sermesant et al. | Applications of artificial intelligence in cardiovascular imaging | |
| NL1027674C2 (en) | Method and control device for operating a magnetic resonance tomography device. | |
| US11941812B2 (en) | Diagnosis support apparatus and X-ray CT apparatus | |
| JP7587575B2 (en) | Producing MRI images of the liver without contrast enhancement | |
| Chabiniok et al. | Estimation of tissue contractility from cardiac cine-MRI using a biomechanical heart model | |
| US11423554B2 (en) | Registering a two-dimensional image with a three-dimensional image | |
| Lee et al. | Computational modeling for cardiac resynchronization therapy | |
| EP2054860B1 (en) | Selection of datasets from 3d renderings for viewing | |
| EP4075379B1 (en) | System and method for heart strain determination | |
| JP2022031825A (en) | Image-based diagnostic systems | |
| Kim et al. | Automatic segmentation of the left ventricle in echocardiographic images using convolutional neural networks | |
| KR20080042082A (en) | Method and apparatus for automatic 4D coronary modeling and motion vector field evaluation | |
| Lekadir et al. | Statistical personalization of ventricular fiber orientation using shape predictors | |
| Marin et al. | Numerical surrogates for human observers in myocardial motion evaluation from SPECT images | |
| CN101355904A (en) | Reconstruction unit for reconstructing a precise reproduction of at least a portion of an object | |
| JP2012061028A (en) | Image processing apparatus, image processing method, and image processing program | |
| JP2013517837A (en) | Method for acquiring a three-dimensional image | |
| US20210358595A1 (en) | Body representations | |
| JP7587815B2 (en) | Medical image processing method, medical image processing device, and medical image processing program | |
| EP1851721B1 (en) | A method, a system and a computer program for segmenting a surface in a multidimensional dataset | |
| JP2012061019A (en) | Image processing apparatus, image processing method, and image processing program | |
| US20190374114A1 (en) | Blood flow analysis apparatus, blood flow analysis method, and blood flow analysis program | |
| Haber et al. | Using tagged MRI to reconstruct a 3D heartbeat | |
| US20250327890A1 (en) | Information processing device, information processing method, and recording medium | |
| Pfeifer et al. | Atrial and ventricular myocardium extraction using model-based techniques |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231027 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240611 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240614 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240805 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241022 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241101 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7587815 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |