[go: up one dir, main page]

JP7587815B2 - Medical image processing method, medical image processing device, and medical image processing program - Google Patents

Medical image processing method, medical image processing device, and medical image processing program Download PDF

Info

Publication number
JP7587815B2
JP7587815B2 JP2020181621A JP2020181621A JP7587815B2 JP 7587815 B2 JP7587815 B2 JP 7587815B2 JP 2020181621 A JP2020181621 A JP 2020181621A JP 2020181621 A JP2020181621 A JP 2020181621A JP 7587815 B2 JP7587815 B2 JP 7587815B2
Authority
JP
Japan
Prior art keywords
image
tissue
axis
analyzed
imaged
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020181621A
Other languages
Japanese (ja)
Other versions
JP2022072269A (en
Inventor
正照 河窪
誘三 山崎
弘太郎 阿部
和也 細川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Original Assignee
Kyushu University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC filed Critical Kyushu University NUC
Priority to JP2020181621A priority Critical patent/JP7587815B2/en
Publication of JP2022072269A publication Critical patent/JP2022072269A/en
Application granted granted Critical
Publication of JP7587815B2 publication Critical patent/JP7587815B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本開示は、医用画像処理方法、医用画像処理装置および医用画像処理プログラムに関する。 This disclosure relates to a medical image processing method, a medical image processing device, and a medical image processing program.

被験者の組織およびその周辺を撮像した領域から、対象の組織を特定する手法が検討されている。例えば、特許文献1では、全層畳み込みニューラルネットワーク(CNN)を用いて、MRI画像から解剖学的構造の少なくとも1つの部分をセグメンテーションするようなモデルを作成することが記載されている。 Methods for identifying target tissue from an area in which the subject's tissue and its surroundings are imaged are being considered. For example, Patent Literature 1 describes the use of a full-layer convolutional neural network (CNN) to create a model that segments at least one part of an anatomical structure from an MRI image.

特表2020-510463号公報Special Publication No. 2020-510463

しかしながら、MRI画像では水平方向の断面についてより詳細な検討ができるものの、例えば、垂直方向における被験者の組織の状況等を把握することが困難である。 However, while MRI images allow for more detailed examination of horizontal cross sections, it is difficult to grasp, for example, the condition of the subject's tissues in the vertical direction.

本開示は上記を鑑みてなされたものであり、画像として取得した方向とは異なる方向における対象の組織の状況をより適切に把握することが可能な技術を提供することを目的とする。 The present disclosure has been made in consideration of the above, and aims to provide a technology that can more appropriately grasp the condition of a target tissue in a direction different from the direction in which the image is acquired.

上記目的を達成するため、本開示の一形態に係る医用画像処理方法は、分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られた、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備することと、準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、を含む。 To achieve the above object, a medical image processing method according to one embodiment of the present disclosure includes: preparing a plurality of pixel information constituting a plurality of images of a cross section including a first axis, obtained by imaging a tissue to be analyzed at different positions along one direction; generating image information relating to an image of a second axis cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from the plurality of pixel information prepared; and identifying, using machine learning, an area in the image of the second axis cross section where the tissue to be analyzed is estimated to be imaged.

本開示の一形態に係る医用画像処理装置は、分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られた、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備する画像準備部と、準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成する画像再構成部と、機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定する対象組織特定部と、を含む。 A medical image processing device according to one embodiment of the present disclosure includes an image preparation unit that prepares a plurality of pixel information constituting a plurality of images of a cross section including a first axis obtained by imaging a tissue to be analyzed at different positions along one direction, an image reconstruction unit that generates image information relating to an image of a second axis cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, among the plurality of pixel information prepared, and a target tissue identification unit that uses machine learning to identify an area in the image of the second axis cross section where the tissue to be analyzed is estimated to be imaged.

本開示の一形態に係る医用画像処理プログラムは、医用画像処理装置としてコンピュータを機能させるための医用画像処理プログラムであって、分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られる、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備することと、準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、をコンピュータに実行させる。 A medical image processing program according to one embodiment of the present disclosure is a medical image processing program for causing a computer to function as a medical image processing device, and causes a computer to execute the following: preparing a plurality of pixel information constituting a plurality of images of a cross section including a first axis, obtained by imaging a tissue to be analyzed at different positions along one direction; generating image information relating to an image of a second-axis cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared; and identifying, using machine learning, an area in the image of the second-axis cross section where the tissue to be analyzed is estimated to have been imaged.

上記の医用画像処理方法、医用画像処理装置および医用画像処理プログラムによれば、第1軸を含む断面の複数の画像を構成する複数の画素情報から、第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、第2軸を含む平面の画像である第2軸断面の画像に係る画像情報が生成される。また、機械学習を用いて、第2軸断面の画像のうち、分析対象の組織を撮像したと推定される領域が特定される。このように、第2軸断面の画像に係る画像情報を生成した上で、当該画像から分析対象の組織を撮像したと推定される領域を特定する構成とすることで、第2軸に沿った方向、すなわち、画像として取得した方向とは異なる方向における対象の組織の状況をより適切に把握することが可能となる。 According to the above medical image processing method, medical image processing device, and medical image processing program, image information relating to an image of a second axial section, which is an image of a plane including the second axis, is generated by combining pixel information relating to pixels included in the same plane including the second axis from multiple pixel information constituting multiple images of a section including the first axis. In addition, machine learning is used to identify an area of the image of the second axial section in which the tissue to be analyzed is estimated to be imaged. In this way, by generating image information relating to the image of the second axial section and then identifying an area from the image in which the tissue to be analyzed is estimated to be imaged, it becomes possible to more appropriately grasp the condition of the target tissue in a direction along the second axis, i.e., in a direction different from the direction in which the image was acquired.

前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記第1軸を含む断面の画像に含まれる画素のうち、前記分析対象の組織を撮像したと推定される領域をさらに特定し、前記分析対象の組織を撮像したと推定される領域に係る情報を用いて3次元データを作成することをさらに含む態様とすることができる。 In identifying the region presumed to have imaged the tissue to be analyzed, the embodiment may further include identifying the region presumed to have imaged the tissue to be analyzed among pixels included in the image of the cross section including the first axis, and creating three-dimensional data using information related to the region presumed to have imaged the tissue to be analyzed.

この場合、対象となる組織の3次元データを得ることが可能となるため、第2軸を含めた、対象の組織の3次元の形状をより適切に把握することができる。 In this case, it is possible to obtain three-dimensional data of the target tissue, making it possible to more appropriately grasp the three-dimensional shape of the target tissue, including the second axis.

前記分析対象の組織は周期的な動作を行う組織であって、前記複数の画素情報を準備することにおいて、1周期中の複数の時点それぞれにおける、前記第1軸を含む断面の複数の画像を構成する複数の画素情報を準備し、前記第2軸断面に対応する画像情報を生成することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像に係る画像情報を生成し、前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像のうち、前記分析対象の組織を撮像したと推定される領域を特定し、前記分析対象の組織を撮像したと推定される領域の特定結果から、前記1周期中の前記分析対象の組織の時系列に沿った変化に係る情報を算出することをさらに含む態様とすることができる。 The tissue to be analyzed may be a tissue that performs cyclical operations, and in preparing the plurality of pieces of pixel information, the method further includes preparing a plurality of pieces of pixel information constituting a plurality of images of a cross section including the first axis at each of a plurality of time points during one cycle, generating image information corresponding to the second axial cross section for each of the plurality of time points, generating image information related to the image of the second axial cross section, and in identifying an area in which the tissue to be analyzed is presumed to have been imaged, identifying an area in the image of the second axial cross section for each of the plurality of time points in which the tissue to be analyzed is presumed to have been imaged, and calculating information related to the change in the tissue to be analyzed along the time series during one cycle from the result of identifying the area in which the tissue to be analyzed is presumed to have been imaged.

この場合、分析対象が周期的に変化する組織である場合、組織の時系列に沿った変化に係る情報を取得することができるため、第2軸に沿った方向における対象の組織の周期的な変化を適切に把握することが可能となる。 In this case, if the subject of analysis is a tissue that changes periodically, it is possible to obtain information related to the changes in the tissue over time, making it possible to properly grasp the periodic changes in the subject tissue in the direction along the second axis.

本開示によれば、画像として取得した方向とは異なる方向における対象の組織の状況をより適切に把握することが可能な技術が提供される。 The present disclosure provides a technology that can more appropriately grasp the condition of a target tissue in a direction different from the direction in which the image was captured.

図1は、一実施形態に係る医用画像処理装置の構成を説明するブロック図である。FIG. 1 is a block diagram illustrating the configuration of a medical image processing apparatus according to an embodiment. 図2は、医用画像処理装置のハードウェア構成を説明する図である。FIG. 2 is a diagram illustrating the hardware configuration of the medical image processing apparatus. 図3は、医用画像処理方法を説明するフロー図である。FIG. 3 is a flow diagram illustrating the medical image processing method. 図4は、水平方向断面の画像について説明する図である。FIG. 4 is a diagram for explaining an image of a horizontal cross section. 図5は、水平方向断面の画像において、対象の組織を撮像したと推定される領域をおおまかに特定した結果を示す図である。FIG. 5 is a diagram showing the result of roughly specifying an area in a horizontal cross-sectional image in which the target tissue is presumed to be imaged. 図6は、水平方向断面の画像から画像の再構成を行い、その結果得られた垂直方向断面の画像において対象の組織を撮像したと推定される領域を特定する処理について説明する図である。FIG. 6 is a diagram for explaining a process of reconstructing an image from a horizontal cross-sectional image and identifying a region in the vertical cross-sectional image obtained as a result of the reconstruction, in which a target tissue is estimated to be imaged. 図7は、XZ画像およびYZ画像における特定結果をXY画像の処理に適用する場合について説明する図である。FIG. 7 is a diagram for explaining a case where the identification results in the XZ image and the YZ image are applied to the processing of the XY image. 図8は、組織の垂直方向の変化の一例を示す図である。FIG. 8 is a diagram showing an example of a change in the vertical direction of a tissue.

以下、添付図面を参照して、本開示を実施するための形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。 Below, the embodiments for implementing the present disclosure will be described in detail with reference to the attached drawings. Note that in the description of the drawings, the same elements are given the same reference numerals, and duplicate descriptions will be omitted.

図1は、本開示の一形態に係る医用画像処理装置の構成を説明するブロック図である。本実施形態に係る医用画像処理装置1は、被験者の分析対象の組織(臓器等)を撮像した画像データから、当該臓器に係る特徴量を算出する装置である。対象となる組織(臓器)は、特に限定されないが、例えば、体内に存在する臓器を対象とすることができる。また、対象となる臓器として、特定の周期で動作(変形)する臓器を選択することもできる。このような臓器としては、例えば、心臓(心房または心室)、肺、肝臓、前立腺等が挙げられるが、これらに限定されるものではない。例えば心臓の場合、心拍に対応した周期で繰り返し変形している。医用画像処理装置1では、時系列に沿った変化に着目した特徴量の算出も可能となっている。したがって、特定の周期で繰り返し動作(変形)する組織(臓器)の周期的な変化に着目した特徴量も算出可能である。さらに、医用画像処理装置1は、詳細は後述するが、特に、被験者の体軸方向(垂直方向)の変形に係る特徴量も算出可能となっている。したがって、例えば、右心室のように体軸方向に周期的に変化(変形)する組織を対象とした場合に特に有用である。 FIG. 1 is a block diagram for explaining the configuration of a medical image processing device according to one embodiment of the present disclosure. The medical image processing device 1 according to this embodiment is a device that calculates feature amounts related to an organ to be analyzed from image data obtained by capturing an image of the tissue (organ, etc.) of a subject. The target tissue (organ) is not particularly limited, but for example, an organ existing in the body can be the target. In addition, an organ that moves (deforms) at a specific cycle can be selected as the target organ. Examples of such organs include, but are not limited to, the heart (atrium or ventricle), lungs, liver, prostate, etc. For example, the heart repeatedly deforms at a cycle corresponding to the heartbeat. The medical image processing device 1 is also capable of calculating feature amounts focusing on changes along a time series. Therefore, it is also possible to calculate feature amounts focusing on periodic changes in tissues (organs) that repeatedly move (deform) at a specific cycle. Furthermore, the medical image processing device 1 is capable of calculating feature amounts related to deformation in the subject's body axis direction (vertical direction), which will be described in detail later. Therefore, it is particularly useful when targeting tissue that periodically changes (deforms) in the body axis direction, such as the right ventricle.

対象の組織を心臓とした場合、被験者に係る画像検査、例えば、MRI検査では、心臓の短軸のシネ画像が得られる。このシネ画像の断面と平行な方向を第1軸とする。心臓の短軸のシネ画像からは、第1軸に沿った心臓の動きを把握することができる。一方、このシネ画像では、例えば第1軸と直交する方向の心臓の動きを把握することは困難である。以下の実施形態では、第1軸と異なる、例えば、第1軸に垂直な軸(第2軸)の画像をコンピュータで自動的に再構成し、第2軸方向における対象の組織の情報を付加することによって、対象の組織の抽出を行うと共に、対象の組織の情報を把握する。 When the target tissue is the heart, an imaging test on a subject, for example an MRI test, produces a cine image of the short axis of the heart. The direction parallel to the cross section of this cine image is the first axis. From the cine image of the short axis of the heart, it is possible to grasp the movement of the heart along the first axis. On the other hand, from this cine image, it is difficult to grasp the movement of the heart in a direction perpendicular to the first axis, for example. In the following embodiment, an image of an axis different from the first axis, for example an axis (second axis) perpendicular to the first axis, is automatically reconstructed by a computer, and information on the target tissue in the second axis direction is added, thereby extracting the target tissue and grasping the information on the target tissue.

なお、以下の実施形態では、対象の組織(臓器等)として心臓の右心室を選択した場合を想定して説明する場合がある。右心室は、拍動によって周期的に形状が変化する組織の一種である。そこで、以下の実施形態では、拍動による右心室の形状変化に係る特徴量を、医用画像処理装置1を用いて取得することについて説明する。また、以下の実施形態では、第1軸が水平方向(体軸に対して直交する方向)に延びる軸とし、第2軸が垂直方向(体軸方向)に延びる軸である場合について説明するが、この設定は一例であって、対象となる組織の特性、医用画像処理装置1で利用する画像の取得方法等によって変更され得る。例えば、第1軸と第2軸とが直交しない組み合わせであってもよい。 In the following embodiments, the right ventricle of the heart may be selected as the target tissue (organ, etc.). The right ventricle is a type of tissue whose shape changes periodically due to pulsation. In the following embodiments, the medical image processing device 1 is used to acquire features related to the change in shape of the right ventricle due to pulsation. In the following embodiments, the first axis extends horizontally (perpendicular to the body axis) and the second axis extends vertically (in the body axis direction). However, this setting is merely an example and may be changed depending on the characteristics of the target tissue, the method of acquiring images used by the medical image processing device 1, etc. For example, the first axis and the second axis may not be perpendicular to each other.

図1に示すように、医用画像処理装置1は、画像取得部11(画像準備部)、画像処理部12、特徴量算出部13、記憶部14、および、出力部15を有する。また、画像処理部12は、画像再構成部21および対象組織特定部22を含む。 As shown in FIG. 1, the medical image processing device 1 has an image acquisition unit 11 (image preparation unit), an image processing unit 12, a feature amount calculation unit 13, a storage unit 14, and an output unit 15. The image processing unit 12 also includes an image reconstruction unit 21 and a target tissue identification unit 22.

医用画像処理装置1のハードウェアは、例えば一つ又は複数の制御用のコンピュータにより構成される。例えば医用画像処理装置1は、図2に示す回路120を有する。回路120は、一つ又は複数のプロセッサ121と、メモリ122と、ストレージ123と、入出力ポート124と、タイマー125とを有する。ストレージ123は、例えばハードディスク等、コンピュータによって読み取り可能な記憶媒体を有する。記憶媒体は、後述の医用画像処理に係る手順を医用画像処理装置1に実行させるためのプログラム(医用画像処理プログラム)を記憶している。記憶媒体は、不揮発性の半導体メモリ、磁気ディスクおよび光ディスク等の取り出し可能な媒体であってもよい。メモリ122は、ストレージ123の記憶媒体からロードしたプログラムおよびプロセッサ121による演算結果を一時的に記憶する。プロセッサ121は、メモリ122と協働して上記プログラムを実行することで、上述の各機能部を構成する。入出力ポート124は、プロセッサ121からの指令に従って、医用画像処理装置1の各機能部との間で電気信号の入出力を行う。タイマー125は、例えば一定周期の基準パルスをカウントすることで経過時間を計測する。 The hardware of the medical image processing device 1 is composed of, for example, one or more control computers. For example, the medical image processing device 1 has a circuit 120 shown in FIG. 2. The circuit 120 has one or more processors 121, a memory 122, a storage 123, an input/output port 124, and a timer 125. The storage 123 has a storage medium readable by a computer, such as a hard disk. The storage medium stores a program (medical image processing program) for causing the medical image processing device 1 to execute the procedure related to medical image processing described below. The storage medium may be a removable medium such as a non-volatile semiconductor memory, a magnetic disk, or an optical disk. The memory 122 temporarily stores the program loaded from the storage medium of the storage 123 and the calculation results by the processor 121. The processor 121 configures each of the above-mentioned functional units by executing the above-mentioned program in cooperation with the memory 122. The input/output port 124 inputs and outputs electrical signals between each functional unit of the medical image processing device 1 according to instructions from the processor 121. The timer 125 measures the elapsed time, for example, by counting a reference pulse at a fixed interval.

図1に戻り、医用画像処理装置1の各機能部について説明する。医用画像処理装置1の画像取得部11は、外部装置等から特徴量を算出する対象となる被験者の対象の組織(臓器)を撮像した複数の画像データを取得する機能を有する。複数の画像データとは、対象の臓器を撮像した複数の画像データである。複数の画像データは、例えば、被験者の体軸に沿った互いに異なる位置において、体軸に対して直交する平面を撮像した複数の画像データである。このような画像データとしては、例えば、磁気共鳴動画像(CMR:Cardiovascular MRI)を用いることができる。より詳細には、シネMRI画像を用いることができる。CMR画像は、一般的に体軸に沿って(一の方向に沿って)複数回の撮像を行うことで、対象の組織(臓器)およびその周辺の立体的な情報を取得する。ただし、画像データの種類は上記に限定されない。また、対象の臓器によって画像データの種類を変更することができる。医用画像処理装置1では、このような体軸および体軸に対して直交する2軸の3軸に係る情報が含まれる複数の画像データを取得し、後段の処理を行う。なお、体軸は一般的に垂直方向に延びるものであり、体軸に直交する平面とは、水平面に相当する。CMR画像は被験者の水平方向断面を撮像した画像に相当する。 Returning to FIG. 1, each functional unit of the medical image processing device 1 will be described. The image acquisition unit 11 of the medical image processing device 1 has a function of acquiring multiple image data obtained by imaging the target tissue (organ) of the subject for which the feature amount is to be calculated from an external device or the like. The multiple image data are multiple image data obtained by imaging the target organ. The multiple image data are, for example, multiple image data obtained by imaging a plane perpendicular to the body axis at different positions along the body axis of the subject. For example, a magnetic resonance imaging (CMR: Cardiovascular MRI) can be used as such image data. More specifically, a cine MRI image can be used. In general, a CMR image is obtained by imaging multiple times along the body axis (along one direction) to acquire three-dimensional information of the target tissue (organ) and its surroundings. However, the type of image data is not limited to the above. In addition, the type of image data can be changed depending on the target organ. In the medical image processing device 1, multiple image data including information related to three axes, namely the body axis and two axes perpendicular to the body axis, are acquired and the subsequent processing is performed. Note that the body axis generally extends in the vertical direction, and the plane perpendicular to the body axis corresponds to a horizontal plane. A CMR image corresponds to an image of a horizontal cross section of the subject.

なお、被験者の対象の臓器の時系列変化を博するために、画像取得部11が取得する画像データとして、所定の間隔を開けて撮像された複数回の画像データであってもよい。一例として、臓器が周期的に変化をする場合、1周期中の変化を捉えた複数のタイミングで取得された画像データ群を取得してもよい。例えば、対象の臓器が心臓(心房または心室)である場合、1周期(1拍)の間で拡張と収縮とが行われる。したがって、心臓の場合は、拡張期および収縮期を含む複数のタイミングの画像データが特徴量の算出のために準備され、医用画像処理装置1ではこれらの画像データを取得してもよい。 In order to obtain time-series changes in the subject's target organ, the image data acquired by the image acquisition unit 11 may be image data captured multiple times at a specified interval. As an example, if the organ changes periodically, a group of image data acquired at multiple timings that capture the changes during one cycle may be acquired. For example, if the target organ is the heart (atrium or ventricle), expansion and contraction occur during one cycle (one beat). Therefore, in the case of the heart, image data at multiple timings including the diastole and systole may be prepared for calculating the feature amount, and the medical image processing device 1 may acquire this image data.

画像処理部12は、対象の臓器に係る複数の画像データから、他事象の組織に係る特徴量を取得するために画像を再構成し、再構成された画像に含まれる組織を特定する処理を行う機能を有する。画像処理部12は、画像再構成部21と、対象組織特定部22と、を有する。 The image processing unit 12 has a function of reconstructing an image from multiple image data related to a target organ in order to obtain features related to tissues of other events, and performing processing to identify the tissues included in the reconstructed image. The image processing unit 12 has an image reconstruction unit 21 and a target tissue identification unit 22.

画像再構成部21は、対象組織特定部22における特徴量の算出のために複数の画像データを用いた種々の処理を行う機能を有する。画像再構成部21は、体軸に対して直交する断面(水平方向断面)の画像に含まれる各画素の情報(画素情報)から、体軸を含む平面(垂直方向を含む断面)に沿った画像を再構成する機能を有する。 The image reconstruction unit 21 has a function of performing various processes using multiple image data to calculate feature amounts in the target tissue identification unit 22. The image reconstruction unit 21 has a function of reconstructing an image along a plane (a cross section including the vertical direction) including the body axis from information (pixel information) of each pixel included in an image of a cross section (a horizontal cross section) perpendicular to the body axis.

また、対象組織特定部22は、画像再構成部21において再構成された画像において対象となる組織(臓器等)を特定する機能を有する。 The target tissue identification unit 22 also has the function of identifying the target tissue (organ, etc.) in the image reconstructed by the image reconstruction unit 21.

画像再構成部21と、対象組織特定部22では、画像情報に含まれる各位置(画素)における輝度情報等を用いた機械学習・統計処理等を用いて、各部の機能を発揮する。詳細については後述するが、機械学習・統計解析等を繰り返し行うことによって、画像処理が行われる。機械学習は、教師あり学習(線形回帰、サポートベクターマシン(SVM)、ロジスティック回帰等)、教師なし学習(主成分分析、k-means法等)、強化学習、ディープラーニング(ニューラルネットワーク等)、深層強化学習等が含まれ得る。また統計解析手法の一種とされる主成分分析、クラスタリング等も本実施形態では「機械学習」に含まれることとする。以降の説明では、機械学習・統計解析等をまとめて「機械学習等」として説明する。機械学習等を利用する場合、利用するデータの種類・数等に応じて適切な手法が選択されてよい。 The image reconstruction unit 21 and the target tissue identification unit 22 use machine learning and statistical processing using luminance information at each position (pixel) included in the image information to exercise the functions of each unit. Although details will be described later, image processing is performed by repeatedly performing machine learning and statistical analysis. Machine learning can include supervised learning (linear regression, support vector machine (SVM), logistic regression, etc.), unsupervised learning (principal component analysis, k-means method, etc.), reinforcement learning, deep learning (neural network, etc.), deep reinforcement learning, etc. In addition, principal component analysis, clustering, etc., which are considered to be a type of statistical analysis method, are also included in "machine learning" in this embodiment. In the following explanation, machine learning, statistical analysis, etc. will be collectively described as "machine learning, etc." When machine learning, etc. is used, an appropriate method may be selected depending on the type and number of data to be used.

特徴量算出部13は、画像処理部12において処理された後の画像から、予め設定された特徴量を算出する機能を有する。特徴量としては、例えば、ある時間における対象の組織(臓器等)の大きさ、形状、容量や、これらの時間的な変化率の差や変化のタイミングの差等に係る各種パラメータが挙げられる。特徴量を算出する場合にも、機械学習・統計処理等を用いてもよい。なお、特徴量算出部13は、画像取得部11で取得された画像から、予め設定された特徴量を算出する機能を有していてもよい。 The feature calculation unit 13 has a function of calculating a preset feature from the image after processing in the image processing unit 12. Examples of feature include various parameters related to the size, shape, and volume of the target tissue (organ, etc.) at a certain time, as well as differences in the rate of change of these over time and differences in the timing of change. Machine learning, statistical processing, etc. may also be used when calculating feature. The feature calculation unit 13 may have a function of calculating a preset feature from the image acquired by the image acquisition unit 11.

記憶部14は、画像取得部11において取得された画像データ、画像処理部12により再構成された画像データ、特徴量算出部13による解析結果等を記憶する機能を有する。 The memory unit 14 has the function of storing image data acquired by the image acquisition unit 11, image data reconstructed by the image processing unit 12, analysis results by the feature calculation unit 13, etc.

出力部15は、特徴量算出部13による算出結果を出力する機能を有する。出力先としては、医用画像処理装置1に設けられたモニタ、外部装置等が挙げられる。また、出力内容等は特に限定されず、例えば、特徴量算出部13により算出された特徴量をそのまま出力する態様としてもよいし、算出された特徴量に基づいて何らかの評価を行いその結果を出力する態様としてもよい。特徴量に基づく評価等を行う場合には、評価を行うためのロジック等を記憶部14において保持し、特徴量を算出した後に当該ロジックを用いて評価を行うこととしてもよい。さらに、出力部15は、画像処理部12により再構成された画像データ、画像処理部12によって組織が特定された画像データ等を出力する機能を有していてもよい。また、出力部15は、画像処理部12によって組織が特定された画像データから3次元データを生成して出力する構成としてもよい。 The output unit 15 has a function of outputting the calculation result by the feature amount calculation unit 13. Examples of the output destination include a monitor provided in the medical image processing device 1, an external device, and the like. The output contents, etc. are not particularly limited, and for example, the feature amount calculated by the feature amount calculation unit 13 may be output as is, or some evaluation may be performed based on the calculated feature amount and the result may be output. When performing an evaluation based on the feature amount, logic for performing the evaluation may be stored in the storage unit 14, and the evaluation may be performed using the logic after the feature amount is calculated. Furthermore, the output unit 15 may have a function of outputting image data reconstructed by the image processing unit 12, image data in which tissues are identified by the image processing unit 12, and the like. The output unit 15 may also be configured to generate and output three-dimensional data from the image data in which tissues are identified by the image processing unit 12.

次に、図3~図6を参照しながら、医用画像処理装置1による対象の組織(臓器)を撮像した複数の画像データについての画像処理(画像再構成)および特徴量算出の手順について説明する。図3は、医用画像処理装置1において行われる特徴量の算出に係る処理を説明するフロー図である。 Next, the procedure for image processing (image reconstruction) and feature calculation for multiple image data capturing target tissues (organs) by the medical image processing device 1 will be described with reference to Figures 3 to 6. Figure 3 is a flow diagram explaining the process for calculating feature amounts performed by the medical image processing device 1.

まず、医用画像処理装置1では、画像取得部11により、対象の組織(臓器)を含む領域を撮像した複数の画像データを取得する(ステップS01:画像取得ステップ)。画像取得部11が取得する画像データの例を図4に示す。図4は、画像取得ステップにおいて得られる複数の画像データを画像として構成した状態を模式的に示している。複数の画像データは、例えば同時刻(もしくは同時刻とみなせる程度の期間内)に取得される。複数の画像とは、体軸(Z軸)に沿って、体軸に対して直交するXY平面(水平面)を撮像した画像であって、Z軸に沿った異なる位置で撮像を行ったデータである。なお、XY軸は任意の方向とすることができるが、一例として、図4に示すように、X軸を被験者の左右方向とし、Y軸を被験者の前後方向としてもよい。 First, in the medical image processing device 1, the image acquisition unit 11 acquires a plurality of image data capturing an area including the target tissue (organ) (step S01: image acquisition step). An example of image data acquired by the image acquisition unit 11 is shown in FIG. 4. FIG. 4 shows a schematic diagram of a state in which the plurality of image data acquired in the image acquisition step are configured as an image. The plurality of image data are acquired, for example, at the same time (or within a period that can be considered to be the same time). The plurality of images are images captured along the body axis (Z axis) in an XY plane (horizontal plane) perpendicular to the body axis, and are data captured at different positions along the Z axis. The XY axes can be in any direction, but as an example, the X axis may be the left-right direction of the subject and the Y axis may be the front-back direction of the subject, as shown in FIG. 4.

また、組織の周期的な変形等を観察する場合、時系列tに沿って複数回の複数の画像データを取得することが必要となる。一例として、図4では、時刻t1,t2,t3の3回に、同一の条件でそれぞれ複数の画像データを取得したことを示している。例えば、時刻t1には、体軸(Z軸)に沿って水平方向の断面の画像P1,P1,…P1が取得され、時刻t2には、体軸(Z軸)に沿って水平方向の断面の画像P2,P2,…P2が取得され、時刻t3には、体軸(Z軸)に沿って水平方向の断面の画像P3,P3,…P3が取得されるとする。各画像は、体軸に対して直交する面に沿って撮像されたものであり、例えば、図5に示す画像P1に対応するものである。一例として、これらの水平方向の断面の画像には、XY方向にそれぞれ256画素の画素情報が含まれる。画像P1,P1,…P1は、体軸に対して直交する互いに平行な断面を撮像したものであり、水平方向(X軸方向およびY軸方向)では同じ位置を撮像したものである。 In addition, when observing periodic deformation of tissue, it is necessary to obtain a plurality of image data a plurality of times along a time series t. As an example, FIG. 4 shows that a plurality of image data are obtained under the same conditions at three times, t1, t2, and t3. For example, it is assumed that at time t1, images P1 1 , P1 2 , ... P1 n of horizontal cross sections are obtained along the body axis (Z axis), at time t2, images P2 1 , P2 2 , ... P2 n of horizontal cross sections are obtained along the body axis (Z axis), and at time t3, images P3 1 , P3 2 , ... P3 n of horizontal cross sections are obtained along the body axis (Z axis). Each image is captured along a plane perpendicular to the body axis, and corresponds to, for example, image P1 shown in FIG. 5. As an example, each of these horizontal cross-sectional images includes pixel information of 256 pixels in the XY direction. The images P1 1 , P1 2 , . . . P1 n are images of parallel cross sections perpendicular to the body axis, and are images of the same position in the horizontal direction (X-axis direction and Y-axis direction).

同じ位置として、例えば、X軸方向には、位置x1~位置xlにそれぞれl個の画素が設けられ、Y軸方向には、位置y1~位置ymにそれぞれm個の画素が設けられているとする。この場合、画像P1が、例えばZ=z1における水平面の画像である場合、画像P1の画像データを構成する画素の配置は、例えば、座標(x1~xl、y1~ym,z1)として表現することができる。同様に、画像P1が、例えばZ=znにおける水平面の画像である場合、画像P1の画像データを構成する画素の配置は、例えば、座標(x1~xl、y1~ym,zn)として表現することができる。上記のように、XY方向にそれぞれ256画素の画素情報が含まれる場合、l=m=256となる。 For example, l pixels are provided at positions x1 to xl in the X-axis direction, and m pixels are provided at positions y1 to ym in the Y-axis direction. In this case, if image P1 1 is an image of a horizontal plane at Z=z1, the arrangement of pixels constituting the image data of image P1 1 can be expressed, for example, as coordinates (x1 to xl, y1 to ym, z1). Similarly, if image P1 n is an image of a horizontal plane at Z=zn, the arrangement of pixels constituting the image data of image P1 n can be expressed, for example, as coordinates (x1 to xl, y1 to ym, zn). As described above, if pixel information of 256 pixels is included in each of the X and Y directions, l=m=256.

なお、時系列に沿って複数回撮像を行う場合、撮像の間隔・回数等は対象の組織に応じて適宜変更される。例えば、心臓の心拍の1周期内に複数回撮像されるように、撮像の回数・間隔が設定されてもよい。 When imaging is performed multiple times in a time series, the interval and number of imaging operations are appropriately changed depending on the target tissue. For example, the number and interval of imaging operations may be set so that imaging is performed multiple times within one cardiac cycle.

次に、医用画像処理装置1では、画像処理部12の画像再構成部21により、画像から画像再構成を行う対象となる組織を撮像したと推定されるおおよその領域(おおまかな領域)を特定する(ステップS02)。「おおよその領域」とするのは、この段階で特定した領域を基準として後段の処理での画像再構成を行うためである。したがって、「おおよその領域」は、対象の組織を撮像した領域全体が含まれているように設定されているとよい。図5では、上記の「おおよその領域」を特定する際のイメージを示している。図5では、例えば、画像P1において、領域A1が「おおよその領域」に相当する。領域A1中の輝度が高い(白っぽい)領域が対象の組織を撮像した領域であると推定されるが、対象の組織を撮像した領域全体をカバーするように領域A1が「おおよその領域」として設定されていてもよい。「おおよその領域」の特定方法としては、画像中の輝度の差に基づいて、対象の組織を撮像した「おおよその領域」を特定する手法が挙げられる。なお、対象の組織を撮像したおおよその領域を特定する手法として、機械学習等を用いてもよい。一例として、画像再構成部21では、予め「おおよその領域」が特定された複数の画像を教師データとして準備し、これらの画像から対象のおおよその領域を特定するための基準を学習してもよい。一例として、「おおよその領域」が特定された複数の画像を利用して、「おおよその領域」を撮像した画素と、その他の画素とを区別するための特徴量を設定し、これを用いて「おおよその領域」を撮像した画とその他の画素とを区別するための特徴空間を設定してもよい。また、学習に基づいて被験者の画像から対象の「おおよその領域」を特定してもよい。機械学習等を用いる場合に、各画素の輝度情報を調整するような前処理を行ってもよい。 Next, in the medical image processing device 1, the image reconstruction unit 21 of the image processing unit 12 identifies an approximate area (rough area) that is estimated to be the area in which the target tissue to be reconstructed is imaged from the image (step S02). The reason for the "approximate area" is that the area identified at this stage is used as a reference for image reconstruction in the subsequent processing. Therefore, it is preferable that the "approximate area" is set so as to include the entire area in which the target tissue is imaged. FIG. 5 shows an image of the above-mentioned "approximate area" when identifying. In FIG. 5, for example, in the image P1, the area A1 corresponds to the "approximate area". It is estimated that the area with high brightness (whitish) in the area A1 is the area in which the target tissue is imaged, but the area A1 may be set as the "approximate area" so as to cover the entire area in which the target tissue is imaged. As a method for identifying the "approximate area", a method of identifying the "approximate area" in which the target tissue is imaged based on the difference in brightness in the image can be mentioned. In addition, machine learning or the like may be used as a method for identifying the approximate area in which the target tissue is imaged. As an example, the image reconstruction unit 21 may prepare multiple images in which the "approximate area" has been specified in advance as training data, and learn criteria for specifying the approximate area of the target from these images. As an example, multiple images in which the "approximate area" has been specified may be used to set a feature amount for distinguishing pixels that capture the "approximate area" from other pixels, and this may be used to set a feature space for distinguishing an image in which the "approximate area" has been captured from other pixels. In addition, the "approximate area" of the target may be identified from an image of the subject based on learning. When using machine learning, etc., preprocessing may be performed to adjust the luminance information of each pixel.

次に、医用画像処理装置1では、画像処理部12の画像再構成部21により、おおよその領域が特定された画像について、画像の再構成を行う(ステップS03)。この画像再構成は、XY平面に沿って撮像された画像群から、XZ平面またはYZ平面に対応する画像群を生成するものである。 Next, in the medical image processing device 1, the image reconstruction unit 21 of the image processing unit 12 reconstructs the image for which the approximate region has been identified (step S03). This image reconstruction generates an image group corresponding to the XZ plane or the YZ plane from an image group captured along the XY plane.

ここでは、画像P1~P1を用いて説明する。画像P1~P1は、それぞれ、図4で示すXYZ軸を用いて、各画像が撮像している領域(画素の位置)を3次元座標を用いて示すと、例えば、以下の通りとされる(l,m,nはそれぞれ自然数)。
P1;(x1,y1,z1)…(xl,ym,z1)
P1;(x1,y1,z2)…(xl,ym,z2)
P1;(x1,y1,z3)…(xl,ym,z3)

P1;(x1,y1,zn)…(xl,ym,zn)
Here, the description will be given using images P1 1 to P1 n . When the area (position of pixels ) captured by each image is expressed using three-dimensional coordinates using the XYZ axes shown in Fig. 4, it is expressed as follows (l, m, n are natural numbers):
P1 1 ; (x1, y1, z1)...(xl, ym, z1)
P1 2 ; (x1, y1, z2)...(xl, ym, z2)
P1 3 ; (x1, y1, z3)...(xl, ym, z3)

P1 n ; (x1, y1, zn)...(xl, ym, zn)

これらの画像に含まれる各画素の情報から、例えば、XZ平面に沿った画像を再構成するとする。このとき、XZ平面に沿った画像は、Y座標を一定として、X,Z座標を互いに異ならせた画素の情報を組み合わせることで構成することができる。Y軸が1~mまで変化する場合、例えば、再構成画像として、m枚の画像P1y1~P1ymを生成することができる。
P1y1;(x1,y1,z1)…(xl,y1,zn)
P1y2;(x1,y2,z1)…(xl,y2,zn)
P1y3;(x1,y3,z1)…(xl,y3,zn)

P1ym;(x1,ym,z1)…(xl,ym,zn)
For example, an image along the XZ plane is reconstructed from the information of each pixel contained in these images. In this case, the image along the XZ plane can be constructed by combining information of pixels whose X and Z coordinates are different from each other while keeping the Y coordinate constant. When the Y axis varies from 1 to m, for example, m images P1 y1 to P1 ym can be generated as reconstructed images.
P1 y1 ; (x1, y1, z1)...(xl, y1, zn)
P1 y2 ; (x1, y2, z1)...(xl, y2, zn)
P1 y3 ; (x1, y3, z1)...(xl, y3, zn)

P1 ym ; (x1, ym, z1)...(xl, ym, zn)

YZ平面に沿った画像の再構成も、同様に行うことができる。YZ平面に沿った画像は、X座標を一定として、Y,Z座標を互いに異ならせた画素の情報を組み合わせることで構成することができる。X軸が1~lまで変化する場合、例えば、再構成画像として、l枚の画像P1x1~P1xlを生成することができる。
P1x1;(x1,y1,z1)…(x1,ym,zn)
P1x2;(x2,y1,z1)…(x2,ym,zn)
P1x3;(x3,y1,z1)…(x3,ym,zn)

P1xl;(xl,y1,z1)…(xl,ym,zn)
The image along the YZ plane can be reconstructed in a similar manner. The image along the YZ plane can be constructed by combining information on pixels with different Y and Z coordinates while keeping the X coordinate constant. When the X axis varies from 1 to l, for example, l images P1 x1 to P1 xl can be generated as reconstructed images.
P1 x1 ; (x1, y1, z1)...(x1, ym, zn)
P1 x2 ; (x2, y1, z1)...(x2, ym, zn)
P1 x3 ; (x3, y1, z1)...(x3, ym, zn)

P1 xl ; (xl, y1, z1)...(xl, ym, zn)

このように、Z軸に沿ったn枚の画像に含まれる各画素の情報について、1枚の画像に含まれる画素情報の組み合わせを変更することによって、垂直方向(Z軸)を含む平面に係る断面の画像として、XZ画像またはYZ画像を再構成することができる。 In this way, by changing the combination of pixel information contained in one image for each pixel contained in n images along the Z axis, an XZ image or YZ image can be reconstructed as a cross-sectional image related to a plane including the vertical direction (Z axis).

なお、上述のように全ての条件を変更しながら全パターンで2平面での画像の再構成を行うと、m+lパターンの再構成画像が生成され得る。さらに、時系列に沿って複数(例えば、t回の撮像を行った場合)の画像を撮像する場合、(m+l)×tパターンの再構成画像が生成され得る。このとき、このステップでは、上記の全パターンでの画像の再構成を行うことに代えて、その一部のみ画像を再構成する構成としてもよい。例えば、Y座標が特定の値のXZ平面について画像再構成を行ってもよいし、X座標が特定の値のYZ平面について画像再構成を行ってもよい。画像の再構成を行う対象は、例えば、装置のユーザ(操作者)によって指定されてもよいし、予め定められたルールに基づいて画像処理部12の画像再構成部21においてどの平面の画像を再構成するか決定してもよい。なお、3次元データを作成することを想定している場合、対象の組織の形状をより正確に把握するために、複数のパターンでの画像の再構成を行うこととしてもよい。 When reconstructing images in two planes in all patterns while changing all conditions as described above, reconstructed images in m+l patterns can be generated. Furthermore, when multiple images (for example, when t images are taken) are taken in a time series, reconstructed images in (m+l)×t patterns can be generated. In this case, in this step, instead of reconstructing images in all patterns, only a part of the images can be reconstructed. For example, image reconstruction can be performed on the XZ plane with a specific Y coordinate value, or on the YZ plane with a specific X coordinate value. The target for which image reconstruction is performed can be specified by, for example, the user (operator) of the device, or the image reconstruction unit 21 of the image processing unit 12 can determine which plane the image is to be reconstructed on based on a predetermined rule. When it is assumed that three-dimensional data is to be created, image reconstruction can be performed in multiple patterns in order to more accurately grasp the shape of the target tissue.

次に、医用画像処理装置1では、画像処理部12の対象組織特定部22において、画像再構成部21によって再構成された画像(XZ画像、YZ画像)から、対象となる組織を撮像した領域を特定する(ステップS04)。 Next, in the medical image processing device 1, the target tissue identification unit 22 of the image processing unit 12 identifies the area in which the target tissue is imaged from the images (XZ image, YZ image) reconstructed by the image reconstruction unit 21 (step S04).

対象となる組織を撮像した領域の特定方法としては、画像中の輝度の差に基づいて、対象の組織を撮像した領域を特定する手法が挙げられる。なお、対象の組織を撮像した領域を特定する手法として、機械学習等を用いてもよい。一例として、画像再構成部21では、予め対象の組織を撮像した領域」が特定された複数の画像を教師データとして準備し、これらの画像から対象を撮像した領域を特定するための基準を学習してもよい。また、学習に基づいて被験者の画像から対象を撮像した領域を特定してもよい。機械学習等を用いる場合に、各画素の輝度情報を調整するような前処理を行ってもよい。なおこのステップS04で用いる機械学習等は、他のステップで用いる機械学習等とは異なるものであってもよい。また、機械学習等で用いる教師データは、例えば、XZ画像、YZ画像等に応じて異なるものであってもよい。 As a method for identifying the area where the target tissue is imaged, a method for identifying the area where the target tissue is imaged based on the difference in brightness in the image can be mentioned. Machine learning or the like can be used as a method for identifying the area where the target tissue is imaged. As an example, the image reconstruction unit 21 may prepare a plurality of images in which the area where the target tissue is imaged is identified in advance as training data, and learn a criterion for identifying the area where the target is imaged from these images. Also, the area where the target is imaged may be identified from the image of the subject based on the learning. When machine learning or the like is used, preprocessing such as adjusting the brightness information of each pixel may be performed. Note that the machine learning or the like used in this step S04 may be different from the machine learning or the like used in other steps. Also, the training data used in the machine learning or the like may be different depending on, for example, the XZ image, the YZ image, etc.

ステップS03およびステップS04における処理結果の一例を図6に示す。図6に示す画像P1は、図5に示す画像P1と同じであり、おおよその領域A1が特定されているとする。この画像P1は上述のXY画像に相当する。なお、画像P1は、横方向にY軸が延び縦方向にX軸が延びている画像である(画像P1の左下参照)。 An example of the processing results in steps S03 and S04 is shown in FIG. 6. Image P1 shown in FIG. 6 is the same as image P1 shown in FIG. 5, and it is assumed that area A1 has been roughly identified. This image P1 corresponds to the XY image described above. Note that image P1 is an image in which the Y axis extends horizontally and the X axis extends vertically (see the bottom left of image P1).

ここで、例えば、領域A1の重心ACを通る断面に沿って、XZ画像およびYZ画像を再構成したとする。重心ACの位置は3次元座標で特定され得るので、この重心ACの座標と同じX値またはY値を持つ平面を撮像した画素の情報を組み合わせることで、再構成画像を得ることができる。 Now, for example, suppose that an XZ image and a YZ image are reconstructed along a cross section passing through the center of gravity AC of area A1. Since the position of the center of gravity AC can be specified by three-dimensional coordinates, a reconstructed image can be obtained by combining information from pixels capturing an image of a plane having the same X or Y value as the coordinates of the center of gravity AC.

画像P2は、画像P1における破線L1に沿ったXZ画像であり、画像P3は、画像P1における破線L2に沿ったYZ画像である。それぞれ、重心ACを通る断面における再構成画像である。なお、時系列に沿って複数回画像を取得している場合には、各図で重心を算出するのではなく、複数回の画像のうちの特定のタイミングの画像データにおける重心ACを通るような平面の画像を各回のそれぞれについて再構成する。すなわち、時系列に沿った複数回の画像データそれぞれについて、同一の重心座標を用いて、XZ画像およびYZ画像の再構成を行う。この結果、時系列に沿って同一断面における対象の組織の形状変化を特定することが可能となる。 Image P2 is an XZ image taken along dashed line L1 in image P1, and image P3 is a YZ image taken along dashed line L2 in image P1. They are reconstructed images in a cross section passing through center of gravity AC. When images are acquired multiple times along a time series, the center of gravity is not calculated for each image, but an image of a plane passing through center of gravity AC in image data at a specific timing among the multiple images is reconstructed for each time. In other words, XZ and YZ images are reconstructed using the same center of gravity coordinates for each of the multiple image data along the time series. As a result, it is possible to identify changes in the shape of the target tissue in the same cross section along the time series.

画像P4は、画像P2において対象の組織を撮像した領域を抽出した画像である。また、画像P5は、画像P3において対象の組織を撮像した領域を抽出した画像である。画像P4,P5は、いずれも対象組織を撮像したと特定された領域の輝度を高くして表示しているため、画像P2,P3と比べて特定された領域が白くなっている。 Image P4 is an image obtained by extracting the area in image P2 where the target tissue is imaged. Image P5 is an image obtained by extracting the area in image P3 where the target tissue is imaged. Images P4 and P5 both display the area identified as the area where the target tissue is imaged with a higher brightness, so the identified area appears whiter than in images P2 and P3.

次に、医用画像処理装置1では、画像処理部12の対象組織特定部22において、画像再構成部21によって再構成を行う際に使用した元画像、すなわち、XY平面に沿ったXY画像についても、必要に応じて、対象となる組織を撮像した領域を特定する(ステップS05)。 Next, in the medical image processing device 1, the target tissue identification unit 22 of the image processing unit 12 identifies, as necessary, the area in which the target tissue is imaged in the original image used when the image reconstruction unit 21 performs reconstruction, i.e., the XY image along the XY plane (step S05).

これまでのステップでは、XY画像については対象の組織を撮像した「おおよその領域」の特定(ステップS02)のみが行われている。したがって、XY画像についても、機械学習等を用いて改めて対象の組織を撮像した領域を特定してもよい。対象となる組織を撮像した領域の特定方法としては、画像中の輝度の差に基づいて、対象の組織を撮像した領域を特定する手法が挙げられる。また、他の平面の画像と同様に、対象の組織を撮像した領域を特定する手法として、機械学習等を用いてもよい。 In the steps up to this point, only the "approximate area" in which the target tissue is imaged has been identified for the XY image (step S02). Therefore, the area in which the target tissue is imaged may also be identified again for the XY image using machine learning or the like. One method for identifying the area in which the target tissue is imaged is to identify the area in which the target tissue is imaged based on the difference in brightness in the image. Furthermore, machine learning or the like may be used as a method for identifying the area in which the target tissue is imaged, as with other planar images.

なお、このステップは、後段で算出する特徴量の種類等に応じて省略されてもよい。すなわち、XY画像については対象の組織を撮像した領域の特定が不要であると判断される場合には、この処理は省略してもよい。 This step may be omitted depending on the type of feature to be calculated later. In other words, if it is determined that it is not necessary to identify the region of the target tissue in the XY image, this process may be omitted.

次に、画像再構成部21によって再構成を行う際に使用した元画像、すなわち、XY平面に沿ったXY画像についても、必要に応じて、対象となる組織を撮像した領域を特定する(ステップS05)。 Next, if necessary, the area in which the target tissue is imaged is identified for the original image used for reconstruction by the image reconstruction unit 21, i.e., the XY image along the XY plane (step S05).

これまでのステップでは、XY画像については対象の組織を撮像した「おおよその領域」の特定(ステップS02)のみが行われている。したがって、XY画像についても、機械学習等を用いて改めて対象の組織を撮像した領域を特定してもよい。対象となる組織を撮像した領域の特定方法としては、画像中の輝度の差に基づいて、対象の組織を撮像した領域を特定する手法が挙げられる。また、他の平面の画像と同様に、対象の組織を撮像した領域を特定する手法として、機械学習等を用いてもよい。 In the steps up to this point, only the "approximate area" in which the target tissue is imaged has been identified for the XY image (step S02). Therefore, the area in which the target tissue is imaged may also be identified again for the XY image using machine learning or the like. One method for identifying the area in which the target tissue is imaged is to identify the area in which the target tissue is imaged based on the difference in brightness in the image. Furthermore, machine learning or the like may be used as a method for identifying the area in which the target tissue is imaged, as with other planar images.

XZ画像またはYZ画像について、対象を撮像した領域を特定(ステップS04)の後に、XY画像について、対象を撮像した領域を特定(ステップS05)する構成とすることで、対象を撮像した領域の特定に係る精度が向上する場合がある。この点について、図7を参照しながら説明する。 By configuring the system to identify the area in the XY image where the target is imaged (step S05) after identifying the area in the XZ image or YZ image where the target is imaged (step S04), the accuracy of identifying the area in which the target is imaged may be improved. This point will be explained with reference to FIG. 7.

図7では、時系列tに沿って20回(20フレーム)撮像が行われた場合であって、各回について、Z軸(体軸)に沿って15枚(15スライス)の画像が取得されていたとする。なお、XY平面の画素数は,例えば、256×256画素とすることができる。図7では、1つの画像を1つのセルCとして示している。ここでは、15セルを表示することに代えて4セルのみ示している。このような条件において、XY画像について対象の組織を撮像した領域を特定する場合、通常は全画像、すなわち、15×20個の画像について、対象を撮像した領域を特定することになる。 In FIG. 7, it is assumed that imaging was performed 20 times (20 frames) along the time series t, and 15 images (15 slices) were acquired along the Z axis (body axis) for each imaging. The number of pixels in the XY plane can be, for example, 256 x 256 pixels. In FIG. 7, one image is shown as one cell C. Here, instead of showing 15 cells, only four cells are shown. Under such conditions, when identifying the area in which the target tissue is imaged in the XY image, the area in which the target is imaged is usually identified for all images, i.e., 15 x 20 images.

しかしながら、XZ画像およびYZ画像において、対象の組織を撮像した領域を特定した結果、Z軸方向のどの範囲に対象の組織を撮像した領域が存在するかを推定した結果が得られることになる。したがって、15×20個の画像のうち、対象の組織を撮像した領域が存在すると想定される画像を特定することができる。図7では、対象の組織を撮像した領域が存在すると想定される画像に対応するセルCについてはハッチングを施している。このように、対象の組織を撮像した領域が存在すると想定される画像を予め特定しておくことで、特定されたXY画のみ像を対象として対象の組織を撮像した領域を特定する処理を行うことができる。このような処理の流れとすることで、対象の組織を撮像した領域が存在しないと推定される画像について、対象の組織を撮像した領域を特定する処理を行わない構成とすることができる。そのため、誤検出を防ぐことができるとともに、作業性が向上する。 However, as a result of identifying the area in which the target tissue is imaged in the XZ image and the YZ image, an estimate is obtained as to which range in the Z-axis direction the area in which the target tissue is imaged exists. Therefore, it is possible to identify the image in which the area in which the target tissue is imaged exists among the 15 x 20 images. In FIG. 7, the cell C corresponding to the image in which the area in which the target tissue is imaged exists is hatched. In this way, by identifying the image in which the area in which the target tissue is imaged exists in advance, it is possible to perform a process of identifying the area in which the target tissue is imaged using only the identified XY image. By adopting such a process flow, it is possible to configure a configuration in which the process of identifying the area in which the target tissue is imaged is not performed for images in which it is estimated that the area in which the target tissue is imaged does not exist. Therefore, it is possible to prevent erroneous detection and improve workability.

なお、このステップは、後段で算出する特徴量の種類等に応じて省略されてもよい。すなわち、XY画像については対象の組織を撮像した領域の特定が不要であると判断される場合には、この処理は省略してもよい。 This step may be omitted depending on the type of feature to be calculated later. In other words, if it is determined that it is not necessary to identify the region of the target tissue in the XY image, this process may be omitted.

次に、医用画像処理装置1では、特徴量算出部13において、対象の組織を撮像したと特定された領域に基づいて、特徴量を算出する(ステップS06)。撮像した画像(XY画像)および再構成した画像(XZ画像、YZ画像)からどのような特徴量を算出するかは、対象の組織の種類または分析対象となる疾患等に応じて設定され得る。したがって、特徴量の算出対象・算出方法は、適宜変更され得る。 Next, in the medical image processing device 1, the feature amount calculation unit 13 calculates feature amounts based on the area identified as the area in which the target tissue is imaged (step S06). The feature amounts to be calculated from the captured image (XY image) and the reconstructed images (XZ image, YZ image) can be set according to the type of target tissue or the disease to be analyzed. Therefore, the target and method for calculating the feature amounts can be changed as appropriate.

図8は画像P5に対応する画像(YZ画像)と、同一の条件で時系列が後の画像P5’とを2つ並べた状態を示している。画像P5は、対象となる右心室の拡張期の画像に対応し、画像P5’は収縮期の画像に対応する。画像P5と画像P5’とは隣接した状態で示している。画像P5と画像P5’とを比較すると、対象の組織のZ方向の大きさ(図中の白線で示す領域)が変化していることが確認される。このように、Z軸を含む平面の画像を用いると、Z軸方向に沿った組織の変化(臓器の変形等)を検出しやすくなる。また、画像に基づいた特徴量の算出も可能となるため、定量的な評価がしやすくなる。 Figure 8 shows two images (YZ image) corresponding to image P5 and image P5' taken later in the time series under the same conditions. Image P5 corresponds to an image of the right ventricle in diastole, and image P5' corresponds to an image of the systole. Images P5 and P5' are shown adjacent to each other. Comparing images P5 and P5', it can be seen that the size of the target tissue in the Z direction (the area indicated by the white line in the figure) has changed. In this way, using an image of a plane including the Z axis makes it easier to detect changes in the tissue along the Z axis (such as organ deformation). It also makes it possible to calculate feature values based on the images, facilitating quantitative evaluation.

図3に戻り、医用画像処理装置1の出力部15では、上記の処理によって算出された特徴量に係る結果を出力する(ステップS07)。出力する結果とは、上記の処理で算出された特徴量であってもよいし、特徴量に基づいて評価を行う場合、その評価結果であってもよい。 Returning to FIG. 3, the output unit 15 of the medical image processing device 1 outputs the results related to the feature amounts calculated by the above processing (step S07). The results to be output may be the feature amounts calculated by the above processing, or, if an evaluation is performed based on the feature amounts, may be the evaluation results.

出力部15から結果を出力する際には、上述した様に種々の評価・データ加工等を行ってもよい。一例として、XZ画像、YZ画像、およびXY画像のそれぞれにおいて、対象の組織を撮像した領域を特定する処理を行った場合、これらの特定結果に基づいて、3次元データを作成する構成としてもよい。上記の3種類の画像において、各軸に沿って互いに異なる複数の位置で得られた画像を取得または再構成し、さらに、それぞれについて、対象の組織を撮像した領域を特定する処理を行うことで、対象の組織を撮像した領域を3次元的に把握することができる。この場合、3次元として把握できた情報を組み合わせて3次元データとして出力する構成とした場合、ユーザは組織の形状を立体的に把握することが可能となる。 When the results are output from the output unit 15, various evaluations and data processing may be performed as described above. As an example, when a process is performed to identify the area in which the target tissue is imaged in each of the XZ image, YZ image, and XY image, three-dimensional data may be created based on these identification results. In the above three types of images, images obtained at multiple different positions along each axis are acquired or reconstructed, and a process is further performed to identify the area in which the target tissue is imaged for each of them, so that the area in which the target tissue is imaged can be grasped three-dimensionally. In this case, if the information grasped three-dimensionally is combined and output as three-dimensional data, the user can grasp the shape of the tissue in three dimensions.

また、時系列に沿って複数回撮像された画像を用いて上記の処理を行った場合、特徴量の算出(ステップS06)において、特徴量の時系列に応じた変化に係る情報を得ることが可能となる。その場合、時系列に沿った画像が1周期以上にわたって取得されている場合、特徴量の周期的な変化を得ることができる。したがって、この周期的な変化に関する情報(例えば、最大値・最小値等)を算出して出力する構成とすることとしてもよい。 In addition, when the above processing is performed using images captured multiple times in a time series, it is possible to obtain information related to the change in the feature quantity according to the time series in the calculation of the feature quantity (step S06). In this case, if the images in the time series are acquired over one or more cycles, it is possible to obtain the periodic change in the feature quantity. Therefore, the configuration may be such that information related to this periodic change (e.g., maximum value, minimum value, etc.) is calculated and output.

なお、心臓の心室を撮像した画像を用いた場合、時系列に沿って変化する心室の体軸方向の大きさの変化は、心疾患または関連する疾患の分析に有用である可能性がある。例えば、心臓(右心室)のリモデリングが発生している場合、拍動に伴う形状の変化は有用な情報となり得る。したがって、周期的な組織の変化に係る特徴量を取得することで、右心室の形状の変化をより適切に把握できる可能性がある。 When using images of the ventricles of the heart, the change in size of the ventricles in the body axis direction over time may be useful in analyzing cardiac disease or related diseases. For example, if remodeling of the heart (right ventricle) is occurring, the change in shape associated with pulsation may be useful information. Therefore, by acquiring features related to periodic tissue changes, it may be possible to more appropriately grasp the change in the shape of the right ventricle.

[作用]
上記の医用画像処理方法、医用画像処理装置および医用画像処理プログラムによれば、水平方向断面(第1軸を含む断面)の複数の画像を構成する複数の画素情報から、垂直方向(第2軸)を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、第垂直方向を含む平面の画像である垂直方向断面(第2軸断面)の画像に係る画像情報が生成される。また、機械学習を用いて、垂直方向断面の画像のうち、分析対象の組織を撮像したと推定される領域が特定される。このように、垂直方向断面の画像に係る画像情報を生成した上で、当該画像から分析対象の組織を撮像したと推定される領域を特定する構成とすることで、垂直方向、すなわち、画像として取得した方向とは異なる方向における対象の組織の状況をより適切に把握することが可能となる。
[Action]
According to the above-mentioned medical image processing method, medical image processing device, and medical image processing program, image information relating to an image of a vertical section (second axis section), which is an image of a plane including the vertical direction, is generated by combining pixel information relating to pixels included in the same plane including the vertical direction (second axis) from a plurality of pixel information constituting a plurality of images of a horizontal section (section including the first axis). In addition, a region in the image of the vertical section that is estimated to have imaged the tissue to be analyzed is identified using machine learning. In this way, by generating image information relating to the image of the vertical section and then identifying the region from the image that is estimated to have imaged the tissue to be analyzed, it is possible to more appropriately grasp the condition of the target tissue in the vertical direction, i.e., in a direction different from the direction in which the image was acquired.

従来から、シネMRI画像等を利用して、対象の組織に係る分析が行われている。しかしながら、体軸に沿った垂直方向(第2軸の延在方向)の組織の変形等を把握する場合には、一般的に水平方向(第1軸の延在方向)の断面の画像に基づいて推定する必要があった。垂直方向の組織の断面を得ることは難しく、水平方向の断面の画像からより正確に垂直方向の組織の形状を把握することが求められていた。これに対して、上記の手法によれば、水平方向断面画像に含まれる情報を用いて垂直方向断面の画像を生成し、さらにこの垂直方向断面の画像から機械学習を用いて分析対象の組織を撮像したと推定される領域が特定される。機械学習を用いて領域の特定を行うため、例えばユーザが個別に領域を特定する場合と比較して、速やかに且つ精度良く特定を行うことができる。このため、垂直方向における組織の形状をより正確に把握することが可能となる。 Conventionally, analysis of target tissue has been performed using cine MRI images and the like. However, when grasping deformation of tissue in the vertical direction (extension direction of the second axis) along the body axis, it was generally necessary to estimate based on an image of a horizontal cross section (extension direction of the first axis). It is difficult to obtain a cross section of tissue in the vertical direction, and it has been required to grasp the shape of tissue in the vertical direction more accurately from an image of a horizontal cross section. In contrast, according to the above method, an image of a vertical cross section is generated using information contained in a horizontal cross section image, and a region in which the tissue to be analyzed is estimated to be imaged is identified from this image of the vertical cross section using machine learning. Since the region is identified using machine learning, it can be identified quickly and accurately compared to, for example, when a user individually identifies the region. Therefore, it is possible to grasp the shape of tissue in the vertical direction more accurately.

また、分析対象の組織を撮像したと推定される領域を特定することでは、水平方向断面の画像についても分析対象の組織を撮像したと推定される領域をさらに特定してもよい。このとき、領域の特定結果を用いて、組織に係る3次元データを作成してもよい。この場合、対象となる組織の3次元データを得ることが可能となるため、垂直方向、すなわち、画像として取得した方向とは異なる方向を含んだ対象の組織の3次元の形状をより適切に把握することができる。 In addition, by identifying the area where the tissue to be analyzed is estimated to have been imaged, the area where the tissue to be analyzed is estimated to have been imaged in the horizontal cross-section image may also be identified. In this case, the result of identifying the area may be used to create three-dimensional data related to the tissue. In this case, since it is possible to obtain three-dimensional data of the target tissue, it is possible to more appropriately grasp the three-dimensional shape of the target tissue including the vertical direction, i.e., a direction different from the direction in which the image was acquired.

また、分析対象の組織は周期的な動作を行う組織である場合、1周期中の複数の時点それぞれにおける水平方向断面の複数の画像を構成する複数の画素情報を準備してもよい。また、複数の時点のそれぞれにおいて、垂直方向断面の画像に係る画像情報を生成し、領域の特定を行ってもよい。さらに、特定結果から、1周期中の分析対象の組織の時系列に沿った変化に係る情報を算出してもよい。この場合、分析対象が周期的に変化する組織である場合、組織の時系列に沿った変化に係る情報を取得することができるため、垂直方向、すなわち、画像として取得した方向とは異なる方向における対象の組織の周期的な変化を適切に把握することが可能となる。 In addition, when the tissue to be analyzed is a tissue that performs cyclical behavior, multiple pieces of pixel information constituting multiple images of horizontal cross sections at multiple time points during one cycle may be prepared. Also, image information relating to images of vertical cross sections may be generated at each of the multiple time points, and the region may be identified. Furthermore, information relating to the chronological changes in the tissue to be analyzed during one cycle may be calculated from the identification results. In this case, when the tissue to be analyzed is a tissue that changes cyclically, information relating to the chronological changes in the tissue can be obtained, making it possible to appropriately grasp the cyclical changes in the target tissue in the vertical direction, i.e., in a direction different from the direction acquired as an image.

本開示は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合せにより種々の開示を形成できる。 This disclosure is not limited to the above-described embodiment as it is, and in the implementation stage, the components can be modified and embodied without departing from the gist of the disclosure. In addition, various disclosures can be formed by appropriately combining multiple components disclosed in the above-described embodiment.

例えば、上記実施形態では、被験者の対象の組織(臓器)を撮像した画像がシネMRI画像である場合について説明したが、組織の特定方向の断面を撮像した画像であればよく、画像の種類は限定されない。また、被験者の対象の組織(臓器)を撮像した第1軸を含む画像は、第1軸に沿って互いに異なる位置で撮像されたものであってもよいが、第1軸に対して傾いた方向(一の方向)に沿って互いに異なる位置で撮像されたものであってもよい。さらに、第1軸と第2軸とは互いに交差していればよく、上記実施形態で説明したように「直交」に限定されない。上記実施形態で説明した構成は、第1軸と第2軸とが直交していない場合にも適用できる。 For example, in the above embodiment, the image of the subject's target tissue (organ) is described as a cine MRI image, but the type of image is not limited as long as it is an image of a cross section of the tissue in a specific direction. Furthermore, the images including the first axis of the subject's target tissue (organ) may be images taken at different positions along the first axis, or may be images taken at different positions along a direction tilted relative to the first axis (one direction). Furthermore, the first axis and the second axis only need to intersect with each other, and are not limited to being "orthogonal" as described in the above embodiment. The configuration described in the above embodiment can also be applied to cases where the first axis and the second axis are not orthogonal.

また、上記実施形態では、複数のステップにおいて機械学習等を用いる場合について説明したが、分析対象の組織を撮像した領域を特定する場合を除いて、機械学習とは異なる手法を用いてもよい。また、上記実施形態で説明したおおまかな領域の特定(ステップS02)は行わない構成としてもよい。このように、上記実施形態で説明した手順は適宜変更され得る。 In addition, in the above embodiment, a case where machine learning or the like is used in multiple steps has been described, but a method other than machine learning may be used except when identifying the area where the tissue to be analyzed is imaged. Also, the configuration may not include the rough area identification (step S02) described in the above embodiment. In this way, the procedure described in the above embodiment may be modified as appropriate.

1…医用画像処理装置、11…画像取得部、12…画像処理部、13…特徴量算出部、14…記憶部、15…出力部、21…画像再構成部、22…対象組織特定部。 1... medical image processing device, 11... image acquisition unit, 12... image processing unit, 13... feature amount calculation unit, 14... storage unit, 15... output unit, 21... image reconstruction unit, 22... target tissue identification unit.

Claims (6)

分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られた、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備することと、
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、
を含む、医用画像処理方法であって、
前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記第1軸を含む断面の画像に含まれる画素のうち、前記分析対象の組織を撮像したと推定される領域をさらに特定し、
前記分析対象の組織を撮像したと推定される領域に係る情報を用いて3次元データを作成することをさらに含む、医用画像処理方法。
preparing a plurality of pieces of pixel information constituting a plurality of images of a cross section including a first axis, the images being obtained by imaging a tissue to be analyzed at different positions along one direction;
generating image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
Using machine learning, a region in the image of the second axial cross section that is estimated to include the tissue to be analyzed is identified;
A medical image processing method comprising:
In the step of identifying a region in which the tissue to be analyzed is estimated to have been imaged, the region in which the tissue to be analyzed is estimated to have been imaged is further identified from among pixels included in an image of a cross section including the first axis;
The medical image processing method further comprises generating three-dimensional data using information relating to a region presumably where the tissue to be analyzed is imaged.
分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られた、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備することと、
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、
を含む、医用画像処理方法であって、
前記分析対象の組織は周期的な動作を行う組織であり、
前記複数の画素情報を準備することにおいて、1周期中の複数の時点それぞれにおける、前記第1軸を含む断面の複数の画像を構成する複数の画素情報を準備し、
前記第2軸断面に対応する画像情報を生成することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像に係る画像情報を生成し、
前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像のうち、前記分析対象の組織を撮像したと推定される領域を特定し、
前記分析対象の組織を撮像したと推定される領域の特定結果から、前記1周期中の前記分析対象の組織の時系列に沿った前記第2軸における変化に係る情報を算出することをさらに含む、医用画像処理方法。
preparing a plurality of pieces of pixel information constituting a plurality of images of a cross section including a first axis, the images being obtained by imaging a tissue to be analyzed at different positions along one direction;
generating image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
Using machine learning, a region in the image of the second axial cross section that is estimated to include the tissue to be analyzed is identified;
A medical image processing method comprising:
the analyzed tissue is a tissue that performs a periodic operation,
In preparing the plurality of pieces of pixel information, a plurality of pieces of pixel information constituting a plurality of images of a cross section including the first axis are prepared at a plurality of time points in one period,
In generating image information corresponding to the second axial slice, image information relating to an image of the second axial slice is generated for each of the plurality of time points;
In identifying a region in which the tissue to be analyzed is estimated to have been imaged, an area in which the tissue to be analyzed is estimated to have been imaged is identified in the image of the second axial cross section for each of the plurality of time points;
The medical image processing method further includes calculating information relating to changes in the second axis along the time series of the tissue to be analyzed during one cycle from the result of identifying an area estimated to have imaged the tissue to be analyzed.
分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られた、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備する画像準備部と、
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成する画像再構成部と、
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定する対象組織特定部と、
を含む、医用画像処理装置であって、
前記対象組織特定部は、前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記第1軸を含む断面の画像に含まれる画素のうち、前記分析対象の組織を撮像したと推定される領域をさらに特定し、
前記分析対象の組織を撮像したと推定される領域に係る情報を用いて3次元データを作成する出力部をさらに含む、医用画像処理装置
an image preparation unit that prepares a plurality of pieces of pixel information constituting a plurality of images of a cross section including a first axis, the images being obtained by imaging the tissue to be analyzed at different positions along one direction;
an image reconstruction unit that generates image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
a target tissue specifying unit that specifies a region in the image of the second axial cross section in which the tissue to be analyzed is estimated to be imaged by using machine learning;
A medical image processing apparatus comprising:
the target tissue specifying unit, in specifying a region in which the analysis target tissue is estimated to have been imaged, further specifies a region in which the analysis target tissue is estimated to have been imaged among pixels included in an image of a cross section including the first axis;
The medical image processing apparatus further includes an output unit that creates three-dimensional data using information related to a region estimated to have been imaged of the tissue to be analyzed .
分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られた、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備する画像準備部と、an image preparation unit that prepares a plurality of pieces of pixel information constituting a plurality of images of a cross section including a first axis, the images being obtained by imaging the tissue to be analyzed at different positions along one direction;
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成する画像再構成部と、an image reconstruction unit that generates image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定する対象組織特定部と、a target tissue specifying unit that specifies a region in the image of the second axial cross section in which the tissue to be analyzed is estimated to be imaged by using machine learning;
を含む、医用画像処理装置であって、A medical image processing apparatus comprising:
前記分析対象の組織は周期的な動作を行う組織であり、the analyzed tissue is a tissue that performs a periodic operation,
前記画像準備部は、前記複数の画素情報を準備することにおいて、1周期中の複数の時点それぞれにおける、前記第1軸を含む断面の複数の画像を構成する複数の画素情報を準備し、the image preparation unit prepares a plurality of pieces of pixel information constituting a plurality of images of a cross section including the first axis at a plurality of time points in one cycle,
前記画像再構成部は、前記第2軸断面に対応する画像情報を生成することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像に係る画像情報を生成し、the image reconstruction unit generates image information relating to an image of the second axial slice for each of the plurality of time points in generating image information corresponding to the second axial slice;
前記対象組織特定部は、前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像のうち、前記分析対象の組織を撮像したと推定される領域を特定し、the target tissue specifying unit, in specifying a region in which the analysis target tissue is estimated to have been imaged, specifies a region in which the analysis target tissue is estimated to have been imaged in the image of the second axial cross section for each of the plurality of time points;
前記分析対象の組織を撮像したと推定される領域の特定結果から、前記1周期中の前記分析対象の組織の時系列に沿った前記第2軸における変化に係る情報を算出する特徴量算出部をさらに含む、医用画像処理装置。The medical image processing device further includes a feature calculation unit that calculates information related to changes in the second axis along the time series of the tissue to be analyzed during one cycle from the result of identifying the area estimated to have been imaged of the tissue to be analyzed.
医用画像処理装置としてコンピュータを機能させるための医用画像処理プログラムであって、
分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られる、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備することと、
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、
をコンピュータに実行させ
前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記第1軸を含む断面の画像に含まれる画素のうち、前記分析対象の組織を撮像したと推定される領域がさらに特定され、
前記分析対象の組織を撮像したと推定される領域に係る情報を用いて3次元データを作成することをコンピュータにさらに実行させる、医用画像処理プログラム。
A medical image processing program for causing a computer to function as a medical image processing device, comprising:
preparing a plurality of pieces of pixel information constituting a plurality of images of a cross section including a first axis, the images being obtained by imaging a tissue to be analyzed at different positions along one direction;
generating image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
Using machine learning, a region in the image of the second axial cross section that is estimated to include the tissue to be analyzed is identified;
on the computer ,
In the step of identifying a region in which the tissue to be analyzed is estimated to have been imaged, a region in which the tissue to be analyzed is estimated to have been imaged is further identified from among pixels included in an image of a cross section including the first axis,
The medical image processing program further causes the computer to create three-dimensional data using information related to a region estimated to have been imaged of the tissue to be analyzed .
医用画像処理装置としてコンピュータを機能させるための医用画像処理プログラムであって、A medical image processing program for causing a computer to function as a medical image processing device, comprising:
分析対象の組織を一の方向に沿った互いに異なる位置で撮像することで得られる、第1軸を含む断面の複数の画像を構成する複数の画素情報を準備することと、preparing a plurality of pieces of pixel information constituting a plurality of images of a cross section including a first axis, the images being obtained by imaging a tissue to be analyzed at different positions along one direction;
準備した前記複数の画素情報のうち、前記第1軸に対して交差する第2軸を含む同一平面に含まれる画素に係る画素情報を組み合わせることで、前記第2軸を含む平面の画像である第2軸断面の画像に係る画像情報を生成することと、generating image information relating to an image of a second axial cross section, which is an image of a plane including the second axis, by combining pixel information relating to pixels included in the same plane including a second axis intersecting the first axis, from among the plurality of pixel information prepared;
機械学習を用いて、前記第2軸断面の画像において、前記分析対象の組織を撮像したと推定される領域を特定することと、Using machine learning, a region in the image of the second axial cross section that is estimated to include the tissue to be analyzed is identified;
をコンピュータに実行させ、on the computer,
前記分析対象の組織は周期的な動作を行う組織であり、the analyzed tissue is a tissue that performs a periodic operation,
前記複数の画素情報を準備することにおいて、1周期中の複数の時点それぞれにおける、前記第1軸を含む断面の複数の画像を構成する複数の画素情報が準備され、In preparing the plurality of pieces of pixel information, a plurality of pieces of pixel information constituting a plurality of images of a cross section including the first axis at each of a plurality of time points in one period are prepared,
前記第2軸断面に対応する画像情報を生成することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像に係る画像情報が生成され、In generating image information corresponding to the second axial cross section, image information relating to an image of the second axial cross section is generated for each of the plurality of time points;
前記分析対象の組織を撮像したと推定される領域を特定することにおいて、前記複数の時点のそれぞれについて、前記第2軸断面の画像のうち、前記分析対象の組織を撮像したと推定される領域が特定され、In identifying a region in which the tissue to be analyzed is estimated to have been imaged, a region in which the tissue to be analyzed is estimated to have been imaged is identified in the image of the second axial cross section for each of the plurality of time points;
前記分析対象の組織を撮像したと推定される領域の特定結果から、前記1周期中の前記分析対象の組織の時系列に沿った前記第2軸における変化に係る情報を算出することをコンピュータにさらに実行させる、医用画像処理プログラム。The medical image processing program further causes the computer to calculate information relating to changes in the second axis along the time series of the tissue to be analyzed during one cycle from the result of identifying the area estimated to have been imaged of the tissue to be analyzed.
JP2020181621A 2020-10-29 2020-10-29 Medical image processing method, medical image processing device, and medical image processing program Active JP7587815B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020181621A JP7587815B2 (en) 2020-10-29 2020-10-29 Medical image processing method, medical image processing device, and medical image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020181621A JP7587815B2 (en) 2020-10-29 2020-10-29 Medical image processing method, medical image processing device, and medical image processing program

Publications (2)

Publication Number Publication Date
JP2022072269A JP2022072269A (en) 2022-05-17
JP7587815B2 true JP7587815B2 (en) 2024-11-21

Family

ID=81604376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020181621A Active JP7587815B2 (en) 2020-10-29 2020-10-29 Medical image processing method, medical image processing device, and medical image processing program

Country Status (1)

Country Link
JP (1) JP7587815B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120825A (en) 2009-12-14 2011-06-23 Fujifilm Corp Medical image display device, method, and program
JP2016022111A (en) 2014-07-18 2016-02-08 株式会社東芝 Magnetic resonance imaging apparatus
US20190050981A1 (en) 2017-08-09 2019-02-14 Shenzhen Keya Medical Technology Corporation System and method for automatically detecting a target object from a 3d image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011120825A (en) 2009-12-14 2011-06-23 Fujifilm Corp Medical image display device, method, and program
JP2016022111A (en) 2014-07-18 2016-02-08 株式会社東芝 Magnetic resonance imaging apparatus
US20190050981A1 (en) 2017-08-09 2019-02-14 Shenzhen Keya Medical Technology Corporation System and method for automatically detecting a target object from a 3d image

Also Published As

Publication number Publication date
JP2022072269A (en) 2022-05-17

Similar Documents

Publication Publication Date Title
Sermesant et al. Applications of artificial intelligence in cardiovascular imaging
NL1027674C2 (en) Method and control device for operating a magnetic resonance tomography device.
US11941812B2 (en) Diagnosis support apparatus and X-ray CT apparatus
JP7587575B2 (en) Producing MRI images of the liver without contrast enhancement
Chabiniok et al. Estimation of tissue contractility from cardiac cine-MRI using a biomechanical heart model
US11423554B2 (en) Registering a two-dimensional image with a three-dimensional image
Lee et al. Computational modeling for cardiac resynchronization therapy
EP2054860B1 (en) Selection of datasets from 3d renderings for viewing
EP4075379B1 (en) System and method for heart strain determination
JP2022031825A (en) Image-based diagnostic systems
Kim et al. Automatic segmentation of the left ventricle in echocardiographic images using convolutional neural networks
KR20080042082A (en) Method and apparatus for automatic 4D coronary modeling and motion vector field evaluation
Lekadir et al. Statistical personalization of ventricular fiber orientation using shape predictors
Marin et al. Numerical surrogates for human observers in myocardial motion evaluation from SPECT images
CN101355904A (en) Reconstruction unit for reconstructing a precise reproduction of at least a portion of an object
JP2012061028A (en) Image processing apparatus, image processing method, and image processing program
JP2013517837A (en) Method for acquiring a three-dimensional image
US20210358595A1 (en) Body representations
JP7587815B2 (en) Medical image processing method, medical image processing device, and medical image processing program
EP1851721B1 (en) A method, a system and a computer program for segmenting a surface in a multidimensional dataset
JP2012061019A (en) Image processing apparatus, image processing method, and image processing program
US20190374114A1 (en) Blood flow analysis apparatus, blood flow analysis method, and blood flow analysis program
Haber et al. Using tagged MRI to reconstruct a 3D heartbeat
US20250327890A1 (en) Information processing device, information processing method, and recording medium
Pfeifer et al. Atrial and ventricular myocardium extraction using model-based techniques

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241022

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241101

R150 Certificate of patent or registration of utility model

Ref document number: 7587815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150