JP7623175B2 - Computer program, operation method of image processing device, and image processing device - Google Patents
Computer program, operation method of image processing device, and image processing device Download PDFInfo
- Publication number
- JP7623175B2 JP7623175B2 JP2021047674A JP2021047674A JP7623175B2 JP 7623175 B2 JP7623175 B2 JP 7623175B2 JP 2021047674 A JP2021047674 A JP 2021047674A JP 2021047674 A JP2021047674 A JP 2021047674A JP 7623175 B2 JP7623175 B2 JP 7623175B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- lumen
- ultrasonic
- ivus
- optical coherence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 159
- 238000000034 method Methods 0.000 title claims description 51
- 238000004590 computer program Methods 0.000 title claims description 19
- 230000003287 optical effect Effects 0.000 claims description 109
- 238000012937 correction Methods 0.000 claims description 72
- 238000002604 ultrasonography Methods 0.000 claims description 66
- 210000004204 blood vessel Anatomy 0.000 claims description 56
- 230000005540 biological transmission Effects 0.000 claims description 52
- 210000000056 organ Anatomy 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 23
- 238000011010 flushing procedure Methods 0.000 claims description 13
- 239000007788 liquid Substances 0.000 claims description 13
- 239000008280 blood Substances 0.000 claims description 7
- 210000004369 blood Anatomy 0.000 claims description 7
- 238000002608 intravascular ultrasound Methods 0.000 description 217
- 238000012014 optical coherence tomography Methods 0.000 description 154
- 238000000605 extraction Methods 0.000 description 42
- 238000010586 diagram Methods 0.000 description 37
- 230000006872 improvement Effects 0.000 description 26
- 244000208734 Pisonia aculeata Species 0.000 description 20
- 238000012549 training Methods 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 13
- 238000002583 angiography Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 12
- 239000000523 sample Substances 0.000 description 12
- 238000013519 translation Methods 0.000 description 12
- 238000007689 inspection Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 9
- 238000002059 diagnostic imaging Methods 0.000 description 9
- 210000002569 neuron Anatomy 0.000 description 7
- 239000002872 contrast media Substances 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000003780 insertion Methods 0.000 description 4
- 230000037431 insertion Effects 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 230000002792 vascular Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000002945 steepest descent method Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010003210 Arteriosclerosis Diseases 0.000 description 1
- 208000011775 arteriosclerosis disease Diseases 0.000 description 1
- 210000000013 bile duct Anatomy 0.000 description 1
- 210000000621 bronchi Anatomy 0.000 description 1
- 230000000747 cardiac effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000000936 intestine Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000012528 membrane Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000000277 pancreatic duct Anatomy 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
- 238000010882 preoperative diagnosis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 210000004231 tunica media Anatomy 0.000 description 1
Images
Landscapes
- Endoscopes (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Description
本発明は、コンピュータプログラム、画像処理方法及び画像処理装置に関する。 The present invention relates to a computer program, an image processing method, and an image processing device.
従来より、動脈硬化の診断、バルーンカテーテル若しくはステント等の高機能カテーテルによる血管内治療時の術前診断、又は術後の結果確認のために、画像診断装置が広く使用されている。画像診断装置には、超音波断層画像診断装置(IVUS:IntraVascular Ultra Sound)、光干渉断層画像診断装置(OCT:Optical Coherence Tomography)等が含まれ、それぞれが異なる特性を有している。
また、IVUSの機能と、OCTの機能とを組み合わせた画像診断装置、つまり超音波を送受信可能な超音波送受信部と、光を送受信可能な光送受信部とを備える画像診断装置が提案されている(例えば、特許文献1及び2)。
このような画像診断装置によれば、高深度領域まで測定できるIVUSの特性を活かした超音波断層画像と、高分解能で測定できるOCTの特性を活かした光干渉断層画像の両方を、一回の走査で構築することができる。
Conventionally, imaging diagnostic devices have been widely used for the diagnosis of arteriosclerosis, preoperative diagnosis during intravascular treatment using high-performance catheters such as balloon catheters or stents, or postoperative result confirmation. Imaging diagnostic devices include intravascular ultrasound imaging devices (IVUS: IntraVascular Ultrasound), optical coherence tomography imaging devices (OCT: Optical Coherence Tomography), etc., each of which has different characteristics.
In addition, an imaging diagnostic device that combines the functions of IVUS and OCT has been proposed, that is, an imaging diagnostic device that has an ultrasound transceiver unit capable of transmitting and receiving ultrasound and an optical transceiver unit capable of transmitting and receiving light (for example,
With this type of imaging diagnostic device, it is possible to construct both an ultrasound tomographic image that takes advantage of IVUS's ability to measure deep areas, and an optical coherence tomographic image that takes advantage of OCT's ability to measure at high resolution, with a single scan.
しかしながら、構築される超音波断層画像及び光干渉断層画像のスケールは必ずしも一致しておらず、断層画像の読影を難しくする一因となっている。 However, the scale of the constructed ultrasound tomographic images and optical coherence tomographic images do not always match, which makes it difficult to interpret the tomographic images.
機器の特性を記憶しておき、超音波断層画像及び光干渉断層画像のスケールを一致させることも考えられる。しかし、光送受信部により光を送受信するためには、フラッシュ液を用いて血管内の血液を置換する必要があり、超音波送受信部から出力される超音波は、血液では無くフラッシュ液中を伝播する。超音波の伝播速度はフラッシュ液の種類によって異なるため、超音波断層画像及び光干渉断層画像のスケールは一致しなくなる。フラッシュ液の種類及び濃度等は一意に定まるものでは無く、患者の状態に応じて、変更されることもある。このため、フラッシュ液の種類に応じた超音波の伝播速度の補正処理にも限界があり、超音波断層画像及び光干渉断層画像のスケールを一致させることはできない。また、超音波の伝播速度の設定を誤ると、スケールが一致しない超音波断層画像及び光干渉断層画像が構築されることになる。 It is also possible to store the characteristics of the device and match the scale of the ultrasound tomographic image and the optical coherence tomographic image. However, in order to transmit and receive light using the optical transmitting and receiving unit, it is necessary to replace the blood in the blood vessels using a flushing liquid, and the ultrasound output from the ultrasound transmitting and receiving unit propagates through the flushing liquid rather than through the blood. Since the propagation speed of the ultrasound differs depending on the type of flushing liquid, the scale of the ultrasound tomographic image and the optical coherence tomographic image will not match. The type and concentration of the flushing liquid are not uniquely determined, and may be changed depending on the patient's condition. For this reason, there is a limit to the correction process of the propagation speed of the ultrasound according to the type of flushing liquid, and it is not possible to match the scale of the ultrasound tomographic image and the optical coherence tomographic image. Furthermore, if the propagation speed of the ultrasound is set incorrectly, ultrasound tomographic images and optical coherence tomographic images with inconsistent scales will be constructed.
一つの側面では、IVUS機能及びOCT機能を備えるデュアルタイプのカテーテルを用いて得られた超音波断層画像及び光干渉断層画像のスケールを整合させることができるコンピュータプログラム、画像処理方法及び画像処理装置を提供することを目的とする。 In one aspect, the present invention aims to provide a computer program, an image processing method, and an image processing device that can align the scale of ultrasound tomographic images and optical coherence tomographic images obtained using a dual-type catheter equipped with IVUS and OCT functions.
一つの側面では、コンピュータプログラムは、管腔器官の内腔から径方向の外側を向いて超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部にて超音波断層画像及び光干渉断層画像を取得し、取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識し、取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識し、認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像及び前記第2内腔画像の寸法が整合するように、前記超音波断層画像又は前記光干渉断層画像の前記径方向におけるスケールを補正する処理をコンピュータに実行させる。 In one aspect, the computer program causes the computer to execute a process of acquiring an ultrasonic tomographic image and an optical coherence tomographic image using a sensor unit having an ultrasonic transceiver unit that transmits and receives ultrasonic waves from the inner cavity of a tubular organ in a radially outward direction and an optical transceiver unit that transmits and receives light, recognizing a first inner lumen image of the tubular organ included in the acquired ultrasonic tomographic image, recognizing a second inner lumen image of the tubular organ included in the acquired optical coherence tomographic image, and correcting the scale of the ultrasonic tomographic image or the optical coherence tomographic image in the radial direction based on the recognized first inner lumen image and second inner lumen image so that the dimensions of the first inner lumen image and the second inner lumen image are consistent.
一つの側面では、画像処理方法は、管腔器官の内腔から径方向の外側を向いて超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部にて超音波断層画像及び光干渉断層画像を取得し、取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識し、取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識し、認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像及び前記第2内腔画像の寸法が整合するように、前記超音波断層画像又は前記光干渉断層画像の前記径方向におけるスケールを補正する。 In one aspect, the image processing method acquires ultrasonic tomographic images and optical coherence tomographic images using a sensor unit having an ultrasonic transceiver unit that transmits and receives ultrasonic waves from the inner cavity of a tubular organ toward the outside in the radial direction and an optical transceiver unit that transmits and receives light, recognizes a first lumen image of the tubular organ contained in the acquired ultrasonic tomographic images, recognizes a second lumen image of the tubular organ contained in the acquired optical coherence tomographic images, and corrects the radial scale of the ultrasonic tomographic images or the optical coherence tomographic images based on the recognized first lumen image and second lumen image so that the dimensions of the first lumen image and the second lumen image are consistent.
一つの側面では、画像処理装置は、管腔器官の内腔から径方向の外側を向いて超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部にて超音波断層画像及び光干渉断層画像を取得する取得部と、前記取得部にて取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識する第1認識部と、前記取得部にて取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識する第2認識部と、前記第1認識部及び前記第2認識部にて認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像及び前記第2内腔画像の寸法が整合するように、前記超音波断層画像又は前記光干渉断層画像の前記径方向におけるスケールを補正する補正部とを備える。 In one aspect, the image processing device includes an acquisition unit that acquires ultrasonic tomographic images and optical coherence tomographic images using a sensor unit having an ultrasonic transceiver that transmits and receives ultrasonic waves from the inner cavity of a tubular organ toward the outside in the radial direction and an optical transceiver that transmits and receives light, a first recognition unit that recognizes a first lumen image of the tubular organ included in the ultrasonic tomographic image acquired by the acquisition unit, a second recognition unit that recognizes a second lumen image of the tubular organ included in the optical coherence tomographic image acquired by the acquisition unit, and a correction unit that corrects the scale of the ultrasonic tomographic image or the optical coherence tomographic image in the radial direction based on the first lumen image and the second lumen image recognized by the first recognition unit and the second recognition unit so that the dimensions of the first lumen image and the second lumen image are consistent.
一つの側面では、IVUS機能及びOCT機能を備えるデュアルタイプのカテーテルを用いて得られた超音波断層画像及び光干渉断層画像のスケールを整合させることができる。 In one aspect, the scale of ultrasound tomographic images and optical coherence tomographic images obtained using a dual-type catheter equipped with IVUS and OCT functions can be matched.
以下、本開示のコンピュータプログラム、画質改善学習モデル、学習モデル生成方法、画像処理方法及び画像処理装置について、その実施形態を示す図面に基づいて詳述する。以下の各実施形態では、血管内治療である心臓カテーテル治療を一例に説明するが、カテーテル治療の対象とする管腔器官は血管に限定されず、例えば胆管、膵管、気管支、腸等の他の管腔器官であってもよい。また、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。 The computer program, image quality improvement learning model, learning model generation method, image processing method, and image processing device of the present disclosure will be described in detail below with reference to the drawings showing the embodiments. In each of the following embodiments, cardiac catheterization, which is an intravascular treatment, will be described as an example, but the tubular organs that are the subject of the catheterization treatment are not limited to blood vessels, and may be other tubular organs such as the bile duct, pancreatic duct, bronchi, and intestines. Furthermore, the present invention is not limited to these examples, but is indicated by the claims, and is intended to include all modifications within the meaning and scope equivalent to the claims. At least some of the embodiments described below may be combined in any manner.
本実施形態では、血管内超音波診断法(IVUS)及び光干渉断層診断法(OCT)の両方の機能を備えるデュアルタイプのカテーテルを用いた画像診断装置について説明する。デュアルタイプのカテーテルでは、IVUSのみによって超音波断層画像を取得するモードと、OCTのみによって光干渉断層画像を取得するモードと、IVUS及びOCTによって両方の断層画像を取得するモードとが設けられており、これらのモードを切り替えて使用することができる。以下、超音波断層画像及び光干渉断層画像それぞれを適宜、IVUS画像及びOCT画像という。また、IVUS画像及びOCT画像を総称して断層画像という。 In this embodiment, an imaging diagnostic device using a dual-type catheter equipped with the functions of both intravascular ultrasound (IVUS) and optical coherence tomography (OCT) will be described. The dual-type catheter is provided with a mode for acquiring ultrasonic tomographic images using IVUS only, a mode for acquiring optical coherence tomographic images using OCT only, and a mode for acquiring tomographic images using both IVUS and OCT, and these modes can be switched for use. Hereinafter, ultrasonic tomographic images and optical coherence tomographic images will be referred to as IVUS images and OCT images, respectively, as appropriate. In addition, IVUS images and OCT images will be collectively referred to as tomographic images.
(実施形態1)
図1は、画像診断装置100の構成例を示す説明図である。本実施形態の画像診断装置100は、血管内検査装置101と、血管造影装置102と、画像処理装置3と、表示装置4と、入力装置5とを備える。血管内検査装置101は、画像診断用カテーテル1及びMDU(Motor Drive Unit)2を備える。画像診断用カテーテル1は、MDU2を介して画像処理装置3に接続されている。画像処理装置3には、表示装置4及び入力装置5が接続されている。表示装置4は、例えば液晶ディスプレイ又は有機ELディスプレイ等であり、入力装置5は、例えばキーボード、マウス、トラックボール又はマイク等である。表示装置4と入力装置5とは、一体に積層されて、タッチパネルを構成していてもよい。また入力装置5と画像処理装置3とは、一体に構成されていてもよい。更に入力装置5は、ジェスチャ入力又は視線入力等を受け付けるセンサであってもよい。
(Embodiment 1)
FIG. 1 is an explanatory diagram showing a configuration example of an image
血管造影装置102は画像処理装置3に接続されている。血管造影装置102は、患者の血管に造影剤を注入しながら、患者の生体外からX線を用いて血管を撮像し、当該血管の透視画像であるアンギオ画像を得るためのアンギオグラフィ装置である。血管造影装置102は、X線源及びX線センサを備え、X線源から照射されたX線をX線センサが受信することにより、患者のX線透視画像をイメージングする。血管造影装置102は、撮像して得られたアンギオ画像を画像処理装置3へ出力し、画像処理装置3を介して表示装置4に表示される。なお、表示装置4には、アンギオ画像と、画像診断用カテーテル1を用いて撮像された血管の断層画像とが表示される。
The
図2は画像診断用カテーテル1の構成例を示す説明図である。なお、図2中の上側の一点鎖線で囲まれた領域は、下側の一点鎖線で囲まれた領域を拡大したものである。画像診断用カテーテル1は、プローブ11と、プローブ11の端部に配置されたコネクタ部15とを有する。プローブ11は、コネクタ部15を介してMDU2に接続される。以下の説明では画像診断用カテーテル1のコネクタ部15から遠い側を先端側と記載し、コネクタ部15側を基端側という。プローブ11は、カテーテルシース11aを備え、その先端部には、ガイドワイヤが挿通可能なガイドワイヤ挿通部14が設けられている。ガイドワイヤ挿通部14はガイドワイヤルーメンを構成し、予め血管内に挿入されたガイドワイヤを受け入れ、ガイドワイヤによってプローブ11を患部まで導くのに使用される。カテーテルシース11aは、ガイドワイヤ挿通部14からコネクタ部15に亘って連続する管部を形成している。カテーテルシース11aの内部にはシャフト13が挿通されており、シャフト13の先端側にはセンサ部12が接続されている。
2 is an explanatory diagram showing an example of the configuration of the
センサ部12は、ハウジング12cを有し、ハウジング12cの先端側は、カテーテルシース11aの内面との摩擦や引っ掛かりを抑制するために半球状に形成されている。ハウジング12c内には、超音波を血管内に送信すると共に血管内からの反射波を受信する超音波送受信部12aと、近赤外光を血管内に送信すると共に血管内からの反射光を受信する光送受信部12bとが配置されている。図2に示す例では、プローブ11の先端側に超音波送受信部12aが設けられており、基端側に光送受信部12bが設けられている。つまり、超音波送受信部12a及び光送受信部12bは、シャフト13の中心軸上(図2中の二点鎖線上)において軸方向に沿って所定長だけ離れて、ハウジング12c内に配置されている。
また、超音波送受信部12a及び光送受信部12bは、超音波及び近赤外光の送受信方向がシャフト13の軸方向に対して略90度の方向(シャフト13の径方向)となるように配置されている。なお、超音波送受信部12a及び光送受信部12bは、カテーテルシース11aの内面での反射波及び反射光を受信しないように、径方向よりややずらして取り付けられることが望ましい。本実施形態では、例えば図2中の矢符で示すように、超音波送受信部12aは径方向に対して基端側に傾斜した方向を超音波の照射方向とし、光送受信部12bは径方向に対して先端側に傾斜した方向を近赤外光の照射方向とする姿勢で設けられている。
The
The ultrasonic transmission/
シャフト13には、超音波送受信部12aに接続された電気信号ケーブル(図示せず)と、光送受信部12bに接続された光ファイバケーブル(図示せず)とが内挿されている。プローブ11は、先端側から血管内に挿入される。センサ部12及びシャフト13は、カテーテルシース11aの内部で進退可能であり、また、周方向に回転することができる。センサ部12及びシャフト13は、シャフト13の中心軸を回転軸として回転する。
An electric signal cable (not shown) connected to the ultrasonic transmission/
MDU2は、画像診断用カテーテル1のコネクタ部15が着脱可能に取り付けられ、医療従事者の操作に応じて内蔵モータを駆動し、血管内に挿入された画像診断用カテーテル1の動作を制御する駆動装置である。例えばMDU2は、プローブ11に内挿されたセンサ部12及びシャフト13を一定の速度でMDU2側に向けて引っ張りながら周方向に回転させるプルバック操作を行う。センサ部12は、プルバック操作によって先端側から基端側に移動しながら回転しつつ、所定の時間間隔で連続的に血管内を走査することにより、プローブ11に略垂直な複数枚の横断層像を所定の間隔で連続的に撮影する。MDU2は、超音波送受信部12aが受信した超音波の反射波信号と、光送受信部12bが受信した反射光信号とを画像処理装置3へ出力する。
MDU2は、センサ部12を高速で後退させる高速プルバックモードと、センサ部12を低速で後退させる低速プルバックモードとを有する。高速プルバックモードにおいては、MDU2は、モータを高速で駆動し、センサ部12を高速で後退させる。低速プルバックモードにおいては、MDU2は、モータを低速で駆動し、センサ部12を低速で後退させる。画像処理装置3は、高速プルバックモード又は低速プルバックモードのいずれのモードで動作しているかを認識しており、プルバック速度に応じた処理を実行する。詳細は後述する。
The
The
画像処理装置3は、MDU2を介して超音波送受信部12aから出力された超音波の反射波信号を反射波データとして取得し、取得した反射波データに基づいて超音波ラインデータを生成する。超音波ラインデータは、超音波送受信部12aからみた血管の深さ方向における超音波の反射強度を示すデータである。画像処理装置3は、生成した超音波ラインデータに基づいて血管の横断層を表すIVUS画像60(図4参照)を構築する。
The
また、画像処理装置3は、MDU2を介して光送受信部12bから出力された反射光信号と、光源からの光を分離して得られた参照光とを干渉させることにより、干渉光データを取得し、取得した干渉光データに基づいて光ラインデータを生成する。光ラインデータは、光送受信部12bからみた血管の深さ方向における反射光の反射強度を示すデータである。画像処理装置3は、生成した光ラインデータに基づいて血管の横断層を表したOCT画像70(図4参照)を構築する。
The
ここで、超音波送受信部12a及び光送受信部12bによって得られる超音波ラインデータ及び光ラインデータと、超音波ラインデータ及び光ラインデータから構築されるIVUS画像60及びOCT画像70について説明する。
Here, we will explain the ultrasonic line data and optical line data obtained by the ultrasonic transmission/
図3は、センサ部12を挿通させた血管の断面を模式的に示す説明図であり、図4は断層画像の説明図である。まず、図3を用いて、血管内における超音波送受信部12a及び光送受信部12bの動作と、超音波送受信部12a及び光送受信部12bによって得られる超音波ラインデータ及び光ラインデータについて説明する。
Figure 3 is an explanatory diagram showing a schematic cross-section of a blood vessel through which the
センサ部12及びシャフト13が血管内に挿通された状態で断層画像の撮像が開始されると、センサ部12が矢符で示す方向に、シャフト13の中心軸を回転中心として回転する。このとき、超音波送受信部12aは、各回転角度において超音波の送信及び受信を行う。ライン1,2,…512は各回転角度における超音波の送受信方向を示している。本実施形態では、超音波送受信部12aは、血管内において360度回動(1回転)する間に512回の超音波の送信及び受信を断続的に行う。超音波送受信部12aは、1回の超音波の送受信により、送受信方向の1ラインのデータを取得するので、1回転の間に、回転中心から放射線状に延びる512本の超音波ラインデータを得ることができる。512本の超音波ラインデータは、回転中心の近傍では密であるが、回転中心から離れるにつれて互いに疎になっていく。そこで、画像処理装置3は、各ラインの空いた空間における画素を周知の補間処理によって生成することにより、図4Aに示すような2次元のIVUS画像60を構築することができる。
When the
同様に、光送受信部12bも、各回転角度において近赤外光(測定光)の送信及び受信を行う。光送受信部12bも血管内において360度回動する間に512回の測定光の送信及び受信を行うので、1回転の間に、回転中心から放射線状に延びる512本の光ラインデータを得ることができる。光ラインデータについても、画像処理装置3は、各ラインの空いた空間における画素を周知の補間処理によって生成することにより、図4Aに示す2次元のOCT画像70を構築することができる。
Similarly, the
このように複数本の超音波ラインデータから構築される2次元の断層画像を1フレームのIVUS画像60という。また、複数本の光ラインデータから構築される2次元の断層画像を1フレームのOCT画像70という。センサ部12は血管内を移動しながら走査するため、移動範囲内において1回転した各位置で1フレームのIVUS画像60又はOCT画像70が取得される。即ち、移動範囲においてプローブ11の先端側から基端側への各位置で1フレームのIVUS画像60又はOCT画像70が取得されるので、図4Bに示すように、移動範囲内で複数フレームのIVUS画像60又はOCT画像70が取得される。
A two-dimensional tomographic image constructed from a plurality of ultrasonic line data in this manner is called one frame of
なお、1回転における超音波及び光の送受信回数は一例であり、送受信回数は512回に限定されるものではない。また、超音波の送受信回数と、光の送受信回数とは同一であっても良いし、異なっていてもよい。 Note that the number of times that ultrasonic waves and light are transmitted and received in one rotation is an example, and the number of times that transmission and reception is not limited to 512. In addition, the number of times that ultrasonic waves are transmitted and received and the number of times that light is transmitted and received may be the same or different.
OCT画像70を得るために必要な造影剤の量を最小限にするためには、センサ部12を高速でプルバックさせることが望ましい。ところが、送信された超音波が対象部位で反射され戻ってくるまでに時間を要するため、血管内検査装置101は、プルバック速度を速くした場合、送受信回数を低減させる。つまり、血管内検査装置101は、血管の所要深度における反射波を受信できるように、超音波ラインデータの取得本数を削減する。なお、近赤外光の伝播速度は十分に速いため、センサ部12の移動速度にかかわらず、光ラインデータの取得本数を維持することができる。
例えば、画像処理装置3は、センサ部12を後退させる速度が低速である場合(低速プルバック)、センサ部12が1回転する間に、512本の超音波ラインデータ及び光ラインデータを取得するところ、センサ部12を後退させる速度が高速である場合(高速プルバック)、センサ部12が1回転する間に、256本の超音波ラインデータを取得し、512本の光ラインデータを取得する。
以上の通り、血管内検査装置101及び画像処理装置3は、センサ部12の後退速度が速い場合、超音波ラインデータの取得本数を、光ラインデータの取得本数に比べて、より大きく削減させる。光ラインデータの取得本数は、維持してもよいし、削減してもよい。
In order to minimize the amount of contrast agent required to obtain the
For example, when the speed at which the
As described above, the
また、血管内検査装置101、プルバック速度を速くした場合、超音波の送受信時間を短くするように構成してもよい。この場合、撮像される血管の深さ方向が短くなる。
このようにプルバック速度を速くした場合、IVUS画像60の画質が低下する。以下、センサ部12を後退させる速度が第1速度である場合に構築される高画質のIVUS画像60を高画質IVUS画像60b、センサ部12を後退させる速度が第1速度よりも高速の第2速度である場合に構築される低画質のIVUS画像60を、低画質IVUS画像60aという。高画質IVUS画像60b及び低画質IVUS画像60aは、両者の画質を対比した場合に、一方のIVUS画像60の画質が、他方のIVUS画像60の画質に比べて高い又は低いことを意味する。高画質IVUS画像60b及び低画質IVUS画像60aを区別する必要が無い技術的特徴を説明する際は、両者を区別すること無く単にIVUS画像60と呼ぶ。
Furthermore, the
When the pullback speed is increased in this way, the image quality of the
図5は画像処理装置3の構成例を示すブロック図である。画像処理装置3はコンピュータであり、処理部31、記憶部32、超音波ラインデータ生成部33、光ラインデータ生成部34、入出力I/F35、読取部36を備える。処理部31は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、TPU(Tensor Processing Unit)等の演算処理装置を用いて構成されている。処理部31は、バスを介して画像処理装置3を構成するハードウェア各部と接続されている。
Figure 5 is a block diagram showing an example of the configuration of the
記憶部32は、例えば主記憶部及び補助記憶部を有する。主記憶部は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、処理部31が演算処理を実行するために必要なデータを一時的に記憶する。補助記憶部は、ハードディスク、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ等の記憶装置である。補助記憶部は、処理部31が実行するコンピュータプログラムP、第1学習モデル6、第2学習モデル7、画質改善学習モデル8、その他の処理に必要な各種データを記憶する。なお、補助記憶部は画像処理装置3に接続された外部記憶装置であってもよい。コンピュータプログラムPは、画像処理装置3の製造段階において補助記憶部に書き込まれてもよいし、遠隔のサーバ装置が配信するものを画像処理装置3が通信にて取得して補助記憶部に記憶させてもよい。コンピュータプログラムPは、磁気ディスク、光ディスク、半導体メモリ等の記録媒体30に読み出し可能に記録された態様であってもよく、読取部36が記録媒体30から読み出して補助記憶部に記憶させてもよい。
The
超音波ラインデータ生成部33は、血管内検査装置101の超音波送受信部12aから出力された超音波の反射波信号を反射波データとして取得し、取得した反射波データに基づいて超音波ラインデータを生成する。
The ultrasound line
光ラインデータ生成部34は、血管内検査装置101の光送受信部12bから出力された反射光信号と、光源からの光を分離して得られた参照光とを干渉させることにより、干渉光データを取得し、取得した干渉光データに基づいて光ラインデータを生成する。
The optical line
入出力I/F35は、血管内検査装置101、血管造影装置102、表示装置4及び入力装置5が接続されるインタフェースである。処理部31は、入出力I/F35を介して、血管造影装置102からアンギオ画像を取得する。また、処理部31は、入出力I/F35を介して、IVUS画像60、OCT画像70、又はアンギオ画像の医用画像信号を表示装置4へ出力することによって、表示装置4に医用画像を表示する。更に、処理部31は、入出力I/F35を介して、入力装置5に入力された情報を受け付ける。
The input/output I/
画像処理装置3は、複数のコンピュータを含んで構成されるマルチコンピュータであってよい。また、画像処理装置3は、サーバクライアントシステムや、クラウドサーバ、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。以下の説明では、画像処理装置3が1台のコンピュータであるものとして説明する。本実施形態では、画像処理装置3に、2次元のアンギオ画像を撮像する血管造影装置102が接続されているが、生体外の複数の方向から患者の管腔器官及び画像診断用カテーテル1を撮像する装置であれば、血管造影装置102に限定されない。
The
画像処理装置3の処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、超音波ラインデータ生成部33にて超音波ラインデータを生成し、生成された超音波ラインデータに基づいてIVUS画像60を構築する処理を実行する。また、処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、光ラインデータ生成部34にて光ラインデータを生成し、生成された光ラインデータに基づいてOCT画像70を構築する処理を実行する。
The
ところで、超音波送受信部12a及び光送受信部12bは、センサ部12における配置位置が異なり、超音波及び光の送受信方向も異なるため、超音波送受信部12a及び光送受信部12bが同じ撮像タイミングで血管を走査したとしても血管の観察位置及び観察方向にずれが生じる。観察位置のずれは、血管の長手方向及び走行方向のずれである。観察方向のずれは、血管の周方向におけるずれである。また、光送受信部12bにより光を送受信するためには、フラッシュ液を用いて血管内の血液を置換する必要がある。超音波の伝播速度はフラッシュ液の種類によって異なるため、超音波断層画像及び光干渉断層画像のスケールは一致しなくなる。
そこで、処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、IVUS画像60及びOCT画像70を構築する際に、IVUS画像60及びOCT画像70における観察位置及び観察方向のずれを補正すると共に、IVUS画像60及びOCT画像70のスケールを一致させる処理を実行する。このように、本実施形態の画像処理装置3は、観察位置、観察方向及びスケールを一致させたIVUS画像60及びOCT画像70を構築することができ、読影し易い画像を提供することができる。
However, since the ultrasonic transmission/
Therefore, the
また、上記した通り、OCT画像70を得るために必要な造影剤の量を最小限にするためには、センサ部12を高速でプルバックさせることが望ましく、この場合、IVUS画像60の画質が低下するという問題が生ずる。そこで、処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、低画質IVUS画像60aと、画質が低下しないOCT画像70とを用いて、高画質IVUS画像60bを生成及び構築する処理を実行する。
As described above, in order to minimize the amount of contrast agent required to obtain the
次に、超音波断層画像及び光干渉断層画像の観察位置及び観察方向のずれ補正及びスケール補正を行うために用いる第1学習モデル6及び第2学習モデル7について説明する。また低画質IVUS画像60aの画質を改善させる画質改善学習モデル8について説明する。
Next, we will explain the
図6は、第1学習モデル6の構成例を示すブロック図である。第1学習モデル6は、IVUS画像60に含まれる所定のオブジェクトを認識するモデルである。第1学習モデル6は、例えば、セマンティックセグメンテーション(Semantic Segmentation)を用いた画像認識技術を利用することにより、オブジェクトを画素単位でクラス分けすることができ、IVUS画像60に含まれる各種オブジェクトを認識することができる。具体的には、第1学習モデル6は、IVUS画像60における内腔画像(第1内腔画像)を認識する。また、第1学習モデル6は、IVUS画像60における内腔外側のオブジェクト画像(第1オブジェクト画像)、例えば血管壁画像、プラーク画像、ステント画像等を認識する。血管壁は、中膜であり、より具体的には外弾性膜(EEM)である。なお、第1学習モデル6は、センサ部12の中心位置を認識するように構成してもよい。
Figure 6 is a block diagram showing an example of the configuration of the
第1学習モデル6は、例えば深層学習による学習済みの畳み込みニューラルネットワーク(CNN:Convolutional neural network)である。第1学習モデル6は、IVUS画像60が入力される入力層6aと、IVUS画像60の特徴量を抽出し復元する中間層6bと、IVUS画像60に含まれるオブジェクト画像を画素単位で示すオブジェクト抽出IVUS画像61を出力する出力層6cとを有する。第1学習モデル6は、例えばU-Net、FCN(Fully Convolution Network)、SegNet等である。
The
第1学習モデル6の入力層6aは、IVUS画像60、つまりIVUS画像60を構成する各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層6bに受け渡す。中間層6bは、複数の畳み込み層(CONV層)と、複数の逆畳み込み層(DECONV層)とを有する。畳み込み層は、IVUS画像60を次元圧縮する層である。次元圧縮により、オブジェクト画像の特徴量が抽出される。逆畳み込み層は逆畳み込み処理を行い、元の次元に復元する。逆畳み込み層における復元処理により、各画素がオブジェクトのクラスに対応する画素値(クラスデータ)を有するオブジェクト抽出IVUS画像61が生成される。出力層6cは、オブジェクト抽出IVUS画像61を出力する複数のニューロンを有する。オブジェクト抽出IVUS画像61は、図6に示すように、内腔画像、血管壁画像、プラーク画像、ステント画像等のオブジェクトの種類毎にクラス分け、例えば色分けされたような画像である。
The
第1学習モデル6は、超音波送受信部12aにて得られるIVUS画像60と、当該IVUS画像60の各画素に、対応するオブジェクトの種類に応じたクラスデータを付与(アノテーション)したオブジェクト抽出IVUS画像61とを有する訓練データを用意し、当該訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成することができる。具体的には、訓練データのIVUS画像60を未学習のニューラルネットワークに入力した場合に出力されるオブジェクト抽出IVUS画像61と、訓練データとしてアノテーションされた画像との差分が小さくなるように、当該ニューラルネットワークのパラメータを最適化する。当該パラメータは、例えばノード間の重み(結合係数)などである。パラメータの最適化の方法は特に限定されないが、例えば処理部31は最急降下法等を用いて各種パラメータの最適化を行う。
The
このように学習された第1学習モデル6によれば、図6に示すようにIVUS画像60を第1学習モデル6に入力することによって、血管の内腔画像、血管壁画像、プラーク画像等のオブジェクトの種類に応じて各部が画素単位でクラス分けされたオブジェクト抽出IVUS画像61が得られる。
According to the
図7は、第2学習モデル7の構成例を示すブロック図である。第2学習モデル7は、OCT画像70に含まれる所定のオブジェクトを認識するモデルである。第2学習モデル7は、第1学習モデル6と同様、例えばセマンティックセグメンテーションを用いた画像認識技術を利用することにより、オブジェクトを画素単位でクラス分けすることができ、OCT画像70に含まれる各種オブジェクトを認識することができる。具体的には、第2学習モデル7は、OCT画像70における内腔画像(第2内腔画像)を認識する。また、第2学習モデル7は、OCT画像70における内腔外側のオブジェクト画像(第2オブジェクト画像)、例えば血管壁画像、プラーク画像、ステント画像等を認識する。
Figure 7 is a block diagram showing an example of the configuration of the
第2学習モデル7は、例えば深層学習による学習済みの畳み込みニューラルネットワークである。第2学習モデル7は、OCT画像70が入力される入力層7aと、OCT画像70の特徴量を抽出し復元する中間層7bと、OCT画像70に含まれるオブジェクト画像を画素単位で示すオブジェクト抽出OCT画像71を出力する出力層7cとを有する。第2学習モデル7は、例えばU-Net、FCN(Fully Convolution Network)、SegNet等である。
The
第2学習モデル7の入力層7aは、OCT画像70、つまりOCT画像70を構成する各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層7bに受け渡す。中間層7bは、複数の畳み込み層と、複数の逆畳み込み層とを有する。畳み込み層は、OCT画像70を次元圧縮する層である。次元圧縮により、オブジェクト画像の特徴量が抽出される。逆畳み込み層は逆畳み込み処理を行い、元の次元に復元する。逆畳み込み層における復元処理により、各画素がオブジェクトのクラスに対応する画素値(クラスデータ)を有するオブジェクト抽出OCT画像71が生成される。出力層7cは、オブジェクト抽出OCT画像71を出力する複数のニューロンを有する。オブジェクト抽出OCT画像71は、内腔画像、血管壁画像、プラーク画像、ステント画像等のオブジェクトの種類毎にクラス分け、例えば色分けされたような画像である。
The
第2学習モデル7は、光送受信部12bにて得られるOCT画像70と、当該OCT画像70の各画素に、対応するオブジェクトの種類に応じたクラスデータを付与(アノテーション)したオブジェクト抽出OCT画像71とを有する訓練データを用意し、当該訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成することができる。具体的には、第1学習モデル6の学習と同様、訓練データのOCT画像70を未学習のニューラルネットワークに入力した場合に出力されるオブジェクト抽出OCT画像71と、訓練データとしてアノテーションされた画像との差分が小さくなるように、当該ニューラルネットワークのパラメータを最適化する。
The
このように学習された第2学習モデル7によれば、図7に示すようにOCT画像70を第2学習モデル7に入力することによって、血管の内腔画像、血管壁画像、プラーク画像等のオブジェクトの種類に応じて各部が画素単位でクラス分けされたオブジェクト抽出OCT画像71が得られる。
According to the
図8は、画質改善学習モデル8の構成例を示すブロック図である。画質改善学習モデル8は、略同一の観察位置で撮像された低画質IVUS画像60aと、OCT画像70とに基づいて、高画質IVUS画像60bを生成するモデルである。高速プルバック時においても、OCT画像70の画質は低下しないため、画質改善学習モデル8は、低画質IVUS画像60aの情報を、OCT画像70によって補い、再構築することにより、高画質IVUS画像60bを生成することができる。
Figure 8 is a block diagram showing an example of the configuration of the image quality
画質改善学習モデル8は、例えば深層学習による学習済みの畳み込みニューラルネットワークである。画質改善学習モデル8は、低画質IVUS画像60aが入力される第1入力層81aと、OCT画像70が入力される第2入力層82aと、低画質IVUS画像60a及びOCT画像70の特徴量を抽出し復元する中間層8bと、抽出された特徴量に基づいて復元された高画質IVUS画像60bを出力する出力層8cとを有する。画質改善学習モデル8は、例えばU-Netである。
The image quality
画質改善学習モデル8の第1入力層81aは、低画質IVUS画像60a、つまりIVUS画像60を構成する各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層8bに受け渡す。第2入力層82aは、OCT画像70、つまりOCT画像70を構成する各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層8bに受け渡す。中間層8bは、複数の畳み込み層と、複数の逆畳み込み層とを有する。畳み込み層は、低画質IVUS画像60a及びOCT画像70を次元圧縮する層である。次元圧縮により、低画質IVUS画像60a及びOCT画像70の特徴量が抽出される。逆畳み込み層は逆畳み込み処理を行い、1枚の高画質IVUS画像60bを復元する。出力層8cは、高画質IVUS画像60bを出力する複数のニューロンを有する。
The
図9は、画質改善学習モデル8の生成方法を示すフローチャートである。ここでは、一例として、画像処理装置3が画質改善学習モデル8の生成を行う例を説明するが、画質改善学習モデル8の生成を行うコンピュータの種類等は特に限定されるものではない。
Figure 9 is a flowchart showing a method for generating an image quality
まず、画像処理装置3は、センサ部12を高速で後退させる高速プルバックモードに設定し、所定の血管部位の低画質IVUS画像60a及びOCT画像70を取得する(ステップS101)。高速プルバックを行った場合に得られる低画質IVUS画像60a及びOCT画像70は、略同一の観察位置で血管を走査して構築したIVUS画像60及びOCT画像70である。
そして、画像処理装置3は、センサ部12を低速で後退させる低速プルバックモードに設定し、同じ血管部位の高画質IVUS画像60bを取得する(ステップS102)。画像処理装置3は、ステップS101及びステップS102で取得した、高速プルバックを行った場合に得られる低画質IVUS画像60a及びOCT画像70と、低速プルバックを行った場合に得られる高画質IVUS画像60bとを有する訓練データとして蓄積する(ステップS103)。画像処理装置3は、ステップS101~ステップS103の処理を繰り返すことにより、多数の訓練データを蓄積する。もちろん、他の画像診断装置100により取得及び蓄積された訓練データを収集するように構成してもよい。
First, the
Then, the
なお、訓練データを構成する低画質IVUS画像60a、OCT画像70、及び高画質IVUS画像60bは、同一観察位置及び観察方向から得られた画像であることが望ましい。内腔画像を対比することにより、複数フレームの低画質IVUS画像60a及びOCT画像70の観察位置及び観察方向を整合させる方法を後述するが、当該方法を用いることにより、訓練データである低画質IVUS画像60a、OCT画像70、及び高画質IVUS画像60bの観察位置及び観察方向を合致させることができる。
It is preferable that the low-
そして、画像処理装置3は、蓄積した訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成する(ステップS104)。具体的には、訓練データの低画質IVUS画像60a及びOCT画像70を未学習のニューラルネットワークに入力した場合に出力されるIVUS画像60と、訓練データの高画質IVUS画像60bとの差分が小さくなるように、当該ニューラルネットワークのパラメータを最適化する。当該パラメータは、例えばノード間の重み(結合係数)などである。パラメータの最適化の方法は特に限定されないが、例えば処理部31は最急降下法等を用いて各種パラメータの最適化を行う。
Then, the
このように学習された画質改善学習モデル8によれば、図8に示すように、センサ部12を用いて略同一の観察位置で撮像された低画質IVUS画像60a及びOCT画像70を入力することによって、高画質IVUS画像60bが得られる。
According to the image quality
図10は、本実施形態1に係る画像処理手順を示すフローチャートである。画像処理装置3の超音波ラインデータ生成部33及び光ラインデータ生成部34は、超音波送受信部12aから出力される反射波データ、光送受信部12bから出力される反射光及び参照光の干渉により得られる干渉光データに基づいて、複数本の超音波ラインデータ及び光ラインデータを生成する(ステップS111)。複数本の超音波ラインデータ及び光ラインデータには、例えば観察時間の時系列順にライン番号が付されている。ライン番号は、観察時点に相当する。言い換えると、ライン番号は観察位置及び観察方向に相当する。
Figure 10 is a flowchart showing the image processing procedure according to the first embodiment. The ultrasonic line
次いで処理部31は、超音波ラインデータに基づいて複数フレームのIVUS画像60を構築し、光ラインデータに基づいて複数フレームのOCT画像70を構築する(ステップS112)。複数フレームのIVUS画像60及びOCT画像70には、例えば観察時間の時系列順にフレーム番号が付されている。フレーム番号は、観察位置に相当する。複数フレームのIVUS画像60及びOCT画像70は、プローブ11の先端側から基端側に亘る複数の観察位置で血管を観察して得た画像に相当する。但し、超音波送受信部12a及び光送受信部12bの配置、超音波又は光の送受信方向が異なるため、同一フレーム番号が付されたIVUS画像60及びOCT画像70の観察位置は必ずしも一致していない。言い換えると、IVUS画像60と、OCT画像70とは、血管の走行方向に位置ずれしている。また、同様の理由により、IVUS画像60と、OCT画像70とは、血管の周方向にも位置ずれしている。更に、OCT画像70を得るために血液はフラッシュ液に置換されており、フラッシュ液の種類等によって、IVUS画像60及びOCT画像70のスケールにもずれが生じている。
Next, the
なお、ステップS111及びステップS112の処理を実行する処理部31、超音波ラインデータ生成部33及び光ラインデータ生成部34は、IVUS画像60(超音波断層画像)及びOCT画像70(光干渉断層画像)を取得する取得部として機能する。
The
次いで、処理部31は、IVUS画像60を第1学習モデル6に入力することによって、IVUS画像60における内腔画像、及び内腔外側のオブジェクト画像(例えば、血管壁画像、プラーク画像、ステント画像)を認識する(ステップS113)。処理部31は、複数フレームのIVUS画像60それぞれについて、画像認識処理を実行する。なお、第1学習モデル6から出力されるオブジェクト抽出IVUS画像61には、入力したIVUS画像60と同じフレーム番号又は同様のフレーム番号が付されている。また、ステップS113の処理を実行する処理部31は、IVUS画像60における内腔画像(第1内腔画像)を認識する第1認識部として機能する。
Next, the
また、処理部31は、OCT画像70を第2学習モデル7に入力することによって、OCT画像70における内腔画像、及び内腔外側のオブジェクト画像(例えば、血管壁画像、プラーク画像、ステント画像)を認識する(ステップS114)。処理部31は、複数フレームのIVUS画像60それぞれについて、画像認識処理を実行する。なお、第2学習モデル7から出力されるオブジェクト抽出OCT画像71には、入力したOCT画像70と同じフレーム番号又は同様のフレーム番号が付されている。また、ステップS114の処理を実行する処理部31は、OCT画像70における内腔画像(第2内腔画像)を認識する第2認識部として機能する。
The
第1学習モデル6及び第2学習モデル7により認識することができるオブジェクト画像は必ずしも同一では無いが、処理部31は、少なくともIVUS画像60における内腔画像と、OCT画像70における内腔画像とを認識することができる。また、内腔画像の外側にある血管壁、プラーク、ステント等のオブジェクト画像の一部については、IVUS画像60及びOCT画像70の両画像において、共通のオブジェクト画像として認識される。
The object images that can be recognized by the
図11は、オブジェクト抽出IVUS画像61及びオブジェクト抽出OCT画像71に基づいて構築される3次元内腔画像65,75を示す説明図である。複数フレームのオブジェクト抽出IVUS画像61は、血管の走行方向の複数の観察位置における内腔領域を示しており、処理部31は、図11上図に示すように、当該複数フレームのオブジェクト抽出IVUS画像61に含まれる内腔領域の画像に基づいて、3次元内腔画像65を構成することができる。
同様に、複数フレームのオブジェクト抽出OCT画像71は、血管の走行方向の複数の観察位置における内腔領域を示しており、処理部31は、図11下図に示すように、当該複数フレームのオブジェクト抽出OCT画像71に含まれる内腔領域の画像に基づいて、3次元内腔画像75を構成することができる。
11 is an explanatory diagram showing three-
Similarly, the object
次いで、処理部31は、剛体レジストレーションにより、3次元内腔画像65,75の位置、向き及び寸法を合致させる、3次元内腔画像65の平行移動量、回転量及びスケール補正係数を特定する(ステップS115)。つまり、処理部31は、複数フレームのIVUS画像60における内腔画像と、複数フレームのOCT画像70における内腔画像とが合致するフレーム番号の対応関係を特定する。また、処理部31は、IVUS画像60における内腔画像の向きと、OCT画像70における内腔画像の向きとを合致させる、IVUS画像60の回転量を特定する。また、処理部31は、IVUS画像60における内腔部分の径方向のスケール補正量を特定する。
Next, the
図12は、剛体レジストレーションにより3次元内腔画像65,75を合致させ、観察位置、観察方向及びスケールを補正する方法を概念的に示す説明図である。図12中、上図は、オブジェクト抽出IVUS画像61に基づく3次元内腔画像65であり、下図は、オブジェクト抽出OCT画像71に基づく3次元内腔画像75である。3次元内腔画像65及び3次元内腔画像75は、観察位置と、観察方向と、血管の径方向におけるスケールがずれている。
処理部31は、例えば、上図及び中央の図に示すように剛体レジストレーションにより、オブジェクト抽出IVUS画像61に基づく3次元内腔画像65を平行移動させ、周方向に回転させ、また、血管内腔を径方向に伸縮させることによって、3次元内腔画像65,75の位置、向き及び寸法が合致する平行移動量、回転量、内腔部分のスケール補正係数を特定する。具体的には、処理部31は、3次元座標系における3次元内腔画像65と、3次元内腔画像75との類似度又は相違度を算出し、類似度が最大又は相違度が最小になる平行移動量、回転量、内腔部分のスケール補正係数を特定する。類似度としては、例えば正規化相互相関等を用いればよい。相違度としては、残差2乗和等を用いればよい。なお、処理部31は、3次元内腔画像65,75の輪郭の類似度又は相違度を算出すればよい。
Fig. 12 is an explanatory diagram conceptually showing a method of matching three-
The
図13は、IVUS画像60及びOCT画像70の対応関係及びスケールの補正方法を概念的に示す説明図である。剛体レジストレーションによる3次元内腔画像65の平行移動は、IVUS画像60のフレーム番号と、OCT画像70のフレーム画像との対応関係の補正に相当する。また、3次元内腔画像65の回転は、IVUS画像60における画像の回転処理に相当する。
13 is an explanatory diagram conceptually showing a method of correcting the correspondence and scale between the
処理部31は、IVUS画像60と、OCT画像70との対応関係を補正する(ステップS116)。つまり、同じ観察位置で撮像されたIVUS画像60のフレームと、OCT画像70のフレームとを対応付ける。具体的には、同じ観察位置で撮像されたIVUS画像60のフレーム番号と、OCT画像70のフレーム番号とを対応付ける。ステップS115で特定された平行移動量は、同じ観察位置で撮像されたIVUS画像60のフレーム番号と、OCT画像70のフレーム番号との差分に相当するため、当該差分に当たるフレーム数を加減算することによって、IVUS画像60と、OCT画像70とを対応付けることができる。なお、画像処理装置3は、平行移動量と、フレーム番号の差分との対応関係を記憶している。
The
また、処理部31は、IVUS画像60におけるオブジェクト画像の向きと、OCT画像70におけるオブジェクト画像の向きが一致するように、つまり観察方向が同一になるようにIVUS画像60の向きを補正する(ステップS117)。ステップS115で特定された回転量は、IVUS画像60と、OCT画像70の向きのずれ量、つまり回転角度のずれ量に相当するため、当該ずれ量分だけIVUS画像60を画像回転させることによって、IVUS画像60及びOCT画像70の向きを揃えることができる。
The
なお、3次元内腔画像65,75の剛体レジストレーションによる観察位置及び観察方向の補正について説明したが、3次元内腔画像65,75を構成せずに、オブジェクト抽出IVUS画像61及びオブジェクト抽出OCT画像71を直接的に比較することによって、観察位置、観察方向及びスケールを補正してもよい。
Although the correction of the observation position and observation direction by rigid registration of the three-
平行移動前においては、第nフレームのIVUS画像60と、第nフレームのOCT画像70とが対応付けられているものとする。nは1以上の整数である。処理部31は、例えば対応するフレーム番号のオブジェクト抽出IVUS画像61における内腔領域と、オブジェクト抽出OCT画像71における内腔領域との類似度又は相違度を算出する。処理部31は、所定数のオブジェクト抽出IVUS画像61及びオブジェクト抽出OCT画像71について、内腔領域の類似度又は相違度を算出する。次いで、処理部31は、第(n+α)フレームのオブジェクト抽出IVUS画像61における内腔領域と、第nフレームのオブジェクト抽出OCT画像71における内腔領域との類似度又は相違度を同様にして算出する。αは整数であり、3次元内腔画像65の平行移動量に相当する。処理部31は、変数αを1ずるインクリメントしながら、オブジェクト抽出IVUS画像61と、オブジェクト抽出OCT画像71との対応関係を検証する。
また、処理部31は、内腔領域を対比する際、オブジェクト抽出IVUS画像61における内腔領域の向きを周方向に角度補正量θだけ回転させる。角度補正量θは、3次元内腔画像65の回転量に相当する。なお、回転中心はオブジェクト抽出IVUS画像61の中心では無く、センサ部12の中心に相当する位置を中心にして回転させる。更に、処理部31は、内腔領域を対比する際、オブジェクト抽出IVUS画像61における内腔領域の径方向寸法をスケール補正係数k1により伸縮させる。処理部31は、変数αと共に、角度補正量θ及びスケール補正係数kを所定量ずつ変化させながら、オブジェクト抽出IVUS画像61及びオブジェクト抽出OCT画像71における内腔領域の類似度又は相違度を算出し、類似度が最大になる、又は相違度が最小になる変数α、角度補正量θ及びスケール補正係数k1を特定する。そして、処理部31は特定した変数α、角度補正量θ及びスケール補正係数k1を記憶する。
Before the translation, the
Furthermore, when comparing the lumen regions, the
なお、超音波送受信部12a及び光送受信部12bの配置、使用可能なフラッシュ液の特性により、一般的に内腔領域のずれ量は一定の範囲内に収まる。このため、変数α、角度補正量θ及びスケール補正係数k1それぞれについて、所定の探索範囲を設定するとよい。処理部31は、当該探索範囲において、内腔領域の類似度が最大又は相違度が最小になる変数α、角度補正量θ及びスケール補正係数k1を特定するように構成するとよい。
なお、超音波送受信部12a及び光送受信部12bの配置、超音波及び近赤外光の照射方向、血管のサイズ等により、観察位置が合致するIVUS画像60と、OCT画像70のフレーム番号は前後する可能性があるため、変数αの探索範囲は正負を含むようにするとよい。ただし、超音波送受信部12a及び光送受信部12bの配置に応じて、変数αの正側の探索範囲の広さと、負側の探索範囲の広さとを非対称にするとよい。より、効率的に変数αを特定することができる。
In addition, the amount of deviation of the lumen region generally falls within a certain range depending on the arrangement of the ultrasonic transmission/
In addition, since the frame numbers of the
次いで、処理部31は、IVUS画像60における内腔部分のスケールを補正する(ステップS118)。
Next, the
図14は、内腔部分のスケール補正方法を概念的に示す説明図である。上図は、オブジェクト抽出IVUS画像61と、補正前のIVUS画像60とを示している。下図は、オブジェクト抽出OCT画像71と、スケール補正後のIVUS画像60とを示している。処理部31は、上記した処理により、オブジェクト抽出IVUS画像61における内腔領域の寸法と、オブジェクト抽出OCT画像71における内腔領域の寸法とを比較することによって、IVUS画像60における内腔画像の寸法を、OCT画像70における内腔画像の寸法に合致させるスケール補正係数k1を特定する。補正係数k1は、IVUS画像60におけるセンサ部12に相当する部分を中心とする内腔画像における径方向の長さスケールを補正する係数である。処理部31は、IVUS画像60における内腔画像の径方向の長さを、補正係数k1を用いて線形変換することによって、スケール補正を行う。より具体的には、内腔領域にある任意のオブジェクト画像と、センサ部12の中心との距離をR1とすると、補正後のオブジェクト画像と、センサ部12の中心との距離R1’は、R1×k1で表される。処理部31はオブジェクト抽出IVUS画像61の内腔領域を補正係数k1で補正したときの輪郭と、オブジェクト抽出OCT画像71における内腔領域の輪郭とが合致する、言い換えると両輪郭の類似度が最大又は相違度が最小になる補正係数k1を求める。
そして、ステップS118において、処理部31は、求めた補正係数k1を用いて、IVUS画像60における内腔領域に対応する部位の径方向の長さスケールを補正する。ここでは内腔外側領域のスケールは補正しない。内腔領域が縮小した場合、内腔外側領域は周知の補間処理によって周方向に広げられる。内腔領域が拡大した場合、内腔外側領域は間引き処理によって周方向に狭められる。なお、内腔領域のスケール補正は、IVUSラインデータを用いて行い、スケール補正後のIVUSラインデータを用いてIVUS画像60を再構築するように構成してもよい。
FIG. 14 is an explanatory diagram conceptually showing a scale correction method for the lumen part. The upper diagram shows an object
Then, in step S118, the
次いで,処理部31は、IVUS画像60における内腔外側部分のスケールを補正する(ステップS119)。なお、ステップS115~ステップS119の処理を実行する処理部31は、観察位置、観察方向、スケール補正等の各種補正処理を行う補正部として機能する。
Next, the
図15は、内腔外側部分のスケール補正方法を概念的に示す説明図である。上図は、オブジェクト抽出IVUS画像61と、補正前のIVUS画像60とを示し、下図は、オブジェクト抽出OCT画像71と、スケール補正後のIVUS画像60とを示している。処理部31は、オブジェクト抽出IVUS画像61における内腔領域外側の任意のオブジェクト画像と、オブジェクト抽出OCT画像71における内腔領域外側の当該オブジェクト画像の寸法とを比較することによって、IVUS画像60における内腔外側のオブジェクト画像を、OCT画像70における内腔外側のオブジェクト画像の寸法に合致させるスケール補正係数k2を特定する。補正係数k2は、IVUS画像60におけるセンサ部12に相当する部分を中心とする内腔外側における径方向の長さスケールを補正する係数である。処理部31は、IVUS画像60における内腔外側の画像の径方向の長さを、補正係数k2を用いて線形変換することによって、スケール補正を行う。より具体的には、内腔領域外側にある任意のオブジェクト画像と、センサ部12の中心との距離をR2とすると、補正後のオブジェクト画像と、センサ部12の中心との距離R2’は、R1’+(R2-R1)×k2で表される。処理部31はオブジェクト抽出IVUS画像61の内腔領域を補正係数k1で補正したときの内腔外側のオブジェクト画像と、オブジェクト抽出OCT画像71における内腔外側のオブジェクト画像とが合致する、言い換えると両オブジェクト画像の類似度が最大又は相違度が最小になる補正係数k2を求める。処理部31は、求めた補正係数k2を用いて、IVUS画像60における内腔外側の部位の径方向の長さスケールを補正する。なお、内腔外側領域のスケール補正は、IVUSラインデータを用いて行い、スケール補正後のIVUSラインデータを用いてIVUS画像60を再構築するように構成してもよい。
15 is an explanatory diagram conceptually showing a method of correcting the scale of the outer part of the lumen. The upper figure shows an object
次いで、処理部31は、IVUS画像60が低画質IVUS画像60aである場合、画質改善学習モデル8を用いて、低画質IVUS画像60aの画質改善処理を実行する(ステップS120)。具体的には、図8に示すように、低画質IVUS画像60aを、画質改善学習モデル8の第1入力層81aに入力し、OCT画像70を第2入力層81bに入力することによって、高画質IVUS画像60bを生成する。なお、観察位置、観察方向及びスケールを合致させた低画質IVUS画像60a及びOCT画像70を画質改善学習モデル8に入力することによって、より正確な高画質IVUS画像60bを得ることができる。なお、ステップS120の処理を実行する処理部31は、画質改善学習モデル8を用いてIVUS画像60の画質改善を行う画質改善処理部として機能する。
Next, if the
そして、処理部31は、観察位置、観察方向及びスケール補正、並びに画質改善されたIVUS画像60及びOCT画像70を表示装置4に表示する(ステップS121)。
Then, the
なお、処理部31は、先に画質改善前の低画質IVUS画像60aを表示装置4に表示し、高画質IVUS画像60bが生成される都度、低画質IVUS画像60aを高画質IVUS画像60bに代えて表示するように構成してもよい。また、処理部31は、現在表示中の低画質IVUS画像60aから優先滴に画質改善処理を実行するとよい。
The
以上の通り、本実施形態1に係る画像処理装置3等によれば、IVUS機能及びOCT機能を備えるデュアルタイプのカテーテルを用いて得られたIVUS画像60及びOCT画像70の観察位置及び観察方向を整合させることができる。
As described above, the
IVUS機能及びOCT機能を備えるデュアルタイプのカテーテルを用いて得られたIVUS画像60及びOCT画像70のスケール、特に径方向スケールを整合させることができる。
The scale, particularly the radial scale, of the
更に、高速プルバック時においても高画質IVUS画像60bを構築することができる。具体的には、低画質IVUS画像60a及びOCT画像70に基づいて、高画質IVUS画像60bを構築することができる。従って、IVUS機能及びOCT機能を備えるデュアルタイプのカテーテルを用いたIVUS画像60及びOCT画像70の撮像高速化及び造影剤低減と、高画質化とを両立することができる。
Furthermore, a high-
なお、本実施形態1では、第1学習モデル6及び第2学習モデル7を用いて、IVUS画像60及びOCT画像70における内腔画像を認識する例を説明したが、2値化、エッジ検出、パターンマッチング等の画像処理によって、内腔画像の輪郭を抽出するようにしてもよい。
In the first embodiment, an example of recognizing an intraluminal image in an
また、IVUS画像60における内腔部分と、内腔外側部分とを異なる補正係数でスケール補正する例を説明したが、内腔部分のみ、径方向のスケールを補正するように構成してもよい。
更に、一つのスケール補正係数k1を用いて、全てのIVUS画像60における内腔画像のスケール補正を行う例を説明したが、連続する所定フレーム枚数毎に補正係数k1を特定し、IVUS画像60における内腔画像のスケールを補正するように構成してもよい。
Also, an example has been described in which the scale correction is performed using different correction coefficients for the lumen portion and the lumen outer portion in the
Furthermore, although an example has been described in which one scale correction coefficient k1 is used to perform scale correction of the lumen images in all
更に、IVUS画像60及びOCT画像70の観察位置、観察方向の補正及び径方向のスケール補正を行う例を説明したが、観察位置及び観察方向の補正、径方向のスケール補正のいずれか一つ又は2つを実行するように構成してもよい。
Furthermore, although an example of performing correction of the observation position, observation direction, and radial scale correction of the
更にまた、本実施形態では、3次元内腔画像65,75の平行移動量、回転量及びスケール補正量を特定する例を説明したが、スケール補正係数を特定しない場合、平行移動量及び回転量のみを特定するように構成してもよい。なお、3次元内腔画像65,75平行移動、回転、拡大又は縮小を行う線形変換を主に説明したが、高次多項式、その他の非線形変換により、3次元内腔画像65,75を整合させる補正量を算出するように構成してもよい。
Furthermore, in the present embodiment , an example has been described in which the translation amount, rotation amount, and scale correction amount of the three-
更にまた、観察位置及び観察方向を合致させ、及びスケール補正を行った低画質IVUS画像60aと、OCT画像70とを用いて、IVUS画像60の画質改善を行う例を説明したが、かかる補正を行わずに、低画質IVUS画像60aと、OCT画像70を画質改善学習モデル8に入力することによって、高画質IVUS画像60bを生成するように構成してもよい。
Furthermore, an example has been described in which the image quality of the
更にまた、本実施形態1では、OCT画像70を基準にしてIVUS画像60の向き及びスケールを補正する例を説明したが、IVUS画像60を基準にしてOCT画像70の向き及びスケールを補正するように構成してもよい。
具体的には、ステップS115において、処理部31は、IVUS画像60における内腔画像の向きと、OCT画像70における内腔画像の向きとを合致させる、OCT画像70の回転量を特定する。また、処理部31は、OCT画像70における内腔部分の径方向のスケール補正量を特定する。処理部31は、例えば、剛体レジストレーションにより、オブジェクト抽出OCT画像71に基づく3次元内腔画像75を平行移動させ、周方向に回転させ、また、血管内腔を径方向に伸縮させることによって、3次元内腔画像65,75の位置、向き及び寸法が合致する平行移動量、回転量、内腔部分のスケール補正係数を特定する。
そして、処理部31は、ステップS117において、IVUS画像60におけるオブジェクト画像の向きと、OCT画像70におけるオブジェクト画像の向きが一致するように、つまり観察方向が同一になるようにOCT画像70の向きを補正する。また、処理部31は、ステップS118において、OCT画像70における内腔部分のスケールを補正し、ステップS119において、OCT画像70における内腔外側部分のスケールを補正する。
Furthermore, in this
Specifically, in step S115, the
Then, in step S117, the
更にまた、IVUS画像60及びOCT画像70以外の第3の医用画像がある場合、当該医用画像を基準に、IVUS画像60及びOCT画像70の観察位置、観察方向、スケールが互いに整合するようにIVUS画像60及びOCT画像70の双方を補正するように構成してもよい。
Furthermore, if there is a third medical image other than the
(実施形態2)
実施形態2に係る画像診断装置100は、超音波ラインデータ及び光ラインデータベースで、観察位置、観察方向及びスケールの補正を行う点が実施形態1と異なる。画像処理装置3のその他の構成は、実施形態1に係る画像処理装置3と同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。
(Embodiment 2)
The image
図16は、実施形態2に係る画像処理手順を示すフローチャートである。処理部31は、実施形態1と同様にして、超音波ラインデータ及び光ラインデータを生成する(ステップS211)。そして、処理部31は、超音波ラインデータ及び光ラインデータを用いて、内腔画像、血管壁画像、プラーク及びステント等の画像認識を行う(ステップS212、ステップS213)。
なお、第1学習モデル6及び第2学習モデル7は、フレーム画像として構築されたIVUS画像60及びOCT画像70のフレーム画像では無く、1フレームを構成する超音波ラインデータ及び光ラインデータを訓練データとして学習している。つまり、1フレームを構成する超音波ラインデータを並べた画像は、第1軸を周方向、第2軸を深さ方向とする極座標で表したような画像である。第1学習モデル6に1フレームを構成する超音波ラインデータが入力された場合、オブジェクト画像が抽出されたオブジェクト抽出超音波ラインデータが出力される。同様に、第2学習モデル7に1フレームを構成するOCTラインデータが入力された場合、オブジェクト画像が抽出されたオブジェクト抽出OCTラインデータが出力される。
16 is a flowchart showing an image processing procedure according to
In addition, the
次いで、処理部31は、実施形態1と同様の観察位置、観察方向及びスケールの補正をラインデータ単位で実行する(ステップS214~ステップS218)。なお、ステップS215、ステップS216の処理は一の処理で実行するとよい。処理部31は補正後の超音波ラインデータ及び光ラインデータに基づいて、IVUS画像60及びOCT画像70を構築する(ステップS219)。ステップS220及びステップS221の処理は実施形態1と同様である。
Then, the
図17は、超音波ラインデータ及び光ラインデータの対応関係の補正方法を示す説明図である。上図は超音波ラインデータを示す模式図、下図は光ラインセンサを示す模式図である。処理部31は、実施形態1と同様、平行移動前においては、第nラインの超音波ラインデータと、第nラインの光ラインデータとが対応付けられているものとする。nは1以上の整数である。処理部31は、例えば対応する第nライン~第mラインのオブジェクト抽出超音波ラインデータにおける内腔領域と、オブジェクト抽出光ラインデータにおける内腔領域との類似度又は相違度を算出する。mはnより大きな整数である。次いで、処理部31は、第(n+β)ライン~第(m+β)の超音波ラインデータにおける内腔領域と、第nライン~第mラインのオブジェクト抽出光ラインデータにおける内腔領域との類似度又は相違度を同様にして算出する。変数βは1以上の整数であり、3次元内腔画像65の平行移動量及び回転量に相当する。変数βを1ずつインクリメントしながら、超音波ラインデータ及び光ラインデータの対応関係を検証する。そして、処理部31は、類似度が最大になる、又は相違度が最小になる変数βを特定する。そして、処理部31は特定した変数βを記憶する。
17 is an explanatory diagram showing a method of correcting the correspondence between ultrasound line data and light line data. The upper figure is a schematic diagram showing ultrasound line data, and the lower figure is a schematic diagram showing a light line sensor. As in the first embodiment, the
図18は、超音波ラインデータ及び光ラインデータのスケール補正方法を示す説明図である。オブジェクト抽出超音波ラインデータにおける内腔領域の輪郭と、光ラインデータにおける内腔領域の輪郭とが合致するように、超音波ラインデータの内腔画像の寸法に合致させるスケール補正係数k1を特定する。同様にして、オブジェクト抽出超音波ラインデータにおける内腔外側のオブジェクト領域の寸法と、オブジェクト抽出光ラインデータにおける内腔外側のオブジェクト領域の寸法とが合致するように、超音波ラインデータの内腔外側のスケール補正係数k2を特定する。処理部31は、求めた補正係数k1を用いて、超音波ラインデータにおける内腔領域に対応する部位の径方向の長さスケールを補正する。また、処理部31は、補正係数k2を用いて、超音波ラインデータにおける内腔外側の領域に対応する部位の径方向の長さスケールを補正する。
Figure 18 is an explanatory diagram showing a method of correcting the scale of ultrasound line data and light line data. A scale correction coefficient k1 is specified to match the dimensions of the lumen image of the ultrasound line data so that the contour of the lumen region in the object extraction ultrasound line data matches the contour of the lumen region in the light line data. Similarly, a scale correction coefficient k2 for the outside of the lumen of the ultrasound line data is specified so that the dimensions of the object region outside the lumen in the object extraction ultrasound line data match the dimensions of the object region outside the lumen in the object extraction light line data. The
本実施形態2に係る画像処理装置3等によれば、実施形態1と同様、デュアルタイプのカテーテルを用いて得られたIVUS画像60及びOCT画像70の観察位置、観察方向を整合させることができ、更にスケールを整合させることができる。
According to the
超音波ラインデータ及び超音波ラインデータに対する画像処理によって、観察位置、観察方向及びスケールを補正し、IVUS画像60及びOCT画像70を構築するため、より正確に効率良く補正を行い、IVUS画像60及びOCT画像70を構築することができる。
By performing image processing on the ultrasound line data and the ultrasound line data, the observation position, observation direction, and scale are corrected to construct the
なお、実施形態2においては、光ラインデータベースを基準にして、超音波ラインデータのスケールを補正する例を説明したが、超音波ラインデータを基準にして光ラインデータベースのスケールを補正するように構成してもよい。 In the second embodiment, an example is described in which the scale of the ultrasound line data is corrected based on the optical line database, but the scale of the optical line database may be corrected based on the ultrasound line data.
1 画像診断用カテーテル
2 MDU
3 画像処理装置
4 表示装置
5 入力装置
6 第1学習モデル
7 第2学習モデル
8 画質改善学習モデル
11 プローブ
11a
12 センサ部
12a 超音波送受信部
12b 光送受信部
12c ハウジング
13 シャフト
14 ガイドワイヤ挿通部
15 コネクタ部
30 記録媒体
31 処理部
32 記憶部
33 超音波ラインデータ生成部
34 光ラインデータ生成部
60 IVUS画像
60a 低画質IVUS画像
60b 高画質IVUS画像
61 オブジェクト抽出IVUS画像
65 3次元内腔画像
70 OCT画像
71 オブジェクト抽出OCT画像
75 3次元内腔画像
100 画像診断装置
101 血管内検査装置
102 血管造影装置
1
12
Claims (8)
取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識し、
取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識し、
認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像の輪郭と、前記第2内腔画像の輪郭との寸法が整合するように、前記第1内腔画像の輪郭より径方向内側における前記超音波断層画像のスケール又は前記第2内腔画像の輪郭より径方向内側における前記光干渉断層画像のスケールを補正する
処理をコンピュータに実行させるためのコンピュータプログラム。 While the blood in the hollow organ, which is a blood vessel, is being replaced with a flushing liquid , an ultrasonic tomographic image and an optical coherence tomographic image are acquired by a sensor unit having an ultrasonic transceiver unit that transmits and receives ultrasonic waves from the inner cavity of the hollow organ toward the outside in the radial direction and an optical transceiver unit that transmits and receives light,
Recognizing a first lumen image of the tubular organ included in the acquired ultrasonic tomographic image;
Recognizing a second lumen image of the tubular organ included in the acquired optical coherence tomographic image;
A computer program for causing a computer to execute a process of correcting the scale of the ultrasound tomographic image radially inward from the contour of the first lumen image or the scale of the optical coherence tomographic image radially inward from the contour of the second lumen image so that dimensions of the contour of the first lumen image and the contour of the second lumen image are consistent based on the recognized first lumen image and second lumen image.
取得した前記光干渉断層画像に含まれる前記第2内腔画像より前記径方向の外側に位置する前記所定オブジェクトの第2オブジェクト画像を認識し、
認識した前記第1オブジェクト画像及び前記第2オブジェクト画像に基づいて、前記第1オブジェクト画像及び前記第2オブジェクト画像の寸法が整合するように、前記第1内腔画像より径方向外側における前記超音波断層画像のスケール又は前記第2内腔画像より径方向外側における前記光干渉断層画像のスケールを補正する
処理をコンピュータに実行させるための請求項1に記載のコンピュータプログラム。 Recognizing a first object image of a predetermined object located radially outward from the first lumen image included in the acquired ultrasonic tomographic image;
Recognizing a second object image of the predetermined object located radially outward from the second lumen image included in the acquired optical coherence tomographic image;
The computer program of claim 1 , which causes a computer to execute a process of correcting the scale of the ultrasound tomographic image radially outward from the first lumen image or the scale of the optical coherence tomographic image radially outward from the second lumen image so that the dimensions of the first object image and the second object image are consistent based on the recognized first object image and second object image.
前記光干渉断層画像に含まれる前記第2内腔画像を認識する第2学習モデルに、取得した前記光干渉断層画像を入力することによって、前記光干渉断層画像における前記第2内腔画像を認識する
処理をコンピュータに実行させるための請求項1又は請求項2に記載のコンピュータプログラム。 The first lumen image in the ultrasonic tomographic image is recognized by inputting the acquired ultrasonic tomographic image into a first learning model that recognizes the first lumen image included in the ultrasonic tomographic image;
The computer program of claim 1 or claim 2, which causes a computer to execute a process of recognizing the second intraluminal image in the optical coherence tomographic image by inputting the acquired optical coherence tomographic image into a second learning model that recognizes the second intraluminal image included in the optical coherence tomographic image.
前記光干渉断層画像に含まれる前記第2内腔画像と、前記第2内腔画像より前記径方向の外側に位置する前記第2オブジェクト画像とを認識する第2学習モデルに、取得した前記光干渉断層画像を入力することによって、前記光干渉断層画像における前記第2内腔画像及び前記第2オブジェクト画像を認識する
処理をコンピュータに実行させるための請求項2に記載のコンピュータプログラム。 The acquired ultrasonic tomographic image is input to a first learning model that recognizes the first lumen image included in the ultrasonic tomographic image and the first object image located radially outward from the first lumen image, thereby recognizing the first lumen image and the first object image in the ultrasonic tomographic image;
The computer program of claim 2, which causes a computer to execute a process of recognizing the second lumen image and the second object image in the optical coherence tomographic image by inputting the acquired optical coherence tomographic image into a second learning model that recognizes the second lumen image included in the optical coherence tomographic image and the second object image located radially outside the second lumen image.
複数の前記超音波断層画像に含まれる前記第1内腔画像と、複数の前記光干渉断層画像に含まれる前記第2内腔画像とを比較することによって、略同一の観察位置の断層像である前記超音波断層画像及び前記光干渉断層画像を特定し、
特定された前記超音波断層画像及び前記光干渉断層画像に含まれる前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像及び前記第2内腔画像の寸法が整合するように、前記超音波断層画像又は前記光干渉断層画像の前記径方向におけるスケールを補正する
処理をコンピュータに実行させるための請求項1から請求項4のいずれか1項に記載のコンピュータプログラム。 a plurality of the ultrasonic tomographic images and a plurality of the optical coherence tomographic images are acquired while moving the sensor unit along a running direction of the tubular organ;
By comparing the first lumen image included in the plurality of ultrasonic tomographic images with the second lumen image included in the plurality of optical coherence tomographic images, the ultrasonic tomographic images and the optical coherence tomographic images which are tomographic images at substantially the same observation position are identified;
The computer program of claim 1 , which causes a computer to execute a process of correcting the radial scale of the ultrasonic tomographic image or the optical coherence tomographic image so that the dimensions of the first lumen image and the second lumen image are consistent based on the first lumen image and the second lumen image contained in the identified ultrasonic tomographic image and the optical coherence tomographic image.
処理をコンピュータに実行させるための請求項5に記載のコンピュータプログラム。 The computer program of claim 5, which causes a computer to execute a process of correcting the scale so that the dimensions of the three-dimensional lumen image are consistent by rigid registration of a three-dimensional lumen image based on the recognized first lumen image and a three-dimensional lumen image based on the recognized second lumen image.
前記画像処理装置は、
血管である管腔器官の血液がフラッシュ液で置換されている間に、前記管腔器官の内腔から径方向の外側を向いて超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部によって得られるデータから構築される超音波断層画像及び光干渉断層画像を取得し、
取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識し、
取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識し、
認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像の輪郭と、前記第2内腔画像の輪郭との寸法が整合するように、前記第1内腔画像の輪郭より径方向内側における前記超音波断層画像のスケール又は前記第2内腔画像の輪郭より径方向内側における前記光干渉断層画像のスケールを補正する
画像処理装置の作動方法。 1. A method of operating an image processing device, comprising:
The image processing device includes:
While the blood in the tubular organ, which is a blood vessel, is being replaced with a flushing liquid , an ultrasonic tomographic image and an optical coherence tomographic image are constructed from data obtained by a sensor unit having an ultrasonic transceiver unit that transmits and receives ultrasonic waves from the inner cavity of the tubular organ toward the outside in the radial direction and an optical transceiver unit that transmits and receives light,
Recognizing a first lumen image of the tubular organ included in the acquired ultrasonic tomographic image;
Recognizing a second lumen image of the tubular organ included in the acquired optical coherence tomographic image;
A method for operating an image processing device, comprising: correcting, based on the recognized first and second lumen images, the scale of the ultrasound tomographic image radially inward from the contour of the first lumen image or the scale of the optical coherence tomographic image radially inward from the contour of the second lumen image so that dimensions of the contour of the first lumen image and the contour of the second lumen image are consistent.
前記取得部にて取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識する第1認識部と、
前記取得部にて取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識する第2認識部と、
前記第1認識部及び前記第2認識部にて認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像の輪郭と、前記第2内腔画像の輪郭との寸法が整合するように、前記第1内腔画像の輪郭より径方向内側における前記超音波断層画像のスケール又は前記第2内腔画像の輪郭より径方向内側における前記光干渉断層画像のスケールを補正する補正部と
を備える画像処理装置。 an acquisition unit that acquires ultrasonic tomographic images and optical coherence tomographic images using a sensor unit having an ultrasonic transmission/reception unit that transmits and receives ultrasonic waves from the inner cavity of the tubular organ toward the outside in the radial direction while the blood in the tubular organ, which is a blood vessel, is being replaced with a flushing liquid;
a first recognition unit that recognizes a first lumen image of the tubular organ included in the ultrasonic tomographic image acquired by the acquisition unit;
a second recognition unit that recognizes a second lumen image of the tubular organ included in the optical coherence tomographic image acquired by the acquisition unit;
and a correction unit that corrects the scale of the ultrasonic tomographic image radially inward from the contour of the first lumen image or the scale of the optical coherence tomographic image radially inward from the contour of the second lumen image based on the first lumen image and the second lumen image recognized by the first recognition unit and the second recognition unit so that dimensions of the contour of the first lumen image and the contour of the second lumen image are consistent.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021047674A JP7623175B2 (en) | 2021-03-22 | 2021-03-22 | Computer program, operation method of image processing device, and image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021047674A JP7623175B2 (en) | 2021-03-22 | 2021-03-22 | Computer program, operation method of image processing device, and image processing device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2022146619A JP2022146619A (en) | 2022-10-05 |
| JP7623175B2 true JP7623175B2 (en) | 2025-01-28 |
Family
ID=83461625
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021047674A Active JP7623175B2 (en) | 2021-03-22 | 2021-03-22 | Computer program, operation method of image processing device, and image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7623175B2 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014041579A1 (en) | 2012-09-11 | 2014-03-20 | テルモ株式会社 | Image diagnosis device and image processing method |
| WO2014049641A1 (en) | 2012-09-26 | 2014-04-03 | テルモ株式会社 | Diagnostic imaging device, information processing device, and method for controlling diagnostic imaging device and information processing device |
| JP2014180575A (en) | 2013-03-15 | 2014-09-29 | Lightlab Imaging Inc | Method for bringing probe, system, and image into registration (probe) |
| WO2014162367A1 (en) | 2013-04-05 | 2014-10-09 | テルモ株式会社 | Image diagnosis device and program |
| WO2020217860A1 (en) | 2019-04-26 | 2020-10-29 | テルモ株式会社 | Diagnostic assistance device and diagnostic assistance method |
-
2021
- 2021-03-22 JP JP2021047674A patent/JP7623175B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014041579A1 (en) | 2012-09-11 | 2014-03-20 | テルモ株式会社 | Image diagnosis device and image processing method |
| WO2014049641A1 (en) | 2012-09-26 | 2014-04-03 | テルモ株式会社 | Diagnostic imaging device, information processing device, and method for controlling diagnostic imaging device and information processing device |
| JP2014180575A (en) | 2013-03-15 | 2014-09-29 | Lightlab Imaging Inc | Method for bringing probe, system, and image into registration (probe) |
| WO2014162367A1 (en) | 2013-04-05 | 2014-10-09 | テルモ株式会社 | Image diagnosis device and program |
| US20160095577A1 (en) | 2013-04-05 | 2016-04-07 | Terumo Kabushiki Kaisha | Imaging apparatus for diagnosis and program |
| WO2020217860A1 (en) | 2019-04-26 | 2020-10-29 | テルモ株式会社 | Diagnostic assistance device and diagnostic assistance method |
| JP7379473B2 (en) | 2019-04-26 | 2023-11-14 | テルモ株式会社 | Diagnosis support device and diagnosis support method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022146619A (en) | 2022-10-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20240013385A1 (en) | Medical system, method for processing medical image, and medical image processing apparatus | |
| WO2014136137A1 (en) | Diagnostic imaging apparatus, information processing device and control methods, programs and computer-readable storage media therefor | |
| WO2022071264A1 (en) | Program, model generation method, information processing device, and information processing method | |
| WO2022071265A1 (en) | Program, information processing device, and information processing method | |
| WO2021199968A1 (en) | Computer program, information processing method, information processing device, and method for generating model | |
| US20240013386A1 (en) | Medical system, method for processing medical image, and medical image processing apparatus | |
| WO2023189308A1 (en) | Computer program, image processing method, and image processing device | |
| JP7607482B2 (en) | COMPUTER PROGRAM, IMPROVING LEARNING MODEL FOR IMPROVING IMAGE QUALITY, LEARNING MODEL GENERATION METHOD, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING APPARATUS | |
| US20240013514A1 (en) | Information processing device, information processing method, and program | |
| JP7686525B2 (en) | COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS | |
| WO2023054467A1 (en) | Model generation method, learning model, computer program, information processing method, and information processing device | |
| JP2022055170A (en) | Computer program, image processing method and image processing device | |
| WO2023054442A1 (en) | Computer program, information processing device, and information processing method | |
| JP7623175B2 (en) | Computer program, operation method of image processing device, and image processing device | |
| JP7548852B2 (en) | Computer program, image processing method and image processing device | |
| US20240346653A1 (en) | Information processing method, information processing apparatus, and program | |
| WO2023132332A1 (en) | Computer program, image processing method, and image processing device | |
| US20240016460A1 (en) | Program, image processing method, and image processing device | |
| US20240013434A1 (en) | Program, information processing method, and information processing device | |
| WO2023189261A1 (en) | Computer program, information processing device, and information processing method | |
| WO2022209652A1 (en) | Computer program, information processing method, and information processing device | |
| JP2024139509A (en) | PROGRAM, IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS AND MODEL GENERATION METHOD | |
| US20240008849A1 (en) | Medical system, method for processing medical image, and medical image processing apparatus | |
| US20250248664A1 (en) | Image diagnostic system and method | |
| JP7680325B2 (en) | COMPUTER PROGRAM, INFORMATION PROCESSING APPARATUS, AND INFORMATION PROCESSING METHOD |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231013 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240426 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240514 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240716 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240820 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241011 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241112 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241203 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241224 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250116 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7623175 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |