[go: up one dir, main page]

JP7623175B2 - Computer program, operation method of image processing device, and image processing device - Google Patents

Computer program, operation method of image processing device, and image processing device Download PDF

Info

Publication number
JP7623175B2
JP7623175B2 JP2021047674A JP2021047674A JP7623175B2 JP 7623175 B2 JP7623175 B2 JP 7623175B2 JP 2021047674 A JP2021047674 A JP 2021047674A JP 2021047674 A JP2021047674 A JP 2021047674A JP 7623175 B2 JP7623175 B2 JP 7623175B2
Authority
JP
Japan
Prior art keywords
image
lumen
ultrasonic
ivus
optical coherence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021047674A
Other languages
Japanese (ja)
Other versions
JP2022146619A (en
Inventor
悠介 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terumo Corp
Original Assignee
Terumo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terumo Corp filed Critical Terumo Corp
Priority to JP2021047674A priority Critical patent/JP7623175B2/en
Publication of JP2022146619A publication Critical patent/JP2022146619A/en
Application granted granted Critical
Publication of JP7623175B2 publication Critical patent/JP7623175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、コンピュータプログラム、画像処理方法及び画像処理装置に関する。 The present invention relates to a computer program, an image processing method, and an image processing device.

従来より、動脈硬化の診断、バルーンカテーテル若しくはステント等の高機能カテーテルによる血管内治療時の術前診断、又は術後の結果確認のために、画像診断装置が広く使用されている。画像診断装置には、超音波断層画像診断装置(IVUS:IntraVascular Ultra Sound)、光干渉断層画像診断装置(OCT:Optical Coherence Tomography)等が含まれ、それぞれが異なる特性を有している。
また、IVUSの機能と、OCTの機能とを組み合わせた画像診断装置、つまり超音波を送受信可能な超音波送受信部と、光を送受信可能な光送受信部とを備える画像診断装置が提案されている(例えば、特許文献1及び2)。
このような画像診断装置によれば、高深度領域まで測定できるIVUSの特性を活かした超音波断層画像と、高分解能で測定できるOCTの特性を活かした光干渉断層画像の両方を、一回の走査で構築することができる。
Conventionally, imaging diagnostic devices have been widely used for the diagnosis of arteriosclerosis, preoperative diagnosis during intravascular treatment using high-performance catheters such as balloon catheters or stents, or postoperative result confirmation. Imaging diagnostic devices include intravascular ultrasound imaging devices (IVUS: IntraVascular Ultrasound), optical coherence tomography imaging devices (OCT: Optical Coherence Tomography), etc., each of which has different characteristics.
In addition, an imaging diagnostic device that combines the functions of IVUS and OCT has been proposed, that is, an imaging diagnostic device that has an ultrasound transceiver unit capable of transmitting and receiving ultrasound and an optical transceiver unit capable of transmitting and receiving light (for example, Patent Documents 1 and 2).
With this type of imaging diagnostic device, it is possible to construct both an ultrasound tomographic image that takes advantage of IVUS's ability to measure deep areas, and an optical coherence tomographic image that takes advantage of OCT's ability to measure at high resolution, with a single scan.

特開平11-56752号公報Japanese Patent Application Publication No. 11-56752 特表2010-508973号公報Special Publication No. 2010-508973 再表2014/162367号公報Re-table 2014/162367 publication

しかしながら、構築される超音波断層画像及び光干渉断層画像のスケールは必ずしも一致しておらず、断層画像の読影を難しくする一因となっている。 However, the scale of the constructed ultrasound tomographic images and optical coherence tomographic images do not always match, which makes it difficult to interpret the tomographic images.

機器の特性を記憶しておき、超音波断層画像及び光干渉断層画像のスケールを一致させることも考えられる。しかし、光送受信部により光を送受信するためには、フラッシュ液を用いて血管内の血液を置換する必要があり、超音波送受信部から出力される超音波は、血液では無くフラッシュ液中を伝播する。超音波の伝播速度はフラッシュ液の種類によって異なるため、超音波断層画像及び光干渉断層画像のスケールは一致しなくなる。フラッシュ液の種類及び濃度等は一意に定まるものでは無く、患者の状態に応じて、変更されることもある。このため、フラッシュ液の種類に応じた超音波の伝播速度の補正処理にも限界があり、超音波断層画像及び光干渉断層画像のスケールを一致させることはできない。また、超音波の伝播速度の設定を誤ると、スケールが一致しない超音波断層画像及び光干渉断層画像が構築されることになる。 It is also possible to store the characteristics of the device and match the scale of the ultrasound tomographic image and the optical coherence tomographic image. However, in order to transmit and receive light using the optical transmitting and receiving unit, it is necessary to replace the blood in the blood vessels using a flushing liquid, and the ultrasound output from the ultrasound transmitting and receiving unit propagates through the flushing liquid rather than through the blood. Since the propagation speed of the ultrasound differs depending on the type of flushing liquid, the scale of the ultrasound tomographic image and the optical coherence tomographic image will not match. The type and concentration of the flushing liquid are not uniquely determined, and may be changed depending on the patient's condition. For this reason, there is a limit to the correction process of the propagation speed of the ultrasound according to the type of flushing liquid, and it is not possible to match the scale of the ultrasound tomographic image and the optical coherence tomographic image. Furthermore, if the propagation speed of the ultrasound is set incorrectly, ultrasound tomographic images and optical coherence tomographic images with inconsistent scales will be constructed.

一つの側面では、IVUS機能及びOCT機能を備えるデュアルタイプのカテーテルを用いて得られた超音波断層画像及び光干渉断層画像のスケールを整合させることができるコンピュータプログラム、画像処理方法及び画像処理装置を提供することを目的とする。 In one aspect, the present invention aims to provide a computer program, an image processing method, and an image processing device that can align the scale of ultrasound tomographic images and optical coherence tomographic images obtained using a dual-type catheter equipped with IVUS and OCT functions.

一つの側面では、コンピュータプログラムは、管腔器官の内腔から径方向の外側を向いて超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部にて超音波断層画像及び光干渉断層画像を取得し、取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識し、取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識し、認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像及び前記第2内腔画像の寸法が整合するように、前記超音波断層画像又は前記光干渉断層画像の前記径方向におけるスケールを補正する処理をコンピュータに実行させる。 In one aspect, the computer program causes the computer to execute a process of acquiring an ultrasonic tomographic image and an optical coherence tomographic image using a sensor unit having an ultrasonic transceiver unit that transmits and receives ultrasonic waves from the inner cavity of a tubular organ in a radially outward direction and an optical transceiver unit that transmits and receives light, recognizing a first inner lumen image of the tubular organ included in the acquired ultrasonic tomographic image, recognizing a second inner lumen image of the tubular organ included in the acquired optical coherence tomographic image, and correcting the scale of the ultrasonic tomographic image or the optical coherence tomographic image in the radial direction based on the recognized first inner lumen image and second inner lumen image so that the dimensions of the first inner lumen image and the second inner lumen image are consistent.

一つの側面では、画像処理方法は、管腔器官の内腔から径方向の外側を向いて超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部にて超音波断層画像及び光干渉断層画像を取得し、取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識し、取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識し、認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像及び前記第2内腔画像の寸法が整合するように、前記超音波断層画像又は前記光干渉断層画像の前記径方向におけるスケールを補正する。 In one aspect, the image processing method acquires ultrasonic tomographic images and optical coherence tomographic images using a sensor unit having an ultrasonic transceiver unit that transmits and receives ultrasonic waves from the inner cavity of a tubular organ toward the outside in the radial direction and an optical transceiver unit that transmits and receives light, recognizes a first lumen image of the tubular organ contained in the acquired ultrasonic tomographic images, recognizes a second lumen image of the tubular organ contained in the acquired optical coherence tomographic images, and corrects the radial scale of the ultrasonic tomographic images or the optical coherence tomographic images based on the recognized first lumen image and second lumen image so that the dimensions of the first lumen image and the second lumen image are consistent.

一つの側面では、画像処理装置は、管腔器官の内腔から径方向の外側を向いて超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部にて超音波断層画像及び光干渉断層画像を取得する取得部と、前記取得部にて取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識する第1認識部と、前記取得部にて取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識する第2認識部と、前記第1認識部及び前記第2認識部にて認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像及び前記第2内腔画像の寸法が整合するように、前記超音波断層画像又は前記光干渉断層画像の前記径方向におけるスケールを補正する補正部とを備える。 In one aspect, the image processing device includes an acquisition unit that acquires ultrasonic tomographic images and optical coherence tomographic images using a sensor unit having an ultrasonic transceiver that transmits and receives ultrasonic waves from the inner cavity of a tubular organ toward the outside in the radial direction and an optical transceiver that transmits and receives light, a first recognition unit that recognizes a first lumen image of the tubular organ included in the ultrasonic tomographic image acquired by the acquisition unit, a second recognition unit that recognizes a second lumen image of the tubular organ included in the optical coherence tomographic image acquired by the acquisition unit, and a correction unit that corrects the scale of the ultrasonic tomographic image or the optical coherence tomographic image in the radial direction based on the first lumen image and the second lumen image recognized by the first recognition unit and the second recognition unit so that the dimensions of the first lumen image and the second lumen image are consistent.

一つの側面では、IVUS機能及びOCT機能を備えるデュアルタイプのカテーテルを用いて得られた超音波断層画像及び光干渉断層画像のスケールを整合させることができる。 In one aspect, the scale of ultrasound tomographic images and optical coherence tomographic images obtained using a dual-type catheter equipped with IVUS and OCT functions can be matched.

画像診断装置の構成例を示す説明図である。FIG. 1 is an explanatory diagram showing an example of the configuration of an image diagnostic apparatus. 画像診断用カテーテルの構成例を示す説明図である。FIG. 2 is an explanatory diagram showing an example of the configuration of a catheter for diagnostic imaging. センサ部を挿通させた血管の断面を模式的に示す説明図である。1 is an explanatory diagram illustrating a cross section of a blood vessel through which a sensor portion is inserted; FIG. 断層画像の説明図である。FIG. 画像処理装置の構成例を示すブロック図である。FIG. 1 is a block diagram showing an example of the configuration of an image processing device. 第1学習モデルの構成例を示すブロック図である。A block diagram showing an example configuration of a first learning model. 第2学習モデルの構成例を示すブロック図である。A block diagram showing an example configuration of a second learning model. 画質改善学習モデルの構成例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of an image quality improvement learning model. 画質改善学習モデルの生成方法を示すフローチャートである。1 is a flowchart showing a method for generating an image quality improvement learning model. 本実施形態1に係る画像処理手順を示すフローチャートである。4 is a flowchart showing an image processing procedure according to the first embodiment. オブジェクト抽出IVUS画像及びオブジェクト抽出OCT画像に基づいて構築される3次元内腔画像を示す説明図である。1 is an explanatory diagram showing a three-dimensional lumen image constructed based on an object extraction IVUS image and an object extraction OCT image. 剛体レジストレーションにより3次元内腔画像を合致させ、観察位置、観察方向及びスケールを補正する方法を概念的に示す説明図である。1 is an explanatory diagram conceptually showing a method for matching three-dimensional intraluminal images by rigid registration and correcting the observation position, observation direction, and scale. FIG. IVUS画像及びOCT画像の対応関係及びスケールの補正方法を概念的に示す説明図である。1 is an explanatory diagram conceptually showing a correspondence relationship between an IVUS image and an OCT image and a method of correcting the scale. 内腔部分のスケール補正方法を概念的に示す説明図である。13 is an explanatory diagram conceptually showing a scale correction method for an inner cavity portion. FIG. 内腔外側部分のスケール補正方法を概念的に示す説明図である。13 is an explanatory diagram conceptually showing a method of scale correction for the portion outside the lumen. FIG. 実施形態2に係る画像処理手順を示すフローチャートである。10 is a flowchart showing an image processing procedure according to a second embodiment. 超音波ラインデータ及び光ラインデータの対応関係の補正方法を示す説明図である。10 is an explanatory diagram showing a method of correcting the correspondence relationship between ultrasonic line data and optical line data; FIG. 超音波ラインデータ及び光ラインデータのスケール補正方法を示す説明図である。FIG. 11 is an explanatory diagram showing a method of correcting the scale of ultrasonic line data and optical line data.

以下、本開示のコンピュータプログラム、画質改善学習モデル、学習モデル生成方法、画像処理方法及び画像処理装置について、その実施形態を示す図面に基づいて詳述する。以下の各実施形態では、血管内治療である心臓カテーテル治療を一例に説明するが、カテーテル治療の対象とする管腔器官は血管に限定されず、例えば胆管、膵管、気管支、腸等の他の管腔器官であってもよい。また、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。 The computer program, image quality improvement learning model, learning model generation method, image processing method, and image processing device of the present disclosure will be described in detail below with reference to the drawings showing the embodiments. In each of the following embodiments, cardiac catheterization, which is an intravascular treatment, will be described as an example, but the tubular organs that are the subject of the catheterization treatment are not limited to blood vessels, and may be other tubular organs such as the bile duct, pancreatic duct, bronchi, and intestines. Furthermore, the present invention is not limited to these examples, but is indicated by the claims, and is intended to include all modifications within the meaning and scope equivalent to the claims. At least some of the embodiments described below may be combined in any manner.

本実施形態では、血管内超音波診断法(IVUS)及び光干渉断層診断法(OCT)の両方の機能を備えるデュアルタイプのカテーテルを用いた画像診断装置について説明する。デュアルタイプのカテーテルでは、IVUSのみによって超音波断層画像を取得するモードと、OCTのみによって光干渉断層画像を取得するモードと、IVUS及びOCTによって両方の断層画像を取得するモードとが設けられており、これらのモードを切り替えて使用することができる。以下、超音波断層画像及び光干渉断層画像それぞれを適宜、IVUS画像及びOCT画像という。また、IVUS画像及びOCT画像を総称して断層画像という。 In this embodiment, an imaging diagnostic device using a dual-type catheter equipped with the functions of both intravascular ultrasound (IVUS) and optical coherence tomography (OCT) will be described. The dual-type catheter is provided with a mode for acquiring ultrasonic tomographic images using IVUS only, a mode for acquiring optical coherence tomographic images using OCT only, and a mode for acquiring tomographic images using both IVUS and OCT, and these modes can be switched for use. Hereinafter, ultrasonic tomographic images and optical coherence tomographic images will be referred to as IVUS images and OCT images, respectively, as appropriate. In addition, IVUS images and OCT images will be collectively referred to as tomographic images.

(実施形態1)
図1は、画像診断装置100の構成例を示す説明図である。本実施形態の画像診断装置100は、血管内検査装置101と、血管造影装置102と、画像処理装置3と、表示装置4と、入力装置5とを備える。血管内検査装置101は、画像診断用カテーテル1及びMDU(Motor Drive Unit)2を備える。画像診断用カテーテル1は、MDU2を介して画像処理装置3に接続されている。画像処理装置3には、表示装置4及び入力装置5が接続されている。表示装置4は、例えば液晶ディスプレイ又は有機ELディスプレイ等であり、入力装置5は、例えばキーボード、マウス、トラックボール又はマイク等である。表示装置4と入力装置5とは、一体に積層されて、タッチパネルを構成していてもよい。また入力装置5と画像処理装置3とは、一体に構成されていてもよい。更に入力装置5は、ジェスチャ入力又は視線入力等を受け付けるセンサであってもよい。
(Embodiment 1)
FIG. 1 is an explanatory diagram showing a configuration example of an image diagnostic apparatus 100. The image diagnostic apparatus 100 of this embodiment includes an intravascular inspection apparatus 101, an angiography apparatus 102, an image processing apparatus 3, a display device 4, and an input device 5. The intravascular inspection apparatus 101 includes an image diagnostic catheter 1 and an MDU (Motor Drive Unit) 2. The image diagnostic catheter 1 is connected to the image processing apparatus 3 via the MDU 2. The display device 4 and the input device 5 are connected to the image processing apparatus 3. The display device 4 is, for example, a liquid crystal display or an organic EL display, and the input device 5 is, for example, a keyboard, a mouse, a trackball, or a microphone. The display device 4 and the input device 5 may be stacked together to form a touch panel. The input device 5 and the image processing apparatus 3 may also be configured as an integrated unit. Furthermore, the input device 5 may be a sensor that accepts gesture input or gaze input.

血管造影装置102は画像処理装置3に接続されている。血管造影装置102は、患者の血管に造影剤を注入しながら、患者の生体外からX線を用いて血管を撮像し、当該血管の透視画像であるアンギオ画像を得るためのアンギオグラフィ装置である。血管造影装置102は、X線源及びX線センサを備え、X線源から照射されたX線をX線センサが受信することにより、患者のX線透視画像をイメージングする。血管造影装置102は、撮像して得られたアンギオ画像を画像処理装置3へ出力し、画像処理装置3を介して表示装置4に表示される。なお、表示装置4には、アンギオ画像と、画像診断用カテーテル1を用いて撮像された血管の断層画像とが表示される。 The angiography device 102 is connected to the image processing device 3. The angiography device 102 is an angiography device that images the blood vessels of a patient from outside the patient's body using X-rays while injecting a contrast agent into the patient's blood vessels, and obtains an angiogram, which is a fluoroscopic image of the blood vessels. The angiography device 102 is equipped with an X-ray source and an X-ray sensor, and images an X-ray fluoroscopic image of the patient by the X-ray sensor receiving X-rays irradiated from the X-ray source. The angiography device 102 outputs the angiogram obtained by imaging to the image processing device 3, and the angiography device 102 displays the angiogram and a tomographic image of the blood vessels imaged using the diagnostic imaging catheter 1 on the display device 4.

図2は画像診断用カテーテル1の構成例を示す説明図である。なお、図2中の上側の一点鎖線で囲まれた領域は、下側の一点鎖線で囲まれた領域を拡大したものである。画像診断用カテーテル1は、プローブ11と、プローブ11の端部に配置されたコネクタ部15とを有する。プローブ11は、コネクタ部15を介してMDU2に接続される。以下の説明では画像診断用カテーテル1のコネクタ部15から遠い側を先端側と記載し、コネクタ部15側を基端側という。プローブ11は、カテーテルシース11aを備え、その先端部には、ガイドワイヤが挿通可能なガイドワイヤ挿通部14が設けられている。ガイドワイヤ挿通部14はガイドワイヤルーメンを構成し、予め血管内に挿入されたガイドワイヤを受け入れ、ガイドワイヤによってプローブ11を患部まで導くのに使用される。カテーテルシース11aは、ガイドワイヤ挿通部14からコネクタ部15に亘って連続する管部を形成している。カテーテルシース11aの内部にはシャフト13が挿通されており、シャフト13の先端側にはセンサ部12が接続されている。 2 is an explanatory diagram showing an example of the configuration of the diagnostic imaging catheter 1. The area surrounded by the dashed line on the upper side in FIG. 2 is an enlarged view of the area surrounded by the dashed line on the lower side. The diagnostic imaging catheter 1 has a probe 11 and a connector portion 15 arranged at the end of the probe 11. The probe 11 is connected to the MDU 2 via the connector portion 15. In the following description, the side of the diagnostic imaging catheter 1 far from the connector portion 15 is described as the tip side, and the connector portion 15 side is referred to as the base end side. The probe 11 has a catheter sheath 11a, and at its tip, a guidewire insertion portion 14 through which a guidewire can be inserted is provided. The guidewire insertion portion 14 forms a guidewire lumen, which is used to receive a guidewire inserted in advance into a blood vessel and guide the probe 11 to the affected area by the guidewire. The catheter sheath 11a forms a tube portion that is continuous from the guidewire insertion portion 14 to the connector portion 15. A shaft 13 is inserted inside the catheter sheath 11a, and a sensor unit 12 is connected to the tip of the shaft 13.

センサ部12は、ハウジング12cを有し、ハウジング12cの先端側は、カテーテルシース11aの内面との摩擦や引っ掛かりを抑制するために半球状に形成されている。ハウジング12c内には、超音波を血管内に送信すると共に血管内からの反射波を受信する超音波送受信部12aと、近赤外光を血管内に送信すると共に血管内からの反射光を受信する光送受信部12bとが配置されている。図2に示す例では、プローブ11の先端側に超音波送受信部12aが設けられており、基端側に光送受信部12bが設けられている。つまり、超音波送受信部12a及び光送受信部12bは、シャフト13の中心軸上(図2中の二点鎖線上)において軸方向に沿って所定長だけ離れて、ハウジング12c内に配置されている。
また、超音波送受信部12a及び光送受信部12bは、超音波及び近赤外光の送受信方向がシャフト13の軸方向に対して略90度の方向(シャフト13の径方向)となるように配置されている。なお、超音波送受信部12a及び光送受信部12bは、カテーテルシース11aの内面での反射波及び反射光を受信しないように、径方向よりややずらして取り付けられることが望ましい。本実施形態では、例えば図2中の矢符で示すように、超音波送受信部12aは径方向に対して基端側に傾斜した方向を超音波の照射方向とし、光送受信部12bは径方向に対して先端側に傾斜した方向を近赤外光の照射方向とする姿勢で設けられている。
The sensor unit 12 has a housing 12c, and the tip side of the housing 12c is formed in a hemispherical shape to suppress friction and catching with the inner surface of the catheter sheath 11a. In the housing 12c, an ultrasonic transmission/reception unit 12a that transmits ultrasonic waves into a blood vessel and receives reflected waves from the inside of the blood vessel, and an optical transmission/reception unit 12b that transmits near-infrared light into the blood vessel and receives reflected light from the inside of the blood vessel are arranged. In the example shown in Fig. 2, the ultrasonic transmission/reception unit 12a is provided on the tip side of the probe 11, and the optical transmission/reception unit 12b is provided on the base end side. That is, the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b are arranged in the housing 12c, separated by a predetermined length along the axial direction on the central axis of the shaft 13 (on the two-dot chain line in Fig. 2).
The ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b are arranged so that the transmission/reception directions of the ultrasonic waves and the near-infrared light are approximately 90 degrees to the axial direction of the shaft 13 (the radial direction of the shaft 13). It is preferable that the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b are attached slightly offset from the radial direction so as not to receive the reflected waves and the reflected light on the inner surface of the catheter sheath 11a. In this embodiment, for example, as shown by the arrow in Fig. 2, the ultrasonic transmission/reception unit 12a is provided in a position in which the direction of irradiation of ultrasonic waves is inclined toward the base end side with respect to the radial direction, and the optical transmission/reception unit 12b is provided in a position in which the direction of irradiation of near-infrared light is inclined toward the tip end side with respect to the radial direction.

シャフト13には、超音波送受信部12aに接続された電気信号ケーブル(図示せず)と、光送受信部12bに接続された光ファイバケーブル(図示せず)とが内挿されている。プローブ11は、先端側から血管内に挿入される。センサ部12及びシャフト13は、カテーテルシース11aの内部で進退可能であり、また、周方向に回転することができる。センサ部12及びシャフト13は、シャフト13の中心軸を回転軸として回転する。 An electric signal cable (not shown) connected to the ultrasonic transmission/reception unit 12a and an optical fiber cable (not shown) connected to the optical transmission/reception unit 12b are inserted into the shaft 13. The probe 11 is inserted into the blood vessel from the tip side. The sensor unit 12 and the shaft 13 can move forward and backward inside the catheter sheath 11a and can rotate in the circumferential direction. The sensor unit 12 and the shaft 13 rotate around the central axis of the shaft 13 as the rotation axis.

MDU2は、画像診断用カテーテル1のコネクタ部15が着脱可能に取り付けられ、医療従事者の操作に応じて内蔵モータを駆動し、血管内に挿入された画像診断用カテーテル1の動作を制御する駆動装置である。例えばMDU2は、プローブ11に内挿されたセンサ部12及びシャフト13を一定の速度でMDU2側に向けて引っ張りながら周方向に回転させるプルバック操作を行う。センサ部12は、プルバック操作によって先端側から基端側に移動しながら回転しつつ、所定の時間間隔で連続的に血管内を走査することにより、プローブ11に略垂直な複数枚の横断層像を所定の間隔で連続的に撮影する。MDU2は、超音波送受信部12aが受信した超音波の反射波信号と、光送受信部12bが受信した反射光信号とを画像処理装置3へ出力する。
MDU2は、センサ部12を高速で後退させる高速プルバックモードと、センサ部12を低速で後退させる低速プルバックモードとを有する。高速プルバックモードにおいては、MDU2は、モータを高速で駆動し、センサ部12を高速で後退させる。低速プルバックモードにおいては、MDU2は、モータを低速で駆動し、センサ部12を低速で後退させる。画像処理装置3は、高速プルバックモード又は低速プルバックモードのいずれのモードで動作しているかを認識しており、プルバック速度に応じた処理を実行する。詳細は後述する。
The MDU 2 is a driving device to which the connector 15 of the diagnostic imaging catheter 1 is detachably attached, and which drives a built-in motor in response to the operation of a medical professional to control the operation of the diagnostic imaging catheter 1 inserted into a blood vessel. For example, the MDU 2 performs a pull-back operation to rotate the sensor unit 12 and shaft 13 inserted into the probe 11 in a circumferential direction while pulling them toward the MDU 2 at a constant speed. The sensor unit 12 moves from the distal end side to the proximal end side and rotates, and scans the blood vessel continuously at a predetermined time interval to continuously capture a plurality of transverse slice images approximately perpendicular to the probe 11 at a predetermined interval. The MDU 2 outputs a reflected wave signal of the ultrasound received by the ultrasound transmitting/receiving unit 12a and a reflected light signal received by the light transmitting/receiving unit 12b to the image processing device 3.
The MDU 2 has a high-speed pullback mode in which the sensor unit 12 is retracted at high speed, and a low-speed pullback mode in which the sensor unit 12 is retracted at low speed. In the high-speed pullback mode, the MDU 2 drives the motor at high speed to retract the sensor unit 12 at high speed. In the low-speed pullback mode, the MDU 2 drives the motor at low speed to retract the sensor unit 12 at low speed. The image processing device 3 recognizes whether it is operating in the high-speed pullback mode or the low-speed pullback mode, and executes processing according to the pullback speed. Details will be described later.

画像処理装置3は、MDU2を介して超音波送受信部12aから出力された超音波の反射波信号を反射波データとして取得し、取得した反射波データに基づいて超音波ラインデータを生成する。超音波ラインデータは、超音波送受信部12aからみた血管の深さ方向における超音波の反射強度を示すデータである。画像処理装置3は、生成した超音波ラインデータに基づいて血管の横断層を表すIVUS画像60(図4参照)を構築する。 The image processing device 3 acquires the reflected wave signal of the ultrasound output from the ultrasound transmission/reception unit 12a via the MDU 2 as reflected wave data, and generates ultrasound line data based on the acquired reflected wave data. The ultrasound line data is data indicating the reflection intensity of the ultrasound in the depth direction of the blood vessel as seen from the ultrasound transmission/reception unit 12a. The image processing device 3 constructs an IVUS image 60 (see FIG. 4) showing the transverse layer of the blood vessel based on the generated ultrasound line data.

また、画像処理装置3は、MDU2を介して光送受信部12bから出力された反射光信号と、光源からの光を分離して得られた参照光とを干渉させることにより、干渉光データを取得し、取得した干渉光データに基づいて光ラインデータを生成する。光ラインデータは、光送受信部12bからみた血管の深さ方向における反射光の反射強度を示すデータである。画像処理装置3は、生成した光ラインデータに基づいて血管の横断層を表したOCT画像70(図4参照)を構築する。 The image processing device 3 also obtains interference light data by interfering the reflected light signal output from the optical transceiver 12b via the MDU 2 with the reference light obtained by separating the light from the light source, and generates optical line data based on the obtained interference light data. The optical line data is data indicating the reflection intensity of the reflected light in the depth direction of the blood vessel as seen from the optical transceiver 12b. The image processing device 3 constructs an OCT image 70 (see FIG. 4) showing the transverse layers of the blood vessel based on the generated optical line data.

ここで、超音波送受信部12a及び光送受信部12bによって得られる超音波ラインデータ及び光ラインデータと、超音波ラインデータ及び光ラインデータから構築されるIVUS画像60及びOCT画像70について説明する。 Here, we will explain the ultrasonic line data and optical line data obtained by the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b, and the IVUS image 60 and the OCT image 70 constructed from the ultrasonic line data and the optical line data.

図3は、センサ部12を挿通させた血管の断面を模式的に示す説明図であり、図4は断層画像の説明図である。まず、図3を用いて、血管内における超音波送受信部12a及び光送受信部12bの動作と、超音波送受信部12a及び光送受信部12bによって得られる超音波ラインデータ及び光ラインデータについて説明する。 Figure 3 is an explanatory diagram showing a schematic cross-section of a blood vessel through which the sensor unit 12 has been inserted, and Figure 4 is an explanatory diagram of a tomographic image. First, using Figure 3, the operation of the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b within the blood vessel, and the ultrasonic line data and optical line data obtained by the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b will be explained.

センサ部12及びシャフト13が血管内に挿通された状態で断層画像の撮像が開始されると、センサ部12が矢符で示す方向に、シャフト13の中心軸を回転中心として回転する。このとき、超音波送受信部12aは、各回転角度において超音波の送信及び受信を行う。ライン1,2,…512は各回転角度における超音波の送受信方向を示している。本実施形態では、超音波送受信部12aは、血管内において360度回動(1回転)する間に512回の超音波の送信及び受信を断続的に行う。超音波送受信部12aは、1回の超音波の送受信により、送受信方向の1ラインのデータを取得するので、1回転の間に、回転中心から放射線状に延びる512本の超音波ラインデータを得ることができる。512本の超音波ラインデータは、回転中心の近傍では密であるが、回転中心から離れるにつれて互いに疎になっていく。そこで、画像処理装置3は、各ラインの空いた空間における画素を周知の補間処理によって生成することにより、図4Aに示すような2次元のIVUS画像60を構築することができる。 When the sensor unit 12 and the shaft 13 are inserted into the blood vessel and imaging of a tomographic image is started, the sensor unit 12 rotates in the direction indicated by the arrow, with the central axis of the shaft 13 as the center of rotation. At this time, the ultrasonic transmission/reception unit 12a transmits and receives ultrasonic waves at each rotation angle. Lines 1, 2, ... 512 indicate the transmission and reception direction of ultrasonic waves at each rotation angle. In this embodiment, the ultrasonic transmission/reception unit 12a intermittently transmits and receives ultrasonic waves 512 times during a 360-degree rotation (one rotation) in the blood vessel. The ultrasonic transmission/reception unit 12a obtains one line of data in the transmission and reception direction by transmitting and receiving ultrasonic waves once, so that 512 pieces of ultrasonic line data extending radially from the center of rotation can be obtained during one rotation. The 512 pieces of ultrasonic line data are dense near the center of rotation, but become sparse as they move away from the center of rotation. Therefore, the image processing device 3 can generate pixels in the empty spaces of each line using a well-known interpolation process, thereby constructing a two-dimensional IVUS image 60 as shown in FIG. 4A.

同様に、光送受信部12bも、各回転角度において近赤外光(測定光)の送信及び受信を行う。光送受信部12bも血管内において360度回動する間に512回の測定光の送信及び受信を行うので、1回転の間に、回転中心から放射線状に延びる512本の光ラインデータを得ることができる。光ラインデータについても、画像処理装置3は、各ラインの空いた空間における画素を周知の補間処理によって生成することにより、図4Aに示す2次元のOCT画像70を構築することができる。 Similarly, the optical transceiver 12b also transmits and receives near-infrared light (measurement light) at each rotation angle. The optical transceiver 12b also transmits and receives measurement light 512 times while rotating 360 degrees within the blood vessel, so that 512 optical line data extending radially from the center of rotation can be obtained during one rotation. For the optical line data, the image processing device 3 generates pixels in the empty spaces of each line by known interpolation processing, thereby constructing the two-dimensional OCT image 70 shown in FIG. 4A.

このように複数本の超音波ラインデータから構築される2次元の断層画像を1フレームのIVUS画像60という。また、複数本の光ラインデータから構築される2次元の断層画像を1フレームのOCT画像70という。センサ部12は血管内を移動しながら走査するため、移動範囲内において1回転した各位置で1フレームのIVUS画像60又はOCT画像70が取得される。即ち、移動範囲においてプローブ11の先端側から基端側への各位置で1フレームのIVUS画像60又はOCT画像70が取得されるので、図4Bに示すように、移動範囲内で複数フレームのIVUS画像60又はOCT画像70が取得される。 A two-dimensional tomographic image constructed from a plurality of ultrasonic line data in this manner is called one frame of IVUS image 60. A two-dimensional tomographic image constructed from a plurality of optical line data is called one frame of OCT image 70. Since the sensor unit 12 scans while moving inside the blood vessel, one frame of IVUS image 60 or OCT image 70 is acquired at each position of one rotation within the movement range. That is, one frame of IVUS image 60 or OCT image 70 is acquired at each position from the tip side to the base end side of the probe 11 within the movement range, so that multiple frames of IVUS image 60 or OCT image 70 are acquired within the movement range, as shown in FIG. 4B.

なお、1回転における超音波及び光の送受信回数は一例であり、送受信回数は512回に限定されるものではない。また、超音波の送受信回数と、光の送受信回数とは同一であっても良いし、異なっていてもよい。 Note that the number of times that ultrasonic waves and light are transmitted and received in one rotation is an example, and the number of times that transmission and reception is not limited to 512. In addition, the number of times that ultrasonic waves are transmitted and received and the number of times that light is transmitted and received may be the same or different.

OCT画像70を得るために必要な造影剤の量を最小限にするためには、センサ部12を高速でプルバックさせることが望ましい。ところが、送信された超音波が対象部位で反射され戻ってくるまでに時間を要するため、血管内検査装置101は、プルバック速度を速くした場合、送受信回数を低減させる。つまり、血管内検査装置101は、血管の所要深度における反射波を受信できるように、超音波ラインデータの取得本数を削減する。なお、近赤外光の伝播速度は十分に速いため、センサ部12の移動速度にかかわらず、光ラインデータの取得本数を維持することができる。
例えば、画像処理装置3は、センサ部12を後退させる速度が低速である場合(低速プルバック)、センサ部12が1回転する間に、512本の超音波ラインデータ及び光ラインデータを取得するところ、センサ部12を後退させる速度が高速である場合(高速プルバック)、センサ部12が1回転する間に、256本の超音波ラインデータを取得し、512本の光ラインデータを取得する。
以上の通り、血管内検査装置101及び画像処理装置3は、センサ部12の後退速度が速い場合、超音波ラインデータの取得本数を、光ラインデータの取得本数に比べて、より大きく削減させる。光ラインデータの取得本数は、維持してもよいし、削減してもよい。
In order to minimize the amount of contrast agent required to obtain the OCT image 70, it is desirable to pull back the sensor unit 12 at a high speed. However, since it takes time for the transmitted ultrasound to be reflected at the target site and return, the intravascular inspection device 101 reduces the number of transmissions and receptions when the pullback speed is increased. In other words, the intravascular inspection device 101 reduces the number of acquisitions of ultrasound line data so that it can receive reflected waves at a required depth in the blood vessel. Note that, since the propagation speed of near-infrared light is sufficiently fast, the number of acquisitions of optical line data can be maintained regardless of the movement speed of the sensor unit 12.
For example, when the speed at which the sensor unit 12 is retracted is slow (slow pullback), the image processing device 3 acquires 512 pieces of ultrasonic line data and optical line data during one rotation of the sensor unit 12, whereas when the speed at which the sensor unit 12 is retracted is fast (high-speed pullback), the image processing device 3 acquires 256 pieces of ultrasonic line data and 512 pieces of optical line data during one rotation of the sensor unit 12.
As described above, the intravascular inspection device 101 and the image processing device 3 reduce the number of acquired ultrasound line data by a larger amount than the number of acquired optical line data when the retraction speed of the sensor unit 12 is fast. The number of acquired optical line data may be maintained or reduced.

また、血管内検査装置101、プルバック速度を速くした場合、超音波の送受信時間を短くするように構成してもよい。この場合、撮像される血管の深さ方向が短くなる。
このようにプルバック速度を速くした場合、IVUS画像60の画質が低下する。以下、センサ部12を後退させる速度が第1速度である場合に構築される高画質のIVUS画像60を高画質IVUS画像60b、センサ部12を後退させる速度が第1速度よりも高速の第2速度である場合に構築される低画質のIVUS画像60を、低画質IVUS画像60aという。高画質IVUS画像60b及び低画質IVUS画像60aは、両者の画質を対比した場合に、一方のIVUS画像60の画質が、他方のIVUS画像60の画質に比べて高い又は低いことを意味する。高画質IVUS画像60b及び低画質IVUS画像60aを区別する必要が無い技術的特徴を説明する際は、両者を区別すること無く単にIVUS画像60と呼ぶ。
Furthermore, the intravascular inspection device 101 may be configured to shorten the transmission and reception time of ultrasonic waves when the pullback speed is increased. In this case, the depth direction of the blood vessel to be imaged becomes shorter.
When the pullback speed is increased in this way, the image quality of the IVUS image 60 is reduced. Hereinafter, the high-image-quality IVUS image 60 constructed when the speed at which the sensor unit 12 is retracted is a first speed is referred to as a high-image-quality IVUS image 60b, and the low-image-quality IVUS image 60 constructed when the speed at which the sensor unit 12 is retracted is a second speed faster than the first speed is referred to as a low-image-quality IVUS image 60a. The high-image-quality IVUS image 60b and the low-image-quality IVUS image 60a mean that the image quality of one IVUS image 60 is higher or lower than the image quality of the other IVUS image 60 when comparing the image quality of both. When describing technical features that do not require a distinction between the high-image-quality IVUS image 60b and the low-image-quality IVUS image 60a, they are simply referred to as IVUS images 60 without distinction between them.

図5は画像処理装置3の構成例を示すブロック図である。画像処理装置3はコンピュータであり、処理部31、記憶部32、超音波ラインデータ生成部33、光ラインデータ生成部34、入出力I/F35、読取部36を備える。処理部31は、一又は複数のCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)、GPGPU(General-purpose computing on graphics processing units)、TPU(Tensor Processing Unit)等の演算処理装置を用いて構成されている。処理部31は、バスを介して画像処理装置3を構成するハードウェア各部と接続されている。 Figure 5 is a block diagram showing an example of the configuration of the image processing device 3. The image processing device 3 is a computer, and includes a processing unit 31, a memory unit 32, an ultrasonic line data generating unit 33, an optical line data generating unit 34, an input/output I/F 35, and a reading unit 36. The processing unit 31 is configured using one or more arithmetic processing devices such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), a GPU (Graphics Processing Unit), a GPGPU (General-purpose computing on graphics processing units), a TPU (Tensor Processing Unit), etc. The processing unit 31 is connected to each of the hardware components constituting the image processing device 3 via a bus.

記憶部32は、例えば主記憶部及び補助記憶部を有する。主記憶部は、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、フラッシュメモリ等の一時記憶領域であり、処理部31が演算処理を実行するために必要なデータを一時的に記憶する。補助記憶部は、ハードディスク、EEPROM(Electrically Erasable Programmable ROM)、フラッシュメモリ等の記憶装置である。補助記憶部は、処理部31が実行するコンピュータプログラムP、第1学習モデル6、第2学習モデル7、画質改善学習モデル8、その他の処理に必要な各種データを記憶する。なお、補助記憶部は画像処理装置3に接続された外部記憶装置であってもよい。コンピュータプログラムPは、画像処理装置3の製造段階において補助記憶部に書き込まれてもよいし、遠隔のサーバ装置が配信するものを画像処理装置3が通信にて取得して補助記憶部に記憶させてもよい。コンピュータプログラムPは、磁気ディスク、光ディスク、半導体メモリ等の記録媒体30に読み出し可能に記録された態様であってもよく、読取部36が記録媒体30から読み出して補助記憶部に記憶させてもよい。 The memory unit 32 has, for example, a main memory unit and an auxiliary memory unit. The main memory unit is a temporary storage area such as SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), or flash memory, and temporarily stores data required for the processing unit 31 to execute arithmetic processing. The auxiliary memory unit is a storage device such as a hard disk, EEPROM (Electrically Erasable Programmable ROM), or flash memory. The auxiliary memory unit stores the computer program P executed by the processing unit 31, the first learning model 6, the second learning model 7, the image quality improvement learning model 8, and various data required for other processing. The auxiliary memory unit may be an external storage device connected to the image processing device 3. The computer program P may be written to the auxiliary memory unit during the manufacturing stage of the image processing device 3, or the image processing device 3 may acquire the computer program P distributed by a remote server device through communication and store it in the auxiliary memory unit. The computer program P may be recorded in a readable manner on a recording medium 30 such as a magnetic disk, optical disk, or semiconductor memory, and the reading unit 36 may read it from the recording medium 30 and store it in the auxiliary storage unit.

超音波ラインデータ生成部33は、血管内検査装置101の超音波送受信部12aから出力された超音波の反射波信号を反射波データとして取得し、取得した反射波データに基づいて超音波ラインデータを生成する。 The ultrasound line data generation unit 33 acquires the reflected wave signal of the ultrasound output from the ultrasound transmission/reception unit 12a of the intravascular inspection device 101 as reflected wave data, and generates ultrasound line data based on the acquired reflected wave data.

光ラインデータ生成部34は、血管内検査装置101の光送受信部12bから出力された反射光信号と、光源からの光を分離して得られた参照光とを干渉させることにより、干渉光データを取得し、取得した干渉光データに基づいて光ラインデータを生成する。 The optical line data generating unit 34 obtains interference light data by causing interference between the reflected light signal output from the optical transmitting/receiving unit 12b of the intravascular inspection device 101 and the reference light obtained by separating the light from the light source, and generates optical line data based on the obtained interference light data.

入出力I/F35は、血管内検査装置101、血管造影装置102、表示装置4及び入力装置5が接続されるインタフェースである。処理部31は、入出力I/F35を介して、血管造影装置102からアンギオ画像を取得する。また、処理部31は、入出力I/F35を介して、IVUS画像60、OCT画像70、又はアンギオ画像の医用画像信号を表示装置4へ出力することによって、表示装置4に医用画像を表示する。更に、処理部31は、入出力I/F35を介して、入力装置5に入力された情報を受け付ける。 The input/output I/F 35 is an interface to which the intravascular inspection device 101, the angiography device 102, the display device 4, and the input device 5 are connected. The processing unit 31 acquires an angio image from the angiography device 102 via the input/output I/F 35. The processing unit 31 also displays a medical image on the display device 4 by outputting a medical image signal of the IVUS image 60, the OCT image 70, or the angio image to the display device 4 via the input/output I/F 35. Furthermore, the processing unit 31 accepts information input to the input device 5 via the input/output I/F 35.

画像処理装置3は、複数のコンピュータを含んで構成されるマルチコンピュータであってよい。また、画像処理装置3は、サーバクライアントシステムや、クラウドサーバ、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。以下の説明では、画像処理装置3が1台のコンピュータであるものとして説明する。本実施形態では、画像処理装置3に、2次元のアンギオ画像を撮像する血管造影装置102が接続されているが、生体外の複数の方向から患者の管腔器官及び画像診断用カテーテル1を撮像する装置であれば、血管造影装置102に限定されない。 The image processing device 3 may be a multi-computer including multiple computers. The image processing device 3 may also be a server-client system, a cloud server, or a virtual machine virtually constructed by software. In the following description, the image processing device 3 is described as being one computer. In this embodiment, the image processing device 3 is connected to an angiography device 102 that captures two-dimensional angio images, but is not limited to the angiography device 102 as long as it is a device that captures images of the patient's tubular organs and the diagnostic imaging catheter 1 from multiple directions outside the body.

画像処理装置3の処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、超音波ラインデータ生成部33にて超音波ラインデータを生成し、生成された超音波ラインデータに基づいてIVUS画像60を構築する処理を実行する。また、処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、光ラインデータ生成部34にて光ラインデータを生成し、生成された光ラインデータに基づいてOCT画像70を構築する処理を実行する。 The processing unit 31 of the image processing device 3 reads out and executes the computer program P stored in the memory unit 32, thereby generating ultrasound line data in the ultrasound line data generation unit 33, and executing a process of constructing an IVUS image 60 based on the generated ultrasound line data. The processing unit 31 also reads out and executes the computer program P stored in the memory unit 32, thereby generating optical line data in the optical line data generation unit 34, and executing a process of constructing an OCT image 70 based on the generated optical line data.

ところで、超音波送受信部12a及び光送受信部12bは、センサ部12における配置位置が異なり、超音波及び光の送受信方向も異なるため、超音波送受信部12a及び光送受信部12bが同じ撮像タイミングで血管を走査したとしても血管の観察位置及び観察方向にずれが生じる。観察位置のずれは、血管の長手方向及び走行方向のずれである。観察方向のずれは、血管の周方向におけるずれである。また、光送受信部12bにより光を送受信するためには、フラッシュ液を用いて血管内の血液を置換する必要がある。超音波の伝播速度はフラッシュ液の種類によって異なるため、超音波断層画像及び光干渉断層画像のスケールは一致しなくなる。
そこで、処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、IVUS画像60及びOCT画像70を構築する際に、IVUS画像60及びOCT画像70における観察位置及び観察方向のずれを補正すると共に、IVUS画像60及びOCT画像70のスケールを一致させる処理を実行する。このように、本実施形態の画像処理装置3は、観察位置、観察方向及びスケールを一致させたIVUS画像60及びOCT画像70を構築することができ、読影し易い画像を提供することができる。
However, since the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b are arranged at different positions in the sensor unit 12 and have different transmission and reception directions of ultrasonic waves and light, even if the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b scan the blood vessel at the same imaging timing, a deviation occurs in the observation position and observation direction of the blood vessel. The deviation of the observation position is a deviation in the longitudinal direction and running direction of the blood vessel. The deviation of the observation direction is a deviation in the circumferential direction of the blood vessel. In addition, in order to transmit and receive light using the optical transmission/reception unit 12b, it is necessary to replace the blood in the blood vessel using a flushing liquid. Since the propagation speed of ultrasonic waves differs depending on the type of flushing liquid, the scales of the ultrasonic tomographic image and the optical coherence tomographic image will no longer match.
Therefore, the processing unit 31 reads out and executes the computer program P stored in the storage unit 32, thereby correcting deviations in the observation position and observation direction in the IVUS image 60 and the OCT image 70 when constructing the IVUS image 60 and the OCT image 70, and executing processing to match the scales of the IVUS image 60 and the OCT image 70. In this manner, the image processing device 3 of this embodiment can construct the IVUS image 60 and the OCT image 70 with the same observation position, observation direction, and scale, and can provide images that are easy to interpret.

また、上記した通り、OCT画像70を得るために必要な造影剤の量を最小限にするためには、センサ部12を高速でプルバックさせることが望ましく、この場合、IVUS画像60の画質が低下するという問題が生ずる。そこで、処理部31は、記憶部32が記憶するコンピュータプログラムPを読み出して実行することにより、低画質IVUS画像60aと、画質が低下しないOCT画像70とを用いて、高画質IVUS画像60bを生成及び構築する処理を実行する。 As described above, in order to minimize the amount of contrast agent required to obtain the OCT image 70, it is desirable to pull back the sensor unit 12 at high speed, but in this case, a problem occurs in that the image quality of the IVUS image 60 deteriorates. Therefore, the processing unit 31 reads out and executes the computer program P stored in the memory unit 32, thereby performing a process of generating and constructing a high-image-quality IVUS image 60b using the low-image-quality IVUS image 60a and the OCT image 70 whose image quality does not deteriorate.

次に、超音波断層画像及び光干渉断層画像の観察位置及び観察方向のずれ補正及びスケール補正を行うために用いる第1学習モデル6及び第2学習モデル7について説明する。また低画質IVUS画像60aの画質を改善させる画質改善学習モデル8について説明する。 Next, we will explain the first learning model 6 and the second learning model 7 used to correct the deviations in the observation position and the observation direction and to correct the scale of the ultrasound tomographic image and the optical coherence tomographic image. We will also explain the image quality improvement learning model 8 that improves the image quality of the low-image-quality IVUS image 60a.

図6は、第1学習モデル6の構成例を示すブロック図である。第1学習モデル6は、IVUS画像60に含まれる所定のオブジェクトを認識するモデルである。第1学習モデル6は、例えば、セマンティックセグメンテーション(Semantic Segmentation)を用いた画像認識技術を利用することにより、オブジェクトを画素単位でクラス分けすることができ、IVUS画像60に含まれる各種オブジェクトを認識することができる。具体的には、第1学習モデル6は、IVUS画像60における内腔画像(第1内腔画像)を認識する。また、第1学習モデル6は、IVUS画像60における内腔外側のオブジェクト画像(第1オブジェクト画像)、例えば血管壁画像、プラーク画像、ステント画像等を認識する。血管壁は、中膜であり、より具体的には外弾性膜(EEM)である。なお、第1学習モデル6は、センサ部12の中心位置を認識するように構成してもよい。 Figure 6 is a block diagram showing an example of the configuration of the first learning model 6. The first learning model 6 is a model that recognizes a predetermined object included in the IVUS image 60. The first learning model 6 can classify objects on a pixel-by-pixel basis by using an image recognition technique using, for example, semantic segmentation, and can recognize various objects included in the IVUS image 60. Specifically, the first learning model 6 recognizes a lumen image (first lumen image) in the IVUS image 60. The first learning model 6 also recognizes an object image (first object image) outside the lumen in the IVUS image 60, such as a blood vessel wall image, a plaque image, a stent image, etc. The blood vessel wall is the tunica media, and more specifically, the external elastic membrane (EEM). The first learning model 6 may be configured to recognize the center position of the sensor unit 12.

第1学習モデル6は、例えば深層学習による学習済みの畳み込みニューラルネットワーク(CNN:Convolutional neural network)である。第1学習モデル6は、IVUS画像60が入力される入力層6aと、IVUS画像60の特徴量を抽出し復元する中間層6bと、IVUS画像60に含まれるオブジェクト画像を画素単位で示すオブジェクト抽出IVUS画像61を出力する出力層6cとを有する。第1学習モデル6は、例えばU-Net、FCN(Fully Convolution Network)、SegNet等である。 The first learning model 6 is, for example, a convolutional neural network (CNN) that has been trained by deep learning. The first learning model 6 has an input layer 6a to which an IVUS image 60 is input, an intermediate layer 6b that extracts and restores features of the IVUS image 60, and an output layer 6c that outputs an object-extracted IVUS image 61 that shows an object image included in the IVUS image 60 in pixel units. The first learning model 6 is, for example, a U-Net, a Fully Convolution Network (FCN), a SegNet, etc.

第1学習モデル6の入力層6aは、IVUS画像60、つまりIVUS画像60を構成する各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層6bに受け渡す。中間層6bは、複数の畳み込み層(CONV層)と、複数の逆畳み込み層(DECONV層)とを有する。畳み込み層は、IVUS画像60を次元圧縮する層である。次元圧縮により、オブジェクト画像の特徴量が抽出される。逆畳み込み層は逆畳み込み処理を行い、元の次元に復元する。逆畳み込み層における復元処理により、各画素がオブジェクトのクラスに対応する画素値(クラスデータ)を有するオブジェクト抽出IVUS画像61が生成される。出力層6cは、オブジェクト抽出IVUS画像61を出力する複数のニューロンを有する。オブジェクト抽出IVUS画像61は、図6に示すように、内腔画像、血管壁画像、プラーク画像、ステント画像等のオブジェクトの種類毎にクラス分け、例えば色分けされたような画像である。 The input layer 6a of the first learning model 6 has a plurality of neurons that accept input of the IVUS image 60, that is, the pixel values of each pixel that constitutes the IVUS image 60, and passes the input pixel values to the intermediate layer 6b. The intermediate layer 6b has a plurality of convolution layers (CONV layers) and a plurality of deconvolution layers (DECONV layers). The convolution layer is a layer that compresses the dimensions of the IVUS image 60. The feature amount of the object image is extracted by the dimensional compression. The deconvolution layer performs a deconvolution process to restore the original dimensions. The restoration process in the deconvolution layer generates an object-extracted IVUS image 61 in which each pixel has a pixel value (class data) corresponding to the class of the object. The output layer 6c has a plurality of neurons that output the object-extracted IVUS image 61. As shown in FIG. 6, the object-extracted IVUS image 61 is an image that is classified, for example, color-coded, according to the type of object, such as a lumen image, a vascular wall image, a plaque image, and a stent image.

第1学習モデル6は、超音波送受信部12aにて得られるIVUS画像60と、当該IVUS画像60の各画素に、対応するオブジェクトの種類に応じたクラスデータを付与(アノテーション)したオブジェクト抽出IVUS画像61とを有する訓練データを用意し、当該訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成することができる。具体的には、訓練データのIVUS画像60を未学習のニューラルネットワークに入力した場合に出力されるオブジェクト抽出IVUS画像61と、訓練データとしてアノテーションされた画像との差分が小さくなるように、当該ニューラルネットワークのパラメータを最適化する。当該パラメータは、例えばノード間の重み(結合係数)などである。パラメータの最適化の方法は特に限定されないが、例えば処理部31は最急降下法等を用いて各種パラメータの最適化を行う。 The first learning model 6 can be generated by preparing training data having an IVUS image 60 obtained by the ultrasound transmission/reception unit 12a and an object-extracted IVUS image 61 in which each pixel of the IVUS image 60 is annotated with class data according to the type of object, and performing machine learning on an untrained neural network using the training data. Specifically, the parameters of the neural network are optimized so that the difference between the object-extracted IVUS image 61 output when the IVUS image 60 of the training data is input to the untrained neural network and the image annotated as the training data is reduced. The parameters are, for example, weights (coupling coefficients) between nodes. The method of optimizing the parameters is not particularly limited, but for example, the processing unit 31 optimizes various parameters using the steepest descent method or the like.

このように学習された第1学習モデル6によれば、図6に示すようにIVUS画像60を第1学習モデル6に入力することによって、血管の内腔画像、血管壁画像、プラーク画像等のオブジェクトの種類に応じて各部が画素単位でクラス分けされたオブジェクト抽出IVUS画像61が得られる。 According to the first learning model 6 trained in this way, by inputting an IVUS image 60 into the first learning model 6 as shown in FIG. 6, an object-extracted IVUS image 61 is obtained in which each part is classified on a pixel-by-pixel basis according to the type of object, such as a blood vessel lumen image, a blood vessel wall image, or a plaque image.

図7は、第2学習モデル7の構成例を示すブロック図である。第2学習モデル7は、OCT画像70に含まれる所定のオブジェクトを認識するモデルである。第2学習モデル7は、第1学習モデル6と同様、例えばセマンティックセグメンテーションを用いた画像認識技術を利用することにより、オブジェクトを画素単位でクラス分けすることができ、OCT画像70に含まれる各種オブジェクトを認識することができる。具体的には、第2学習モデル7は、OCT画像70における内腔画像(第2内腔画像)を認識する。また、第2学習モデル7は、OCT画像70における内腔外側のオブジェクト画像(第2オブジェクト画像)、例えば血管壁画像、プラーク画像、ステント画像等を認識する。 Figure 7 is a block diagram showing an example of the configuration of the second learning model 7. The second learning model 7 is a model that recognizes a specific object included in the OCT image 70. Like the first learning model 6, the second learning model 7 can classify objects on a pixel-by-pixel basis by using an image recognition technique using, for example, semantic segmentation, and can recognize various objects included in the OCT image 70. Specifically, the second learning model 7 recognizes a lumen image (second lumen image) in the OCT image 70. The second learning model 7 also recognizes object images (second object images) outside the lumen in the OCT image 70, such as blood vessel wall images, plaque images, and stent images.

第2学習モデル7は、例えば深層学習による学習済みの畳み込みニューラルネットワークである。第2学習モデル7は、OCT画像70が入力される入力層7aと、OCT画像70の特徴量を抽出し復元する中間層7bと、OCT画像70に含まれるオブジェクト画像を画素単位で示すオブジェクト抽出OCT画像71を出力する出力層7cとを有する。第2学習モデル7は、例えばU-Net、FCN(Fully Convolution Network)、SegNet等である。 The second learning model 7 is, for example, a convolutional neural network that has been trained by deep learning. The second learning model 7 has an input layer 7a to which an OCT image 70 is input, an intermediate layer 7b that extracts and restores features of the OCT image 70, and an output layer 7c that outputs an object-extracted OCT image 71 that shows an object image included in the OCT image 70 in pixel units. The second learning model 7 is, for example, a U-Net, a Fully Convolution Network (FCN), a SegNet, etc.

第2学習モデル7の入力層7aは、OCT画像70、つまりOCT画像70を構成する各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層7bに受け渡す。中間層7bは、複数の畳み込み層と、複数の逆畳み込み層とを有する。畳み込み層は、OCT画像70を次元圧縮する層である。次元圧縮により、オブジェクト画像の特徴量が抽出される。逆畳み込み層は逆畳み込み処理を行い、元の次元に復元する。逆畳み込み層における復元処理により、各画素がオブジェクトのクラスに対応する画素値(クラスデータ)を有するオブジェクト抽出OCT画像71が生成される。出力層7cは、オブジェクト抽出OCT画像71を出力する複数のニューロンを有する。オブジェクト抽出OCT画像71は、内腔画像、血管壁画像、プラーク画像、ステント画像等のオブジェクトの種類毎にクラス分け、例えば色分けされたような画像である。 The input layer 7a of the second learning model 7 has a plurality of neurons that accept input of the OCT image 70, that is, the pixel values of each pixel that constitutes the OCT image 70, and passes the input pixel values to the intermediate layer 7b. The intermediate layer 7b has a plurality of convolution layers and a plurality of deconvolution layers. The convolution layer is a layer that compresses the dimensions of the OCT image 70. The feature amount of the object image is extracted by the dimensional compression. The deconvolution layer performs deconvolution processing to restore the original dimensions. The restoration processing in the deconvolution layer generates an object extraction OCT image 71 in which each pixel has a pixel value (class data) corresponding to the class of the object. The output layer 7c has a plurality of neurons that output the object extraction OCT image 71. The object extraction OCT image 71 is an image that is classified, for example, color-coded, according to the type of object, such as an intraluminal image, a vascular wall image, a plaque image, and a stent image.

第2学習モデル7は、光送受信部12bにて得られるOCT画像70と、当該OCT画像70の各画素に、対応するオブジェクトの種類に応じたクラスデータを付与(アノテーション)したオブジェクト抽出OCT画像71とを有する訓練データを用意し、当該訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成することができる。具体的には、第1学習モデル6の学習と同様、訓練データのOCT画像70を未学習のニューラルネットワークに入力した場合に出力されるオブジェクト抽出OCT画像71と、訓練データとしてアノテーションされた画像との差分が小さくなるように、当該ニューラルネットワークのパラメータを最適化する。 The second learning model 7 can be generated by preparing training data having an OCT image 70 obtained by the optical transmission/reception unit 12b and an object-extracted OCT image 71 in which each pixel of the OCT image 70 is annotated with class data according to the type of object that corresponds to the pixel, and using the training data to train an untrained neural network. Specifically, similar to the learning of the first learning model 6, the parameters of the neural network are optimized so that the difference between the object-extracted OCT image 71 output when the OCT image 70 of the training data is input to the untrained neural network and the image annotated as the training data is reduced.

このように学習された第2学習モデル7によれば、図7に示すようにOCT画像70を第2学習モデル7に入力することによって、血管の内腔画像、血管壁画像、プラーク画像等のオブジェクトの種類に応じて各部が画素単位でクラス分けされたオブジェクト抽出OCT画像71が得られる。 According to the second learning model 7 trained in this way, by inputting an OCT image 70 into the second learning model 7 as shown in FIG. 7, an object-extracted OCT image 71 is obtained in which each part is classified on a pixel-by-pixel basis according to the type of object, such as a blood vessel lumen image, a blood vessel wall image, or a plaque image.

図8は、画質改善学習モデル8の構成例を示すブロック図である。画質改善学習モデル8は、略同一の観察位置で撮像された低画質IVUS画像60aと、OCT画像70とに基づいて、高画質IVUS画像60bを生成するモデルである。高速プルバック時においても、OCT画像70の画質は低下しないため、画質改善学習モデル8は、低画質IVUS画像60aの情報を、OCT画像70によって補い、再構築することにより、高画質IVUS画像60bを生成することができる。 Figure 8 is a block diagram showing an example of the configuration of the image quality improvement learning model 8. The image quality improvement learning model 8 is a model that generates a high-quality IVUS image 60b based on a low-quality IVUS image 60a and an OCT image 70 captured at approximately the same observation position. Even during high-speed pullback, the image quality improvement learning model 8 can generate a high-quality IVUS image 60b by supplementing and reconstructing the information of the low-quality IVUS image 60a with the OCT image 70, since the image quality of the OCT image 70 does not deteriorate.

画質改善学習モデル8は、例えば深層学習による学習済みの畳み込みニューラルネットワークである。画質改善学習モデル8は、低画質IVUS画像60aが入力される第1入力層81aと、OCT画像70が入力される第2入力層82aと、低画質IVUS画像60a及びOCT画像70の特徴量を抽出し復元する中間層8bと、抽出された特徴量に基づいて復元された高画質IVUS画像60bを出力する出力層8cとを有する。画質改善学習モデル8は、例えばU-Netである。 The image quality improvement learning model 8 is, for example, a convolutional neural network that has been trained by deep learning. The image quality improvement learning model 8 has a first input layer 81a to which a low-quality IVUS image 60a is input, a second input layer 82a to which an OCT image 70 is input, an intermediate layer 8b that extracts and restores features of the low-quality IVUS image 60a and the OCT image 70, and an output layer 8c that outputs a high-quality IVUS image 60b restored based on the extracted features. The image quality improvement learning model 8 is, for example, a U-Net.

画質改善学習モデル8の第1入力層81aは、低画質IVUS画像60a、つまりIVUS画像60を構成する各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層8bに受け渡す。第2入力層82aは、OCT画像70、つまりOCT画像70を構成する各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層8bに受け渡す。中間層8bは、複数の畳み込み層と、複数の逆畳み込み層とを有する。畳み込み層は、低画質IVUS画像60a及びOCT画像70を次元圧縮する層である。次元圧縮により、低画質IVUS画像60a及びOCT画像70の特徴量が抽出される。逆畳み込み層は逆畳み込み処理を行い、1枚の高画質IVUS画像60bを復元する。出力層8cは、高画質IVUS画像60bを出力する複数のニューロンを有する。 The first input layer 81a of the image quality improvement learning model 8 has a plurality of neurons that accept input of the pixel values of each pixel that constitutes the low-quality IVUS image 60a, that is, the IVUS image 60, and passes the input pixel values to the intermediate layer 8b. The second input layer 82a has a plurality of neurons that accept input of the OCT image 70, that is, the pixel values of each pixel that constitutes the OCT image 70, and passes the input pixel values to the intermediate layer 8b. The intermediate layer 8b has a plurality of convolution layers and a plurality of deconvolution layers. The convolution layer is a layer that compresses the dimensions of the low-quality IVUS image 60a and the OCT image 70. The feature amounts of the low-quality IVUS image 60a and the OCT image 70 are extracted by the dimensional compression. The deconvolution layer performs deconvolution processing to restore one high-quality IVUS image 60b. The output layer 8c has a plurality of neurons that output the high-quality IVUS image 60b.

図9は、画質改善学習モデル8の生成方法を示すフローチャートである。ここでは、一例として、画像処理装置3が画質改善学習モデル8の生成を行う例を説明するが、画質改善学習モデル8の生成を行うコンピュータの種類等は特に限定されるものではない。 Figure 9 is a flowchart showing a method for generating an image quality improvement learning model 8. Here, as an example, an example is described in which an image processing device 3 generates an image quality improvement learning model 8, but the type of computer that generates the image quality improvement learning model 8 is not particularly limited.

まず、画像処理装置3は、センサ部12を高速で後退させる高速プルバックモードに設定し、所定の血管部位の低画質IVUS画像60a及びOCT画像70を取得する(ステップS101)。高速プルバックを行った場合に得られる低画質IVUS画像60a及びOCT画像70は、略同一の観察位置で血管を走査して構築したIVUS画像60及びOCT画像70である。
そして、画像処理装置3は、センサ部12を低速で後退させる低速プルバックモードに設定し、同じ血管部位の高画質IVUS画像60bを取得する(ステップS102)。画像処理装置3は、ステップS101及びステップS102で取得した、高速プルバックを行った場合に得られる低画質IVUS画像60a及びOCT画像70と、低速プルバックを行った場合に得られる高画質IVUS画像60bとを有する訓練データとして蓄積する(ステップS103)。画像処理装置3は、ステップS101~ステップS103の処理を繰り返すことにより、多数の訓練データを蓄積する。もちろん、他の画像診断装置100により取得及び蓄積された訓練データを収集するように構成してもよい。
First, the image processing device 3 is set to a high-speed pullback mode in which the sensor unit 12 is pulled back at high speed, and acquires a low-quality IVUS image 60a and an OCT image 70 of a predetermined blood vessel region (step S101). The low-quality IVUS image 60a and the OCT image 70 obtained when high-speed pullback is performed are the IVUS image 60 and the OCT image 70 constructed by scanning the blood vessel at approximately the same observation position.
Then, the image processing device 3 sets the sensor unit 12 to a low-speed pullback mode in which the sensor unit 12 is pulled back at a low speed, and acquires a high-quality IVUS image 60b of the same vascular region (step S102). The image processing device 3 accumulates the low-quality IVUS image 60a and the OCT image 70 acquired in steps S101 and S102 when a high-speed pullback is performed, and the high-quality IVUS image 60b when a low-speed pullback is performed, as training data (step S103). The image processing device 3 accumulates a large amount of training data by repeating the processes of steps S101 to S103. Of course, the image processing device 3 may be configured to collect training data acquired and accumulated by other image diagnostic devices 100.

なお、訓練データを構成する低画質IVUS画像60a、OCT画像70、及び高画質IVUS画像60bは、同一観察位置及び観察方向から得られた画像であることが望ましい。内腔画像を対比することにより、複数フレームの低画質IVUS画像60a及びOCT画像70の観察位置及び観察方向を整合させる方法を後述するが、当該方法を用いることにより、訓練データである低画質IVUS画像60a、OCT画像70、及び高画質IVUS画像60bの観察位置及び観察方向を合致させることができる。 It is preferable that the low-quality IVUS image 60a, OCT image 70, and high-quality IVUS image 60b constituting the training data are images obtained from the same observation position and observation direction. A method for aligning the observation positions and observation directions of multiple frames of low-quality IVUS image 60a and OCT image 70 by comparing intraluminal images will be described later. By using this method, it is possible to align the observation positions and observation directions of the low-quality IVUS image 60a, OCT image 70, and high-quality IVUS image 60b, which are the training data.

そして、画像処理装置3は、蓄積した訓練データを用いて未学習のニューラルネットワークを機械学習させることにより生成する(ステップS104)。具体的には、訓練データの低画質IVUS画像60a及びOCT画像70を未学習のニューラルネットワークに入力した場合に出力されるIVUS画像60と、訓練データの高画質IVUS画像60bとの差分が小さくなるように、当該ニューラルネットワークのパラメータを最適化する。当該パラメータは、例えばノード間の重み(結合係数)などである。パラメータの最適化の方法は特に限定されないが、例えば処理部31は最急降下法等を用いて各種パラメータの最適化を行う。 Then, the image processing device 3 generates an untrained neural network by machine learning using the accumulated training data (step S104). Specifically, the parameters of the neural network are optimized so that the difference between the IVUS image 60 output when the low-quality IVUS image 60a and the OCT image 70 of the training data are input to the untrained neural network is reduced, and the high-quality IVUS image 60b of the training data is reduced. The parameters are, for example, weights (coupling coefficients) between nodes. The method of optimizing the parameters is not particularly limited, but for example, the processing unit 31 optimizes various parameters using the steepest descent method or the like.

このように学習された画質改善学習モデル8によれば、図8に示すように、センサ部12を用いて略同一の観察位置で撮像された低画質IVUS画像60a及びOCT画像70を入力することによって、高画質IVUS画像60bが得られる。 According to the image quality improvement learning model 8 thus trained, as shown in FIG. 8, a high-quality IVUS image 60b is obtained by inputting a low-quality IVUS image 60a and an OCT image 70 captured at approximately the same observation position using the sensor unit 12.

図10は、本実施形態1に係る画像処理手順を示すフローチャートである。画像処理装置3の超音波ラインデータ生成部33及び光ラインデータ生成部34は、超音波送受信部12aから出力される反射波データ、光送受信部12bから出力される反射光及び参照光の干渉により得られる干渉光データに基づいて、複数本の超音波ラインデータ及び光ラインデータを生成する(ステップS111)。複数本の超音波ラインデータ及び光ラインデータには、例えば観察時間の時系列順にライン番号が付されている。ライン番号は、観察時点に相当する。言い換えると、ライン番号は観察位置及び観察方向に相当する。 Figure 10 is a flowchart showing the image processing procedure according to the first embodiment. The ultrasonic line data generating unit 33 and the optical line data generating unit 34 of the image processing device 3 generate multiple ultrasonic line data and optical line data based on the reflected wave data output from the ultrasonic transmission/reception unit 12a and the interference light data obtained by interference between the reflected light and reference light output from the optical transmission/reception unit 12b (step S111). The multiple ultrasonic line data and optical line data are assigned line numbers in chronological order of the observation time, for example. The line number corresponds to the observation time point. In other words, the line number corresponds to the observation position and observation direction.

次いで処理部31は、超音波ラインデータに基づいて複数フレームのIVUS画像60を構築し、光ラインデータに基づいて複数フレームのOCT画像70を構築する(ステップS112)。複数フレームのIVUS画像60及びOCT画像70には、例えば観察時間の時系列順にフレーム番号が付されている。フレーム番号は、観察位置に相当する。複数フレームのIVUS画像60及びOCT画像70は、プローブ11の先端側から基端側に亘る複数の観察位置で血管を観察して得た画像に相当する。但し、超音波送受信部12a及び光送受信部12bの配置、超音波又は光の送受信方向が異なるため、同一フレーム番号が付されたIVUS画像60及びOCT画像70の観察位置は必ずしも一致していない。言い換えると、IVUS画像60と、OCT画像70とは、血管の走行方向に位置ずれしている。また、同様の理由により、IVUS画像60と、OCT画像70とは、血管の周方向にも位置ずれしている。更に、OCT画像70を得るために血液はフラッシュ液に置換されており、フラッシュ液の種類等によって、IVUS画像60及びOCT画像70のスケールにもずれが生じている。 Next, the processing unit 31 constructs a plurality of frames of IVUS images 60 based on the ultrasound line data, and constructs a plurality of frames of OCT images 70 based on the light line data (step S112). The plurality of frames of IVUS images 60 and OCT images 70 are assigned frame numbers, for example, in chronological order of the observation time. The frame numbers correspond to the observation positions. The plurality of frames of IVUS images 60 and OCT images 70 correspond to images obtained by observing blood vessels at a plurality of observation positions from the tip side to the base side of the probe 11. However, since the arrangement of the ultrasound transmission/reception unit 12a and the light transmission/reception unit 12b and the transmission and reception directions of ultrasound or light are different, the observation positions of the IVUS images 60 and the OCT images 70 assigned the same frame number do not necessarily match. In other words, the IVUS images 60 and the OCT images 70 are misaligned in the running direction of the blood vessels. For the same reason, the IVUS image 60 and the OCT image 70 are also misaligned in the circumferential direction of the blood vessel. Furthermore, to obtain the OCT image 70, the blood is replaced with a flushing liquid, and depending on the type of flushing liquid, etc., there is also a misalignment in the scale of the IVUS image 60 and the OCT image 70.

なお、ステップS111及びステップS112の処理を実行する処理部31、超音波ラインデータ生成部33及び光ラインデータ生成部34は、IVUS画像60(超音波断層画像)及びOCT画像70(光干渉断層画像)を取得する取得部として機能する。 The processing unit 31, the ultrasound line data generating unit 33, and the optical line data generating unit 34 that execute the processes of steps S111 and S112 function as an acquisition unit that acquires an IVUS image 60 (ultrasonic tomographic image) and an OCT image 70 (optical coherence tomographic image).

次いで、処理部31は、IVUS画像60を第1学習モデル6に入力することによって、IVUS画像60における内腔画像、及び内腔外側のオブジェクト画像(例えば、血管壁画像、プラーク画像、ステント画像)を認識する(ステップS113)。処理部31は、複数フレームのIVUS画像60それぞれについて、画像認識処理を実行する。なお、第1学習モデル6から出力されるオブジェクト抽出IVUS画像61には、入力したIVUS画像60と同じフレーム番号又は同様のフレーム番号が付されている。また、ステップS113の処理を実行する処理部31は、IVUS画像60における内腔画像(第1内腔画像)を認識する第1認識部として機能する。 Next, the processing unit 31 inputs the IVUS image 60 into the first learning model 6 to recognize the lumen image in the IVUS image 60 and the object image outside the lumen (e.g., a blood vessel wall image, a plaque image, a stent image) (step S113). The processing unit 31 executes image recognition processing for each of the multiple frames of the IVUS image 60. Note that the object-extracted IVUS image 61 output from the first learning model 6 is assigned the same frame number as the input IVUS image 60 or a similar frame number. The processing unit 31 that executes the processing of step S113 also functions as a first recognition unit that recognizes the lumen image (first lumen image) in the IVUS image 60.

また、処理部31は、OCT画像70を第2学習モデル7に入力することによって、OCT画像70における内腔画像、及び内腔外側のオブジェクト画像(例えば、血管壁画像、プラーク画像、ステント画像)を認識する(ステップS114)。処理部31は、複数フレームのIVUS画像60それぞれについて、画像認識処理を実行する。なお、第2学習モデル7から出力されるオブジェクト抽出OCT画像71には、入力したOCT画像70と同じフレーム番号又は同様のフレーム番号が付されている。また、ステップS114の処理を実行する処理部31は、OCT画像70における内腔画像(第2内腔画像)を認識する第2認識部として機能する。 The processing unit 31 also recognizes the lumen image in the OCT image 70 and the object image outside the lumen (e.g., a blood vessel wall image, a plaque image, a stent image) by inputting the OCT image 70 into the second learning model 7 (step S114). The processing unit 31 executes image recognition processing for each of the multiple frames of the IVUS image 60. Note that the object-extracted OCT image 71 output from the second learning model 7 is assigned the same frame number as the input OCT image 70 or a similar frame number. The processing unit 31 that executes the processing of step S114 also functions as a second recognition unit that recognizes the lumen image (second lumen image) in the OCT image 70.

第1学習モデル6及び第2学習モデル7により認識することができるオブジェクト画像は必ずしも同一では無いが、処理部31は、少なくともIVUS画像60における内腔画像と、OCT画像70における内腔画像とを認識することができる。また、内腔画像の外側にある血管壁、プラーク、ステント等のオブジェクト画像の一部については、IVUS画像60及びOCT画像70の両画像において、共通のオブジェクト画像として認識される。 The object images that can be recognized by the first learning model 6 and the second learning model 7 are not necessarily the same, but the processing unit 31 can at least recognize the lumen image in the IVUS image 60 and the lumen image in the OCT image 70. In addition, some of the object images, such as blood vessel walls, plaques, and stents, that are outside the lumen image are recognized as common object images in both the IVUS image 60 and the OCT image 70.

図11は、オブジェクト抽出IVUS画像61及びオブジェクト抽出OCT画像71に基づいて構築される3次元内腔画像65,75を示す説明図である。複数フレームのオブジェクト抽出IVUS画像61は、血管の走行方向の複数の観察位置における内腔領域を示しており、処理部31は、図11上図に示すように、当該複数フレームのオブジェクト抽出IVUS画像61に含まれる内腔領域の画像に基づいて、3次元内腔画像65を構成することができる。
同様に、複数フレームのオブジェクト抽出OCT画像71は、血管の走行方向の複数の観察位置における内腔領域を示しており、処理部31は、図11下図に示すように、当該複数フレームのオブジェクト抽出OCT画像71に含まれる内腔領域の画像に基づいて、3次元内腔画像75を構成することができる。
11 is an explanatory diagram showing three-dimensional lumen images 65, 75 constructed based on an object-extraction IVUS image 61 and an object-extraction OCT image 71. The object-extraction IVUS image 61 of multiple frames shows the lumen region at multiple observation positions in the running direction of the blood vessel, and the processing unit 31 can construct a three-dimensional lumen image 65 based on images of the lumen region included in the object-extraction IVUS image 61 of multiple frames, as shown in the upper diagram of FIG.
Similarly, the object extraction OCT images 71 of multiple frames show the lumen region at multiple observation positions in the direction in which the blood vessel runs, and the processing unit 31 can construct a three-dimensional lumen image 75 based on the images of the lumen region contained in the object extraction OCT images 71 of multiple frames, as shown in the lower diagram of Figure 11.

次いで、処理部31は、剛体レジストレーションにより、3次元内腔画像65,75の位置、向き及び寸法を合致させる、3次元内腔画像65の平行移動量、回転量及びスケール補正係数を特定する(ステップS115)。つまり、処理部31は、複数フレームのIVUS画像60における内腔画像と、複数フレームのOCT画像70における内腔画像とが合致するフレーム番号の対応関係を特定する。また、処理部31は、IVUS画像60における内腔画像の向きと、OCT画像70における内腔画像の向きとを合致させる、IVUS画像60の回転量を特定する。また、処理部31は、IVUS画像60における内腔部分の径方向のスケール補正量を特定する。 Next, the processing unit 31 specifies the translation amount, rotation amount, and scale correction coefficient of the three-dimensional lumen image 65 that matches the position, orientation, and dimensions of the three-dimensional lumen image 65, 75 by rigid registration (step S115). That is, the processing unit 31 specifies the correspondence of frame numbers in which the lumen image in the multiple frames of the IVUS image 60 matches the lumen image in the multiple frames of the OCT image 70. The processing unit 31 also specifies the rotation amount of the IVUS image 60 that matches the orientation of the lumen image in the IVUS image 60 and the orientation of the lumen image in the OCT image 70. The processing unit 31 also specifies the radial scale correction amount of the lumen portion in the IVUS image 60.

図12は、剛体レジストレーションにより3次元内腔画像65,75を合致させ、観察位置、観察方向及びスケールを補正する方法を概念的に示す説明図である。図12中、上図は、オブジェクト抽出IVUS画像61に基づく3次元内腔画像65であり、下図は、オブジェクト抽出OCT画像71に基づく3次元内腔画像75である。3次元内腔画像65及び3次元内腔画像75は、観察位置と、観察方向と、血管の径方向におけるスケールがずれている。
処理部31は、例えば、上図及び中央の図に示すように剛体レジストレーションにより、オブジェクト抽出IVUS画像61に基づく3次元内腔画像65を平行移動させ、周方向に回転させ、また、血管内腔を径方向に伸縮させることによって、3次元内腔画像65,75の位置、向き及び寸法が合致する平行移動量、回転量、内腔部分のスケール補正係数を特定する。具体的には、処理部31は、3次元座標系における3次元内腔画像65と、3次元内腔画像75との類似度又は相違度を算出し、類似度が最大又は相違度が最小になる平行移動量、回転量、内腔部分のスケール補正係数を特定する。類似度としては、例えば正規化相互相関等を用いればよい。相違度としては、残差2乗和等を用いればよい。なお、処理部31は、3次元内腔画像65,75の輪郭の類似度又は相違度を算出すればよい。
Fig. 12 is an explanatory diagram conceptually showing a method of matching three-dimensional lumen images 65, 75 by rigid registration and correcting the observation position, observation direction, and scale. In Fig. 12, the upper diagram is a three-dimensional lumen image 65 based on an object-extracted IVUS image 61, and the lower diagram is a three-dimensional lumen image 75 based on an object-extracted OCT image 71. The three-dimensional lumen image 65 and the three-dimensional lumen image 75 are misaligned in the observation position, observation direction, and scale in the radial direction of the blood vessel.
The processing unit 31 translates the three-dimensional lumen image 65 based on the object-extracted IVUS image 61, rotates it in the circumferential direction, and expands and contracts the blood vessel lumen in the radial direction by rigid registration , for example, as shown in the upper and center figures, to specify the translation amount, rotation amount, and scale correction coefficient of the lumen part at which the position, orientation, and dimensions of the three-dimensional lumen images 65 and 75 match. Specifically, the processing unit 31 calculates the similarity or dissimilarity between the three-dimensional lumen image 65 and the three-dimensional lumen image 75 in the three-dimensional coordinate system, and specifies the translation amount, rotation amount, and scale correction coefficient of the lumen part at which the similarity is maximized or the dissimilarity is minimized. For example, normalized cross-correlation or the like may be used as the similarity. For the dissimilarity, the sum of squared residuals or the like may be used. The processing unit 31 may calculate the similarity or dissimilarity of the contours of the three-dimensional lumen images 65 and 75.

図13は、IVUS画像60及びOCT画像70の対応関係及びスケールの補正方法を概念的に示す説明図である。剛体レジストレーションによる3次元内腔画像65の平行移動は、IVUS画像60のフレーム番号と、OCT画像70のフレーム画像との対応関係の補正に相当する。また、3次元内腔画像65の回転は、IVUS画像60における画像の回転処理に相当する。 13 is an explanatory diagram conceptually showing a method of correcting the correspondence and scale between the IVUS image 60 and the OCT image 70. Translation of the three-dimensional lumen image 65 by rigid registration corresponds to correction of the correspondence between the frame number of the IVUS image 60 and the frame image of the OCT image 70. Rotation of the three-dimensional lumen image 65 corresponds to image rotation processing in the IVUS image 60.

処理部31は、IVUS画像60と、OCT画像70との対応関係を補正する(ステップS116)。つまり、同じ観察位置で撮像されたIVUS画像60のフレームと、OCT画像70のフレームとを対応付ける。具体的には、同じ観察位置で撮像されたIVUS画像60のフレーム番号と、OCT画像70のフレーム番号とを対応付ける。ステップS115で特定された平行移動量は、同じ観察位置で撮像されたIVUS画像60のフレーム番号と、OCT画像70のフレーム番号との差分に相当するため、当該差分に当たるフレーム数を加減算することによって、IVUS画像60と、OCT画像70とを対応付けることができる。なお、画像処理装置3は、平行移動量と、フレーム番号の差分との対応関係を記憶している。 The processing unit 31 corrects the correspondence between the IVUS image 60 and the OCT image 70 (step S116). That is, the frame of the IVUS image 60 captured at the same observation position is associated with the frame of the OCT image 70. Specifically, the frame number of the IVUS image 60 captured at the same observation position is associated with the frame number of the OCT image 70. Since the amount of parallel movement identified in step S115 corresponds to the difference between the frame number of the IVUS image 60 captured at the same observation position and the frame number of the OCT image 70, the IVUS image 60 can be associated with the OCT image 70 by adding or subtracting the number of frames corresponding to the difference. The image processing device 3 stores the correspondence between the amount of parallel movement and the difference in frame numbers.

また、処理部31は、IVUS画像60におけるオブジェクト画像の向きと、OCT画像70におけるオブジェクト画像の向きが一致するように、つまり観察方向が同一になるようにIVUS画像60の向きを補正する(ステップS117)。ステップS115で特定された回転量は、IVUS画像60と、OCT画像70の向きのずれ量、つまり回転角度のずれ量に相当するため、当該ずれ量分だけIVUS画像60を画像回転させることによって、IVUS画像60及びOCT画像70の向きを揃えることができる。 The processing unit 31 also corrects the orientation of the IVUS image 60 so that the orientation of the object image in the IVUS image 60 matches the orientation of the object image in the OCT image 70, i.e., so that the observation directions are the same (step S117). The amount of rotation identified in step S115 corresponds to the amount of deviation in the orientations of the IVUS image 60 and the OCT image 70, i.e., the amount of deviation in the rotation angle, so that the orientations of the IVUS image 60 and the OCT image 70 can be aligned by rotating the IVUS image 60 by the amount of deviation.

なお、3次元内腔画像65,75の剛体レジストレーションによる観察位置及び観察方向の補正について説明したが、3次元内腔画像65,75を構成せずに、オブジェクト抽出IVUS画像61及びオブジェクト抽出OCT画像71を直接的に比較することによって、観察位置、観察方向及びスケールを補正してもよい。 Although the correction of the observation position and observation direction by rigid registration of the three-dimensional lumen images 65, 75 has been described, the observation position, observation direction, and scale may also be corrected by directly comparing the object-extracted IVUS image 61 and the object-extracted OCT image 71 without constructing the three-dimensional lumen images 65, 75.

平行移動前においては、第nフレームのIVUS画像60と、第nフレームのOCT画像70とが対応付けられているものとする。nは1以上の整数である。処理部31は、例えば対応するフレーム番号のオブジェクト抽出IVUS画像61における内腔領域と、オブジェクト抽出OCT画像71における内腔領域との類似度又は相違度を算出する。処理部31は、所定数のオブジェクト抽出IVUS画像61及びオブジェクト抽出OCT画像71について、内腔領域の類似度又は相違度を算出する。次いで、処理部31は、第(n+α)フレームのオブジェクト抽出IVUS画像61における内腔領域と、第nフレームのオブジェクト抽出OCT画像71における内腔領域との類似度又は相違度を同様にして算出する。αは整数であり、3次元内腔画像65の平行移動量に相当する。処理部31は、変数αを1ずるインクリメントしながら、オブジェクト抽出IVUS画像61と、オブジェクト抽出OCT画像71との対応関係を検証する。
また、処理部31は、内腔領域を対比する際、オブジェクト抽出IVUS画像61における内腔領域の向きを周方向に角度補正量θだけ回転させる。角度補正量θは、3次元内腔画像65の回転量に相当する。なお、回転中心はオブジェクト抽出IVUS画像61の中心では無く、センサ部12の中心に相当する位置を中心にして回転させる。更に、処理部31は、内腔領域を対比する際、オブジェクト抽出IVUS画像61における内腔領域の径方向寸法をスケール補正係数k1により伸縮させる。処理部31は、変数αと共に、角度補正量θ及びスケール補正係数kを所定量ずつ変化させながら、オブジェクト抽出IVUS画像61及びオブジェクト抽出OCT画像71における内腔領域の類似度又は相違度を算出し、類似度が最大になる、又は相違度が最小になる変数α、角度補正量θ及びスケール補正係数k1を特定する。そして、処理部31は特定した変数α、角度補正量θ及びスケール補正係数k1を記憶する。
Before the translation, the IVUS image 60 of the nth frame and the OCT image 70 of the nth frame are associated with each other. n is an integer of 1 or more. The processing unit 31 calculates the similarity or difference between the lumen region in the object extraction IVUS image 61 of the corresponding frame number and the lumen region in the object extraction OCT image 71. The processing unit 31 calculates the similarity or difference between the lumen region for a predetermined number of object extraction IVUS images 61 and object extraction OCT images 71. Next, the processing unit 31 similarly calculates the similarity or difference between the lumen region in the object extraction IVUS image 61 of the (n+α)th frame and the lumen region in the object extraction OCT image 71 of the nth frame. α is an integer and corresponds to the amount of translation of the three-dimensional lumen image 65. The processing unit 31 verifies the correspondence between the object extraction IVUS image 61 and the object extraction OCT image 71 while incrementing the variable α by 1.
Furthermore, when comparing the lumen regions, the processing unit 31 rotates the orientation of the lumen region in the object extraction IVUS image 61 in the circumferential direction by an angle correction amount θ. The angle correction amount θ corresponds to the amount of rotation of the three-dimensional lumen image 65. The center of rotation is not the center of the object extraction IVUS image 61, but is rotated around a position corresponding to the center of the sensor unit 12. Furthermore, when comparing the lumen regions, the processing unit 31 expands or contracts the radial dimension of the lumen region in the object extraction IVUS image 61 by a scale correction coefficient k1. The processing unit 31 calculates the similarity or dissimilarity of the lumen region in the object extraction IVUS image 61 and the object extraction OCT image 71 while changing the angle correction amount θ and the scale correction coefficient k by a predetermined amount together with the variable α, and specifies the variable α, angle correction amount θ, and scale correction coefficient k1 that maximize the similarity or minimize the dissimilarity. Then, the processing unit 31 stores the specified variable α, angle correction amount θ, and scale correction coefficient k1.

なお、超音波送受信部12a及び光送受信部12bの配置、使用可能なフラッシュ液の特性により、一般的に内腔領域のずれ量は一定の範囲内に収まる。このため、変数α、角度補正量θ及びスケール補正係数k1それぞれについて、所定の探索範囲を設定するとよい。処理部31は、当該探索範囲において、内腔領域の類似度が最大又は相違度が最小になる変数α、角度補正量θ及びスケール補正係数k1を特定するように構成するとよい。
なお、超音波送受信部12a及び光送受信部12bの配置、超音波及び近赤外光の照射方向、血管のサイズ等により、観察位置が合致するIVUS画像60と、OCT画像70のフレーム番号は前後する可能性があるため、変数αの探索範囲は正負を含むようにするとよい。ただし、超音波送受信部12a及び光送受信部12bの配置に応じて、変数αの正側の探索範囲の広さと、負側の探索範囲の広さとを非対称にするとよい。より、効率的に変数αを特定することができる。
In addition, the amount of deviation of the lumen region generally falls within a certain range depending on the arrangement of the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b and the characteristics of the available flushing liquid. For this reason, it is preferable to set a predetermined search range for each of the variable α, the angle correction amount θ, and the scale correction coefficient k1. It is preferable to configure the processing unit 31 to specify the variable α, the angle correction amount θ, and the scale correction coefficient k1 that maximizes the similarity or minimizes the dissimilarity of the lumen region within the search range.
In addition, since the frame numbers of the IVUS image 60 and the OCT image 70, which match the observation position, may differ depending on the arrangement of the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b, the irradiation direction of the ultrasonic wave and the near-infrared light, the size of the blood vessel, etc., it is preferable that the search range of the variable α includes positive and negative values. However, it is preferable that the width of the search range on the positive side of the variable α and the width of the search range on the negative side are asymmetric depending on the arrangement of the ultrasonic transmission/reception unit 12a and the optical transmission/reception unit 12b. This makes it possible to specify the variable α more efficiently.

次いで、処理部31は、IVUS画像60における内腔部分のスケールを補正する(ステップS118)。 Next, the processing unit 31 corrects the scale of the lumen portion in the IVUS image 60 (step S118).

図14は、内腔部分のスケール補正方法を概念的に示す説明図である。上図は、オブジェクト抽出IVUS画像61と、補正前のIVUS画像60とを示している。下図は、オブジェクト抽出OCT画像71と、スケール補正後のIVUS画像60とを示している。処理部31は、上記した処理により、オブジェクト抽出IVUS画像61における内腔領域の寸法と、オブジェクト抽出OCT画像71における内腔領域の寸法とを比較することによって、IVUS画像60における内腔画像の寸法を、OCT画像70における内腔画像の寸法に合致させるスケール補正係数k1を特定する。補正係数k1は、IVUS画像60におけるセンサ部12に相当する部分を中心とする内腔画像における径方向の長さスケールを補正する係数である。処理部31は、IVUS画像60における内腔画像の径方向の長さを、補正係数k1を用いて線形変換することによって、スケール補正を行う。より具体的には、内腔領域にある任意のオブジェクト画像と、センサ部12の中心との距離をR1とすると、補正後のオブジェクト画像と、センサ部12の中心との距離R1’は、R1×k1で表される。処理部31はオブジェクト抽出IVUS画像61の内腔領域を補正係数k1で補正したときの輪郭と、オブジェクト抽出OCT画像71における内腔領域の輪郭とが合致する、言い換えると両輪郭の類似度が最大又は相違度が最小になる補正係数k1を求める。
そして、ステップS118において、処理部31は、求めた補正係数k1を用いて、IVUS画像60における内腔領域に対応する部位の径方向の長さスケールを補正する。ここでは内腔外側領域のスケールは補正しない。内腔領域が縮小した場合、内腔外側領域は周知の補間処理によって周方向に広げられる。内腔領域が拡大した場合、内腔外側領域は間引き処理によって周方向に狭められる。なお、内腔領域のスケール補正は、IVUSラインデータを用いて行い、スケール補正後のIVUSラインデータを用いてIVUS画像60を再構築するように構成してもよい。
FIG. 14 is an explanatory diagram conceptually showing a scale correction method for the lumen part. The upper diagram shows an object extraction IVUS image 61 and an IVUS image 60 before correction. The lower diagram shows an object extraction OCT image 71 and an IVUS image 60 after scale correction. The processing unit 31 identifies a scale correction coefficient k1 that matches the size of the lumen image in the IVUS image 60 with the size of the lumen image in the OCT image 70 by comparing the size of the lumen region in the object extraction IVUS image 61 with the size of the lumen region in the object extraction OCT image 71 through the above-mentioned processing. The correction coefficient k1 is a coefficient that corrects the radial length scale of the lumen image centered on the part corresponding to the sensor unit 12 in the IVUS image 60. The processing unit 31 performs scale correction by linearly converting the radial length of the lumen image in the IVUS image 60 using the correction coefficient k1. More specifically, if the distance between an arbitrary object image in the lumen region and the center of the sensor unit 12 is R1, then the distance R1' between the corrected object image and the center of the sensor unit 12 is expressed as R1 x k1. The processing unit 31 determines the correction coefficient k1 such that the contour when the lumen region of the object extraction IVUS image 61 is corrected with the correction coefficient k1 matches the contour of the lumen region in the object extraction OCT image 71, in other words, such that the similarity between the two contours is maximized or the difference is minimized.
Then, in step S118, the processing unit 31 uses the obtained correction coefficient k1 to correct the radial length scale of the portion corresponding to the lumen region in the IVUS image 60. Here, the scale of the lumen outer region is not corrected. If the lumen region shrinks, the lumen outer region is expanded in the circumferential direction by a known interpolation process. If the lumen region expands, the lumen outer region is narrowed in the circumferential direction by a thinning process. Note that the scale correction of the lumen region may be performed using IVUS line data, and the IVUS image 60 may be reconstructed using the scale-corrected IVUS line data.

次いで,処理部31は、IVUS画像60における内腔外側部分のスケールを補正する(ステップS119)。なお、ステップS115~ステップS119の処理を実行する処理部31は、観察位置、観察方向、スケール補正等の各種補正処理を行う補正部として機能する。 Next, the processing unit 31 corrects the scale of the portion outside the lumen in the IVUS image 60 (step S119). The processing unit 31, which executes the processes in steps S115 to S119, functions as a correction unit that performs various correction processes such as observation position, observation direction, and scale correction.

図15は、内腔外側部分のスケール補正方法を概念的に示す説明図である。上図は、オブジェクト抽出IVUS画像61と、補正前のIVUS画像60とを示し、下図は、オブジェクト抽出OCT画像71と、スケール補正後のIVUS画像60とを示している。処理部31は、オブジェクト抽出IVUS画像61における内腔領域外側の任意のオブジェクト画像と、オブジェクト抽出OCT画像71における内腔領域外側の当該オブジェクト画像の寸法とを比較することによって、IVUS画像60における内腔外側のオブジェクト画像を、OCT画像70における内腔外側のオブジェクト画像の寸法に合致させるスケール補正係数k2を特定する。補正係数k2は、IVUS画像60におけるセンサ部12に相当する部分を中心とする内腔外側における径方向の長さスケールを補正する係数である。処理部31は、IVUS画像60における内腔外側の画像の径方向の長さを、補正係数k2を用いて線形変換することによって、スケール補正を行う。より具体的には、内腔領域外側にある任意のオブジェクト画像と、センサ部12の中心との距離をR2とすると、補正後のオブジェクト画像と、センサ部12の中心との距離R2’は、R1’+(R2-R1)×k2で表される。処理部31はオブジェクト抽出IVUS画像61の内腔領域を補正係数k1で補正したときの内腔外側のオブジェクト画像と、オブジェクト抽出OCT画像71における内腔外側のオブジェクト画像とが合致する、言い換えると両オブジェクト画像の類似度が最大又は相違度が最小になる補正係数k2を求める。処理部31は、求めた補正係数k2を用いて、IVUS画像60における内腔外側の部位の径方向の長さスケールを補正する。なお、内腔外側領域のスケール補正は、IVUSラインデータを用いて行い、スケール補正後のIVUSラインデータを用いてIVUS画像60を再構築するように構成してもよい。 15 is an explanatory diagram conceptually showing a method of correcting the scale of the outer part of the lumen. The upper figure shows an object extraction IVUS image 61 and an IVUS image 60 before correction, and the lower figure shows an object extraction OCT image 71 and an IVUS image 60 after scale correction. The processing unit 31 identifies a scale correction coefficient k2 that matches the size of an object image outside the lumen in the IVUS image 60 to the size of an object image outside the lumen in the OCT image 70 by comparing an arbitrary object image outside the lumen region in the object extraction IVUS image 61 with the size of the object image outside the lumen region in the object extraction OCT image 71. The correction coefficient k2 is a coefficient that corrects the radial length scale on the outer side of the lumen centered on the part corresponding to the sensor unit 12 in the IVUS image 60. The processing unit 31 performs scale correction by linearly converting the radial length of the image outside the lumen in the IVUS image 60 using the correction coefficient k2. More specifically, if the distance between an arbitrary object image outside the lumen region and the center of the sensor unit 12 is R2, the distance R2' between the corrected object image and the center of the sensor unit 12 is expressed as R1' + (R2 - R1) x k2. The processing unit 31 obtains a correction coefficient k2 that matches the object image outside the lumen when the lumen region of the object extraction IVUS image 61 is corrected with the correction coefficient k1 with the object image outside the lumen in the object extraction OCT image 71, in other words, that maximizes the similarity between the two object images or minimizes the dissimilarity between the two object images. The processing unit 31 uses the obtained correction coefficient k2 to correct the radial length scale of the part outside the lumen in the IVUS image 60. Note that the scale correction of the lumen outside region may be performed using IVUS line data, and the IVUS image 60 may be reconstructed using the IVUS line data after the scale correction.

次いで、処理部31は、IVUS画像60が低画質IVUS画像60aである場合、画質改善学習モデル8を用いて、低画質IVUS画像60aの画質改善処理を実行する(ステップS120)。具体的には、図8に示すように、低画質IVUS画像60aを、画質改善学習モデル8の第1入力層81aに入力し、OCT画像70を第2入力層81bに入力することによって、高画質IVUS画像60bを生成する。なお、観察位置、観察方向及びスケールを合致させた低画質IVUS画像60a及びOCT画像70を画質改善学習モデル8に入力することによって、より正確な高画質IVUS画像60bを得ることができる。なお、ステップS120の処理を実行する処理部31は、画質改善学習モデル8を用いてIVUS画像60の画質改善を行う画質改善処理部として機能する。 Next, if the IVUS image 60 is a low-image-quality IVUS image 60a, the processing unit 31 uses the image quality improvement learning model 8 to perform image quality improvement processing of the low-image-quality IVUS image 60a (step S120). Specifically, as shown in FIG. 8, the low-image-quality IVUS image 60a is input to the first input layer 81a of the image quality improvement learning model 8, and the OCT image 70 is input to the second input layer 81b to generate a high-image-quality IVUS image 60b. Note that a more accurate high-image-quality IVUS image 60b can be obtained by inputting the low-image-quality IVUS image 60a and the OCT image 70, which have matching observation positions, observation directions, and scales, to the image quality improvement learning model 8. Note that the processing unit 31 that executes the processing of step S120 functions as an image quality improvement processing unit that improves the image quality of the IVUS image 60 using the image quality improvement learning model 8.

そして、処理部31は、観察位置、観察方向及びスケール補正、並びに画質改善されたIVUS画像60及びOCT画像70を表示装置4に表示する(ステップS121)。 Then, the processing unit 31 displays the IVUS image 60 and the OCT image 70 with the observation position, observation direction, and scale corrections, as well as the improved image quality, on the display device 4 (step S121).

なお、処理部31は、先に画質改善前の低画質IVUS画像60aを表示装置4に表示し、高画質IVUS画像60bが生成される都度、低画質IVUS画像60aを高画質IVUS画像60bに代えて表示するように構成してもよい。また、処理部31は、現在表示中の低画質IVUS画像60aから優先滴に画質改善処理を実行するとよい。 The processing unit 31 may be configured to first display the low-quality IVUS image 60a before image quality improvement on the display device 4, and each time a high-quality IVUS image 60b is generated, display the low-quality IVUS image 60a instead of the high-quality IVUS image 60b. The processing unit 31 may also perform image quality improvement processing on the priority droplet from the currently displayed low-quality IVUS image 60a.

以上の通り、本実施形態1に係る画像処理装置3等によれば、IVUS機能及びOCT機能を備えるデュアルタイプのカテーテルを用いて得られたIVUS画像60及びOCT画像70の観察位置及び観察方向を整合させることができる。 As described above, the image processing device 3 and the like according to this embodiment 1 can align the observation positions and observation directions of the IVUS image 60 and the OCT image 70 obtained using a dual-type catheter equipped with IVUS and OCT functions.

IVUS機能及びOCT機能を備えるデュアルタイプのカテーテルを用いて得られたIVUS画像60及びOCT画像70のスケール、特に径方向スケールを整合させることができる。 The scale, particularly the radial scale, of the IVUS image 60 and the OCT image 70 obtained using a dual-type catheter with IVUS and OCT functions can be aligned.

更に、高速プルバック時においても高画質IVUS画像60bを構築することができる。具体的には、低画質IVUS画像60a及びOCT画像70に基づいて、高画質IVUS画像60bを構築することができる。従って、IVUS機能及びOCT機能を備えるデュアルタイプのカテーテルを用いたIVUS画像60及びOCT画像70の撮像高速化及び造影剤低減と、高画質化とを両立することができる。 Furthermore, a high-quality IVUS image 60b can be constructed even during high-speed pullback. Specifically, a high-quality IVUS image 60b can be constructed based on a low-quality IVUS image 60a and an OCT image 70. Therefore, it is possible to achieve both high-speed imaging of the IVUS image 60 and the OCT image 70 using a dual-type catheter equipped with IVUS and OCT functions, reduction in contrast agent, and high image quality.

なお、本実施形態1では、第1学習モデル6及び第2学習モデル7を用いて、IVUS画像60及びOCT画像70における内腔画像を認識する例を説明したが、2値化、エッジ検出、パターンマッチング等の画像処理によって、内腔画像の輪郭を抽出するようにしてもよい。 In the first embodiment, an example of recognizing an intraluminal image in an IVUS image 60 and an OCT image 70 using the first learning model 6 and the second learning model 7 has been described, but the contour of the intraluminal image may be extracted by image processing such as binarization, edge detection, and pattern matching.

また、IVUS画像60における内腔部分と、内腔外側部分とを異なる補正係数でスケール補正する例を説明したが、内腔部分のみ、径方向のスケールを補正するように構成してもよい。
更に、一つのスケール補正係数k1を用いて、全てのIVUS画像60における内腔画像のスケール補正を行う例を説明したが、連続する所定フレーム枚数毎に補正係数k1を特定し、IVUS画像60における内腔画像のスケールを補正するように構成してもよい。
Also, an example has been described in which the scale correction is performed using different correction coefficients for the lumen portion and the lumen outer portion in the IVUS image 60, but it may be configured such that the radial scale is corrected only for the lumen portion.
Furthermore, although an example has been described in which one scale correction coefficient k1 is used to perform scale correction of the lumen images in all IVUS images 60, it is also possible to specify a correction coefficient k1 for each predetermined number of consecutive frames and configure the scale of the lumen images in the IVUS images 60 to be corrected.

更に、IVUS画像60及びOCT画像70の観察位置、観察方向の補正及び径方向のスケール補正を行う例を説明したが、観察位置及び観察方向の補正、径方向のスケール補正のいずれか一つ又は2つを実行するように構成してもよい。 Furthermore, although an example of performing correction of the observation position, observation direction, and radial scale correction of the IVUS image 60 and the OCT image 70 has been described, it may be configured to perform either one or two of the correction of the observation position and observation direction, and the radial scale correction.

更にまた、本実施形態では、3次元内腔画像65,75の平行移動量、回転量及びスケール補正量を特定する例を説明したが、スケール補正係数を特定しない場合、平行移動量及び回転量のみを特定するように構成してもよい。なお、3次元内腔画像65,75平行移動、回転、拡大又は縮小を行う線形変換を主に説明したが、高次多項式、その他の非線形変換により、3次元内腔画像65,75を整合させる補正量を算出するように構成してもよい。 Furthermore, in the present embodiment , an example has been described in which the translation amount, rotation amount, and scale correction amount of the three-dimensional lumen images 65, 75 are specified, but in the case where the scale correction coefficient is not specified , only the translation amount and the rotation amount may be specified. Note that while the linear transformation for performing translation , rotation, enlargement, or reduction of the three-dimensional lumen images 65, 75 has been mainly described, a configuration may be made in which a correction amount for aligning the three-dimensional lumen images 65, 75 is calculated by a high-order polynomial or other nonlinear transformation.

更にまた、観察位置及び観察方向を合致させ、及びスケール補正を行った低画質IVUS画像60aと、OCT画像70とを用いて、IVUS画像60の画質改善を行う例を説明したが、かかる補正を行わずに、低画質IVUS画像60aと、OCT画像70を画質改善学習モデル8に入力することによって、高画質IVUS画像60bを生成するように構成してもよい。 Furthermore, an example has been described in which the image quality of the IVUS image 60 is improved using a low-image-quality IVUS image 60a in which the observation position and direction have been matched and scale correction has been performed, and an OCT image 70. However, it is also possible to generate a high-image-quality IVUS image 60b by inputting the low-image-quality IVUS image 60a and the OCT image 70 into the image quality improvement learning model 8 without performing such correction.

更にまた、本実施形態1では、OCT画像70を基準にしてIVUS画像60の向き及びスケールを補正する例を説明したが、IVUS画像60を基準にしてOCT画像70の向き及びスケールを補正するように構成してもよい。
具体的には、ステップS115において、処理部31は、IVUS画像60における内腔画像の向きと、OCT画像70における内腔画像の向きとを合致させる、OCT画像70の回転量を特定する。また、処理部31は、OCT画像70における内腔部分の径方向のスケール補正量を特定する。処理部31は、例えば、剛体レジストレーションにより、オブジェクト抽出OCT画像71に基づく3次元内腔画像75を平行移動させ、周方向に回転させ、また、血管内腔を径方向に伸縮させることによって、3次元内腔画像65,75の位置、向き及び寸法が合致する平行移動量、回転量、内腔部分のスケール補正係数を特定する。
そして、処理部31は、ステップS117において、IVUS画像60におけるオブジェクト画像の向きと、OCT画像70におけるオブジェクト画像の向きが一致するように、つまり観察方向が同一になるようにOCT画像70の向きを補正する。また、処理部31は、ステップS118において、OCT画像70における内腔部分のスケールを補正し、ステップS119において、OCT画像70における内腔外側部分のスケールを補正する。
Furthermore, in this embodiment 1, an example has been described in which the orientation and scale of the IVUS image 60 are corrected based on the OCT image 70, but it may also be configured to correct the orientation and scale of the OCT image 70 based on the IVUS image 60.
Specifically, in step S115, the processing unit 31 specifies the amount of rotation of the OCT image 70 that matches the orientation of the lumen image in the IVUS image 60 with the orientation of the lumen image in the OCT image 70. The processing unit 31 also specifies the amount of scale correction in the radial direction of the lumen portion in the OCT image 70. For example, the processing unit 31 translates the three-dimensional lumen image 75 based on the object-extracted OCT image 71, rotates it in the circumferential direction, and expands and contracts the blood vessel lumen in the radial direction by rigid registration , thereby specifying the amount of translation, the amount of rotation, and the scale correction coefficient of the lumen portion that match the positions, orientations, and dimensions of the three-dimensional lumen images 65, 75.
Then, in step S117, the processing unit 31 corrects the orientation of the OCT image 70 so that the orientation of the object image in the IVUS image 60 and the orientation of the object image in the OCT image 70 match, that is, so that the observation directions are the same. In addition, in step S118, the processing unit 31 corrects the scale of the inner cavity portion in the OCT image 70, and in step S119, corrects the scale of the outer cavity portion in the OCT image 70.

更にまた、IVUS画像60及びOCT画像70以外の第3の医用画像がある場合、当該医用画像を基準に、IVUS画像60及びOCT画像70の観察位置、観察方向、スケールが互いに整合するようにIVUS画像60及びOCT画像70の双方を補正するように構成してもよい。 Furthermore, if there is a third medical image other than the IVUS image 60 and the OCT image 70, both the IVUS image 60 and the OCT image 70 may be configured to be corrected based on the third medical image so that the observation position, observation direction, and scale of the IVUS image 60 and the OCT image 70 are consistent with each other.

(実施形態2)
実施形態2に係る画像診断装置100は、超音波ラインデータ及び光ラインデータベースで、観察位置、観察方向及びスケールの補正を行う点が実施形態1と異なる。画像処理装置3のその他の構成は、実施形態1に係る画像処理装置3と同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。
(Embodiment 2)
The image diagnostic device 100 according to the second embodiment differs from the first embodiment in that the ultrasound line data and the light line database are used to correct the observation position, observation direction, and scale. Since the other configurations of the image processing device 3 are similar to those of the image processing device 3 according to the first embodiment, the same reference numerals are used for similar parts, and detailed descriptions thereof will be omitted.

図16は、実施形態2に係る画像処理手順を示すフローチャートである。処理部31は、実施形態1と同様にして、超音波ラインデータ及び光ラインデータを生成する(ステップS211)。そして、処理部31は、超音波ラインデータ及び光ラインデータを用いて、内腔画像、血管壁画像、プラーク及びステント等の画像認識を行う(ステップS212、ステップS213)。
なお、第1学習モデル6及び第2学習モデル7は、フレーム画像として構築されたIVUS画像60及びOCT画像70のフレーム画像では無く、1フレームを構成する超音波ラインデータ及び光ラインデータを訓練データとして学習している。つまり、1フレームを構成する超音波ラインデータを並べた画像は、第1軸を周方向、第2軸を深さ方向とする極座標で表したような画像である。第1学習モデル6に1フレームを構成する超音波ラインデータが入力された場合、オブジェクト画像が抽出されたオブジェクト抽出超音波ラインデータが出力される。同様に、第2学習モデル7に1フレームを構成するOCTラインデータが入力された場合、オブジェクト画像が抽出されたオブジェクト抽出OCTラインデータが出力される。
16 is a flowchart showing an image processing procedure according to embodiment 2. The processing unit 31 generates ultrasound line data and optical line data (step S211) in the same manner as in embodiment 1. Then, the processing unit 31 uses the ultrasound line data and optical line data to perform image recognition of a lumen image, a vascular wall image, plaque, a stent, and the like (steps S212 and S213).
In addition, the first learning model 6 and the second learning model 7 learn the ultrasonic line data and the light line data constituting one frame as training data, instead of the frame images of the IVUS image 60 and the OCT image 70 constructed as frame images. In other words, an image in which the ultrasonic line data constituting one frame are arranged is an image expressed in polar coordinates with the first axis being the circumferential direction and the second axis being the depth direction. When the ultrasonic line data constituting one frame is input to the first learning model 6, the object-extracted ultrasonic line data from which the object image is extracted is output. Similarly, when the OCT line data constituting one frame is input to the second learning model 7, the object-extracted OCT line data from which the object image is extracted is output.

次いで、処理部31は、実施形態1と同様の観察位置、観察方向及びスケールの補正をラインデータ単位で実行する(ステップS214~ステップS218)。なお、ステップS215、ステップS216の処理は一の処理で実行するとよい。処理部31は補正後の超音波ラインデータ及び光ラインデータに基づいて、IVUS画像60及びOCT画像70を構築する(ステップS219)。ステップS220及びステップS221の処理は実施形態1と同様である。 Then, the processing unit 31 performs corrections of the observation position, observation direction, and scale on a line data basis in the same manner as in embodiment 1 (steps S214 to S218). Note that the processes of steps S215 and S216 may be performed in a single process. The processing unit 31 constructs an IVUS image 60 and an OCT image 70 based on the corrected ultrasound line data and optical line data (step S219). The processes of steps S220 and S221 are the same as those in embodiment 1.

図17は、超音波ラインデータ及び光ラインデータの対応関係の補正方法を示す説明図である。上図は超音波ラインデータを示す模式図、下図は光ラインセンサを示す模式図である。処理部31は、実施形態1と同様、平行移動前においては、第nラインの超音波ラインデータと、第nラインの光ラインデータとが対応付けられているものとする。nは1以上の整数である。処理部31は、例えば対応する第nライン~第mラインのオブジェクト抽出超音波ラインデータにおける内腔領域と、オブジェクト抽出光ラインデータにおける内腔領域との類似度又は相違度を算出する。mはnより大きな整数である。次いで、処理部31は、第(n+β)ライン~第(m+β)の超音波ラインデータにおける内腔領域と、第nライン~第mラインのオブジェクト抽出光ラインデータにおける内腔領域との類似度又は相違度を同様にして算出する。変数βは1以上の整数であり、3次元内腔画像65の平行移動量及び回転量に相当する。変数βを1ずつインクリメントしながら、超音波ラインデータ及び光ラインデータの対応関係を検証する。そして、処理部31は、類似度が最大になる、又は相違度が最小になる変数βを特定する。そして、処理部31は特定した変数βを記憶する。 17 is an explanatory diagram showing a method of correcting the correspondence between ultrasound line data and light line data. The upper figure is a schematic diagram showing ultrasound line data, and the lower figure is a schematic diagram showing a light line sensor. As in the first embodiment, the processing unit 31 assumes that the nth line of ultrasound line data and the nth line of light line data are associated with each other before translation. n is an integer of 1 or more. The processing unit 31 calculates, for example, the similarity or difference between the lumen area in the corresponding nth line to mth line of object extraction ultrasound line data and the lumen area in the object extraction light line data. m is an integer greater than n. Next, the processing unit 31 similarly calculates the similarity or difference between the lumen area in the (n+β)th line to (m+β)th line of ultrasound line data and the lumen area in the nth line to mth line of object extraction light line data. The variable β is an integer of 1 or more, and corresponds to the amount of translation and rotation of the three-dimensional lumen image 65. The correspondence between the ultrasound line data and the optical line data is verified while incrementing the variable β by 1. Then, the processing unit 31 identifies the variable β that maximizes the similarity or minimizes the dissimilarity. Then, the processing unit 31 stores the identified variable β.

図18は、超音波ラインデータ及び光ラインデータのスケール補正方法を示す説明図である。オブジェクト抽出超音波ラインデータにおける内腔領域の輪郭と、光ラインデータにおける内腔領域の輪郭とが合致するように、超音波ラインデータの内腔画像の寸法に合致させるスケール補正係数k1を特定する。同様にして、オブジェクト抽出超音波ラインデータにおける内腔外側のオブジェクト領域の寸法と、オブジェクト抽出光ラインデータにおける内腔外側のオブジェクト領域の寸法とが合致するように、超音波ラインデータの内腔外側のスケール補正係数k2を特定する。処理部31は、求めた補正係数k1を用いて、超音波ラインデータにおける内腔領域に対応する部位の径方向の長さスケールを補正する。また、処理部31は、補正係数k2を用いて、超音波ラインデータにおける内腔外側の領域に対応する部位の径方向の長さスケールを補正する。 Figure 18 is an explanatory diagram showing a method of correcting the scale of ultrasound line data and light line data. A scale correction coefficient k1 is specified to match the dimensions of the lumen image of the ultrasound line data so that the contour of the lumen region in the object extraction ultrasound line data matches the contour of the lumen region in the light line data. Similarly, a scale correction coefficient k2 for the outside of the lumen of the ultrasound line data is specified so that the dimensions of the object region outside the lumen in the object extraction ultrasound line data match the dimensions of the object region outside the lumen in the object extraction light line data. The processing unit 31 uses the obtained correction coefficient k1 to correct the radial length scale of the part corresponding to the lumen region in the ultrasound line data. The processing unit 31 also uses the correction coefficient k2 to correct the radial length scale of the part corresponding to the outside of the lumen region in the ultrasound line data.

本実施形態2に係る画像処理装置3等によれば、実施形態1と同様、デュアルタイプのカテーテルを用いて得られたIVUS画像60及びOCT画像70の観察位置、観察方向を整合させることができ、更にスケールを整合させることができる。 According to the image processing device 3 etc. of this embodiment 2, as in the first embodiment, it is possible to align the observation position and observation direction of the IVUS image 60 and the OCT image 70 obtained using a dual-type catheter, and further to align the scale.

超音波ラインデータ及び超音波ラインデータに対する画像処理によって、観察位置、観察方向及びスケールを補正し、IVUS画像60及びOCT画像70を構築するため、より正確に効率良く補正を行い、IVUS画像60及びOCT画像70を構築することができる。 By performing image processing on the ultrasound line data and the ultrasound line data, the observation position, observation direction, and scale are corrected to construct the IVUS image 60 and the OCT image 70, so corrections can be made more accurately and efficiently to construct the IVUS image 60 and the OCT image 70.

なお、実施形態2においては、光ラインデータベースを基準にして、超音波ラインデータのスケールを補正する例を説明したが、超音波ラインデータを基準にして光ラインデータベースのスケールを補正するように構成してもよい。 In the second embodiment, an example is described in which the scale of the ultrasound line data is corrected based on the optical line database, but the scale of the optical line database may be corrected based on the ultrasound line data.

1 画像診断用カテーテル
2 MDU
3 画像処理装置
4 表示装置
5 入力装置
6 第1学習モデル
7 第2学習モデル
8 画質改善学習モデル
11 プローブ
11a
12 センサ部
12a 超音波送受信部
12b 光送受信部
12c ハウジング
13 シャフト
14 ガイドワイヤ挿通部
15 コネクタ部
30 記録媒体
31 処理部
32 記憶部
33 超音波ラインデータ生成部
34 光ラインデータ生成部
60 IVUS画像
60a 低画質IVUS画像
60b 高画質IVUS画像
61 オブジェクト抽出IVUS画像
65 3次元内腔画像
70 OCT画像
71 オブジェクト抽出OCT画像
75 3次元内腔画像
100 画像診断装置
101 血管内検査装置
102 血管造影装置
1 Diagnostic imaging catheter 2 MDU
Reference Signs List 3 Image processing device 4 Display device 5 Input device 6 First learning model 7 Second learning model 8 Image quality improvement learning model 11 Probe 11a
12 Sensor section 12a Ultrasound transmitting/receiving section 12b Optical transmitting/receiving section 12c Housing 13 Shaft 14 Guide wire insertion section 15 Connector section 30 Recording medium 31 Processing section 32 Storage section 33 Ultrasound line data generating section 34 Optical line data generating section 60 IVUS image 60a Low-quality IVUS image 60b High-quality IVUS image 61 Object-extracted IVUS image 65 Three-dimensional lumen image 70 OCT image 71 Object-extracted OCT image 75 Three-dimensional lumen image 100 Imaging diagnostic device 101 Intravascular inspection device 102 Angiography device

Claims (8)

血管である管腔器官の血液がフラッシュ液で置換されている間に、前記管腔器官の内腔から径方向の外側を向いて超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部にて超音波断層画像及び光干渉断層画像を取得し、
取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識し、
取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識し、
認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像の輪郭と、前記第2内腔画像の輪郭との寸法が整合するように、前記第1内腔画像の輪郭より径方向内側における前記超音波断層画像のスケール又は前記第2内腔画像の輪郭より径方向内側における前記光干渉断層画像のスケールを補正する
処理をコンピュータに実行させるためのコンピュータプログラム。
While the blood in the hollow organ, which is a blood vessel, is being replaced with a flushing liquid , an ultrasonic tomographic image and an optical coherence tomographic image are acquired by a sensor unit having an ultrasonic transceiver unit that transmits and receives ultrasonic waves from the inner cavity of the hollow organ toward the outside in the radial direction and an optical transceiver unit that transmits and receives light,
Recognizing a first lumen image of the tubular organ included in the acquired ultrasonic tomographic image;
Recognizing a second lumen image of the tubular organ included in the acquired optical coherence tomographic image;
A computer program for causing a computer to execute a process of correcting the scale of the ultrasound tomographic image radially inward from the contour of the first lumen image or the scale of the optical coherence tomographic image radially inward from the contour of the second lumen image so that dimensions of the contour of the first lumen image and the contour of the second lumen image are consistent based on the recognized first lumen image and second lumen image.
取得した前記超音波断層画像に含まれる前記第1内腔画像より前記径方向の外側に位置する所定オブジェクトの第1オブジェクト画像を認識し、
取得した前記光干渉断層画像に含まれる前記第2内腔画像より前記径方向の外側に位置する前記所定オブジェクトの第2オブジェクト画像を認識し、
認識した前記第1オブジェクト画像及び前記第2オブジェクト画像に基づいて、前記第1オブジェクト画像及び前記第2オブジェクト画像の寸法が整合するように、前記第1内腔画像より径方向外側における前記超音波断層画像のスケール又は前記第2内腔画像より径方向外側における前記光干渉断層画像のスケールを補正する
処理をコンピュータに実行させるための請求項1に記載のコンピュータプログラム。
Recognizing a first object image of a predetermined object located radially outward from the first lumen image included in the acquired ultrasonic tomographic image;
Recognizing a second object image of the predetermined object located radially outward from the second lumen image included in the acquired optical coherence tomographic image;
The computer program of claim 1 , which causes a computer to execute a process of correcting the scale of the ultrasound tomographic image radially outward from the first lumen image or the scale of the optical coherence tomographic image radially outward from the second lumen image so that the dimensions of the first object image and the second object image are consistent based on the recognized first object image and second object image.
前記超音波断層画像に含まれる前記第1内腔画像を認識する第1学習モデルに、取得した前記超音波断層画像を入力することによって、前記超音波断層画像における前記第1内腔画像を認識し、
前記光干渉断層画像に含まれる前記第2内腔画像を認識する第2学習モデルに、取得した前記光干渉断層画像を入力することによって、前記光干渉断層画像における前記第2内腔画像を認識する
処理をコンピュータに実行させるための請求項1又は請求項2に記載のコンピュータプログラム。
The first lumen image in the ultrasonic tomographic image is recognized by inputting the acquired ultrasonic tomographic image into a first learning model that recognizes the first lumen image included in the ultrasonic tomographic image;
The computer program of claim 1 or claim 2, which causes a computer to execute a process of recognizing the second intraluminal image in the optical coherence tomographic image by inputting the acquired optical coherence tomographic image into a second learning model that recognizes the second intraluminal image included in the optical coherence tomographic image.
前記超音波断層画像に含まれる前記第1内腔画像と、前記第1内腔画像より前記径方向の外側に位置する前記第1オブジェクト画像とを認識する第1学習モデルに、取得した前記超音波断層画像を入力することによって、前記超音波断層画像における前記第1内腔画像及び前記第1オブジェクト画像を認識し、
前記光干渉断層画像に含まれる前記第2内腔画像と、前記第2内腔画像より前記径方向の外側に位置する前記第2オブジェクト画像とを認識する第2学習モデルに、取得した前記光干渉断層画像を入力することによって、前記光干渉断層画像における前記第2内腔画像及び前記第2オブジェクト画像を認識する
処理をコンピュータに実行させるための請求項2に記載のコンピュータプログラム。
The acquired ultrasonic tomographic image is input to a first learning model that recognizes the first lumen image included in the ultrasonic tomographic image and the first object image located radially outward from the first lumen image, thereby recognizing the first lumen image and the first object image in the ultrasonic tomographic image;
The computer program of claim 2, which causes a computer to execute a process of recognizing the second lumen image and the second object image in the optical coherence tomographic image by inputting the acquired optical coherence tomographic image into a second learning model that recognizes the second lumen image included in the optical coherence tomographic image and the second object image located radially outside the second lumen image.
前記センサ部を前記管腔器官の走行方向に沿って移動させながら複数の前記超音波断層画像及び複数の前記光干渉断層画像を取得し、
複数の前記超音波断層画像に含まれる前記第1内腔画像と、複数の前記光干渉断層画像に含まれる前記第2内腔画像とを比較することによって、略同一の観察位置の断層像である前記超音波断層画像及び前記光干渉断層画像を特定し、
特定された前記超音波断層画像及び前記光干渉断層画像に含まれる前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像及び前記第2内腔画像の寸法が整合するように、前記超音波断層画像又は前記光干渉断層画像の前記径方向におけるスケールを補正する
処理をコンピュータに実行させるための請求項1から請求項4のいずれか1項に記載のコンピュータプログラム。
a plurality of the ultrasonic tomographic images and a plurality of the optical coherence tomographic images are acquired while moving the sensor unit along a running direction of the tubular organ;
By comparing the first lumen image included in the plurality of ultrasonic tomographic images with the second lumen image included in the plurality of optical coherence tomographic images, the ultrasonic tomographic images and the optical coherence tomographic images which are tomographic images at substantially the same observation position are identified;
The computer program of claim 1 , which causes a computer to execute a process of correcting the radial scale of the ultrasonic tomographic image or the optical coherence tomographic image so that the dimensions of the first lumen image and the second lumen image are consistent based on the first lumen image and the second lumen image contained in the identified ultrasonic tomographic image and the optical coherence tomographic image.
認識した前記第1内腔画像に基づく3次元内腔画像及び前記第2内腔画像に基づく3次元内腔画像の剛体レジストレーションにより、前記3次元内腔画像の寸法が整合するようにスケールを補正する
処理をコンピュータに実行させるための請求項5に記載のコンピュータプログラム。
The computer program of claim 5, which causes a computer to execute a process of correcting the scale so that the dimensions of the three-dimensional lumen image are consistent by rigid registration of a three-dimensional lumen image based on the recognized first lumen image and a three-dimensional lumen image based on the recognized second lumen image.
画像処理装置の作動方法であって、
前記画像処理装置は、
血管である管腔器官の血液がフラッシュ液で置換されている間に、前記管腔器官の内腔から径方向の外側を向いて超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部によって得られるデータから構築される超音波断層画像及び光干渉断層画像を取得し、
取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識し、
取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識し、
認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像の輪郭と、前記第2内腔画像の輪郭との寸法が整合するように、前記第1内腔画像の輪郭より径方向内側における前記超音波断層画像のスケール又は前記第2内腔画像の輪郭より径方向内側における前記光干渉断層画像のスケールを補正する
画像処理装置の作動方法。
1. A method of operating an image processing device, comprising:
The image processing device includes:
While the blood in the tubular organ, which is a blood vessel, is being replaced with a flushing liquid , an ultrasonic tomographic image and an optical coherence tomographic image are constructed from data obtained by a sensor unit having an ultrasonic transceiver unit that transmits and receives ultrasonic waves from the inner cavity of the tubular organ toward the outside in the radial direction and an optical transceiver unit that transmits and receives light,
Recognizing a first lumen image of the tubular organ included in the acquired ultrasonic tomographic image;
Recognizing a second lumen image of the tubular organ included in the acquired optical coherence tomographic image;
A method for operating an image processing device, comprising: correcting, based on the recognized first and second lumen images, the scale of the ultrasound tomographic image radially inward from the contour of the first lumen image or the scale of the optical coherence tomographic image radially inward from the contour of the second lumen image so that dimensions of the contour of the first lumen image and the contour of the second lumen image are consistent.
血管である管腔器官の血液がフラッシュ液で置換されている間に、前記管腔器官の内腔から径方向の外側を向いて超音波を送受信する超音波送受信部及び光を送受信する光送受信部を有するセンサ部にて超音波断層画像及び光干渉断層画像を取得する取得部と、
前記取得部にて取得した前記超音波断層画像に含まれる前記管腔器官の第1内腔画像を認識する第1認識部と、
前記取得部にて取得した前記光干渉断層画像に含まれる前記管腔器官の第2内腔画像を認識する第2認識部と、
前記第1認識部及び前記第2認識部にて認識した前記第1内腔画像及び前記第2内腔画像に基づいて、前記第1内腔画像の輪郭と、前記第2内腔画像の輪郭との寸法が整合するように、前記第1内腔画像の輪郭より径方向内側における前記超音波断層画像のスケール又は前記第2内腔画像の輪郭より径方向内側における前記光干渉断層画像のスケールを補正する補正部と
を備える画像処理装置。
an acquisition unit that acquires ultrasonic tomographic images and optical coherence tomographic images using a sensor unit having an ultrasonic transmission/reception unit that transmits and receives ultrasonic waves from the inner cavity of the tubular organ toward the outside in the radial direction while the blood in the tubular organ, which is a blood vessel, is being replaced with a flushing liquid;
a first recognition unit that recognizes a first lumen image of the tubular organ included in the ultrasonic tomographic image acquired by the acquisition unit;
a second recognition unit that recognizes a second lumen image of the tubular organ included in the optical coherence tomographic image acquired by the acquisition unit;
and a correction unit that corrects the scale of the ultrasonic tomographic image radially inward from the contour of the first lumen image or the scale of the optical coherence tomographic image radially inward from the contour of the second lumen image based on the first lumen image and the second lumen image recognized by the first recognition unit and the second recognition unit so that dimensions of the contour of the first lumen image and the contour of the second lumen image are consistent.
JP2021047674A 2021-03-22 2021-03-22 Computer program, operation method of image processing device, and image processing device Active JP7623175B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021047674A JP7623175B2 (en) 2021-03-22 2021-03-22 Computer program, operation method of image processing device, and image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021047674A JP7623175B2 (en) 2021-03-22 2021-03-22 Computer program, operation method of image processing device, and image processing device

Publications (2)

Publication Number Publication Date
JP2022146619A JP2022146619A (en) 2022-10-05
JP7623175B2 true JP7623175B2 (en) 2025-01-28

Family

ID=83461625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021047674A Active JP7623175B2 (en) 2021-03-22 2021-03-22 Computer program, operation method of image processing device, and image processing device

Country Status (1)

Country Link
JP (1) JP7623175B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014041579A1 (en) 2012-09-11 2014-03-20 テルモ株式会社 Image diagnosis device and image processing method
WO2014049641A1 (en) 2012-09-26 2014-04-03 テルモ株式会社 Diagnostic imaging device, information processing device, and method for controlling diagnostic imaging device and information processing device
JP2014180575A (en) 2013-03-15 2014-09-29 Lightlab Imaging Inc Method for bringing probe, system, and image into registration (probe)
WO2014162367A1 (en) 2013-04-05 2014-10-09 テルモ株式会社 Image diagnosis device and program
WO2020217860A1 (en) 2019-04-26 2020-10-29 テルモ株式会社 Diagnostic assistance device and diagnostic assistance method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014041579A1 (en) 2012-09-11 2014-03-20 テルモ株式会社 Image diagnosis device and image processing method
WO2014049641A1 (en) 2012-09-26 2014-04-03 テルモ株式会社 Diagnostic imaging device, information processing device, and method for controlling diagnostic imaging device and information processing device
JP2014180575A (en) 2013-03-15 2014-09-29 Lightlab Imaging Inc Method for bringing probe, system, and image into registration (probe)
WO2014162367A1 (en) 2013-04-05 2014-10-09 テルモ株式会社 Image diagnosis device and program
US20160095577A1 (en) 2013-04-05 2016-04-07 Terumo Kabushiki Kaisha Imaging apparatus for diagnosis and program
WO2020217860A1 (en) 2019-04-26 2020-10-29 テルモ株式会社 Diagnostic assistance device and diagnostic assistance method
JP7379473B2 (en) 2019-04-26 2023-11-14 テルモ株式会社 Diagnosis support device and diagnosis support method

Also Published As

Publication number Publication date
JP2022146619A (en) 2022-10-05

Similar Documents

Publication Publication Date Title
US20240013385A1 (en) Medical system, method for processing medical image, and medical image processing apparatus
WO2014136137A1 (en) Diagnostic imaging apparatus, information processing device and control methods, programs and computer-readable storage media therefor
WO2022071264A1 (en) Program, model generation method, information processing device, and information processing method
WO2022071265A1 (en) Program, information processing device, and information processing method
WO2021199968A1 (en) Computer program, information processing method, information processing device, and method for generating model
US20240013386A1 (en) Medical system, method for processing medical image, and medical image processing apparatus
WO2023189308A1 (en) Computer program, image processing method, and image processing device
JP7607482B2 (en) COMPUTER PROGRAM, IMPROVING LEARNING MODEL FOR IMPROVING IMAGE QUALITY, LEARNING MODEL GENERATION METHOD, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING APPARATUS
US20240013514A1 (en) Information processing device, information processing method, and program
JP7686525B2 (en) COMPUTER PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
WO2023054467A1 (en) Model generation method, learning model, computer program, information processing method, and information processing device
JP2022055170A (en) Computer program, image processing method and image processing device
WO2023054442A1 (en) Computer program, information processing device, and information processing method
JP7623175B2 (en) Computer program, operation method of image processing device, and image processing device
JP7548852B2 (en) Computer program, image processing method and image processing device
US20240346653A1 (en) Information processing method, information processing apparatus, and program
WO2023132332A1 (en) Computer program, image processing method, and image processing device
US20240016460A1 (en) Program, image processing method, and image processing device
US20240013434A1 (en) Program, information processing method, and information processing device
WO2023189261A1 (en) Computer program, information processing device, and information processing method
WO2022209652A1 (en) Computer program, information processing method, and information processing device
JP2024139509A (en) PROGRAM, IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS AND MODEL GENERATION METHOD
US20240008849A1 (en) Medical system, method for processing medical image, and medical image processing apparatus
US20250248664A1 (en) Image diagnostic system and method
JP7680325B2 (en) COMPUTER PROGRAM, INFORMATION PROCESSING APPARATUS, AND INFORMATION PROCESSING METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250116

R150 Certificate of patent or registration of utility model

Ref document number: 7623175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150