[go: up one dir, main page]

JP5993221B2 - Endoscope system and endoscopic image generation method - Google Patents

Endoscope system and endoscopic image generation method Download PDF

Info

Publication number
JP5993221B2
JP5993221B2 JP2012134685A JP2012134685A JP5993221B2 JP 5993221 B2 JP5993221 B2 JP 5993221B2 JP 2012134685 A JP2012134685 A JP 2012134685A JP 2012134685 A JP2012134685 A JP 2012134685A JP 5993221 B2 JP5993221 B2 JP 5993221B2
Authority
JP
Japan
Prior art keywords
image
endoscope
dimensional
feature amount
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012134685A
Other languages
Japanese (ja)
Other versions
JP2013255735A (en
Inventor
福田 宏
宏 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2012134685A priority Critical patent/JP5993221B2/en
Publication of JP2013255735A publication Critical patent/JP2013255735A/en
Application granted granted Critical
Publication of JP5993221B2 publication Critical patent/JP5993221B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)

Description

本発明は、内視鏡システムおよび内視鏡画像生成方法に関するものである。   The present invention relates to an endoscope system and an endoscope image generation method.

従来、内視鏡画像上にCTやMRI等で取得した3D画像を合成表示する装置が知られている(例えば、特許文献1参照。)。
この装置は、内視鏡の位置を逐次検出し、その位置に基づいて決定される内視鏡の観察面に、CTやMRI等で取得した3D画像を投影して2D画像を作成し、該2D画像と内視鏡画像とを重畳している。
2. Description of the Related Art Conventionally, there is known an apparatus that synthesizes and displays a 3D image acquired by CT, MRI, or the like on an endoscopic image (for example, see Patent Document 1).
This apparatus sequentially detects the position of the endoscope, projects a 3D image acquired by CT, MRI, etc. onto the observation surface of the endoscope determined based on the position, creates a 2D image, The 2D image and the endoscopic image are superimposed.

特許第4152402号公報Japanese Patent No. 4152402

しかしながら、特許文献1の装置では、3D画像は、任意の位置に配される内視鏡によって取得された内視鏡画像に対しても重畳可能な2D画像を生成するために用いられ、立体情報を利用することができないという不都合がある。例えば、心外膜側からの高周波通電による心室頻拍アブレーションの際に、心筋上の脂肪層が厚い(5mm以上)と、心外膜を介して十分にアブレーションが行えない。このような場合に、特許文献1の装置により得られる2D重畳画像では脂肪層の厚さを確認できず、手技が困難になるという不都合がある。   However, in the apparatus of Patent Document 1, the 3D image is used to generate a 2D image that can be superimposed on an endoscopic image acquired by an endoscope arranged at an arbitrary position, and the stereoscopic information There is an inconvenience that cannot be used. For example, during ventricular tachycardia ablation by high-frequency energization from the epicardium side, if the fat layer on the myocardium is thick (5 mm or more), sufficient ablation cannot be performed via the epicardium. In such a case, the 2D superimposed image obtained by the apparatus of Patent Document 1 has a disadvantage that the thickness of the fat layer cannot be confirmed and the procedure becomes difficult.

本発明は、上述した事情に鑑みてなされたものであって、CTやMRI等で取得された3D画像に含まれる立体情報を有効利用して手技を容易にすることができる内視鏡システムおよび内視鏡画像生成方法を提供することを目的としている。   The present invention has been made in view of the above-described circumstances, and is an endoscope system that can facilitate a procedure by effectively using stereoscopic information included in a 3D image acquired by CT, MRI, or the like. An object of the present invention is to provide an endoscopic image generation method.

上記目的を達成するために、本発明は以下の手段を提供する。
本発明の一態様は、被検体内部に挿入され観察部位の画像を取得する内視鏡と、該内視鏡の位置および観察方向を検出する内視鏡検出部と、前記観察部位近傍の3次元画像と該3次元画像上の複数の代表点における立体的特徴量とを対応づけて記憶する記憶部と、前記内視鏡検出部により検出された内視鏡の位置および観察方向に基づいて、前記記憶部に記憶されている前記3次元画像上の前記代表点を前記内視鏡の観察方向に直交する平面に投影し、平面上に投影された各代表点の位置に前記立体的特徴量を表示した特徴量画像を生成する画像処理部とを備える内視鏡システムを提供する。
In order to achieve the above object, the present invention provides the following means.
One aspect of the present invention includes an endoscope that is inserted into a subject and acquires an image of an observation site, an endoscope detection unit that detects the position and observation direction of the endoscope, and 3 in the vicinity of the observation site. A storage unit that associates and stores a three-dimensional image and three-dimensional feature values at a plurality of representative points on the three-dimensional image, and a position and an observation direction of the endoscope detected by the endoscope detection unit , Projecting the representative point on the three-dimensional image stored in the storage unit onto a plane orthogonal to the observation direction of the endoscope, and the stereoscopic feature at the position of each representative point projected on the plane An endoscope system is provided that includes an image processing unit that generates a feature amount image displaying the amount.

また、本発明の他の態様は、観察部位近傍の3次元画像と該3次元画像上の複数の代表点における立体的特徴量とを対応づけて記憶しておき、内視鏡の位置および観察方向を検出し、記憶されている前記3次元画像上の前記代表点を前記内視鏡の観察方向に直交する平面に投影し、平面上に投影された各代表点の位置に前記立体的特徴量を表示した特徴量画像を生成する内視鏡画像生成方法を提供する。   In another aspect of the present invention, a three-dimensional image in the vicinity of the observation site and three-dimensional feature values at a plurality of representative points on the three-dimensional image are stored in association with each other, and the position of the endoscope and the observation are observed. The direction is detected, the representative point on the stored three-dimensional image is projected onto a plane orthogonal to the observation direction of the endoscope, and the three-dimensional feature is located at the position of each representative point projected on the plane. An endoscopic image generation method for generating a feature amount image displaying an amount is provided.

本態様によれば、被検体の内部に挿入されて被検体の内部に配されている観察部位の画像を取得している内視鏡の位置および観察方向が、内視鏡検出部により検出される。画像処理部においては、検出された内視鏡の位置および観察方向と、記憶部に記憶されている観察部位近傍の3次元画像位置情報および立体的特徴量とを用いて、内視鏡の位置から観察方向にみた3次元画像上の代表点の立体的特徴量が特徴量画像として生成される。   According to this aspect, the endoscope detection unit detects the position and the observation direction of the endoscope that is inserted into the subject and acquires the image of the observation site that is arranged inside the subject. The In the image processing unit, the position of the endoscope is detected using the detected position and observation direction of the endoscope and the three-dimensional image position information and the three-dimensional feature value in the vicinity of the observation site stored in the storage unit. The three-dimensional feature value of the representative point on the three-dimensional image viewed in the observation direction is generated as a feature value image.

すなわち、本態様によれば、内視鏡と同一方向から見た観察部位の立体的特徴量の分布を特徴量画像として観察することができる。立体的特徴量としては、観察部位が臓器等の場合には、組織の厚さ等を挙げることができる。すなわち、内視鏡を用いた臓器の組織観察を行う際に、その観察部位近傍の脂肪組織や筋肉組織の厚さ等の立体的特徴量を確認することができ、処置を容易にすることができる。   That is, according to this aspect, it is possible to observe the distribution of the three-dimensional feature amount of the observation site viewed from the same direction as the endoscope as a feature amount image. Examples of the three-dimensional feature amount include the thickness of the tissue when the observation site is an organ or the like. That is, when performing tissue observation of an organ using an endoscope, three-dimensional feature amounts such as the thickness of fat tissue and muscle tissue in the vicinity of the observation site can be confirmed, thereby facilitating treatment. it can.

上記態様においては、前記画像処理部が、前記内視鏡により取得された画像と前記特徴量画像とを合成した合成画像を生成してもよい。
このようにすることで、観察者は合成画像を確認するだけで、内視鏡により取得された画像および特徴量画像の両方を切り替えることなく対照して確認することができる。
In the above aspect, the image processing unit may generate a composite image obtained by combining the image acquired by the endoscope and the feature amount image.
By doing in this way, the observer can confirm by contrasting, without switching both the image acquired by the endoscope, and the feature-value image only by confirming a synthesized image.

また、上記態様においては、前記画像処理部が、前記内視鏡により取得された画像と前記特徴量画像とを並列させた状態で表示させてもよい。
このようにすることで、観察者は並列表示された画像を確認するだけで、内視鏡により取得された画像および特徴量画像の両方を対比して確認することができる。
In the above aspect, the image processing unit may display the image acquired by the endoscope and the feature amount image in a parallel state.
By doing in this way, the observer can confirm both the image acquired by the endoscope and the feature amount image only by confirming the images displayed in parallel.

また、上記態様においては、前記3次元画像を取得する3次元測定装置を備え、前記画像処理部が、前記3次元測定装置から送られてきた3次元画像に基づいて、前記立体的特徴量を算出してもよい。   Further, in the above aspect, the apparatus includes a three-dimensional measurement device that acquires the three-dimensional image, and the image processing unit calculates the stereoscopic feature amount based on the three-dimensional image sent from the three-dimensional measurement device. It may be calculated.

また、上記態様においては、前記内視鏡による観察部位が臓器の表面であり、前記3次元測定装置が、前記内視鏡により取得される前記観察部位より広い範囲の前記臓器の3次元画像を取得し、前記画像処理部が、前記3次元測定装置により取得された3次元画像に前記内視鏡検出部により検出された内視鏡の位置および方向を重畳した画像を生成してもよい。   Further, in the above aspect, the observation site by the endoscope is a surface of an organ, and the three-dimensional measurement device displays a three-dimensional image of the organ in a wider range than the observation site acquired by the endoscope. The acquired image processing unit may generate an image in which the position and direction of the endoscope detected by the endoscope detection unit are superimposed on the three-dimensional image acquired by the three-dimensional measurement apparatus.

また、上記態様においては、前記内視鏡による観察部位が心臓の表面であり、前記立体的特徴量が前記心臓の心室収縮期に取得されていてもよい。
このようにすることで、心嚢内における視野が最も広くなる心室収縮期に、内視鏡の画像と立体的特徴量の分布とを対比観察することができる。
Moreover, in the said aspect, the site | part observed with the said endoscope may be the surface of the heart, and the said three-dimensional feature-value may be acquired in the ventricular systole of the said heart.
In this way, the endoscopic image and the distribution of the three-dimensional feature amount can be compared and observed during the ventricular systole when the visual field in the pericardium is the widest.

また、上記態様においては、前記立体的特徴量が、組織の厚さ寸法や厚さ寸法比あるいは組織損傷領域寸法であってもよい。
このようにすることで、内視鏡を用いた手技に際して、観察部位における脂肪組織や筋肉組織の厚さの分布を確認でき、手技を容易に行うことができる。
In the above aspect, the three-dimensional feature amount may be a tissue thickness dimension, a thickness dimension ratio, or a tissue damage area dimension.
By doing so, in the procedure using the endoscope, the distribution of the thickness of the fat tissue and the muscle tissue in the observation site can be confirmed, and the procedure can be easily performed.

また、本発明の他の態様は、記憶部が、観察部位近傍の3次元画像と該3次元画像上の複数の代表点における立体的特徴量とを対応づけて記憶しておき、内視鏡検出部が、内視鏡の位置および観察方向を検出し、画像処理部が、前記記憶部に記憶されている前記3次元画像上の前記代表点を前記内視鏡の観察方向に直交する平面に投影し、平面上に投影された各代表点の位置に前記立体的特徴量を表示した特徴量画像を生成する内視鏡画像生成方法を提供する。 Another aspect of the present invention, the storage unit may leave association with each sterically feature quantity at a plurality of representative points on the three-dimensional image and the three-dimensional image of the observed region near the endoscope A detection unit detects a position and an observation direction of the endoscope, and an image processing unit is a plane orthogonal to the observation direction of the endoscope with the representative point on the three-dimensional image stored in the storage unit And an endoscope image generation method for generating a feature amount image in which the stereoscopic feature amount is displayed at the position of each representative point projected onto a plane.

上記態様においては、前記画像処理部が、前記内視鏡により取得された画像と前記特徴量画像とを合成した合成画像を生成してもよい。
また、上記態様においては、前記画像処理部が、前記内視鏡により取得された画像と前記特徴量画像とを並列させてもよい。
In the above aspect, the image processing unit may generate a composite image obtained by combining the image acquired by the endoscope and the feature amount image.
Moreover, in the said aspect, the said image process part may parallelize the image acquired with the said endoscope, and the said feature-value image.

また、上記態様においては、前記画像処理部が、前記3次元画像を取得する3次元測定装置から送られてきた3次元画像に基づいて、前記立体的特徴量を算出してもよい。
また、上記態様においては、前記内視鏡による観察部位が臓器の表面であり、前記画像処理部が、前記3次元測定装置により取得された、前記内視鏡により取得される前記観察部位より広い範囲の前記臓器の3次元画像に、前記内視鏡検出部によって検出された内視鏡の位置および方向を重畳した画像を生成してもよい。
また、上記態様においては、前記内視鏡による観察部位が心臓の表面であり、前記立体的特徴量が前記心臓の心室収縮期に取得されていてもよい。
Moreover, in the said aspect, the said image process part may calculate the said three-dimensional feature-value based on the three-dimensional image sent from the three-dimensional measuring apparatus which acquires the said three-dimensional image.
Moreover, in the said aspect, the observation site | part by the said endoscope is the surface of an organ, and the said image process part is wider than the said observation site | part acquired by the said endoscope acquired by the said three-dimensional measuring apparatus. You may produce | generate the image which superimposed the position and direction of the endoscope detected by the said endoscope detection part on the three-dimensional image of the said organ of the range.
Moreover, in the said aspect, the site | part observed with the said endoscope may be the surface of the heart, and the said three-dimensional feature-value may be acquired in the ventricular systole of the said heart.

本発明によれば、CTやMRI等で取得された3D画像に含まれる立体情報を有効利用して手技を容易にすることができるという効果を奏する。   According to the present invention, there is an effect that the procedure can be facilitated by effectively using stereoscopic information included in a 3D image acquired by CT, MRI, or the like.

本発明の一実施形態に係る内視鏡システムを示す全体構成図である。1 is an overall configuration diagram showing an endoscope system according to an embodiment of the present invention. 図1の内視鏡システムによる特徴量および特徴量画像を説明する図である。It is a figure explaining the feature-value and feature-value image by the endoscope system of FIG. 図1の内視鏡システムにより取得された内視鏡画像の一例を示す図である。It is a figure which shows an example of the endoscopic image acquired by the endoscope system of FIG. 図1の内視鏡システムにより取得された特徴量画像の一例を示す図である。It is a figure which shows an example of the feature-value image acquired by the endoscope system of FIG. 図1の内視鏡システムの第1の変形例を示す全体構成図である。It is a whole block diagram which shows the 1st modification of the endoscope system of FIG. 図1の内視鏡システムの第2の変形例により取得される画像例を示す図である。It is a figure which shows the example of an image acquired by the 2nd modification of the endoscope system of FIG. 図6の画像を取得するための内視鏡システムを示す全体構成図である。It is a whole block diagram which shows the endoscope system for acquiring the image of FIG.

本発明の一実施形態に係る内視鏡システムおよび内視鏡画像生成方法について図面を参照して以下に説明する。
本実施形態においては、観察する対象として心臓を想定している。
An endoscope system and an endoscope image generation method according to an embodiment of the present invention will be described below with reference to the drawings.
In this embodiment, the heart is assumed as an object to be observed.

本実施形態に係る内視鏡システム1は、図1に示されるように、患者の心嚢膜内に挿入されて心臓Aを外表面B側から観察するための挿入部2aを有する内視鏡2と、該内視鏡2の先端の位置および方向を検出する内視鏡検出部3と、MRIシステム4と、該MRIシステム4および内視鏡2および内視鏡検出部3に接続された画像処理部5と、該画像処理部5により処理された画像を表示するモニタ6,7とを備えている。   As shown in FIG. 1, an endoscope system 1 according to the present embodiment is an endoscope having an insertion portion 2a that is inserted into a pericardial membrane of a patient to observe the heart A from the outer surface B side. 2, an endoscope detection unit 3 that detects the position and direction of the tip of the endoscope 2, an MRI system 4, and the MRI system 4, the endoscope 2, and the endoscope detection unit 3 An image processing unit 5 and monitors 6 and 7 for displaying images processed by the image processing unit 5 are provided.

内視鏡2は、その挿入部2aの先端面に図示しない対物光学系および照明光学系を備え、長手方向に沿う光軸に沿って前方に観察方向を有している。照明光学系からは、例えば、励起光が射出され、心臓Aの各組織において発生した蛍光を対物光学系により集光し、蛍光画像として取得するようになっている。   The endoscope 2 includes an objective optical system and an illumination optical system (not shown) on the distal end surface of the insertion portion 2a, and has an observation direction forward along the optical axis along the longitudinal direction. For example, excitation light is emitted from the illumination optical system, and fluorescence generated in each tissue of the heart A is collected by the objective optical system and acquired as a fluorescence image.

内視鏡検出部3は、内視鏡2の先端に配置された磁気センサ3aと、体外に配置された3つの磁場発生部材3bと、磁気センサ3aにより検出された磁場の強度に基づいて、内視鏡2先端の位置および観察方向を算出する演算部3cとを備えている。内視鏡検出部3は、独自の座標系を有しており、その座標系において内視鏡2の先端の位置および方向を算出するようになっている。   The endoscope detection unit 3 is based on the magnetic sensor 3a disposed at the distal end of the endoscope 2, the three magnetic field generating members 3b disposed outside the body, and the intensity of the magnetic field detected by the magnetic sensor 3a. And a calculator 3c that calculates the position and the observation direction of the distal end of the endoscope 2. The endoscope detection unit 3 has a unique coordinate system, and calculates the position and direction of the tip of the endoscope 2 in the coordinate system.

MRIシステム4は、内視鏡2を体内に挿入して行われる内視鏡手術に先だって、患者の心臓Aの3次元画像データ(3次元ボリュームレンダリングデータ)を取得するようになっている。MRIシステム4により取得される3次元画像データとしては、心臓Aの外表面に位置する心外膜Bの3次元画像データおよび心臓Aの表面に存在する脂肪組織Cとその裏側に存在する心筋Dとの境界面Eの3次元画像データである。   The MRI system 4 acquires three-dimensional image data (three-dimensional volume rendering data) of the patient's heart A prior to endoscopic surgery performed by inserting the endoscope 2 into the body. The three-dimensional image data acquired by the MRI system 4 includes the three-dimensional image data of the epicardium B located on the outer surface of the heart A, the adipose tissue C existing on the surface of the heart A, and the myocardium D existing behind it. 3D image data of the boundary surface E.

MRIシステム4による3次元画像データの取得は、例えば、心室収縮期に同期して行われることが好ましい。心室収縮期には、心嚢内に配置される内視鏡の視野が最も広くなるので、見やすい内視鏡画像が得られる。したがって、この時期における3次元画像データを取得しておくことにより、見やすい内視鏡画像と対照しやすい特徴量画像を生成することができる。   The acquisition of three-dimensional image data by the MRI system 4 is preferably performed in synchronization with the ventricular systole, for example. In the ventricular systole, since the field of view of the endoscope arranged in the pericardium is the widest, an easy-to-see endoscopic image is obtained. Therefore, by acquiring the three-dimensional image data at this time, it is possible to generate a feature amount image that is easily contrasted with an easily viewable endoscopic image.

MRIシステム4も独自の座標系を有しており、その座標系に従って定義される3次元画像データを取得するようになっている。
MRIシステム4において取得された3次元画像データは画像処理部5に向けて送信されるようになっている。
The MRI system 4 also has a unique coordinate system, and acquires three-dimensional image data defined according to the coordinate system.
The 3D image data acquired in the MRI system 4 is transmitted to the image processing unit 5.

画像処理部5は、MRIシステム4からの3次元画像データを受けるとともに、内視鏡検出部3により検出された内視鏡2の位置および観察方向を受け取って、立体的特徴量を算出する特徴量算出部8と、該特徴量算出部8により算出された立体的特徴量を記憶するメモリ9と、該メモリ9に記憶された立体的特徴量の分布を示す特徴量画像を生成する特徴量画像生成部10とを備えている。また、画像処理部5は、内視鏡2により撮影された心臓Aの画像信号を受け取って、図3に示されるような内視鏡画像G1を生成する内視鏡画像生成部11を備えている。   The image processing unit 5 receives the three-dimensional image data from the MRI system 4 and receives the position and the observation direction of the endoscope 2 detected by the endoscope detection unit 3 and calculates a three-dimensional feature amount. An amount calculation unit 8; a memory 9 for storing the stereoscopic feature amount calculated by the feature amount calculation unit 8; and a feature amount for generating a feature amount image indicating a distribution of the stereoscopic feature amount stored in the memory 9. And an image generation unit 10. Further, the image processing unit 5 includes an endoscope image generation unit 11 that receives an image signal of the heart A taken by the endoscope 2 and generates an endoscope image G1 as shown in FIG. Yes.

さらに具体的には、画像処理部5の特徴量算出部8は、内視鏡検出部3の座標系とMRIシステム4の座標系との対応関係が公知の方法でキャリブレーションされた状態で、内視鏡検出部3の演算部3cから送られてきた内視鏡2の位置および観察方向と、予め記憶されている内視鏡2の画角情報とに基づいて、MRIシステム4から送られてきた3次元画像データから、内視鏡画像G1として取得される撮影範囲に存在する3次元画像データの範囲を特定し、その範囲内に配置される複数の代表点について、3次元画像データから特徴量を算出するようになっている。   More specifically, the feature quantity calculation unit 8 of the image processing unit 5 is in a state where the correspondence between the coordinate system of the endoscope detection unit 3 and the coordinate system of the MRI system 4 is calibrated by a known method. Based on the position and observation direction of the endoscope 2 sent from the calculation unit 3c of the endoscope detection unit 3 and the angle-of-view information of the endoscope 2 stored in advance, it is sent from the MRI system 4. The range of the 3D image data existing in the imaging range acquired as the endoscopic image G1 is specified from the 3D image data thus obtained, and a plurality of representative points arranged in the range are determined from the 3D image data. The feature amount is calculated.

特徴量の算出は、例えば、図2に示されるように、3次元画像データとして、MRIシステム4から送られてきた心臓Aの最外表面に位置する心外膜Bの3次元形状データと、心臓Aの脂肪組織Cと心筋Dとの境界面Eの3次元形状データとを受け取る。そして、心外膜B上に複数の代表点p1,p2,p3…を設定し、各代表点p1,p2,p3…において、心臓Aの心外膜Bに直交する方向の心外膜Bと境界面Eとの距離を算出する。   For example, as shown in FIG. 2, the feature amount is calculated as 3D image data sent from the MRI system 4 as 3D image data, and 3D shape data of the epicardium B located on the outermost surface of the heart A. The three-dimensional shape data of the boundary surface E between the adipose tissue C of the heart A and the myocardium D is received. Then, a plurality of representative points p1, p2, p3... Are set on the epicardium B, and the epicardium B in the direction perpendicular to the epicardium B of the heart A at each representative point p1, p2, p3. The distance from the boundary surface E is calculated.

これにより特徴量としての脂肪組織Cの厚さが算出されるようになっている。算出された特徴量としての各代表点p1,p2,p3…の位置における脂肪組織Cの厚さは、代表点p1,p2,p3,…の座標とを対応づけてメモリ9に記憶されるようになっている。   Thereby, the thickness of the adipose tissue C as the feature amount is calculated. The thickness of the adipose tissue C at the positions of the representative points p1, p2, p3,... As the calculated feature values is stored in the memory 9 in association with the coordinates of the representative points p1, p2, p3,. It has become.

特徴量画像生成部10は、特徴量算出部8において、特徴量を算出するために設定した心外膜B上の代表点p1,p2,p3…の座標を、内視鏡2の観察方向に直交する平面F上に投影した2次元的な座標に変換し、座標変換された各代表点p1a、p2a、p3a…の位置に各代表点p1,p2,p3…の特徴量を付与することにより、図4に示されるように、特徴量の分布を示す特徴量画像G2を生成するようになっている。   The feature amount image generation unit 10 sets the coordinates of the representative points p1, p2, p3... On the epicardium B set in the feature amount calculation unit 8 to calculate the feature amount in the observation direction of the endoscope 2. By converting to the two-dimensional coordinates projected on the orthogonal plane F, and adding the feature quantities of the representative points p1, p2, p3... To the positions of the representative points p1a, p2a, p3a. As shown in FIG. 4, a feature amount image G2 showing a distribution of feature amounts is generated.

モニタ6,7としては、内視鏡画像G1を表示するための第1のモニタ6と特徴量画像G2を表示するための第2のモニタ7とが別々に用意されている。
内視鏡画像生成部11において生成された内視鏡画像G1は第1のモニタ6に送られて表示され、特徴量画像生成部10において生成された特徴量画像G2は第2のモニタ7に送られて表示されるようになっている。
As the monitors 6 and 7, a first monitor 6 for displaying the endoscope image G1 and a second monitor 7 for displaying the feature amount image G2 are prepared separately.
The endoscope image G1 generated in the endoscope image generation unit 11 is sent to the first monitor 6 and displayed, and the feature amount image G2 generated in the feature amount image generation unit 10 is displayed on the second monitor 7. It is sent and displayed.

このように構成された本実施形態に係る内視鏡システム1の作用について以下に説明する。
本実施形態に係る内視鏡システム1を用いて内視鏡手術を行うには、まず、手術に先立ってMRIシステム4により患者の心臓Aの3次元画像データを取得しておく。本実施形態においては、MRIシステム4により取得される3次元画像データとしては、心臓Aの最外表面の心外膜Bの形状のみならず、脂肪組織Cと心筋Dとの境界面Eの3次元形状データが含まれる。
The operation of the endoscope system 1 according to the present embodiment configured as described above will be described below.
In order to perform endoscopic surgery using the endoscope system 1 according to the present embodiment, first, three-dimensional image data of the patient's heart A is acquired by the MRI system 4 prior to surgery. In the present embodiment, the three-dimensional image data acquired by the MRI system 4 includes not only the shape of the epicardium B on the outermost surface of the heart A but also the 3 of the boundary surface E between the adipose tissue C and the myocardium D. Dimensional shape data is included.

内視鏡2の挿入部2aを患者の体内に挿入して、内視鏡手術が開始されると、内視鏡2により取得された心臓Aの内視鏡画像G1が内視鏡画像生成部11により生成され、第1のモニタ6に表示される。また、内視鏡検出部3の作動により、挿入部2aの先端位置および観察方向が検出され、検出された情報が画像処理部5に送られる。   When the insertion section 2a of the endoscope 2 is inserted into a patient's body and an endoscopic operation is started, an endoscopic image G1 of the heart A acquired by the endoscope 2 is an endoscopic image generation section. 11 and displayed on the first monitor 6. Further, the operation of the endoscope detection unit 3 detects the tip position and the observation direction of the insertion unit 2 a, and the detected information is sent to the image processing unit 5.

画像処理部5においては、特徴量算出部8により、特徴量が算出される。
すなわち、内視鏡検出部3から挿入部2aの先端位置および観察方向が送られてくると、内視鏡2の画角情報から、内視鏡画像G1として取得される撮影範囲を算出することが可能となる。したがって、MRIシステム4から送られてきた3次元画像データの内、内視鏡画像G1の範囲に属することとなる3次元画像データの範囲を特定することができる。
In the image processing unit 5, the feature amount is calculated by the feature amount calculation unit 8.
That is, when the distal end position and the observation direction of the insertion unit 2a are sent from the endoscope detection unit 3, the imaging range acquired as the endoscope image G1 is calculated from the angle-of-view information of the endoscope 2. Is possible. Therefore, it is possible to specify the range of 3D image data that belongs to the range of the endoscopic image G1 among the 3D image data sent from the MRI system 4.

このようにして特定された3次元画像データの範囲に含まれる3次元形状データから心外膜B上に定義された複数の代表点p1,p2,p3,…について脂肪組織Cの厚さが算出され、算出された厚さが各代表点p1,p2,p3,…の座標に対応づけてメモリ9に記憶される。
その後、特徴量画像生成部10が、各代表点p1,p2,p3,…を内視鏡2の観察方向に直交する平面F上に投影するように各代表点p1,p2,p3,…の座標を変換し、変換された各代表点p1a,p2a,p3a,…の座標位置に特徴量を付与することにより、特徴量画像G2を生成する。生成された特徴量画像G2は第2のモニタ7に表示される。
The thickness of the adipose tissue C is calculated for a plurality of representative points p1, p2, p3,... Defined on the epicardium B from the three-dimensional shape data included in the range of the three-dimensional image data specified in this way. The calculated thickness is stored in the memory 9 in association with the coordinates of the representative points p1, p2, p3,.
Thereafter, the feature amount image generation unit 10 projects the representative points p1, p2, p3,... So as to project the representative points p1, p2, p3,... On the plane F orthogonal to the observation direction of the endoscope 2. A feature amount image G2 is generated by converting the coordinates and assigning feature amounts to the coordinate positions of the converted representative points p1a, p2a, p3a,. The generated feature amount image G2 is displayed on the second monitor 7.

このようにして生成された特徴量画像G2は、第1のモニタ6に表示される内視鏡画像G1と略同一視野範囲で、内視鏡2と略同一位置から同一観察方向に向かって心臓Aを観察した2次元画像上に特徴量の分布を表示した画像となっており、第1のモニタ6に表示された内視鏡画像G1と対照して観察することができる。   The feature quantity image G2 generated in this way is in the same visual field range as the endoscope image G1 displayed on the first monitor 6, and the heart is directed from the same position as the endoscope 2 toward the same observation direction. This is an image in which the distribution of the feature amount is displayed on the two-dimensional image in which A is observed, and can be observed in contrast to the endoscopic image G1 displayed on the first monitor 6.

特に、本実施形態においては、特徴量画像G2として脂肪組織Cの厚さの分布画像が表示されているので、内視鏡画像G1により特定された患部にアブレーション等の手技を行う場合に、患部の位置に存在する脂肪組織Cの厚さを容易に確認することができ、手技を容易にすることができるという利点がある。   In particular, in this embodiment, since the distribution image of the thickness of the adipose tissue C is displayed as the feature amount image G2, when performing a procedure such as ablation on the affected area specified by the endoscopic image G1, the affected area is displayed. Therefore, there is an advantage that the thickness of the adipose tissue C existing at the position can be easily confirmed, and the procedure can be facilitated.

また、本実施形態においては、内視鏡検出部3により検出された内視鏡2の位置および観察方向に基づいて算出された撮影範囲に存在する3次元画像データについて特徴量を算出して記憶すればよいので、特徴量算出部8の演算量およびメモリ9の記憶容量を少なくすることができるという利点もある。   In the present embodiment, the feature amount is calculated and stored for the three-dimensional image data existing in the imaging range calculated based on the position and the observation direction of the endoscope 2 detected by the endoscope detection unit 3. Therefore, there is an advantage that the calculation amount of the feature amount calculation unit 8 and the storage capacity of the memory 9 can be reduced.

なお、本実施形態においては、被検体として患者を想定し、観察部位として心臓Aを例示するとともに、特徴量として脂肪組織Cの厚さを例示したが、これに代えて、組織の厚さ寸法比、組織損傷領域寸法、他の任意の被検体、観察部位および特徴量を採用してもよい。   In the present embodiment, a patient is assumed as a subject, the heart A is exemplified as an observation site, and the thickness of the fat tissue C is exemplified as a feature quantity. Instead, the thickness dimension of the tissue is exemplified. The ratio, the tissue damage area size, any other subject, the observation site, and the feature amount may be adopted.

また、内視鏡検出部3により検出された内視鏡2の位置および観察方向により特定した範囲の3次元画像データから特徴量を算出することとしたが、これに代えて、図5に示されるように、MRIシステム4により3次元画像データが取得された全範囲の代表点について、特徴量算出部8がオフラインで特徴量を算出し、これをメモリ9に記憶することにしてもよい。このようにすることで、内視鏡検出部3により内視鏡2の先端部の位置および観察方向が検出されるごとに特徴量画像を生成する際には、既に計算されてメモリ9に記憶されている特徴量を参照すれば足りるので、計算量を減らすことができ、リアルタイム性を向上することができるという利点がある。   In addition, the feature amount is calculated from the three-dimensional image data in the range specified by the position and the observation direction of the endoscope 2 detected by the endoscope detection unit 3, but instead, this is shown in FIG. As described above, the feature amount calculation unit 8 may calculate the feature amount offline for the representative points of the entire range from which the three-dimensional image data has been acquired by the MRI system 4, and store this in the memory 9. Thus, when the feature amount image is generated every time the position and the observation direction of the distal end portion of the endoscope 2 are detected by the endoscope detection unit 3, the feature amount image is already calculated and stored in the memory 9. Therefore, there is an advantage that the amount of calculation can be reduced and the real-time property can be improved.

また、図1においては、内視鏡画像G1および特徴量画像G2を別個のモニタ6,7に表示することとしたが、これに代えて、画像処理部5内に画像合成部12を設け、両画像G1,G2を重畳した合成画像G3を単一のモニタ6に表示してもよいし、両画像G1,G2を並列に単一のモニタ6に表示してもよい。この場合、等倍に表示してもよいし、一方を拡大表示し他方を縮小表示してもよい。   In FIG. 1, the endoscope image G1 and the feature amount image G2 are displayed on the separate monitors 6 and 7, but instead of this, an image composition unit 12 is provided in the image processing unit 5, A composite image G3 in which both images G1 and G2 are superimposed may be displayed on a single monitor 6, or both images G1 and G2 may be displayed in parallel on a single monitor 6. In this case, the images may be displayed at the same magnification, or one may be enlarged and the other may be reduced.

また、特徴量画像G2としては、特徴量の分布を示す等高線あるいは色分け画像を採用することができる。等高線の間隔や色分けの幅については任意に調節できることにすればよい。例えば、モニタに設けたダイヤル(図示略)等によって上限値および/または下限値を変更できるようにしてもよい。   Further, as the feature amount image G2, a contour line indicating a distribution of feature amounts or a color-coded image can be adopted. What is necessary is just to be able to adjust arbitrarily about the space | interval of a contour line and the width | variety of color classification. For example, the upper limit value and / or the lower limit value may be changed by a dial (not shown) provided on the monitor.

また、本実施形態においては、内視鏡画像G1と特徴量画像G2とを並列あるいは重畳表示することとしたが、これに加えて、図6に示されるように、心臓A全体の画像の中に内視鏡2の位置(例えば、図6では矢印で表示。)を表示した全体画像G4を並列に表示することにしてもよい。図中、符号13は特徴量を示すゲージである。   In the present embodiment, the endoscope image G1 and the feature amount image G2 are displayed in parallel or superimposed, but in addition to this, as shown in FIG. Alternatively, the entire image G4 displaying the position of the endoscope 2 (for example, indicated by an arrow in FIG. 6) may be displayed in parallel. In the figure, reference numeral 13 denotes a gauge indicating a feature amount.

この場合には、図7に示されるように、メモリ9に記憶された3次元画像データと内視鏡検出部3により検出された内視鏡2の位置および観察方向とに基づいて心臓Aの画像の中における内視鏡2の位置を表示する全体画像G4を生成する全体画像生成部14を設けることにすればよい。   In this case, as shown in FIG. 7, based on the three-dimensional image data stored in the memory 9 and the position and observation direction of the endoscope 2 detected by the endoscope detection unit 3, What is necessary is just to provide the whole image production | generation part 14 which produces | generates the whole image G4 which displays the position of the endoscope 2 in an image.

A 心臓(観察部位)
F 平面
G1 内視鏡画像(画像)
G2 特徴量画像
G3 合成画像
p1,p2,p3 代表点
1 内視鏡システム
2 内視鏡
3 内視鏡検出部と、
4 MRIシステム(3次元測定装置)
5 画像処理部
9 メモリ(記憶部)
A heart (observation site)
F plane G1 Endoscopic image (image)
G2 feature image G3 composite image p1, p2, p3 representative point 1 endoscope system 2 endoscope 3 endoscope detection unit,
4 MRI system (3D measuring device)
5 Image processing section 9 Memory (storage section)

Claims (13)

被検体内部に挿入され観察部位の画像を取得する内視鏡と、
該内視鏡の位置および観察方向を検出する内視鏡検出部と、
前記観察部位近傍の3次元画像と該3次元画像上の複数の代表点における立体的特徴量とを対応づけて記憶する記憶部と、
前記内視鏡検出部により検出された内視鏡の位置および観察方向に基づいて、前記記憶部に記憶されている前記3次元画像上の前記代表点を前記内視鏡の観察方向に直交する平面に投影し、平面上に投影された各代表点の位置に前記立体的特徴量を表示した特徴量画像を生成する画像処理部とを備える内視鏡システム。
An endoscope that is inserted into the subject and acquires an image of the observation site;
An endoscope detection unit for detecting the position and observation direction of the endoscope;
A storage unit that associates and stores a three-dimensional image in the vicinity of the observation site and stereoscopic features at a plurality of representative points on the three-dimensional image;
Based on the endoscope position and observation direction detected by the endoscope detection unit, the representative point on the three-dimensional image stored in the storage unit is orthogonal to the observation direction of the endoscope. An endoscope system comprising: an image processing unit that generates a feature amount image that projects onto a plane and displays the stereoscopic feature amount at the position of each representative point projected onto the plane.
前記画像処理部が、前記内視鏡により取得された画像と前記特徴量画像とを合成した合成画像を生成する請求項1に記載の内視鏡システム。   The endoscope system according to claim 1, wherein the image processing unit generates a composite image obtained by combining the image acquired by the endoscope and the feature amount image. 前記画像処理部が、前記内視鏡により取得された画像と前記特徴量画像とを並列させた状態に合成する請求項2に記載の内視鏡システム。   The endoscope system according to claim 2, wherein the image processing unit synthesizes the image acquired by the endoscope and the feature amount image in a parallel state. 前記3次元画像を取得する3次元測定装置を備え、
前記画像処理部が、前記3次元測定装置から送られてきた3次元画像に基づいて、前記立体的特徴量を算出する請求項1から請求項3のいずれかに記載の内視鏡システム。
A three-dimensional measuring device for acquiring the three-dimensional image;
The endoscope system according to any one of claims 1 to 3, wherein the image processing unit calculates the three-dimensional feature amount based on a three-dimensional image sent from the three-dimensional measurement apparatus.
前記内視鏡による観察部位が臓器の表面であり、
前記3次元測定装置が、前記内視鏡により取得される前記観察部位より広い範囲の前記臓器の3次元画像を取得し、
前記画像処理部が、前記3次元測定装置により取得された3次元画像に前記内視鏡検出部により検出された内視鏡の位置および方向を重畳した画像を生成する請求項4に記載の内視鏡システム。
The observation site by the endoscope is the surface of the organ,
The three-dimensional measuring device acquires a three-dimensional image of the organ in a wider range than the observation site acquired by the endoscope;
The internal processing unit according to claim 4, wherein the image processing unit generates an image in which a position and a direction of an endoscope detected by the endoscope detection unit are superimposed on a three-dimensional image acquired by the three-dimensional measurement device. Endoscopic system.
前記内視鏡による観察部位が心臓の表面であり、
前記立体的特徴量が前記心臓の心室収縮期に取得されている請求項1から請求項5のいずれかに記載の内視鏡システム。
The observation site by the endoscope is the surface of the heart,
The endoscope system according to any one of claims 1 to 5, wherein the three-dimensional feature amount is acquired in a ventricular systole of the heart.
前記立体的特徴量が、組織の厚さ寸法である請求項1から請求項6のいずれかに記載の内視鏡システム。   The endoscope system according to any one of claims 1 to 6, wherein the three-dimensional feature amount is a thickness dimension of a tissue. 記憶部が、観察部位近傍の3次元画像と該3次元画像上の複数の代表点における立体的特徴量とを対応づけて記憶しておき、
内視鏡検出部が、内視鏡の位置および観察方向を検出し、
画像処理部が、前記記憶部に記憶されている前記3次元画像上の前記代表点を前記内視鏡の観察方向に直交する平面に投影し、平面上に投影された各代表点の位置に前記立体的特徴量を表示した特徴量画像を生成する内視鏡画像生成方法。
A storage unit stores a three-dimensional image in the vicinity of the observation site in association with three-dimensional feature values at a plurality of representative points on the three-dimensional image,
The endoscope detector detects the position and observation direction of the endoscope,
An image processing unit projects the representative point on the three-dimensional image stored in the storage unit onto a plane orthogonal to the observation direction of the endoscope, and at the position of each representative point projected on the plane. An endoscopic image generation method for generating a feature amount image displaying the three-dimensional feature amount.
前記画像処理部が、前記内視鏡により取得された画像と前記特徴量画像とを合成した合成画像を生成する請求項8に記載の内視鏡画像生成方法。 The endoscopic image generation method according to claim 8, wherein the image processing unit generates a composite image obtained by combining the image acquired by the endoscope and the feature amount image. 前記画像処理部が、前記内視鏡により取得された画像と前記特徴量画像とを並列させる請求項9に記載の内視鏡画像生成方法。 The endoscopic image generation method according to claim 9, wherein the image processing unit parallelizes the image acquired by the endoscope and the feature amount image. 前記画像処理部が、前記3次元画像を取得する3次元測定装置から送られてきた3次元画像に基づいて、前記立体的特徴量を算出する請求項8から請求項10のいずれかに記載の内視鏡画像生成方法。 The said image processing part calculates the said three-dimensional feature-value based on the three-dimensional image sent from the three-dimensional measuring apparatus which acquires the said three-dimensional image. Endoscopic image generation method. 前記内視鏡による観察部位が臓器の表面であり、
前記画像処理部が、前記3次元測定装置により取得された、前記内視鏡により取得される前記観察部位より広い範囲の前記臓器の3次元画像に、前記内視鏡検出部によって検出された内視鏡の位置および方向を重畳した画像を生成する請求項11に記載の内視鏡画像生成方法。
The observation site by the endoscope is the surface of the organ,
The image processing unit acquires a three-dimensional image of the organ that is acquired by the three-dimensional measuring device and is wider than the observation site acquired by the endoscope, and is detected by the endoscope detection unit . The endoscopic image generation method according to claim 11, wherein an image in which the position and direction of the endoscope are superimposed is generated.
前記内視鏡による観察部位が心臓の表面であり、
前記立体的特徴量が前記心臓の心室収縮期に取得されている請求項8から請求項12のいずれかに記載の内視鏡画像生成方法。
The observation site by the endoscope is the surface of the heart,
The endoscopic image generation method according to any one of claims 8 to 12, wherein the three-dimensional feature amount is acquired in a ventricular systole of the heart.
JP2012134685A 2012-06-14 2012-06-14 Endoscope system and endoscopic image generation method Active JP5993221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012134685A JP5993221B2 (en) 2012-06-14 2012-06-14 Endoscope system and endoscopic image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012134685A JP5993221B2 (en) 2012-06-14 2012-06-14 Endoscope system and endoscopic image generation method

Publications (2)

Publication Number Publication Date
JP2013255735A JP2013255735A (en) 2013-12-26
JP5993221B2 true JP5993221B2 (en) 2016-09-14

Family

ID=49952705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012134685A Active JP5993221B2 (en) 2012-06-14 2012-06-14 Endoscope system and endoscopic image generation method

Country Status (1)

Country Link
JP (1) JP5993221B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11104072A (en) * 1997-10-03 1999-04-20 Mitsubishi Electric Corp Medical support system
JP4674948B2 (en) * 2000-09-29 2011-04-20 オリンパス株式会社 Surgical navigation device and method of operating surgical navigation device
JP5421828B2 (en) * 2010-03-17 2014-02-19 富士フイルム株式会社 Endoscope observation support system, endoscope observation support device, operation method thereof, and program
JP5535725B2 (en) * 2010-03-31 2014-07-02 富士フイルム株式会社 Endoscope observation support system, endoscope observation support device, operation method thereof, and program

Also Published As

Publication number Publication date
JP2013255735A (en) 2013-12-26

Similar Documents

Publication Publication Date Title
JP5160699B2 (en) Medical equipment
JP6395995B2 (en) Medical video processing method and apparatus
US9326660B2 (en) Endoscope system with insertion support apparatus
JP6242569B2 (en) Medical image display apparatus and X-ray diagnostic apparatus
US10085672B2 (en) Diagnostic endoscopic imaging support apparatus and method, and non-transitory computer readable medium on which is recorded diagnostic endoscopic imaging support program
JP5715312B2 (en) Endoscope system
US8376951B2 (en) Ultrasonic diagnostic apparatus and method for displaying probe operation guide
US9220399B2 (en) Imaging system for three-dimensional observation of an operative site
JP5657467B2 (en) Medical image display system
JP6116754B2 (en) Device for stereoscopic display of image data in minimally invasive surgery and method of operating the device
US20140088357A1 (en) Endoscope system
JP5785120B2 (en) Medical image diagnosis support apparatus and method, and program
JP2011139797A (en) Medical image processor and medical image processing program
JPH11104072A (en) Medical support system
JP5554028B2 (en) Medical image processing apparatus, medical image processing program, and X-ray CT apparatus
JP5809850B2 (en) Image processing device
US9345394B2 (en) Medical apparatus
JP5993221B2 (en) Endoscope system and endoscopic image generation method
JP4996128B2 (en) Medical image processing apparatus and medical image processing method
JP6211239B1 (en) Endoscope device
JP2006239253A (en) Image processing apparatus and image processing method
JP2018153345A (en) Endoscope positioning device, method and program
JP2016067461A (en) Endoscopic image display apparatus, method and program
JPWO2016039292A1 (en) Endoscope system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160819

R151 Written notification of patent or utility model registration

Ref document number: 5993221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250