JP7521629B2 - IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, IMAGE PROCESSING PROGRAM, AND BLOOD VESSEL DIAMETER CALCULATION APPARATUS - Google Patents
IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, IMAGE PROCESSING PROGRAM, AND BLOOD VESSEL DIAMETER CALCULATION APPARATUS Download PDFInfo
- Publication number
- JP7521629B2 JP7521629B2 JP2023031413A JP2023031413A JP7521629B2 JP 7521629 B2 JP7521629 B2 JP 7521629B2 JP 2023031413 A JP2023031413 A JP 2023031413A JP 2023031413 A JP2023031413 A JP 2023031413A JP 7521629 B2 JP7521629 B2 JP 7521629B2
- Authority
- JP
- Japan
- Prior art keywords
- choroidal
- vascular
- vessel
- blood vessel
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Eye Examination Apparatus (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理方法、画像処理装置、画像処理プログラム、及び血管径算出装置に関する。 The present invention relates to an image processing method, an image processing device, an image processing program, and a blood vessel diameter calculation device.
特許文献1には、脈絡膜血管網を可視化することが開示されている。従来から、脈絡膜血管径を得ることが望まれている。 Patent Document 1 discloses a method for visualizing the choroidal vascular network. There has been a demand for obtaining the diameter of choroidal blood vessels.
本開示の技術の第1の態様の画像処理方法は、脈絡膜血管画像を取得し、前記脈絡膜血管画像から脈絡膜血管の走行方向に沿って前記脈絡膜血管の複数の血管中心点を特定し、前記特定した複数の血管中心点の各々について血管径を算出する。 The image processing method of the first aspect of the technology disclosed herein acquires a choroidal vessel image, identifies multiple vascular center points of the choroidal vessels from the choroidal vessel image along the direction of the choroidal vessels, and calculates the vascular diameter for each of the identified multiple vascular center points.
本開示の技術の第2の態様の画像処理方法は、脈絡膜血管画像を取得し、前記脈絡膜血管画像から脈絡膜血管の走行方向に沿って前記脈絡膜血管の複数の血管中心点を特定し、前記特定した複数の血管中心点の各々について血管径を算出し、前記脈絡膜血管画像の各画素について、前記複数の血管中心点の中から最も近い血管中心点を特定し、前記脈絡膜血管画像の各画素と、当該画素に対して前記特定された血管中心点と、各血管中心点について前記算出された血管径とを対応して記憶媒体に記憶する。 The image processing method of the second aspect of the technology disclosed herein acquires a choroidal blood vessel image, identifies multiple vascular center points of the choroidal blood vessels from the choroidal blood vessel image along the running direction of the choroidal blood vessels, calculates the vascular diameter for each of the identified multiple vascular center points, identifies the closest vascular center point from among the multiple vascular center points for each pixel of the choroidal blood vessel image, and stores in a storage medium each pixel of the choroidal blood vessel image, the identified vascular center point for that pixel, and the calculated vascular diameter for each vascular center point in correspondence with each other.
本開示の技術の第3の態様の画像処理装置は、脈絡膜血管画像を取得する脈絡膜血管画像取得部と、前記脈絡膜血管画像から脈絡膜血管の走行方向に沿って前記脈絡膜血管の複数の血管中心点を特定する特定部と、前記特定した複数の血管中心点の各々について血管径を算出する算出する算出部と、を備える。 The image processing device of the third aspect of the disclosed technology includes a choroidal vessel image acquisition unit that acquires a choroidal vessel image, an identification unit that identifies multiple vascular center points of the choroidal vessels from the choroidal vessel image along the running direction of the choroidal vessels, and a calculation unit that calculates the vascular diameter for each of the identified multiple vascular center points.
本開示の技術の第4の態様の画像処理装置は、脈絡膜血管画像を取得する脈絡膜血管画像取得部と、脈絡膜血管画像から複数の脈絡膜血管の各々の走行方向に沿って前記複数の脈絡膜血管の各々の複数の血管中心点を特定する特定部と、前記複数の脈絡膜血管の各々毎に、前記特定した複数の血管中心点の各々について血管径を算出する算出部と、前記複数の脈絡膜血管の各々毎に、前記特定された複数の血管中心点と各血管中心点について前記算出された血管径とを記憶媒体に記憶する記憶処理部と、を備える。 The image processing device of the fourth aspect of the technology disclosed herein includes a choroidal vessel image acquisition unit that acquires a choroidal vessel image, an identification unit that identifies a plurality of vascular center points of each of the plurality of choroidal vessels along the running direction of each of the plurality of choroidal vessels from the choroidal vessel image, a calculation unit that calculates a vascular diameter for each of the plurality of identified vascular center points for each of the plurality of choroidal vessels, and a storage processing unit that stores the identified plurality of vascular center points and the calculated vascular diameter for each of the plurality of choroidal vessels in a storage medium.
本開示の技術の第5の態様の画像処理装置は、脈絡膜血管画像を取得する脈絡膜血管画像取得部と、前記脈絡膜血管画像から脈絡膜血管の走行方向に沿って前記脈絡膜血管の複数の血管中心点を特定する第1の特定部と、前記特定した複数の血管中心点の各々について血管径を算出する算出部と、前記脈絡膜血管画像の各画素について、前記複数の血管中心点の中から最も近い血管中心点を特定する第2の特定部と、前記脈絡膜血管画像の各画素と、当該画素に対して前記特定された血管中心点と、各血管中心点について前記算出された血管径とを対応して記憶媒体に記憶する記憶処理部と、を備える。 The image processing device of the fifth aspect of the disclosed technology includes a choroidal vessel image acquisition unit that acquires a choroidal vessel image, a first identification unit that identifies a plurality of vascular center points of the choroidal vessels from the choroidal vessel image along the running direction of the choroidal vessels, a calculation unit that calculates the vascular diameter for each of the identified plurality of vascular center points, a second identification unit that identifies the closest vascular center point from among the plurality of vascular center points for each pixel of the choroidal vessel image, and a storage processing unit that stores in a storage medium each pixel of the choroidal vessel image, the identified vascular center point for that pixel, and the calculated vascular diameter for each vascular center point in correspondence with each other.
本開示の技術の第6の態様の画像処理プログラムは、コンピュータに、第1の態様又は第2の態様の画像処理方法を実行させる。 The image processing program of the sixth aspect of the disclosed technology causes a computer to execute the image processing method of the first or second aspect.
本開示の技術の第7の態様の血管径算出装置は、脈絡膜血管の複数の血管中心点のデータと、各血管中心点の血管径のデータと、を対応して記憶する記憶媒体と、前記記憶媒体に記憶された前記脈絡膜血管の複数の血管中心点のデータと、前記各血管中心点の血管径のデータとに基づいて、脈絡膜血管の血管径を算出する制御部と、を備える。 The vascular diameter calculation device according to the seventh aspect of the disclosed technology includes a storage medium that stores data on multiple vascular center points of choroidal blood vessels and data on the vascular diameter of each vascular center point in correspondence with each other, and a control unit that calculates the vascular diameter of the choroidal blood vessels based on the data on multiple vascular center points of the choroidal blood vessels stored in the storage medium and the data on the vascular diameter of each vascular center point.
本開示の技術の第8の態様の血管径算出装置は、複数の脈絡膜血管の各々に対応して、各脈絡膜血管の複数の血管中心点のデータと、各血管中心点の血管径のデータと、を記憶する記憶媒体と、前記記憶媒体に複数の脈絡膜血管の各々に対応して記憶された前記各脈絡膜血管の複数の血管中心点のデータと、各血管中心点の血管径のデータと、前記各血管中心点の血管径のデータとに基づいて、複数の脈絡膜血管の各々の血管径を算出する制御部と、を備える。 The vascular diameter calculation device of the eighth aspect of the disclosed technology includes a storage medium that stores data on a plurality of vascular center points of each of a plurality of choroidal vessels and data on the vascular diameter of each of the vascular center points, and a control unit that calculates the vascular diameter of each of a plurality of choroidal vessels based on the data on the plurality of vascular center points of each of the choroidal vessels stored in the storage medium in correspondence with each of the plurality of choroidal vessels, the data on the vascular diameter of each of the vascular center points, and the data on the vascular diameter of each of the vascular center points.
本開示の技術の第9の態様の血管径算出装置は、脈絡膜血管画像の各画素のデータと、前記脈絡膜血管画像中の絡膜血管の複数の血管中心点のデータと、各血管中心点の血管径のデータと、を対応して記憶する記憶媒体と、前記記憶媒体に対応して記憶された前記脈絡膜血管画像の各画素のデータと、前記脈絡膜血管画像中の絡膜血管の複数の血管中心点のデータと、前記各血管中心点の血管径のデータとに基づいて、表示部に表示された前記脈絡膜血管画像において指示された箇所の脈絡膜血管の血管径を算出する制御部と、を備える。 The ninth aspect of the disclosed technique is a vascular diameter calculation device that includes a storage medium that stores corresponding data of each pixel of a choroidal vessel image, data of a plurality of vessel center points of the ocular vessels in the choroidal vessel image, and data of the vessel diameter of each vessel center point, and a control unit that calculates the vessel diameter of the choroidal vessel at a location indicated in the choroidal vessel image displayed on a display unit based on the data of each pixel of the choroidal vessel image stored in correspondence with the storage medium, the data of a plurality of vessel center points of the ocular vessels in the choroidal vessel image, and the vessel diameter data of each vessel center point.
以下、図面を参照して本発明の実施の形態を詳細に説明する。 The following describes in detail an embodiment of the present invention with reference to the drawings.
[第1の実施の形態] [First embodiment]
以下、本発明の第1の実施形態に係る模擬眼について図面を参照して説明する。 The following describes the artificial eye according to the first embodiment of the present invention with reference to the drawings.
図1を参照して、眼科システム100の構成を説明する。図1に示すように、眼科システム100は、眼科装置110と、眼軸長測定器120と、管理サーバ装置(以下、「管理サーバ」という)140と、画像表示装置(以下、「画像ビューワ」という)150と、を備えている。眼科装置110は、眼底画像を取得する。眼軸長測定器120は、患者の眼軸長を測定する。管理サーバ140は、眼科装置110によって複数の患者の眼底が撮影されることにより得られた複数の眼底画像、眼軸長、および断層画像を、患者のIDに対応して記憶する。画像ビューワ150は、管理サーバ140から取得した眼底画像を表示する。
管理サーバ140は、本開示の技術の「画像処理装置」および「血管径算出装置」の一例である。
The configuration of an ophthalmologic system 100 will be described with reference to Fig. 1. As shown in Fig. 1, the ophthalmologic system 100 includes an ophthalmologic apparatus 110, an axial length measuring device 120, a management server apparatus (hereinafter referred to as "management server") 140, and an image display device (hereinafter referred to as "image viewer") 150. The ophthalmologic apparatus 110 acquires a fundus image. The axial length measuring device 120 measures the axial length of a patient. The management server 140 stores a plurality of fundus images, axial lengths, and tomographic images obtained by photographing the funduses of a plurality of patients by the ophthalmologic apparatus 110 in association with the patient ID. The image viewer 150 displays the fundus image acquired from the management server 140.
The management server 140 is an example of the “image processing device” and the “vascular diameter calculation device” of the technology of the present disclosure.
眼科装置110、眼軸長測定器120、管理サーバ140、および画像ビューワ150は、ネットワーク130を介して、相互に接続されている。 The ophthalmic device 110, axial length measuring device 120, management server 140, and image viewer 150 are interconnected via network 130.
眼軸長測定器120は、被検眼12の眼軸方向の長さである眼軸長を測定する第1のモードと第2のモードとの2つのモードを有する。第1のモードは、図示しない光源からの光を被検眼12に導光した後、眼底からの反射光と角膜からの反射光との干渉光を受光し、受光した干渉光を示す干渉信号に基づいて眼軸長を測定する。第2のモードは、図示しない超音波を用いて眼軸長を測定するモードである。 The axial length measuring device 120 has two modes, a first mode and a second mode, for measuring the axial length, which is the length in the axial direction of the test eye 12. In the first mode, light from a light source (not shown) is guided to the test eye 12, and then the interference light between the reflected light from the fundus and the reflected light from the cornea is received, and the axial length is measured based on an interference signal indicating the received interference light. In the second mode, the axial length is measured using ultrasound (not shown).
眼軸長測定器120は、第1のモード又は第2のモードにより測定された眼軸長を管理サーバ140に送信する。第1のモードおよび第2のモードにより眼軸長を測定してもよく、この場合には、双方のモードで測定された眼軸長の平均を眼軸長として管理サーバ140に送信する。 The axial length measuring device 120 transmits the axial length measured in the first mode or the second mode to the management server 140. The axial length may be measured in both the first mode and the second mode, in which case the average of the axial lengths measured in both modes is transmitted to the management server 140 as the axial length.
次に、図2を参照して、眼科装置110の構成を説明する。 Next, the configuration of the ophthalmic device 110 will be described with reference to Figure 2.
説明の便宜上、走査型レーザ検眼鏡(Scanning Laser Ophthalmoscope)を「SLO」と称する。また、光干渉断層計(Optical Coherence Tomography)を「OCT」と称する。 For ease of explanation, Scanning Laser Ophthalmoscope will be referred to as "SLO." Optical Coherence Tomography will be referred to as "OCT."
なお、眼科装置110が水平面に設置された場合の水平方向を「X方向」、水平面に対する垂直方向を「Y方向」とし、被検眼12の前眼部の瞳孔の中心と眼球の中心とを結ぶ方向を「Z方向」とする。従って、X方向、Y方向、およびZ方向は互いに垂直である。 When the ophthalmic device 110 is placed on a horizontal plane, the horizontal direction is the "X direction", the vertical direction to the horizontal plane is the "Y direction", and the direction connecting the center of the pupil of the anterior part of the subject's eye 12 and the center of the eyeball is the "Z direction". Therefore, the X direction, Y direction, and Z direction are perpendicular to each other.
眼科装置110は、撮影装置14および制御装置16を含む。撮影装置14は、SLOユニット18およびOCTユニット20を備えており、被検眼12の眼底の眼底画像を取得する。以下、SLOユニット18により取得された二次元眼底画像をSLO画像と称する。また、OCTユニット20により取得されたOCTデータに基づいて作成された網膜の断層画像や正面画像(en-face画像)などをOCT画像と称する。 The ophthalmic device 110 includes an imaging device 14 and a control device 16. The imaging device 14 is equipped with an SLO unit 18 and an OCT unit 20, and acquires a fundus image of the fundus of the subject's eye 12. Hereinafter, the two-dimensional fundus image acquired by the SLO unit 18 will be referred to as an SLO image. In addition, a tomographic image or an en-face image of the retina created based on the OCT data acquired by the OCT unit 20 will be referred to as an OCT image.
制御装置16は、CPU(Central Processing Unit(中央処理装置))16A、RAM(Random Access Memory)16B、ROM(Read-Only memory)16C、および入出力(I/O)ポート16Dを有するコンピュータを備えている。 The control device 16 includes a computer having a CPU (Central Processing Unit) 16A, a RAM (Random Access Memory) 16B, a ROM (Read-Only Memory) 16C, and an input/output (I/O) port 16D.
制御装置16は、I/Oポート16Dを介してCPU16Aに接続された入力/表示装置16Eを備えている。入力/表示装置16Eは、被検眼12の画像を表示したり、ユーザから各種指示を受け付けたりするグラフィックユーザインターフェースを有する。グラフィックユーザインターフェースとしては、タッチパネル・ディスプレイが挙げられる。 The control device 16 is equipped with an input/display device 16E connected to the CPU 16A via an I/O port 16D. The input/display device 16E has a graphic user interface that displays an image of the subject's eye 12 and receives various instructions from the user. An example of the graphic user interface is a touch panel display.
また、制御装置16は、I/Oポート16Dに接続された画像処理装置17を備えている。画像処理装置17は、撮影装置14によって得られたデータに基づき被検眼12の画像を生成する。なお、制御装置16は、図示しない通信インターフェースを介してネットワーク130に接続される。 The control device 16 also includes an image processing device 17 connected to the I/O port 16D. The image processing device 17 generates an image of the subject's eye 12 based on the data obtained by the photographing device 14. The control device 16 is connected to the network 130 via a communication interface (not shown).
上記のように、図2では、眼科装置110の制御装置16が入力/表示装置16Eを備えているが、本開示の技術はこれに限定されない。例えば、眼科装置110の制御装置16は入力/表示装置16Eを備えず、眼科装置110とは物理的に独立した別個の入力/表示装置を備えるようにしてもよい。この場合、当該表示装置は、制御装置16のCPU16Aの表示制御部204の制御下で動作する画像処理プロセッサユニットを備える。画像処理プロセッサユニットが、表示制御部204が出力指示した画像信号に基づいて、SLO画像等を表示するようにしてもよい。 As described above, in FIG. 2, the control device 16 of the ophthalmic device 110 is equipped with an input/display device 16E, but the technology of the present disclosure is not limited to this. For example, the control device 16 of the ophthalmic device 110 may not be equipped with the input/display device 16E, but may be equipped with a separate input/display device that is physically independent from the ophthalmic device 110. In this case, the display device has an image processing processor unit that operates under the control of the display control unit 204 of the CPU 16A of the control device 16. The image processing processor unit may display an SLO image, etc., based on an image signal that is instructed to be output by the display control unit 204.
撮影装置14は、制御装置16の撮影制御部202の制御下で作動する。撮影装置14は、SLOユニット18、撮影光学系19、およびOCTユニット20を含む。撮影光学系19は、第1光学スキャナ22、第2光学スキャナ24、および広角光学系30を含む。 The imaging device 14 operates under the control of the imaging control unit 202 of the control device 16. The imaging device 14 includes an SLO unit 18, an imaging optical system 19, and an OCT unit 20. The imaging optical system 19 includes a first optical scanner 22, a second optical scanner 24, and a wide-angle optical system 30.
第1光学スキャナ22は、SLOユニット18から射出された光をX方向、およびY方向に2次元走査する。第2光学スキャナ24は、OCTユニット20から射出された光をX方向、およびY方向に2次元走査する。第1光学スキャナ22および第2光学スキャナ24は、光束を偏向できる光学素子であればよく、例えば、ポリゴンミラーや、ガルバノミラー等を用いることができる。また、それらの組み合わせであってもよい。 The first optical scanner 22 performs two-dimensional scanning in the X and Y directions with the light emitted from the SLO unit 18. The second optical scanner 24 performs two-dimensional scanning in the X and Y directions with the light emitted from the OCT unit 20. The first optical scanner 22 and the second optical scanner 24 may be optical elements capable of deflecting a light beam, such as a polygon mirror or a galvanometer mirror. Alternatively, a combination of these may be used.
広角光学系30は、共通光学系28を有する対物光学系(図2では不図示)、およびSLOユニット18からの光とOCTユニット20からの光を合成する合成部26を含む。 The wide-angle optical system 30 includes an objective optical system (not shown in FIG. 2) having a common optical system 28, and a combining unit 26 that combines the light from the SLO unit 18 and the light from the OCT unit 20.
なお、共通光学系28の対物光学系は、楕円鏡などの凹面ミラーを用いた反射光学系や、広角レンズなどを用いた屈折光学系、あるいは、凹面ミラーやレンズを組み合わせた反射屈折光学系でもよい。楕円鏡や広角レンズなどを用いた広角光学系を用いることにより、眼底中心部だけでなく眼底周辺部の網膜を撮影することが可能となる。 The objective optical system of the common optical system 28 may be a reflective optical system using a concave mirror such as an elliptical mirror, a refractive optical system using a wide-angle lens, or a catadioptric system combining concave mirrors and lenses. By using a wide-angle optical system using an elliptical mirror or a wide-angle lens, it is possible to photograph the retina not only in the center of the fundus but also in the peripheral part of the fundus.
楕円鏡を含むシステムを用いる場合には、国際公開WO2016/103484あるいは国際公開WO2016/103489に記載された楕円鏡を用いたシステムを用いる構成でもよい。国際公開WO2016/103484の開示および国際公開WO2016/103489の開示の各々は、その全体が参照により本明細書に取り込まれる。 When using a system including an elliptical mirror, the system using the elliptical mirror described in International Publication WO2016/103484 or International Publication WO2016/103489 may be used. The disclosures of International Publication WO2016/103484 and International Publication WO2016/103489 are each incorporated herein by reference in their entirety.
広角光学系30によって、眼底において広い視野(FOV:Field of View)12Aでの観察が実現される。FOV12Aは、撮影装置14によって撮影可能な範囲を示している。FOV12Aは、視野角として表現され得る。視野角は、本実施の形態において、内部照射角と外部照射角とで規定され得る。外部照射角とは、眼科装置110から被検眼12へ照射される光束の照射角を、瞳孔27を基準として規定した照射角である。また、内部照射角とは、眼底Fへ照射される光束の照射角を、眼球中心Oを基準として規定した照射角である。外部照射角と内部照射角とは、対応関係にある。例えば、外部照射角が120度の場合、内部照射角は約160度に相当する。本実施の形態では、内部照射角は200度としている。 The wide-angle optical system 30 realizes observation of the fundus with a wide field of view (FOV) 12A. The FOV 12A indicates the range that can be photographed by the photographing device 14. The FOV 12A can be expressed as a field of view. In this embodiment, the field of view can be defined by an internal irradiation angle and an external irradiation angle. The external irradiation angle is the irradiation angle of the light beam irradiated from the ophthalmic device 110 to the subject's eye 12, which is defined based on the pupil 27. The internal irradiation angle is the irradiation angle of the light beam irradiated to the fundus F, which is defined based on the center O of the eyeball. The external irradiation angle and the internal irradiation angle are in a corresponding relationship. For example, when the external irradiation angle is 120 degrees, the internal irradiation angle corresponds to approximately 160 degrees. In this embodiment, the internal irradiation angle is 200 degrees.
ここで、内部照射角で160度以上の撮影画角で撮影されて得られたSLO眼底画像をUWF-SLO眼底画像と称する。なお、UWFとは、UltraWide Field(超広角)の略称を指す。 Here, an SLO fundus image captured at an internal illumination angle of 160 degrees or more is referred to as a UWF-SLO fundus image. Note that UWF stands for Ultra Wide Field.
SLOシステムは、図2に示す制御装置16、SLOユニット18、および撮影光学系19によって実現される。SLOシステムは、広角光学系30を備えるため、広いFOV12Aでの眼底撮影を可能とする。 The SLO system is realized by the control device 16, SLO unit 18, and imaging optical system 19 shown in FIG. 2. The SLO system is equipped with a wide-angle optical system 30, which enables fundus imaging with a wide FOV 12A.
SLOユニット18は、B(青色光)の光源40、G光(緑色光)の光源42、R光(赤色光)の光源44、およびIR光(赤外線(例えば、近赤外光))の光源46と、光源40、42、44、46からの光を、反射又は透過して1つの光路に導く光学系48、50、52、54、56とを備えている。光学系48、50、56は、ミラーであり、光学系52、54は、ビームスプリッタ―である。B光は、光学系48で反射し、光学系50を透過し、光学系54で反射し、G光は、光学系50、54で反射し、R光は、光学系52、54を透過し、IR光は、光学系52、56で反射して、それぞれ1つの光路に導かれる。 The SLO unit 18 includes a B (blue light) light source 40, a G (green light) light source 42, an R (red light) light source 44, and an IR (infrared (e.g., near-infrared) light) light source 46, as well as optical systems 48, 50, 52, 54, and 56 that reflect or transmit the light from the light sources 40, 42, 44, and 46 and guide them to one optical path. The optical systems 48, 50, and 56 are mirrors, and the optical systems 52 and 54 are beam splitters. The B light is reflected by the optical system 48, passes through the optical system 50, and is reflected by the optical system 54, the G light is reflected by the optical systems 50 and 54, the R light is transmitted through the optical systems 52 and 54, and the IR light is reflected by the optical systems 52 and 56, and is each guided to one optical path.
SLOユニット18は、R光およびG光を発するモードと、赤外線を発するモードなど、波長の異なるレーザ光を発する光源あるいは発光させる光源の組合せを切り替え可能に構成されている。図2に示す例では、G光の光源42、R光の光源44、およびIR光の光源46の3つの光源を備えるが、本開示の技術は、これに限定されない。例えば、SLOユニット18は、更に、B光(青色光)の光源や白色光の光源を更に備え、G光、R光、およびB光を発するモードや、白色光のみを発するモード等の種々のモードで光を発するようにしてもよい。 The SLO unit 18 is configured to be able to switch between a light source that emits laser light of different wavelengths or a combination of light sources that emit light, such as a mode that emits R light and G light and a mode that emits infrared light. In the example shown in FIG. 2, three light sources are provided: a light source 42 of G light, a light source 44 of R light, and a light source 46 of IR light, but the technology of the present disclosure is not limited to this. For example, the SLO unit 18 may further include a light source of B light (blue light) and a light source of white light, and may emit light in various modes, such as a mode that emits G light, R light, and B light, or a mode that emits only white light.
SLOユニット18から撮影光学系19に入射された光は、第1光学スキャナ22によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、眼底に照射される。眼底により反射された反射光は、広角光学系30および第1光学スキャナ22を経由してSLOユニット18へ入射される。 The light incident on the imaging optical system 19 from the SLO unit 18 is scanned in the X and Y directions by the first optical scanner 22. The scanning light passes through the wide-angle optical system 30 and the pupil 27 and is irradiated onto the fundus. The light reflected by the fundus passes through the wide-angle optical system 30 and the first optical scanner 22 and is incident on the SLO unit 18.
SLOユニット18は、被検眼12の後眼部(眼底)からの光の内、B光を反射し且つB光以外を透過するビームスプリッタ64、ビームスプリッタ64を透過した光の内、G光を反射し且つG光以外を透過するビームスプリッタ58を備えている。SLOユニット18は、ビームスプリッタ58を透過した光の内、R光を反射し且つR光以外を透過するビームスプリッタ60を備えている。SLOユニット18は、ビームスプリッタ60を透過した光の内、IR光を反射するビームスプリッタ62を備えている。SLOユニット18は、ビームスプリッタ64により反射したB光を検出するB光検出素子70、ビームスプリッタ58により反射したG光を検出するG光検出素子72、ビームスプリッタ60により反射したR光を検出するR光検出素子74、およびビームスプリッタ62により反射したIR光を検出するIR光検出素子76を備えている。 The SLO unit 18 includes a beam splitter 64 that reflects B light and transmits light other than B light from the posterior segment (fundus) of the subject's eye 12, and a beam splitter 58 that reflects G light and transmits light other than G light from the light that has passed through the beam splitter 64. The SLO unit 18 includes a beam splitter 60 that reflects R light and transmits light other than R light from the light that has passed through the beam splitter 58. The SLO unit 18 includes a beam splitter 62 that reflects IR light from the light that has passed through the beam splitter 60. The SLO unit 18 includes a B light detection element 70 that detects B light reflected by the beam splitter 64, a G light detection element 72 that detects G light reflected by the beam splitter 58, an R light detection element 74 that detects R light reflected by the beam splitter 60, and an IR light detection element 76 that detects IR light reflected by the beam splitter 62.
広角光学系30および第1光学スキャナ22を経由してSLOユニット18へ入射された光(眼底により反射された反射光)は、B光の場合、ビームスプリッタ64で反射してB光検出素子70により受光され、G光の場合、ビームスプリッタ58で反射してG光検出素子72により受光される。上記入射された光は、R光の場合、ビームスプリッタ58を透過し、ビームスプリッタ60で反射してR光検出素子74により受光される。上記入射された光は、IR光の場合、ビームスプリッタ58、60を透過し、ビームスプリッタ62で反射してIR光検出素子76により受光される。CPU16Aの制御下で動作する画像処理装置17は、B光検出素子70、G光検出素子72、R光検出素子74、およびIR光検出素子76で検出された信号を用いてUWF-SLO画像を生成する。 The light (reflected light reflected by the fundus) incident on the SLO unit 18 via the wide-angle optical system 30 and the first optical scanner 22 is reflected by the beam splitter 64 and received by the B light detection element 70 in the case of B light, and is reflected by the beam splitter 58 and received by the G light detection element 72 in the case of G light. The incident light passes through the beam splitter 58 in the case of R light, is reflected by the beam splitter 60, and is received by the R light detection element 74. The incident light passes through the beam splitters 58 and 60 in the case of IR light, is reflected by the beam splitter 62, and is received by the IR light detection element 76. The image processing device 17, which operates under the control of the CPU 16A, generates a UWF-SLO image using signals detected by the B light detection element 70, the G light detection element 72, the R light detection element 74, and the IR light detection element 76.
UWF-SLO画像には、図12に示すように、眼底がG色で撮影されて得られたUWF-SLO画像(G色眼底画像)502GGと、眼底がR色で撮影されて得られたUWF-SLO画像(R色眼底画像)504RGとがある。UWF-SLO画像には、眼底がB色で撮影されて得られたUWF-SLO画像(B色眼底画像)506BGと、眼底がIRで撮影されて得られたUWF-SLO画像(IR眼底画像)508IRGとがある。 As shown in FIG. 12, the UWF-SLO images include a UWF-SLO image (G-color fundus image) 502GG obtained by photographing the fundus in G color, and a UWF-SLO image (R-color fundus image) 504RG obtained by photographing the fundus in R color. The UWF-SLO images include a UWF-SLO image (B-color fundus image) 506BG obtained by photographing the fundus in B color, and a UWF-SLO image (IR fundus image) 508IRG obtained by photographing the fundus in IR.
また、制御装置16が、同時に発光するように光源40、42、44を制御する。B光、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像502GG、R色眼底画像504RG、およびB色眼底画像506BGが得られる。G色眼底画像502GG、R色眼底画像504RG、およびB色眼底画像506BGからRGBカラー眼底画像が得られる。制御装置16が、同時に発光するように光源42、44を制御し、G光およびR光で同時に被検眼12の眼底が撮影されることにより、各位置が互いに対応するG色眼底画像502GGおよびR色眼底画像504RGが得られる。G色眼底画像502GGおよびR色眼底画像504RGからRGカラー眼底画像が得られる。 The control device 16 also controls the light sources 40, 42, 44 to emit light simultaneously. The fundus of the subject's eye 12 is photographed simultaneously with the B light, G light, and R light, thereby obtaining a G-color fundus image 502GG, an R-color fundus image 504RG, and a B-color fundus image 506BG, each of which corresponds to the other positions. An RGB color fundus image is obtained from the G-color fundus image 502GG, the R-color fundus image 504RG, and the B-color fundus image 506BG. The control device 16 controls the light sources 42, 44 to emit light simultaneously, and the fundus of the subject's eye 12 is photographed simultaneously with the G light and R light, thereby obtaining a G-color fundus image 502GG and an R-color fundus image 504RG, each of which corresponds to the other positions. An RG color fundus image is obtained from the G-color fundus image 502GG and the R-color fundus image 504RG.
UWF-SLO画像には、ICG蛍光撮影されたUWF-SLO画像(動画)510ICGGもある。インドシアニン・グリーン(ICG)が血管に注入されると、眼底に到達し、最初は網膜に到達し、次に、脈絡膜に到達し、脈絡膜を通過する。UWF-SLO画像(動画)510ICGGは、インドシアニン・グリーン(ICG)が血管に注入され網膜に到達した時から、脈絡膜を通過した後までの動画像である。 The UWF-SLO image also includes UWF-SLO image (video) 510ICGG, which was photographed using ICG fluorescence. When indocyanine green (ICG) is injected into a blood vessel, it reaches the fundus, first the retina, then the choroid, and passes through the choroid. UWF-SLO image (video) 510ICGG is a moving image from when indocyanine green (ICG) is injected into a blood vessel and reaches the retina to after it has passed through the choroid.
B色眼底画像506BG、G色眼底画像502GG、R色眼底画像504RG、IR眼底画像508IRG、RGBカラー眼底画像、RGカラー眼底画像、およびUWF-SLO画像510ICGGの各画像データは、図示しない通信IFを介して眼科装置110から管理サーバ140へ送付される。 The image data of the B-color fundus image 506BG, the G-color fundus image 502GG, the R-color fundus image 504RG, the IR fundus image 508IRG, the RGB color fundus image, the RG color fundus image, and the UWF-SLO image 510ICGG are sent from the ophthalmic device 110 to the management server 140 via a communication IF (not shown).
OCTシステムは、図2に示す制御装置16、OCTユニット20、および撮影光学系19によって実現される。OCTシステムは、広角光学系30を備えるため、上述したSLO眼底画像の撮影と同様に、広いFOV12Aでの眼底撮影を可能とする。OCTユニット20は、光源20A、センサ(検出素子)20B、第1の光カプラ20C、参照光学系20D、コリメートレンズ20E、および第2の光カプラ20Fを含む。 The OCT system is realized by the control device 16, OCT unit 20, and imaging optical system 19 shown in FIG. 2. The OCT system includes a wide-angle optical system 30, and thus allows fundus imaging with a wide FOV 12A, similar to the above-mentioned SLO fundus image imaging. The OCT unit 20 includes a light source 20A, a sensor (detection element) 20B, a first optical coupler 20C, a reference optical system 20D, a collimating lens 20E, and a second optical coupler 20F.
光源20Aから射出された光は、第1の光カプラ20Cで分岐される。分岐された一方の光は、測定光として、コリメートレンズ20Eで平行光にされた後、撮影光学系19に入射される。測定光は、第2光学スキャナ24によってX方向およびY方向に走査される。走査光は広角光学系30および瞳孔27を経由して、眼底に照射される。眼底により反射された測定光は、広角光学系30および第2光学スキャナ24を経由してOCTユニット20へ入射され、コリメートレンズ20Eおよび第1の光カプラ20Cを介して、第2の光カプラ20Fに入射する。 The light emitted from the light source 20A is branched by the first optical coupler 20C. One of the branched lights is collimated by the collimating lens 20E as measurement light, and then enters the imaging optical system 19. The measurement light is scanned in the X and Y directions by the second optical scanner 24. The scanning light passes through the wide-angle optical system 30 and the pupil 27 and is irradiated onto the fundus. The measurement light reflected by the fundus is entered into the OCT unit 20 via the wide-angle optical system 30 and the second optical scanner 24, and enters the second optical coupler 20F via the collimating lens 20E and the first optical coupler 20C.
光源20Aから射出され、第1の光カプラ20Cで分岐された他方の光は、参照光として、参照光学系20Dへ入射され、参照光学系20Dを経由して、第2の光カプラ20Fに入射する。 The other light emitted from the light source 20A and branched by the first optical coupler 20C is incident on the reference optical system 20D as reference light, and passes through the reference optical system 20D to be incident on the second optical coupler 20F.
第2の光カプラ20Fに入射されたこれらの光、即ち、眼底で反射された測定光と、参照光とは、第2の光カプラ20Fで干渉されて干渉光を生成する。干渉光はセンサ20Bで受光される。画像処理制御部206の制御下で動作する画像処理装置17は、センサ20Bで検出されたOCTデータに基づいて断層画像やen-face画像などのOCT画像を生成する。 These lights incident on the second optical coupler 20F, i.e., the measurement light reflected from the fundus and the reference light, are interfered with by the second optical coupler 20F to generate interference light. The interference light is received by the sensor 20B. The image processing device 17, which operates under the control of the image processing control unit 206, generates OCT images such as tomographic images and en-face images based on the OCT data detected by the sensor 20B.
ここで、内部照射角で160度以上の撮影画角で撮影されて得られたOCT眼底画像をUWF-OCT画像と称する。 Here, an OCT fundus image captured at an internal illumination angle of 160 degrees or more is referred to as a UWF-OCT image.
UWF-OCT画像の画像データは、図示しない通信IFを介して眼科装置110から管理サーバ140へ送付され、記憶装置254に記憶される。 Image data of the UWF-OCT image is sent from the ophthalmic device 110 to the management server 140 via a communication IF (not shown) and stored in the storage device 254.
なお、本実施の形態では、光源20Aが波長掃引タイプのSS-OCT(Swept-Source OCT)を例示するが、SD-OCT(Spectral-Domain OCT)、TD-OCT(Time-Domain OCT)など、様々な方式のOCTシステムであってもよい。 In this embodiment, the light source 20A is exemplified as a wavelength-swept type SS-OCT (Swept-Source OCT), but various types of OCT systems, such as SD-OCT (Spectral-Domain OCT) and TD-OCT (Time-Domain OCT), may also be used.
図1の眼軸長測定器120は、被検眼12の眼軸方向(Z方向)の長さである眼軸長を測定する第1のモードと第2のモードとの2つのモードを有する。第1のモードは、図示しない光源からの光を被検眼12に導光した後、眼底からの反射光と角膜からの反射光との干渉光を受光し、受光した干渉光を示す干渉信号に基づいて眼軸長を測定する。第2のモードは、図示しない超音波を用いて眼軸長を測定するモードである。眼軸長測定器120は、第1のモード又は第2のモードにより測定された眼軸長を管理サーバ140に送信する。第1のモードおよび第2のモードにより眼軸長を測定してもよく、この場合には、双方のモードで測定された眼軸長の平均を眼軸長として管理サーバ140に送信する。眼軸長は被検者のデータの一つとして管理サーバ140に患者情報として保存されるとともに、眼底画像解析にも利用される。 The axial length measuring device 120 in FIG. 1 has two modes, a first mode and a second mode, for measuring the axial length, which is the length in the axial direction (Z direction) of the subject's eye 12. In the first mode, light from a light source (not shown) is guided to the subject's eye 12, and then the interference light between the reflected light from the fundus and the reflected light from the cornea is received, and the axial length is measured based on an interference signal indicating the received interference light. In the second mode, the axial length is measured using ultrasound (not shown). The axial length measuring device 120 transmits the axial length measured in the first mode or the second mode to the management server 140. The axial length may be measured in the first mode and the second mode, in which case the average of the axial lengths measured in both modes is transmitted to the management server 140 as the axial length. The axial length is stored as patient information in the management server 140 as one of the subject's data, and is also used for fundus image analysis.
次に、図3を参照して、管理サーバ140の電気系の構成を説明する。図4に示すように、管理サーバ140は、コンピュータ本体252を備えている。コンピュータ本体252は、CPU262、RAM266、ROM264、入出力(I/O)ポート268を有する。入出力(I/O)ポート268には、記憶装置254、ディスプレイ256、マウス255M、キーボード255K、および通信インターフェース(I/F)258が接続されている。記憶装置254は、例えば、不揮発メモリで構成される。入出力(I/O)ポート268は、通信インターフェース(I/F)258を介して、ネットワーク130に接続されている。従って、管理サーバ140は、眼科装置110、眼軸長測定器120、および画像ビューワ150と通信することができる。記憶装置254には、後述する画像処理プログラムが記憶されている。なお、画像処理プログラムを、ROM264に記憶してもよい。
記憶装置254及びROM264は、本開示の技術の「記憶媒体」の一例である。
Next, the configuration of the electrical system of the management server 140 will be described with reference to FIG. 4. As shown in FIG. 4, the management server 140 includes a computer main body 252. The computer main body 252 includes a CPU 262, a RAM 266, a ROM 264, and an input/output (I/O) port 268. The input/output (I/O) port 268 is connected to a storage device 254, a display 256, a mouse 255M, a keyboard 255K, and a communication interface (I/F) 258. The storage device 254 is, for example, configured of a non-volatile memory. The input/output (I/O) port 268 is connected to the network 130 via the communication interface (I/F) 258. Therefore, the management server 140 can communicate with the ophthalmic device 110, the axial length measuring device 120, and the image viewer 150. The storage device 254 stores an image processing program, which will be described later. The image processing program may be stored in the ROM 264.
The storage device 254 and the ROM 264 are examples of the "storage medium" of the technology of the present disclosure.
管理サーバ140は、眼科装置110および眼軸長測定器120から受信した各データを、記憶装置254に記憶する。 The management server 140 stores the data received from the ophthalmic device 110 and the axial length measuring device 120 in the storage device 254.
次に、図4を参照して、画像ビューワ150の電気系の構成を説明する。図4に示すように、画像ビューワ150は、コンピュータ本体152を備えている。コンピュータ本体152は、CPU162、RAM166、ROM164、入出力(I/O)ポート168を有する。入出力(I/O)ポート168には、記憶装置154、ディスプレイ156、マウス155M、キーボード155K、および通信インターフェース(I/F)158が接続されている。記憶装置154は、例えば、不揮発メモリで構成される。入出力(I/O)ポート168は、通信インターフェース(I/F)158を介して、ネットワーク130に接続されている。従って、画像ビューワ150は、眼科装置110および管理サーバ140と通信することができる。 Next, the configuration of the electrical system of the image viewer 150 will be described with reference to FIG. 4. As shown in FIG. 4, the image viewer 150 includes a computer main body 152. The computer main body 152 has a CPU 162, a RAM 166, a ROM 164, and an input/output (I/O) port 168. The input/output (I/O) port 168 is connected to a storage device 154, a display 156, a mouse 155M, a keyboard 155K, and a communication interface (I/F) 158. The storage device 154 is, for example, composed of a non-volatile memory. The input/output (I/O) port 168 is connected to the network 130 via the communication interface (I/F) 158. Therefore, the image viewer 150 can communicate with the ophthalmic device 110 and the management server 140.
次に、図5を参照して、管理サーバ140のCPU262が画像処理プログラムを実行することで実現される各種機能について説明する。画像処理プログラムは、表示制御機能、画像処理制御機能、および処理機能を備えている。CPU262がこの各機能を有する画像処理プログラムを実行することで、CPU262は、図6に示すように、表示制御部204、画像処理制御部206、および処理部208として機能する。
画像処理制御部206は、「脈絡膜血管画像取得部」、「特定部」、「算出部」、「記憶処理部」、「第1の特定部」、「第2の特定部」、及び「制御部」
の一例である。
Next, various functions realized by the CPU 262 of the management server 140 executing the image processing program will be described with reference to Fig. 5. The image processing program has a display control function, an image processing control function, and a processing function. By the CPU 262 executing the image processing program having these functions, the CPU 262 functions as a display control unit 204, an image processing control unit 206, and a processing unit 208 as shown in Fig. 6.
The image processing control unit 206 includes a “choroidal blood vessel image acquisition unit”, a “determination unit”, a “calculation unit”, a “storage processing unit”, a “first determination unit”, a “second determination unit”, and a “control unit”.
This is an example.
次に、図6を用いて、管理サーバ140による画像処理を詳細に説明する。管理サーバ140のCPU262が画像処理プログラムを実行することで、図6のフローチャートに示された画像処理(画像処理方法)が実現される。 Next, the image processing by the management server 140 will be described in detail with reference to FIG. 6. The image processing (image processing method) shown in the flowchart of FIG. 6 is realized by the CPU 262 of the management server 140 executing the image processing program.
ステップ302で、画像処理制御部206は、UWF-SLO画像を、記憶装置254から取得する。ステップ304で、画像処理制御部206は、取得したUWF-SLO画像から、次のように脈絡膜血管画像を作成する。 In step 302, the image processing control unit 206 acquires the UWF-SLO image from the storage device 254. In step 304, the image processing control unit 206 creates a choroidal vessel image from the acquired UWF-SLO image as follows.
まず、R色眼底画像とG色眼底画像とに含まれる情報を説明する。 First, we will explain the information contained in the R-color fundus image and the G-color fundus image.
眼の構造は、硝子体を、構造が異なる複数の層が覆うようになっている。複数の層には、硝子体側の最も内側から外側に、網膜、脈絡膜、強膜が含まれる。R光は波長が長いため、網膜を通過して脈絡膜まで到達する。よって、R色眼底画像504RGには、網膜に存在する血管(網膜血管)の情報と脈絡膜に存在する血管(脈絡膜血管)の情報とが含まれる。これに対し、G光はR光より波長が短いため、網膜までしか到達しない。よって、G色眼底画像502GGには、網膜に存在する血管(網膜血管)の情報のみが含まれる。よって、G色眼底画像502GGから網膜血管を抽出し、R色眼底画像504RGから網膜血管を除去することにより脈絡膜血管画像CLA(図13を参照)を得ることができる。具体的に、脈絡膜血管画像CLAは以下のようにして生成される。 The structure of the eye is such that the vitreous body is covered by multiple layers with different structures. The multiple layers include, from the innermost layer on the vitreous body side to the outermost layer, the retina, choroid, and sclera. Since R light has a long wavelength, it passes through the retina and reaches the choroid. Therefore, the R-color fundus image 504RG includes information on blood vessels present in the retina (retinal blood vessels) and blood vessels present in the choroid (choroidal blood vessels). In contrast, since G light has a shorter wavelength than R light, it only reaches the retina. Therefore, the G-color fundus image 502GG includes only information on blood vessels present in the retina (retinal blood vessels). Therefore, a choroidal blood vessel image CLA (see FIG. 13) can be obtained by extracting the retinal blood vessels from the G-color fundus image 502GG and removing the retinal blood vessels from the R-color fundus image 504RG. Specifically, the choroidal blood vessel image CLA is generated as follows.
画像処理制御部206は、ブラックハットフィルタ処理をG色眼底画像502GGに施すことにより、G色眼底画像502GGから網膜血管を抽出する。次に、画像処理制御部206は、R色眼底画像504RGから、インペインティング処理により、網膜血管を除去する。つまり、G色眼底画像502GGから抽出された網膜血管の位置情報を用いてR色眼底画像504RGの網膜血管構造を周囲の画素と同じ値に塗りつぶす処理を行う。
そして、画像処理制御部206は、網膜血管が除去されたR色眼底画像504RGの画像データに対し、適応ヒストグラム均等化処理(Contrast Limited Adaptive Histograph Equalization)を施すことにより、R色眼底画像504RGにおいて、脈絡膜血管を強調する。これにより、図13に示す脈絡膜血管画像CLAが作成される。作成された脈絡膜血管画像CLAは記憶装置254に記憶される。
The image processing control unit 206 extracts retinal blood vessels from the G-color fundus image 502GG by applying black hat filter processing to the G-color fundus image 502GG. Next, the image processing control unit 206 removes retinal blood vessels from the R-color fundus image 504RG by inpainting processing. That is, the image processing control unit 206 performs processing to paint the retinal blood vessel structure of the R-color fundus image 504RG with the same value as the surrounding pixels using the position information of the retinal blood vessels extracted from the G-color fundus image 502GG.
The image processing control unit 206 then performs contrast limited adaptive histogram equalization on the image data of the red fundus image 504RG from which the retinal blood vessels have been removed, thereby emphasizing the choroidal blood vessels in the red fundus image 504RG. As a result, a choroidal blood vessel image CLA shown in FIG. 13 is created. The created choroidal blood vessel image CLA is stored in the storage device 254.
また、上記例では、R色眼底画像504RGとG色眼底画像502GGとから脈絡膜血管画像を生成している。しかし、画像処理制御部206は、G色眼底画像502GGとUWF-SLO画像508IRGとから脈絡膜血管画像CLAを生成してもよい。画像処理制御部206は、B色眼底画像502BGと、R色眼底画像504RGおよびUWF-SLO画像508IRGの一方とから、脈絡膜血管画像CLAを生成してもよい。 In the above example, the choroidal blood vessel image is generated from the R-color fundus image 504RG and the G-color fundus image 502GG. However, the image processing control unit 206 may generate the choroidal blood vessel image CLA from the G-color fundus image 502GG and the UWF-SLO image 508IRG. The image processing control unit 206 may generate the choroidal blood vessel image CLA from the B-color fundus image 502BG and one of the R-color fundus image 504RG and the UWF-SLO image 508IRG.
更に、UWF-SLO画像(動画)510から、脈絡膜血管画像CLAを生成してもよい。上記のように、UWF-SLO画像(動画)510は、インドシアニン・グリーン(ICG)が血管に注入され網膜に到達した時から、脈絡膜を通過した後までの動画像である。インドシアニン・グリーン(ICG)が網膜を通過した時から脈絡膜を通過している期間の動画像から、脈絡膜血管画像CLAを生成してもよい。 Furthermore, a choroidal blood vessel image CLA may be generated from the UWF-SLO image (moving image) 510. As described above, the UWF-SLO image (moving image) 510 is a moving image from when indocyanine green (ICG) is injected into a blood vessel and reaches the retina to after it has passed through the choroid. A choroidal blood vessel image CLA may be generated from a moving image of the period from when indocyanine green (ICG) passes through the retina to when it passes through the choroid.
ところで、脈絡膜血管の径は、一般的に網膜中の血管径より大きい。具体的には、所定の閾値より大きい血管径は脈絡膜血管である。そこで、UWF-SLO画像(動画)510で、インドシアニン・グリーン(ICG)が網膜および脈絡膜の血管を通過中の画像から血管を抽出し、所定の閾値より小さい血管径を消すことにより、脈絡膜血管画像CLAを生成してもよい。 By the way, the diameter of choroidal blood vessels is generally larger than that of blood vessels in the retina. Specifically, blood vessels with a diameter larger than a predetermined threshold are choroidal blood vessels. Therefore, in the UWF-SLO image (video) 510, blood vessels may be extracted from an image in which indocyanine green (ICG) is passing through the blood vessels of the retina and choroid, and a choroidal blood vessel image CLA may be generated by eliminating blood vessel diameters smaller than a predetermined threshold.
脈絡膜血管画像には瞼などが含まれていることもあり、ステップ306で、画像処理制御部206は、脈絡膜血管画像CLAに対して眼底領域を切り出す(瞼などを除去)処理が行われた脈絡膜血管画像CLE(図14を参照)を生成する。脈絡膜血管画像CLAや脈絡膜血管画像CLEは眼底画像を画像処理することにより得られた脈絡膜血管が可視化された画像である。 Since the choroidal blood vessel image may include the eyelids, in step 306, the image processing control unit 206 generates a choroidal blood vessel image CLE (see FIG. 14) in which the fundus region is cut out from the choroidal blood vessel image CLA (removing the eyelids, etc.). The choroidal blood vessel image CLA and the choroidal blood vessel image CLE are images in which the choroidal blood vessels are visualized and obtained by image processing the fundus image.
ステップ308で、画像処理制御部206は、脈絡膜血管画像CLEの中の各脈絡膜血管の血管径を、血管走行方向に沿って求めた複数の血管中心点の各々を用いて、算出する。血管径の詳細な算出処理については後述する。 In step 308, the image processing control unit 206 calculates the vascular diameter of each choroidal vessel in the choroidal vessel image CLE using each of the multiple vascular center points obtained along the vascular running direction. The detailed calculation process of the vascular diameter will be described later.
ステップ309で、画像処理制御部206は、ステップ308で算出された血管中心点における、少なくとも脈絡膜血管径と画素座標を含んだ脈絡膜血管径のデータベースを作成する。この脈絡膜血管径のデータベースは、解析対象となったUWF-SLO眼底画像と関連付けられて、RAM266あるいは記憶装置254に記憶される。データベース構造の詳細については後述する。 In step 309, the image processing control unit 206 creates a database of choroidal vessel diameters that includes at least the choroidal vessel diameters and pixel coordinates at the vessel center points calculated in step 308. This database of choroidal vessel diameters is associated with the UWF-SLO fundus image that was the subject of analysis and stored in the RAM 266 or the storage device 254. Details of the database structure will be described later.
ステップ310で、表示制御部204は、ステップ308で算出された血管径データを用いた解析の結果を示した表示画面800(図28も参照)の表示画像を作成する。表示画面のレイアウトについても後述する。 In step 310, the display control unit 204 creates a display image of the display screen 800 (see also FIG. 28) showing the results of the analysis using the vascular diameter data calculated in step 308. The layout of the display screen will also be described later.
ステップ312で、処理部208は、表示画像の表示画像データを、通信I/F258を介して、画像ビューワ150に送信する。 In step 312, the processing unit 208 transmits the display image data of the display image to the image viewer 150 via the communication I/F 258.
次に、図7、8、9、10に記載されたフローチャートを用いて脈絡膜血管径の算出処理について説明する。 Next, the process of calculating the choroidal vessel diameter will be explained using the flowcharts shown in Figures 7, 8, 9, and 10.
図7は、脈絡膜血管径のメインフローチャートである。ステップ322で、画像処理制御部206は、詳細には後述する血管スケルトン画像VS(図15に記載)および血管ネットワークVN(図17に記載)を作成する。画像処理制御部206は、ステップ324で、血管走行方向に沿って求めた複数の血管中心点を設定し、ステップ326で、血管中心点ごとの血管径を算出し、最終的には、脈絡膜血管画像CLEのすべての脈絡血管の血管径を算出する。 Figure 7 is a main flowchart of the choroidal vessel diameter. In step 322, the image processing control unit 206 creates a vascular skeleton image VS (shown in Figure 15) and a vascular network VN (shown in Figure 17), which will be described in detail later. In step 324, the image processing control unit 206 sets multiple vascular center points determined along the vascular running direction, and in step 326 calculates the vascular diameter for each vascular center point, and finally calculates the vascular diameters of all choroidal vessels in the choroidal vessel image CLE.
図8には、図7のステップ322の処理のフローチャートが示されている。 Figure 8 shows a flowchart of the process of step 322 in Figure 7.
ステップ332で、画像処理制御部206は、脈絡膜血管画像CLEを、各画素の画素値を所定の閾値を基準に二値化することにより、図示せぬ脈絡膜血管二値化画像を作成する。この脈絡膜血管二値化画像は脈絡膜血管が可視化された(脈絡膜血管に相当する領域の画素が白色、脈絡膜血管以外の領域の画素が黒色となる)画像である。 In step 332, the image processing control unit 206 creates a choroidal vessel binary image (not shown) by binarizing the pixel value of each pixel of the choroidal vessel image CLE based on a predetermined threshold value. This choroidal vessel binary image is an image in which the choroidal vessels are visualized (pixels in areas corresponding to the choroidal vessels are white, and pixels in areas other than the choroidal vessels are black).
ステップ334で、画像処理制御部206は、脈絡膜血管二値化画像を細線化することにより、脈絡膜血管二値化画像において各脈絡膜血管径の中心線を求める。この中心線は幅1ピクセルの線である。つまり、二値画像を幅1ピクセルの線画像に変換する細線化処理を行うことにより血管スケルトン画像VSを生成する。
図15には、脈絡膜血管画像CLE内の1つの脈絡膜血管の血管スケルトン画像VSが示されている。図15に示すように、血管スケルトン画像VSは、脈絡膜の中心線を示す複数の画素402、404、406、408…で表されている。
In step 334, the image processing control unit 206 thins the binary choroidal vessel image to obtain the center line of each choroidal vessel diameter in the binary choroidal vessel image. This center line is a line with a width of 1 pixel. In other words, a blood vessel skeleton image VS is generated by performing thinning processing to convert the binary image into a line image with a width of 1 pixel.
15 shows a vascular skeleton image VS of one choroidal vessel in the choroidal vessel image CLE. As shown in FIG 15, the vascular skeleton image VS is represented by a plurality of pixels 402, 404, 406, 408, ... indicating the center line of the choroid.
ステップ334では、画像処理制御部206は、図16に示すように、脈絡膜血管を表す複数の画素402、404、406、408…に画素番号を付し、画素位置(あるいは画素の座標)と画素番号を対応させた血管スケルトンマップVSMを作成する。例えば、図15に示す血管スケルトン画像VSの画素402に対応する血管スケルトンマップの画素402には、画素番号1が画素番号402A1として付与されている。また、血管スケルトン画像VSの画素404に対応する血管スケルトンマップVSMの画素404には、画素番号4が画素番号404Aとして付与されている。図16の示した血管スケルトンマップVSMは、図15の領域Aの血管スケルトンマップVSMを表示したものである。血管スケルトンマップVSMは血管スケルトン画像VS全体に対して作成されることは言うまでもない。 In step 334, the image processing control unit 206 assigns pixel numbers to the multiple pixels 402, 404, 406, 408, etc. that represent the choroidal blood vessels, as shown in FIG. 16, and creates a vascular skeleton map VSM in which pixel positions (or pixel coordinates) correspond to pixel numbers. For example, pixel number 1 is assigned as pixel number 402A1 to pixel 402 in the vascular skeleton map that corresponds to pixel 402 in the vascular skeleton image VS shown in FIG. 15. Also, pixel number 4 is assigned as pixel number 404A to pixel 404 in the vascular skeleton map VSM that corresponds to pixel 404 in the vascular skeleton image VS. The vascular skeleton map VSM shown in FIG. 16 is a display of the vascular skeleton map VSM of area A in FIG. 15. It goes without saying that the vascular skeleton map VSM is created for the entire vascular skeleton image VS.
次に、ステップ338で、画像処理制御部206は、血管ネットワークVNを、血管スケルトンマップVSMから作成する。ここで、血管ネットワークVNは、血管スケルトンマップVSMの画素番号をノードとし、画素番号同士の接続関係をエッジで示したノード(点)とエッジ(線)からなるグラフである。 Next, in step 338, the image processing control unit 206 creates a vascular network VN from the vascular skeleton map VSM. Here, the vascular network VN is a graph consisting of nodes (points) and edges (lines) in which the pixel numbers of the vascular skeleton map VSM are used as nodes and the connections between the pixel numbers are indicated by edges.
画像処理制御部206は、血管スケルトンマップVSMの画素402の画素番号1を、血管ネットワークVNが作成されるメモリ空間内の所定の位置(402B参照)にノード(1)として形成する。 The image processing control unit 206 forms pixel number 1 of pixel 402 in the vascular skeleton map VSM as node (1) at a predetermined position (see 402B) in the memory space where the vascular network VN is created.
次に、画像処理制御部206は、血管スケルトンマップVSMの画素402の近傍に画素番号が付与された画素を探索する。具体的には、まず、4近傍画素(縦横の4個の画素、つまり、画素402の上下左右の4画素)の中に、画素番号が付与された画素を探す。図16では、画素402Aの4近傍画素には、番号が付与された画素がない。そこで、次に、画像処理制御部206は、8近傍画素(縦横斜め隣の8画素、つまり、画素402の上下左右の4画素に左斜め右斜めの4画素を加えた8画素)に、画素番号が付与された画素を探す。図16では、画素402の右斜め上の画素404には画素番号4が付与されている。そこで、画像処理制御部206は、画素402に付与された画素番号1(図17の402B参照)に、画素404に付与された画素番号4を新たなノード(4)とする。そして、ノード(1)とノード(4)をエッジで接続する(図18を参照)。血管分岐を考慮し、画素番号が付与された画素が発見されない時点で処理を終了する。このような処理を血管スケルトンマップVSM全体に対して行うことにより、血管ネットワークVNを作成する。 Next, the image processing control unit 206 searches for a pixel with a pixel number assigned in the vicinity of pixel 402 in the vascular skeleton map VSM. Specifically, first, a pixel with a pixel number is searched for among the four neighboring pixels (four pixels vertically and horizontally, i.e., the four pixels above, below, left, and right of pixel 402). In FIG. 16, there is no pixel with a number assigned among the four neighboring pixels of pixel 402A. Therefore, the image processing control unit 206 next searches for a pixel with a pixel number assigned among the eight neighboring pixels (eight pixels vertically, horizontally, and diagonally adjacent, i.e., the four pixels above, below, left, and right of pixel 402 plus the four pixels diagonally to the left and right). In FIG. 16, pixel number 4 is assigned to pixel 404 diagonally to the upper right of pixel 402. Therefore, the image processing control unit 206 sets pixel number 1 assigned to pixel 402 (see 402B in FIG. 17) and pixel number 4 assigned to pixel 404 as a new node (4). Then, nodes (1) and (4) are connected with an edge (see Figure 18). Taking into account vascular branching, the process ends when no pixel with a pixel number is found. By performing this process on the entire vascular skeleton map VSM, a vascular network VN is created.
画像処理制御部206は、血管ネットワークVN作成のステップ338が終了後、図8のサブルーチンを終了し、図7のメインフローチャートに戻る。 After completing step 338 of creating the vascular network VN, the image processing control unit 206 ends the subroutine in FIG. 8 and returns to the main flowchart in FIG. 7.
図9A、図9Bには、図7のステップ324の処理のフローチャートが示されている。図9Aは血管中心点の設定フローチャートであり、図9Bは血管中心点の探索のサブルーチンである。 Figures 9A and 9B show flowcharts of the process of step 324 in Figure 7. Figure 9A is a flowchart for setting the vascular center point, and Figure 9B is a subroutine for searching for the vascular center point.
ステップ1300で、画像処理制御部206は、血管スケルトン画像VSを、模擬眼球面に投影する。模擬眼球面は被検者の眼軸長や年齢などに基づいて画像処理制御部206によりRAM266のメモリ空間内に再現された眼球に相当する球面である。この模擬眼球面に血管スケルトン画像VSを逆ステレオ変換して投影する。これは、UWF-SLO画像自体が眼球を二次元平面にステレオ投影された画像であるためである。UWF-SO画像や血管スケルトン画像VSの周辺部はステレオ変換による歪が生じているが、逆ステレオ変換して模擬眼球面に投影することにより歪の影響を取り除くことができる。歪が除去された状態で血管径を算出するので、実際の血管径に近い値を得ることができる。
そして、ステップ1320で、画像処理制御部206は、血管スケルトン画像VSの任意の端点を現在探索点として設定する。ステップ1320で現在探索点が意味することは血管スケルトン画像NVにおける探索開始点であり、血管中心点を探索するためのスタートポイントである。図19に示したスケルトン画像を用いて説明すると、血管スケルトン画像上のアスタリスク(*)で示した460N1が現在探索点として設定される。
In step 1300, the image processing control unit 206 projects the blood vessel skeleton image VS onto the simulated eyeball surface. The simulated eyeball surface is a spherical surface equivalent to the eyeball reproduced in the memory space of the RAM 266 by the image processing control unit 206 based on the axial length and age of the subject. The blood vessel skeleton image VS is reverse stereo converted and projected onto this simulated eyeball surface. This is because the UWF-SLO image itself is an image of the eyeball stereo projected onto a two-dimensional plane. Although distortion occurs in the peripheral parts of the UWF-SO image and the blood vessel skeleton image VS due to stereo conversion, the influence of the distortion can be removed by reverse stereo conversion and projecting onto the simulated eyeball surface. Since the blood vessel diameter is calculated in a state where the distortion is removed, a value close to the actual blood vessel diameter can be obtained.
Then, in step 1320, the image processing control unit 206 sets an arbitrary end point of the vascular skeleton image VS as the current search point. The current search point in step 1320 means the search start point in the vascular skeleton image NV, and is the starting point for searching for the vascular center point. To explain using the skeleton image shown in Figure 19, 460N1 indicated by an asterisk (*) on the vascular skeleton image is set as the current search point.
ステップ1340で、画像処理制御部206は、図9Bの血管中心点の探索のサブルーチンの処理を開始する。図9Bのサブルーチンは、図Aのステップ1340と図9Bのステップ1500で再帰的に呼び出されるサブルーチンである。 In step 1340, the image processing control unit 206 starts processing the subroutine for searching the vascular center point in FIG. 9B. The subroutine in FIG. 9B is a subroutine that is recursively called in step 1340 in FIG. A and step 1500 in FIG. 9B.
ステップ1400にて、画像処理制御部206は、現在探索点460N1を血管中心点として設定する。 In step 1400, the image processing control unit 206 sets the current search point 460N1 as the vascular center point.
ステップ1420で、画像処理制御部206は、血管中心点から一定距離(例えば、20μm)離れているにある血管スケルトン画像VS上の点を血管中心点候補とする。ここで、「血管中心点候補」の数は、血管中心点から一定距離以内に血管分岐がなく1本として連続ければ1つであり、血管分岐(血管が二股に分かれている)があれば分岐しているそれぞれの血管に対して2つ設定される。血管そのものが存在しない場合、血管中心点候補は設定されない。図18は血管ネットワークNV、血管中心点及び血管中心点候補との関係を模式的に示した図である。402B、404B、406B及び408Bはそれぞれ血管ネットワークVNのノード(1)、ノード(2)、ノード(3)、ノード(5)に対応している。血管中心点452がノード(1)とノード(4)の間に既に設定されている。血管はノード(4)で2つに分岐しており、次の血管中心点候補は、ノード(4)とノード(5)の間に位置する血管中心点候補1である454と、ノード(4)とノード(3)との間にある血管中心点候補2である456が設定されることになる。
ステップ1440で、画像処理制御部206は、血管中心点と血管中心点候補との間の血管走行方向を決定する。さらに、血管中心点の模擬眼球球面上での球面座標データ、血管走行方向、及び、固有な血管中心点番号を付与し、RAM266へ記憶する。
In step 1420, the image processing control unit 206 sets a point on the vascular skeleton image VS that is a certain distance (for example, 20 μm) away from the vascular center point as a vascular center point candidate. Here, the number of "vascular center point candidates" is one if there is no vascular branch within a certain distance from the vascular center point and the vascular center point is continuous as one, and if there is a vascular branch (a blood vessel is divided into two), two are set for each branched blood vessel. If the blood vessel itself does not exist, no vascular center point candidate is set. FIG. 18 is a diagram showing a schematic diagram of the relationship between the vascular network NV, the vascular center point, and the vascular center point candidate. 402B, 404B, 406B, and 408B correspond to node (1), node (2), node (3), and node (5) of the vascular network VN, respectively. The vascular center point 452 has already been set between node (1) and node (4). The blood vessel branches into two at node (4), and the next blood vessel center point candidates are set to be blood vessel center point candidate 1 454 located between nodes (4) and (5), and blood vessel center point candidate 2 456 located between nodes (4) and (3).
In step 1440, the image processing control unit 206 determines the blood vessel running direction between the blood vessel center point and the blood vessel center point candidate. Furthermore, the image processing control unit 206 assigns spherical coordinate data of the blood vessel center point on the simulated eyeball surface, the blood vessel running direction, and a unique blood vessel center point number, and stores them in the RAM 266.
次に、ステップ1460からステップ1500のループ処理に進む。このループ処理は、ステップ1420で設定された血管中心点候補の数によって、実行される回数が異なる。つまり、血管分岐がなく1本として連続ければ1回実行され、血管分岐(血管が二股に分かれている)があれば2回実行される。図19では、点460N2が血管中心点候補となる。 Next, proceed from step 1460 to the loop process of step 1500. The number of times this loop process is executed varies depending on the number of vascular center point candidates set in step 1420. In other words, if there are no vascular branches and the blood vessel is continuous as one, it is executed once, and if there are vascular branches (blood vessels that are divided into two), it is executed twice. In Figure 19, point 460N2 is the vascular center point candidate.
ステップ1460にて、画像処理制御部206は、血管中心点候補が存在しない場合は、ループ処理は実行されず図9Bのサブルーチンを終了し、図9Aのステップ1360へ移行する。ステップ1360で、画像処理制御部206は、設定されたすべての血管中心点のデータ(少なくとも、血管中心点の模擬眼球球面上での球面座標データ、血管走行方向、及び、固有な血管中心点番号を含むデータ)をRAM266あるいは記憶装置254に記憶保持する。血管の終点に位置する血管中心点には、血管走行方向が算出できないので、直前の血管中心点の血管走行方向を設定するようにしてもよい。 In step 1460, if there is no candidate vascular center point, the image processing control unit 206 does not execute the loop process, ends the subroutine in FIG. 9B, and proceeds to step 1360 in FIG. 9A. In step 1360, the image processing control unit 206 stores data of all set vascular center points (data including at least the spherical coordinate data of the vascular center points on the simulated eyeball surface, the vascular running direction, and the unique vascular center point number) in the RAM 266 or the storage device 254. Since the vascular running direction cannot be calculated for a vascular center point located at the end point of a blood vessel, the vascular running direction of the previous vascular center point may be set.
血管中心点候補が存在する場合はステップ1480へ進む。血管中心点候補が存在する場合は、画像処理制御部206は、ステップ1480で、血管中心点候補を現在探索点として設定する。 If a blood vessel center point candidate exists, proceed to step 1480. If a blood vessel center point candidate exists, the image processing control unit 206 sets the blood vessel center point candidate as the current search point in step 1480.
そして、ステップ1500へ進み、画像処理制御部206は、図9Bのサブルーチンを再帰的に実行する。ステップ1500にて、分岐している血管の血管中心点の探索処理が終了すると、ステップ1520にて分岐している血管のループ処理を終了し、ステップ1460へ戻り、もう一つの分岐している血管中心点探索の処理を繰り返す。このように、血管ネットワークNVにより血管分岐の有無を判断し、ループ処理を繰り返すことにより、血管スケルトン画像VS内のすべての血管に対して血管中心点を設定することができる。 Then, the process proceeds to step 1500, where the image processing control unit 206 recursively executes the subroutine in FIG. 9B. When the process of searching for the vascular center points of the branched blood vessels ends in step 1500, the loop process of the branched blood vessels ends in step 1520, and the process returns to step 1460 to repeat the process of searching for the vascular center point of another branched blood vessel. In this way, the presence or absence of vascular branching is determined by the vascular network NV, and by repeating the loop process, the vascular center points can be set for all blood vessels in the vascular skeleton image VS.
次に、図7のステップ326の血管中心点ごとの血管径の算出について説明する。図10には、図7のステップ326の処理のフローチャートが示されている。図10の処理は、図9A、図9Bに示す処理で設定された血管中心点のデータを用いて、血管中心点ごとに、模擬眼球面に投影された脈絡膜血管二値化画像(図14)における脈絡膜血管の血管径を算出する。 Next, the calculation of the vascular diameter for each vascular center point in step 326 in FIG. 7 will be described. FIG. 10 shows a flowchart of the process of step 326 in FIG. 7. The process of FIG. 10 uses the data of the vascular center points set in the process shown in FIG. 9A and FIG. 9B to calculate the vascular diameter of the choroidal blood vessel in the binarized choroidal blood vessel image (FIG. 14) projected onto the simulated ocular surface for each vascular center point.
具体的には、ステップ372で、画像処理制御部206は、図9Aのステップ1360で記憶された血管中心点に関するデータを読み出す。そして血管中心点を1つ選択し、選択された血管中心点の模擬眼球球面上での球面座標データと血管走行方向とを特定する。 Specifically, in step 372, the image processing control unit 206 reads out the data related to the blood vessel center points stored in step 1360 of FIG. 9A. Then, one blood vessel center point is selected, and the spherical coordinate data of the selected blood vessel center point on the simulated eyeball surface and the blood vessel running direction are identified.
ステップ374で、画像処理制御部206は、選択された血管中心点の血管走行方向に直交する大円を算出する。具体的には、画像処理制御部206は、図20および図21に示すように、上記模擬眼球面に投影された脈絡膜血管二値化画像において、特定された血管中心点460Nnにおいて、血管走行方向460NDに直交する大円474(図21)を算出する。ここで大円の中心は模擬眼球の中心と同一である。 In step 374, the image processing control unit 206 calculates a great circle perpendicular to the blood vessel running direction of the selected blood vessel center point. Specifically, as shown in Figures 20 and 21, the image processing control unit 206 calculates a great circle 474 (Figure 21) perpendicular to the blood vessel running direction 460ND at the identified blood vessel center point 460Nn in the choroidal blood vessel binarized image projected onto the simulated eyeball surface. Here, the center of the great circle is the same as the center of the simulated eyeball.
ステップ376で、画像処理制御部206は、大円474と血管縁の交点を算出する。具体的には、上記のように、上記模擬眼球面に投影された脈絡膜血管二値化画像に、血管中心点460Nnを基準に大円474が位置しており。画像処理制御部206は、位置させた大円474と、上記模擬眼球面上の脈絡膜血管二値化画像における当該脈絡膜血管の血管縁との交点476A、476Bを算出する。 In step 376, the image processing control unit 206 calculates the intersection point between the great circle 474 and the blood vessel edge. Specifically, as described above, the great circle 474 is positioned based on the blood vessel center point 460Nn in the choroidal blood vessel binarized image projected onto the simulated ocular surface. The image processing control unit 206 calculates the intersection points 476A and 476B between the positioned great circle 474 and the blood vessel edge of the choroidal blood vessel in the choroidal blood vessel binarized image on the simulated ocular surface.
ステップ378で、交点476Aと交点476Bとの間の距離rを算出し、血管スケルトン画像の血管中心点に対応させて記憶する。この距離rは大円474の一部であり血管中心点460Nnを通過する模擬眼球面上での最短距離となる。よって、眼球形状に近い血管径を得ることができる。 In step 378, the distance r between intersection 476A and intersection 476B is calculated and stored in correspondence with the vascular center point of the vascular skeleton image. This distance r is part of the great circle 474 and is the shortest distance on the simulated eyeball surface that passes through vascular center point 460Nn. Therefore, it is possible to obtain a vascular diameter that is close to the shape of the eyeball.
上記のように、図10の処理は、各血管スケルトン画像VS内のすべての血管中心点に対して行われる。よって、図22に示すように、模擬眼球面上の脈絡膜血管二値化画像における各血管中心点での血管径が算出される。なお、各血管中心点での血管径は血管中心点番号と対応付けられて、RAM266あるいは記憶装置254に記憶保持される。 As described above, the process of FIG. 10 is performed on all vascular center points in each vascular skeleton image VS. Therefore, as shown in FIG. 22, the vascular diameter at each vascular center point in the binary image of choroidal blood vessels on the simulated eyeball surface is calculated. The vascular diameter at each vascular center point is associated with the vascular center point number and stored in the RAM 266 or the storage device 254.
図11には、図6のステップ309の脈絡膜血管径のデータベース作成処理のフローチャートが示されている。ステップ382で、画像処理制御部206は、保持されている血管中心点番号、模擬眼球球面上での球面座標データ、血管走行方向、血管径のデータを読み出す。 Figure 11 shows a flowchart of the choroidal vessel diameter database creation process in step 309 in Figure 6. In step 382, the image processing control unit 206 reads out the stored vessel center number, spherical coordinate data on the simulated eyeball surface, vessel running direction, and vessel diameter data.
ステップ385で、画像処理制御部206は、血管を示す各画素に、当該画素に最も距離が近い血管中心点の番号および方向をラベリングする。具体的には、画像処理制御部206は、図23に示すように、血管中心点に対応する位置P1、P2、・・・を、脈絡膜血管二値化画像(図14)において特定する(つまり、模擬眼球球面上での血管中心点を示す球面座標データを、上での二次元画像上での血管中心点を示す二次元座標データ変換をする)。画像処理制御部206は、脈絡膜血管二値化画像における血管を示す各画素について、最も距離が近い血管中心点を特定する。当該各画素に、特定した血管中心点の番号と血管径を対応付ける(ラベリング)。より具体的には、図24に示すように、表示制御部204は、脈絡膜血管二値化画像における血管を示す画素G1~G6に、各画素に最も距離が近い血管中心点P1の番号(#=1)および血管径(r#1)を対応付ける。同様に、図25に示すように、表示制御部204は、脈絡膜血管二値化画像における血管を示す画素G7~G12に、各画素に最も距離が近い血管中心点P2の番号(#=4)および血管径(r#4)を対応付ける。 In step 385, the image processing control unit 206 labels each pixel representing a blood vessel with the number and direction of the blood vessel center point that is closest to the pixel. Specifically, as shown in FIG. 23, the image processing control unit 206 identifies positions P1, P2, ... corresponding to the blood vessel center points in the choroidal blood vessel binarized image (FIG. 14) (that is, converts the spherical coordinate data indicating the blood vessel center points on the simulated eyeball spherical surface into two-dimensional coordinate data indicating the blood vessel center points on the two-dimensional image above). The image processing control unit 206 identifies the blood vessel center point that is closest to each pixel representing a blood vessel in the choroidal blood vessel binarized image. The number of the identified blood vessel center point and the blood vessel diameter are associated with each pixel (labeling). More specifically, as shown in FIG. 24, the display control unit 204 associates the number (#=1) of the blood vessel center point P1 that is closest to each pixel and the blood vessel diameter (r#1) with pixels G1 to G6 that represent blood vessels in the choroidal blood vessel binarized image. Similarly, as shown in FIG. 25, the display control unit 204 associates the number (#=4) of the blood vessel center point P2 that is closest to each pixel and the blood vessel diameter (r#4) with pixels G7 to G12 that represent blood vessels in the choroidal blood vessel binarized image.
ステップ386で、画像処理制御部206は、脈絡膜血管径のデータベースを作成する。図26には、脈絡膜血管径のデータベースが示されている。図26に示すように、脈絡膜血管径のデータベースは、脈絡膜血管画像のデータ番号を記憶する記憶領域502を備えている。画像処理制御部206は、各脈絡膜血管画像を識別するデータ番号M1、M2、・・・を、記憶領域502に記憶する。 In step 386, the image processing control unit 206 creates a database of choroidal vessel diameters. FIG. 26 shows the database of choroidal vessel diameters. As shown in FIG. 26, the database of choroidal vessel diameters includes a memory area 502 that stores the data numbers of choroidal vessel images. The image processing control unit 206 stores data numbers M1, M2, ... that identify each choroidal vessel image in the memory area 502.
脈絡膜血管径のデータベースは、脈絡膜血管画像のデータ番号により識別される脈絡膜血管画像の各血管スケルトン画像内の血管に固有のスケルトン番号を記憶する記憶領域504を備えている。例えば、画像処理制御部206は、脈絡膜血管画像のデータ番号M1により識別される脈絡膜血管画像の各血管スケルトン画像内の血管のスケルトン番号S1、S2、・・・を、データ番号M1に対応させて記憶領域504に記憶する。また、血管ネットワークNVを解析することにより血管を識別し、スケルトン番号を付与するようにしてもよい。 The choroidal vessel diameter database includes a memory area 504 that stores skeleton numbers unique to blood vessels in each vascular skeleton image of a choroidal vessel image identified by the data number of the choroidal vessel image. For example, the image processing control unit 206 stores skeleton numbers S1, S2, ... of blood vessels in each vascular skeleton image of a choroidal vessel image identified by the data number M1 of the choroidal vessel image in the memory area 504 in association with the data number M1. Alternatively, blood vessels may be identified by analyzing the vascular network NV and assigned skeleton numbers.
脈絡膜血管径のデータベースは、各血管の血管長を記憶する記憶領域506を備えている。画像処理制御部206は、図9Aのステップ1300の処理を行うとともに模擬眼球面に血管スケルトン画像を張り付けた際に血管毎に、模擬眼球面上での血管長を計算し保持しておく。そして、計算された血管長をスケルトン番号に対応させて記憶領域506に記憶する。 The choroidal vessel diameter database includes a memory area 506 that stores the vessel length of each vessel. The image processing control unit 206 performs the process of step 1300 in FIG. 9A and calculates and stores the vessel length on the simulated eyeball surface for each blood vessel when a vessel skeleton image is attached to the simulated eyeball surface. The calculated vessel length is then stored in the memory area 506 in association with the skeleton number.
脈絡膜血管径のデータベースは、血管毎に血管中心点総数を記憶する記憶領域508を備えている。表示制御部204は、各血管スケルトン画像(図19)(又は血管ネットワーク(図17)に設定された血管中心点をカウントし、総数を、血管長に対応させて記憶領域508に記憶する。 The choroidal vessel diameter database includes a memory area 508 that stores the total number of vessel center points for each vessel. The display control unit 204 counts the vessel center points set in each vessel skeleton image (FIG. 19) (or vessel network (FIG. 17)) and stores the total number in the memory area 508 in correspondence with the vessel length.
血管径のデータベースは、血管スケルトン画像の各血管中心点を識別する番号を記憶する記憶領域510を備えている。画像処理制御部206は、各血管内の存在する各血管中心点の番号をカウントし、血管中心点の血管内の総数を記憶領域510に記憶する。 The blood vessel diameter database includes a memory area 510 that stores numbers that identify each blood vessel center point in the blood vessel skeleton image. The image processing control unit 206 counts the numbers of each blood vessel center point that exists in each blood vessel, and stores the total number of blood vessel center points in the blood vessel in the memory area 510.
脈絡膜膜血管径のデータベースは、各血管中心点のSLO画像(脈絡膜血管画像(図13)上の座標を記憶する記憶領域512を備えている。画像処理制御部206は、血管スケルトン画像の各血管中心点を、SLO画像(脈絡膜血管画像(図13))上で特定し、特定した各中心点の座標を、血管中心点に対応させて記憶領域512に記憶する。なお、各血管中心点のUWF-SLO画像上の座標を記憶するだけでなく、脈絡膜血管二値化画像上の座標を記憶するようにしてもよい。 The choroidal vessel diameter database includes a memory area 512 that stores the coordinates of each vessel center point on the SLO image (choroidal vessel image (Figure 13)). The image processing control unit 206 identifies each vessel center point of the vessel skeleton image on the SLO image (choroidal vessel image (Figure 13)) and stores the coordinates of each identified center point in the memory area 512 in correspondence with the vessel center point. Note that in addition to storing the coordinates of each vessel center point on the UWF-SLO image, the coordinates on the choroidal vessel binarized image may also be stored.
脈絡膜血管径のデータベースは、血管中心点の番号が付与された、脈絡膜血管二値化画像の各画素の座標を記憶する記憶領域514を備えている。画像処理制御部206は、血管中心点の番号が付与された、脈絡膜血管二値化画像の各画素を特定し、特定した各画素の脈絡膜血管二値化画像上の座標を、血管中心点のSLO画像上の座標に対応させて記憶領域514に記憶する。なお、当該各画素の座標は、SLO画像(脈絡膜血管画像(図13))上の座標と一致する。 The choroidal vessel diameter database includes a memory area 514 that stores the coordinates of each pixel of the choroidal vessel binarized image to which the number of the vessel center point is assigned. The image processing control unit 206 identifies each pixel of the choroidal vessel binarized image to which the number of the vessel center point is assigned, and stores the coordinates of each identified pixel on the choroidal vessel binarized image in the memory area 514 in correspondence with the coordinates of the vessel center point on the SLO image. The coordinates of each pixel match the coordinates on the SLO image (choroidal vessel image (Figure 13)).
脈絡膜血管径のデータベースは、各血管中心点の血管走行方向を記憶する記憶領域516を備えている。画像処理制御部206は、血管ネットワーク(図17)から、血管中心点の血管走行方向を読み出し、読み出した血管中心点の血管走行方向を、血管中心点の番号が付与された、脈絡膜血管二値化画像の各画素の座標の各々に対応させて、記憶領域516に記憶する。 The choroidal vessel diameter database includes a memory area 516 that stores the vascular running direction of each vascular center point. The image processing control unit 206 reads out the vascular running direction of the vascular center point from the vascular network (Figure 17), and stores the vascular running direction of the read vascular center point in the memory area 516 in correspondence with each of the coordinates of each pixel of the choroidal vessel binarized image to which the number of the vascular center point has been assigned.
脈絡膜血管径のデータベースは、血管中心点における血管径を記憶する記憶領域518を備えている。画像処理制御部206は、血管スケルトン画像の血管中心点に対応させて記憶された、血管中心点における血管径を読み出し、血管走行方向に対応させて記憶領域518に記憶する。 The choroidal vessel diameter database includes a memory area 518 that stores the vessel diameter at the vessel center point. The image processing control unit 206 reads out the vessel diameter at the vessel center point stored in correspondence with the vessel center point of the vessel skeleton image, and stores it in the memory area 518 in correspondence with the vessel running direction.
なお、脈絡膜血管径のデータベースは、図27に示すように、2つのデータベースに分割してもよい。第1のデータベースは、記憶領域502~512、および518を備えている。第2のデータベースは、記憶領域514、516を備えている。 The choroidal vessel diameter database may be divided into two databases as shown in FIG. 27. The first database includes memory areas 502-512 and 518. The second database includes memory areas 514 and 516.
そして、図11のステップ388で、画像処理制御部206は、ステップ386で作成された脈絡膜血管径のデータベースを、RAM266あるいは記憶装置254に、対応するSLO画像とともに記憶保持する。 Then, in step 388 of FIG. 11, the image processing control unit 206 stores the database of choroidal vessel diameters created in step 386 in the RAM 266 or the storage device 254 together with the corresponding SLO images.
次に、図6のステップ310における表示画面データを作成する処理を説明する。 Next, we will explain the process of creating the display screen data in step 310 of Figure 6.
ここで、図28に示す表示画面800を説明する。図28は、後述する血管径アイコン856が操作された場合に表示される表示画面が示されている。図28に示すように、表示画面800は、患者の個人情報を表示する個人情報表示欄802、画像表示欄804、および脈絡膜解析ツール表示欄806を有する。 Here, the display screen 800 shown in FIG. 28 will be described. FIG. 28 shows the display screen that is displayed when the vascular diameter icon 856, which will be described later, is operated. As shown in FIG. 28, the display screen 800 has a personal information display section 802 that displays the patient's personal information, an image display section 804, and a choroid analysis tool display section 806.
個人情報表示欄802は、患者ID表示欄812、患者氏名表示欄814、年齢表示欄816、右眼/左眼表示欄818、眼軸長表示欄820、視力表示欄822、撮影日時表示欄824、および患者選択アイコン314を有する。これらの表示欄812~824に、各情報を表示する。なお、図示しない患者選択アイコンがクリックされると、患者一覧を画像ビューワ150のディスプレイ172に表示し、解析対象となる患者をユーザに選択させる。 The personal information display field 802 has a patient ID display field 812, a patient name display field 814, an age display field 816, a right eye/left eye display field 818, an axial length display field 820, a visual acuity display field 822, an imaging date and time display field 824, and a patient selection icon 314. Each piece of information is displayed in these display fields 812 to 824. When the patient selection icon (not shown) is clicked, a list of patients is displayed on the display 172 of the image viewer 150, and the user is allowed to select a patient to be analyzed.
画像表示欄804は、脈絡膜血管画像表示欄832、血管画像表示欄834、および血管画像表示欄834に表示する脈絡膜の血管の血管径の範囲を示す径範囲表示欄840を有する。画像表示欄804は、アイコン844L、844M、844H、およびアイコン842を有する。 The image display field 804 has a choroidal vessel image display field 832, a vessel image display field 834, and a diameter range display field 840 that shows the range of vessel diameters of the choroidal vessels to be displayed in the vessel image display field 834. The image display field 804 has icons 844L, 844M, 844H, and icon 842.
アイコン844Lは、ユーザが、血管画像表示欄834に、血管径が300μm未満の脈絡膜血管を、第1の色で表示させることを指示するためのアイコンである。アイコン344Mは、ユーザが、血管画像表示欄834に、血管径が300μm以上600μm未満の脈絡膜血管を、第1の色とは異なる第2の色で表示させることを指示するアイコンである。アイコン344Hは、ユーザが、血管画像表示欄834に、血管径が600μm以上の脈絡膜血管を、第1の色および第2の色とは異なる第3の色で表示させることを指示するためのアイコンである。 Icon 844L is an icon that allows the user to instruct the vascular image display field 834 to display choroidal vessels with a vessel diameter of less than 300 μm in a first color. Icon 344M is an icon that allows the user to instruct the vascular image display field 834 to display choroidal vessels with a vessel diameter of 300 μm or more and less than 600 μm in a second color different from the first color. Icon 344H is an icon that allows the user to instruct the vascular image display field 834 to display choroidal vessels with a vessel diameter of 600 μm or more in a third color different from the first and second colors.
アイコン842は、ユーザが、血管画像表示欄834に、全ての脈絡膜血管を表示させることを指示するアイコンである。アイコン842が操作されると、全ての脈絡膜血管が各血管径に対応した色で表示される。 Icon 842 is an icon that allows the user to instruct the display of all choroidal blood vessels in the blood vessel image display area 834. When icon 842 is operated, all choroidal blood vessels are displayed in colors corresponding to the respective blood vessel diameters.
脈絡膜解析ツール表示欄806は、複数の脈絡膜解析を選択するアイコン類が表示される欄である。渦静脈位置アイコン852、対称性アイコン854、血管径アイコン856、渦静脈・黄斑/乳頭アイコン858、および脈絡膜解析レポートアイコン860を備える。渦静脈位置アイコン852は、渦静脈位置を表示させることを指示する。対称性アイコン854は、解析点の対称性を表示することを指示する。血管径アイコン856は、脈絡血管の径に関する解析結果を表示させることを指示する。渦静脈・黄斑/乳頭アイコン858は、渦静脈、黄斑、および視神経乳頭の間の位置を解析した解析結果を表示させることを指示する。脈絡膜解析レポートアイコン860は、脈絡膜解析レポートを表示することを指示する。 The choroid analysis tool display field 806 is a field in which icons for selecting multiple choroidal analyses are displayed. It includes a vortex vein position icon 852, a symmetry icon 854, a vessel diameter icon 856, a vortex vein-macula/optic disc icon 858, and a choroid analysis report icon 860. The vortex vein position icon 852 indicates that the vortex vein position is to be displayed. The symmetry icon 854 indicates that the symmetry of the analysis point is to be displayed. The vessel diameter icon 856 indicates that the analysis results regarding the diameter of the choroidal vessels are to be displayed. The vortex vein-macula/optic disc icon 858 indicates that the analysis results of the analysis of the positions between the vortex vein, the macula, and the optic disc are to be displayed. The choroid analysis report icon 860 indicates that the choroid analysis report is to be displayed.
図29には、アイコン844Hが操作されて、血管径が600μm以上の脈絡膜血管が、血管画像表示欄834に表示された様子が示されている。脈絡膜血管径のデータベースの記憶領域518から、血管径が600μm以上の画素を抽出し、抽出した画素を、第1の色で血管画像表示欄834に表示する。同様に、アイコン844Mが操作されると、血管径が300μm以上600μm未満の画素が第2の色で表示される。アイコン844Lが操作されると、血管径が300μm未満の画素が第3の色で表示される。 Figure 29 shows how icon 844H is operated to display choroidal vessels with a vessel diameter of 600 μm or more in the vessel image display field 834. Pixels with a vessel diameter of 600 μm or more are extracted from the choroidal vessel diameter database memory area 518, and the extracted pixels are displayed in a first color in the vessel image display field 834. Similarly, when icon 844M is operated, pixels with a vessel diameter of 300 μm or more and less than 600 μm are displayed in a second color. When icon 844L is operated, pixels with a vessel diameter of less than 300 μm are displayed in a third color.
図30には、カーソルで示された脈絡膜血管の血管径を表示する様子が示されている。ユーザが、カーソルなどを操作し血管画像表示欄384に表示された脈絡膜血管を指定すると、カーソルが位置する画素を特定し、特定された画素が属する血管スケルトン番号を、記憶領域504から特定する。血管スケルトン番号に対応する血管中心点の血管径を、記憶領域518から読み出し、読み出した血管径の平均値を計算し、平均値を表示部836に表示する。 Figure 30 shows how the vascular diameter of a choroidal vessel indicated by a cursor is displayed. When a user operates the cursor or the like to specify a choroidal vessel displayed in the vascular image display field 384, the pixel where the cursor is located is identified, and the vascular skeleton number to which the identified pixel belongs is identified from the memory area 504. The vascular diameter of the vascular center point corresponding to the vascular skeleton number is read from the memory area 518, the average value of the read vascular diameters is calculated, and the average value is displayed on the display unit 836.
また、カーソルで指定された画素に関連づけられた血管径を記憶領域518から読み出し、指定された血管位置の血管径として表示するようにしてもよい。なお、脈絡膜血管以外の領域にカーソルが位置した場合、カーソルが位置する画素には血管径データが存在しないため、血管径は表示されない。すなわち、カーソルが脈絡膜血管領域の画素を示したときのみ血管径が表示される。 The blood vessel diameter associated with the pixel designated by the cursor may be read from the memory area 518 and displayed as the blood vessel diameter at the designated blood vessel position. Note that if the cursor is positioned in an area other than the choroidal blood vessels, the blood vessel diameter is not displayed because there is no blood vessel diameter data for the pixel where the cursor is positioned. In other words, the blood vessel diameter is displayed only when the cursor indicates a pixel in the choroidal blood vessel area.
図31には、指定された脈絡膜血管の血管径の様子をグラフ838で表示する様子が示されている。カーソルを脈絡膜血管に位置させ、更にクリックすると、血管スケルトン番号に対応する血管中心点を記憶領域510から読み出し、血管中心点の血管径を、記憶領域518から読み出す。血管中心点をx軸に、血管径をy軸にしたグラフ838に、各血管中心点に対応する血管径を表示する。このグラフ838により曲線や蛇行した血管の血管径をユーザが直感的に把握できる。 Figure 31 shows how the vascular diameter of a specified choroidal vessel is displayed in graph 838. When the cursor is positioned on a choroidal vessel and then clicked, the vascular center point corresponding to the vascular skeleton number is read from memory area 510, and the vascular diameter at the vascular center point is read from memory area 518. The vascular diameter corresponding to each vascular center point is displayed on graph 838, with the vascular center point on the x-axis and the vascular diameter on the y-axis. This graph 838 allows the user to intuitively grasp the vascular diameter of curved or meandering blood vessels.
図32には、第2の表示画面800Aが示されている。図32に示すように、表示画面800Aの画像表示欄804には、脈絡膜血管画像を表示する脈絡膜血管画像表示欄832と、脈絡膜血管画像で指定された位置を含む所定領域の拡大画像を表示する拡大画像表示欄862を有する。図32に示すように、脈絡膜画像において、ユーザが、カーソルなどを操作し脈絡膜画像の所望の点にカーソル(十字マーク)を位置させると、拡大画像表示欄862に、カーソルの位置を中心とした所定領域を拡大した拡大画像を表示する。更に、カーソルが位置する画素を、記憶領域514から抽出し、抽出した画素に対応する血管径を、記憶領域518から読み出し、拡大画像表示欄862に数値で表示する。なお、脈絡膜血管以外の領域にカーソルが位置した場合、カーソルが位置する画素には血管径データが存在しないため、血管径は表示されない。すなわち、カーソルが脈絡膜血管領域の画素を示したときのみ血管径が表示される。 32 shows the second display screen 800A. As shown in FIG. 32, the image display field 804 of the display screen 800A has a choroidal vessel image display field 832 that displays a choroidal vessel image, and an enlarged image display field 862 that displays an enlarged image of a predetermined area including a position specified in the choroidal vessel image. As shown in FIG. 32, when a user operates a cursor or the like to position a cursor (cross mark) at a desired point in the choroidal image, an enlarged image of a predetermined area centered on the cursor position is displayed in the enlarged image display field 862. Furthermore, the pixel where the cursor is located is extracted from the memory area 514, and the blood vessel diameter corresponding to the extracted pixel is read from the memory area 518 and displayed as a numerical value in the enlarged image display field 862. Note that when the cursor is located in an area other than the choroidal vessel, the blood vessel diameter is not displayed because there is no blood vessel diameter data in the pixel where the cursor is located. In other words, the blood vessel diameter is displayed only when the cursor indicates a pixel in the choroidal vessel area.
以上説明したように本実施の形態では、脈絡膜血管の複数の血管中心点を特定し、特定した複数の血管中心点の各々について血管径を算出するので、脈絡膜血管径を正確に算出することができる。また、血管径を算出するために脈絡膜血管画像を疑似眼球面に投影した画像を用いて血管径を算出しているので、実際の眼底における血管径を得ることができる。また、算出されて血管径を血管部分の画素などと対応付けた脈絡膜のデータベースを作成することにより、ユーザの診断を支援する様々なGUI(グラフィックユーザインターフェース)が可能となる。 As described above, in this embodiment, multiple vascular center points of choroidal blood vessels are identified, and the vascular diameter is calculated for each of the multiple identified vascular center points, so that the choroidal blood vessel diameter can be accurately calculated. In addition, since the vascular diameter is calculated using an image in which the choroidal blood vessel image is projected onto a pseudo-ocular surface, the vascular diameter at the actual fundus can be obtained. In addition, by creating a choroid database in which the calculated vascular diameter is associated with the pixels of the vascular portion, etc., various GUIs (graphic user interfaces) that support the user's diagnosis become possible.
[第2の実施の形態] [Second embodiment]
次に、第2の実施の形態を説明する。第2の実施の形態の構成は第1の実施の形態の構成と同様であるので、その説明を省略する。第2の実施の形態の作用は第1の実施の形態の作用と略同様であるので、異なる部分を主として説明する。 Next, the second embodiment will be described. The configuration of the second embodiment is similar to that of the first embodiment, so the description will be omitted. The action of the second embodiment is substantially similar to that of the first embodiment, so the differences will be mainly described.
図33には、第2の実施の形態における図6のステップ308の血管径の算出処理のフローチャートが示されている。図33のステップ902で、図7のステップ322と同様の処理を実行する。つまり、脈絡膜血管二値化画像(図34)に含まれる脈絡膜血管を特定し、脈絡膜血管912について血管スケルトン画像VSおよび血管ネットワークVNが作成される。図34において、912は血管領域の画素の範囲を示し、点線で示された910はスケルトン画像を模式的に表している。また、渦静脈位置を示す渦静脈位置マーク914示されている。 Figure 33 shows a flowchart of the blood vessel diameter calculation process in step 308 in Figure 6 in the second embodiment. In step 902 in Figure 33, the same process as step 322 in Figure 7 is executed. That is, the choroidal vessels included in the choroidal vessel binarized image (Figure 34) are identified, and a blood vessel skeleton image VS and a blood vessel network VN are created for the choroidal vessels 912. In Figure 34, 912 indicates the pixel range of the blood vessel region, and 910, indicated by a dotted line, is a schematic representation of the skeleton image. Also shown is a vortex vein position mark 914 indicating the vortex vein position.
ステップ904で、画像処理制御部206は、図35に示すように、血管中心点920N1、920N2、…を、脈絡膜血管912を複数の分割領域に分割するための血管分割点として、設定する。 In step 904, the image processing control unit 206 sets the vascular center points 920N1, 920N2, ... as vascular division points for dividing the choroidal vessels 912 into multiple divided regions, as shown in FIG. 35.
ステップ906で、画像処理制御部206は、脈絡膜血管二値化画像(図34)における各脈絡膜血管の血管径を算出する。第2の実施の形態では、画像処理制御部206は、脈絡膜血管の血管径を、脈絡膜血管912を複数の分割領域の各々の血管径の平均を求めることにより、求める。画像処理制御部206は、脈絡膜血管912を複数の分割領域の各々の血管径を、各分割領域の面積を各分割領域の血管走行方向の長さで割ることにより、求める。 In step 906, the image processing control unit 206 calculates the vascular diameter of each choroidal vessel in the choroidal vessel binarized image (FIG. 34). In the second embodiment, the image processing control unit 206 calculates the vascular diameter of the choroidal vessel by calculating the average of the vascular diameters of the choroidal vessels 912 in a plurality of divided regions. The image processing control unit 206 calculates the vascular diameter of each of the choroidal vessels 912 in a plurality of divided regions by dividing the area of each divided region by the length of the blood vessel in the direction of its course.
具体的には、図35に示すように、各血管中心点920N1、920N2…において、各血管中心点920N1、920N2、…の各血管走行方向に垂直な方向に分割線922N1、922N2、…を、脈絡膜血管二値化画像の各脈絡膜血管の領域において設定する。 Specifically, as shown in FIG. 35, at each vascular center point 920N1, 920N2, ..., division lines 922N1, 922N2, ... are set in a direction perpendicular to the vascular running direction of each vascular center point 920N1, 920N2, ... in the region of each choroidal vessel in the choroidal vessel binarized image.
図36に示すように、血管中心点920N1、920N2…の隣り合う組の中央に、各血管中心点920N1、920N2、…の各血管走行方向に垂直な方向に分割線922N1、922N2、…を、脈絡膜血管二値化画像の各脈絡膜血管の領域において設定してもよい。 As shown in FIG. 36, division lines 922N1, 922N2, ... may be set in the center of adjacent pairs of vascular center points 920N1, 920N2, ... in a direction perpendicular to the vascular running direction of each vascular center point 920N1, 920N2, ... in the region of each choroidal vessel in the choroidal vessel binarized image.
画像処理制御部206は、分割線922N1、922N2、…により区切られた各分割領域の画像部分930I(図37)を抽出する。画像処理制御部206は、各分割領域の画像部分930の各画素932を、模擬眼球面に投影する。画像処理制御部206は、模擬眼球面に投影された分割領域の画像部分930の各画素の領域934の面積を求め、分割領域の全ての画素についての面積の総和を計算する。 The image processing control unit 206 extracts image portion 930I (FIG. 37) of each divided area separated by division lines 922N1, 922N2, .... The image processing control unit 206 projects each pixel 932 of image portion 930 of each divided area onto the simulated eyeball surface. The image processing control unit 206 finds the area of area 934 of each pixel of image portion 930 of the divided area projected onto the simulated eyeball surface, and calculates the sum of the areas of all pixels of the divided area.
画像処理制御部206は、血管スケルトン画像910における血管中心点間の距離を模擬眼球面上で計算する。画像処理制御部206は、分割領域の面積を、血管中心点間の眼球上の距離で割ることにより、血管中心点間の分割領域の血管径を算出する。そして、画像処理制御部206は、脈絡膜血管の全ての分割領域での血管径の平均を求める。これにより、当該脈絡膜血管の血管径を算出する。 The image processing control unit 206 calculates the distance between the center points of blood vessels in the blood vessel skeleton image 910 on the simulated eyeball surface. The image processing control unit 206 calculates the blood vessel diameter of the divided region between the blood vessel center points by dividing the area of the divided region by the distance on the eyeball between the blood vessel center points. The image processing control unit 206 then calculates the average of the blood vessel diameters in all divided regions of the choroidal blood vessels. This allows the blood vessel diameter of the choroidal blood vessel to be calculated.
次に、本開示の技術の種々の変形例を説明する。 Next, we will explain various variations of the technology disclosed herein.
<第1の変形例> <First modified example>
上記実施の形態では、管理サーバ140が、予め図6に示す画像処理プログラムを実行しているが、本開示の技術はこれに限定されない。画像ビューワ150が管理サーバ140に画像処理命令を送信し、これに応じて管理サーバ140が、図6の画像処理プログラムを実行するようにしてもよい。 In the above embodiment, the management server 140 executes the image processing program shown in FIG. 6 in advance, but the technology of the present disclosure is not limited to this. The image viewer 150 may transmit an image processing command to the management server 140, and the management server 140 may execute the image processing program of FIG. 6 in response.
<第2の変形例> <Second modified version>
上記実施の形態では、眼科装置110により内部光照射角が200度程度の眼底画像を取得する例を説明した。本開示の技術はこれに限定されず、内部照射角で100度以下の眼科装置で撮影された眼底画像でもよいし、眼底画像を複数合成したモンタージュ画像でも本開示の技術を適用してもよい。 In the above embodiment, an example has been described in which a fundus image with an internal light irradiation angle of approximately 200 degrees is acquired by the ophthalmic device 110. The technology disclosed herein is not limited to this, and the technology disclosed herein may also be applied to a fundus image captured by an ophthalmic device with an internal irradiation angle of 100 degrees or less, or to a montage image in which multiple fundus images are combined.
<第3の変形例> <Third variant>
上記実施の形態では、SLO撮影ユニットを備えた眼科装置110により眼底画像を撮影しているが、脈絡膜血管を撮影できる眼底カメラによる眼底画像でもよいし、OCTアンジオグラフィーにより得られた画像でも本開示の技術を適用してもよい。 In the above embodiment, the fundus image is captured by an ophthalmic device 110 equipped with an SLO imaging unit, but the technology disclosed herein may also be applied to fundus images captured by a fundus camera capable of capturing images of choroidal blood vessels, or images obtained by OCT angiography.
<第4の変形例> <Fourth variant>
上記実施の形態では、管理サーバ140が画像処理プログラムを実行する。本開示の技術はこれに限定されない。例えば、眼科装置110又は画像ビューワ150が画像処理プログラムを実行するようにしてもよい。 In the above embodiment, the management server 140 executes the image processing program. The technology of the present disclosure is not limited to this. For example, the ophthalmic device 110 or the image viewer 150 may execute the image processing program.
<第5の変形例> <Fifth variant>
上記実施の形態では、眼科装置110、眼軸長測定器120、管理サーバ140、及び画像ビューワ150を備えた眼科システム100を例として説明したが、本開示の技術はこれに限定されない。例えば、第1の例として、眼軸長測定器120を省略し、眼科装置110が、眼軸長測定器120の機能を更に有してもよい。また、第2の例として、眼科装置110が、管理サーバ140及び画像ビューワ150の少なくとも一方の機能を更に有してもよい。例えば、眼科装置110が管理サーバ140の機能を有する場合、管理サーバ140を省略することができる。この場合、画像処理プログラムは、眼科装置110又は画像ビューワ150が実行する。また、眼科装置110が画像ビューワ150の機能を有する場合、画像ビューワ150を省略することができる。第3の例として、管理サーバ140を省略し、画像ビューワ150が管理サーバ140の機能を実行するようにしてもよい。 In the above embodiment, the ophthalmic system 100 including the ophthalmic device 110, the axial length measuring device 120, the management server 140, and the image viewer 150 has been described as an example, but the technology of the present disclosure is not limited to this. For example, as a first example, the axial length measuring device 120 may be omitted, and the ophthalmic device 110 may further have the function of the axial length measuring device 120. Also, as a second example, the ophthalmic device 110 may further have at least one of the functions of the management server 140 and the image viewer 150. For example, if the ophthalmic device 110 has the function of the management server 140, the management server 140 can be omitted. In this case, the image processing program is executed by the ophthalmic device 110 or the image viewer 150. Also, if the ophthalmic device 110 has the function of the image viewer 150, the image viewer 150 can be omitted. As a third example, the management server 140 may be omitted, and the image viewer 150 may perform the function of the management server 140.
<その他の変形例> <Other variations>
上記実施の形態で説明したデータ処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。 The data processing described in the above embodiment is merely an example. It goes without saying that unnecessary steps may be deleted, new steps may be added, or the processing order may be changed, without departing from the spirit of the invention.
また、上記実施の形態では、コンピュータを利用したソフトウェア構成によりデータ処理が実現される場合を例示したが、本開示の技術はこれに限定されるものではない。例えば、コンピュータを利用したソフトウェア構成に代えて、FPGA(Field-Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等のハードウェア構成のみによって、データ処理が実行されるようにしてもよい。データ処理のうちの一部の処理がソフトウェア構成により実行され、残りの処理がハードウェア構成によって実行されるようにしてもよい。 In addition, in the above embodiment, an example was given of a case where data processing is realized by a software configuration using a computer, but the technology of the present disclosure is not limited to this. For example, instead of a software configuration using a computer, data processing may be performed only by a hardware configuration such as an FPGA (Field-Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit). A part of the data processing may be performed by a software configuration, and the remaining processing may be performed by a hardware configuration.
<付記>
以上の内容から以下の付記が提案される。
<付記1>
制御部及び記憶媒体を備えるコンピュータに用いられ、前記記憶媒体に記憶されるデータのデータ構造であって、
前記データは、前記制御部が、前記記憶媒体から読み出し、脈絡膜血管の血管径を算出する処理に用いられ、
前記データは、
脈絡膜血管の複数の血管中心点のデータと、
各血管中心点の血管径のデータと、
を含む、データ構造。
<付記2>
制御部及び記憶媒体を備えるコンピュータに用いられ、前記記憶媒体に記憶されるデータのデータ構造であって、
前記データは、前記制御部が、前記記憶媒体から読み出し、複数の脈絡膜血管の各々の血管径を算出する処理に用いられ、
前記データは、
複数の脈絡膜血管の各々に対応する各脈絡膜血管の複数の血管中心点のデータと、
複数の脈絡膜血管の各々に対応する各血管中心点の血管径のデータと、
を含む、データ構造。
<付記3>
表示部、制御部及び記憶媒体を備えるコンピュータに用いられ、前記記憶媒体に記憶されるデータのデータ構造であって、
前記データは、前記制御部が、前記記憶媒体から読み出し、前記表示部に、脈絡膜血管画像と、前記脈絡膜血管画像において指示された箇所の脈絡膜血管の血管径とを表示する処理に用いられ、
前記データは、
脈絡膜血管画像の各画素のデータと、
前記脈絡膜血管画像中の絡膜血管の複数の血管中心点のデータと、
各血管中心点の血管径のデータと、
を含む、データ構造。
<付記4>
脈絡膜血管の複数の血管中心点のデータと、各血管中心点の血管径のデータと、を対応して記憶する記憶媒体。
<付記5>
複数の脈絡膜血管の各々に対応して、各脈絡膜血管の複数の血管中心点のデータと、各血管中心点の血管径のデータと、を記憶する記憶媒体。
<付記6>
脈絡膜血管画像の各画素のデータと、前記脈絡膜血管画像中の絡膜血管の複数の血管中心点のデータと、各血管中心点の血管径のデータと、を対応して記憶する記憶媒体。
<Additional Notes>
In light of the above, the following note is proposed:
<Appendix 1>
A data structure for data stored in a computer including a control unit and a storage medium, comprising:
The control unit reads the data from the storage medium and uses the data in a process of calculating a vascular diameter of a choroidal blood vessel,
The data is
Data on a plurality of vessel center points of choroidal blood vessels;
Data on the vascular diameter at the center point of each blood vessel,
A data structure including:
<Appendix 2>
A data structure for data stored in a computer including a control unit and a storage medium, comprising:
The control unit reads the data from the storage medium and uses the data in a process of calculating the vascular diameter of each of a plurality of choroidal blood vessels;
The data is
Data on a plurality of vessel center points of each choroidal vessel corresponding to each of a plurality of choroidal vessels;
Data on the vascular diameter of each of the plurality of choroidal blood vessels at their respective vascular center points;
A data structure including:
<Appendix 3>
A data structure for data stored in a computer including a display unit, a control unit, and a storage medium, comprising:
The control unit reads the data from the storage medium and uses the data for processing to display a choroidal vessel image and a vessel diameter of a choroidal vessel at a location indicated in the choroidal vessel image on the display unit;
The data is
Data of each pixel of the choroidal vessel image;
Data on a plurality of vascular center points of choroidal blood vessels in the choroidal blood vessel image;
Data on the vascular diameter at the center point of each blood vessel,
A data structure including:
<Appendix 4>
A storage medium that stores data on a plurality of vascular center points of choroidal blood vessels and data on the vascular diameter of each vascular center point in association with each other.
<Appendix 5>
A storage medium that stores data on a plurality of vascular center points of each of a plurality of choroidal blood vessels and data on the vascular diameter of each vascular center point, corresponding to each of a plurality of choroidal blood vessels.
<Appendix 6>
A storage medium that stores, in a corresponding relationship, data on each pixel of a choroidal vessel image, data on a plurality of vessel center points of choroidal vessels in the choroidal vessel image, and data on the vessel diameter of each vessel center point.
100 眼科システム
110 眼科装置
120 眼軸長測定器
140 管理サーバ
150 画像ビューワ
202 撮影制御部
204 表示制御部
206 画像処理制御部
262 CPU
254 記憶装置
Reference Signs List 100 Ophthalmic system 110 Ophthalmic device 120 Axial length measuring device 140 Management server 150 Image viewer 202 Photography control unit 204 Display control unit 206 Image processing control unit 262 CPU
254 Storage device
Claims (10)
前記各画素に対応付けられた血管中心点での血管径に基づいて前記各画素の画素値を変え、前記脈絡膜血管の表示態様を変えて表示する工程と、
を有する画像処理方法。 A step of acquiring data including a plurality of vascular center points identified in a choroidal vessel image along the running direction of the choroidal vessel, a vascular diameter calculated at each of the plurality of vascular center points , and each pixel on the choroidal vessel that is associated with at least one of the vascular center points based on a distance from the vascular center point;
A step of changing the pixel value of each pixel based on the blood vessel diameter at the blood vessel center point corresponding to each pixel, and changing and displaying the choroidal blood vessel in a different display mode ;
An image processing method comprising the steps of:
請求項1に記載の画像処理方法。 The display step changes a pixel value of each pixel based on a blood vessel diameter at a blood vessel center point associated with each pixel , and changes a color or a pattern of the choroidal blood vessels to display the blood vessels.
The image processing method according to claim 1 .
前記表示する工程は、指定された血管径と前記各画素に対応付けられた血管中心点における血管径とに基づいて前記脈絡膜血管の表示態様を変えて表示する、
請求項1または請求項2に記載の画像処理方法。 The method further includes a step of receiving a designation of a vascular diameter of a choroidal blood vessel,
The display step changes the display mode of the choroidal blood vessels based on the designated blood vessel diameter and the blood vessel diameter at the blood vessel center point associated with each pixel.
3. The image processing method according to claim 1.
前記脈絡膜血管画像上で脈絡膜血管の画素の指定を受け付ける工程と、receiving designation of pixels of choroidal vessels on the choroidal vessel image;
指定された脈絡膜血管上の画素に対応付けられた血管中心点での血管径を表示する工程と、displaying a blood vessel diameter at a blood vessel center point associated with a pixel on a specified choroidal blood vessel;
を有する画像処理方法。An image processing method comprising the steps of:
請求項4に記載の画像処理方法。 The display step displays, as a numerical value, an average of vascular diameters at a plurality of vascular center points in a blood vessel to which a designated pixel belongs.
The image processing method according to claim 4 .
請求項4または請求項5に記載の画像処理方法。 the display step displays a graph in which one axis represents a center point of a blood vessel in a blood vessel to which a specified pixel belongs, and the other axis represents a blood vessel diameter at each of the center points of the blood vessel.
6. The image processing method according to claim 4 or 5 .
前記各画素に対応付けられた血管中心点での血管径に基づいて前記各画素の画素値を変え、前記脈絡膜血管の表示態様を変えて表示する表示部と、
を有する画像処理装置。 An acquisition unit that acquires data including a plurality of vascular center points identified in a choroidal vessel image along the running direction of the choroidal vessel, a vascular diameter calculated at each of the plurality of vascular center points , and each pixel on the choroidal vessel that is associated with at least one of the vascular center points based on a distance from each of the vascular center points;
A display unit that changes the pixel value of each pixel based on the blood vessel diameter at the blood vessel center point corresponding to each pixel, and changes and displays the display mode of the choroidal blood vessel .
An image processing device comprising:
脈絡膜血管画像において脈絡膜血管の走行方向に沿って特定される複数の血管中心点と、前記複数の血管中心点の各血管中心点において算出される血管径と、前記各血管中心点との距離に基づいて前記各血管中心点の少なくとも一つに対応付けられる前記脈絡膜血管上の各画素と、を有するデータを取得する取得ステップと、
前記各画素に対応付けられた血管中心点での血管径に基づいて前記各画素の画素値を変え、前記脈絡膜血管の表示態様を変えて表示する表示ステップと、
を含む処理を実行させるための画像処理プログラム。 On the computer,
An acquisition step of acquiring data including a plurality of vascular center points identified in a choroidal vessel image along the running direction of the choroidal vessel, a vascular diameter calculated at each of the plurality of vascular center points , and each pixel on the choroidal vessel that is associated with at least one of the vascular center points based on a distance from the vascular center point;
A display step of changing the pixel value of each pixel based on the blood vessel diameter at the blood vessel center point corresponding to each pixel, and changing and displaying the display mode of the choroidal blood vessel ;
An image processing program for executing a process including the steps of:
前記脈絡膜血管画像上で脈絡膜血管の画素の指定を受け付ける受付部と、A reception unit that receives designation of pixels of choroidal blood vessels on the choroidal blood vessel image;
指定された脈絡膜血管上の画素に対応付けられた血管中心点での血管径を表示する表示部と、a display unit that displays a blood vessel diameter at a blood vessel center point associated with a pixel on a specified choroidal blood vessel;
を有する画像処理装置。An image processing device comprising:
脈絡膜血管画像において脈絡膜血管の走行方向に沿って特定される複数の血管中心点と、前記複数の血管中心点の各血管中心点において算出される血管径と、前記各血管中心点との距離に基づいて前記各血管中心点の少なくとも一つに対応付けられる前記脈絡膜血管上の各画素と、を有するデータを取得する取得ステップと、An acquisition step of acquiring data including a plurality of vascular center points identified in a choroidal vessel image along the running direction of the choroidal vessel, a vascular diameter calculated at each of the plurality of vascular center points, and each pixel on the choroidal vessel that is associated with at least one of the vascular center points based on a distance from the vascular center point;
前記脈絡膜血管画像上で脈絡膜血管の画素の指定を受け付ける受付ステップと、a receiving step of receiving designation of pixels of choroidal blood vessels on the choroidal blood vessel image;
指定された脈絡膜血管上の画素に対応付けられた血管中心点での血管径を表示する表示ステップと、A display step of displaying a blood vessel diameter at a blood vessel center point corresponding to a pixel on a specified choroidal blood vessel;
を含む処理を実行させるための画像処理プログラム。An image processing program for executing a process including the steps of:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023031413A JP7521629B2 (en) | 2018-10-10 | 2023-03-01 | IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, IMAGE PROCESSING PROGRAM, AND BLOOD VESSEL DIAMETER CALCULATION APPARATUS |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018192118A JP7238319B2 (en) | 2018-10-10 | 2018-10-10 | Image processing method, image processing device, image processing program, and blood vessel diameter calculation device |
| JP2023031413A JP7521629B2 (en) | 2018-10-10 | 2023-03-01 | IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, IMAGE PROCESSING PROGRAM, AND BLOOD VESSEL DIAMETER CALCULATION APPARATUS |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018192118A Division JP7238319B2 (en) | 2018-10-10 | 2018-10-10 | Image processing method, image processing device, image processing program, and blood vessel diameter calculation device |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2023060069A JP2023060069A (en) | 2023-04-27 |
| JP2023060069A5 JP2023060069A5 (en) | 2023-06-07 |
| JP7521629B2 true JP7521629B2 (en) | 2024-07-24 |
Family
ID=70219791
Family Applications (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018192118A Active JP7238319B2 (en) | 2018-10-10 | 2018-10-10 | Image processing method, image processing device, image processing program, and blood vessel diameter calculation device |
| JP2023031413A Active JP7521629B2 (en) | 2018-10-10 | 2023-03-01 | IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, IMAGE PROCESSING PROGRAM, AND BLOOD VESSEL DIAMETER CALCULATION APPARATUS |
Family Applications Before (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2018192118A Active JP7238319B2 (en) | 2018-10-10 | 2018-10-10 | Image processing method, image processing device, image processing program, and blood vessel diameter calculation device |
Country Status (1)
| Country | Link |
|---|---|
| JP (2) | JP7238319B2 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022177028A1 (en) * | 2021-02-22 | 2022-08-25 | 株式会社ニコン | Image processing method, image processing device, and program |
| CN113450364B (en) * | 2021-06-29 | 2022-05-13 | 湖南大学 | A method for extracting centerline of tree structure based on 3D flux model |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004283373A (en) | 2003-03-20 | 2004-10-14 | Toshiba Corp | Analytical processing device for luminal structure |
| JP2007097740A (en) | 2005-10-03 | 2007-04-19 | Hitachi Omron Terminal Solutions Corp | Fundus image diagnosis support device |
| US20160135683A1 (en) | 2013-06-13 | 2016-05-19 | University Of Tsukuba | Optical coherence tomography apparatus for selectively visualizing and analyzing vascular network of choroidal layer, and image-processing program and image-processing method for the same |
| JP2017077414A (en) | 2015-10-21 | 2017-04-27 | 株式会社ニデック | Ophthalmic analysis apparatus and ophthalmic analysis program |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5182689B2 (en) * | 2008-02-14 | 2013-04-17 | 日本電気株式会社 | Fundus image analysis method, apparatus and program thereof |
| JP6469387B2 (en) * | 2014-08-26 | 2019-02-13 | 株式会社トプコン | Fundus analyzer |
-
2018
- 2018-10-10 JP JP2018192118A patent/JP7238319B2/en active Active
-
2023
- 2023-03-01 JP JP2023031413A patent/JP7521629B2/en active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004283373A (en) | 2003-03-20 | 2004-10-14 | Toshiba Corp | Analytical processing device for luminal structure |
| JP2007097740A (en) | 2005-10-03 | 2007-04-19 | Hitachi Omron Terminal Solutions Corp | Fundus image diagnosis support device |
| US20160135683A1 (en) | 2013-06-13 | 2016-05-19 | University Of Tsukuba | Optical coherence tomography apparatus for selectively visualizing and analyzing vascular network of choroidal layer, and image-processing program and image-processing method for the same |
| JP2017077414A (en) | 2015-10-21 | 2017-04-27 | 株式会社ニデック | Ophthalmic analysis apparatus and ophthalmic analysis program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7238319B2 (en) | 2023-03-14 |
| JP2020058627A (en) | 2020-04-16 |
| JP2023060069A (en) | 2023-04-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7609192B2 (en) | IMAGE PROCESSING METHOD, PROGRAM, AND IMAGE PROCESSING APPARATUS | |
| US12327347B2 (en) | Image processing method, image processing device, and storage medium | |
| JP7700934B2 (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND OPHTHALMOLOGY SYSTEM | |
| JP7647821B2 (en) | IMAGE PROCESSING METHOD, PROGRAM, IMAGE PROCESSING APPARATUS, AND OPHTHALMOLOGY SYSTEM | |
| JP7521629B2 (en) | IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, IMAGE PROCESSING PROGRAM, AND BLOOD VESSEL DIAMETER CALCULATION APPARATUS | |
| JP2025160461A (en) | Image processing method, image processing device, and image processing program | |
| JP2020058647A (en) | Image processing method, image processing apparatus, and image processing program | |
| JP2024059709A (en) | Image Processing Method | |
| JP2025122054A (en) | Image processing method, image processing device, and program | |
| JP7248142B2 (en) | IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND PROGRAM | |
| JP7419946B2 (en) | Image processing method, image processing device, and image processing program | |
| JP7272453B2 (en) | Image processing method, image processing apparatus, and program | |
| JP7416083B2 (en) | Image processing method, image processing device, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230323 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230530 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231020 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231107 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231225 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240305 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240611 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240624 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7521629 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |