JP7728002B2 - Medical image observation support device - Google Patents
Medical image observation support deviceInfo
- Publication number
- JP7728002B2 JP7728002B2 JP2021178275A JP2021178275A JP7728002B2 JP 7728002 B2 JP7728002 B2 JP 7728002B2 JP 2021178275 A JP2021178275 A JP 2021178275A JP 2021178275 A JP2021178275 A JP 2021178275A JP 7728002 B2 JP7728002 B2 JP 7728002B2
- Authority
- JP
- Japan
- Prior art keywords
- support device
- medical image
- unit
- images
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Endoscopes (AREA)
Description
本発明は、機械学習により医用画像を解析する医用画像解析装置に関し、特に、膀胱内視鏡によって得られる画像を解析する装置に関する。 The present invention relates to a medical image analysis device that analyzes medical images using machine learning, and in particular to a device that analyzes images obtained by a cystoscope.
医療分野において、医用画像を用いた診断支援(CAD;computer aided diagnosis)が広く用いられている。様々な撮像装置によって撮影された医用画像がコンピュータを用いて解析され、その解析結果が観察支援に活用される。 In the medical field, computer-aided diagnosis (CAD) using medical images is widely used. Medical images taken with various imaging devices are analyzed using computers, and the results of this analysis are used to support observation.
たとえば特許文献1に示すものがそれである。特許文献1においては、内視鏡などから撮像された粘膜上皮の血管を含んで撮像された画像に対し、全撮像画像全体の濃淡についてテクスチャ解析、および、血管特徴量の算出を行い、それらを用いて、非腫瘍、腺腫、癌、SSA/Pのうちのいずれかを診断結果として出力する画像処理装置が開示されている。 One example is shown in Patent Document 1. Patent Document 1 discloses an image processing device that performs texture analysis on the overall shading of images captured using an endoscope or the like, including blood vessels in the mucosal epithelium, and calculates vascular features, and uses these to output a diagnosis of either non-tumor, adenoma, cancer, or SSA/P.
一方、医用画像を用いた診断においては、画像から特定の疾患の有無を判断することが極めて難しい検査がある。ハンナ型間質性膀胱炎(Hunner type interstitial cystitis;HIC)の診断もその一つである。具体的には、膀胱内視鏡(膀胱鏡)によって撮影される画像を用いて、被験者がハンナ型間質性膀胱炎であるか否かの診断が行われるが、膀胱鏡検査において、ハンナ型間質性膀胱炎を正しく診断できる医師は少ない。また、ハンナ型間質性膀胱炎の有無を画像から判断する機械装置も従来においては存在しない。 On the other hand, when it comes to diagnosis using medical images, there are some tests where it is extremely difficult to determine the presence or absence of a specific disease from the images. Diagnosis of Hunner-type interstitial cystitis (HIC) is one such example. Specifically, images taken with a cystoscope are used to diagnose whether a subject has Hunner-type interstitial cystitis, but there are few doctors who can correctly diagnose Hunner-type interstitial cystitis through cystoscopy. Furthermore, there is currently no mechanical device that can determine the presence or absence of Hunner-type interstitial cystitis from images.
本発明は、かかる観点からなされたものであり、膀胱鏡により撮影された画像から、機械学習の方法を用いて、(1)膀胱鏡画像が類似するハンナ型間質性膀胱炎(指定難病であり、QOLを大きく損ねる良性疾患)と膀胱上皮内癌(悪性腫瘍)とを鑑別(良悪性疾患を鑑別)でき、さらに、(2)臨床症状が類似するハンナ型間質性膀胱炎と膀胱痛症候群(膀胱内に明らかな異常所見なし)とを鑑別できる、すなわち、(3)ハンナ型間質性膀胱炎、膀胱痛症候群、および、膀胱癌の3群の疾患を鑑別できる、医用画像観察支援装置を提供することにある。 The present invention has been made from this perspective, and aims to provide a medical image observation support device that can use machine learning methods to (1) differentiate (distinguish between benign and malignant diseases) between Hannah type interstitial cystitis (a designated intractable disease that is a benign disease that significantly impairs quality of life) and bladder intraepithelial carcinoma (malignant tumor), which have similar cystoscopic images, and further (2) differentiate between Hannah type interstitial cystitis and bladder pain syndrome (no obvious abnormalities found in the bladder), which have similar clinical symptoms, in other words, (3) differentiate between the three groups of diseases: Hannah type interstitial cystitis, bladder pain syndrome, and bladder cancer.
本願第1の発明の要旨とするところは、(a)医用画像の分類を行う医用画像観察支援装置であって、(b)学習済みのネットワークを有する分類部を有し、(c)前記医用画像は、膀胱鏡によって得られる内視鏡画像であり、(d)前記分類部は、入力された内視鏡画像について、ハンナ型間質性膀胱炎、膀胱痛症候群、膀胱癌の3分類を行うこと、を特徴とする。 The gist of the first invention of this application is (a) a medical image observation support device that classifies medical images, (b) having a classification unit with a trained network, (c) the medical images are endoscopic images obtained using a cystoscope, and (d) the classification unit classifies the input endoscopic images into three categories: Hannah-type interstitial cystitis, bladder pain syndrome, and bladder cancer.
第1の発明にかかる医用画像観察支援装置によれば、膀胱鏡によって得られる画像について、学習済みのネットワークを有する分類部により、ハンナ型間質性膀胱炎、膀胱痛症候群、膀胱癌の3分類が行われる。 According to the medical image observation support device of the first invention, images obtained by a cystoscope are classified into three categories: Hanna-type interstitial cystitis, bladder pain syndrome, and bladder cancer, by a classification unit having a trained network.
好適には、本願第2の発明にかかる医用画像観察支援装置の特徴とするところは、第1の発明にかかる医用画像観察支援装置であって、(e)前記3分類の結果に基づいて、ハンナ型間質性膀胱炎とそれ以外の2分類を行うこと、にある。このようにすれば、前記分類部が直接ハンナ型間質性膀胱炎とそれ以外の2分類を行う場合に比べて、好適な分類結果を得られる。 Preferably, the medical image observation support device according to the second aspect of the present invention is characterized in that, in the medical image observation support device according to the first aspect of the present invention, (e) it performs two classifications, one into Hanna type interstitial cystitis and the other, based on the results of the three classifications. In this way, more favorable classification results can be obtained than when the classification unit directly performs two classifications, one into Hanna type interstitial cystitis and the other.
また好適には、本願第3の発明にかかる医用画像観察支援装置の特徴とするところは、第1または第2の発明にかかる医用画像観察支援装置であって、(f)前記ネットワークを学習させるための学習部と、(g)前記学習部による学習用データを記憶する記憶部と、(h)前記記憶部に記憶された学習用データに基づいて、追加学習用データを生成する追加データ生成部と、を有し、(i)前記学習部は、予め記憶部に記憶されている学習用データに加え、前記追加学習用データを用いて前記ネットワークを学習させること、を特徴とする。このようにすれば、追加学習用データが記憶部に記憶された学習用データに基づいて追加データ生成部によって生成され、前記ネットワークは、学習用データに加えて追加学習用データを用いて学習部によって学習させられるので、学習用データのみが与えられた場合であっても、より多くの学習を行うことができる。 Preferably, the medical image observation support device according to the third aspect of the present invention is characterized by the medical image observation support device according to the first or second aspect of the present invention, further comprising: (f) a learning unit for training the network; (g) a memory unit for storing training data by the learning unit; and (h) an additional data generation unit for generating additional training data based on the training data stored in the memory unit, and (i) the learning unit trains the network using the additional training data in addition to training data previously stored in the memory unit. In this way, the additional training data is generated by the additional data generation unit based on the training data stored in the memory unit, and the network is trained by the learning unit using the additional training data in addition to the training data, allowing for more learning to be performed even when only training data is provided.
また好適には、本願第4の発明にかかる医用画像観察支援装置の特徴とするところは、第1乃至第3のいずれか1にかかる医用画像観察支援装置であって、(j)前記分類部は、分類結果の尤度を出力すること、を特徴とする。このようにすれば、分類結果に加えてその尤度についての情報が得られることから、尤度を考慮して分類結果の参照が可能となる。 Preferably, the medical image observation support device according to the fourth aspect of the present invention is characterized in that, in the medical image observation support device according to any one of the first to third aspects, (j) the classification unit outputs the likelihood of the classification result. In this way, information about the likelihood can be obtained in addition to the classification result, making it possible to refer to the classification result taking the likelihood into consideration.
また好適には、第5の発明にかかる医用画像観察支援装置の特徴とするところは、第1乃至第4のいずれか1にかかる医用画像観察支援装置であって、(k)複数の前記分類部と、(l)前記複数の分類部の出力に基づいて分類結果を決定する判定統合部を有し、(m)前記複数の分類部は、対応する複数の前記ネットワークを有すること、を特徴とする。このようにすれば、複数の学習されたネットワークをそれぞれ有する複数の分類部の出力に基づいて分類結果を決定することができ、学習によって生じる統計的な認識誤りを抑えることができる。 Preferably, the medical image observation support device according to the fifth invention is characterized in that it is the medical image observation support device according to any one of the first to fourth inventions, further comprising: (k) a plurality of the classifiers; (l) a judgment integration unit that determines classification results based on the outputs of the plurality of classifiers; and (m) the plurality of classifiers have a corresponding plurality of the networks. In this way, classification results can be determined based on the outputs of a plurality of classifiers, each having a plurality of trained networks, thereby reducing statistical recognition errors that occur due to training.
また好適には、本願第6の発明にかかる医用画像観察支援システムの特徴とするところは、内視鏡装置と、第1乃至第5のいずれか1にかかる医用画像観察支援装置と、を含む医用画像観察支援システムであって、前記内視鏡装置に設けられたレリーズスイッチが操作された場合に、前記内視鏡装置から前記医用画像観察支援装置に画像が入力されること、を特徴とする。このようにすれば、内視鏡装置による撮像から、医用画像観察支援装置による画像の分類までを一連の操作として簡便に行うことができる。 Preferably, the medical image observation support system according to the sixth aspect of the present invention is characterized in that it includes an endoscope device and any one of the first to fifth aspects of the medical image observation support device, and when a release switch provided on the endoscope device is operated, an image is input from the endoscope device to the medical image observation support device. In this way, the process from capturing images using the endoscope device to classifying images using the medical image observation support device can be easily performed as a series of operations.
以下、本発明の一実施例を図面により詳細に説明する。 One embodiment of the present invention will be described in detail below with reference to the drawings.
図1は、本発明の一実施例である医用画像観察支援装置10(以下、単に支援装置10という。)の構成を例示する図である。この図1に示すように、本実施例の支援装置10は、中央演算処理装置であるCPU12および画像処理に特化した処理装置であるGPU(Graphics Processing Unit)13と、読出専用メモリであるROM14と、随時書込読出メモリであるRAM16と、記憶装置18と、を備えて構成されている。前記CPU12およびGPU13は、前記RAM16の一時記憶機能を利用しつつ前記ROM14に予め記憶された所定の医用画像解析プログラムに基づいて電子情報を処理・制御する所謂マイクロコンピュータである。前記医用画像解析プログラムは、たとえばCD-ROM等の媒体や後述するネットワークインタフェース30を解して供給される。 Figure 1 is a diagram illustrating the configuration of a medical image observation support device 10 (hereinafter simply referred to as support device 10) according to one embodiment of the present invention. As shown in Figure 1, support device 10 of this embodiment comprises a central processing unit (CPU) 12, a graphics processing unit (GPU) 13 that is a processing device specialized for image processing, a read-only memory (ROM) 14, a random access memory (RAM) 16, and a storage device 18. The CPU 12 and GPU 13 are so-called microcomputers that process and control electronic information based on a predetermined medical image analysis program pre-stored in ROM 14, while utilizing the temporary storage function of RAM 16. The medical image analysis program is supplied, for example, from a medium such as a CD-ROM or via a network interface 30, which will be described later.
前記記憶装置18は、好適には、情報を記憶可能なハードディスクドライブやSSD(Solid State Drive)等の公知の記憶装置(記憶媒体)である。小型メモリカードや光ディスク等の着脱式記憶媒体であってもよい。出力インタフェース26は必要に応じて表示装置などを接続するためのものであり、入力インタフェース28は、キーボードやマウス等の公知の入力デバイスを接続したり、あるいは所定の画像信号を取り込むためケーブルを接続するためのものである。入力インタフェース28に画像信号が入力される場合には、必要に応じてコンバータやエンコーダなどが併せて設けられてもよい。また、ネットワークインタフェース30は、支援装置10をネットワークに接続するためのものであって、支援装置10はネットワークを解して他のコンピュータなどと情報通信が可能とさせられる。ネットワークケーブルや無線ネットワークのためのアンテナなどが接続される。なお、これらの出力インタフェース26、入力インタフェース28、ネットワークインタフェース30は必要に応じて設けられればよく、必ずしも必須のものではない。 The storage device 18 is preferably a known storage device (storage medium) such as a hard disk drive or SSD (Solid State Drive) capable of storing information. It may also be a removable storage medium such as a small memory card or optical disk. The output interface 26 is for connecting a display device or the like as needed, and the input interface 28 is for connecting known input devices such as a keyboard or mouse, or for connecting a cable for capturing a specified image signal. If an image signal is input to the input interface 28, a converter or encoder may also be provided as needed. The network interface 30 is for connecting the support device 10 to a network, enabling the support device 10 to communicate with other computers via the network. A network cable or an antenna for a wireless network may be connected. Note that the output interface 26, input interface 28, and network interface 30 may be provided as needed and are not necessarily required.
図2は、前記支援装置10に備えられた制御機能の要部を説明する機能ブロック線図である。この図2に示すように、支援装置10は、画像読込部32、画像処理部34、出力部38、学習部40を機能的に備えて構成されている。 Figure 2 is a functional block diagram explaining the main control functions of the support device 10. As shown in Figure 2, the support device 10 is functionally configured to include an image reading unit 32, an image processing unit 34, an output unit 38, and a learning unit 40.
画像読込部32は、支援装置10により解析する画像を後述する画像処理部34に入力する。具体的には、支援装置10により解析しようとする画像は、予め前記記憶装置18に格納されており、たとえば操作者に入力操作に応じて、解析しようとする画像を記憶装置18から読み込み、画像処理部34に渡す処理を行う。本実施例においては、膀胱内視鏡(膀胱鏡)によって予め撮影された、膀胱内部の画像が入力される。 The image reading unit 32 inputs the image to be analyzed by the assistance device 10 to the image processing unit 34, which will be described later. Specifically, the image to be analyzed by the assistance device 10 is stored in advance in the storage device 18, and in response to an input operation by the operator, for example, the image to be analyzed is read from the storage device 18 and passed to the image processing unit 34. In this embodiment, an image of the inside of the bladder, taken in advance by a cystoscope, is input.
画像処理部34は、画像読込部32から入力された画像に基づき、画像中における注目領域の特定と、注目領域のクラス分類を行う。画像処理部34は、その内部に学習済みネットワーク36を有しており、前記学習済みネットワーク36は入力された画像を処理して出力画像を生成する。 The image processing unit 34 identifies and classifies regions of interest in an image based on the image input from the image reading unit 32. The image processing unit 34 has an internal trained network 36, which processes the input image and generates an output image.
学習済みネットワーク36(以下、ネットワーク36という。)は、畳み込みニューラルネットワーク(CNN;Convolutional Neural Network)の構成を有している。学習済みネットワーク36により、いわゆるDeepLearningによる入力画像の特徴量の算出を行う。 The trained network 36 (hereinafter referred to as network 36) has the configuration of a convolutional neural network (CNN). The trained network 36 calculates the features of the input image using so-called deep learning.
出力部38は、画像処理部34から出力された出力結果を、所定のフォーマットに変換するなどして、ファイルや他のプログラムに出力したり、前記出力インタフェース26を解して接続されたディスプレイ装置などの装置に出力したり、ネットワークインタフェース30を介して他のコンピュータなどに送信したりする。 The output unit 38 converts the output results from the image processing unit 34 into a specified format and outputs them to a file or another program, outputs them to a device such as a display device connected via the output interface 26, or transmits them to another computer via the network interface 30.
図3は、ネットワーク36の一例を示す図である。ネットワーク36は、上述のとおりCNN型の構造を有するネットワークである。図3における長方形状の層50a乃至50sは、特徴マップもしくは画像を示している。以下の説明において個々の層を区別しない場合には層50という。図3において横方向に連なる3乃至5個の層50によりブロックが構成されている。すなわち、層50a乃至層50cによりブロック51aが、層50d乃至層50gによりブロック51bが、層50h乃至層50kによりブロック51cが、層50l乃至層50oによりブロック51dが、層50p乃至層50tによりブロック51eが、それぞれ構成されている。なお、各ブロック51の一番左にある層50の下部に記載された数字は、各ブロックにおける層50のカーネル数を示している。 Figure 3 is a diagram showing an example of network 36. As described above, network 36 is a network with a CNN-type structure. In Figure 3, rectangular layers 50a to 50s represent feature maps or images. In the following description, when individual layers are not distinguished, they are referred to as layers 50. In Figure 3, a block is composed of three to five layers 50 connected horizontally. That is, layers 50a to 50c form block 51a, layers 50d to 50g form block 51b, layers 50h to 50k form block 51c, layers 50l to 50o form block 51d, and layers 50p to 50t form block 51e. Note that the number written below the leftmost layer 50 in each block 51 indicates the number of kernels in layer 50 in that block.
また、ブロック間を接続する太線のうち、太実線52は3×3畳み込み(convolution)を示している。ここで3×3はカーネルの大きさを示している。太二重線54は拡張畳み込み(dilated convolution)を示している。太三重線58は全体平均プーリング(Global Average Pooling)を示している。この全体平均プーリング58は、直前の層50sにおける特徴マップを構成する全てのピクセル値の平均を、個々の特徴マップごとに算出して出力する。なお、各ブロック51の左端の層50a、50d、50h、50l、50pのうち、複数の入力があるものについては、それらの入力を統合したものとなる。 Of the thick lines connecting blocks, thick solid line 52 indicates 3x3 convolution. Here, 3x3 indicates the kernel size. Thick double line 54 indicates dilated convolution. Thick triple line 58 indicates global average pooling. This global average pooling 58 calculates and outputs the average of all pixel values that make up the feature map in the immediately preceding layer 50s for each feature map. Note that for the leftmost layers 50a, 50d, 50h, 50l, and 50p of each block 51, which have multiple inputs, these inputs are integrated.
図3に示すように、本実施例のネットワーク36におけるブロック51aにおいては2回の畳み込み(convolution)が、ブロック51bにおいては3回の畳み込みが、ブロック51cおよび51dにおいては2回の畳み込みと1回の拡張畳み込みが行われるものとなっている。また、ブロック51eにおいては、3回の畳み込みと1回の全階平均プーリングが行われる。 As shown in Figure 3, in this embodiment, block 51a in network 36 performs two convolutions, block 51b performs three convolutions, and blocks 51c and 51d perform two convolutions and one dilated convolution. In addition, block 51e performs three convolutions and one full-level average pooling.
また、ネットワーク36における各ブロック51においては、残差パス(Residual Path)56が設けられており、また、各ブロック51間では、dense pooling(64~70)が行われるものとされており、連続するブロック51以外のブロック51との間でも入出力が行われるものとされている。 In addition, a residual path 56 is provided in each block 51 in the network 36, and dense pooling (64-70) is performed between each block 51, with input and output also being performed between blocks 51 other than adjacent blocks 51.
このうち、残差パス56は、ある層50の前の層50の内容を、前記ある層50の出力と合わせて次の層50に渡すものである。具体的にはたとえば、ブロック51aにおいて、層50bに着目すると、層50bへは、層50aの内容が畳み込み52されて入力されている。一方、層50bからは、層50bの内容が畳み込み52されて層50cに出力される。ここで、ブロック51aに設けられている残差パス56は,層50bの前の層である層50aの内容を、層50bの出力と合わせたものが、層50cとするものである。このように残差パス56を設けることにより、各層における勾配の損失が防止される。 Of these, the residual path 56 passes the contents of the layer 50 preceding a given layer 50, combined with the output of that layer 50, to the next layer 50. Specifically, for example, looking at layer 50b in block 51a, the contents of layer 50a are convolved 52 and input to layer 50b. Meanwhile, the contents of layer 50b are convolved 52 and output from layer 50b to layer 50c. Here, the residual path 56 provided in block 51a combines the contents of layer 50a, the layer preceding layer 50b, with the output of layer 50b to form layer 50c. By providing this residual path 56, gradient loss in each layer is prevented.
続いて、dense pooling について説明する。dense poolingは、畳み込みによって得た特徴(特徴マップ)から重要な要素を残しつつデータ量を削減する手法であるプーリング(pooling)の一つである。ネットワーク36のブロック51a乃至51c、畳み込み52やdilated convolutionが行われた特徴マップもしくは画像は、dense poolingにより、それ以降の畳み込みに用いられる。 Next, we will explain dense pooling. Dense pooling is a type of pooling that reduces the amount of data while retaining important elements from features (feature maps) obtained by convolution. Blocks 51a to 51c of network 36, feature maps or images that have undergone convolution 52 or dilated convolution, are used in subsequent convolutions using dense pooling.
また、本実施例におけるdense poolingは、mixed poolingを用いるものである。具体的には、2回の畳み込みの出力となる特徴マップは、細実線64で示すようにカーネルサイズが2×2のプーリング(以下、2×2プーリングという。他も同様。)がなされて、次の(すなわち、1段目の出力においては2段目の、2段目の出力においては3段目の、3段目の出力においては4段目の、4段目の出力においては5段目の)2回の畳み込みの入力とされる。また、細点線66で示すように4×4プーリングがなされてその次の(すなわち1段目の出力においては3段目の、2段目の出力においては4段目の、3段目の出力においては5段目の)2回の畳み込みの入力とされる。また、細破線68で示すように8×8プーリングがなされてさらにその次の(すなわち1段目の出力においては4段目の、2段目の出力においては5段目の)2回の畳み込みの入力とされる。さらに、細一点鎖線70で示すように16×16プーリングがなされてその次の(すなわち1段目の出力においては5段目の)2回の畳み込みの入力とされる。これにより、2回の畳み込みの出力を、最大値プーリングした後に次の2回の畳み込みの入力とする場合と異なって、失われる可能性のある情報を得つつ畳み込みを繰り返すことができる。 In this embodiment, dense pooling is performed using mixed pooling. Specifically, the feature maps output from the two convolutions undergo pooling with a kernel size of 2x2 (hereinafter referred to as 2x2 pooling, and the same applies to other convolutions) as shown by the thin solid line 64, and are used as input for the next two convolutions (i.e., the first-stage output is used as input for the second stage, the second-stage output is used as input for the third stage, the third-stage output is used as input for the fourth stage, and the fourth-stage output is used as input for the fifth stage). As shown by the thin dotted line 66, 4x4 pooling is performed and the next two convolutions (i.e., the first-stage output is used as input for the third stage, the second-stage output is used as input for the fourth stage, and the third-stage output is used as input for the fifth stage). As shown by the thin dashed line 68, 8x8 pooling is performed and the next two convolutions (i.e., the first-stage output is used as input for the fourth stage, and the second-stage output is used as input for the fifth stage). Furthermore, as shown by the thin dashed dotted line 70, 16x16 pooling is performed and the result is used as the input for the next two convolutions (i.e., the fifth stage for the output of the first stage). This makes it possible to repeat the convolution while obtaining information that would otherwise be lost, unlike when the output of two convolutions is max-pooled and then used as the input for the next two convolutions.
図4は、図3において太二重線54で表された拡張畳み込み(dilated convolution)を説明する図である。この拡張畳み込みは、図3のネットワーク36におけるブロック51cおよび51dの2回の畳み込み52に続いて行われる。拡張畳み込みは、特徴マップにおいて広がって存在する特徴を考慮した畳み込み処理を可能にする。 Figure 4 illustrates the dilated convolution represented by the thick double line 54 in Figure 3. This dilated convolution is performed following the two convolutions 52 in blocks 51c and 51d in network 36 in Figure 3. Dilated convolution enables convolution processing that takes into account features that are spread out in the feature map.
図4において、細実線72、細点線74、細破線76、細一点鎖線78は、いずれも3×3畳み込みを示すものであるが、それぞれ、拡張率(dilation rate;DR)がそれぞれ異なるものとされており、細実線72はDR=1、細点線74はDR=2、細破線76はDR=4、細一点鎖線78はDR=8にそれぞれ対応している。拡張率DRは、畳み込みにおけるカーネルの隙間を示すものであり、DR=1はカーネルをそのまま用いる場合を意味している。また、DR=nは、元のカーネルの各要素間に(n-1)個の隙間を設けたカーネルを用いることを意味している。言い換えれば、本実施例の拡張畳み込み54においては、複数の異なる拡張率の拡張畳み込みを併せて実行するものである。拡張畳み込みによれば、poolingを用いることなく、サイズの大きい特徴マップの畳み込みができ、poolingと異なり、出力される特徴マップのサイズが小さくならない特徴がある。 In Figure 4, the thin solid line 72, thin dotted line 74, thin dashed line 76, and thin dashed-dotted line 78 all represent 3x3 convolutions, but each has a different dilation rate (DR): thin solid line 72 corresponds to DR=1, thin dotted line 74 corresponds to DR=2, thin dashed line 76 corresponds to DR=4, and thin dashed-dotted line 78 corresponds to DR=8. The dilation rate DR indicates the gap in the kernel used in the convolution, with DR=1 indicating the use of the kernel as is. Furthermore, DR=n indicates the use of a kernel with (n-1) gaps between each element of the original kernel. In other words, the dilated convolution 54 of this embodiment simultaneously performs dilated convolutions with multiple different dilation rates. Dilated convolutions enable convolution of large feature maps without using pooling, and, unlike pooling, have the advantage of not reducing the size of the output feature map.
すなわち、拡張畳み込み54は、図4に示すとおり、入力から1×1畳み込み58aが行われた出力、DR=1の3×3畳み込み72およびその出力に対する1×1畳み込み58bが行われた出力、DR=2の3×3畳み込み74およびその出力に対する1×1畳み込み58cが行われた出力、DR=4の3×3畳み込み76およびその出力に対する1×1畳み込み58dが行われた出力、および、DR=8の3×3畳み込み78およびその出力に対する1×1畳み込み58eが行われた出力、が統合されて出力される。 That is, as shown in FIG. 4, the dilated convolution 54 integrates and outputs the output obtained by performing 1x1 convolution 58a on the input, the output obtained by performing 3x3 convolution 72 with DR=1 and 1x1 convolution 58b on that output, the output obtained by performing 3x3 convolution 74 with DR=2 and 1x1 convolution 58c on that output, the output obtained by performing 3x3 convolution 76 with DR=4 and 1x1 convolution 58d on that output, and the output obtained by performing 3x3 convolution 78 with DR=8 and 1x1 convolution 58e on that output.
また、図2に戻って、学習部40は、ネットワーク36の学習を行う。具体的には、学習用の画像と、それに対応する正解(ground truth)とを用いて、いわゆる教師あり学習を行う。この学習部40は、予め支援装置10の使用前にネットワーク36の学習を行うものであってもよいし、使用過程においてさらに学習を行うものであってもよい。 Returning to Figure 2, the learning unit 40 trains the network 36. Specifically, it performs so-called supervised learning using training images and corresponding ground truths. The learning unit 40 may train the network 36 in advance before using the assistance device 10, or it may perform further training during use.
学習部40は、(1)予め撮影され、記憶部18に記憶された内視鏡画像を、一定の割合で、学習用の画像と、学習後のネットワークを評価するための評価用の画像とに分ける。そして、(2)学習用の画像とされた画像を用いてネットワーク36の学習を実行し、(3)学習後のネットワーク36を用いて、評価用の画像に対し、分類を実行する。この(1)から(3)までの一連の作業を所定の回数だけ繰り返すことで、ネットワーク36の学習を完了する。このようにすれば、作業の繰り返しに伴って学習用の画像が入れ代わるので、ネットワーク36の学習が好適に実行される。また、多数の評価を行うことができるため、評価結果が学習用画像の選択のしかたに影響を受けにくくなる。さらに、前記一連の作業は個々に独立されたものであるため、いわゆる学習データと評価データに同一のデータが混じるデータコンタミネーション(data contamination)の発生が生じない。 The learning unit 40 (1) divides endoscopic images captured in advance and stored in the memory unit 18 into training images and evaluation images for evaluating the network after training at a fixed rate. Then, (2) it uses the training images to train the network 36, and (3) it uses the trained network 36 to classify the evaluation images. The learning of the network 36 is completed by repeating this series of steps (1) to (3) a predetermined number of times. In this way, the training images are replaced with each repetition of the steps, allowing the network 36 to be trained optimally. Furthermore, because multiple evaluations can be performed, the evaluation results are less susceptible to the selection of the training images. Furthermore, because the above series of steps are independent of each other, data contamination, in which the same data is mixed in the training data and the evaluation data, does not occur.
また、追加データ生成部42は、予め記憶部18に記憶された内視鏡画像のうち、前述のとおり学習部40により学習用の画像として用いられる画像について、所定の処理を行うことにより、追加データを作成する、いわゆるData augmentation処理を実行する。これにより作成された追加データは、前述の学習用の画像とともに学習部40におけるネットワーク36の学習に用いられる。本実施例においては、追加データ生成部42による追加データの生成は、予め設定された数の追加データが生成される。 The additional data generation unit 42 also performs a so-called data augmentation process, which creates additional data by performing a predetermined process on the endoscopic images previously stored in the storage unit 18 that are to be used as learning images by the learning unit 40 as described above. The additional data created in this way is used for training the network 36 in the learning unit 40, along with the aforementioned learning images. In this embodiment, a preset number of additional data are generated by the additional data generation unit 42.
ここで、前記追加データ生成部42が行う所定の処理は、たとえば、以下の処理を含む。(1)記憶部18に記憶された内視鏡画像(以下、「元画像」という。)を、±30度以内の角度で回転させる。(2)元画像を、上下左右方向の少なくとも一方に±22画素以内(言い換えれば画像幅の10%以内)で平行移動させる。(3)0.8~1.2倍の範囲内で元画像を拡大もしくは縮小させる。(4)元画像を、縦又は横方向に反転させる。(5)HSV色空間において、色相、彩度、明度の少なくとも1つを変化させる。追加データ生成部42は、上記(1)~(5)の処理のうちの少なくとも1つを元画像に実行することで、新たな画像を生成させる。このとき、いずれの処理が適用されるかはランダムに決定される。なお、上記(1)~(5)の処理を行った結果、元画像の画像外に相当する画素が新たな画像内に生じる場合には、当該画素は黒塗りとされる。 Here, the predetermined processing performed by the additional data generation unit 42 includes, for example, the following processes: (1) Rotating the endoscopic image stored in the memory unit 18 (hereinafter referred to as the "original image") by an angle of ±30 degrees or less. (2) translating the original image in at least one of the vertical, horizontal, and vertical directions by ±22 pixels or less (in other words, within 10% of the image width). (3) Enlarging or reducing the original image by a factor of 0.8 to 1.2. (4) Flip the original image vertically or horizontally. (5) Changing at least one of the hue, saturation, and brightness in the HSV color space. The additional data generation unit 42 generates a new image by performing at least one of the processes (1) to (5) above on the original image. At this time, which process is applied is determined randomly. Note that if the processes (1) to (5) above result in pixels in the new image that are outside the original image, those pixels are blacked out.
あるいは、上述の非特許文献1に示される、生成型学習モデルであるGAN (Generative Adversarial Model)を用いて、膀胱内視鏡画像を学習させ、学習用画像を生成してもよい。 Alternatively, a generative learning model called a GAN (Generative Adversarial Model), as described in the aforementioned Non-Patent Document 1, can be used to train cystoscope images and generate training images.
ところで、学習部40によるネットワーク36の学習においては、1回の学習におけるデータ件数であるミニバッチサイズ、および、全データについての学習処理の繰替指数である学習エポック数が適宜定められる。前述の追加データ生成部42による追加データの作成は、各エポックごとに実行されるものとされている。 When the learning unit 40 trains the network 36, the mini-batch size, which is the number of data items in one learning session, and the number of learning epochs, which is the repetition index for the learning process for all data, are determined appropriately. The additional data generation unit 42 creates additional data for each epoch.
(実験例)
本実施例の有効性を検証するために以下の実験を行った。
本実験例においては、支援装置10は、膀胱内視鏡画像から、その画像に対応する症例が、ハンナ型間質性膀胱炎、膀胱痛症候群、または、膀胱癌の3分類を行い、その3分類の結果に基づいて、ハンナ型間質性膀胱炎とそれ以外との2分類を行うものである。
(Experimental Example)
The following experiment was carried out to verify the effectiveness of this embodiment.
In this experimental example, the support device 10 classifies the cases corresponding to the cystoscope images into three categories: Hanna type interstitial cystitis, bladder pain syndrome, or bladder cancer, and then, based on the results of these three categories, classifies the cases into two categories: Hanna type interstitial cystitis and others.
まず、記憶装置18には、患者から得られた膀胱鏡画像が681人分記憶されている。膀胱鏡画像は、前記膀胱内視鏡によって撮影されるもので、1枚の画像が224×224ピクセルの大きさとされている。これらの画像については、予め専門医により分類についての情報、すなわち、ハンナ型間質性膀胱炎、膀胱痛症候群、膀胱癌のいずれであるかについての情報が関連づけられて保存されている。 First, the storage device 18 stores cystoscopic images obtained from 681 patients. The cystoscopic images are taken using the cystoscope, and each image is 224 x 224 pixels in size. These images are stored in association with classification information previously prepared by a specialist, i.e., information on whether the image is Hanna-type interstitial cystitis, bladder pain syndrome, or bladder cancer.
実験に先立ち、ネットワーク36の学習が行われる。この学習は、予め記憶装置18に記憶された上述の681人分の膀胱鏡画像と、追加データ生成部42により作成される追加データとに基づいて、学習部40によって実行される。 Prior to the experiment, the network 36 is trained. This training is performed by the training unit 40 based on the cystoscope images of the 681 subjects previously stored in the storage device 18 and the additional data created by the additional data generation unit 42.
まず、学習部40は、予め記憶装置18に記憶された681人分の膀胱鏡画像を、所定の割合、本実験例においては、80:20の割合で、学習用の画像と評価用の画像とに分ける。 First, the learning unit 40 divides the cystoscope images of 681 people previously stored in the storage device 18 into learning images and evaluation images at a predetermined ratio, in this experimental example, a ratio of 80:20.
続いて、追加データ生成部42は、分けられた学習用の画像から、追加データを生成する。具体的には上述の通り、(1)前記学習用の画像(元画像)を、±30度以内の角度で回転させる。(2)元画像を、上下左右方向の少なくとも一方に±22画素以内(言い換えれば画像幅の10%以内)で平行移動させる。(3)0.8~1.2倍の範囲内で元画像を拡大もしくは縮小させる。(4)元画像を、縦又は横方向に反転させる。(5)HSV色空間において、色相、彩度、明度の少なくとも1つを変化させる。追加データ生成部42は、上記(1)~(5)の処理のうちの少なくとも1つを元画像に実行することで、新たな画像を生成させる。このとき、生成された追加データの正解データは、元データのものが用いられる。また、追加データ生成部42による追加データの生成は、本実験例においては、前記学習用の画像と、追加データ生成部42によって生成された追加データとの合計が、前記学習用の画像の50倍となるように行われる。 The additional data generation unit 42 then generates additional data from the separated training images. Specifically, as described above, (1) the training image (original image) is rotated by an angle of ±30 degrees or less. (2) the original image is translated by ±22 pixels or less in at least one of the up, down, left, and right directions (in other words, within 10% of the image width). (3) the original image is enlarged or reduced by a factor of 0.8 to 1.2. (4) the original image is flipped vertically or horizontally. (5) at least one of the hue, saturation, and brightness is changed in the HSV color space. The additional data generation unit 42 generates a new image by performing at least one of the processes (1) to (5) above on the original image. At this time, the correct answer data for the generated additional data is that of the original data. In addition, in this experimental example, the additional data generated by the additional data generation unit 42 is performed so that the sum of the learning image and the additional data generated by the additional data generation unit 42 is 50 times the size of the learning image.
学習部40は、学習用の画像および追加データを用いて、ネットワーク36の学習を行う。なお、図3に示すネットワーク36に、学習用の画像および追加データ(以下、「入力画像」という。)を入力する。このとき、入力される画像は、画像における各色要素ごとに、すなわち、R要素、G要素、B要素のそれぞれの3つの画像とされ、それらの各色要素ごとの濃度値としてネットワーク36に入力される。 The learning unit 40 uses the learning images and additional data to train the network 36. The learning images and additional data (hereinafter referred to as "input images") are input to the network 36 shown in Figure 3. At this time, the input images are three images for each color element in the image, i.e., three images for the R element, G element, and B element, and are input to the network 36 as density values for each color element.
また、本実験例においては、学習部40によるネットワーク36の学習は、1回の学習におけるデータ件数であるミニバッチサイズを15、全データについての学習処理の繰替指数である学習エポック数を200とした。これらの値は、実験的に重みパラメータが収束したとみなせる値とされればよく、適宜変更可能である。また、学習を行う際の重みパラメータの変更幅である学習率は初期値を0.005とし、100エポック以降は徐々に現象させるものとした。これは、初期値は比較的大きい値として、重みが極小解とならないようにする一方、学習を重ねた場合においては、発散を避けるため値を小さくしたものである。 In addition, in this experimental example, the learning of the network 36 by the learning unit 40 was performed with a mini-batch size of 15, which is the number of data items in one learning session, and a learning epoch count, which is the repetition index for the learning process for all data, of 200. These values can be changed as appropriate, as long as they are values at which the weight parameters can be considered to have converged experimentally. In addition, the learning rate, which is the amount by which the weight parameters are changed when learning, was initially set to 0.005, and gradually decreased after 100 epochs. This is because the initial value is relatively large to prevent the weights from reaching a local minimum solution, but the value is reduced to avoid divergence as learning is repeated.
このように学習されたネットワーク36に対して、本実施例の支援装置10により分類を行おうとする画像が入力される。前述の通り、本実験例においては、入力画像は224×224ピクセルの大きさとされており、R、G、Bの各色要素ごとの画像として入力される。最初の層50aに入力された入力画像は、順次ネットワーク36における各層50を経て前述の処理が行われる。ネットワーク36の最後に位置する層50tに至る際に、前述の通り全体平均プーリング58が実行される。このとき、ブロック51eの層50sにおける各画像のそれぞれを数値化した上で、入力画像を、ハンナ型間質性膀胱炎、膀胱痛症候群、または、膀胱癌の3分類についての評価を行う。なお、入力される画像の一辺が224ピクセルに満たない場合には、その部分を黒塗りとしてもよいし、あるいは224ピクセルになるように拡大されてもよい。また、一辺が224ピクセルよりも大きい場合には、224ピクセルとなるようにトリミングがなされてもよいし、224ピクセルになるように縮小されてもよい。 An image to be classified by the assistance device 10 of this embodiment is input to the network 36 trained in this manner. As mentioned above, in this experimental example, the input image is 224 x 224 pixels in size and is input as an image for each of the R, G, and B color components. The input image input to the first layer 50a passes sequentially through each layer 50 of the network 36, undergoing the above-mentioned processing. When it reaches the final layer 50t of the network 36, global average pooling 58 is performed as mentioned above. At this time, each image in layer 50s of block 51e is digitized, and the input image is evaluated for one of three classifications: Hanna-type interstitial cystitis, bladder pain syndrome, or bladder cancer. Note that if one side of the input image is less than 224 pixels, that portion may be blacked out or enlarged to 224 pixels. Furthermore, if one side is greater than 224 pixels, it may be trimmed to 224 pixels or reduced to 224 pixels.
このとき、ネットワーク36は、入力された画像に対して、前記3分類のそれぞれについての尤度を出力するようにされている。すなわち、3分類を構成するハンナ型間質性膀胱炎、膀胱痛症候群、膀胱癌、のそれぞれについて、そうであると考えられる尤度を出力する。 At this time, the network 36 is configured to output the likelihood of each of the three classifications for the input image. In other words, it outputs the likelihood that each of the three classifications, Hanna-type interstitial cystitis, bladder pain syndrome, and bladder cancer, is likely to be the case.
出力部38は、上記ネットワーク36の出力に基づき、入力画像が前記3分類のいずれであるかを出力する。具体的にはたとえば、出力された前記3分類のそれぞれの尤度のうち、最も尤度が高いものとされた分類に該当すると出力する。 Based on the output of the network 36, the output unit 38 outputs which of the three categories the input image falls into. Specifically, for example, it outputs that the input image falls into the category with the highest likelihood of each of the three categories output.
図5は、学習済みのネットワーク36に、記憶装置18に記憶された膀胱鏡画像681枚のうち646枚を入力した際の、この出力部38による出力結果をまとめた表である。図5においては、出力部38が分類した前記3分類のそれぞれについて、正解との関係を示している。これによれば、正解がハンナ型間質性膀胱炎である画像についての正解率は82.9%、膀胱痛症候群である画像についての正解率は93.1%、膀胱癌である画像についての正解率は86.5%であった。 Figure 5 is a table summarizing the output results from the output unit 38 when 646 of the 681 cystoscope images stored in the storage device 18 were input to the trained network 36. Figure 5 shows the relationship between the correct answer and each of the three classifications entered by the output unit 38. According to this, the accuracy rate for images where the correct answer was Hannah-type interstitial cystitis was 82.9%, the accuracy rate for images where the correct answer was bladder pain syndrome was 93.1%, and the accuracy rate for images where the correct answer was bladder cancer was 86.5%.
また、図6~図14は、実際の入力画像を、分類結果ごとに示したものである。このうち、図6~図8は、正解がハンナ型間質性膀胱炎である画像に示したものであり、このうち図6は本実施例の支援装置10もハンナ型間質性膀胱炎であると分類した画像である。図7は本実施例の支援装置10が膀胱痛症候群であると分類した画像である。また、図8は本実施例の支援装置10が膀胱癌であると分類した画像である。なお、図6~8、および、後述する図9~11、図12~14においては、判定の根拠となった尤度を画像と合わせて示している。出力部38は、画像と、判定結果と、その判定結果についての尤度を合わせて示すことができる。 Figures 6 to 14 show actual input images for each classification result. Of these, Figures 6 to 8 show images for which the correct answer is Hanna-type interstitial cystitis, and of these, Figure 6 is an image that the support device 10 of this embodiment also classified as Hanna-type interstitial cystitis. Figure 7 is an image that the support device 10 of this embodiment classified as bladder pain syndrome. Also, Figure 8 is an image that the support device 10 of this embodiment classified as bladder cancer. Note that Figures 6 to 8, as well as Figures 9 to 11 and Figures 12 to 14 described below, show the likelihood that served as the basis for the judgment together with the image. The output unit 38 can display the image, the judgment result, and the likelihood for that judgment result together.
図9~11は、正解が膀胱痛症候群である画像に示したものであり、このうち図9は本実施例の支援装置10も膀胱痛症候群であると分類した画像である。図10は本実施例の支援装置10がハンナ型間質性膀胱炎であると分類した画像である。また、図11は本実施例の支援装置10が膀胱癌であると分類した画像である。 Figures 9 to 11 show images for which the correct answer is bladder pain syndrome. Of these, Figure 9 is an image that the support device 10 of this embodiment also classified as bladder pain syndrome. Figure 10 is an image that the support device 10 of this embodiment classified as Hannah type interstitial cystitis. Furthermore, Figure 11 is an image that the support device 10 of this embodiment classified as bladder cancer.
図12~14は、正解が膀胱癌である画像に示したものであり、このうち図12は本実施例の支援装置10も膀胱癌であると分類した画像である。図13は本実施例の支援装置10がハンナ型間質性膀胱炎であると分類した画像である。また、図14は本実施例の支援装置10が膀胱痛症候群であると分類した画像である。 Figures 12 to 14 show images for which the correct answer is bladder cancer. Of these, Figure 12 is an image that the support device 10 of this embodiment also classified as bladder cancer. Figure 13 is an image that the support device 10 of this embodiment classified as Hannah-type interstitial cystitis. Furthermore, Figure 14 is an image that the support device 10 of this embodiment classified as bladder pain syndrome.
さらに出力部38は、本実験例においては、前記3分類、すなわち、ハンナ型間質性膀胱炎、膀胱痛症候群、膀胱癌について行われた出力のうち、膀胱痛症候群、膀胱癌であるとされたものを、ハンナ型間質性膀胱炎でないものと分類することができる。言い換えれば、出力部は、前記3分類の結果に基づいて、ハンナ型間質性膀胱炎である、あるいは、ハンナ型間質性膀胱炎でない、の2分類を出力することができる。 Furthermore, in this experimental example, the output unit 38 can classify the results of the three classifications, i.e., Hanna-type interstitial cystitis, bladder pain syndrome, and bladder cancer, that are determined to be bladder pain syndrome or bladder cancer as not being Hanna-type interstitial cystitis. In other words, the output unit can output two classifications, either Hanna-type interstitial cystitis or not Hanna-type interstitial cystitis, based on the results of the three classifications.
図15は、出力部38による2分類の出力結果をまとめた表である。図15においては、出力部38が分類した前記2分類のそれぞれについて、正解との関係を示している。これによれば、支援装置10の感度は、正解がハンナ型間質性膀胱炎である総画像数に対する、ハンナ型間質性膀胱炎であると判断した画像数の割合、すなわち165/(165+34)であり、82.9%である。また、特異度は、正解がハンナ型間質性膀胱炎でない総画像数に対する、ハンナ型間質性膀胱炎でないと判断した画像数、すなわち416/(416+31)であり、93.1%となる。これによれば、2分類の正解率は89.9%となり、3分類を行った場合に比べて分類の精度が向上する。 Figure 15 is a table summarizing the output results of the two-category classification by the output unit 38. Figure 15 shows the relationship between each of the two categories classified by the output unit 38 and the correct answer. According to this, the sensitivity of the support device 10 is the ratio of the number of images determined to be Hanna-type interstitial cystitis to the total number of images for which the correct answer is Hanna-type interstitial cystitis, that is, 165/(165 + 34), or 82.9%. Furthermore, the specificity is the number of images determined not to be Hanna-type interstitial cystitis to the total number of images for which the correct answer is not Hanna-type interstitial cystitis, that is, 416/(416 + 31), or 93.1%. According to this, the accuracy rate for the two-category classification is 89.9%, which is higher than when three-category classification is performed.
このように、3分類による判断においても、2分類による判断においても、膀胱鏡画像がハンナ型間質性膀胱炎のものであることについて良好な判断が行われていることがわかる。 As such, it can be seen that both the three-category and two-category methods provide good judgment as to whether the cystoscope images are of Hanna-type interstitial cystitis.
図16は、本実施例の支援装置10の受信者動作特性(ROC;receiver operating characteristic)曲線を示している。このうち、実線がハンナ型間質性膀胱炎(truth)に対して、それ以外、すなわち膀胱痛症候群あるいは膀胱癌(false)である場合、破線が膀胱痛症候群(truth)に対して、それ以外、すなわち、膀胱癌あるいはハンナ型間質性膀胱炎(false)である場合、一点鎖線は、膀胱癌(truth)に対して、それ以外、すなわち、ハンナ型間質性膀胱炎あるいは膀胱痛症候群(false)である場合を示している。図16に示すように、いずれのROC曲線も、本実施例の支援装置10による分類が良好であることを示している。また、AUC(各ROC曲線より下側の面積の割合)は、それぞれ実線の場合について0.96、破線について0.98、一点鎖線について0.97であり、いずれについても本実施例の支援装置10の分類器(分類アルゴリズム)の性能が良好であることがわかる。 Figure 16 shows the receiver operating characteristic (ROC) curves of the support device 10 of this embodiment. The solid line represents Hanna-type interstitial cystitis (truth) versus the other condition, i.e., bladder pain syndrome or bladder cancer (false). The dashed line represents bladder pain syndrome (truth) versus the other condition, i.e., bladder cancer or Hanna-type interstitial cystitis (false). The dashed line represents bladder cancer (truth) versus the other condition, i.e., Hanna-type interstitial cystitis or bladder pain syndrome (false). As shown in Figure 16, all ROC curves demonstrate good classification by the support device 10 of this embodiment. Furthermore, the AUC (the ratio of the area under each ROC curve) was 0.96 for the solid line, 0.98 for the dashed line, and 0.97 for the dashed line, respectively. In all cases, it can be seen that the classifier (classification algorithm) of the support device 10 of this embodiment performed well.
本実施例の支援装置10によれば、学習済みのネットワーク36を有する画像処理部34(分類部)を有し、画像処理部34は、画像読み込み部32によって読み込まれた、膀胱鏡によって得られる内視鏡画像について、ハンナ型間質性膀胱炎、膀胱痛症候群、膀胱癌の3分類を行うことができる。 The support device 10 of this embodiment has an image processing unit 34 (classification unit) with a trained network 36, and the image processing unit 34 can classify endoscopic images obtained by a cystoscope and read by the image reading unit 32 into three categories: Hanna-type interstitial cystitis, bladder pain syndrome, and bladder cancer.
また、本実施例の支援装置10によれば、出力部38は、前記3分類の結果に基づいて、ハンナ型間質性膀胱炎とそれ以外の2分類を行うものであるので、直接ハンナ型間質性膀胱炎とそれ以外の2分類を行う場合に比べて、好適な分類結果を得られる。 Furthermore, according to the support device 10 of this embodiment, the output unit 38 performs two classifications, either Hanna-type interstitial cystitis or others, based on the results of the three classifications, thereby obtaining more favorable classification results than when directly performing two classifications, either Hanna-type interstitial cystitis or others.
また、本実施例の支援装置10によれば、ネットワークを学習させるための学習部40と、学習部40による学習用データを記憶する記憶部18と、前記記憶部18に記憶された学習用データに基づいて、追加学習用データを生成する追加データ生成部42と、を有し、前記学習部40は、予め記憶部18に記憶されている学習用データに加え、前記追加学習用データを用いて前記ネットワーク36を学習させるものであるので、学習用データのみが与えられた場合であっても、より多くの学習を行うことができる。 Furthermore, the assistance device 10 of this embodiment includes a learning unit 40 for training the network, a memory unit 18 for storing training data from the learning unit 40, and an additional data generation unit 42 for generating additional training data based on the training data stored in the memory unit 18.The learning unit 40 trains the network 36 using the additional training data in addition to the training data previously stored in the memory unit 18, so that even when only training data is provided, more learning can be performed.
また、本実施例の支援装置10によれば、画像処理部34は、分類結果の尤度を出力するものであるので、尤度を考慮して分類結果の参照が可能となる。
Furthermore, according to the support device 10 of this embodiment, the image processing unit 34 outputs the likelihood of the classification result, so that it is possible to refer to the classification result taking the likelihood into consideration.
つぎに、本発明の他の実施例を説明する。なお、以下の説明において、前述の実施例と共通する部分には同一の符号を附して説明を省略する。 Next, another embodiment of the present invention will be described. In the following description, parts that are common to the previous embodiment will be assigned the same reference numerals and will not be described again.
図17は、本発明の支援装置10を含む医用画像観察支援システム(以下、「支援システム」という。)100の概要を説明する図であり、前述の実施例における図2に対応する図である。 Figure 17 is a diagram illustrating an overview of a medical image observation support system (hereinafter referred to as the "support system") 100 including the support device 10 of the present invention, and corresponds to Figure 2 in the previously described embodiment.
本実施例の支援システム100においては、実施例1の支援装置10に加えて、内視鏡装置102を有するものとされている。そして、前述の実施例1においては、画像読込部32には予め記憶部18に記憶されていた入力画像が入力されていたが、本実施例においては、内視鏡装置102から直接入力される点において異なる。具体的には、内視鏡装置102、すなわち膀胱鏡102にはレリーズスイッチ104が設けられており、施術者が膀胱鏡102において患者の患部を捉えた状態でレリーズスイッチ104を押下することにより、その時点の膀胱鏡画像が画像読込部32に入力されるものとなっている。 The support system 100 of this embodiment includes an endoscopic device 102 in addition to the support device 10 of Embodiment 1. While in the previously described Embodiment 1, an input image previously stored in the memory unit 18 was input to the image reader 32, this embodiment differs in that the input is made directly from the endoscopic device 102. Specifically, the endoscopic device 102, i.e., the cystoscope 102, is provided with a release switch 104. When the practitioner presses the release switch 104 while capturing the affected area of the patient with the cystoscope 102, the cystoscope image at that time is input to the image reader 32.
膀胱鏡102より画像読込部32に入力画像が入力されると、画像読込部32は前述の実施例1と同様にして画像処理部34にその画像を読み込ませ、画像処理部34は学習済みネットワーク36を用いて、入力された入力画像の3分類を行う。また、出力部38はハンナ型間質性膀胱炎、膀胱痛症候群、または、膀胱癌についての3分類の結果を出力するほか、必要に応じて画像処理部34によって算出された尤度を出力したり、前記3分類の結果に基づいて、ハンナ型間質性膀胱炎であるか、否かの2分類の分類を出力する。 When an input image is input to the image reading unit 32 from the cystoscope 102, the image reading unit 32 causes the image processing unit 34 to read the image in the same manner as in Example 1 described above, and the image processing unit 34 then uses the trained network 36 to classify the input image into one of three categories. The output unit 38 also outputs the results of the three-category classification into Hanna-type interstitial cystitis, bladder pain syndrome, or bladder cancer, and, if necessary, outputs the likelihood calculated by the image processing unit 34, or outputs a two-category classification of whether or not the input image is Hanna-type interstitial cystitis based on the results of the three-category classification.
本実施例の支援システム100によれば、内視鏡装置102と、支援装置10と、を含み、内視鏡装置102に設けられたレリーズスイッチ104が操作された場合に、内視鏡装置102から支援装置10に画像が入力されるので、内視鏡装置102による撮像から、支援装置10による画像の分類までを一連の操作として簡便に行うことができる。 The support system 100 of this embodiment includes an endoscope device 102 and a support device 10. When the release switch 104 provided on the endoscope device 102 is operated, an image is input from the endoscope device 102 to the support device 10. This allows the process from capturing images using the endoscope device 102 to classifying the images using the support device 10 to be easily performed as a series of operations.
本実施例は、前述の実施例における画像処理部34、出力部38に対応する別の実施態様である。 This embodiment is an alternative embodiment corresponding to the image processing unit 34 and output unit 38 in the previous embodiment.
図18は、本発明のさらに別の実施例を説明する図であり、画像処理部134、出力部138、および判定統合部139の制御機能の概要を説明するブロック図であり、前述の実施例における図2の画像処理部34および出力部38に代えて用いられる。 Figure 18 is a diagram illustrating yet another embodiment of the present invention, and is a block diagram outlining the control functions of the image processing unit 134, output unit 138, and decision integration unit 139, which are used in place of the image processing unit 34 and output unit 38 in Figure 2 in the previously described embodiment.
図18に示すように、本実施例の画像処理部134は、複数(図18においてはn個)の学習済みネットワーク36a、36b、…、36nを含んで構成されている。学習済みネットワーク36a、36b、…、36nはそれぞれ前述の実施例の学習済みネットワーク36に対応するものであるが、それぞれの学習に用いた学習用データは異なるものでも同じものでもよい。 As shown in Figure 18, the image processing unit 134 of this embodiment is configured to include multiple (n in Figure 18) trained networks 36a, 36b, ..., 36n. Each of the trained networks 36a, 36b, ..., 36n corresponds to the trained network 36 of the previously described embodiment, but the training data used for each network may be different or the same.
また、本実施例の出力部138は、学習済みネットワーク36a、36b、…、36nのそれぞれに対応した出力部38a、38b、…、38nを含んで構成されている。出力部38a、38b、…、38nはそれぞれ前述の実施例における出力部38に対応するものである。従って、出力部38a、38b、…、38nはそれぞれ、対応する学習済みネットワーク36a、36b、…、36nの算出した特徴量に基づいて、分類を行う。ここで、学習済みネットワーク36a、36b、…、36nはそれぞれ異なる学習用データを用いて学習されていることから、共通する判定用画像に対して、個々の出力部38a、38b、…、38nが出力する分類が異なることが生じうる。なお、学習済みネットワーク36a、36b、…、36nおよび出力部38a、38b、…、38nは、複数(すなわちn≧2であればその数は限定されない。 In addition, the output unit 138 in this embodiment is configured to include output units 38a, 38b, ..., 38n corresponding to the trained networks 36a, 36b, ..., 36n, respectively. The output units 38a, 38b, ..., 38n correspond to the output unit 38 in the above-mentioned embodiment. Therefore, the output units 38a, 38b, ..., 38n perform classification based on the features calculated by the corresponding trained networks 36a, 36b, ..., 36n. Here, since the trained networks 36a, 36b, ..., 36n are trained using different training data, the individual output units 38a, 38b, ..., 38n may output different classifications for a common judgment image. Note that there may be multiple trained networks 36a, 36b, ..., 36n and output units 38a, 38b, ..., 38n (i.e., the number is not limited as long as n≧2).
判定統合部139は、複数の出力部38a、38b、…、38nからそれぞれ出力される結果を統合することによって、最終的な判定結果を決定をする。判定統合部139は、それぞれの出力結果の多数決を行うことによって最終的な判定結果としてもよいし、学習済みネットワーク36a、36b、…、36nのそれぞれで算出される尤度を考慮した多数決処理を行うことによって最終的な判定結果としてもよい。 The decision integration unit 139 determines the final decision result by integrating the results output from the multiple output units 38a, 38b, ..., 38n. The decision integration unit 139 may determine the final decision result by taking a majority vote of the individual output results, or by performing majority voting processing that takes into account the likelihood calculated by each of the trained networks 36a, 36b, ..., 36n.
(実験例)
本願発明者らは、本実施例の支援装置10と実施例1の支援装置10とのそれぞれを用いて、複数の膀胱鏡画像からハンナ型間質性膀胱炎の画像を判断する実験を行った。本実験においては84枚の膀胱鏡画像を用意した。その内訳は、ハンナ型間質性膀胱炎の画像が37枚、膀胱癌の画像36枚、膀胱痛症候群の画像が11枚であった。なお、本実施例の支援装置においては、複数のネットワーク36a、36b、…、36nとして、10個のネットワークを用いた。また、統合判定部139による判定は、10個の出力部38a、38b、…による出力結果の多数決、すなわち、出力結果として最も多く出力された判定が採用されるものとした。
(Experimental Example)
The inventors of the present application conducted an experiment to determine images of Hannah interstitial cystitis from multiple cystoscope images using the support device 10 of this embodiment and the support device 10 of Example 1. In this experiment, 84 cystoscope images were prepared. The breakdown of the images was 37 images of Hannah interstitial cystitis, 36 images of bladder cancer, and 11 images of bladder pain syndrome. In the support device of this embodiment, 10 networks were used as the multiple networks 36a, 36b, ..., 36n. Furthermore, the determination by the integrated determination unit 139 was based on a majority vote of the output results from the 10 output units 38a, 38b, ..., i.e., the determination that was most frequently output as the output result was adopted.
実施例1の支援装置10によれば、ハンナ型間質性膀胱炎と判断した画像について、その正解率(正診率)は84.5%であった。一方、本実施例の支援装置10によれば、その正解率は89.2%であった。また、3種類の画像全体の正解率は、実施例1の支援装置10によれば75.3%であり、本実施例の支援装置10によれば79.8%であった。これらの実験によれば、本実施例の支援装置10、すなわち、複数のネットワーク36a、36b、…、36nの判断結果に基づいた判定統合部139の判断は、実施例1の支援装置10、すなわち、一つのネットワーク38による判断よりも、正解率において4%以上の向上が認められる。 When using the support device 10 of Example 1, the accuracy rate (correct diagnosis rate) for images determined to be Hannah type interstitial cystitis was 84.5%. On the other hand, when using the support device 10 of this example, the accuracy rate was 89.2%. Furthermore, the accuracy rate for all three types of images was 75.3% when using the support device 10 of Example 1, and 79.8% when using the support device 10 of this example. These experiments demonstrated that the accuracy rate of the support device 10 of this example, i.e., the judgment by the judgment integration unit 139 based on the judgment results of multiple networks 36a, 36b, ..., 36n, was 4% or more higher than that of the support device 10 of Example 1, i.e., the judgment based on a single network 38.
本実施例の支援装置10によれば、異なる学習データによって学習された複数の学習済みネットワーク36a、36b、…、36nによってそれぞれ算出される尤度を用いて判定用画像の判定を行うことができるので、学習によって生じる統計的な認識誤りを抑えることができる。 The assistance device 10 of this embodiment can determine the image for determination using likelihoods calculated by multiple trained networks 36a, 36b, ..., 36n, each trained using different training data, thereby reducing statistical recognition errors that occur during training.
以上、本発明の一実施例を図面にて詳細に説明したが、本発明はこの実施例に限定されるものではなく、別の態様でも実施されうる。 One embodiment of the present invention has been described in detail above with reference to the drawings, but the present invention is not limited to this embodiment and may be implemented in other forms.
たとえば、前述のネットワーク36は、5つのブロック51から構成されたが、ブロック51の数はこれに限定されるものではない。また、各ブロック51を構成する層50の数も実施例のものに限定されるものではない。 For example, the network 36 described above is composed of five blocks 51, but the number of blocks 51 is not limited to this. Furthermore, the number of layers 50 that make up each block 51 is not limited to that shown in the example.
また、前述の実施例においては、出力部38により尤度が表示されるものとされたが、これは必須のものではない。 Furthermore, in the above-described embodiment, the likelihood is displayed by the output unit 38, but this is not essential.
また、前述の実施例においては、画像処理部34および出力部38が3分類を行う際に、尤度が最も高いものが分類結果となるものとされたが、これに限定されない。たとえば、各分類の尤度の差があるしきい値以内であれば、分類不能とする分類結果を出力してもよいし、確定的な分類結果の出力を行わず、前記所定の範囲内となった分類名とそれら分類の尤度を示すものであってもよい。 In addition, in the above-described embodiment, when the image processing unit 34 and the output unit 38 perform three classifications, the classification result is the one with the highest likelihood, but this is not limited to this. For example, if the difference in likelihood between each classification is within a certain threshold, a classification result indicating that classification is impossible may be output, or a definitive classification result may not be output, but rather the names of classifications that fall within the predetermined range and the likelihood of those classifications may be displayed.
また、学習部40によるネットワーク36の学習の際のパラメータ、すなわち、ミニバッチ数やエポック数は、適宜変更することができる。また、追加データ生成部42が生成する追加データの数も、適宜変更が可能である。 In addition, the parameters used when the learning unit 40 learns the network 36, i.e., the number of mini-batches and the number of epochs, can be changed as appropriate. In addition, the amount of additional data generated by the additional data generation unit 42 can also be changed as appropriate.
また、前述の実施例において、ネットワーク36は、畳み込みネットワーク(CNN)が用いられたが、これに限定されない。ネットワークを用いた3分類が可能な決定器として機能するネットワークであり、大局的な特徴と局所的な特徴を学習することができるネットワークであれば、他の構成を有するネットワークであってもよく、たとえばYOLOのようなものであってもよい。 In addition, in the above-described embodiment, a convolutional network (CNN) was used as the network 36, but this is not limited to this. As long as the network functions as a decision-maker capable of three-way classification using a network and is capable of learning global and local features, it may be a network with a different configuration, such as YOLO.
また、前述の実施例において、支援装置10と内視鏡装置102とが直接専用のケーブルで接続される態様に限られない。支援装置10と内視鏡装置102とがネットワークを介して通信可能とされ、内視鏡装置102が撮影した画像をネットワークを介して支援装置10に送信することにより、支援装置10と内視鏡装置102とが離れた場所に設置されてもよい。また、かかる態様において、支援システム100は、複数の内視鏡装置102が一の支援装置10を共有する構成とされてもよい。 Furthermore, the above-described embodiment is not limited to a configuration in which the support device 10 and the endoscopic device 102 are directly connected by a dedicated cable. The support device 10 and the endoscopic device 102 may be capable of communicating with each other via a network, and images captured by the endoscopic device 102 may be transmitted to the support device 10 via the network, so that the support device 10 and the endoscopic device 102 are installed in separate locations. Furthermore, in such a configuration, the support system 100 may be configured so that multiple endoscopic devices 102 share a single support device 10.
また、本実施例の支援装置10による判断は、膀胱内視鏡102による検査時にリアルタイムで行ってもよく、膀胱鏡検査時には撮影のみを行い、その後撮影した画像を支援装置10に送信して判断を行ってもよい。また、サーバに画像が通信回線(情報ネットワーク)を介して送信され、サーバで判断を行い、その結果を、内視鏡装置に送信する形でもよい。あるいは、内視鏡装置から送信された内視鏡画像がサーバに蓄積され、蓄積された画像に対してオフラインで診断結果を提示する形態でもよい。 In addition, the determination by the assistance device 10 of this embodiment may be made in real time during the examination using the cystoscope 102, or it may be possible to only take images during the cystoscopic examination and then send the captured images to the assistance device 10 for determination. Alternatively, the images may be sent to a server via a communication line (information network), where a determination is made and the results are sent to the endoscope device. Alternatively, the endoscopic images sent from the endoscope device may be stored on a server, and the diagnostic results may be presented offline for the stored images.
また、図3に示したネットワーク36において、たとえば太実線52で示した箇所において3×3畳み込みが行われたが、この畳み込みに加えて、バッチノーマライゼーション、すなわち、1つのミニバッチ内の全データの同一チャネルを、それらの平均が0、分散が1となるように正規化する処理が行われてもよい。 Furthermore, in the network 36 shown in Figure 3, a 3x3 convolution is performed, for example, at the location indicated by the thick solid line 52. In addition to this convolution, batch normalization, i.e., normalizing the same channel of all data within one mini-batch so that their mean is 0 and their variance is 1, may also be performed.
また、前述の実施例では、3分類で膀胱内視鏡画像を分類し、ハンナ型間質性膀胱炎画像を識別するものであったが、4分類以上で膀胱内視鏡画像を分類し、ハンナ型間質性膀胱炎画像を識別するものであってもよい。 In addition, in the above-described embodiment, cystoscopic images were classified into three categories and images of Hannah type interstitial cystitis were identified, but cystoscopic images may be classified into four or more categories and images of Hannah type interstitial cystitis may be identified.
なお、上述したのはあくまでも一実施形態であり、その他一々例示はしないが、本発明はその主旨を逸脱しない範囲で当業者の知識に基づいて種々変更、改良を加えた態様で実施することができる。 The above is merely one embodiment, and although other examples will not be provided, the present invention can be implemented in various forms with various modifications and improvements based on the knowledge of those skilled in the art, without departing from the spirit of the invention.
10:医用画像観察支援装置
34、134:画像処理部(分類部)
36、36a、36b、…、36n:ネットワーク
38、138:出力部(分類部)
40:学習部
42:追加データ生成部
100:医用画像観察支援システム
102:内視鏡装置(膀胱内視鏡)
104:レリーズスイッチ
139:判定統合部
10: Medical image observation support device 34, 134: Image processing unit (classification unit)
36, 36a, 36b, ..., 36n: Networks 38, 138: Output section (classification section)
40: Learning unit 42: Additional data generation unit 100: Medical image observation support system 102: Endoscope device (bladder endoscope)
104: Release switch 139: Judgment integration unit
Claims (6)
学習済みのネットワークを有する分類部を有し、
前記医用画像は、膀胱鏡によって得られる内視鏡画像であり、
前記分類部は、入力された内視鏡画像について、ハンナ型間質性膀胱炎、膀胱痛症候群、膀胱癌の3分類を行うこと、
を特徴とする医用画像観察支援装置。 A medical image observation support device that classifies medical images,
a classifier having a trained network;
the medical image is an endoscopic image obtained by a cystoscope,
the classification unit classifies the input endoscopic image into three categories: Hannah type interstitial cystitis, bladder pain syndrome, and bladder cancer;
A medical image observation support device characterized by:
を特徴とする請求項1の医用画像観察支援装置。 Based on the results of the three classifications, the patient is classified into two categories: Hanna type interstitial cystitis and others.
2. The medical image observation support device according to claim 1, wherein:
前記学習部による学習用データを記憶する記憶部と、
前記記憶部に記憶された学習用データに基づいて、追加学習用データを生成する追加データ生成部と、を有し、
前記学習部は、予め記憶部に記憶されている学習用データに加え、前記追加学習用データを用いて前記ネットワークを学習させること、
を特徴とする請求項1または2に記載の医用画像観察支援装置。 a learning unit for learning the network;
a storage unit that stores data for learning by the learning unit;
an additional data generating unit that generates additional learning data based on the learning data stored in the storage unit,
the learning unit causes the network to learn using the additional learning data in addition to the learning data stored in advance in a storage unit;
3. The medical image observation support device according to claim 1, wherein:
を特徴とする請求項1乃至3のいずれか1に記載の医用画像観察支援装置。 the classification unit outputs a likelihood of the classification result;
4. The medical image observation support device according to claim 1, wherein:
前記複数の分類部の出力に基づいて分類結果を決定する判定統合部を有し、
前記複数の分類部は、対応する複数の前記ネットワークを有すること、
を特徴とする請求項1乃至4のいずれか1に記載の医用画像観察支援装置。 A plurality of the classifiers;
a decision integration unit that determines a classification result based on outputs of the plurality of classification units;
the plurality of classifiers have a corresponding plurality of the networks;
5. The medical image observation support device according to claim 1, wherein:
前記内視鏡装置に設けられたレリーズスイッチが操作された場合に、前記内視鏡装置から前記医用画像観察支援装置に画像が入力されること、
を特徴とする医用画像観察支援システム。 A medical image observation support system including an endoscope apparatus and the medical image observation support apparatus according to any one of claims 1 to 5,
When a release switch provided on the endoscope device is operated, an image is input from the endoscope device to the medical image observation support device;
A medical image observation support system characterized by the above.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021178275A JP7728002B2 (en) | 2021-10-29 | 2021-10-29 | Medical image observation support device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021178275A JP7728002B2 (en) | 2021-10-29 | 2021-10-29 | Medical image observation support device |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023067230A JP2023067230A (en) | 2023-05-16 |
| JP7728002B2 true JP7728002B2 (en) | 2025-08-22 |
Family
ID=86325742
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021178275A Active JP7728002B2 (en) | 2021-10-29 | 2021-10-29 | Medical image observation support device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7728002B2 (en) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000066114A (en) | 1998-08-24 | 2000-03-03 | Olympus Optical Co Ltd | Endoscope device |
| JP2009066090A (en) | 2007-09-12 | 2009-04-02 | Npo Comfortable Urology Network | How to diagnose lower urinary tract disorders |
| WO2018221625A1 (en) | 2017-05-30 | 2018-12-06 | 国立大学法人東北大学 | System and method for diagnostic support using pathological image of skin tissue |
| WO2018225448A1 (en) | 2017-06-09 | 2018-12-13 | 智裕 多田 | Disease diagnosis support method, diagnosis support system and diagnosis support program employing endoscopic image of digestive organ, and computer-readable recording medium having said diagnosis support program stored thereon |
| WO2020012872A1 (en) | 2018-07-09 | 2020-01-16 | 富士フイルム株式会社 | Medical image processing device, medical image processing system, medical image processing method, and program |
| JP2021097728A (en) | 2019-12-19 | 2021-07-01 | キヤノン株式会社 | Information processing device, information processing method and program |
-
2021
- 2021-10-29 JP JP2021178275A patent/JP7728002B2/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000066114A (en) | 1998-08-24 | 2000-03-03 | Olympus Optical Co Ltd | Endoscope device |
| JP2009066090A (en) | 2007-09-12 | 2009-04-02 | Npo Comfortable Urology Network | How to diagnose lower urinary tract disorders |
| WO2018221625A1 (en) | 2017-05-30 | 2018-12-06 | 国立大学法人東北大学 | System and method for diagnostic support using pathological image of skin tissue |
| WO2018225448A1 (en) | 2017-06-09 | 2018-12-13 | 智裕 多田 | Disease diagnosis support method, diagnosis support system and diagnosis support program employing endoscopic image of digestive organ, and computer-readable recording medium having said diagnosis support program stored thereon |
| WO2020012872A1 (en) | 2018-07-09 | 2020-01-16 | 富士フイルム株式会社 | Medical image processing device, medical image processing system, medical image processing method, and program |
| JP2021097728A (en) | 2019-12-19 | 2021-07-01 | キヤノン株式会社 | Information processing device, information processing method and program |
Non-Patent Citations (1)
| Title |
|---|
| 岩城拓弥、秋山佳之、金城真実、河内裕太、野里博和、坂無秀徳、久米春喜、本間之夫、福原浩,人口知能によるハンナ型間質性膀胱炎の内視鏡診断システムの開発,第109回日本泌尿器学会総会,109巻,日本,2021年12月07日,664頁 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023067230A (en) | 2023-05-16 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Goel et al. | Dilated CNN for abnormality detection in wireless capsule endoscopy images | |
| US10482313B2 (en) | Method and system for classification of endoscopic images using deep decision networks | |
| CN111968091A (en) | Method for detecting and classifying lesion areas in clinical image | |
| CN111951276B (en) | Image segmentation method, device, computer equipment and storage medium | |
| US20250349099A1 (en) | Computer-implemented systems and methods for intelligent image analysis using spatio-temporal information | |
| CN114693961A (en) | Fundus photo classification method, fundus image processing method and system | |
| EP4318497A1 (en) | Training method for training artificial neural network for determining breast cancer lesion area, and computing system performing same | |
| CN116848588A (en) | Automatic annotation of health condition features in medical images | |
| Gupta et al. | Addressing catastrophic forgetting for medical domain expansion | |
| Ju et al. | Clean mucosal area detection of gastroenterologists versus artificial intelligence in small bowel capsule endoscopy | |
| Ghaleb Al-Mekhlafi et al. | Hybrid techniques for diagnosing endoscopy images for early detection of gastrointestinal disease based on fusion features | |
| Grinet et al. | Machine learning in breast cancer imaging: a review on data, models and methods | |
| US12087445B2 (en) | Automatic cervical cancer diagnosis system | |
| JP7728002B2 (en) | Medical image observation support device | |
| Deebani et al. | Synergistic transfer learning and adversarial networks for breast cancer diagnosis: benign vs. invasive classification | |
| CN115082718A (en) | Glioma grading method, device, equipment and medium based on histopathology image | |
| US20240013509A1 (en) | Computer-implemented systems and methods for intelligent image analysis using spatio-temporal information | |
| JP2023067219A (en) | Medical image analysis apparatus | |
| Momani et al. | Multi-class Lung Disease Classification Using Convolutional Neural Networks. | |
| CN115239622A (en) | Capsule endoscopy image lesion recognition method based on frequency domain combination transformation attention | |
| Hasan et al. | Semantic lung segmentation from chest X-ray images using seg-net deep CNN model | |
| Buri et al. | Early Kidney Stone Detection Among Patients Using a Deep Learning Model on an Image Dataset | |
| KR102564443B1 (en) | Gastroscopy system with improved reliability of gastroscopy using deep learning | |
| Gopinath et al. | Deep Learning Based Antral Gastritis Detection Using Endoscopic Images | |
| Akter | Machine Learning Approaches for Automated Glaucoma Detection using Clinical Data and Optical Coherence Tomography Images |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241025 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20241122 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20241122 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20250617 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250708 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250804 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7728002 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |