JP6692485B1 - Method, computer and program for generating a difference image based on two images - Google Patents
Method, computer and program for generating a difference image based on two images Download PDFInfo
- Publication number
- JP6692485B1 JP6692485B1 JP2019207738A JP2019207738A JP6692485B1 JP 6692485 B1 JP6692485 B1 JP 6692485B1 JP 2019207738 A JP2019207738 A JP 2019207738A JP 2019207738 A JP2019207738 A JP 2019207738A JP 6692485 B1 JP6692485 B1 JP 6692485B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- bone
- difference
- coordinate set
- deriving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
【課題】骨のリウマチ等による経時的な変化及び当該変化に類似する変化に係る診断について、専門の医師の診断精度及び診断効率を向上させる方法を提供する。【解決手段】第1画像及び第2画像のそれぞれから、1以上の骨を抽出するステップと、前記第1画像から抽出した第1の骨を含む第1部分画像と、前記第2画像から抽出した対応する第2の骨を含む第2部分画像との差分を導出する差分導出ステップ140と、前記差分に基づき差分画像を生成するステップ150とを含む、コンピュータが実行する方法であって、前記差分画像は、前記第1の骨には存在するが、前記第2の骨には存在しない部分に対応する画素と、前記第2の骨には存在するが、前記第1の骨には存在しない部分に対応する画素とが区別できるように生成されることを特徴とする方法。【選択図】図1PROBLEM TO BE SOLVED: To provide a method for improving the diagnostic accuracy and diagnostic efficiency of a specialist doctor for the diagnosis of changes over time due to rheumatism of bone and changes similar to the changes. SOLUTION: A step of extracting one or more bones from each of a first image and a second image, a first partial image including the first bone extracted from the first image, and an extraction from the second image A computer-implemented method comprising: a difference deriving step 140 for deriving a difference from a corresponding second partial image containing a second bone; and a step 150 for generating a difference image based on the difference. The difference image exists in the first bone but does not exist in the second bone, and a pixel corresponding to a portion that does not exist in the second bone and exists in the second bone but exists in the first bone. The method is characterized in that it is generated so that it can be distinguished from pixels corresponding to the non-existing portion. [Selection diagram] Figure 1
Description
本発明は、医療画像処理の技術に関する。 The present invention relates to medical image processing technology.
従来、医療用放射線画像(以下、「X線画像」ともいう。)が利用され、多くの場合には専門の医師により各種診断がなされてきた。特に、従来、X線画像を用いた経時的な骨の変化に係る診断は、専門の医師によってのみなされてきた。 Conventionally, medical radiation images (hereinafter, also referred to as “X-ray images”) have been used, and in many cases, various diagnoses have been made by a specialist doctor. In particular, conventionally, a diagnosis of a bone change over time using an X-ray image has been made only by a specialist doctor.
より詳細には、経時的な骨の変化に係る診断として、時系列的なX線画像の比較読影がシャウカステン等の観察装置を用いて行われてきたが、新たに発生した病変陰影等の経時変化部分は、人体の複雑な正常構造と重なり合って現れることが多いため、専門の医師によってさえ経時変化部分の認識は難しく、当該部分の見落としが生じる場合があった。 More specifically, in order to diagnose changes in bone over time, time-series comparative reading of X-ray images has been performed using an observation device such as Schaukasten. Since the changed portion often overlaps with the complicated normal structure of the human body, it is difficult for even a specialist doctor to recognize the changed portion over time, and the changed portion may be overlooked.
また、上記のようなX線画像の比較読影では、経時変化部分が検出された場合であっても、その正確な位置や範囲、変化の程度等を認識するには、複数のX線画像のたがいに対応する領域を観察と知識とに基づいて選択し、それらの領域をかわるがわる見比べて判断しなければならないため、診断効率が悪いという問題があった。 Further, in the above-described comparative interpretation of X-ray images, even when a time-varying portion is detected, in order to recognize the accurate position, range, degree of change, etc., a plurality of X-ray image There is a problem that the efficiency of diagnosis is poor because it is necessary to select a corresponding region based on observation and knowledge and judge the regions by comparing them with each other.
これに関し、特許文献1には、背骨等の被検体を異なる時点で撮影した2枚の画像を取得し、これらの画像の位置合わせを行った後に、その2枚の画像の差分を算出して差分画像を算出する医療画像診断支援システムが記載されている。 In this regard, in Patent Document 1, two images obtained by photographing a subject such as a spine at different times are acquired, and after these images are aligned, the difference between the two images is calculated. A medical image diagnosis support system for calculating a difference image is described.
特許文献1には、当該文献に記載の医療画像診断支援システムは算出された差分画像は骨転移等の病変部が強調された画像であること等は記載されているものの、当該システムは、骨のリウマチに類する疾患による経時的な変化の診断を支援することに特化したものではない。 Although Patent Document 1 describes that the medical image diagnosis support system described in the document describes that the calculated difference image is an image in which a lesion such as bone metastasis is emphasized, the system does not It is not specialized in assisting in diagnosing changes in rheumatoid diseases over time.
本発明は以上に鑑みてなされたものであり、その課題は、骨のリウマチ等による経時的な変化及び当該変化に類似する変化に係る診断について、専門の医師の診断精度及び診断効率を向上させる方法等を提供することである。 The present invention has been made in view of the above, and its problem is to improve the diagnostic accuracy and the diagnostic efficiency of a specialist doctor with respect to the diagnosis of changes over time due to rheumatism of bone and changes similar to the changes. It is to provide a method.
本発明の実施形態によれば、第1画像及び第2画像のそれぞれから、1以上の骨を抽出するステップと、前記第1画像から抽出した第1の骨を含む第1部分画像と、前記第2画像から抽出した対応する第2の骨を含む第2部分画像との差分を導出する差分導出ステップと、前記差分に基づき差分画像を生成するステップとを含む、コンピュータが実行する方法であって、前記差分画像は、前記第1の骨には存在するが、前記第2の骨には存在しない部分に対応する画素と、前記第2の骨には存在するが、前記第1の骨には存在しない部分に対応する画素とが区別できるように生成されることを特徴とする方法が提供される。 According to an embodiment of the present invention, a step of extracting one or more bones from each of the first image and the second image; a first partial image including the first bone extracted from the first image; A computer-implemented method including a difference deriving step of deriving a difference from a second partial image including the corresponding second bone extracted from the second image, and a step of generating a difference image based on the difference. Then, the difference image exists in the first bone but does not exist in the second bone, and a pixel corresponding to a portion that does not exist in the second bone and the first bone A pixel corresponding to a portion that does not exist in the pixel is generated so that it can be distinguished.
一実施形態において、前記第1の骨には存在するが、前記第2の骨には存在しない部分に対応する前記画素と、前記第2の骨には存在するが、前記第1の骨には存在しない部分に対応する前記画素とは、異なる色を有することができる。 In one embodiment, the pixel corresponding to a portion that is present in the first bone but not in the second bone, and the pixel that is present in the second bone but is in the first bone. Can have a different color than the pixel corresponding to the non-existing portion.
かかる構成によれば、骨が消失している個所と出現している個所とを区別して把握することができるため、骨の消失(症状の増悪)と出現(症状の寛解)との双方が生じ得る疾患、例えばリウマチについての診断により適した差分画像を生成することができる。 According to such a configuration, it is possible to distinguish and identify a part where bones are disappearing and a part where bones are appearing, so that both bone disappearance (exacerbation of symptoms) and appearance (remission of symptoms) occur. It is possible to generate a difference image more suitable for the diagnosis of the obtained disease, for example, rheumatism.
前記第1の骨及び前記第2の骨は、2つの端部と、該2つの端部の間の中間部とから構成されることがあり、一実施形態において、前記差分導出ステップは、前記第1の骨の2つの端部のうちの一方を含み、他方及び中間部を含まない第1端部画像と、前記第2の骨の2つの端部のうち対応する一方を含み、他方及び中間部を含まない第2端部画像とに基づく差分を導出するステップを含むことができる。 The first bone and the second bone may be composed of two end portions and an intermediate portion between the two end portions. In one embodiment, the difference deriving step includes A first end image that includes one of the two ends of the first bone and does not include the other and the middle portion; and a corresponding one of the two ends of the second bone, the other and The method may include deriving a difference based on the second end image that does not include the middle part.
かかる構成によれば、計算量を低減させつつ、主として骨の端部に症状が生じ得る疾患、例えばリウマチについての診断に適した差分画像を生成することができる。
一実施形態である方法は、前記第1画像から、前記第1の骨を構成する座標の集合である第1座標集合を抽出し、前記第2画像から、前記第2の骨を構成する座標の集合である第2座標集合を抽出するステップと、前記第1座標集合及び前記第2座標集合に基づき、前記第1部分画像及び前記第2部分画像の少なくとも一方に対して平行移動、回転及び拡大縮小のうちの少なくとも1つの操作を実行するステップであって、少なくとも一方に対して前記少なくとも1つの操作が実行された前記第1部分画像と前記第2部分画像とを重ねたときに、当該画像上の前記第1の骨及び前記第2の骨が重なるように、前記少なくとも1つの操作を実行するステップと、少なくとも一方に対して前記少なくとも1つの操作が実行された前記第1部分画像と前記第2部分画像から、前記第1端部画像及び前記第2端部画像をそれぞれ抽出するステップとを更に含むことができる。
According to such a configuration, it is possible to generate a difference image suitable for diagnosis of a disease in which a symptom may occur mainly in the end of the bone, for example, rheumatism, while reducing the calculation amount.
A method according to an embodiment is configured such that a first coordinate set, which is a set of coordinates forming the first bone, is extracted from the first image, and coordinates forming the second bone are extracted from the second image. And extracting a second coordinate set which is a set of the first coordinate set and the second coordinate set based on the first coordinate set and the second coordinate set. A step of performing at least one operation of scaling, wherein when the first partial image and the second partial image for which the at least one operation has been performed on at least one are overlapped, Performing the at least one operation so that the first bone and the second bone on the image overlap, and the first partial image in which the at least one operation has been performed for at least one From the second partial image may further include the step of extracting said first end image and the second end image, respectively.
かかる構成によれば、対応した2つの骨における対応した部分を含む、差分を抽出すべき2つの端部画像得ることができる。
一実施形態である方法は、前記第1座標集合から、前記第1の骨の輪郭を構成する座標の集合である第1輪郭座標集合を抽出し、前記第2座標集合から、前記第2の骨の輪郭を構成する座標の集合である第2輪郭座標集合を抽出するステップを更に含むことができ、前記少なくとも1つの操作を実行するステップは、前記第1輪郭座標集合及び前記第2輪郭座標集合にも基づくものであることができる。
According to such a configuration, it is possible to obtain two edge images from which a difference should be extracted, including the corresponding portions of the two corresponding bones.
A method according to an embodiment is configured to extract a first contour coordinate set, which is a set of coordinates forming the contour of the first bone, from the first coordinate set, and to extract the second contour set from the second coordinate set. The method may further include the step of extracting a second contour coordinate set, which is a set of coordinates forming the contour of the bone, and the step of performing the at least one operation may include the first contour coordinate set and the second contour coordinate. It can also be set-based.
かかる構成によれば、より情報量の少ない輪郭座標集合に基づく処理が行えるため、計算量を削減することができる。
一実施形態である方法は、前記第1端部画像と前記第2端部画像との相関が最大となるように、前記第1端部画像及び前記第2端部画像のうちの少なくとも一方に対して平行移動、回転及び拡大縮小の少なくとも1つの操作を実行するステップを更に含むことができ、前記第1端部画像と前記第2端部画像とに基づく前記差分は、少なくとも一方に前記少なくとも1つの操作が実行された前記第1端部画像と前記第2端部画像との差分であることができる。
According to such a configuration, the processing based on the contour coordinate set having a smaller amount of information can be performed, so that the amount of calculation can be reduced.
The method according to an embodiment is configured such that at least one of the first edge image and the second edge image is adjusted so that a correlation between the first edge image and the second edge image is maximized. The method may further include performing at least one operation of translation, rotation, and scaling with respect to the first edge image and the second edge image, the difference based on at least one of the at least one. The difference may be the difference between the first edge image and the second edge image on which one operation has been performed.
かかる構成によれば、差分を抽出すべき2つの端部画像を厳密に位置合わせすることができる。
一実施形態である方法は、前記1以上の骨の各骨について、前記差分画像を生成するステップと、前記第1画像及び前記第2画像の一方に、1以上の前記差分画像を重ねて表示するステップとを更に含むことができる。
With such a configuration, it is possible to exactly align the two end images from which the difference should be extracted.
A method according to an embodiment is the step of generating the difference image for each bone of the one or more bones, and displaying the one or more difference images in an overlapping manner on one of the first image and the second image. The method may further include the step of:
かかる構成によれば、2つの画像における1以上の骨の相違が表された画像を提供することができるために、当該相違に係る専門の医師の診断精度及び診断効率を向上させることができる。 According to such a configuration, it is possible to provide an image showing the difference between one or more bones in the two images, and thus it is possible to improve the diagnostic accuracy and the diagnostic efficiency of the specialist doctor who is involved in the difference.
また、本発明の実施形態によれば、上記方法を実行するコンピュータが提供される。
更に、本発明の実施形態によれば、コンピュータに上記方法を実行させるコンピュータが提供される。
Further, according to an embodiment of the present invention, there is provided a computer that executes the above method.
Further, according to an embodiment of the present invention, there is provided a computer that causes a computer to execute the above method.
本発明によれば、骨のリウマチ等による経時的な変化及び当該変化に類似する変化に係る診断について、専門の医師の診断精度及び診断効率を向上させることができる。 ADVANTAGE OF THE INVENTION According to this invention, the diagnostic accuracy and diagnostic efficiency of a specialist doctor can be improved about the diagnosis regarding the time-dependent change by bone rheumatism etc. and the change similar to the said change.
1 本発明の一実施形態
本発明の一実施形態は、対象の骨を撮影することにより得られた2つの画像間における、当該骨についての相違を表示するための、コンピュータが実行する方法である。なお、以下の説明における骨は、2つの端を有する細長い形状であり、中心軸や向き等を導出又は把握できるもの、例えば手の骨であることを仮定しているが、これに限定されるわけではない。
1 One Embodiment of the Present Invention One embodiment of the present invention is a computer-implemented method for displaying the differences between two images obtained by imaging a bone of interest for that bone. .. It is assumed that the bone in the following description is an elongated shape having two ends and is capable of deriving or grasping the central axis, direction, etc., for example, a bone of the hand, but is not limited to this. Do not mean.
1−1 方法の概要
図1は、2つの画像間における、骨についての相違を表示するための例示方法100の概略的なフローチャートである。
1-1 Method Overview FIG. 1 is a schematic flow chart of an exemplary method 100 for displaying differences in bone between two images.
110は、2つの画像である画像1及び画像2を準備するステップを示している。画像1及び画像2は、手等を撮影したX線画像由来のものであってよい。あるいは、画像1及び画像2は、手等を撮影したMRI画像由来のものであってよい。換言すれば、画像jは輝度情報を有するグレースケール画像であってよい。なお、画像1及び画像2の準備とは、由来するX線画像やMRI画像等の所定の部分を切り出すことや、所定のサイズに変更すること等により、画像1及び画像2を生成することを含んでいてよい。また、画像1及び画像2は、同一の対象を異なる時期に撮影した画像由来のものであってよく、この場合、2つの画像間における骨についての相違は、当該骨の経時的な変化を表すことになるが、画像1及び画像2は、これに限定されるわけではない。図16Aは、例示の画像1又は画像2を表している。 110 shows the step of preparing two images, image 1 and image 2 . The image 1 and the image 2 may be derived from X-ray images of hands and the like. Alternatively, the image 1 and the image 2 may be derived from MRI images of hands and the like. In other words, image j may be a grayscale image with brightness information. Note that the preparation of the images 1 and 2, by cutting a predetermined portion of such X-ray images and MRI images derived and, by such as changing to a predetermined size, to generate an image 1 and image 2 May be included. Further, the image 1 and the image 2 may be derived from images of the same object taken at different times, and in this case, the difference in the bone between the two images represents a change with time of the bone. However, the image 1 and the image 2 are not limited to this. FIG. 16A represents exemplary image 1 or image 2 .
120は、画像1及び画像2から、撮影された1以上の骨1i及び骨2iについての情報をそれぞれ抽出するステップを示している。1以上の骨1i及び骨2iの各々は、例えば手を撮影した場合には、手を構成する各骨(第1末節骨、第1基節骨、種子骨…)に対応するものである。また、1≦i≦n(nは画像1又は画像2に含まれる撮影対象を構成する骨の総数)であり、iが等しい骨1iと骨2iとは、撮影対象における同一の骨を参照するものである。なお、複数の骨を1つの骨とみなしてもよい。 Reference numeral 120 denotes a step of extracting information about one or more captured bones 1i and 2i from the images 1 and 2 , respectively. Each of the one or more bones 1i and 2i corresponds to each bone (first distal phalanx, first proximal phalanx, seed bone ...) When the hand is imaged, for example. Further, 1 ≦ i ≦ n (n is the total number of bones included in the image 1 or the image 2 that form the imaging target), and the bones 1i and 2i having the same i refer to the same bone in the imaging target. It is a thing. Note that the plurality of bones may be regarded as one bone.
130は、画像1及び画像2における、骨1iと骨2iとの関係等を導出するステップを示している。ここでいう関係等は、画像1及び画像2における、骨1iと骨2iの相対的な位置や傾き、縮尺等である。 Reference numeral 130 denotes a step of deriving the relationship between the bone 1i and the bone 2i in the images 1 and 2 . The relationship and the like mentioned here are the relative position and inclination of the bone 1i and the bone 2i , the scale, and the like in the images 1 and 2 .
140は、ステップ130で導出した関係等を用いて、画像1及び画像2における骨1i及び骨2iの差分を導出するステップを示している。
150は、ステップ140で導出した差分に基づき、画像を表示するステップを示している。
Reference numeral 140 denotes a step of deriving the difference between the bone 1i and the bone 2i in the image 1 and the image 2 by using the relationship derived in step 130.
Reference numeral 150 denotes a step of displaying an image based on the difference derived in step 140.
なお、ステップ120〜140は、1≦i≦nである全ての骨1i及び2iについて実行されてよい。
1−2 骨についての情報の抽出について
図2は、骨についての情報を抽出する処理であるステップ120が含むことのできる例示処理200の概略的なフローチャートである。なお、以下の説明で使用するjは、1又は2である。即ち、例示処理200は、画像1及び画像2についてそれぞれ同様の処理が行われることを示している。また、例示処理200は、1≦i≦nである全ての骨1i及び2iについて実行されてよい。
Note that steps 120 to 140 may be executed for all the bones 1i and 2i with 1 ≦ i ≦ n.
1-2 About Extracting Information About Bone FIG. 2 is a schematic flowchart of an exemplary process 200 that can be included in step 120, which is a process for extracting information about bone. Note that j used in the following description is 1 or 2. That is, the example process 200 indicates that the same process is performed on each of the image 1 and the image 2 . Also, the example process 200 may be performed for all bones 1i and 2i with 1 ≦ i ≦ n.
210は、画像jに基づき骨jiについての情報を抽出するための骨抽出モデルを読み込むステップを示している。
220は、画像jからステップ210で読み込んだ骨抽出モデルの入力となるようなデータ構造を有するデータjを得るステップを示しており、例えばw及びhが対応する画像の横方向(x軸方向)および縦方向(y軸方向)の画素数であり、ix,yの値は対応する画像の画素(x,y)の輝度値としたときの以下の配列Iを得るようなものであってよい。
210 shows a step of reading a bone extraction model for extracting information about the bone ji based on the image j .
Reference numeral 220 denotes a step of obtaining the data j having a data structure that becomes the input of the bone extraction model read in step 210 from the image j , for example, the horizontal direction (x-axis direction) of the image to which w and h correspond. And the number of pixels in the vertical direction (y-axis direction), and the value of i x, y is such that the following array I is obtained when the luminance value of the pixel (x, y) of the corresponding image is obtained. Good.
ここで、Iに対して任意の所定の画像処理を行ったときの画素(x,y)の輝度値をi(1) x,yとしたときに、ix,yを Here, when the luminance value of the pixel (x, y) when arbitrary predetermined image processing is performed on I is i (1) x, y , i x, y is
のようなベクトルに置き換えてもよい。従って、m個の画像処理によってi(1) x,y,…,i(m) x,yが得られた場合には、ix,yを May be replaced with a vector such as. Therefore, if i (1) x, y , ..., I (m) x, y is obtained by processing m images, i x, y is
のようなベクトルに置き換えてもよい。ix,yの置き換えられた配列Iが、ステップ220において準備されるデータjとなる。
240は、ステップ210で読み込んだ骨抽出モデルを用いて、データjから、画像jにおいて骨jiに属する画素の座標集合(以下、『骨jiの座標集合』という。)Bjiを抽出するステップを示している。しかしながら、別の例示処理においては、データjではなく、画像jから骨jiの座標集合を抽出してもよい。
May be replaced with a vector such as. The replaced array I of i x, y becomes the data j prepared in step 220.
A step 240 extracts a coordinate set B ji of pixels belonging to the bone ji in the image j (hereinafter, referred to as “coordinate set of bone ji ”) from the data j using the bone extraction model read in step 210. Shows. However, in another exemplary process, the coordinate set of the bone ji may be extracted from the image j instead of the data j .
260は、骨jiの座標集合Bjiから、骨jiの輪郭に対応する画素の輪郭座標集合(以下、『骨jiの輪郭座標集合』という。)Cjiを抽出するステップを示している。
例示処理200によれば、骨jiについての情報の一例として、骨jiの座標集合Bjiと、骨jiの輪郭座標集合Cjiとが抽出されることになる。
260, from the coordinate set B ji bone ji, shows the step of extracting the outline coordinate set of pixels corresponding to the contour of the bone ji (hereinafter, referred to as. "Outline coordinates set of bone ji") a C ji.
According to an exemplary process 200, as an example of information on bone ji, so that the coordinate set B ji bone ji, and the outline coordinates set C ji bone ji are extracted.
1−2−1 骨抽出モデルについて
240において、任意の骨抽出モデルを用いて骨の座標集合を抽出してよい。しかしながら、本発明の一実施形態において、骨jiについての情報は、図12に表された構造を有するニューラルネット1200によって抽出されてよい。そのような実施形態において、ステップ210で読み込まれる骨抽出モデルは、ニューラルネット1200を構成するノードを結ぶ各エッジの重みを示すデータを含んでいてよい。
1-2-1 About Bone Extraction Model At 240, any bone extraction model may be used to extract a set of bone coordinates. However, in one embodiment of the present invention, information about bones ji may be extracted by neural net 1200 having the structure depicted in FIG. In such an embodiment, the bone extraction model read in step 210 may include data indicating the weight of each edge connecting the nodes forming the neural network 1200.
ニューラルネット1200は大きく分けて2つの段(第一段及び第二段)に分かれており、各段は公知のU−net構造を有するニューラルネットに相当する。
1210は、ニューラルネット1200の入力を受ける層(以下、『入力層』という。)を示しており、1220は出力が得られる層(以下、『出力層』という。)を示している。ニューラルネット1200の入力層1210におけるノードの数と、出力層1220におけるノードの数とは等しい。
The neural network 1200 is roughly divided into two stages (first stage and second stage), and each stage corresponds to a known neural network having a U-net structure.
Reference numeral 1210 indicates a layer that receives an input of the neural network 1200 (hereinafter referred to as “input layer”), and 1220 indicates a layer from which an output is obtained (hereinafter referred to as “output layer”). The number of nodes in the input layer 1210 of the neural network 1200 is equal to the number of nodes in the output layer 1220.
ニューラルネット1200の入力は、ステップ220で生成されたデータjに基づくベクトルであってよい。例えば、当該入力は、以下のベクトルI’であってよい。 The input of the neural net 1200 may be a vector based on the data j generated in step 220. For example, the input may be the vector I ′ below.
換言すれば、入力層1210の各ノードに、ベクトルI’の各要素の値が入力されてよい。従って、入力層1210(及び出力層1220)のノード数は、h×w×(m+1)であってよい。 In other words, the value of each element of the vector I ′ may be input to each node of the input layer 1210. Therefore, the number of nodes in the input layer 1210 (and the output layer 1220) may be h × w × (m + 1).
一方、ニューラルネットワーク1200の出力即ち出力層1220の各ノードの値は、以下のベクトルOで表されるものであってよい。 On the other hand, the output of the neural network 1200, that is, the value of each node of the output layer 1220 may be represented by the following vector O.
このとき、ベクトルOの要素のうちの所定のh・w個の要素、例えばo0,0からoh−1,w−1までの要素が、対応する画素の分類値を表すように、ニューラルネット1200は構成することができる。より詳細には、骨の種類ごとに所定の分類値を設け、例えば、画像jの座標(x,y)の画素がある骨の一部を構成するものであるときに、ox,yの値が当該ある骨に対応した所定の分類値又は当該所定の分類値との差が所定の誤差以下となる値となるように、ニューラルネット1200は構成することができる。そのように構成されたニューラルネット1200は、公知の手法を用いてニューラルネット1200を訓練することによって得ることが可能である。 At this time, a predetermined h · w element of the elements of the vector O, for example, an element from o 0,0 to oh 1, w−1 represents the classification value of the corresponding pixel. The net 1200 can be configured. More specifically, provided a predetermined classification value for each type of bone, for example, the image j coordinates (x, y) when it constitutes a part of the bone has pixels, o x, the y The neural network 1200 can be configured such that the value becomes a predetermined classification value corresponding to the certain bone or a value having a difference from the predetermined classification value that is equal to or less than a predetermined error. The neural net 1200 thus configured can be obtained by training the neural net 1200 using a known method.
1−2−2 骨の輪郭座標集合の抽出について
260において、骨jiの輪郭座標集合Cjiは任意の手法によって抽出されてよいが、その一例として以下の手順を取ることが可能である。
1-2-2 Extraction of Bone Contour Coordinate Set At 260, the contour coordinate set C ji of the bone ji may be extracted by an arbitrary method, but the following procedure can be taken as an example.
座標集合Bjiの要素から、骨jiのx軸方向の端点を抽出し、当該端点を輪郭座標集合Cjiの要素に追加し、
座標集合Bjiの要素から、骨jiのy軸方向の端点を抽出し、当該端点を輪郭座標集合Cjiの要素に追加し、
輪郭座標集合Cjiの重複する要素を除去する。
From the elements of the coordinate set B ji , the end points of the bone ji in the x-axis direction are extracted, and the end points are added to the elements of the contour coordinate set C ji ,
From the elements of the coordinate set B ji , the endpoints of the bone ji in the y-axis direction are extracted, and the endpoints are added to the elements of the contour coordinate set C ji ,
Remove the duplicate elements of the contour coordinate set C ji .
1−3 2つの骨の関係等の導出について
図3は、2つの骨の関係等を導出する処理であるステップ130が含むことのできる例示処理300のフローチャートである。
1-3 Derivation of Relationship between Two Bones, etc. FIG. 3 is a flowchart of an exemplary process 300 that can be included in step 130 that is a process of deriving a relationship between two bones.
310は、画像1と画像2との間の、撮影対象のサイズの比を導出するステップを示している。ステップ310は、画像1と画像2とが同一対象を撮影したものであるが、撮影条件等により、当該対象の画像1と画像2上のサイズが異なっている場合に対処することを目的とするものである。 Reference numeral 310 denotes a step of deriving the ratio of the sizes of the imaging target between the image 1 and the image 2 . Step 310 is the image 1 and the image 2 are obtained by photographing the same subject, the photographing conditions, and aims to deal with the case where the size of the images 1 and 2 of the target is different It is a thing.
320は、画像1と画像2における骨1i及び骨2iの、所定の定義に基づく傾きS1i及びS2iをそれぞれ導出するステップを示している。
330は、画像1と画像2における骨1iと骨2iとの間の、所定の定義に基づく補正角度θを導出するステップを示している。
Reference numeral 320 denotes a step of deriving the inclinations S 1i and S 2i of the bone 1i and the bone 2i in the images 1 and 2 based on a predetermined definition, respectively.
Reference numeral 330 denotes a step of deriving a correction angle θ between the bones 1i and 2i in the images 1 and 2 based on a predetermined definition.
1−3−1 画像上の撮影対象のサイズの比の導出について
図4は、画像上の撮影対象のサイズの比の導出をする処理であるステップ310が含むことのできる例示処理400のフローチャートを示している。
1-3-1 Derivation of Size Ratio of Imaging Target on Image FIG. 4 is a flowchart of an exemplary process 400 that can be included in step 310 that is a process of deriving a size ratio of the imaging target on the image. Shows.
410は、所定の定義に基づく骨1iの中心軸及び重心を導出するステップを示しており、420は、所定の定義に基づく骨2iの中心軸及び重心を導出するステップを示している。ステップ410及び420における骨1i及び骨2iの中心軸は、骨1i及び骨2iの輪郭座標集合C1i及びC2iに基づきそれぞれ導出してよい。また、ステップ410及び420における骨1i及び骨2iの重心のx座標は、それぞれ、骨1iの輪郭座標集合C1i及び骨2iの輪郭座標集合C2iが含む各要素のx座標の値の平均であってよく、骨1i及び骨2iの重心のy座標は、骨1iの輪郭座標集合C1i及び骨2iの輪郭座標集合C2iが含む各要素のy座標の値の平均であってよい。 Reference numeral 410 represents a step of deriving the center axis and the center of gravity of the bone 1i based on a predetermined definition, and 420 represents the step of deriving the center axis and the center of gravity of the bone 2i based on the predetermined definition. The central axis of the bone 1i and bone 2i in steps 410 and 420 may derive respectively based on the outline coordinates set C 1i and C 2i bone 1i and bone 2i. Moreover, the x-coordinate of the center of gravity of the bone 1i and bone 2i in steps 410 and 420, respectively, by the average value of x-coordinate of each element included in the outline coordinates set C 2i contour coordinate set C 1i and bone 2i bone 1i be in a, y coordinates of the center of gravity of the bone 1i and bone 2i may be the average of the values of y coordinates of each element included in the outline coordinates set C 2i contour coordinate set C 1i and bone 2i bone 1i.
430は、ステップ410で導出した中心軸が垂直となり、且つ、重心が所定座標となるように、骨1iの輪郭座標集合C1iを座標変換して輪郭座標集合C’1iを導出するステップを示しており、ステップ440は、ステップ420で導出した中心軸が垂直となり、且つ、重心が所定座標となるように、骨2iの輪郭座標集合C2iを座標変換して輪郭座標集合C’2iを導出するステップを示している。なお、ステップ430及び440における『垂直』は、y軸と平行という意味である。 Reference numeral 430 represents a step of deriving the contour coordinate set C ′ 1i by coordinate-transforming the contour coordinate set C 1i of the bone 1i such that the central axis derived in step 410 becomes vertical and the center of gravity has predetermined coordinates. and, step 440, the derived center axis becomes vertical at step 420, and, as the center of gravity has a predetermined coordinate, derive a contour coordinate set C '2i outline coordinate set C 2i bone 2i and coordinate transformation Shows the steps to be taken. Note that “vertical” in steps 430 and 440 means parallel to the y-axis.
参考のため、骨jiの輪郭座標集合Cji及び輪郭座標集合C’jiによって表される例示の図を、図13A及び13Bにそれぞれ示す。1310は骨jiの中心軸を示し、1320は骨jiの重心を示し、1330は所定座標を示している。 For reference, exemplary diagrams represented by the contour coordinate set C ji and the contour coordinate set C ′ ji of the bone ji are shown in FIGS. 13A and 13B, respectively. 1310 indicates the central axis of the bone ji , 1320 indicates the center of gravity of the bone ji , and 1330 indicates the predetermined coordinates.
450は、輪郭座標集合C’11からC’1nまでの全ての和集合C’1を導出するステップを示しており、460は、輪郭座標集合C’21からC’2nまでの全ての和集合C’2を導出するステップを示している。即ち、和集合C’1=C’11∪C’11∪…∪C’1nであり、和集合C’2=C’21∪C’21∪…∪C’2nである。 Reference numeral 450 denotes a step of deriving all the union sets C ′ 1 from the contour coordinate sets C ′ 11 to C ′ 1n , and 460 shows all the union sets from the contour coordinate sets C ′ 21 to C ′ 2n. shows the step of deriving the C '2. That is, the union C ′ 1 = C ′ 11 ∪C ′ 11 ∪ ... ∪C ′ 1n , and the union C ′ 2 = C ′ 21 ∪C ′ 21 ∪ ... ∪C ′ 2n .
470は、和集合C’1が含む要素のy座標の値について、出現頻度が下位p1%となる値と、上位p2%となる値との差D1を導出するステップを示しており、480は、和集合C’2が含む要素のy座標の値について、出現頻度が下位p1%となる値と、上位p2%となる値との差D2を導出するステップを示している。なお、p1及びp2は、それぞれ0%より大きく50%より小さい任意のパーセンテージであってよい。参考のため、和集合C’jによって表される例示の図を、図14に示す。1410は出現頻度が下位p1%となるy座標の値を示し、1420は出現頻度が上位p2%となるy座標の値を示し、1430は、差Djを示している。 Reference numeral 470 denotes a step of deriving a difference D 1 between a value having a lower p 1 % appearance frequency and a value having a higher p 2 % appearance frequency with respect to y coordinate values of elements included in the union C ′ 1. 480 indicates a step of deriving a difference D 2 between a value having a lower p 1 % appearance frequency and a value having a higher p 2 % appearance frequency with respect to y coordinate values of elements included in the union C ′ 2. There is. It should be noted that p 1 and p 2 may each be any percentage greater than 0% and less than 50%. For reference, an exemplary diagram represented by the union C ′ j is shown in FIG. 1410 shows the value of the y-coordinate whose appearance frequency is the lower p 1 %, 1420 shows the value of the y-coordinate whose the appearance frequency is the upper p 2 %, and 1430 shows the difference D j .
490は、ステップ310において用いる比Mとして、D1とD2との比を導出するステップを示している。ステップ490は、D1≦D2の場合はD2/D1をMとして用い、D2≦D1の場合はD1/D2をMとして用いるものであってよい。 Reference numeral 490 denotes a step of deriving the ratio of D 1 and D 2 as the ratio M used in step 310. Step 490 may use D 2 / D 1 as M if D 1 ≦ D 2 and use D 1 / D 2 as M if D 2 ≦ D 1 .
例示処理400によれば、画像上の撮影対象のサイズの比を、撮影対象を構成する全ての骨の画像上のサイズを考慮して求めることができる。
1−3−1−1 骨の中心軸の導出について
ステップ410及び420が含むことのできる、骨jiの中心軸を導出するための例示処理の流れは、以下の通りである。
According to the example process 400, the size ratio of the imaging target on the image can be calculated in consideration of the sizes of all the bones forming the imaging target on the image.
1-3-1-1 Derivation of central axis of bone An example process flow for deriving the central axis of bone ji , which can be included in steps 410 and 420, is as follows.
骨jiの輪郭座標集合Cjiの要素(x,y)においてy座標がとりうる最小値yminから最大値ymaxまでの各値Yを導出し、
各値Yについて、y=YであるCjiの要素におけるx座標の平均値xGを求め、(xG,Y)の集合Gを取得し、
集合Gの要素のy座標の値を説明変数、x座標の値を目的変数とした場合の端回帰分析によって得られる回帰直線を骨jiの中心軸とする。
Derivation of each value Y from the minimum value y min to the maximum value y max that the y coordinate can take in the element (x, y) of the contour coordinate set C ji of the bone ji ,
For each value Y, the average value x G of the x coordinates of the elements of C ji where y = Y is obtained, and the set G of (x G , Y) is obtained,
A regression line obtained by end regression analysis when the y coordinate value of the element of the set G is the explanatory variable and the x coordinate value is the objective variable is the central axis of the bone ji .
なお、上記処理は、骨jiの座標集合Bjiではなく、より情報量の少ない輪郭座標集合Cjiに基づき中心軸を導出することによって、計算量を低減させるものである。
1−3−2 骨の傾きの導出について
図5は、骨の傾きを導出する処理であるステップ320が含むことのできる例示処理500のフローチャートである。
Note that the above processing reduces the calculation amount by deriving the central axis based on the outline coordinate set C ji having a smaller amount of information, instead of the coordinate set B ji of the bone ji .
1-3-2 Derivation of Bone Inclination FIG. 5 is a flowchart of an exemplary process 500 that can be included in step 320, which is a process of deriving a bone inclination.
510は、ステップ10で導出した比Mに基づき、骨2iの輪郭座標集合C2iを座標変換して変換輪郭座標集合C’’2iを導出するステップを示している。この座標変換は、比Mに基づき、骨2iの輪郭座標集合C2iによって表される図形が拡大又は縮小されるように、当該集合の要素が示す座標を移動し、要素を補完し、又は要素を除去するものであってよい。なお、ステップ510においては、骨2iではなく、骨1iの輪郭座標集合C1iを座標変換して変換輪郭座標集合C’’1iを導出してもよい。 Reference numeral 510 denotes a step of performing coordinate transformation of the contour coordinate set C 2i of the bone 2i based on the ratio M derived in step 10 to derive a transformed contour coordinate set C ″ 2i . The coordinate transformation is based on the ratio M, as figure represented by the outline coordinates set C 2i bone 2i is enlarged or reduced by moving the coordinates indicating element of the set is to complement the element or elements May be removed. In the step 510, the bone 2i rather, may derive the transformation outline coordinates set C '' 1i outline coordinate set C 1i bone 1i by coordinate transformation.
520は、輪郭座標集合C1i及び変換輪郭座標集合C’’2iに基づき骨1i及び骨2iの中心軸をそれぞれ導出するステップを示している。なお、上述した例示処理600により骨2iの中心軸を導出する場合には、当該処理におけるCjiをC’’2iに置き換えればよいことに留意されたい。また、ステップ520においては、輪郭座標集合C1i及び変換輪郭座標集合C’’2iではなく、変換輪郭座標集合C’’1i及び輪郭座標集合C2iに基づき骨1i及び骨2iの中心軸をそれぞれ導出してもよい。 Reference numeral 520 denotes a step of deriving the central axes of the bones 1i and 2i based on the contour coordinate set C 1i and the transformed contour coordinate set C ″ 2i . Note that when deriving the central axis of the bone 2i by the above-described exemplary process 600, C ji in the process may be replaced with C ″ 2i . In step 520, the central axes of the bones 1i and 2i are respectively calculated based on the transformed contour coordinate set C ″ 1i and the contour coordinate set C 2i , not the contour coordinate set C 1i and the transformed contour coordinate set C ″ 2i. You may derive it.
530は、傾きS1i及びS2iとして、骨1i及び骨2iの中心軸の傾きをそれぞれ導出するステップを示している。なお、この傾きは、x軸又はy軸と中心軸とがなす角度によって表されてよい。 530, as the slope S 1i and S 2i, shows the step of deriving respective inclination of the central axis of the bone 1i and bone 2i. It should be noted that this inclination may be represented by an angle formed by the x axis or the y axis and the central axis.
なお、例示処理500において、変換輪郭座標集合C’’2iに基づき骨2iの中心軸を導出しているのは、当該中心軸と、変換前の輪郭座標集合C2iに基づく骨2iの中心軸とが厳密に一致しない場合を考慮してのことである。 In the example process 500, the central axis of the bone 2i is derived based on the transformed contour coordinate set C ″ 2i is the central axis of the bone 2i and the central axis of the bone 2i based on the pre-transformed contour coordinate set C 2i. This is in consideration of the case where and do not exactly match.
1−3−3 2つの骨間の補正角度の導出について
図6は、2つの骨間の補正角度を導出するための処理であるステップ330が含むことのできる例示処理600のフローチャートである。
ステップ610は、傾きS1iに基づき、且つ、重心が所定座標となるように、骨1iの座標集合B1iを座標変換して変換座標集合B’1iを導出するステップを示している。なお、座標変換のうち傾きS1iに基づく部分は、骨1iの中心軸が所定の向きとなるような座標変換であってよい。また、骨1iの重心のx座標の値は、骨1iの座標集合B1i又は輪郭座標集合C1iが含む各要素のx座標の値の平均であってよく、骨1iの重心のy座標の値は、骨1iの座標集合B1i又は輪郭座標集合C1iが含む各要素のy座標の値の平均であってよい。
1-3-3 Derivation of Correction Angle between Two Bones FIG. 6 is a flowchart of an exemplary process 600 that can be included in step 330, which is a process for deriving a correction angle between two bones.
Step 610 shows a step of deriving a transformed coordinate set B ′ 1i by performing coordinate transformation on the coordinate set B 1i of the bone 1i based on the inclination S 1i so that the center of gravity has predetermined coordinates. The part of the coordinate conversion based on the inclination S 1i may be a coordinate conversion in which the central axis of the bone 1i has a predetermined orientation. Further, the x-coordinate of the center of gravity of the bone 1i value may be an average of the values of x coordinates of each element included in the set of coordinates B 1i or contour coordinate set C 1i bone 1i, y coordinate of the center of gravity of the bone 1i The value may be an average of the y-coordinate values of each element included in the coordinate set B 1i of the bone 1i or the contour coordinate set C 1i .
620は、比M及び傾きS2iに基づき、且つ、重心が所定座標となるように、骨2iの座標集合B2iを座標変換して変換座標集合B’2iを導出するステップを示している。なお、座標変換のうち比Mに基づく部分は、比Mに基づき、骨2iの座標集合B2iによって表される図形が拡大又は縮小されるように、当該集合の要素が示す座標を移動し、要素を補完し、又は要素を除去するものであってよい。また、傾きS2iに基づく部分は、骨2iの中心軸が所定の向きとなるような座標変換であってよい。更に、骨2iの重心のx座標の値は、変換座標集合B’2i又は変換輪郭座標集合C’’2iが含む各要素のx座標の値の平均であってよく、骨2iの重心のy座標の値は、変換座標集合B’2i又は変換輪郭座標集合C’’2iが含む各要素のy座標の値の平均であってよい。 Reference numeral 620 represents a step of deriving a transformed coordinate set B ′ 2i by performing coordinate transformation on the coordinate set B 2i of the bone 2i based on the ratio M and the slope S 2i so that the center of gravity has predetermined coordinates. In the coordinate conversion, the portion based on the ratio M moves the coordinates indicated by the elements of the set so that the figure represented by the coordinate set B 2i of the bone 2i is enlarged or reduced based on the ratio M. It may complement elements or remove elements. Further, the portion based on the inclination S 2i may be coordinate conversion such that the central axis of the bone 2i has a predetermined orientation. Furthermore, the value of x-coordinate of the center of gravity of the bone 2i may be an average of the values of x coordinates of each element included in the converted coordinate set B '2i or converted outline coordinate set C''2i, the center of gravity of the bone 2i y The coordinate value may be the average of the y coordinate values of the respective elements included in the transformed coordinate set B ′ 2i or the transformed contour coordinate set C ″ 2i .
630は、変換座標集合B’1i及び変換座標集合B’2iに基づき、骨1iと骨2iとの間の補正角度を導出するステップを示している。ステップ630は、具体的には、重心を中心として、変換座標集合B’2iを−φから+φの範囲で角度Δφずつ微小回転させることで変換後座標集合B’’2iを導出したときに、B’1iとB’’2iの間において、任意の所定の定義により定量化された類似度が最大となる回転角度φmaxを求めるステップを含んでいてよく、求められた回転角度φmaxが、導出される補正角度θとなる。なお、任意の所定の定義により定量化された類似度の一例は、ダイス係数である。 Reference numeral 630 denotes a step of deriving a correction angle between the bones 1i and 2i based on the transformed coordinate set B ′ 1i and the transformed coordinate set B ′ 2i . In step 630, specifically, when the transformed coordinate set B ″ 2i is derived by slightly rotating the transformed coordinate set B ′ 2i by an angle Δφ in the range of −φ to + φ with the center of gravity as the center, Between B ′ 1i and B ″ 2i , there may be included a step of obtaining a rotation angle φ max at which the degree of similarity quantified by any predetermined definition is maximum, and the obtained rotation angle φ max is It is the derived correction angle θ. An example of the degree of similarity quantified by an arbitrary predetermined definition is a dice coefficient.
例示処理600は、予め導出された2つの骨の傾きを利用して当該2つの骨のおおよその向きを一致させたうえで、当該2つの骨の重なりが最大となる補正角度を導出することにより、導出される補正角度の精度を保ちつつ、処理速度を向上させるものである。 The exemplary process 600 uses the inclinations of the two previously derived bones to match the approximate orientations of the two bones, and then derives a correction angle that maximizes the overlap of the two bones. The processing speed is improved while maintaining the accuracy of the derived correction angle.
1−4 2つの画像の差分の導出について
図7は、2つの画像の差分を導出する処理であるステップ140が含むことのできる例示処理700のフローチャートである。
1-4 Derivation of Difference between Two Images FIG. 7 is a flowchart of an exemplary process 700 that can be included in step 140, which is a process of deriving the difference between two images.
710は、画像1から骨1iを含む部分画像1iを抽出するステップを示しており、720は、画像2から骨2iを含む部分画像2iを抽出するステップを示している。ステップ710及び720は、骨jiの座標集合Bji又は輪郭座標集合Cjiに基づき、骨jiの重心を基準とした所定範囲の画像を抽出するステップであってよい。また、ステップ710及び720は、部分画像jiを画像iの対応する部分重ね合わせるための平行移動パラメータ(向きや量等を含む。)を導出するステップを含んでいてよい。 Reference numeral 710 represents a step of extracting the partial image 1i including the bone 1i from the image 1 , and 720 represents a step of extracting the partial image 2i including the bone 2i from the image 2 . Steps 710 and 720 may be steps of extracting an image in a predetermined range based on the center of gravity of the bone ji based on the coordinate set B ji of the bone ji or the contour coordinate set C ji . Further, steps 710 and 720 may include the step of deriving a translation parameter (including direction, amount, etc.) for superimposing the partial image ji on the corresponding partial image i .
730は、部分画像1i及び部分画像2iに基づく、骨1iと骨2iとの大局的位置合わせを行うステップを示している。
740は、部分画像1i及び部分画像2iに基づく、骨1iと骨2iとの局所的位置合わせを行うステップを示している。
Reference numeral 730 denotes a step of performing global alignment between the bones 1i and 2i based on the partial images 1 i and 2i .
Reference numeral 740 indicates a step of performing local alignment between the bones 1i and 2i based on the partial images 1 i and 2i .
750は、部分画像1i及び部分画像2iに基づく、骨1iと骨2iとの差分を導出するステップを示している。
1−4−1 大局的位置合わせについて
図8は、大局的位置合わせを行う処理であるステップ730が含むことのできる例示処理800のフローチャートである。
Reference numeral 750 denotes a step of deriving a difference between the bone 1i and the bone 2i based on the partial images 1 i and 2i .
1-4-1 About Global Alignment FIG. 8 is a flowchart of an exemplary process 800 that may include step 730, a process for performing global alignment.
810は、傾きS1iに基づき、且つ、重心が所定座標となるように、部分画像1iを変換して部分画像’1iを導出するステップを示している。なお、この変換のうち傾きS1及び補正角度θに基づく部分は、部分画像1iを傾きS1に応じた角度だけ重心を中心として回転させることによって、部分画像’1iにおいて骨1iの中心軸の向きが垂直となるようにするものであってよい。また、この変換のうち重心を所定座標とするものは、部分画像1iを平行移動させるものである。 Reference numeral 810 represents a step of deriving the partial image ′ 1i by converting the partial image 1i so that the center of gravity has predetermined coordinates based on the inclination S 1i . In this conversion, the portion based on the inclination S 1 and the correction angle θ is rotated about the center of gravity about the center of gravity of the partial image 1i by the angle corresponding to the inclination S 1 , so that the center axis of the bone 1i in the partial image ′ 1i is changed. The orientation may be vertical. Further, in this conversion, the one in which the center of gravity is the predetermined coordinate is to translate the partial image 1i in parallel.
820は、比M、傾きS1i及び補正角度θに基づき、且つ、重心が所定座標となるように、部分画像2iを変換して部分画像’2iを導出するステップを示している。なお、この変換のうち比Mに基づく部分は、比Mに基づき、部分画像2iを拡大縮小するものであってよい。また、この変換のうち傾きS1及び補正角度θに基づく部分は、部分画像’2iを傾きS1及び補正角度θに応じた角度だけ重心を中心として回転させて、部分画像’2iにおいて骨2iの中心軸の向きが垂直となるようにするものであってよい。更に、この変換のうち重心を所定座標とするものは、部分画像2iを平行移動させるものである。部分画像’2iを導出するための変換は、当該画像上の骨2iと、部分画像’1i上の骨1iとの重なりが最大化されるようにするものであってよい。 820, based on the ratio M, the slope S 1i and correction angle theta, and such that the center of gravity is equal to a predetermined coordinate, represents the step of deriving the partial image '2i converts the partial images 2i. The portion of the conversion based on the ratio M may be the one that enlarges or reduces the partial image 2i based on the ratio M. Further, in the portion based on the inclination S 1 and the correction angle θ in this conversion, the partial image ′ 2i is rotated about the center of gravity by an angle corresponding to the inclination S 1 and the correction angle θ, and the bone 2i in the partial image ′ 2i . The central axis may be oriented vertically. Further, of these conversions, the one in which the center of gravity is the predetermined coordinate is to translate the partial image 2i . Partial image 'conversion to derive 2i includes a bone 2i on the image, partial image' may be those overlapping with the bone 1i on 1i is to be maximized.
1−4−2 局所的位置合わせについて
図9は、局所的位置合わせを行う処理であるステップ740が含むことのできる例示処理900のフローチャートである。
1-4-2 About Local Alignment FIG. 9 is a flowchart of an exemplary process 900 that may include step 740, which is a process for performing local alignment.
910は、部分画像’1iから第1端部画像’1iU及び第2端部画像’1iLを抽出するステップを示しており、920は、部分画像’2iから第1端部画像’2iU及び第2端部画像’2iLを抽出するステップを示している。骨jiは2つの端を有する細長い形状であると仮定されており、2つの端部と該2つの端部の間の中間部とから構成されているところ、第1端部画像’1iU及び第1端部画像’2iUは、当該2つの端部のうちの一方のみを含み、他方及び中間部を含まないものであり、第2端部画像’1iL及び第2端部画像’2iLは、当該2つの端部のうち他方のみを含み、一方及び中間部を含まないものであることが好ましい。具体的には、ステップ910及び920は、骨jiの重心を中心として部分画像’jiを上下に分割し、更に、重心付近の画像を除去することによって第1端部画像’jiU及び第2端部画像’jiLを抽出するステップであってよい。なお、除去される画像は、骨jiを中心軸方向に所定の割合含むものであってよく、特に、1割程度含むものであることが好ましい。 910, part 'from 1i first end image' image 'shows the step of extracting the 1IL, 920, the partial image' 1 IU and a second end image first end image from 2i '2 IU and second It shows a step of extracting the edge image ' 2iL . The bone ji is assumed to be an elongated shape with two ends and is composed of two ends and an intermediate portion between the two ends, the first end image ' 1iU and the The one edge image ' 2iU includes only one of the two edge portions and does not include the other and the intermediate portion, and the second edge image' 1iL and the second edge image ' 2iL are It is preferable that only the other of the two end portions is included and one and the middle portion are not included. Specifically, steps 910 and 920 are performed by dividing the partial image ' ji into upper and lower parts with the center of gravity of the bone ji as the center, and further removing the image near the center of gravity to obtain the first end image' jiU and the second end. It may be a step of extracting the partial image ' jiL . The image to be removed may include the bone ji in the central axis direction at a predetermined ratio, and it is particularly preferable that the image include about 10%.
930は、回転不変位相限定相関法(RIPOC)を用いて、第1端部画像’1iUと位置合わせされた第1端部画像’’2iUを生成するステップを示している。第1端部画像’1iUと位置合わせされた第1端部画像’’2iUとは、RIPOCにより導出される相関が最も大きくなるように、原則的には、平行移動、回転及び拡大縮小のうちの1以上の操作が行われた第1端部画像’2iUのことである。ステップ930は、行われた1以上の操作を示すパラメータ(向きや量等。)を導出するステップを含む。なお、第1端部画像’2iUと第1端部画像’’2iUとは同一である場合があること、換言すれば、平行移動、回転及び拡大縮小の何れも行われない場合があることに留意されたい。 930 shows the step of generating a first edge image '' 2 iU aligned with the first edge image '1 iU using the rotation invariant phase only correlation method (RIPOC). The first edge image ' 1iU and the aligned first edge image'' 2iU are, in principle, translated, rotated, and scaled so that the correlation derived by RIPOC is maximized. 2 iU of the first end image ' 2iU on which one or more operations of No. 2 are performed. Step 930 includes the step of deriving parameters (direction, amount, etc.) indicating one or more operations performed. It should be noted that the first edge image ' 2iU and the first edge image'' 2iU may be the same, in other words, translation, rotation, and scaling may not be performed. Please note.
940は、RIPOCを用いて、第2端部画像’1iLと位置合わせされた第2端部画像’’2iLを生成するステップを示している。第2端部画像’1iLと位置合わせされた第2端部画像’’2iLとは、RIPOCにより導出される相関が最も大きくなるように、原則的には平行移動、回転及び拡大縮小のうちの1以上の操作が行われた第2端部画像’2iLのことである。ステップ940は、行われた1以上の操作の量を示すパラメータを導出するステップを含む。なお、第2端部画像’2iLと第1端部画像’’2iLとは同一である場合があること、換言すれば、平行移動、回転及び拡大縮小の何れも行われない場合があることに留意されたい。 940, using RIPOC, shows the step of generating a '2iL' second end image is aligned with 1IL 'second end image. The second end image '' 1iL and the aligned second end image '' 2iL are basically translated, rotated, and scaled so that the correlation derived by RIPOC is maximized. It is the second end image ' 2iL on which one or more operations have been performed. Step 940 includes deriving a parameter that is indicative of the amount of one or more manipulations that have been performed. It should be noted that the second edge image ′ 2iL and the first edge image ″ 2iL may be the same, in other words, translation, rotation, and scaling may not be performed. Please note.
例示処理900において第1端部画像’jiU及び第2端部画像’jiLを抽出するのは、骨jiの両端に着目することを意図したものである。このような手法は、リウマチ等骨の両端に症状が発生する疾患の診断に特に適したものである。また、上述したように、例示処理900は大局的位置合わせの後に実行される。この事前の大局的位置合わせは、RIPOCが適用される2つの画像が、骨1i及び骨2iの中心軸方向におけるほぼ同一の部分のみを含むようにするためのものである。更に、画像間の相関の導出はRIPOCによるものに限られず、任意の手法を用いて画像間の相関を導出することができる。 The purpose of extracting the first end image “ jiU” and the second end image “ jiL ” in the example process 900 is to focus on both ends of the bone ji . Such a method is particularly suitable for diagnosing a disease in which symptoms occur at both ends of bone such as rheumatism. Also, as described above, the example process 900 is performed after global alignment. This preliminary global alignment is for the two images to which the RIPOC is applied to include only substantially the same portion in the central axis direction of the bone 1i and the bone 2i . Further, the derivation of the correlation between images is not limited to that by RIPOC, and the correlation between images can be derived by using an arbitrary method.
1−4−3 差分の導出について
図10は、差分を導出する処理であるステップ750が含むことのできる例示処理1000のフローチャートである。
1-4-3 Regarding Derivation of Difference FIG. 10 is a flowchart of an exemplary process 1000 that can be included in step 750, which is a process of deriving a difference.
1010は、第1端部画像’1iUと第1端部画像’’2iUとの差分DiUを導出するステップを示しており、1020は、第2端部画像’1iLと第2端部画像’’2iLとの差分DiLを導出するステップを示している。導出される差分は、2つの画像における対応する画素の輝度値の差分であってよい。 1010 shows a step of deriving a difference D iU between the first end image “ 1iU and the first end image” 2iU, and 1020 indicates the second end image “ 1iL and the second end image”. 'shows the step of deriving the difference D iL of the 2iL. The derived difference may be the difference between the brightness values of the corresponding pixels in the two images.
1−5 差分に基づく画像の表示について
図11は、差分に基づく画像を表示するための処理であるステップ150が含むことのできる例示処理1100のフローチャートである。
1-5 Display of Image Based on Difference FIG. 11 is a flowchart of an exemplary process 1100 that can be included in step 150 that is a process for displaying an image based on a difference.
1110は、差分DiUに基づき、差分画像iUを生成するステップを示しており、1120は、差分DiLに基づき、差分画像iLを生成するステップを示している。差分を以下の配列Dで表すと、生成される差分画像の座標(x,y)の画素の色(透明度を含む。)は、dx,yの値に応じたものであってよい。 1110 indicates a step of generating a difference image iU based on the difference D iU , and 1120 indicates a step of generating a difference image iL based on the difference D iL . When the difference is represented by the following array D, the color (including transparency) of the pixel at the coordinates (x, y) of the generated difference image may correspond to the value of d x, y .
より詳細には、生成される差分画像の座標(x,y)の画素の色は、dx,yの値から所定の値を減算した値が正の場合と負の場合とで異なっていてよい。例えば、当該値が正の場合には画素の色は赤であり、当該値が負の場合には画素の色は青であってよい。かかる構成によれば、同一の対象を異なる時期に撮影した画像由来の2つの画像に基づき差分画像が生成されている場合、差分画像上の色によって、例えばリウマチの症状が増悪し、過去の骨には存在するが現在の骨には存在しない部分と、例えばリウマチの症状が寛解し、現在の骨には存在するが過去の骨には存在しない部分とを区別することができる。 More specifically, the color of the pixel at the coordinates (x, y) of the generated difference image differs depending on whether the value obtained by subtracting a predetermined value from the value of d x, y is positive or negative. Good. For example, when the value is positive, the pixel color may be red, and when the value is negative, the pixel color may be blue. According to such a configuration, when the difference image is generated based on two images derived from images of the same target taken at different times, the color of the difference image exacerbates, for example, the symptoms of rheumatism and the bones of the past. It is possible to distinguish between a part which is present in the bone but is not present in the present bone and a part which is present in the present bone but is not present in the past bone, for example, in which the symptoms of rheumatism are ameliorated.
また、生成される差分画像の座標(x,y)の画素の色の透明度は、dx,yの値から所定の値を減算した値の絶対値に応じた値であってよい。例えば、当該値の絶対値が大きいほど、画素の色の透明度が小さくなってよい。なお、dx,yの値から所定の値を減算した値が正でない画素の色を透明とした正差分画像と、当該値が負でない画素の色を透明とした負差分画像とを別々に生成してもよい。また、上記所定の値はゼロであってよい。 Further, the transparency of the color of the pixel at the coordinates (x, y) of the generated difference image may be a value corresponding to the absolute value of a value obtained by subtracting a predetermined value from the value of d x, y . For example, the greater the absolute value of the value, the smaller the transparency of the color of the pixel. It should be noted that a positive difference image in which the color of a pixel in which the value obtained by subtracting a predetermined value from the value of d x, y is not positive is transparent and a negative difference image in which the color of a pixel whose value is not negative is transparent are separately provided. May be generated. Further, the predetermined value may be zero.
図15A〜15Eは、それぞれ、第1端部画像’1iUと、第1端部画像’2iUと、正差分画像と、負差分画像と、差分画像iUとの例を表している。1510は第1端部画像’1iUには存在するが第1端部画像’2iUには存在しない骨の部分を示し、1520は第1端部画像’2iUには存在するが第1端部画像’1iUには存在しない骨の部分を示している。なお、実際には、部分1510及び部分1520は異なる色であることが好ましい。 15A to 15E respectively show examples of a first end image “ 1iU” , a first end image “ 2iU , a positive difference image, a negative difference image, and a difference image iU . Reference numeral 1510 denotes a bone portion which is present in the first end image ' 1iU but not present in the first end image' 2iU , and 1520 is a first end image present in the first end image ' 2iU. 'It shows a bone part that does not exist in 1 iU . In practice, it is preferable that the portions 1510 and 1520 have different colors.
1130は、画像1及び画像2の一方に差分画像iU及び差分画像iLを重ね合わせた画像を生成するステップを示している。このステップは、比M、傾きSji、補正角度θ並びにステップ710、720、930及び940において導出されたパラメータ等に基づき、差分画像iU及び差分画像iLを画像1及び画像2の一方の対応する部分に重ね合わせるステップを含む。図16Bは、重ね合わせた画像の一例を表しており、1610は画像1には存在するが画像2には存在しない骨の部分を示し、1620は画像2には存在するが画像1には存在しない骨の部分を示している。なお、実際には、部分1610及び部分1620は異なる色で表示されることが好ましい。 Reference numeral 1130 denotes a step of generating an image in which the difference image iU and the difference image iL are superimposed on one of the image 1 and the image 2 . This step corresponds the difference image iU and the difference image iL to one of the images 1 and 2 based on the ratio M, the slope S ji , the correction angle θ, the parameters derived in steps 710, 720, 930 and 940, and the like. Including the step of overlaying the portions. Figure 16B represents an example of an image superimposed, 1610 is present in the image 1 is shown a portion of the bone which is not present in the image 2, 1620 present in the image 1 is present in the image 2 Not showing the bone part. In practice, it is preferable that the portion 1610 and the portion 1620 are displayed in different colors.
1140は、重ね合わせた画像を表示するステップを示している。
なお、別の例示方法は、ステップ1130及び1140に代えて、上述した正差分画像及び負差分画像のうちの一方又は双方を含む差分画像を直接表示するステップを含んでいてよい。
1140 shows the step of displaying the superimposed images.
Note that another exemplary method may include directly displaying a difference image including one or both of the positive difference image and the negative difference image described above, instead of steps 1130 and 1140.
2 本発明の別の実施形態
本発明の別の実施形態は、手等の骨を撮影することにより得られた2つの画像間における、当該骨についての相違を表示するため方法を実行するコンピュータ、又は、当該方法をコンピュータに実行させるためのプログラムである。
2 Another Embodiment of the Present Invention Another embodiment of the present invention is a computer that executes a method for displaying the difference between two images obtained by imaging a bone of a hand or the like, Alternatively, it is a program for causing a computer to execute the method.
3 コンピュータ
以下、本発明の一実施形態を実施するために用いることができるコンピュータのハードウエア構成の一例について説明する。なお、本発明の一実施形態を実施するために用いることができるコンピュータは任意のものであってよく、例えば、パーソナル・コンピュータやタブレット・コンピュータ、スマートフォン、クラウド上のコンピュータ等である。
3 Computer Hereinafter, an example of a hardware configuration of a computer that can be used for implementing one embodiment of the present invention will be described. It should be noted that any computer can be used to implement the embodiment of the present invention, and examples thereof include a personal computer, a tablet computer, a smartphone, and a computer on a cloud.
図17は、コンピュータのハードウエア構成の一例を表している。同図に示すように、コンピュータ1700は、ハードウエア資源として、主に、プロセッサ1710と、主記憶装置1720と、補助記憶装置1730と、入出力インターフェース1740と、通信インターフェース1750とを備えており、これらはアドレスバス、データバス、コントロールバス等を含むバスライン1760を介して相互に接続されている。なお、バスライン1760と各ハードウエア資源との間には適宜インターフェース回路(図示せず)が介在している場合もある。 FIG. 17 shows an example of the hardware configuration of a computer. As shown in the figure, the computer 1700 mainly includes a processor 1710, a main storage device 1720, an auxiliary storage device 1730, an input / output interface 1740, and a communication interface 1750 as hardware resources. These are connected to each other via a bus line 1760 including an address bus, a data bus, a control bus and the like. An interface circuit (not shown) may be appropriately interposed between the bus line 1760 and each hardware resource.
プロセッサ1710は、コンピュータ全体の制御を行う。なお、1つのコンピュータは複数のプロセッサ1710を含む場合がある。このような場合、以上の説明における『プロセッサ』は、複数のプロセッサ1710の総称であってもよい。 The processor 1710 controls the entire computer. Note that one computer may include a plurality of processors 1710. In such a case, the “processor” in the above description may be a general term for the plurality of processors 1710.
主記憶装置1720は、プロセッサ1710に対して作業領域を提供し、SRAM(Static Random Access Memory)やDRAM(Dynamic Random Access Memory)等の揮発性メモリである。 The main storage device 1720 provides a work area to the processor 1710, and is a volatile memory such as SRAM (Static Random Access Memory) and DRAM (Dynamic Random Access Memory).
補助記憶装置1730は、ソフトウエアであるプログラム等やデータ等を格納する、HDDやSSD、フラッシュメモリ等の不揮発性メモリである。当該プログラムやデータ等は、任意の時点で補助記憶装置1730からバスライン1760を介して主記憶装置1720へとロードされる。補助記憶装置1730は、非一時的コンピュータ可読記憶媒体として参照されることがある。なお、プログラムは、プロセッサに所望の処理を実行させる命令を含むものである。 The auxiliary storage device 1730 is a non-volatile memory such as an HDD, an SSD, or a flash memory that stores software programs and data. The program, data, etc. are loaded from the auxiliary storage device 1730 to the main storage device 1720 via the bus line 1760 at any time. Auxiliary storage 1730 may be referred to as a non-transitory computer-readable storage medium. The program includes an instruction that causes the processor to execute a desired process.
入出力インターフェース1740は、情報を提示すること及び情報の入力を受けることの一方又は双方を行うものであり、デジタル・カメラ、キーボード、マウス、ディスプレイ、タッチパネル・ディスプレイ、マイク、スピーカ、温度センサ等である。 The input / output interface 1740 is for presenting information and / or receiving information input, and is a digital camera, keyboard, mouse, display, touch panel display, microphone, speaker, temperature sensor, or the like. is there.
通信インターフェース1750は、ネットワーク1770と接続されるものであり、ネットワーク1770を介してデータを送受する。通信インターフェース1750とネットワーク1770とは、有線又は無線で接続されうる。通信インターフェース1750は、ネットワークに係る情報、例えば、Wi−Fiのアクセスポイントに係る情報、通信キャリアの基地局に関する情報等も取得することがある。 The communication interface 1750 is connected to the network 1770 and transmits / receives data via the network 1770. The communication interface 1750 and the network 1770 can be connected by wire or wirelessly. The communication interface 1750 may also acquire information related to the network, for example, information related to the Wi-Fi access point, information related to the base station of the communication carrier, and the like.
上に例示したハードウエア資源とソフトウエアとの協働により、コンピュータ1700は、所望の手段として機能し、所望のステップを実行し、所望の機能を実現させることできることは、当業者には明らかであろう。 It will be apparent to those skilled in the art that the computer 1700 can function as a desired means, perform a desired step, and realize a desired function by the cooperation of the hardware resource and the software exemplified above. Let's see
4 むすび
以上、本発明の実施形態の幾つかの例を説明してきたが、これらは例示にすぎず、本発明の技術的範囲を限定するものではないことが理解されるべきである。本開示の趣旨及び範囲から逸脱することなく、実施形態の変更、追加、改良などを適宜行うことができることが理解されるべきである。本発明の技術的範囲は、上述した実施形態のいずれによっても限定されるべきではなく、特許請求の範囲及びその均等物によってのみ規定されるべきである。
4 Conclusion Although some examples of the embodiments of the present invention have been described above, it should be understood that these are merely examples and do not limit the technical scope of the present invention. It should be understood that modifications, additions, improvements, and the like of the embodiments can be appropriately made without departing from the spirit and scope of the present disclosure. The technical scope of the present invention should not be limited by any of the above-described embodiments, but should be defined only by the claims and their equivalents.
1200…ニューラルネット
1210…入力層
1220…出力層
1310…中心軸
1320…重心
1330…所定の座標
1410…出現頻度が下位p1%となるy座標の値
1420…出現頻度が上位p2%となるy座標の値
1430…差
1510…第1端部画像’1iUには存在するが第1端部画像’2iUには存在しない骨の部分
1520…第1端部画像’2iUには存在するが第1端部画像’1iUには存在しない骨の部分
1610…画像1には存在するが画像2には存在しない骨の部分
1620…画像2には存在するが画像1には存在しない骨の部分
1200 ... Neural net 1210 ... Input layer 1220 ... Output layer 1310 ... Center axis 1320 ... Center of gravity 1330 ... Predetermined coordinate 1410 ... Value of y coordinate where appearance frequency is lower p 1 % 1420 ... Appearance frequency is higher p 2 % 'Although the 1iU present first end image' values 1430 ... difference 1510 ... first end image of y-coordinate in the portion 1520 ... first end image '2 IU of bone that are not present in the 2 IU exists but the portion of the bone is not present in the image 1 to the first end image '1 IU present in the portion 1610 ... image 1 of a bone that does not exist is present in the portion 1620 ... image 2 of the bone which is not present in the image 2
Claims (21)
前記第1画像から抽出した第1の骨を含む第1部分画像と、前記第2画像から抽出した対応する第2の骨を含む第2部分画像との差分を導出する差分導出ステップと、
前記差分に基づき差分画像を生成するステップと
を含む、コンピュータが実行する方法であって、
前記差分画像は、前記第1の骨には存在するが、前記第2の骨には存在しない部分に対応する画素と、前記第2の骨には存在するが、前記第1の骨には存在しない部分に対応する画素とが区別できるように生成される
ことを特徴とし、前記第1の骨及び前記第2の骨は、2つの端部と、該2つの端部の間の中間部とから構成され、前記差分導出ステップは、前記第1の骨の2つの端部のうちの一方を含み、他方及び中間部を含まない第1端部画像と、前記第2の骨の2つの端部のうち対応する一方を含み、他方及び中間部を含まない第2端部画像とに基づく差分を導出するステップを含む、方法。 Extracting one or more bones from each of the first image and the second image;
A difference deriving step of deriving a difference between a first partial image including the first bone extracted from the first image and a second partial image including the corresponding second bone extracted from the second image;
Generating a difference image based on the difference
A computer-implemented method, including:
The difference image exists in the first bone but does not exist in the second bone, and a pixel corresponding to a portion that does not exist in the second bone but does exist in the first bone. It is generated so that it can be distinguished from the pixel corresponding to the part that does not exist.
It features a, the first bone and the second bone, and two end portions, is composed of an intermediate portion between the two ends, the difference deriving step, the first bone A first end image that includes one of the two ends of the second bone and does not include the other and the middle part, and a corresponding one of the two ends of the second bone that includes the other and the middle part. Deriving a difference based on the second edge image that is not present.
前記第1画像から、前記第1の骨を構成する座標の集合である第1座標集合を抽出し、前記第2画像から、前記第2の骨を構成する座標の集合である第2座標集合を抽出するステップと、
前記第1座標集合及び前記第2座標集合に基づき、前記第1部分画像及び前記第2部分画像の少なくとも一方に対して平行移動、回転及び拡大縮小のうちの少なくとも1つの操作を実行するステップであって、少なくとも一方に対して前記少なくとも1つの操作が実行された前記第1部分画像と前記第2部分画像とを重ねたときに、当該画像上の前記第1の骨及び前記第2の骨が重なるように、前記少なくとも1つの操作を実行するステップと、
少なくとも一方に対して前記少なくとも1つの操作が実行された前記第1部分画像と前記第2部分画像から、前記第1端部画像及び前記第2端部画像をそれぞれ抽出するステップと
を更に含む方法。 The method according to claim 1 or 2 , wherein
A first coordinate set, which is a set of coordinates forming the first bone, is extracted from the first image, and a second coordinate set is a set of coordinates forming the second bone, from the second image. To extract
A step of performing at least one operation of translation, rotation, and scaling on at least one of the first partial image and the second partial image based on the first coordinate set and the second coordinate set. And when the first partial image and the second partial image for which the at least one operation has been performed on at least one are overlapped, the first bone and the second bone on the image are overlapped. Performing the at least one operation such that
Extracting each of the first edge image and the second edge image from the first partial image and the second partial image on which at least one operation has been performed on at least one of them. ..
前記第1座標集合から、前記第1の骨の輪郭を構成する座標の集合である第1輪郭座標集合を抽出し、前記第2座標集合から、前記第2の骨の輪郭を構成する座標の集合である第2輪郭座標集合を抽出するステップ
を更に含み、前記少なくとも1つの操作を実行するステップは、前記第1輪郭座標集合及び前記第2輪郭座標集合にも基づく、
方法。 The method of claim 3 , wherein
From the first coordinate set, a first contour coordinate set, which is a set of coordinates forming the outline of the first bone, is extracted, and from the second coordinate set, a set of coordinates forming the outline of the second bone is extracted. Further comprising the step of extracting a second contour coordinate set that is a set, wherein the step of performing the at least one operation is also based on the first contour coordinate set and the second contour coordinate set.
Method.
前記第1端部画像と前記第2端部画像との相関が最大となるように、前記第1端部画像及び前記第2端部画像のうちの少なくとも一方に対して平行移動、回転及び拡大縮小の少なくとも1つの操作を実行するステップ
を更に含み、前記第1端部画像と前記第2端部画像とに基づく前記差分は、少なくとも一方に前記少なくとも1つの操作が実行された前記第1端部画像と前記第2端部画像との差分である、方法。 The method according to claim 3 or 4 , wherein
Translation, rotation, and enlargement with respect to at least one of the first edge image and the second edge image so that the correlation between the first edge image and the second edge image is maximized. The method further includes performing at least one operation of reduction, wherein the difference based on the first edge image and the second edge image is the first edge on which the at least one operation is performed. The method, which is the difference between the partial image and the second end image.
前記1以上の骨の各骨について、前記差分画像を生成するステップと、
前記第1画像及び前記第2画像の一方に、1以上の前記差分画像を重ねて表示するステップと
を更に含む方法。 A method according to any one of claims 1 to 5 , wherein
Generating the difference image for each bone of the one or more bones;
Overlaying one or more of the difference images on one of the first image and the second image.
前記第1画像から抽出した第1の骨を含む第1部分画像と、前記第2画像から抽出した対応する第2の骨を含む第2部分画像との差分を導出する差分導出ステップと、
前記差分に基づき差分画像を生成するステップと
を実行するコンピュータであって、
前記差分画像は、前記第1の骨には存在するが、前記第2の骨には存在しない部分に対応する画素と、前記第2の骨には存在するが、前記第1の骨には存在しない部分に対応する画素とが区別できるように生成される
ことを特徴とし、前記第1の骨及び前記第2の骨は、2つの端部と、該2つの端部の間の中間部とから構成され、前記差分導出ステップは、前記第1の骨の2つの端部のうちの一方を含み、他方及び中間部を含まない第1端部画像と、前記第2の骨の2つの端部のうち対応する一方を含み、他方及び中間部を含まない第2端部画像とに基づく差分を導出するステップを含む、コンピュータ。 Extracting one or more bones from each of the first image and the second image;
A difference deriving step of deriving a difference between a first partial image including the first bone extracted from the first image and a second partial image including the corresponding second bone extracted from the second image;
Generating a difference image based on the difference
A computer running
The difference image exists in the first bone but does not exist in the second bone, and a pixel corresponding to a portion that does not exist in the second bone but does exist in the first bone. It is generated so that it can be distinguished from the pixel corresponding to the part that does not exist.
It features a, the first bone and the second bone, and two end portions, is composed of an intermediate portion between the two ends, the difference deriving step, the first bone A first end image that includes one of the two ends of the second bone and does not include the other and the middle part, and a corresponding one of the two ends of the second bone that includes the other and the middle part. A computer comprising deriving a difference based on the second edge image that is not present.
前記第1画像から、前記第1の骨を構成する座標の集合である第1座標集合を抽出し、前記第2画像から、前記第2の骨を構成する座標の集合である第2座標集合を抽出するステップと、
前記第1座標集合及び前記第2座標集合に基づき、前記第1部分画像及び前記第2部分画像の少なくとも一方に対して平行移動、回転及び拡大縮小のうちの少なくとも1つの操作を実行するステップであって、少なくとも一方に対して前記少なくとも1つの操作が実行された前記第1部分画像と前記第2部分画像とを重ねたときに、当該画像上の前記第1の骨及び前記第2の骨が重なるように、前記少なくとも1つの操作を実行するステップと、
少なくとも一方に対して前記少なくとも1つの操作が実行された前記第1部分画像と前記第2部分画像から、前記第1端部画像及び前記第2端部画像をそれぞれ抽出するステップと
を更に実行するコンピュータ。 The computer according to claim 7 or 8 , wherein
A first coordinate set, which is a set of coordinates forming the first bone, is extracted from the first image, and a second coordinate set is a set of coordinates forming the second bone, from the second image. To extract
A step of performing at least one operation of translation, rotation, and scaling on at least one of the first partial image and the second partial image based on the first coordinate set and the second coordinate set. And when the first partial image and the second partial image for which the at least one operation has been performed on at least one are overlapped, the first bone and the second bone on the image are overlapped. Performing the at least one operation such that
And further extracting each of the first end image and the second end image from the first partial image and the second partial image on which at least one operation has been performed on at least one of them. Computer.
前記第1座標集合から、前記第1の骨の輪郭を構成する座標の集合である第1輪郭座標集合を抽出し、前記第2座標集合から、前記第2の骨の輪郭を構成する座標の集合である第2輪郭座標集合を抽出するステップ
を更に実行し、前記少なくとも1つの操作を実行するステップは、前記第1輪郭座標集合及び前記第2輪郭座標集合にも基づく、
コンピュータ。 The computer according to claim 9 ,
From the first coordinate set, a first contour coordinate set, which is a set of coordinates forming the outline of the first bone, is extracted, and from the second coordinate set, a set of coordinates forming the outline of the second bone is extracted. Further performing a step of extracting a second contour coordinate set, the step of performing the at least one operation is also based on the first contour coordinate set and the second contour coordinate set,
Computer.
前記第1端部画像と前記第2端部画像との相関が最大となるように、前記第1端部画像及び前記第2端部画像のうちの少なくとも一方に対して平行移動、回転及び拡大縮小の少なくとも1つの操作を実行するステップ
を更に実行し、前記第1端部画像と前記第2端部画像とに基づく前記差分は、少なくとも一方に前記少なくとも1つの操作が実行された前記第1端部画像と前記第2端部画像との差分である、コンピュータ。 The computer according to claim 9 or 10 , wherein
Translation, rotation, and enlargement with respect to at least one of the first edge image and the second edge image so that the correlation between the first edge image and the second edge image is maximized. The step of performing at least one operation of reduction is further executed, and the difference based on the first edge image and the second edge image is the first at which the at least one operation has been performed on at least one. A computer, which is the difference between the edge image and the second edge image.
前記1以上の骨の各骨について、前記差分画像を生成するステップと、
前記第1画像及び前記第2画像の一方に、1以上の前記差分画像を重ねて表示するステップと
を更に実行するコンピュータ。 The computer according to any one of claims 7 to 11 ,
Generating the difference image for each bone of the one or more bones;
And a step of superimposing one or more of the difference images on one of the first image and the second image.
前記第1画像から抽出した第1の骨を含む第1部分画像と、前記第2画像から抽出した対応する第2の骨を含む第2部分画像との差分を導出する差分導出ステップと、
前記差分に基づき差分画像を生成するステップと
をコンピュータに実行させるプログラムであって、
前記差分画像は、前記第1の骨には存在するが、前記第2の骨には存在しない部分に対応する画素と、前記第2の骨には存在するが、前記第1の骨には存在しない部分に対応する画素とが区別できるように生成される
ことを特徴とし、前記第1の骨及び前記第2の骨は、2つの端部と、該2つの端部の間の中間部とから構成され、前記差分導出ステップは、前記第1の骨の2つの端部のうちの一方を含み、他方及び中間部を含まない第1端部画像と、前記第2の骨の2つの端部のうち対応する一方を含み、他方及び中間部を含まない第2端部画像とに基づく差分を導出するステップを含む、プログラム。 Extracting one or more bones from each of the first image and the second image;
A difference deriving step of deriving a difference between a first partial image including the first bone extracted from the first image and a second partial image including the corresponding second bone extracted from the second image;
Generating a difference image based on the difference
A program that causes a computer to execute
The difference image exists in the first bone but does not exist in the second bone, and a pixel corresponding to a portion that does not exist in the second bone but does exist in the first bone. It is generated so that it can be distinguished from the pixel corresponding to the part that does not exist.
It features a, the first bone and the second bone, and two end portions, is composed of an intermediate portion between the two ends, the difference deriving step, the first bone A first end image that includes one of the two ends of the second bone and does not include the other and the middle part, and a corresponding one of the two ends of the second bone that includes the other and the middle part. A program comprising deriving a difference based on the second edge image that is not present.
前記第1画像から、前記第1の骨を構成する座標の集合である第1座標集合を抽出し、前記第2画像から、前記第2の骨を構成する座標の集合である第2座標集合を抽出するステップと、
前記第1座標集合及び前記第2座標集合に基づき、前記第1部分画像及び前記第2部分画像の少なくとも一方に対して平行移動、回転及び拡大縮小のうちの少なくとも1つの操作を実行するステップであって、少なくとも一方に対して前記少なくとも1つの操作が実行された前記第1部分画像と前記第2部分画像とを重ねたときに、当該画像上の前記第1の骨及び前記第2の骨が重なるように、前記少なくとも1つの操作を実行するステップと、
少なくとも一方に対して前記少なくとも1つの操作が実行された前記第1部分画像と前記第2部分画像から、前記第1端部画像及び前記第2端部画像をそれぞれ抽出するステップと
をコンピュータに更に実行させるプログラム。 The program according to claim 13 or 14 , wherein
A first coordinate set, which is a set of coordinates forming the first bone, is extracted from the first image, and a second coordinate set is a set of coordinates forming the second bone, from the second image. To extract
Performing at least one operation of translation, rotation, and scaling on at least one of the first partial image and the second partial image based on the first coordinate set and the second coordinate set. And when the first partial image and the second partial image for which the at least one operation has been performed on at least one of them are overlapped, the first bone and the second bone on the image are overlapped. Performing the at least one operation such that
A step of extracting the first end image and the second end image from the first partial image and the second partial image on which at least one operation has been performed on at least one, respectively; The program to run.
前記第1座標集合から、前記第1の骨の輪郭を構成する座標の集合である第1輪郭座標集合を抽出し、前記第2座標集合から、前記第2の骨の輪郭を構成する座標の集合である第2輪郭座標集合を抽出するステップ
をコンピュータに更に実行させ、前記少なくとも1つの操作を実行するステップは、前記第1輪郭座標集合及び前記第2輪郭座標集合にも基づく、
プログラム。 The program according to claim 15 ,
From the first coordinate set, a first contour coordinate set, which is a set of coordinates forming the outline of the first bone, is extracted, and from the second coordinate set, a set of coordinates forming the outline of the second bone is extracted. Causing the computer to further execute a step of extracting a second contour coordinate set that is a set, and the step of performing the at least one operation is also based on the first contour coordinate set and the second contour coordinate set.
program.
前記第1端部画像と前記第2端部画像との相関が最大となるように、前記第1端部画像及び前記第2端部画像のうちの少なくとも一方に対して平行移動、回転及び拡大縮小の少なくとも1つの操作を実行するステップ
をコンピュータに更に実行させ、前記第1端部画像と前記第2端部画像とに基づく前記差分は、少なくとも一方に前記少なくとも1つの操作が実行された前記第1端部画像と前記第2端部画像との差分である、プログラム。 The program according to claim 15 or 16 , wherein
Translation, rotation, and enlargement with respect to at least one of the first edge image and the second edge image so that the correlation between the first edge image and the second edge image is maximized. The step of performing at least one operation of reduction is further executed by the computer, and the difference based on the first edge image and the second edge image is the at least one operation performed by the at least one operation. A program that is a difference between a first edge image and the second edge image.
前記1以上の骨の各骨について、前記差分画像を生成するステップと、
前記第1画像及び前記第2画像の一方に、1以上の前記差分画像を重ねて表示するステップと
をコンピュータに更に実行させるプログラム。 The program according to any one of claims 13 to 17 ,
Generating the difference image for each bone of the one or more bones;
And a step of superimposing one or more of the difference images on one of the first image and the second image and displaying the difference image.
前記第1画像から抽出した第1の骨を含む第1部分画像と、前記第2画像から抽出した対応する第2の骨を含む第2部分画像との差分を導出する差分導出ステップと
を含む、コンピュータが実行する方法であって、前記第1の骨及び前記第2の骨は、2つの端部と、該2つの端部の間の中間部とから構成され、前記差分導出ステップは、前記第1の骨の2つの端部のうちの一方を含み、他方及び中間部を含まない第1端部画像と、前記第2の骨の2つの端部のうち対応する一方を含み、他方及び中間部を含まない第2端部画像とに基づく差分を導出するステップを含む、方法。 Extracting one or more bones from each of the first image and the second image;
A difference deriving step of deriving a difference between the first partial image including the first bone extracted from the first image and the second partial image including the corresponding second bone extracted from the second image;
A computer-implemented method, the first bone and the second bone comprising two ends and an intermediate portion between the two ends, wherein the difference deriving step Includes a first end image that includes one of the two ends of the first bone and does not include the other and the middle, and a corresponding one of the two ends of the second bone. , Deriving a difference based on the other and the second edge image that does not include the middle portion.
前記第1画像から抽出した第1の骨を含む第1部分画像と、前記第2画像から抽出した対応する第2の骨を含む第2部分画像との差分を導出する差分導出ステップと
を実行するコンピュータであって、前記第1の骨及び前記第2の骨は、2つの端部と、該2つの端部の間の中間部とから構成され、前記差分導出ステップは、前記第1の骨の2つの端部のうちの一方を含み、他方及び中間部を含まない第1端部画像と、前記第2の骨の2つの端部のうち対応する一方を含み、他方及び中間部を含まない第2端部画像とに基づく差分を導出するステップを含む、コンピュータ。 Extracting one or more bones from each of the first image and the second image;
A difference deriving step of deriving a difference between the first partial image including the first bone extracted from the first image and the second partial image including the corresponding second bone extracted from the second image;
A computer for execution, the first bone and the second bone, and two end portions, is composed of an intermediate portion between the two ends, the difference deriving step, the second A first end image that includes one of the two ends of one bone and does not include the other and the middle, and a corresponding one of the two ends of the second bone that includes the other and the middle A computer comprising the step of deriving a difference based on a second edge image that does not include a copy.
前記第1画像から抽出した第1の骨を含む第1部分画像と、前記第2画像から抽出した対応する第2の骨を含む第2部分画像との差分を導出する差分導出ステップと
をコンピュータに実行させるプログラムであって、前記第1の骨及び前記第2の骨は、2つの端部と、該2つの端部の間の中間部とから構成され、前記差分導出ステップは、前記第1の骨の2つの端部のうちの一方を含み、他方及び中間部を含まない第1端部画像と、前記第2の骨の2つの端部のうち対応する一方を含み、他方及び中間部を含まない第2端部画像とに基づく差分を導出するステップを含む、プログラム。 Extracting one or more bones from each of the first image and the second image;
A difference deriving step of deriving a difference between the first partial image including the first bone extracted from the first image and the second partial image including the corresponding second bone extracted from the second image;
A program for causing a computer to execute: the first bone and the second bone are composed of two end portions and an intermediate portion between the two end portions, and the difference deriving step includes: A first end image that includes one of the two ends of the first bone and does not include the other and an intermediate portion, and a corresponding one of the two ends of the second bone, and the other And a step of deriving a difference based on the second end image not including the middle part.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019207738A JP6692485B1 (en) | 2019-11-18 | 2019-11-18 | Method, computer and program for generating a difference image based on two images |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019207738A JP6692485B1 (en) | 2019-11-18 | 2019-11-18 | Method, computer and program for generating a difference image based on two images |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP6692485B1 true JP6692485B1 (en) | 2020-05-13 |
| JP2021078657A JP2021078657A (en) | 2021-05-27 |
Family
ID=70549715
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019207738A Active JP6692485B1 (en) | 2019-11-18 | 2019-11-18 | Method, computer and program for generating a difference image based on two images |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6692485B1 (en) |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008018059A (en) * | 2006-07-13 | 2008-01-31 | Konica Minolta Medical & Graphic Inc | Diagnostic information generation system |
| KR100853187B1 (en) * | 2006-12-07 | 2008-08-20 | 한국전자통신연구원 | Method for obtaining image of extracting phalangeal boundaries and System thereof |
| JP4613317B2 (en) * | 2007-01-17 | 2011-01-19 | 国立大学法人 大分大学 | Subtraction method for detecting temporal changes from two chest X-ray images that are temporally continuous |
| JP6363575B2 (en) * | 2015-09-29 | 2018-07-25 | 富士フイルム株式会社 | Image alignment apparatus and method, and program |
| JP6493884B2 (en) * | 2016-03-09 | 2019-04-03 | 富士フイルム株式会社 | Image display control apparatus and method, and program |
-
2019
- 2019-11-18 JP JP2019207738A patent/JP6692485B1/en active Active
Also Published As
| Publication number | Publication date |
|---|---|
| JP2021078657A (en) | 2021-05-27 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN111192356B (en) | Method, device, equipment and storage medium for displaying region of interest | |
| US10424067B2 (en) | Image processing apparatus, image processing method and storage medium | |
| JP6824845B2 (en) | Image processing systems, equipment, methods and programs | |
| US10395380B2 (en) | Image processing apparatus, image processing method, and storage medium | |
| US20160180526A1 (en) | Image processing apparatus, image processing method, image processing system, and non-transitory computer-readable storage medium | |
| US20220108540A1 (en) | Devices, systems and methods for generating and providing image information | |
| JP7585429B2 (en) | Information processing device, information processing method, and program | |
| US20180064409A1 (en) | Simultaneously displaying medical images | |
| WO2020215485A1 (en) | Fetal growth parameter measurement method, system, and ultrasound device | |
| US20190066280A1 (en) | Image processing apparatus, image processing method, and image processing system | |
| JP2019028887A (en) | Image processing method | |
| CN118037714A (en) | GPU-based medical endoscope image processing method, system and medium | |
| JPH06251038A (en) | Medical diagnosis support system | |
| Jiao et al. | Deep learning for automatic detection of cephalometric landmarks on lateral cephalometric radiographs using the Mask Region-based Convolutional Neural Network: a pilot study | |
| JPWO2007000940A1 (en) | Abnormal shadow candidate detection method, abnormal shadow candidate detection device | |
| US9286688B2 (en) | Automatic segmentation of articulated structures | |
| JP6692485B1 (en) | Method, computer and program for generating a difference image based on two images | |
| Hernandez-Matas et al. | Super resolution for fundoscopy based on 3D image registration | |
| JP2015023997A (en) | Diagnosis support apparatus and diagnosis support method, and diagnosis support program | |
| JP6155177B2 (en) | Computer program, apparatus and method for causing image diagnosis support apparatus to execute image processing | |
| EP3662835B1 (en) | Image processing device, image processing method, image processing system, and program | |
| Neeraja et al. | A review on automatic cephalometric landmark identification using artificial intelligence techniques | |
| US12374002B2 (en) | Image processing apparatus, method and program, learning apparatus, method and program, and derivation model | |
| JP2017189394A (en) | Information processing apparatus and information processing system | |
| US20230027544A1 (en) | Image alignment apparatus, method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191121 |
|
| A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191121 |
|
| A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191206 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191212 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200207 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200403 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200414 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6692485 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |