WO2020054503A1 - 機械学習装置、推定装置、プログラム及び学習済みモデル - Google Patents
機械学習装置、推定装置、プログラム及び学習済みモデル Download PDFInfo
- Publication number
- WO2020054503A1 WO2020054503A1 PCT/JP2019/034558 JP2019034558W WO2020054503A1 WO 2020054503 A1 WO2020054503 A1 WO 2020054503A1 JP 2019034558 W JP2019034558 W JP 2019034558W WO 2020054503 A1 WO2020054503 A1 WO 2020054503A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- deformation
- shape
- shape model
- model
- minute region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10076—4D tomography; Time-sequential 3D tomography
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30061—Lung
- G06T2207/30064—Lung nodule
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
Definitions
- the present invention relates to a machine learning device, an estimation device, a program, and a learned model.
- Non-Patent Document 1 a method of simulating the deformation of an organ (Non-Patent Document 1) or a method of simulating the deformation of an organ using a model that has learned the deformation of an elastic body due to tension ( There is also Non-Patent Document 2).
- Non-Patent Document 1 has a problem that it is difficult to actually measure mechanical characteristics and physical conditions unique to a patient, and the method described in Non-Patent Document 2 simulates deformation of artificial data generated by simulation. Stays on.
- the present invention aims to generate a learned model with higher estimation accuracy than in the case of learning deformation in units of the entire shape.
- the learning unit When generating the fourth shape model in which the third shape model is changed, the learning unit includes: a feature amount including a difference value between each minute region of the third shape model and another minute region; The machine learning device according to claim 1, wherein the relationship that gives a displacement from each minute region of the model to each corresponding minute region of the fourth shape model is also learned.
- the feature amount includes a coordinate that gives each minute region, a gradient or a normal vector that defines each minute region, a curvature that defines each minute region, a Voronoi area of each minute region, and a minute minute.
- the machine learning device is defined by one or more of a contraction rate of a region and a shift amount of each minute region from a corresponding region of an average shape model.
- the difference value that gives the feature amount is calculated between 5% or more of the minute regions of all minute regions constituting the first shape model.
- the machine learning device 1.
- the invention according to claim 5 is the machine learning device according to claim 1 or 2, wherein the learning unit learns the relationship using a kernel regression model.
- the invention according to claim 6 is the machine learning device according to claim 1 or 2, wherein the measurement data before and after the deformation is medical image data.
- the deformation is a degassing deformation of the lung
- medical image data of a lung of a patient who has been treated for pneumothorax is used as the measurement data before the deformation due to the degassing, and after the deformation due to the degassing.
- the invention according to claim 8 is the machine learning device according to claim 6, wherein the deformation includes deformation of an organ or movement of a position of the organ due to respiration or due to a change in time or a difference between samples. is there.
- the invention according to claim 9 is the machine learning device according to claim 1, wherein the first shape model and the second shape model are three-dimensional vertex models.
- the computer generates a first shape model representing the shape of the object before deformation and a second shape model representing the shape of the object after deformation based on the measurement data before and after the deformation.
- a function of learning a relationship that gives a displacement to each corresponding minute area.
- a difference value between each minute region and another minute region in the first shape model generated from the measurement data before deformation is calculated.
- the arbitrary measurement data is obtained by using a learned model that has learned a relationship between the included feature quantity and each minute area of the first shape model to each corresponding minute area of the deformed second shape model.
- the estimating unit calculates a feature amount including a difference value between a minute region of a shape model generated with respect to the input measurement data and another minute region, and 12.
- a displacement of a feature amount corresponding to a region is estimated by interpolation of a relationship stored in the learned model.
- the distance between each minute region and another minute region in the first shape model generated from the measurement data before deformation is obtained.
- a feature value including a difference value between each minute region and another minute region in the first shape model generated from the measurement data before deformation is input, and A relation is set to output the displacement from each minute region of the shape model to the corresponding minute region of the second shape model after deformation, and when given measurement data is given, the relationship is used by using the above relationship.
- the invention according to claim 15 is a generation unit that generates a shape model representing an individual shape of the first object and an average shape model based on the measurement data of the plurality of first objects; A distribution of a feature amount including a difference value between each of the minute regions forming the shape model representing the shape and the corresponding minute region of the average shape model; and a distribution of the feature value including the difference value and the first object.
- a learning unit that learns a relationship with a region in which a second object having a constraint relationship exists.
- the invention according to claim 16 is the machine learning device according to claim 15, wherein the constraint relation includes a relation in which the second object is adjacent to or connected to the first object.
- the invention according to claim 17 provides a computer with a function of generating a shape model representing an individual shape of the first object and an average shape model based on measurement data of the plurality of first objects, A distribution of a feature quantity including a difference value between each minute region forming a shape model representing an individual shape and a corresponding minute region of the average shape model, and a distribution of the difference value and the first object And a function of learning a relationship with an area where a second object having a constraint relationship exists between the second object and the second object.
- the first aspect of the present invention it is possible to generate a learned model having higher estimation accuracy than when learning the deformation in units of the entire shape.
- the second aspect of the present invention it is possible to generate a learned model having higher estimation accuracy than the number of measurement data.
- the third aspect of the present invention it is possible to generate a learned model having a higher estimation accuracy than in the case where the deformation is learned in units of the entire shape.
- the fourth aspect of the present invention it is possible to generate a learned model with high estimation accuracy even when the number of minute regions for obtaining the difference value is small.
- the estimation accuracy of the learned model can be improved.
- the generated learned model can be used in the medical field.
- the seventh aspect of the present invention it is possible to generate a learned model capable of estimating the shape of the lung after degassing with high accuracy.
- the generated learned model can be used in the medical field.
- deformation of a three-dimensional shape can be estimated.
- a computer can be operated as a device that generates a learned model with higher estimation accuracy than when learning deformation in units of the entire shape.
- the deformed shape can be estimated with higher accuracy than when a learned model in which the deformation is learned using the entire shape as a unit is used.
- the twelfth aspect of the present invention it is possible to estimate the deformed shape with higher accuracy than when using a learned model in which the deformation is learned in units of the entire shape.
- the thirteenth aspect of the present invention it is possible to operate the computer as a device capable of estimating the deformed shape with higher accuracy than when using a learned model in which the deformation is learned in units of the entire shape. it can.
- the fourteenth aspect of the present invention it is possible to provide a learned model capable of estimating the deformed shape with higher accuracy than the case where the deformation is learned in units of the entire shape.
- the sixteenth aspect it is possible to estimate the position of another target object with higher accuracy than when learning the positional relationship between objects having a constraint relationship in units of shapes.
- the position of another target object can be estimated with higher accuracy than when the positional relationship between objects having a restricted relationship is learned in units of shapes.
- FIG. 11 is a diagram illustrating a conceptual configuration example of an estimation system that estimates a deformed shape of arbitrary measurement data using a learned model that has learned a relationship between measurement data before and after deformation.
- FIG. 2 is a diagram illustrating an example of a hardware configuration of a machine learning device. It is a figure showing an example of the functional composition of a machine learning device. It is a figure explaining deformation of an animal lung by deaeration. (A) shows a displacement model A, (B) shows a displacement model B, and (C) shows a displacement model C.
- FIG. 7 is a diagram illustrating an example of a process performed by a shape model generation unit according to the embodiment. It is a figure explaining the difference in the number of vertices according to the patient.
- FIG. 1 is a diagram illustrating a conceptual configuration example of an estimation system that estimates a deformed shape of arbitrary measurement data using a learned model that has learned a relationship between measurement data before and after deformation.
- FIG. 2 is a
- FIG. 7 is a diagram illustrating a positioning process performed by a positioning unit.
- FIG. 9 is a diagram for explaining an execution order of alignment with respect to shape data before deformation and alignment with respect to shape data after deformation.
- FIG. 4 is a diagram illustrating an upsampling operation by a model upsampling unit.
- FIG. 4 is a diagram illustrating an example of an upsampling method according to the present embodiment.
- FIG. 9 is a diagram illustrating another example of the upsampling method according to the present embodiment.
- FIG. 3 is a diagram illustrating a relationship between a lung shape model and a minute region.
- FIG. 4 is a diagram illustrating an input / output relationship learned in the embodiment.
- FIG. 7 is a diagram illustrating an example of a process performed by a deformation learning unit according to the embodiment.
- FIG. 4 is a diagram illustrating a relationship learned by a machine learning unit according to the embodiment.
- FIG. 3 is a diagram illustrating an example of a hardware configuration of a deformation estimation device.
- FIG. 3 is a diagram illustrating an example of a functional configuration of a deformation estimation device. It is a figure explaining an estimation process by a deformation estimating device.
- FIG. 7 is a diagram illustrating an example of an output screen by an estimation result output unit. 6 is a table illustrating differences in estimation errors among three types of regression models. 9 is a table illustrating differences between four types of feature amount data and estimation errors.
- FIG. 9 is a table illustrating the relationship between the dimension of the difference between vertices and the estimation accuracy.
- FIG. 7 is a diagram for explaining estimation of a destination accompanied by deformation of a plurality of organs.
- FIG. 9 is a diagram illustrating a processing function of estimating a variation in the shape of an organ and extracting a region of a specific organ from medical image data.
- FIG. 9 is a diagram illustrating an example in which a three-dimensional shape is estimated from two-dimensional image data, and a deformed shape is estimated using the estimated three-dimensional shape.
- FIG. 3 is a diagram illustrating an average shape model generated from a plurality of shape models.
- FIG. 9 is a diagram illustrating a shift amount between corresponding regions of each shape model with respect to an average shape model. There is a constraint between the deviation amount between each vertex of the shape model (including the shape model after up-sampling) generated from the measurement data of the object 1 and the corresponding vertex of the average shape model, and the object 1
- FIG. 4 is a diagram illustrating a configuration example of a machine learning device that learns a relationship between coordinates of each vertex configuring an object 2 of FIG. FIG.
- FIG. 3 is a diagram illustrating a configuration example of a position estimating device that estimates a position of an object 2 from a shift amount between a shape model generated from measurement data of the object 1 and an average model. It is a figure explaining the relationship between the range of the CT image of the right lung imaged by cone beam CT, and the range of the CT image of the same right lung imaged by CT.
- (A) shows the CT image of the subject A
- (B) shows the CT image of the subject B
- (C) shows the CT image of the subject C.
- FIG. 21 is a diagram illustrating an example of processing executed by a shape model generation unit used in Embodiment 7.
- FIG. 9 is a diagram illustrating a result of alignment.
- A shows a shape model of the subject A
- B shows a shape model of the subject B
- C shows a shape model of the subject C
- D shows a result of alignment.
- FIG. 11 is a diagram illustrating a result of positioning between a CT image P1 (shape model before deformation) obtained by CT of an aerated lung of a subject and a template shape T of the lung.
- FIG. 21 is a diagram illustrating an example of processing executed by a deformation learning unit used in Embodiment 7. It is a figure explaining the object used for learning (learning object), and the object not used for learning (exclusion object).
- (A) shows a shape model of the subject A
- (B) shows a shape model of the subject B. It is a figure explaining displacement amount data yi when not removing a vertex near a boundary.
- (A) shows a displacement amount data y i appearing in the displacement amount data y i and x-z plane that appears in the x-y plane of the object A
- (B) the displacement amount appearing in the x-y plane of the object B shows the displacement amount data y i that appears in the data y i and x-z plane
- FIG. 10 is a diagram illustrating a deformed shape PS estimated by inputting CT data captured before surgery to a trained model learned using partial images captured by cone beam CT during surgery.
- A shows an actual operation image
- B shows an estimated shape PS.
- FIG. 21 is a diagram for explaining the accuracy of an estimated image using a learned model generated by the method described in the seventh embodiment.
- FIG. 1 is a diagram illustrating a conceptual configuration example of an estimation system 1 that estimates a deformed shape of arbitrary measurement data using a learned model that has learned the relationship between measurement data before and after deformation.
- An estimation system 1 illustrated in FIG. 1 includes a machine learning device 10 that generates a learned model from measurement data as teacher data, and a deformation that estimates a deformed shape of arbitrary measurement data using the generated learned model. And an estimating device 20.
- the input of the measurement data to the machine learning device 10 may be directly input from the database (DB) 30 in which the measurement data is stored, or may be input via the network 40.
- the network 40 here may be a local area network or the Internet.
- the generated learned model and a parameter for updating the learned model are provided to the deformation estimation device 20 directly or via the network 40.
- the learned model and the update parameters may be provided to the deformation estimation device 20 via a storage medium (not shown).
- the update parameter is, for example, the value of the coefficient of the deformation function updated by learning.
- the deformation estimation device 20 inputs measurement data to be estimated directly from the terminal 50 or via the network 40, and outputs the estimation result (estimation result) to the terminal 50 directly or via the network 40.
- the terminal 50 here may be, for example, a surgery support system, a radiation therapy device, or the like.
- FIG. 2 is a diagram illustrating an example of a hardware configuration of the machine learning device 10.
- the machine learning device 10 illustrated in FIG. 2 includes a CPU (Central Processing Unit) 11 that controls the entire device by executing a program (including basic software), a ROM 12 that stores a program such as a BIOS (Basic Input Output System), and the like. And a RAM (Random Access Memory) 13 used as a program execution area.
- the CPU 11, the ROM 12, and the RAM 13 constitute a so-called computer, and execute various types of information processing.
- the ROM 12 is configured by a nonvolatile semiconductor memory.
- the storage device 14 includes, for example, a hard disk device, and stores an application program for learning the relationship before and after the deformation, a learned model as a learning result, and the like.
- the storage device 14 is not limited to the built-in type, but may be an external type storage device or a network storage.
- the input device 15 is, for example, a keyboard or a mouse, and is used for operation input.
- the output device 16 is a display device or a printing device, and is used for displaying an operation screen, printing information, and the like.
- the input device 15 and the output device 16 may be provided on a terminal (not shown).
- the communication device 17 is used for communication with an external device.
- the communication device 17 is used for inputting measurement data from the database 30 and outputting (including distribution) the learned model or the updated parameters to the deformation estimating device 20.
- the CPU 11 and each unit are connected through a bus 18 and a signal line (not shown). Note that the machine learning device 10 can also be realized as dedicated hardware.
- FIG. 3 is a diagram illustrating an example of a functional configuration of the machine learning device 10.
- the functional configuration shown in FIG. 3 is realized through execution of a program by CPU 11 (see FIG. 2).
- image data obtained by imaging or measuring an object before deformation is indicated by a pre-deformation image I (i) I
- image data obtained by imaging or measuring an object after deformation is also shown in FIG.
- the image after deformation I (i) is indicated by D.
- the pre-deformation image I (i) I and the post-deformation image I (i) D are examples of measurement data before and after the deformation.
- the machine learning device 10 includes a shape model generation unit 101 that generates a vertex model from each of the pre-deformation image I (i) I and the post-deformation image I (i) D , and a vertex model generated from the generated vertex model.
- a model upsampling unit 102 that generates a plurality of vertex models having different arrangements of the vertexes, and a deformation that learns the relationship between the feature amount of each microregion of the vertex model generated by the upsampling and the displacement between the microregions before and after the deformation It functions as the learning unit 103.
- the vertex models in the present embodiment are all three-dimensional vertex models.
- the three-dimensional vertex model may be defined by the vertices of a polygon mesh representing the surface by polygons, or may be defined by the vertices of a voxel mesh representing both the surface and the interior by voxels.
- the learning here is different from general learning, and is performed not in the entire vertex model but in units of minute regions constituting the vertex model.
- the deformation function f that is the result of learning is output as a learned model.
- FIG. 4 is a diagram illustrating deformation of the animal lung due to degassing.
- A shows a displacement model A
- B shows a displacement model B
- C shows a displacement model C.
- Experimental Beagle dogs were used to create the displacement models A, B and C.
- bronchial pressure varied from 14cmH 2 O in 2 cmH 2 O, was measured lung shape in three dimensions CT.
- medical image data obtained by imaging an organ of a sample is used as the pre-deformation image I (i) I and the post-deformation image I (i) D.
- the medical image data include a CT image, an MRI (Magnetic Resonance Imaging) image, an X-ray image, an ultrasonic image, a PET (Positron Emission Tomography) image, and the like.
- the medical image data may be a two-dimensional image or a three-dimensional image.
- a two-dimensional image is represented by pixels that define a two-dimensional space
- a three-dimensional image is represented by voxels (cubic unit cells), polygons, and the like that define a three-dimensional space.
- Medical image data is an example of measurement data.
- the pre-deformation image I (i) I and the post-deformation image I (i) D are three-dimensional images.
- a three-dimensional image is defined by, for example, coordinates and voxel values. Voxel values vary depending on the imaging method.
- FIG. 5 is a diagram illustrating an example of a process performed by shape model generating section 101 according to the embodiment.
- the shape model generation unit 101 shown in FIG. 5 includes a sampling unit 101A and a positioning unit 101B.
- the sampling unit 101A samples, for example, the pre-deformation image I (i) I and the post-deformation image I (i) D to generate shape data of a voxel mesh structure or a polygon mesh structure.
- the shape data corresponding to the pre-deformation image I (i) I is S (i) I
- the shape data corresponding to the post-deformation image I (i) D is S (i) D.
- the size of the pre-deformation image I (i) I and the post-deformation image I (i) D also differ depending on the subject and the imaging conditions. In addition, there is a limit in unifying the body position and physical condition of the subject during imaging. For this reason, the number of voxel vertices included in the independently formed shape data S (i) I and S (i) D does not generally match. In the case of FIG. 5, the number of vertices of the shape data S (i) I is 600, while the number of vertices of the shape data S (i) D is 350.
- FIG. 6 is a diagram for explaining a difference in the number of vertices due to a difference between patients. In FIG.
- the image of the patient 1 is indicated by I (1)
- the image 2 of the patient 2 is indicated by I (2)
- the image 3 of the patient 3 is indicated by I (3)
- the corresponding shape data is indicated by ignoring the deformation.
- S (1) , S (2) and S (3) are shown.
- the number of vertices of the shape data S (1) of the patient 1 is 400
- the number of vertices of the shape data S (2) of the patient 2 is 600
- the number of vertices of the shape data S (3) of the patient 3 is The number is 350.
- the positioning unit 101B performs positioning between the shape data. Specifically, a process is performed to equalize the number of vertices of each shape data.
- the shape data after the number of vertices is equalized is represented as a shape model M (i) .
- the shape model before deformation is referred to as M (i) I
- the shape model after deformation is referred to as M (i) D.
- the shape model M (i) I before deformation is an example of a first shape model
- the shape model M (i) D after deformation is an example of a second shape model.
- the number of vertices of the shape model M (i) is unified to 500.
- the shape data S (i) I and S (i) D are input to the shape model generation unit 101 (see FIG. 3) instead of the pre-deformation image I (i) I and the post-deformation image I (i) D. In this case, the processing of the sampling unit 101A can be omitted.
- FIG. 7 is a diagram illustrating the positioning process performed by the positioning unit 101B.
- the predetermined template shape T is deformed it to match the shape of the shape data S (i), but the outer shape is in phase with the shape data S (i) .
- the shape model M (i) in which the number of vertices is unified to the number of vertices of the template shape T is generated.
- the process of bringing the template shape T closer to the shape of the shape data S (i) is executed gradually from the whole to the local.
- the positioning by the positioning unit 101B (see FIG. 5) is performed on the shape data S (i) D after the deformation, following the shape data S (i) I before the deformation.
- FIG. 5 is a diagram illustrating the positioning process performed by the positioning unit 101B.
- FIG. 8 is a diagram illustrating the execution order of the alignment with respect to the shape data S (i) I before deformation and the alignment with respect to the shape data S (i) D after deformation.
- the shape data M (1) I , M (2) I , M are obtained from the shape data S (1) I , S (2) I , S (3) I before deformation by positioning the template shape T at 500 vertices. (3) I is generated.
- the shape model M (i) I of the 500 vertices before the deformation is aligned with the shape data S (1) D , S (2) D , S (3) D after the deformation, so that the shape model M ( 1) D , M (2) D , M (3) D are generated.
- the model upsampling unit 102 upsamples each of the shape models M (i) I and M (i) D generated by the shape model generation unit 101, and obtains a plurality of shapes having substantially the same shape and structure but different arrangements of vertices. Generate a shape model.
- the model upsampling unit 102 is not indispensable when an object whose image before and after the deformation is easily acquired is handled.
- the model upsampling unit 102 is provided to increase the number of teacher data used for learning. Can be. Even when an object whose image is easy to acquire is handled, the number of shape models M (i) I and M (i) D used for teacher data can be increased from a smaller number of images by using the model upsampling unit 102. Can be.
- FIG. 9 is a diagram illustrating an upsampling operation by the model upsampling unit 102.
- the number of shape models M (i) I before deformation and the number of shape models M (i) D after deformation are each multiplied by k. That is, for one shape model M (i) I before deformation, k shape models M (i1) I ... M (ik) I having different vertices are generated, and one shape model M (I For i) D , k shape models M (i1) D ... M (ik) D with different vertices are generated.
- M (ik) I before deformation is an example of a third shape model
- the shape model M (i1) D ... M (ik) D after deformation is the fourth shape model. It is an example of a shape model.
- the number of vertices constituting the generated shape models M (i1) I ... M (ik) I and M (i1) D ... M (ik) D is 500.
- the reason why the shape models having different vertices are generated by upsampling is to learn displacement in units of minute regions (for example, vertices) of the shape model in the present embodiment. As described above, when a sufficient number of measurement data are available in advance, the upsampling operation by the model upsampling unit 102 can be omitted.
- FIG. 10 is a diagram illustrating an example of an upsampling method according to the present embodiment.
- the shape model M (i) I and M (i) D are located on the surface among the 500 vertices (indicated by X in the figure ) constituting each. Only the vertices are shown.
- the method shown in FIG. 10 rotates 500 vertices of the shape model in a direction around a point (for example, the center of gravity C) defined in the shape model, and thereafter, the vertices located on the surface (in the figure, (Indicated by a white circle) is linearly moved toward the closest position on the surface before rotation (indicated by a curve in the figure).
- each vertex (indicated by a cross in the figure) located on the surface before rotation is moved to a position indicated by a black circle.
- the vertices in the shape model are rearranged so that the relative positional relationship with the vertices on the surface is preserved.
- the relative position inside the tetrahedron can be parameterized.
- a different up-sampling model can be generated even if the same processing step is executed.
- different upsampling models can be generated by changing the direction of rotation.
- a different upsampling model can be generated by changing the rules during linear movement.
- FIG. 11 is a diagram illustrating another example of the upsampling method according to the present embodiment.
- FIG. 11 is also located on the surface among the 500 vertices (indicated by crosses in the figure ) constituting each of the shape models M (i) I and M (i) D due to the restrictions on drawing and the convenience of explanation. Only the vertices are shown. In the method shown in FIG.
- the 500 vertices of the shape model are enlargedly transformed (moved outward) around a point (for example, the center of gravity C) defined in the shape model, and then the vertices located on the surface are (Indicated by a white circle in the figure) is linearly moved toward the closest position on the surface (indicated by a curve in the figure) before the enlargement conversion.
- each vertex (indicated by a cross in the figure) located on the surface before the enlargement conversion is moved to a position indicated by a black circle.
- each vertex in the shape model is rearranged so that the relative positional relationship with the vertex on the surface is preserved.
- the method of perturbing (rearranging) the vertex position by upsampling includes a method of rearranging each vertex so that it substantially matches the original shape after reduction conversion, a method of randomly perturbing the vertex position, and the like. Is also good.
- the vertices rotated or the like the vertices on the surface are aligned so as to linearly move to the surface of the original shape model. Should be executed.
- the weak constraint means that an error within a predetermined range is allowed.
- the deformation learning unit 103 determines the relationship between the shape models M (i1) I to M (ik) I before deformation generated by the above processing and the shape models M (i1) D to M (ik) D after deformation. learn.
- deformation is learned in units of minute regions (for example, vertices). 12 and 13 show a concept of learning in the present embodiment.
- FIG. 12 is a diagram illustrating the relationship between the lung shape model M and the minute region dM.
- learning data of the number of minute regions that can be obtained from one measurement data can be generated.
- the use of vertices as minute regions means that in the case of this embodiment, 500 pieces of learning data can be generated from one measurement data.
- FIG. 13 is a diagram illustrating an input / output relationship learned in the embodiment.
- feature amount data x i relating to each vertex i of the shape model before deformation is used as input
- displacement amount data y i before and after deformation of the corresponding vertex i is used as output.
- transformation function f which defines the relationship between two values is learned.
- the feature amount data x i using the difference (e.g., peak-to-peak difference d) between the small regions on the same geometric model.
- the difference e.g., peak-to-peak difference d
- specific examples of the vertex difference d is an example of feature data x i, illustrate vertices 1 and another vertex 2 and 3 and the difference d 12 and d 13.
- a difference d is calculated between one vertex i and 500 vertices (small regions).
- the difference d ij between vertices is an example of feature data x i.
- all of the vertices 1, 2, and 3 are drawn discretely, but this is for the explanation of the difference d ij between vertices, and the actual position is not limited to the example shown in FIG. 13. Absent.
- FIG. 14 is a diagram illustrating an example of a process performed by deformation learning unit 103 according to the embodiment.
- the feature amount calculation unit 103A in the present embodiment calculates the feature amount data x i for each vertex of the shape models M (i1) I to M (ik) I generated from the measurement data before deformation provided for learning. calculate.
- the feature amount data x i is a vertex of all the vertices of the shape model M (i) I generated from the measurement data before modification input for training It is given as the inter-difference dij . That is, 500 feature data x i for one of the shape model M (i) I is calculated.
- the number of elements in the undeformed model group because it is the k 500 ⁇ k pieces of feature data x i is calculated. In fact, the feature amount data x i of the number obtained by multiplying the number A of the measurement data to be input is calculated.
- the displacement calculation unit 103B in the present embodiment calculates the displacement amount data yi between the corresponding vertices of the shape model in a relationship before and after the deformation. 500 pieces of displacement amount data yi are calculated for one shape model before and after the deformation.
- Machine learning unit 103C in this embodiment undeformed shape model M (j) displacement data between before and after deformation of the shape model feature quantity data x i, for the same vertex i for each vertex i of the I
- the transformation relation f (j) representing the relation with y i is learned.
- FIG. 15 is a diagram illustrating a relationship learned by the machine learning unit 103C according to the embodiment. In FIG. 15, feature amount data x 1 (1) ...
- a kernel regression model represented by Expression 1 is used as a regression model representing the deformation function f.
- the k (x i, x) is the kernel function given by the following equation.
- k (x i , x) exp ( ⁇
- 2 is the L 2 norm of the vertex between the difference d ij between vertices i and another vertex j on the same geometric model. That, k (x i, x) corresponds to the feature data x i for the vertex i.
- the displacement calculator 103B in the present embodiment learns the coefficient ⁇ i for each vertex i.
- the coefficient ⁇ i is an update parameter.
- a set of learned coefficients ⁇ i may be given to the deformation estimation device 20 (see FIG. 1) as a learned model, or a newly learned coefficient ⁇ i may be transmitted to the deformation estimation device 20 to generate a learned model. May be updated.
- medical image data of a human lung can be acquired as pre-operative CT data and post-operative CT data of a patient suffering from pneumothorax.
- the CT data before the operation is CT data of collapsed lung
- the CT data after the operation is CT data of normal lung (after treatment).
- the CT data after the operation is used as the medical image data before the deformation
- the CT data before the operation is used as the medical image data after the deformation
- the relationship before and after the deformation is learned as a trained model.
- This trained model can be used to predict lung deformation during surgery when operating on patients with normal lungs.
- FIG. 16 is a diagram illustrating an example of a hardware configuration of the deformation estimation device 20 (see FIG. 1).
- the deformation estimation device 20 shown in FIG. 16 includes a CPU (Central Processing Unit) 21 for controlling the entire device through execution of a program (including basic software), a ROM 22 for storing a program such as a BIOS (Basic Input Output System), and the like.
- a RAM (Random Access Memory) 23 used as a program execution area.
- the CPU 21, the ROM 22, and the RAM 23 constitute a so-called computer, and execute various types of information processing.
- the ROM 22 is configured by a nonvolatile semiconductor memory.
- the storage device 24 is configured by, for example, a hard disk device, and is an application that estimates a deformed shape of arbitrary measurement data provided from the terminal 50 (see FIG. 1) using the learned model learned by the machine learning device 10. A program, an estimation result, and the like are stored.
- the storage device 24 is not limited to the built-in type, but may be an external type storage device or a network storage.
- the input device 25 is, for example, a keyboard or a mouse, and is used for operation input.
- the output device 26 is a display device or a printing device, and is used for displaying an operation screen, printing information, and the like.
- the deformation estimation device 20 is realized as a server, the input device 25 and the output device 26 may be provided on a terminal (not shown).
- the communication device 27 is used for communication with an external device.
- the communication device 27 is used for inputting measurement data from the terminal 50, outputting estimation results to the terminal 50, and the like.
- the CPU 21 and each unit are connected via a bus 28 or a signal line (not shown). Note that the deformation estimation device 20 can be realized as dedicated hardware.
- FIG. 17 is a diagram illustrating an example of a functional configuration of the deformation estimation device 20.
- the functional configuration shown in FIG. 17 is realized through execution of a program by CPU 21 (see FIG. 16).
- a deformation estimating unit 202 that estimates displacement amount data y i of vertex i by applying to the learned model, and an estimation result output unit that estimates and outputs a deformed shape from displacement amount data y i of all vertices i. It functions as 203.
- FIG. 18 is a diagram illustrating an estimation process performed by the deformation estimation device 20.
- the feature amount calculating unit 201 calculates the feature amount data x i for each vertex i.
- extract the deformation estimating unit 202 is a shape model M having feature data x i2 and x i4 similar to the feature amount data x i to be processed (i2) I and M (i4) I I do.
- the similarity of the feature amount data x i internal ratio m seeking a 1-m.
- m is a real number from 0 to 1.
- the deformation estimating unit 202 calculates a deformation function f i obtained by linearly interpolating the learned models (that is, the deformation functions f 2 and f 4 ) for the extracted plurality of shape models M (i2) I and M (i4) I. generated estimates the displacement amount data y i corresponding to the feature amount data x i using the generated transformation function f i.
- it is generating modification function f i using a linear interpolation may be generated by non-linear interpolation.
- FIG. 19 is a diagram illustrating an example of an output screen 300 by the estimation result output unit 203 (see FIG. 17).
- an observation image column 301 before deformation is arranged on the left side
- an estimated image column 302 corresponding to the shape after deformation is arranged on the right side.
- there are two nodules inside the lung The lung image displayed in the observation image column 301 is an image before the operation.
- the lungs are inflated.
- the lungs displayed in the estimated image column 302 are images during the estimated operation. During surgery, the lungs are withering due to degassing deformities.
- FIG. 19 not only the external shape but also the position of the nodule can be estimated.
- FIG. 20 is a chart illustrating differences in estimation errors among the three types of regression models. As for the values shown in FIG. 20, the regularization parameters of each regression model were tried in about 10 ways, and the one with the smallest error was selected. In the case of FIG. 20, the estimation error of the kernel regression model is the smallest.
- the estimation error of the upper lobe was 3.1 ⁇ 0.9 mm, and the estimation error of the lower lobe was 3.9 ⁇ 1.9 mm.
- the kernel regression model used in the embodiment was about one third of the multiple linear regression model or LASSO regression model (L1 regularization).
- FIG. 21 is a table illustrating the difference between the four types of feature amount data and the estimation error.
- the four types of feature quantity data are the following feature quantity groups 1 to 4 for vertex i.
- ⁇ Feature amount group 1 coordinate v i, the normal vector n i, the curvature (second derivative, discrete Laplacian) l i, vertex interframe difference d ij, shrinkage s i, Voronoi area r i -Feature quantity group 2: difference d ij between vertices ⁇ Feature amount group 3: difference between vertices d ij , normal vector n i ⁇ 100 ⁇ Feature amount group 4: the coordinate v i, the normal vector n i, the curvature (second derivative, discrete Laplacian) l i, shrinkage s i, Voronoi area r i
- the feature amount group 2 corresponds to the feature amount data x ij used in the above description.
- FIG. 22 shows an error between an estimation result and an actual measurement value for each sample when the feature amount data including the vertex difference dij is used and a kernel regression model is used as a regression model.
- FIG. 23 is a diagram two-dimensionally showing the relationship between the shape of each sample before and after deformation. The sample in FIG. 22 and the sample in FIG. 23 are the same. Only the specimen 2 has an estimation error exceeding 5 mm in the upper lobe, and the specimen 2 and the specimen 8 have an estimation error exceeding 5 mm in the lower lobe.
- the estimation error was relatively large in the lung where the lower lobe was considerably larger than the upper lobe, but the size of the lung where the upper lobe was smaller than the lower lobe and the size of the upper and lower lobes were almost the same In this case, the estimation error is small. It should be noted that an error of 10 mm or more was recognized in the model estimated by the statistical average displacement of the entire shape. Therefore, the estimation error is reduced in the method of the embodiment.
- FIG. 24 is a chart for explaining the relationship between the dimension of the difference between vertices and the estimation accuracy.
- FIG. 24 shows an experimental result on the upper lobe.
- the horizontal axis is the ratio of peak-to-peak difference constituting the feature data x i for the vertex i, a Hausdorff distance ordinate striking the estimation accuracy.
- the percentage on the horizontal axis represents 100% when all the vertices constituting the shape model M (i) I are used for calculating the inter-vertex difference dij .
- the feature amount data x i for the vertex i is given by the difference d ij between 50 vertices Means
- the unit of the vertical axis is mm.
- a deformation estimating device 20 for estimating the deformation of a target organ by using a learned model generated by the above-described estimation system 1 (see FIG. 1) or a machine learning device 10 (see FIG. 1) is operated.
- a new patient tumor displacement can be identified prior to surgery.
- the output screen 300 shown in FIG. 19 may be used as an example of a screen when used in a surgery support system.
- the terminal 50 (see FIG. 1) is used as an operation terminal of the surgery support system.
- FIG. 25 is a diagram for explaining estimation of a destination accompanied by deformation of a plurality of organs.
- the example of FIG. 25 is a case of medical image data including a liver, a stomach, a duodenum, a left kidney, and a right kidney.
- the image example shown in FIG. 25 is an example, and other organs may be included, or a smaller number of organs may be targeted.
- the shape and position of internal organs change depending on breathing, posture at measurement, physical condition, and the like, and the position also moves.
- multiple organs (including tumors) Changes in shape and position can be estimated with high accuracy. That is, in the present embodiment, learning is performed including movement of the position of the organ.
- a change in the shape or position of a plurality of organs (including a tumor) due to respiration, a posture at measurement, a physical condition, and the like is also an example of a deformation due to a time change.
- a part of the shape and position before deformation is indicated by a broken line.
- the feature amount data generated based on the measurement data before deformation is given to the trained model to estimate the shape after deformation, but the learned shape learned for an individual organ or a plurality of organs is used.
- the deformed shape is estimated by giving the feature data to the model, the estimated shape is compared with the medical image data, and the positions of the organs included in the medical image data are automatically extracted using image recognition technology. You may.
- FIG. 26 is a diagram illustrating a processing function of estimating a variation in the shape of an organ and extracting a region of a specific organ from medical image data.
- the deformation estimating device 20 can provide the deformed shape estimated by the deformation estimating unit 202 to the image recognizing unit 205, collate with the medical image data, and extract the region of the target organ from the medical image data. .
- FIG. 27 is a diagram illustrating an example of estimating a three-dimensional shape from two-dimensional image data and estimating a deformed shape using the estimated three-dimensional shape.
- a two-dimensional image is given as an input, and a three-dimensional image is output by the three-dimensional shape estimating unit 60.
- Techniques for estimating a three-dimensional shape from only two-dimensional color information are described in, for example, the following documents. H. Fan et al.
- the estimation processing by the three-dimensional shape estimation unit 60 includes extraction processing of a specific organ region by graph cut, estimation processing using a learned model learned by applying machine learning, deep learning, convolutional neural network, and the like.
- the learned model includes feature amount data x i including a difference value d ij between each minute region and another minute region in the shape model M (i) I generated from the measured data of the organ region before deformation.
- the feature quantity as a candidate for data x i, the coordinate v i for each vertex i, the gradient or the normal vector n i defines a small area
- the curvature defining a small area (second-order differential, discrete Laplacian ) l i, vertex interframe difference d ij, shrinkage of the small area s i is exemplified Voronoi area r i of the small region as a candidate of the feature amount data x i, the average shape model and the micro areas (hereinafter it may be included an additional displacement amount u i from the corresponding region of the "average shape model").
- FIG. 28 is a diagram illustrating an average shape model M generated from a plurality of shape models M (i) . Coordinate v of the vertex i of the average shape model M Mi generates for example as an average value of the coordinate v i of the corresponding vertices of the plurality of shape models M (i). In the case of FIG. 28, the average value of the coordinates is calculated for each of the 500 vertices.
- FIG. 29 is a diagram illustrating a shift amount u i between corresponding regions of each shape model with respect to the average shape model M I before deformation.
- Transformation function f in the figure represents the transformation function that generates an average shape model M D after deformation from the mean shape model M I before deformation.
- the average shape model M here may be given as a template shape T, and the shape model M (i) corresponding to the shape data S (i) may be repeatedly calculated.
- a displacement amount u i is a diagram illustrating a configuration example of a machine learning system 310 to learn the relationship between the coordinate v s of each vertex s constituting the constraint relationship other object 2 between the object 1. Note that the machine learning device 310 is realized through execution of a program by a computer, as in the above-described embodiment.
- Machine learning device 310 the machine learning unit for learning the deviation amount calculation unit 310A which calculates and outputs the shift amount u i for each vertex, the relationship between the coordinates v s of each vertex s of each displacement amount u i and the object 2 310B.
- the machine learning unit 310B outputs a correspondence function g as a result of learning.
- the object 1 is a liver
- the object 2 is a pancreas.
- the constraint relationship here is, for example, an adjacent relationship or a connected relationship.
- the objects 2 satisfying the adjacent relationship are the stomach, the duodenum, and the right kidney, and the objects 2 satisfying the connected relationship are the duodenum, the pancreas, the spleen, and the like.
- Figure 31 is a diagram for explaining a configuration example of a position estimating device 320 for estimating the position v s from the deviation amount u i of the object 2 between the shape model generated from the measurement data of the object 1 and the average model.
- Position estimation device 320 includes a feature quantity calculation unit 321 for calculating a shift amount u i of the average shape model M for each vertex i constituting the shape model generated from the measurement data of the object 1 as the feature amount data is calculated and the displacement amount u i is adapted to the learned model, an object position estimating unit 322 that estimates the position of the object 2, and an estimation result output unit 323 outputs the estimated result.
- the position estimating device 320 is also realized through execution of a program by a computer, as in the above-described embodiment.
- the cone beam CT rotates a movable device composed of an irradiating unit that irradiates X-rays in a conical or quadrangular pyramid shape and a two-dimensional detector that detects X-rays that have passed through a subject once around the subject. Alone, three-dimensional image data of the subject can be generated. For this reason, the cone beam CT is used, for example, for imaging a lung during surgery. However, the volume of the lung parenchyma included in the cone beam CT imaging range may be less than half the volume of the entire lung, and it is unknown which region is imaged.
- FIG. 32 is a diagram illustrating the relationship between the range of the CT image of the right lung captured by the cone beam CT and the range of the CT image of the same right lung captured by the CT.
- (A) shows the CT image of the subject A
- (B) shows the CT image of the subject B
- (C) shows the CT image of the subject C.
- the CT image P1 having the largest area indicated by the mesh is a CT image taken before the operation. Unlike a cone beam CT in which only a part of the lung is imaged, the entire lung is imaged. Note that the lungs are in an aerated state before the operation.
- the CT image P1 here corresponds to the pre-deformation image I (i) I in the first embodiment.
- the second largest CT image P2 colored in pale color is a CT image captured with a cone beam CT during the operation.
- the CT image P2 is a part of the pneumatic lung.
- the CT image P2 is a smaller area than the CT image P1.
- the CT image P3, which is darkest and has the smallest area is also a CT image captured by the cone beam CT during the operation.
- the CT image P3 is a part of the lung in the deflated state. For this reason, in any of the subjects A, B, and C, the CT image P3 is a smaller area than the CT image P2.
- FIG. 33 is a diagram illustrating an example of processing executed by the shape model generation unit 101 (see FIG. 3) used in the seventh embodiment. 33, parts corresponding to those in FIG. 5 are denoted by reference numerals.
- the machine learning device according to the seventh embodiment also generates a shape model for each of the pre-deformation image I (i) I and the post-deformation image I (i) D , and then performs up-sampling of the generated shape model. Then, learning is performed in units of minute regions.
- pre-deformation images Two types are prepared as pre-deformation images.
- One is a pre-deformation image I (i) IT that captures the entire pneumatic lung before surgery, and the other is a pre-deformation partial image I that captures a part of the pneumatic lung during surgery.
- I IP .
- a post-deformation partial image I (i) DP obtained by imaging a part of the lung in a degassed state during an operation is used.
- the sampling unit 101C samples each of the pre-deformation image I (i) IT , the pre-deformation partial image I (i) IP, and the post-deformation partial image I (i) DP , and obtains a voxel mesh structure or a polygon mesh structure.
- the shape data corresponding to the pre-deformation image I (i) IT is S (i) IT
- the shape data corresponding to the pre-deformation partial image I (i) IP is S (i) IP
- the shape data corresponding to I (i) D is defined as S (i) D.
- the size of the pre-deformation image and the size of the post-deformation image also differ depending on the difference between subjects and the difference in imaging conditions.
- the size of the pre-deformation image and the size of the post-deformation image differ between the CT used for imaging before the operation and the cone beam CT used during the operation.
- there is a limit in unifying the body position and physical condition of the subject during imaging for this reason, as described in the first embodiment, the number of voxel vertices included in independently formed shape data does not generally match. Therefore, also in the case of the present embodiment, a shape model M in which the generated shape data is aligned with the template shape T and the number of vertices is uniform is generated. In the case of FIG. 33, the positioning unit 101D executes the positioning.
- the positioning unit 101D aligns the number of vertices of the pre-deformation shape data S (i) IT corresponding to the entire right lung to the same number of vertices as the template shape T. .
- the contents of this processing are the same as in the first embodiment.
- a pre-deformation shape model M (i) IT having 500 vertices is generated. This positioning is positioning between global coordinate systems.
- the positioning unit 101D uses the generated pre-deformation shape model M (i) IT corresponding to the entire right lung as a template shape, and uses the pre-deformation partial shape data S corresponding to a part of the right lung of the same subject.
- the number of vertices forming the pre-deformation partial shape model M (i) IP is smaller than the number of vertices of the template shape. Note that, as shown in FIG. 32, the region and the volume imaged by the cone beam CT differ depending on the subject and the number of times of imaging. Therefore, the number of vertices forming the pre-deformation partial shape model M (i) IP differs for each partial image. This alignment is an alignment between the global coordinate system and the local coordinate system.
- the positioning unit 101D uses the pre-deformation partial shape model M (i) IP generated for a part of the pneumatic right lung as a template shape and assigns the same subject a degassed right lung part.
- the corresponding deformed partial shape data S (i) DP is aligned.
- it deformed partial shape data S (i) deformed portion geometric model corresponding to DP M (i) DP is generated.
- the number of vertices forming the post-deformation partial shape model M (i) DP is the same as the number of vertices of the pre-deformation partial shape model M (i) IP used as the template shape. This positioning is positioning between local coordinate systems.
- FIG. 34 shows a CT image P2 (that is, a partial shape model before deformation) of a lung in an aerated state captured with a cone beam CT and a CT image P3 (that is, a partial shape after deformation) of the same lung in a deaerated state with a cone beam CT.
- FIG. 9 is a diagram for describing a result of alignment with a (model).
- A) shows a shape model of the subject A
- (B) shows a shape model of the subject B
- (C) shows a shape model of the subject C
- (D) shows a result of alignment.
- CT images P2 and P3 correspond to the partial images in FIG. In the case of the subject A shown in FIG.
- the average distance (MD: Mean Distance) between corresponding vertices is 0.21 mm
- the maximum distance (HD: Hausdorff Distance) between corresponding vertices is 0.98 mm.
- the average distance between the corresponding vertices is the vertex of the image after the CT image P2 is transformed into the shape of the CT image P3 (the vertex is derived from the CT image P2) and the corresponding neighboring surface of the CT image P3.
- Is calculated as the distance to The nearby surface is, for example, a position on the CT image P3 closest to the vertex of the CT image P2.
- the inclusion degree (DSC: Dice Similarity Distance) between the estimated value of the vertex group and the true value is 98.93%.
- the MD of the subject B is 0.15 mm
- the HD is 0.79 mm
- the DSC is 99.24%
- the MD of the subject C is 0.23 mm
- the HD is 1.30 mm
- the DSC is 98.94%.
- the partial shape model M (i) IP before deformation is aligned with high accuracy to the shape model M (i) DP after deformation.
- FIG. 35 is a diagram illustrating a result of positioning of a CT image P1 (shape model before deformation) obtained by CT of an aerated lung of a subject by CT and a template shape T of the lung.
- each value was calculated between the corresponding vertices of the image obtained by deforming the lung template shape T so as to match the image P1 (shape model before deformation) and the CT image P1 (shape model before deformation).
- the MD of the subject A is 0.33 mm
- the HD is 1.91 mm
- the DSC is 98.14%.
- the MD of the subject B is 0.54 mm
- the HD is 2.26 mm
- the DSC is 97.94%.
- the MD of the subject C is 0.39 mm
- the HD is 1.53 mm
- the DSC is 98.31%.
- the template shape T is highly accurately aligned with the shape data of the CT image P1 of the entire lung, which is individually imaged for each subject.
- FIG. 36 is a diagram illustrating an example of a process executed by the deformation learning unit 103 (see FIG. 3) used in the seventh embodiment. 36, parts corresponding to those in FIG. 14 are denoted by the same reference numerals.
- the pre-deformation partial shape model group M (i1) IP ... M (ik) IP is a model group generated by up-sampling the pre-deformation partial shape model M (i) IP .
- the transformed partial shape model group M (i1) DP ... M (ik) DP is a model group generated by up-sampling the transformed partial shape model M (i) DP .
- the feature amount of each vertex is directly calculated from the model group generated by the upsampling, but in the present embodiment, the vicinity of the boundary is previously determined by using the near-boundary removal units 103A0 and 103B0. Remove the vertices of. This is because the reliability of the partial image captured by the cone beam CT near the boundary with the non-imaged region in the entire lung is low.
- FIG. 37 is a diagram illustrating a target used for learning (learning target) and a target not used for learning (exclusion target).
- (A) shows a shape model of the subject A
- (B) shows a shape model of the subject B.
- the subject A is imaged by the cone beam CT near the center of the lung, and the upper and lower parts of the lung are not imaged. For this reason, the boundaries appear at two locations on the upper end side and the lower end side of the CT image P2 (partial shape model before deformation) and the CT image P3 (partial shape model after deformation).
- the subject B is imaged by the cone beam CT in the upper half of the lung, and the lower half of the lung is not imaged. For this reason, the boundary appears only at one position on the lower end side of the CT image P2 (partial shape model before deformation) and the CT image P3 (partial shape model after deformation).
- a range of 10 mm from each boundary is excluded from learning targets.
- This numerical value is an example.
- the vertices to be excluded from the target of learning may be determined not by the distance from the boundary but by the ratio (%) of the number of vertices constituting the shape model. For example, use 10%.
- the near-boundary removing unit 103A0 removes vertices existing near the border from each of the pre-deformation partial shape model groups M (i1) IP ... M (ik) IP .
- the remaining vertices that is, the vertices to be learned) are output to the feature amount calculation unit 103A and the displacement calculation unit 103B.
- the vicinity-of-boundary removing unit 103B0 removes vertices existing near the boundary from each of the deformed partial shape model groups M (i1) DP ... M (ik) DP .
- the remaining vertices (that is, the vertices to be learned) are output to the displacement calculator 103B.
- FIG. 38 is a diagram illustrating the displacement amount data yi when the vertices near the boundary are not removed.
- A shows a displacement amount data y i appearing in the displacement amount data y i and x-z plane that appears in the x-y plane of the object A
- B shows the displacement amount data y i that appears in the data y i and x-z plane
- C the displacement amount data y i appearing in the displacement amount data y i and x-z plane that appears in the x-y plane of the object C Show.
- FIG. 39 is a diagram illustrating displacement amount data yi when a vertex near a boundary is removed.
- (A) shows a displacement amount data y i appearing in the displacement amount data y i and x-z plane that appears in the x-y plane of the object A
- (B) the displacement amount appearing in the x-y plane of the object B shows the displacement amount data y i that appears in the data y i and x-z plane
- the length of the displacement amount data yi is shorter than the actual length in consideration of visibility.
- the displacement calculation unit 103B calculates the displacement amount data yi representing the displacement of each vertex to be learned before and after the deformation.
- the feature amount data x i for each vertex, which is a learning target, the feature amount calculating section 103A (see FIG. 36) is calculated.
- the calculated feature amount data x i and displacement amount data y i are provided to the machine learning unit 103C (see FIG. 36).
- the machine learning unit 103C learns a deformation function f representing the relationship between the feature amount data x i and the displacement amount data y i between the corresponding vertices.
- the partial image captured by the cone beam CT is a patient who is undergoing surgery.
- the partial image captured by the cone beam CT reflects the gravitational deformation according to the posture of the patient during the operation (that is, the lateral position).
- the gravitational deformation is reflected in the learned model generated by the machine learning unit 103C.
- FIG. 40 is a diagram illustrating a deformed shape PS estimated by inputting CT data captured before surgery to a trained model learned using partial images captured by cone beam CT during surgery. .
- (A) shows an actual operation image
- (B) shows an estimated shape PS.
- deformation in the gravitational direction ie, a direction close to the heart
- an appearance close to the operation image is obtained. Has been obtained.
- FIG. 41 is a diagram for explaining the accuracy of an estimated image using a learned model generated by the method described in the seventh embodiment.
- the vertical axis in the figure indicates the change in lung volume before and after the operation, and the horizontal axis indicates the subject.
- the change in the volume of the CT image captured by the cone beam CT during the operation before and after the deformation is set as a true value, and the change in the volume of the estimated image of the present embodiment before and after the deformation is shown in comparison. .
- the estimated image as three-dimensional image data is estimated from the CT image taken before the operation as described above. It has been confirmed that any of the subjects can be estimated with an error of about 4%.
- the deformation of the entire object can be accurately estimated.
- the cone beam CT is used for acquiring the partial image, but the device for acquiring the partial image is not limited to the cone beam CT.
- a single vertex is assumed as a minute area, but a plurality of vertices may be included.
- a learned model is generated by learning the relationship between feature amount data and displacement amount data for each vertex using a kernel regression model, but using a deep learning or a convolutional neural network.
- a learned model may be generated.
- the relationship of the distance between the vertices forming the shape model is not particularly defined, but a constraint may be added so that the intervals are equal.
- the learned model is generated by learning before and after the deformation of the organ exclusively based on the medical image data, but the technology according to the present invention is not limited to the medical image data.
- the measurement data is input from the terminal 50 to the deformation estimating device 20, and the result of the estimation for the measurement data is output to the terminal 50. It may be provided to the device 10 and used for updating the learned model.
- a high reward is given to the estimation result given by the user with a high evaluation, and no reward is given or a low rating is given to the estimation result given by the user with a low evaluation.
- This type of learning corresponds to the method of reinforcement learning. Note that the reward is not limited to two levels of 0 or 1, and in the case of multi-level evaluation, it may be given in three or more levels.
- DESCRIPTION OF SYMBOLS 1 ... Estimation system, 10 ... Machine learning apparatus, 20 ... Deformation estimation apparatus, 30 ... Database, 40 ... Network, 50 ... Terminal, 60 ... 3D shape estimation section, 101 ... Shape model generation section, 101A ... Sampling section, 101B ⁇ Positioning unit, 102 ⁇ Model up sampling unit, 103 ⁇ Deformation learning unit, 103A ⁇ Feature amount calculation unit, 103B ⁇ Displacement calculation unit, 103C ⁇ Machine learning unit, 201 ⁇ Feature amount calculation unit, 202 ⁇ Deformation estimation unit 203: estimation result output unit, 205: image recognition unit, 300: output screen, 301: observation image column, 302: estimated image column
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Radiology & Medical Imaging (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Surgery (AREA)
- Geometry (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Computer Graphics (AREA)
- Heart & Thoracic Surgery (AREA)
- Robotics (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Quality & Reliability (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
機械学習装置は、変形の前後における測定データに基づいて、変形前の物体の形状を表す第1の形状モデルと変形後の物体の形状を表す第2の形状モデルを生成する生成部と、第1の形状モデルを構成する各微小領域と他の微小領域との間の差分値を含む特徴量と、第1の形状モデルの各微小領域から第2の形状モデルの対応する各微小領域への変位を与える関係を学習する学習部とを有する。
Description
本発明は、機械学習装置、推定装置、プログラム及び学習済みモデルに関する。
イメージング技術の進歩によって、早期の微小肺結節が発見される機会は増加傾向にあり、胸腔鏡下手術が広く実施されている。ところが、術前において肺は含気状態であるのに対し、手術時には脱気状態であり、肺が大きく変形する。結果的に、手術中の結節位置は、術前に特定された結節位置から変化する。この変化への対策として、術前にマーキングされた色素の部位と術中に撮像されるCT(Computed Tomography)画像とをレジストレーションして複数の微小結節の位置を同定する手法がある。
また、術中に撮像するCTを用いない方法として、臓器の変形をシミュレーションする方法(非特許文献1)や、引張による弾性体の変形を学習したモデルを使用して臓器の変形をシミュレーションする方法(非特許文献2)もある。
また、術中に撮像するCTを用いない方法として、臓器の変形をシミュレーションする方法(非特許文献1)や、引張による弾性体の変形を学習したモデルを使用して臓器の変形をシミュレーションする方法(非特許文献2)もある。
M. Nakao, Y. Oda, K.Taura, and K. Minato, Direct Volume Manipulation for Visualizing Intraoperative Liver Resection Process, Computer Methods and Programs in Biomedicine, Vol. 113, No. 3, pp. 725-735, Mar 2014.
山本 詩子, 中尾 恵, 大関 真之, 松田 哲也, カーネル法を用いた弾性体の部分観測情報に基づく変形推定, 生体医工学, p. 180, 2017.
しかし、術前にマーキングされた色素の部位と術中に撮像されるCT画像とをレジストレーションする手法は、追加の計測を必要とする等、医師と患者双方の負担を増やしている。
また、非特許文献1に記載の方法には、患者固有の力学特性や物理条件の実測が難しい問題があり、非特許文献2に記載の方法は、シミュレーションで生成された人工データの変形のシミュレーションにとどまっている。
また、非特許文献1に記載の方法には、患者固有の力学特性や物理条件の実測が難しい問題があり、非特許文献2に記載の方法は、シミュレーションで生成された人工データの変形のシミュレーションにとどまっている。
本発明は、形状の全体を単位として変形を学習する場合に比して、推定精度が高い学習済みモデルを生成することを目的とする。
請求項1に記載の発明は、変形の前後における測定データに基づいて、変形前の物体の形状を表す第1の形状モデルと変形後の物体の形状を表す第2の形状モデルを生成する生成部と、前記第1の形状モデルを構成する各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第1の形状モデルの各微小領域から前記第2の形状モデルの対応する各微小領域への変位を与える関係を学習する学習部とを有する機械学習装置である。
請求項2に記載の発明は、前記生成部が、前記第1の形状モデルの要素である頂点の配置を変更した第3の形状モデルと、前記第2の形状モデルの要素である頂点の配置を変更した第4の形状モデルを生成する場合、前記学習部は、前記第3の形状モデルの各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第3の形状モデルの各微小領域から前記第4の形状モデルの対応する各微小領域への変位を与える前記関係も学習する、請求項1に記載の機械学習装置である。
請求項3に記載の発明は、前記特徴量は、各微小領域を与える座標、各微小領域を規定する勾配又は法線ベクトル、各微小領域を規定する曲率、各微小領域のボロノイ面積、各微小領域の収縮率、及び、各微小領域と平均的な形状モデルの対応領域からのずれ量のうちのいずれか1つ又は複数によって規定される、請求項1に記載の機械学習装置である。
請求項4に記載の発明は、前記特徴量を与える前記差分値は、前記第1の形状モデルを構成する全微小領域のうちの5%以上の微小領域との間で計算される、請求項1に記載の機械学習装置である。
請求項5に記載の発明は、前記学習部は、カーネル回帰モデルを用いて前記関係を学習する、請求項1又は2に記載の機械学習装置である。
請求項6に記載の発明は、変形の前後における前記測定データは、医用画像データであることを特徴とする請求項1又は2に記載の機械学習装置である。
請求項7に記載の発明は、前記変形は肺の脱気変形であり、脱気による変形前の前記測定データとして気胸を治療した患者の肺の医用画像データを用い、脱気による変形後の前記測定データとして気胸を治療する前の患者の肺の医用画像データを用いることを特徴とする請求項6に記載の機械学習装置である。
請求項8に記載の発明は、前記変形は、呼吸による若しくは時間変化若しくは検体の違いに伴う臓器の変形又は臓器の位置の移動を含むことを特徴とする請求項6に記載の機械学習装置である。
請求項9に記載の発明は、前記第1の形状モデルと前記第2の形状モデルは、3次元の頂点モデルであることを特徴とする請求項1に記載の機械学習装置である。
請求項10に記載の発明は、コンピュータに、変形の前後における測定データに基づいて、変形前の物体の形状を表す第1の形状モデルと変形後の物体の形状を表す第2の形状モデルを生成する機能と、前記第1の形状モデルの各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第1の形状モデルの各微小領域から前記第2の形状モデルの対応する各微小領域への変位を与える関係を学習する機能とを実行させるプログラムである。
請求項11に記載の発明は、任意の測定データが与えられた場合に、変形前の測定データから生成された第1の形状モデルにおける各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第1の形状モデルの各微小領域から変形後の第2の形状モデルの対応する各微小領域への変位を与える関係を学習した学習済みモデルを用い、当該任意の測定データに対応する変形後の形状を推定する推定部を有する推定装置である。
請求項12に記載の発明は、前記推定部は、入力された前記測定データについて生成される形状モデルの微小領域と他の微小領域との間の差分値を含む特徴量を算出し、各微小領域に対応する特徴量の変位を、前記学習済みモデルに記憶されている関係の補間によって推定することを特徴とする請求項11に記載の推定装置である。
請求項13に記載の発明は、コンピュータに、任意の測定データが与えられた場合に、変形前の測定データから生成された第1の形状モデルにおける各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第1の形状モデルの各微小領域から変形後の第2の形状モデルの対応する各微小領域への変位を与える関係を学習した学習済みモデルを用い、当該任意の測定データに対応する変形後の形状を推定する機能を実行させるプログラムである。
請求項14に記載の発明は、変形前の測定データから生成された第1の形状モデルにおける各微小領域と他の微小領域との間の差分値を含む特徴量を入力とし、当該第1の形状モデルの各微小領域から変形後の第2の形状モデルの対応する各微小領域への変位を出力とする関係を与え、任意の測定データが与えられた場合に、前記関係を用い、当該任意の測定データに対応する形状モデルの各微小領域に対応する変位を演算することにより、当該任意の測定データに対応する変形後の形状を推定する機能をコンピュータに実行させるための学習済みモデルである。
請求項15に記載の発明は、複数の第1の物体の測定データに基づいて、第1の物体の個別の形状を表す形状モデルと平均的な形状モデルを生成する生成部と、前記個別の形状を表す形状モデルを構成する各微小領域と前記平均的な形状モデルの対応する微小領域との間の差分値を含む特徴量の分布と、当該差分値の分布と前記第1の物体との間に制約関係を有する第2の物体が存在する領域との関係を学習する学習部とを有する機械学習装置である。
請求項16に記載の発明は、前記制約関係は、前記第2の物体が前記第1の物体に隣接する又は繋がっている関係を含む、請求項15に記載の機械学習装置である。
請求項17に記載の発明は、コンピュータに、複数の第1の物体の測定データに基づいて、第1の物体の個別の形状を表す形状モデルと平均的な形状モデルを生成する機能と、前記個別の形状を表す形状モデルを構成する各微小領域と前記平均的な形状モデルの対応する微小領域との間の差分値を含む特徴量の分布と、当該差分値の分布と前記第1の物体との間に制約関係を有する第2の物体が存在する領域との関係を学習する機能とを実行させるプログラムである。
請求項2に記載の発明は、前記生成部が、前記第1の形状モデルの要素である頂点の配置を変更した第3の形状モデルと、前記第2の形状モデルの要素である頂点の配置を変更した第4の形状モデルを生成する場合、前記学習部は、前記第3の形状モデルの各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第3の形状モデルの各微小領域から前記第4の形状モデルの対応する各微小領域への変位を与える前記関係も学習する、請求項1に記載の機械学習装置である。
請求項3に記載の発明は、前記特徴量は、各微小領域を与える座標、各微小領域を規定する勾配又は法線ベクトル、各微小領域を規定する曲率、各微小領域のボロノイ面積、各微小領域の収縮率、及び、各微小領域と平均的な形状モデルの対応領域からのずれ量のうちのいずれか1つ又は複数によって規定される、請求項1に記載の機械学習装置である。
請求項4に記載の発明は、前記特徴量を与える前記差分値は、前記第1の形状モデルを構成する全微小領域のうちの5%以上の微小領域との間で計算される、請求項1に記載の機械学習装置である。
請求項5に記載の発明は、前記学習部は、カーネル回帰モデルを用いて前記関係を学習する、請求項1又は2に記載の機械学習装置である。
請求項6に記載の発明は、変形の前後における前記測定データは、医用画像データであることを特徴とする請求項1又は2に記載の機械学習装置である。
請求項7に記載の発明は、前記変形は肺の脱気変形であり、脱気による変形前の前記測定データとして気胸を治療した患者の肺の医用画像データを用い、脱気による変形後の前記測定データとして気胸を治療する前の患者の肺の医用画像データを用いることを特徴とする請求項6に記載の機械学習装置である。
請求項8に記載の発明は、前記変形は、呼吸による若しくは時間変化若しくは検体の違いに伴う臓器の変形又は臓器の位置の移動を含むことを特徴とする請求項6に記載の機械学習装置である。
請求項9に記載の発明は、前記第1の形状モデルと前記第2の形状モデルは、3次元の頂点モデルであることを特徴とする請求項1に記載の機械学習装置である。
請求項10に記載の発明は、コンピュータに、変形の前後における測定データに基づいて、変形前の物体の形状を表す第1の形状モデルと変形後の物体の形状を表す第2の形状モデルを生成する機能と、前記第1の形状モデルの各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第1の形状モデルの各微小領域から前記第2の形状モデルの対応する各微小領域への変位を与える関係を学習する機能とを実行させるプログラムである。
請求項11に記載の発明は、任意の測定データが与えられた場合に、変形前の測定データから生成された第1の形状モデルにおける各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第1の形状モデルの各微小領域から変形後の第2の形状モデルの対応する各微小領域への変位を与える関係を学習した学習済みモデルを用い、当該任意の測定データに対応する変形後の形状を推定する推定部を有する推定装置である。
請求項12に記載の発明は、前記推定部は、入力された前記測定データについて生成される形状モデルの微小領域と他の微小領域との間の差分値を含む特徴量を算出し、各微小領域に対応する特徴量の変位を、前記学習済みモデルに記憶されている関係の補間によって推定することを特徴とする請求項11に記載の推定装置である。
請求項13に記載の発明は、コンピュータに、任意の測定データが与えられた場合に、変形前の測定データから生成された第1の形状モデルにおける各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第1の形状モデルの各微小領域から変形後の第2の形状モデルの対応する各微小領域への変位を与える関係を学習した学習済みモデルを用い、当該任意の測定データに対応する変形後の形状を推定する機能を実行させるプログラムである。
請求項14に記載の発明は、変形前の測定データから生成された第1の形状モデルにおける各微小領域と他の微小領域との間の差分値を含む特徴量を入力とし、当該第1の形状モデルの各微小領域から変形後の第2の形状モデルの対応する各微小領域への変位を出力とする関係を与え、任意の測定データが与えられた場合に、前記関係を用い、当該任意の測定データに対応する形状モデルの各微小領域に対応する変位を演算することにより、当該任意の測定データに対応する変形後の形状を推定する機能をコンピュータに実行させるための学習済みモデルである。
請求項15に記載の発明は、複数の第1の物体の測定データに基づいて、第1の物体の個別の形状を表す形状モデルと平均的な形状モデルを生成する生成部と、前記個別の形状を表す形状モデルを構成する各微小領域と前記平均的な形状モデルの対応する微小領域との間の差分値を含む特徴量の分布と、当該差分値の分布と前記第1の物体との間に制約関係を有する第2の物体が存在する領域との関係を学習する学習部とを有する機械学習装置である。
請求項16に記載の発明は、前記制約関係は、前記第2の物体が前記第1の物体に隣接する又は繋がっている関係を含む、請求項15に記載の機械学習装置である。
請求項17に記載の発明は、コンピュータに、複数の第1の物体の測定データに基づいて、第1の物体の個別の形状を表す形状モデルと平均的な形状モデルを生成する機能と、前記個別の形状を表す形状モデルを構成する各微小領域と前記平均的な形状モデルの対応する微小領域との間の差分値を含む特徴量の分布と、当該差分値の分布と前記第1の物体との間に制約関係を有する第2の物体が存在する領域との関係を学習する機能とを実行させるプログラムである。
請求項1記載の発明によれば、形状の全体を単位として変形を学習する場合に比して、推定精度が高い学習済みモデルを生成できる。
請求項2記載の発明によれば、測定データの数に比して推定精度の高い学習済みモデルを生成できる。
請求項3記載の発明によれば、形状の全体を単位として変形を学習する場合に比して、推定精度が高い学習済みモデルを生成できる。
請求項4記載の発明によれば、差分値を求める微小領域の数が少ない場合でも、推定精度が高い学習済みモデルを生成できる。
請求項5記載の発明によれば、入出力の間に非線形の関係が含まれる場合でも学習済みモデルの推定精度を高めることができる。
請求項6記載の発明によれば、生成された学習済みモデルを医用分野で利用できる。
請求項7記載の発明によれば、脱気後の肺の形状を高い精度で推定可能な学習済みモデルを生成できる。
請求項8記載の発明によれば、生成された学習済みモデルを医用分野で利用できる。
請求項9記載の発明によれば、3次元形状の変形を推定できる。
請求項10記載の発明によれば、形状の全体を単位として変形を学習する場合に比して推定精度が高い学習済みモデルを生成する装置としてコンピュータを動作させることができる。
請求項11記載の発明によれば、形状の全体を単位として変形を学習した学習済みモデルを使用する場合に比して、変形後の形状を高い精度で推定できる。
請求項12記載の発明によれば、形状の全体を単位として変形を学習した学習済みモデルを使用する場合に比して、変形後の形状を高い精度で推定できる。
請求項13記載の発明によれば、形状の全体を単位として変形を学習した学習済みモデルを使用する場合に比して、変形後の形状を高い精度で推定できる装置としてコンピュータを動作させることができる。
請求項14記載の発明によれば、形状の全体を単位として変形を学習する場合よりも変形後の形状を高い精度で推定できる学習済みモデルを提供できる。
請求項15記載の発明によれば、制約関係がある物体間の位置関係を形状単位で学習する場合よりも対象とする他の物体の位置を高い精度で推定できる。
請求項16記載の発明によれば、制約関係がある物体間の位置関係を形状単位で学習する場合よりも対象とする他の物体の位置を高い精度で推定できる。
請求項17記載の発明によれば、制約関係がある物体間の位置関係を形状単位で学習する場合よりも対象とする他の物体の位置を高い精度で推定できる。
請求項2記載の発明によれば、測定データの数に比して推定精度の高い学習済みモデルを生成できる。
請求項3記載の発明によれば、形状の全体を単位として変形を学習する場合に比して、推定精度が高い学習済みモデルを生成できる。
請求項4記載の発明によれば、差分値を求める微小領域の数が少ない場合でも、推定精度が高い学習済みモデルを生成できる。
請求項5記載の発明によれば、入出力の間に非線形の関係が含まれる場合でも学習済みモデルの推定精度を高めることができる。
請求項6記載の発明によれば、生成された学習済みモデルを医用分野で利用できる。
請求項7記載の発明によれば、脱気後の肺の形状を高い精度で推定可能な学習済みモデルを生成できる。
請求項8記載の発明によれば、生成された学習済みモデルを医用分野で利用できる。
請求項9記載の発明によれば、3次元形状の変形を推定できる。
請求項10記載の発明によれば、形状の全体を単位として変形を学習する場合に比して推定精度が高い学習済みモデルを生成する装置としてコンピュータを動作させることができる。
請求項11記載の発明によれば、形状の全体を単位として変形を学習した学習済みモデルを使用する場合に比して、変形後の形状を高い精度で推定できる。
請求項12記載の発明によれば、形状の全体を単位として変形を学習した学習済みモデルを使用する場合に比して、変形後の形状を高い精度で推定できる。
請求項13記載の発明によれば、形状の全体を単位として変形を学習した学習済みモデルを使用する場合に比して、変形後の形状を高い精度で推定できる装置としてコンピュータを動作させることができる。
請求項14記載の発明によれば、形状の全体を単位として変形を学習する場合よりも変形後の形状を高い精度で推定できる学習済みモデルを提供できる。
請求項15記載の発明によれば、制約関係がある物体間の位置関係を形状単位で学習する場合よりも対象とする他の物体の位置を高い精度で推定できる。
請求項16記載の発明によれば、制約関係がある物体間の位置関係を形状単位で学習する場合よりも対象とする他の物体の位置を高い精度で推定できる。
請求項17記載の発明によれば、制約関係がある物体間の位置関係を形状単位で学習する場合よりも対象とする他の物体の位置を高い精度で推定できる。
以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
<実施の形態1>
<システム構成>
図1は、変形の前後の測定データの関係を学習した学習済みモデルを用いて、任意の測定データについての変形後の形状を推定する推定システム1の概念構成例を説明する図である。
図1に示す推定システム1は、教師データとしての測定データから学習済みモデルを生成する機械学習装置10と、生成された学習済みモデルを用いて任意の測定データの変形後の形状を推定する変形推定装置20とを有している。
本実施の形態の場合、機械学習装置10に対する測定データの入力は、測定データが格納されているデータベース(DB)30から直接入力されてもよいし、ネットワーク40経由で入力されてもよい。ここでのネットワーク40は、ローカルエリアネットワークでも、インターネットでもよい。
<システム構成>
図1は、変形の前後の測定データの関係を学習した学習済みモデルを用いて、任意の測定データについての変形後の形状を推定する推定システム1の概念構成例を説明する図である。
図1に示す推定システム1は、教師データとしての測定データから学習済みモデルを生成する機械学習装置10と、生成された学習済みモデルを用いて任意の測定データの変形後の形状を推定する変形推定装置20とを有している。
本実施の形態の場合、機械学習装置10に対する測定データの入力は、測定データが格納されているデータベース(DB)30から直接入力されてもよいし、ネットワーク40経由で入力されてもよい。ここでのネットワーク40は、ローカルエリアネットワークでも、インターネットでもよい。
また、生成された学習済みモデルや学習済みモデルを更新するパラメータ(更新パラメータ)は、直接又はネットワーク40経由で変形推定装置20に与えられる。もっとも、学習済みモデルや更新パラメータは、不図示の記憶媒体を介して、変形推定装置20に与えられてもよい。更新パラメータは、例えば学習によって更新された変形関数の係数の値である。
変形推定装置20は、端末50から直接又はネットワーク40経由で推定の対象である測定データを入力し、推定の結果(推定結果)を直接又はネットワーク40経由で端末50に出力する。ここでの端末50は、例えば手術支援システム、放射線治療装置等でもよい。
変形推定装置20は、端末50から直接又はネットワーク40経由で推定の対象である測定データを入力し、推定の結果(推定結果)を直接又はネットワーク40経由で端末50に出力する。ここでの端末50は、例えば手術支援システム、放射線治療装置等でもよい。
<機械学習装置>
図2は、機械学習装置10のハードウェア構成の一例を示す図である。
図2に示す機械学習装置10は、プログラム(基本ソフトウェアを含む)の実行を通じて装置全体を制御するCPU(Central Processing Unit)11と、BIOS(Basic Input Output System)等のプログラムを記憶するROM12と、プログラムの実行領域として使用されるRAM(Random Access Memory)13とを有している。ここでのCPU11、ROM12、RAM13は、いわゆるコンピュータを構成し、各種の情報処理を実行する。なお、ROM12は、不揮発性の半導体メモリによって構成される。
図2は、機械学習装置10のハードウェア構成の一例を示す図である。
図2に示す機械学習装置10は、プログラム(基本ソフトウェアを含む)の実行を通じて装置全体を制御するCPU(Central Processing Unit)11と、BIOS(Basic Input Output System)等のプログラムを記憶するROM12と、プログラムの実行領域として使用されるRAM(Random Access Memory)13とを有している。ここでのCPU11、ROM12、RAM13は、いわゆるコンピュータを構成し、各種の情報処理を実行する。なお、ROM12は、不揮発性の半導体メモリによって構成される。
記憶装置14は、例えばハードディスク装置で構成され、変形の前後の関係を学習するアプリケーションプログラムや学習結果である学習済みモデル等を記憶する。なお、記憶装置14は、内蔵型に限らず、外付型の記憶装置でもよいし、ネットワークストレージでもよい。
入力装置15は、例えばキーボードやマウスであり、操作入力に使用される。出力装置16は、表示装置や印刷装置であり、操作画面の表示や情報の印刷等に使用される。なお、機械学習装置10がサーバとして実現される場合には、入力装置15と出力装置16は、不図示の端末側に設けられていてもよい。
通信装置17は、外部装置との通信に用いられる。通信装置17は、データベース30からの測定データの入力、学習済みモデル又は更新パラメータの変形推定装置20への出力(配信を含む)などに使用される。
CPU11と各部は、バス18や不図示の信号線を通じて接続されている。
なお、機械学習装置10は、専用のハードウェアとして実現することも可能である。
入力装置15は、例えばキーボードやマウスであり、操作入力に使用される。出力装置16は、表示装置や印刷装置であり、操作画面の表示や情報の印刷等に使用される。なお、機械学習装置10がサーバとして実現される場合には、入力装置15と出力装置16は、不図示の端末側に設けられていてもよい。
通信装置17は、外部装置との通信に用いられる。通信装置17は、データベース30からの測定データの入力、学習済みモデル又は更新パラメータの変形推定装置20への出力(配信を含む)などに使用される。
CPU11と各部は、バス18や不図示の信号線を通じて接続されている。
なお、機械学習装置10は、専用のハードウェアとして実現することも可能である。
図3は、機械学習装置10の機能構成の一例を示す図である。図3に示す機能構成は、CPU11(図2参照)によるプログラムの実行を通じて実現される。
図3では、変形前の物体を撮像又は測定することで取得される画像データを変形前画像I(i)Iで示し、同じく変形後の物体を撮像又は測定することで取得される画像データを変形後画像I(i)Dで示す。変形前画像I(i)Iと変形後画像I(i)Dは、変形の前後における測定データの一例である。
本実施の形態における機械学習装置10は、変形前画像I(i)Iと変形後画像I(i)Dのそれぞれから頂点モデルを生成する形状モデル生成部101と、生成された頂点モデルから頂点の配置が異なる複数の頂点モデルを生成するモデルアップサンプリング部102と、アップサンプリングにより生成された頂点モデルの各微小領域の特徴量と変形の前後における微小領域間の変位との関係を学習する変形学習部103として機能する。
図3では、変形前の物体を撮像又は測定することで取得される画像データを変形前画像I(i)Iで示し、同じく変形後の物体を撮像又は測定することで取得される画像データを変形後画像I(i)Dで示す。変形前画像I(i)Iと変形後画像I(i)Dは、変形の前後における測定データの一例である。
本実施の形態における機械学習装置10は、変形前画像I(i)Iと変形後画像I(i)Dのそれぞれから頂点モデルを生成する形状モデル生成部101と、生成された頂点モデルから頂点の配置が異なる複数の頂点モデルを生成するモデルアップサンプリング部102と、アップサンプリングにより生成された頂点モデルの各微小領域の特徴量と変形の前後における微小領域間の変位との関係を学習する変形学習部103として機能する。
本実施の形態における頂点モデルは、いずれも3次元の頂点モデルである。なお、3次元の頂点モデルは、ポリゴンによって表面を表現するポリゴンメッシュの頂点によって規定されてもよいし、ボクセルによって表面と内部の両方を表現するボクセルメッシュの頂点によって規定されてもよい。
ここでの学習は、一般的な学習とは異なり、頂点モデルの全体ではなく、頂点モデルを構成する微小領域単位で行われる。学習の結果である変形関数fは、学習済みモデルとして出力される。
ここでの学習は、一般的な学習とは異なり、頂点モデルの全体ではなく、頂点モデルを構成する微小領域単位で行われる。学習の結果である変形関数fは、学習済みモデルとして出力される。
学習の対象である物体に特に制限はないが、本実施の形態の場合、形状や位置(又は領域)が変化する物体を想定する。本実施の形態では、検体(例えばヒト、動物)の肺、肝臓、胃、腸、腎臓、膵臓などの臓器を学習の対象とする。
図4は、脱気による動物肺の変形を説明する図である。(A)は変位モデルAを示し、(B)は変位モデルBを示し、(C)は変位モデルCを示す。
変位モデルA、B及びCの作成には、実験用のビーグル犬を使用した。実験では、気管支内圧を14cmH2Oから2cmH2Oに変化させ、肺の形状を3次元CTで計測した。
図4は、脱気による動物肺の変形を説明する図である。(A)は変位モデルAを示し、(B)は変位モデルBを示し、(C)は変位モデルCを示す。
変位モデルA、B及びCの作成には、実験用のビーグル犬を使用した。実験では、気管支内圧を14cmH2Oから2cmH2Oに変化させ、肺の形状を3次元CTで計測した。
本実施の形態では、変形前画像I(i)Iと変形後画像I(i)Dとして、検体の臓器を撮像した医用画像データを使用する。医用画像データには、例えばCT画像、MRI(Magnetic Resonance Imaging)画像、X線画像、超音波画像、PET(Positron Emission Tomography)画像等がある。医用画像データは、2次元画像でも3次元画像でもよい。2次元画像は、2次元空間を規定するピクセルによって表現され、3次元画像は3次元空間を規定するボクセル(立方体の単位セル)、ポリゴン等によって表現される。医用画像データは測定データの一例である。
本実施の形態の場合、変形前画像I(i)Iと変形後画像I(i)Dは3次元画像とする。3次元画像は、例えば座標とボクセル値で定義される。ボクセル値は、撮像手法によって異なる。
本実施の形態の場合、変形前画像I(i)Iと変形後画像I(i)Dは3次元画像とする。3次元画像は、例えば座標とボクセル値で定義される。ボクセル値は、撮像手法によって異なる。
図3の説明に戻る。
形状モデル生成部101は、変形前画像I(i)Iと変形後画像I(i)Dのそれぞれから頂点モデルを生成する。
図5は、実施の形態に係る形状モデル生成部101で実行される処理の一例を説明する図である。
図5に示す形状モデル生成部101は、サンプリング部101Aと位置合わせ部101Bとで構成される。
サンプリング部101Aは、例えば変形前画像I(i)Iと変形後画像I(i)Dをそれぞれサンプリングし、ボクセルメッシュ構造又はポリゴンメッシュ構造の形状データを生成する。ここでは、変形前画像I(i)Iに対応する形状データをS(i)Iとし、変形後画像I(i)Dに対応する形状データをS(i)Dとする。
形状モデル生成部101は、変形前画像I(i)Iと変形後画像I(i)Dのそれぞれから頂点モデルを生成する。
図5は、実施の形態に係る形状モデル生成部101で実行される処理の一例を説明する図である。
図5に示す形状モデル生成部101は、サンプリング部101Aと位置合わせ部101Bとで構成される。
サンプリング部101Aは、例えば変形前画像I(i)Iと変形後画像I(i)Dをそれぞれサンプリングし、ボクセルメッシュ構造又はポリゴンメッシュ構造の形状データを生成する。ここでは、変形前画像I(i)Iに対応する形状データをS(i)Iとし、変形後画像I(i)Dに対応する形状データをS(i)Dとする。
被験体や撮像条件の違いによっても、変形前画像I(i)Iと変形後画像I(i)Dの大きさは異なる。また、撮像時における被験体の体位や体調の統一にも限界がある。このため、独立に形成された形状データS(i)I及びS(i)Dに含まれるボクセルの頂点の数は一般には一致しない。
図5の場合、形状データS(i)Iの頂点数は600であるが、形状データS(i)Dの頂点数は350である。
図6は、患者の違いによる頂点数の違いを説明する図である。図6では、変形の前後を無視し、患者1の画像をI(1)、患者2の画像2をI(2)、患者3の画像3をI(3)で示し、対応する形状データをS(1)、S(2)、S(3)で示している。
図6の場合、患者1の形状データS(1)の頂点数は400であり、患者2の形状データS(2)の頂点数は600であり、患者3の形状データS(3)の頂点数は350である。
図5の場合、形状データS(i)Iの頂点数は600であるが、形状データS(i)Dの頂点数は350である。
図6は、患者の違いによる頂点数の違いを説明する図である。図6では、変形の前後を無視し、患者1の画像をI(1)、患者2の画像2をI(2)、患者3の画像3をI(3)で示し、対応する形状データをS(1)、S(2)、S(3)で示している。
図6の場合、患者1の形状データS(1)の頂点数は400であり、患者2の形状データS(2)の頂点数は600であり、患者3の形状データS(3)の頂点数は350である。
図5の説明に戻る。
形状データS(i)I及びS(i)Dが得られると、位置合わせ部101Bは、形状データ間の位置合わせを実行する。具体的には、各形状データの頂点数を揃える処理を実行する。
図5においては、頂点数を揃えた後の形状データを形状モデルM(i)と表している。以下では、変形前の形状モデルをM(i)Iといい、変形後の形状モデルはM(i)Dという。
変形前の形状モデルM(i)Iは、第1の形状モデルの一例であり、変形後の形状モデルM(i)Dは、第2の形状モデルの一例である。
図5の場合、形状モデルM(i)の頂点数は500に統一されている。
頂点数が統一された形状モデルM(i)の生成により、物体の変形を統計的に学習することが可能になる。
なお、変形前画像I(i)I及び変形後画像I(i)Dに代えて形状データS(i)I及びS(i)Dが形状モデル生成部101(図3参照)に入力される場合には、サンプリング部101Aの処理を省略できる。
形状データS(i)I及びS(i)Dが得られると、位置合わせ部101Bは、形状データ間の位置合わせを実行する。具体的には、各形状データの頂点数を揃える処理を実行する。
図5においては、頂点数を揃えた後の形状データを形状モデルM(i)と表している。以下では、変形前の形状モデルをM(i)Iといい、変形後の形状モデルはM(i)Dという。
変形前の形状モデルM(i)Iは、第1の形状モデルの一例であり、変形後の形状モデルM(i)Dは、第2の形状モデルの一例である。
図5の場合、形状モデルM(i)の頂点数は500に統一されている。
頂点数が統一された形状モデルM(i)の生成により、物体の変形を統計的に学習することが可能になる。
なお、変形前画像I(i)I及び変形後画像I(i)Dに代えて形状データS(i)I及びS(i)Dが形状モデル生成部101(図3参照)に入力される場合には、サンプリング部101Aの処理を省略できる。
図7は、位置合わせ部101Bによる位置合わせ処理を説明する図である。前述したように、位置合わせ処理では、予め定めたテンプレート形状Tを、形状データS(i)の形状に一致させるように変形することで、外形状が形状データS(i)と同相であるが、頂点数がテンプレート形状Tの頂点数に統一された形状モデルM(i)が生成される。ここで、テンプレート形状Tを形状データS(i)の形状に近づける処理は、全体から局所へと徐々に実行される。
ここで、位置合わせ部101B(図5参照)による位置合わせは、変形前の形状データS(i)Iに続き、変形後の形状データS(i)Dについても実行される。
図8は、変形前の形状データS(i)Iに対する位置合わせと変形後の形状データS(i)Dに対する位置合わせの実行順序を説明する図である。まず、500頂点のテンプレート形状Tの位置合わせにより変形前の形状データS(1)I、S(2)I、S(3)Iから形状モデルM(1)I、M(2)I、M(3)Iが生成される。次に、500頂点の変形前の形状モデルM(i)Iを変形後の形状データS(1)D、S(2)D、S(3)Dに位置合わせすることにより、形状モデルM(1)D、M(2)D、M(3)Dが生成される。
図8に示す2段階の位置合わせにより、変形前の形状データS(i)Iと変形後の形状データS(i)Dの頂点数をテンプレート形状Tの頂点数に統一した形状モデルM(i)I及びM(i)Dが生成される。
ここで、位置合わせ部101B(図5参照)による位置合わせは、変形前の形状データS(i)Iに続き、変形後の形状データS(i)Dについても実行される。
図8は、変形前の形状データS(i)Iに対する位置合わせと変形後の形状データS(i)Dに対する位置合わせの実行順序を説明する図である。まず、500頂点のテンプレート形状Tの位置合わせにより変形前の形状データS(1)I、S(2)I、S(3)Iから形状モデルM(1)I、M(2)I、M(3)Iが生成される。次に、500頂点の変形前の形状モデルM(i)Iを変形後の形状データS(1)D、S(2)D、S(3)Dに位置合わせすることにより、形状モデルM(1)D、M(2)D、M(3)Dが生成される。
図8に示す2段階の位置合わせにより、変形前の形状データS(i)Iと変形後の形状データS(i)Dの頂点数をテンプレート形状Tの頂点数に統一した形状モデルM(i)I及びM(i)Dが生成される。
図3の説明に戻る。
モデルアップサンプリング部102は、形状モデル生成部101で生成された形状モデルM(i)I及びM(i)Dをそれぞれアップサンプリングして、形状や構造はほぼ等しいが頂点の配置が異なる複数の形状モデルを生成する。
ただし、変形の前後の画像の取得が容易な物体を扱う場合等には、モデルアップサンプリング部102は必須ではない。
一方で、変形の前後の画像の取得が容易ではない物体を扱う場合(例えば医用画像データを扱う場合)には、モデルアップサンプリング部102を設けることで、学習に用いる教師データの数を増やすことができる。なお、画像の取得が容易な物体を扱う場合でも、モデルアップサンプリング部102を用いることで、より少ない画像から教師データに用いる形状モデルM(i)I及びM(i)Dの数を増やすことができる。
モデルアップサンプリング部102は、形状モデル生成部101で生成された形状モデルM(i)I及びM(i)Dをそれぞれアップサンプリングして、形状や構造はほぼ等しいが頂点の配置が異なる複数の形状モデルを生成する。
ただし、変形の前後の画像の取得が容易な物体を扱う場合等には、モデルアップサンプリング部102は必須ではない。
一方で、変形の前後の画像の取得が容易ではない物体を扱う場合(例えば医用画像データを扱う場合)には、モデルアップサンプリング部102を設けることで、学習に用いる教師データの数を増やすことができる。なお、画像の取得が容易な物体を扱う場合でも、モデルアップサンプリング部102を用いることで、より少ない画像から教師データに用いる形状モデルM(i)I及びM(i)Dの数を増やすことができる。
図9は、モデルアップサンプリング部102によるアップサンプリング動作を説明する図である。
図9の場合、変形前の形状モデルM(i)Iの数と変形後の形状モデルM(i)Dの数がそれぞれk倍される。すなわち、変形前の1つの形状モデルM(i)Iについて、頂点の配置が異なるk個の形状モデルM(i1)I…M(ik)Iが生成され、変形後の1つの形状モデルM(i)Dについて、頂点の配置が異なるk個の形状モデルM(i1)D…M(ik)Dが生成される。
ここで、変形前の形状モデルM(i1)I…M(ik)Iは第3の形状モデルの一例であり、変形後の形状モデルM(i1)D…M(ik)Dは第4の形状モデルの一例である。
勿論、生成される形状モデルM(i1)I…M(ik)I及びM(i1)D…M(ik)Dを構成する頂点の数はいずれも500個である。
このように、頂点の配置が異なる形状モデルをアップサンプリングによって生成するのは、本実施の形態では、形状モデルの微小領域単位(例えば頂点単位)で変位を学習するためである。
前述したように、予め十分な数の測定データを利用可能な場合には、モデルアップサンプリング部102によるアップサンプリング動作を省略できる。
図9の場合、変形前の形状モデルM(i)Iの数と変形後の形状モデルM(i)Dの数がそれぞれk倍される。すなわち、変形前の1つの形状モデルM(i)Iについて、頂点の配置が異なるk個の形状モデルM(i1)I…M(ik)Iが生成され、変形後の1つの形状モデルM(i)Dについて、頂点の配置が異なるk個の形状モデルM(i1)D…M(ik)Dが生成される。
ここで、変形前の形状モデルM(i1)I…M(ik)Iは第3の形状モデルの一例であり、変形後の形状モデルM(i1)D…M(ik)Dは第4の形状モデルの一例である。
勿論、生成される形状モデルM(i1)I…M(ik)I及びM(i1)D…M(ik)Dを構成する頂点の数はいずれも500個である。
このように、頂点の配置が異なる形状モデルをアップサンプリングによって生成するのは、本実施の形態では、形状モデルの微小領域単位(例えば頂点単位)で変位を学習するためである。
前述したように、予め十分な数の測定データを利用可能な場合には、モデルアップサンプリング部102によるアップサンプリング動作を省略できる。
図10は、本実施の形態におけるアップサンプリングの方法の一例を説明する図である。
図10では、作図上の制約と説明の都合により、形状モデルM(i)I及びM(i)Dを構成する各500個の頂点(図中、×印で示す)のうち表面に位置する頂点だけを表している。
図10に示す方法は、形状モデルの500個の頂点を、形状モデル内に定めた点(例えば重心C)を中心にある方向に回転させ、その後、表面に位置していた頂点(図中、白丸で示す)を回転前の表面(図中、曲線で示す)のうち最も距離が近い位置に向けて線形移動させる。
この結果、回転前の表面上に位置していた各頂点(図中、×印で示す)は、黒丸で示す位置に移動される。この回転及び線形移動の際、形状モデル内の各頂点は、表面上の頂点との相対的な位置関係が保存されるように再配置される。例えば形状モデルの全体を四面体要素で表現する場合、四面体内部の相対位置をパラメータ化することが可能である。
なお、回転中心を変更すれば、同じ処理工程を実行しても、異なるアップサンプリングモデルを生成できる。同様に、回転の方向を変更することによっても、異なるアップサンプリングモデルを生成できる。線形移動時の規則の変更によっても異なるアップサンプリングモデルを生成できる。
図10に示すアップサンプリングによって、形状モデルの外形と頂点数を維持しながらも、頂点の配置が異なる複数の形状モデルを生成できる。
図10では、作図上の制約と説明の都合により、形状モデルM(i)I及びM(i)Dを構成する各500個の頂点(図中、×印で示す)のうち表面に位置する頂点だけを表している。
図10に示す方法は、形状モデルの500個の頂点を、形状モデル内に定めた点(例えば重心C)を中心にある方向に回転させ、その後、表面に位置していた頂点(図中、白丸で示す)を回転前の表面(図中、曲線で示す)のうち最も距離が近い位置に向けて線形移動させる。
この結果、回転前の表面上に位置していた各頂点(図中、×印で示す)は、黒丸で示す位置に移動される。この回転及び線形移動の際、形状モデル内の各頂点は、表面上の頂点との相対的な位置関係が保存されるように再配置される。例えば形状モデルの全体を四面体要素で表現する場合、四面体内部の相対位置をパラメータ化することが可能である。
なお、回転中心を変更すれば、同じ処理工程を実行しても、異なるアップサンプリングモデルを生成できる。同様に、回転の方向を変更することによっても、異なるアップサンプリングモデルを生成できる。線形移動時の規則の変更によっても異なるアップサンプリングモデルを生成できる。
図10に示すアップサンプリングによって、形状モデルの外形と頂点数を維持しながらも、頂点の配置が異なる複数の形状モデルを生成できる。
図11は、本実施の形態におけるアップサンプリングの方法の他の一例を説明する図である。
図11も、作図上の制約と説明の都合により、形状モデルM(i)I及びM(i)Dを構成する各500個の頂点(図中、×印で示す)のうち表面に位置する頂点だけを表している。
図11に示す方法は、形状モデルの500個の頂点を、形状モデル内に定めた点(例えば重心C)を中心に拡大変換(外方向に移動)させ、その後、表面に位置していた頂点(図中、白丸で示す)を拡大変換前の表面(図中、曲線で示す)のうち最も距離が近い位置に向けて線形移動させる。
この結果、拡大変換前の表面上に位置していた各頂点(図中、×印で示す)は、黒丸で示す位置に移動される。この拡大変換及び線形移動の際、形状モデル内の各頂点は、表面上の頂点との相対的な位置関係が保存されるように再配置される。
なお、拡大変換に使用する中心の位置を変更すれば、同じ処理工程を実行しても、異なるアップサンプリングモデルを生成できる。同様に、拡大率を変更することによっても、異なるアップサンプリングモデルを生成できる。線形移動時の規則の変更によっても異なるアップサンプリングモデルを生成できる。
図11に示すアップサンプリングによって、形状モデルの外形と頂点数を維持しながらも、頂点の配置が異なる複数の形状モデルを生成できる。
図11も、作図上の制約と説明の都合により、形状モデルM(i)I及びM(i)Dを構成する各500個の頂点(図中、×印で示す)のうち表面に位置する頂点だけを表している。
図11に示す方法は、形状モデルの500個の頂点を、形状モデル内に定めた点(例えば重心C)を中心に拡大変換(外方向に移動)させ、その後、表面に位置していた頂点(図中、白丸で示す)を拡大変換前の表面(図中、曲線で示す)のうち最も距離が近い位置に向けて線形移動させる。
この結果、拡大変換前の表面上に位置していた各頂点(図中、×印で示す)は、黒丸で示す位置に移動される。この拡大変換及び線形移動の際、形状モデル内の各頂点は、表面上の頂点との相対的な位置関係が保存されるように再配置される。
なお、拡大変換に使用する中心の位置を変更すれば、同じ処理工程を実行しても、異なるアップサンプリングモデルを生成できる。同様に、拡大率を変更することによっても、異なるアップサンプリングモデルを生成できる。線形移動時の規則の変更によっても異なるアップサンプリングモデルを生成できる。
図11に示すアップサンプリングによって、形状モデルの外形と頂点数を維持しながらも、頂点の配置が異なる複数の形状モデルを生成できる。
なお、アップサンプリングにより頂点位置を摂動(再配置)する方法には、縮小変換後に元の形状とほぼ一致するように各頂点を再配置する方法、ランダムに頂点位置を摂動する方法等を用いてもよい。
また、前述の説明では、回転等された頂点のうち表面上の頂点を元の形状モデルの表面に線形移動させるように位置合わせしているが、この線形移動による位置合わせは、弱い制約の下に実行すればよい。弱い制約とは、予め定めた範囲内の誤差を許容する意味である。
モデルアップサンプリング部102によるアップサンプリング動作により、表現された形状や構造はほぼ等しいが頂点配置が異なるモデルを多数生成できる。すなわち、教師データを増加できる。
また、前述の説明では、回転等された頂点のうち表面上の頂点を元の形状モデルの表面に線形移動させるように位置合わせしているが、この線形移動による位置合わせは、弱い制約の下に実行すればよい。弱い制約とは、予め定めた範囲内の誤差を許容する意味である。
モデルアップサンプリング部102によるアップサンプリング動作により、表現された形状や構造はほぼ等しいが頂点配置が異なるモデルを多数生成できる。すなわち、教師データを増加できる。
図3の説明に戻る。
変形学習部103は、前記の処理によって生成された変形前の形状モデルM(i1)I~M(ik)Iと変形後の形状モデルM(i1)D~M(ik)Dとの関係を学習する。
本実施の形態の場合、微小領域(例えば頂点)単位で変形を学習する。
図12及び図13に、本実施の形態における学習の概念を示す。
図12は、肺の形状モデルMと微小領域dMの関係を説明する図である。微小領域単位で学習することで、1つの測定データから取得できる微小領域の数の学習データを生成できる。微小領域として頂点を用いると、本実施の形態の場合、1つの測定データから500個の学習データを生成できることを意味する。もちろん、測定データの数だけ生成される学習データは倍増する。
図13は、実施の形態において学習する入出力関係を説明する図である。
本実施の形態では、入力として変形前の形状モデルの各頂点iに関する特徴量データxiを用い、出力として対応する頂点iについての変形前後における変位量データyiを用いる。学習の段階では、特徴量データxiと変位量データyiの両方が与えられ、2つの値の関係を規定する変形関数fが学習される。
変形学習部103は、前記の処理によって生成された変形前の形状モデルM(i1)I~M(ik)Iと変形後の形状モデルM(i1)D~M(ik)Dとの関係を学習する。
本実施の形態の場合、微小領域(例えば頂点)単位で変形を学習する。
図12及び図13に、本実施の形態における学習の概念を示す。
図12は、肺の形状モデルMと微小領域dMの関係を説明する図である。微小領域単位で学習することで、1つの測定データから取得できる微小領域の数の学習データを生成できる。微小領域として頂点を用いると、本実施の形態の場合、1つの測定データから500個の学習データを生成できることを意味する。もちろん、測定データの数だけ生成される学習データは倍増する。
図13は、実施の形態において学習する入出力関係を説明する図である。
本実施の形態では、入力として変形前の形状モデルの各頂点iに関する特徴量データxiを用い、出力として対応する頂点iについての変形前後における変位量データyiを用いる。学習の段階では、特徴量データxiと変位量データyiの両方が与えられ、2つの値の関係を規定する変形関数fが学習される。
本実施の形態では、特徴量データxiとして、同じ形状モデル上の微小領域間の差分(例えば頂点間差分d)を用いる。
図13では、特徴量データxiの一例である頂点間差分dの具体例として、頂点1と他の頂点2及び3と差分d12及びd13を例示している。
実際には、1つの頂点iと500個の頂点(微小領域)との間で差分dが算出される。ここで、各頂点の座標をvi及びvjで表すと、頂点iに関する頂点間差分dijは、dij=vj-vi(ただし、j=1、2、3、…、500)と表現される。
従って、頂点iについての特徴量データxiは、500個の頂点間差分dijの集合として定義される。後述するように、頂点間差分dijは、特徴量データxiの一例である。
図13では、頂点1、頂点2及び頂点3のいずれもが離散的に描かれているが、これは頂点間差分dijの説明のためであり、実際の位置は図13に示す例に限らない。
図13では、特徴量データxiの一例である頂点間差分dの具体例として、頂点1と他の頂点2及び3と差分d12及びd13を例示している。
実際には、1つの頂点iと500個の頂点(微小領域)との間で差分dが算出される。ここで、各頂点の座標をvi及びvjで表すと、頂点iに関する頂点間差分dijは、dij=vj-vi(ただし、j=1、2、3、…、500)と表現される。
従って、頂点iについての特徴量データxiは、500個の頂点間差分dijの集合として定義される。後述するように、頂点間差分dijは、特徴量データxiの一例である。
図13では、頂点1、頂点2及び頂点3のいずれもが離散的に描かれているが、これは頂点間差分dijの説明のためであり、実際の位置は図13に示す例に限らない。
図14は、実施の形態に係る変形学習部103で実行される処理の一例を説明する図である。
図14に示す変形学習部103は、変形前モデル群の要素である個々の形状モデルの頂点毎に特徴量データxiを算出する特徴量算出部103Aと、変形の前後の形状モデルの対応頂点i間の変位量データyiを算出する変位算出部103Bと、算出された特徴量データxiと変位量データyiとの関係を学習する機械学習部103Cとで構成される。
本実施の形態における特徴量算出部103Aは、学習用に与えられた変形前の測定データから生成された形状モデルM(i1)I~M(ik)Iの頂点毎に特徴量データxiを算出する。
前述したように、本実施の形態の場合、特徴量データxiは、学習用に入力された変形前の測定データから生成された形状モデルM(i)Iを構成する全ての頂点についての頂点間差分dijとして与えられる。すなわち、1つの形状モデルM(i)Iについて500個の特徴量データxiが算出される。
図14の場合、変形前モデル群の要素の数はk個であるので、500×k個の特徴量データxiが算出される。実際には、入力される測定データの数Aを乗算した数の特徴量データxiが算出される。
図14に示す変形学習部103は、変形前モデル群の要素である個々の形状モデルの頂点毎に特徴量データxiを算出する特徴量算出部103Aと、変形の前後の形状モデルの対応頂点i間の変位量データyiを算出する変位算出部103Bと、算出された特徴量データxiと変位量データyiとの関係を学習する機械学習部103Cとで構成される。
本実施の形態における特徴量算出部103Aは、学習用に与えられた変形前の測定データから生成された形状モデルM(i1)I~M(ik)Iの頂点毎に特徴量データxiを算出する。
前述したように、本実施の形態の場合、特徴量データxiは、学習用に入力された変形前の測定データから生成された形状モデルM(i)Iを構成する全ての頂点についての頂点間差分dijとして与えられる。すなわち、1つの形状モデルM(i)Iについて500個の特徴量データxiが算出される。
図14の場合、変形前モデル群の要素の数はk個であるので、500×k個の特徴量データxiが算出される。実際には、入力される測定データの数Aを乗算した数の特徴量データxiが算出される。
本実施の形態における変位算出部103Bは、変形の前後の関係にある形状モデルの対応頂点間における変位量データyiを算出する。変形前後の1つの形状モデルについて500個の変位量データyiが算出される。
本実施の形態における機械学習部103Cは、変形前の形状モデルM(j)Iの各頂点iについての特徴量データxiと、同一の頂点iについての変形前後の形状モデル間の変位量データyiとの関係を表す変形関係f(j)を学習する。
図15は、実施の形態に係る機械学習部103Cで学習される関係を説明する図である。
図15においては、変形前の形状モデルM(1)Iの各頂点i(I=1…500)についての特徴量データx1(1)…x1(500)と、対応する頂点間の変位量データy1(1)…y1(500)との関係を学習した変形関数をf1で表している。形状モデルM(2)I及びM(3)Iについても同様である。
本実施の形態における機械学習部103Cは、変形前の形状モデルM(j)Iの各頂点iについての特徴量データxiと、同一の頂点iについての変形前後の形状モデル間の変位量データyiとの関係を表す変形関係f(j)を学習する。
図15は、実施の形態に係る機械学習部103Cで学習される関係を説明する図である。
図15においては、変形前の形状モデルM(1)Iの各頂点i(I=1…500)についての特徴量データx1(1)…x1(500)と、対応する頂点間の変位量データy1(1)…y1(500)との関係を学習した変形関数をf1で表している。形状モデルM(2)I及びM(3)Iについても同様である。
本実施の形態では、変形関数fを表す回帰モデルとして、式1で表現されるカーネル回帰モデルを使用する。
ここでのk(xi,x)は、次式で与えられるカーネル関数である。
k(xi,x)=exp(-β||xi-x||2)
なお、||xi-x||2は、同じ形状モデル上における頂点iと他の頂点jとの頂点間差分dijに対応するL2ノルムである。すなわち、k(xi,x)は、頂点iについての特徴量データxiに対応する。また、個々のαik(xi,x)は、図15におけるfi(i=1、2、3)に対応している。
本実施の形態における変位算出部103Bは、頂点i毎に係数αiを学習する。係数αiは、更新パラメータである。
学習された係数αiの集合を学習済みモデルとして変形推定装置20(図1参照)に与えてもよいし、新たに学習された係数αiを変形推定装置20に送信して、学習済みモデルを更新してもよい。
ここでのk(xi,x)は、次式で与えられるカーネル関数である。
k(xi,x)=exp(-β||xi-x||2)
なお、||xi-x||2は、同じ形状モデル上における頂点iと他の頂点jとの頂点間差分dijに対応するL2ノルムである。すなわち、k(xi,x)は、頂点iについての特徴量データxiに対応する。また、個々のαik(xi,x)は、図15におけるfi(i=1、2、3)に対応している。
本実施の形態における変位算出部103Bは、頂点i毎に係数αiを学習する。係数αiは、更新パラメータである。
学習された係数αiの集合を学習済みモデルとして変形推定装置20(図1参照)に与えてもよいし、新たに学習された係数αiを変形推定装置20に送信して、学習済みモデルを更新してもよい。
<学習済みモデルの具体例>
例えばヒトの肺の医用画像データは、気胸を患っている患者の手術前のCTデータと手術後のCTデータとして取得できる。
手術前のCTデータは、虚脱肺のCTデータであり、手術後のCTデータは、正常肺(治療後)のCTデータである。
この場合、手術後のCTデータを変形前の医用画像データとし、手術前のCTデータを変形後の医用画像データとして、変形の前後の関係を学習済みモデルとして学習する。この学習済みモデルは、通常肺の患者を手術する場合における手術中の肺の変形の予測に用いることができる。
例えばヒトの肺の医用画像データは、気胸を患っている患者の手術前のCTデータと手術後のCTデータとして取得できる。
手術前のCTデータは、虚脱肺のCTデータであり、手術後のCTデータは、正常肺(治療後)のCTデータである。
この場合、手術後のCTデータを変形前の医用画像データとし、手術前のCTデータを変形後の医用画像データとして、変形の前後の関係を学習済みモデルとして学習する。この学習済みモデルは、通常肺の患者を手術する場合における手術中の肺の変形の予測に用いることができる。
<変形推定装置>
図16は、変形推定装置20(図1参照)のハードウェア構成の一例を示す図である。
図16に示す変形推定装置20は、プログラム(基本ソフトウェアを含む)の実行を通じて装置全体を制御するCPU(Central Processing Unit)21と、BIOS(Basic Input Output System)等のプログラムを記憶するROM22と、プログラムの実行領域として使用されるRAM(Random Access Memory)23とを有している。ここでのCPU21、ROM22、RAM23は、いわゆるコンピュータを構成し、各種の情報処理を実行する。なお、ROM22は、不揮発性の半導体メモリによって構成される。
図16は、変形推定装置20(図1参照)のハードウェア構成の一例を示す図である。
図16に示す変形推定装置20は、プログラム(基本ソフトウェアを含む)の実行を通じて装置全体を制御するCPU(Central Processing Unit)21と、BIOS(Basic Input Output System)等のプログラムを記憶するROM22と、プログラムの実行領域として使用されるRAM(Random Access Memory)23とを有している。ここでのCPU21、ROM22、RAM23は、いわゆるコンピュータを構成し、各種の情報処理を実行する。なお、ROM22は、不揮発性の半導体メモリによって構成される。
記憶装置24は、例えばハードディスク装置で構成され、機械学習装置10によって学習された学習済みモデルを使用して端末50(図1参照)から与えられる任意の測定データの変形後の形状を推定するアプリケーションプログラムや推定結果等が記憶される。なお、記憶装置24は、内蔵型に限らず、外付型の記憶装置でもよいし、ネットワークストレージでもよい。
入力装置25は、例えばキーボードやマウスであり、操作入力に使用される。出力装置26は、表示装置や印刷装置であり、操作画面の表示や情報の印刷等に使用される。なお、変形推定装置20がサーバとして実現される場合には、入力装置25と出力装置26は、不図示の端末側に設けられていてもよい。
通信装置27は、外部装置との通信に用いられる。通信装置27は、端末50からの測定データの入力、推定結果の端末50への出力などに使用される。
CPU21と各部は、バス28や不図示の信号線を通じて接続されている。
なお、変形推定装置20は、専用のハードウェアとして実現することも可能である。
入力装置25は、例えばキーボードやマウスであり、操作入力に使用される。出力装置26は、表示装置や印刷装置であり、操作画面の表示や情報の印刷等に使用される。なお、変形推定装置20がサーバとして実現される場合には、入力装置25と出力装置26は、不図示の端末側に設けられていてもよい。
通信装置27は、外部装置との通信に用いられる。通信装置27は、端末50からの測定データの入力、推定結果の端末50への出力などに使用される。
CPU21と各部は、バス28や不図示の信号線を通じて接続されている。
なお、変形推定装置20は、専用のハードウェアとして実現することも可能である。
図17は、変形推定装置20の機能構成の一例を示す図である。図17に示す機能構成は、CPU21(図16参照)によるプログラムの実行を通じて実現される。
図17における変形推定装置20は、端末50から入力される変形前の測定データから各頂点iについての特徴量データxiを算出する特徴量算出部201と、算出された特徴量データxiを学習済みモデルに適用して頂点iの変位量データyiを推定する変形推定部202と、全ての頂点iについての変位量データyiから変形後の形状を推定して出力する推定結果出力部203として機能する。
図18は、変形推定装置20による推定過程を説明する図である。
任意の測定データM(i)Iが端末50(図1参照)から与えられると、特徴量算出部201(図17参照)が頂点i毎に特徴量データxiを算出する。次に、変形推定部202(図17参照)が、処理対象とする特徴量データxiと類似する特徴データxi2及びxi4を有する形状モデルM(i2)IとM(i4)Iを抽出する。
図18では、特徴量データxiの類似度を内分比m:1-mとして求めている。ここで、mは、0以上1以下の実数である。
さらに、変形推定部202は、抽出された複数の形状モデルM(i2)IとM(i4)Iについての学習済みモデル(すなわち変形関数f2及びf4)を線形補間した変形関数fiを生成し、生成された変形関数fiを使用して特徴量データxiに対応する変位量データyiを推定する。
本実施の形態では、線形補間を用いて変形関数fiを生成しているが、非線形の補間で生成してもよい。
図17における変形推定装置20は、端末50から入力される変形前の測定データから各頂点iについての特徴量データxiを算出する特徴量算出部201と、算出された特徴量データxiを学習済みモデルに適用して頂点iの変位量データyiを推定する変形推定部202と、全ての頂点iについての変位量データyiから変形後の形状を推定して出力する推定結果出力部203として機能する。
図18は、変形推定装置20による推定過程を説明する図である。
任意の測定データM(i)Iが端末50(図1参照)から与えられると、特徴量算出部201(図17参照)が頂点i毎に特徴量データxiを算出する。次に、変形推定部202(図17参照)が、処理対象とする特徴量データxiと類似する特徴データxi2及びxi4を有する形状モデルM(i2)IとM(i4)Iを抽出する。
図18では、特徴量データxiの類似度を内分比m:1-mとして求めている。ここで、mは、0以上1以下の実数である。
さらに、変形推定部202は、抽出された複数の形状モデルM(i2)IとM(i4)Iについての学習済みモデル(すなわち変形関数f2及びf4)を線形補間した変形関数fiを生成し、生成された変形関数fiを使用して特徴量データxiに対応する変位量データyiを推定する。
本実施の形態では、線形補間を用いて変形関数fiを生成しているが、非線形の補間で生成してもよい。
図19は、推定結果出力部203(図17参照)による出力画面300の例を説明する図である。
出力画面300は、左側に変形前の観察画像欄301を配置し、右側に変形後の形状にあたる推定画像欄302を配置している。
図19の場合、肺の内部に、2つの結節が存在する。観察画像欄301に表示される肺の画像は手術前の画像である。肺は膨らんでいる。
推定画像欄302に表示される肺は推定された手術中の画像である。手術中の肺は、脱気変形により萎んでいる。図19に示すように、外部形状だけでなく結節の位置も推定が可能である。
出力画面300は、左側に変形前の観察画像欄301を配置し、右側に変形後の形状にあたる推定画像欄302を配置している。
図19の場合、肺の内部に、2つの結節が存在する。観察画像欄301に表示される肺の画像は手術前の画像である。肺は膨らんでいる。
推定画像欄302に表示される肺は推定された手術中の画像である。手術中の肺は、脱気変形により萎んでいる。図19に示すように、外部形状だけでなく結節の位置も推定が可能である。
<推定誤差>
以下では、前述の手法で推定された結果と実測値との誤差について説明する。
<実験条件>
・11頭のビーグル犬の生体肺データを測定
・上葉を204頂点でモデル化、下葉を200頂点でモデル化
・含気状態で測定された生体肺データを±2.5mm、±5.0mm、±7.5mmで拡大及び縮小することでアップサンプリング
・測定データの80%をトレーニングデータに使用、20%をテストデータに使用
以下では、前述の手法で推定された結果と実測値との誤差について説明する。
<実験条件>
・11頭のビーグル犬の生体肺データを測定
・上葉を204頂点でモデル化、下葉を200頂点でモデル化
・含気状態で測定された生体肺データを±2.5mm、±5.0mm、±7.5mmで拡大及び縮小することでアップサンプリング
・測定データの80%をトレーニングデータに使用、20%をテストデータに使用
<評価>
誤差指標にハウスドルフ距離を用いて以下の回帰モデルを比較
・回帰モデル(多重線形回帰モデル、LASSO回帰モデル、カーネル回帰モデル)
・特徴量データ(4種類)
ハウスドルフ距離は、2つの形状間のずれの最大値として与えられる距離である。
図20は、3種類の回帰モデル間での推定誤差の違いを説明する図表である。
図20に示す値は、各回帰モデルの正則化パラメータを10通り程度で試行し、最も誤差が小さくなるものを選択した。
図20の場合、カーネル回帰モデルの推定誤差が最も小さい。因みに、上葉の推定誤差は3.1±0.9mmであり、下葉の推定誤差は3.9±1.9mmであった。
実施の形態で使用したカーネル回帰モデルは、多重線形回帰モデルやLASSO回帰モデル(L1正則化)の約3分の1であった。
誤差指標にハウスドルフ距離を用いて以下の回帰モデルを比較
・回帰モデル(多重線形回帰モデル、LASSO回帰モデル、カーネル回帰モデル)
・特徴量データ(4種類)
ハウスドルフ距離は、2つの形状間のずれの最大値として与えられる距離である。
図20は、3種類の回帰モデル間での推定誤差の違いを説明する図表である。
図20に示す値は、各回帰モデルの正則化パラメータを10通り程度で試行し、最も誤差が小さくなるものを選択した。
図20の場合、カーネル回帰モデルの推定誤差が最も小さい。因みに、上葉の推定誤差は3.1±0.9mmであり、下葉の推定誤差は3.9±1.9mmであった。
実施の形態で使用したカーネル回帰モデルは、多重線形回帰モデルやLASSO回帰モデル(L1正則化)の約3分の1であった。
図21は、4種類の特徴量データと推定誤差の違いを説明する図表である。
4種類の特徴量データは、頂点iについての以下の特徴量群1~4とする。
・特徴量群1:座標vi、法線ベクトルni、曲率(2次微分、離散ラプラシアン)li、頂点間差分dij、収縮率si、ボロノイ面積ri
・特徴量群2:頂点間差分dij
・特徴量群3:頂点間差分dij、法線ベクトルni×100
・特徴量群4:座標vi、法線ベクトルni、曲率(2次微分、離散ラプラシアン)li、収縮率si、ボロノイ面積ri
特徴量群2は、前述の説明で用いた特徴量データxijに対応する。
図21に示す図表からは、頂点間差分dijが含まれていない特徴量群4だけが推定誤差が大きいことが分かる。
以上より、頂点間差分dijを特徴量データに含めることが推定精度を高める上で有効であることが分かる。
4種類の特徴量データは、頂点iについての以下の特徴量群1~4とする。
・特徴量群1:座標vi、法線ベクトルni、曲率(2次微分、離散ラプラシアン)li、頂点間差分dij、収縮率si、ボロノイ面積ri
・特徴量群2:頂点間差分dij
・特徴量群3:頂点間差分dij、法線ベクトルni×100
・特徴量群4:座標vi、法線ベクトルni、曲率(2次微分、離散ラプラシアン)li、収縮率si、ボロノイ面積ri
特徴量群2は、前述の説明で用いた特徴量データxijに対応する。
図21に示す図表からは、頂点間差分dijが含まれていない特徴量群4だけが推定誤差が大きいことが分かる。
以上より、頂点間差分dijを特徴量データに含めることが推定精度を高める上で有効であることが分かる。
図22は、頂点間差分dijを含む特徴量データを用い、回帰モデルにカーネル回帰モデルを用いる場合における各検体についての推定結果と実測値との誤差を示す。
図23は、各検体の変形前後の形状の関係を2次元的に示す図である。
図22の検体と図23の検体は同じである。
上葉で5mmを超える推定誤差があるのは検体2だけであり、下葉で5mmを超える推定誤差があるのは検体2と検体8である。
今回の実験では、上葉に比して下葉がかなり大きい肺で推定誤差が比較的大きくなっているが、上葉が下葉よりも小さい肺や上葉と下葉の大きさがほぼ同じ場合には推定誤差が小さくなっている。
なお、形状全体についての統計的な平均変位で推定するモデルでは、10mm以上の誤差が認められていたので、実施の形態の手法では、推定誤差の低減が認められる。
図23は、各検体の変形前後の形状の関係を2次元的に示す図である。
図22の検体と図23の検体は同じである。
上葉で5mmを超える推定誤差があるのは検体2だけであり、下葉で5mmを超える推定誤差があるのは検体2と検体8である。
今回の実験では、上葉に比して下葉がかなり大きい肺で推定誤差が比較的大きくなっているが、上葉が下葉よりも小さい肺や上葉と下葉の大きさがほぼ同じ場合には推定誤差が小さくなっている。
なお、形状全体についての統計的な平均変位で推定するモデルでは、10mm以上の誤差が認められていたので、実施の形態の手法では、推定誤差の低減が認められる。
図24は、頂点間差分の次元と推定精度の関係を説明する図表である。
なお、図24は、上葉についての実験結果である。図24の場合、横軸は、頂点iについての特徴量データxiを構成する頂点間差分の割合であり、縦軸は推定精度に当たるハウスドルフ距離である。
横軸の割合は、形状モデルM(i)Iを構成する全ての頂点を頂点間差分dijの算出に用いる場合を100%として表している。従って、頂点数が500の場合、特徴量データxiを構成する頂点間差分の割合が10%とは、頂点iについての特徴量データxiが50個の頂点間差分dijで与えられることを意味する。縦軸の単位はmmである。
前述の説明では、特徴量データxiを頂点数分の頂点間差分dijで与える例を説明したが、約5%以上の頂点間差分dijで特徴量データxiを定義すれば、5mm以下の推定精度が得られることがわかった。好ましくは、約10%以上の頂点間差分dijで特徴量データxiを定義することであり、より好ましくは約15%以上の頂点間差分dijで特徴量データxiを定義すれば、安定した推定精度が得られる。
なお、図24は、上葉についての実験結果である。図24の場合、横軸は、頂点iについての特徴量データxiを構成する頂点間差分の割合であり、縦軸は推定精度に当たるハウスドルフ距離である。
横軸の割合は、形状モデルM(i)Iを構成する全ての頂点を頂点間差分dijの算出に用いる場合を100%として表している。従って、頂点数が500の場合、特徴量データxiを構成する頂点間差分の割合が10%とは、頂点iについての特徴量データxiが50個の頂点間差分dijで与えられることを意味する。縦軸の単位はmmである。
前述の説明では、特徴量データxiを頂点数分の頂点間差分dijで与える例を説明したが、約5%以上の頂点間差分dijで特徴量データxiを定義すれば、5mm以下の推定精度が得られることがわかった。好ましくは、約10%以上の頂点間差分dijで特徴量データxiを定義することであり、より好ましくは約15%以上の頂点間差分dijで特徴量データxiを定義すれば、安定した推定精度が得られる。
<応用例>
前述した推定システム1(図1参照)や機械学習装置10(図1参照)で生成された学習済みモデルを用いて対象とする臓器の変形を推定する変形推定装置20(図1参照)を手術支援システムに組み込むことにより、又は、連携することにより、手術前に新たな患者の腫瘍の変位を同定することができる。
例えば図19に示す出力画面300は、手術支援システムに用いる場合の画面例として用いてもよい。この場合、端末50(図1参照)は、手術支援システムの操作端末として使用する。
前述した推定システム1(図1参照)や機械学習装置10(図1参照)で生成された学習済みモデルを用いて対象とする臓器の変形を推定する変形推定装置20(図1参照)を手術支援システムに組み込むことにより、又は、連携することにより、手術前に新たな患者の腫瘍の変位を同定することができる。
例えば図19に示す出力画面300は、手術支援システムに用いる場合の画面例として用いてもよい。この場合、端末50(図1参照)は、手術支援システムの操作端末として使用する。
<実施の形態2>
実施の形態1では、単一の臓器の変形を変形前の医用画像データから推定する場合について説明したが、ここでは、複数の臓器の変形や位置の移動を推定する場合について説明する。
図25は、複数の臓器の変形を伴う移動先の推定を説明する図である。
図25の例は、肝臓、胃、十二指腸、左腎、右腎を含む医用画像データの場合である。図25に示す画像例は一例であり、他の臓器が含まれていてもよいし、より少ない数の臓器が対象でもよい。
体内の臓器の形状や位置は、呼吸、測定時の姿勢、体調等によっても変化し、位置も移動するが、実施の形態1で説明した技術を用いれば、複数の臓器(腫瘍を含む)の形状や位置の変化を高い精度で推定できる。すなわち、本実施の形態では、臓器の位置の移動も含めて学習する。
呼吸、測定時の姿勢、体調等による複数の臓器(腫瘍を含む)の形状や位置の変化は、時間変化による変形の一例でもある。
図25では、変形前の形状と位置の一部を破線で示している。
複数の臓器の変形と位置の変化の範囲を高精度に推定できることで、放射線治療における照射計画に応用できる。
実施の形態1では、単一の臓器の変形を変形前の医用画像データから推定する場合について説明したが、ここでは、複数の臓器の変形や位置の移動を推定する場合について説明する。
図25は、複数の臓器の変形を伴う移動先の推定を説明する図である。
図25の例は、肝臓、胃、十二指腸、左腎、右腎を含む医用画像データの場合である。図25に示す画像例は一例であり、他の臓器が含まれていてもよいし、より少ない数の臓器が対象でもよい。
体内の臓器の形状や位置は、呼吸、測定時の姿勢、体調等によっても変化し、位置も移動するが、実施の形態1で説明した技術を用いれば、複数の臓器(腫瘍を含む)の形状や位置の変化を高い精度で推定できる。すなわち、本実施の形態では、臓器の位置の移動も含めて学習する。
呼吸、測定時の姿勢、体調等による複数の臓器(腫瘍を含む)の形状や位置の変化は、時間変化による変形の一例でもある。
図25では、変形前の形状と位置の一部を破線で示している。
複数の臓器の変形と位置の変化の範囲を高精度に推定できることで、放射線治療における照射計画に応用できる。
<実施の形態3>
実施の形態1では、変形前の測定データに基づいて生成した特徴量データを学習済みモデルに与えて変形後の形状を推定しているが、個別の臓器又は複数の臓器について学習された学習済みモデルに特徴量データを与えて変形後の形状を推定し、推定された形状を医用画像データと照合して医用画像データに含まれる臓器の位置を画像認識の技術を用いて自動的に抽出してもよい。
図26は、臓器の形状のバリエーションを推定して特定の臓器の領域を医用画像データから抽出する処理機能を説明する図である。
変形推定装置20は、変形推定部202によって推定された変形後の形状を画像認識部205に与え、医用画像データと照合し、医用画像データのうち対象とする臓器の領域を抽出することができる。
実施の形態1では、変形前の測定データに基づいて生成した特徴量データを学習済みモデルに与えて変形後の形状を推定しているが、個別の臓器又は複数の臓器について学習された学習済みモデルに特徴量データを与えて変形後の形状を推定し、推定された形状を医用画像データと照合して医用画像データに含まれる臓器の位置を画像認識の技術を用いて自動的に抽出してもよい。
図26は、臓器の形状のバリエーションを推定して特定の臓器の領域を医用画像データから抽出する処理機能を説明する図である。
変形推定装置20は、変形推定部202によって推定された変形後の形状を画像認識部205に与え、医用画像データと照合し、医用画像データのうち対象とする臓器の領域を抽出することができる。
<実施の形態4>
前述の実施の形態では、測定データと学習済みデータのいずれもが3次元データの場合について説明したが、測定データは2次元データである可能性がある。例えば測定データが内視鏡画像データとして与えられる場合である。
図27は、2次元画像データから3次元形状を推定し、推定された3次元形状を用いて変形後の形状を推定する例を説明する図である。
図27では、入力として2次元画像が与えられ、3次元形状推定部60によって3次元画像が出力されている。2次元カラー情報のみから3次元形状を推定する技術は、例えば以下の文献に記載されている。
H. Fan et al. “A point set generation network for 3D object reconstruction from a single image”, CVPR, 2017.
なお、3次元形状推定部60による推定処理は、グラフカットによる特定の臓器領域の抽出処理と、機械学習、深層学習、畳み込みニューラルネットワーク等を応用して学習された学習済みモデルを用いる推定処理との組み合わせにより実現できる。
ここでの学習済みモデルには、変形前の臓器領域の測定データから生成された形状モデルM(i)Iにおける各微小領域と他の微小領域との差分値dijを含む特徴量データxiと、変形前の臓器領域の形状モデルM(i)Iの各微小領域から変形後の臓器領域の形状モデルM(i)Dの対応する各微小領域への変位量データyiを与える関係が学習され記憶されている。
本実施の形態の技術を用いれば、2次元画像データしか測定できない状況でも、変形後の形状を推定できるだけでなく、外観からは確認できない腫瘍の位置を推定することもできる。
前述の実施の形態では、測定データと学習済みデータのいずれもが3次元データの場合について説明したが、測定データは2次元データである可能性がある。例えば測定データが内視鏡画像データとして与えられる場合である。
図27は、2次元画像データから3次元形状を推定し、推定された3次元形状を用いて変形後の形状を推定する例を説明する図である。
図27では、入力として2次元画像が与えられ、3次元形状推定部60によって3次元画像が出力されている。2次元カラー情報のみから3次元形状を推定する技術は、例えば以下の文献に記載されている。
H. Fan et al. “A point set generation network for 3D object reconstruction from a single image”, CVPR, 2017.
なお、3次元形状推定部60による推定処理は、グラフカットによる特定の臓器領域の抽出処理と、機械学習、深層学習、畳み込みニューラルネットワーク等を応用して学習された学習済みモデルを用いる推定処理との組み合わせにより実現できる。
ここでの学習済みモデルには、変形前の臓器領域の測定データから生成された形状モデルM(i)Iにおける各微小領域と他の微小領域との差分値dijを含む特徴量データxiと、変形前の臓器領域の形状モデルM(i)Iの各微小領域から変形後の臓器領域の形状モデルM(i)Dの対応する各微小領域への変位量データyiを与える関係が学習され記憶されている。
本実施の形態の技術を用いれば、2次元画像データしか測定できない状況でも、変形後の形状を推定できるだけでなく、外観からは確認できない腫瘍の位置を推定することもできる。
<実施の形態5>
前述の実施の形態では、特徴量データxiの候補として、各頂点iの座標vi、微小領域を規定する勾配又は法線ベクトルni、微小領域を規定する曲率(2次微分、離散ラプラシアン)li、頂点間差分dij、微小領域の収縮率si、微小領域のボロノイ面積riを例示したが、特徴量データxiの候補として、各微小領域と平均的な形状モデル(以下「平均形状モデル」という)の対応領域からのずれ量uiを追加で含めてもよい。この場合、ずれ量uiを単独で特徴量データxiとして用いてもよいし、他の候補と組み合わせて特徴量データxiとして用いてもよい。
図28は、複数の形状モデルM(i)から生成される平均形状モデルMを説明する図である。平均形状モデルMの頂点iの座標vMiは、例えば複数の形状モデルM(i)の対応する頂点群の座標viの平均値として生成する。図28の場合には、500個の頂点のそれぞれについて座標の平均値が算出される。
図29は、変形前の平均形状モデルM Iに対する各形状モデルの対応領域間のずれ量uiを説明する図である。ここでの対応領域は、頂点iに対応する微小領域である。従って、ずれ量uiは、500個の頂点について算出される。図中の変形関数fは、変形前の平均形状モデルM Iから変形後の平均形状モデルM Dを生成する変形関数を表している。
なお、ここでの平均形状モデルMをテンプレート形状Tとして与え、形状データS(i)に対応する形状モデルM(i)を繰り返し計算してもよい。
前述の実施の形態では、特徴量データxiの候補として、各頂点iの座標vi、微小領域を規定する勾配又は法線ベクトルni、微小領域を規定する曲率(2次微分、離散ラプラシアン)li、頂点間差分dij、微小領域の収縮率si、微小領域のボロノイ面積riを例示したが、特徴量データxiの候補として、各微小領域と平均的な形状モデル(以下「平均形状モデル」という)の対応領域からのずれ量uiを追加で含めてもよい。この場合、ずれ量uiを単独で特徴量データxiとして用いてもよいし、他の候補と組み合わせて特徴量データxiとして用いてもよい。
図28は、複数の形状モデルM(i)から生成される平均形状モデルMを説明する図である。平均形状モデルMの頂点iの座標vMiは、例えば複数の形状モデルM(i)の対応する頂点群の座標viの平均値として生成する。図28の場合には、500個の頂点のそれぞれについて座標の平均値が算出される。
図29は、変形前の平均形状モデルM Iに対する各形状モデルの対応領域間のずれ量uiを説明する図である。ここでの対応領域は、頂点iに対応する微小領域である。従って、ずれ量uiは、500個の頂点について算出される。図中の変形関数fは、変形前の平均形状モデルM Iから変形後の平均形状モデルM Dを生成する変形関数を表している。
なお、ここでの平均形状モデルMをテンプレート形状Tとして与え、形状データS(i)に対応する形状モデルM(i)を繰り返し計算してもよい。
<実施の形態6>
前述の実施の形態では、同一の臓器についての変形の前後における特徴量データxiと変位量データyiとの関係を学習し、学習の結果である学習済みモデルを用いて任意の測定データの変形後の形状を推定する場合について説明したが、ある物体1と平均モデルとのずれ量と、物体1との間で制約関係がある他の物体2を構成する各頂点sの座標vsのとの関係を学習し、学習の結果である学習済みモデルを用いて任意の物体1の測定データから物体2の位置を推定してもよい。
図30は、物体1の測定データから生成された形状モデル(アップサンプリング後の形状モデルを含む)M1(i1)~M1(ik)の各頂点iとそれらの平均形状モデルMの対応頂点とのずれ量uiと、物体1との間に制約関係がある他の物体2を構成する各頂点sの座標vsとの関係を学習する機械学習装置310の構成例を説明する図である。なお、機械学習装置310は、前述の実施の形態と同様、コンピュータによるプログラムの実行を通じて実現される。
機械学習装置310は、頂点毎のずれ量uiを算出して出力するずれ量算出部310Aと、各ずれ量uiと物体2の各頂点sの座標vsの関係を学習する機械学習部310Bとを有する。この例の場合、機械学習部310Bは、学習の結果として対応関係関数gを出力する。
例えば物体1は肝臓であり、物体2は膵臓である。ここでの制約関係は、例えば隣接する関係又は繋がる関係である。物体1が肝臓の場合、隣接する関係を満たす物体2は、胃、十二指腸、右腎臓であり、繋がる関係を満たす物体2は、十二指腸、膵臓、脾臓などである。
前述の実施の形態では、同一の臓器についての変形の前後における特徴量データxiと変位量データyiとの関係を学習し、学習の結果である学習済みモデルを用いて任意の測定データの変形後の形状を推定する場合について説明したが、ある物体1と平均モデルとのずれ量と、物体1との間で制約関係がある他の物体2を構成する各頂点sの座標vsのとの関係を学習し、学習の結果である学習済みモデルを用いて任意の物体1の測定データから物体2の位置を推定してもよい。
図30は、物体1の測定データから生成された形状モデル(アップサンプリング後の形状モデルを含む)M1(i1)~M1(ik)の各頂点iとそれらの平均形状モデルMの対応頂点とのずれ量uiと、物体1との間に制約関係がある他の物体2を構成する各頂点sの座標vsとの関係を学習する機械学習装置310の構成例を説明する図である。なお、機械学習装置310は、前述の実施の形態と同様、コンピュータによるプログラムの実行を通じて実現される。
機械学習装置310は、頂点毎のずれ量uiを算出して出力するずれ量算出部310Aと、各ずれ量uiと物体2の各頂点sの座標vsの関係を学習する機械学習部310Bとを有する。この例の場合、機械学習部310Bは、学習の結果として対応関係関数gを出力する。
例えば物体1は肝臓であり、物体2は膵臓である。ここでの制約関係は、例えば隣接する関係又は繋がる関係である。物体1が肝臓の場合、隣接する関係を満たす物体2は、胃、十二指腸、右腎臓であり、繋がる関係を満たす物体2は、十二指腸、膵臓、脾臓などである。
図31は、物体1の測定データから生成された形状モデルと平均モデルとのずれ量uiから物体2の位置vsを推定する位置推定装置320の構成例を説明する図である。
位置推定装置320は、物体1の測定データから生成された形状モデルを構成する各頂点iについて平均形状モデルMとのずれ量uiを特徴量データとして算出する特徴量算出部321と、算出されたずれ量uiを学習済みモデルに適応し、物体2の位置を推定する物体位置推定部322と、推定結果を出力する推定結果出力部323とを有している。
位置推定装置320も、前述の実施の形態と同様、コンピュータによるプログラムの実行を通じて実現される。
位置推定装置320は、物体1の測定データから生成された形状モデルを構成する各頂点iについて平均形状モデルMとのずれ量uiを特徴量データとして算出する特徴量算出部321と、算出されたずれ量uiを学習済みモデルに適応し、物体2の位置を推定する物体位置推定部322と、推定結果を出力する推定結果出力部323とを有している。
位置推定装置320も、前述の実施の形態と同様、コンピュータによるプログラムの実行を通じて実現される。
<実施の形態7>
前述の実施の形態では、物体の全体を撮像又は測定した画像データを用いて物体全体の変形を学習する場合について説明したが、以下では、物体の一部分を撮像又は測定した画像データを用いて物体全体の変形を学習する場合について説明する。
以下の説明では、物体の一部分を撮像又は測定した画像データの一例として、コーンビームCT(=Cone Beam CT)が生成する三次元画像データを使用する。コーンビームCTは、X線を円錐状又は四角錐状に照射する照射部と、被写体を通過したX線を検出する二次元検出器とで構成される可動装置を、被写体の周囲で1回転するだけで、被写体の三次元画像データを生成することができる。
このため、コーンビームCTは、例えば手術中の肺の撮像に使用されている。ただし、コーンビームCTの撮像範囲に含まれる肺実質の体積は、肺全体の体積の半分以下になる場合もあり、しかも、どの領域が撮像されるかも不明である。
前述の実施の形態では、物体の全体を撮像又は測定した画像データを用いて物体全体の変形を学習する場合について説明したが、以下では、物体の一部分を撮像又は測定した画像データを用いて物体全体の変形を学習する場合について説明する。
以下の説明では、物体の一部分を撮像又は測定した画像データの一例として、コーンビームCT(=Cone Beam CT)が生成する三次元画像データを使用する。コーンビームCTは、X線を円錐状又は四角錐状に照射する照射部と、被写体を通過したX線を検出する二次元検出器とで構成される可動装置を、被写体の周囲で1回転するだけで、被写体の三次元画像データを生成することができる。
このため、コーンビームCTは、例えば手術中の肺の撮像に使用されている。ただし、コーンビームCTの撮像範囲に含まれる肺実質の体積は、肺全体の体積の半分以下になる場合もあり、しかも、どの領域が撮像されるかも不明である。
図32は、コーンビームCTで撮像された右肺のCT画像の範囲と、CTで撮像された同じ右肺のCT画像の範囲との関係を説明する図である。(A)は被検体AのCT画像を示し、(B)は被検体BのCT画像を示し、(C)は被検体CのCT画像を示す。
図中、メッシュで示す面積が最も広いCT画像P1は、手術前に撮像されたCT画像である。肺の一部分しか撮像されないコーンビームCTとは異なり、肺の全体が撮像されている。なお、手術前であるので肺は含気状態である。ここでのCT画像P1は、実施の形態1における変形前画像I(i)Iに対応する。
図中、薄い色で着色した面積が2番めに広いCT画像P2は、手術中にコーンビームCTで撮像されたCT画像である。CT画像P2は、含気状態の肺の一部分である。被検体A、B及びCのいずれの場合も、CT画像P2は、CT画像P1より狭い領域となる。
図中、濃い色で着色した面積が最も狭いCT画像P3も、手術中にコーンビームCTで撮像されたCT画像である。CT画像P3は、脱気状態の肺の一部分である。このため、被検体A、B及びCのいずれの場合も、CT画像P3は、CT画像P2より狭い領域となる。
図中、メッシュで示す面積が最も広いCT画像P1は、手術前に撮像されたCT画像である。肺の一部分しか撮像されないコーンビームCTとは異なり、肺の全体が撮像されている。なお、手術前であるので肺は含気状態である。ここでのCT画像P1は、実施の形態1における変形前画像I(i)Iに対応する。
図中、薄い色で着色した面積が2番めに広いCT画像P2は、手術中にコーンビームCTで撮像されたCT画像である。CT画像P2は、含気状態の肺の一部分である。被検体A、B及びCのいずれの場合も、CT画像P2は、CT画像P1より狭い領域となる。
図中、濃い色で着色した面積が最も狭いCT画像P3も、手術中にコーンビームCTで撮像されたCT画像である。CT画像P3は、脱気状態の肺の一部分である。このため、被検体A、B及びCのいずれの場合も、CT画像P3は、CT画像P2より狭い領域となる。
前述したように、本実勢の形態では、CT画像P2及びP3を用いて肺全体の変形を学習する場合を説明する。ただし、部分画像であるCT画像P2及びP3間の変形を学習しただけでは、その学習の結果を肺全体の変形の学習に反映することができない。
そこで、本実施の形態では、手術前に撮像された肺全体のCT画像P1との位置合わせを通じ、部分画像間の変形を肺全体の一部分の変化として学習する。
図33は、実施の形態7で使用する形状モデル生成部101(図3参照)で実行される処理の一例を示す図である。図33には、図5との対応部分に対応する符号を付して示している。
なお、機械学習装置のハードウェア構成や機能構成は実施の形態1と同様である。すなわち、実施の形態7における機械学習装置も、変形前画像I(i)Iと変形後画像I(i)Dのそれぞれについて形状モデルを生成し、その後、生成された形状モデルのアップサンプリングを行い、次に微小領域単位での学習を実行する。
そこで、本実施の形態では、手術前に撮像された肺全体のCT画像P1との位置合わせを通じ、部分画像間の変形を肺全体の一部分の変化として学習する。
図33は、実施の形態7で使用する形状モデル生成部101(図3参照)で実行される処理の一例を示す図である。図33には、図5との対応部分に対応する符号を付して示している。
なお、機械学習装置のハードウェア構成や機能構成は実施の形態1と同様である。すなわち、実施の形態7における機械学習装置も、変形前画像I(i)Iと変形後画像I(i)Dのそれぞれについて形状モデルを生成し、その後、生成された形状モデルのアップサンプリングを行い、次に微小領域単位での学習を実行する。
図33の場合、変形前画像として2種類の画像を用意する。1つは、手術前の含気状態の肺全体を撮像した変形前画像I(i)ITであり、他の1つは手術中の含気状態の肺の一部分を撮像した変形前部分画像I(i)IPである。変形後画像には、手術中の脱気状態の肺の一部分を撮像した変形後部分画像I(i)DPを使用する。
まず、サンプリング部101Cが変形前画像I(i)ITと、変形前部分画像I(i)IPと、変形後部分画像I(i)DPのそれぞれをサンプリングし、ボクセルメッシュ構造又はポリゴンメッシュ構造の形状データを生成する。ここでは、変形前画像I(i)ITに対応する形状データをS(i)ITとし、変形前部分画像I(i)IPに対応する形状データをS(i)IPとし、変形後部分画像I(i)Dに対応する形状データをS(i)Dとする。
まず、サンプリング部101Cが変形前画像I(i)ITと、変形前部分画像I(i)IPと、変形後部分画像I(i)DPのそれぞれをサンプリングし、ボクセルメッシュ構造又はポリゴンメッシュ構造の形状データを生成する。ここでは、変形前画像I(i)ITに対応する形状データをS(i)ITとし、変形前部分画像I(i)IPに対応する形状データをS(i)IPとし、変形後部分画像I(i)Dに対応する形状データをS(i)Dとする。
実施の形態1でも説明したが、被験体の違いや撮像条件の違いによっても、変形前画像と変形後画像の大きさは異なる。また、手術前の撮像に使用されるCTと手術中に使用されるコーンビームCTの間でも変形前画像と変形後画像の大きさが異なる。また、撮像時における被験体の体位や体調の統一にも限界がある。
このため、実施の形態1で説明したように、独立に形成された形状データに含まれるボクセルの頂点の数は一般には一致しない。
そこで、本実施の形態の場合にも、生成された形状データをテンプレート形状Tに位置合わせして頂点数を揃えた形状モデルMを生成する。図33の場合、位置合わせ部101Dが位置合わせを実行する。
このため、実施の形態1で説明したように、独立に形成された形状データに含まれるボクセルの頂点の数は一般には一致しない。
そこで、本実施の形態の場合にも、生成された形状データをテンプレート形状Tに位置合わせして頂点数を揃えた形状モデルMを生成する。図33の場合、位置合わせ部101Dが位置合わせを実行する。
まず、位置合わせ部101Dは、右肺全体に対応するテンプレート形状Tを使用して、右肺全体に対応する変形前形状データS(i)ITの頂点数をテンプレート形状Tと同じ頂点数に揃える。この処理の内容は実施の形態1と同じである。例えば500個の頂点を有する変形前形状モデルM(i)ITが生成される。
この位置合わせは、グローバル座標系間の位置合わせである。
この位置合わせは、グローバル座標系間の位置合わせである。
次に、位置合わせ部101Dは、生成された右肺全体に対応する変形前形状モデルM(i)ITをテンプレート形状として用い、同じ被験体の右肺の一部分に対応する変形前部分形状データS(i)IPを位置合わせする。この結果、変形前部分形状データS(i)IPに対応する変形前部分形状モデルM(i)IPが生成される。勿論、変形前部分形状モデルM(i)IPを構成する頂点数は、テンプレート形状の頂点数よりも少なくなる。
なお、コーンビームCTで撮像される部位や体積は、図32に示すように、被検体や撮像回毎に異なる。このため、変形前部分形状モデルM(i)IPを構成する頂点数は、部分画像毎に異なる。
この位置合わせは、グローバル座標系とローカル座標系の位置合わせである。
なお、コーンビームCTで撮像される部位や体積は、図32に示すように、被検体や撮像回毎に異なる。このため、変形前部分形状モデルM(i)IPを構成する頂点数は、部分画像毎に異なる。
この位置合わせは、グローバル座標系とローカル座標系の位置合わせである。
次に、位置合わせ部101Dは、含気状態の右肺の一部分について生成された変形前部分形状モデルM(i)IPをテンプレート形状として用い、同じ被験体の脱気状態の右肺の一部分に対応する変形後部分形状データS(i)DPを位置合わせする。この結果、変形後部分形状データS(i)DPに対応する変形後部分形状モデルM(i)DPが生成される。ただし、変形後部分形状モデルM(i)DPを構成する頂点数は、テンプレート形状として用いた変形前部分形状モデルM(i)IPの頂点数と同じになる。
この位置合わせは、ローカル座標系間の位置合わせである。
この位置合わせは、ローカル座標系間の位置合わせである。
図34は、含気状態の肺をコーンビームCTで撮像したCT画像P2(すなわち変形前部分形状モデル)と脱気状態の同じ肺をコーンビームCTで撮像したCT画像P3(すなわち変形後部分形状モデル)との位置合わせの結果を説明する図である。(A)は被検体Aの形状モデルを示し、(B)は被検体Bの形状モデルを示し、(C)は被検体Cの形状モデルを示し、(D)は位置合わせの結果を示す。因みに、CT画像P2及びP3は、図32の部分画像に対応する。
図34に示す被検体Aの場合、CT画像P2(変形前部分形状モデル)をCT画像P3(変形後部分形状モデル)の形状に変形した画像と、CT画像P3(変形後部分形状モデル)との対応頂点間の平均距離(MD: Mean Distance)は0.21mmであり、対応頂点間の最大距離(HD: Hausdorff Distance)は0.98mmである。図34の場合、対応頂点間の平均距離は、CT画像P2をCT画像P3の形状に変形させた後の画像の頂点(頂点はCT画像P2に由来)と、CT画像P3の対応する近傍表面との距離として計算される。近傍表面は、例えばCT画像P2の頂点から最も近いCT画像P3上の位置である。
なお、頂点群の推定値と真値間の包含度合い(DSC: Dice Similarity Distance)は98.93%である。
また、被検体BのMDは0.15mm、HDは0.79mm、DSCは99.24%である。被検体CのMDは0.23mm、HDは1.30mm、DSCは98.94%である。
図34に示すように、変形前の部分形状モデルM(i)IPは、高い精度で、変形後の形状モデルM(i)DPに位置合わせされる。
図34に示す被検体Aの場合、CT画像P2(変形前部分形状モデル)をCT画像P3(変形後部分形状モデル)の形状に変形した画像と、CT画像P3(変形後部分形状モデル)との対応頂点間の平均距離(MD: Mean Distance)は0.21mmであり、対応頂点間の最大距離(HD: Hausdorff Distance)は0.98mmである。図34の場合、対応頂点間の平均距離は、CT画像P2をCT画像P3の形状に変形させた後の画像の頂点(頂点はCT画像P2に由来)と、CT画像P3の対応する近傍表面との距離として計算される。近傍表面は、例えばCT画像P2の頂点から最も近いCT画像P3上の位置である。
なお、頂点群の推定値と真値間の包含度合い(DSC: Dice Similarity Distance)は98.93%である。
また、被検体BのMDは0.15mm、HDは0.79mm、DSCは99.24%である。被検体CのMDは0.23mm、HDは1.30mm、DSCは98.94%である。
図34に示すように、変形前の部分形状モデルM(i)IPは、高い精度で、変形後の形状モデルM(i)DPに位置合わせされる。
図35は、被検体の含気状態の肺をCTで撮像したCT画像P1(変形前形状モデル)と肺のテンプレート形状Tとの位置合わせの結果を説明する図である。この場合は、肺のテンプレート形状Tを画像P1(変形前形状モデル)に一致させるように変形した画像と、CT画像P1(変形前形状モデル)との対応頂点間で各値を計算した。
図35の場合、被検体AのMDは0.33mm、HDは1.91mm、DSCは98.14%である。また、被検体BのMDは0.54mm、HDは2.26mm、DSCは97.94%である。被検体CのMDは0.39mm、HDは1.53mm、DSCは98.31%である。
図35に示すように、テンプレート形状Tは、高い精度で、被検体毎に個別に撮像された肺全体のCT画像P1の形状データに位置合わせされている。
図35の場合、被検体AのMDは0.33mm、HDは1.91mm、DSCは98.14%である。また、被検体BのMDは0.54mm、HDは2.26mm、DSCは97.94%である。被検体CのMDは0.39mm、HDは1.53mm、DSCは98.31%である。
図35に示すように、テンプレート形状Tは、高い精度で、被検体毎に個別に撮像された肺全体のCT画像P1の形状データに位置合わせされている。
図36は、実施の形態7で使用する変形学習部103(図3参照)で実行される処理の一例を示す図である。図36には、図14との対応部分に対応する符号を付して示している。
なお、変形前部分形状モデル群M(i1)IP…M(ik)IPは、変形前部分形状モデルM(i)IPをアップサンプリングして生成したモデル群である。また、変形後部分形状モデル群M(i1)DP…M(ik)DPは、変形後部分形状モデルM(i)DPをアップサンプリングして生成したモデル群である。
実施の形態1の場合には、アップサンプリングにより生成されたモデル群から頂点単位の特徴量を直接算出しているが、本実施の形態では、境界付近除去部103A0及び103B0を用い、予め境界付近の頂点を除去する。コーンビームCTで撮像された部分画像は、肺全体のうち撮像されていない領域との境界付近の信頼性が低いためである。
なお、変形前部分形状モデル群M(i1)IP…M(ik)IPは、変形前部分形状モデルM(i)IPをアップサンプリングして生成したモデル群である。また、変形後部分形状モデル群M(i1)DP…M(ik)DPは、変形後部分形状モデルM(i)DPをアップサンプリングして生成したモデル群である。
実施の形態1の場合には、アップサンプリングにより生成されたモデル群から頂点単位の特徴量を直接算出しているが、本実施の形態では、境界付近除去部103A0及び103B0を用い、予め境界付近の頂点を除去する。コーンビームCTで撮像された部分画像は、肺全体のうち撮像されていない領域との境界付近の信頼性が低いためである。
図37は、学習に用いる対象(学習対象)と学習に用いない対象(除外対象)とを説明する図である。(A)は被検体Aの形状モデルを示し、(B)は被検体Bの形状モデルを示す。
図37の場合、被検体AについてコーンビームCTで撮像されているのは肺の中央付近であり、肺の上部と下部は撮像されていない。このため、境界は、CT画像P2(変形前部分形状モデル)とCT画像P3(変形後部分形状モデル)の上端側と下端側の2箇所に出現する。
一方、被検体BについてコーンビームCTで撮像されているのは肺の上半分であり、肺の下半分は撮像されていない。このため、境界は、CT画像P2(変形前部分形状モデル)とCT画像P3(変形後部分形状モデル)の下端側の1箇所にのみ出現する。
図37の場合、被検体AについてコーンビームCTで撮像されているのは肺の中央付近であり、肺の上部と下部は撮像されていない。このため、境界は、CT画像P2(変形前部分形状モデル)とCT画像P3(変形後部分形状モデル)の上端側と下端側の2箇所に出現する。
一方、被検体BについてコーンビームCTで撮像されているのは肺の上半分であり、肺の下半分は撮像されていない。このため、境界は、CT画像P2(変形前部分形状モデル)とCT画像P3(変形後部分形状モデル)の下端側の1箇所にのみ出現する。
本実施の形態では、各境界から10mmの範囲を学習の対象から除外する。なお、この数値は一例である。もっとも、学習の対象から除外する頂点は、境界からの距離で与えるのではなく、形状モデルを構成する頂点数の割合(%)で定めてもよい。例えば10%を使用する。
図36の説明に戻る。境界付近除去部103A0は、変形前部分形状モデル群M(i1)IP…M(ik)IPのそれぞれから境界付近に存在する頂点を除去する。残った頂点群(すなわち学習対象の頂点群)は、特徴量算出部103Aと変位算出部103Bに出力される。
一方、境界付近除去部103B0は、変形後部分形状モデル群M(i1)DP…M(ik)DPのそれぞれから境界付近に存在する頂点を除去する。残った頂点群(すなわち学習対象の頂点群)は、変位算出部103Bに出力される。
図36の説明に戻る。境界付近除去部103A0は、変形前部分形状モデル群M(i1)IP…M(ik)IPのそれぞれから境界付近に存在する頂点を除去する。残った頂点群(すなわち学習対象の頂点群)は、特徴量算出部103Aと変位算出部103Bに出力される。
一方、境界付近除去部103B0は、変形後部分形状モデル群M(i1)DP…M(ik)DPのそれぞれから境界付近に存在する頂点を除去する。残った頂点群(すなわち学習対象の頂点群)は、変位算出部103Bに出力される。
図38は、境界付近の頂点を除去しない場合の変位量データyiを説明する図である。(A)は被検体Aのx-y面に現れる変位量データyiとx-z面に現れる変位量データyiを示し、(B)は被検体Bのx-y面に現れる変位量データyiとx-z面に現れる変位量データyiを示し、(C)は被検体Cのx-y面に現れる変位量データyiとx-z面に現れる変位量データyiを示す。
図39は、境界付近の頂点を除去する場合の変位量データyiを説明する図である。(A)は被検体Aのx-y面に現れる変位量データyiとx-z面に現れる変位量データyiを示し、(B)は被検体Bのx-y面に現れる変位量データyiとx-z面に現れる変位量データyiを示し、(C)は被検体Cのx-y面に現れる変位量データyiとx-z面に現れる変位量データyiを示す。
いずれの図も、変位量データyiの長さは、見やすさを考慮し、実際よりも短く表している。
図39は、境界付近の頂点を除去する場合の変位量データyiを説明する図である。(A)は被検体Aのx-y面に現れる変位量データyiとx-z面に現れる変位量データyiを示し、(B)は被検体Bのx-y面に現れる変位量データyiとx-z面に現れる変位量データyiを示し、(C)は被検体Cのx-y面に現れる変位量データyiとx-z面に現れる変位量データyiを示す。
いずれの図も、変位量データyiの長さは、見やすさを考慮し、実際よりも短く表している。
なお、学習の対象である各頂点の変形前後の変位を表す変位量データyiは、変位算出部103B(図36参照)が算出する。また、学習の対象である各頂点の特徴量データxiは、特徴量算出部103A(図36参照)が算出する。
算出された特徴量データxiと変位量データyiは機械学習部103C(図36参照)に与えられる。この後、機械学習部103Cは、特徴量データxiと対応する頂点間の変位量データyiとの関係を表す変形関数fを学習する。なお、コーンビームCTで撮像される部分画像は、手術中の患者を被写体とする。このため、コーンビームCTで撮像される部分画像には、手術中の患者の姿勢(すなわち側臥位)に応じた重力変形が反映されている。その結果、機械学習部103Cにより生成される学習済みモデルにも、この重力変形が反映される。
算出された特徴量データxiと変位量データyiは機械学習部103C(図36参照)に与えられる。この後、機械学習部103Cは、特徴量データxiと対応する頂点間の変位量データyiとの関係を表す変形関数fを学習する。なお、コーンビームCTで撮像される部分画像は、手術中の患者を被写体とする。このため、コーンビームCTで撮像される部分画像には、手術中の患者の姿勢(すなわち側臥位)に応じた重力変形が反映されている。その結果、機械学習部103Cにより生成される学習済みモデルにも、この重力変形が反映される。
図40は、手術中にコーンビームCTで撮像された部分画像を用いて学習した学習済みモデルに手術前に撮像したCTデータを入力して推定された変形後の形状PSを説明する図である。(A)は実際の手術映像を示し、(B)は推定された形状PSを示す。
図40に示すように、手術前に撮像したCTデータから推定された変形後の形状PSは、側臥位での重力方向(すなわち心臓に近い方向)への変形が確認され、手術映像に近い外観が得られている。
図40に示すように、手術前に撮像したCTデータから推定された変形後の形状PSは、側臥位での重力方向(すなわち心臓に近い方向)への変形が確認され、手術映像に近い外観が得られている。
図41は、実施の形態7で説明した手法で生成した学習済みモデルを用いた推定画像の精度を説明する図である。
図中の縦軸は手術の前後における肺の体積変化を示し、横軸は被検体を示す。図41では、手術中にコーンビームCTで撮像されたCT画像の変形前後の体積の変化を真値として、本実施の形態の推定画像の変形前後の体積の変化を対比的に図示している。三次元画像データとしての推定画像は、前述したように手術前に撮像されたCT画像から推定される。いずれの被験体についても誤差4%程度で推定できることが確認されている。このように、本実施の形態で説明したように、部分画像を用いて変形を学習する場合でも、物体全体の変形を精度良く推定することができる。
なお、以上の説明は、部分画像の取得にコーンビームCTを用いているが、部分画像を取得する装置をコーンビームCTに限るものではない。
図中の縦軸は手術の前後における肺の体積変化を示し、横軸は被検体を示す。図41では、手術中にコーンビームCTで撮像されたCT画像の変形前後の体積の変化を真値として、本実施の形態の推定画像の変形前後の体積の変化を対比的に図示している。三次元画像データとしての推定画像は、前述したように手術前に撮像されたCT画像から推定される。いずれの被験体についても誤差4%程度で推定できることが確認されている。このように、本実施の形態で説明したように、部分画像を用いて変形を学習する場合でも、物体全体の変形を精度良く推定することができる。
なお、以上の説明は、部分画像の取得にコーンビームCTを用いているが、部分画像を取得する装置をコーンビームCTに限るものではない。
<他の実施の形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば前述の実施の形態では、微小領域として単一の頂点を想定しているが、複数の頂点を含めてもよい。
また、前述の実施の形態では、カーネル回帰モデルを用いて頂点毎の特徴量データと変位量データの関係を学習して学習済みモデルを生成しているが、深層学習や畳み込みニューラルネットワークを用いて学習済みモデルを生成してもよい。
また、前述の実施の形態では、形状モデルを構成する頂点間の距離の関係を特に規定していないが等間隔となるように制約を加えてもよい。
また、前述の実施の形態では、もっぱら医用画像データを前提として臓器の変形の前後を学習して学習済みモデルを生成しているが、本発明に係る技術は、医用画像データに限らない。
また、前述の実施の形態では、カーネル回帰モデルを用いて頂点毎の特徴量データと変位量データの関係を学習して学習済みモデルを生成しているが、深層学習や畳み込みニューラルネットワークを用いて学習済みモデルを生成してもよい。
また、前述の実施の形態では、形状モデルを構成する頂点間の距離の関係を特に規定していないが等間隔となるように制約を加えてもよい。
また、前述の実施の形態では、もっぱら医用画像データを前提として臓器の変形の前後を学習して学習済みモデルを生成しているが、本発明に係る技術は、医用画像データに限らない。
図1に示す例では、端末50から変形推定装置20に測定データが入力され、測定データに対する推定の結果が端末50に出力されているが、測定データとその推定結果に対するユーザの評価が機械学習装置10に与えられ、学習済みモデルの更新に利用されてもよい。この場合、ユーザが高い評価を与えた推定結果には高い報酬が与えられ、ユーザが低い評価を与えた推定結果には報酬が与えられないか、低い評価が与えられる。この種の学習は強化学習の手法に対応する。なお、報酬は、0か1かの2段階に限らず、多段階の評価の場合には3段階以上の値で与えられてもよい。
1…推定システム、10…機械学習装置、20…変形推定装置、30…データベース、40…ネットワーク、50…端末、60…3次元形状推定部、101…形状モデル生成部、101A…サンプリング部、101B…位置合わせ部、102…モデルアップサンプリング部、103…変形学習部、103A…特徴量算出部、103B…変位算出部、103C…機械学習部、201…特徴量算出部、202…変形推定部、203…推定結果出力部、205…画像認識部、300…出力画面、301…観察画像欄、302…推定画像欄
Claims (17)
- 変形の前後における測定データに基づいて、変形前の物体の形状を表す第1の形状モデルと変形後の物体の形状を表す第2の形状モデルを生成する生成部と、
前記第1の形状モデルを構成する各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第1の形状モデルの各微小領域から前記第2の形状モデルの対応する各微小領域への変位を与える関係を学習する学習部と
を有する機械学習装置。 - 前記生成部が、前記第1の形状モデルの要素である頂点の配置を変更した第3の形状モデルと、前記第2の形状モデルの要素である頂点の配置を変更した第4の形状モデルを生成する場合、
前記学習部は、前記第3の形状モデルの各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第3の形状モデルの各微小領域から前記第4の形状モデルの対応する各微小領域への変位を与える前記関係も学習する、
請求項1に記載の機械学習装置。 - 前記特徴量は、各微小領域を与える座標、各微小領域を規定する勾配又は法線ベクトル、各微小領域を規定する曲率、各微小領域のボロノイ面積、各微小領域の収縮率、及び、各微小領域と平均的な形状モデルの対応領域からのずれ量のうちのいずれか1つ又は複数によって規定される、請求項1に記載の機械学習装置。
- 前記特徴量を与える前記差分値は、前記第1の形状モデルを構成する全微小領域のうちの5%以上の微小領域との間で計算される、請求項1に記載の機械学習装置。
- 前記学習部は、カーネル回帰モデルを用いて前記関係を学習する、請求項1又は2に記載の機械学習装置。
- 変形の前後における前記測定データは、医用画像データである
ことを特徴とする請求項1又は2に記載の機械学習装置。 - 前記変形は肺の脱気変形であり、脱気による変形前の前記測定データとして気胸を治療した患者の肺の医用画像データを用い、脱気による変形後の前記測定データとして気胸を治療する前の患者の肺の医用画像データを用いる
ことを特徴とする請求項6に記載の機械学習装置。 - 前記変形は、呼吸による若しくは時間変化若しくは検体の違いに伴う臓器の変形又は臓器の位置の移動を含む
ことを特徴とする請求項6に記載の機械学習装置。 - 前記第1の形状モデルと前記第2の形状モデルは、3次元の頂点モデルである
ことを特徴とする請求項1に記載の機械学習装置。 - コンピュータに、
変形の前後における測定データに基づいて、変形前の物体の形状を表す第1の形状モデルと変形後の物体の形状を表す第2の形状モデルを生成する機能と、
前記第1の形状モデルの各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第1の形状モデルの各微小領域から前記第2の形状モデルの対応する各微小領域への変位を与える関係を学習する機能と
を実行させるプログラム。 - 任意の測定データが与えられた場合に、変形前の測定データから生成された第1の形状モデルにおける各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第1の形状モデルの各微小領域から変形後の第2の形状モデルの対応する各微小領域への変位を与える関係を学習した学習済みモデルを用い、当該任意の測定データに対応する変形後の形状を推定する推定部
を有する推定装置。 - 前記推定部は、
入力された前記測定データについて生成される形状モデルの微小領域と他の微小領域との間の差分値を含む特徴量を算出し、
各微小領域に対応する特徴量の変位を、前記学習済みモデルに記憶されている関係の補間によって推定する
ことを特徴とする請求項11に記載の推定装置。 - コンピュータに、
任意の測定データが与えられた場合に、変形前の測定データから生成された第1の形状モデルにおける各微小領域と他の微小領域との間の差分値を含む特徴量と、当該第1の形状モデルの各微小領域から変形後の第2の形状モデルの対応する各微小領域への変位を与える関係を学習した学習済みモデルを用い、当該任意の測定データに対応する変形後の形状を推定する機能
を実行させるプログラム。 - 変形前の測定データから生成された第1の形状モデルにおける各微小領域と他の微小領域との間の差分値を含む特徴量を入力とし、当該第1の形状モデルの各微小領域から変形後の第2の形状モデルの対応する各微小領域への変位を出力とする関係を与え、
任意の測定データが与えられた場合に、前記関係を用い、当該任意の測定データに対応する形状モデルの各微小領域に対応する変位を演算することにより、当該任意の測定データに対応する変形後の形状を推定する機能をコンピュータに実行させるための学習済みモデル。 - 複数の第1の物体の測定データに基づいて、第1の物体の個別の形状を表す形状モデルと平均的な形状モデルを生成する生成部と、
前記個別の形状を表す形状モデルを構成する各微小領域と前記平均的な形状モデルの対応する微小領域との間の差分値を含む特徴量の分布と、当該差分値の分布と前記第1の物体との間に制約関係を有する第2の物体が存在する領域との関係を学習する学習部と
を有する機械学習装置。 - 前記制約関係は、前記第2の物体が前記第1の物体に隣接する又は繋がっている関係を含む、請求項15に記載の機械学習装置。
- コンピュータに、
複数の第1の物体の測定データに基づいて、第1の物体の個別の形状を表す形状モデルと平均的な形状モデルを生成する機能と、
前記個別の形状を表す形状モデルを構成する各微小領域と前記平均的な形状モデルの対応する微小領域との間の差分値を含む特徴量の分布と、当該差分値の分布と前記第1の物体との間に制約関係を有する第2の物体が存在する領域との関係を学習する機能と
を実行させるプログラム。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020545937A JP7349158B2 (ja) | 2018-09-13 | 2019-09-03 | 機械学習装置、推定装置、プログラム及び学習済みモデル |
| US17/274,065 US11631177B2 (en) | 2018-09-13 | 2019-09-03 | Machine learning device, estimation device, non-transitory computer readable medium, and learned model |
| EP19859716.3A EP3852023A4 (en) | 2018-09-13 | 2019-09-03 | MACHINE LEARNING DEVICE, INFERENCE DEVICE, PROGRAM AND LEARNED MODEL |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018-171825 | 2018-09-13 | ||
| JP2018171825 | 2018-09-13 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020054503A1 true WO2020054503A1 (ja) | 2020-03-19 |
Family
ID=69776997
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2019/034558 Ceased WO2020054503A1 (ja) | 2018-09-13 | 2019-09-03 | 機械学習装置、推定装置、プログラム及び学習済みモデル |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US11631177B2 (ja) |
| EP (1) | EP3852023A4 (ja) |
| JP (1) | JP7349158B2 (ja) |
| WO (1) | WO2020054503A1 (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN112330603A (zh) * | 2020-10-19 | 2021-02-05 | 浙江省肿瘤医院 | 基于软组织表面形变估计组织内部目标运动的系统与方法 |
| WO2022003428A3 (ja) * | 2020-06-30 | 2022-02-24 | 貴志 山本 | 情報処理装置及び学習済モデル |
| JP2023548773A (ja) * | 2020-10-20 | 2023-11-21 | メディビュー エックスアール、インコーポレイテッド | 自動セグメンテーション及びレジストレーション・システム並びに方法 |
| EP4198907A4 (en) * | 2021-02-18 | 2023-12-06 | Live2D Inc. | INFERENCE MODEL CONSTRUCTION METHOD AND DEVICE, PROGRAM, RECORDING MEDIUM, AND CONFIGURATION DEVICE AND METHOD |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114708261A (zh) * | 2022-06-01 | 2022-07-05 | 浙江大华技术股份有限公司 | 图像采集设备的运动估计方法、装置、终端及存储介质 |
| JP2024077442A (ja) * | 2022-11-28 | 2024-06-07 | 富士通株式会社 | 対象検出プログラム、装置、及び機械学習モデル生成方法 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008200482A (ja) * | 2006-12-19 | 2008-09-04 | Fujifilm Corp | 癌検出のために確率的アトラスを使用する方法および装置 |
| JP2015130972A (ja) * | 2014-01-10 | 2015-07-23 | キヤノン株式会社 | 処理装置、処理方法、およびプログラム |
| JP2017512522A (ja) * | 2014-03-04 | 2017-05-25 | ユーシーエル ビジネス ピーエルシー | 対象に固有の動きモデルを生成かつ使用する装置および方法 |
| JP2018522695A (ja) * | 2015-06-26 | 2018-08-16 | セレンバ | 血管構造内で血管内器具を誘導する助けとなるための方法及びシステム |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12046040B2 (en) * | 2015-07-17 | 2024-07-23 | Origin Research Wireless, Inc. | Method, apparatus, and system for people counting and recognition based on rhythmic motion monitoring |
| JP6608165B2 (ja) * | 2015-05-12 | 2019-11-20 | 国立大学法人京都大学 | 画像処理装置及び方法、並びにコンピュータプログラム |
| US10074160B2 (en) * | 2016-09-30 | 2018-09-11 | Disney Enterprises, Inc. | Point cloud noise and outlier removal for image-based 3D reconstruction |
| US20180093419A1 (en) * | 2016-09-30 | 2018-04-05 | Velo3D, Inc. | Three-dimensional objects and their formation |
| WO2019061202A1 (en) * | 2017-09-28 | 2019-04-04 | Shenzhen United Imaging Healthcare Co., Ltd. | SYSTEM AND METHOD FOR PROCESSING COLON IMAGE DATA |
-
2019
- 2019-09-03 WO PCT/JP2019/034558 patent/WO2020054503A1/ja not_active Ceased
- 2019-09-03 JP JP2020545937A patent/JP7349158B2/ja active Active
- 2019-09-03 US US17/274,065 patent/US11631177B2/en active Active
- 2019-09-03 EP EP19859716.3A patent/EP3852023A4/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008200482A (ja) * | 2006-12-19 | 2008-09-04 | Fujifilm Corp | 癌検出のために確率的アトラスを使用する方法および装置 |
| JP2015130972A (ja) * | 2014-01-10 | 2015-07-23 | キヤノン株式会社 | 処理装置、処理方法、およびプログラム |
| JP2017512522A (ja) * | 2014-03-04 | 2017-05-25 | ユーシーエル ビジネス ピーエルシー | 対象に固有の動きモデルを生成かつ使用する装置および方法 |
| JP2018522695A (ja) * | 2015-06-26 | 2018-08-16 | セレンバ | 血管構造内で血管内器具を誘導する助けとなるための方法及びシステム |
Non-Patent Citations (3)
| Title |
|---|
| H. FAN ET AL.: "A point set generation network for 3D object reconstruction from a single image", CVPR, 2017 |
| M. NAKAOY. ODAK. TAURAK. MINATO, DIRECT VOLUME MANIPULATION FOR VISUALIZING INTRAOPERATIVE LIVER RESECTION PROCESS, COMPUTER METHODS AND PROGRAMS IN BIOMEDICINE, vol. 113, no. 3, March 2014 (2014-03-01), pages 725 - 735 |
| U. YAMAMOTOM. NAKAOM. OHZEKIT. MATSUDA: "Estimation of elastic deformation by partial observation with kernel method", TRANSACTIONS OF THE JAPANESE SOCIETY FOR MEDICAL AND BIOLOGICAL ENGINEERING, 2017, pages 180 |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2022003428A3 (ja) * | 2020-06-30 | 2022-02-24 | 貴志 山本 | 情報処理装置及び学習済モデル |
| CN112330603A (zh) * | 2020-10-19 | 2021-02-05 | 浙江省肿瘤医院 | 基于软组织表面形变估计组织内部目标运动的系统与方法 |
| CN112330603B (zh) * | 2020-10-19 | 2023-04-18 | 浙江省肿瘤医院 | 基于软组织表面形变估计组织内部目标运动的系统与方法 |
| JP2023548773A (ja) * | 2020-10-20 | 2023-11-21 | メディビュー エックスアール、インコーポレイテッド | 自動セグメンテーション及びレジストレーション・システム並びに方法 |
| EP4198907A4 (en) * | 2021-02-18 | 2023-12-06 | Live2D Inc. | INFERENCE MODEL CONSTRUCTION METHOD AND DEVICE, PROGRAM, RECORDING MEDIUM, AND CONFIGURATION DEVICE AND METHOD |
| US12499506B2 (en) | 2021-02-18 | 2025-12-16 | Live2D Inc. | Inference model construction method, inference model construction device, recording medium, configuration device, and configuration method |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2020054503A1 (ja) | 2021-09-16 |
| EP3852023A1 (en) | 2021-07-21 |
| US11631177B2 (en) | 2023-04-18 |
| JP7349158B2 (ja) | 2023-09-22 |
| EP3852023A4 (en) | 2022-06-08 |
| US20210256703A1 (en) | 2021-08-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7349158B2 (ja) | 機械学習装置、推定装置、プログラム及び学習済みモデル | |
| Pfeiffer et al. | Learning soft tissue behavior of organs for surgical navigation with convolutional neural networks | |
| US8837860B1 (en) | Systems and methods for data and model-driven image reconstruction and enhancement | |
| US10026016B2 (en) | Tracking and representation of multi-dimensional organs | |
| CN106462963B (zh) | 用于自适应放射治疗中自动勾画轮廓的系统和方法 | |
| Özgür et al. | Preoperative liver registration for augmented monocular laparoscopy using backward–forward biomechanical simulation | |
| EP3444781B1 (en) | Image processing apparatus and image processing method | |
| WO2022193750A1 (zh) | 一种基于深度学习的乳腺图像配准方法 | |
| Ezhov et al. | Learn-Morph-Infer: a new way of solving the inverse problem for brain tumor modeling | |
| US20090324041A1 (en) | Apparatus for real-time 3d biopsy | |
| Vásquez Osorio et al. | Accurate CT/MR vessel‐guided nonrigid registration of largely deformed livers | |
| Zhong et al. | Deep action learning enables robust 3D segmentation of body organs in various CT and MRI images | |
| Jiang et al. | Virtual image correlation of magnetic resonance images for 3D geometric modelling of pelvic organs | |
| Danilov et al. | Use of semi-synthetic data for catheter segmentation improvement | |
| Kim et al. | Automatic deformable surface registration for medical applications by radial basis function-based robust point-matching | |
| JP7551620B2 (ja) | データ拡張 | |
| Selmi et al. | 3D interactive ultrasound image deformation for realistic prostate biopsy simulation | |
| Kang et al. | Simulating liver deformation during respiration using sparse local features | |
| Rhee et al. | Scan-based volume animation driven by locally adaptive articulated registrations | |
| Yamamoto et al. | Kernel-based framework to estimate deformations of pneumothorax lung using relative position of anatomical landmarks | |
| Antonsanti et al. | How to register a live onto a liver? partial matching in the space of varifolds | |
| Henderson et al. | Unsupervised correspondence with combined geometric learning and imaging for radiotherapy applications | |
| Zhao et al. | Non-rigid registration algorithm based on modally controlled free form deformation | |
| Zhao et al. | Digital eversion of a hollow structure: an application in virtual colonography | |
| Boussot et al. | Statistical model for the prediction of lung deformation during video-assisted thoracoscopic surgery |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19859716 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2020545937 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2019859716 Country of ref document: EP Effective date: 20210413 |