JP7667661B2 - 画像処理装置、医用画像撮像装置、画像処理方法、およびプログラム - Google Patents
画像処理装置、医用画像撮像装置、画像処理方法、およびプログラム Download PDFInfo
- Publication number
- JP7667661B2 JP7667661B2 JP2021007311A JP2021007311A JP7667661B2 JP 7667661 B2 JP7667661 B2 JP 7667661B2 JP 2021007311 A JP2021007311 A JP 2021007311A JP 2021007311 A JP2021007311 A JP 2021007311A JP 7667661 B2 JP7667661 B2 JP 7667661B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- contour
- input
- unit
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/64—Analysis of geometric attributes of convexity or concavity
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/60—Rotation of whole images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/235—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on user input or interaction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/469—Contour-based spatial representations, e.g. vector-coding
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/752—Contour matching
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Public Health (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Biodiversity & Conservation Biology (AREA)
- Pathology (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
Description
入力画像を取得する画像取得部と、
ユーザーが入力する入力点の有無により前記複数の学習済モデルから学習済モデルを選択する選択部と、
前記入力点が入力されていない場合に、前記入力画像における所定の位置を、前記選択部により選択された学習済モデルの正規化空間における所定の位置に合わせるように、前記選択部により選択された学習済モデルが生成された正規化空間と同一の正規化空間に前記入力画像を座標変換した正規化画像を取得する正規化部と、
前記選択部により選択された前記学習済モデルと、前記正規化画像と、を用いて、前記入力画像における前記対象物の輪郭を推定する推定部と、
を備える。
本発明の他の態様による画像処理装置は以下の構成を備える。すなわち、画像処理装置は、対象物を撮像した画像における前記対象物の輪郭が所定の特徴点の位置に基づいて学習され、入力点を輪郭推定で使用しない第1の学習済モデルと、前記入力点を前記輪郭推定で使用する第2の学習済モデルと、が含まれる複数の学習済モデルを取得するモデル取得部と、
入力画像を取得する画像取得部と、
前記入力点の有無により前記複数の学習済モデルから学習済モデルを選択する選択部と、
前記入力点が入力されていない場合に、前記入力画像における所定の位置を正規化空間における前記学習済モデルの所定の位置に合わせるように、前記選択部により選択された学習済モデルが生成された正規化空間と同一の正規化空間に前記入力画像を座標変換した正規化画像を取得する正規化部と、
前記選択部により選択された前記学習済モデルと、前記正規化画像と、を用いて、前記入力点が入力されていない場合、前記第1の学習済モデルを用いて、前記入力画像における前記輪郭を推定し、前記入力点が入力されている場合、前記第2の学習済モデルを用いて、前記入力画像における前記輪郭を推定する推定部と、を備える。
本発明の他の態様による画像処理装置は以下の構成を備える。すなわち、画像処理装置は、対象物を撮像した画像における前記対象物の輪郭が所定の特徴点の位置に基づいて学習された複数の学習済モデルを取得するモデル取得部と、
入力画像を取得し、前記入力画像の画質を評価する画像取得部と、
前記画質の評価結果に基づいて前記複数の学習済モデルから学習済モデルを選択する選択部と、
前記入力画像を前記選択部により選択された学習済モデルが生成された正規化空間と同一の正規化空間に座標変換した正規化画像を取得する正規化部と、
前記選択部により選択された前記学習済モデルと、前記正規化画像と、を用いて、前記入力画像における前記対象物の輪郭を推定する推定部と、
を備える。
本発明の他の態様による画像処理方法は以下の構成を有する。すなわち、画像処理方法は、対象物を撮像した画像における前記対象物の輪郭が所定の特徴点の位置に基づいて学習された複数の学習済モデルを取得するモデル取得工程と、
入力画像を取得し、前記入力画像の画質を評価する画像取得工程と、
前記画質の評価結果に基づいて前記複数の学習済モデルから学習済モデルを選択する選択工程と、
前記入力画像を前記選択工程で選択された学習済モデルが生成された正規化空間と同一の正規化空間に座標変換した正規化画像を取得する正規化工程と、
前記選択工程で選択された前記学習済モデルと、前記正規化画像と、を用いて、前記入力画像における前記対象物の輪郭を推定する推定工程と、
を有する。
第1の実施形態では、ユーザーによる入力点を輪郭推定で使用する輪郭推定を、本実施形態では半自動輪郭推定という。入力画像上で入力される所定の特徴点(入力点)の座標値で座標変換した正規化空間において、対象物の輪郭推定を半自動推定により行う構成について説明する。本実施形態では、ユーザーの手動により入力された特徴点に基づいて、画像処理装置(またはシステム)が行う注目領域の輪郭推定を半自動推定という。本実施形態で説明する画像処理装置は対象物の輪郭推定を、ユーザーの手動により入力された特徴点(入力点)を用いた半自動推定により行う。
画像取得部41は、処理対象となる入力画像(輪郭情報が未知の画像)をデータベース22から取得する。入力画像は、各種モダリティにより取得された被検体の撮像画像であり、本実施形態の場合は心臓の2次元超音波画像である。画像取得部41は、入力画像をモダリティから直接取得してもよい。この場合、画像処理装置10はモダリティ(撮像システム)のコンソールの中に実装されていてもよい。本実施形態では、入力画像が2次元の超音波画像である例を説明するが、他の種類の画像であってもよい。本実施形態の方法は、2次元以上の画像(複数の2次元画像、2次元の動画像、3次元の静止画像、複数の3次元画像、あるいは、3次元の動画像など)であっても適用可能である。また、モダリティの種類によらず適用可能である。
位置取得部42は、入力画像に対してユーザーが入力する特徴点(特徴点の位置)を入力点として取得する。位置取得部42は、入力画像上においてユーザーが操作部35を介して手動入力する所定の特徴点(入力点)の座標情報(位置情報)を取得する。本実施形態では、所定の特徴点として、右心室の心尖位置、および、三尖弁の左右弁輪位置の中点の2点を用いる。位置取得部42の機能については、ステップS202の説明で後述する。
学習モデル取得部43は、対象物を撮像した画像における対象物の輪郭を学習する処理および学習済モデルを取得する処理の他、画像処理装置における記憶部に予め登録された学習済モデル又は外部に記憶された複数の学習済モデルから所望の学習済モデルを取得(選択)する機能を有する。学習モデル取得部43は、対象物を撮像した画像における対象物の輪郭を、所定の特徴点の位置に基づいて学習された学習済モデルを取得する。具体的には、学習モデル取得部43は、所定の対象物を撮像した画像と、当該画像における対象物の輪郭との関係を学習した学習済モデルであって、対象物の所定の特徴点の位置を合わせた正規化空間で生成された学習済モデルを取得する。
輪郭推定部44は、正規化画像と学習済モデルとを用いて、入力画像における対象物の輪郭(輪郭情報)を推定する。ここで、対象物の輪郭(輪郭情報)には、輪郭線や輪郭線を構成する輪郭点の位置情報が含まれる。輪郭推定部44は、学習モデル取得部43で取得した学習済モデルを用いて、画像取得部41で取得した入力画像、および、位置取得部42で取得した入力画像上に設定された特徴点(入力点)の座標から、入力画像中の対象物(例えば、右心室)の輪郭情報を推定する。
表示処理部45は、輪郭推定部44により算出した結果に基づいて、入力画像および推定した対象物の輪郭情報を容易に視認できるような表示形態で、表示部36の画像表示領域内に表示させる。
ステップS201において、ユーザーが操作部35を介して画像の取得を指示すると、画像取得部41は、ユーザーが指定した入力画像をデータベース22から取得し、RAM33に格納する。このとき、表示処理部45は、入力画像を表示部36の画像表示領域内に表示させる。ここで、入力画像の例を図5(a)に示す。
(ステップS202:特徴点座標の取得)
ステップS202において、ユーザーが操作部35を介して、表示部36の表示領域内に表示された入力画像上に所定の特徴点の座標情報を入力すると、位置取得部42は、入力画像上においてユーザーにより手動入力された特徴点(入力点)の座標情報(位置情報)を取得し、RAM33に格納する。
ステップS203において、学習モデル取得部43は、学習データをデータベース22から取得する。そして、学習モデル取得部43は、データベース22から取得した学習データを用いて学習済モデルを構築する。なお、学習データは、学習済モデルのロバスト性を高めるために、異なる複数の患者を撮像したデータで構成されることが望ましい。ただし、異なる複数の患者を撮像したデータには、同一患者を異なる時期に撮像した画像が含まれていても構わない。
ステップS301において、学習モデル取得部43は、学習データである複数の症例(サンプル)の画像と、各サンプルの画像における対象物の輪郭情報の正解(正解輪郭)とを、データベース22から取得する。対象物の輪郭情報には、各画像における対象物の輪郭線の位置(座標)が含まれる。
ステップS302において、学習モデル取得部43は、ステップS301で取得した学習データの各サンプルの画像に対して設定された、所定の特徴点の座標情報(位置情報)を、データベース22から取得する。すなわち、学習モデル取得部43は、各画像における対象物の特徴点の位置(座標情報(位置情報))をデータベース22から取得する。前述の通り、本実施形態では、特徴点は、心尖と左右弁輪中点の2点であるとする。
ステップS303において、学習モデル取得部43は、ステップS302において学習データの各サンプルに対してそれぞれ取得した特徴点座標を用いて、学習データの各サンプルの画像の画素値情報と対象物の輪郭情報とに座標変換を施して正規化する。学習モデル取得部43は、学習用症例の画像における特徴点の位置(座標)に基づいて、画像と、画像における輪郭線とを正規化空間に座標変換して、正規化画像と正規化輪郭とを生成する。このとき、学習モデル取得部43は、座標変換後の特徴点の座標が、学習データの全サンプルにおいて(特徴点の種別ごとに)、同じ位置になるように、同一となるような座標変換を実行する。すなわち、学習データの全サンプルは、特徴点座標の座標値で正規化された正規化空間へと座標変換される。
ステップS304において、学習モデル取得部43は、ステップS303で座標変換された正規化空間において、学習データの水増し処理(データオーグメンテーション)を行う。学習モデル取得部43は、変形部として機能して、正規化空間における特徴点の位置を同じ位置に固定した状態で、正規化画像と正規化輪郭とに変形(変動値)を付加した変形画像と変形輪郭とを生成する。そして、学習モデル取得部43は、変形画像及び変形輪郭に基づいて、学習済モデルを取得する。学習モデル取得部43は、学習データに変形画像及び変形輪郭を追加した学習データ(水増しされた学習データ)に基づいて、学習済モデルを取得する。
ステップS305において、学習モデル取得部43は、ステップS304で水増しされた学習データの各サンプルのすべてを統計解析し、学習済モデルを構築する。本ステップの処理はすべて、正規化空間において行われる。
ステップS204において、輪郭推定部44は、入力点の位置を学習済モデルの特徴点の位置に合わせるように、入力画像を正規化空間に座標変換した正規化画像を取得する。すなわち、輪郭推定部44は、ステップS202で位置取得部42により取得された特徴点の情報を用いて、ステップS201で画像取得部41により取得された入力画像を、学習済モデルが生成された正規化空間と同一の空間(すなわち、正規化空間)に座標変換する。そして、輪郭推定部44は、正規化空間における入力画像の画素値情報を算出する。
ステップS205において、輪郭推定部44は、ステップS204で正規化空間に座標変換された入力画像と、ステップS203で取得した学習済モデルから、入力画像中に写る対象物の輪郭情報を推定する。より具体的には、輪郭推定部44は、未知の画像の画素値の情報から該画像に写る物体の姿勢を表す情報を推定する推定処理(例えば、BPLP法)に基づいて画像中に写る対象物(右心室領域)の輪郭情報を推定し、その結果をRAM33に格納する。
[非特許文献] Toshiyuki Amano, et.Al."An appearance based fast linear pose estimation" MVA 2009 IAPR Conference on Machine Vision Applications.2009 May 20-22.
BPLP法を適用するために、入力データについて、どの部分が既知の情報であり、どの部分が未知の情報(欠損部分)であるかを、推定処理を実行する際に特定しておく必要がある。
ステップS206において、輪郭推定部44は、ステップS204で実行した正規化空間への座標変換とは逆の変換をステップS205の輪郭推定の結果に適用することで、輪郭推定の結果を元の(入力画像の)空間へと戻す。座標変換前の元空間に戻す座標変換を行うことで、ステップS205において正規化空間で推定された輪郭線情報(図5(c)の507)が、図5(d)に示すように元の空間の輪郭線情報(図5(d)の508)に座標変換される。
ステップS207において、表示処理部45は、入力画像と輪郭推定部44により推定した対象物の輪郭情報とを表示部36の画像表示領域に表示させる。このとき、表示処理部45は、推定した輪郭情報と入力画像を重畳して表示するように表示制御を行うことも可能である。推定した輪郭情報と入力画像との重畳表示を行うことで、入力画像に対して、推定した輪郭情報がどの程度合っているのかをユーザーが容易に視認することができる。本実施形態においては、対象物の輪郭情報は、対象物の輪郭をサンプリングした離散的な点群であるため、表示処理部45は、スプライン補間などの既知の技術を用いて隣接点の間を補間した後に輪郭情報を表示部36に表示してもよい。
第1の実施形態では、入力画像や学習データとして扱う画像が、心臓領域を撮像した2次元の超音波画像である例を示したが、本発明は、心臓以外の他の臓器を撮像した画像や、超音波画像以外の画像を用いる場合でも実施可能である。
第2の実施形態に係る画像処理装置は、第1の実施形態と同様に、画像から所定の対象物の輪郭を推定する装置である。第1の実施形態では統計解析に基づくBPLP法を用いて輪郭推定を行う構成を説明したが、本実施形態では、例えば、CNN(Convolutional Neural Network)法に代表される機械学習を用いて輪郭推定を行う構成を説明する。
本実施形態では、学習モデル取得部43は、CNN法のベースとして、公知のCNNモデルであるVGG16を用いて学習済モデルを構築する。このVGG16は、計16層から成る畳み込みニューラルネットワーク(CNN法)である。VGG16では入力画像のチャネル数が3と規定されているため、学習モデル取得部43は、3つのチャネルに同一の画像情報を格納する。
輪郭線情報の推定手法において、輪郭推定部44は、公知のCNNの推定方法と同じ手法を利用可能である。輪郭推定部44は、正規化空間に座標変換された入力画像の画素値情報を入力し、入力画像における対象物の輪郭を出力するCNN法による学習に基づいて、入力画像における対象物の輪郭を推定する。すなわち、ステップS204で正規化空間に座標変換された入力画像の画素値情報を入力として、対象物の輪郭線を構成するNp個の点群の座標値を推定する。推定では、ステップS305で学習されたCNN法の重み情報が用いられる。
第3の実施形態に係る画像処理装置は、第1および第2の実施形態と同様に、画像から所定の対象物の輪郭を推定する装置である。本実施形態では、学習データ中の各サンプルにおいて、正規化に用いる特徴点の座標に人工的な変動を付与することで、学習データの水増しを行う構成を説明する。本実施形態において、学習モデル取得部43は、正規化部として機能して、特徴点の位置に変動値を付加した新たな特徴点に対して、複数の症例の画像における変動値を付加した新たな特徴点が同じ位置になるように、学習データの画像と輪郭とを正規化空間に座標変換する正規化処理により、正規化画像と正規化輪郭とを生成する。そして、学習モデル取得部43は、正規化画像及び正規化輪郭に基づいて、学習済モデルを取得する。
ステップS304において、学習モデル取得部43は、ステップS303で座標変換された正規化空間において、学習データの水増し処理(データオーグメンテーション)を行う。
第4の実施形態に係る画像処理装置は、第1乃至第3の実施形態と同様に、画像から所定の対象物の輪郭を推定する装置である。第1乃至第3の実施形態では、輪郭の推定を行う際、ユーザーの手動により入力された入力点の取得を行い、対象物の輪郭推定を、入力点を用いた半自動推定により行う構成を説明した。ここで、対象物の輪郭推定は入力点を用いた処理に限られず、入力点に依存しない全自動輪郭推定と半自動輪郭推定とを、状況に応じて適応的に切り替えて動作させることも可能である。
ステップS602において、学習モデル取得部43は、データベース22から取得した学習データから、全自動輪郭推定用の学習済モデルと半自動輪郭推定用の学習済モデルを構築する。図7は第4の実施形態に係る学習済モデルの取得処理の手順の例を示すフローチャートであり、以下、図7のフローチャートを用いて、学習モデル取得部43が行う処理の詳細を説明する。
ステップS712において、学習モデル取得部43は、次のステップにおける学習済モデルの構築に先立って、学習データの各サンプルの画像の画素値情報等の画像情報を、全自動輪郭推定用の学習済モデルを定義する正規化空間へと座標変換する。このとき、学習モデル取得部43は、学習データの各サンプル画像におけるプローブ位置(例えば、図5(a)の509)の座標値が互いに一致するように座標変換を行う。すなわち、学習モデル取得部43は、学習データの各サンプルの画像を、画像中における所定の位置(例えば、プローブ位置)が所定の座標値になるように平行移動させることにより座標変換を行う。
ステップS713において、学習モデル取得部43は、ステップS712で座標変換された正規化空間において、学習データの水増し処理(データオーグメンテーション)を行う。学習モデル取得部43は、各サンプルの画像に対する水増し処理を、公知の一般的な手法を適用することで行うことが可能である。例えば、学習モデル取得部43は、平行移動や回転、拡大または縮小などの複数通りの操作を各サンプル画像の画素値情報に対して実行する。なお、学習モデル取得部43は、輝度コントラストの変換など、画素値に対して変更を加える水増しを行うことも可能である。
ステップS714において、学習モデル取得部43は、ステップS711で取得され、ステップS712で座標変換された学習データと、ステップS713で水増しされた学習データの全てを統計解析して、全自動輪郭推定用の学習済モデルを構築する。
ステップS603において、輪郭推定部44は、選択部として機能して、ユーザーが入力する入力点の有無により複数の学習済モデル(S602)から学習済モデルを選択する。また、輪郭推定部44は、正規化部として機能して、ステップS601で取得された入力画像を、選択した学習済モデルが生成された正規化空間と同一の正規化空間に座標変換した正規化画像を取得する。そして、輪郭推定部44は、正規化空間における入力画像の画素値情報を算出する。
ステップS604において、輪郭推定部44は、ステップS603で座標変換された入力画像と、ステップS602で取得した学習済モデルから、入力画像中に写る対象物の輪郭情報を推定する。より具体的には、輪郭推定部44は、BPLP法に基づいて画像中に写る対象物(右心室領域)の輪郭情報を推定し、その結果をRAM33に格納する。
ステップS607において、表示処理部45は、ユーザーによる輪郭線推定を終了するか否かの指示を取得するための確認画面を、表示部36の画像表示領域に表示させる。例えば、表示処理部45は、ユーザーからの指示を入力するための指示入力部として、「終了する」「終了しない」という2つのボタンを有するダイアログボックスを表示部36に表示させる。この他、ユーザーによる指示を取得するための構成は、所定のキーボード入力を受け付けるなど、任意の方法を用いることが可能である。輪郭線の推定処理を「終了する」という指示が入力された場合(S607-Yes)、本実施形態の画像処理装置10による輪郭線の推定処理は終了する。一方、ステップS607の判定処理で、輪郭線の推定処理を「終了しない」という指示が入力された場合(S607-No)、処理はステップS608へと進められる。
ステップS608において、位置取得部42は、ユーザーによる特徴点(入力点)の座標情報の入力を受け付ける。位置取得部42は、所定の特徴点の座標情報を取得し、RAM33に格納する。
図6及び図7の処理では、複数の学習済モデルをステップS602で取得しておき、ステップS608で取得された特徴点に対応する半自動輪郭推定用の学習済モデルを選択して、半自動輪郭推定を行う処理を説明した。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
21 ネットワーク
22 データベース
31 通信IF
32 ROM
33 RAM
34 記憶部
35 操作部
36 表示部
37 制御部
41 画像取得部
42 位置取得部
43 学習モデル取得部
44 輪郭推定部
45 表示処理部
Claims (13)
- 対象物を撮像した画像における前記対象物の輪郭が所定の特徴点の位置に基づいて学習された複数の学習済モデルを取得するモデル取得部と、
入力画像を取得する画像取得部と、
ユーザーが入力する入力点の有無により前記複数の学習済モデルから学習済モデルを選択する選択部と、
前記入力点が入力されていない場合に、前記入力画像における所定の位置を、前記選択部により選択された学習済モデルの正規化空間における所定の位置に合わせるように、前記選択部により選択された学習済モデルが生成された正規化空間と同一の正規化空間に前記入力画像を座標変換した正規化画像を取得する正規化部と、
前記選択部により選択された前記学習済モデルと、前記正規化画像と、を用いて、前記入力画像における前記対象物の輪郭を推定する推定部と、
を備えることを特徴とする画像処理装置。 - 前記正規化部は、前記入力点が入力されている場合に、前記入力点の位置を前記学習済モデルの特徴点の位置に合わせるように、前記入力画像を前記正規化空間に座標変換した正規化画像を取得することを特徴とする請求項1に記載の画像処理装置。
- 対象物を撮像した画像における前記対象物の輪郭が所定の特徴点の位置に基づいて学習され、入力点を輪郭推定で使用しない第1の学習済モデルと、前記入力点を前記輪郭推定で使用する第2の学習済モデルと、が含まれる複数の学習済モデルを取得するモデル取得部と、
入力画像を取得する画像取得部と、
前記入力点の有無により前記複数の学習済モデルから学習済モデルを選択する選択部と、
前記入力点が入力されていない場合に、前記入力画像における所定の位置を正規化空間における前記学習済モデルの所定の位置に合わせるように、前記選択部により選択された学習済モデルが生成された正規化空間と同一の正規化空間に前記入力画像を座標変換した正規化画像を取得する正規化部と、
前記選択部により選択された前記学習済モデルと、前記正規化画像と、を用いて、前記入力点が入力されていない場合、前記第1の学習済モデルを用いて、前記入力画像における前記輪郭を推定し、前記入力点が入力されている場合、前記第2の学習済モデルを用いて、前記入力画像における前記輪郭を推定する推定部と、
を備えることを特徴とする画像処理装置。 - 前記推定の結果を前記入力画像に重畳した重畳画像を表示部に表示させる表示処理部と、
前記重畳画像に対してユーザーが入力した特徴点の位置を前記入力点として取得する位置取得部と、を更に備え、
前記推定部は、
前記入力点が入力されていない場合、前記第1の学習済モデルを用いて、前記入力画像における前記輪郭を推定し、
前記入力点が入力されている場合、前記第2の学習済モデルを用いて、前記入力画像における前記輪郭を推定する
ことを特徴とする請求項3に記載の画像処理装置。 - 前記入力画像の画質を評価する評価部を更に備え、
前記推定部は、前記評価部による前記画質の評価結果に基づいて前記複数の学習済モデルから選択した学習済モデルと、当該学習済モデルの正規化空間に座標変換した正規化画像とを用いて、前記入力画像における前記対象物の輪郭を推定することを特徴とする請求項4に記載の画像処理装置。 - 前記推定部は、前記評価部により前記入力画像の画質が閾値を満たさないと評価された場合に、前記第2の学習済モデルを用いて、前記入力画像における前記輪郭を推定することを特徴とする請求項5に記載の画像処理装置。
- 前記表示処理部は、前記評価部により前記入力画像の画質が閾値を満たさないと評価された場合に、前記特徴点の入力を促すユーザインタフェースを前記表示部に表示させ、
前記位置取得部は、前記ユーザインタフェースから入力された特徴点の位置を前記入力点として取得することを特徴とする請求項6に記載の画像処理装置。 - 対象物を撮像した画像における前記対象物の輪郭が所定の特徴点の位置に基づいて学習された複数の学習済モデルを取得するモデル取得部と、
入力画像を取得し、前記入力画像の画質を評価する画像取得部と、
前記画質の評価結果に基づいて前記複数の学習済モデルから学習済モデルを選択する選択部と、
前記入力画像を前記選択部により選択された学習済モデルが生成された正規化空間と同一の正規化空間に座標変換した正規化画像を取得する正規化部と、
前記選択部により選択された前記学習済モデルと、前記正規化画像と、を用いて、前記入力画像における前記対象物の輪郭を推定する推定部と、
を備えることを特徴とする画像処理装置。 - 前記モデル取得部は、前記対象物を撮像した画像及び前記対象物の輪郭を入力データとしたPCA(Principle Component Analysis)法に基づいた主成分分析により前記学習済モデルを取得し、
前記推定部は、前記正規化空間に座標変換された前記入力画像の画素値情報を既知の情報として設定し、前記入力画像における前記対象物の輪郭を未知の情報として設定したデータに対して、BPLP(Back projection for lost pixels)法に基づいた推定処理により、前記入力画像における前記輪郭を推定することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 - 前記モデル取得部は、前記対象物を撮像した画像を入力し、前記画像における前記対象物の輪郭を出力するCNN法(Convolutional Neural Network)による学習に基づいて、前記学習済モデルを取得し、
前記推定部は、前記正規化空間に座標変換された前記入力画像の画素値情報を入力し、前記入力画像における前記対象物の輪郭を出力するCNN法(Convolutional Neural Network)による学習に基づいて、前記入力画像における前記輪郭を推定することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。 - 請求項1乃至10のいずれか1項に記載の画像処理装置を有する医用画像撮像装置。
- 画像処理方法であって、
対象物を撮像した画像における前記対象物の輪郭が所定の特徴点の位置に基づいて学習された複数の学習済モデルを取得するモデル取得工程と、
入力画像を取得し、前記入力画像の画質を評価する画像取得工程と、
前記画質の評価結果に基づいて前記複数の学習済モデルから学習済モデルを選択する選択工程と、
前記入力画像を前記選択工程で選択された学習済モデルが生成された正規化空間と同一の正規化空間に座標変換した正規化画像を取得する正規化工程と、
前記選択工程で選択された前記学習済モデルと、前記正規化画像と、を用いて、前記入力画像における前記対象物の輪郭を推定する推定工程と、
を有することを特徴とする画像処理方法。 - コンピュータに、請求項12に記載の画像処理方法の各工程を実行させるプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021007311A JP7667661B2 (ja) | 2021-01-20 | 2021-01-20 | 画像処理装置、医用画像撮像装置、画像処理方法、およびプログラム |
| US17/574,724 US12499570B2 (en) | 2021-01-20 | 2022-01-13 | Image processing apparatus, medical image capturing apparatus, image processing method, and storage medium |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021007311A JP7667661B2 (ja) | 2021-01-20 | 2021-01-20 | 画像処理装置、医用画像撮像装置、画像処理方法、およびプログラム |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JP2022111704A JP2022111704A (ja) | 2022-08-01 |
| JP2022111704A5 JP2022111704A5 (ja) | 2024-01-24 |
| JP7667661B2 true JP7667661B2 (ja) | 2025-04-23 |
Family
ID=82405274
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2021007311A Active JP7667661B2 (ja) | 2021-01-20 | 2021-01-20 | 画像処理装置、医用画像撮像装置、画像処理方法、およびプログラム |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7667661B2 (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025094898A1 (ja) * | 2023-10-30 | 2025-05-08 | 京セラ株式会社 | 生成方法、学習方法、生成装置、制御プログラムおよび記録媒体 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004267393A (ja) | 2003-03-07 | 2004-09-30 | Toshiba Corp | 画像処理装置および画像処理方法 |
| JP2009178423A (ja) | 2008-01-31 | 2009-08-13 | Toshiba Corp | 画像処理装置及びその方法 |
| JP2015073798A (ja) | 2013-10-10 | 2015-04-20 | 株式会社東芝 | 医用画像診断装置、画像処理装置およびプログラム |
| JP2020510463A (ja) | 2017-01-27 | 2020-04-09 | アーテリーズ インコーポレイテッド | 全層畳み込みネットワークを利用する自動化されたセグメンテーション |
-
2021
- 2021-01-20 JP JP2021007311A patent/JP7667661B2/ja active Active
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004267393A (ja) | 2003-03-07 | 2004-09-30 | Toshiba Corp | 画像処理装置および画像処理方法 |
| JP2009178423A (ja) | 2008-01-31 | 2009-08-13 | Toshiba Corp | 画像処理装置及びその方法 |
| JP2015073798A (ja) | 2013-10-10 | 2015-04-20 | 株式会社東芝 | 医用画像診断装置、画像処理装置およびプログラム |
| JP2020510463A (ja) | 2017-01-27 | 2020-04-09 | アーテリーズ インコーポレイテッド | 全層畳み込みネットワークを利用する自動化されたセグメンテーション |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2022111704A (ja) | 2022-08-01 |
| US20220230346A1 (en) | 2022-07-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8326086B2 (en) | Elastic image registration | |
| JP6346445B2 (ja) | 処理装置、処理装置の制御方法、およびプログラム | |
| CN107909622B (zh) | 模型生成方法、医学成像的扫描规划方法及医学成像系统 | |
| JP7662343B2 (ja) | 学習装置、画像処理装置、医用画像撮像装置、学習方法およびプログラム | |
| JP2009273597A (ja) | 位置合わせ処理装置、位置合わせ方法、プログラム、及び記憶媒体 | |
| US12190522B2 (en) | Constrained object correction for a segmented image | |
| JP6905323B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
| JP7409624B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
| JP6995535B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
| CN113962957A (zh) | 医学图像处理方法、骨骼图像处理方法、装置、设备 | |
| JP7456928B2 (ja) | 胸部x線画像の異常表示制御方法、異常表示制御プログラム、異常表示制御装置、及びサーバ装置 | |
| JP7667661B2 (ja) | 画像処理装置、医用画像撮像装置、画像処理方法、およびプログラム | |
| US7030874B2 (en) | Method of following the three-dimensional deformation of a deformable organ | |
| JP2007518484A (ja) | 変形可能な表面のセグメント化のリアルタイムなユーザ対話処理 | |
| JP7681977B2 (ja) | 画像処理装置および画像処理方法、医用撮像装置、プログラム | |
| JP7356330B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
| US12499570B2 (en) | Image processing apparatus, medical image capturing apparatus, image processing method, and storage medium | |
| JP7623526B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
| TWI868960B (zh) | 電腦裝置及用於醫學影像辨識的人工智慧模型的深度學習方法 | |
| JP2015128546A (ja) | 臓器位置推定装置、臓器位置推定装置の制御方法および臓器位置推定装置の制御プログラム | |
| JP5706933B2 (ja) | 処理装置および処理方法、プログラム | |
| JP7165541B2 (ja) | ボリュームデータ処理装置、方法及びプログラム | |
| JP2018167077A (ja) | 処理装置、処理方法、およびプログラム | |
| JP2024070359A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
| JP2019051060A (ja) | 画像処理装置 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240115 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240115 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241021 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241025 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241220 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250317 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250411 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7667661 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |