[go: up one dir, main page]

JPWO2017126036A1 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JPWO2017126036A1
JPWO2017126036A1 JP2017562199A JP2017562199A JPWO2017126036A1 JP WO2017126036 A1 JPWO2017126036 A1 JP WO2017126036A1 JP 2017562199 A JP2017562199 A JP 2017562199A JP 2017562199 A JP2017562199 A JP 2017562199A JP WO2017126036 A1 JPWO2017126036 A1 JP WO2017126036A1
Authority
JP
Japan
Prior art keywords
image
superimposed
information
subject image
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017562199A
Other languages
English (en)
Inventor
陽一 矢口
陽一 矢口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2017126036A1 publication Critical patent/JPWO2017126036A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本発明にかかる画像処理装置は、複数の被写体画像を順次取得する被写体画像取得部と、被写体画像に重畳する重畳オブジェクトであって、重畳対象の被写体画像とは異なる検出対象の被写体画像から検出した注目箇所に対応させて配置する重畳オブジェクトの空間情報を生成する重畳オブジェクト情報生成部と、重畳オブジェクト情報生成部が空間情報を生成した時間に応じて、重畳オブジェクトとともに表示部に表示させる重畳対象の被写体画像を決定する表示画像決定部と、検出対象の被写体画像と重畳対象の被写体画像との間の対応を推定した情報である画像間対応情報を生成する画像間対応情報生成部と、重畳オブジェクトの空間情報を、画像間対応情報に基づいて補正する空間情報補正部と、空間情報補正部によって補正された重畳オブジェクトを、表示画像決定部によって決定された重畳対象の被写体画像に重畳するオブジェクト重畳部と、を備える。

Description

本発明は、撮像素子により生成された撮像信号に信号処理を施して画像信号を生成する画像処理装置、画像処理方法および画像処理プログラムに関する。
従来、医療分野および工業分野において、各種検査のために内視鏡装置が広く用いられている。このうち、医療用の内視鏡装置は、患者等の被検体内に、複数の画素を有する撮像素子が先端に設けられた、細長形状をなす可撓性の挿入部を挿入することによって、被検体を切開しなくても被検体内の画像(被写体画像)を取得できるため、被検体への負担が少なく、普及が進んでいる。
このような内視鏡装置を用いた被写体画像の観察では、画像解析の結果として、病変検出結果などの注目箇所を指示する情報(以下、オブジェクトともいう)が、被写体画像に重畳されて観察画面上に表示される。被写体画像に対してオブジェクトを重畳する技術として、撮像画像内の動き物体(注目箇所)をオブジェクトとして検出して切り出す処理が完了した時点で取得された撮像画像に重畳する技術が知られている(例えば、特許文献1を参照)。
特開2014−220618号公報
しかしながら、特許文献1が開示する技術では、オブジェクトを検出して切り出すまでに時間を要するため、切り出したオブジェクトが、重畳する被写体画像における注目箇所の位置とは異なる位置に重畳されてしまう場合があった。この場合、重畳したオブジェクトが、表示している被写体画像内のオブジェクトを適切に指示できていなかった。
本発明は、上記に鑑みてなされたものであって、検出対象の画像における注目箇所に基づいて生成したオブジェクトを、検出対象の画像とは異なる画像に重畳する場合であっても、重畳対象の画像における注目箇所の位置に対する位置ずれを抑制することができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、複数の被写体画像を順次取得する被写体画像取得部と、前記被写体画像に重畳する重畳オブジェクトであって、重畳対象の被写体画像とは異なる検出対象の被写体画像から検出した注目箇所に対応させて配置する重畳オブジェクトの空間情報を生成する重畳オブジェクト情報生成部と、前記重畳オブジェクト情報生成部が前記空間情報を生成した時間に応じて、前記重畳オブジェクトとともに表示部に表示させる前記重畳対象の被写体画像を決定する表示画像決定部と、前記検出対象の被写体画像と前記重畳対象の被写体画像との間の対応を推定した情報である画像間対応情報を生成する画像間対応情報生成部と、前記重畳オブジェクトの空間情報を、前記画像間対応情報に基づいて補正する空間情報補正部と、前記空間情報補正部によって補正された前記重畳オブジェクトを、前記表示画像決定部によって決定された前記重畳対象の被写体画像に重畳するオブジェクト重畳部と、を備えることを特徴とする。
上述した課題を解決し、目的を達成するために、本発明に係る画像処理方法は、複数の被写体画像を順次取得し、前記被写体画像に重畳する重畳オブジェクトであって、重畳対象の被写体画像とは異なる被写体画像である検出対象の被写体画像から検出した注目箇所に対応させて配置する重畳オブジェクトの空間情報を生成し、前記空間情報を生成した時間に応じて、前記重畳オブジェクトとともに表示部に表示させる前記重畳対象の被写体画像を決定し、前記検出対象の被写体画像と前記重畳対象の被写体画像との間の対応を推定した情報である画像間対応情報を生成し、前記重畳オブジェクトの空間情報を、前記画像間対応情報に基づいて補正し、補正された前記重畳オブジェクトを、決定された前記重畳対象の被写体画像に重畳する、ことを特徴とする。
上述した課題を解決し、目的を達成するために、本発明に係る画像処理プログラムは、複数の被写体画像を取得する被写体画像取得手順と、前記被写体画像に重畳する重畳オブジェクトであって、重畳対象の被写体画像とは異なる被写体画像である検出対象の被写体画像から検出した注目箇所に対応させて配置する重畳オブジェクトの空間情報を生成する重畳オブジェクト情報生成手順と、前記重畳オブジェクト情報生成手順で前記空間情報を生成した時間に応じて、前記重畳オブジェクトとともに表示部に表示させる前記重畳対象の被写体画像を決定する表示画像決定手順と、前記検出対象の被写体画像と前記重畳対象の被写体画像との間の対応を推定した情報である画像間対応情報を生成する画像間対応情報生成手順と、前記重畳オブジェクトの空間情報を、前記画像間対応情報に基づいて補正する空間情報補正手順と、前記空間情報補正手順で補正された前記重畳オブジェクトを、前記表示画像決定手順によって決定された前記重畳対象の被写体画像に重畳するオブジェクト重畳手順と、をコンピュータに実行させることを特徴とする。
本発明によれば、検出対象の画像における注目箇所に基づいて生成したオブジェクトを、検出対象の画像とは異なる画像に重畳する場合であっても、重畳対象の画像における注目箇所の位置に対する位置ずれを抑制することができるという効果を奏する。
図1は、本発明の実施の形態1に係る画像処理システムの機能構成を示すブロック図である。 図2は、本発明の実施の形態1に係る画像処理装置が行うオブジェクト重畳処理を説明する図である。 図3は、本発明の実施の形態1に係る画像処理装置が生成するオブジェクト重畳画像を示す図である。 図4は、従来の処理によって生成されるオブジェクト重畳画像を示す図である。 図5は、本発明の実施の形態1に係る画像処理装置が行うオブジェクト重畳処理を示すフローチャートである。 図6は、本発明の実施の形態1の変形例に係る画像処理システムの機能構成を示すブロック図である。 図7は、本発明の実施の形態2に係る画像処理システムの機能構成を示すブロック図である。 図8は、本発明の実施の形態2に係る画像処理装置が行うオブジェクト重畳処理を示すフローチャートである。 図9は、本発明の実施の形態3に係る画像処理システムの機能構成を示すブロック図である。 図10は、本発明の実施の形態3に係る画像処理装置が行うオブジェクト重畳処理を示すフローチャートである。
以下、本発明を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、以下の説明において参照する各図は、本発明の内容を理解でき得る程度に形状、大きさ、および位置関係を概略的に示してあるに過ぎない。即ち、本発明は、各図で例示された形状、大きさ、および位置関係のみに限定されるものではない。また、同一の構成には同一の符号を付して説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る画像処理システム1の機能構成を示すブロック図である。図1に示す画像処理システム1は、画像処理装置2と、表示装置3とを備える。画像処理装置2は、取得した画像に処理を施すことによって表示装置3が表示する表示用の画像信号を生成する。表示装置3は、映像ケーブルを介して画像処理装置2が生成した画像信号を受信して画像信号に対応する画像を表示する。表示装置3は、液晶または有機EL(Electro Luminescence)を用いて構成される。なお、図1では、実線の矢印が画像にかかる信号の伝送を示し、破線の矢印が制御にかかる信号の伝送を示している。
画像処理装置2は、画像取得部21と、重畳オブジェクト情報生成部22と、表示画像決定部23と、画像間対応情報生成部24と、空間情報補正部25と、オブジェクト重畳部26と、制御部27と、記憶部28とを備える。記憶部28は、画像取得部21が取得した被写体画像を記憶する被写体画像記憶部281を有する。
画像取得部21は、外部から被写体画像を含む画像信号を時系列に順次受信する、または記憶部28に記憶されている画像を時系列に取得する。画像取得部21は、必要に応じてノイズ除去やA/D変換、同時化処理(例えば、カラーフィルタ等を用いて色成分ごとの撮像信号が得られた場合に行う)などの信号処理を施すことにより、例えばRGBの色成分が付与された3板の被写体画像を含む画像信号を生成する。画像取得部21は、取得した画像信号、または信号処理後の画像信号を重畳オブジェクト情報生成部22および記憶部28に入力する。画像取得部21は、上述した同時化処理などのほか、OBクランプ処理や、ゲイン調整処理などを行ってもよい。画像としては、人などの被写体を含む画像や、内視鏡(カプセル型内視鏡を含む)により取得された被検体内の体腔画像など、時系列に取得(撮像)され、被写体を含む被写体画像が挙げられる。
重畳オブジェクト情報生成部22は、画像取得部21から入力された画像信号に基づく被写体画像を用いて、被写体画像内で注目すべき箇所(以下、注目箇所ともいう)、例えば、被検体内の体内画像であれば病変部を検出し、検出した注目箇所を示すオブジェクトであって、被写体画像の注目箇所に重畳して配置する重畳オブジェクトの空間情報を生成する。注目箇所を検出する検出対象の被写体画像は、重畳オブジェクトを重畳する重畳対象の被写体画像とは異なる被写体画像であって、重畳対象の被写体画像よりも時系列で前の被写体画像である検出対象の被写体画像である。ここでいう重畳オブジェクトとは、例えば、被写体画像が被検体内の体腔画像である場合、病変部を取り囲む矩形の枠である。また、空間情報とは、被写体画像を二次元平面でみたときに、重畳オブジェクトの枠が位置する空間の座標情報であって、例えば、矩形の枠の四隅の座標に関する情報である。なお、空間情報は、上述した座標情報のほか、注目箇所を透過する透過窓を有する領域マスクを表す情報や、注目箇所を取り囲む輪郭線を表す情報のいずれかであってもよいし、座標情報、領域マスクおよび輪郭線を組み合わせた情報であってもよい。
重畳オブジェクト情報生成部22は、例えば、“Object Detection with Discriminatively Trained Part-Based Models” Pedro F. Felzenszwalb, Ross B. Girshick, David McAllester and Deva Ramanan, PAMI2010に記載された技術を用いて重畳オブジェクトの空間情報を生成することができる。
表示画像決定部23は、重畳オブジェクト情報生成部22が空間情報を生成した時間に応じて、表示装置3に表示させる被写体画像を決定する。
画像間対応情報生成部24は、重畳オブジェクト情報生成部22が重畳オブジェクトの空間情報を生成した被写体画像(検出対象の被写体画像)と、表示画像決定部23により決定された被写体画像(重畳対象の被写体画像)との間の対応を推定した情報である画像間対応情報を生成する。具体的に、画像間対応情報生成部24は、検出対象の被写体画像と重畳対象の被写体画像との間の、非剛体変換、平面射影変換、アフィン変換、線形変換、スケール変換、回転変換および平行移動のうちの少なくとも一つの座標変換によって表現される画像間対応情報を生成する。画像間対応情報の生成には、例えば、特開2007-257287号公報に記載の技術が用いられる。
空間情報補正部25は、重畳オブジェクト情報生成部22が生成した重畳オブジェクトの空間情報を、画像間対応情報生成部24が生成した画像間対応情報に応じて補正する。本実施の形態1では、空間情報補正部25は、重畳オブジェクト情報生成部22が生成した重畳オブジェクトの空間情報(座標情報)に対して、画像間対応情報生成部24が生成した画像間対応情報(変換パラメータ)に基づいて空間情報を補正する。
オブジェクト重畳部26は、空間情報補正部25によって補正された重畳オブジェクトの空間情報に応じて、表示画像決定部23によって決定された被写体画像に重畳する。
図2,3は、本発明の実施の形態1に係る画像処理装置2が行うオブジェクト重畳処理を説明する図である。重畳オブジェクト情報生成部22は、画像取得部21から入力された被写体画像に重畳する重畳オブジェクトを、時間t0における検出対象の被写体画像W11から検出し、重畳オブジェクトの空間情報を生成する。重畳オブジェクト情報生成部22は、例えば、図2に示すように、被写体画像W11の外縁に応じたオブジェクト空間P11における重畳オブジェクトQ1,Q2の四隅の座標を空間情報として生成する。重畳オブジェクトQ1,Q2は、病変部S1,S2を取り囲む矩形の枠である。なお、矩形の枠のほか、楕円や円の枠であってもよいし、注目箇所に応じた形状や、内部を塗りつぶしたオブジェクトであってもよい。
表示画像決定部23は、重畳オブジェクト情報生成部22が空間情報の生成を完了した時間をt1とすると、この時間t1に応じた被写体画像W12(図2参照)を表示装置3に表示させる被写体画像(重畳対象の被写体画像)として決定する。被写体画像W12には、被写体画像W11における病変部S1,S2の位置や向きが変化した病変部S11,S12が表示されている。なお、時間t0から時間t1までの間には、被写体画像W11,W12以外にも複数の被写体画像が入力されている。すなわち、重畳オブジェクト情報生成部22が空間情報の生成を開始してから完了するまでには、数フレーム分の被写体画像が入力される時間を要する。図2では、説明のために被写体画像W11,W12のみを図示している。
画像間対応情報生成部24は、重畳オブジェクト情報生成部22が重畳オブジェクトQ1,Q2を生成した被写体画像W11と、表示画像決定部23により決定された被写体画像W12との間の対応を表す変換パラメータを含む画像間対応情報を生成する。
画像間対応情報生成部24は、被写体画像W11と被写体画像W12とについて、非剛体変換、平面射影変換、アフィン変換、線形変換、スケール変換、回転変換および平行移動のうちの少なくとも一つの座標変換によって表現される画像間対応情報を生成する。
空間情報補正部25は、画像間対応情報生成部24が生成した画像間対応情報の変換パラメータに基づいて重畳オブジェクト情報生成部22が生成した重畳オブジェクトの空間情報の各座標を変換した空間情報を、補正後の重畳オブジェクト(例えば、重畳オブジェクトQ11,Q12)の空間情報として生成する。空間情報補正部25は、例えば、重畳オブジェクト情報生成部22が生成した重畳オブジェクトの空間情報の各座標を、行列演算によって変換することによって、補正後の重畳オブジェクトの空間情報を生成する。
オブジェクト重畳部26は、例えば、空間情報補正部25によって補正された重畳オブジェクトQ11,Q12(図2参照)を、表示画像決定部23によって決定された被写体画像W12(図2参照)に重畳することによって、図3に示すように、病変部S11,S12の一部が重畳オブジェクトQ11,Q12によって取り囲まれた被写体画像WS1を生成する。
上述した処理により、被写体画像W11から重畳オブジェクトQ1,Q2を抽出し、被写体画像W11における病変部S1,S2の位置や向きが変化した病変部S11,S12となっている被写体画像W12に、被写体画像W11から抽出した重畳オブジェクトを重畳する場合であっても、病変部S11,S12に対して重畳オブジェクトを適切な位置に配置することができる。
図4は、従来の処理によって生成されるオブジェクト重畳画像を示す図である。従来のように重畳オブジェクトの空間情報を補正しない場合は、図4に示す被写体画像W100のように、病変部S11,S12に対して重畳オブジェクトQ101,Q102が適切に配置されないものになってしまう。
図1に戻り、制御部27は、CPU(Central Processing Unit)等を用いて構成され、画像処理装置2を構成する各構成部の駆動制御、および各構成部に対する情報の入出力制御などを行う。
記憶部28は、画像処理装置2を含む画像処理システム1を動作させるための各種プログラム、例えば、画像処理プログラムや、画像処理システム1の動作に必要な各種パラメータ等を含むデータを記憶する。記憶部28は、フラッシュメモリやDRAM(Dynamic Random Access Memory)等の半導体メモリを用いて実現される。
続いて、画像処理装置2の各部が行う処理について図面を参照して説明する。図5は、本発明の実施の形態1に係る画像処理装置2が行う処理を説明するフローチャートである。以下、制御部27による制御のもと、各部が動作するものとして説明する。
まず、制御部27は、未使用のスレッドが発生したか否かを判断する(ステップS101)。制御部27は、例えばCPUの使用率等を確認することで、未使用のスレッドが発生したか否かを判断する。ここで、制御部27は、未使用のスレッドが発生していないと判断した場合(ステップS101:No)は、未使用スレッドが発生したか否かの確認を繰り返す。一方、制御部27は、未使用のスレッドが発生していると判断した場合(ステップS101:Yes)、ステップS102に移行する。
ステップS102では、制御部27は、画像取得部21が取得した被写体画像である最新画像が、重畳オブジェクト決定済みの被写体画像であるか否かを判断する。ここで、制御部27は、最新画像が、重畳オブジェクト決定済みの被写体画像であると判断した場合(ステップS102:Yes)、ステップS109に移行する。これに対し、制御部27は、最新画像が、重畳オブジェクト決定済みの被写体画像ではないと判断した場合(ステップS102:No)、ステップS103に移行する。なお、本ステップでいう重畳オブジェクト決定済みとは、重畳オブジェクト決定処理が実行済み、または実行中であることを含み、制御部27は、重畳オブジェクト決定処理が実行済み、または実行中であると判断した場合は、ステップS109に移行する。
ステップS103では、重畳オブジェクト情報生成部22が、画像取得部21から入力された被写体画像に重畳する重畳オブジェクトの空間情報を、検出対象の被写体画像(例えば、上述した被写体画像W11、図2参照)から生成する。重畳オブジェクト情報生成部22では、生成した空間情報を、表示画像決定部23に出力する。
その後、表示画像決定部23は、重畳オブジェクト情報生成部22が空間情報の生成を完了した時間に応じた被写体画像(例えば、上述した被写体画像W12)を表示装置3に表示させる被写体画像として決定する(ステップS104)。表示画像決定部23は、重畳オブジェクト情報生成部22が空間情報の生成を完了した時間において最新、またはこの時間の直後に取得された被写体画像を表示させる被写体画像として決定する。
ステップS104に続くステップS105では、画像間対応情報生成部24が、重畳オブジェクト情報生成部22が用いた検出対象の被写体画像と、重畳オブジェクトを重畳する重畳対象の被写体画像とについて、非剛体変換、平面射影変換、アフィン変換、線形変換、スケール変換、回転変換および平行移動のうちの少なくとも一つの座標変換によって表現される画像間対応情報を生成する。
ステップS105に続くステップS106では、空間情報補正部25が、画像間対応情報生成部24が生成した画像間対応情報の変換パラメータに基づいて空間情報の各座標を変換した空間情報を空間情報(補正空間情報)として生成する。
ステップS106に続くステップS107では、オブジェクト重畳部26が、空間情報補正部25によって補正された重畳オブジェクトを、表示画像決定部23によって決定された被写体画像に重畳することによって、例えば、図3に示すように、病変部S11,S12の一部が、重畳オブジェクトQ11,Q12によって取り囲まれた被写体画像WS1(重畳画像)を生成する。
ステップS107に続くステップS108では、制御部27の制御のもと、オブジェクト重畳部26が生成した被写体画像WS1(重畳画像)を表示装置3に表示する制御を行う。制御部27は、被写体画像を表示装置3に表示後、ステップS109に移行する。
ステップS109では、制御部27が、処理終了の指示入力があるか否かを判断する。ここで、制御部27は、処理終了の指示入力がないと判断した場合(ステップS109:No)、ステップS101に移行して、上述した処理を繰り返す。一方、制御部27は、処理終了の指示入力があると判断した場合(ステップS109:Yes)、本処理を終了する。
上述した本実施の形態1では、重畳オブジェクト情報生成部22が、被写体画像に重畳する重畳オブジェクトの空間情報を、重畳対象の被写体画像とは異なる被写体画像である検出対象の被写体画像に基づいて生成し、表示画像決定部23が、重畳オブジェクト情報生成部22が空間情報の生成を完了した時間に応じて、表示装置3に表示させる被写体画像を決定するようにした。その後、画像間対応情報生成部24が、重畳オブジェクト情報生成部22が重畳オブジェクトの生成に用いた被写体画像と、表示画像決定部23により決定された被写体画像との間の対応を推定した情報である画像間対応情報を生成して、空間情報補正部25が、重畳オブジェクト情報生成部22が生成した重畳オブジェクトの空間情報を、画像間対応情報に基づいて補正するようにした。重畳オブジェクトの空間情報を補正後、オブジェクト重畳部26が、この補正された重畳オブジェクトに基づき、空間情報補正部25によって補正された重畳オブジェクトを、表示画像決定部23によって決定された被写体画像に重畳するようにした。これにより、重畳オブジェクトの検出対象の被写体画像から検出した重畳オブジェクトを、検出対象の画像とは時系列で異なる重畳対象の被写体画像に重畳する場合であっても、重畳対象の被写体画像における注目箇所の位置に対する重畳オブジェクトの位置ずれを抑制することができる。
なお、上述した実施の形態1において、空間情報補正部25が、補正した空間情報を微小に変化させた空間情報に対応する時間t1の被写体画像の画素値と、補正前の空間情報に対応する時間t0の被写体画像の画素値との差分二乗平均等に基づき、補正した空間情報を微小に変化させてさらに補正した空間情報を生成するようにしてもよい。
また、上述した実施の形態1において、空間情報補正後の重畳オブジェクトに対し、輪郭を強調する処理(エッジ強調処理)などの画像処理を施すようにしてもよい。
また、本実施の形態1では、被写体画像の全画素を用いて画像間対応情報を生成するものであってもよいし、演算量を抑制するため、被写体画像を縮小して、この縮小した被写体画像を用いて、画像間対応情報を生成するようにしてもよい。
(実施の形態1の変形例)
上述した実施の形態1では、重畳オブジェクト情報生成部22が、画像取得部21から入力された画像信号に基づく被写体画像内で注目箇所を検出し、注目箇所に応じて重畳オブジェクトの空間情報を生成するものとして説明したが、本発明はこれに限定されない。本変形例では、センサにより検出された情報を取得して、センサが検出した情報をもとに注目箇所を検出して重畳オブジェクトの空間情報を生成する。
図6は、本発明の実施の形態1の変形例に係る画像処理システムの機能構成を示すブロック図である。本変形例にかかる画像処理システム1Aは、画像処理装置2Aと、表示装置3とを備える。画像処理装置2Aは、上述した画像処理装置2の構成に加えて、センサ情報取得部29をさらに備える。
センサ情報取得部29は、外部のセンサ、例えば赤外線センサや、レーザ測距装置から検出情報を取得して、注目箇所の位置情報を含むセンサ情報を重畳オブジェクト情報生成部22に入力する。
重畳オブジェクト情報生成部22は、センサ情報取得部29から注目箇所の位置情報を含むセンサ情報を取得すると、センサ情報の位置情報をもとに、注目箇所を示すオブジェクトであって、被写体画像の注目箇所に重畳する重畳オブジェクトの空間情報を生成する。
その後は、実施の形態1と同様、表示画像決定部23が、重畳オブジェクト情報生成部22が空間情報の生成を完了した時間に応じて、表示装置3に表示させる被写体画像を決定する。また、画像間対応情報生成部24が、重畳オブジェクト情報生成部22が重畳オブジェクトの生成に用いた被写体画像と、表示画像決定部23により決定された被写体画像との間の対応を推定した情報である画像間対応情報を生成する。その後、空間情報補正部25が、重畳オブジェクトの空間情報を、画像間対応情報に基づいて補正し、オブジェクト重畳部26が、空間情報補正部25によって補正された重畳オブジェクトを、表示画像決定部23によって決定された被写体画像に重畳する。これにより、重畳オブジェクトの検出対象の被写体画像から検出した重畳オブジェクトを、検出対象の画像とは時系列で異なる重畳対象の被写体画像に重畳する場合であっても、重畳対象の被写体画像における注目箇所の位置に対する重畳オブジェクトの位置ずれを抑制することができる。
(実施の形態2)
上述した実施の形態1では、画像間対応情報生成部24が、異なる時間で取得された二つの被写体画像の間の対応に関する画像間対応情報を生成するものとして説明したが、この画像間対応情報は、二つの被写体画像の全体にわたる画像間対応情報であってもよいし、部分領域における画像間対応情報であってもよいし、いずれかを選択可能であってもよい。図7は、本発明の実施の形態2に係る画像処理システムの機能構成を示すブロック図である。本実施の形態2に係る画像処理システム1Bは、画像処理装置2Bと、表示装置3とを備える。画像処理装置2Bは、上述した画像処理装置2の構成に加えて、類似度算出部30および画像間対応情報選択部31をさらに備える。また、画像間対応情報生成部24は、全体画像間対応情報生成部241と、部分画像間対応情報生成部242とを有する。
全体画像間対応情報生成部241は、検出対象の被写体画像と重畳対象の被写体画像との間の全体画像間対応情報を生成する。検出対象の被写体画像は、重畳オブジェクト情報生成部22が重畳オブジェクトの空間情報を生成した被写体画像である。重畳対象の被写体画像は、表示画像決定部23により重畳オブジェクトを重畳する対象として決定された被写体画像である。全体画像間対応情報は、検出対象の被写体画像全体を用いて生成された座標変換によって表現される。すなわち、全体画像間対応情報は、検出対象の被写体画像全体に基づいて生成されている。
部分画像間対応情報生成部242は、検出対象の被写体画像と重畳対象の被写体画像との間の部分画像間対応情報を生成する。部分画像間対応情報は、検出対象の被写体画像における重畳オブジェクトの配置領域に対応する領域を用いて生成された座標変換によって表現される。すなわち、部分画像間対応情報は、検出対象の被写体画像における重畳オブジェクトの配置領域に対応する領域に基づいて生成されている。
類似度算出部30は、検出対象の被写体画像における重畳表示オブジェクトに対応する第1オブジェクト領域と、全体画像間対応情報(変換パラメータ)を用いて第1オブジェクト領域に対応付けられた、重畳対象の被写体画像における第2のオブジェクト領域との全体画像間類似度(第1の類似度)、および、第1のオブジェクト領域と、部分画像間対応情報(変換パラメータ)を用いて第1のオブジェクト領域に対応付けられた、重畳対象の被写体画像における第3のオブジェクト領域との部分画像間類似度(第2の類似度)を算出する。類似度算出部30は、公知の差分絶対値和(Sum of Absolute Difference:SAD)を算出して類似度としてもよいし、差の二乗和(Sum of Squared Difference:SSD)を求めて類似度としてもよいし、正規化相関(Normalized Cross-Correction:NCC)を求めて類似度としてもよい。なお、SADおよびSSDは相違度を示す値であり、類似度として使用する場合は大小関係が逆になる。すなわち、相違度が大きいと類似度は小さくなり、相違度が小さいと類似度は大きくなる。
画像間対応情報選択部31は、類似度算出部30が算出した全体画像間類似度および部分画像間類似度に基づいて、全体画像間対応情報および部分画像間対応情報のうちのいずれかを画像間対応情報として選択する。画像間対応情報選択部31は、全体画像間類似度および部分画像間類似度のうちの高い方の類似度に対応する画像間対応情報を選択する。
続いて、画像処理装置2Bの各部が行う処理について図面を参照して説明する。図8は、本発明の実施の形態2に係る画像処理装置2Bが行う処理を説明するフローチャートである。以下、制御部27による制御のもと、各部が動作するものとして説明する。
まず、制御部27は、未使用のスレッドが発生したか否かを判断する(ステップS201)。制御部27は、例えばCPUの使用率等を確認することで、未使用のスレッドが発生したか否かを判断する。ここで、制御部27は、未使用のスレッドが発生していないと判断した場合(ステップS201:No)は、未使用スレッドが発生したか否かの確認を繰り返す。一方、制御部27は、未使用のスレッドが発生していると判断した場合(ステップS201:Yes)、ステップS202に移行する。
ステップS202では、制御部27は、画像取得部21が取得した被写体画像である最新画像が、重畳オブジェクト決定済みの被写体画像であるか否かを判断する。ここで、制御部27は、最新画像が、重畳オブジェクト決定済みの被写体画像であると判断した場合(ステップS202:Yes)、ステップS211に移行する。これに対し、制御部27は、最新画像が、重畳オブジェクト決定済みの被写体画像ではないと判断した場合(ステップS202:No)、ステップS203に移行する。なお、本ステップでいう重畳オブジェクト決定済みとは、重畳オブジェクト決定処理が実行済み、または実行中であることを含み、制御部27は、重畳オブジェクト決定処理が実行済み、または実行中であると判断した場合は、ステップS211に移行する。
ステップS203では、重畳オブジェクト情報生成部22が、画像取得部21から入力された被写体画像に重畳する重畳オブジェクトの空間情報を、検出対象の被写体画像(例えば、上述した被写体画像W11)から生成する。重畳オブジェクト情報生成部22では、生成した空間情報を、表示画像決定部23に出力する。
その後、表示画像決定部23は、重畳オブジェクト情報生成部22が空間情報の生成を完了した時間に応じた被写体画像を表示装置3に表示させる被写体画像として決定する(ステップS204)。
ステップS204に続くステップS205では、画像間対応情報生成部24が、重畳オブジェクト情報生成部22が用いた検出対象の被写体画像と、重畳オブジェクトを重畳する重畳対象の被写体画像とについて、座標変換によって表現される画像間対応情報を生成する。本ステップS204では、全体画像間対応情報生成部241が、上述した全体画像間対応情報を生成するとともに、部分画像間対応情報生成部242が、上述した部分画像間対応情報を生成する。
ステップS205に続くステップS206では、類似度算出部30が、上述した全体画像間類似度および部分画像間類似度を算出する。その後のステップS207では、画像間対応情報選択部31が、類似度算出部30が算出した全体画像間類似度および部分画像間類似度に基づいて、全体画像間対応情報および部分画像間対応情報のうちのいずれかを画像間対応情報として選択する。
ステップS207に続くステップS208では、空間情報補正部25が、画像間対応情報選択部31が選択した画像間対応情報の変換パラメータに基づいて空間情報の各座標を変換した空間情報を、補正後の重畳オブジェクトの空間情報として生成する。
ステップS208に続くステップS209では、オブジェクト重畳部26が、空間情報補正部25によって補正された重畳オブジェクトを、表示画像決定部23によって決定された被写体画像に重畳することによって、例えば、図3に示すように、病変部S11,S12の一部が、重畳オブジェクトQ11,Q12によって取り囲まれた被写体画像WS1を生成する。
ステップS209に続くステップS210では、制御部27の制御のもと、オブジェクト重畳部26が生成した被写体画像(重畳オブジェクトが重畳された画像)を表示装置3に表示する制御を行う。制御部27は、被写体画像を表示装置3に表示後、ステップS211に移行する。
ステップS211では、制御部27が、処理終了の指示入力があるか否かを判断する。ここで、制御部27は、処理終了の指示入力がないと判断した場合(ステップS211:No)、ステップS201に移行して、上述した処理を繰り返す。一方、制御部27は、処理終了の指示入力があると判断した場合(ステップS211:Yes)、本処理を終了する。
上述した本実施の形態2によれば、画像間対応情報生成部24が、被写体画像において異なる領域を対象として複数の画像間対応情報を生成し、類似度算出部30は、複数の画像間対応情報のそれぞれについて、類似度を算出し、画像間対応情報選択部31が、算出された類似度を用いて画像間対応情報を選択するようにした。これにより、重畳オブジェクトに対応する領域が画像全体と連動して動く場合、領域の情報が乏しくても精度よく空間情報を補正することができるとともに、重畳オブジェクトに対応する領域と画像全体が異なる動きを伴う場合に、領域の画像間対応情報を用いて空間情報を補正するため、空間情報を一層高精度に補正することができる。
(実施の形態3)
本実施の形態3では、順次入力される被写体画像に対して、重畳オブジェクト情報生成部22Aが、座標変換によって表現される画像間対応情報を生成し、隣接座標変換情報として記憶部28に蓄積させる処理を行う。
図9は、本発明の実施の形態3に係る画像処理システムの機能構成を示すブロック図である。本実施の形態3に係る画像処理システム1Cは、画像処理装置2Cと、表示装置3とを備える。画像処理部2Cは、上述した画像処理装置2の重畳オブジェクト情報生成部22および記憶部28に代えて、重畳オブジェクト情報生成部22Aおよび記憶部28Aを備える。重畳オブジェクト情報生成部22Aは、複数の演算部(本実施の形態3では、演算部221,222)を有する。記憶部28Aは、被写体画像記憶部281と、重畳オブジェクト情報記憶部282と、隣接座標変換情報記憶部283とを有する。
重畳オブジェクト情報生成部22Aは、上述した重畳オブジェクト情報生成部22と同様、画像取得部21から入力された画像信号に基づく被写体画像内の注目箇所を検出し、検出した注目箇所を示すオブジェクトであって、被写体画像の注目箇所に重畳する重畳オブジェクトの空間情報を生成する。重畳オブジェクト情報生成部22Aは、複数の演算部(演算部221,222)により、画像取得部21から順次入力される被写体画像内の注目箇所を検出し、検出した注目箇所を示すオブジェクトであって、被写体画像の注目箇所に重畳する重畳オブジェクトの空間情報を生成する。重畳オブジェクト情報生成部22Aは、複数の演算部がそれぞれ生成した重畳オブジェクトの空間情報を重畳オブジェクト情報記憶部282に順次蓄積していく。
画像間対応情報生成部24は、画像取得部21から入力された画像信号に基づく被写体画像と、被写体画像記憶部281に記憶されている被写体画像であって、画像取得部21から入力された被写体画像と隣接した時間における被写体画像とについて変換パラメータを含む隣接座標変換情報(一次画像間対応情報)を生成し、隣接座標情報記憶部283に順次蓄積する。なお、隣接した時間とは、順次取得される複数の被写体画像に対し、間引き処理等によって抽出された間欠的に隣接する被写体画像を含み、実際に被写体画像を取得した時間で隣接する以外の被写体画像の組み合わせを含んでいる。
また、画像間対応情報生成部24は、重畳オブジェクト情報生成部22Aが重畳オブジェクトを検出した被写体画像と、表示画像決定部23により決定された被写体画像との間の対応に関する画像間対応情報を生成する場合、重畳オブジェクト情報生成部22Aが生成した重畳オブジェクトの空間情報である座標情報、および隣接座標変換情報記憶部283に蓄積されている一つまたは複数の隣接座標変換情報を参照し、隣接座標変換情報を累積することによって、重畳オブジェクト情報生成部22Aが重畳オブジェクトを検出した被写体画像と、表示画像決定部23により決定された被写体画像との間の対応に関する画像間対応情報を生成する。
このように、上述した実施の形態1,2では、被写体画像W11と被写体画像W12との間に存在する複数の被写体画像について、重畳オブジェクトの空間情報や、画像間対応情報は生成されていなかったが、本実施の形態3では、未使用スレッドが発生していれば、順次入力される被写体画像について、重畳オブジェクトの空間情報がそれぞれ生成される。
続いて、画像処理装置2Cの各部が行う処理について図面を参照して説明する。図10は、本発明の実施の形態3に係る画像処理装置2Cが行う処理を説明するフローチャートである。以下、制御部27による制御のもと、各部が動作するものとして説明する。
まず、制御部27は、被写体画像の入力があるか否かを判断する(ステップS301)。制御部27は、被写体画像の入力がないと判断した場合(ステップS301:No)、被写体画像の入力確認を繰り返す。これに対し、制御部27は、被写体画像の入力があると判断した場合(ステップS301:Yes)、ステップS302に移行する。
ステップS302では、画像間対応情報生成部24は、画像取得部21から入力された画像信号に基づく被写体画像と、被写体画像記憶部281に記憶されている被写体画像であって、画像取得部21から入力された被写体画像と隣接した時間における被写体画像とについて座標変換により表現される隣接座標変換情報(一次画像間対応情報)を生成し、隣接座標情報記憶部283に順次蓄積する。
その後、制御部27は、隣接座標変換情報の蓄積処理を終了する指示の入力があるか否かを判断する(ステップS303)。制御部27は、蓄積処理を終了する指示の入力がないと判断した場合(ステップS303:No)、ステップS301に戻り、上述した処理を繰り返す。これに対し、制御部27は、蓄積処理を終了する指示の入力があると判断した場合(ステップS303:Yes)、蓄積処理を終了する。なお、隣接座標変換情報の蓄積処理を終了する指示の入力は、図示しない入力装置を介して入力された信号の入力であってもよいし、最後の被写体画像の入力があってから所定時間経過しても新たな被写体画像の入力がない場合に蓄積処理を終了する指示の入力があったと判断してもよい。
上述した蓄積処理と並行して、制御部27は、重畳オブジェクトの重畳処理を行う。まず、制御部27は、未使用のスレッドが発生したか否かを判断する(ステップS311)。制御部27は、例えばCPUの空き容量を確認することで、未使用のスレッドが発生したか否かを判断する。ここで、制御部27は、未使用のスレッドが発生していないと判断した場合(ステップS311:No)は、未使用スレッドが発生したか否かの確認を繰り返す。一方、制御部27は、未使用のスレッドが発生していると判断した場合(ステップS311:Yes)、ステップS312に移行する。なお、この際、重畳オブジェクト情報生成部22Aは、複数の演算部(演算部221,222)のいずれかの演算部により、画像取得部21から入力される被写体画像内の注目箇所を検出し、検出した注目箇所を示すオブジェクトであって、被写体画像の注目箇所に重畳する重畳オブジェクトの空間情報を生成する。重畳オブジェクト情報生成部22Aは、演算中ではない演算部を選択して重畳オブジェクトの空間情報を生成させ、生成した重畳オブジェクトの空間情報を重畳オブジェクト情報記憶部282に蓄積していく。
ステップS312では、制御部27は、画像取得部21が取得した被写体画像である最新画像が、重畳オブジェクト決定済みの被写体画像であるか否かを判断する。ここで、制御部27は、最新画像が、重畳オブジェクト決定済みの被写体画像であると判断した場合(ステップS312:Yes)、ステップS320に移行する。これに対し、制御部27は、最新画像が、重畳オブジェクト決定済みの被写体画像ではないと判断した場合(ステップS312:No)、ステップS313に移行する。なお、本ステップでいう重畳オブジェクト決定済みとは、重畳オブジェクト決定処理が実行済み、または実行中であることを含み、制御部27は、重畳オブジェクト決定処理が実行済み、または実行中であると判断した場合は、ステップS320に移行する。
ステップS313では、重畳オブジェクト情報生成部22Aが、画像取得部21から入力された被写体画像に重畳する重畳オブジェクトの空間情報を検出対象の被写体画像から生成する、または重畳オブジェクト情報記憶部282に記憶されている重畳オブジェクトの空間情報を取得する。重畳オブジェクト情報生成部22Aでは、未処理の被写体画像が重畳オブジェクト情報記憶部282にあれば、この被写体画像の重畳オブジェクトを優先し、生成または取得した空間情報を、表示画像決定部23に出力する。
その後、表示画像決定部23は、重畳オブジェクト情報生成部22Aが空間情報の生成を完了した時間、または重畳オブジェクトを重畳オブジェクト情報記憶部282から取得した時間に応じた被写体画像を表示装置3に表示させる被写体画像として決定する(ステップS314)。
ステップS314に続くステップS315では、画像間対応情報生成部24が、重畳オブジェクト情報生成部22Aが生成した重畳オブジェクトの空間情報、および隣接座標変換情報記憶部283に蓄積されている一つまたは複数の隣接座標変換情報を取得して、隣接座標変換情報を順次累積していく。画像間対応情報生成部24は、累積の都度、必要なすべての隣接座標変換情報累積処理が終了したか否かを判断し、必要なすべての隣接座標変換情報累積処理が終了していないと判断した場合(ステップS315:No)、隣接座標変換情報記憶部283を参照して隣接座標変換情報を取得する。これに対して、画像間対応情報生成部24は、必要なすべての隣接座標変換累積が終了したと判断した場合(ステップS315:Yes)、ステップS316に移行する。
ステップS316では、画像間対応情報生成部24が、ステップS315で隣接画像間対応情報を累積して得られた情報を画像間対応情報とする。
ステップS316に続くステップS317では、空間情報補正部25が、画像間対応情報生成部24が生成した画像間対応情報の変換パラメータに基づいて空間情報の各座標を変換した空間情報を空間情報として生成する。
ステップS317に続くステップS318では、オブジェクト重畳部26が、空間情報補正部25によって補正された重畳オブジェクトを、表示画像決定部23によって決定された被写体画像に重畳することによって、例えば、図3に示すように、病変部S11,S12の一部が、重畳オブジェクトQ11,Q12によって取り囲まれた被写体画像WS1を生成する。
ステップS318に続くステップS319では、制御部27の制御のもと、オブジェクト重畳部26が生成した被写体画像(重畳オブジェクトが重畳された画像)を表示装置3に表示する制御を行う。制御部27は、被写体画像を表示装置3に表示後、ステップS320に移行する。
ステップS320では、制御部27が、処理終了の指示入力があるか否かを判断する。ここで、制御部27は、処理終了の指示入力がないと判断した場合(ステップS320:No)、ステップS311に移行して、上述した処理を繰り返す。一方、制御部27は、処理終了の指示入力があると判断した場合(ステップS320:Yes)、本処理を終了する。
上述した本実施の形態3によれば、順次入力される被写体画像に対して、重畳オブジェクト情報生成部22Aが、重畳オブジェクトの空間情報を生成し、画像間対応情報生成部24が、画像間対応情報を生成し、隣接座標変換情報として記憶部28Aに蓄積させる処理を行い、画像間対応情報生成部24が、検出対象の被写体画像と、重畳対象の被写体画像との間で生成された隣接座標変換情報を累積することによって検出対象の被写体画像と重畳対象の被写体画像の間の画像間対応情報を生成して、重畳オブジェクトの空間情報を補正するようにした。これにより、検出対象の被写体画像と重畳対象の被写体画像の間に存在する被写体画像における動きを加味して画像間対応情報を生成することができ、重畳対象の被写体画像における注目箇所の位置に対する重畳オブジェクトの位置ずれを一層確実に抑制することができる。
なお、本発明は、上述した実施の形態および変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上述した実施の形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した実施の形態および変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、各実施の形態および変形例で説明した構成要素を適宜組み合わせてもよい。
このように、本発明は、ここでは記載していない様々な実施の形態等を含み得るものであり、請求の範囲に記載した技術的思想を逸脱しない範囲内において適宜設計変更等を行うことが可能である。
以上のように、本発明にかかる画像処理装置、画像処理方法および画像処理プログラムは、検出対象の画像における注目箇所に基づいて生成したオブジェクトを、検出対象の画像とは異なる画像に重畳する場合であっても、重畳対象の画像における注目箇所の位置に対する位置ずれを抑制するのに有用である。
1,1A,1B,1C 画像処理システム
2,2A,2B,2C 画像処理装置
3 表示装置
21 画像取得部
22 重畳オブジェクト情報生成部
23 表示画像決定部
24 画像間対応情報生成部
25 空間情報補正部
26 オブジェクト重畳部
27 制御部
28 記憶部
29 センサ情報取得部
30 類似度算出部
31 画像間対応情報選択部
221,222 演算部
241 全体画像間対応情報生成部
242 部分画像間対応情報生成部
281 被写体画像記憶部
282 重畳オブジェクト情報記憶部
283 隣接座標変換情報記憶部

Claims (14)

  1. 複数の被写体画像を順次取得する被写体画像取得部と、
    前記被写体画像に重畳する重畳オブジェクトであって、重畳対象の被写体画像とは異なる検出対象の被写体画像から検出した注目箇所に対応させて配置する重畳オブジェクトの空間情報を生成する重畳オブジェクト情報生成部と、
    前記重畳オブジェクト情報生成部が前記空間情報を生成した時間に応じて、前記重畳オブジェクトとともに表示部に表示させる前記重畳対象の被写体画像を決定する表示画像決定部と、
    前記検出対象の被写体画像と前記重畳対象の被写体画像との間の対応を推定した情報である画像間対応情報を生成する画像間対応情報生成部と、
    前記重畳オブジェクトの空間情報を、前記画像間対応情報に基づいて補正する空間情報補正部と、
    前記空間情報補正部によって補正された前記重畳オブジェクトを、前記表示画像決定部によって決定された前記重畳対象の被写体画像に重畳するオブジェクト重畳部と、
    を備える画像処理装置。
  2. 前記重畳オブジェクト情報生成部は、前記複数の被写体画像に対して、前記重畳オブジェクトの空間情報を生成する処理を行う複数の演算部
    を有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記被写体画像に関する情報を記憶する記憶部をさらに備え、
    前記画像間対応情報生成部は、前記被写体画像取得部が新たに被写体画像を取得した場合に、今回取得した被写体画像と、前回取得した被写体画像との間の一次画像間対応情報を生成し、
    前記記憶部は、生成された前記一次画像間対応情報を順次記憶し、
    前記画像間対応情報生成部は、前記記憶部に記憶された複数の前記一次画像間対応情報を累積することによって、前記重畳オブジェクト情報生成部が前記重畳オブジェクトの空間情報を生成した前記検出対象の被写体画像と、前記表示画像決定部により決定された前記重畳対象の被写体画像との間の前記画像間対応情報を生成する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記画像間対応情報生成部は、前記検出対象の被写体画像全体に基づいた、前記検出対象の被写体画像と前記重畳対象の被写体画像との間の全体画像間対応情報、および、前記検出対象の被写体画像における前記重畳オブジェクトの配置領域に対応する領域に基づいた、前記検出対象の被写体画像と前記重畳対象の被写体画像との間の部分画像間対応情報を生成し、
    前記検出対象の被写体画像における前記重畳オブジェクトに対応する第1のオブジェクト領域と、前記全体画像間対応情報を用いて前記第1オブジェクト領域に対応付けられた、前記重畳対象の被写体画像における第2のオブジェクト領域との第1の類似度、および、前記第1のオブジェクト領域と、前記部分画像間対応情報を用いて前記第1のオブジェクト領域に対応付けられた、前記重畳対象の被写体画像における第3のオブジェクト領域との第2の類似度を算出する類似度算出部と、
    前記第1の類似度および第2の類似度に基づいて、前記全体画像間対応情報および前記部分画像間対応情報のうちのいずれかを前記画像間対応情報として選択する選択部と、
    を備えることを特徴とする請求項1又は2に記載の画像処理装置。
  5. 前記画像間対応情報生成部は、前記検出対象の被写体画像全体を用いて、前記検出対象の被写体画像と前記重畳対象の被写体画像との間の前記画像間対応情報を生成する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  6. 前記画像間対応情報生成部は、前記検出対象の被写体画像における前記重畳オブジェクトの配置領域に対応する領域を用いて、前記検出対象の被写体画像と前記重畳対象の被写体画像との間の前記画像間対応情報を生成する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  7. 前記空間情報補正部は、前記画像間対応情報に基づいて前記重畳オブジェクトの空間情報を補正した後、前記検出対象の被写体画像の画素値と、前記重畳対象の被写体画像の画素値とに基づいて前記空間情報をさらに補正する
    ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記画像間対応情報生成部は、非剛体変換、平面射影変換、アフィン変換、線形変換、スケール変換、回転変換および平行移動からなる群の少なくとも一つの座標変換によって表現される情報を前記画像間対応情報として生成する
    ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記空間情報は、代表座標、領域マスク、輪郭線からなる群の少なくとも一つである
    ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記重畳オブジェクトは、画像処理が施されている
    ことを特徴とする請求項8に記載の画像処理装置。
  11. 前記重畳オブジェクト情報生成部は、前記検出対象の被写体画像に基づいて前記重畳オブジェクトの空間情報を生成する
    ことを特徴とする請求項1に記載の画像処理装置。
  12. 前記重畳オブジェクト情報生成部は、センサからの検出情報に基づいて前記重畳オブジェクトの空間情報を生成する
    ことを特徴とする請求項1に記載の画像処理装置。
  13. 複数の被写体画像を順次取得し、
    前記被写体画像に重畳する重畳オブジェクトであって、重畳対象の被写体画像とは異なる被写体画像である検出対象の被写体画像から検出した注目箇所に対応させて配置する重畳オブジェクトの空間情報を生成し、
    前記空間情報を生成した時間に応じて、前記重畳オブジェクトとともに表示部に表示させる前記重畳対象の被写体画像を決定し、
    前記検出対象の被写体画像と前記重畳対象の被写体画像との間の対応を推定した情報である画像間対応情報を生成し、
    前記重畳オブジェクトの空間情報を、前記画像間対応情報に基づいて補正し、
    補正された前記重畳オブジェクトを、決定された前記重畳対象の被写体画像に重畳する
    画像処理方法。
  14. 複数の被写体画像を取得する被写体画像取得手順と、
    前記被写体画像に重畳する重畳オブジェクトであって、重畳対象の被写体画像とは異なる被写体画像である検出対象の被写体画像から検出した注目箇所に対応させて配置する重畳オブジェクトの空間情報を生成する重畳オブジェクト情報生成手順と、
    前記重畳オブジェクト情報生成手順で前記空間情報を生成した時間に応じて、前記重畳オブジェクトとともに表示部に表示させる前記重畳対象の被写体画像を決定する表示画像決定手順と、
    前記検出対象の被写体画像と前記重畳対象の被写体画像との間の対応を推定した情報である画像間対応情報を生成する画像間対応情報生成手順と、
    前記重畳オブジェクトの空間情報を、前記画像間対応情報に基づいて補正する空間情報補正手順と、
    前記空間情報補正手順で補正された前記重畳オブジェクトを、前記表示画像決定手順によって決定された前記重畳対象の被写体画像に重畳するオブジェクト重畳手順と、
    をコンピュータに実行させる画像処理プログラム。
JP2017562199A 2016-01-19 2016-01-19 画像処理装置、画像処理方法および画像処理プログラム Pending JPWO2017126036A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/051455 WO2017126036A1 (ja) 2016-01-19 2016-01-19 画像処理装置、画像処理方法および画像処理プログラム

Publications (1)

Publication Number Publication Date
JPWO2017126036A1 true JPWO2017126036A1 (ja) 2018-11-08

Family

ID=59361795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017562199A Pending JPWO2017126036A1 (ja) 2016-01-19 2016-01-19 画像処理装置、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US20180342079A1 (ja)
JP (1) JPWO2017126036A1 (ja)
WO (1) WO2017126036A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7048628B2 (ja) 2016-11-28 2022-04-05 アダプティブエンドウ エルエルシー 分離可能使い捨てシャフト付き内視鏡
US11024064B2 (en) 2017-02-24 2021-06-01 Masimo Corporation Augmented reality system for displaying patient data
US20180247712A1 (en) 2017-02-24 2018-08-30 Masimo Corporation System for displaying medical monitoring data
KR102559598B1 (ko) 2017-05-08 2023-07-25 마시모 코오퍼레이션 동글을 이용하여 의료 시스템을 네트워크 제어기에 페어링하기 위한 시스템
JP7297455B2 (ja) * 2019-01-31 2023-06-26 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
DE102019116383A1 (de) * 2019-06-17 2020-12-17 Schölly Fiberoptic GmbH Verfahren zum Markieren eines Bildbereichs in einem Bild einer Bildfolge
USD1018844S1 (en) 2020-01-09 2024-03-19 Adaptivendo Llc Endoscope handle
USD1051380S1 (en) 2020-11-17 2024-11-12 Adaptivendo Llc Endoscope handle
USD1031035S1 (en) 2021-04-29 2024-06-11 Adaptivendo Llc Endoscope handle
USD1070082S1 (en) 2021-04-29 2025-04-08 Adaptivendo Llc Endoscope handle
USD1066659S1 (en) 2021-09-24 2025-03-11 Adaptivendo Llc Endoscope handle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257287A (ja) * 2006-03-23 2007-10-04 Tokyo Institute Of Technology 画像レジストレーション方法
JP2008109336A (ja) * 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd 画像処理装置および撮像装置
WO2009011442A1 (ja) * 2007-07-19 2009-01-22 Olympus Corporation 画像処理方法、画像処理装置及びコンピュータ読取り可能な記録媒体
JP2011119917A (ja) * 2009-12-02 2011-06-16 Denso Corp 車両用表示装置
JP2013157704A (ja) * 2012-01-27 2013-08-15 Olympus Corp 画像処理装置、画像処理方法、画像処理プログラム、及び、電子機器

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014027580A (ja) * 2012-07-30 2014-02-06 Jvc Kenwood Corp 撮像装置、及び画像処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257287A (ja) * 2006-03-23 2007-10-04 Tokyo Institute Of Technology 画像レジストレーション方法
JP2008109336A (ja) * 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd 画像処理装置および撮像装置
WO2009011442A1 (ja) * 2007-07-19 2009-01-22 Olympus Corporation 画像処理方法、画像処理装置及びコンピュータ読取り可能な記録媒体
JP2011119917A (ja) * 2009-12-02 2011-06-16 Denso Corp 車両用表示装置
JP2013157704A (ja) * 2012-01-27 2013-08-15 Olympus Corp 画像処理装置、画像処理方法、画像処理プログラム、及び、電子機器

Also Published As

Publication number Publication date
US20180342079A1 (en) 2018-11-29
WO2017126036A1 (ja) 2017-07-27

Similar Documents

Publication Publication Date Title
JPWO2017126036A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US10561300B2 (en) Image processing apparatus, image processing method, and image processing program
JP6323183B2 (ja) 画像処理装置および画像処理方法
CN101810489A (zh) 散射线校正方法以及散射线校正装置
JP6502511B2 (ja) 計算装置、計算装置の制御方法および計算プログラム
JP2017213097A (ja) 画像処理装置、画像処理方法およびプログラム
US20180098685A1 (en) Endoscope apparatus
JP2015171450A (ja) 画像処理装置、画像処理方法、プログラム、および内視鏡装置
US11576638B2 (en) X-ray imaging apparatus and X-ray image processing method
JP2008216127A (ja) 距離画像生成装置、距離画像生成方法及びプログラム
CN110573078A (zh) X射线路线图中的血管造影平移
WO2019187206A1 (ja) 画像処理装置、カプセル型内視鏡システム、画像処理装置の作動方法、及び画像処理装置の作動プログラム
JP2017092756A (ja) 画像処理装置、画像処理方法、画像投影システムおよびプログラム
WO2013073627A1 (ja) 画像処理装置及び方法
JP6957170B2 (ja) 放射線撮影装置、放射線撮影システム、放射線撮影方法、及びプログラム
JP4416823B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2021133247A5 (ja)
US8768042B2 (en) Radiographic image capturing system and method of displaying radiographic images
CN110769731B (zh) 内窥镜系统、内窥镜用处理系统、图像处理方法
JP5635389B2 (ja) 画像処理装置、画像処理プログラム、及びx線画像診断装置
US20140088353A1 (en) Stereo endoscope apparatus and image processing method in stereo endoscope apparatus
JP6716228B2 (ja) 医用画像処理装置および医用画像処理方法
JP5759405B2 (ja) 輝度ムラ検出装置および方法
US9727965B2 (en) Medical image processing apparatus and medical image processing method
JP2004152043A (ja) 差分画像の補正方法および画像処理装置

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20180705

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200915