[go: up one dir, main page]

JP2003265408A - 内視鏡誘導装置および方法 - Google Patents

内視鏡誘導装置および方法

Info

Publication number
JP2003265408A
JP2003265408A JP2002075882A JP2002075882A JP2003265408A JP 2003265408 A JP2003265408 A JP 2003265408A JP 2002075882 A JP2002075882 A JP 2002075882A JP 2002075882 A JP2002075882 A JP 2002075882A JP 2003265408 A JP2003265408 A JP 2003265408A
Authority
JP
Japan
Prior art keywords
image
endoscope
endoscopic image
virtual endoscopic
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002075882A
Other languages
English (en)
Other versions
JP4171833B2 (ja
Inventor
Kiyoshi Yoda
潔 依田
Atsushi Nagata
敦 永田
Yukio Kosugi
幸夫 小杉
Eiju Watanabe
英寿 渡辺
Hiroyuki Aoki
宏之 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Rikogaku Shinkokai
Original Assignee
Mitsubishi Electric Corp
Rikogaku Shinkokai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Rikogaku Shinkokai filed Critical Mitsubishi Electric Corp
Priority to JP2002075882A priority Critical patent/JP4171833B2/ja
Publication of JP2003265408A publication Critical patent/JP2003265408A/ja
Application granted granted Critical
Publication of JP4171833B2 publication Critical patent/JP4171833B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】 【課題】 簡便かつ高精度に内視鏡先端部の位置を判断
できるようにする。 【解決手段】 内視鏡の誘導のため、検査対象の仮想内
視鏡画像と内視鏡先端の位置および姿勢の情報をデータ
ベースに記憶しておく。検査対象の実軟性内視鏡画像を
取得すると、前記実内視鏡画像を前記データベース内の
仮想内視鏡画像と比較して、前記内視鏡画像と最も類似
度が高い仮想内視鏡画像を決定する。そして、決定され
た仮想内視鏡画像の情報から、前記実内視鏡画像に対応
する軟性内視鏡先端部の位置と姿勢を決定する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、自在に屈折する軟
性内視鏡のナビゲーションに関する。
【0002】
【従来の技術】脳神経外科などの手術の際には、患者の
手術操作部位とコンピュータ連動断層撮影(CT)、磁
気共鳴撮像(MRI)などの断層画像(3次元画像)の
位置関係を把握できるように術者を支援するナビゲーシ
ョン装置が利用されている。これにより、術者は、操作
位置と、診断時に撮影された医用画像との相対的位置関
係の認識が可能となる。
【0003】このナビゲーション装置を利用した操作部
位の3次元位置計測の主なものとして、機械方式(例え
ば、Kosugi et al., An Articulated Neurosurgical Na
vigation System Using MRI and CT Images (IEEE Tran
sactions of Biomedical Engineering, Vol. 35, No.
2, February 1988)、および米国特許5050608号 (E. Wat
anabe, Y. Kosugi and S. Manaka: System for indicat
ing a position to beoperated in a patient's body)
と、ステレオビジョン方式 (例えば、特許3152810号;
小杉、渡辺、鈴木、川上、中川:光学式3次元位置検出
装置) がある。機械方式は、ロータリーエンコーダを有
する多関節アームナビゲーション装置により先端位置座
標を求めるものである。また、ステレオビジョン方式
は、複数個のCCDカメラによりプローブに設置された
輝点像を認識し、三角測量の原理に基づいてプローブの
3次元的位置を算出するものである。
【0004】
【発明が解決しようとする課題】しかし、これらの装置
で内視鏡先端の位置を測定しようとした場合、機械方式
にあっては、アームと内視鏡先端の位置が機械的に剛性
の保たれた形で接続されていることが必要であり、形状
が自在に変わり得るファイバー式の軟性内視鏡ではこの
ような使用条件が満たされない。また、ステレオビジョ
ン方式にあっては、体内に置かれた内視鏡先端に仮に発
光部を装着したとしても、体外に位置するCCDカメラ
との間に不透明の生体組織が存在することから、位置の
確定は不可能である。
【0005】軟性内視鏡を用いた手術装置において、内
視鏡先端部の位置測定をおこなうためには、1) 体内の
3次元位置に対応した画像をいかにして生成・登録する
かという問題、2) 登録された画像と内視鏡から観測さ
れる画像の照合をいかにして行うかという問題、3) 手
術環境下で内視鏡の進むべき方向を術者に的確に与える
ヒューマンインターフェースをどのように構成すれば良
いかという問題がある。また、4) 手術時に簡便かつ高
精度に実時間で内視鏡先端部の位置測定を実行するため
の計算アルゴリズムおよび付属機器の開発を行う必要が
ある。
【0006】この発明の目的は、自在に屈折する軟性内
視鏡を用いた手術などにおいて、簡便かつ高精度に内視
鏡先端部の位置を判断できるようにすることである。
【0007】
【課題を解決するための手段】本発明に係る内視鏡誘導
装置は、検査対象の仮想内視鏡画像と内視鏡先端の位置
および姿勢の情報からなるデータベースを記憶する記憶
手段と、検査対象の実軟性内視鏡画像を取得する入力手
段と、前記実内視鏡画像を前記データベース内の仮想内
視鏡画像と比較して、前記内視鏡画像と最も類似度が高
い仮想内視鏡画像を決定する比較手段と、決定された仮
想内視鏡画像の情報から、前記実内視鏡画像に対応する
軟性内視鏡先端部の位置と姿勢を決定する決定手段とを
有する。ここで、実軟性内視鏡画像とは、本物の軟性内
視鏡で観測される画像であり、実内視鏡画像とは、本物
の内視鏡で観測される画像である。
【0008】前記の内視鏡誘導装置において、たとえ
ば、前記の仮想内視鏡画像は、検査対象の3次元画像デ
ータに基づいて生成された画像である。
【0009】前記の内視鏡誘導装置において、たとえ
ば、前記の仮想内視鏡画像と内視鏡先端の位置および姿
勢の情報は、硬性内視鏡により得られた画像と、その画
像を得たときの硬性内視鏡先端の位置および姿勢の情報
である。
【0010】前記の内視鏡誘導装置において、たとえ
ば、さらに、決定手段により決定された内視鏡先端部の
位置と姿勢を、2次元断面表示または3次元表示された
検査対象の画像に重畳して表示装置の画面に表示する表
示手段とを備える。
【0011】前記の内視鏡誘導装置において、たとえ
ば、前記の表示手段は、さらに、実内視鏡画像またはそ
れと最も類似度が高い仮想内視鏡画像に、当該画像では
表示されていない体内の患部を重畳して表示する。
【0012】前記の内視鏡誘導装置において、たとえ
ば、さらに、検査対象の3次元画像データに基づいて仮
想内視鏡画像を計算する画像生成手段を備え、この画像
生成手段は、設定された内視鏡先端の位置と姿勢ごと
に、それに基いて3次元画像データの補間演算とレンダ
リング演算を実行して仮想内視鏡画像を取得する。多数
の内視鏡先端の位置と姿勢を設定して演算することによ
り大規模な仮想内視鏡画像のデータベースを構築でき
る。
【0013】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、画素位置(i,j)における実内視
鏡画像の画素値と仮想内視鏡画像の画素値を、実内視鏡
画像の画素値と仮想内視鏡画像の画素位置を座標軸とす
る2次元グラフにプロットしたときに最も少ない面積上
に分布する仮想内視鏡画像をデータベースから探索し、
最も類似度が高い仮想内視鏡画像とする。
【0014】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、相互情報量が最大の仮想内視鏡
画像を仮想内視鏡画像データベースから探索し、最も類
似度が高い仮想内視鏡画像とする。
【0015】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、回転に不変な複素数画像連想処
理を用いる。
【0016】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、適応的非線形写像を実施した後
の最終マッチングスコアによる類似度を用いる。
【0017】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、内視鏡を前進させた場合に、探
索範囲を常に前回の探索範囲の近傍とし、前回と今回の
内視鏡の挿入距離の差分に相当する探索半径を基に、仮
想内視鏡画像のデータベース内の探索を実施する。
【0018】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、実内視鏡画像と仮想内視鏡画像
をそれぞれ極座標系に変換した後、最も類似度が高い仮
想内視鏡画像を選ぶ。
【0019】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、類似度の評価において、あらか
じめ実内視鏡画像と仮想内視鏡画像の各画像の画素強度
の最大値を1に規格化した後、対応する画素後との強度
差の2乗和を用いる。
【0020】前記の内視鏡誘導装置において、たとえ
ば、前記の決定手段は、前記の比較手段により得られた
内視鏡先端の推定位置が、過去に推定した内視鏡先端位
置を時系列で並べたときに外挿される現在の予測位値か
ら著しく逸脱した位置である場合にその推定位置を採用
しない。なお、前述の内視鏡誘導装置における種々の構
成要素は、可能な限り組み合わせることができる。
【0021】本発明に係る内視鏡誘導方法では、検査対
象の仮想内視鏡画像と内視鏡先端の位置および姿勢の情
報をデータベースに記憶しておく。検査対象の実軟性内
視鏡画像を取得すると、前記実内視鏡画像を前記データ
ベース内の仮想内視鏡画像と比較して、前記内視鏡画像
と最も類似度が高い仮想内視鏡画像を決定する。そし
て、決定された仮想内視鏡画像の情報から、前記実内視
鏡画像に対応する軟性内視鏡先端部の位置と姿勢を決定
する。
【0022】前記の内視鏡誘導方法において、好ましく
は、さらに、決定された内視鏡先端部の位置と姿勢を、
2次元断面表示または3次元表示された検査対象の画像
に重畳して表示装置の画面に表示する。
【0023】前記の内視鏡誘導方法において、好ましく
は、さらに、実内視鏡画像またはそれと最も類似度が高
い仮想内視鏡画像に、当該画像では表示されていない体
内の患部を重畳して表示する。なお、前述の内視鏡誘導
装置における種々の構成要素は、内視鏡誘導方法の構成
要素としても組み合わせることができる。
【0024】
【発明の実施の形態】以下、添付の図面を参照して本発
明の実施の形態を説明する。本発明は、自由に屈折する
内視鏡の誘導(ナビゲーション)に関する。近年脳神経
外科領域をはじめとして多くの医療分野で内視鏡を用い
た手術が行われるようになったが、術者は内視鏡先端が
患者のどの位置にあるかを見失う場合がある。そこで、
ヒトはGPSなどの特別な位置検出機器を用いなくて
も、見慣れた街中を迷わずに自由に移動することができ
ることに着眼した。これは、「この光景は見たことがあ
る」という既視感と、その光景から場所の情報を連想的
に検索できる人間の脳に備わった機能によるものであ
る。本発明では、このような画像の印象より位置情報を
検索する機能をコンピュータのアルゴリズム上で実現し
た。ここで、コンピュータ連動断層撮影(CT)、磁気
共鳴撮像(MRI)などの断層写真群からボリュームレ
ンダリング、手術用ナビゲーションシステムなどの画像
表示によって得られた位置と画像の関係のデータを蓄積
しておき、特に手術などの施行者が操作する内視鏡先端
の3次元的位置情報を、過去に登録済みの画像から推定
して術者に提供する。
【0025】発明の実施の形態1.図1は、発明の実施
の形態1に係る内視鏡誘導装置の構成を示す。この装置
は、自在に屈折する軟性内視鏡(図示しない)に接続さ
れ、患者の手術操作部位と断層画像(3次元画像)の位
置関係を把握できるように術者を支援する。さらに説明
すると、この装置において、ネットワークコントローラ
10は、CT画像、MRI画像などの3次元画像、本物
の内視鏡からの画像(内視鏡画像)などの診断画像を外
部から読み込む。これらの診断画像は、ハードディスク
12内に記憶される。CPU14は、キーボード、マウ
スなどの入力装置16からの指示に基づき、内視鏡誘導
プログラムに従い計算機処理を実行する。ここで、ハー
ドディスク装置12内のハードディスク(記録媒体)に
格納された内視鏡誘導プログラムは、実行時にメモリ1
8にロードされる。処理結果の画像は、ビデオコントロ
ーラ20を経由し、ディスプレーモニタ22で表示され
る。
【0026】図2は、内視鏡誘導プログラムにおける機
能ブロックを表している。仮想内視鏡画像データベース
計算ステップ(S10)で、検査対象のMRI、CTな
どの3次元画像データを入力して、入力した3次元画像
データに基づいて仮想内視鏡画像を計算し、ハードディ
スク装置12内のデータベースに記憶しておく。手術な
どにおいて、検査対象の内視鏡画像データが入力される
と、比較ステップ(S12)で、データベース内の仮想
内視鏡画像と本物の内視鏡で観測した検査対象の画像
(実内視鏡画像)とを比較して、現在の内視鏡先端部の
位置と姿勢を実時間で決定する。次に、表示ステップ
(S14)で、比較ステップで得られた現在の内視鏡先
端部の位置と姿勢を、モニタ22の画面上に表示してい
るMRI画像またはCT画像上に重畳して表示する。
【0027】仮想内視鏡画像の計算では、検査対象のM
RI、CTなどの3次元画像データに基いて仮想内視鏡
画像を計算する必要がある。これについては、3次元画
像データをボリュームレンダリングする方法が公知であ
り、その方法を用いてもよい。その方法の詳細は、たと
えば、Rubin, Perspective Volume Rendering of CTand
MRI Images: Applications for Endoscopic Imaging
(Radiology、199巻、321〜330ページ、199
6年) に記載されている。簡単に説明すると、検査対象
のMRI、CTなどの3次元画像データは3次元のボリ
ュームデータである。内視鏡を検査対象に挿入したとき
に、内視鏡先端のカメラで観測できる画像は、この点に
観測点をセットして、そこから光の束を発散させて各光
の直進路にしたがって検査対象の体積要素に関する色と
透明度の計算を行うと、シミュレーション可能である。
たとえば、MRIの各体積要素内の値が小さいときは、
空気領域または骨領域であることが一般的である。ま
た、MRIの各体積要素内の値が大きいときは、軟組織
など水分が豊富な領域であることが一般的である。した
がって、MRIの各体積要素内の値が小さいときは透明
度をあげて、MRIの各体積要素内の値が大きくなるに
従い透明度を下げれば、空気領域と軟組織領域をコント
ラストよく区別して3次元表示できる。
【0028】仮想内視鏡画像データベース計算(図2、
S10)では、上記の観測点(視点)と観測姿勢(仮想
的なカメラの方向)を種々変化させて、多数の内視鏡画
像をシミュレートした画像(仮想内視鏡画像)を得て、
仮想内視鏡画像および視点情報をハードディスク装置1
2内のデータベースに蓄積しておく。図3に、その処理
をより詳細に流れ図として示した。まず、病院内ネット
ワークで標準的に使用されているDICOM形式のCT
またはMRI画像を読み込む(S100)。次に、ボク
セル値に対する不透明度と色テーブルを定義する(ステ
ップS102)。ボクセル値に対する不透明度に関して
は、所定のしきい値以下の不透明度をゼロ(完全透
明)、前記しきい値以上の不透明度を1(完全不透明)
とすると、レンダリング速度が増大した。次に、補間計
算法を設定する(ステップS104)。補間計算法とし
ては、3次元の線形補間を用いた。次に、陰影処理パラ
メータを設定し(ステップS106)、レンダリング方
法を選択する(ステップS108)。陰影処理パラメー
タは複数の値で試行錯誤的に調整した。また、レンダリ
ング方法としてレイキャスティング法によるボリューム
レンダリングを採用した。なお、光線上の計算刻み幅を
表示にアーチファクトが入らない範囲でなるべく大きく
することにより、高速計算が達成できた。次に、視点
(カメラ)位置・回転中心・鉛直上向きの視点情報を設
定する(ステップS110)。視点情報は、カメラ位置
を体外位置とした平行投影による対象となる画像全体の
ボリュームレンダリング表示に基づき決定した。次に、
視野角を設定する(ステップS112)。視野角として
は同時に用いる内視鏡における視野角の値を入力した。
次に、レンダリングを実行し、仮想内視鏡画像を取得す
る(ステップS114)。最後に、仮想内視鏡画像と視
点情報をデータベース用ファイルに保存する(ステップ
S116)。視点情報(観測点と観測姿勢)を種々変化
させて、ステップS110〜S116の処理を繰り返し
て、多数の内視鏡画像をシミュレートした画像(仮想内
視鏡画像)を得る。
【0029】図4は、仮想内視鏡画像データベースを生
成する処理(図2、S10)における視点情報の設定を
具体的に示す。この処理は、図3のステップS110と
S112に対応する。ここで、種々の位置と姿勢に仮想
カメラを設置する必要がある。カメラ位置については、
1)まず本物の内視鏡で探索する場合に想定されるカメ
ラ位置の領域を決定し(S120)、その後この領域内
をたとえば10mmステップで3軸方向に移動した点を
すべてカメラ位置として採用する(S122)。次に、
カメラの姿勢については、2)カメラ画像の回転を5度
おきに設定し、3)カメラ画像の端部位置を画像サイズ
の1/10ずつ平行移動し、4)さらに仮想カメラによ
る画像の拡大・縮小率を50%から200%まで20%
ずつ変化させる(S124)。これらの1)から4)の
パラメータを独立に変化させて(S126)、多数のカ
メラ位置と姿勢を与える。これに基いてレンダリング画
像を生成することより、大規模な仮想内視鏡画像データ
ベースを生成する。なお、仮想内視鏡画像を計算する場
合は、仮想内視鏡の視野角および仮想内視鏡のカメラ回
転中心とカメラ位置の相対的配置を実内視鏡と同一にす
ることが好ましい。
【0030】このようなデータベースを用いれば、画像
比較ステップ(図2、S12)において、計算した仮想
内視鏡画像と本物の内視鏡で観測がされる画像(実内視
鏡画像)を比較して、本物の内視鏡画像と一致度が最も
高い仮想内視鏡画像をデータベース内部から探索でき
る。画像比較ステップ(図2、S12)では、仮想内視
鏡画像データベース内に蓄積された画像と現時点の内視
鏡画像の一致度合いを調べ、最も一致する仮想内視鏡画
像データベース内に蓄積された画像を決定して、これに
対応する仮想カメラ位置と姿勢を得る。この結果、現時
点の内視鏡先端部が検査対象(たとえば、人体の脳内)
のどの位置で、どの方向に向いているかを知ることがで
きる。この情報を、モニタ22の2次元または3次元の
MRI画像またはCT画像上に重畳して表示することに
より、内視鏡手術従事者は、位置と方向の判断を誤るこ
となく複雑な手術を続行できる。
【0031】具体的な方法は、図5の流れ図に示す。ま
ずオフラインで仮想内視鏡画像をグレースケール表示し
て、仮想内視鏡画像の濃淡変化を、同一場所で撮像した
本物の内視鏡画像となるべく一致するように調整する
(S130)。具体的には、内視鏡を体内に入れながら
MRIまたはCT撮像を行い、同一部位の実内視鏡画像
と仮想内視鏡画像を取得すれば、上記の色の調整が対話
的に可能になる。仮想内視鏡の画素強度をグレースケー
ルに変換する関数を対話的に定義すれば、仮想内視鏡画
像の濃淡を任意に変更できる。次に、相関係数が最大に
なる仮想内視鏡画像を仮想内視鏡画像データベースから
探索する(S132)。次に、求まった仮想内視鏡画像
に対する内視鏡先端の位置と姿勢の情報を出力する(S
134)。
【0032】より詳細に説明すると、一致度の判定に
は、通常よく用いられる画像間の相関係数を計算する方
法が適している。仮想内視鏡と本物の内視鏡画像では、
色情報の相関は一般には高くないので、相関計算は、カ
ラー画像からグレースケール画像に変換した後に実施す
ることが望ましい。そこで、オフラインで仮想内視鏡画
像をグレースケール化して、仮想内視鏡画像の濃淡変化
を同一場所で撮影した本物の内視鏡画像となるべく一致
するように調整する。仮想内視鏡の画素強度をグレース
ケールに変換する関数を定義すれば、濃淡を任意に定義
できる。カラー画像(R,G,B色の強度をそれぞれI
R, IG, IBとする)からグレースケール画像(強度I)
に変換する方法は、たとえば、次の式(1)で計算すれ
ばよい。
【数1】
【0033】次に、仮想内視鏡画像と内視鏡画像の相関
計算を行う。画素位置(i,j)における内視鏡画像画素値
A(i,j)と仮想内視鏡画像画素値B(i,j)について、相関
係数rは次の式(2)で定義される。
【数2】 ここで、UとVはベクトルであり、内視鏡画像および仮
想内視鏡画像の画素値を並べたものであり、具体的に
は、次式(3)、(4)で定義される。
【数3】 U = (A(1,1), A(1,2), ... , A(2,1), A(2,2), ..., A(m,n)) (3)
【数4】 V = (B(1,1), B(1,2), ... , B(2,1), B(2,2), ..., B(m,n)) (4) また、U・V はベクトルUとVの内積を表し、|U|は
ベクトルUの大きさを表す。相関係数rは、ベクトルU
とVの平均値を引いていない点が通常の統計学の相関係
数と異なるが、直流成分を含めて2つの画像の一致度を
評価する場合は、上式(2)が好ましい。なお、もし残
差の2乗平均を評価関数に用いる場合は、あらかじめ |
U|= |V|= 1 としておけばよい。こうしないと、互い
にスケールが異なる画像の間で画素の差分を評価するこ
とになり、意味が見出せない。
【0034】ところで、仮想内視鏡画像と本物の内視鏡
画像では、互いに異種画像であるために、画素強度は互
いに比例していないことが一般的である。相関係数を計
算するために、2種類の画像では対応する画素強度は、
互いに比例すると相関が最大になるので、比例させるよ
うに前処理をする必要がある。このような問題は、患者
ごと、部位ごとに経験的な方法で対処することが可能で
ある。
【0035】図6は、最も一致する仮想内視鏡画像デー
タベース内に蓄積された画像を決定した処理の一例を示
す。左側が、現時点の内視鏡画像30であり、右側がデ
ータベース内の最も一致する仮想内視鏡画像32であ
る。
【0036】図7は、表示ステップ(図2、S14)
で、得られた現時点の内視鏡先端部の3次元位置および
カメラの向きを、直交3平面画像40a,40b,40c上
に矢印として重畳して表示した結果である。矢印の大き
さは3平面への投影長さで表示する。たとえば、矢印4
2a,42b,42cの出発点に内視鏡先端位置を対応さ
せ、矢印のベクトルをカメラの方向ベクトルとする。こ
の結果、治療医は内視鏡先端位置を正しく認識し、正確
な位置で内視鏡手術を実施できる。図8は、同様の表示
を3次元レンダリング画像に重畳して表示した場合を示
す。3次元レンダリング画像としては、ボリュームレン
ダリングまたはサーフェスレンダリングを用いることが
できる。ボリュームレンダリングを用いた場合は、組織
ごとの輪郭抽出が不要であるという利点を有する。
【0037】発明の実施の形態2.図9は、発明の実施
の形態2における内視鏡誘導プログラムを示す。ここ
で、図2の処理の後で、さらに、内視鏡では見えない体
内表層下の患部(腫瘍など)を仮想内視鏡画像上でボリ
ュームレンダリングにより表層を半透明表示し、内視鏡
との位置合わせをおこなう(S16)。この結果、内視
鏡画像にも体内表層下の患部(腫瘍など)を追加表示で
き、正確な内視鏡下での手術を実施できる。このような
体内の腫瘍をボリュームレンダリングで表示することが
できる条件は、正常組織と腫瘍組織のMRI画像強度が
大きく異なることであるが、この条件は多くの場合に成
立することが知られている。
【0038】1例として、図10に、図6に示した画像
に体内表層下の患部(ここでは腫瘍)の位置を重畳して
表示した例を示す。体内表層下の患部を、仮想内視鏡画
像32上でボリュームレンダリングにより表層を半透明
に表示して重畳して表示している。また、内視鏡画像3
0に、体内表層下の患部34を追加表示している。
【0039】発明の実施の形態3.前述の実施の形態1
では、仮想内視鏡像をグレースケール化していた(図
5、S120)。ところで、実内視鏡画像のグレースケ
ール表示は組織表層の色(R,G,Bの比率およびスケ
ーリング値つまり明度)で決まり、患者の組織表層の血
流状態と代謝状態で色が決まる。一方、CTまたはMR
I画像から仮想内視鏡画像を構成した場合の色は、CT
値またはMRI強度と表示色の対応関数で決まる。この
対応関数は任意に設定できる。このことから、患者が変
わった場合は、組織表層の色は個体差があるので、発明
の実施の形態3で説明した方法で、別の患者のオフライ
ン測定結果を用いることは一般には不適切であることが
わかる。また、同一患者でも組織が異なれば、組織表層
の血流状態と代謝状態が変化するため、同一患者の別組
織のオフライン測定結果を用いることは一般には不適切
であることも理解できる。
【0040】このような事情があるので、実内視鏡画像
と仮想内視鏡画像のグレースケールの濃淡合わせまたは
色合わせは、理想的には、適応的に画像ごとに自動計算
する必要がある。しかし、これは煩雑であるので、これ
を避ける本実施の形態の処理を説明する。ここでは、ジ
ョイントヒストグラムまたは2次元ヒストグラムと呼ば
れる図を用いるが、この方法は異種画像の位置合わせ手
法として公知である。たとえば 2001年にCRC Press
社から刊行された単行本、Medical Image Registratio
n, 57〜59ページ、に記載されている。
【0041】図11は、この実施形態における画像比較
処理を示す。具体的には、図12の(a)のように、画素
位置(i,j)における実内視鏡画像の画素値A(i,j)と仮想
内視鏡画像の画素値B(i,j)を用いて、点(A(i,j)、B
(i,j))としてグラフに2次元プロットしていき(S1
31)、最も少ない面積上に分布する仮想内視鏡画像を
データベースから探索する(S133)。そして、求ま
った仮想内視鏡画像に対応するカメラの位置と姿勢の情
報を出力する(S134)。最も少ない面積の判定に
は、対話的に操作者が行う方法、プロットされた点を含
む閉曲線を描く方法および発明の実施の形態1で説明し
たベクトルの内積演算による相関係数の計算などがあ
る。なお、最も少ない面積上に分布するということは、
実内視鏡画像で表示された画素値と仮想内視鏡画像で表
示された画素値の強い関連性があることを示している。
強い関連性とは、いわゆる正の相関が強い場合や負の相
関が強い場合を含むが、もっと複雑な場合も含む(図1
2の(b)参照)。このような複雑な関連性が強い場合で
も、発明の実施の形態1で説明したベクトルの内積演算
による相関係数の計算が有効である。いずれの場合で
も、最も少ない面積上に分布することは、2つの画像が
同一カメラ位置から見た同一組織である可能性が非常に
高いことを意味している。
【0042】発明の実施の形態4.発明の実施の形態3
の対応関数を用いた処理をさらに拡張した方法として、
画像比較処理に相互情報量を評価する手法を用いること
が考えられる。図13にその流れ図を示す。相互情報量
を用いた異種画像のレジストレーション(位置合わせ)
については、発明の実施の形態3であげた文献の60〜
61ページに記載されている。まず、画素位置(i,j)に
おける実内視鏡画像A(i,j)と仮想内視鏡画像B(i,j)の
画素値を用いて相互情報量を計算する(S131')。
相互情報量は定性的には一方の画像情報が他方の画像情
報をどれだけうまく説明できるかを与えるものであり、
たとえば次の式(5)で与えられる相互情報量I(A,
B)が最大になったときに、2つの画像は位置合わせで
きたと判断する。
【数5】 (5)ここで、pT AB(a, b)は画像Aと画像Bのジョイ
ント確率分布関数であり、pT A(a)およびpT B(b)はマー
ジナル確率分布関数である。相互情報量の定義は、上記
に限らず、他にも種々提案されているので、それらを用
いてもよい。次に、相互情報量が最大になる仮想内視鏡
画像を仮想内視鏡画像データベースから探索する(S1
33')。そして、求まった仮想内視鏡画像に対応する
カメラの位置と姿勢の情報を出力する(S134)。
【0043】発明の実施の形態5.これまで述べてきた
ような類似度評価に相関係数、2乗誤差、相互情報量な
どを用いる場合、類似度が最大になる仮想内視鏡画像が
仮想内視鏡画像データベース内に存在する必要があるの
で、データベースの大規模化は避けられない。一般にこ
のような処理はオフラインで計算しておく必要があり、
緊急手術が必要な救急患者に対しては適用が難しい場合
も考えられる。さらに、内視鏡画像に雑音が混入してい
る場合に最適な仮想内視鏡画像の推定に失敗することも
考えられる。そこで、この発明の実施の形態では、脳機
能の1つである連想処理の採用によりデータベースの小
規模化および対ノイズ性能向上を図る。内視鏡で得られ
た画像から連想処理によりその位置を検出するために
は、内視鏡は挿入の間、任意の角度で回転することが予
想されるため、回転操作に不変な連想処理システムを実
現することが要求される。
【0044】以下に、2001年6月に青木らにより発
表されたRotation-Invariant ImageAssociation for En
doscopic Positional Identification Using Complex-V
alued Associative Memories (Springer, Proceedings
of the 6th InternationalWork-Conference on Artifi
cial and Natural Neural Networks Granada, PartI
I,pp.369-376)に記載された、複素数型連想メモリを
用いた内視鏡位置検出のための回転に不変な画像連想処
理の概要を述べる。連想記憶を用いた処理は、必要なパ
ターンをあらかじめ記憶させる記銘処理(フェーズ1)
と、その後で記憶パターンの不完全パターン(ノイズの
混入や、パターンの一部の情報が欠落しているようなパ
ターン)を与えると、その不完全パターンより完全な記
憶パターンを連想し出力する想起処理(フェーズ2)の
2段階の処理に分けられる。
【0045】フェーズ1の記銘処理は、記憶しようとす
るパターンよりニューロン間の結合荷重を決定するプロ
セスであり、記憶パターンの情報はニューロン間の結合
荷重に多重分散的に記憶される。また、フェーズ2の想
起処理では、各ニューロンはあらかじめ定められた状態
遷移規則に従って次々と状態を更新していく。実数型を
拡張した複素数型連想記憶モデルを応用することによ
り、容易に多値のパターン情報を扱うことが可能とな
る。特に、複素数型連想記憶モデル(CAMM)と2次元
離散フーリエ変換処理(2-D DFT)とを組み合わせること
により、濃淡画像の連想システムが実現される。
【0046】図14により、回転操作に不変な画像連想
システムの実現方法の概要を説明する。本システムで
は、図14の(a)に示すように円形画像を扱うものとす
る。なお、以下の説明は、記銘処理と想起処理に共通で
ある。
【0047】(A) まず図14の(a)に示す円形画像を
図14の(b)に示すような長方形画像に変換する。する
と、円形画像における0を中心とするθ方向への回転操
作は、長方形画像においてはn方向(横方向)のみへの
シフト操作に置き換えられる。
【0048】(B) 図14の(b)の形式に変換された図
形について2次元離散フーリエ変換処理(2-D DFT)をす
る。フーリエ変換された結果は図14の(c)のように与
えられる。ここで、四隅の部分が低周波の空間周波数成
分を表わし、中央部分が高周波の空間周波数成分を表
す。
【0049】(C) 図14の(c)のフーリエ変換の各成
分をν(m',n')とし、ν(m',n') = |ν(m',n')|exp(α
(m',n')) と表わせるものとする。以下の式(6)、
(7)を用いてν(m',n')の振幅情報を位相情報に多重
化させる処理を行い、位相情報のみにより表現される行
列 {χphase(m',n')} を生成する。式(6)で、|νmax
(m',n')|は各要素|ν(m',n')|の中での最大値を表す。
また、式(7)はχphase(m',n')を定義する。こうして
画像情報をχphase(m',n')の形式に変換することによ
り、画像情報は図14の(d)の複素ニューロンにより表
現することが可能となる。
【数6】 γ(m',n') = cos-1(|ν(m',n')|/|νmax(m',n')|) (6)
【数7】 χphase(m',n') = exp {i(α(m',n')+γ(m',n'))} (7)
【0050】(D) このように画像の情報は上記χ
phase(m',n')の形式に変換して、複素数型連想記憶モデ
ル(CAMM)に与える。
【0051】(E) 次に、χphase(m',n') を位相量子
化する。
【0052】(F) 通常、χphase(m',n')の全ての成分
を用いてCAMMを構成するとニューロン数が非常に多
くなってしまうため、画質の劣化が目立たない範囲で図
14の(c)に示すように高周波領域の成分を無視してC
AMMを構成する。その際CAMMはχphase(m',n')の
低周波領域の各列毎に構成する。例えば、行列{χphase
(m',n')}の0からXおよびN−XからN−1までの各列
を利用すると、作られるCAMMの数は2X+1個とな
る。CAMMのニューロンの間の結合荷重の決定を行な
う。
【0053】以下は、想起処理における説明である。 (G) ここで、2次元離散フーリエ変換(2-D DFT)の
次の性質に注目する。n方向のみにqだけシフトした画
像の2次元離散フーリエ変換は次のように表される。
【数8】ν(m',n') = DFT{u(m, n)} とおけば、u(m, n)をn方向のみにqだけシフトした画
像u(m, n-q)の2次元離散フーリエ変換は次のように与
えられる。
【数9】 DFT{u(m,n-q)} = ν(m',n')exp(-iθNn'q) ここにθN = 2π/N つまり、複素領域側でみるとexp(-isθNn'q)の項が付加
されるだけである。 (H) (F)で述べた通り、行列{χphase(m',n')}の各列
ごとにCAMMを構成すると、ひとつのCAMMの中で
はn'の値は等しいから、回転による影響項exp(-iθNn'
q)の値は各ニューロンでは皆等しくなる。すなわち、各
CAMMに対しては画像の回転操作による影響はexp(-i
N)の項が付加されるだけとなる。
【0054】(I) 一方、CAMMは、exp(-isθN)の
影響を吸収する性質(位相シフトに対して不変な性質)
をもつ。すなわち、状態パターンx1をCAMMの平衡状
態として記銘させると、状態x1をsθN(sは任意の整
数)だけ位相をシフトした状態exp(-isθN)x1もまたC
AMMの平衡状態となる。(ただし、この場合、複素ニ
ューロンの量子化数KはNの整数倍に設定しておくもの
とする。)言い換えると、CAMMはx1もexp(-isθN)x
1も区別なく平等に記憶する。こうして、(H)と(I)の
性質を用いることにより回転に不変な連想記憶システム
を実現できる。
【0055】(J) 残る問題は、各CAMMが想起した
結果からどのようにして想起画像を再構成するかであ
る。各CAMMが想起した結果をそのまま逆2次元離散
フーリエ変換(2-D IDFT)をして実数領域に変換しても
正しい想起画像は得られない。各CAMMが想起した結
果より、回転による影響項exp(-isθN)の位相分を補正
する必要がある。
【0056】そこで、各CAMMの中に上記補正量を検
出するためのニューロンを新たに埋め込んでおく(これ
により各CAMMのニューロン数はR+1個となる)。
このニューロンはあらかじめ決められた位相(これを基
準位相とする)でCAMMに記憶させておき、毎回想起
処理が完了した時にこのニューロンの位相を調べ、基準
位相とのズレから上記補正量を検出するものとする。
【0057】(K) CAMMの補正処理された想起結果
より、下図の形式の行列νa(m',n')を作成する。ν
a(m',X+1)からνa(m',N-X-1)の各列には0を補う。 (L) この行列{νa(m',n')}から次式(10)を用いて
想起画像{ua(m,n)}が得られる。
【数10】
【0058】発明の実施の形態1では、仮想内視鏡デー
タベースに格納すべき画像として、カメラ画像の回転を
5度おきに設定するというステップを用いた。しかし、
上述の処理を用いることにより、この回転が不要にな
る。結果的に、データベースのサイズが、5度おきの回
転の場合で、5/360=1/72になる効果がある。
これは、類似度評価の計算時間が1/72になることを
意味する。さらに、画像に雑音が混入した場合でも正し
く推定が可能になる効果もある。
【0059】発明の実施の形態6.この実施の形態のハ
イブリッドシステムでは、検査対象のMRI、CTなど
の3次元画像データに基づく仮想内視鏡画像を用いず
に、硬性内視鏡像をMRレンダリング像で補間する。硬
性内視鏡像の場合は、従来の技術として説明した機械方
式(例えば、Kosugi et al, An Articulated Neurosurg
ical Navigation System Using MRI and CT Images (IE
EE Transactions on Biomedical Engineering,Vol. 35,
No. 2, February 1988)、および、米国特許50506
08号 (E. Watanabe, Y. Kosugi, and S. Manaka: Sys
tem for indicating a position to beoperated in a p
atient's body)に相当する。図15に示すように、ロ
ータリーエンコーダを有する多関節アームナビゲーショ
ン装置により硬性内視鏡先端の位置座標および姿勢を求
めることができる。図16にハイブリッドシステムでの
処理の流れ図を示す。まず、ランドマークとなりそうな
場所の硬性内視鏡画像と硬性内視鏡先端の3次元位置と
姿勢を複数地点で手術準備のために取得して、データベ
ース化する(S20)。続いて、光ファイバー方式のや
わらかい内視鏡に交換して、手術を行う(図17参
照)。ここで、光ファイバー内視鏡を進行させながら得
られた光ファイバー内視鏡画像と類似度が高い硬性内視
鏡画像をデータベースから選ぶ(S22)。そして、類
似度が高く画像が選ばれた地点の近傍においては、異種
画像の類似度評価により局所的な探索を行う(S2
4)。この場合、硬性内視鏡と光ファイバー方式の内視
鏡画像は同種画像であり、データベースによる類似度の
評価は容易である。したがって、ランドマークとなる要
所要所では、精度良く光ファイバー方式の内視鏡先端位
置を知ることができる。また、これらのランドマーク近
傍においては、異種画像の類似度評価になるが、局所的
な探索で良いので、似たような別の場所の誤認知の確率
を低減でき、安全なナビゲーションが実行できる。そも
そも似たような場所を間違えないようにするための道具
なので、ミスは許されないため、本手法は有用である。
そして、求まった仮想内視鏡画像に対するカメラの位置
と姿勢の情報を出力する(S26)。そして、この結果
に基いて、図2や図9で説明したように重畳して表示を
行う。
【0060】発明の実施の形態7.また、類似性につい
ては、適応的非線形写像実施後の最終マッチングスコア
による類似度評価を用いる方法も考えられる。この処理
が有効な場合は、これまで述べてきた方法のいずれかで
類似度を評価しても、十分高い類似度が得られなかった
場合である。もし内視鏡挿入に伴い組織が局所的に歪ん
だ場合、実内視鏡画像に含まれる空間的な非線形ひずみ
を考慮して類似度を評価する必要がある。具体的には、
内視鏡画像または計算した仮想内視鏡画像を空間的に弾
性変形のようなひずみを与えて変形させながら、類似度
が上昇する変形パターンを探索する。このような適応的
非線形写像の詳細は、特許公報第2860048号「非
線形画像変換装置および標準画像計算方法」に記載され
ているので、詳細は省略するが、図18と図19で簡単
に説明する。
【0061】図18は、適応的非線形写像実施後の最終
マッチングスコアによる類似度評価を用いる処理の流れ
図である。まず、第1画像のデータから、第1画像を所
定の数に分割して小エリアのデータを生成し、第1画像
層のデータとして保存する(S30)。例えば、図19
に示すように4×4 個(16個)の小エリアに分割さ
れる。次に、第2画像のデータを保存する(S32)。
たとえば、第1画像が実内視鏡画像で、第2画像が仮想
内視鏡画像である。
【0062】そして、第1画像の各小エリアのデータに
対して、各小エリアの位置を示す位置ベクトルに移動ベ
クトルを加算して、位置をスライドさせる(S34)。
なお、各小エリアに対応する移動ベクトルDの初期値は
いずれも0ベクトルである。次に、スライド後の第1画
像の各小エリアと第2画像の各小エリアとの類似度が最
も高い移動量(増分ベクトル)を各小エリアごとに探索
する(S36)。類似度の評価はこれまで述べてきた方
法のいずれかを用いる。すなわち、相関係数、2乗誤差
などである。
【0063】次に、小エリアごとにばらばらに計算した
移動ベクトルを平滑化する(S38)。これは隣接する
小エリアごとの移動ベクトルの変化を滑らかにするため
である。ただし、滑らかにする度合はステップS34な
いしS38の処理を反復する反復ループの周回回数によ
り変化させる。このように、ループの周回回数により平
滑化の度合を変化させるので、この処理は適応的非線形
写像と呼ばれる。ここで、最初はあまり平滑化せずに、
個々の小エリアごとの特性を重視し、だいたい局所的に
は類似度が向上したら、最後に周囲との連続性を考慮し
て、移動ベクトルを滑らかに変化させる。このように、
反復するため、反復ループ内では移動ベクトルの計算は
前回の移動後の画像から始める。すなわち、移動量の増
分ベクトルをループを反復するたびに計算していく。し
たがって、反復2回目以降は増分ベクトルを計算後に、
全体的な移動ベクトルを求める計算(ステップS40)
が必要になる。類似度が十分向上すれば、すなわち、マ
ッチングが成功すれば(S42でYES)、全画素に対
する移動ベクトルを計算する(S44)。これにより、
操作者は画面上で移動ベクトルを考慮して表示された実
内視鏡画像と仮想内視鏡画像を観察できる。
【0064】発明の実施の形態8.発明の実施の形態1
でも説明したように、実内視鏡画像と仮想内視鏡画像
は、互いに回転の自由度があるので、カメラを5度おき
に回転して仮想内視鏡画像を生成してデータベースを構
築する。次に、類似度が最大の仮想内視鏡画像を検索す
るために、データベース内のすべての画像を評価する必
要がある。これは、カメラの回転角と実内視鏡画像と仮
想内視鏡画像の類似度との関係があらかじめ不明である
ためやむをえない。図6の実内視鏡画像と仮想内視鏡画
像の類似度と回転角の関係を計算した1例を以下に示
す。回転は仮想内視鏡画像に対して行った。
【0065】図20は、直交座標系で類似度を評価した
結果のグラフである。類似度としては、あらかじめ実内
視鏡画像と仮想内視鏡画像の各画像の最大値を1に規格
化した後で、対応する画素ごとの強度差の2乗和(Erro
r)を用いた。もちろん、段落0031で説明した相関値
を用いてもよい。類似度が画素強度値の2乗和(縦軸で
はErrorと表記)で与えているので、その最小値を与え
るときに最大の類似度となる。角度(Rotation)を変化
させた場合に、最大の類似度は角度0〜30度で与えら
れるが、130度付近にも極小値が存在し、通常の分割
法、2次補間法などの最適化手法を用いて探索を高速化
した場合に、真の角度が求められない可能性を示してい
る。また、回転角が0〜30度とかなりあいまいな解に
なっている。
【0066】ところが、上記2つの画像を極座標に変換
した後、類似度を評価すると、図21のグラフのよう
に、誤差(Error)の最小値は、他の極小値もなく、回
転角(Rotation)0度として明確に与えられることが分
かった。このため、通常の分割法、2次補間法などの最
適化手法を用いて探索を最適化した場合に、真の角度を
求めることができることを示している。なお、変換前の
画像(直交座標系)をA(x,y)、極座標系に変換後の
画像をA(r、theta)とすると、 r=(X+Y1/2、 theta=tan
−1(y/x) により、極座標系に変換後の画像A(r、theta)の各
成分を計算できる。以上から、あらかじめ画像を極座標
系に変換した後に類似度を評価すると、評価が高速化で
きる効果があることがわかった。
【0067】発明の実施の形態9.次に、仮想内視鏡画
像データベースの探索を高速化する方法を説明する。こ
こで、内視鏡を体内に導入した初期位置情報を用いて、
仮想内視鏡画像データベースを十分絞り込んで探索す
る。図22は、その処理の流れ図を示す。すなわち、M
RI画像またはCT画像を取得するときに、内視鏡を体
内に導入する初期位置を液体を封入した微小球マーカを
体表に貼り付けることにより、仮想内視鏡画像の初期カ
メラ位置を決定する(S50)。さらに内視鏡を前進さ
せた場合に、探索範囲を常に前回の探査位置の近傍とす
る(S52)。このとき、前回と今回の内視鏡の挿入距
離の差分に相当する探索半径を基に、仮想内視鏡データ
ベース内の探索を実施する(S54)。これにより探索
を高速化・高精度化できる。
【0068】発明の実施の形態10.上述の各種処理に
より内視鏡先端位置が推定される。ここで、好ましく
は、過去に推定した内視鏡先端位置を時系列で並べたと
きに外挿される現在の予測位値から著しく逸脱した位置
を解としようとした場合に、その解をリジェクトする。
図23は、その処理の流れ図を示す。内視鏡位置の推定
値を入力する(S60)。一方、過去に推定した内視鏡
先端位置を時系列で並べたときに外挿される現在の予測
位値を計算し(S62)、内視鏡位置の推定値と比較す
る(S64)。2つの値の差が所定の値より小さければ
採用するが、2つの値の差が所定の値以上であれば、推
定値を採用しない。これにより、探索の誤りを防止す
る。
【0069】
【発明の効果】本発明による内視鏡誘導装置および方法
によれば、検査対象の仮想内視鏡画像と内視鏡先端の位
置および姿勢の情報からなるデータベースと実内視鏡画
像を実時間で比較することにより、高度な画像診断技術
によって与えられた患部へ、迅速かつ正確に内視鏡を誘
導することが可能になる。たとえば、腫瘍摘出手術にあ
っては、残存する腫瘍組織を最低限に抑え、かつ短時間
で、また患者への侵襲を最小限にとどめた形で手術を実
施することが可能になり、ひいては患者の延命、早期退
院を実現することが可能になる。
【0070】また、検査対象の3次元画像データ(CT
画像、MRI画像などの診断画像)に基づいて仮想内視
鏡画像と比較するので、実内視鏡画像との比較が容易に
なる。
【0071】また、硬性内視鏡により得られた画像と、
その画像を得たときの硬性内視鏡先端の位置および姿勢
の情報を用いるので、硬性内視鏡と光ファイバー方式の
内視鏡画像は同種画像であるため、データベースによる
類似度の評価は容易になる。
【0072】また、内視鏡先端部の位置と姿勢を、2次
元断面表示または3次元表示された検査対象の画像に重
畳して表示するので、内視鏡手術従事者は、位置と方向
の判断を誤ることなく複雑な手術を続行できる。
【0073】また、内視鏡画像にも体内表層下の患部
(腫瘍など)を重畳して表示できるので、正確な内視鏡
下での手術を実施できる。
【0074】また、さらに、検査対象の3次元画像デー
タに基づいて仮想内視鏡画像を計算する画像生成手段を
備えるので、多数の内視鏡先端の位置と姿勢での仮想内
視鏡画像からなるデータベースを構築できる。
【0075】また、ジョイントヒストグラムまたは2次
元ヒストグラムと呼ばれる図を用いて異種画像の位置合
わせを行うので、最も類似度が高い仮想内視鏡画像を容
易に決定できる。
【0076】また、前記の比較手段は相互情報量を用い
るので、最も類似度が高い仮想内視鏡画像を容易に決定
できる。
【0077】また、回転操作に不変な複素数連想処理を
採用するので、仮想内視鏡画像のデータベースの小規模
化および対ノイズ性能の向上が図れる。
【0078】また、前記の比較手段は適応的非線形写像
実施後の最終マッチングスコアによる類似度を用いるの
で、最も類似度が高い仮想内視鏡画像を容易に決定でき
る。
【0079】また、前記の比較手段は画像を極座標系に
変換した後に類似度を評価するので、評価が高速化でき
る。
【0080】また、内視鏡を前進させた場合に、探索範
囲を前回の探索範囲の近くとして仮想内視鏡画像のデー
タベース内の探索を実施するので、探索を高速化でき
る。
【0081】また、好ましくは、内視鏡先端の推定位置
が予測位値から著しく逸脱した位置である場合にその推
定位置を採用しないので、誤った推定を防止できる。
【図面の簡単な説明】
【図1】 内視鏡誘導装置のブロック図
【図2】 内視鏡誘導プログラムの流れ図
【図3】 仮想内視鏡画像データベース計算の流れ図
【図4】 仮想内視鏡画像データベースの生成における
視点情報の設定処理の流れ図
【図5】 内視鏡画像のグレースケール化を用いた探索
処理の流れ図
【図6】 最も一致する仮想内視鏡画像データベース内
に蓄積された画像を決定した処理の一例を示す図
【図7】 現時点の内視鏡先端部の3次元位置およびカ
メラの向きを直交3平面画像上に矢印として重畳して表
示した図
【図8】 現時点の内視鏡先端部の3次元位置およびカ
メラの向きを直交3平面画像上に矢印として重畳して表
示した図
【図9】 内視鏡誘導プログラムの流れ図
【図10】 腫瘍位置を重畳して表示した図
【図11】 画像比較処理の流れ図
【図12】 実内視鏡画素値と仮想内視鏡画素値の2次
元グラフ
【図13】 相互情報量を用いる画像比較処理の流れ図
【図14】 回転に不変な連想記憶システムの基本的な
考え方を説明するための図
【図15】 硬質内視鏡を用いて内視鏡画像とその姿勢
情報を得ることを示す図
【図16】 ハイブリッドシステムでの処理の流れ図
【図17】 光ファイバー方式の軟内視鏡に交換して手
術を行う状況を示す図
【図18】 適応的非線形写像実施後の最終マッチング
スコアによる類似度評価を用いる処理の流れ図
【図19】 小エリアへの分割を示す図
【図20】 直交座標系における実内視鏡画像と仮想内
視鏡画像の類似度と回転角の関係のグラフ
【図21】 極座標系における実内視鏡画像と仮想内視
鏡画像の類似度と回転角の関係のグラフ
【図22】 仮想内視鏡画像データベースの探索を高速
化する処理の流れ図
【図23】 現在の予測位値から著しく逸脱した位置を
採用しない処理の流れ図
【符号の説明】
10 ネットワークコントローラ、 12 ハードデ
ィスク、 14 CPU、 16 入力装置、
18 メモリ、 22 モニター。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) A61B 6/03 377 A61B 6/12 6/12 G02B 23/26 C G01R 33/28 D G02B 23/26 H04N 7/18 M A61B 5/05 390 H04N 7/18 G01N 24/02 Y (72)発明者 永田 敦 神奈川県横浜市旭区若葉台4−8−1402 (72)発明者 小杉 幸夫 神奈川県横浜市緑区長津田町4259 東京工 業大学大学院総合理工学研究科内 (72)発明者 渡辺 英寿 東京都文京区本郷5−29−12−1001 (72)発明者 青木 宏之 東京都八王子市椚田町1220−2 東京工業 高等専門学校内 Fターム(参考) 2H040 BA04 BA14 BA21 CA11 DA03 DA12 DA14 GA02 GA11 4C061 AA23 BB02 CC06 HH51 JJ11 JJ17 LL01 NN05 NN07 SS21 TT06 TT07 WW03 WW04 WW06 WW13 YY03 YY12 YY13 YY14 4C093 AA22 CA17 CA18 CA50 EE30 FD07 FD20 FF12 FF17 FF33 FF43 FG01 4C096 AA18 AA20 AB50 AD14 AD15 AD19 AD23 DC14 DC18 DC28 DC31 DC36 DC37 DD08 DE02 DE06 DE08 FC20 5C054 AA01 EA05 FC11 FD01 FE12 GB04 HA12

Claims (17)

    【特許請求の範囲】
  1. 【請求項1】 検査対象の仮想内視鏡画像と内視鏡先端
    の位置および姿勢の情報からなるデータベースを記憶す
    る記憶手段と、 検査対象の実軟性内視鏡画像を取得する入力手段と、 前記実内視鏡画像を前記データベース内の仮想内視鏡画
    像と比較して、前記内視鏡画像と最も類似度が高い仮想
    内視鏡画像を決定する比較手段と、 決定された仮想内視鏡画像の情報から、前記実内視鏡画
    像に対応する軟性内視鏡先端部の位置と姿勢を決定する
    決定手段とを有する内視鏡誘導装置。
  2. 【請求項2】 前記の仮想内視鏡画像は、検査対象の3
    次元画像データに基づいて生成された画像であることを
    特徴とする請求項1に記載された内視鏡誘導装置。
  3. 【請求項3】 前記の仮想内視鏡画像と内視鏡先端の位
    置および姿勢の情報は、硬性内視鏡により得られた画像
    と、その画像を得たときの硬性内視鏡先端の位置および
    姿勢の情報であることを特徴とする請求項1に記載され
    た内視鏡誘導装置。
  4. 【請求項4】 さらに、決定手段により決定された内視
    鏡先端部の位置と姿勢を、2次元断面表示または3次元
    表示された検査対象の画像に重畳して表示装置の画面に
    表示する表示手段とを備えることを特徴とする請求項1
    ないし請求項3のいずれかに記載の内視鏡誘導装置。
  5. 【請求項5】 前記の表示手段は、さらに、実内視鏡画
    像またはそれと最も類似度が高い仮想内視鏡画像に、当
    該画像では表示されていない体内の患部を重畳して表示
    することを特徴とする請求項1ないし請求項4のいずれ
    かに記載の内視鏡誘導装置。
  6. 【請求項6】 さらに、検査対象の3次元画像データに
    基づいて仮想内視鏡画像を計算する画像生成手段を備
    え、この画像生成手段は、設定された内視鏡先端の位置
    と姿勢ごとに、それに基いて3次元画像データの補間演
    算とレンダリング演算を実行して仮想内視鏡画像を取得
    することを特徴とする請求項1ないし請求項5のいずれ
    かに記載の内視鏡誘導装置。
  7. 【請求項7】 前記の比較手段は、画素位置(i,j)にお
    ける実内視鏡画像の画素値と仮想内視鏡画像の画素値
    を、実内視鏡画像の画素値と仮想内視鏡画像の画素位置
    を座標軸とする2次元グラフにプロットしたときに最も
    少ない面積上に分布する仮想内視鏡画像をデータベース
    から探索し、最も類似度が高い仮想内視鏡画像とするこ
    とを特徴とする請求項1ないし請求項6のいずれかに記
    載の内視鏡誘導装置。
  8. 【請求項8】 前記の比較手段は、相互情報量が最大の
    仮想内視鏡画像を仮想内視鏡画像データベースから探索
    し、最も類似度が高い仮想内視鏡画像とすることを特徴
    とする請求項1ないし請求項7のいずれかに記載の内視
    鏡誘導装置。
  9. 【請求項9】 前記の比較手段は、回転に不変な複素数
    画像連想処理を用いることを特徴とする請求項1ないし
    請求項8記載の内視鏡誘導装置。
  10. 【請求項10】 前記の比較手段は、適応的非線形写像
    を実施した後の最終マッチングスコアによる類似度を用
    いることを特徴とする請求項1ないし請求項9のいずれ
    かに記載の内視鏡誘導装置。
  11. 【請求項11】 前記の比較手段は、内視鏡を前進させ
    た場合に、探索範囲を常に前回の探索範囲の近傍とし、
    前回と今回の内視鏡の挿入距離の差分に相当する探索半
    径を基に、仮想内視鏡画像のデータベース内の探索を実
    施することを特徴とする請求項1ないし請求項10いず
    れかに記載の内視鏡誘導装置。
  12. 【請求項12】 前記の比較手段は、実内視鏡画像と仮
    想内視鏡画像をそれぞれ極座標系に変換した後、最も類
    似度が高い仮想内視鏡画像を選ぶことを特徴とする請求
    項1ないし請求項11のいずれかに記載の内視鏡誘導装
    置。
  13. 【請求項13】 前記の比較手段は、類似度の評価にお
    いて、あらかじめ実内視鏡画像と仮想内視鏡画像の各画
    像の画素強度の最大値を1に規格化した後、対応する画
    素後との強度差の2乗和を用いたことを特徴とする請求
    項1ないし請求項12のいずれかに記載の内視鏡誘導装
    置。
  14. 【請求項14】 前記の決定手段は、前記の比較手段に
    より得られた内視鏡先端の推定位置が、過去に推定した
    内視鏡先端位置を時系列で並べたときに外挿される現在
    の予測位値から著しく逸脱した位置である場合にその推
    定位置を採用しないことを特徴とする請求項1ないし請
    求項13のいずれかに記載の内視鏡誘導装置。
  15. 【請求項15】 検査対象の仮想内視鏡画像と内視鏡先
    端の位置および姿勢の情報をデータベースに記憶してお
    き、 検査対象の実軟性内視鏡画像を取得し、 前記実内視鏡画像を前記データベース内の仮想内視鏡画
    像と比較して、前記内視鏡画像と最も類似度が高い仮想
    内視鏡画像を決定し、 決定された仮想内視鏡画像の情報から、前記実内視鏡画
    像に対応する軟性内視鏡先端部の位置と姿勢を決定する
    内視鏡誘導方法。
  16. 【請求項16】 さらに、決定された内視鏡先端部の位
    置と姿勢を、2次元断面表示または3次元表示された検
    査対象の画像に重畳して表示装置の画面に表示すること
    を特徴とする請求項15に記載された内視鏡誘導方法。
  17. 【請求項17】 さらに、実内視鏡画像またはそれと最
    も類似度が高い仮想内視鏡画像に、当該画像では表示さ
    れていない体内の患部を重畳して表示することを特徴と
    する請求項15または請求項16に記載された内視鏡誘
    導方法。内視鏡誘導方法。
JP2002075882A 2002-03-19 2002-03-19 内視鏡誘導装置および方法 Expired - Fee Related JP4171833B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002075882A JP4171833B2 (ja) 2002-03-19 2002-03-19 内視鏡誘導装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002075882A JP4171833B2 (ja) 2002-03-19 2002-03-19 内視鏡誘導装置および方法

Publications (2)

Publication Number Publication Date
JP2003265408A true JP2003265408A (ja) 2003-09-24
JP4171833B2 JP4171833B2 (ja) 2008-10-29

Family

ID=29204839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002075882A Expired - Fee Related JP4171833B2 (ja) 2002-03-19 2002-03-19 内視鏡誘導装置および方法

Country Status (1)

Country Link
JP (1) JP4171833B2 (ja)

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004089484A (ja) * 2002-08-30 2004-03-25 Olympus Corp 内視鏡装置
JP2005077831A (ja) * 2003-09-01 2005-03-24 Olympus Corp 工業用内視鏡装置及びこれを用いた検査方法
JP2005111081A (ja) * 2003-10-09 2005-04-28 Olympus Corp 内視鏡画像表示処理装置
JP2005131043A (ja) * 2003-10-29 2005-05-26 Olympus Corp 挿入支援システム
JP2005131319A (ja) * 2003-10-31 2005-05-26 Olympus Corp 挿入支援システム
JP2005131318A (ja) * 2003-10-31 2005-05-26 Olympus Corp 挿入シミュレーション装置
JP2005202791A (ja) * 2004-01-16 2005-07-28 Med Solution Kk 画像を生成する方法、装置およびプログラム
JP2005207237A (ja) * 2004-01-20 2005-08-04 Honda Motor Co Ltd 排気還流装置のリーク検出装置
JP2005278888A (ja) * 2004-03-29 2005-10-13 Olympus Corp 手技支援システム
JP2006129454A (ja) * 2004-09-13 2006-05-18 Canon Inc デジタル文書を変更する方法
JP2007159933A (ja) * 2005-12-15 2007-06-28 Hitachi Medical Corp 画像表示方法、プログラム、及び装置
WO2007129493A1 (ja) * 2006-05-02 2007-11-15 National University Corporation Nagoya University 医療画像観察支援装置
JP2008541859A (ja) * 2005-05-23 2008-11-27 ザ ペン ステイト リサーチ ファンデーション 3d−2d姿勢推定に基づく案内方法及び生の気管支鏡検査への応用を有する3d−ctレジストレーション
WO2008152938A1 (ja) * 2007-06-11 2008-12-18 Hitachi Medical Corporation 医用画像表示装置、医用画像表示方法及び医用画像表示プログラム
EP2123216A1 (en) * 2008-05-23 2009-11-25 Olympus Medical Systems Corporation Bronchoscope
JP2009279249A (ja) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp 医療機器
JP2009279251A (ja) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp 医療機器
JP2010253058A (ja) * 2009-04-24 2010-11-11 Tokyo Metropolitan Univ 医用画像処理装置及び方法
JP2011000173A (ja) * 2009-06-16 2011-01-06 Toshiba Corp 内視鏡検査支援システム
WO2012101888A1 (ja) 2011-01-24 2012-08-02 オリンパスメディカルシステムズ株式会社 医療機器
US20120203067A1 (en) * 2011-02-04 2012-08-09 The Penn State Research Foundation Method and device for determining the location of an endoscope
WO2012108085A1 (ja) * 2011-02-08 2012-08-16 オリンパスメディカルシステムズ株式会社 医療機器
JP2012165838A (ja) * 2011-02-10 2012-09-06 Nagoya Univ 内視鏡挿入支援装置
EP2109391A4 (en) * 2007-01-31 2012-10-31 Penn State Res Found METHOD AND APPARATUS FOR CONTINUOUS GUIDANCE OF ENDOSCOPY
JP2012527286A (ja) * 2009-05-18 2012-11-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 電磁追跡内視鏡システムのためのマーカーなし追跡の位置合わせおよび較正
JP2013517909A (ja) * 2010-01-28 2013-05-20 ザ ペン ステイト リサーチ ファンデーション 気管支鏡検査法ガイダンスに適用される画像ベースのグローバル登録
JP2014131551A (ja) * 2013-01-07 2014-07-17 Akira Takebayashi 内視鏡向けナビゲーション装置
WO2014141968A1 (ja) * 2013-03-12 2014-09-18 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2014183924A (ja) * 2013-03-22 2014-10-02 Advanced Telecommunication Research Institute International 脳活動測定装置および脳活動測定方法
WO2014132090A3 (en) * 2013-03-01 2014-10-23 Michael Paul Alexander Geissler Optical navigation & positioning system
WO2014171391A1 (ja) * 2013-04-15 2014-10-23 オリンパスメディカルシステムズ株式会社 内視鏡システム
JP2014226430A (ja) * 2013-05-24 2014-12-08 富士フイルム株式会社 画像表示装置および方法、並びにプログラム
US20150085092A1 (en) * 2012-03-29 2015-03-26 Panasonic Healthcare Co., Ltd. Surgery assistance device and surgery assistance program
JP2017055954A (ja) * 2015-09-16 2017-03-23 富士フイルム株式会社 内視鏡位置特定装置、方法およびプログラム
JP2017086917A (ja) * 2015-11-16 2017-05-25 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. Ct画像に対して局所的に適用される透過法
JP2017205582A (ja) * 2011-12-03 2017-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. プランニングシステム及び方法
CN109223177A (zh) * 2018-07-30 2019-01-18 艾瑞迈迪医疗科技(北京)有限公司 图像显示方法、装置、计算机设备和存储介质
KR20190024194A (ko) * 2017-08-31 2019-03-08 (주)레벨소프트 증강 현실을 이용한 의료 영상 처리 장치 및 의료 영상 처리 방법
CN109934934A (zh) * 2019-03-15 2019-06-25 广州九三致新科技有限公司 一种基于增强现实的医疗图像显示方法及装置
WO2019130868A1 (ja) * 2017-12-25 2019-07-04 富士フイルム株式会社 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム
JP2020014711A (ja) * 2018-07-26 2020-01-30 富士フイルム株式会社 検査支援装置、方法およびプログラム
WO2020059377A1 (ja) * 2018-09-20 2020-03-26 日本電気株式会社 位置推定装置、位置推定方法、及びコンピュータ読み取り可能な記録媒体
JPWO2019053935A1 (ja) * 2017-09-14 2020-04-02 株式会社島津製作所 放射線撮影装置
CN111278344A (zh) * 2017-11-01 2020-06-12 索尼公司 手术臂系统和手术臂控制系统
JP2020524579A (ja) * 2017-06-23 2020-08-20 オーリス ヘルス インコーポレイテッド 管腔ネットワーク内の医療装置の姿勢を特定するロボットシステム
CN112315582A (zh) * 2019-08-05 2021-02-05 罗雄彪 一种手术器械的定位方法、系统及装置
WO2021054360A1 (ja) * 2019-09-20 2021-03-25 Hoya株式会社 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置
US10970875B2 (en) 2018-07-13 2021-04-06 Fujifilm Corporation Examination support device, examination support method, and examination support program
CN112641514A (zh) * 2020-12-17 2021-04-13 罗雄彪 一种微创介入导航系统与方法
US11003946B2 (en) 2018-07-13 2021-05-11 Fujifilm Corporation Examination support device, examination support method, and examination support program
US11183295B2 (en) 2017-08-31 2021-11-23 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
WO2021250951A1 (ja) * 2020-06-08 2021-12-16 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
US20210393109A1 (en) * 2019-07-18 2021-12-23 Hoya Corporation Computer program and endoscope processor
CN115024679A (zh) * 2022-04-14 2022-09-09 中山大学孙逸仙纪念医院 可视化气管插管内镜导丝结构及其智能化模块的管理方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12048501B2 (en) 2019-04-03 2024-07-30 Canon Medical Systems Corporation Medical image diagnosis apparatus, surgery assistance robot apparatus, surgery assistance robot controlling apparatus, and controlling method

Cited By (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004089484A (ja) * 2002-08-30 2004-03-25 Olympus Corp 内視鏡装置
JP2005077831A (ja) * 2003-09-01 2005-03-24 Olympus Corp 工業用内視鏡装置及びこれを用いた検査方法
JP2005111081A (ja) * 2003-10-09 2005-04-28 Olympus Corp 内視鏡画像表示処理装置
JP2005131043A (ja) * 2003-10-29 2005-05-26 Olympus Corp 挿入支援システム
JP2005131319A (ja) * 2003-10-31 2005-05-26 Olympus Corp 挿入支援システム
JP2005131318A (ja) * 2003-10-31 2005-05-26 Olympus Corp 挿入シミュレーション装置
JP2005202791A (ja) * 2004-01-16 2005-07-28 Med Solution Kk 画像を生成する方法、装置およびプログラム
JP2005207237A (ja) * 2004-01-20 2005-08-04 Honda Motor Co Ltd 排気還流装置のリーク検出装置
JP2005278888A (ja) * 2004-03-29 2005-10-13 Olympus Corp 手技支援システム
US7940967B2 (en) 2004-03-29 2011-05-10 Olympus Corporation Medical procedure support system and method
JP2006129454A (ja) * 2004-09-13 2006-05-18 Canon Inc デジタル文書を変更する方法
JP2008541859A (ja) * 2005-05-23 2008-11-27 ザ ペン ステイト リサーチ ファンデーション 3d−2d姿勢推定に基づく案内方法及び生の気管支鏡検査への応用を有する3d−ctレジストレーション
JP2007159933A (ja) * 2005-12-15 2007-06-28 Hitachi Medical Corp 画像表示方法、プログラム、及び装置
WO2007129493A1 (ja) * 2006-05-02 2007-11-15 National University Corporation Nagoya University 医療画像観察支援装置
US8199984B2 (en) 2006-05-02 2012-06-12 National University Corporation Nagoya University System that assists in observing a luminal organ using the structure of the luminal organ
JPWO2007129493A1 (ja) * 2006-05-02 2009-09-17 国立大学法人名古屋大学 医療画像観察支援装置
EP2109391A4 (en) * 2007-01-31 2012-10-31 Penn State Res Found METHOD AND APPARATUS FOR CONTINUOUS GUIDANCE OF ENDOSCOPY
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
JP2008302100A (ja) * 2007-06-11 2008-12-18 Hitachi Medical Corp 医用画像表示装置及びプログラム
WO2008152938A1 (ja) * 2007-06-11 2008-12-18 Hitachi Medical Corporation 医用画像表示装置、医用画像表示方法及び医用画像表示プログラム
US8447082B2 (en) 2007-06-11 2013-05-21 Hitachi Medical Corporation Medical image displaying apparatus, medical image displaying method, and medical image displaying program
US8298135B2 (en) 2008-05-23 2012-10-30 Olympus Medical Systems Corp. Medical device with endoscope and insertable instrument
US8202213B2 (en) * 2008-05-23 2012-06-19 Olympus Medical Systems Corp. Medical device
EP2123216A1 (en) * 2008-05-23 2009-11-25 Olympus Medical Systems Corporation Bronchoscope
JP2009279251A (ja) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp 医療機器
JP2009279249A (ja) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp 医療機器
JP2009279250A (ja) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp 医療機器
JP2010253058A (ja) * 2009-04-24 2010-11-11 Tokyo Metropolitan Univ 医用画像処理装置及び方法
EP2433262B1 (en) * 2009-05-18 2016-07-27 Koninklijke Philips N.V. Marker-free tracking registration and calibration for em-tracked endoscopic system
JP2012527286A (ja) * 2009-05-18 2012-11-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 電磁追跡内視鏡システムのためのマーカーなし追跡の位置合わせおよび較正
JP2011000173A (ja) * 2009-06-16 2011-01-06 Toshiba Corp 内視鏡検査支援システム
JP2013517909A (ja) * 2010-01-28 2013-05-20 ザ ペン ステイト リサーチ ファンデーション 気管支鏡検査法ガイダンスに適用される画像ベースのグローバル登録
WO2012101888A1 (ja) 2011-01-24 2012-08-02 オリンパスメディカルシステムズ株式会社 医療機器
US20120203067A1 (en) * 2011-02-04 2012-08-09 The Penn State Research Foundation Method and device for determining the location of an endoscope
JPWO2012108085A1 (ja) * 2011-02-08 2014-07-03 オリンパスメディカルシステムズ株式会社 医療機器
WO2012108085A1 (ja) * 2011-02-08 2012-08-16 オリンパスメディカルシステムズ株式会社 医療機器
JP2012165838A (ja) * 2011-02-10 2012-09-06 Nagoya Univ 内視鏡挿入支援装置
US10758212B2 (en) 2011-12-03 2020-09-01 Koninklijke Philips N.V. Automatic depth scrolling and orientation adjustment for semi-automated path planning
JP2017205582A (ja) * 2011-12-03 2017-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. プランニングシステム及び方法
US20150085092A1 (en) * 2012-03-29 2015-03-26 Panasonic Healthcare Co., Ltd. Surgery assistance device and surgery assistance program
JP2014131551A (ja) * 2013-01-07 2014-07-17 Akira Takebayashi 内視鏡向けナビゲーション装置
EP3376250A1 (en) * 2013-03-01 2018-09-19 Mo-Sys Engineering Limited Optical navigation & positioning system
WO2014132090A3 (en) * 2013-03-01 2014-10-23 Michael Paul Alexander Geissler Optical navigation & positioning system
US10580153B2 (en) 2013-03-01 2020-03-03 Mo-Sys Engineering Limited Optical navigation and positioning system
US10275899B2 (en) 2013-03-01 2019-04-30 Mo-Sys Engineering Limited Optical navigation and positioning system
JP5718537B2 (ja) * 2013-03-12 2015-05-13 オリンパスメディカルシステムズ株式会社 内視鏡システム
CN104780826A (zh) * 2013-03-12 2015-07-15 奥林巴斯株式会社 内窥镜系统
US9326660B2 (en) 2013-03-12 2016-05-03 Olympus Corporation Endoscope system with insertion support apparatus
WO2014141968A1 (ja) * 2013-03-12 2014-09-18 オリンパスメディカルシステムズ株式会社 内視鏡システム
CN104780826B (zh) * 2013-03-12 2016-12-28 奥林巴斯株式会社 内窥镜系统
JP2014183924A (ja) * 2013-03-22 2014-10-02 Advanced Telecommunication Research Institute International 脳活動測定装置および脳活動測定方法
US9357945B2 (en) 2013-04-15 2016-06-07 Olympus Corporation Endoscope system having a position and posture calculating portion
WO2014171391A1 (ja) * 2013-04-15 2014-10-23 オリンパスメディカルシステムズ株式会社 内視鏡システム
CN104755009A (zh) * 2013-04-15 2015-07-01 奥林巴斯医疗株式会社 内窥镜系统
JP2014226430A (ja) * 2013-05-24 2014-12-08 富士フイルム株式会社 画像表示装置および方法、並びにプログラム
JP2017055954A (ja) * 2015-09-16 2017-03-23 富士フイルム株式会社 内視鏡位置特定装置、方法およびプログラム
JP2017086917A (ja) * 2015-11-16 2017-05-25 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. Ct画像に対して局所的に適用される透過法
JP7051286B2 (ja) 2015-11-16 2022-04-11 バイオセンス・ウエブスター・(イスラエル)・リミテッド Ct画像に対して局所的に適用される透過法
JP2020524579A (ja) * 2017-06-23 2020-08-20 オーリス ヘルス インコーポレイテッド 管腔ネットワーク内の医療装置の姿勢を特定するロボットシステム
US11759266B2 (en) 2017-06-23 2023-09-19 Auris Health, Inc. Robotic systems for determining a roll of a medical device in luminal networks
JP2022141792A (ja) * 2017-06-23 2022-09-29 オーリス ヘルス インコーポレイテッド 管腔ネットワーク内の医療装置の姿勢を特定するロボットシステム
US12295672B2 (en) 2017-06-23 2025-05-13 Auris Health, Inc. Robotic systems for determining a roll of a medical device in luminal networks
US11676706B2 (en) 2017-08-31 2023-06-13 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
US11183295B2 (en) 2017-08-31 2021-11-23 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
KR101977650B1 (ko) * 2017-08-31 2019-05-13 (주)레벨소프트 증강 현실을 이용한 의료 영상 처리 장치 및 의료 영상 처리 방법
KR20190024194A (ko) * 2017-08-31 2019-03-08 (주)레벨소프트 증강 현실을 이용한 의료 영상 처리 장치 및 의료 영상 처리 방법
US11751835B2 (en) 2017-09-14 2023-09-12 Shimadzu Corporation Radiographic imaging apparatus
CN111050648A (zh) * 2017-09-14 2020-04-21 株式会社岛津制作所 放射线摄影装置
JPWO2019053935A1 (ja) * 2017-09-14 2020-04-02 株式会社島津製作所 放射線撮影装置
CN111050648B (zh) * 2017-09-14 2024-02-20 株式会社岛津制作所 放射线摄影装置
CN111278344A (zh) * 2017-11-01 2020-06-12 索尼公司 手术臂系统和手术臂控制系统
CN111278344B (zh) * 2017-11-01 2023-09-05 索尼公司 手术臂系统和手术臂控制系统
WO2019130868A1 (ja) * 2017-12-25 2019-07-04 富士フイルム株式会社 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム
JPWO2019130868A1 (ja) * 2017-12-25 2020-12-10 富士フイルム株式会社 画像処理装置、プロセッサ装置、内視鏡システム、画像処理方法、及びプログラム
JP7050817B2 (ja) 2017-12-25 2022-04-08 富士フイルム株式会社 画像処理装置、プロセッサ装置、内視鏡システム、画像処理装置の動作方法及びプログラム
US10970875B2 (en) 2018-07-13 2021-04-06 Fujifilm Corporation Examination support device, examination support method, and examination support program
US11003946B2 (en) 2018-07-13 2021-05-11 Fujifilm Corporation Examination support device, examination support method, and examination support program
US10939800B2 (en) 2018-07-26 2021-03-09 Fujifilm Corporation Examination support device, examination support method, and examination support program
JP2020014711A (ja) * 2018-07-26 2020-01-30 富士フイルム株式会社 検査支援装置、方法およびプログラム
JP7071240B2 (ja) 2018-07-26 2022-05-18 富士フイルム株式会社 検査支援装置、方法およびプログラム
CN109223177A (zh) * 2018-07-30 2019-01-18 艾瑞迈迪医疗科技(北京)有限公司 图像显示方法、装置、计算机设备和存储介质
JP7040630B2 (ja) 2018-09-20 2022-03-23 日本電気株式会社 位置推定装置、位置推定方法、及びプログラム
US12082770B2 (en) 2018-09-20 2024-09-10 Nec Corporation Location estimation apparatus, location estimation method, and computer readable recording medium
JPWO2020059377A1 (ja) * 2018-09-20 2021-08-30 日本電気株式会社 位置推定装置、位置推定方法、及びプログラム
WO2020059377A1 (ja) * 2018-09-20 2020-03-26 日本電気株式会社 位置推定装置、位置推定方法、及びコンピュータ読み取り可能な記録媒体
CN109934934B (zh) * 2019-03-15 2023-09-29 广州九三致新科技有限公司 一种基于增强现实的医疗图像显示方法及装置
CN109934934A (zh) * 2019-03-15 2019-06-25 广州九三致新科技有限公司 一种基于增强现实的医疗图像显示方法及装置
US20210393109A1 (en) * 2019-07-18 2021-12-23 Hoya Corporation Computer program and endoscope processor
US11937767B2 (en) * 2019-07-18 2024-03-26 Hoya Corporation Endoscope
CN112315582B (zh) * 2019-08-05 2022-03-25 罗雄彪 一种手术器械的定位方法、系统及装置
CN112315582A (zh) * 2019-08-05 2021-02-05 罗雄彪 一种手术器械的定位方法、系统及装置
WO2021054360A1 (ja) * 2019-09-20 2021-03-25 Hoya株式会社 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置
JPWO2021054360A1 (ja) * 2019-09-20 2021-12-23 Hoya株式会社 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置
US12198258B2 (en) 2019-09-20 2025-01-14 Hoya Corporation Processor for endoscope, program, information processing method, and information processing device
JP2022105685A (ja) * 2019-09-20 2022-07-14 Hoya株式会社 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置
JP7096445B2 (ja) 2019-09-20 2022-07-05 Hoya株式会社 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置
CN113544743A (zh) * 2019-09-20 2021-10-22 Hoya株式会社 内窥镜用处理器、程序、信息处理方法和信息处理装置
CN113544743B (zh) * 2019-09-20 2024-03-12 Hoya株式会社 内窥镜用处理器、程序、信息处理方法和信息处理装置
JP7313512B2 (ja) 2019-09-20 2023-07-24 Hoya株式会社 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置
JP7377769B2 (ja) 2020-06-08 2023-11-10 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
WO2021250951A1 (ja) * 2020-06-08 2021-12-16 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
JP2021192746A (ja) * 2020-06-08 2021-12-23 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
US12277710B2 (en) 2020-06-08 2025-04-15 Hoya Corporation Program, information processing method, and information processing device
CN112641514A (zh) * 2020-12-17 2021-04-13 罗雄彪 一种微创介入导航系统与方法
CN115024679A (zh) * 2022-04-14 2022-09-09 中山大学孙逸仙纪念医院 可视化气管插管内镜导丝结构及其智能化模块的管理方法

Also Published As

Publication number Publication date
JP4171833B2 (ja) 2008-10-29

Similar Documents

Publication Publication Date Title
JP4171833B2 (ja) 内視鏡誘導装置および方法
US10881353B2 (en) Machine-guided imaging techniques
US9498132B2 (en) Visualization of anatomical data by augmented reality
Li et al. Image-guided navigation of a robotic ultrasound probe for autonomous spinal sonography using a shadow-aware dual-agent framework
TW202333631A (zh) 註冊二維影像資料組與感興趣部位的三維影像資料組的方法及導航系統
CN111588467B (zh) 基于医学影像的三维空间坐标转换为影像二维坐标的方法
WO2014117806A1 (en) Registration correction based on shift detection in image data
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
JP6967983B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7635469B2 (ja) 探索画像を用いた術前ボリューム画像データの自動記録
US20250127572A1 (en) Methods and systems for planning a surgical procedure
WO2001057805A2 (en) Image data processing method and apparatus
CN111445575A (zh) 威利斯环的图像重建方法、装置、电子设备、存储介质
US7010175B2 (en) Method and apparatus for matching at least one visualized medical measured result with at least one further dataset containing spatial information
CN118660677A (zh) 用于对一个或多个解剖元素进行配准的系统
CN109350059A (zh) 用于肘部自动对准的组合的转向引擎和界标引擎
CN107260305A (zh) 计算机辅助微创手术系统
US20220183759A1 (en) Determining a surgical port for a trocar or laparoscope
CN118365683A (zh) 一种基于多模态影像的影像配准融合方法
CN116457831B (zh) 用于生成虚拟图像的系统和方法
CN116831729A (zh) 一种手术机器人内窥镜视野下器械提示方法及系统
JP7495216B2 (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
US20220096165A1 (en) Interventional device tracking
CN111743628A (zh) 一种基于计算机视觉的自动穿刺机械臂路径规划的方法
EP4571645A1 (en) Determining a location at which a given feature is represented in medical imaging data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20020416

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20020319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20020416

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20020416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050316

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080415

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080612

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080725

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees