WO2019187449A1 - Image processing device and image processing program - Google Patents
Image processing device and image processing program Download PDFInfo
- Publication number
- WO2019187449A1 WO2019187449A1 PCT/JP2018/048206 JP2018048206W WO2019187449A1 WO 2019187449 A1 WO2019187449 A1 WO 2019187449A1 JP 2018048206 W JP2018048206 W JP 2018048206W WO 2019187449 A1 WO2019187449 A1 WO 2019187449A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- medical
- image processing
- processing apparatus
- tooth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/24—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/51—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C19/00—Dental auxiliary appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C19/00—Dental auxiliary appliances
- A61C19/04—Measuring instruments specially adapted for dentistry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61C—DENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
- A61C5/00—Filling or capping teeth
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
Definitions
- the present invention relates to an image processing apparatus and an image processing program.
- the tooth image is, for example, a cross-sectional image taken by an X-ray CT (Computed Tomography) apparatus, a 3D image created from CT data, or a virtual endoscopic image created from CT data. Also good.
- the tooth image may be a dental image or a panoramic image taken by an X-ray imaging apparatus.
- the microscope 2 a conventionally known microscope for dental surgery can be used.
- the dentist looks directly into the eyepiece part of the microscope and a case where the camera is attached to the eyepiece part side of the microscope.
- a camera is attached to the microscope 2 for use. An output signal from this camera is output to the image processing apparatus 1.
- the dentist may look directly into the eyepiece of the microscope or may not use the microscope. In such a case, there is no input signal from the microscope 2 to the image processing apparatus 1.
- the place where such a detection means 3 is installed may be an arbitrary place such as a wall, a desk, or a dental unit in an examination room of a dental clinic.
- the detection means 3 may be attached to a patient chair 31, for example.
- the detection means 3 composed of a reflective sensor is disposed at a position corresponding to the position below the backrest and a position corresponding to the position below the armrest.
- the detection means 3 may detect the human body (operator) itself, or may detect the position of the foot controller 34, for example. This is because when the surgeon uses the foot controller 34, the foot controller 34 is installed in a range where his / her feet can reach at his / her medical position.
- the input unit 4 inputs information necessary for control such as processing performed by the image processing apparatus 1 and setting of a tomogram displayed on the display unit 5, and is a device such as a keyboard or a mouse.
- the display means 5 displays a tooth image or the like, and is, for example, a liquid crystal display.
- windows, icons, buttons, and the like are displayed by a GUI (Graphical User Interface), and the operator performs an operation of selecting them with the input means 4 such as a mouse. It can be performed.
- GUI Graphic User Interface
- the microscope image input means 11 is a predetermined interface for inputting a microscope image transmitted from a camera (not shown) attached to the microscope 2.
- the microscope image is a moving image and is displayed on the display unit 5 by the display control unit 13.
- FIG. 4 is a schematic diagram showing an example of a screen displayed in the case of the 9 o'clock position, which is the second position, as an example.
- the shape of the mark image 50 is not particularly limited as long as it can indicate the medical treatment position of the operator, and may be, for example, a triangle, a quadrangle, a polygon, a circle, an ellipse, or the like.
- the mark image 50 has the shape of an arrow and is an image showing the line of sight of the operator. That is, the base end portion of the arrow indicates the medical treatment position, and the tip end portion of the arrow indicates the point of the operator's line of sight.
- the mark image 50 is an image showing the surgeon's line-of-sight direction, the surgeon can intuitively recognize the orientation of the tooth image on which the mark image 50 is superimposed.
- the tooth image on which the mark image 50 is superimposed may be an image acquired by the microscope 2. That is, the mark image 50 may be superimposed on the microscope image.
- the mark image 50 may be superimposed on the microscope image.
- one tooth of the CT image of the tooth is enlarged and displayed with a high-magnification microscope image. Is displayed.
- a microscope image with a high magnification reduces the field of view of the microscope by the amount of enlargement.
- FIG. 6C is a schematic diagram in the case where the medical treatment position of the operator D is 12:00 and the image of the sagittal section S (sagittal image) on the tooth of the patient P is referred to.
- FIG. 6D is a schematic diagram in the case where the medical treatment position of the operator D is 9 o'clock and an image of the axial section A (axial image) and coronal image of the tooth of the patient P is referred to.
- the orientation of the image to be referred to during the treatment matches the orientation of the tooth actually observed during the treatment. Is less burdensome for image reading and reading errors are less likely to occur.
- the orientation of the image referred to during the treatment and the orientation of the tooth actually observed during the treatment do not coincide with each other. It is easy to feel a burden in reading the image, and a reading mistake is likely to occur. According to this embodiment, especially in the case of FIG. 6C and FIG. 6D, the effect of preventing the reading error of the tooth image is great.
- the tooth root appears to be bent to the right on the image. If there is no information such as a mark image, the patient's treatment tooth root tends to be bent to the right, but this image may be an image indicating that this image is bent to the front or back. . In such a case, there is a possibility that the root canal is damaged due to a misunderstanding, for example, when a therapeutic device such as a file is stuck in an unexpected direction.
- reading the tooth image is supported by displaying the mark image 50 superimposed on the tooth image. Therefore, an operator who performs treatment while checking the tooth image can reduce the burden of reading the tooth image and improve the success rate of the treatment.
- the reading load is reduced, for example, for example, setting of the medical location of each of a plurality of surgeons.
- the medical treatment position 25 (see FIG. 1), which is the processing result of the processing means 10, is information in which, for example, information for identifying the surgeon and the medical treatment position of the surgeon are associated with each other.
- the information for identifying the surgeon may be information that can identify an individual such as a name.
- the surgeon inputs information for identifying the surgeon.
- the mark image 50 can be displayed at a position corresponding to each medical treatment position following the change of the operator.
- the medical care position setting unit 12 sets the medical care position in association with at least one of an operator, a patient, and a treatment type.
- the arrow-shaped mark image 50 has been described in the example of the screen displayed when the surgeon's medical position is the second position at 9 o'clock.
- the present invention is not limited to this.
- the surgeon's medical position is the 12:00 position which is the first position
- the arrow-shaped mark image 50 is displayed in the orientation shown in FIG.
- FIG. 8 shows a modification of the screen display example of FIG.
- the orientation of the image (coronal image) displayed in the window 42 is the same as the orientation of the patient that the operator is viewing in front. Therefore, the surgeon's line-of-sight direction may be represented by a white arrow shown in FIG.
- the arrow-shaped mark image 50 shows the surgeon's line-of-sight direction. The inside is upward.
- the X-ray image on which the mark image is superimposed and the plurality of teeth are displayed is not limited to the axial image, and may be a coronal image or a sagittal image, for example. Furthermore, it is an image which superimposes a mark image, Comprising: The image of several teeth and dentition is not restricted to a cross-sectional image, A 3D image and CG image may be sufficient.
- the head mounted display may be a non-transmissive type, for example, so-called VR (Virtual Reality) goggles may be used.
- the VR goggles allow a user wearing this apparatus to experience VR, AR (Augmented Reality), or MR (Mixed Reality).
- the VR goggles may be of a type in which a mobile with a camera such as a smartphone is mounted, in addition to a type that includes a camera for photographing the outside world in advance.
- the VR goggles camera can project the outside view through the camera on the display that the user wearing it observes. According to this, the information acquired from the VR goggles camera and the X-ray image showing the treatment position of the surgeon can be displayed together.
- the user wearing the head mounted display may be a dental hygienist, a dental assistant, or the like in addition to a dentist.
- the head-mounted display (display means 5) can also be used as the detection means 3. Therefore, for example, using a head-mounted display capable of detecting the gaze direction as a modification of the form of inputting the medical position without arranging the detection means 3 such as a sensor in the medical room, the manual input is troublesome. From the viewpoint that it can be omitted, it is preferable for the operator.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Optics & Photonics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Epidemiology (AREA)
- High Energy & Nuclear Physics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
- Endoscopes (AREA)
Abstract
Description
本発明は、画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.
歯科において、表示部に根管長測定画面と同時に歯牙のX線画像を表示した上で、術者が歯牙のX線画像をチェックしながら根管治療を行うことが特許文献1に記載されている。このように根管治療を行うときに表示部に歯牙の画像を表示することで、術者は治療歯の内部情報を容易に把握することができる。
しかしながら、術者が診療の際にどのような向きで患者に接するかによって治療歯の見え方は異なっている。そのため、歯牙の画像を確認しながら治療を行う場合、術者は、自分の診療位置を考慮しなければ、歯牙の画像の読み取りミスが生じる虞がある。したがって、歯牙の画像を確認しながら治療を行う術者にとっては、歯牙の画像を正確に読み取ることが負担となる。 However, the appearance of the treated tooth differs depending on the orientation of the surgeon in contact with the patient during medical treatment. Therefore, when performing treatment while checking the tooth image, the surgeon may cause a reading error of the tooth image unless his / her medical position is considered. Therefore, it is a burden for an operator who performs treatment while checking a tooth image to accurately read the tooth image.
そこで、本発明は、前記問題点に鑑みてなされたものであり、治療中に術者に参照される歯牙の画像の読み取りを支援することのできる画像処理装置および画像処理プログラムを提供することを課題とする。 Therefore, the present invention has been made in view of the above problems, and provides an image processing apparatus and an image processing program capable of supporting reading of a tooth image referred to by an operator during treatment. Let it be an issue.
前記課題を解決するため、本発明に係る画像処理装置は、術者の診療位置を設定する診療位置設定手段と、歯牙の画像を表示手段に表示させると共に、前記診療位置を示すマーク画像を前記歯牙の画像に重畳するように前記表示手段に表示させる表示制御手段と、を備える。 In order to solve the above problems, an image processing apparatus according to the present invention displays a medical treatment position setting unit for setting a medical treatment position of an operator, a tooth image on a display unit, and a mark image indicating the medical treatment position. Display control means for displaying on the display means so as to be superimposed on a tooth image.
本発明によれば、治療中に術者に参照される歯牙の画像の読み取りを支援することができる。したがって、本発明によれば、治療中に術者による歯牙の画像の読み取り負担を軽減し、読み取りミスを防止することができる。 According to the present invention, it is possible to support reading of a tooth image referred to by an operator during treatment. Therefore, according to the present invention, it is possible to reduce a burden of reading an image of a tooth by an operator during treatment, and to prevent a reading error.
以下、図面を参照して本発明の実施形態に係る画像処理装置について詳細に説明する。
図1は、本発明の実施形態に係る画像処理装置の構成を模式的に示すブロック図である。
画像処理装置1は、例えば、一般的なコンピュータで実現することができ、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、ROM(Read Only Memory)と、HDD(Hard Disk Drive)と、入力/出力インタフェースとを含んで構成されている。このコンピュータには、3次元CTデータ21からX線CTの各断層画像や3D画像を生成して表示する画像表示プログラムや、術者の診療位置を歯牙の画像に重畳する動作プログラムがインストールされている。なお、歯牙の画像は、例えばX線CT(Computed Tomography)装置により撮影された断面画像、CTデータから作成された3D画像、または、CTデータから作成された仮想的な内視鏡画像であってもよい。また、歯牙の画像は、X線撮影装置により撮影されたデンタル画像、または、パノラマ画像であってもよい。
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram schematically showing the configuration of an image processing apparatus according to an embodiment of the present invention.
The
画像処理装置1には、例えば、マイクロスコープ2、検出手段3、入力手段4および表示手段5が接続されている。
The
マイクロスコープ2は、従来公知の歯科手術用マイクロスコープを用いることができる。マイクロスコープの使用形態としては、歯科医師がマイクロスコープの接眼部を直接的に覗いて使用する場合と、マイクロスコープの接眼部側にカメラを取り付けて使用する場合がある。本実施形態では、一例としてマイクロスコープ2にカメラを取り付けて使用するものとしている。このカメラからの出力信号は、画像処理装置1に出力される。なお、歯科医師の治療方針によっては、歯科医師がマイクロスコープの接眼部を直接的に覗いて使用する場合や、マイクロスコープを使用しない場合もある。そのような場合、マイクロスコープ2から画像処理装置1への入力信号はない。
As the
検出手段3は、術者の診療位置を検出するものである。検出手段3は、例えば、センサやカメラである。センサとしては、一般的な人感センサを用いることができる。人感センサは、赤外線、超音波、可視光等を用いて人間の所在を検知するためのセンサである。人感センサは、反射型でも透過型でも構わない。検出手段3が、例えば赤外線を用いた反射型のセンサである場合、センサの投光素子から投光された赤外線が、人体(術者)によって反射し、センサの受光素子に到達することで術者を検出することができる。 Detecting means 3 detects the operator's medical position. The detection means 3 is, for example, a sensor or a camera. A general human sensor can be used as the sensor. The human sensor is a sensor for detecting a human location using infrared rays, ultrasonic waves, visible light, or the like. The human sensor may be a reflection type or a transmission type. When the detection means 3 is, for example, a reflective sensor using infrared light, the infrared light projected from the light projecting element of the sensor is reflected by the human body (operator) and reaches the light receiving element of the sensor. Person can be detected.
このような検出手段3を設置する場所は、歯科医院の診察室の壁、机、歯科用ユニット等任意の個所で構わない。図2に示すように、検出手段3を、例えば患者用椅子31に取り付けてもよい。ここでは、患者用椅子31の基台において、背もたれの下に相当する個所と、肘掛けの下に相当する個所に、それぞれ反射型のセンサからなる検出手段3を配設している。検出手段3は、人体(術者)そのものを検出してもよいし、例えばフットコントローラ34の位置を検出しても構わない。術者がフットコントローラ34を使用する場合、自分の診療位置において、フットコントローラ34を自分の足が届く範囲に設置するからである。
The place where such a detection means 3 is installed may be an arbitrary place such as a wall, a desk, or a dental unit in an examination room of a dental clinic. As shown in FIG. 2, the detection means 3 may be attached to a
検出手段3が透過型のセンサである場合、投光素子と受光素子とを別体にして、受光素子を、患者用椅子31の基台において、背もたれの下に相当する個所と、肘掛けの下に相当する個所に、それぞれを配設してもよい。この場合、投光素子を、診察室の壁や机など固定された箇所に配設しておき、光が遮られることで、術者の診療位置を検出することができる。
When the detecting means 3 is a transmissive sensor, the light projecting element and the light receiving element are separated from each other, and the light receiving element is located on the base of the
検出手段3がカメラである場合、カメラの種類は特に限定されない。一般的な可視光カメラであってもよいし、赤外線カメラであってもよい。カメラの設置場所は、歯科用ユニット32の術者用ハンガー、アシスタント用ハンガー、アーム部、図示しない柱状のスタンドや無影灯、または術者用の椅子33に設置してもよい。また、カメラ用マーカを、術者の診療位置に対応した位置、例えば背もたれの下や肘掛けの下等の固定された位置に設置しておくことが好ましい。これにより、カメラ用マーカを術者と共に検出することで、術者の診療位置を検出することができる。
When the detection means 3 is a camera, the type of camera is not particularly limited. A general visible light camera or an infrared camera may be used. The camera may be installed on the surgeon's hanger, assistant hanger, arm, columnar stand or surgical light (not shown), or the operator's
図1に戻って、画像処理装置1の構成の説明を続ける。
入力手段4は、画像処理装置1で行う処理や、表示手段5に表示する断層の設定など制御のために必要な情報を入力するものであり、例えばキーボードやマウス等のデバイスである。表示手段5は、歯牙の画像等を表示するものであり、例えば、液晶ディスプレイ等である。画像処理装置1に接続された表示手段5の画面上には、GUI(Graphical User Interface)により、ウィンドウ、アイコン、ボタン等が表示され、操作者はそれらをマウス等の入力手段4で選択する操作を行うことができる。
Returning to FIG. 1, the description of the configuration of the
The
画像処理装置1は、処理手段10と、記憶手段20と、を備えている。
記憶手段20は、画像処理に用いる各種データ、処理結果、画像表示プログラム、術者の診療位置を歯牙の画像に重畳する動作プログラム等を記憶するものである。記憶手段20は、例えば磁気ディスク、光ディスク、一般的な画像メモリ等から構成される。
図1では、一例として、記憶手段20は、3次元CTデータ21と、デンタル画像22と、パノラマ画像23と、仮想内視鏡画像24と、を記憶している。なお、診療位置25は、処理手段10の処理結果として得られた情報である。
The
The storage means 20 stores various data used for image processing, processing results, an image display program, an operation program for superimposing a surgeon's medical position on a tooth image, and the like. The storage means 20 is composed of, for example, a magnetic disk, an optical disk, a general image memory, and the like.
In FIG. 1, the storage means 20 has memorize | stored the three-
3次元CTデータ21は、コーンビームを用いる歯科用CT(CBCT:Cone-Beam Computed Tomography)による撮影により得られた3次元データ(ボリュームデータ)に基づいている。このボリュームデータは、例えば512×512×512個のボクセルに分けられる。そして、3次元CTデータ21は、各ボクセルの画素値を計算して画像を再構成したデータである。この3次元CTデータ21としては、例えば、各ボクセルの画素値が予め計算されているデータを事前に入力しておく。
The three-
デンタル画像22は、口腔内の一部の歯牙を撮影するデンタル撮影により取得されたX線画像である。
パノラマ画像23は、歯全体を撮影するパノラマ撮影により取得されたX線画像である。
仮想内視鏡画像24は、CTデータから、CG(Computer Graphics)により作成された画像である。
The
The
The virtual
処理手段10は、マイクロスコープ画像入力手段11と、診療位置設定手段12と、表示制御手段13と、を備えている。なお、処理手段10は、例えば、記憶手段20に格納されたプログラムをCPUがRAMに展開し実行することにより実現される。
以下、各手段について詳細に説明する。
The
Hereinafter, each means will be described in detail.
マイクロスコープ画像入力手段11は、マイクロスコープ2に取り付けられた図示しないカメラから伝送されてくるマイクロスコープ画像を入力する所定のインタフェースである。マイクロスコープ画像は動画であり、表示制御手段13によって表示手段5に表示される。
The microscope image input means 11 is a predetermined interface for inputting a microscope image transmitted from a camera (not shown) attached to the
診療位置設定手段12は、術者の診療位置を設定するものである。ここで、術者の診療位置とは、患者を囲む360°方向のいずれかの方向を示す。例えば、図2の検出手段3を備える患者用椅子31の形状が丸みを帯びている場合、1つのセンサ(検出手段3)によって、患者周囲の180°の区域であればどこにでも、術者の診療位置を設定することができる。また、検出手段3がカメラである場合、患者周囲のいずれの方向であっても術者の診療位置を設定することができる。
歯科では、術者の診療位置を、時計の針の位置で示す方式が採用されることがある。この方式に対応させると、術者の診療位置とは、例えば、9時の位置、10時の位置、11時の位置、12時の位置等、どの位置でもよい。以下では、術者の診療位置として代表的な2つの位置を例示して説明する。第1位置は12時のポジションのことであり、第2位置は9時のポジションのことである。以下、第1位置や第2位置のことを、適宜、12時のポジションや9時のポジションと呼称する場合もある。
The medical care position setting means 12 is for setting the medical care position of the surgeon. Here, the operator's medical position indicates any direction of 360 ° surrounding the patient. For example, when the shape of the
In dentistry, a method in which the operator's medical position is indicated by the position of a clock hand may be employed. Corresponding to this method, the operator's medical position may be any position such as 9 o'clock position, 10 o'clock position, 11 o'clock position, 12 o'clock position, and the like. Below, two typical positions will be described as an example of the surgeon's medical position. The first position is the 12 o'clock position and the second position is the 9 o'clock position. Hereinafter, the first position and the second position may be appropriately referred to as a 12 o'clock position or a 9 o'clock position.
診療位置設定手段12は、例えば患者の頭頂側であることを示す第1位置と、患者の頬側であることを示す第2位置と、のいずれか一方を術者の診療位置として設定するようにしてもよい。図3(a)は、第1位置で患者Pを診療中の術者Dの一例を示す図である。図3(b)は、第2位置で患者Pを診療中の術者Dの一例を示す図である。 The medical care position setting means 12 sets, for example, one of a first position indicating the patient's parietal side and a second position indicating the patient's cheek side as the operator's medical position. It may be. FIG. 3A is a diagram illustrating an example of an operator D who is currently treating a patient P at the first position. FIG. 3B is a diagram illustrating an example of an operator D who is currently treating a patient P at the second position.
本実施形態では、診療位置設定手段12は、一例として、術者の診療位置を検出する検出手段3から検出信号を取得することで診療位置を設定することとした。つまり、診療位置設定手段12は、自動で診療位置を設定する。
In this embodiment, as an example, the medical
表示制御手段13は、歯牙の画像を表示手段5に表示させるものである。表示制御手段13は、例えば、3次元CTデータ21を読み込み、CTの断層画像を構築し、表示手段5に表示させる。表示制御手段13は、診療位置を示すマーク画像を歯牙の画像に重畳するように表示手段5に表示させる。なお、自動検出の場合、診療位置を途中で変更した場合、変更に伴って、マーク画像の表示も変更される。
The display control means 13 displays a tooth image on the display means 5. The display control means 13 reads, for example, the three-
ここで、画面表示の一例について図4を参照して説明する。この例では、表示手段5の画面に、X線画像用のウィンドウ41~43と、オプション画像用のウィンドウ44~46と、を同時に表示した状態を模式的に示している。ただし、これらのウィンドウを個別に表示しても構わない。
Here, an example of the screen display will be described with reference to FIG. In this example, a state in which
ウィンドウ41には、アキシャル(軸位断、横断)画像が表示される。ウィンドウ42には、コロナル(冠状断、前額断)画像が表示される。ウィンドウ43には、サジタル(矢状断)画像が表示される。なお、ここでは、アキシャル画像にだけ、直交する2つの直線を表示し、他の画像では省略しているが、CT画像のビューワでは、一般的に、それぞれの画像に断層位置を示す直線が表示される。これらの直線の位置や角度を変更することにより、目的とする断層の抽出を簡単に行うことができる。
In the
ウィンドウ44には、3D画像(3次元画像)が表示される。ここでは、3次元CTデータ21から作成した歯牙の3D画像を表示している。なお、表示制御手段13は、3D画像を歯牙のX線画像と並べて表示することができる。ここで、3D画像とは、CTBTのコーンビームが照射される領域に含まれる歯牙の画像であればよい。例えば、ビームの照射範囲内に含まれる患者の頭部、上顎全体、下顎全体、複数の歯牙、あるいは単独の歯牙をレンダリングしたそれぞれの画像であってもよい。また、レンダリング処理としては、例えば、ボリュームレンダリング処理(volume rendering)や、サーフェイスレンダリング処理(surface rendering)等であっても構わない。
In the
ウィンドウ41~44では、歯牙の画像にマーク画像50が重畳されている。図4は、一例として、第2の位置である9時のポジションの場合に表示される画面例を示す模式図である。マーク画像50は、術者の診療位置を示すことができれば、その形状は特に限定されず、例えば、三角形、四角形、多角形、円、楕円等であってもよい。本実施形態では、マーク画像50は、矢印の形状であって、術者の視線方向を示す画像であることとした。すなわち、矢印の基端部が診療位置を示し、矢印の先端部が術者の視線の先を示している。このように、マーク画像50が術者の視線方向を示す画像であると、術者は、マーク画像50が重畳された歯牙の画像の向きを直感的に認識することができる。
In the
ウィンドウ45には、仮想内視鏡画像24が表示される。仮想内視鏡画像24は、3次元CTデータ21からCGで作成した3D画像である。ここで、破線の2つの円は、それぞれ根管を示している。これによれば、実際の内視鏡を診療に用いていなくても、表示制御手段13は、3次元CTデータ21を用いることで、あたかも内視鏡で撮影されたかのような歯牙の内部構造を立体的な画像として提示することができる。なお、表示制御手段13は、仮想内視鏡画像24を、歯牙のX線画像と並べて表示することができる。
In the
カメラが接続されたマイクロスコープ2を診療に用いる場合、ウィンドウ46には、マイクロスコープ画像が表示される。なお、表示制御手段13は、マイクロスコープ2によって取得された歯牙のマイクロスコープ画像を、歯牙のX線画像と並べて表示することができる。
When the
図4は、それぞれマーク画像50が重畳された歯牙の画像を同時に表示した画面表示例を示している。このようにマーク画像50が重畳される歯牙の画像は、X線撮影により取得された画像や3次元CTデータ21から作成された画像であってもよい。ここで、X線撮影により取得された画像には、図1に示すデンタル画像22、パノラマ画像23や、CT断層画像を含む。また、CT断層画像には、サジタル画像、コロナル画像、および、アキシャル画像が含まれる。また、3次元CTデータ21から作成された画像には、歯牙の3D画像(3次元画像)や、仮想内視鏡画像24を含む。
FIG. 4 shows a screen display example in which the tooth images on which the
すなわち、マーク画像50が重畳される歯牙の画像は、デンタル画像22、パノラマ画像23、CT断層画像、3次元CTデータ21から作成された3次元画像、3次元CTデータ21から作成された仮想内視鏡画像24からなる群から選択される少なくとも1種を含むことが好ましい。
That is, the tooth image on which the
さらに、マーク画像50が重畳される歯牙の画像は、マイクロスコープ2によって取得された画像であっても構わない。すなわち、マイクロスコープ画像に、マーク画像50を重畳してもよい。例えば歯牙のCT画像をチェックしながら根管治療を行う際に、カメラが接続されたマイクロスコープ2を用いる場合、通常、歯牙のCT画像の1歯を拡大表示すると共に、高倍率のマイクロスコープ画像を表示している。このような場合、肉眼で見る画像とは異なり、高倍率のマイクロスコープ画像では、画像が拡大される分だけ顕微鏡の視野が狭くなってしまう。そして、表示されたマイクロスコープ画像を観察する術者にとっては、視野が狭いことによって情報が絞られることから、患者の顔の向きや自分の診療位置といった相対的に大きな位置関係に混乱を生じやすくなる。しかし、マイクロスコープ画像にマーク画像50を重畳表示すれば歯牙の画像の読み取りが支援される。これにより、術者が高倍率のマイクロスコープ画像を観察しながら手術を行っている場合でも歯牙の画像の読み取りミスを防止することができる。
Furthermore, the tooth image on which the
次に、画像処理装置1による処理の流れについて図5を参照(適宜、図1参照)して説明する。ここでは、歯牙の画像の一例をCTの断面画像であるものとして説明する。まず、画像処理装置1は、操作者の操作にしたがって、表示制御手段13によって、3次元CTデータ21を読み込む(ステップS1)。なお、ここでは、3次元CTデータ21を画像処理装置1の内部の記憶手段20から表示制御手段13によって、読み込むこととしたが、3次元CTデータ21を外部のCT装置から読み込むこととしてもよい。
Next, the flow of processing by the
次に、例えば、操作者が、入力手段4によって、所定の断層を指定することで、画像処理装置1は、表示制御手段13によって、表示手段5に歯牙の画像を表示させる(ステップS2)。具体的には、操作者は、例えば、上顎の全歯や下顎の全歯を一覧するアキシャル画像から、治療対象の歯(治療歯)として1歯を指定する。アキシャル画像は、歯牙の水平方向の断面画像である。なお、指定された歯の位置を示す座標については、アキシャル画像-サジタル画像間のように各断層画像間で各々の座標をマッチングさせることができる。操作者は、例えば、アキシャル画像上で、入力手段4によって、所望の断層位置を指定する。これにより、指定された断層位置に対応したサジタル画像またはコロナル画像を表示させ、その断層画像において関心領域を指定したりすることも可能である。
Next, for example, when the operator designates a predetermined slice using the
次に、検出手段3が、術者の診療位置を検出した信号を画像処理装置1に出力する。これにより、画像処理装置1は、診療位置設定手段12によって、術者の診療位置を設定する(ステップS3)。そして、表示手段5は、X線画像に診療位置を示すマーク画像50を重畳表示する(ステップS4)。なお、本実施形態のように検出手段3を用いる場合、診療位置を設定するステップ(ステップS3)の順序は、任意である。
Next, the detection means 3 outputs a signal indicating the operator's medical position to the
ここで、前記ステップS4の詳細として、術者の診療位置と、患者の歯牙のCT断層画像との関係について図6(a)~図6(d)を参照して説明する。
図6(a)は、術者Dの診療位置が12時のポジションであって、患者Pの歯牙におけるアキシャル断面Aの画像(アキシャル画像)やコロナル画像を参照する場合の模式図である。
図6(b)は、術者Dの診療位置が9時のポジションであって、患者Pの歯牙におけるサジタル断面Sの画像(サジタル画像)を参照する場合の模式図である。
図6(c)は、術者Dの診療位置が12時のポジションであって、患者Pの歯牙におけるサジタル断面Sの画像(サジタル画像)を参照する場合の模式図である。
図6(d)は、術者Dの診療位置が9時のポジションであって、患者Pの歯牙におけるアキシャル断面Aの画像(アキシャル画像)やコロナル画像を参照する場合の模式図である。
Here, as the details of step S4, the relationship between the operator's medical position and the CT tomographic image of the patient's teeth will be described with reference to FIGS. 6 (a) to 6 (d).
FIG. 6A is a schematic diagram in the case where the medical treatment position of the operator D is 12:00 and the image of the axial cross section A (axial image) and the coronal image on the teeth of the patient P are referred to.
FIG. 6B is a schematic diagram in the case where the medical treatment position of the operator D is 9 o'clock and an image (sagittal image) of the sagittal section S in the tooth of the patient P is referred to.
FIG. 6C is a schematic diagram in the case where the medical treatment position of the operator D is 12:00 and the image of the sagittal section S (sagittal image) on the tooth of the patient P is referred to.
FIG. 6D is a schematic diagram in the case where the medical treatment position of the operator D is 9 o'clock and an image of the axial section A (axial image) and coronal image of the tooth of the patient P is referred to.
例えばX線画像がアキシャル画像やコロナル画像であって、術者Dが12時のポジションにいる場合(図6(a)参照)には、術者Dは、このX線画像を自然に認識することができる。ただし、術者Dが9時のポジションを診療位置にしている場合(図6(d)参照)、従来技術では、注意が必要である。一方、本実施形態では、表示制御手段13は、設定された診療位置25(図1参照)に基づいて、現在の診療位置を示すマーク画像50を歯牙の画像に重畳するように表示手段5に表示させる。これにより、表示手段5は、このX線画像(アキシャル画像やコロナル画像)に診療位置を示すマーク画像50を重畳表示する。
For example, when the X-ray image is an axial image or a coronal image and the surgeon D is at the 12 o'clock position (see FIG. 6A), the surgeon D naturally recognizes the X-ray image. be able to. However, when the surgeon D is at the 9 o'clock position (see FIG. 6D), caution is required in the conventional technique. On the other hand, in the present embodiment, the
一方、例えばX線画像がサジタル画像である場合、術者Dが9時のポジションにいる場合(図6(b)参照)には、術者Dは、このX線画像を自然に認識することができる。ただし、術者Dが12時のポジションを診療位置にしている場合(図6(c)参照)、従来技術では、注意が必要である。一方、本実施形態では、表示制御手段13は、設定された診療位置25(図1参照)に基づいて、現在の診療位置を示すマーク画像50を歯牙の画像に重畳するように表示手段5に表示させる。これにより、表示手段5は、このX線画像(サジタル画像)に診療位置を示すマーク画像50を重畳表示する。
On the other hand, for example, when the X-ray image is a sagittal image, when the operator D is at the 9 o'clock position (see FIG. 6B), the operator D recognizes the X-ray image naturally. Can do. However, when the surgeon D is at the 12 o'clock position as the medical position (see FIG. 6C), caution is required in the prior art. On the other hand, in the present embodiment, the
まとめると、図6(a)、図6(b)の場合、治療中に参照する画像の向きと、治療中に実際に観察している歯牙の向きとが一致しているので、術者Dは、画像の読み取りに負担を感じにくく、読み取りミスも生じにくい。一方、図6(c)、図6(d)の場合、治療中に参照する画像の向きと、治療中に実際に観察している歯牙の向きとが一致していないので、術者Dは、画像の読み取りに負担を感じやすく、読み取りミスも生じやすい。本実施形態によれば、特に、図6(c)、図6(d)の場合に、歯牙の画像の読み取りミスを防止する効果が大きい。 In summary, in the case of FIGS. 6 (a) and 6 (b), the orientation of the image to be referred to during the treatment matches the orientation of the tooth actually observed during the treatment. Is less burdensome for image reading and reading errors are less likely to occur. On the other hand, in the case of FIG. 6C and FIG. 6D, the orientation of the image referred to during the treatment and the orientation of the tooth actually observed during the treatment do not coincide with each other. It is easy to feel a burden in reading the image, and a reading mistake is likely to occur. According to this embodiment, especially in the case of FIG. 6C and FIG. 6D, the effect of preventing the reading error of the tooth image is great.
また、例えば、図4のウィンドウ43に表示された歯牙の画像と同様の画像がただ1つだけ画面表示されている場合、画像上では歯根が右に曲がっているように見える。そして、マーク画像等の情報がなければ、患者の治療歯の歯根も右に曲がっているように思いがちであるが、この画像が手前や奥に曲がっていることを示す画像である場合もある。そのような場合、思い違いによって、例えばファイル等の治療器具が、予期しない方向に刺さることで根管に損傷を与える虞もある。しかしながら、本実施形態によれば、歯牙の画像にマーク画像50を重畳表示することで歯牙の画像の読み取りが支援される。したがって、歯牙の画像を確認しながら治療を行う術者は、歯牙の画像の読み取り負担が軽減され、治療の成功率を向上させることができる。
For example, when only one image similar to the tooth image displayed in the
本発明は前記した実施形態に限定されるものではなく、種々の変形が可能である。また、以下のように変形してもよい。例えば、一般的なコンピュータを、画像処理装置として機能させる画像処理プログラムにより動作させることで実現することも可能である。このプログラムは、通信回線を介して提供することも可能であるし、CD-ROM等の記録媒体に書き込んで配布することも可能である。 The present invention is not limited to the above-described embodiment, and various modifications can be made. Moreover, you may deform | transform as follows. For example, it can be realized by operating a general computer with an image processing program that functions as an image processing apparatus. This program can be provided via a communication line, or can be written on a recording medium such as a CD-ROM and distributed.
本実施形態によれば、歯科医院において一人の術者が常に所定の診療位置で診療する場合に、読み取り負担を軽減することは勿論、例えば、複数の術者それぞれの診療位置を設定することとしても構わない。この場合、処理手段10の処理結果である診療位置25(図1参照)は、例えば、術者を識別する情報と、その術者の診療位置と、を対応付けた情報となる。ここで、術者を識別する情報は、例えば氏名等の個人を特定できる情報であればよい。また、画像処理装置1における治療前の操作モードで、術者が、術者を識別する情報を入力することとする。これにより、術者毎の診療位置25を一旦登録しておけば、術者の交代に追従して、複数の術者それぞれの診療位置に合わせた位置にマーク画像50を表示することができる。
According to the present embodiment, when a single operator always performs treatment at a predetermined medical location in a dental clinic, the reading load is reduced, for example, for example, setting of the medical location of each of a plurality of surgeons. It doesn't matter. In this case, the medical treatment position 25 (see FIG. 1), which is the processing result of the processing means 10, is information in which, for example, information for identifying the surgeon and the medical treatment position of the surgeon are associated with each other. Here, the information for identifying the surgeon may be information that can identify an individual such as a name. In the operation mode before treatment in the
また、同様に、処理手段10の処理結果である診療位置25(図1参照)は、例えば、患者を識別する情報と、術者の診療位置と、を対応付けた情報としてもよい。ここで、患者を識別する情報は、例えば成人と子供を区別する情報、性別情報、あるいは患者名でも構わない。また、画像処理装置1における治療前の操作モードで、術者が、患者を識別する情報を入力することとする。これにより、患者毎の診療位置25を一旦登録しておけば、複数の患者それぞれに対応するように、術者の診療位置に合わせた位置にマーク画像50を表示することができる。
Similarly, the medical position 25 (see FIG. 1), which is the processing result of the processing means 10, may be information that associates information for identifying the patient with the medical position of the surgeon, for example. Here, the information for identifying a patient may be, for example, information for distinguishing an adult from a child, sex information, or a patient name. In the operation mode before treatment in the
また、同様に、処理手段10の処理結果である診療位置25(図1参照)は、例えば、治療種類を識別する情報と、術者の診療位置と、を対応付けた情報としてもよい。ここで、治療種類を識別する情報は、例えば治療方法の種類、治療段階の種類、治療歯の位置、治療器具の種類、マイクロスコープ利用の有無等の情報でも構わない。また、画像処理装置1における治療前の操作モードで、術者が、治療種類を識別する情報を入力することとする。これにより、治療種類毎の診療位置25を一旦登録しておけば、複数の治療種類それぞれに対応するように、術者の診療位置に合わせた位置にマーク画像50を表示することができる。
Similarly, the medical position 25 (see FIG. 1), which is the processing result of the processing means 10, may be information that associates information for identifying the treatment type with the medical position of the surgeon, for example. Here, the information for identifying the treatment type may be, for example, information such as the type of treatment method, the type of treatment stage, the position of the treatment tooth, the type of treatment instrument, and the presence / absence of the use of a microscope. Further, in the operation mode before treatment in the
すなわち、診療位置設定手段12は、術者、患者、治療種類のうちの少なくとも1つに対応付けて診療位置を設定することが好ましい。
That is, it is preferable that the medical care
前記実施形態では、図4を参照して、術者の診療位置が、第2の位置である9時のポジションの場合に表示される画面例で、矢印形状のマーク画像50を説明したが、本発明は、これに限らない。術者の診療位置が、第1の位置である12時のポジションの場合には、矢印形状のマーク画像50は、図7に示す向きで表示される。さらに、図8は、図7の画面表示例の変形例を示す。12時のポジションの場合、ウィンドウ42に表示される画像(コロナル画像)の向きは、術者が正面視している患者の向きと同様である。そのため、術者の視線方向を、図7に示す白抜き矢印で表してもよいし、例えば、矢印以外のマークを用いてもよい(図8参照)。図8では、ウィンドウ42に、ネジを基端側から視たようなクロス記号51によって、術者の視線が正面視であることを示している。術者の視線がX線画像の向きとは正反対であることを示す場合、ネジを先端側から視たようなドット記号52によって示すこともできる。なお、クロス記号51とドット記号52は1画像に対して一度に表示されるものではない。さらにウィンドウ44に表示される3D画像に対しては、術者の視線が正面視である場合、術者の視線方向を、図7に示すような、上向きの白抜き矢印で表してもよいし、例えば、3D矢印53を用いてもよい(図8参照)。3D矢印53によれば、上向きの白抜き矢印よりも、直感的に術者が正面視していることが分かり易くなる。
In the above-described embodiment, with reference to FIG. 4, the arrow-shaped
前記実施形態では、図4および図7に表示される画面例でX線画像を説明したが、表示されるX線画像は、1つの歯牙に限定されるものではない。例えば2~3個の歯牙であってもよいし、上顎や下顎の歯列の全体であってもよい。図9(a)および図9(b)に示すX線画像用のウィンドウ47には、上顎の歯列のアキシャル画像が表示されている。図9(a)は、術者の診療位置が第2の位置である9時のポジションの場合に表示される画面例であり、矢印形状のマーク画像50は、術者の視線方向を、画像中において左向きとしている。図9(b)は、術者の診療位置が第1の位置である12時のポジションの場合に表示される画面例であり、矢印形状のマーク画像50は、術者の視線方向を、画像中において上向きとしている。また、マーク画像を重畳する画像であって、複数の歯牙を表示するX線画像は、アキシャル画像に限らず、例えばコロナル画像やサジタル画像であってもよい。さらに、マーク画像を重畳する画像であって、複数の歯牙や歯列の画像は、断面画像に限らず、3D画像やCG画像であってもよい。
In the above embodiment, the X-ray image has been described with the screen examples displayed in FIGS. 4 and 7, but the displayed X-ray image is not limited to one tooth. For example, it may be 2 to 3 teeth, or the entire dentition of the upper jaw or the lower jaw. In the
表示手段5は、例えば、液晶ディスプレイ等であるものとして説明したが、ヘッドマウントディスプレイであってもよい。図10に示すヘッドマウントディスプレイ71は、操作者である術者Dが眼鏡のように装着して使用する透過型(シースルー)のものである。ヘッドマウントディスプレイ71としては、例えば、所謂、光学シースルーグラスを採用してもよい。これにより、操作者は、光を透過するグラス越しに外界(患者)を目視しながらグラスに配置された小型画面に表示されたX線画像等を認識することができる。このように表示手段5をヘッドマウントディスプレイ71で実現することで、患者位置と据置き型のモニタ装置との間を往復する手間や時間を省くことができる。
The display means 5 has been described as being a liquid crystal display, for example, but may be a head mounted display. The head-mounted
ヘッドマウントディスプレイが透過型である場合、前記光学シースルーグラスの他、所謂、ビデオ透過(ビデオシースルー)方式の装置を採用してもよい。ビデオシースルー方式の装置は、ユーザの眼の前に外界を撮影するカメラを備え、この装置を装着したユーザが観察するスクリーン(シースルースクリーン)にカメラを通じた外の様子を映し出す。カメラを通じてシースルースクリーンに映し出される外の様子は、ユーザがヘッドマウントディスプレイを装着しなかった場合に見る景色に一致する。この装置は、ユーザの眼前にいる現実環境の患者と、内視鏡の撮影位置が分かるX線画像等とを合成して一緒に表示することができる。なお、ヘッドマウントディスプレイの投影方式は、虚像投影の他、網膜投影であってもよい。 When the head-mounted display is a transmission type, a so-called video transmission (video see-through) type device may be employed in addition to the optical see-through glass. The video see-through type device includes a camera that captures the outside world in front of the user's eyes, and projects the outside state through the camera on a screen (see-through screen) that the user wearing this device observes. The outside appearance projected on the see-through screen through the camera corresponds to the view seen when the user does not wear the head mounted display. This apparatus can synthesize and display a patient in a real environment in front of the user's eyes and an X-ray image or the like that shows the imaging position of the endoscope. The projection system of the head mounted display may be retinal projection in addition to virtual image projection.
また、ヘッドマウントディスプレイは、非透過型のものであってもよく、例えば、所謂、VR(Virtual Reality)ゴーグルを用いてもよい。VRゴーグルは、この装置を装着したユーザが、VR、または、AR(Augmented Reality)やMR(Mixed Reality)を体験可能なものである。VRゴーグルは、外界を撮影するためのカメラを予め備えているタイプの他、スマートフォン等のカメラ付きモバイルが装着されるタイプのものであってもよい。VRゴーグルのカメラは、装着したユーザが観察するディスプレイにカメラを通じた外の様子を映し出すことができる。これによれば、VRゴーグルのカメラから取得した情報と、術者の治療位置が分かるX線画像とを一緒に表示することもできる。
なお、ヘッドマウントディスプレイを装着するユーザは、歯科医師の他、歯科衛生士や歯科助手等であっても構わない。
The head mounted display may be a non-transmissive type, for example, so-called VR (Virtual Reality) goggles may be used. The VR goggles allow a user wearing this apparatus to experience VR, AR (Augmented Reality), or MR (Mixed Reality). The VR goggles may be of a type in which a mobile with a camera such as a smartphone is mounted, in addition to a type that includes a camera for photographing the outside world in advance. The VR goggles camera can project the outside view through the camera on the display that the user wearing it observes. According to this, the information acquired from the VR goggles camera and the X-ray image showing the treatment position of the surgeon can be displayed together.
Note that the user wearing the head mounted display may be a dental hygienist, a dental assistant, or the like in addition to a dentist.
前記実施形態では、検出手段3として、一般的な人感センサやカメラを例示したが、その他、触覚センサ、圧力センサ、振動センサ、磁気センサ等を用いることも可能である。 In the above embodiment, a general human sensor or camera is exemplified as the detection means 3, but a tactile sensor, a pressure sensor, a vibration sensor, a magnetic sensor, or the like can also be used.
検出手段3は必須ではなく、この場合、診療位置設定手段12は、入力手段4から例えば第1位置や第2位置の入力を受け付けることで診療位置を設定することとしてもよい。つまり、手動で診療位置を設定することが可能である。この場合、図5のフローチャートでは、前記ステップS2に続いて、例えば治療歯のサジタル画像が表示されているときに、操作者が、入力手段4によって、術者の診療位置を指定する。これにより、画像処理装置1は、診療位置設定手段12によって、治療歯のサジタル画像における診療位置の入力を受け付ける(ステップS3)。このとき、操作者は、画像上で診療位置に対応する図示しないアイコンを例えばマウス等でクリックする操作を行うことで診療位置を設定してもよい。
The detection means 3 is not essential, and in this case, the medical care position setting means 12 may set the medical care position by receiving, for example, the input of the first position or the second position from the input means 4. That is, it is possible to manually set the medical position. In this case, in the flowchart of FIG. 5, following the step S <b> 2, for example, when a sagittal image of the treatment tooth is displayed, the operator designates the operator's medical position by the input means 4. Thereby, the
また、装着者の視線方向が自動的に検出可能なヘッドマウントディスプレイを表示手段5として採用した場合、ヘッドマウントディスプレイ(表示手段5)を検出手段3として兼務させて用いることができる。したがって、例えばセンサ等の検出手段3を診療室内に配置することなく診療位置を入力する形態の変形例として、上記の視線方向が検出可能なヘッドマウントディスプレイを用いることは、手動による入力の手間を省くことができるという観点から、術者にとって好ましい。 Further, when a head-mounted display capable of automatically detecting the wearer's line-of-sight direction is adopted as the display means 5, the head-mounted display (display means 5) can also be used as the detection means 3. Therefore, for example, using a head-mounted display capable of detecting the gaze direction as a modification of the form of inputting the medical position without arranging the detection means 3 such as a sensor in the medical room, the manual input is troublesome. From the viewpoint that it can be omitted, it is preferable for the operator.
1 画像処理装置
2 マイクロスコープ
3 検出手段
4 入力手段
5 表示手段
10 処理手段
11 マイクロスコープ画像入力手段
12 診療位置設定手段
13 表示制御手段
20 記憶手段
50 マーク画像
71 ヘッドマウントディスプレイ
DESCRIPTION OF
Claims (12)
歯牙の画像を表示手段に表示させると共に、前記診療位置を示すマーク画像を前記歯牙の画像に重畳するように前記表示手段に表示させる表示制御手段と、を備える画像処理装置。 A medical position setting means for setting the medical position of the surgeon;
An image processing apparatus comprising: a display control unit configured to display a tooth image on a display unit and to display a mark image indicating the medical treatment position on the display unit so as to be superimposed on the tooth image.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018-065650 | 2018-03-29 | ||
| JP2018065650A JP6632652B2 (en) | 2018-03-29 | 2018-03-29 | Image processing apparatus and image processing program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019187449A1 true WO2019187449A1 (en) | 2019-10-03 |
Family
ID=68059786
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/048206 Ceased WO2019187449A1 (en) | 2018-03-29 | 2018-12-27 | Image processing device and image processing program |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP6632652B2 (en) |
| WO (1) | WO2019187449A1 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114903635A (en) * | 2021-02-10 | 2022-08-16 | 苏州速迈医学科技股份有限公司 | Dental microscopic diagnosis and treatment system |
| US20230320793A1 (en) * | 2021-02-22 | 2023-10-12 | Olympus Corporation | Surgery system and control method for surgery system |
| EP4343403A4 (en) * | 2021-06-18 | 2024-09-25 | Zumax Medical Co., Ltd. | Enhanced image system and implementation method therefor |
| RU2853083C2 (en) * | 2021-06-18 | 2025-12-18 | Зумакс Медикал Ко., Лтд. | Image overlay system and methods |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102835672B1 (en) * | 2022-12-22 | 2025-07-22 | 오스템임플란트 주식회사 | Method for displaying object in 3d panorama image and system thereof |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003250812A (en) * | 2002-02-28 | 2003-09-09 | Olympus Optical Co Ltd | Stereoscopic display device for medical treatment |
| JP2004159998A (en) * | 2002-11-14 | 2004-06-10 | Yoshida Dental Mfg Co Ltd | Dental treatment supporting system with image recognition |
| JP2010259497A (en) * | 2009-04-30 | 2010-11-18 | Osaka Univ | Surgical navigation system using retinal projection type head mounted display device and simulation image superimposing method |
| JP2013034764A (en) * | 2011-08-10 | 2013-02-21 | Akira Takebayashi | Surgical guide device and method for positioning drill |
| JP2013202313A (en) * | 2012-03-29 | 2013-10-07 | Panasonic Corp | Surgery support device and surgery support program |
-
2018
- 2018-03-29 JP JP2018065650A patent/JP6632652B2/en active Active
- 2018-12-27 WO PCT/JP2018/048206 patent/WO2019187449A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2003250812A (en) * | 2002-02-28 | 2003-09-09 | Olympus Optical Co Ltd | Stereoscopic display device for medical treatment |
| JP2004159998A (en) * | 2002-11-14 | 2004-06-10 | Yoshida Dental Mfg Co Ltd | Dental treatment supporting system with image recognition |
| JP2010259497A (en) * | 2009-04-30 | 2010-11-18 | Osaka Univ | Surgical navigation system using retinal projection type head mounted display device and simulation image superimposing method |
| JP2013034764A (en) * | 2011-08-10 | 2013-02-21 | Akira Takebayashi | Surgical guide device and method for positioning drill |
| JP2013202313A (en) * | 2012-03-29 | 2013-10-07 | Panasonic Corp | Surgery support device and surgery support program |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN114903635A (en) * | 2021-02-10 | 2022-08-16 | 苏州速迈医学科技股份有限公司 | Dental microscopic diagnosis and treatment system |
| US20230320793A1 (en) * | 2021-02-22 | 2023-10-12 | Olympus Corporation | Surgery system and control method for surgery system |
| US12383126B2 (en) * | 2021-02-22 | 2025-08-12 | Olympus Corporation | Surgery system and control method for surgery system to adjust position and orientation of imager |
| EP4343403A4 (en) * | 2021-06-18 | 2024-09-25 | Zumax Medical Co., Ltd. | Enhanced image system and implementation method therefor |
| RU2853083C2 (en) * | 2021-06-18 | 2025-12-18 | Зумакс Медикал Ко., Лтд. | Image overlay system and methods |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2019170923A (en) | 2019-10-10 |
| JP6632652B2 (en) | 2020-01-22 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10197803B2 (en) | Augmented reality glasses for medical applications and corresponding augmented reality system | |
| US11950968B2 (en) | Surgical augmented reality | |
| EP3494502B1 (en) | An enhanced ophthalmic surgical experience using a virtual reality head-mounted display | |
| US20160242623A1 (en) | Apparatus and method for visualizing data and images and for controlling a medical device through a wearable electronic device | |
| JP6649912B2 (en) | Dental practice training device and dental practice training system | |
| US10073515B2 (en) | Surgical navigation system and method | |
| US11154379B2 (en) | Method for implant surgery using augmented visualization | |
| US12099200B2 (en) | Head wearable virtual image module for superimposing virtual image on real-time image | |
| JP6116754B2 (en) | Device for stereoscopic display of image data in minimally invasive surgery and method of operating the device | |
| JP6632652B2 (en) | Image processing apparatus and image processing program | |
| JP7179895B2 (en) | Scan image control during vitreoretinal surgery | |
| JP7121740B2 (en) | DENTAL OBSERVATION DEVICE AND METHOD FOR DISPLAYING DENTAL IMAGES | |
| JP5043145B2 (en) | Diagnostic system | |
| JP6559819B1 (en) | Image processing apparatus and image processing program | |
| KR20230101827A (en) | Two-way mirror display for dental treatment systems | |
| JP2020014160A (en) | Transmission type head mounted display device and program | |
| KR102236486B1 (en) | A electric loupe and diagnosis method using the same | |
| JP2024123195A (en) | Medical image processing device, medical image processing method, and medical image processing program | |
| SOWMYA et al. | Augmented Reality: A Current Breakthrough In Dentistry-A Review. |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18912848 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18912848 Country of ref document: EP Kind code of ref document: A1 |