[go: up one dir, main page]

WO2019187449A1 - Image processing device and image processing program - Google Patents

Image processing device and image processing program Download PDF

Info

Publication number
WO2019187449A1
WO2019187449A1 PCT/JP2018/048206 JP2018048206W WO2019187449A1 WO 2019187449 A1 WO2019187449 A1 WO 2019187449A1 JP 2018048206 W JP2018048206 W JP 2018048206W WO 2019187449 A1 WO2019187449 A1 WO 2019187449A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
medical
image processing
processing apparatus
tooth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/048206
Other languages
French (fr)
Japanese (ja)
Inventor
直輝 丸山
友江 剛
祐也 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yoshida Dental Mfg Co Ltd
Original Assignee
Yoshida Dental Mfg Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yoshida Dental Mfg Co Ltd filed Critical Yoshida Dental Mfg Co Ltd
Publication of WO2019187449A1 publication Critical patent/WO2019187449A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C5/00Filling or capping teeth
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Definitions

  • the present invention relates to an image processing apparatus and an image processing program.
  • the tooth image is, for example, a cross-sectional image taken by an X-ray CT (Computed Tomography) apparatus, a 3D image created from CT data, or a virtual endoscopic image created from CT data. Also good.
  • the tooth image may be a dental image or a panoramic image taken by an X-ray imaging apparatus.
  • the microscope 2 a conventionally known microscope for dental surgery can be used.
  • the dentist looks directly into the eyepiece part of the microscope and a case where the camera is attached to the eyepiece part side of the microscope.
  • a camera is attached to the microscope 2 for use. An output signal from this camera is output to the image processing apparatus 1.
  • the dentist may look directly into the eyepiece of the microscope or may not use the microscope. In such a case, there is no input signal from the microscope 2 to the image processing apparatus 1.
  • the place where such a detection means 3 is installed may be an arbitrary place such as a wall, a desk, or a dental unit in an examination room of a dental clinic.
  • the detection means 3 may be attached to a patient chair 31, for example.
  • the detection means 3 composed of a reflective sensor is disposed at a position corresponding to the position below the backrest and a position corresponding to the position below the armrest.
  • the detection means 3 may detect the human body (operator) itself, or may detect the position of the foot controller 34, for example. This is because when the surgeon uses the foot controller 34, the foot controller 34 is installed in a range where his / her feet can reach at his / her medical position.
  • the input unit 4 inputs information necessary for control such as processing performed by the image processing apparatus 1 and setting of a tomogram displayed on the display unit 5, and is a device such as a keyboard or a mouse.
  • the display means 5 displays a tooth image or the like, and is, for example, a liquid crystal display.
  • windows, icons, buttons, and the like are displayed by a GUI (Graphical User Interface), and the operator performs an operation of selecting them with the input means 4 such as a mouse. It can be performed.
  • GUI Graphic User Interface
  • the microscope image input means 11 is a predetermined interface for inputting a microscope image transmitted from a camera (not shown) attached to the microscope 2.
  • the microscope image is a moving image and is displayed on the display unit 5 by the display control unit 13.
  • FIG. 4 is a schematic diagram showing an example of a screen displayed in the case of the 9 o'clock position, which is the second position, as an example.
  • the shape of the mark image 50 is not particularly limited as long as it can indicate the medical treatment position of the operator, and may be, for example, a triangle, a quadrangle, a polygon, a circle, an ellipse, or the like.
  • the mark image 50 has the shape of an arrow and is an image showing the line of sight of the operator. That is, the base end portion of the arrow indicates the medical treatment position, and the tip end portion of the arrow indicates the point of the operator's line of sight.
  • the mark image 50 is an image showing the surgeon's line-of-sight direction, the surgeon can intuitively recognize the orientation of the tooth image on which the mark image 50 is superimposed.
  • the tooth image on which the mark image 50 is superimposed may be an image acquired by the microscope 2. That is, the mark image 50 may be superimposed on the microscope image.
  • the mark image 50 may be superimposed on the microscope image.
  • one tooth of the CT image of the tooth is enlarged and displayed with a high-magnification microscope image. Is displayed.
  • a microscope image with a high magnification reduces the field of view of the microscope by the amount of enlargement.
  • FIG. 6C is a schematic diagram in the case where the medical treatment position of the operator D is 12:00 and the image of the sagittal section S (sagittal image) on the tooth of the patient P is referred to.
  • FIG. 6D is a schematic diagram in the case where the medical treatment position of the operator D is 9 o'clock and an image of the axial section A (axial image) and coronal image of the tooth of the patient P is referred to.
  • the orientation of the image to be referred to during the treatment matches the orientation of the tooth actually observed during the treatment. Is less burdensome for image reading and reading errors are less likely to occur.
  • the orientation of the image referred to during the treatment and the orientation of the tooth actually observed during the treatment do not coincide with each other. It is easy to feel a burden in reading the image, and a reading mistake is likely to occur. According to this embodiment, especially in the case of FIG. 6C and FIG. 6D, the effect of preventing the reading error of the tooth image is great.
  • the tooth root appears to be bent to the right on the image. If there is no information such as a mark image, the patient's treatment tooth root tends to be bent to the right, but this image may be an image indicating that this image is bent to the front or back. . In such a case, there is a possibility that the root canal is damaged due to a misunderstanding, for example, when a therapeutic device such as a file is stuck in an unexpected direction.
  • reading the tooth image is supported by displaying the mark image 50 superimposed on the tooth image. Therefore, an operator who performs treatment while checking the tooth image can reduce the burden of reading the tooth image and improve the success rate of the treatment.
  • the reading load is reduced, for example, for example, setting of the medical location of each of a plurality of surgeons.
  • the medical treatment position 25 (see FIG. 1), which is the processing result of the processing means 10, is information in which, for example, information for identifying the surgeon and the medical treatment position of the surgeon are associated with each other.
  • the information for identifying the surgeon may be information that can identify an individual such as a name.
  • the surgeon inputs information for identifying the surgeon.
  • the mark image 50 can be displayed at a position corresponding to each medical treatment position following the change of the operator.
  • the medical care position setting unit 12 sets the medical care position in association with at least one of an operator, a patient, and a treatment type.
  • the arrow-shaped mark image 50 has been described in the example of the screen displayed when the surgeon's medical position is the second position at 9 o'clock.
  • the present invention is not limited to this.
  • the surgeon's medical position is the 12:00 position which is the first position
  • the arrow-shaped mark image 50 is displayed in the orientation shown in FIG.
  • FIG. 8 shows a modification of the screen display example of FIG.
  • the orientation of the image (coronal image) displayed in the window 42 is the same as the orientation of the patient that the operator is viewing in front. Therefore, the surgeon's line-of-sight direction may be represented by a white arrow shown in FIG.
  • the arrow-shaped mark image 50 shows the surgeon's line-of-sight direction. The inside is upward.
  • the X-ray image on which the mark image is superimposed and the plurality of teeth are displayed is not limited to the axial image, and may be a coronal image or a sagittal image, for example. Furthermore, it is an image which superimposes a mark image, Comprising: The image of several teeth and dentition is not restricted to a cross-sectional image, A 3D image and CG image may be sufficient.
  • the head mounted display may be a non-transmissive type, for example, so-called VR (Virtual Reality) goggles may be used.
  • the VR goggles allow a user wearing this apparatus to experience VR, AR (Augmented Reality), or MR (Mixed Reality).
  • the VR goggles may be of a type in which a mobile with a camera such as a smartphone is mounted, in addition to a type that includes a camera for photographing the outside world in advance.
  • the VR goggles camera can project the outside view through the camera on the display that the user wearing it observes. According to this, the information acquired from the VR goggles camera and the X-ray image showing the treatment position of the surgeon can be displayed together.
  • the user wearing the head mounted display may be a dental hygienist, a dental assistant, or the like in addition to a dentist.
  • the head-mounted display (display means 5) can also be used as the detection means 3. Therefore, for example, using a head-mounted display capable of detecting the gaze direction as a modification of the form of inputting the medical position without arranging the detection means 3 such as a sensor in the medical room, the manual input is troublesome. From the viewpoint that it can be omitted, it is preferable for the operator.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Epidemiology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)
  • Endoscopes (AREA)

Abstract

Provided is an image processing device capable of assisting in reading an image of one or more teeth referred to by an operator during medical treatment. An image processing device (1) is provided with: a treatment position setting means (12) that sets a position of treatment by an operator; and a display control means (13) that causes a display means (5) to display an image of one or more teeth and that causes the display means (5) to display a marker image indicating the position of the treatment such that the marker image is superimposed on the image of the one or more teeth.

Description

画像処理装置および画像処理プログラムImage processing apparatus and image processing program

 本発明は、画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.

 歯科において、表示部に根管長測定画面と同時に歯牙のX線画像を表示した上で、術者が歯牙のX線画像をチェックしながら根管治療を行うことが特許文献1に記載されている。このように根管治療を行うときに表示部に歯牙の画像を表示することで、術者は治療歯の内部情報を容易に把握することができる。 Patent Document 1 describes that, in dentistry, an X-ray image of a tooth is displayed simultaneously with a root canal length measurement screen on a display unit, and an operator performs root canal treatment while checking the X-ray image of the tooth. Yes. By displaying the tooth image on the display unit when performing root canal treatment in this manner, the surgeon can easily grasp the internal information of the treated tooth.

特開2001-327519号公報JP 2001-327519 A

 しかしながら、術者が診療の際にどのような向きで患者に接するかによって治療歯の見え方は異なっている。そのため、歯牙の画像を確認しながら治療を行う場合、術者は、自分の診療位置を考慮しなければ、歯牙の画像の読み取りミスが生じる虞がある。したがって、歯牙の画像を確認しながら治療を行う術者にとっては、歯牙の画像を正確に読み取ることが負担となる。 However, the appearance of the treated tooth differs depending on the orientation of the surgeon in contact with the patient during medical treatment. Therefore, when performing treatment while checking the tooth image, the surgeon may cause a reading error of the tooth image unless his / her medical position is considered. Therefore, it is a burden for an operator who performs treatment while checking a tooth image to accurately read the tooth image.

 そこで、本発明は、前記問題点に鑑みてなされたものであり、治療中に術者に参照される歯牙の画像の読み取りを支援することのできる画像処理装置および画像処理プログラムを提供することを課題とする。 Therefore, the present invention has been made in view of the above problems, and provides an image processing apparatus and an image processing program capable of supporting reading of a tooth image referred to by an operator during treatment. Let it be an issue.

 前記課題を解決するため、本発明に係る画像処理装置は、術者の診療位置を設定する診療位置設定手段と、歯牙の画像を表示手段に表示させると共に、前記診療位置を示すマーク画像を前記歯牙の画像に重畳するように前記表示手段に表示させる表示制御手段と、を備える。 In order to solve the above problems, an image processing apparatus according to the present invention displays a medical treatment position setting unit for setting a medical treatment position of an operator, a tooth image on a display unit, and a mark image indicating the medical treatment position. Display control means for displaying on the display means so as to be superimposed on a tooth image.

 本発明によれば、治療中に術者に参照される歯牙の画像の読み取りを支援することができる。したがって、本発明によれば、治療中に術者による歯牙の画像の読み取り負担を軽減し、読み取りミスを防止することができる。 According to the present invention, it is possible to support reading of a tooth image referred to by an operator during treatment. Therefore, according to the present invention, it is possible to reduce a burden of reading an image of a tooth by an operator during treatment, and to prevent a reading error.

本発明の実施形態に係る画像処理装置の構成を模式的に示すブロック図である。1 is a block diagram schematically showing a configuration of an image processing apparatus according to an embodiment of the present invention. 歯科用治療設備の一例を示す模式図である。It is a schematic diagram which shows an example of a dental treatment facility. 術者の診療位置を示す模式図であって、(a)は第1の位置である12時のポジション、(b)は第2の位置である9時のポジションを示している。It is a schematic diagram which shows an operator's medical treatment position, (a) has shown the 12:00 position which is a 1st position, (b) has shown the 9 o'clock position which is a 2nd position. 第2の位置である9時のポジションの場合に表示される画面例を示す模式図である。It is a schematic diagram which shows the example of a screen displayed in the case of the 9 o'clock position which is a 2nd position. 本発明の実施形態に係る画像処理装置の処理の一例を示すフローチャートである。It is a flowchart which shows an example of a process of the image processing apparatus which concerns on embodiment of this invention. (a)~(d)は、術者の診療位置とCT断層画像との関係を示す模式図である。(A)-(d) is a schematic diagram which shows the relationship between an operator's medical treatment position and CT tomographic image. 第1の位置である12時のポジションの場合に表示される画面例を示す模式図である。It is a schematic diagram which shows the example of a screen displayed in the case of the 12:00 position which is the 1st position. 図7の画面例の変形例を示す模式図である。It is a schematic diagram which shows the modification of the example of a screen of FIG. 画面表示の他の例を示す模式図であって、(a)は第2の位置、(b)は第1の位置にそれぞれ対応している。It is a schematic diagram which shows the other example of a screen display, Comprising: (a) respond | corresponds to the 2nd position, (b) respectively corresponds to the 1st position. ヘッドマウントディスプレイの一例を示す模式図である。It is a schematic diagram which shows an example of a head mounted display.

 以下、図面を参照して本発明の実施形態に係る画像処理装置について詳細に説明する。
 図1は、本発明の実施形態に係る画像処理装置の構成を模式的に示すブロック図である。
 画像処理装置1は、例えば、一般的なコンピュータで実現することができ、CPU(Central Processing Unit)と、RAM(Random Access Memory)と、ROM(Read Only Memory)と、HDD(Hard Disk Drive)と、入力/出力インタフェースとを含んで構成されている。このコンピュータには、3次元CTデータ21からX線CTの各断層画像や3D画像を生成して表示する画像表示プログラムや、術者の診療位置を歯牙の画像に重畳する動作プログラムがインストールされている。なお、歯牙の画像は、例えばX線CT(Computed Tomography)装置により撮影された断面画像、CTデータから作成された3D画像、または、CTデータから作成された仮想的な内視鏡画像であってもよい。また、歯牙の画像は、X線撮影装置により撮影されたデンタル画像、または、パノラマ画像であってもよい。
Hereinafter, an image processing apparatus according to an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram schematically showing the configuration of an image processing apparatus according to an embodiment of the present invention.
The image processing apparatus 1 can be realized by, for example, a general computer, and includes a central processing unit (CPU), a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), and the like. And an input / output interface. The computer is installed with an image display program for generating and displaying X-ray CT tomographic images and 3D images from the three-dimensional CT data 21, and an operation program for superimposing the operator's medical position on the tooth image. Yes. The tooth image is, for example, a cross-sectional image taken by an X-ray CT (Computed Tomography) apparatus, a 3D image created from CT data, or a virtual endoscopic image created from CT data. Also good. The tooth image may be a dental image or a panoramic image taken by an X-ray imaging apparatus.

 画像処理装置1には、例えば、マイクロスコープ2、検出手段3、入力手段4および表示手段5が接続されている。 The image processing apparatus 1 is connected with, for example, a microscope 2, a detection unit 3, an input unit 4, and a display unit 5.

 マイクロスコープ2は、従来公知の歯科手術用マイクロスコープを用いることができる。マイクロスコープの使用形態としては、歯科医師がマイクロスコープの接眼部を直接的に覗いて使用する場合と、マイクロスコープの接眼部側にカメラを取り付けて使用する場合がある。本実施形態では、一例としてマイクロスコープ2にカメラを取り付けて使用するものとしている。このカメラからの出力信号は、画像処理装置1に出力される。なお、歯科医師の治療方針によっては、歯科医師がマイクロスコープの接眼部を直接的に覗いて使用する場合や、マイクロスコープを使用しない場合もある。そのような場合、マイクロスコープ2から画像処理装置1への入力信号はない。 As the microscope 2, a conventionally known microscope for dental surgery can be used. As a usage form of the microscope, there are a case where the dentist looks directly into the eyepiece part of the microscope and a case where the camera is attached to the eyepiece part side of the microscope. In the present embodiment, as an example, a camera is attached to the microscope 2 for use. An output signal from this camera is output to the image processing apparatus 1. Depending on the treatment policy of the dentist, the dentist may look directly into the eyepiece of the microscope or may not use the microscope. In such a case, there is no input signal from the microscope 2 to the image processing apparatus 1.

 検出手段3は、術者の診療位置を検出するものである。検出手段3は、例えば、センサやカメラである。センサとしては、一般的な人感センサを用いることができる。人感センサは、赤外線、超音波、可視光等を用いて人間の所在を検知するためのセンサである。人感センサは、反射型でも透過型でも構わない。検出手段3が、例えば赤外線を用いた反射型のセンサである場合、センサの投光素子から投光された赤外線が、人体(術者)によって反射し、センサの受光素子に到達することで術者を検出することができる。 Detecting means 3 detects the operator's medical position. The detection means 3 is, for example, a sensor or a camera. A general human sensor can be used as the sensor. The human sensor is a sensor for detecting a human location using infrared rays, ultrasonic waves, visible light, or the like. The human sensor may be a reflection type or a transmission type. When the detection means 3 is, for example, a reflective sensor using infrared light, the infrared light projected from the light projecting element of the sensor is reflected by the human body (operator) and reaches the light receiving element of the sensor. Person can be detected.

 このような検出手段3を設置する場所は、歯科医院の診察室の壁、机、歯科用ユニット等任意の個所で構わない。図2に示すように、検出手段3を、例えば患者用椅子31に取り付けてもよい。ここでは、患者用椅子31の基台において、背もたれの下に相当する個所と、肘掛けの下に相当する個所に、それぞれ反射型のセンサからなる検出手段3を配設している。検出手段3は、人体(術者)そのものを検出してもよいし、例えばフットコントローラ34の位置を検出しても構わない。術者がフットコントローラ34を使用する場合、自分の診療位置において、フットコントローラ34を自分の足が届く範囲に設置するからである。 The place where such a detection means 3 is installed may be an arbitrary place such as a wall, a desk, or a dental unit in an examination room of a dental clinic. As shown in FIG. 2, the detection means 3 may be attached to a patient chair 31, for example. Here, on the base of the patient chair 31, the detection means 3 composed of a reflective sensor is disposed at a position corresponding to the position below the backrest and a position corresponding to the position below the armrest. The detection means 3 may detect the human body (operator) itself, or may detect the position of the foot controller 34, for example. This is because when the surgeon uses the foot controller 34, the foot controller 34 is installed in a range where his / her feet can reach at his / her medical position.

 検出手段3が透過型のセンサである場合、投光素子と受光素子とを別体にして、受光素子を、患者用椅子31の基台において、背もたれの下に相当する個所と、肘掛けの下に相当する個所に、それぞれを配設してもよい。この場合、投光素子を、診察室の壁や机など固定された箇所に配設しておき、光が遮られることで、術者の診療位置を検出することができる。 When the detecting means 3 is a transmissive sensor, the light projecting element and the light receiving element are separated from each other, and the light receiving element is located on the base of the patient chair 31 at a position corresponding to the backrest and under the armrest. Each may be arranged at a location corresponding to. In this case, it is possible to detect the operator's medical position by disposing the light projecting element at a fixed location such as a wall or desk of the examination room and blocking the light.

 検出手段3がカメラである場合、カメラの種類は特に限定されない。一般的な可視光カメラであってもよいし、赤外線カメラであってもよい。カメラの設置場所は、歯科用ユニット32の術者用ハンガー、アシスタント用ハンガー、アーム部、図示しない柱状のスタンドや無影灯、または術者用の椅子33に設置してもよい。また、カメラ用マーカを、術者の診療位置に対応した位置、例えば背もたれの下や肘掛けの下等の固定された位置に設置しておくことが好ましい。これにより、カメラ用マーカを術者と共に検出することで、術者の診療位置を検出することができる。 When the detection means 3 is a camera, the type of camera is not particularly limited. A general visible light camera or an infrared camera may be used. The camera may be installed on the surgeon's hanger, assistant hanger, arm, columnar stand or surgical light (not shown), or the operator's chair 33 of the dental unit 32. In addition, the camera marker is preferably installed at a position corresponding to the operator's medical position, for example, a fixed position such as under the backrest or under the armrest. Accordingly, the medical position of the surgeon can be detected by detecting the camera marker together with the surgeon.

 図1に戻って、画像処理装置1の構成の説明を続ける。
 入力手段4は、画像処理装置1で行う処理や、表示手段5に表示する断層の設定など制御のために必要な情報を入力するものであり、例えばキーボードやマウス等のデバイスである。表示手段5は、歯牙の画像等を表示するものであり、例えば、液晶ディスプレイ等である。画像処理装置1に接続された表示手段5の画面上には、GUI(Graphical User Interface)により、ウィンドウ、アイコン、ボタン等が表示され、操作者はそれらをマウス等の入力手段4で選択する操作を行うことができる。
Returning to FIG. 1, the description of the configuration of the image processing apparatus 1 will be continued.
The input unit 4 inputs information necessary for control such as processing performed by the image processing apparatus 1 and setting of a tomogram displayed on the display unit 5, and is a device such as a keyboard or a mouse. The display means 5 displays a tooth image or the like, and is, for example, a liquid crystal display. On the screen of the display means 5 connected to the image processing apparatus 1, windows, icons, buttons, and the like are displayed by a GUI (Graphical User Interface), and the operator performs an operation of selecting them with the input means 4 such as a mouse. It can be performed.

 画像処理装置1は、処理手段10と、記憶手段20と、を備えている。
 記憶手段20は、画像処理に用いる各種データ、処理結果、画像表示プログラム、術者の診療位置を歯牙の画像に重畳する動作プログラム等を記憶するものである。記憶手段20は、例えば磁気ディスク、光ディスク、一般的な画像メモリ等から構成される。
 図1では、一例として、記憶手段20は、3次元CTデータ21と、デンタル画像22と、パノラマ画像23と、仮想内視鏡画像24と、を記憶している。なお、診療位置25は、処理手段10の処理結果として得られた情報である。
The image processing apparatus 1 includes a processing unit 10 and a storage unit 20.
The storage means 20 stores various data used for image processing, processing results, an image display program, an operation program for superimposing a surgeon's medical position on a tooth image, and the like. The storage means 20 is composed of, for example, a magnetic disk, an optical disk, a general image memory, and the like.
In FIG. 1, the storage means 20 has memorize | stored the three-dimensional CT data 21, the dental image 22, the panorama image 23, and the virtual endoscopic image 24 as an example. The medical position 25 is information obtained as a processing result of the processing means 10.

 3次元CTデータ21は、コーンビームを用いる歯科用CT(CBCT:Cone-Beam Computed Tomography)による撮影により得られた3次元データ(ボリュームデータ)に基づいている。このボリュームデータは、例えば512×512×512個のボクセルに分けられる。そして、3次元CTデータ21は、各ボクセルの画素値を計算して画像を再構成したデータである。この3次元CTデータ21としては、例えば、各ボクセルの画素値が予め計算されているデータを事前に入力しておく。 The three-dimensional CT data 21 is based on three-dimensional data (volume data) obtained by imaging using dental CT (CBCT: Cone-Beam Computed Tomography) using a cone beam. This volume data is divided into 512 × 512 × 512 voxels, for example. The three-dimensional CT data 21 is data obtained by reconstructing an image by calculating the pixel value of each voxel. As the three-dimensional CT data 21, for example, data in which the pixel value of each voxel is calculated in advance is input in advance.

 デンタル画像22は、口腔内の一部の歯牙を撮影するデンタル撮影により取得されたX線画像である。
 パノラマ画像23は、歯全体を撮影するパノラマ撮影により取得されたX線画像である。
 仮想内視鏡画像24は、CTデータから、CG(Computer Graphics)により作成された画像である。
The dental image 22 is an X-ray image acquired by dental imaging that images a part of the teeth in the oral cavity.
The panoramic image 23 is an X-ray image acquired by panoramic imaging for imaging the entire tooth.
The virtual endoscopic image 24 is an image created by CG (Computer Graphics) from CT data.

 処理手段10は、マイクロスコープ画像入力手段11と、診療位置設定手段12と、表示制御手段13と、を備えている。なお、処理手段10は、例えば、記憶手段20に格納されたプログラムをCPUがRAMに展開し実行することにより実現される。
 以下、各手段について詳細に説明する。
The processing unit 10 includes a microscope image input unit 11, a medical position setting unit 12, and a display control unit 13. The processing means 10 is realized, for example, when the CPU stores the program stored in the storage means 20 in the RAM and executes it.
Hereinafter, each means will be described in detail.

 マイクロスコープ画像入力手段11は、マイクロスコープ2に取り付けられた図示しないカメラから伝送されてくるマイクロスコープ画像を入力する所定のインタフェースである。マイクロスコープ画像は動画であり、表示制御手段13によって表示手段5に表示される。 The microscope image input means 11 is a predetermined interface for inputting a microscope image transmitted from a camera (not shown) attached to the microscope 2. The microscope image is a moving image and is displayed on the display unit 5 by the display control unit 13.

 診療位置設定手段12は、術者の診療位置を設定するものである。ここで、術者の診療位置とは、患者を囲む360°方向のいずれかの方向を示す。例えば、図2の検出手段3を備える患者用椅子31の形状が丸みを帯びている場合、1つのセンサ(検出手段3)によって、患者周囲の180°の区域であればどこにでも、術者の診療位置を設定することができる。また、検出手段3がカメラである場合、患者周囲のいずれの方向であっても術者の診療位置を設定することができる。
 歯科では、術者の診療位置を、時計の針の位置で示す方式が採用されることがある。この方式に対応させると、術者の診療位置とは、例えば、9時の位置、10時の位置、11時の位置、12時の位置等、どの位置でもよい。以下では、術者の診療位置として代表的な2つの位置を例示して説明する。第1位置は12時のポジションのことであり、第2位置は9時のポジションのことである。以下、第1位置や第2位置のことを、適宜、12時のポジションや9時のポジションと呼称する場合もある。
The medical care position setting means 12 is for setting the medical care position of the surgeon. Here, the operator's medical position indicates any direction of 360 ° surrounding the patient. For example, when the shape of the patient chair 31 provided with the detection means 3 of FIG. 2 is rounded, one sensor (detection means 3) can be used anywhere in the 180 ° area around the patient. A medical location can be set. Further, when the detection means 3 is a camera, it is possible to set the operator's medical position in any direction around the patient.
In dentistry, a method in which the operator's medical position is indicated by the position of a clock hand may be employed. Corresponding to this method, the operator's medical position may be any position such as 9 o'clock position, 10 o'clock position, 11 o'clock position, 12 o'clock position, and the like. Below, two typical positions will be described as an example of the surgeon's medical position. The first position is the 12 o'clock position and the second position is the 9 o'clock position. Hereinafter, the first position and the second position may be appropriately referred to as a 12 o'clock position or a 9 o'clock position.

 診療位置設定手段12は、例えば患者の頭頂側であることを示す第1位置と、患者の頬側であることを示す第2位置と、のいずれか一方を術者の診療位置として設定するようにしてもよい。図3(a)は、第1位置で患者Pを診療中の術者Dの一例を示す図である。図3(b)は、第2位置で患者Pを診療中の術者Dの一例を示す図である。 The medical care position setting means 12 sets, for example, one of a first position indicating the patient's parietal side and a second position indicating the patient's cheek side as the operator's medical position. It may be. FIG. 3A is a diagram illustrating an example of an operator D who is currently treating a patient P at the first position. FIG. 3B is a diagram illustrating an example of an operator D who is currently treating a patient P at the second position.

 本実施形態では、診療位置設定手段12は、一例として、術者の診療位置を検出する検出手段3から検出信号を取得することで診療位置を設定することとした。つまり、診療位置設定手段12は、自動で診療位置を設定する。 In this embodiment, as an example, the medical position setting unit 12 sets the medical position by acquiring a detection signal from the detection unit 3 that detects the medical position of the surgeon. That is, the medical position setting means 12 automatically sets the medical position.

 表示制御手段13は、歯牙の画像を表示手段5に表示させるものである。表示制御手段13は、例えば、3次元CTデータ21を読み込み、CTの断層画像を構築し、表示手段5に表示させる。表示制御手段13は、診療位置を示すマーク画像を歯牙の画像に重畳するように表示手段5に表示させる。なお、自動検出の場合、診療位置を途中で変更した場合、変更に伴って、マーク画像の表示も変更される。 The display control means 13 displays a tooth image on the display means 5. The display control means 13 reads, for example, the three-dimensional CT data 21, constructs a CT tomographic image, and displays it on the display means 5. The display control unit 13 causes the display unit 5 to display a mark image indicating the medical position so as to be superimposed on the tooth image. In the case of automatic detection, when the medical position is changed midway, the display of the mark image is also changed along with the change.

 ここで、画面表示の一例について図4を参照して説明する。この例では、表示手段5の画面に、X線画像用のウィンドウ41~43と、オプション画像用のウィンドウ44~46と、を同時に表示した状態を模式的に示している。ただし、これらのウィンドウを個別に表示しても構わない。 Here, an example of the screen display will be described with reference to FIG. In this example, a state in which X-ray image windows 41 to 43 and option image windows 44 to 46 are simultaneously displayed on the screen of the display means 5 is schematically shown. However, these windows may be displayed individually.

 ウィンドウ41には、アキシャル(軸位断、横断)画像が表示される。ウィンドウ42には、コロナル(冠状断、前額断)画像が表示される。ウィンドウ43には、サジタル(矢状断)画像が表示される。なお、ここでは、アキシャル画像にだけ、直交する2つの直線を表示し、他の画像では省略しているが、CT画像のビューワでは、一般的に、それぞれの画像に断層位置を示す直線が表示される。これらの直線の位置や角度を変更することにより、目的とする断層の抽出を簡単に行うことができる。 In the window 41, an axial (axial misalignment, crossing) image is displayed. In the window 42, a coronal (coronal cut, forehead cut) image is displayed. In the window 43, a sagittal image is displayed. Here, two orthogonal straight lines are displayed only in the axial image and omitted in the other images, but in the CT image viewer, a straight line indicating the tomographic position is generally displayed in each image. Is done. By changing the position and angle of these straight lines, it is possible to easily extract a target fault.

 ウィンドウ44には、3D画像(3次元画像)が表示される。ここでは、3次元CTデータ21から作成した歯牙の3D画像を表示している。なお、表示制御手段13は、3D画像を歯牙のX線画像と並べて表示することができる。ここで、3D画像とは、CTBTのコーンビームが照射される領域に含まれる歯牙の画像であればよい。例えば、ビームの照射範囲内に含まれる患者の頭部、上顎全体、下顎全体、複数の歯牙、あるいは単独の歯牙をレンダリングしたそれぞれの画像であってもよい。また、レンダリング処理としては、例えば、ボリュームレンダリング処理(volume rendering)や、サーフェイスレンダリング処理(surface rendering)等であっても構わない。 In the window 44, a 3D image (3D image) is displayed. Here, a 3D image of a tooth created from the three-dimensional CT data 21 is displayed. The display control unit 13 can display the 3D image side by side with the X-ray image of the tooth. Here, the 3D image may be an image of a tooth included in an area irradiated with a CTBT cone beam. For example, it may be an image obtained by rendering a patient's head, upper jaw, entire lower jaw, a plurality of teeth, or a single tooth included in the beam irradiation range. The rendering processing may be, for example, volume rendering processing (volume 処理 rendering), surface rendering processing (surface rendering), or the like.

 ウィンドウ41~44では、歯牙の画像にマーク画像50が重畳されている。図4は、一例として、第2の位置である9時のポジションの場合に表示される画面例を示す模式図である。マーク画像50は、術者の診療位置を示すことができれば、その形状は特に限定されず、例えば、三角形、四角形、多角形、円、楕円等であってもよい。本実施形態では、マーク画像50は、矢印の形状であって、術者の視線方向を示す画像であることとした。すなわち、矢印の基端部が診療位置を示し、矢印の先端部が術者の視線の先を示している。このように、マーク画像50が術者の視線方向を示す画像であると、術者は、マーク画像50が重畳された歯牙の画像の向きを直感的に認識することができる。 In the windows 41 to 44, the mark image 50 is superimposed on the tooth image. FIG. 4 is a schematic diagram showing an example of a screen displayed in the case of the 9 o'clock position, which is the second position, as an example. The shape of the mark image 50 is not particularly limited as long as it can indicate the medical treatment position of the operator, and may be, for example, a triangle, a quadrangle, a polygon, a circle, an ellipse, or the like. In the present embodiment, the mark image 50 has the shape of an arrow and is an image showing the line of sight of the operator. That is, the base end portion of the arrow indicates the medical treatment position, and the tip end portion of the arrow indicates the point of the operator's line of sight. Thus, when the mark image 50 is an image showing the surgeon's line-of-sight direction, the surgeon can intuitively recognize the orientation of the tooth image on which the mark image 50 is superimposed.

 ウィンドウ45には、仮想内視鏡画像24が表示される。仮想内視鏡画像24は、3次元CTデータ21からCGで作成した3D画像である。ここで、破線の2つの円は、それぞれ根管を示している。これによれば、実際の内視鏡を診療に用いていなくても、表示制御手段13は、3次元CTデータ21を用いることで、あたかも内視鏡で撮影されたかのような歯牙の内部構造を立体的な画像として提示することができる。なお、表示制御手段13は、仮想内視鏡画像24を、歯牙のX線画像と並べて表示することができる。 In the window 45, the virtual endoscopic image 24 is displayed. The virtual endoscopic image 24 is a 3D image created by CG from the three-dimensional CT data 21. Here, two broken circles indicate root canals, respectively. According to this, even if the actual endoscope is not used for medical care, the display control means 13 uses the three-dimensional CT data 21 so that the internal structure of the tooth as if it was photographed by the endoscope. It can be presented as a stereoscopic image. The display control means 13 can display the virtual endoscopic image 24 side by side with the tooth X-ray image.

 カメラが接続されたマイクロスコープ2を診療に用いる場合、ウィンドウ46には、マイクロスコープ画像が表示される。なお、表示制御手段13は、マイクロスコープ2によって取得された歯牙のマイクロスコープ画像を、歯牙のX線画像と並べて表示することができる。 When the microscope 2 connected to the camera is used for medical care, a microscope image is displayed in the window 46. The display control means 13 can display the tooth microscope image acquired by the microscope 2 along with the tooth X-ray image.

 図4は、それぞれマーク画像50が重畳された歯牙の画像を同時に表示した画面表示例を示している。このようにマーク画像50が重畳される歯牙の画像は、X線撮影により取得された画像や3次元CTデータ21から作成された画像であってもよい。ここで、X線撮影により取得された画像には、図1に示すデンタル画像22、パノラマ画像23や、CT断層画像を含む。また、CT断層画像には、サジタル画像、コロナル画像、および、アキシャル画像が含まれる。また、3次元CTデータ21から作成された画像には、歯牙の3D画像(3次元画像)や、仮想内視鏡画像24を含む。 FIG. 4 shows a screen display example in which the tooth images on which the mark images 50 are superimposed are simultaneously displayed. The tooth image on which the mark image 50 is superimposed in this way may be an image acquired by X-ray imaging or an image created from the three-dimensional CT data 21. Here, the image acquired by X-ray imaging includes the dental image 22, the panoramic image 23, and the CT tomographic image shown in FIG. The CT tomographic image includes a sagittal image, a coronal image, and an axial image. In addition, the image created from the three-dimensional CT data 21 includes a 3D image (three-dimensional image) of a tooth and a virtual endoscope image 24.

 すなわち、マーク画像50が重畳される歯牙の画像は、デンタル画像22、パノラマ画像23、CT断層画像、3次元CTデータ21から作成された3次元画像、3次元CTデータ21から作成された仮想内視鏡画像24からなる群から選択される少なくとも1種を含むことが好ましい。 That is, the tooth image on which the mark image 50 is superimposed is a dental image 22, a panoramic image 23, a CT tomographic image, a 3D image created from the 3D CT data 21, and a virtual image created from the 3D CT data 21. It is preferable to include at least one selected from the group consisting of the endoscopic images 24.

 さらに、マーク画像50が重畳される歯牙の画像は、マイクロスコープ2によって取得された画像であっても構わない。すなわち、マイクロスコープ画像に、マーク画像50を重畳してもよい。例えば歯牙のCT画像をチェックしながら根管治療を行う際に、カメラが接続されたマイクロスコープ2を用いる場合、通常、歯牙のCT画像の1歯を拡大表示すると共に、高倍率のマイクロスコープ画像を表示している。このような場合、肉眼で見る画像とは異なり、高倍率のマイクロスコープ画像では、画像が拡大される分だけ顕微鏡の視野が狭くなってしまう。そして、表示されたマイクロスコープ画像を観察する術者にとっては、視野が狭いことによって情報が絞られることから、患者の顔の向きや自分の診療位置といった相対的に大きな位置関係に混乱を生じやすくなる。しかし、マイクロスコープ画像にマーク画像50を重畳表示すれば歯牙の画像の読み取りが支援される。これにより、術者が高倍率のマイクロスコープ画像を観察しながら手術を行っている場合でも歯牙の画像の読み取りミスを防止することができる。 Furthermore, the tooth image on which the mark image 50 is superimposed may be an image acquired by the microscope 2. That is, the mark image 50 may be superimposed on the microscope image. For example, when performing a root canal treatment while checking a CT image of a tooth, when using the microscope 2 to which a camera is connected, usually one tooth of the CT image of the tooth is enlarged and displayed with a high-magnification microscope image. Is displayed. In such a case, unlike an image seen with the naked eye, a microscope image with a high magnification reduces the field of view of the microscope by the amount of enlargement. For the surgeon observing the displayed microscope image, information is narrowed down because the field of view is narrow, so it is likely to cause confusion in the relatively large positional relationship such as the orientation of the patient's face and his / her medical position. Become. However, if the mark image 50 is superimposed on the microscope image, reading of the tooth image is supported. Thereby, even when the surgeon is performing an operation while observing a high-magnification microscope image, it is possible to prevent a reading error of a tooth image.

 次に、画像処理装置1による処理の流れについて図5を参照(適宜、図1参照)して説明する。ここでは、歯牙の画像の一例をCTの断面画像であるものとして説明する。まず、画像処理装置1は、操作者の操作にしたがって、表示制御手段13によって、3次元CTデータ21を読み込む(ステップS1)。なお、ここでは、3次元CTデータ21を画像処理装置1の内部の記憶手段20から表示制御手段13によって、読み込むこととしたが、3次元CTデータ21を外部のCT装置から読み込むこととしてもよい。 Next, the flow of processing by the image processing apparatus 1 will be described with reference to FIG. 5 (see FIG. 1 as appropriate). Here, an example of a tooth image is described as a CT cross-sectional image. First, the image processing apparatus 1 reads the three-dimensional CT data 21 by the display control means 13 according to the operation of the operator (step S1). Although the three-dimensional CT data 21 is read from the storage means 20 inside the image processing apparatus 1 by the display control means 13 here, the three-dimensional CT data 21 may be read from an external CT apparatus. .

 次に、例えば、操作者が、入力手段4によって、所定の断層を指定することで、画像処理装置1は、表示制御手段13によって、表示手段5に歯牙の画像を表示させる(ステップS2)。具体的には、操作者は、例えば、上顎の全歯や下顎の全歯を一覧するアキシャル画像から、治療対象の歯(治療歯)として1歯を指定する。アキシャル画像は、歯牙の水平方向の断面画像である。なお、指定された歯の位置を示す座標については、アキシャル画像-サジタル画像間のように各断層画像間で各々の座標をマッチングさせることができる。操作者は、例えば、アキシャル画像上で、入力手段4によって、所望の断層位置を指定する。これにより、指定された断層位置に対応したサジタル画像またはコロナル画像を表示させ、その断層画像において関心領域を指定したりすることも可能である。 Next, for example, when the operator designates a predetermined slice using the input unit 4, the image processing apparatus 1 causes the display control unit 13 to display a tooth image on the display unit 5 (step S2). Specifically, for example, the operator designates one tooth as a treatment target tooth (treatment tooth) from an axial image that lists all upper teeth and all lower teeth. An axial image is a cross-sectional image of a tooth in the horizontal direction. As for the coordinates indicating the position of the specified tooth, each coordinate can be matched between each tomographic image like between an axial image and a sagittal image. For example, the operator designates a desired tomographic position by the input unit 4 on the axial image. Accordingly, it is possible to display a sagittal image or coronal image corresponding to the designated tomographic position and designate a region of interest in the tomographic image.

 次に、検出手段3が、術者の診療位置を検出した信号を画像処理装置1に出力する。これにより、画像処理装置1は、診療位置設定手段12によって、術者の診療位置を設定する(ステップS3)。そして、表示手段5は、X線画像に診療位置を示すマーク画像50を重畳表示する(ステップS4)。なお、本実施形態のように検出手段3を用いる場合、診療位置を設定するステップ(ステップS3)の順序は、任意である。 Next, the detection means 3 outputs a signal indicating the operator's medical position to the image processing apparatus 1. Thereby, the image processing apparatus 1 sets the surgeon's medical position by the medical position setting means 12 (step S3). Then, the display unit 5 superimposes and displays the mark image 50 indicating the medical position on the X-ray image (step S4). In addition, when using the detection means 3 like this embodiment, the order of the step (step S3) which sets a medical treatment position is arbitrary.

 ここで、前記ステップS4の詳細として、術者の診療位置と、患者の歯牙のCT断層画像との関係について図6(a)~図6(d)を参照して説明する。
 図6(a)は、術者Dの診療位置が12時のポジションであって、患者Pの歯牙におけるアキシャル断面Aの画像(アキシャル画像)やコロナル画像を参照する場合の模式図である。
 図6(b)は、術者Dの診療位置が9時のポジションであって、患者Pの歯牙におけるサジタル断面Sの画像(サジタル画像)を参照する場合の模式図である。
 図6(c)は、術者Dの診療位置が12時のポジションであって、患者Pの歯牙におけるサジタル断面Sの画像(サジタル画像)を参照する場合の模式図である。
 図6(d)は、術者Dの診療位置が9時のポジションであって、患者Pの歯牙におけるアキシャル断面Aの画像(アキシャル画像)やコロナル画像を参照する場合の模式図である。
Here, as the details of step S4, the relationship between the operator's medical position and the CT tomographic image of the patient's teeth will be described with reference to FIGS. 6 (a) to 6 (d).
FIG. 6A is a schematic diagram in the case where the medical treatment position of the operator D is 12:00 and the image of the axial cross section A (axial image) and the coronal image on the teeth of the patient P are referred to.
FIG. 6B is a schematic diagram in the case where the medical treatment position of the operator D is 9 o'clock and an image (sagittal image) of the sagittal section S in the tooth of the patient P is referred to.
FIG. 6C is a schematic diagram in the case where the medical treatment position of the operator D is 12:00 and the image of the sagittal section S (sagittal image) on the tooth of the patient P is referred to.
FIG. 6D is a schematic diagram in the case where the medical treatment position of the operator D is 9 o'clock and an image of the axial section A (axial image) and coronal image of the tooth of the patient P is referred to.

 例えばX線画像がアキシャル画像やコロナル画像であって、術者Dが12時のポジションにいる場合(図6(a)参照)には、術者Dは、このX線画像を自然に認識することができる。ただし、術者Dが9時のポジションを診療位置にしている場合(図6(d)参照)、従来技術では、注意が必要である。一方、本実施形態では、表示制御手段13は、設定された診療位置25(図1参照)に基づいて、現在の診療位置を示すマーク画像50を歯牙の画像に重畳するように表示手段5に表示させる。これにより、表示手段5は、このX線画像(アキシャル画像やコロナル画像)に診療位置を示すマーク画像50を重畳表示する。 For example, when the X-ray image is an axial image or a coronal image and the surgeon D is at the 12 o'clock position (see FIG. 6A), the surgeon D naturally recognizes the X-ray image. be able to. However, when the surgeon D is at the 9 o'clock position (see FIG. 6D), caution is required in the conventional technique. On the other hand, in the present embodiment, the display control unit 13 causes the display unit 5 to superimpose the mark image 50 indicating the current medical position on the tooth image based on the set medical position 25 (see FIG. 1). Display. Thereby, the display means 5 superimposes and displays the mark image 50 which shows a medical treatment position on this X-ray image (an axial image or a coronal image).

 一方、例えばX線画像がサジタル画像である場合、術者Dが9時のポジションにいる場合(図6(b)参照)には、術者Dは、このX線画像を自然に認識することができる。ただし、術者Dが12時のポジションを診療位置にしている場合(図6(c)参照)、従来技術では、注意が必要である。一方、本実施形態では、表示制御手段13は、設定された診療位置25(図1参照)に基づいて、現在の診療位置を示すマーク画像50を歯牙の画像に重畳するように表示手段5に表示させる。これにより、表示手段5は、このX線画像(サジタル画像)に診療位置を示すマーク画像50を重畳表示する。 On the other hand, for example, when the X-ray image is a sagittal image, when the operator D is at the 9 o'clock position (see FIG. 6B), the operator D recognizes the X-ray image naturally. Can do. However, when the surgeon D is at the 12 o'clock position as the medical position (see FIG. 6C), caution is required in the prior art. On the other hand, in the present embodiment, the display control unit 13 causes the display unit 5 to superimpose the mark image 50 indicating the current medical position on the tooth image based on the set medical position 25 (see FIG. 1). Display. Thereby, the display means 5 superimposes and displays the mark image 50 which shows a medical treatment position on this X-ray image (sagittal image).

 まとめると、図6(a)、図6(b)の場合、治療中に参照する画像の向きと、治療中に実際に観察している歯牙の向きとが一致しているので、術者Dは、画像の読み取りに負担を感じにくく、読み取りミスも生じにくい。一方、図6(c)、図6(d)の場合、治療中に参照する画像の向きと、治療中に実際に観察している歯牙の向きとが一致していないので、術者Dは、画像の読み取りに負担を感じやすく、読み取りミスも生じやすい。本実施形態によれば、特に、図6(c)、図6(d)の場合に、歯牙の画像の読み取りミスを防止する効果が大きい。 In summary, in the case of FIGS. 6 (a) and 6 (b), the orientation of the image to be referred to during the treatment matches the orientation of the tooth actually observed during the treatment. Is less burdensome for image reading and reading errors are less likely to occur. On the other hand, in the case of FIG. 6C and FIG. 6D, the orientation of the image referred to during the treatment and the orientation of the tooth actually observed during the treatment do not coincide with each other. It is easy to feel a burden in reading the image, and a reading mistake is likely to occur. According to this embodiment, especially in the case of FIG. 6C and FIG. 6D, the effect of preventing the reading error of the tooth image is great.

 また、例えば、図4のウィンドウ43に表示された歯牙の画像と同様の画像がただ1つだけ画面表示されている場合、画像上では歯根が右に曲がっているように見える。そして、マーク画像等の情報がなければ、患者の治療歯の歯根も右に曲がっているように思いがちであるが、この画像が手前や奥に曲がっていることを示す画像である場合もある。そのような場合、思い違いによって、例えばファイル等の治療器具が、予期しない方向に刺さることで根管に損傷を与える虞もある。しかしながら、本実施形態によれば、歯牙の画像にマーク画像50を重畳表示することで歯牙の画像の読み取りが支援される。したがって、歯牙の画像を確認しながら治療を行う術者は、歯牙の画像の読み取り負担が軽減され、治療の成功率を向上させることができる。 For example, when only one image similar to the tooth image displayed in the window 43 in FIG. 4 is displayed on the screen, the tooth root appears to be bent to the right on the image. If there is no information such as a mark image, the patient's treatment tooth root tends to be bent to the right, but this image may be an image indicating that this image is bent to the front or back. . In such a case, there is a possibility that the root canal is damaged due to a misunderstanding, for example, when a therapeutic device such as a file is stuck in an unexpected direction. However, according to the present embodiment, reading the tooth image is supported by displaying the mark image 50 superimposed on the tooth image. Therefore, an operator who performs treatment while checking the tooth image can reduce the burden of reading the tooth image and improve the success rate of the treatment.

 本発明は前記した実施形態に限定されるものではなく、種々の変形が可能である。また、以下のように変形してもよい。例えば、一般的なコンピュータを、画像処理装置として機能させる画像処理プログラムにより動作させることで実現することも可能である。このプログラムは、通信回線を介して提供することも可能であるし、CD-ROM等の記録媒体に書き込んで配布することも可能である。 The present invention is not limited to the above-described embodiment, and various modifications can be made. Moreover, you may deform | transform as follows. For example, it can be realized by operating a general computer with an image processing program that functions as an image processing apparatus. This program can be provided via a communication line, or can be written on a recording medium such as a CD-ROM and distributed.

 本実施形態によれば、歯科医院において一人の術者が常に所定の診療位置で診療する場合に、読み取り負担を軽減することは勿論、例えば、複数の術者それぞれの診療位置を設定することとしても構わない。この場合、処理手段10の処理結果である診療位置25(図1参照)は、例えば、術者を識別する情報と、その術者の診療位置と、を対応付けた情報となる。ここで、術者を識別する情報は、例えば氏名等の個人を特定できる情報であればよい。また、画像処理装置1における治療前の操作モードで、術者が、術者を識別する情報を入力することとする。これにより、術者毎の診療位置25を一旦登録しておけば、術者の交代に追従して、複数の術者それぞれの診療位置に合わせた位置にマーク画像50を表示することができる。 According to the present embodiment, when a single operator always performs treatment at a predetermined medical location in a dental clinic, the reading load is reduced, for example, for example, setting of the medical location of each of a plurality of surgeons. It doesn't matter. In this case, the medical treatment position 25 (see FIG. 1), which is the processing result of the processing means 10, is information in which, for example, information for identifying the surgeon and the medical treatment position of the surgeon are associated with each other. Here, the information for identifying the surgeon may be information that can identify an individual such as a name. In the operation mode before treatment in the image processing apparatus 1, the surgeon inputs information for identifying the surgeon. Thereby, once the medical treatment position 25 for each operator is registered, the mark image 50 can be displayed at a position corresponding to each medical treatment position following the change of the operator.

 また、同様に、処理手段10の処理結果である診療位置25(図1参照)は、例えば、患者を識別する情報と、術者の診療位置と、を対応付けた情報としてもよい。ここで、患者を識別する情報は、例えば成人と子供を区別する情報、性別情報、あるいは患者名でも構わない。また、画像処理装置1における治療前の操作モードで、術者が、患者を識別する情報を入力することとする。これにより、患者毎の診療位置25を一旦登録しておけば、複数の患者それぞれに対応するように、術者の診療位置に合わせた位置にマーク画像50を表示することができる。 Similarly, the medical position 25 (see FIG. 1), which is the processing result of the processing means 10, may be information that associates information for identifying the patient with the medical position of the surgeon, for example. Here, the information for identifying a patient may be, for example, information for distinguishing an adult from a child, sex information, or a patient name. In the operation mode before treatment in the image processing apparatus 1, the surgeon inputs information for identifying a patient. Thereby, once the medical treatment position 25 for each patient is registered, the mark image 50 can be displayed at a position corresponding to the medical treatment position of the operator so as to correspond to each of a plurality of patients.

 また、同様に、処理手段10の処理結果である診療位置25(図1参照)は、例えば、治療種類を識別する情報と、術者の診療位置と、を対応付けた情報としてもよい。ここで、治療種類を識別する情報は、例えば治療方法の種類、治療段階の種類、治療歯の位置、治療器具の種類、マイクロスコープ利用の有無等の情報でも構わない。また、画像処理装置1における治療前の操作モードで、術者が、治療種類を識別する情報を入力することとする。これにより、治療種類毎の診療位置25を一旦登録しておけば、複数の治療種類それぞれに対応するように、術者の診療位置に合わせた位置にマーク画像50を表示することができる。 Similarly, the medical position 25 (see FIG. 1), which is the processing result of the processing means 10, may be information that associates information for identifying the treatment type with the medical position of the surgeon, for example. Here, the information for identifying the treatment type may be, for example, information such as the type of treatment method, the type of treatment stage, the position of the treatment tooth, the type of treatment instrument, and the presence / absence of the use of a microscope. Further, in the operation mode before treatment in the image processing apparatus 1, the surgeon inputs information for identifying the treatment type. Thereby, once the medical treatment position 25 for each treatment type is registered, the mark image 50 can be displayed at a position corresponding to the medical treatment position of the operator so as to correspond to each of the plurality of treatment types.

 すなわち、診療位置設定手段12は、術者、患者、治療種類のうちの少なくとも1つに対応付けて診療位置を設定することが好ましい。 That is, it is preferable that the medical care position setting unit 12 sets the medical care position in association with at least one of an operator, a patient, and a treatment type.

 前記実施形態では、図4を参照して、術者の診療位置が、第2の位置である9時のポジションの場合に表示される画面例で、矢印形状のマーク画像50を説明したが、本発明は、これに限らない。術者の診療位置が、第1の位置である12時のポジションの場合には、矢印形状のマーク画像50は、図7に示す向きで表示される。さらに、図8は、図7の画面表示例の変形例を示す。12時のポジションの場合、ウィンドウ42に表示される画像(コロナル画像)の向きは、術者が正面視している患者の向きと同様である。そのため、術者の視線方向を、図7に示す白抜き矢印で表してもよいし、例えば、矢印以外のマークを用いてもよい(図8参照)。図8では、ウィンドウ42に、ネジを基端側から視たようなクロス記号51によって、術者の視線が正面視であることを示している。術者の視線がX線画像の向きとは正反対であることを示す場合、ネジを先端側から視たようなドット記号52によって示すこともできる。なお、クロス記号51とドット記号52は1画像に対して一度に表示されるものではない。さらにウィンドウ44に表示される3D画像に対しては、術者の視線が正面視である場合、術者の視線方向を、図7に示すような、上向きの白抜き矢印で表してもよいし、例えば、3D矢印53を用いてもよい(図8参照)。3D矢印53によれば、上向きの白抜き矢印よりも、直感的に術者が正面視していることが分かり易くなる。 In the above-described embodiment, with reference to FIG. 4, the arrow-shaped mark image 50 has been described in the example of the screen displayed when the surgeon's medical position is the second position at 9 o'clock. The present invention is not limited to this. When the surgeon's medical position is the 12:00 position which is the first position, the arrow-shaped mark image 50 is displayed in the orientation shown in FIG. Further, FIG. 8 shows a modification of the screen display example of FIG. In the case of the 12 o'clock position, the orientation of the image (coronal image) displayed in the window 42 is the same as the orientation of the patient that the operator is viewing in front. Therefore, the surgeon's line-of-sight direction may be represented by a white arrow shown in FIG. 7, or for example, a mark other than the arrow may be used (see FIG. 8). In FIG. 8, a cross sign 51 as if the screw is viewed from the base end side of the window 42 indicates that the operator's line of sight is a front view. When the surgeon's line of sight indicates that it is opposite to the direction of the X-ray image, it can also be indicated by a dot symbol 52 as if the screw was viewed from the tip side. The cross symbol 51 and the dot symbol 52 are not displayed for one image at a time. Further, for the 3D image displayed in the window 44, when the operator's line of sight is a front view, the surgeon's line of sight may be represented by an upward white arrow as shown in FIG. For example, a 3D arrow 53 may be used (see FIG. 8). According to the 3D arrow 53, it is easier to understand that the operator is viewing the front more intuitively than the upward white arrow.

 前記実施形態では、図4および図7に表示される画面例でX線画像を説明したが、表示されるX線画像は、1つの歯牙に限定されるものではない。例えば2~3個の歯牙であってもよいし、上顎や下顎の歯列の全体であってもよい。図9(a)および図9(b)に示すX線画像用のウィンドウ47には、上顎の歯列のアキシャル画像が表示されている。図9(a)は、術者の診療位置が第2の位置である9時のポジションの場合に表示される画面例であり、矢印形状のマーク画像50は、術者の視線方向を、画像中において左向きとしている。図9(b)は、術者の診療位置が第1の位置である12時のポジションの場合に表示される画面例であり、矢印形状のマーク画像50は、術者の視線方向を、画像中において上向きとしている。また、マーク画像を重畳する画像であって、複数の歯牙を表示するX線画像は、アキシャル画像に限らず、例えばコロナル画像やサジタル画像であってもよい。さらに、マーク画像を重畳する画像であって、複数の歯牙や歯列の画像は、断面画像に限らず、3D画像やCG画像であってもよい。 In the above embodiment, the X-ray image has been described with the screen examples displayed in FIGS. 4 and 7, but the displayed X-ray image is not limited to one tooth. For example, it may be 2 to 3 teeth, or the entire dentition of the upper jaw or the lower jaw. In the X-ray image window 47 shown in FIGS. 9A and 9B, an axial image of the maxillary dentition is displayed. FIG. 9A is an example of a screen displayed when the surgeon's medical position is the second position at 9 o'clock. An arrow-shaped mark image 50 shows the surgeon's line-of-sight direction. The inside is facing left. FIG. 9B is an example of a screen that is displayed when the surgeon's medical position is the first position at 12:00. The arrow-shaped mark image 50 shows the surgeon's line-of-sight direction. The inside is upward. Further, the X-ray image on which the mark image is superimposed and the plurality of teeth are displayed is not limited to the axial image, and may be a coronal image or a sagittal image, for example. Furthermore, it is an image which superimposes a mark image, Comprising: The image of several teeth and dentition is not restricted to a cross-sectional image, A 3D image and CG image may be sufficient.

 表示手段5は、例えば、液晶ディスプレイ等であるものとして説明したが、ヘッドマウントディスプレイであってもよい。図10に示すヘッドマウントディスプレイ71は、操作者である術者Dが眼鏡のように装着して使用する透過型(シースルー)のものである。ヘッドマウントディスプレイ71としては、例えば、所謂、光学シースルーグラスを採用してもよい。これにより、操作者は、光を透過するグラス越しに外界(患者)を目視しながらグラスに配置された小型画面に表示されたX線画像等を認識することができる。このように表示手段5をヘッドマウントディスプレイ71で実現することで、患者位置と据置き型のモニタ装置との間を往復する手間や時間を省くことができる。 The display means 5 has been described as being a liquid crystal display, for example, but may be a head mounted display. The head-mounted display 71 shown in FIG. 10 is of a transmissive type (see-through) used by the operator D who is an operator as wearing glasses. As the head mounted display 71, for example, so-called optical see-through glass may be employed. Thereby, the operator can recognize the X-ray image etc. which were displayed on the small screen arrange | positioned at glass, looking at the external field (patient) through the glass which permeate | transmits light. Thus, by realizing the display means 5 with the head mounted display 71, it is possible to save time and effort for reciprocating between the patient position and the stationary monitor device.

 ヘッドマウントディスプレイが透過型である場合、前記光学シースルーグラスの他、所謂、ビデオ透過(ビデオシースルー)方式の装置を採用してもよい。ビデオシースルー方式の装置は、ユーザの眼の前に外界を撮影するカメラを備え、この装置を装着したユーザが観察するスクリーン(シースルースクリーン)にカメラを通じた外の様子を映し出す。カメラを通じてシースルースクリーンに映し出される外の様子は、ユーザがヘッドマウントディスプレイを装着しなかった場合に見る景色に一致する。この装置は、ユーザの眼前にいる現実環境の患者と、内視鏡の撮影位置が分かるX線画像等とを合成して一緒に表示することができる。なお、ヘッドマウントディスプレイの投影方式は、虚像投影の他、網膜投影であってもよい。 When the head-mounted display is a transmission type, a so-called video transmission (video see-through) type device may be employed in addition to the optical see-through glass. The video see-through type device includes a camera that captures the outside world in front of the user's eyes, and projects the outside state through the camera on a screen (see-through screen) that the user wearing this device observes. The outside appearance projected on the see-through screen through the camera corresponds to the view seen when the user does not wear the head mounted display. This apparatus can synthesize and display a patient in a real environment in front of the user's eyes and an X-ray image or the like that shows the imaging position of the endoscope. The projection system of the head mounted display may be retinal projection in addition to virtual image projection.

 また、ヘッドマウントディスプレイは、非透過型のものであってもよく、例えば、所謂、VR(Virtual Reality)ゴーグルを用いてもよい。VRゴーグルは、この装置を装着したユーザが、VR、または、AR(Augmented Reality)やMR(Mixed Reality)を体験可能なものである。VRゴーグルは、外界を撮影するためのカメラを予め備えているタイプの他、スマートフォン等のカメラ付きモバイルが装着されるタイプのものであってもよい。VRゴーグルのカメラは、装着したユーザが観察するディスプレイにカメラを通じた外の様子を映し出すことができる。これによれば、VRゴーグルのカメラから取得した情報と、術者の治療位置が分かるX線画像とを一緒に表示することもできる。
 なお、ヘッドマウントディスプレイを装着するユーザは、歯科医師の他、歯科衛生士や歯科助手等であっても構わない。
The head mounted display may be a non-transmissive type, for example, so-called VR (Virtual Reality) goggles may be used. The VR goggles allow a user wearing this apparatus to experience VR, AR (Augmented Reality), or MR (Mixed Reality). The VR goggles may be of a type in which a mobile with a camera such as a smartphone is mounted, in addition to a type that includes a camera for photographing the outside world in advance. The VR goggles camera can project the outside view through the camera on the display that the user wearing it observes. According to this, the information acquired from the VR goggles camera and the X-ray image showing the treatment position of the surgeon can be displayed together.
Note that the user wearing the head mounted display may be a dental hygienist, a dental assistant, or the like in addition to a dentist.

 前記実施形態では、検出手段3として、一般的な人感センサやカメラを例示したが、その他、触覚センサ、圧力センサ、振動センサ、磁気センサ等を用いることも可能である。 In the above embodiment, a general human sensor or camera is exemplified as the detection means 3, but a tactile sensor, a pressure sensor, a vibration sensor, a magnetic sensor, or the like can also be used.

 検出手段3は必須ではなく、この場合、診療位置設定手段12は、入力手段4から例えば第1位置や第2位置の入力を受け付けることで診療位置を設定することとしてもよい。つまり、手動で診療位置を設定することが可能である。この場合、図5のフローチャートでは、前記ステップS2に続いて、例えば治療歯のサジタル画像が表示されているときに、操作者が、入力手段4によって、術者の診療位置を指定する。これにより、画像処理装置1は、診療位置設定手段12によって、治療歯のサジタル画像における診療位置の入力を受け付ける(ステップS3)。このとき、操作者は、画像上で診療位置に対応する図示しないアイコンを例えばマウス等でクリックする操作を行うことで診療位置を設定してもよい。 The detection means 3 is not essential, and in this case, the medical care position setting means 12 may set the medical care position by receiving, for example, the input of the first position or the second position from the input means 4. That is, it is possible to manually set the medical position. In this case, in the flowchart of FIG. 5, following the step S <b> 2, for example, when a sagittal image of the treatment tooth is displayed, the operator designates the operator's medical position by the input means 4. Thereby, the image processing apparatus 1 receives the input of the medical position in the sagittal image of the treatment tooth by the medical position setting means 12 (step S3). At this time, the operator may set the medical position by performing an operation of clicking an icon (not shown) corresponding to the medical position on the image with a mouse or the like.

 また、装着者の視線方向が自動的に検出可能なヘッドマウントディスプレイを表示手段5として採用した場合、ヘッドマウントディスプレイ(表示手段5)を検出手段3として兼務させて用いることができる。したがって、例えばセンサ等の検出手段3を診療室内に配置することなく診療位置を入力する形態の変形例として、上記の視線方向が検出可能なヘッドマウントディスプレイを用いることは、手動による入力の手間を省くことができるという観点から、術者にとって好ましい。 Further, when a head-mounted display capable of automatically detecting the wearer's line-of-sight direction is adopted as the display means 5, the head-mounted display (display means 5) can also be used as the detection means 3. Therefore, for example, using a head-mounted display capable of detecting the gaze direction as a modification of the form of inputting the medical position without arranging the detection means 3 such as a sensor in the medical room, the manual input is troublesome. From the viewpoint that it can be omitted, it is preferable for the operator.

 1   画像処理装置
 2   マイクロスコープ
 3   検出手段
 4   入力手段
 5   表示手段
 10  処理手段
 11  マイクロスコープ画像入力手段
 12  診療位置設定手段
 13  表示制御手段
 20  記憶手段
 50  マーク画像
 71  ヘッドマウントディスプレイ
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Microscope 3 Detection means 4 Input means 5 Display means 10 Processing means 11 Microscope image input means 12 Medical treatment position setting means 13 Display control means 20 Storage means 50 Mark image 71 Head mounted display

Claims (12)

 術者の診療位置を設定する診療位置設定手段と、
 歯牙の画像を表示手段に表示させると共に、前記診療位置を示すマーク画像を前記歯牙の画像に重畳するように前記表示手段に表示させる表示制御手段と、を備える画像処理装置。
A medical position setting means for setting the medical position of the surgeon;
An image processing apparatus comprising: a display control unit configured to display a tooth image on a display unit and to display a mark image indicating the medical treatment position on the display unit so as to be superimposed on the tooth image.
 前記診療位置設定手段は、患者の頭頂側であることを示す第1位置と、患者の頬側であることを示す第2位置と、のいずれか一方を前記診療位置として設定する請求項1に記載の画像処理装置。 2. The medical position setting means sets one of a first position indicating a patient's parietal side and a second position indicating a patient's cheek side as the medical position. The image processing apparatus described.  前記診療位置を示すマーク画像は、術者の視線方向を示す画像である請求項1または請求項2に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the mark image indicating the medical position is an image indicating a gaze direction of the surgeon.  前記診療位置設定手段は、操作者による入力を受け付けることで前記診療位置を設定する請求項1から請求項3のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3, wherein the medical position setting unit sets the medical position by receiving an input from an operator.  前記診療位置設定手段は、術者の診療位置を検出する検出手段から検出信号を取得することで前記診療位置を設定する請求項1から請求項3のいずれか一項に記載の画像処理装置。 4. The image processing apparatus according to claim 1, wherein the medical position setting unit sets the medical position by acquiring a detection signal from a detection unit that detects a medical position of the surgeon.  前記検出手段はカメラである請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the detection means is a camera.  前記検出手段はセンサである請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the detection means is a sensor.  前記診療位置設定手段は、術者、患者、治療種類のうちの少なくとも1つに対応付けて前記診療位置を設定する請求項1から請求項3のいずれか一項に記載の画像処理装置。 4. The image processing apparatus according to claim 1, wherein the medical position setting means sets the medical position in association with at least one of an operator, a patient, and a treatment type.  前記歯牙の画像は、X線撮影により取得されたデンタル画像、パノラマ画像、CT断層画像、X線CTデータから作成された3D画像、CG画像からなる群から選択される少なくとも1種を含む請求項1から請求項8のいずれか一項に記載の画像処理装置。 The dental image includes at least one selected from the group consisting of a dental image, a panoramic image, a CT tomographic image, a 3D image created from X-ray CT data, and a CG image acquired by X-ray imaging. The image processing apparatus according to any one of claims 1 to 8.  前記歯牙の画像は、マイクロスコープによって取得された画像を含む請求項1から請求項9のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 9, wherein the image of the tooth includes an image acquired by a microscope.  前記表示手段は、ヘッドマウントディスプレイである請求項1から請求項10のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, wherein the display unit is a head mounted display.  コンピュータを、請求項1から請求項11のいずれか一項に記載の画像処理装置として機能させるための画像処理プログラム。 An image processing program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 11.
PCT/JP2018/048206 2018-03-29 2018-12-27 Image processing device and image processing program Ceased WO2019187449A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-065650 2018-03-29
JP2018065650A JP6632652B2 (en) 2018-03-29 2018-03-29 Image processing apparatus and image processing program

Publications (1)

Publication Number Publication Date
WO2019187449A1 true WO2019187449A1 (en) 2019-10-03

Family

ID=68059786

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/048206 Ceased WO2019187449A1 (en) 2018-03-29 2018-12-27 Image processing device and image processing program

Country Status (2)

Country Link
JP (1) JP6632652B2 (en)
WO (1) WO2019187449A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114903635A (en) * 2021-02-10 2022-08-16 苏州速迈医学科技股份有限公司 Dental microscopic diagnosis and treatment system
US20230320793A1 (en) * 2021-02-22 2023-10-12 Olympus Corporation Surgery system and control method for surgery system
EP4343403A4 (en) * 2021-06-18 2024-09-25 Zumax Medical Co., Ltd. Enhanced image system and implementation method therefor
RU2853083C2 (en) * 2021-06-18 2025-12-18 Зумакс Медикал Ко., Лтд. Image overlay system and methods

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102835672B1 (en) * 2022-12-22 2025-07-22 오스템임플란트 주식회사 Method for displaying object in 3d panorama image and system thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003250812A (en) * 2002-02-28 2003-09-09 Olympus Optical Co Ltd Stereoscopic display device for medical treatment
JP2004159998A (en) * 2002-11-14 2004-06-10 Yoshida Dental Mfg Co Ltd Dental treatment supporting system with image recognition
JP2010259497A (en) * 2009-04-30 2010-11-18 Osaka Univ Surgical navigation system using retinal projection type head mounted display device and simulation image superimposing method
JP2013034764A (en) * 2011-08-10 2013-02-21 Akira Takebayashi Surgical guide device and method for positioning drill
JP2013202313A (en) * 2012-03-29 2013-10-07 Panasonic Corp Surgery support device and surgery support program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003250812A (en) * 2002-02-28 2003-09-09 Olympus Optical Co Ltd Stereoscopic display device for medical treatment
JP2004159998A (en) * 2002-11-14 2004-06-10 Yoshida Dental Mfg Co Ltd Dental treatment supporting system with image recognition
JP2010259497A (en) * 2009-04-30 2010-11-18 Osaka Univ Surgical navigation system using retinal projection type head mounted display device and simulation image superimposing method
JP2013034764A (en) * 2011-08-10 2013-02-21 Akira Takebayashi Surgical guide device and method for positioning drill
JP2013202313A (en) * 2012-03-29 2013-10-07 Panasonic Corp Surgery support device and surgery support program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114903635A (en) * 2021-02-10 2022-08-16 苏州速迈医学科技股份有限公司 Dental microscopic diagnosis and treatment system
US20230320793A1 (en) * 2021-02-22 2023-10-12 Olympus Corporation Surgery system and control method for surgery system
US12383126B2 (en) * 2021-02-22 2025-08-12 Olympus Corporation Surgery system and control method for surgery system to adjust position and orientation of imager
EP4343403A4 (en) * 2021-06-18 2024-09-25 Zumax Medical Co., Ltd. Enhanced image system and implementation method therefor
RU2853083C2 (en) * 2021-06-18 2025-12-18 Зумакс Медикал Ко., Лтд. Image overlay system and methods

Also Published As

Publication number Publication date
JP2019170923A (en) 2019-10-10
JP6632652B2 (en) 2020-01-22

Similar Documents

Publication Publication Date Title
US10197803B2 (en) Augmented reality glasses for medical applications and corresponding augmented reality system
US11950968B2 (en) Surgical augmented reality
EP3494502B1 (en) An enhanced ophthalmic surgical experience using a virtual reality head-mounted display
US20160242623A1 (en) Apparatus and method for visualizing data and images and for controlling a medical device through a wearable electronic device
JP6649912B2 (en) Dental practice training device and dental practice training system
US10073515B2 (en) Surgical navigation system and method
US11154379B2 (en) Method for implant surgery using augmented visualization
US12099200B2 (en) Head wearable virtual image module for superimposing virtual image on real-time image
JP6116754B2 (en) Device for stereoscopic display of image data in minimally invasive surgery and method of operating the device
JP6632652B2 (en) Image processing apparatus and image processing program
JP7179895B2 (en) Scan image control during vitreoretinal surgery
JP7121740B2 (en) DENTAL OBSERVATION DEVICE AND METHOD FOR DISPLAYING DENTAL IMAGES
JP5043145B2 (en) Diagnostic system
JP6559819B1 (en) Image processing apparatus and image processing program
KR20230101827A (en) Two-way mirror display for dental treatment systems
JP2020014160A (en) Transmission type head mounted display device and program
KR102236486B1 (en) A electric loupe and diagnosis method using the same
JP2024123195A (en) Medical image processing device, medical image processing method, and medical image processing program
SOWMYA et al. Augmented Reality: A Current Breakthrough In Dentistry-A Review.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18912848

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18912848

Country of ref document: EP

Kind code of ref document: A1