[go: up one dir, main page]

JP2025129144A - Endoscopic device for acquiring images of the upper gastrointestinal tract and method for controlling the same - Google Patents

Endoscopic device for acquiring images of the upper gastrointestinal tract and method for controlling the same

Info

Publication number
JP2025129144A
JP2025129144A JP2025026603A JP2025026603A JP2025129144A JP 2025129144 A JP2025129144 A JP 2025129144A JP 2025026603 A JP2025026603 A JP 2025026603A JP 2025026603 A JP2025026603 A JP 2025026603A JP 2025129144 A JP2025129144 A JP 2025129144A
Authority
JP
Japan
Prior art keywords
image
body part
tip
control signal
pose information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2025026603A
Other languages
Japanese (ja)
Inventor
ウォン イ、チ
Chi Won Lee
ジュン キム、ミョン
Myung Joong Kim
ヒョン キム、テ
Tae Hyung Kim
コ チョ、ソッ
Seok Ho Cho
オ キム、グン
Gun O Kim
ヒョク キム、ドン
Dong Hyeok Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medintech Inc
Original Assignee
Medintech Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medintech Inc filed Critical Medintech Inc
Publication of JP2025129144A publication Critical patent/JP2025129144A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000096Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/005Flexible endoscopes
    • A61B1/0051Flexible endoscopes with controlled bending of insertion part
    • A61B1/0057Constructional details of force transmission elements, e.g. control wires
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/015Control of fluid supply or evacuation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/012Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor
    • A61B1/018Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor characterised by internal passages or accessories therefor for receiving instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/12Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements
    • A61B1/126Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with cooling or rinsing arrangements provided with means for cleaning in-use
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/273Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the upper alimentary canal, e.g. oesophagoscopes, gastroscopes
    • A61B1/2736Gastroscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/31Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the rectum, e.g. proctoscopes, sigmoidoscopes, colonoscopes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Signal Processing (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Gastroenterology & Hepatology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Endoscopes (AREA)

Abstract

To provide an endoscope device for acquiring upper gastrointestinal tract images and a method of controlling the same.SOLUTION: The invention belongs to the field of medical imaging equipment and automation control technology, and particularly relates to an endoscope device associated with imaging of the upper gastrointestinal tract using an endoscope, and to a method of controlling the endoscope device. The method includes the steps of: acquiring an image of the upper gastrointestinal tract from an image sensor; sensing at least one first body part from the image based on a pre-trained model; calculating relative position information between the sensed first body part and a distal end portion; generating a first control signal related to the position of the first body part based on the relative position information; and transmitting the first control signal to a drive unit.SELECTED DRAWING: Figure 2

Description

本発明は、医療映像機器及び自動化制御技術分野に属するものであり、特に、内視鏡を使用した上部胃腸管のイメージ撮影と係わる内視鏡装置に関する。 The present invention relates to the fields of medical imaging equipment and automated control technology, and more particularly to an endoscopic device used for imaging the upper gastrointestinal tract using an endoscope.

内視鏡は、手術をしたり、剖検(病理解剖)をしたりせず、スコープを身体に挿入して臓器を観察する医療器具を総称する。該内視鏡は、人体内部にスコープを挿入し、光を照射し、内壁の表面で反射された光を可視化させる。目的及び身体部位により、該内視鏡の種類が区分され、大きく見て、内視鏡管が金属によって形成された硬性内視鏡(rigid endoscope)と、消化器内視鏡に代表される軟性内視鏡(flexible endoscope)とに区分されうる。 An endoscope is a general term for medical instruments that are inserted into the body to observe organs without performing surgery or autopsies (pathological autopsies). Endoscopes are inserted into the human body, shining light into it and visualizing the light reflected from the surface of the inner wall. Endoscopes are categorized by purpose and body part, and can be broadly divided into rigid endoscopes, in which the endoscopic tube is made of metal, and flexible endoscopes, such as gastrointestinal endoscopes.

今日、内視鏡専門医は、内視鏡診療を行い、病変を発見したとき、器具物を挿入して組織検査を行ったり、スコープのボタンを押したりするようなさらなる動作を遂行しなければならない。このとき、スコープを取っていた手を放してしまいながら、スコープの揺れ、病変が映像視野から外れ出してしまう。 Today, when endoscopists perform endoscopic examinations and discover a lesion, they must perform additional actions such as inserting instruments to perform a tissue examination and pressing buttons on the scope. In doing so, they may let go of the hand holding the scope, causing the scope to shake and the lesion to move out of the field of view.

そのような内視鏡技術は、主に、医療専門家の手動操作に依存するものであり、内視鏡の先端部を調整し、患者内部身体部位のイメージを獲得する。そのような過程は、操作者の熟練度及び経験に大きく依存し、それにより、所望する身体部位の正確であって鮮明なイメージ獲得が困難であるという問題点を有する。特に、内視鏡を操作する過程において、不要な動きがあったり、精密な調節が困難であったりすることにより、正確な診断に必要な特定部位のイメージが十分に獲得されないのである。 Such endoscopic techniques primarily rely on the manual operation of medical professionals to adjust the tip of the endoscope and acquire images of the patient's internal body parts. This process is highly dependent on the operator's skill and experience, which makes it difficult to acquire accurate and clear images of the desired body part. In particular, unnecessary movements and difficulty in precise adjustment during the process of operating the endoscope can prevent the acquisition of sufficient images of specific parts necessary for accurate diagnosis.

また、内視鏡技術は、内視鏡の先端部の位置と角度とを精密に調整するのに制限があり、特に、屈曲が多い上部胃腸管のような部位のイメージ獲得時に、困難さが伴う。そのような限界は、疾病の早期発見、及び正確な位置把握において、内視鏡診断の効率性と正確性とを低下させてしまう。 In addition, endoscopic technology has limitations in precisely adjusting the position and angle of the endoscope's tip, making it particularly difficult to obtain images of areas such as the upper gastrointestinal tract, which has many curves. These limitations reduce the efficiency and accuracy of endoscopic diagnosis in terms of early detection and accurate location of diseases.

本発明は、前述の問題点を解決するために提案されたものであり、本発明が解決しようとする課題は、内視鏡先端部の位置と方向とを、人工神経網に基づいて制御する技術を提供することである。 The present invention has been proposed to solve the above-mentioned problems, and the problem that the present invention aims to solve is to provide technology for controlling the position and direction of the tip of an endoscope based on an artificial neural network.

前述の課題を達成するための本明細書の一実施形態による、内視鏡装置の制御方法は、イメージセンサから、上部胃腸管に係わるイメージを獲得する段階と、事前に学習されたモデルに基づき、前記イメージから、少なくとも1つの第1身体部位を感知する段階と、感知された前記第1身体部位と先端部との相対位置情報を算出する段階と、前記相対位置情報に基づき、前記第1身体部位と対応して操向するための第1制御信号を生成する段階と、前記第1制御信号を駆動部に伝達する段階と、を含むものでもある。 To achieve the above-mentioned object, according to one embodiment of the present specification, a method for controlling an endoscopic device includes the steps of acquiring an image relating to the upper gastrointestinal tract from an image sensor, detecting at least one first body part from the image based on a pre-trained model, calculating relative position information between the detected first body part and the distal end, generating a first control signal for steering in correspondence with the first body part based on the relative position information, and transmitting the first control signal to a drive unit.

前記上部胃腸管に係わるイメージを獲得する段階は、第1地点における第1イメージを獲得する段階と、第2地点における第2イメージを獲得する段階と、を含み、前記相対位置情報を算出する段階は、i)前記第1地点と前記第2地点との間の先端部の角度変化、及びii)前記第1イメージと前記第2イメージとの変化に基づき、前記先端部の目標回転角度を算出する段階を含むものでもある。 The step of acquiring images of the upper gastrointestinal tract includes acquiring a first image at a first point and acquiring a second image at a second point, and the step of calculating the relative position information also includes calculating i) an angle change of the tip between the first point and the second point, and ii) a target rotation angle of the tip based on the change between the first image and the second image.

前記方法は、前記事前に学習されたモデルに基づき、前記イメージから、少なくとも1つの第2身体部位を識別する段階と、識別された前記第2身体部位と先端部との相対ポーズ情報を算出する段階と、前記相対ポーズ情報に基づき、前記第2身体部位の撮影に係わる第2制御信号を生成する段階と、前記第2制御信号を前記駆動部に伝達する段階と、をさらに含むものでもある。 The method further includes identifying at least one second body part from the image based on the pre-trained model, calculating relative pose information between the identified second body part and the tip, generating a second control signal related to photographing the second body part based on the relative pose information, and transmitting the second control signal to the driver.

前記相対ポーズ情報を算出する段階は、獲得された前記イメージ、及び照明に係わる明るさ情報に基づき、前記イメージ上の明るさ差を識別する段階と、識別された前記明るさ差に基づき、前記先端部と前記第2身体部位との距離を推定する段階と、推定された前記距離に基づき、前記相対ポーズ情報を算出する段階と、を含むものでもある。 The step of calculating the relative pose information also includes the steps of identifying brightness differences in the image based on the acquired image and brightness information related to lighting, estimating the distance between the tip and the second body part based on the identified brightness differences, and calculating the relative pose information based on the estimated distance.

前記上部胃腸管に係わるイメージを獲得する段階は、第1地点における第1イメージを獲得する段階と、第2地点における第2イメージを獲得する段階と、を含み、前記相対ポーズ情報を算出する段階は、i)前記第1地点と前記第2地点との間の先端部の角度変化、及びii)前記第1イメージと前記第2イメージとの変化に基づき、前記先端部と前記第2身体部位との距離を推定する段階と、前記相対ポーズ情報を算出する段階と、を含むものでもある。 The step of acquiring images relating to the upper gastrointestinal tract includes acquiring a first image at a first point and acquiring a second image at a second point, and the step of calculating the relative pose information also includes estimating the distance between the tip and the second body part based on i) the angle change of the tip between the first point and the second point, and ii) the change between the first image and the second image, and calculating the relative pose information.

前記事前に学習されたモデルは、上部胃腸管に係わる第1身体部位及び第2身体部位についてラベリングされたイメージをデータセットにして学習された分類モデル及び感知モデルを含むものでもある。 The pre-trained models may also include classification models and detection models trained using a dataset of labeled images of a first body part and a second body part related to the upper gastrointestinal tract.

前記第2制御信号を生成する段階は、識別された前記第2身体部位と対応する少なくとも1つの撮影地点を識別する段階と、前記少なくとも1つの撮影地点、及び前記相対位置情報に基づき、第2制御信号を生成する段階と、前記先端部の位置が、前記撮影地点に対応する場合、イメージを撮影する段階と、を含むものでもある。 The step of generating the second control signal also includes the steps of identifying at least one imaging location corresponding to the identified second body part, generating a second control signal based on the at least one imaging location and the relative position information, and capturing an image when the position of the tip corresponds to the imaging location.

前記方法は、前記第1制御信号に基づき、少なくとも1本のワイヤの張力を調節し、前記先端部の回転角度を制御する段階をさらに含むものでもある。 The method may further include adjusting the tension of at least one wire and controlling the rotation angle of the tip based on the first control signal.

前記駆動部は、トルクフィードバックを生成し、操作部に、前記トルクフィードバックを伝達する段階をさらに含むものでもある。 The drive unit further includes a step of generating torque feedback and transmitting the torque feedback to the operating unit.

前記トルクフィードバックは、前記イメージ撮影に係わる第1制御信号により、前記先端部が移動しなければならない目標回転角度と正の相関関係を有しうる。 The torque feedback may have a positive correlation with the target rotation angle to which the tip must move in response to the first control signal related to the image capture.

前述の課題を達成するための本明細書の一実施形態による内視鏡装置は、イメージセンサを具備する先端部と、前記先端部の回転角度を制御する駆動部と、事前に学習されたモデルに基づき、前記イメージから、少なくとも1つの第1身体部位を感知し、感知された前記第1身体部位と先端部との相対位置情報を算出し、前記相対位置情報に基づき、前記第1身体部位との位置に係わる第1制御信号を生成し、前記第1制御信号を駆動部に伝達する制御部と、を含むものでもある。 An endoscopic device according to one embodiment of the present specification, which aims to achieve the above-mentioned object, includes a tip portion equipped with an image sensor, a drive unit that controls the rotation angle of the tip portion, and a control unit that detects at least one first body part from the image based on a pre-trained model, calculates relative position information between the detected first body part and the tip portion, generates a first control signal related to the position of the first body part based on the relative position information, and transmits the first control signal to the drive unit.

前記制御部は、第1地点における第1イメージを獲得し、第2地点における第2イメージを獲得し、i)前記第1地点と前記第2地点との間の先端部の角度変化、及びii)前記第1イメージと前記第2イメージとの変化に基づき、前記先端部の目標回転角度を算出しうる。 The control unit may acquire a first image at a first point and a second image at a second point, and calculate a target rotation angle of the tip based on i) the change in angle of the tip between the first point and the second point, and ii) the change between the first image and the second image.

前記制御部は、前記事前に学習されたモデルに基づき、前記イメージから、少なくとも1つの第2身体部位を識別し、識別された前記第2身体部位と先端部との相対ポーズ情報を算出し、前記相対ポーズ情報に基づき、前記第2身体部位の撮影に係わる第2制御信号を生成し、前記第2制御信号を前記駆動部に伝達しうる。 The control unit may identify at least one second body part from the image based on the pre-trained model, calculate relative pose information between the identified second body part and the tip, generate a second control signal related to photographing the second body part based on the relative pose information, and transmit the second control signal to the driving unit.

前記制御部は、獲得された前記イメージ、及び照明に係わる明るさ情報に基づき、前記イメージ上の明るさ差を識別し、識別された前記明るさ差に基づき、前記先端部と前記第2身体部位との距離を推定し、推定された前記距離に基づき、前記相対ポーズ情報を算出しうる。 The control unit may identify brightness differences in the image based on the acquired image and brightness information related to lighting, estimate the distance between the tip and the second body part based on the identified brightness differences, and calculate the relative pose information based on the estimated distance.

前記制御部は、第1地点における第1イメージを獲得し、第2地点における第2イメージを獲得し、i)前記第1地点と前記第2地点との間の先端部の角度変化、及びii)前記第1イメージと前記第2イメージとの変化に基づき、前記先端部と前記第2身体部位との距離を推定し、前記相対ポーズ情報を算出しうる。 The control unit may acquire a first image at a first location and a second image at a second location, and estimate the distance between the tip and the second body part based on i) the change in angle of the tip between the first location and the second location, and ii) the change between the first image and the second image, and calculate the relative pose information.

前記事前に学習されたモデルは、上部胃腸管に係わる第1身体部位及び第2身体部位についてラベリングされたイメージをデータセットにして学習された分類モデル及び感知モデルを含むものでもある。 The pre-trained models may also include classification models and detection models trained using a dataset of labeled images of a first body part and a second body part related to the upper gastrointestinal tract.

前記制御部は、識別された前記身体部位と対応する少なくとも1つの撮影地点を識別し、前記少なくとも1つの撮影地点、及び前記相対位置情報に基づき、第2制御信号を生成し、前記先端部の位置が、前記撮影地点に対応する場合、イメージを撮影しうる。 The control unit may identify at least one imaging location corresponding to the identified body part, generate a second control signal based on the at least one imaging location and the relative position information, and capture an image when the position of the tip corresponds to the imaging location.

前記内視鏡装置は、前記先端部と連結された湾曲部をさらに含み、前記制御部は、前記制御信号に基づき、前記駆動部を制御し、前記駆動部と連結された少なくとも1本のワイヤの張力を調節し、前記湾曲部の湾曲に基づき、前記先端部の回転角度を調節しうる。 The endoscopic device further includes a bending section connected to the tip section, and the control section controls the drive section based on the control signal to adjust the tension of at least one wire connected to the drive section, and adjusts the rotation angle of the tip section based on the bending of the bending section.

前記内視鏡装置は、湾曲操向部を具備する操作部をさらに含み、前記制御部は、前記駆動部に基づき、トルクフィードバックを生成し、前記湾曲操向部に、前記トルクフィードバックを伝達しうる。 The endoscope device further includes an operation unit having a bending steering unit, and the control unit can generate torque feedback based on the drive unit and transmit the torque feedback to the bending steering unit.

前記トルクフィードバックは、前記イメージ撮影に係わる第1制御信号により、前記先端部が移動しなければならない目標回転角度と正の相関関係を有しうる。 The torque feedback may have a positive correlation with the target rotation angle to which the tip must move in response to the first control signal related to the image capture.

本発明の一実施形態によれば、内視鏡装置の制御部が先端部の位置を制御し、特定身体部位のイメージを正確であって効率的に獲得しうる。それを介し、内視鏡操作の難易度を低くし、医療診断の正確性を向上させうる。 According to one embodiment of the present invention, the control unit of the endoscope device controls the position of the tip, allowing for accurate and efficient acquisition of images of specific body parts. This reduces the difficulty of endoscopic operation and improves the accuracy of medical diagnoses.

本実施形態の効果は、以上で言及された効果に制限されるものではなく、言及されていない他の効果は、特許請求の範囲の記載から、当該技術分野の通常の技術者に明確に理解されうるであろう。 The effects of this embodiment are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the claims.

本発明の一実施形態による内視鏡装置を概略的に図示する図である。1 is a diagram schematically illustrating an endoscopic device according to an embodiment of the present invention. 本発明の一実施形態による、駆動部とワイヤとによって湾曲部が制御される過程について説明するための図である。10A to 10C are diagrams illustrating a process in which a bending section is controlled by a driving section and a wire according to an embodiment of the present invention. 本発明の一実施形態による、学習モデルを生成する動作を図示するフローチャートである。1 is a flowchart illustrating an operation for generating a learning model according to one embodiment of the present invention. 本発明の一実施形態による、内視鏡装置の動作を図示するフローチャートである。1 is a flowchart illustrating the operation of an endoscopic device, in accordance with one embodiment of the present invention. 本発明の他の実施形態による、内視鏡装置の動作を図示するフローチャートである。10 is a flowchart illustrating the operation of an endoscopic device in accordance with another embodiment of the present invention. 本発明のさらに他の実施形態による内視鏡装置の動作を図示するフローチャートである。10 is a flowchart illustrating the operation of an endoscopic device according to yet another embodiment of the present invention. 本発明の一実施形態による、内視鏡装置の相対ポーズ情報を算出する動作を図示するフローチャートである。10 is a flowchart illustrating an operation of calculating relative pose information of an endoscopic device in accordance with an embodiment of the present invention. 本発明の他の実施形態による、内視鏡装置の相対ポーズ情報を算出する動作を図示するフローチャートである。10 is a flowchart illustrating an operation of calculating relative pose information of an endoscopic device according to another embodiment of the present invention. 本発明のさらに他の実施形態による、内視鏡装置の相対ポーズ情報を算出する動作を図示するフローチャートである。10 is a flowchart illustrating an operation of calculating relative pose information of an endoscopic device according to yet another embodiment of the present invention. 本発明の一実施形態による、内視鏡装置のイメージ撮影に係わる動作を図示するフローチャートである。1 is a flowchart illustrating operations involved in capturing images in an endoscopic device, in accordance with one embodiment of the present invention. 本発明の一実施形態による、内視鏡装置のトルクフィードバックに係わる動作を図示するフローチャートである。10 is a flowchart illustrating operations relating to torque feedback in an endoscopic device, in accordance with one embodiment of the present invention. 本発明の一実施形態による、コンピュータ装置のブロック構成を図示するブロック図である。FIG. 1 is a block diagram illustrating a block configuration of a computer device according to an embodiment of the present invention.

本発明で使用される用語は、単に特定の実施例について説明するために使用されたものであり、他の実施例の範囲を限定する意図ではないのである。単数の表現は、文脈上、明白にそれに限って意味しない限り、複数の表現を含むものでもある。技術的であったり科学的であったりする用語を含み、ここで使用される用語は、本発明に記載された技術分野において、通常の知識を有する者により、一般的に理解されるところと同一意味を有しうる。本発明に使用された用語のうち、一般的な事前に定義された用語は、関連技術の文脈上で有する意味と、同一であるか、あるいは類似した意味に解釈され、本発明で明白に定義されない限り、理想的であったり、過度に形式的であったりする意味に解釈されるものではない。場合により、本発明で定義された用語であったとしても、本発明の実施形態を排除するように解釈されるものではない。 The terms used in this specification are merely used to describe particular embodiments and are not intended to limit the scope of other embodiments. The singular expressions also include the plural expressions unless the context clearly dictates otherwise. Terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the technical field described in this specification. Among the terms used in this specification, commonly defined terms should be interpreted as meanings that are identical to or similar to the meanings they have in the context of the relevant technology, and should not be interpreted as ideal or overly formal unless expressly defined in this specification. In some cases, even if a term is defined in this specification, it should not be interpreted as excluding embodiments of the present specification.

以下においては、添付図面を参照し、本発明が属する技術分野において、通常の知識を有する者であるならば、容易に実施しうるように、多様な実施形態について詳細に説明する。しかしながら、本発明の技術的思想は、多様な形態に変形されて具現されうるので、本明細書において説明される実施形態に制限されるものではない。本明細書に開示された実施形態についての説明において、関連公知技術について具体的に説明することが、本発明の技術的思想の要旨を不明確にしうると判断される場合、その公知技術に係わる具体的な説明を省略する。同一であるか、あるいは類似した構成要素は、同一参照番号を付し、それに係わる重複説明は、省略する。 Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily implement the present invention. However, the technical concept of the present invention may be embodied in various forms and is not limited to the embodiments described herein. In describing the embodiments disclosed herein, if a detailed description of related publicly known technology is deemed to obscure the gist of the technical concept of the present invention, the detailed description of that publicly known technology will be omitted. Identical or similar components will be designated by the same reference numerals, and redundant description thereof will be omitted.

ここで、本実施形態で使用される「~部」という用語は、ソフトウェア、あるいはFPGA(field programmable gate array)または特定用途向け集積回路(ASIC:application-specific integrated circuit)のようなハードウェアによって遂行される特定機能を遂行する構成要素を意味する。しかしながら、「~部」は、ソフトウェアまたはハードウェアによって遂行されるものに限定されるものではない。「~部」は、アドレッシングしうる記録媒体に保存されたデータ形態として存在することもでき、命令語によって具現され、1またはその以上のプロセッサが特定機能を実行するように構成されもする。 The term "module" used in this embodiment refers to a component that performs a specific function, whether performed by software or hardware such as an FPGA (field programmable gate array) or an application-specific integrated circuit (ASIC). However, the term "module" is not limited to being performed by software or hardware. The "module" may exist in the form of data stored on an addressable recording medium, or may be embodied by an instruction word, configuring one or more processors to execute a specific function.

ソフトウェアは、コンピュータプログラム(computer program)、コード(code)、命令(instruction)、またはそれらのうち1以上の組み合わせを含むものでもあり、所望通りに動作するように処理装置を構成するか、あるいは独立して、または結合的に(collectively)処理装置に命令しうる。ソフトウェア及び/またはデータは、処理装置によって解釈されるか、あるいは処理装置に、命令またはデータを提供するために、ある類型の機械、構成要素(component)、物理的装置、仮想装置(virtual equipment)、コンピュータ記録媒体またはその装置、あるいは伝送される信号波(signal wave)に、永久的に、または一時的に具体化されうる(embody)。該ソフトウェアは、ネットワークに連結されたコンピュータシステム上に分散され、分散された方法によって保存されるか、あるいは実行されもする。該ソフトウェア及び該データは、1以上のコンピュータで読み取り可能な記録媒体に保存されうる。該ソフトウェアは、データストレージデバイスのような、コンピュータで読み取り可能な他の媒体から、または通信インターフェースを介し、他のデバイスから、主メモリ内に読み取られる。主メモリに保存されたソフトウェア命令語は、プロセッサをして、詳細に後述するプロセスまたは段階を遂行させうる。代案としては、ソフトウェア命令語の代わり、あるいはソフトウェア命令語と結合され、固定配線回路を使用し、本発明の原理と一致するプロセスを実行しうる。従って、本発明の原理と一致する実施形態は、ハードウェア回路とソフトウェアとのいかなる特定組み合わせにも限定されるものではない。 Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing device to operate in a desired manner or may, independently or collectively, instruct the processing device. The software and/or data may be permanently or temporarily embodied in some type of machine, component, physical device, virtual device, computer storage medium or device, or transmitted signal wave to be interpreted by the processing device or to provide instructions or data to the processing device. The software may also be distributed across network-linked computer systems, stored or executed in a distributed manner. The software and data may be stored in one or more computer-readable storage media. The software may be read into main memory from other computer-readable media, such as a data storage device, or from another device via a communications interface. Software instructions stored in main memory may cause a processor to perform the processes or steps described in detail below. Alternatively, hard-wired circuitry may be used in place of or in combination with software instructions to implement processes consistent with the principles of the invention. Thus, embodiments consistent with the principles of the invention are not limited to any specific combination of hardware circuitry and software.

本出願で使用された用語は、単に特定の実施形態についての説明に使用されたものであり、本発明を限定する意図ではない。単数の表現は、文脈上、明白にそれに限って意味しない限り、複数の表現を含む。本出願において、「含む」または「有する」というような用語は、明細書上に記載された特徴、数、段階、動作、構成要素、部品、またはそれらの組み合わせが存在するということを指定するものであり、1またはそれ以上の他の特徴、数、段階、動作、構成要素、部品、またはそれらの組み合わせの存在または付加の可能性を事前に排除するものではないと理解されなければならない。第1、第2のような用語は、多様な構成要素についての説明に使用されうるが、該構成要素は、前記用語によって限定されるものではない。前記用語は、1つの構成要素を、他の構成要素から区別する目的のみに使用される。 The terms used in this application are merely used to describe particular embodiments and are not intended to limit the present invention. The singular terms include the plural terms unless the context clearly dictates otherwise. In this application, terms such as "comprise" or "have" specify the presence of a specified feature, number, step, operation, component, part, or combination thereof, but should be understood not to preclude the presence or addition of one or more other features, numbers, steps, operations, components, parts, or combinations thereof. Terms such as "first" and "second" may be used to describe various components, but the components are not limited by these terms. These terms are used solely to distinguish one component from another.

本発明で言及される「学習モデル」は、データから、特定のパターンや構造を学習するか、あるいは理解するために使用される全ての形態のアルゴリズムまたは方法論を含むものでもある。すなわち、該学習モデルは、回帰モデル、意思決定ツリー、ランダムフォレスト、サポートベクターマシン、K-最近接隣接、ナイーブフェーズ、クラスタリングアルゴリズムのようなマシーンラーニングモデルだけではなく、神経網、コンボリューション神経網、循環神経網、Transformer基盤神経網、GANs(Generative Adversarial Networks)、オートエンコーダのようなディープラーニングモデルも含むものでもある。「学習モデル」は、特定入力に対する出力を予測するか、あるいは分類するのに使用される学習されたパラメータや加重値集合を指し、該モデルは、指導学習、非指導学習、半指導学習、強化学習のような方法を介して学習されうる。また、それは、単一モデルだけではなく、アンサンブルモデル、マルチモーダルモデル、トランスファ学習を介するモデルのような多様な学習方式と構造とを含みもする。そのような学習モデルは、入力に対する出力を予測するコンピュータ装置と別個のコンピュータ装置で事前学習され、他のコンピュータ装置で使用されもする。 The term "learning model" as used herein includes all forms of algorithms or methodologies used to learn or understand specific patterns or structures from data. That is, the term "learning model" includes not only machine learning models such as regression models, decision trees, random forests, support vector machines, K-nearest neighbors, naive phase, and clustering algorithms, but also deep learning models such as neural networks, convolutional neural networks, recurrent neural networks, Transformer-based neural networks, GANs (generative adversarial networks), and autoencoders. A "learning model" refers to a set of learned parameters or weights used to predict or classify an output for a specific input. The model can be trained through methods such as supervised learning, unsupervised learning, semi-supervised learning, and reinforcement learning. It also includes not only single models, but also various learning methods and structures such as ensemble models, multimodal models, and models via transfer learning. Such learning models can be pre-trained on a computer device separate from the computer device that predicts the output for an input, and then used on another computer device.

本発明の一実施形態による学習モデルは、客体分類(object classification)、客体感知(object detection)及び位置推定(position estimation)に係わるモデルを、少なくとも一つ含むものでもある。 The learning model according to one embodiment of the present invention may include at least one model related to object classification, object detection, and position estimation.

図1は、本発明の一実施形態による内視鏡装置を概略的に図示する。 Figure 1 illustrates a schematic diagram of an endoscopic device according to one embodiment of the present invention.

図1を参照すれば、本発明の一実施形態による内視鏡装置100は、軟性内視鏡(flexible endoscope)、具体的には、消化器内視鏡でもある。内視鏡装置100は、消化器内部を撮影した医療映像を獲得しうる構成、及び必要な場合、ツールを挿入し、医療映像を見ながら、治療または処置を行いうる構成を含むものでもある。 Referring to FIG. 1, an endoscopic device 100 according to one embodiment of the present invention is a flexible endoscope, specifically a gastrointestinal endoscope. The endoscopic device 100 also includes a configuration capable of acquiring medical images of the inside of the gastrointestinal tract, and a configuration capable of inserting a tool and performing treatment or procedures while viewing the medical images, if necessary.

内視鏡装置100は、出力部110、制御部120、駆動部130、スコープ140及び操作部160を含むものでもある。 The endoscope device 100 also includes an output unit 110, a control unit 120, a drive unit 130, a scope 140, and an operation unit 160.

出力部110は、医療映像を表示するディスプレイを含むものでもある。出力部110は、液晶ディスプレイ(LCD:liquid crystal display)、薄膜トランジスタ液晶ディスプレイ(TFT LCD:thin film transistor-liquid crystal display)、有機発光ダイオード(OLED:organic light-emitting diode)、フレキシブルディスプレイ(flexible display)、三次元ディスプレイ(3D display)のように、視覚化された情報を出力するか、あるいはタッチスクリーン(touch screen)を具現しうるディスプレイモジュールを含み、イメージ表現機能、イメージ拡大機能、イメージ縮小機能などを支援する。また、タッチスクリーン機能を介し、ユーザがイメージを操作し、必要な情報を得ることができることになる。そのような出力部110は、スコープ140で獲得された医療映像、または制御部120で処理された医療映像を表示しうる。 The output unit 110 may also include a display that displays medical images. The output unit 110 may output visualized information using a display module such as a liquid crystal display (LCD), thin film transistor-liquid crystal display (TFT LCD), organic light-emitting diode (OLED), flexible display, or 3D display, or may include a display module that may implement a touch screen, supporting functions such as image display, image enlargement, and image reduction. Furthermore, the touch screen function allows the user to manipulate the image and obtain necessary information. The output unit 110 may display medical images acquired by the scope 140 or medical images processed by the control unit 120.

駆動部130は、スコープ140が身体内部に挿入されるか、あるいは身体内部で動く過程において、必要な動力を提供しうる。例えば、駆動部130は、スコープ140内部のワイヤと連結される複数のモータ、及びワイヤの張力を調節する張力調節部を含むものでもある。駆動部130は、複数のモータそれぞれの動力を制御し、スコープ140を多様な方向に制御しうる。具体的には、駆動部130は、複数のモータそれぞれの動力を制御し、ワイヤの張力を調節し、湾曲部142を湾曲させ、先端部143の回転角度を調節しうる。 The driving unit 130 may provide the necessary power when the scope 140 is inserted into or moves within the body. For example, the driving unit 130 may include multiple motors connected to wires inside the scope 140 and a tension adjustment unit that adjusts the tension of the wires. The driving unit 130 may control the power of each of the multiple motors to control the scope 140 in various directions. Specifically, the driving unit 130 may control the power of each of the multiple motors to adjust the tension of the wires, bend the bending portion 142, and adjust the rotation angle of the tip portion 143.

スコープ140は、挿入部141、湾曲部142及び先端部143を含むものでもある。挿入部141は、身体内部に挿入される部分であり、湾曲部142によって操向され、内部の器官に移動しうる。 The scope 140 also includes an insertion section 141, a bending section 142, and a tip section 143. The insertion section 141 is the part that is inserted into the body and can be steered by the bending section 142 to move to internal organs.

湾曲部142は、挿入部141と連結され、スコープ140の身体内部の進入方向を調節しうる。湾曲部142は、ユーザの命令、または制御部の制御信号により、回転角度を調節しうる。 The bending portion 142 is connected to the insertion portion 141 and can adjust the direction in which the scope 140 enters the body. The bending portion 142 can adjust its rotation angle in response to a user command or a control signal from the control unit.

先端部143は、スコープ140の先端に位置し、ユーザの命令、または制御部の制御信号により、多様な動作を遂行しうる。先端部143は、イメージセンサ151、ノズル152、照明153、レンズ154及びワーキングチャネル155を含むものでもある。 The tip 143 is located at the tip of the scope 140 and can perform various operations in response to commands from the user or control signals from the control unit. The tip 143 also includes an image sensor 151, a nozzle 152, a light 153, a lens 154, and a working channel 155.

イメージセンサ151は、内視鏡装置のイメージを撮影しうる。例えば、イメージセンサ151は、CMOS(complementary metal-oxide-semiconductor)センサ及びCCD(charge-coupled device)センサでもある。 The image sensor 151 can capture images of the endoscopic device. For example, the image sensor 151 can be a CMOS (complementary metal-oxide-semiconductor) sensor or a CCD (charge-coupled device) sensor.

ノズル152は、溶液、薬物などを噴霧し、レンズ154を掃除しうる。また、ノズル152は、組織検査や治療に必要な薬物を、身体内部に噴射することもできる。 Nozzle 152 can spray solutions, medications, etc. to clean lens 154. Nozzle 152 can also inject medications required for tissue examination or treatment into the body.

照明153は、一定照度でもって、イメージセンサ151がイメージを撮影することができるように、光源を照射しうる。照明153の明るさに係わる情報は、制御部120に事前に保存されてもいる。 The lighting 153 may emit a light source at a constant illuminance so that the image sensor 151 can capture an image. Information regarding the brightness of the lighting 153 may also be stored in advance in the control unit 120.

レンズ154は、イメージセンサ151が適切なイメージを撮影することができるように、光を集光しうる。そのようなレンズ154は、広角機能またはズーム機能を含みもする。 Lens 154 may focus light so that image sensor 151 can capture a suitable image. Such a lens 154 may also include a wide-angle or zoom function.

ワーキングチャネル155は、別途の器具や、サンプリングツールを人体内部に伝達するためのチャネルを指しうる。 The working channel 155 may refer to a channel for transmitting a separate instrument or sampling tool into the human body.

操作部160は、内視鏡を実際に操作するユーザインターフェースを指しうる。操作部160は、湾曲操向部161、及び内視鏡の多様な機能を制御するためのさまざまなボタン、ダイヤル、レバーを含むものでもある。ユーザは、そのような操作部160に具備された構成に基づき、ユーザ命令を入力しうる。 The operation unit 160 may refer to the user interface that actually operates the endoscope. The operation unit 160 also includes the bending and steering unit 161 and various buttons, dials, and levers for controlling the various functions of the endoscope. The user can input user commands based on the configuration provided in such operation unit 160.

湾曲操向部161は、湾曲部142の調節に使用されうる。湾曲操向部161は、回転式ノブ、ジョイスティック及びレバーの形態に具現され、ユーザがそれらを回転させたり動かしたりし、湾曲部142の方向を操向しうる。湾曲操向部161は、駆動部130からトルクフィードバックを伝達されうる。例えば、該トルクフィードバックは、先端部143が人体内部組織に接触するときに生じる力を模写したり、事前に学習されたモデルに基づいたりする、駆動部130の制御信号による物理的信号でもある。 The bending steering unit 161 may be used to adjust the bending portion 142. The bending steering unit 161 may be embodied in the form of a rotary knob, joystick, or lever, and the user may rotate or move it to steer the direction of the bending portion 142. The bending steering unit 161 may receive torque feedback from the drive unit 130. For example, the torque feedback may be a physical signal based on a control signal from the drive unit 130 that replicates the force generated when the tip portion 143 comes into contact with internal human tissue or is based on a pre-trained model.

制御部120は、内視鏡装置100の全般的な動作を制御し、一実施形態による内視鏡装置の動作を遂行しうる。制御部120は、スコープ140と連結される駆動部130を介し、スコープ140の動きを制御しうる。制御部120は、スコープ140を介して消化器内部を撮影するための各種制御動作を遂行しうる。制御部120は、スコープ140を介して獲得した医療映像の多様な処理を行いうる。 The control unit 120 may control the overall operation of the endoscopic device 100 and perform the operation of the endoscopic device according to one embodiment. The control unit 120 may control the movement of the scope 140 via the driving unit 130 connected to the scope 140. The control unit 120 may perform various control operations for capturing images of the inside of the digestive tract through the scope 140. The control unit 120 may perform various processes on the medical images acquired through the scope 140.

一実施形態による制御部120は、イメージセンサから、上部胃腸管に係わるイメージを獲得し、事前に学習されたモデルに基づき、イメージから、少なくとも1つの身体部位を感知し、身体部位と先端部との相対位置情報を算出し、識別された身体部位及び相対ポーズ情報に基づき、イメージ撮影に係わる制御信号を生成し、該制御信号を駆動部に伝達しうる。そのような相対位置情報とは、先端部の現在位置である第1位置から第2位置への移動を行うための操向情報を指しうる。例えば、制御部120は、相対位置情報を利用し、イメージ上のx,y座標ほど離れている身体部位に向け、先端部を操向しうる目標回転角度を算出しうる。また、制御部120は、目標回転角度によって制御信号を生成して駆動部を制御し、該制御により、先端部のピッチ(pitch)とヨー(yaw)とを介して調節し、イメージ上のx,y座標ほど離れている身体部位に向け、先端部を操向することができる。 According to one embodiment, the control unit 120 may acquire an image of the upper gastrointestinal tract from an image sensor, detect at least one body part from the image based on a pre-trained model, calculate relative position information between the body part and the distal end, generate a control signal for image capture based on the identified body part and relative pose information, and transmit the control signal to the driver. Such relative position information may refer to steering information for moving the distal end from a first position, which is the current position of the distal end, to a second position. For example, the control unit 120 may use the relative position information to calculate a target rotation angle by which the distal end can be steered toward a body part that is located approximately x and y coordinates away on the image. The control unit 120 may also generate a control signal based on the target rotation angle to control the driver, and adjust the pitch and yaw of the distal end to steer the distal end toward a body part that is located approximately x and y coordinates away on the image.

一実施形態による制御部120は、イメージセンサから、上部胃腸管に係わるイメージを獲得し、事前に学習されたモデルに基づき、イメージから、少なくとも1つの身体部位を識別し、該身体部位と先端部との相対ポーズ情報を算出し、識別された身体部位及び相対ポーズ情報に基づき、イメージ撮影に係わる制御信号を生成し、該制御信号を駆動部に伝達しうる。そのような相対ポーズ情報とは、先端部の現在ポーズである第1ポーズと識別された身体部位を効果的に撮影するための第2ポーズへの移動のための情報を指しうる。ポーズ(pose)とは、空間内客体の位置、方向を含むものでもある。例えば、該位置は、座標系におけるx,y,z座標、該方向は、ピッチ(roll around x-axis)、ヨー(roll around y-axis)、ロール(roll around z-axis)の形態で表現されうる。 According to one embodiment, the control unit 120 may acquire an image related to the upper gastrointestinal tract from an image sensor, identify at least one body part from the image based on a pre-trained model, calculate relative pose information between the body part and the tip, generate a control signal related to image capture based on the identified body part and the relative pose information, and transmit the control signal to the driver. Such relative pose information may refer to information for moving from a first pose, which is the current pose of the tip, to a second pose for effectively capturing the identified body part. A pose also includes the position and orientation of an object in space. For example, the position may be expressed in the form of x, y, and z coordinates in a coordinate system, and the orientation may be expressed in the form of pitch (roll around x-axis), yaw (roll around y-axis), and roll (roll around z-axis).

制御部120は、CPU(central processing unit)、RAM(random access memory)、ROM(read-only memory)、システムバスなどを含むものでもある。制御部120は、単一CPUまたは複数CPU(または、DSP(digital signal processor)、SoC(system-on-chip))によって具現されうる。一実施形態として、制御部120は、デジタル信号を処理するデジタルシグナルプロセッサ(DSP:digital signal processor)、マイクロプロセッサ(microprocessor)、TCON(time controller)によって具現されうる。ただし、それらに限定されるものではなく、中央処理装置(CPU)、MCU(micro controller unit)、MPU(micro processing unit)、コントローラ(controller)、アプリケーションプロセッサ(AP:application processor)、コミュニケーションプロセッサ(CP:communication processor)またはARMプロセッサのうち、1またはそれ以上を含むか、あるいは当該用語によって定義されうる。また、制御部120は、プロセッシングアルゴリズムが内蔵されたSoC(system-on-chip)、LSI(large scale integration)によっても具現され、FPGA(field programmable gate array)形態によっても具現される。さらには、制御部120は、神経網処理装置(NPU:neural processing unit)、GPU(graphics processing unit)及びTPU(tensor processing unit)を含みもする。 The control unit 120 may also include a central processing unit (CPU), random access memory (RAM), read-only memory (ROM), a system bus, etc. The control unit 120 may be implemented by a single CPU or multiple CPUs (or a digital signal processor (DSP), system-on-chip (SoC)). In one embodiment, the control unit 120 may be implemented by a digital signal processor (DSP) that processes digital signals, a microprocessor, or a time controller (TCON). However, the control unit 120 may include or be defined by one or more of the following terms: a central processing unit (CPU), a microcontroller unit (MCU), a microprocessing unit (MPU), a controller, an application processor (AP), a communication processor (CP), or an ARM processor, without being limited thereto. The control unit 120 may also be implemented as a system-on-chip (SoC) or large-scale integration (LSI) with a built-in processing algorithm, or as a field programmable gate array (FPGA). Furthermore, the control unit 120 may include a neural processing unit (NPU), a graphics processing unit (GPU), and a tensor processing unit (TPU).

図2は、本発明の一実施形態による、駆動部とワイヤとによって湾曲部が制御される過程について説明するための図面である。説明の便宜のために、2個のモータ200を利用し、湾曲部142の方向を制御する動作を図示しており、それを拡張し、複数個のモータを利用し、それぞれのワイヤの張力を調節し、先端部の回転角度を調節しうるところが当業者に明確であろう。 Figure 2 is a diagram illustrating the process by which the bending portion is controlled by the drive unit and wires according to one embodiment of the present invention. For ease of explanation, the operation of controlling the direction of the bending portion 142 using two motors 200 is illustrated. However, it will be clear to those skilled in the art that it is also possible to use multiple motors to adjust the tension of each wire and adjust the rotation angle of the tip portion.

図2を参照すれば、内視鏡装置100は、駆動部130に含まれたモータ200、第1ワイヤ210及び第2ワイヤ220を含むものでもある。内視鏡装置100は、湾曲部142を一側に湾曲させるために、モータ200を制御し、第1ワイヤ210の張力を高くし、第2ワイヤ220の張力を低くすることができる。また、内視鏡装置100は、湾曲部142を他側に湾曲させるために、モータ200を制御し、第1ワイヤ210の張力を低くし、第2ワイヤ220の張力を高くすることができる。 Referring to FIG. 2, the endoscopic device 100 also includes a motor 200, a first wire 210, and a second wire 220 included in the drive unit 130. To bend the bending portion 142 to one side, the endoscopic device 100 can control the motor 200 to increase the tension of the first wire 210 and decrease the tension of the second wire 220. To bend the bending portion 142 to the other side, the endoscopic device 100 can control the motor 200 to decrease the tension of the first wire 210 and increase the tension of the second wire 220.

内視鏡装置100は、そのような方式でもって、先端部143の回転角度を調節しうる。 The endoscope device 100 can adjust the rotation angle of the tip portion 143 in this manner.

図3は、本発明の一実施形態による、客体感知に係わる学習モデルを生成する動作を図示するフローチャートである。図3における学習モデルは、事前に学習されたモデルに対応しうる。そのような動作は、説明の便宜のために、別個のコンピュータ装置によって学習されるように開示されているが、内視鏡装置100、または別個のコンピュータ装置によって動作しうることは、当業者に明確であろう。 FIG. 3 is a flowchart illustrating operations for generating a learning model for object detection according to one embodiment of the present invention. The learning model in FIG. 3 may correspond to a pre-trained model. While such operations are disclosed as being learned by a separate computer device for convenience of explanation, it will be clear to one skilled in the art that they may be performed by the endoscopic device 100 or a separate computer device.

図3を参照すれば、コンピュータ装置は、S310段階において、内視鏡イメージを検討し、特定身体部位をタグしたりラベリングしたりしうる。ユーザ入力などに基づき、該コンピュータ装置は、イメージにおいて、上部胃腸管の部位をバウンディングボックスでもってラベリングしうる。例えば、そのような上部胃腸管は、口腔(oral cavity)、咽頭(pharynx)、食道(esophagus)、胃(stomach)、十二指腸(duodenum)のうち少なくとも一つを含むものでもある。また、内視鏡イメージとして、口腔、咽頭、食道、胃、十二指腸の内腔イメージを含むものでもある。 Referring to FIG. 3, in step S310, the computer device may review the endoscopic image and tag or label specific body parts. Based on user input, the computer device may label parts of the upper gastrointestinal tract in the image with bounding boxes. For example, the upper gastrointestinal tract may include at least one of the oral cavity, pharynx, esophagus, stomach, and duodenum. The endoscopic image may also include images of the oral cavity, pharynx, esophagus, stomach, and duodenum.

一実施形態によるコンピュータ装置は、S320段階において、ラベルが指定されたイメージを含み、データセットを生成しうる。そのようなデータセットは、多様な照明条件、視野角度、身体部位の状態などを含むデータセットでもある。 In one embodiment, the computer device may generate a dataset including labeled images in step S320. Such a dataset may include various lighting conditions, viewing angles, body part conditions, etc.

一実施形態によるコンピュータ装置は、S330段階において、生成されたデータセットを使用し、神経網モデルを学習させうる。該コンピュータ装置は、該神経網モデルを選択し、データセットに基づき、モデルを学習させうる。例えば、そのようなモデルは、客体感知モデルであり、コンボリューション神経網を含むものでもある。 In one embodiment, the computer device may train a neural network model using the generated dataset in step S330. The computer device may select the neural network model and train the model based on the dataset. For example, such a model may be an object detection model, including a convolutional neural network.

他の実施形態によるコンピュータ装置は、客体分類に係わる学習モデルを生成しうる。そのような客体分類に係わる学習モデルは、イメージ撮影のための客体を識別するためのモデルでもある。 In another embodiment, a computer device may generate a learning model for object classification. Such a learning model for object classification may also be a model for identifying objects for image capture.

他の実施形態によるコンピュータ装置は、S310段階において、コンピュータ装置は、内視鏡イメージを検討し、特定身体部位をタグしたりラベリングしたりしうる。ユーザ入力などに基づいてコンピュータ装置は、イメージに、上部胃腸管の部位をラベリングしうる。そのような上部胃腸管の部位は、イメージ撮影のための身体部位を指しうる。 In another embodiment, in step S310, the computer device may review the endoscopic image and tag or label a specific body part. Based on user input, the computer device may label the image with a part of the upper gastrointestinal tract. Such a part of the upper gastrointestinal tract may refer to the body part for which the image was taken.

一実施形態によるコンピュータ装置は、S320段階において、ラベルが指定されたイメージを含み、データセットを生成しうる。そのようなデータセットは、多様な照明条件、視野角度、身体部位の状態などを含むデータセットでもある。 In one embodiment, the computer device may generate a dataset including labeled images in step S320. Such a dataset may include various lighting conditions, viewing angles, body part conditions, etc.

一実施形態によるコンピュータ装置は、S330段階において、生成されたデータセットを使用し、神経網モデルを学習させうる。該コンピュータ装置は、該神経網モデルを選択し、該データセットに基づき、モデルを学習させうる。例えば、そのようなモデルは、客体分類モデルであり、コンボリューションコンボリューション神経網を含むものでもある。 In one embodiment, the computer device may train a neural network model using the generated dataset in step S330. The computer device may select the neural network model and train the model based on the dataset. For example, such a model may be an object classification model, including a convolutional neural network.

さらに他の実施形態によるコンピュータ装置は、内視鏡イメージと、ユーザの臨床技能とに対応する制御履歴情報を利用し、学習モデルを生成しうる。そのような制御履歴情報は、内視鏡イメージを観察し、内視鏡の方向、角度、深さなどを調節するのに使用された制御履歴情報を指しうる。他の実施形態によるコンピュータ装置は、S310段階において、上部胃腸管に係わる内視鏡イメージと制御履歴情報とを獲得しうる。例えば、そのような上部胃腸管は、口腔、咽頭、食道、胃、十二指腸のうち少なくとも一つを含むものでもある。また、該内視鏡イメージとして、口腔、咽頭、食道、胃、十二指腸の内腔イメージを含むものでもある。 According to yet another embodiment, the computer device may generate a learning model using endoscopic images and control history information corresponding to the user's clinical skills. Such control history information may refer to control history information used to observe the endoscopic image and adjust the direction, angle, depth, etc. of the endoscope. According to another embodiment, the computer device may acquire endoscopic images and control history information related to the upper gastrointestinal tract in step S310. For example, the upper gastrointestinal tract may include at least one of the oral cavity, pharynx, esophagus, stomach, and duodenum. Furthermore, the endoscopic images may include images of the lumen of the oral cavity, pharynx, esophagus, stomach, and duodenum.

さらに他の実施形態によるコンピュータ装置は、S320段階において、内視鏡イメージと制御履歴情報とを含むデータセットを生成しうる。 In yet another embodiment, the computer device may generate a data set including endoscopic images and control history information in step S320.

さらに他の実施形態によるコンピュータ装置は、S330段階において、生成されたデータセットを使用し、神経網モデルを学習させうる。該コンピュータ装置は、神経網モデルを選択し、データセットに基づき、モデルを学習させうる。例えば、そのようなモデルは、CNN(convolutional neural network)のような分類モデルを含み、イメージ処理を、RNN(recurrent neural network)及びLSTM(long short-term memory)ネットワークのようなシーケンス処理モデルのうち少なくとも一つを含み、制御履歴情報のシーケンス処理を行いうる。 In yet another embodiment, the computer device may train a neural network model using the generated dataset in step S330. The computer device may select a neural network model and train the model based on the dataset. For example, such a model may include a classification model such as a convolutional neural network (CNN), and may perform image processing using at least one of a recurrent neural network (RNN) and a sequence processing model such as a long short-term memory (LSTM) network to perform sequence processing of control history information.

図4Aは、本発明の一実施形態による、内視鏡装置の動作を図示するフローチャートである。 Figure 4A is a flowchart illustrating the operation of an endoscopic device according to one embodiment of the present invention.

図4Aを参照すれば、内視鏡装置は、S410a段階において、イメージセンサから、上部胃腸管に係わるイメージを獲得しうる。例えば、該内視鏡装置の先端部が、上部胃腸管に進入し、該イメージセンサから、光学信号を電気信号に変換されたイメージを獲得しうる。 Referring to FIG. 4A, the endoscopic device may acquire an image of the upper gastrointestinal tract from an image sensor in step S410a. For example, the distal end of the endoscopic device may enter the upper gastrointestinal tract and acquire an image in which an optical signal is converted into an electrical signal from the image sensor.

一実施形態による内視鏡装置は、S420a段階において、事前に学習されたモデルに基づき、前記イメージから、少なくとも1つの身体部位を感知しうる。該内視鏡装置は、上部胃腸管につき、バウンディングボックスでラベリングされた事前に学習されたモデルに基づいて身体部位を感知し、イメージ内部の少なくとも1つの身体部位のイメージ上の位置を確認しうる。 In one embodiment, the endoscopic device may detect at least one body part from the image based on a pre-trained model in step S420a. The endoscopic device may detect body parts based on a pre-trained model labeled with a bounding box for the upper gastrointestinal tract and confirm the position of the at least one body part within the image.

一実施形態による内視鏡装置は、S430a段階において、身体部位と、内視鏡装置の先端部との相対位置情報を算出しうる。該内視鏡装置は、先端部の角度変化によるイメージ変化に基づき、相対位置情報を算出しうる。該内視鏡装置は、そのような相対位置情報を、時差(disparity)と、先端部の角度変化とに基づいて算出しうる。 In one embodiment, an endoscopic device may calculate relative position information between a body part and the tip of the endoscopic device in step S430a. The endoscopic device may calculate the relative position information based on an image change caused by an angle change of the tip. The endoscopic device may calculate such relative position information based on disparity and the angle change of the tip.

一実施形態による内視鏡装置は、S440a段階において、相対位置情報に基づき、身体部位との位置につき、操向のための制御信号を生成しうる。 In one embodiment, in step S440a, an endoscopic device may generate a control signal for steering relative to the body part based on the relative position information.

一実施形態による内視鏡装置は、S450a段階において、制御信号を駆動部に伝達しうる。一実施形態による内視鏡装置は、S450a段階において、感知された身体部位に対応して操向しうるように、少なくとも1本のワイヤの張力を調節し、前記先端部の回転角度を制御しうる。 In one embodiment, the endoscopic device may transmit a control signal to the driver in step S450a. In one embodiment, the endoscopic device may adjust the tension of at least one wire to control the rotation angle of the tip so that it can be steered in response to the detected body part in step S450a.

具体的な例示として、一実施形態による内視鏡装置は、第1地点における第1イメージを獲得し、一定Δθほど回転移動した第2地点において、第2イメージを獲得しうる。該第1イメージと該第2イメージとの時差がΔLとするならば、感知された身体部位バウンディングボックスの中心座標からLtarget離れた先端部を感知された身体部位に操向するためのθtargetについては、数式1のように示しうる。
[数1]
θtarget=(Δθ/ΔL)Ltarget
As a specific example, an endoscopic device according to an embodiment may acquire a first image at a first point and acquire a second image at a second point rotated by a certain angle Δθ. If the time difference between the first image and the second image is ΔL, then θ target for steering the distal end, which is separated by L target from the center coordinates of the bounding box of the detected body part, to the detected body part can be expressed as follows:
[Equation 1]
θ target = (Δθ/ΔL)L target

Δθは、駆動部のエンコーダ情報から算出され、ΔLは、イメージ間の時差から算出されうるので、イメージ上の目標距離と、該駆動部による先端部回転目標角度との関係式が導出されうる。 Since Δθ can be calculated from the encoder information of the drive unit and ΔL can be calculated from the time difference between the images, the relationship between the target distance on the image and the target angle of tip rotation by the drive unit can be derived.

そのような数式1を座標系として表現しうる。すなわち、内視鏡装置は、先端部が身体内部に進行する進行方向を基準にする回転が、ロール(roll)であるので、該駆動部によるピッチ(pitch)とヨー(yaw)との制御を介し、イメージ上のx,y座標ほど離れている身体部位に向け、該内視鏡装置を操向しうる。 Equation 1 can be expressed as a coordinate system. That is, the rotation of the endoscopic device relative to the direction in which the tip advances into the body is called roll, and the drive unit can control the pitch and yaw to steer the endoscopic device toward a body part that is distant by the x and y coordinates on the image.

図4Bは、本発明の他の実施形態による、内視鏡装置の動作を図示するフローチャートである。 Figure 4B is a flowchart illustrating the operation of an endoscopic device according to another embodiment of the present invention.

図4Bを参照すれば、内視鏡装置は、S410b段階において、イメージセンサから、上部胃腸管に係わるイメージを獲得しうる。例えば、該内視鏡装置の先端部が上部胃腸管に進入し、該イメージセンサから、光学信号を電気信号に変換されたイメージを獲得しうる。 Referring to FIG. 4B, the endoscopic device may acquire an image related to the upper gastrointestinal tract from an image sensor in step S410b. For example, the distal end of the endoscopic device may enter the upper gastrointestinal tract, and an image in which an optical signal is converted into an electrical signal may be acquired from the image sensor.

他の実施形態による内視鏡装置は、S420b段階において、事前に学習されたモデルに基づき、前記イメージから、少なくとも1つの身体部位を識別しうる。該内視鏡装置は、上部胃腸管についてラベリングされた事前に学習されたモデルに基づいて身体部位を分類し、イメージ内部の少なくとも1つの身体部位を識別しうる。 In another embodiment, the endoscopic device may identify at least one body part from the image based on a pre-trained model in step S420b. The endoscopic device may classify body parts based on a pre-trained model labeled for the upper gastrointestinal tract and identify at least one body part within the image.

他の実施形態による内視鏡装置は、S430b段階において、身体部位と、内視鏡装置の先端部との距離などを含む相対ポーズ情報を算出しうる。例えば、該内視鏡装置は、照明の明るさ、先端部の角度変化によるイメージ変化、及び先端部の移動軌跡に基づき、相対ポーズ情報を算出しうる。該内視鏡装置がそのような相対ポーズ情報を算出する動作については、図5、図6及び図7と対応しうる。 In another embodiment, an endoscopic device may calculate relative pose information including the distance between the body part and the tip of the endoscopic device in step S430b. For example, the endoscopic device may calculate relative pose information based on the brightness of the lighting, image changes due to changes in the angle of the tip, and the movement trajectory of the tip. The operation of the endoscopic device to calculate such relative pose information may correspond to Figures 5, 6, and 7.

他の実施形態による内視鏡装置は、S440b段階において、識別された身体部位及び相対ポーズ情報に基づき、イメージ撮影のための制御信号を生成しうる。そのような制御信号は、内視鏡先端部の調整のための信号を含むものでもある。 In another embodiment, an endoscopic device may generate a control signal for image capture based on the identified body part and relative pose information in step S440b. Such a control signal may also include a signal for adjusting the tip of the endoscope.

他の実施形態による内視鏡装置は、S450b段階において、制御信号を駆動部に伝達しうる。一実施形態による内視鏡装置は、S450b段階において、識別された身体部位に係わる事前に設定された少なくとも1つの撮影地点に対応するように、少なくとも1本のワイヤの張力を調節し、前記先端部の回転角度を制御しうる。 An endoscopic device according to another embodiment may transmit a control signal to the driver in step S450b. An endoscopic device according to one embodiment may adjust the tension of at least one wire and control the rotation angle of the tip portion in step S450b to correspond to at least one pre-set imaging point related to the identified body part.

他の実施形態による内視鏡装置は、S460b段階において、識別された身体部位及び相対ポーズ情報に基づき、イメージ撮影を行うことができる。該内視鏡装置は、識別された身体部位に係わる事前に設定された少なくとも1つの撮影地点に先端部が位置することになった場合、イメージを撮影しうる。 In another embodiment, an endoscopic device may capture an image based on the identified body part and relative pose information in step S460b. The endoscopic device may capture an image when the distal end is positioned at at least one pre-set capture position related to the identified body part.

図4Cは、本発明のさらに他の実施形態による、内視鏡装置の動作を図示するフローチャートである。 Figure 4C is a flowchart illustrating the operation of an endoscopic device according to yet another embodiment of the present invention.

図4Cを参照すれば、内視鏡装置は、S410c段階において、イメージセンサから、上部胃腸管に係わるイメージを獲得しうる。例えば、該内視鏡装置の先端部が上部胃腸管に進入し、該イメージセンサから、光学信号を電気信号に変換されたイメージを獲得しうる。 Referring to FIG. 4C, the endoscopic device may acquire an image related to the upper gastrointestinal tract from an image sensor in step S410c. For example, the distal end of the endoscopic device may enter the upper gastrointestinal tract, and an image in which an optical signal is converted into an electrical signal may be acquired from the image sensor.

さらに他の実施形態による内視鏡装置は、S420c段階において、内視鏡イメージと、ユーザの臨床技能とに対応する制御履歴情報を利用し、事前に学習されたモデルに基づき、イメージ撮影のための制御信号を生成しうる。該内視鏡装置は、分類モデルと、シーケンス処理モデルである学習モデルとに内視鏡イメージを入力し、制御信号を生成しうる。そのような制御信号は、内視鏡先端部の調整のための信号を含むものでもある。 In yet another embodiment, an endoscopic device may generate a control signal for image capture based on a pre-trained model in step S420c, using control history information corresponding to the endoscopic image and the user's clinical skills. The endoscopic device may input the endoscopic image into a classification model and a learning model, which is a sequence processing model, and generate a control signal. Such a control signal may also include a signal for adjusting the tip of the endoscope.

さらに他の実施形態による内視鏡装置は、S430c段階において、制御信号を駆動部に伝達しうる。該内視鏡装置は、S430c段階において、識別された身体部位に係わる事前に設定された少なくとも1つの撮影地点に対応するように、少なくとも1本のワイヤの張力を調節し、前記先端部の回転角度を制御しうる。 In yet another embodiment, the endoscopic device may transmit a control signal to the driver in step S430c. In step S430c, the endoscopic device may adjust the tension of at least one wire and control the rotation angle of the tip portion so as to correspond to at least one pre-set imaging point related to the identified body part.

さらに他の実施形態による内視鏡装置は、S440c段階において、識別された身体部位及び相対ポーズ情報に基づき、イメージ撮影を行うことができる。該内視鏡装置は、識別された身体部位に係わる事前に設定された少なくとも1つの撮影地点に先端部が位置することになった場合、イメージを撮影しうる。 In yet another embodiment, an endoscopic device may capture an image based on the identified body part and relative pose information in step S440c. The endoscopic device may capture an image when the distal end is positioned at at least one pre-set imaging position related to the identified body part.

図5は、本発明の一実施形態による、内視鏡装置の相対ポーズ情報を算出する動作を図示するフローチャートである。図5における内視鏡装置の動作は、図4BにおけるS430b段階と対応しうる。そのような相対ポーズ情報とは、先端部の現在ポーズである第1ポーズと識別された身体部位を効果的に撮影するための第2ポーズへの移動のための情報を指しうる。 Figure 5 is a flowchart illustrating the operation of calculating relative pose information of an endoscopic device according to one embodiment of the present invention. The operation of the endoscopic device in Figure 5 may correspond to step S430b in Figure 4B. Such relative pose information may refer to information for moving from a first pose, which is the current pose of the tip, to a second pose for effectively capturing an identified body part.

図5を参照すれば、内視鏡装置は、S510段階において、獲得されたイメージ、及び照明に係わる明るさ情報に基づき、イメージ上の明るさ差を識別しうる。該内視鏡装置は、保存された照明に係わる明るさ情報と、イメージセンサが撮影したイメージと照明とによる明るさ情報との差を分析しうる。該内視鏡装置は、内部組織の特性、照明の強度及び方向によって示される明るさパターンを識別することもできる。 Referring to FIG. 5, in step S510, the endoscope device may identify brightness differences in the image based on the acquired image and brightness information related to the illumination. The endoscope device may analyze the difference between the stored brightness information related to the illumination and the brightness information of the image captured by the image sensor and the illumination. The endoscope device may also identify brightness patterns indicated by the characteristics of internal tissue, the intensity and direction of the illumination.

一実施形態による内視鏡装置は、S520段階において、識別された明るさ差に基づき、相対ポーズ情報を算出しうる。該内視鏡装置は、識別された明るさ差に基づき、先端部の現在ポーズにおける特定身体部位との距離を推定し、推定された距離、イメージにおける中心座標、及び識別された身体部位の座標に基づき、該先端部が移動するための位置情報、及び該先端部に具備されたイメージセンサが撮影を行うための方向情報を算出しうる。該相対ポーズ情報は、該先端部が身体内部を通過する経路、方向、及び必要な角度変化を含みもする。 In one embodiment, an endoscopic device may calculate relative pose information based on the identified brightness difference in step S520. The endoscopic device may estimate the distance between the tip and a specific body part at the current pose of the tip based on the identified brightness difference, and may calculate position information for the tip to move and direction information for the image sensor provided in the tip to capture images based on the estimated distance, the center coordinates in the image, and the coordinates of the identified body part. The relative pose information may also include the path, direction, and required angle change of the tip through the inside of the body.

一実施形態による内視鏡装置は、明るさ差だけではなく、構造光(structured light)に基づいて特定パターンの光を投射し、該パターンの変化に基づき、相対ポーズ情報を算出することもできる。例えば、該内視鏡装置は、パターン変化に基づいて距離を推定し、推定された距離、イメージにおける中心座標、及び識別された身体部位の座標に基づき、先端部が移動するための位置情報、及び先端部に具備されたイメージセンサが撮影をするための方向情報を算出しうる。 In one embodiment, an endoscopic device can project a specific pattern of light based on structured light, rather than just brightness differences, and calculate relative pose information based on changes in the pattern. For example, the endoscopic device can estimate distance based on changes in the pattern, and calculate position information for the movement of the tip and direction information for the image sensor equipped at the tip to capture images based on the estimated distance, the center coordinates in the image, and the coordinates of the identified body part.

一実施形態による内視鏡装置は、複数個のイメージセンサを利用し、2つのイメージ間のピクセル差を分析し、先端部から病変までの距離を算出しうる。 In one embodiment, an endoscopic device uses multiple image sensors, analyzes the pixel difference between two images, and can calculate the distance from the tip to the lesion.

図6は、本発明の他の実施形態による、内視鏡装置の相対ポーズ情報を算出する動作を図示するフローチャートである。図6における内視鏡装置の動作は、図4BにおけるS430b段階と対応しうる。 Figure 6 is a flowchart illustrating the operation of calculating relative pose information of an endoscopic device according to another embodiment of the present invention. The operation of the endoscopic device in Figure 6 may correspond to step S430b in Figure 4B.

図6を参照すれば、内視鏡装置は、S610段階において、第1地点における第1イメージを獲得しうる。 Referring to FIG. 6, the endoscope device may acquire a first image at a first location in step S610.

他の実施形態による内視鏡装置は、S620段階において、第2地点における第2イメージを獲得しうる。 In another embodiment, the endoscopic device may acquire a second image at a second location in step S620.

他の実施形態による内視鏡装置は、S630段階において、第1地点から第2地点に移動する間の先端部の角度変化、及び画面上のピクセル変化に基づき、相対ポーズ情報を算出しうる。 In another embodiment, an endoscopic device may calculate relative pose information in step S630 based on the change in the angle of the tip and the change in pixels on the screen while moving from the first point to the second point.

例えば、内視鏡装置は、コンボリューション演算を使用し、入力イメージを分析しうる。該内視鏡装置は、さまざまなコンボリューションレイヤを介し、入力イメージの特徴を抽出して学習された、事前に学習されたモデルに基づいて識別された身体部位の位置を、バウンディングボックス形式の座標でもって算出しうる。該座標は、left(左側)、top(上側)、right(右側)、bottom(下側)によって構成され、出力されたバウンディングボックス座標は、後処理過程を経て、バウンディングボックスの中央座標に変換されうる。 For example, an endoscope device may analyze an input image using convolution operations. The endoscope device may calculate the location of identified body parts using bounding box coordinates based on a pre-trained model that is trained by extracting features from the input image through various convolution layers. The coordinates consist of left, top, right, and bottom, and the output bounding box coordinates may be converted to the center coordinates of the bounding box through post-processing.

そのようなバウンディングボックスの中央座標は、数式2のように示しうる。
は、左側(l)と右側(r)との境界の平均値を取ったx軸の中央座標を指し、
は、上側(t)と下側(b)との境界の平均値を取ったy軸の中央座標を指す。
The center coordinates of such a bounding box can be expressed as Equation 2.
refers to the center coordinate on the x-axis, taking the average value of the boundaries between the left (l) and right (r),
indicates the center coordinate on the y-axis, taking the average value of the upper (t) and lower (b) boundaries.

内視鏡装置は、第1地点から第2地点に移動する間の先端部の角度変化(Δθ)を、エンコーダ情報に基づいて算出し、イメージのピクセル変化(ΔL)を利用して識別された身体部位と先端部との距離を算出しうる。 The endoscopic device can calculate the angle change (Δθ) of the tip while moving from the first point to the second point based on the encoder information, and can calculate the distance between the identified body part and the tip using the pixel change (ΔL) in the image.

それは、数式3のように示しうる。
は、病変と先端部との距離、Rは、先端部の回転半径であり、Δθは、内視鏡先端部の角度変化であり、fは、焦点距離であり、ΔBは、イメージセンサの変位であり、ΔLは、画面上のピクセル変化であり、2つのイメージ上における同一物体の時差(disparity)を指す。内視鏡装置は、計算された回転角を基に、内視鏡の先端部が移動しなければならない目標角度を、多項軌跡を使用して算出しうる。該内視鏡装置は、算出された目標移動角度と、現在先端部の角度との差を分析し、制御信号を生成しうる。
This can be shown as in Equation 3.
where θ is the distance between the lesion and the tip, R is the radius of rotation of the tip, Δθ is the angular change of the endoscope tip, f is the focal length, ΔB is the displacement of the image sensor, and ΔL is the pixel change on the screen, which refers to the disparity of the same object on the two images. The endoscopic device may calculate a target angle to which the tip of the endoscope should move based on the calculated rotation angle using a polynomial trajectory. The endoscopic device may analyze the difference between the calculated target movement angle and the current angle of the tip and generate a control signal.

前述のような内視鏡装置の動作は、単一イメージセンサだけではなく、複数個のイメージセンサに基づくステレオビジョンを介しても具現されうるのである。ΔBは、イメージセンサ間の距離でもある。 The operation of the endoscope device described above can be realized not only through a single image sensor, but also through stereo vision based on multiple image sensors. ΔB is also the distance between the image sensors.

内視鏡装置は、距離を推定し、推定された距離、イメージにおける中心座標、及び識別された身体部位の座標に基づき、先端部が移動するための位置情報、及び先端部に具備されたイメージセンサが撮影を行うための方向情報を算出しうる。 The endoscopic device can estimate the distance and, based on the estimated distance, the center coordinates in the image, and the coordinates of the identified body part, calculate position information for the movement of the tip and directional information for the image sensor equipped at the tip to take images.

図7は、本発明のさらに他の実施形態による、内視鏡装置の相対ポーズ情報を算出する動作を図示するフローチャートである。図7における内視鏡装置の動作は、図4BにおけるS430b段階と対応しうる。 Figure 7 is a flowchart illustrating the operation of calculating relative pose information of an endoscopic device according to yet another embodiment of the present invention. The operation of the endoscopic device in Figure 7 may correspond to step S430b in Figure 4B.

図7を参照すれば、内視鏡装置は、S710段階において、先端部の移動軌跡データを獲得しうる。そのような移動軌跡データは、先端部が身体内部で移動したデータであり、例えば、磁場センサ、ジャイロスコープ及び加速度計のようなセンサ基盤追跡データ、及びイメージセンサに基づく映像基盤追跡データのうち少なくとも一つを含むものでもある。 Referring to FIG. 7, the endoscope device may acquire movement trajectory data of the distal end in step S710. Such movement trajectory data is data on the movement of the distal end inside the body, and may include at least one of sensor-based tracking data, such as a magnetic field sensor, gyroscope, and accelerometer, and image-based tracking data based on an image sensor.

さらに他の実施形態による内視鏡装置は、S720段階において、先端部の移動軌跡、及び獲得されたイメージに基づき、身体部位と先端部との相対ポーズ情報を算出しうる。例えば、該内視鏡装置は、モータのエンコーダ値に基づく位置情報と、深さ推定(depth estimation)アルゴリズムとに基づき、先端部が現在位置である第1ポーズから、目標位置である第2ポーズに移動するための相対ポーズ情報を算出しうる。 In yet another embodiment, an endoscopic device may calculate relative pose information between the body part and the tip based on the movement trajectory of the tip and the acquired image in step S720. For example, the endoscopic device may calculate relative pose information for moving the tip from a first pose, which is the current position, to a second pose, which is the target position, based on position information based on the motor encoder value and a depth estimation algorithm.

図8は、本発明の一実施形態による、内視鏡装置のイメージ撮影に係わる動作を図示するフローチャートである。図8における内視鏡装置の動作は、図4Bにおける、S440b段階ないしS460b段階、図4cにおける、S420c段階ないしS440c段階と対応しうる。 Figure 8 is a flowchart illustrating operations related to image capture by an endoscopic device according to one embodiment of the present invention. The operations of the endoscopic device in Figure 8 may correspond to steps S440b through S460b in Figure 4B and steps S420c through S440c in Figure 4c.

図8を参照すれば、内視鏡装置は、S810段階において、識別された身体部位につき、事前に設定された少なくとも1つの撮影地点を識別しうる。そのような事前に設定された少なくとも1つの撮影地点とは、身体部位を撮影するか、あるいは治療するために、事前に定められた位置であり、ユーザの臨床技能などにより、ユーザが事前に設定しておいた位置、または識別された身体部位の構造情報を獲得しうる位置を指しうる。 Referring to FIG. 8, the endoscopic device may identify at least one pre-defined imaging position for the identified body part in step S810. Such at least one pre-defined imaging position is a predetermined position for imaging or treating the body part, and may refer to a position previously set by the user based on the user's clinical skills, or a position where structural information of the identified body part can be obtained.

一実施形態による内視鏡装置は、S820段階において、少なくとも1つの撮影地点及び相対ポーズ情報に基づき、先端部の回転を制御するための制御信号を生成しうる。具体的には、該内視鏡装置は、身体部位と該内視鏡装置との相対ポーズ情報を算出し、算出された相対ポーズ情報と、事前に設定された少なくとも1つの撮影地点との距離及び方向とに基づき、先端部を、少なくとも1つの撮影地点に位置せしめる制御信号を生成しうる。 In one embodiment, an endoscopic device may generate a control signal for controlling the rotation of the tip portion based on at least one imaging position and relative pose information in step S820. Specifically, the endoscopic device may calculate relative pose information between the body part and the endoscopic device, and generate a control signal for positioning the tip portion at at least one imaging position based on the calculated relative pose information and the distance and direction to at least one pre-set imaging position.

一実施形態による内視鏡装置は、S830段階において、制御信号を駆動部に伝達し、該駆動部は、制御信号に基づき、少なくとも1本のワイヤの張力を調節し、湾曲部を湾曲させ、先端部の回転角度を制御しうる。 In one embodiment, the endoscopic device transmits a control signal to the driving unit in step S830, and the driving unit adjusts the tension of at least one wire based on the control signal, bends the bending portion, and controls the rotation angle of the tip portion.

一実施形態による内視鏡装置は、S840段階において、少なくとも1つの撮影地点それぞれに先端部が配される場合、少なくとも1つの撮影地点それぞれの位置において、イメージセンサに基づいてイメージを撮影しうる。 In one embodiment, in step S840, when the distal end portion is positioned at each of at least one imaging point, the endoscopic device may capture an image based on an image sensor at the position of each of the at least one imaging point.

図9は、本発明の一実施形態による、内視鏡装置のトルクフィードバックに係わる動作を図示するフローチャートである。そのようなトルクフィードバックは、先端部が人体内部組織に接触するときに生じる力を模写したり、事前に学習されたモデルに基づいたりする駆動部の制御信号に基づく物理的信号でもある。 Figure 9 is a flowchart illustrating operations related to torque feedback in an endoscopic device according to one embodiment of the present invention. Such torque feedback can be a physical signal based on a drive control signal that replicates the forces generated when the tip contacts internal human tissue or can be based on a pre-trained model.

図9を参照すれば、内視鏡装置は、S910段階において、先端部の動きと係わるトルクフィードバックを生成しうる。そのようなトルクフィードバックは、イメージ撮影に係わる制御信号に基づいて生成されうる。該トルクフィードバックは、内視鏡装置の先端部がどの方向にどれほど回転しなければならないかということに係わる情報を基に生成され、移動距離と、トルクフィードバックの大きさは、正の相関関係を有しうる。 Referring to FIG. 9 , the endoscopic device may generate torque feedback related to the movement of the distal end in step S910. Such torque feedback may be generated based on a control signal related to image capture. The torque feedback is generated based on information related to the direction and amount of rotation of the distal end of the endoscopic device, and the movement distance and the magnitude of the torque feedback may have a positive correlation.

内視鏡装置は、S920段階において、操作部に、前記トルクフィードバックを伝達しうる。例えば、該内視鏡装置は、イメージ撮影のために制御されなければならない回転角度によって先端部を制御しながら、湾曲操向部が先端部が操向される方向にトルクフィードバックを伝達し、ユーザに該フィードバックを与えることができる。 The endoscope device may transmit the torque feedback to the operation unit in step S920. For example, the endoscope device may control the distal end according to the rotation angle that must be controlled for image capture, and the bending steering unit may transmit torque feedback in the direction in which the distal end is steered, thereby providing the feedback to the user.

図10は、本発明の一実施形態による、コンピュータ装置のブロック構成を図示するブロック図である。 Figure 10 is a block diagram illustrating the block configuration of a computer device according to one embodiment of the present invention.

コンピュータ装置1000は、メモリ1010及びプロセッサ1020を含むものでもある。コンピュータ装置1000は、内視鏡装置と別個の装置であるか、あるいは制御部に含まれるものでもある。本明細書で説明される方法論のうち、任意の1以上を遂行せしめる命令語の1以上のセットを実行しうる。 The computer device 1000 also includes a memory 1010 and a processor 1020. The computer device 1000 may be a separate device from the endoscope device or may be included in the control unit. It may execute one or more sets of instructions that cause any one or more of the methodologies described herein to be performed.

メモリ1010は、本明細書で説明される方法論機能のうち、任意の1以上を遂行せしめるシステムと係わる命令語、及びユーザインターフェースと係わる命令語を含む命令語のセットを保存しうる。メモリ1010は、装置動作のための基本プログラム、アプリケーション、設定情報のようなデータを、一時的または永久に保存する。メモリ1010は、RAM、ROM及びディスクドライブのような非消滅性大容量記録装置(permanent mass storage device)を含むものでもあるが、本発明は、それらに限定されるのではない。そのようなソフトウェア構成要素は、ドライブメカニズム(drive mechanism)を利用し、メモリ1010と別途のコンピュータで読み取り可能な記録媒体からローディングされうる。そのような別途のコンピュータで読み取り可能な記録媒体は、フロッピィードライブ、ディスク、テープ、DVD(digital versatile disc)/CD-ROM(compact disc read only memory)ドライブ、メモリカードのようなコンピュータで読み取り可能な記録媒体を含むものでもある。一実施形態により、ソフトウェア構成要素は、コンピュータで読み取り可能な記録媒体ではなく、通信部を介し、メモリ1010にローディングされもする。また、メモリ1010は、プロセッサ1020の要請によって保存されたデータを提供しうる。本発明の一実施形態によるメモリ1010は、設定情報を保存しうる。 The memory 1010 may store a set of instructions, including system-related instructions that cause any one or more of the methodology functions described herein to be performed, and instructions related to the user interface. The memory 1010 temporarily or permanently stores data such as basic programs, applications, and configuration information for device operation. The memory 1010 may include RAM, ROM, and a permanent mass storage device such as a disk drive, but the present invention is not limited thereto. Such software components may be loaded from a computer-readable recording medium separate from the memory 1010 using a drive mechanism. Such separate computer-readable recording media may include computer-readable recording media such as a floppy drive, disk, tape, DVD (digital versatile disc)/CD-ROM (compact disc read only memory) drive, and memory card. In one embodiment, the software components may be loaded into the memory 1010 via a communication unit rather than a computer-readable recording medium. Additionally, the memory 1010 may provide stored data at the request of the processor 1020. According to an embodiment of the present invention, the memory 1010 may store configuration information.

プロセッサ1020は、コンピュータ装置の全般的な動作を制御する。また、プロセッサ1020は、基本的な算術、ロジック及び入出力演算を行うことにより、命令を処理するように構成されうる。該命令は、メモリ1010により、プロセッサ1020に提供されうる。例えば、プロセッサ1020は、メモリ1010のような記録装置に保存されたプログラムコードによって受信される命令を実行するように構成されうる。例えば、プロセッサ1020は、装置が前述の多様な実施形態による動作を遂行するように制御しうる。 The processor 1020 controls the overall operation of the computing device. The processor 1020 may also be configured to process instructions by performing basic arithmetic, logic, and input/output operations. The instructions may be provided to the processor 1020 by the memory 1010. For example, the processor 1020 may be configured to execute instructions received from program code stored in a storage device such as the memory 1010. For example, the processor 1020 may control the device to perform operations according to the various embodiments described above.

本発明の一実施形態によるプロセッサ1020は、内視鏡イメージを検討し、特定身体部位をタグしたりラベリングしたりしうる。ユーザ入力などに基づいてコンピュータ装置は、イメージにおいて、上部胃腸管の部位をバウンディングボックスでラベリングしたり分類したりしうる。例えば、そのような上部胃腸管は、口腔、咽頭、食道、胃、十二指腸のうち少なくとも一つを含むものでもある。 In accordance with one embodiment of the present invention, the processor 1020 may review an endoscopic image and tag or label specific body parts. Based on user input or the like, the computing device may label or classify parts of the upper gastrointestinal tract in the image with bounding boxes. For example, such upper gastrointestinal tract may include at least one of the oral cavity, pharynx, esophagus, stomach, and duodenum.

本発明の一実施形態によるプロセッサ1020は、ラベルが指定されたイメージを含み、データセットを生成しうる。そのようなデータセットは、多様な照明条件、視野角度、身体部位の状態などを含むデータセットでもある。 According to one embodiment of the present invention, the processor 1020 may generate a dataset containing labeled images. Such a dataset may also include a variety of lighting conditions, viewing angles, body part conditions, etc.

本発明の一実施形態によるプロセッサ1020は、生成されたデータセットを使用し、神経網モデルを学習させうる。コンピュータ装置は、該神経網モデルを選択し、データセットに基づき、モデルを学習させうる。例えば、そのようなモデルは、客体感知モデル及び客体分類モデルのうち少なくとも一つであり、コンボリューション神経網を含むものでもある。 According to one embodiment of the present invention, the processor 1020 may use the generated dataset to train a neural network model. The computer device may select the neural network model and train the model based on the dataset. For example, such a model may be at least one of an object detection model and an object classification model, and may also include a convolutional neural network.

本発明の他の実施形態によるプロセッサ1020は、内視鏡イメージと、ユーザの臨床技能とに対応する制御履歴情報を利用し、学習モデルを生成しうる。そのような制御履歴情報は、内視鏡イメージを観察し、内視鏡の方向、角度、深さなどを調節するのに使用された制御履歴情報を指しうる。プロセッサ1020は、上部胃腸管に係わる内視鏡イメージと、制御履歴情報とを獲得しうる。例えば、そのような上部胃腸管は、口腔、咽頭、食道、胃、十二指腸のうち少なくとも一つを含むものでもある。 According to another embodiment of the present invention, the processor 1020 may generate a learning model using endoscopic images and control history information corresponding to the user's clinical skills. Such control history information may refer to control history information used to observe the endoscopic images and adjust the direction, angle, depth, etc. of the endoscope. The processor 1020 may acquire endoscopic images and control history information related to the upper gastrointestinal tract. For example, such upper gastrointestinal tract may include at least one of the oral cavity, pharynx, esophagus, stomach, and duodenum.

他の実施形態によるプロセッサ1020は、内視鏡イメージと制御履歴情報とを含むデータセットを生成しうる。 In other embodiments, the processor 1020 may generate a data set including endoscopic images and control history information.

他の実施形態によるプロセッサ1020は、生成されたデータセットを使用し、神経網モデルを学習させうる。コンピュータ装置は、該神経網モデルを選択し、データセットに基づき、モデルを学習させうる。例えば、そのようなモデルは、CNN(convolutional neural network)のような分類モデルを含み、イメージ処理を、RNN(recurrent neural network)及びLSTM(long short-term memory)ネットワークのようなシーケンス処理モデルのうち少なくとも一つを含み、制御履歴情報のシーケンス処理を行いうる。 In another embodiment, the processor 1020 may use the generated dataset to train a neural network model. The computing device may select the neural network model and train the model based on the dataset. For example, such models may include classification models such as a convolutional neural network (CNN) for image processing, and at least one of sequence processing models such as a recurrent neural network (RNN) and a long short-term memory (LSTM) network for sequence processing of control history information.

以上のように、本実施形態が、たとえ限定された実施形態と図面とによって説明されたにしても、当該技術分野において通常の知識を有する者であるならば、前述の記載から、多様な修正及び変形が可能であろう。例えば、説明された技術が、説明された方法と異なる順序によって遂行され、かつ/あるいは説明されたシステム、構造、装置、回路のような構成要素が、説明された方法と異なる形態で結合されたり、組み合わされたりするか、あるいは他の構成要素または均等物によって代置されたり置換されたりしても、適切な結果が達成されうるのである。 As mentioned above, even though the present embodiment has been described using limited embodiments and drawings, those skilled in the art will appreciate that various modifications and variations may be made from the foregoing description. For example, the described techniques may be performed in a different order than described, and/or the described components, such as systems, structures, devices, and circuits, may be combined or fused in a different manner than described, or may be substituted or substituted by other components or equivalents, and still achieve suitable results.

それにより、他の具現、他の実施形態、及び特許請求の範囲と均等なものも、特許請求の範囲の範疇に属するのである。 Therefore, other implementations, other embodiments, and equivalents of the claims are intended to fall within the scope of the claims.

100:内視鏡装置
110:出力部
120:制御部
130:駆動部
140:スコープ
141:挿入部
142:湾曲部
143:先端部
151:イメージセンサ
152:ノズル
153:照明
154:レンズ
155:ワーキングチャネル
160:操作部
161:湾曲操向部
200:モータ
210:第1ワイヤ
220:第2ワイヤ
1000:コンピュータ装置
1010:メモリ
1020:プロセッサ

100: Endoscope device 110: Output unit 120: Control unit 130: Drive unit 140: Scope 141: Insertion unit 142: Bending unit 143: Distal end portion 151: Image sensor 152: Nozzle 153: Lighting 154: Lens 155: Working channel 160: Operation unit 161: Bending and steering unit 200: Motor 210: First wire 220: Second wire 1000: Computer device 1010: Memory 1020: Processor

Claims (20)

内視鏡装置の制御方法において、
イメージセンサから、上部胃腸管に係わるイメージを獲得する段階と、
事前に学習されたモデルに基づき、前記イメージから、少なくとも1つの第1身体部位を感知する段階と、
感知された前記第1身体部位と先端部との相対位置情報を算出する段階と、
前記相対位置情報に基づき、前記第1身体部位と対応して操向するための第1制御信号を生成する段階と、
前記第1制御信号を駆動部に伝達する段階と、を含む、方法。
1. A control method for an endoscope apparatus, comprising:
acquiring an image relating to the upper gastrointestinal tract from an image sensor;
detecting at least one first body part from the image based on a pre-trained model;
calculating relative position information between the sensed first body part and the tip;
generating a first control signal for steering the first body part relative to the first body part based on the relative position information;
transmitting the first control signal to a driver.
前記上部胃腸管に係わるイメージを獲得する段階は、
第1地点における第1イメージを獲得する段階と、
第2地点における第2イメージを獲得する段階と、を含み、
前記相対位置情報を算出する段階は、
i)前記第1地点と前記第2地点との間の先端部の角度変化、及びii)前記第1イメージと前記第2イメージとの変化に基づき、前記先端部の目標回転角度を算出する段階を含む、請求項1に記載の方法。
The step of acquiring an image relating to the upper gastrointestinal tract comprises:
acquiring a first image at a first location;
acquiring a second image at a second location;
The step of calculating the relative position information includes:
2. The method of claim 1, further comprising: calculating a target rotation angle of the tip based on: i) an angular change of the tip between the first point and the second point; and ii) a change between the first image and the second image.
前記事前に学習されたモデルに基づき、前記イメージから、少なくとも1つの第2身体部位を識別する段階と、
識別された前記第2身体部位と先端部との相対ポーズ情報を算出する段階と、
前記相対ポーズ情報に基づき、前記第2身体部位の撮影に係わる第2制御信号を生成する段階と、
前記第2制御信号を前記駆動部に伝達する段階と、をさらに含む、請求項1に記載の方法。
identifying at least one second body part from the image based on the pre-trained model;
calculating relative pose information between the identified second body part and a tip part;
generating a second control signal for imaging the second body part based on the relative pose information;
The method of claim 1 , further comprising: transmitting the second control signal to the driver.
前記相対ポーズ情報を算出する段階は、
獲得された前記イメージ、及び照明に係わる明るさ情報に基づき、前記イメージ上の明るさ差を識別する段階と、
識別された前記明るさ差に基づき、前記先端部と前記第2身体部位との距離を推定する段階と、
推定された前記距離に基づき、前記相対ポーズ情報を算出する段階と、を含む、請求項3に記載の方法。
The step of calculating the relative pose information includes:
identifying brightness differences in the image based on the acquired image and brightness information related to lighting;
estimating a distance between the tip and the second body part based on the identified brightness difference;
and calculating the relative pose information based on the estimated distance.
前記上部胃腸管に係わるイメージを獲得する段階は、
第1地点における第1イメージを獲得する段階と、
第2地点における第2イメージを獲得する段階と、を含み、
前記相対ポーズ情報を算出する段階は、
i)前記第1地点と前記第2地点との間の先端部の角度変化、及びii)前記第1イメージと前記第2イメージとの変化に基づき、前記先端部と前記第2身体部位との距離を推定する段階と、
前記相対ポーズ情報を算出する段階と、を含む、請求項3に記載の方法。
The step of acquiring an image relating to the upper gastrointestinal tract comprises:
acquiring a first image at a first location;
acquiring a second image at a second location;
The step of calculating the relative pose information includes:
i) estimating a distance between the tip and the second body part based on the change in angle of the tip between the first point and the second point, and ii) the change in angle between the first image and the second image;
and calculating the relative pose information.
前記事前に学習されたモデルは、上部胃腸管に係わる第1身体部位及び第2身体部位についてラベリングされたイメージをデータセットにして学習された分類モデル及び感知モデルを含む、請求項3に記載の方法。 The method of claim 3, wherein the pre-trained models include a classification model and a detection model trained on a dataset of labeled images of a first body part and a second body part related to the upper gastrointestinal tract. 前記第2制御信号を生成する段階は、
識別された前記第2身体部位と対応する少なくとも1つの撮影地点を識別する段階と、
前記少なくとも1つの撮影地点及び前記相対ポーズ情報に基づき、前記第2制御信号を生成する段階と、
前記先端部の位置が、前記少なくとも1つの撮影地点に対応する場合、イメージを撮影する段階と、を含む、請求項3に記載の方法。
The step of generating the second control signal comprises:
identifying at least one image capture location corresponding to the identified second body part;
generating the second control signal based on the at least one photographing location and the relative pose information;
and capturing an image when the tip position corresponds to the at least one image capture location.
前記第1制御信号に基づき、少なくとも1本のワイヤの張力を調節し、前記先端部の回転角度を制御する段階をさらに含む、請求項1に記載の方法。 The method of claim 1, further comprising adjusting the tension of at least one wire and controlling the rotation angle of the tip based on the first control signal. 前記駆動部は、トルクフィードバックを生成し、操作部に、前記トルクフィードバックを伝達する段階をさらに含む、請求項1に記載の方法。 The method of claim 1, further comprising the step of: the drive unit generating torque feedback; and transmitting the torque feedback to the operating unit. 前記トルクフィードバックは、前記第1制御信号により、前記先端部が移動しなければならない目標回転角度と正の相関関係を有する、請求項9に記載の方法。 The method of claim 9, wherein the torque feedback has a positive correlation with a target rotation angle that the tip must move due to the first control signal. 内視鏡装置において、
イメージセンサを具備する先端部と、
前記先端部の回転角度を制御する駆動部と、
事前に学習されたモデルに基づき、前記イメージから、少なくとも1つの第1身体部位を感知し、感知された前記第1身体部位と先端部との相対位置情報を算出し、前記相対位置情報に基づき、前記第1身体部位と対応して操向するための第1制御信号を生成し、前記第1制御信号を駆動部に伝達する制御部と、を含む、内視鏡装置。
In an endoscope device,
a tip portion having an image sensor;
a drive unit for controlling the rotation angle of the tip portion;
a control unit that detects at least one first body part from the image based on a pre-trained model, calculates relative position information between the detected first body part and the tip end, generates a first control signal for steering in correspondence with the first body part based on the relative position information, and transmits the first control signal to a drive unit.
前記制御部は、
第1地点における第1イメージを獲得し、第2地点における第2イメージを獲得し、
i)前記第1地点と前記第2地点との間の先端部の角度変化、及びii)前記第1イメージと前記第2イメージとの変化に基づき、前記先端部の目標回転角度を算出する、請求項11に記載の内視鏡装置。
The control unit
capturing a first image at a first location and a second image at a second location;
The endoscope device according to claim 11, wherein a target rotation angle of the tip portion is calculated based on i) an angle change of the tip portion between the first point and the second point, and ii) a change between the first image and the second image.
前記制御部は、
前記事前に学習されたモデルに基づき、前記イメージから、少なくとも1つの第2身体部位を識別し、識別された前記第2身体部位と先端部との相対ポーズ情報を算出し、前記相対ポーズ情報に基づき、前記第2身体部位の撮影に係わる第2制御信号を生成し、前記第2制御信号を前記駆動部に伝達する、請求項11に記載の内視鏡装置。
The control unit
12. The endoscope device according to claim 11, further comprising: identifying at least one second body part from the image based on the pre-trained model; calculating relative pose information between the identified second body part and the tip portion; generating a second control signal related to imaging of the second body part based on the relative pose information; and transmitting the second control signal to the drive unit.
前記制御部は、
獲得された前記イメージ、及び照明に係わる明るさ情報に基づき、前記イメージ上の明るさ差を識別し、識別された前記明るさ差に基づき、前記先端部と前記第2身体部位との距離を推定し、推定された前記距離に基づき、前記相対ポーズ情報を算出する、請求項13に記載の内視鏡装置。
The control unit
The endoscopic device according to claim 13, further comprising: identifying a brightness difference in the image based on the acquired image and brightness information related to lighting; estimating a distance between the tip and the second body part based on the identified brightness difference; and calculating the relative pose information based on the estimated distance.
前記制御部は、
第1地点における第1イメージを獲得し、第2地点における第2イメージを獲得し、
i)前記第1地点と前記第2地点との間の先端部の角度変化、及びii)前記第1イメージと前記第2イメージとの変化に基づき、前記先端部と前記第2身体部位との距離を推定し、前記相対ポーズ情報を算出する、請求項13に記載の内視鏡装置。
The control unit
capturing a first image at a first location and a second image at a second location;
14. The endoscope device according to claim 13, wherein the distance between the tip and the second body part is estimated based on i) an angle change of the tip between the first point and the second point, and ii) a change between the first image and the second image, and the relative pose information is calculated.
前記事前に学習されたモデルは、上部胃腸管に係わる第1身体部位及び第2身体部位についてラベリングされたイメージをデータセットにして学習された分類モデル及び感知モデルを含む、請求項13に記載の内視鏡装置。 The endoscope device of claim 13, wherein the pre-trained models include a classification model and a detection model trained using a dataset of labeled images of a first body part and a second body part related to the upper gastrointestinal tract. 前記制御部は、
識別された前記身体部位と対応する少なくとも1つの撮影地点を識別し、前記少なくとも1つの撮影地点及び前記相対ポーズ情報に基づき、前記第2制御信号を生成し、前記先端部の位置が、前記少なくとも1つの撮影地点に対応する場合、イメージを撮影する、請求項13に記載の内視鏡装置。
The control unit
The endoscopic device according to claim 13, further comprising: identifying at least one imaging point corresponding to the identified body part; generating the second control signal based on the at least one imaging point and the relative pose information; and capturing an image when the position of the tip corresponds to the at least one imaging point.
前記先端部と連結された湾曲部をさらに含み、
前記制御部は、
前記制御信号に基づき、前記駆動部を制御し、前記駆動部と連結された少なくとも1本のワイヤの張力を調節し、前記湾曲部の湾曲に基づき、前記先端部の回転角度を調節する、請求項11に記載の内視鏡装置。
further comprising a curved portion connected to the tip portion;
The control unit
The endoscope device according to claim 11, wherein the drive unit is controlled based on the control signal, the tension of at least one wire connected to the drive unit is adjusted, and the rotation angle of the tip portion is adjusted based on the bending of the bending portion.
湾曲操向部を具備する操作部をさらに含み、
前記制御部は、
前記駆動部に基づき、トルクフィードバックを生成し、前記湾曲操向部に、前記トルクフィードバックを伝達する、請求項11に記載の内視鏡装置。
Further including an operating unit having a bending steering unit,
The control unit
The endoscope device according to claim 11 , wherein torque feedback is generated based on the drive unit, and the torque feedback is transmitted to the bending steering unit.
前記トルクフィードバックは、前記第1制御信号により、前記先端部が移動しなければならない目標回転角度と正の相関関係を有する、請求項19に記載の内視鏡装置。 The endoscope device of claim 19, wherein the torque feedback has a positive correlation with the target rotation angle to which the distal end portion must move in response to the first control signal.
JP2025026603A 2024-02-23 2025-02-21 Endoscopic device for acquiring images of the upper gastrointestinal tract and method for controlling the same Pending JP2025129144A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2024-0026748 2024-02-23
KR1020240026748A KR102875761B1 (en) 2024-02-23 2024-02-23 Endoscopic Device and Control Method for acquiring upper gastrointestinal tract images

Publications (1)

Publication Number Publication Date
JP2025129144A true JP2025129144A (en) 2025-09-04

Family

ID=96782283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2025026603A Pending JP2025129144A (en) 2024-02-23 2025-02-21 Endoscopic device for acquiring images of the upper gastrointestinal tract and method for controlling the same

Country Status (3)

Country Link
JP (1) JP2025129144A (en)
KR (1) KR102875761B1 (en)
CN (1) CN120531314A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017511187A (en) * 2014-04-02 2017-04-20 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Device, system, and method using steerable stylet and flexible needle
US20210196398A1 (en) * 2019-12-31 2021-07-01 Auris Health, Inc. Anatomical feature identification and targeting
US20220028078A1 (en) * 2020-07-24 2022-01-27 Gyrus Acmi, Inc. D/B/A Olympus Surgical Technologies America Systems and methods for image reconstruction and endoscopic tracking
KR102495838B1 (en) * 2022-10-11 2023-02-06 주식회사 메디인테크 Method, apparatus and computer program for controlling endoscope based on medical image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017511187A (en) * 2014-04-02 2017-04-20 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Device, system, and method using steerable stylet and flexible needle
US20210196398A1 (en) * 2019-12-31 2021-07-01 Auris Health, Inc. Anatomical feature identification and targeting
US20220028078A1 (en) * 2020-07-24 2022-01-27 Gyrus Acmi, Inc. D/B/A Olympus Surgical Technologies America Systems and methods for image reconstruction and endoscopic tracking
KR102495838B1 (en) * 2022-10-11 2023-02-06 주식회사 메디인테크 Method, apparatus and computer program for controlling endoscope based on medical image

Also Published As

Publication number Publication date
KR20250130109A (en) 2025-09-01
CN120531314A (en) 2025-08-26
KR102875761B1 (en) 2025-10-23

Similar Documents

Publication Publication Date Title
CN108685560B (en) Automated steering system and method for robotic endoscopy
CN105491936B (en) Capsule-type endoscope system
JP6749020B2 (en) Endoscope navigation device
JP7385731B2 (en) Endoscope system, image processing device operating method, and endoscope
US12210665B2 (en) Systems and methods for facilitating optimization of an imaging device viewpoint during an operating session of a computer-assisted operation system
CN111067468B (en) Method, apparatus, and storage medium for controlling endoscope system
WO2018225132A1 (en) Medical system and method for operating medical system
US20240293195A1 (en) Systems and methods for self-alignment and adjustment of robotic endoscope
van der Stap et al. Towards automated visual flexible endoscope navigation
Reilink et al. Image-based flexible endoscope steering
US20240062471A1 (en) Image processing apparatus, endoscope apparatus, and image processing method
US20220218180A1 (en) Endoscope insertion control device, endoscope insertion control method, and non-transitory recording medium in which endoscope insertion control program is recorded
JP2025129144A (en) Endoscopic device for acquiring images of the upper gastrointestinal tract and method for controlling the same
KR102875760B1 (en) Endoscopic Device and Control Method for acquiring Lower Gastrointestinal Tract images
EP4606293A1 (en) Endoscopic device and control method for acquiring upper gastrointestinal tract images
US20250268464A1 (en) Endoscopic device and control method for acquiring upper gastrointestinal tract images
US20250268452A1 (en) Endoscopic device and control method for acquiring lower gastrointestinal tract images
EP4606294A1 (en) Endoscopic device and control method for acquiring lower gastrointestinal tract images
KR20200132174A (en) AR colonoscopy system and method for monitoring by using the same
WO2022230160A1 (en) Endoscopic system, lumen structure calculation system, and method for creating lumen structure information
JP2024518390A (en) Method, device and storage medium for navigating a tubular component in a multi-branch channel - Patents.com
KR102821879B1 (en) Endoscopic device and control method of the same
US20250363740A1 (en) Endoluminal object characterization using 3d-reconstruction
JP7555551B2 (en) Processing system and information processing method
WO2024029502A1 (en) Endoscopic examination assistance device, endoscopic examination assistance method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20251002

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20251226