JP7367990B2 - 手術室の遠隔監視 - Google Patents
手術室の遠隔監視 Download PDFInfo
- Publication number
- JP7367990B2 JP7367990B2 JP2020541969A JP2020541969A JP7367990B2 JP 7367990 B2 JP7367990 B2 JP 7367990B2 JP 2020541969 A JP2020541969 A JP 2020541969A JP 2020541969 A JP2020541969 A JP 2020541969A JP 7367990 B2 JP7367990 B2 JP 7367990B2
- Authority
- JP
- Japan
- Prior art keywords
- computing system
- data
- monitoring
- patient
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims description 381
- 238000000034 method Methods 0.000 claims description 298
- 238000011282 treatment Methods 0.000 claims description 78
- 238000005259 measurement Methods 0.000 claims description 49
- 238000012545 processing Methods 0.000 claims description 40
- 238000013500 data storage Methods 0.000 claims description 39
- 238000004891 communication Methods 0.000 claims description 37
- 230000004807 localization Effects 0.000 claims description 34
- 210000003484 anatomy Anatomy 0.000 claims description 29
- 230000003287 optical effect Effects 0.000 claims description 28
- 210000000988 bone and bone Anatomy 0.000 claims description 17
- 238000009877 rendering Methods 0.000 claims description 15
- 238000013499 data model Methods 0.000 claims description 13
- 238000004091 panning Methods 0.000 claims description 5
- 230000001133 acceleration Effects 0.000 claims description 4
- 238000001356 surgical procedure Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 description 20
- 238000004364 calculation method Methods 0.000 description 12
- 230000005484 gravity Effects 0.000 description 12
- 239000012636 effector Substances 0.000 description 10
- 230000009471 action Effects 0.000 description 9
- 238000013507 mapping Methods 0.000 description 5
- 210000004197 pelvis Anatomy 0.000 description 4
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 210000001503 joint Anatomy 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 238000011882 arthroplasty Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 210000003141 lower extremity Anatomy 0.000 description 2
- 230000001144 postural effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000002250 progressing effect Effects 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 210000000689 upper leg Anatomy 0.000 description 2
- 241001032544 Galearctus aurora Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000004394 hip joint Anatomy 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Leader-follower robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2505/00—Evaluating, monitoring or diagnosing in the context of a particular type of medical care
- A61B2505/05—Surgical care
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Robotics (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Urology & Nephrology (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Human Computer Interaction (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Manipulator (AREA)
Description
<その他>
<手段>
技術的思想1のモニタリングコンピューティングシステムは、患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡するシステムであり、少なくとも1の処理ユニットと、メモリ又は他のストレージから構成されるデータ記憶装置と、表示装置と、ネットワークを介して前記ORコンピューティングシステムと通信する通信システムとを備え、前記データ記憶装置、前記表示装置、および前記通信システムのそれぞれは、前記少なくとも1の処理ユニットに結合されるものであり、前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、前記モニタリングコンピューティングシステムは、前記1又は複数の物体を表す幾何学的データを取得し、前記コンピュータ支援処置に対する前記ORコンピューティングシステムから姿勢情報を含む手術中データを処置中に受信し、前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、前記表示装置を介して表示することでGUI内に存在させるように構成され、前記姿勢情報は、物体の姿勢を計算するためのセンサデータと、前記センサデータを使用して前記ORコンピューティングシステムで計算された前記物体の前記姿勢を表す姿勢データとの一方または両方を含むことにより構成されるものである。
技術的思想2のモニタリングコンピューティングシステムは、技術的思想1記載のモニタリングコンピューティングシステムにおいて、前記姿勢情報は、前記患者に関連付けられた参照のための姿勢情報を含み、前記命令は、前記ORコンピューティングシステム内の前記患者の位置合わせから決定された解剖学的位置合わせデータを受信し、前記解剖学的位置合わせデータ及び患者基準を使用して、GUI内に少なくとも1つの患者の位置を表示し、前記1又は複数の物体のそれぞれの位置と前記患者の前記位置とを関連させるように前記モニタリングコンピューティングシステムを構成するものである。
技術的思想3のモニタリングコンピューティングシステムは、技術的思想1及び2のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記コンピュータ支援処置は、前記1又は複数の物体を追跡するためにコンピュータ支援の位置特定を実行することと、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置特定を制御することとのうちの1つを含むものである。
技術的思想4のモニタリングコンピューティングシステムは、技術的思想1及び2のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記センサデータは、光学的位置特定システムのカメラセンサからのカメラ測定値と、前記カメラ測定値を使用して計算された姿勢データとのうちの一方または両方を含むものである。
技術的思想5のモニタリングコンピューティングシステムは、技術的思想1及び2のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記センサのうちの少なくとも1つが、前記1又は複数の物体のうちの少なくとも1つの位置決めを制御するロボットのモータのモータエンコーダ測定値を含むセンサデータを生成し、前記姿勢情報が、前記モータエンコーダ測定値と、前記モータエンコーダ測定値を使用して計算された姿勢データとのうちの1つまたは両方を含むものである。
技術的思想6のモニタリングコンピューティングシステムは、技術的思想1から5のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記1又は複数の物体は、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択されるものである。
技術的思想7のモニタリングコンピューティングシステムは、技術的思想1から6のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記命令は、前記GUIに表示するための前記患者の手術前データを受信するように前記モニタリングコンピューティングシステムを構成するものである。
技術的思想8のモニタリングコンピューティングシステムは、技術的思想1から7のいずれかに記載のモニタリングコンピューティングシステムにおいて、監視ビデオ及び/又は音声データを取り込むためのビデオカメラ及びマイクロフォンのうちの少なくとも1つを含み、前記命令が、前記監視ビデオ及び/又は音声データを前記ORコンピューティングシステムに通信するように構成されるものである。
技術的思想9のモニタリングコンピューティングシステムは、技術的思想1から8のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記命令は、a)前記コンピュータ支援処置するためのUIスクリーンで構成される作業フローの進捗状況を表す作業フロー状態と、b)前記モニタリングコンピューティングシステムからの前記作業フローの進捗状況に応じて、前記UIスクリーンを共有している前記ORコンピューティングシステムの前記表示装置のミラーと、の1つを受信し、前記作業フローの前記UIスクリーンを表示するように構成されるものである。
技術的思想10のモニタリングコンピューティングシステムは、技術的思想1から9のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記命令は、前記モニタリングコンピューティングシステムに、前記ORコンピューティングシステムの少なくとも1つの動作を制御する介入データを定義するための入力を受信し、前記介入データを前記ORコンピューティングシステムに通信するように構成されるものである。
技術的思想11のモニタリングコンピューティングシステムは、技術的思想1から10のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記幾何学的データは、ユーザインターフェースで3D物体をレンダリングするための3Dデータモデルを含み、前記命令は、前記位置情報を使用するように前記モニタリングコンピューティングシステムを構成し、前記それぞれのデータモデルは、前記GUI内の少なくとも前記1又は複数の物体の3Dビューをレンダリングするように構成されるものである。
技術的思想12のモニタリングコンピューティングシステムは、技術的思想1から11のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記命令は、前記幾何学的データと前記姿勢情報とを用いて前記1又は複数の物体の位置状態情報を決定するように前記モニタリングコンピューティングシステムを構成するものである。
技術的思想13のモニタリングコンピューティングシステムは、技術的思想1から12のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記ORコンピューティングシステムが位置特定システムとロボット外科システムとのうちの1つのコンポーネントを備えるか、又はそれらに結合され、前記命令が、前記コンポーネントのうちの少なくとも1つを表す幾何学的データにアクセスして、前記コンポーネントのうちの少なくとも1つのレンダリングを前記ORの仮想ビューに表示するように前記モニタリングコンピューティングシステムを構成するものである。
技術的思想14のモニタリングコンピューティングシステムは、技術的思想13記載のモニタリングコンピューティングシステムにおいて、前記命令は、前記仮想ビューをパンするためのパン制御と、前記仮想ビューをチルトするためのチルト制御と、前記仮想ビューをズームイン及び/又はズームアウトするためのズーム制御と、前記仮想ビュー内のOR装置の少なくとも1つのコンポーネントのための作業ボリュームを表示するための作業ボリューム制御と、から選択される制御を提供するように前記モニタリングコンピューティングシステムを構成するものである。
技術的思想15のモニタリングコンピューティングシステムは、技術的思想1から14のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記命令は、前記モニタリングコンピューティングシステムによる監視を開始するために、前記ORコンピューティングシステムからのメッセージを受信するように前記モニタリングコンピューティングシステムを構成するものである。
技術的思想16の方法は、患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡するものであって、1又は複数の物体を表す幾何学的データの取得し、前記コンピュータ支援処置に対する前記ORコンピューティングシステムから姿勢情報を含む手術中データを処置中に受信し、前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、前記表示装置を介して表示することでGUI内に存在させ、前記姿勢情報は、物体の姿勢を計算するためのセンサデータと、前記センサデータを使用して前記ORコンピューティングシステムで計算された前記物体の前記姿勢を表す姿勢データとの一方または両方を含むことにより構成されるものである。
技術的思想17の方法は、技術的思想16記載の方法において、前記姿勢情報は、前記患者に関連付けられた参照のための姿勢情報を含み、前記命令は、前記ORコンピューティングシステム内の前記患者の位置合わせから決定された解剖学的位置合わせデータを受信し、前記解剖学的位置合わせデータ及び患者基準を使用して、GUI内に少なくとも1つの患者の位置を表示し、前記1又は複数の物体のそれぞれの位置と前記患者の前記位置とを関連させるように前記モニタリングコンピューティングシステムを構成するものである。
技術的思想18の方法は、技術的思想16及び17のいずれかに記載の方法において、前記コンピュータ支援処置は、前記1又は複数の物体を追跡するためにコンピュータ支援の位置特定を実行することと、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置特定を制御することとのうちの1つを含むものである。
技術的思想19の方法は、技術的思想16及び17のいずれかに記載の方法において、前記センサデータは、光学的位置特定システムのカメラセンサからのカメラ測定値と、前記カメラ測定値を使用して計算された姿勢データとのうちの一方または両方を含むものである。
技術的思想20の方法は、技術的思想16及び17のいずれかに記載の方法において、前記センサのうちの少なくとも1つが、前記1又は複数の物体のうちの少なくとも1つの位置決めを制御するロボットのモータのモータエンコーダ測定値を含むセンサデータを生成し、前記姿勢情報が、前記モータエンコーダ測定値と、前記モータエンコーダ測定値を使用して計算された姿勢データとのうちの1つまたは両方を含むものである。
技術的思想21の方法は、技術的思想16から20のいずれかに記載の方法において、前記1又は複数の物体は、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択されるものである。
技術的思想22の方法は、技術的思想16から21のいずれかに記載の方法において、前記GUIに表示するために前記患者の手術前データを受信するものである。
技術的思想23の方法は、技術的思想16から22のいずれかに記載の方法において、ビデオカメラ及びマイクロフォンのうちの少なくとも1つから、監視ビデオ及び/又は音声データを取り込み、前記監視ビデオ及び/又は音声データを前記ORコンピューティングシステムに通信するものである。
技術的思想24の方法は、技術的思想16から23のいずれかに記載の方法において、a)前記コンピュータ支援処置するためのUIスクリーンで構成される作業フローの進捗状況を表す作業フロー状態と、b)前記モニタリングコンピューティングシステムからの前記作業フローの進捗状況に応じて、前記UIスクリーンを共有している前記ORコンピューティングシステムの前記表示装置のミラーと、の1つを受信し、前記作業フローの前記UIスクリーンを表示するものである。
技術的思想25の方法は、技術的思想16から24のいずれかに記載の方法において、前記ORコンピューティングシステムの少なくとも1つの動作を制御する介入データを定義するための入力を受信し、前記介入データを前記ORコンピューティングシステムに通信するものである。
技術的思想26の方法は、技術的思想16から25のいずれかに記載の方法において、前記幾何学的データは、ユーザインターフェースで3D物体をレンダリングするための3Dデータモデルを含み、前記GUI内の少なくとも前記1又は複数の物体の3Dビューを前記位置情報および前記それぞれのデータモデルを使用してレンダリングするように構成されるものである。
技術的思想27の方法は、技術的思想16から26のいずれかに記載の方法において、前記幾何学的データと前記姿勢情報とを用いて前記1又は複数の物体の位置状態情報を決定するものである。
技術的思想28の方法は、技術的思想16から27のいずれかに記載の方法において、前記ORコンピューティングシステムが位置特定システムとロボット外科システムとのうちの1つのコンポーネントを備えるか、又はそれらに結合され、前記方法が、前記コンポーネントのうちの少なくとも1つを表す幾何学的データにアクセスして、前記コンポーネントのうちの少なくとも1つのレンダリングを前記ORの仮想ビューに表示するように構成されるものである。
技術的思想29の方法は、技術的思想28記載の方法において、前記仮想ビューをパンするためのパン制御と、前記仮想ビューをチルトするためのチルト制御と、前記仮想ビューをズームイン及び/又はズームアウトするためのズーム制御と、前記仮想ビュー内のOR装置の少なくとも1つのコンポーネントのための作業ボリュームを表示するための作業ボリューム制御と、から選択される制御を提供するものである。
技術的思想30の方法は、技術的思想16から29のいずれかに記載の方法において、監視を開始するために、前記ORコンピューティングシステムからのメッセージを受信するものである。
技術的思想31のORコンピューティングシステムは、少なくとも1の処理ユニットと、メモリ又は他のストレージから構成されるデータ記憶装置と、前記ORコンピューティングシステムを通信ネットワークに結合するために、前記少なくとも1つの処理装置に結合される通信システムとを備え、前記データ記憶装置および前記通信システムは、少なくとも1の処理ユニットに結合されるものであり、前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、前記ORコンピューティングシステムは、患者に対してコンピュータ支援処置を行い、手術室での前記コンピュータ支援処置中の手術室内の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡し、前記コンピュータ支援処置中において、姿勢情報を含む前記処置中に生成された手術中データを手術室を監視するためのモニタリングコンピューティングシステムに通信し、前記モニタリングコンピューティングシステムは、前記1又は複数の物体のそれぞれの位置を含む前記手術中データを受信し、GUIに表示するように構成され、前記姿勢情報は、物体の姿勢を算出するためのセンサデータと、前記センサデータを用いてOR演算装置によって算出された前記物体の前記姿勢を表す姿勢データとの一方または両方を含むものである。
技術的思想32のORコンピューティングシステムは、技術的思想31記載のORコンピューティングシステムにおいて、前記姿勢情報は、前記患者に関連付けられた参照のための姿勢情報を含み、前記命令は、解剖学的位置合わせデータを定義するために前記患者を前記ORコンピューティングシステムに登録し、前記モニタリングコンピューティングシステムが前記患者の位置と、前記患者の前記位置に対する前記1又は複数の物体のそれぞれの位置とのうちの少なくとも1つを前記GUI内に表示するのを可能にするために、前記解剖学的位置合わせデータを前記モニタリングコンピューティングシステムと通信するように前記ORコンピューティングシステムを構成するものである。
技術的思想33のORコンピューティングシステムは、技術的思想31及び22のいずれかに記載のORコンピューティングシステムにおいて、前記コンピュータ支援処置が、前記1又は複数の物体を追跡するためのコンピュータ支援定位処置と、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置決めを制御することを含むロボット処置とのうちの1つを含むものである。
技術的思想34のORコンピューティングシステムは、技術的思想33記載のORコンピューティングシステムにおいて、前記コンピュータ支援定位処置の間、前記1又は複数の物体に取り付けられる少なくとも1つの前記センサは、光学的位置特定システムのコンポーネントである。
技術的思想35のORコンピューティングシステムは、技術的思想33記載のORコンピューティングシステムにおいて、前記ロボット処置の間、前記センサは前記ロボットに結合されるものである。
技術的思想36のORコンピューティングシステムは、技術的思想31から35のいずれかに記載のORコンピューティングシステムにおいて、前記手術中データが、ロボットマニピュレータの姿勢情報と、ロボットエンドエフェクタの測定された力と、ロボットエンドエフェクタの測定速度または毎分回転数(RPM)と、光学センサからの姿勢情報と、医療撮像装置の姿勢情報と、タイムスタンプデータと、のいずれかを含むものである。
技術的思想37のORコンピューティングシステムは、技術的思想31から36のいずれかに記載のORコンピューティングシステムにおいて、前記センサのうちの1つは位置決めカメラを含み、前記センサデータは前記位置決めカメラのビデオフィードを含むものである。
技術的思想38のORコンピューティングシステムは、技術的思想31から37のいずれかに記載のORコンピューティングシステムにおいて、前記1又は複数の物体の少なくとも1つが、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択されるものである。
技術的思想39のORコンピューティングシステムは、技術的思想31から38のいずれかに記載のORコンピューティングシステムにおいて、前記命令は、前記GUIの表示に使用するために前記モニタリングコンピューティングシステムに前記患者のための手術前データを通信するように前記ORコンピューティングシステムを構成するものである。
技術的思想40のORコンピューティングシステムは、技術的思想31から39のいずれかに記載のORコンピューティングシステムにおいて、ORビデオ及び/又は音声データを取り込むためのビデオカメラ及びマイクロフォンのうちの少なくとも1つを備え、前記命令は、前記ORビデオ及び/又は音声データを前記モニタリングコンピューティングシステムに通信するように前記ORコンピューティングシステムを構成するものである。
技術的思想41のORコンピューティングシステムは、技術的思想31から40のいずれかに記載のORコンピューティングシステムにおいて、前記命令は、前記モニタリングコンピューティングシステムによって生成された監視データを受信して利用するように前記ORコンピューティングシステムを構成するものである。
技術的思想42のORコンピューティングシステムは、技術的思想41記載のORコンピューティングシステムにおいて、前記監視データは、前記ORコンピューティングシステムを制御するために介入データ、及びオーディオデータ及び/又はビデオデータから選択されるものである。
技術的思想43のORコンピューティングシステムは、技術的思想31から42のいずれかに記載のORコンピューティングシステムにおいて、前記命令は、前記コンピュータ支援処置を実行するためのUIスクリーンを含む作業フローの使用すること、及び、a)作業フローの進捗状況を表す作業フロー状態を維持し、作業フロー状態をモニタリングコンピューティングシステムに通信すること、b)モニタリングコンピューティングシステムへの作業フローの進捗状況に応じてUIスクリーンを共有するために、前記ORコンピューティングシステムの表示装置をミラーリングすること、との1つによって、前記モニタリングコンピューティングシステムが作業フローのUIスクリーンを表示できるようにすることを前記ORコンピューティングシステムに構成するものである。
技術的思想44のORコンピューティングシステムは、技術的思想31から43のいずれかに記載のORコンピューティングシステムにおいて、前記命令は、前記コンピュータ支援処置の進捗状況を自己監視し、前記進捗状況に応じて、前記ORコンピューティングシステムの遠隔監視を起動するメッセージを前記モニタリングコンピューティングシステムに通信するように前記ORコンピューティングシステムを構成するものである。
技術的思想45のORコンピューティングシステムは、技術的思想31から44のいずれかに記載のORコンピューティングシステムにおいて、前記ORコンピューティングシステムは、前記ORコンピューティングシステム及び/又は他のOR装置のコンポーネントにおけるコンポーネント姿勢情報を決定し、前記ORのレイアウトを示す仮想ビューの表示を可能にするために、前記コンポーネント姿勢情報を前記モニタリングコンピューティングシステムに通信するものである。
技術的思想46の方法は、患者に対してORコンピューティングシステムによるコンピュータ支援処置を実行し、前記手術室内の前記1又は複数の物体に取り付けられたセンサからORコンピューティングシステムによって受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、1又は複数の物体のそれぞれの位置を追跡し、前記コンピュータ支援処置中において、姿勢情報を含む前記処置中に生成された手術中データを前記手術室を監視するモニタリングコンピューティングシステムに通信し、前記モニタリングコンピューティングシステムは、前記1又は複数の物体のそれぞれの位置を含む前記手術中データを受信し、GUIに表示するように構成され、前記姿勢情報は、物体の姿勢を算出するためのセンサデータと、前記センサデータを用いてOR演算装置によって算出された前記物体の前記姿勢を表す姿勢データとの一方または両方を含む。
技術的思想47の方法は、技術的思想46記載の方法において、前記患者に関連付けられた参照に対する姿勢情報を決定し、解剖学的位置合わせデータを定義するために前記患者を前記ORコンピューティングシステムに登録し、前記モニタリングコンピューティングシステムが前記患者の位置と、前記患者の前記位置に対する前記1又は複数の物体のそれぞれの位置とのうちの少なくとも1つを前記GUI内に表示するのを可能にするために、前記解剖学的位置合わせデータを前記モニタリングコンピューティングシステムと通信するものである。
技術的思想48の方法は、技術的思想46及び47のいずれかに記載の方法において、前記コンピュータ支援処置は、前記1又は複数の物体を追跡するためのコンピュータ支援定位処置と、ロボットを使用して前記1又は複数の物体のうちの少なくとも1つの位置決めを制御することを含むロボット処置とのうちの1つを含むものである。
技術的思想49の方法は、技術的思想48記載の方法において、前記コンピュータ支援定位処置の間、前記1又は複数の物体に取り付けられる少なくとも1つの前記センサは、光学的位置特定システムのコンポーネントである。
技術的思想50の方法は、技術的思想48記載の方法において、前記ロボット処置の間、前記センサは前記ロボットに結合される。
技術的思想51の方法は、技術的思想46から50のいずれかに記載の方法において、前記手術中データが、ロボットマニピュレータの姿勢情報と、ロボットエンドエフェクタの測定された力と、ロボットエンドエフェクタの測定速度または毎分回転数(RPM)と、光学センサからの姿勢情報と、医療撮像装置の姿勢情報と、タイムスタンプデータと、のいずれかを含むものである。
技術的思想52の方法は、技術的思想46から51のいずれかに記載の方法において、前記センサの1つが位置決めカメラを含み、前記センサデータは前記位置決めカメラのビデオフィードを含むものである。
技術的思想53の方法は、技術的思想46から52のいずれかに記載の方法において、前記1又は複数の物体の少なくとも1つが、処置ツール及び前記患者の一部分、好ましくは前記患者の骨から選択されるものである。
技術的思想54の方法は、技術的思想46から53のいずれかに記載の方法において、前記GUIの表示に使用するために前記モニタリングコンピューティングシステムに前記患者のための手術前データを通信するものである。
技術的思想55の方法は、技術的思想46から54のいずれかに記載の方法において、ビデオカメラ及びマイクロフォンのうちの少なくとも1つからORビデオ及び/又は音声データを取り込み、前記ORビデオ及び/又は音声データをモニタリングコンピューティングシステムに通信するものである。
技術的思想56の方法は、技術的思想46から55のいずれかに記載の方法において、前記命令は、前記モニタリングコンピューティングシステムによって生成された監視データを受信し利用するように前記ORコンピューティングシステムを構成するものである。
技術的思想57の方法は、技術的思想56記載の方法において、前記監視データは、前記ORコンピューティングシステムを制御するための介入データ、及び、オーディオデータ及び/又はビデオデータとから選択されるものである。
技術的思想58の方法は、技術的思想46から57のいずれかに記載の方法において、前記コンピュータ支援処置を実行するためのUIスクリーンを含む作業フローの使用し、及び、a)作業フローの進捗状況を表す作業フロー状態を維持し、作業フロー状態をモニタリングコンピューティングシステムに通信することと、b)モニタリングコンピューティングシステムへの作業フローの進捗状況に応じてUIスクリーンを共有するために、前記ORコンピューティングシステムの表示装置をミラーリングすることとの1つによって、前記モニタリングコンピューティングシステムが作業フローのUIスクリーンを表示できるようにするものである。
技術的思想59の方法は、技術的思想46から58のいずれかに記載の方法において、前記コンピュータ支援処置の進捗状況を自己監視し、前記進捗状況に応答して、前記ORコンピューティングシステムの遠隔監視を起動するメッセージを前記モニタリングコンピューティングシステムに通信することを含むものである。
技術的思想60の方法は、技術的思想46から59のいずれかに記載の方法において、前記ORコンピューティングシステム及び/又は他のOR装置のコンポーネントのためのコンポーネント姿勢情報を決定し、前記ORのレイアウトを示す仮想ビューの表示を可能にするために、前記コンポーネント姿勢情報を前記モニタリングコンピューティングシステムに通信するものである。
技術的思想61のORコンピューティングシステムは、ORコンピューティングシステムであって、少なくとも1の処理ユニットと、メモリ又は他のストレージから構成されるデータ記憶装置と、ネットワークを介して前記ORコンピューティングシステムと、前記データ記憶装置、前記表示装置、および前記通信システムのそれぞれは、前記少なくとも1の処理ユニットに結合されるものであり、前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、前記ORコンピューティングシステムは、コンピュータ支援処置を実行し、手術室内の前記コンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡し、前記手術室内の参照空間内の前記1又は複数の物体のそれぞれの位置を表す姿勢データを生成し、前記コンピュータ支援処置の進捗状況を監視するログデータを記憶し、前記ログデータを使用して前記コンピュータ支援処置の前記進捗状況を監視し、前記監視に応じた進捗状況の尺度を決定し、前記進捗状況の尺度に応じて前記進捗状況の尺度を特定するメッセージを通信し、オプションで、前記ORコンピューティングシステムを監視するために、少なくとも一部の前記ログデータが遠隔に配置されたモニタリングコンピューティングシステムに含んでいる。
技術的思想62のORコンピューティングシステムは、技術的思想61記載のORコンピューティングシステムにおいて、カメラを備え、前記命令は、前記カメラから画像を受信し、前記画像をログデータとして記憶するように前記ORコンピューティングシステムを構成するものである。
技術的思想63のORコンピューティングシステムは、技術的思想61及び62のいずれかに記載のORコンピューティングシステムにおいて、前記命令は、UIスクリーンを含む作業フローを使用して、前記コンピュータ支援処置を実行するように前記ORコンピューティングシステムを構成するものである。
技術的思想64のORコンピューティングシステムは、技術的思想63記載のORコンピューティングシステムにおいて、前記命令は、前記ORコンピューティングシステムを、前記作業フローの状態をログデータとして記憶し、前記作業フローの状態を前記モニタリングコンピューティングシステムに通信するように構成するものである。
技術的思想65のORコンピューティングシステムは、技術的思想63及び64のいずれかに記載のORコンピューティングシステムにおいて、前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである。
技術的思想66のORコンピューティングシステムは、技術的思想63及び64のいずれかに記載のORコンピューティングシステムにおいて、前記進捗状況の尺度は、閾値時間の満了に応答して、前記作業フローの状態を1つの状態から次の状態に進めることである。
技術的思想67のORコンピューティングシステムは、技術的思想61から66のいずれかに記載のORコンピューティングシステムにおいて、前記命令は、前記ログデータを分析し、前記進捗状況の尺度を生成するためのルールを含むものである。
技術的思想68のORコンピューティングシステムは、技術的思想67記載のORコンピューティングシステムにおいて、前記ルールは重大度を決定し、前記重大度に応じて前記メッセージを通信するものである。
技術的思想69のORコンピューティングシステムは、技術的思想61から68のいずれかに記載のORコンピューティングシステムにおいて、前記命令は、前記コンピュータ支援処置中に前記メッセージを通信し、前記コンピュータ支援処置中に前記モニタリングコンピューティングシステムからの前記監視データを受信し、前記監視データを、前記ORコンピューティングシステムを介して前記モニタリングコンピューティングシステムから利用するように前記ORコンピューティングシステムを構成するものである。
技術的思想70のORコンピューティングシステムは、技術的思想69記載のORコンピューティングシステムにおいて、前記モニタリングコンピューティングシステムからの前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データと、オーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である。
技術的思想71のORコンピューティングシステムは、技術的思想61から70のいずれかに記載のORコンピューティングシステムにおいて、マイクロフォン及び/又はビデオカメラが結合され、前記命令は、前記手術室から前記モニタリングコンピューティングシステムにORオーディオ及び/又はビデオデータを通信するように前記ORコンピューティングシステムを構成するものである。
技術的思想72のORコンピューティングシステムは、技術的思想61から71のいずれかに記載のORコンピューティングシステムにおいて、前記ORコンピューティングシステムによって生成された前記ログデータ又は前記手術中データの少なくとも1つから、前記モニタリングコンピューティングシステムに追加データを送信することを含むものである。
技術的思想73のORコンピューティングシステムは、技術的思想72記載のORコンピューティングシステムにおいて、前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのうちのいずれかのタイムスタンプデータ、のうちのいずれかを含むものである。
技術的思想74の方法は、ORコンピューティングシステムによるコンピュータ支援処置の実行し、手術室内の前記コンピュータ支援処置中に1又は複数の物体のそれぞれの位置を追跡し、前記手術室内の参照空間内の前記1又は複数の物体のそれぞれの位置を表す姿勢データを生成し、前記ORコンピューティングシステムは、前記コンピュータ支援処置の進捗状況を監視するためのログデータを記憶し、前記ORコンピューティングシステムは、前記ログデータを使用して前記コンピュータ支援処置の進捗状況を監視し、前記ORコンピューティングシステムは、前記監視に応じた進捗状況の尺度を決定し、前記ORコンピューティングシステムは、前記進捗状況の尺度に応じて前記進捗状況の尺度を特定するメッセージを通信し、オプションで、前記ORコンピューティングシステムを監視するために、少なくとも一部の前記ログデータが遠隔に配置されたモニタリングコンピューティングシステムに含んでいるものである。
技術的思想75の方法は、技術的思想74記載の方法において、前記ORコンピューティングシステムに結合されたカメラから画像を受信し、ログデータとして画像を記憶するものである。
技術的思想76の方法は、技術的思想74及び75のいずれかに記載の方法において、UIスクリーンを含む作業フローを使用して前記コンピュータ支援処置を実行するものである。
技術的思想77の方法は、技術的思想76記載の方法において、前記作業フローの状態をログデータとして記憶し、前記作業フローの状態を前記モニタリングコンピューティングシステムに通信するものである。
技術的思想78の方法は、技術的思想76及び77のいずれかに記載の方法において、前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである。
技術的思想79の方法は、技術的思想76及び77のいずれかに記載の方法において、前記進捗状況の尺度は、閾値時間の満了に応答して、前記作業フローの状態を1つの状態から次の状態に進めることである。
技術的思想80の方法は、技術的思想74から79のいずれかに記載の方法において、監視することは、ルールを使用してログデータを分析し、前記進捗状況の尺度を生成することを含む。
技術的思想81の方法は、技術的思想80記載の方法において、前記ルールは重大度を決定し、前記重大度に応じて前記メッセージを通信するものである。
技術的思想82の方法は、技術的思想74から81のいずれかに記載の方法において、前記コンピュータ支援処置中に前記メッセージを通信し、前記コンピュータ支援処置中に前記モニタリングコンピューティングシステムからの監視データの受信し、前記監視データを、前記ORコンピューティングシステムを介して前記モニタリングコンピューティングシステムから利用するものである。
技術的思想83の方法は、技術的思想82記載の方法において、前記モニタリングコンピューティングシステムからの前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データとオーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である。
技術的思想84の方法は、技術的思想74から83のいずれかに記載の方法において、マイクロフォン及び/又はビデオカメラを使用して手術室から取り込まれたORオーディオ及び/又はビデオデータを前記モニタリングコンピューティングシステムに通信するものである。
技術的思想85の方法は、技術的思想74から84のいずれかに記載の方法において、前記ORコンピューティングシステムによって生成された前記ログデータ又は手術中データの少なくとも1つから、前記モニタリングコンピューティングシステムに追加データを送信することを含むものである。
技術的思想86の方法は、技術的思想85記載の方法において、前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのうちのいずれかのタイムスタンプデータ、のうちのいずれかを含むものである。
技術的思想87のモニタリングコンピューティングシステムは、患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡するものであり、少なくとも1の処理ユニットと、メモリ又は他のストレージから構成されるデータ記憶装置と、表示装置と、ネットワークを介して前記ORコンピューティングシステムと通信する通信システムとを備え、前記データ記憶装置、前記表示装置、および前記通信システムのそれぞれは、前記少なくとも1の処理ユニットに結合されるものであり、前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令が記憶され、前記モニタリングコンピューティングシステムは、前記ORコンピューティングシステムから前記コンピュータ支援処置の進捗状況の尺度を特定するためのメッセージを受信し、オプションで、前記ORコンピューティングシステムの監視を開始するために、前記ORコンピューティングシステムに記憶される、前記コンピュータ支援処置のための少なくとも一部のログデータを含んでいる。
技術的思想88のモニタリングコンピューティングシステムは、技術的思想87記載のモニタリングコンピューティングシステムにおいて、前記データ記憶装置には、前記少なくとも1の処理ユニットによって実行される命令であって、前記1又は複数の物体を表す幾何学的データを取得し、前記ORコンピューティングシステムから姿勢情報を含む手術中データを前記コンピュータ支援処置中に受信し、前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、前記表示装置を介して表示することでGUI内に存在させるように、更に前記モニタリングコンピューティングシステムを構成する命令が記憶されるものである。
技術的思想89のモニタリングコンピューティングシステムは、技術的思想87及び88のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記ログデータは、前記ORコンピューティングシステムに結合されたカメラからの画像を含むものである。
技術的思想90のモニタリングコンピューティングシステムは、技術的思想87及び89のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記ORコンピューティングシステムは、前記コンピュータ支援処置をUIスクリーンを含む作業フローを使用して実行し、前記モニタリングコンピューティングシステムは、前記ORコンピューティングシステムから前記作業フローの状態を受信するものである。
技術的思想91のモニタリングコンピューティングシステムは、技術的思想90記載のモニタリングコンピューティングシステムにおいて、前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである。
技術的思想92のモニタリングコンピューティングシステムは、技術的思想90記載のモニタリングコンピューティングシステムにおいて、前記進捗状況の尺度は、閾値時間の満了に応じて、前記作業フローの状態を1つの状態から次の状態に進めることである。
技術的思想93のモニタリングコンピューティングシステムは、技術的思想87から92のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記進捗状況の前記監視は、重症度の尺度に関連付けられ、前記メッセージは前記重症度に応じて通信されるものである。
技術的思想94のモニタリングコンピューティングシステムは、技術的思想87から93のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記命令は、前記コンピュータ支援処置中に前記メッセージを受信し、監視データを定義し、前記コンピュータ支援処置中に前記監視データを前記ORコンピューティングシステムに通信するように、前記モニタリングコンピューティングシステムを構成するものである。
技術的思想95のモニタリングコンピューティングシステムは、技術的思想94記載のモニタリングコンピューティングシステムにおいて、前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データと、オーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である。
技術的思想96のモニタリングコンピューティングシステムは、技術的思想87から95のいずれかに記載のモニタリングコンピューティングシステムにおいて、マイクロフォン及び/又はビデオカメラに結合され、前記命令は、前記モニタリングコンピューティングシステムから前記手術室にオーディオ及び/又はビデオデータを通信するように前記モニタリングコンピューティングシステムを構成するものである。
技術的思想97のモニタリングコンピューティングシステムは、技術的思想87から96のいずれかに記載のモニタリングコンピューティングシステムにおいて、前記命令は、前記モニタリングコンピューティングシステムが前記ORコンピューティングシステムによって生成された前記ログデータ又は手術中データの少なくとも1つから、追加データを受信することを含むものである。
技術的思想98のモニタリングコンピューティングシステムは、技術的思想97記載のモニタリングコンピューティングシステムにおいて、前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのいずれかのタイムスタンプデータ、のうちのいずれかを含むものである。
技術的思想99の方法は、モニタリングコンピューティングシステムの1の処理ユニットによって、患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む遠隔に配置された手術室を監視し、前記コンピュータ支援処置中の1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡する方法であって、前記ORコンピューティングシステムから前記コンピュータ支援処置の進捗状況の尺度を特定するためのメッセージを受信し、オプションで、前記ORコンピューティングシステムの監視を開始するために、前記ORコンピューティングシステムに記憶される、前記コンピュータ支援処置のための少なくとも一部のログデータを含んでいるものである。
技術的思想100の方法は、技術的思想99記載の方法において、1又は複数の物体を表す幾何学的データの取得し、前記コンピュータ支援処置に対する前記ORコンピューティングシステムから姿勢情報を含む手術中データを処置中に受信し、前記姿勢情報および前記幾何学的データを使用した前記1又は複数の物体のそれぞれの位置を含む前記手術中データの少なくとも一部を、表示装置を介して表示することでGUI内に存在させるものである。
技術的思想101の方法は、技術的思想99及び100のいずれかに記載の方法において、前記ログデータは、前記ORコンピューティングシステムに結合されたカメラからの画像を含むものである。
技術的思想102の方法は、技術的思想99及び101のいずれかに記載の方法において、前記ORコンピューティングシステムは、UIスクリーンを含む作業フローを使用して、前記コンピュータ支援処置を実行し、前記方法は、前記コンピュータ支援処置から作業フローの状態を受信することを含むものである。
技術的思想103の方法は、技術的思想102記載の方法において、前記進捗状況の尺度は、前記作業フローの状態を1つの状態から次の状態に進めるのを失敗すること、又は、前記作業フローの1つの状態を繰り返すことである。
技術的思想104の方法は、技術的思想102記載の方法において、前記進捗状況の尺度は、閾値時間の満了に応答して、前記作業フローの状態を1つの状態から次の状態に進めることである。
技術的思想105の方法は、技術的思想99から104のいずれかに記載の方法において、前記進捗状況の前記監視は、重症度の尺度に関連付けられ、前記メッセージは前記重症度に応じて通信されるものである。
技術的思想106の方法は、技術的思想99から105のいずれかに記載の方法において、前記コンピュータ支援処置中の前記メッセージを受信し、前記コンピュータ支援処置中の監視データを定義し、前記監視データを前記ORコンピューティングシステムと通信するものである。
技術的思想107の方法は、技術的思想106記載の方法において、前記監視データは、前記ORコンピューティングシステムを少なくとも部分的に制御するための介入データと、オーディオ及び/又は表示装置を介して提示するためのオーディオ及び/又はビデオデータとのうちの一方または両方である。
技術的思想108の方法は、技術的思想99から107のいずれかに記載の方法において、マイクロフォン及び/又はビデオカメラからオーディオ及び/又はビデオデータを受信し、前記ORコンピューティングシステムを介して前記オーディオ及び/又はビデオデータを前記手術室に通信することを含むものである。
技術的思想109の方法は、技術的思想99から108のいずれかに記載の方法において、前記ORコンピューティングシステムによって生成された前記ログデータ又は手術中データの少なくとも1つからの追加データを、前記ORコンピューティングシステムから受信することを含むものである。
技術的思想110の方法は、技術的思想109記載の方法において、前記追加データは、カメラ画像データ、前記カメラ画像データから決定された姿勢データ、前記姿勢データから決定された計測データ、スクリーンショットデータ、作業フロー状態データ、前記1又は複数の物体のうちの1つの定義を表すデータ、術前患者データ、及び、前記手術中データのいずれかに対するタイムスタンプデータ、のうちのいずれかを含むものである。
Claims (28)
- 患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む手術室の外に配置され、前記手術室を監視し、前記コンピュータ支援処置に関する1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡するモニタリングコンピューティングシステムであって、
前記1又は複数の物体は、前記コンピュータ支援処置を受けている患者の一部、又は、前記ORコンピューティングシステムによる前記コンピュータ支援処置において処置を行う処置ツールであり、
前記モニタリングコンピューティングシステムは、
少なくとも1の処理ユニットと、
メモリ又は他のストレージから構成されるデータ記憶装置と、
表示装置と、
ネットワークを介して前記ORコンピューティングシステムと通信する通信システムとを備え、
前記データ記憶装置、前記表示装置、および前記通信システムのそれぞれは、少なくとも1の前記処理ユニットに結合されるものであり、
前記データ記憶装置には、少なくとも1の前記処理ユニットによって実行される命令と、前記1又は複数の物体をモデル化した幾何学的データとが記憶され、
更に前記モニタリングコンピューティングシステムは、
前記データ記憶装置から前記幾何学的データを取得し、
前記コンピュータ支援処置に対する前記ORコンピューティングシステムから姿勢情報を含む手術中データを処置中に受信し、
その姿勢情報は、前記物体の姿勢を表す姿勢データを計算するためのセンサデータ、又は、前記センサデータを使用して前記ORコンピューティングシステムで計算された姿勢データのいずれかによって構成され、
取得した前記幾何学的データを、受信した前記手術中データの前記姿勢情報に応じてレンダリングしたものを前記表示装置を介して表示することで、前記ORコンピューティングシステムのGUIで表示されるものと同等なものを、前記表示装置に表示されるGUI内に存在させるように構成され、
更に前記姿勢情報は、前記患者と所定の位置関係を有する対象物である患者基準の姿勢情報を含み、
前記命令は、
前記患者の解剖学的構造の位置と前記ORコンピューティングシステムで管理する仮想的な位置であるデジタル位置との間の対応関係を表すデータである解剖学的位置合わせデータを受信し、
前記解剖学的位置合わせデータ及び前記姿勢情報に含まれる患者基準を使用して、前記GUI内に少なくとも1つの前記患者の位置を表示し、
前記患者の位置と、その位置に対する前記1又は複数の物体の位置とを前記GUI内に表示することで、これら前記患者の位置と前記1又は複数の物体のそれぞれの位置とを関連させるように前記モニタリングコンピューティングシステムを構成することを特徴とするモニタリングコンピューティングシステム。 - 前記ORコンピューティングシステムは、前記手術室内の画像を取得するORカメラと、位置を変更可能なアームとを備え、
前記処置ツールは、前記アームに取り付けられるものであり、
前記コンピュータ支援処置は、前記ORカメラで取得された画像に基づいて前記1又は複数の物体である前記処置ツールの位置を追跡するために、前記アームを用いて前記処置ツールの位置を変更させて前記処置ツールの位置決めをすることを特徴とする請求項1記載のモニタリングコンピューティングシステム。 - 前記センサデータは、前記1又は複数の物体のそれぞれの位置を追跡する光学的位置特定システムが備えるカメラセンサで取得された画像に基づくカメラ測定値と、前記カメラ測定値を使用して計算された前記姿勢データとのうちの一方または両方を含むことを特徴とする請求項1又は2に記載のモニタリングコンピューティングシステム。
- 前記センサのうちの少なくとも1つが、前記1又は複数の物体のうちの少なくとも1つの位置決めを制御するロボットのモータのモータエンコーダ測定値を含むセンサデータを生成し、前記姿勢情報が、前記モータエンコーダ測定値と、前記モータエンコーダ測定値を使用して計算された前記姿勢データとのうちの1つまたは両方を含むことを特徴とする請求項1又は2に記載のモニタリングコンピューティングシステム。
- 前記患者の一部は、前記患者の骨であり、
前記1又は複数の物体は、前記処置ツール又は前記患者の骨から選択されるものであることを特徴とする請求項1から4のいずれかに記載のモニタリングコンピューティングシステム。 - 前記命令は、前記GUIに表示するための前記患者の手術前データであって、手術前における前記患者の情報および画像を含む手術前データを受信するように前記モニタリングコンピューティングシステムを構成することを特徴とする請求項1から5のいずれかに記載のモニタリングコンピューティングシステム。
- 監視ビデオ及び/又は音声データを取り込むためのビデオカメラ及びマイクロフォンのうちの少なくとも1つを備え、
前記命令が、前記監視ビデオ及び/又は音声データを前記ORコンピューティングシステムに通信するように構成されることを特徴とする請求項1から6のいずれかに記載のモニタリングコンピューティングシステム。 - 前記命令は、
a)前記コンピュータ支援処置のためのUIスクリーンで構成される作業フロー状態であって、前記コンピュータ支援処置の処置の流れを表す作業フローにおける進捗状況を表す作業フロー状態と、
b)前記モニタリングコンピューティングシステムからの前記作業フローの進捗状況に応じて、前記UIスクリーンを共有している前記ORコンピューティングシステムの表示装置のミラーと、
の1つを受信し、
前記作業フローの前記UIスクリーンを表示するように構成されることを特徴とする請求項1から7のいずれかに記載のモニタリングコンピューティングシステム。 - 入力装置を備え、
前記命令は、前記ORコンピューティングシステムの少なくとも1つの動作を制御する介入データを定義するための入力データを前記入力装置から取得し、前記介入データを前記ORコンピューティングシステムに通信するように構成されることを特徴とする請求項1から8のいずれかに記載のモニタリングコンピューティングシステム。 - 前記幾何学的データは、ユーザインターフェースで3D物体をレンダリングするための3Dデータモデルを含み、
前記命令は、位置情報を使用するように前記モニタリングコンピューティングシステムを構成し、
前記3Dデータモデルは、前記GUI内の少なくとも前記1又は複数の物体の3Dビューをレンダリングするように構成されることを特徴とする請求項1から9のいずれかに記載のモニタリングコンピューティングシステム。 - 前記命令は、前記幾何学的データに前記姿勢情報を適用することで、前記1又は複数の物体の位置、速度、加速度、圧力/力または近接度である位置状態情報を決定するように前記モニタリングコンピューティングシステムを構成することを特徴とする請求項1から10のいずれかに記載のモニタリングコンピューティングシステム。
- 前記ORコンピューティングシステムが位置特定システムとロボット外科システムとのうちの1つのコンポーネントを備えるか、又はそれらに結合され、
前記命令が、前記コンポーネントのうちの少なくとも1つを表す前記幾何学的データを取得して、前記コンポーネントのうちの少なくとも1つのレンダリングを前記手術室の仮想ビューに表示するように前記モニタリングコンピューティングシステムを構成することを特徴とする請求項1から11のいずれかに記載のモニタリングコンピューティングシステム。 - 前記命令は、前記仮想ビューをパンするためのパン制御と、前記仮想ビューをチルトするためのチルト制御と、前記仮想ビューをズームイン及び/又はズームアウトするためのズーム制御と、前記仮想ビュー内のOR装置の少なくとも1つの前記コンポーネントが移動し得る場所を示す作業ボリュームを表示するための作業ボリューム制御と、から選択される制御を提供するように前記モニタリングコンピューティングシステムを構成することを特徴とする請求項12記載のモニタリングコンピューティングシステム。
- 前記命令は、前記ORコンピューティングシステムからのメッセージであって、前記モニタリングコンピューティングシステムによる前記ORコンピューティングシステムによる前記コンピュータ支援処置の進捗状況の監視を開始するためのメッセージを受信するように前記モニタリングコンピューティングシステムを構成することを特徴とする請求項1から13のいずれかに記載のモニタリングコンピューティングシステム。
- 患者に対してコンピュータ支援処置を行うORコンピューティングシステムを含む手術室の外に配置され、前記手術室を監視し、前記コンピュータ支援処置に関する1又は複数の物体に結び付けられたセンサから受信される前記1又は複数の物体のそれぞれの位置を表すセンサデータに基づいて、前記1又は複数の物体のそれぞれの位置を追跡するモニタリングコンピューティングシステムで実行される方法であって、
前記1又は複数の物体は、前記コンピュータ支援処置を受けている患者の一部、又は、前記ORコンピューティングシステムによる前記コンピュータ支援処置において処置を行う処置ツールであり、
前記モニタリングコンピューティングシステムは、メモリ又は他のストレージから構成されるデータ記憶装置と、表示装置とを備えるものであり、
前記データ記憶装置には、前記1又は複数の物体をモデル化した幾何学的データが記憶され、
前記方法は、
前記データ記憶装置から1又は複数の物体をモデル化した幾何学的データを取得し、
前記コンピュータ支援処置に対する前記ORコンピューティングシステムから姿勢情報を含む手術中データを処置中に受信し、
その姿勢情報は、前記物体の姿勢を表す姿勢データを計算するためのセンサデータ、又は、前記センサデータを使用して前記ORコンピューティングシステムで計算された姿勢データのいずれかによって構成され、
取得した前記幾何学的データを、受信した前記手術中データの前記姿勢情報に応じてレンダリングしたものを前記表示装置を介して表示することで、前記ORコンピューティングシステムのGUIで表示されるものと同等なものを、前記表示装置に表示されるGUI内に存在させ、
更に前記姿勢情報は、前記患者と所定の位置関係を有する対象物である患者基準の姿勢情報を含み、
前記患者の解剖学的構造の位置と前記ORコンピューティングシステムで管理する仮想的な位置であるデジタル位置との間の対応関係を表すデータである解剖学的位置合わせデータを受信し、
前記解剖学的位置合わせデータ及び前記姿勢情報に含まれる患者基準を使用して、前記GUI内に少なくとも1つの前記患者の位置を表示し、
前記患者の位置と、その位置に対する前記1又は複数の物体の位置とを前記GUI内に表示することで、これら前記患者の位置と前記1又は複数の物体のそれぞれの位置とを関連させるように前記モニタリングコンピューティングシステムを構成することを特徴とする方法。 - 前記ORコンピューティングシステムは、前記手術室内の画像を取得するORカメラと、位置を変更可能なアームとを備え、
前記処置ツールは、前記アームに取り付けられるものであり、
前記コンピュータ支援処置は、前記ORカメラで取得された画像に基づいて前記1又は複数の物体である前記処置ツールの位置を追跡するために、前記アームを用いて前記処置ツールの位置を変更させて前記処置ツールの位置決めをすることを特徴とする請求項15記載の方法。 - 前記センサデータは、前記1又は複数の物体のそれぞれの位置を追跡する光学的位置特定システムが備えるカメラセンサで取得された画像に基づくカメラ測定値と、前記カメラ測定値を使用して計算された前記姿勢データとのうちの一方または両方を含むことを特徴とする請求項15又は16に記載の方法。
- 前記センサのうちの少なくとも1つが、前記1又は複数の物体のうちの少なくとも1つの位置決めを制御するロボットのモータのモータエンコーダ測定値を含むセンサデータを生成し、前記姿勢情報が、前記モータエンコーダ測定値と、前記モータエンコーダ測定値を使用して計算された前記姿勢データとのうちの1つまたは両方を含むことを特徴とする請求項15又は16に記載の方法。
- 前記患者の一部は、前記患者の骨であり、
前記1又は複数の物体は、前記処置ツール又は前記患者の骨から選択されるものであることを特徴とする請求項15から18のいずれかに記載の方法。 - 前記GUIに表示するために前記患者の手術前データであって、手術前における前記患者の情報および画像を含む手術前データを受信することを特徴とする請求項15から19のいずれかに記載の方法。
- ビデオカメラ及びマイクロフォンのうちの少なくとも1つから、監視ビデオ及び/又は音声データを取り込み、前記監視ビデオ及び/又は音声データを前記ORコンピューティングシステムに通信することを特徴とする請求項15から20のいずれかに記載の方法。
- a)前記コンピュータ支援処置のためのUIスクリーンで構成される作業フロー状態であって、前記コンピュータ支援処置の処置の流れを表す作業フローにおける進捗状況を表す作業フロー状態と、b)前記モニタリングコンピューティングシステムからの前記作業フローの進捗状況に応じて、前記UIスクリーンを共有している前記ORコンピューティングシステムの表示装置のミラーと、の1つを受信し、前記作業フローの前記UIスクリーンを表示することを特徴とする請求項15から21のいずれかに記載の方法。
- 前記ORコンピューティングシステムの少なくとも1つの動作を制御する介入データを定義するための入力データを前記モニタリングコンピューティングシステムの入力装置から取得し、前記モニタリングコンピューティングシステムから前記介入データを前記ORコンピューティングシステムに通信することを特徴とする請求項15から22のいずれかに記載の方法。
- 前記幾何学的データは、ユーザインターフェースで3D物体をレンダリングするための3Dデータモデルを含み、
前記GUI内の少なくとも前記1又は複数の物体の3Dビューを位置情報および前記3Dデータモデルを使用してレンダリングするように構成されることを特徴とする請求項15から23のいずれかに記載の方法。 - 前記幾何学的データに前記姿勢情報を適用することで、前記1又は複数の物体の位置、速度、加速度、圧力/力または近接度である位置状態情報を決定することを特徴とする請求項15から24のいずれかに記載の方法。
- 前記ORコンピューティングシステムが位置特定システムとロボット外科システムとのうちの1つのコンポーネントを備えるか、又はそれらに結合され、
前記方法が、前記コンポーネントのうちの少なくとも1つを表す前記幾何学的データを取得して、前記コンポーネントのうちの少なくとも1つのレンダリングを前記手術室の仮想ビューに表示するように構成されることを特徴とする請求項15から25のいずれかに記載の方法。 - 前記仮想ビューをパンするためのパン制御と、前記仮想ビューをチルトするためのチルト制御と、前記仮想ビューをズームイン及び/又はズームアウトするためのズーム制御と、前記仮想ビュー内のOR装置の少なくとも1つの前記コンポーネントが移動し得る場所を示す作業ボリュームを表示するための作業ボリューム制御と、から選択される制御を提供することを特徴とする請求項26記載の方法。
- 前記ORコンピューティングシステムからのメッセージであって、前記モニタリングコンピューティングシステムによる前記ORコンピューティングシステムによる前記コンピュータ支援処置の進捗状況の監視を開始するためのメッセージを受信することを特徴とする請求項15から27のいずれかに記載の方法。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201862625511P | 2018-02-02 | 2018-02-02 | |
| US62/625,511 | 2018-02-02 | ||
| PCT/CA2019/050128 WO2019148286A1 (en) | 2018-02-02 | 2019-02-01 | Operating room remote monitoring |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021511903A JP2021511903A (ja) | 2021-05-13 |
| JP7367990B2 true JP7367990B2 (ja) | 2023-10-24 |
Family
ID=67477844
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020541969A Active JP7367990B2 (ja) | 2018-02-02 | 2019-02-01 | 手術室の遠隔監視 |
Country Status (4)
| Country | Link |
|---|---|
| US (2) | US20200352657A1 (ja) |
| JP (1) | JP7367990B2 (ja) |
| AU (2) | AU2019214340A1 (ja) |
| WO (1) | WO2019148286A1 (ja) |
Families Citing this family (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11998287B1 (en) * | 2019-03-18 | 2024-06-04 | Dopl Technologies Inc. | Platform for facilitating remote robotic medical procedures |
| US11389246B2 (en) | 2019-10-29 | 2022-07-19 | Verb Surgical Inc. | Virtual reality system with customizable operation room |
| US11382696B2 (en) | 2019-10-29 | 2022-07-12 | Verb Surgical Inc. | Virtual reality system for simulating surgical workflows with patient models |
| EP4051155A4 (en) * | 2019-10-29 | 2023-11-29 | Verb Surgical Inc. | Virtual reality systems for simulating surgical workflow with patient model and customizable operation room |
| US11690674B2 (en) | 2020-04-03 | 2023-07-04 | Verb Surgical Inc. | Mobile virtual reality system for surgical robotic systems |
| CN111658154B (zh) * | 2020-05-11 | 2021-10-26 | 首都医科大学附属北京天坛医院 | 一种自动远程造影手术机器人系统 |
| CN114831738B (zh) * | 2020-10-08 | 2025-08-26 | 深圳市精锋医疗科技股份有限公司 | 手术机器人及其图形化控制装置、图形化显示方法 |
| EP4331664A1 (en) * | 2022-08-31 | 2024-03-06 | Vision RT Limited | A system for monitoring position of a patient |
| US20240306957A1 (en) * | 2023-03-17 | 2024-09-19 | Know Labs, Inc. | Executing non-invasive rf analyte measurements in operative procedures |
| CN116206773B (zh) * | 2023-04-23 | 2023-07-25 | 四川省医学科学院·四川省人民医院 | 一种针对护理任务的监控管理方法和系统 |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008119472A (ja) | 2006-11-14 | 2008-05-29 | General Electric Co <Ge> | 埋植物距離測定のシステム及び方法 |
| US20100228264A1 (en) | 2009-03-09 | 2010-09-09 | David Robinson | Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems |
| JP2012504017A (ja) | 2008-09-30 | 2012-02-16 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 先端部の配置および配向を制御するカメラ機器のコンピュータ生成された補助的ビューを提供する医療用ロボットシステム |
| JP2017515523A (ja) | 2014-03-17 | 2017-06-15 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 遠隔操作医療システムにおける器具のオフスクリーン表示のためのシステム及び方法 |
Family Cites Families (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10555775B2 (en) * | 2005-05-16 | 2020-02-11 | Intuitive Surgical Operations, Inc. | Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery |
| CN106913366B (zh) * | 2011-06-27 | 2021-02-26 | 内布拉斯加大学评议会 | 工具承载的追踪系统和计算机辅助外科方法 |
| US9498231B2 (en) * | 2011-06-27 | 2016-11-22 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
| US20160314717A1 (en) * | 2015-04-27 | 2016-10-27 | KindHeart, Inc. | Telerobotic surgery system for remote surgeon training using robotic surgery station coupled to remote surgeon trainee and instructor stations and associated methods |
| JP2019508134A (ja) * | 2016-02-26 | 2019-03-28 | シンク サージカル, インコーポレイテッド | ロボットの配置をユーザーにガイドするための方法およびシステム |
| US11974761B2 (en) * | 2016-12-08 | 2024-05-07 | Orthotaxy S.A.S. | Surgical system for cutting an anatomical structure according to at least one target plane |
-
2019
- 2019-02-01 JP JP2020541969A patent/JP7367990B2/ja active Active
- 2019-02-01 US US16/965,971 patent/US20200352657A1/en not_active Abandoned
- 2019-02-01 AU AU2019214340A patent/AU2019214340A1/en not_active Abandoned
- 2019-02-01 WO PCT/CA2019/050128 patent/WO2019148286A1/en not_active Ceased
-
2024
- 2024-04-24 US US18/645,028 patent/US20240341862A1/en active Pending
- 2024-10-23 AU AU2024227561A patent/AU2024227561A1/en active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2008119472A (ja) | 2006-11-14 | 2008-05-29 | General Electric Co <Ge> | 埋植物距離測定のシステム及び方法 |
| JP2012504017A (ja) | 2008-09-30 | 2012-02-16 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 先端部の配置および配向を制御するカメラ機器のコンピュータ生成された補助的ビューを提供する医療用ロボットシステム |
| US20100228264A1 (en) | 2009-03-09 | 2010-09-09 | David Robinson | Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems |
| JP2017515523A (ja) | 2014-03-17 | 2017-06-15 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 遠隔操作医療システムにおける器具のオフスクリーン表示のためのシステム及び方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2021511903A (ja) | 2021-05-13 |
| AU2024227561A1 (en) | 2024-11-14 |
| US20240341862A1 (en) | 2024-10-17 |
| WO2019148286A1 (en) | 2019-08-08 |
| US20200352657A1 (en) | 2020-11-12 |
| AU2019214340A1 (en) | 2020-09-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7367990B2 (ja) | 手術室の遠隔監視 | |
| JP7408754B2 (ja) | 撮像装置及び入力コントロールを再芯出しするためのシステム及び方法 | |
| JP7716817B2 (ja) | 走査ベースの位置付けを伴う遠隔操作手術システム | |
| US11779409B2 (en) | Surgical system with workflow monitoring | |
| JP7233841B2 (ja) | ロボット外科手術システムのロボットナビゲーション | |
| US10610307B2 (en) | Workflow assistant for image guided procedures | |
| EP3867921A1 (en) | Augmented reality with medical imaging | |
| US20110306873A1 (en) | System for performing highly accurate surgery | |
| WO2017076886A1 (en) | Determining a configuration of a medical robotic arm | |
| CA3141156A1 (en) | A system and method for interaction and definition of tool pathways for a robotic cutting tool | |
| WO2023274100A1 (zh) | 位姿控制方法及其适用的光学导航系统、手术机器人系统 | |
| JP2004538538A (ja) | 強化現実可視化付きの、手術中にイメージガイドされる神経外科手術法及び手術用装置 | |
| JP2023530652A (ja) | コンピュータ支援インターベンション用の空間認識ディスプレイ | |
| JP2020512116A (ja) | マーカーレスロボット追跡システム、制御装置、及び方法 | |
| US20240268899A1 (en) | System and method of displaying images from imaging devices | |
| US11551810B2 (en) | Method for acquiring and for altering a configuration of a number of objects in a procedure room and corresponding device | |
| CN111973273A (zh) | 基于ar技术的手术导航系统、方法、设备和介质 | |
| EP3200719B1 (en) | Determining a configuration of a medical robotic arm | |
| CN120475940A (zh) | 用于校准相机的方法和系统 | |
| CN115429432B (zh) | 可读存储介质、手术机器人系统和调整系统 | |
| US20240335245A1 (en) | Techniques for adjusting a field of view of an imaging device based on head motion of an operator | |
| Wörn et al. | New augmented reality and robotic based methods for head‐surgery | |
| Yelchuri et al. | RoboTwin: A Robotic Teleoperation Framework Using Digital Twins | |
| US12165760B2 (en) | Interactive flying frustums visualization in augmented reality | |
| US20240268892A1 (en) | Virtual Reality Surgical Systems And Methods Including Virtual Navigation |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220128 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230630 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230904 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231004 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7367990 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |