[go: up one dir, main page]

JP7608165B2 - 足制御型カーソル - Google Patents

足制御型カーソル Download PDF

Info

Publication number
JP7608165B2
JP7608165B2 JP2020563958A JP2020563958A JP7608165B2 JP 7608165 B2 JP7608165 B2 JP 7608165B2 JP 2020563958 A JP2020563958 A JP 2020563958A JP 2020563958 A JP2020563958 A JP 2020563958A JP 7608165 B2 JP7608165 B2 JP 7608165B2
Authority
JP
Japan
Prior art keywords
foot
movement
hands
display screen
console
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020563958A
Other languages
English (en)
Other versions
JP2021524096A (ja
Inventor
ユラ ラポポルト トビアス
Original Assignee
アルコン インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アルコン インコーポレイティド filed Critical アルコン インコーポレイティド
Publication of JP2021524096A publication Critical patent/JP2021524096A/ja
Application granted granted Critical
Publication of JP7608165B2 publication Critical patent/JP7608165B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0334Foot operated pointing devices
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00199Electrical control of surgical instruments with a console, e.g. a control panel with a display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00225Systems for controlling multiple different instruments, e.g. microsurgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods
    • A61B2017/00973Surgical instruments, devices or methods pedal-operated
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting in contact-lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/007Methods or devices for eye surgery
    • A61F9/00736Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments
    • A61F9/00745Instruments for removal of intra-ocular material or intra-ocular injection, e.g. cataract instruments using mechanical vibrations, e.g. ultrasonic
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、足制御型カーソルに関する。
外科手術はしばしば多くの異なる特殊ツールを必要とする。特殊ツールは特定のやり方で機能及び/又は動作するように設計された複雑な機械を含み得る。さらに、ツールは他の制御デバイスと通信及び/又は連動しない個々の制御デバイスを有し得る。具体的には、制御デバイスは、外科医が自身の足によりツールを操作及び制御することを可能にし得るフットペダルの形式であり得る。これは、外科手術中に手術室において多くの難題を提示する。
例えば、フットペダルにより制御される医療デバイスは、フットペダル上のスイッチ及び/又はボタンより多くの機能及び/又は動作を含み得る。動作及び/又は機能するために、フットペダルへ取り付けられないやり方の医療デバイスは、このような動作及び/又は機能を選択するためにタッチスクリーンを利用するオペレータにより実行される。これは、オペレータが患者内に配置され得る他の医療デバイスを両手で操作することがあるので、可能ではない場合がある。外科手術中に医療デバイスの機能及び/又は動作を制御するための現在の技術は、初歩的であり且つ厄介であり、患者が負担する可能性がある高価なミスに至り得る。
例示的態様では、本開示は方法に向けられる。医療デバイスを制御する方法は、ハンズフリーデバイスにより足の運動を追跡することと、カーソルを移動するために足の運動を処理することとを含み得る。カーソルは医療デバイスのディスプレイ画面上に配置され得る。本方法はさらに、ハンズフリーデバイスを介しカーソルにより少なくとも1つのアイコンの選択を受信することを含み得る。
別の例示的態様では、本開示は医療デバイスを制御するためのシステムへ向けられる。本システムは、コンソールとコンソールへ結合されたディスプレイ画面とを含み得、カーソルを表示するように構成され得る。本システムはハンズフリーデバイスをさらに含み得る。ハンズフリーデバイスは、コンソールへ通信可能に結合され得、追跡領域内の運動を追跡すると共に出力を生成するように動作可能であり得る。本システムはさらに、コンソールへ接続された医療デバイスと指示を実行するように構成されたプロセッサとを含み得る。本プロセッサは、ハンズフリーデバイスの出力に従ってカーソルを制御する工程と、ハンズフリーデバイスの出力に従ってハンズフリーデバイスを介しクリックによりカーソルにより少なくとも1つのアイコンの選択を受信する工程とを行い得る。
様々な態様は以下の特徴のうちの1つ又は複数を含み得る。医療デバイスを制御する方法はさらに、医療デバイスをコンソールへ取り付けることを含み得、ハンズフリーデバイスはコンソールへ通信可能に結合され得る。医療デバイスを制御する方法はさらに、選択に基づき命令を医療デバイスへ送信することを含み得る。ハンズフリーデバイスは医療デバイスのコンソールへ無線で取り付けられ得る。選択は医療デバイスの機能を制御し得る。限定しないが、選択を受信することは足の運動によりダブルクリックを受信することを含む。ハンズフリーデバイスは足の運動を捕捉する仮想フットペダルを含み得る。ハンズフリーデバイスはオペレータからの入力を受信するための高感度表面パッドを含み得る。ハンズフリーデバイスは高感度表面パッドを含み得、オペレータは足を高感度表面パッドの表面の全体にわたって移動させる。高感度表面パッドは電気抵抗の変化、容量の変化又はインダクタンスの変化から足の位置を検出し得る。ハンズフリーデバイスは運動ハードウェアを含み得、運動ハードウェアはオペレータの足の上に配置される。限定しないがハンズフリーデバイスはジョイスティックであるということに留意すべきである。
様々な態様は以下の特徴のうちの1つ又は複数を含み得る。ハンズフリーデバイスは仮想フットペダルを含み得る、医療デバイスを制御するためのシステム。ハンズフリーデバイスは高感度表面パッドを含み得、オペレータは足を高感度表面パッドの表面の全体にわたって移動させる。限定しないが、高感度表面パッドは電気抵抗の変化、容量の変化又はインダクタンスの変化から位置を検出するように動作可能である。ハンズフリーデバイスは運動ハードウェアを含み得、運動ハードウェアはオペレータの足の上に配置される。運動ハードウェアは加速度センサ、電子コンパス、ジャイロセンサ又は位置エンコーダを含み得る。ディスプレイ画面はタッチスクリーン及び/又はヘッドアップディスプレイであり得る。限定しないが、少なくとも1つのアイコンは医療デバイスの動作を制御するように動作可能であり得る。少なくとも1つのアイコンは副モードへアクセスするように動作可能であり得、副モードは医療デバイスの機能を制御するように動作可能である。
前述の概説並びに以下の添付図面と詳細説明との両方は、本来、例示的であり説明のためのものであり、本開示の範囲を制限することなく本開示を理解するように意図されているということを理解すべきである。この点に関し、本開示の追加態様、特徴及び利点は以下のことから当業者に明らかになる。
これらの図面は、本開示の実施形態のいくつかの態様の例を示しており、したがって本開示を制限又は定義するために使用されるべきでない。
図1は、コンソール及びハンズフリーデバイスの例を示す。 図2は、光学追跡デバイスの例を示す。 図3は、光学追跡デバイスの別の例を示す。 図4は、音響追跡デバイスの例を示す。 図5は、磁気追跡デバイスの例を示す。 図6は、赤外線追跡デバイスの例を示す。 図7は、高感度表面パッドの例を示す。 図8は、運動ハードウェアの例を示す。 図9は、コンソール及びハンズフリーデバイスの概略レイアウトを示す。 図10は、ディスプレイ画面の例を示す。
本開示の原理の理解を助ける目的のために、添付図面に示される実施形態が次に参照され、特定言語がこれら実施形態を説明するために使用されることになる。それにもかかわらず本開示の範囲のいかなる制限も意図されていないことが理解されることになる。説明されたデバイス、器具、方法に対する任意の変更及びさらなる修正、並びに本開示の原理の任意のさらなる応用は、当業者が通常思いつくように、十分に企図される。特に、1つ又は複数の実施形態を参照して説明される特徴、部品、及び/又は工程が本開示の他の実施形態を参照して説明される特徴、部品、及び/又は工程と組み合わせられ得るということが十分に企図される。簡単のために、いくつかの例では、同じ参照符号が、同じ又は同様な部分を参照するために添付図面を通して使用される。
本開示は一般的には、患者の治療(例えば外科手術)のための又は診断における手術室内で使用される医療デバイス制御に関する。以下に開示されるシステムは任意のタイプの医学的処置(眼科外科処置を含む)のための任意のタイプの手術室内で利用され得るということに注意すべきである。手術中の複雑なワーク・フローの性質に起因して、ハンズフリー制御が望ましい場合がある。いくつかの実施形態では、手術は、物理的フットペダル、仮想フットペダル、高感度表面、及び運動を検出し得るハードウェアなどの様々なハンズフリー入力デバイスを含み得る。各ハンズフリーデバイスは手術室内の任意数の手術用デバイスを制御し得る。ハンズフリーデバイスは、特定デバイス上の識別された機能を制御し得るボタン、ジョイスティック、及び/又はロッカーの数により制限され得る。現在、制御選択肢は、ハンズフリーデバイス上に配置される各ボタンへ割り当てられ得る利用可能ボタン及び行為の数により制限され得る。例えば、ボタンは単一行為だけ又はせいぜいいくつかの文脈依存選択を行い得る。したがって、複雑なシーケンスは実施するのが困難であり得る。
図1は例示的実施形態による医療デバイス100を示す。しかし、限定しないが、任意のタイプの医療デバイスが以下に開示されるいくつかの実施形態において使用され得る。いくつかの実施形態では、医療デバイス100はコンソール102及び器具112を含み得る。器具112は、眼科外科処置などの医療用途に使用され得る多様な医療機器(限定しないが眼科顕微鏡、超音波ハンドピース、手術誘導システム、手術中診断ユニット、硝子体切除術器具、注入カニューレ、眼内レンズ(IOL:intraocular lens)インサータ、トロカール・カニューレ、レーザ器具、適切な照明(例えばシャンデリア照明システム、眼内照明器などを含む))のうちの任意のものであり得る。示された実施形態では、器具112は、油圧駆動されるIOLインサータの形式であり得る。図示のように、コンソール102はディスプレイ画面104、洗浄ポート106、吸引ポート108及びハンズフリーデバイス114を含み得る。ハンズフリーデバイス114は、フットペダルの代わりに使用され得、オペレータが、物理的スイッチ、ボタン、トリガ、タッチスクリーン素子、キーボード、マウスなど無しに、取り付けられたデバイスの機能を制御することを可能にし得る。いくつかの実施形態では、コンソール102は、移動式であるように設計され得、眼科外科処置を行うためにヘルスケア提供者などのユーザにより使用され得る。コンソール102はまた、器具112に関連する様々な機能を行うためにデータを処理、受信、及び格納するように構成され得る制御システム110を含み得る。
ディスプレイ画面104は情報をユーザへ伝達し得、いくつかの実施形態では、外科処置中にシステム運用及び性能に関係するデータを示し得る。いくつかの実施形態では、ディスプレイ画面104は、オペレータがグラフィックユーザインターフェースを介しコンソール102と相互作用することを可能にするタッチスクリーンであり得る。
いくつかの実施形態では、コンソール102は様々な眼科外科処置中の使用のための様々な流体操作システムを含み得る。示された実施形態では、コンソール102は洗浄ポート106を介し洗浄流体を供給し得る。コンソール102は、吸引ポート108を介し流体及び組織を吸引し得る真空又は吸水力を生成し得るポンプを含み得る。いくつかの実施形態では、器具112は、器具112を駆動するためにこれらの流体操作システム又は他の流体操作システムを使用し得る。具体的には、器具112は、洗浄ラインを介し洗浄ポート106へ接続され得、吸引ラインを介し吸引ポート108へ接続され得る。以上の説明はIOLインサータの形式の器具112と共に使用するために構成されるコンソール102へ向けられるが、本開示は例えば特定アプリケーションに依存してコンソール102の他の構成を包含すべきであるということを理解すべきである。
ハンズフリーデバイス114は足の運動を捕捉するためのデバイスとして説明され得る。ハンズフリーデバイス114は、例えばディスプレイ画面104上に表示され得るカーソル(例えば図10のカーソル1002)の制御を可能にし得る。ディスプレイ画面104はヘッドアップディスプレイを含み得るということに注意すべきである。ヘッドアップディスプレイは、オペレータにオペレータの視認領域から眼をそらすことを要求することなくデータを提示し得る透明ディスプレイであり得る。現在、フットペダルは物理的スイッチ、ボタン、トリガ、タッチスクリーン素子、キーボード、マウスなどを介し機械的運動を行い得る。これらの機械的運動のそれぞれは、フットペダルへ取り付けられるデバイスの機能及び/又は動作を制御し得る。フットペダルは、フットペダル上に配置され得る機械的運動の数により制限され得る。したがって、手術中、任意数のフットペダルが任意数の特定及び個々のデバイスを制御するために利用され得る。手術における多数のフットペダルは、煩わしくなり得、互いに極近傍に在り得るフットペダルの偶発使用に到り得る。空間制限により、多数のフットペダルは実現可能ではない場合がある。加えて、フットペダルは、フットペダルが行い得る機能の数により制限され得る。したがって、より多くの機能を行うことはより多くのフットペダルを必要とし得る。ハンズフリーデバイス114などの単一デバイスは、手術室を片付け得、デバイスの意図せぬ機能及び動作を防止し得る。
いくつかの実施形態では、ハンズフリーデバイス114はオペレータの足116の少なくとも一部分の運動を追跡し得る。ハンズフリーデバイス114はハンズフリーデバイス114と共に働くように設計された体の任意の部分の少なくとも一部分の運動を追跡し得るということに注意すべきである。限定しないが、ハンズフリーデバイス114はオペレータの足116の回転(ピッチ、ヨー及びロール)の認識を介し足116の位置及び/又は運動を登録し得る。足116の位置及び/又は運動を測定することは、医療デバイス100がデバイスの動作及び機能を識別及び判断することを可能にし得る。例えば、足116の位置及びこの位置の足116の所定運動は第1のデバイスとして動作し及び機能し得る。足116の第2の位置及び足116の第2の所定運動は第2のデバイスとして動作し及び機能し得る。
これは、ハンズフリーデバイス114が任意数のデバイスを制御することとそれらのデバイス上の任意数の機能及び/又は操作を行うこととを可能にし得る。任意数のデバイスを制御し任意数の機能及び/又は操作を行うためにハンズフリーデバイス114を利用することは、手術室を片付け得、外科手術中のデバイスの偶発使用を防止し得る。ハンズフリーデバイス114は、位置追跡を介し他のデバイスの機能及び/又は動作を制御することができ得る。位置追跡は任意数のセンサにより行われ得る。限定しないが、位置追跡センサは光学的センサ、音響センサ、磁気センサ、及び/又は熱センサを含み得る。様々なタイプのセンサがハンズフリーデバイス114を形成するためにシステム内で一緒に働き得るということに注意すべきである。位置追跡センサはまた、足116の運動を追跡するために一緒に働き得る多くの異なる個々のデバイスを含み得る。
図2と図3は本開示の実施形態による光学追跡のための2つの異なるデバイスを示す。図2では、ハンズフリーデバイス114は足116の位置及び運動を追跡するためにカメラ200を含み得る。カメラ200内に配置されるのはセンサ202であり得る。センサ202は、センサ202の面全体にわたり感知した光の強度に敏感であり得る。加えて、カメラ200はマスク204を含み得る。マスク204は、図2に示すようにカメラ200内に配置され、センサ202に沿って及び/又はレンズ206に沿って配置され得る。手術中、カメラ200は足116から反射される光208に晒され得る。足116が任意軸210に沿って移動するにつれて、足116から反射される光208はレンズ206を通過しカメラ200へ入り得る。光208はまた、上に開示されたようにカメラ200内の任意の好適な位置に配置され得るマスク204を通過し得るということに注意すべきである。レンズ206を通過する光208は、偏光され、センサ202上の焦点212に配置される。足116の運動中、光208は様々な角度でカメラ200へ反射され得る。角度が変化すると、焦点212はセンサ202の面に沿って移動し得る。焦点212が移動するにつれて、足116の運動は医療デバイス100上で追跡及び/又は記録され得る(例えば図1を参照)。加えて、カメラ200及び/又は複数のカメラは、様々な時間に画像を捕捉し、画像内の対象物の運動を測定し得る。例えば、カメラ200又は複数のカメラは、第1の画像内の対象物を捕捉し、第1の画像の数秒以内に第2の画像内のオブジェクションを捕捉し得る。カメラ200は画像内の対象物の運動を判断することができる場合がある。これは、カメラが画像を連続的に捕捉することなく動作することを可能にし得、計算能力を節約し、データを低減し、エネルギーを節約し得る。このタイプの光学追跡はマーカ無し追跡及び/又は受動追跡として定義され得る。
図3は本開示の実施形態によるマーカ追跡及び/又は能動追跡として定義され得る光学追跡を示す。いくつかの実施形態では、ハンズフリーデバイス114は、マーカ302の位置及び/又は運動を記録するように設計され得るカメラ300を含み得る。マーカ302は、カメラ300により記録及び/又は捕捉され得る可視光及び/又は赤外線光を反射するのに好適な任意の材料を含み得る。いくつかの実施形態では、マーカ302は、これもカメラ300により捕捉及び/又は記録され得る可視光及び/又は赤外線光を発射し得る。いくつかの例では、足116の上に配置される少なくとも1つのマーカ302が存在し得る。限定しないが、マーカ302は、任意の好適な位置において足116上に配置され得る及び/又は任意の好適なコネクタ304を介し足116へ取り付けられ得る。手術中、カメラ300は、マーカ302を視認、捕捉、及び/又は記録するために任意の好適な位置に配置され得る。外科手術が開始し得る前に、カメラ300は開始位置を判断するために足116を基準にして較正し得る。外科手術中、足116が移動するにつれて、カメラ300は第1の位置から第2の位置へのマーカ302の運動を捕捉、記録、及び/又は追跡する。マーカ302(ひいては足116)の捕捉された運動は医療デバイス100上で追跡及び/又は記録され得る(例えば図1を参照)。
図4は本開示の実施形態による音響追跡デバイス400を示す。いくつかの実施形態では、ハンズフリーデバイス114は音響追跡デバイス400を含み得る。足116の運動及び/又は位置を判断するために一緒に動作及び/又は機能する任意数の好適な音響追跡デバイス400が存在し得る。音響追跡デバイス400は、人間には殆ど聴こえ得ない低周波及び/又は高周波音波402を発射することにより動作し得る。いくつかの実施形態では、様々なタイプの音波402が音響追跡デバイス400により、同時に及び/又は所定構造内で発射され得る。音波402は、音響追跡デバイス400上の任意の好適な位置に配置されるスピーカ406により発射され得る。音波402が足116に当たると、反射波404が音響追跡デバイス400に向かって送り返され記録され得る。図示のように、音響追跡デバイス400は反射波404を記録するための1つ又は複数のセンサ408を含み得る。反射波404はエコーと考えられ得る。足116が移動するにつれて、反射波404は、音響追跡デバイス400に対する足116の距離及び位置により変えられ得る。これは、音響追跡デバイス400が足116の場所及び位置を判断することを可能にし得る。足116の運動は医療デバイス100上で追跡及び/又は記録され得る(例えば図1を参照)。
図5は本開示の実施形態による磁気追跡デバイス500を示す。いくつかの実施形態では、ハンズフリーデバイス114は磁気追跡デバイス500を含み得る。足116の運動及び/又は位置を判断するために一緒に動作及び/又は機能する任意数の好適な磁気追跡デバイス500が存在し得る。磁気追跡デバイス500は、磁気追跡デバイス500上に又はその中に配置され得る送信機508から電磁場502を発射することにより動作し得る。手術の前に、磁気追跡デバイス500は電磁場502の基準を判断するために較正され得る。磁気追跡デバイス500の上に又はその中に配置される受信機510は、電磁場502を感知すること及び電磁場502の変化を感知することができ得る。いくつかの実施形態では、磁石504は足116上に配置され得る。磁石504は電磁場502を変え得る。限定しないが、任意の好適なやり方で足116へ取りけられ得る磁石504は、足116上に及び/又は別の保持装置506上に個々に配置され得る。示された実施形態では、保持装置506はバンドの形式である。磁石504により電磁場502を変えることにより、受信機510は足116の場所及び/又は位置を判断することができ得る。足116が移動するにつれて、電磁場502は磁気追跡デバイス500に対する足116の距離及び位置により変えられ得る。磁石は電磁場502を変えるために使用されなくてもよいということに注意すべきである。足116は、例えば血液中に配置される鉄により個々に電磁場502を変え得る、又は足116上に配置される任意の他のタイプの金属物、デバイス、材料などが磁石504を使用することなく電磁場502を変え得る。これは、磁気追跡デバイス500が足116の場所及び/又は位置を判断することを可能にし得る。足116の運動は医療デバイス100上で追跡及び/又は記録され得る(例えば図1を参照)。
図6は本開示の実施形態による赤外線追跡デバイス600を示す。いくつかの実施形態では、ハンズフリーデバイス114は赤外線追跡デバイス600を含み得る。いくつかの実施形態では、赤外線追跡デバイス600は光源602及びカメラ604を含み得る。赤外線追跡デバイス600は光源602から非可視光606を発射することにより機能し得る。非可視光606は光スペクトル上の赤外線波長を含み得る。これは、赤外線追跡デバイス600が暗い室及び/又は明るい室内で動作することを可能にし得る。手術中、光源602は非可視光606を指定領域へ発射し得る。足116は、反射光608を生成し得る非可視光606の経路内に配置され得る。反射光608はカメラ604により記録され得る。足116が第1の位置から第2の位置へ移動すると、反射光608は変えられ、カメラ604により記録され得る。これは、赤外線追跡デバイス600が足116の場所及び位置を判断することを可能にし得る。足116の運動はコンソール102上で追跡及び/又は記録され得る(例えば図1を参照)。
いくつかの実施形態では追跡デバイスは可視スペクトル上の光を追跡し得るということに留意すべきである。この動作は運動追跡、飛行時間又は映像追跡として説明され得る。限定しないが、運動追跡又は映像追跡は単一カメラ及び/又は共に働く複数のカメラを利用し得る。1つのカメラ及び/又は複数のカメラのレンズ全体にわたる光の運動を検知することにより。オペレータの足116の運動を追跡することは、コンソール102内へ送られ得るユーザ入力へ変換され得る。
図7は、高感度表面パッド700がコンソール102(例えば図1を参照)内へのユーザ入力を制御し得る実施形態を示す。高感度表面パッド700は外科処置中オペレータの下に配置され得る。限定しないが、高感度表面パッド700は、圧力、抵抗、容量、及び/又は誘導の変化を検出することができ得る。例えば、オペレータは足116により高感度表面パッド700に接触し得る。高感度表面パッド700は、圧力センサを介し、足116から高感度表面パッド700にかかる圧力を検出し得る。他の実施形態では、電気的手段が、高感度表面パッド700全体にわたる圧力変化及び/又は運動を検出するために利用され得る。例えば、高感度表面パッド700全体にわたる足116の運動を追跡するために高感度表面パッド700全体にわたる電気抵抗の変化、容量の変化、及び/又はインダクタンスの変化が測定され得る。高感度表面パッド700は表面全体にわたって動く電位の変化だけを感知し得るので圧力が印加されることなく機能及び/又は動作し得るということに注意すべきである。これは、高感度表面パッド700が高感度表面パッド700全体にわたる位置及び位置の運動を判断することを可能にし得る。
他の物理的及び機械的装置がコンソール102(例えば図1を参照)内へのユーザ入力を制御するために使用され得るということに注意すべきである。例えば、ジョイスティックコントローラなどの機械的実施形態はユーザ入力を制御する機械的デバイスであり得る。いくつかの実施形態では、ジョイスティックコントローラは基部、シャフト及びハンドルを含み得る。基部はジョイスティックコントローラを適所に保持するために表面上に配置され得る。シャフトは半径360度内の任意の方向の移動のために基部へ取り付けられ得る。ハンドルは基部の反対側のシャフトの最上部に配置され得る。限定しないが、ハンドルは、オペレータがシャフトを任意の好適な方向に移動することを可能にし得る。シャフトの運動は、監視され、ユーザ入力としてコンソール102へ送信され得る。具体的には、シャフトの運動はディスプレイ画面104(例えば図1を参照)上に配置されるカーソル(以下に論述される)を移動させ得る。
図8は、運動ハードウェア800がコンソール102(例えば図1を参照)内へのユーザ入力を制御し得る実施形態を示す。いくつかの実施形態では、運動ハードウェア800は、足116及び/又はキャリヤ804へ直接固定され得る運動検出器802を含み得る。限定しないが、運動検出器802は加速度センサ、電子コンパス、ジャイロセンサ、位置エンコーダ、及び/又は同様なものを含み得る。いくつかの実施形態では、運動検出器802は通信806をコンソール102へ無線で送信し得る。示されないが、運動検出器802は代替的に、有線接続を介し通信806をコンソール102へ送信し得る。運動検出器802からコンソール102により受信される情報は、コンソール102が足116の運動を追跡することを可能にし得る。足116の運動を追跡することは、オペレータがコンソール102へ取り付けられる手術用デバイス(例えば図1上の器具112)と通信することを可能にし得る。これは足116がコンソール102と通信することを可能にし得るということにも注意すべきである。
図9は、本開示の実施形態によるハンズフリーデバイス114により足116の運動及び/又は位置を記録及び/又は追跡するための医療デバイス100の例を示す。上に論述したように、ハンズフリーデバイス114は、任意の好適な技術により足116を見出し追跡し得る任意の好適なデバイスを含み得る。ハンズフリーデバイス114は追跡領域900内で動作及び/又は機能するために校正され得るということに注意すべきである。追跡領域900はハンズフリーデバイス114が動作し得る指定領域であり得る。例えば、足116が追跡領域900の外部に在れば、ハンズフリーデバイス114は足116を記録及び/又は追跡しなくてもよい。ハンズフリーデバイス114は追跡領域900の外側の足116を記録及び/又は追跡し得るがこの運動は医療デバイス100により無視され得るということに注意すべきである。これは、オペレータが足116を追跡領域900の外側へ移動することを可能にし得、医療デバイス100が手術用デバイスを操作するのを防止し得る。
コンソール102はプロセッサ908を含み得る。プロセッサ908は、指示を処理するための任意の好適なデバイス(限定しないがマイクロプロセッサ、マイクロコントローラ、埋め込み型マイクロコントローラ、プログラマブルデジタル信号プロセッサ又は他のプログラマブルデバイスを含む)を含み得る。プロセッサ908はまた、又はその代わりに、特定用途向け集積回路、プログラマブルゲートアレイ、プログラマブルアレイロジック、又は電気信号を処理するように動作可能なデバイスの組合せの任意の他のデバイス内に具現化され得る。プロセッサ908はまた、又はその代わりに、特定用途向け集積回路、プログラマブルゲートアレイ、プログラマブルアレイロジック、又は電気信号を処理するように動作可能な任意の他のデバイス又はその組合せ内に具現化され得る。プロセッサ908はコンソール102へ通信可能に結合され得る。プロセッサ908とコンソール102との間の接続は特定アプリケーションの要望に応じて有線接続又は無線接続であり得る。プロセッサ908は、例えば器具112の動作及び/又は機能を開始及び/又は停止するためにユーザ入力916を受信するように構成され得る。
コンソール102はまた、内部に在っても外部に在ってもよい例えばメモリ910を含み得る。メモリ910は、限定しないが(揮発性か不揮発性かにかかわらず)電子的、磁気的、又は光学的メモリを含む任意の好適な形式のデータストレージを含み得る。メモリ910は、プロセッサ908により実行可能であり得る指示を含むコード912を含み得る。コード912は、例えば、限定しないがプロセッサ908により実行可能であるように格納され、コンパイルされ又はインタープリートされ得るC++又は任意の他のプログラミング言語(アセンブリ言語、ハードウェア記述言語及びデータベースプログラミング言語を含む)を含む任意の好適なプログラミング言語を使用して生成され得る。
手術中、コンソール102はハンズフリーデバイス114から足116の運動及び/又は位置に関する情報を受信し得る。例えば、足116の運動はハンズフリーデバイス114により記録及び/又は追跡され得、この情報はコンソール102へ送信され得る。ハンズフリーデバイス114からの足の位置はディスプレイ画面104(ヘッドアップディスプレイ又はモニタであり得る)上で可視化され得る。ディスプレイ画面104はまた、現在の状態を追跡すると共に選択肢を制御するために必要とされるフィードバックをオペレータへ提供し得る。コンソール102はハンズフリーデバイス114から入力情報を受信し得、この情報は次にプロセッサ908により処理され得る。示されないが、プロセッサ908(又は異なるプロセッサ)が代替的に、処理されたデータがコンソール102へ提供され得るようにハンズフリーデバイス114内に組み込まれ得る。プロセッサ908はまた、情報をユーザ入力916から受信し得る。ユーザ入力916からの情報は、加えて又はその代わりに、ハンズフリーデバイス114からの情報であり得る。次に、プロセッサ908は、出力914を生成するためにハンズフリーデバイス114、ユーザ入力916、又はハンズフリーデバイス114とユーザ入力916との両方からの情報を処理し得る。
出力914は器具112へ送信され得る一組の命令として定義され得る。出力914内の命令が、発生している外科手術に関係するいくつかの機能を器具112に行うように指示し得る。指示は、ライトをオン及び/又はオフするのと同じぐらい単純なものでであってもよいし患者の上で器具112を使用するのと同じぐらい複雑なものであってもよい。出力914内の命令は足116の運動又はユーザ入力916から生じ得る。足116の運動は、例えば捕捉され、そして、ディスプレイ画面104上のカーソル(例えば図10上に示すカーソル1002)を制御するために使用され得る。本明細書で使用されるように、用語「カーソル」は、ディスプレイ画面104などのディスプレイ上の可動指標であってディスプレイとのユーザ相互作用のために現在位置を識別する指標を指す。カーソルは器具112の制御のための選択をなすために使用され得る。選択は出力914として器具112へ送信される一組の命令であり得る。ユーザ入力916は、例えば接触によりディスプレイ画面104を介しオペレータにより選択される機能及び/又は命令であり得る。
図10に示すように、ディスプレイ画面104は患者情報及び/又は器具の状態を表示し得る(例えば図7を参照)。ディスプレイ画面104は、オペレータがコンソール102と相互作用し得るように、ディスプレイ画面104上に表示され得るグラフィックユーザインターフェース(GUI:Graphical User Interface)を含み得る(例えば図1、7を参照)。一実施形態では、医療デバイス100のGUIは、オペレータがコンソール102とモード的に相互作用することを可能にし得る。換言すれば、GUIは、コンソール102のオペレータに、コンソール102の機能又はコンソール102へ接続された器具112の機能の全範囲に対応する一組のアイコン1000又はボタンを提示し得る。ディスプレイ画面104は、コンソール102又は器具112の特定機能を利用するためにオペレータがこれらの機能アイコン1000から選択することを可能にし得る。例えば、オペレータは、カーソル1002を介し外科デバイスを選択するために足116を使用し得る(例えば図9を参照)。カーソル1002は、オペレータの足116が追跡領域900内で追跡されると足116により指示されるように移動し得る(例えば図9を参照)。カーソル1002へ結び付けられた追跡領域900内に配置される足116は、オペレータがカーソル1002を移動することを可能に得、オペレータがディスプレイ画面104上の異なる機能を選択することを可能にし得る。
例えば、カーソル1002は、ハンズフリーデバイス114の出力に対応し得るオペレータの足116(例えば図1を参照)により制御されるようにディスプレイ画面104全体にわたって横断し得る。カーソル1002は矢印として図10に示されるが、カーソル10012は、任意の好適な形状(限定しないが、とりわけ矢印、人差し指又は円を含む)を有し得る。いくつかの実施形態では、カーソル1002は、ディスプレイ画面104上のグラフィック素子(例えばアイコン1000)により表され得る器具112の動作及び/又は機能をトリガし得る。カーソル1002は、器具112の動作及び/又は機能をトリガするためにアイコン1000を「クリック」し得る。用語「クリック」は、アイコン1000の上にカーソル1002を置いて、ハンズフリーデバイス114からカーソル1002にアイコン1000(カーソル1002が配置され得る)を選択するように命じることとして定義され得る。限定しないが、様々なタイプのクリックが様々な行為をトリガし得、例えば、単一クリックが1つの機能をクリックし得、2つの連続クリックが異なる機能を行い得る。これは任意数のクリックに対して繰り返され得る。
限定しないが、アイコン1000は器具112へ結び付けられ得る。アイコン1000へアクセスするために、オペレータは、アイコン1000へ結び付けられ得る第1の区域902、第2の区域904、又は第3の区域906内へ足116を配置し得る。アイコン1000はさらに器具112へ結び付けられ得る。これは、オペレータが指定区域内へ足116を配置することと、出力914(例えば図7を参照)を介し器具112を制御するための命令を発行することとを可能にし得る。アイコン1000を選択することは、選択された器具112に固有であり得る副命令を表示することによりディスプレイ画面104を変え得る。
次に、オペレータは、所望機能の任意のパラメータ又は副モードを構成し、この機能を器具112上で利用し得る。したがって、外科処置中、外科処置において利用される器具112毎に、オペレータは、外科処置に望ましい機能を選択すると共に器具112の任意のパラメータ又は副モードを構成するために、ハンズフリーデバイス114又はユーザ入力916を介しコンソール102と相互作用し得る。例えば、コンソール102及び/又は器具112は、硝子体切断(Vit:vitreous cutting)、真空(抽出)、はさみ、粘性流体制御(VFC:Viscous Fluid Control)及び超音波水晶体除去、眼科顕微鏡、超音波ハンドピース、手術誘導システム、及び/又は手術中診断ユニットの機能を含み得る。コンソール102及び/又は器具112を介し外科処置を実施するために、アイコン1000は、コンソール102及び/又は器具112の所望機能並びに当該機能構成のための任意のパラメータ又は副モードを表し得る。
具体的には、コンソール102との相互作用のモードの実施形態は、これらのモード相互作用が、調整され得る機能の範囲を制限又は削減するように提供され得る。特に、いくつかの実施形態は、オペレータが一組の予めプログラムされた選択肢から選択することを可能にし得るオペレータ相互作用のための1つ又は複数のインターフェースを提示し得る。ここで、インターフェース又は一組の予めプログラムされた選択肢、アイコン1000は、オペレータがコンソール102と相互作用し得るモードに対応し得る。これらの予めプログラムされた選択肢のそれぞれは1つ又は複数のパラメータのセッティングに対応し得る。オペレータが多様な予めプログラムされた選択肢から選択することを可能にすることにより、誤り及び負傷の可能性が低減される。これは、予めプログラムされた選択肢群の各選択肢のセッティングは、パラメータ群の各パラメータのセッティングが他のパラメータのセッティングに対し適正であるということを保証し得、いくつかのパラメータの値がある範囲の外側に設定されなくてもよいということを同様に保証し得るためである。加えて、一組のパラメータは予めプログラムされたセッティングに従って並行して調整されるので、特定動作モードのインターフェースは、医者に各パラメータを個々に調整することを強いるインターフェースに比べて劇的に簡略化され得る。
いくつかの実施形態では、ディスプレイ画面104は、オペレータがユーザ入力916としてアイコン1000を選択することを可能にし得るタッチスクリーンであり得る(例えば図9を参照)。具体的には、オペレータは、ディスプレイ画面104に接触することにより動作モード及び/又は器具112を選択し得る。選択された動作モード及び/又は器具112に基づき、GUIは、オペレータに一組のパラメータの現在のセッティングの値を提示するインターフェースを提示し得る。インターフェースは、例えばタッチスクリーン、ハンズフリーデバイス114、及び/又は同様なものを使用することにより、オペレータが一組の予めプログラムされた選択肢を容易に周期的に繰り返すことを可能にし得、現在選択されている予めプログラムされた選択肢に対応する表示されたパラメータのセッティングに対する変更を反映する。
本開示の動作及び構築はこれまでの説明から明らかになると考えられる。上に示され説明された装置及び方法は好みに応じて特徴付けられたが、以下の特許請求の範囲に定義されるような本開示の精神と範囲から逸脱することなく、様々な変更及び置換が上記装置及び方法においてなされ得る。

Claims (9)

  1. 外科用コンソールに結合された少なくとも2つの外科用器具を制御するための方法であって、前記外科用コンソールは、ディスプレイ画面を含み、カメラを含むハンズフリーデバイスに通信可能に結合され、
    前記ディスプレイ画面上のカーソル及び一組のアイコンをユーザに提示することであって、前記カーソルは、前記ディスプレイ画面とユーザとの相互作用のための現在位置を識別し、前記アイコンの選択を可能にするために前記ディスプレイ画面上で移動可能な指標であり、一組の前記アイコンは、前記外科用コンソール又は前記外科用コンソールに結合された前記外科用器具の機能の範囲に対応する、前記ディスプレイ画面上のカーソル及び一組のアイコンをユーザに提示すること;
    前記ハンズフリーデバイスによって追跡領域における足の運動を追跡することであって、前記追跡領域は、少なくとも2つの区域を含み、各前記区域は、前記アイコンに結び付けられ、各前記アイコンは、さらに前記外科用器具に結び付けられる、前記足の運動を追跡すること;
    前記ディスプレイ画面上の前記カーソルを制御して、指定区域に関連する前記アイコンを選択し、選択された前記アイコンに関連する前記外科用器具を制御するために、前記指定区域において前記足の運動を処理すること;
    前記カーソルの移動に基づいて、前記外科用器具を制御するための第1の複数のアイコンのうちの少なくとも1つのアイコンの選択を受信することであって、特定のアイコンを選択するための前記カーソルの移動は、前記追跡領域の第1の区域における前記ユーザの前記足の運動によって指示される、少なくとも1つのアイコンの選択を受信すること;
    選択された前記アイコンによって表される予めプログラムされた選択肢に関連する1つ又は複数のパラメータの設定に従って、結び付けられた前記外科用器具を構成すること;及び
    第2の区域における前記足の運動の追跡時に、第2の複数のアイコンを前記ディスプレイ画面上でユーザに提示することであって、該第2の複数のアイコンは、前記第2の区域に関連する前記外科用器具の1つ又は複数のパラメータの異なる設定に対応する、予めプログラムされた異なる選択肢を表す、該第2の複数のアイコンを前記ディスプレイ画面上でユーザに提示すること、を含み、
    前記ディスプレイ画面は、オペレータが、前記ハンズフリーデバイス及び前記ディスプレイ画面を使用して、一組の前記予めプログラムされた選択肢を周期的に繰り返し、現在選択されている前記予めプログラムされた選択肢に対応する1つ又は複数のパラメータのセッティングに対する変更を反映することを可能にするように構成される、方法。
  2. 前記ハンズフリーデバイスは前記外科用器具のコンソールへ無線で取り付けられる、請求項1に記載の方法。
  3. 前記選択は関連付けられた前記外科用器具の機能を制御する、請求項1に記載の方法。
  4. 前記選択を受信することは前記足の運動によりダブルクリックを受信することを含む、請求項1に記載の方法。
  5. 前記足の運動を追跡することは、
    前記足から前記カメラによって受信された光の焦点を検出すること、及び、
    前記カメラ内のセンサに沿って該焦点の移動を検出することを含む、請求項1に記載の方法。
  6. 前記カメラによって受信された前記足からの光は、前記足によって反射された光である、請求項5に記載の方法。
  7. 前記カメラによって受信された前記足からの光は、前記足上に配置されたマーカからの光である、請求項5に記載の方法。
  8. 前記カメラによって受信された光は、赤外線光である、請求項5に記載の方法。
  9. 少なくとも2つの外科用器具を制御するためのシステムであって、
    外科用コンソール;
    前記外科用コンソールに結合された少なくとも2つの外科用器具;
    前記外科用コンソールへ結合されるディスプレイ画面であって、カーソル及び複数のアイコンを表示するように構成され、前記カーソルは、前記外科用器具の機能の範囲に対応する複数の前記アイコンの少なくとも1つを選択するように移動可能である、ディスプレイ画面;
    前記外科用コンソールと通信可能に結合されたカメラを備え、追跡領域内の前記足の運動を追跡すると共に出力を生成するように動作可能であるハンズフリーデバイス;及び
    請求項1から請求項8の何れか1項に記載の方法を実行するための指示を実行するように構成されたプロセッサ、を含むシステム。
JP2020563958A 2018-05-16 2019-05-10 足制御型カーソル Active JP7608165B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862672347P 2018-05-16 2018-05-16
US62/672,347 2018-05-16
PCT/IB2019/053883 WO2019220289A1 (en) 2018-05-16 2019-05-10 Foot controlled cursor

Publications (2)

Publication Number Publication Date
JP2021524096A JP2021524096A (ja) 2021-09-09
JP7608165B2 true JP7608165B2 (ja) 2025-01-06

Family

ID=67060431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020563958A Active JP7608165B2 (ja) 2018-05-16 2019-05-10 足制御型カーソル

Country Status (8)

Country Link
US (1) US10983604B2 (ja)
EP (1) EP3769189A1 (ja)
JP (1) JP7608165B2 (ja)
CN (1) CN112119368B (ja)
AU (2) AU2019270597A1 (ja)
CA (1) CA3097093A1 (ja)
TW (1) TW201946592A (ja)
WO (1) WO2019220289A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018092006A2 (en) 2016-11-17 2018-05-24 Novartis Ag Tri-axial ergonomic footswitch
US10736700B2 (en) 2016-11-17 2020-08-11 Alcon Inc. Ergonomic foot-operated system
US10983604B2 (en) 2018-05-16 2021-04-20 Alcon Inc. Foot controlled cursor
US11617682B2 (en) 2018-05-18 2023-04-04 Alcon Inc. Surgical foot pedal device having force feedback
US11409358B2 (en) * 2019-09-12 2022-08-09 New York University System and method for reconstructing a VR avatar with full body pose
US11464565B2 (en) 2019-11-13 2022-10-11 Alcon Inc. Electronic shroud for laser emission control
EP4087514A4 (en) * 2020-01-06 2023-06-07 Beyeonics Surgical Ltd. USER INTERFACE FOR CONTROLLING A SURGICAL SYSTEM
US20210401527A1 (en) * 2020-06-30 2021-12-30 Auris Health, Inc. Robotic medical systems including user interfaces with graphical representations of user input devices
KR20220012073A (ko) * 2020-07-22 2022-02-03 삼성전자주식회사 가상 사용자 인터랙션을 수행하기 위한 방법 및 그 장치
EP4185186A1 (en) 2020-07-23 2023-05-31 Alcon Inc. Controlling a surgical system using a footswitch
JP2023042117A (ja) * 2021-09-14 2023-03-27 コニカミノルタ株式会社 入力装置、入力方法及び画像形成装置
WO2025024706A1 (en) * 2023-07-26 2025-01-30 University Of Rochester Foot control device, system and method for surgical instrument control

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080140058A1 (en) 2006-12-07 2008-06-12 Aesculap Ag & Co. Kg Switching device for medical or surgical equipment
WO2008071102A1 (en) 2006-12-12 2008-06-19 Hong Kong Applied Science and Technology Research Institute Co. Ltd Pre-processing systems and method for mimo antenna systems
JP2009134677A (ja) 2007-02-28 2009-06-18 Fuji Xerox Co Ltd ジェスチャインターフェースシステム、ジェスチャ入力用ワンド、アプリケーション制御方法、カメラ校正方法、及び制御プログラム
WO2014041938A1 (ja) 2012-09-12 2014-03-20 シチズンホールディングス株式会社 情報入力装置

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3794180B2 (ja) * 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
US6091402A (en) * 1997-12-17 2000-07-18 Micron Electronics, Inc. Foot operated input device
US6950534B2 (en) 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
DK1326565T3 (da) 2000-10-17 2004-07-26 Alcon Inc Afbildelig fodstyreenhed til mikrokirurgisk system
US7127401B2 (en) 2001-03-12 2006-10-24 Ge Medical Systems Global Technology Company, Llc Remote control of a medical device using speech recognition and foot controls
US7470277B2 (en) 2001-10-16 2008-12-30 Alcon, Inc. Simultaneous proportional control of surgical parameters in a microsurgical system
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
AU2003245758A1 (en) 2002-06-21 2004-01-06 Cedara Software Corp. Computer assisted system and method for minimal invasive hip, uni knee and total knee replacement
US7692632B2 (en) 2003-10-23 2010-04-06 Beckmer Products, Inc. Foot-operated computer input device
US7178111B2 (en) 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
CA2803828C (en) 2005-03-31 2015-11-24 Alcon, Inc. Footswitch operable to control a surgical system
US20070149956A1 (en) 2005-12-22 2007-06-28 Alcon Refractivehorizons, Inc. External Device for Controlling a Laser During Laser Ablation Surgery on the Cornea and Associated Methods
JP4294668B2 (ja) * 2006-09-14 2009-07-15 株式会社日立製作所 点図ディスプレイ装置
US20080129695A1 (en) * 2006-12-01 2008-06-05 Tianhou Li Foot-operated electronic mouse
US20090049397A1 (en) 2007-08-15 2009-02-19 Mikhail Boukhny System And Method For A Simple Graphical Interface
WO2009062031A1 (en) 2007-11-07 2009-05-14 Alcon Research, Ltd. Surgical console information display system and method
US20090171328A1 (en) 2007-12-27 2009-07-02 Christopher Horvath Surgical Console Display Operable to Provide a Visual Indication of a Status of a Surgical Laser
US9002680B2 (en) * 2008-06-13 2015-04-07 Nike, Inc. Foot gestures for computer input and interface control
US20100013765A1 (en) * 2008-07-18 2010-01-21 Wei Gu Methods for controlling computers and devices
US8373657B2 (en) * 2008-08-15 2013-02-12 Qualcomm Incorporated Enhanced multi-touch detection
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8176442B2 (en) 2009-05-29 2012-05-08 Microsoft Corporation Living cursor control mechanics
US9439736B2 (en) 2009-07-22 2016-09-13 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for controlling a remote medical device guidance system in three-dimensions using gestures
US8996173B2 (en) 2010-09-21 2015-03-31 Intuitive Surgical Operations, Inc. Method and apparatus for hand gesture control in a minimally invasive surgical system
EP2642371A1 (en) 2010-01-14 2013-09-25 BrainLAB AG Controlling a surgical navigation system
US20120302941A1 (en) 2011-05-23 2012-11-29 Dan Teodorescu Phacoemulsification systems and associated user-interfaces and methods
WO2013058890A1 (en) 2011-10-20 2013-04-25 Alcon Research, Ltd. Haptic footswitch treadle
US9445876B2 (en) 2012-02-27 2016-09-20 Covidien Lp Glove with sensory elements incorporated therein for controlling at least one surgical instrument
US9681982B2 (en) 2012-12-17 2017-06-20 Alcon Research, Ltd. Wearable user interface for use with ocular surgical console
US9498194B2 (en) 2013-04-17 2016-11-22 University Of Washington Surgical instrument input device organization systems and associated methods
DE102013110847B3 (de) 2013-10-01 2015-01-22 gomtec GmbH Steuervorrichtung und Verfahren zum Steuern eines Robotersystems mittels Gestensteuerung
GB201320238D0 (en) * 2013-11-15 2014-01-01 Laflamme Eric K Pneumatically actuated computer mouse system
US20150173725A1 (en) 2013-12-20 2015-06-25 Alcon Research, Ltd. Motion-Sensing Footswitch and Methods for a Surgical System
US9801568B2 (en) 2014-01-07 2017-10-31 Purdue Research Foundation Gait pattern analysis for predicting falls
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
CN106456148B (zh) 2014-03-19 2020-06-12 直观外科手术操作公司 使用眼球凝视跟踪的医疗装置、系统和方法
WO2015143073A1 (en) 2014-03-19 2015-09-24 Intuitive Surgical Operations, Inc. Medical devices, systems, and methods integrating eye gaze tracking for stereo viewer
US9827060B2 (en) 2014-07-15 2017-11-28 Synaptive Medical (Barbados) Inc. Medical device control interface
US9454236B2 (en) 2015-01-14 2016-09-27 Hoseo University Academic Cooperation Foundation Three-dimensional mouse device and marionette control system using the same
JP2016143207A (ja) * 2015-01-31 2016-08-08 貴保 杉浦 ユーザ入力装置
US20160331584A1 (en) 2015-05-14 2016-11-17 Novartis Ag Surgical tool tracking to control surgical system
US9529454B1 (en) 2015-06-19 2016-12-27 Microsoft Technology Licensing, Llc Three-dimensional user input
US10409443B2 (en) 2015-06-24 2019-09-10 Microsoft Technology Licensing, Llc Contextual cursor display based on hand tracking
JP6871929B2 (ja) 2015-09-29 2021-05-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ロボット支援低侵襲手術のための器具コントローラ
EP3383247A4 (en) 2015-11-25 2019-06-26 Camplex, Inc. SURGICAL VISUALIZATION SYSTEMS AND DISPLAYS
JP6657933B2 (ja) 2015-12-25 2020-03-04 ソニー株式会社 医療用撮像装置及び手術ナビゲーションシステム
US10426339B2 (en) 2016-01-13 2019-10-01 Novartis Ag Apparatuses and methods for parameter adjustment in surgical procedures
US10268282B2 (en) 2016-06-21 2019-04-23 Xin Tian Foot-operated touchpad system and operation method thereof
US10222874B2 (en) 2016-09-28 2019-03-05 Robb Dillon Multi-function foot controller with mouse and improved shortcut command
WO2018078470A1 (en) 2016-10-25 2018-05-03 Novartis Ag Medical spatial orientation system
US10099368B2 (en) 2016-10-25 2018-10-16 Brandon DelSpina System for controlling light and for tracking tools in a three-dimensional space
US10736700B2 (en) 2016-11-17 2020-08-11 Alcon Inc. Ergonomic foot-operated system
WO2019083805A1 (en) 2017-10-23 2019-05-02 Intuitive Surgical Operations, Inc. SYSTEMS AND METHODS FOR PRESENTING ENHANCED REALITY ON A SCREEN OF A TELEOPERATION SYSTEM
US10983604B2 (en) 2018-05-16 2021-04-20 Alcon Inc. Foot controlled cursor
US20190354200A1 (en) 2018-05-16 2019-11-21 Alcon Inc. Virtual foot pedal
US11617682B2 (en) 2018-05-18 2023-04-04 Alcon Inc. Surgical foot pedal device having force feedback
TW202002888A (zh) 2018-05-23 2020-01-16 瑞士商愛爾康股份有限公司 利用具有圖形化用戶介面的手術工具器械的系統和方法
US20190361592A1 (en) 2018-05-23 2019-11-28 Alcon Inc. System and method of utilizing surgical tooling equipment with graphical user interfaces
JP7371084B2 (ja) 2018-08-21 2023-10-30 アルコン インコーポレイティド 一体化シュラウドを備えた多機能外科手術用フットコントローラ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080140058A1 (en) 2006-12-07 2008-06-12 Aesculap Ag & Co. Kg Switching device for medical or surgical equipment
WO2008071102A1 (en) 2006-12-12 2008-06-19 Hong Kong Applied Science and Technology Research Institute Co. Ltd Pre-processing systems and method for mimo antenna systems
JP2009134677A (ja) 2007-02-28 2009-06-18 Fuji Xerox Co Ltd ジェスチャインターフェースシステム、ジェスチャ入力用ワンド、アプリケーション制御方法、カメラ校正方法、及び制御プログラム
WO2014041938A1 (ja) 2012-09-12 2014-03-20 シチズンホールディングス株式会社 情報入力装置

Also Published As

Publication number Publication date
CN112119368B (zh) 2023-10-10
WO2019220289A1 (en) 2019-11-21
TW201946592A (zh) 2019-12-16
US10983604B2 (en) 2021-04-20
JP2021524096A (ja) 2021-09-09
CN112119368A (zh) 2020-12-22
EP3769189A1 (en) 2021-01-27
AU2024205707A1 (en) 2024-08-29
AU2019270597A1 (en) 2020-11-12
CA3097093A1 (en) 2019-11-21
US20190354201A1 (en) 2019-11-21

Similar Documents

Publication Publication Date Title
JP7608165B2 (ja) 足制御型カーソル
US20190354200A1 (en) Virtual foot pedal
US11662830B2 (en) Method and system for interacting with medical information
US10064693B2 (en) Controlling a surgical navigation system
US20100013764A1 (en) Devices for Controlling Computers and Devices
CN110603599A (zh) 手术室装置、方法和系统
US20120179035A1 (en) Medical device with motion sensing
US20250021163A1 (en) Devices and methods for contactless haptic control
WO2024108139A1 (en) Object detection and visual feedback system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230620

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240122

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240131

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20240222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241218

R150 Certificate of patent or registration of utility model

Ref document number: 7608165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150