JP7722365B2 - 手術中に画像取込装置を制御するためのシステム、方法、および、コンピュータプログラム製品 - Google Patents
手術中に画像取込装置を制御するためのシステム、方法、および、コンピュータプログラム製品Info
- Publication number
- JP7722365B2 JP7722365B2 JP2022525214A JP2022525214A JP7722365B2 JP 7722365 B2 JP7722365 B2 JP 7722365B2 JP 2022525214 A JP2022525214 A JP 2022525214A JP 2022525214 A JP2022525214 A JP 2022525214A JP 7722365 B2 JP7722365 B2 JP 7722365B2
- Authority
- JP
- Japan
- Prior art keywords
- image capture
- capture device
- surgical
- medical image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Leader-follower robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00203—Electrical control of surgical instruments with speech control or speech recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00207—Electrical control of surgical instruments with hand gesture control or hand gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2059—Mechanical position encoders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/301—Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/302—Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/064—Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/064—Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
- A61B2090/066—Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring torque
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/067—Measuring instruments not otherwise provided for for measuring angles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
- A61B2090/309—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Robotics (AREA)
- Radiology & Medical Imaging (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Signal Processing (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- Gynecology & Obstetrics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Endoscopes (AREA)
Description
まず、本開示の実施形態を適用することができる内視鏡手術システムの基本構成を、本開示の図1~図4を参照して説明する。
図1が、本開示に係る技術を適用することができる内視鏡手術システム5000の概略の構成の一例を示す図である。図1は、オペレータ(医師)5067が内視鏡手術システム5000を使用して患者ベッド5069上の患者5071へと手術を実行している状態を示している。図示のように、内視鏡手術システム5000は、内視鏡5001と、その他の手術ツール5017と、内視鏡5001を支持する支持アーム装置5027と、内視鏡手術のための種々の装置が搭載されたカート5037とで構成される。
支持アーム装置5027は、ベースユニット5029から延びるアームユニット5031を含む。図示の例において、アームユニット5031は、関節部5033a、5033b、および5033cと、リンク5035aおよび5035bとで構成される多関節アームであり、アーム制御装置5045からの制御によって駆動される。アームユニット5031は、内視鏡5001を接続することができる遠位端を有する。内視鏡5001は、アームユニット5031によって支持され、位置および姿勢が制御される。この構成により、内視鏡5001の位置の安定な固定を実現することができる。
内視鏡5001は、患者5071の体腔へと挿入される遠位端から所定の長さの領域を有する鏡筒5003と、鏡筒5003の近位端に接続されたカメラヘッド5005とで構成される。図示の例においては、堅固な鏡筒5003を有するいわゆる剛体鏡として構成された内視鏡5001が示されているが、内視鏡5001は、可撓な鏡筒5003を有するいわゆる可撓鏡として構成されてもよい。
CCU5039は、中央演算処理装置(CPU)またはグラフィックス処理装置(GPU)などを使用して構成され、内視鏡5001および表示装置5041の動作を一体的に制御する。具体的には、CCU5039は、カメラヘッド5005から受け取った画像信号に対して、画像信号に基づく画像を表示するために、例えば現像処理(デモザイク処理)などのさまざまな種類の画像処理を実行する。CCU5039は、画像処理を施した画像信号を表示装置5041へと供給する。また、CCU5039は、カメラヘッド5005に制御信号を送信し、カメラヘッド5005の駆動を制御する。制御信号は、倍率および焦点距離などの撮像条件に関する情報を含むことができる。
支持アーム装置5027は、土台としてのベースユニット5029と、ベースユニット5029から延びるアームユニット5031とを含む。図示の例において、アームユニット5031は、複数の関節部5033a、5033b、および5033c、ならびに関節部5033bによって接続された複数のリンク5035aおよび5035bによって構成されているが、図1は、便宜上、アームユニット5031の構成を簡略化した様相で図示している。実際には、関節部5033a~5033cならびにリンク5035aおよび5035bの各々の形状、数、および配置、ならびに関節部5033a~5033cの各々の回転軸の方向などは、アームユニット5031が所望の自由度を有するように適切に設定される。例えば、アームユニット5031を、好ましくは、6自由度以上の自由度を有するように構成することができる。この構成により、内視鏡5001をアームユニット5031の可動範囲内で自由に移動させることが可能であり、したがって内視鏡5001の鏡筒5003を所望の方向から患者5071の体腔へと挿入することが可能である。
光源装置5043は、内視鏡5001に手術場所を撮影する際の照射光を供給する。光源装置5043は、例えば、LED、レーザ光源、またはこれらの組み合わせによって構成される白色光源を使用して構成される。このときに、白色光源がRGBレーザ光源の組み合わせによって構成される場合、各色(各波長)の出力強度および出力タイミングを高精度に制御することができるため、撮影画像のホワイトバランスを光源装置5043において調整することができる。さらに、この場合に、観察対象をRGBレーザ光源の各々からのレーザ光によって時分割の様相で照射し、照射タイミングに同期してカメラヘッド5005の撮像素子の駆動を制御することにより、RGBの各々に対応する画像を時分割の様相で撮影することも可能である。この方法によれば、撮像素子にカラーフィルタを設けることなく、カラー画像を得ることができる。
内視鏡5001のカメラヘッド5005およびCCU5039の機能を、図2を参照してさらに詳細に説明する。図2は、図1に示したカメラヘッド5005およびCCU5039の機能構成の一例を示すブロック図である。
上述したように、手術環境の動的変化による手術中の外科医またはロボット外科医への重要な視覚情報の提供における遅延を低減する装置が提供されることが望ましい。したがって、本開示の実施形態に従い、手術中に画像取込装置を制御するための装置が提供される。
ここで、本開示の図1に戻る。この例示的な手術において、医師(または、本明細書においては外科医)5067は、患者5071について内視鏡手術を実行中である。外科医5067は、自身の目で患者5071の体腔の内部を眺めることができない。むしろ、外科医は、表示画面5041に表示される内視鏡装置5001によって撮影された画像に依存する。したがって、この例において、内視鏡装置は、手術シーンの画像を撮影し、それらの画像を外科医に提供する。これにより、たとえ外科医5067が患者の体腔の内部を直接見ることができない場合であっても、外科医は、手術ツール(例えば、エネルギー処置ツール5021)を使用して患者5071の体腔の内部で外科手術を実行することができる。
図4が、本開示の実施形態による手術中に医療画像取込装置などの画像取込装置を制御するための装置/システムを示している。
手術中に、装置800の取得ユニット810は、内視鏡装置5001から手術シーンの第1の画像(または、画像データ)を取得する。この第1の画像は、画像が内視鏡装置5001によって撮影されたときの手術シーンのアピアランスに関する情報を、装置800へともたらす。この例において、この第1の画像は、表示装置5041上で外科医へと表示される画像と同じ画像である。すなわち、第1の画像は、手術シーンの現在のアピアランスを示す。
次いで、本開示の実施形態によれば、装置800の決定ユニット820は、第1の画像データに基づく第1の時間インスタンスの後の第2の時間インスタンスにおける手術シーンの予測アピアランスに基づいて、画像取込装置5001の1つ以上の所望の画像取込特性を決定するように構成される。
特定の例において、決定ユニット820は、外部の計算装置またはサーバからシーンの予測画像を受信することができる。しかしながら、他の実施形態において、装置800の決定ユニット820は、シーン予測アルゴリズムを使用して、手術シーンの視覚的特性が時間ステップ後にどのように現れるかについての予測(すなわち、予測データまたは画像データ)を生成する。
画像取込装置の1つ以上の所望の画像取込特性は、画像取込装置の所望の撮像条件の決定を含むことができる。画像取込装置の撮像条件は、光学画像システム条件および画像処理条件のうちの1つ以上を含むことができる。例えば、光学画像システム条件および/または画像処理条件は、所望の画像ズーム、画像フォーカス、画像絞り、画像コントラスト、および/または画像輝度のうちの1つ以上を含むことができる。すなわち、光学画像システム条件は、光学画像ズームなどを含むことができる。対照的に、画像処理条件は、画像処理回路によって画像撮影の時点において実行され、あるいは撮影済みの画像に対して事後処理において適用されるデジタル画像ズームなどを含むことができる。これに代え、あるいはこれに加えて、画像取込装置の1つ以上の所望の画像取込特性は、画像取込装置の所望の位置または動きを含んでもよい。当然ながら、本開示はこの点に関してとくに限定されず、任意のそのような所望の画像取込特性を、状況に応じて決定ユニットによって決定することができる。さらなる代案として、上述のように、画像取込特性は、画像撮影の種類(シーンの視覚画像を撮影するか、あるいはシーンのハイパースペクトル画像(電磁スペクトルの全体からの情報を使用する)を撮影するか、など)を含むことができる。
シーン内のツールまたは物体の移動が、視界の妨げを引き起こす可能性がある。すなわち、例えば、ツール(吸引ツールなど)の移動によって、シーン内の画像取込装置の視点からの画像が不明瞭になり、あるいは部分的に不明瞭になる可能性がある。本開示の実施形態によれば、予測画像データ内のツールの位置に鑑みて、障害物を回避し、手術シーンおよびツールの視認を維持する撮像装置の所望の移動を、計算することができる。
予測画像データ内のツールの将来の移動を使用して、自動カメラ追従機能において撮影画像の中心にツールを維持する撮像装置の所望の移動を定めることができる。ツールの状態(使用中であるか否か)を、状態を示しており、ツールの作動スイッチによって変化するデータ、などに基づいて検出することができる。
予測画像データは、開創器によって保持された臓器が落下したり、移動したりするイベントを描写することができる。臓器の移動を画像内で追跡し、開創器および臓器の両方を視野内に保つことができる撮像装置の所望の移動を、選択することができる。あるいは、画像取込装置によって使用されるズームのレベルを変更することによって、臓器を視野内に保つことも可能である。
出血元の場所をできる限り撮影画像の中心付近に位置させつつ、手術ツールなどの他の重要な画像特徴を視野内に保つ撮像装置の所望の移動を、選択することができる。これは、カメラ位置の横方向の変化および角度の変化の組み合わせによって達成することができる。
所望の画像取込特性を、ツール交換が発生したとき(すなわち、使用済みのツールが取り除かれたとき、または新たなツールがシーンへと導入されたとき)に選択することができる。予測画像データ内の他の重要な特徴の視認性を維持しつつ、ツールが導入される領域を視認できるように、所望の画像取込特性が決定される。例えば、手術シーンの視認を維持しながら、患者の体腔へのトロカール入口の下方の領域の視認性をもたらすカメラ角度を、選択することができる。
剥離/切除の方向/位置の変化が存在し、ツールは、利き手でない手によるツールの保持によって張力が生じる部分に移動すると考えられる。この変化を考慮するために、画像取込装置の所望の画像取込特性を決定することができる。
ひとたび決定ユニットが画像取込装置の所望の画像取込特性を決定すると、制御ユニットは、画像取込装置を第1の時間インスタンスと第2の時間インスタンスとの間の第3の時間インスタンスにおいて画像取込装置の1つ以上の所望の画像取込特性に従って制御するように構成される。
本開示の実施形態によれば、手術中に画像取込装置を制御するための装置は、コンピュータ支援手術システムがカメラの画像取込特性を予測的に最適化することを可能にし、したがって、手術シーンの予測可能な将来の変化の影響に、予測された変化が手術シーンにおいて実際に発生する前に、画像取込特性の調整および/または画像取込装置の構成によって対処することができる。このようにして、手術シーンの撮像に対する悪影響(例えば、外科医への重要な画像情報の提供が妨げられる)を、手術を遅延させることなく回避することができる。
画像取込装置が、状況に応じて必要されるとおりの任意の医療画像取込装置を含んでよいことを、理解できるであろう。すなわち、装置800の構成を本開示の図5~図6を参照して上述したが、本開示の実施形態が、この特定の例に限定されないことを、理解できるであろう。例えば、本開示の実施形態を内視鏡撮像装置を参照して説明してきたが、本開示の実施形態は、必要に応じて、望遠鏡撮像装置、顕微鏡撮像装置、エクソスコープ撮像装置、などにも適用可能である。さらに、装置の構成に対するいくつかのさらなる変更を、以下で説明する。
シーンの予測アピアランスを生成するために決定ユニットによって使用される上述の方法は、取得された画像データを利用して予測を生成するが、本開示がこれに関してとくに限定されないことを、理解できるであろう。むしろ、予測データの生成および画像取込装置の1つ以上の所望の画像取込特性の決定において、特定の追加情報が装置800によって使用されてよい。この追加情報は、特定の例において、装置800の予測能力をさらに高めるコンテクスト情報を提供することができる。
いくつかの例において、装置800は、仮想視点システム860をさらに含むことができる。仮想視点システム860を、カメラ位置とは別であってよい3D空間内の座標位置(すなわち、仮想カメラ位置)を有する仮想視点を生成するために使用することができる。換言すると、合成による仮想視点が、画像取込装置の移動の間に撮影された画像を通じて生成され、仮想視点は、所与の時間インスタンスにおける画像取込装置の実際の位置とは別個かつオフセットされている。仮想視点を生成するために、仮想視点システム860は、当技術分野で知られている画像スティッチングおよび視点仮想化アルゴリズムを使用して、画像取込装置の動きからの画像データを組み合わせるように構成される。
いくつかの例において、装置800は、能力検知ユニット870をさらに含むことができる。能力検知ユニット870を、決定ユニット820および制御ユニット830とやり取りして、所望の画像取込特性の所与の組に対して達成することができる最適な画像取込特性を決定するように構成することができる。すなわち、能力検知ユニット870は、画像取込装置または手術環境の1つ以上の制限または限界ゆえに、画像取込装置が決定ユニット820によって決定された所望の画像取込特性を必要とされる時間フレーム内に達成することができないと判断することができる。この場合、能力検知ユニット870は、画像取込装置にとって達成可能な最適な画像取込特性を制御ユニット830に指示する。換言すると、能力検知ユニットは、画像取込装置の所望の/最適な画像取込特性を決定するときに、画像取込装置の限界を考慮する。
本開示の実施形態によるコンピュータ支援手術システムの例示的な構成を、本開示の図7Aを参照して説明する。この例示的な構成を、例えば、(本開示の図1を参照して説明したような)内視鏡手術の状況において使用することができる。
本開示の実施形態によれば、手術中に画像取込装置を制御する方法が提供される。本開示の実施形態による手術中に画像取込装置を制御する方法の説明が、図8に示されている。
ここで図9を参照すると、本開示の実施形態によるコンピューティング装置1300が示されている。コンピューティング装置1300は、手術中に画像取込装置を制御するためのコンピューティング装置であってよい。典型的には、コンピューティング装置は、パーソナルコンピュータまたはサーバに接続された端末などのデバイスであってよい。実際に、いくつかの実施形態において、コンピューティング装置はサーバであってもよい。コンピューティング装置1300は、マイクロプロセッサまたは他の処理回路1302を使用して制御される。
図10が、本技術を適用することができるコンピュータ支援手術システム11260の一例を概略的に示している。コンピュータ支援手術システムは、自律アーム11000および1つ以上の外科医制御アーム11010を組み込んだマスタースレーブシステムである。自律アームは、撮像装置11020(例えば、内視鏡、顕微鏡、またはエクソスコープなどの医療用スコープ)を保持する。1つ以上の外科医制御アーム11010は、手術装置11030(例えば、切削ツールなど)をそれぞれ保持する。自律アームの撮像装置が、外科医にとって視認可能な電子ディスプレイ11100に手術シーンの画像を出力する。自律アームは、外科医が1つ以上の外科医制御アームを使用して手術を実行しているときに撮像装置の視界を自律的に調整して、外科医が手術シーンをリアルタイムで適切に視認できるようにする。
(1)
手術中に医療画像取込装置を制御するためのシステムであって、
第1の時間インスタンスにおける手術シーンのアピアランスである第1の画像データを、前記医療画像取込装置から取得し、
前記第1の画像データに基づく前記第1の時間インスタンスの後の第2の時間インスタンスにおける前記手術シーンの予測アピアランスに基づいて、前記医療画像取込装置の1つ以上の所望の画像取込特性を決定し、
前記医療画像取込装置の前記1つ以上の所望の画像取込特性に従って、前記第1の時間インスタンスと前記第2の時間インスタンスとの間の第3の時間インスタンスにおいて前記医療画像取込装置を制御する
ように構成された回路を含んでいるシステム。
(2)
前記医療画像取込装置を制御することは、前記医療画像取込装置を支持する関節アームの位置を制御することを含む、条項1に記載のシステム。
(3)
前記回路は、前記手術シーンの前記予測アピアランスに基づいて、前記医療画像取込装置の前記1つ以上の所望の画像取込特性のうちの1つとして前記医療画像取込装置の所望の位置を決定するように構成されている、条項1または2に記載のシステム。
(4)
前記回路は、前記シーン内に存在する1つ以上の物体の位置に応じて前記所望の画像取込位置への移動パターンを決定し、前記決定された移動パターンに従って前記医療画像取込装置を支持する関節アームの位置および/または向きを制御するようにさらに構成されている、条項2または3に記載のシステム。
(5)
前記回路は、前記医療画像取込装置の前記1つ以上の所望の画像取込特性のうちの1つとして、前記画像取込装置の所望の撮像条件を決定するように構成されている、条項1~3のいずれかに記載のシステム。
(6)
前記所望の撮像条件は、光学画像システム条件および画像処理条件のうちの1つ以上を含む、条項5に記載のシステム。
(7)
前記光学画像システム条件および前記画像処理条件は、前記医療画像取込装置の画像ズーム、画像フォーカス、画像絞り、画像コントラスト、および/または画像輝度のうちの少なくとも1つを含む、条項6に記載のシステム。
(8)
前記回路は、前記第1の画像データに従って、前記第2の時間インスタンスにおける前記手術シーンの前記予測アピアランスである第2の画像データを生成するようにさらに構成されている、請求項1~7のいずれかに記載のシステム。
(9)
前記回路は、前記第1の画像データおよび前記シーンの現在の状態に関する情報に従って、前記第2の画像データを生成するようにさらに構成されている、条項8に記載のシステム。
(10)
前記回路は、前記シーン内の物体の位置、前記シーン内の物体の動き、前記シーン内に存在する物体の種類、および/または前記シーン内の人物が実行している動作のうちの少なくとも1つを含む前記シーンの現在の状態に関する情報を取得するようにさらに構成されている、条項9に記載のシステム。
(11)
前記回路は、内視鏡、顕微鏡、またはエクソスコープのうちの1つである前記医療画像取込装置を制御するように構成されている、条項1~10のいずれかに記載のシステム。
(12)
前記回路は、前記医療画像取込装置の前記所望の画像取込特性を決定するときに、前記医療画像取込装置の制約を考慮するようにさらに構成されている、条項1~11のいずれかに記載のシステム。
(13)
前記回路は、手術シナリオにおいて得られた手術データで訓練された機械学習システムを使用して前記手術シーンの前記予測アピアランスを生成するようにさらに構成されている、条項1~12のいずれかに記載のシステム。
(14)
前記手術シナリオにおいて得られた手術データは、過去の手術シナリオの画像、手術シナリオの検証済みのシミュレーション、ならびに/あるいは以前の手術シナリオにおいて外科医が行った動作に関する現在の手術シナリオ情報の先行の画像、および/または以前の手術シナリオにおいて使用された医療画像取込装置の画像取込特性のうちの1つ以上を含む、条項13に記載のシステム。
(15)
前記回路は、前記医療画像取込装置の画像取込特性について該画像取込特性に関する1つ以上の因子に従って重みを計算し、重み係数が最も大きい画像取込特性を前記医療画像取込装置の前記所望の画像取込特性として決定するように構成されている、条項1~14のいずれかに記載のシステム。
(16)
前記回路は、前記第3の時間インスタンスと前記第2の時間インスタンスとの間の時間で完了できる動きの範囲を計算し、該計算に従って前記医療画像取込装置の前記所望の画像取込特性を決定するように構成されている、条項1~15のいずれかに記載のシステム。
(17)
手術中に医療画像取込装置を制御する方法であって、
第1の時間インスタンスにおける手術シーンのアピアランスである第1の画像データを、前記医療画像取込装置から取得するステップと、
前記第1の画像データに基づく前記第1の時間インスタンスの後の第2の時間インスタンスにおける前記手術シーンの予測アピアランスに基づいて、前記医療画像取込装置の1つ以上の所望の画像取込特性を決定するステップと、
前記医療画像取込装置の前記1つ以上の所望の画像取込特性に従って、前記第1の時間インスタンスと前記第2の時間インスタンスとの間の第3の時間インスタンスにおいて前記医療画像取込装置を制御するステップと
を含む方法。
(18)
命令を含んでいるコンピュータプログラム製品であって、
前記命令は、前記プログラムがコンピュータによって実行されたときに、医療画像取込装置を制御する方法を前記コンピュータに実行させ、
前記方法は、
第1の時間インスタンスにおける手術シーンのアピアランスである第1の画像データを、前記医療画像取込装置から取得するステップと、
前記第1の画像データに基づく前記第1の時間インスタンスの後の第2の時間インスタンスにおける前記手術シーンの予測アピアランスに基づいて、前記医療画像取込装置の1つ以上の所望の画像取込特性を決定するステップと、
前記医療画像取込装置の前記1つ以上の所望の画像取込特性に従って、前記第1の時間インスタンスと前記第2の時間インスタンスとの間の第3の時間インスタンスにおいて前記医療画像取込装置を制御するステップと
を含む、コンピュータプログラム製品。
Claims (14)
- 手術中に医療画像取込装置を制御するためのシステムであって、
第1の時間インスタンスにおける手術シーンのアピアランスである第1の画像データを、前記医療画像取込装置から取得し、
前記第1の画像データに基づく前記第1の時間インスタンスの後の第2の時間インスタンスにおける前記手術シーンの予測アピアランスに基づいて、前記医療画像取込装置の1つ以上の所望の画像取込特性を決定し、
前記医療画像取込装置の前記1つ以上の所望の画像取込特性に従って、前記第1の時間インスタンスと前記第2の時間インスタンスとの間の第3の時間インスタンスにおいて前記医療画像取込装置を制御する
ように構成された回路を含み、
前記回路は、
前記医療画像取込装置の画像取込特性について該画像取込特性に関する1つ以上の因子に従って重みを計算し、重み係数が最も大きい画像取込特性を前記医療画像取込装置の前記所望の画像取込特性として決定するように構成され、
前記予測アピアランスのうちの個々の箇所の信頼値を決定し、当該信頼値が所定の閾値よりも低い箇所を前記予測アピアランスから除外し、前記信頼値が前記所定の閾値よりも低い箇所が除外された前記予測アピアランスに基づいて、前記医療画像取込装置の1つ以上の所望の画像取込特性を決定するように構成されており、
前記所望の画像取込特性は、前記医療画像取込装置の画像ズーム、画像フォーカス、画像絞り、画像コントラスト、および画像輝度のうちの少なくとも1つを含む
システム。 - 前記医療画像取込装置を制御することは、前記医療画像取込装置を支持する関節アームの位置を制御することを含む、請求項1に記載のシステム。
- 前記回路は、前記手術シーンの前記予測アピアランスに基づいて、前記医療画像取込装置の前記1つ以上の所望の画像取込特性のうちの1つとして前記医療画像取込装置の所望の位置を決定するように構成されている、請求項1又は2に記載のシステム。
- 前記回路は、前記手術シーン内に存在する1つ以上の物体の位置に応じて前記医療画像取込装置の所望の位置への移動パターンを決定し、前記決定された移動パターンに従って前記医療画像取込装置を支持する関節アームの位置および/または向きを制御するようにさらに構成されている、請求項3に記載のシステム。
- 前記回路は、前記第1の画像データに従って、前記第2の時間インスタンスにおける前記手術シーンの前記予測アピアランスである第2の画像データを生成するようにさらに構成されている、請求項1~4のいずれか1項に記載のシステム。
- 前記回路は、前記第1の画像データおよび前記手術シーンの現在の状態に関する情報に従って、前記第2の画像データを生成するようにさらに構成されている、請求項5に記載のシステム。
- 前記回路は、前記手術シーン内の物体の位置、前記手術シーン内の物体の動き、前記手術シーン内に存在する物体の種類、および前記手術シーン内の人物が実行している動作のうちの少なくとも1つを含む前記手術シーンの現在の状態に関する情報を取得するようにさらに構成されている、請求項6に記載のシステム。
- 前記回路は、内視鏡、顕微鏡、およびエクソスコープのうちの1つである前記医療画像取込装置を制御するように構成されている、請求項1~7のいずれか1項に記載のシステム。
- 前記回路は、前記医療画像取込装置の前記所望の画像取込特性を決定するときに、前記医療画像取込装置の制約を考慮するようにさらに構成されている、請求項1~8のいずれか1項に記載のシステム。
- 前記回路は、手術シナリオにおいて得られた手術データで訓練された機械学習システムを使用して前記手術シーンの前記予測アピアランスを生成するようにさらに構成されている、請求項1~9のいずれか1項に記載のシステム。
- 前記手術シナリオにおいて得られた手術データは、過去の手術シナリオの画像、手術シナリオの検証済みのシミュレーション、以前の手術シナリオにおいて外科医が行った動作に関する現在の手術シナリオ情報の先行の画像、および以前の手術シナリオにおいて使用された医療画像取込装置の画像取込特性のうちの1つ以上を含む、請求項10に記載のシステム。
- 前記回路は、前記第3の時間インスタンスと前記第2の時間インスタンスとの間の時間で完了できる動きの範囲を計算し、該計算に従って前記医療画像取込装置の前記所望の画像取込特性を決定するように構成されている、請求項1~11のいずれか1項に記載のシステム。
- 手術中に医療画像取込装置を制御する方法であって、
コンピュータが、
第1の時間インスタンスにおける手術シーンのアピアランスである第1の画像データを、前記医療画像取込装置から取得するステップと、
前記第1の画像データに基づく前記第1の時間インスタンスの後の第2の時間インスタンスにおける前記手術シーンの予測アピアランスに基づいて、前記医療画像取込装置の1つ以上の所望の画像取込特性を決定するステップと、
前記医療画像取込装置の前記1つ以上の所望の画像取込特性に従って、前記第1の時間インスタンスと前記第2の時間インスタンスとの間の第3の時間インスタンスにおいて前記医療画像取込装置を制御するステップと
を含み、
前記コンピュータが、
前記医療画像取込装置の画像取込特性について該画像取込特性に関する1つ以上の因子に従って重みを計算し、重み係数が最も大きい画像取込特性を前記医療画像取込装置の前記所望の画像取込特性として決定し、
前記予測アピアランスのうちの個々の箇所の信頼値を決定し、当該信頼値が所定の閾値よりも低い箇所を前記予測アピアランスから除外し、前記信頼値が前記所定の閾値よりも低い箇所が除外された前記予測アピアランスに基づいて、前記医療画像取込装置の1つ以上の所望の画像取込特性を決定し、
前記所望の画像取込特性は、前記医療画像取込装置の画像ズーム、画像フォーカス、画像絞り、画像コントラスト、および画像輝度のうちの少なくとも1つを含む
方法。 - 命令を含んでいるコンピュータプログラム製品であって、
前記命令は、前記コンピュータプログラム製品がコンピュータによって実行されたときに、医療画像取込装置を制御する方法を前記コンピュータに実行させ、
前記方法は、
第1の時間インスタンスにおける手術シーンのアピアランスである第1の画像データを、前記医療画像取込装置から取得するステップと、
前記第1の画像データに基づく前記第1の時間インスタンスの後の第2の時間インスタンスにおける前記手術シーンの予測アピアランスに基づいて、前記医療画像取込装置の1つ以上の所望の画像取込特性を決定するステップと、
前記医療画像取込装置の前記1つ以上の所望の画像取込特性に従って、前記第1の時間インスタンスと前記第2の時間インスタンスとの間の第3の時間インスタンスにおいて前記医療画像取込装置を制御するステップと
を含み、
前記医療画像取込装置の画像取込特性について該画像取込特性に関する1つ以上の因子に従って重みを計算し、重み係数が最も大きい画像取込特性を前記医療画像取込装置の前記所望の画像取込特性として決定することと、
前記予測アピアランスのうちの個々の箇所の信頼値を決定し、当該信頼値が所定の閾値よりも低い箇所を前記予測アピアランスから除外し、前記信頼値が前記所定の閾値よりも低い箇所が除外された前記予測アピアランスに基づいて、前記医療画像取込装置の1つ以上の所望の画像取込特性を決定することと、
をさらに含み、
前記所望の画像取込特性は、前記医療画像取込装置の画像ズーム、画像フォーカス、画像絞り、画像コントラスト、および画像輝度のうちの少なくとも1つを含む
コンピュータプログラム製品。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| EP19218155.0 | 2019-12-19 | ||
| EP19218155 | 2019-12-19 | ||
| PCT/JP2020/046146 WO2021125056A1 (en) | 2019-12-19 | 2020-12-10 | Method, apparatus and system for controlling an image capture device during surgery |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2023507063A JP2023507063A (ja) | 2023-02-21 |
| JP7722365B2 true JP7722365B2 (ja) | 2025-08-13 |
Family
ID=69185101
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022525214A Active JP7722365B2 (ja) | 2019-12-19 | 2020-12-10 | 手術中に画像取込装置を制御するためのシステム、方法、および、コンピュータプログラム製品 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US20220409326A1 (ja) |
| EP (1) | EP4051080B1 (ja) |
| JP (1) | JP7722365B2 (ja) |
| WO (1) | WO2021125056A1 (ja) |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2022020592A (ja) * | 2020-07-20 | 2022-02-01 | ソニーグループ株式会社 | 医療用アーム制御システム、医療用アーム制御方法、及びプログラム |
| JP7549731B2 (ja) * | 2021-02-22 | 2024-09-11 | オリンパス株式会社 | 手術システムおよび手術システムの制御方法 |
| US20220384016A1 (en) * | 2021-05-28 | 2022-12-01 | Cilag Gmbh International | Monitoring a health care professional movement relative to a virtual boundary in an operating room |
| KR102640314B1 (ko) * | 2021-07-12 | 2024-02-23 | (주)휴톰 | 인공지능 수술 시스템 및 그것의 제어방법 |
| WO2023044376A1 (en) * | 2021-09-16 | 2023-03-23 | Stryker Corporation | Methods and systems for generating simulated intraoperative imaging data of a subject |
| US12340310B2 (en) * | 2022-07-27 | 2025-06-24 | Verb Surgical Inc. | Energy tool activation detection in surgical videos using deep learning |
| CN116350354B (zh) * | 2023-03-20 | 2025-12-02 | 上海微创医疗机器人(集团)股份有限公司 | 内窥镜调节方法、装置及电子设备 |
| DE102024104520A1 (de) * | 2024-02-19 | 2025-08-21 | Leica Instruments (Singapore) Pte. Ltd. | Apparat für ein optisches Abbildungssystem, Verfahren für ein optisches Abbildungssystem und Computerprogramm |
| CN118902367B (zh) * | 2024-07-17 | 2025-09-05 | 复旦大学 | 一种全自动的机器人辅助鼻内窥镜检查方法及系统 |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20140357984A1 (en) | 2013-05-30 | 2014-12-04 | Translucent Medical, Inc. | System and method for displaying anatomy and devices on a movable display |
| JP2015532040A (ja) | 2012-08-15 | 2015-11-05 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | ビデオストリーミングのための方法及びシステム |
| JP2016515886A (ja) | 2013-03-14 | 2016-06-02 | ボルケーノ コーポレイション | 医療イメージング手順におけるワークフローを案内するためのシステム |
| US20190015163A1 (en) | 2017-07-14 | 2019-01-17 | Kamyar ABHARI | Methods and systems for providing visuospatial information and representations |
| US20190090969A1 (en) | 2015-11-12 | 2019-03-28 | Intuitive Surgical Operations, Inc. | Surgical system with training or assist functions |
| US20190199915A1 (en) | 2017-12-22 | 2019-06-27 | Medtech S.A. | Scialytic light navigation |
| US20190223961A1 (en) | 2018-01-19 | 2019-07-25 | Verily Life Sciences Llc | Step-based system for providing surgical intraoperative cues |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014139018A1 (en) * | 2013-03-15 | 2014-09-18 | Synaptive Medical (Barbados) Inc. | Context aware surgical systems |
| US11701086B1 (en) * | 2016-06-21 | 2023-07-18 | Tissue Differentiation Intelligence, Llc | Methods and systems for improved nerve detection |
| KR102683309B1 (ko) * | 2019-08-05 | 2024-07-08 | 엘지전자 주식회사 | 위치 추정에 적합한 카메라의 위치를 설정하는 방법 및 이를 구현하는 로봇 |
-
2020
- 2020-12-10 JP JP2022525214A patent/JP7722365B2/ja active Active
- 2020-12-10 EP EP20828152.7A patent/EP4051080B1/en active Active
- 2020-12-10 WO PCT/JP2020/046146 patent/WO2021125056A1/en not_active Ceased
- 2020-12-10 US US17/777,618 patent/US20220409326A1/en not_active Abandoned
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015532040A (ja) | 2012-08-15 | 2015-11-05 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | ビデオストリーミングのための方法及びシステム |
| JP2016515886A (ja) | 2013-03-14 | 2016-06-02 | ボルケーノ コーポレイション | 医療イメージング手順におけるワークフローを案内するためのシステム |
| US20140357984A1 (en) | 2013-05-30 | 2014-12-04 | Translucent Medical, Inc. | System and method for displaying anatomy and devices on a movable display |
| US20190090969A1 (en) | 2015-11-12 | 2019-03-28 | Intuitive Surgical Operations, Inc. | Surgical system with training or assist functions |
| US20190015163A1 (en) | 2017-07-14 | 2019-01-17 | Kamyar ABHARI | Methods and systems for providing visuospatial information and representations |
| US20190199915A1 (en) | 2017-12-22 | 2019-06-27 | Medtech S.A. | Scialytic light navigation |
| US20190223961A1 (en) | 2018-01-19 | 2019-07-25 | Verily Life Sciences Llc | Step-based system for providing surgical intraoperative cues |
Also Published As
| Publication number | Publication date |
|---|---|
| EP4051080A1 (en) | 2022-09-07 |
| EP4051080B1 (en) | 2025-02-19 |
| US20220409326A1 (en) | 2022-12-29 |
| WO2021125056A1 (en) | 2021-06-24 |
| JP2023507063A (ja) | 2023-02-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7722365B2 (ja) | 手術中に画像取込装置を制御するためのシステム、方法、および、コンピュータプログラム製品 | |
| US20220336078A1 (en) | System and method for tracking a portion of the user as a proxy for non-monitored instrument | |
| US12349860B2 (en) | Medical observation system, control device, and control method | |
| JP7376569B2 (ja) | ロボット操作手術器具の位置を追跡システムおよび方法 | |
| JP7003985B2 (ja) | 医療用支持アームシステムおよび制御装置 | |
| US20230017738A1 (en) | Method, apparatus and system for controlling an image capture device during surgery | |
| US20220168047A1 (en) | Medical arm system, control device, and control method | |
| WO2020045015A1 (ja) | 医療システム、情報処理装置及び情報処理方法 | |
| CN113993478B (zh) | 医疗工具控制系统、控制器和非暂时性计算机可读存储器 | |
| JPWO2017145475A1 (ja) | 医療用情報処理装置、情報処理方法、医療用情報処理システム | |
| JPWO2020080209A1 (ja) | 医療用観察システム、医療用観察装置及び医療用観察方法 | |
| US20230172438A1 (en) | Medical arm control system, medical arm control method, medical arm simulator, medical arm learning model, and associated programs | |
| US20230142404A1 (en) | Medical imaging apparatus, learning model generation method, and learning model generation program | |
| CN115916482A (zh) | 信息处理装置、程序、学习模型以及学习模型生成方法 | |
| EP4143844A1 (en) | System and method for tracking a portion of the user as a proxy for non-monitored instrument | |
| JP2024513992A (ja) | 組織貫通外科用デバイスのチャネルの外に展開可能なカメラアレイを備えるシステム | |
| JP2024513991A (ja) | トリガイベントに基づいて術野のディスプレイオーバーレイを変更するためのシステム及び方法 | |
| WO2024195729A1 (ja) | 情報処理システム、情報処理装置及び学習モデル生成方法 | |
| JP2024514640A (ja) | 画面上及び画面外で発生する混合された要素及びアクションを表示するレンダリングされた要素で直接視覚化される混合 | |
| CN117479896A (zh) | 包括可在组织穿透外科装置的通道外展开的相机阵列的系统 | |
| WO2023017651A1 (ja) | 医療用観察システム、情報処理装置及び情報処理方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231116 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20241022 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20241205 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250311 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250425 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250527 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250619 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20250701 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250714 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7722365 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |