JP7226325B2 - 焦点検出装置および方法、並びにプログラム - Google Patents
焦点検出装置および方法、並びにプログラム Download PDFInfo
- Publication number
- JP7226325B2 JP7226325B2 JP2019548117A JP2019548117A JP7226325B2 JP 7226325 B2 JP7226325 B2 JP 7226325B2 JP 2019548117 A JP2019548117 A JP 2019548117A JP 2019548117 A JP2019548117 A JP 2019548117A JP 7226325 B2 JP7226325 B2 JP 7226325B2
- Authority
- JP
- Japan
- Prior art keywords
- amount
- pixel group
- pixels
- information
- reliability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/671—Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B7/00—Mountings, adjusting means, or light-tight connections, for optical elements
- G02B7/28—Systems for automatic generation of focusing signals
- G02B7/34—Systems for automatic generation of focusing signals using different areas in a pupil plane
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B13/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B13/32—Means for focusing
- G03B13/34—Power focusing
- G03B13/36—Autofocus systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/617—Upgrading or updating of programs or applications for camera control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/704—Pixels specially adapted for focusing, e.g. phase difference pixel sets
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Description
0.概要
1.撮像装置
2.応用例
撮影レンズの瞳分割を行う一対の位相差検出用画素(以下、位相差画素という)の出力信号を用いて焦点検出を行う位相差検出方式が知られている。この瞳分割の位相差検出方式では、一対の位相差画素の出力信号の像ズレ量を重心演算や相関演算を行うことによって検出し、検出した像ズレ量に対して、所定の変換係数を用いてデフォーカス量に変換する処理が行われる。
図1は、位相差画素の受光感度分布と撮影レンズの瞳とを示す図である。
図2は、図1の位相差画素の受光量分布の一例を示す図である。
図3は、位相差を求める方法を説明するための図である。
図5は、絵柄と相関演算結果との関係について説明する図である。
図6は、デフォーカス量の算出に必要な情報について説明する図である。
はじめに、本技術を適用した撮像装置に含まれる位相差処理部について説明する。
図7は、本技術を適用した位相差処理部の第1の構成例を示すブロック図である。
図9は、本技術を適用した撮像装置の構成例を示すブロック図である。
次に、図10のフローチャートを参照して、図7の位相差処理部101の場合のオートフォーカス処理について説明する。なお、図10では、デフォーカス量関係情報として、像ズレ量が出力される例を説明する。
図13は、図8の機械学習処理部からの出力の例を説明する図である。
図20は、学習装置231のハードウェア構成例を示すブロック図である。
図22は、ニューラルネットワークの学習に用いられる学習データの収集方法2を説明する図である。図22では、シミュレーションにより学習データを収集する例が示されている。
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、手術室システムに適用されてもよい。
支持アーム装置5141は、ベース部5143から延伸するアーム部5145を備える。図示する例では、アーム部5145は、関節部5147a、5147b、5147c、及びリンク5149a、5149bから構成されており、アーム制御装置5159からの制御により駆動される。アーム部5145によって内視鏡5115が支持され、その位置及び姿勢が制御される。これにより、内視鏡5115の安定的な位置の固定が実現され得る。
内視鏡5115は、先端から所定の長さの領域が患者5185の体腔内に挿入される鏡筒5117と、鏡筒5117の基端に接続されるカメラヘッド5119と、から構成される。図示する例では、硬性の鏡筒5117を有するいわゆる硬性鏡として構成される内視鏡5115を図示しているが、内視鏡5115は、軟性の鏡筒5117を有するいわゆる軟性鏡として構成されてもよい。
CCU5153は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5115及び表示装置5155の動作を統括的に制御する。具体的には、CCU5153は、カメラヘッド5119から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5153は、当該画像処理を施した画像信号を表示装置5155に提供する。また、CCU5153には、図23に示す視聴覚コントローラ5107が接続される。CCU5153は、画像処理を施した画像信号を視聴覚コントローラ5107にも提供する。また、CCU5153は、カメラヘッド5119に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。当該撮像条件に関する情報は、入力装置5161を介して入力されてもよいし、上述した集中操作パネル5111を介して入力されてもよい。
支持アーム装置5141は、基台であるベース部5143と、ベース部5143から延伸するアーム部5145と、を備える。図示する例では、アーム部5145は、複数の関節部5147a、5147b、5147cと、関節部5147bによって連結される複数のリンク5149a、5149bと、から構成されているが、図25では、簡単のため、アーム部5145の構成を簡略化して図示している。実際には、アーム部5145が所望の自由度を有するように、関節部5147a~5147c及びリンク5149a、5149bの形状、数及び配置、並びに関節部5147a~5147cの回転軸の方向等が適宜設定され得る。例えば、アーム部5145は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5145の可動範囲内において内視鏡5115を自由に移動させることが可能になるため、所望の方向から内視鏡5115の鏡筒5117を患者5185の体腔内に挿入することが可能になる。
光源装置5157は、内視鏡5115に術部を撮影する際の照射光を供給する。光源装置5157は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5157において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5119の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
図26を参照して、内視鏡5115のカメラヘッド5119及びCCU5153の機能についてより詳細に説明する。図26は、図25に示すカメラヘッド5119及びCCU5153の機能構成の一例を示すブロック図である。
本技術は、以下のような構成をとることもできる。
(1)
位相差検出のための第1の特性を有する第1の画素群の受光量分布および前記第1の特性と異なる第2の特性を有する第2の画素群の受光量分布に基づいて、学習に基づく演算を行うことにより、デフォーカス量に関係するデフォーカス量関係情報を出力する演算部を
備える焦点検出装置。
(2)
前記演算部は、機械学習により作成されるニューラルネットワークである
前記(1)に記載の焦点検出装置。
(3)
前記演算部は、前記デフォーカス量関係情報として、前記第1の画素群のボケ関数および前記第2の画素群のボケ関数を出力する
前記(1)または(2)に記載の焦点検出装置。
(4)
前記演算部は、前記デフォーカス量関係情報として、前記第1の画素群のボケ関数の重心位置と前記第2の画素群のボケ関数の重心位置との差分である像ズレ量を出力する
前記(1)または(2)に記載の焦点検出装置。
(5)
前記演算部は、前記デフォーカス量関係情報とともに、前記デフォーカス量関係情報の信頼性を表す信頼性情報を出力する
前記(1)乃至(4)のいずれかに記載の焦点検出装置。
(6)
前記演算部は、前記信頼性情報として、前記第1の画素群の受光量分布および前記第2の画素群の受光量分布が属する、前記デフォーカス量のクラスを数値で表したクラス情報を出力する
前記(5)に記載の焦点検出装置。
(7)
前記演算部は、前記信頼性情報として、機械学習時に出力した前記デフォーカス量関係情報と、正しい情報とを比較して算出される正確性を表す正確性情報を出力する
前記(5)に記載の焦点検出装置。
(8)
前記演算部は、前記信頼性情報として、前記第1の画素群のボケ関数および前記第2の画素群のボケ関数が鏡像関係にある性質に対する近さを示す類似性情報を出力する
前記(5)に記載の焦点検出装置。
(9)
前記デフォーカス量関係情報を焦点検出に用いるか否かを、前記信頼性情報に基づいて判定する判定部をさらに備える
前記(5)に記載の焦点検出装置。
(10)
前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量のうちの最大の受光量に基づいて、前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量のそれぞれを正規化する前処理部をさらに備え、
前記演算部は、正規化された前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量を入力として、前記デフォーカス量関係情報を出力する
前記(1)乃至(9)のいずれかに記載の焦点検出装置。
(11)
前記第1の画素群の画素の受光量のうちの最大の受光量に基づいて前記第1の画素群の画素の受光量を正規化するとともに、前記第2の画素群の画素の受光量のうちの最大の受光量に基づいて前記第2の画素群の画素の受光量を正規化する前処理部をさらに備え、
前記演算部は、正規化された前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量を入力として、前記デフォーカス量関係情報を出力する
前記(1)乃至(9)のいずれかに記載の焦点検出装置。
(12)
前記第1の画素群の画素の受光量から平均値を引いた値を、前記第1の画素群の受光量の分散値で割るとともに、前記第2の画素群の画素の受光量から平均値を引いた値を、前記第2の画素群の受光量の分散値で割る演算を行う前処理部をさらに備え、
前記演算部は、分散値で割ることによって得られた前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量を入力として、前記デフォーカス量関係情報を出力する
前記(1)乃至(9)のいずれかに記載の焦点検出装置。
(13)
前記第1の画素群の所定の数の画素の受光量を加算するとともに、前記第2の画素群の所定の数の画素の受光量を加算する前処理部をさらに備え、
前記演算部は、受光量を加算した前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量を入力として、前記デフォーカス量関係情報を出力する
前記(1)乃至(9)のいずれかに記載の焦点検出装置。
(14)
前記第1の画素群から画素を間引くとともに、前記第2の画素群から画素を間引く前処理部をさらに備え、
前記演算部は、間引かれた前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量を入力として、前記デフォーカス量関係情報を出力する
前記(1)乃至(9)のいずれかに記載の焦点検出装置。
(15)
焦点検出装置が、
位相差検出のための第1の特性を有する第1の画素群の受光量分布および前記第1の特性と異なる第2の特性を有する第2の画素群の受光量分布に基づいて、学習に基づく演算を行うことにより、デフォーカス量に関係するデフォーカス量関係情報を出力する
焦点検出方法。
(16)
位相差検出のための第1の特性を有する第1の画素群の受光量分布および前記第1の特性と異なる第2の特性を有する第2の画素群の受光量分布に基づいて、学習に基づく演算を行うことにより、デフォーカス量に関係するデフォーカス量関係情報を出力する演算部
として、コンピュータを機能させるプログラム。
Claims (14)
- 位相差検出のための第1の特性を有する第1の画素群の受光量分布および前記第1の特性と異なる第2の特性を有する第2の画素群の受光量分布に基づいて、学習に基づく演算を行うことにより、デフォーカス量に関係するデフォーカス量関係情報とともに、前記デフォーカス量関係情報の信頼性を表す信頼性情報を出力する演算部と、
前記信頼性情報に基づいて、前記デフォーカス量関係情報を焦点検出に用いるか否かの信頼性判定を複数段階行う判定部と
を備え、
前記判定部は、前記デフォーカス量関係情報の信頼性の高さに基づく信頼性判定と、前記信頼性情報と前記デフォーカス量関係情報との一貫性に基づく信頼性判定とを少なくとも行う
焦点検出装置。 - 前記演算部は、機械学習により作成されるニューラルネットワークである
請求項1に記載の焦点検出装置。 - 前記演算部は、前記デフォーカス量関係情報として、前記第1の画素群のボケ関数および前記第2の画素群のボケ関数を出力する
請求項2に記載の焦点検出装置。 - 前記演算部は、前記デフォーカス量関係情報として、前記第1の画素群のボケ関数の重心位置と前記第2の画素群のボケ関数の重心位置との差分である像ズレ量を出力する
請求項2に記載の焦点検出装置。 - 前記演算部は、前記信頼性情報として、前記第1の画素群の受光量分布および前記第2の画素群の受光量分布が属する、前記デフォーカス量の各クラスの信頼性を数値でそれぞれ表したクラス情報を出力する
請求項1に記載の焦点検出装置。 - 前記演算部は、前記信頼性情報として、機械学習時に出力した前記デフォーカス量関係情報と、正しい情報とを比較して算出される正確性を表す正確性情報を出力する
請求項1に記載の焦点検出装置。 - 前記演算部は、前記信頼性情報として、前記第1の画素群のボケ関数および前記第2の画素群のボケ関数が鏡像関係にある性質に対する近さを示す類似性情報を出力する
請求項1に記載の焦点検出装置。 - 前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量のうちの最大の受光量に基づいて、前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量のそれぞれを正規化する前処理部をさらに備え、
前記演算部は、正規化された前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量を入力として、前記デフォーカス量関係情報を出力する
請求項2に記載の焦点検出装置。 - 前記第1の画素群の画素の受光量のうちの最大の受光量に基づいて前記第1の画素群の画素の受光量を正規化するとともに、前記第2の画素群の画素の受光量のうちの最大の受光量に基づいて前記第2の画素群の画素の受光量を正規化する前処理部をさらに備え、
前記演算部は、正規化された前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量を入力として、前記デフォーカス量関係情報を出力する
請求項2に記載の焦点検出装置。 - 前記第1の画素群の画素の受光量から平均値を引いた値を、前記第1の画素群の受光量の分散値で割るとともに、前記第2の画素群の画素の受光量から平均値を引いた値を、前記第2の画素群の受光量の分散値で割る演算を行う前処理部をさらに備え、
前記演算部は、分散値で割ることによって得られた前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量を入力として、前記デフォーカス量関係情報を出力する
請求項2に記載の焦点検出装置。 - 前記第1の画素群の所定の数の画素の受光量を加算するとともに、前記第2の画素群の所定の数の画素の受光量を加算する前処理部をさらに備え、
前記演算部は、受光量を加算した前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量を入力として、前記デフォーカス量関係情報を出力する
請求項2に記載の焦点検出装置。 - 前記第1の画素群から画素を間引くとともに、前記第2の画素群から画素を間引く前処理部をさらに備え、
前記演算部は、間引かれた前記第1の画素群の画素の受光量と前記第2の画素群の画素の受光量を入力として、前記デフォーカス量関係情報を出力する
請求項2に記載の焦点検出装置。 - 焦点検出装置が、
位相差検出のための第1の特性を有する第1の画素群の受光量分布および前記第1の特性と異なる第2の特性を有する第2の画素群の受光量分布に基づいて、学習に基づく演算を行うことにより、デフォーカス量に関係するデフォーカス量関係情報とともに、前記デフォーカス量関係情報の信頼性を表す信頼性情報を出力し、
前記信頼性情報に基づいて、前記デフォーカス量関係情報を焦点検出に用いるか否かの信頼性判定を複数段階行い、
前記デフォーカス量関係情報の信頼性の高さに基づく信頼性判定と、前記信頼性情報と前記デフォーカス量関係情報との一貫性に基づく信頼性判定とを少なくとも行う
焦点検出方法。 - 位相差検出のための第1の特性を有する第1の画素群の受光量分布および前記第1の特性と異なる第2の特性を有する第2の画素群の受光量分布に基づいて、学習に基づく演算を行うことにより、デフォーカス量に関係するデフォーカス量関係情報とともに、前記デフォーカス量関係情報の信頼性を表す信頼性情報を出力する演算部と、
前記信頼性情報に基づいて、前記デフォーカス量関係情報を焦点検出に用いるか否かの信頼性判定を複数段階行う判定部と
して、コンピュータを機能させ、
前記判定部は、前記デフォーカス量関係情報の信頼性の高さに基づく信頼性判定と、前記信頼性情報と前記デフォーカス量関係情報との一貫性に基づく信頼性判定とを少なくとも行う
プログラム。
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017199088 | 2017-10-13 | ||
| JP2017199088 | 2017-10-13 | ||
| PCT/JP2018/036189 WO2019073814A1 (ja) | 2017-10-13 | 2018-09-28 | 焦点検出装置および方法、並びにプログラム |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JPWO2019073814A1 JPWO2019073814A1 (ja) | 2020-11-05 |
| JP7226325B2 true JP7226325B2 (ja) | 2023-02-21 |
Family
ID=66100645
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019548117A Active JP7226325B2 (ja) | 2017-10-13 | 2018-09-28 | 焦点検出装置および方法、並びにプログラム |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11503201B2 (ja) |
| JP (1) | JP7226325B2 (ja) |
| WO (1) | WO2019073814A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025024782A1 (en) * | 2023-07-26 | 2025-01-30 | Digital Surgery Systems, Inc. | Deep learning systems and methods for integrating, displaying, and generating inferences from surgical information from disparate medical devices |
Families Citing this family (9)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP6971934B2 (ja) * | 2018-08-10 | 2021-11-24 | 株式会社東芝 | 画像処理装置 |
| US11195257B2 (en) * | 2018-08-24 | 2021-12-07 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, imaging apparatus, lens apparatus, storage medium, and image processing system |
| JP7630909B2 (ja) * | 2020-02-28 | 2025-02-18 | キヤノン株式会社 | レンズ装置、撮像装置、処理装置、処理方法、およびプログラム |
| JP7446985B2 (ja) * | 2020-12-15 | 2024-03-11 | 株式会社東芝 | 学習方法、プログラム及び画像処理装置 |
| US11539875B1 (en) * | 2021-08-27 | 2022-12-27 | Omnivision Technologies Inc. | Image-focusing method and associated image sensor |
| CN118043714A (zh) * | 2021-09-30 | 2024-05-14 | 富士胶片株式会社 | 检测方法、摄像装置及程序 |
| WO2023106119A1 (ja) | 2021-12-09 | 2023-06-15 | ソニーグループ株式会社 | 制御装置、制御方法、情報処理装置、生成方法、およびプログラム |
| US11843858B1 (en) * | 2022-05-19 | 2023-12-12 | Qualcomm Incorporated | Machine learning for phase detection autofocus |
| WO2024057508A1 (ja) * | 2022-09-15 | 2024-03-21 | 日本電気株式会社 | 情報処理装置、情報処理システム、情報処理方法及び記録媒体 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010268052A (ja) | 2009-05-12 | 2010-11-25 | Canon Inc | 撮像装置 |
| JP2015087705A (ja) | 2013-11-01 | 2015-05-07 | キヤノン株式会社 | フォーカス制御装置、およびその制御方法 |
| JP2016197231A (ja) | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | 表示制御装置及び方法、及び撮像装置 |
| JP2016207030A (ja) | 2015-04-24 | 2016-12-08 | 日立オートモティブシステムズ株式会社 | 画像処理装置 |
| US20170094153A1 (en) | 2015-07-02 | 2017-03-30 | Pixart Imaging Inc. | Distance measurement device based on phase difference and distance measurement method thereof |
| JP2017116723A (ja) | 2015-12-24 | 2017-06-29 | 富士通株式会社 | 撮像装置、焦点調整装置および焦点調整プログラム |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5317562B2 (ja) * | 2008-07-17 | 2013-10-16 | キヤノン株式会社 | 位相差検出装置、撮像装置、位相差検出方法、位相差検出プログラム |
| JP5045801B2 (ja) * | 2009-09-09 | 2012-10-10 | 株式会社ニコン | 焦点検出装置、撮影レンズユニット、撮像装置およびカメラシステム |
| JP5676962B2 (ja) * | 2010-08-03 | 2015-02-25 | キヤノン株式会社 | 焦点検出装置および撮像装置 |
| JP5743519B2 (ja) * | 2010-12-10 | 2015-07-01 | キヤノン株式会社 | 撮像装置およびその制御方法 |
| JP5947601B2 (ja) * | 2012-04-10 | 2016-07-06 | キヤノン株式会社 | 焦点検出装置、その制御方法および撮像装置 |
| JP2014056002A (ja) | 2012-09-11 | 2014-03-27 | Sony Corp | 焦点検出装置、撮像装置、および、焦点検出装置の制御方法 |
| JP6395429B2 (ja) * | 2014-04-18 | 2018-09-26 | キヤノン株式会社 | 画像処理装置、その制御方法及び記憶媒体 |
| JP6608148B2 (ja) * | 2015-02-24 | 2019-11-20 | キヤノン株式会社 | 距離情報生成装置、撮像装置、距離情報生成方法および距離情報生成プログラム |
| US9978154B2 (en) | 2015-07-02 | 2018-05-22 | Pixart Imaging Inc. | Distance measurement device base on phase difference and distance measurement method thereof |
| JP6672081B2 (ja) * | 2016-06-01 | 2020-03-25 | キヤノン株式会社 | 撮像装置 |
| US9870609B2 (en) * | 2016-06-03 | 2018-01-16 | Conduent Business Services, Llc | System and method for assessing usability of captured images |
| EP3618430B1 (en) * | 2017-04-25 | 2022-02-09 | Sony Group Corporation | Solid-state image capturing device and electronic instrument |
-
2018
- 2018-09-28 US US16/753,715 patent/US11503201B2/en active Active
- 2018-09-28 WO PCT/JP2018/036189 patent/WO2019073814A1/ja not_active Ceased
- 2018-09-28 JP JP2019548117A patent/JP7226325B2/ja active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010268052A (ja) | 2009-05-12 | 2010-11-25 | Canon Inc | 撮像装置 |
| JP2015087705A (ja) | 2013-11-01 | 2015-05-07 | キヤノン株式会社 | フォーカス制御装置、およびその制御方法 |
| JP2016197231A (ja) | 2015-04-03 | 2016-11-24 | キヤノン株式会社 | 表示制御装置及び方法、及び撮像装置 |
| JP2016207030A (ja) | 2015-04-24 | 2016-12-08 | 日立オートモティブシステムズ株式会社 | 画像処理装置 |
| US20170094153A1 (en) | 2015-07-02 | 2017-03-30 | Pixart Imaging Inc. | Distance measurement device based on phase difference and distance measurement method thereof |
| JP2017116723A (ja) | 2015-12-24 | 2017-06-29 | 富士通株式会社 | 撮像装置、焦点調整装置および焦点調整プログラム |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025024782A1 (en) * | 2023-07-26 | 2025-01-30 | Digital Surgery Systems, Inc. | Deep learning systems and methods for integrating, displaying, and generating inferences from surgical information from disparate medical devices |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2019073814A1 (ja) | 2019-04-18 |
| JPWO2019073814A1 (ja) | 2020-11-05 |
| US11503201B2 (en) | 2022-11-15 |
| US20200260014A1 (en) | 2020-08-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7226325B2 (ja) | 焦点検出装置および方法、並びにプログラム | |
| US11154179B2 (en) | Medical image processing apparatus, medical image processing system, and driving method of medical image processing apparatus | |
| JP2023083547A (ja) | 画像処理装置、画像処理方法、及び記録媒体 | |
| WO2020045015A1 (ja) | 医療システム、情報処理装置及び情報処理方法 | |
| JP7095693B2 (ja) | 医療用観察システム | |
| CN113993478B (zh) | 医疗工具控制系统、控制器和非暂时性计算机可读存储器 | |
| US10609354B2 (en) | Medical image processing device, system, method, and program | |
| US20210019921A1 (en) | Image processing device, image processing method, and program | |
| US11883120B2 (en) | Medical observation system, medical signal processing device, and medical signal processing device driving method | |
| CN110913787B (zh) | 手术支持系统、信息处理方法和信息处理装置 | |
| US20190281233A1 (en) | Image processing device, setting method, and program | |
| JP7230807B2 (ja) | 信号処理装置、撮像装置、信号処理方法及びプログラム | |
| WO2022019057A1 (ja) | 医療用アーム制御システム、医療用アーム制御方法及びプログラム | |
| JP7456385B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
| WO2018173605A1 (ja) | 手術用制御装置、制御方法、手術システム、およびプログラム | |
| WO2017145606A1 (ja) | 画像処理装置、画像処理方法及び内視鏡システム | |
| WO2020045014A1 (ja) | 医療システム、情報処理装置及び情報処理方法 | |
| JP7207296B2 (ja) | 撮像装置とフォーカス制御方法およびフォーカス判定方法 | |
| JP7092111B2 (ja) | 撮像装置、映像信号処理装置および映像信号処理方法 | |
| US20190268547A1 (en) | Image processing device and method, and program | |
| JP7160042B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
| WO2022172733A1 (ja) | 医療用観察装置、観察装置、観察方法及びアダプタ | |
| WO2020009127A1 (ja) | 医療用観察システム、医療用観察装置、及び医療用観察装置の駆動方法 | |
| WO2018043205A1 (ja) | 医療用画像処理装置、医療用画像処理方法、プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210820 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220708 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220816 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220928 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230123 |
|
| R151 | Written notification of patent or utility model registration |
Ref document number: 7226325 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |