JP2004510363A - センサおよびイメージングシステム - Google Patents
センサおよびイメージングシステム Download PDFInfo
- Publication number
- JP2004510363A JP2004510363A JP2002523861A JP2002523861A JP2004510363A JP 2004510363 A JP2004510363 A JP 2004510363A JP 2002523861 A JP2002523861 A JP 2002523861A JP 2002523861 A JP2002523861 A JP 2002523861A JP 2004510363 A JP2004510363 A JP 2004510363A
- Authority
- JP
- Japan
- Prior art keywords
- image
- view
- field
- camera
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19602—Image analysis to detect motion of the intruder, e.g. by frame subtraction
- G08B13/19604—Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19617—Surveillance camera constructional details
- G08B13/19619—Details of casing
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19617—Surveillance camera constructional details
- G08B13/19632—Camera support structures, e.g. attachment means, poles
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19639—Details of the system layout
- G08B13/19645—Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
- G08B13/19678—User interface
- G08B13/1968—Interfaces for setting up or customising the system
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Burglar Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
カメラ、プロセッサ、およびユーザインタフェースを有するシステムが開示されている。上記カメラは、視野内のシーンを表すイメージデータを転送する。イメージデータに応答して、上記プロセッサは、状況が満たされたかどうかを指し示す。上記ユーザインタフェースは、上記プロセッサに接続可能である。上記ユーザインタフェースにより、ユーザは、物体を検出し、選択された基準を示して、物体が検出された視覚確認を提供する基準を選択することが可能になる。
Description
【0001】
(関連出願)
本出願は、米国仮特許出願第60/229,613号(出願日2000年8月31日)の利益の権利を主張し、本明細書中に参考として援用する。
【0002】
(技術分野)
本発明は、センサおよびイメージングシステムに関して、より詳細には、イメージデータを提供し、解釈するためのシステムに関する。
【0003】
(発明の背景)
センサおよびイメージングシステムは、今日の技術が促進した経済において需要が増している。これらのシステムは、視野内に含まれる物体を見るためのカメラを含む。このカメラは、検出された物体があった場合、それに応答してどんな動作を取るべきかを決定するためにコンピュータによって分析されるイメージデータを生成する。
【0004】
ある視野内に含まれる物体を見るために、多くの認識システムでは、二つ以上のカメラを用いる。数個のカメラを用いることによるコストに加えて、これらのシステムは、それぞれのカメラに対する特殊な取り付け配置を必要とする。このようなシステムでは、両方のカメラが、適切な操作のために必要とされるので、単一のカメラを介した場合の信頼性のレベルは減少している。
【0005】
単一のカメラシステムは、典型的に、固定された位置で取り付けられ、所定の基準を満たすか、または満たさない物体を探索する。例えば、構造的な欠陥をチェックするシステムである。これらのシステムは、既に特定化されていない決定をすることができない。
【0006】
従って、カメラによって提供されるイメージを用いることによって、条件が満たされたかどうかを決定し得るセンサおよびイメージングシステムに対しての必要性がある。
【0007】
(発明の要旨)
本発明による実施形態において、システムは、カメラ、プロセッサ、およびユーザインタフェースを有して提供される。カメラは、視野内のシーンに応じたイメージデータをプロセッサに転送する。イメージデータに応答して、プロセッサは、条件が満たされたかどうかを示す。ユーザインタフェースは、プロセッサに動作上接続可能である。ユーザインタフェースにより、ユーザは、物体の方向と、選択された基準の表示と、物体が検出されたことの視覚確認とを提供する基準を選択することが可能になる。
【0008】
別の実施形態において、他のデバイスに影響をもたらす制御インタフェースがさらに提供される。さらに、システムは、他のデバイスに影響する信号を提供する。
【0009】
さらに別の実施形態において、システムは、条件が満たされたというプロセッサによる決定と同時にドアを開くための信号を提供する。次にこのドアは、ドアに接続可能な駆動モーターを有する従来のエレクトロメカニカルドアオープナー(opener)システムによって開けられる。
【0010】
本発明の他の特性および利点は、添付の図面と共に得られる以下の詳細から明白になる。
【0011】
(好適な実施形態の詳細な説明)
本発明は、多くの異なる形式の実施形態を可能として、図面に示され、本発明の開示が本発明の原理の例示として考慮されるべきであり、本発明の広い局面が図示された実施形態に限定されることを意図しないことを理解すると共に本発明の詳細な好適な実施形態に記載される。
【0012】
図1を参照すると、本発明によるシステムの実施形態のブロック図が示される。システム10は、イメージ分析12、現在の方向14、センサ技術16、電子回路18、デバイス制御20、カメラのポーズ22、カメラ技術24、イメージ分析26、および市場アプリケーション28に方向付けられた局面を含む。
【0013】
図2を参照すると、本発明によるシステムの別の実施形態の簡単な図が記載される。システム110は、一組のセンサ回路114/イメージング回路115にそれぞれ接続可能である一組のカメラアセンブリ112、113を含む。センサ回路114/イメージング回路115は、キーパッド118に接続されたI/Oディスプレイボード116に接続可能である。さらなる実施形態において、システム110は、ドア121に接続可能な駆動モータ119を有するエレクトロメカニカルオープナーシステム117を含み得る(図3および4)。
【0014】
カメラアセンブリ112および113は、好ましくは、広角レンズを有する電荷結合素子(CCD)などを含み、センサ回路114/イメージング回路115それぞれにイメージデータを転送することが可能である。イメージデータは、それぞれ、各カメラの視野内のシーンに対応する。
【0015】
センサ回路114/イメージング回路115は、ユーザが選択した条件を満たすかどうかを決定するためのイメージデータを処理する。ユーザが選択した条件は、I/O表示ボード116およびメンブレンキーパッド118を含むマンマシンインタフェースを介して選択される。実施形態において、マンマシンインタフェースは、センサ回路114/イメージング回路115に動作上接続可能である。マンマシンインタフェースにより、ユーザは、物体の方向、選択された基準の表示、および物体が検出されたことの視覚確認の提供に対する基準を選択することを可能にする。
【0016】
図3は、ドア121によって閉じられる出入り口120の断面正面図を提供する。図2のカメラアセンブリ112、113は、出入り口120に近接して、逆向きの側面上に取り付けられる。従って、カメラアセンブリ112および113は、それぞれ、出入り口の向き合った側面に視野122および123を有する。好ましくは、ドア121が図4に示されるように開かれると、少なくとも一つのカメラアセンブリの視野は、出入り口120を含む。さらに、視野122および123は、出入り口120について重なり合う。
【0017】
図5を参照すると、図3のドア121の上のヘッダーに取り付ける図2のカメラアセンブリ112、113の一つの透視部分アセンブリ図が示される。カメラアセンブリは、ウィンドウ132を有するハウジングアセンブリ131を含む。図6は、図5のカメラアセンブリの断面図を提供する。ハウジングアセンブリ131内に、視野136を有するカメラ134およびヒーターアセンブリ140が取り付けられる。さらなる実施形態において、電源供給(図示せず)は、カメラ134に電力を供給するためにヒーターアセンブリ内に取り付けられ得る。
【0018】
図7および8はそれぞれ、ヒーターアセンブリ140の平面図および断面図を提供する。実施形態において、ヒーターアセンブリ140は、好適には鋳物などで作られる、カメラアセンブリハウジング131のウィンドウ132に隣接し、1対の伝導性端子144、145間に挟まれたセラミックレジスタ142を含む。セラミックレジスタ142は、典型的に、リング形状であり、PTCR(ポジティブ温度係数または抵抗)またはPTC効果として一般に言及されるものを示す材料から構成される。同様に、伝導性端子144、145は、典型的に、リング形状であり、電気的かつ熱的に伝導性材料(例えば、銅)から構成される。
【0019】
一実施形態において、環状のアパーチャ146は、セラミックレジスタ142および伝導性端子144、145の軸を介して伸びる。アパーチャ146は、実質的に、同一の外周を有し、同軸に、互いに整列される。
【0020】
好適には、伝導性端子145の外周148は、そこから外側に伸びる複数のイアー150を含む。各イアー150を経て伸びることは、それ故、取り付けネジ154を伸びるためのアパーチャ152である(図9)。
【0021】
図9を参照すると、ヒーターアセンブリ140は、カメラアセンブリのハウジング131内に取り付けられる。前述したように、取り付けネジ154は、ヒーターアセンブリ140の伝導性端子145を取り付け表面、あるいはハウジング131に内部まで伸びる取り付けポスト156に結合し、完全にそれらに取り付けられる。
【0022】
カメラアセンブリハウジング131は、アパーチャ158を含む。アパーチャ158により、カメラの視野136は、ハウジングの外側に延長することが可能になる。ウィンドウ132は、アパーチャ158の上に取り付けられ、混入物(例えば、ほこりおよび水分)がカメラアセンブリに入ることを防止する。
【0023】
好適には、ウィンドウ132は、ヒーターアセンブリ140の熱的な伝導性端子リング145と弾性材料から作られ、カメラアセンブリハウジング131の内部表面に対して隣接する環状ガスケット160との間に挟まれ、アパーチャ158の周りのカメラアセンブリハウジング131の内部表面162に対して隣接している。実施形態において、ウィンドウ132は、視覚的に透明な材料(例えば、ホウケイ酸ガラス)で作られる。
【0024】
カメラ134は、カメラの視野136において得られるものを表すイメージデータまたは電子ピクセルデータ218を生成する。実施形態において、イメージングデータ218は、カメラの視野136において検出された物体があった場合、それに応答してどんな動作が取られるべきかを決定するためにビデオプロセッサ114、115(図2)のいずれかによって分析される。
【0025】
カメラアセンブリハウジング131内において、ヒーターアセンブリ140の端子144、145は、セラミックレジスタ142を横切る電位を維持するために電圧ソース166に結合される。電流がセラミックレジスタ142を流れるときにセラミックレジスタ142によって生成される熱は、伝導性端子145を介して、ウィンドウ132上に分散される。実施形態において、十分な熱は、カメラアセンブリハウジング131の外気の露点を上回る温度でウィンドウ132を維持するように提供される。例えば、ヒーターは、約87°Fで駆動し、約106°Fで動作を停止する。
【0026】
当業者にとって明白であるように、セラミックレジスタ142の使用は、レジスタ材料がポジティブ温度係数を示すので、メカニカルサーモスタットまたはそのような類似物に対する必要性を除外する。サーモスタットの除外は、ヒーターの信頼性を増して、スイッチングの結果として生じる電圧供給に乗るノイズ量を減少する。
【0027】
図2に戻ると、実施形態において、カメラアセンブリ112、113は、視野を照らすために発光源(図示せず)(例えば、光電球、あるいは可視光または非可視光内の発光ダイオードなど)を含み得る。カメラアセンブリ112、113の出力は、移動可能に結合されたディスプレイ(図示せず)によって受信され得る。カメラアセンブリ112、113の出力によって、ユーザは、各カメラアセンブリの視野が適切に構成されるというチェックを見ることが可能になる。
【0028】
図10を参照すると、図3および4のドア121の片側の上面透視図が提供される。図2のカメラアセンブリの一つ(特にカメラアセンブリ112)は、ドアの前面の領域を含む視野122を有する。カメラアセンブリ112は、イメージングデータをビデオプロセッサ114(図2)に提供する。実施形態において、ビデオプロセッサ114は、安全ゾーン168、および、所望ならば一つ以上の活性ゾーン170を重ね合わせる。好適には、物体が安全ゾーン168内であることを、ビデオプロセッサ114、115のいずれかによって検出されると、ドア121は、物体が安全ゾーン168を外れるまで、開かれたままになる。さらに、物体が活性ゾーン168に入ることを、ビデオプロセッサ114、115のいずれかによって検出されると、物体が活性ゾーン内の移動を止めるか、活性ゾーンを離れた後に、ドア121は、開かれたままになる。
【0029】
好ましくは、安全ゾーン168は、ドア121をすぐに取り囲む領域に維持され、人または物体がドアのすぐ近くにあるときに、ドアが閉じることを防止する。さらに、活性ゾーン(単数または複数)168は、人または車両がドア121に接近したときに、ドアを開く。さらに、視野内の照明の不足、激しい照明変化、電子機器の故障、カメラの衝突によるドアの半開き状態がある場合、またはカメラレンズが曇っているときは、ドア121を開くために二重安全システムが提供される。
【0030】
図11は、物体がカメラアセンブリ122からさらに離れて置かれたときの視野122のピクセル密度を示す。図12は、実施形態において、メンブレンキーパッド118(図2)を用いるユーザによって選択され得る複数の安全ゾーン配置を提供する。
【0031】
図13は、図2に示されるメンブレンキーパッド118の実施形態の上面図を提供する。メンブレンキーパッド118および/またはI/Oディスプレイボード116(図2)は、ユーザインタフェースまたはマンマシンインタフェースをユーザに提供し、システム(図2)をセットアップする。実施形態において、ユーザインタフェースにより、ユーザは、ドアタイプおよび寸法を定義し、サイズ、配置、およびシステム110が使用する検出ゾーンのタイプを確立することが可能になる。好ましくは、ユーザインタフェースにより、ユーザは、エリア、配置、形状、制御ゾーンの数、および制御基準からなる群からの少なくとも一つの制御ゾーンパラメータを定義するためのデータを入力することが可能になる。
【0032】
前述されるように、ユーザインタフェースを介するシステム110は、制御ゾーンとしてカメラアセンブリによって受信されたイメージの少なくとも一部を定義することを可能にする。一実施形態において、システム110は、制御ゾーン内で、直接的なアクセスによって配位される全てのピクセルから座標を選択することを可能にする。あるいは、システム110は、複数の所定のゾーンから選択することを可能にする。さらに、システム110は、イメージデータの部分になる境界座標および実際の物体を描写するために、視野内に実際の物体を置くことを可能にし得る。
【0033】
実施形態において、ユーザインタフェースは、三つの操作モードである、パラメータ編集モード、実行モード、および診断モードを有する。パラメータ編集モードにおいて、ユーザは、タッチキーパッドボタン610、622、624、および626を用いて構成パラメータ(例えば、ドアモデル、米英単位またはメートル単位、カメラの高さおよびドアからの距離)を入力または変更し得る。実行モードにおいて、システム110は動作される。そのような場合、システム110は、カメラ112、113からイメージを処理して、I/Oボード116を介してセーフティおよび起動ゾーンの命令信号出力して、表示LED614および616上に状態情報を表示し得る。診断モードにおいて、システム110の状態に関する追加情報は、I/Oポート(図示せず)を介して利用可能にされる。
【0034】
図14は、図13のメンブレンキーパッドを用いてゾーンの動きを示す図を提供する。実施形態において、ユーザは、カメラアセンブリ112、113の視野内の多様な位置に起動ゾーンを動かしうる。
【0035】
図15は、図2のセンサ/イメージング回路114、115の一つの簡単なブロック図を提供する。実施形態において、センサ/イメージング回路114、115は、物理的な設計において実質的に類似しており、フィールドプログラマブルゲートアレイ(FPGA)124、中央処理装置(CPU)125、およびビデオ126を含む。
【0036】
実施形態において、ビデオデジタイザ126は、カメラの一つからアナログイメージ信号を受信し、アナログイメージ信号をデジタル化し、そしてフィールドプログラマブルゲートアレイ124にデジタル化されたイメージ信号を送信する。
【0037】
本明細書中さらに詳細に説明されるように、フィールドプログラマブルゲートアレイ124は、受信されたデジタル化されたイメージ信号に応答して一つ以上のイメージ処理操作を実行するようにプログラムされる。実施形態において、これらの操作は、合成したイメージデータを提供するために、一つ以上の以前に受信したデジタル化されたイメージ信号とデジタル化されたイメージ信号の所定の特性とを比較することを含む。合成したイメージデータに応答して、中央処理装置125は、一つ以上の状況が満たされているかどうかを決定し得る。
【0038】
ビデオデジタイザ126に操作可能に結合された温度センサ128は、ビデオデジタイザの温度に相関する出力を有する。ビデオデジタイザ126が所定の温度領域または限界内で操作しないという状況を温度センサによって示されると。リセットコマンドは、リセット回路130によって発信され、それにより、システム110は、ビデオデジタイザの温度が所定の温度領域または限界内に戻るまでリセット状態に維持される。
【0039】
実施形態において、FPGA124は、CPU125の負担をかけず、所望のビデオ処理フレームレートを達成するために比較的高レートピクセル処理を実行する。このハードウェアのアーキテクチャは、十分に速いCPUチップと結び付いたコストを除去することによってシステム全体のコストを減少する。フレームレートのさらなるスピードアップは、同時に並列に処理するFPGAおよびCPUを用いて達成され得る。この並列処理は、CPUが現在のフレームをデータ処理する期間中に次のフレームをFPGAピクセル処理することによって成し遂げられる。従って、新しいFPGA出力は、CPUが現在のフレームデータ処理を終えるときに、CPUプロセスに対してすぐに利用可能になる。このプロセス構造は、二つの独立したデータセットを維持するための性能を必要とし、本明細書中でピン/ポン(ping/pong)コントロールとして後に言及される。
【0040】
図16を参照すると、本システムに一致する処理システムのトップレベルの簡単なブロック図が示される。システムは、好ましくは、図15のFPGA124内のイメージ処理モジュール212、図15のCPU125によって実行される特性処理モジュール214、および図15のCPU125によってさらに実行される検出処理モジュール216を含む。
【0041】
実施形態において、イメージ処理モジュール212は、現在のイメージデータ220、リファレンスイメージデータ222、リファレンスエッジデータ224、および以前のイメージデータ226を構成する格納された電子ピクセルデータ218を受信する。好ましくは、現在のイメージデータ220は、最も最近得られたイメージ(すなわちtにおいて得られた)であり、以前のイメージデータ226は、次に最近得られたイメージデータ(すなわちt+1において得られた)であり、リファレンスイメージデータ222は、最も古く得られたイメージデータ(すなわちt+1+xにおいて得られた)である。さらに詳細に本明細書中にさらに説明されるように、リファレンスエッジデータ224は、リファレンスイメージデータ222から引き出されたエッジデータから構成される。
【0042】
イメージ処理モジュール212はまた、マンマシンインタフェース(すなわち、図2のキーパッド118およびI/Oディスプレイボード116)からパラメータデータ228を受信する。さらに本明細書中で詳細に説明されるように、パラメータデータ228は、視野(図2および3の112および113)内で検出された物体が結果としてドア121(図2および3)の開けるエリア(図2および図3の112および113)に関係がある情報を含む。
【0043】
さらに本明細書中で詳細に説明されるように、電子ピクセルデータ218およびパラメータデータ228に応答して、イメージ処理モジュール212は、エッジ細分化、モーション細分化、および領域細分化を含む生成したイメージデータ230を生成する。
【0044】
特性処理モジュール214は、生成したイメージデータ230およびパラメータデータ228を受信する。さらに本明細書中で詳細に説明されるように、特性処理モジュール214は、イメージデータ230およびパラメータデータ228に応答して、エッジ特性、モーション特性、領域特性、およびフレーム特性を含む特性データ232を生成する。
【0045】
検出処理モジュール216は、特性データ232およびパラメータデータ228を受信する。そのデータに応答して、検出処理モジュール216は、ドア121(図2および3)を開閉する検出信号、リファレンス更新、および適応可能な閾値を含む制御信号234を生成する。
【0046】
図17および18を参照すると、図16の処理システムに関する初期化シーケンスの簡単なブロック図が示される。初期化シーケンス234は、初期化パラメータのステップ236、初期化閾値テーブルのステップ238、初期化ゾーンのステップ240、初期化FPGAのステップ242、初期化ビデオデジタイザのステップ244、および初期化ビデオシステムのステップ246を含む。
【0047】
初期化パラメータのステップ236は、マンマシンインタフェース、定常データ、および導出したパラメータの初期化を含む。マンマシンインタフェースの初期化中、ユーザ入力されたデータが読み出されて、メモリ中に格納される。定常データはまた、ドアを開閉する制御ゾーンに関係する生成したパラメータと共にメモリ中にロードされる。
【0048】
従って、上述されるように、システムへの電力の適用に関して、初期化パラメータモジュール236は、マンマシンインタフェース(すなわち、図2のメンブレンキーパッド118およびI/Oディスプレイボード116)、定常データ、導出したパラメータの初期化を開始する。初期化閾値テーブルモジュール238は、カメラのジオメトリおよび解像度モデルからのエリア閾値マップの初期化を開始する。これらのマップを用いて、物体(例えば、人および車両(例えば、フォークリフト))の最小および最大ピクセルの特性を決定する。
【0049】
初期化ゾーンモジュール234は、ユーザまたは所定の安全ゾーンおよび起動ゾーンと結び付いたデータが応じるとすぐに、制御ゾーンの初期化を開始する。初期化FPGA242および初期化ビデオデジタイザ244は、FPGA124(図15)およびビデオデジタイザ126(図15)の初期化をそれぞれ開始する。特に、制御状態レジスタ(CSR)およびイメージバッファポインタは、FPGA初期化中に初期化される。さらに、ビデオデジタイザは、FPGAシリアルI/Oを介して必要とされた命令を構成し、それらの命令を送信することによって初期化される。
【0050】
初期化ビデオシステム246は、CPU125(図15)の初期化を開始する。特に、第1のピンポンデータセットが選択される。次に、FPGAは、ビデオフレームをキャプチャするように指示される。次に、四つのイメージ(リファレンスイメージ)は、グレーレベルのリファレンス(R)、エッジリファレンス(GER)およびアーカイブエッジリファレンスが初期化される。次に、FPGAは、これらのデータを処理するように構成される。FPGA出力は、バンク0データベース中へFPGAから取り出される。
【0051】
システムが初期化された後に、システムは、図19〜22の簡単なブロック図に示されるビデオ処理ループで操作する。実施形態において、ビデオ処理ループ250は、次のフレーム入手のステップ252、FPGAデータを取り出すステップ254、全ての特性を算出するステップ214、検出および制御を算出するステップ258、FPGAデータを保存するステップ260、および診断を欠き込むステップ262を含む。
【0052】
ビデオ処理ループ250内で、CPU125のプロセスは、現在のピン/ポンバッファを使用して、データを指し示し、第3のデータベース(ユーザデータ)のバンクUにデータをロードしてアンパックする。このデータは、現在のフレーム上で特性および決定の決定を生成するように後でCPUプロセスにおいて使用される。好ましくは、同時に、CPUプロセスは、FPGAキャプチャおよびFPGA124上のプロセス動作をスタートする。CPUが現在のフレームに関する特性を処理する間、FPGAは、次のフレームに関するイメージデータを計算する。決定および制御動作は、FPGAシリアルI/Oインタフェースを介して外部に安全および起動信号を送信する。CPU特性および検出処理は、FPGA計算よりも長い時間を要する。CPUが現在のフレームを終えるとき、FPGAデータは、反対のバンクに対して取り出される(例えば、処理バンクが0の場合バンクは1)。診断メッセージは、各フレーム処理の終端およびビデオ処理における任意の点において出力され得る。次に、処理は、新しい現在のバンク(バンク0またはバンク1)に対してバンクUを設定するようにループして、FPGAは、再度開始される。
【0053】
図22を参照すると、システムリソース分配法、または本発明によるピン/ポン制御の実施形態の簡単なブロック図が提供される。前述されるように、ビデオ処理システム110は、イメージ処理のためにFPGA124を含む。このことにより、エッジ細分化、モーション細分化、および領域細分化を含む生成したイメージデータ230が生成される。
【0054】
一旦生成したイメージデータ230が生成されると、好ましくは、イメージデータ230は、複数のメモリバンク230a、230bの一つに格納され、次に、特性処理のためにスイッチングを介して提供される。従って、特性処理モジュール214に提供される生成したイメージデータ230は静的である。しかし、FPGA124は、電子ピクセルデータ218を連続的に処理して、処理モジュール214に現在アクセスできないメモリバンクに、スイッチングを介してイメージ処理の結果をロードする。従って、メモリバンク内に生成したイメージデータ230は、ファーストインファーストアウトベースのメモリバンク230a、230b間のスイッチングを介して特性処理モジュールにアクセス可能である。
【0055】
好ましくは、二つのメモリバンク230aおよび230bが提供される。図19に戻ると、次のフレームを得るステップ252は、FPGA124内のイメージ処理モジュール212による電子ピクセルデータ218のキャプチャおよび処理を提供する。特に、制御および状態レジスタ(CSR)は、メモリバンク230aおよび230bの選択、ならびにキャプチャおよびプロセスビットを設定するように使用される。
【0056】
FPGAデータを取り出すステップ254は、全ての特性を算出するステップ256の間に静的データを処理するために、メモリバンク内に静的データを得ることを提供する。特に、一時的な格納レジスタおよびカウンタはリセットされ、静的データは、特性処理モジュール214(図16)によって処理するために、生成されたイメージデータ230を提供するようにアンパックされる。
【0057】
実施形態において、さらに本明細書中で詳細に示されるように、特性処理モジュール214(図16)は、生成されたイメージデータ230(図16)およびパラメータデータ228(図16)に応答して、全ての特性を算出するステップ256を実施する。特に、全ての特性を算出するステップ256は、エッジまたはP特性、モーション特性、影および光ビームまたは領域特性、およびフレーム特性を含む特性データ232(図16)を生成する。
【0058】
さらに、検出処理モジュール216は、特性データ232(図16)およびパラメータデータ228(図16)に応答して検出および制御を算出するステップ258を実施する。特に、フレーム分析の欠陥フラグが評価され、検出ロジックが実行され、リファレンスフレームの更新要求が評価され、自動適応閾値が評価され、モーションリファレンスデータが更新される。
【0059】
FPGAが別のイメージフレームの処理を完成して、データが特性処理モジュール(図16)によって処理できるように準備されていることを指し示すCPU125(図15)への割り込みを提供すると、FPGAデータを保存するステップ260は、かつてFPGA124(図15)を生じる。さらに、所望ならば、CPU125(図15)によって実施される診断を書き込むステップ262は、前のフレームデータの進行をどのように処理するかに関する一つ以上のメッセージをメモリ内に格納し得る。次に、ビデオ処理ループ250は、好ましくは、次のフレームを得るステップ252に連続して戻る。
【0060】
図23を参照すると、図22のピンポンシステムに関する初期化シーケンスの実施形態の簡単なブロック図が示される。実施形態において、ピンポン初期化シーケンス264は、初期化ピンポンアドレスモジュール265、キャプチャビデオバッファモジュール266、キャプチャフレームモジュール267、開始リファレンスモジュール268、プロセスビデオモジュール269、プロセスフレームモジュール270、およびFPGAデータ取り出しモジュール271を含む。
【0061】
図24は、図22のピンポンシステムに関するピンポンループ272の簡単なブロック図を提供する。ループ272の上部はCPUの起動を示し、下部は、シリアルI/OおよびCSRメッセージングに関連したFPGA起動(時間スケールではなく)を示す。
【0062】
図25および26は、自動コントラスト回路(ACC)を有する代替の実施形態におけるピンポン起動(初期化およびビデオループ)の詳細を図示する。ACCを用いて、点灯する状態をゆっくりと変化するためにシステム検出性能を改良し得る。ACCは、イメージ特性基準および時間動的基準に応答してビデオ利得を変化することによってこれをなす。ACCは、過剰な白色飽和を防止する間に利得を最大化する。
【0063】
ACCは、ユーザ入力によってイネーブルされるとき、イメージ結果を繰り返してテストすることによって最良の開始利得を見出すために初期化中に機能する。利得が、確立された基準を満たすことを見出すと、繰り返しは停止して、プロセスは、選択された利得と共にビデオループし続ける。ACCはまた、ビデオループの始まりにおいて機能するが、十分な利得を減少するように繰り返さない。単一の利得変化のみがフレーム毎のループにおいて実施される。利得変化およびビデオシステムの結果の初期化は、フレーム時間(100ms)よりもかなり短い時間を要する。ビデオループにおける利得変化を必要とする決定は、CPU起動の検出および制御の部分において算出される基準によって制御される。その基準は、エージング、ゾーン起動、および長短の時間定常フィルタを含み得る。
【0064】
図27は、図17のシステム初期化に関するゾーン初期化シーケンス240の簡単なブロック図を提供する。ゾーン初期化シーケンス240は、結果として実際の世界の座標におけるゾーンを構築し、制御ゾーンのサブマスクを生成して、制御ゾーンマスクを構成する。図28は、図17のシステム初期化に関する閾値テーブルの初期化シーケンス238の簡単なブロック図を提供する。閾値テーブルの初期化シーケンス238は、結果として、カメラの内因的なパラメータ、解像度モデル、および物体モデルの初期化を生じる。
【0065】
図29(および図48および49を参照する)を参照すると、エッジ検出器301を含む図16の処理システムに関するイメージ処理モジュールの簡単なブロック図が提供される。エッジ検出器301は、好ましくは、改変されたソーベルオペレータモジュール302、正差(positive difference)モジュール304、閾値モジュール306、エロード(erode)モジュール308、およびラベルIモジュール310を含む。
【0066】
実施形態において、改変したソーベルオペレータモジュール302は、現在のイメージ入力312を受信して、現在の入力イメージからエッジイメージ(GEB)314を生成する。CPUにおいて初期化されたリファレンスイメージ(GER)316は、正差オペレータモジュール304における現在のエッジイメージから引かれ、負の値はゼロに設定される。グレーレベルのエッジイメージは、閾値化306、エロード化308、およびラベル化310される。ラベルIオペレータ310の出力は、16ビットラベルイメージ318、等価テーブル320、ならびに使用されたラベルの数322および等価テーブルの数のカウントである。エロードオペレータ308のバイナリ入力324および出力326における設定ピクセルの数のカウントはまた、CPUに対して出力され、エッジイメージ処理を完了する。
【0067】
ラベルIのオペレータ310は、イメージ処理の各スレッドにおいて使用される。ラベルI310は、バイナリ入力の接続されるコンポーネントのラベリングを生成するようにしようされる二つのステッププロセスの第1の部分である。ラベルI310は、イメージの左上から始まるバイナリ入力イメージを介する2×2カーネルを通る。カーネルのエレメントは、次のように識別される。
B C
A X
Xにおけるバイナリピクセルがゼロの場合、出力はゼロになる。Xが設定される場合、ラベルB、A、Cはその次数でスキャンされる。B、A、Cの全てがゼロでない場合、ラベルカウンタの次の値はXで出力され、カウンタは増大される。B、A、Cのいずれかがゼロでない場合、ラベルのオペレータは、第1のゼロでないラベルの値になる。B、A、Cのうち一つ以上がゼロでない場合、第1のゼロでない値が出力される。残りのゼロでないラベルのいずれかが出力値と異なる場合、出力値および異なる値は、等価テーブルに書き込まれる。
【0068】
図30(図48および49を参照する)を参照すると、図16の処理システムに関するイメージ処理モジュールの簡単なブロック図は、領域340を使用するモーション検出器を有する。システム340は、好ましくは、それぞれ現在(B)の入力イメージ(n)および前(A)のイメージ(n−1)の両方に対して正差モジュール342および344、閾値モジュール346および348、ならびに拡張モジュール350および352を含む。出力は、包括的な論理和モジュール354、エロードモジュール356、およびラベルIモジュール358に通される。
【0069】
現在のグレーレベル入力イメージ(B)360および前のイメージ(A)362の正差は、閾値化346および348、拡張化350および352され、Aの正差342およびBの正差344である。その結果は、包括的に論理和をされる(354)。結果としてバイナリイメージは、エッジケース(図29)としてラベル化され、その結果、CPUに通される。
【0070】
グレーレベルのエッジイメージは、閾値化、エロード化356、およびラベル化358される。ラベルIオペレータ358の出力は、16ビットのラベル化されたイメージ364、等価テーブル366であり、使用されたラベルの数368および等価テーブルにおける入力の数のカウントである。エロードオペレータ356のバイナリ入力370および出力372における設定ピクセルの数のカウントは、CPUに出力され、領域を用いて処理するモーション検出器イメージを完了する。
【0071】
ラベルIオペレータ358は、イメージ処理の各スレッドにおいて使用される。ラベルI358は、バイナリ入力の接続されたコンポーネントのラベリングを生成するように使用される二つのステッププロセスの第1の部分である。ラベルI358は、イメージの左上から始まるバイナリ入力イメージ上の2×2カーネルを通す。カーネルの構成要素は、以下のように識別される。
B C
A X
Xにおけるバイナリピクセルがゼロである場合、出力はゼロになる。Xが設定される場合、ラベルB、A、Cはその次数でスキャンされる。B、A、Cの全てがゼロでない場合、ラベルカウンタの次の値はXで出力され、カウンタは増大される。B、A、Cのいずれかがゼロでない場合、ラベルのオペレータは、第1のゼロでないラベルの値になる。B、A、Cのうち一つ以上がゼロでない場合、第1のゼロでない値が出力される。残りのゼロでないラベルのいずれかが出力値と異なる場合、出力値および異なる値は、等価テーブルに書き込まれる。
【0072】
図31(および図48および49を参照する)を参照すると、図16の処理システムに関するイメージ処理モジュールの簡単なブロック図は、影および光ビームの処理に対する領域の分析を有する。システム380は、好ましくは、それぞれ現在(B)の入力イメージ394、およびリファレンス(R)入力396の両方に関して正差モジュール382および384、閾値モジュール386および388、ならびに拡張モジュール390および392を含む。出力は、包括的な論理和モジュール396、エロードモジュール400、およびラベルIモジュール402に通される。ラベルIオペレータ402の出力は、16ビットのラベル化イメージ404、等価テーブル406、および使用されたラベルの数408および等価テーブルにおけるエントリの数のカウントである。エロードオペレータ402のバイナリ入力410および出力412における設定ピクセルの数のカウントはまた、CPUに出力され、領域を用いてモーション検出器イメージ処理を完了する。
【0073】
システムイメージ処理領域の分析検出操作は、すぐに以前のイメージ入力Aを用いる代わりに、それが現在の入力イメージのコピーとしてCPUコマンド上で更新されるリファレンスイメージ396にコールされる前のイメージを用いることを除いて、図30のモーション検出操作に類似する。
【0074】
図32(および図48および49を参照する)を参照すると、図16の処理システムに関するイメージ処理モジュールの簡単なブロック図は、エッジ420を用いるモーション検出器を有する。システム420は、正差モジュール426への入力として現在のエッジイメージ(GEB)422および前のエッジイメージ(GEA)424を得ることを除くと、図29のエッジ検出操作に類似した選択可能な代替のモーション検出イメージ処理操作を示す。GEB422からGEA424を引いた正差は、図19、20、および21のように閾値化428、エロード化430、およびラベル化432される。
【0075】
ラベルIオペレータ432の出力は、16ビットラベル化イメージ434、等価テーブル436、ならびに使用されるラベルの数438および等価テーブルにおけるエントリの数のカウントである。エロードオペレータ430のバイナリ入力440および出力442における設定ピクセルの数のカウントはまた、CPUへ出力され、エッジを使用するモーション検出器を有するシステムイメージ処理を完了する。
【0076】
図33を参照すると、図16の処理システムに関する特性処理モジュール450の簡単なブロック図は、存在、モーション、フレーム、および領域特性の算出に関する。システムデータの処理(全ての特性の算出)は、CPUを取り除くためにFPGAにおいて実施され、所望の処理レートを達成する。
【0077】
存在(P)またはエッジ特性モジュール452ならびに影および光ビーム(SL)または領域特性モジュール458の算出は、エッジ/領域のスコアディスカウントを生成する点でかなり類似している。さらに、P特性452およびSL特性458の算出内で、グローバルな算出は、ゾーン算出に非常に類似している。ゾーン算出は、関連したゾーンマスクを用いる各ゾーンに関する特性算出の空間的なレンジを制限する。PおよびSL特性算出の結果として、検出決定460において使用するデータベース(特性テーブル)に格納される。
【0078】
フレーム特性456は、PおよびSL特性よりも異なって算出される。フレーム特性456は、物体の特性ではなく、入力グレーレベルイメージおよび現在のエッジイメージの特性である。フレームの統計値は、カメラおよびビデオシステムの統合性の状況についての障害を取り出すために計算される。フレームの統計値はまた、順応性の閾値として動作するいくつかの検出可変量を調整するために使用される。三つの欠陥フラグは、算出するフレーム特性モジュール456(照明欠陥フラグ、不明瞭な欠陥フラグ、および半開きの欠陥462)によって設定され得る。これらの欠陥462のそれぞれは、関連した測定基準を介して決定される。照明欠陥は、改変されたカイパー統計値、均一の中心の平均値、およびグレーレベル入力の変化を評価することによって制御される。不明瞭および半開きの欠陥は、現在およびアーカイブのエッジを用いて、カメラおよび/またはビデオシステムが、不明瞭またはノックされた半開きになるかどうかを検出する。
【0079】
システム450は、任意のモーションが任意のゾーンにおいて検出される場合、リファレンスを更新しない。各ゾーンにおいてモーションがあるかどうかを決定するために、ラベル化されたエッジイメージは、ラベル化されたゾーンにおいて非ゼロの数をカウントして、存在P特性モジュール452において算出される。非ゼロピクセルは、モーションピクセルになり、モーションM特性モジュール454において算出される。システム450は、各ゾーンにおけるゾーンモーションピクセルがゼロ(0)よりも大きいかどうかを検証するために、モーションのラベル化されたイメージにおける非ゼロピクセルをカウントする。システム450は、そのカウントにおける蓄積に対するゾーン検出マスクにおいて非ゼロピクセルをカウントする。
【0080】
図34を参照すると、図33の特性生成システム470の簡単なブロック図は、ラベルモジュール472、算出するグローバル存在特性モジュール474、および算出するゾーン存在特性モジュール476を有する。
【0081】
ラベルモジュール472は、ラベル化されたエッジイメージ478、等価テーブル480、ならびにラベルおよびコンフリクトカウント482の形式における存在入力を受信する。ラベルモジュール472は、領域内のピクセルラベル付けの矛盾を決定して、領域の数とラベルとを置換して、エリアコールをして、連続したインデックスと領域とをリナンバリングして、ならびに、さらに領域を再インデックス付けして、算出するグローバル存在特性モデル474に対して領域および領域のイメージの数に関連したデータを通す。
【0082】
算出するグローバル存在特性モデル474は、領域イメージ484、領域486の数、現在のエッジ(GEB)488を用いて、グローバル特性テーブルを作成する。グローバル特性テーブルは、第1に初期化され、領域は、エリア、平均グレーレベル強度、ヒストグラム、および図心についてラベル付けされる。次に、領域は、グレーレベルおよび図心の分散に関して再算出され、領域内のピクセルの特性(グローバル、セーフティ、...)をリスト化する。
【0083】
算出するP特性ゾーンモジュール476は、上述の領域イメージ484、領域の数486、現在のエッジ(GEB)488を要して、ゾーンマスクおよび矩形490を用いてゾーン特性テーブルを作成する。システム470は、セーフティゾーン、二次セーフティゾーン、ドアゾーン、第1の動作ゾーン、第2の動作ゾーン、第1のガードゾーン、および第2のガードゾーンにおける検出を算出することによってゾーンのモーションを決定する。
【0084】
図35を参照すると、図34の算出する存在(エッジ)特性システムの簡単なブロック図がグローバル存在特性モジュールを算出する。
【0085】
グローバルP特性は、特性テーブル502のエッジカウントを初期化することによってまず算出される。イメージのグローバルな範囲は、イメージの第1のパスモジュール504において算出される。エリア、図心、平均値、ヒストグラム、およびエッジカウントは蓄積され、イメージの第2のパスモジュール506に通して、第2の図心モーメントおよび変化量は蓄積される。特性テーブルパスモジュール508は、領域の広がり、伸長、方向、および楕円形状を含む生成された特性を算出する。算出する領域スコアモジュール510は、ドアの拒絶(rejection)、エッジ形状抑制、およびエッジグレーレベル抑制を決定する。スコアは、領域のグレーレベル変化量から生じて、ディスカウントは、スコアに適応される。領域のスコアが算出される510後、次の領域は、特性テーブルパスモジュール508の算出を介してループされる。
【0086】
図36を参照すると、図34の算出する存在特性システムの簡単なブロック図がゾーン存在特性を算出する。
【0087】
ゾーン存在P特性は、特性テーブル522のゾーンカウントを初期化することによってまず算出される。ゾーンのグローバル範囲は、ゾーンの第1のパスモジュール524において算出される。ゾーンは、ピクセルが選択されたゾーンマスクにあるかどうかを決定するように算出される。エリア、図心、平均値、およびヒストグラムはまた蓄積され、イメージの第2のパスモジュール526を通されて、第2の中心モーメントおよび変化量が蓄積される。特性テーブルパスモジュール528は、領域の広がり、伸長、方向、および楕円形状を含む生成された特性を算出する。算出する領域のスコアモジュール530は、ドアの拒絶、エリア比率抑制、エッジ形状抑制、およびエッジグレーレベル抑制を決定する。領域のスコアが算出される530後、次の領域は、特性テーブルパスモジュール528の算出を介してループされる。
【0088】
図37を参照すると、図33の特性生成システム540の簡単なブロック図は、ラベルモジュール、算出するグローバル影および光ビーム(SL)特性モジュール、および算出する影および光ビームゾーン特性モジュールを有する。
【0089】
ラベルモジュール542は、ラベル付けされたエッジ544、等価テーブル546、およびラベルおよびコンフリクトカウント548という形で存在入力を受信する。ラベルモジュール542は、領域内のコンフリクトをラベル付けするピクセルを決定して、領域の数とラベルとを置換して、エリアコールして、連続したインデックスと領域とをリナンバリングして、ならびに、さらに領域を再インデックス付けして、算出するグローバル存在特性モデル550に対して領域および領域のイメージの数に関連したデータを通す。
【0090】
算出するグローバル存在特性モデル550は、領域イメージ552、領域の数554、および現在の差分イメージを用いて、グローバル特性テーブルを作成する。グローバル特性テーブルはまず初期化され、領域は、エリア、平均グレーレベル強度、ヒストグラム、および図心についてラベル化される。次に、領域イメージは、グレーレベルの分散および図心の第2の移動に関して再算出され、領域内のイメージの形状特性をリスト化する。
【0091】
算出するSL特性ゾーンモジュール558は、上述の領域イメージ552、領域の数554、現在のエッジ(GEB)560を得て、ゾーンマスクおよび矩形562を用いてゾーン特性テーブルを作成する。システム540は、セーフティゾーン、二次セーフティゾーン、ドアゾーン、第1の起動ゾーン、第2の起動ゾーン、第1のガードゾーン、および第2のガードゾーンにおける検出を算出することによってゾーンにおけるモーションを決定する。
【0092】
図38を参照すると、図37の算出する影および光ビーム領域特性570システムの簡単なブロック図がグローバルな影および光ビーム(SL)特性を算出する。
【0093】
グローバルなSL特性は、特性テーブル572のエッジカウントを初期化することによってまず算出される。イメージのグローバルな範囲は、イメージの第1のパスモジュール574において算出される。エリア、図心、平均値、ヒストグラム、およびエッジカウントは、蓄積され、イメージの第2のパスモジュール576を通して、第2の中心モーメントおよび分散が蓄積される。特性テーブルパスモジュール578は、改変されたニッパ(kniper)統計値ならびにマッピングされた平均値および変化量の広がり、伸長、方向、楕円形状のファクタを含む生成された特性を算出する。算出する領域スコアモジュール580は、影および光ビームディスカウント、形状ディスカウント、およびエリアディスカウントからの領域抑制ならびに過渡抑制と共にSLスコアを決定する。領域スコアが算出される580後、次の領域は、特性テーブルパスモジュール578の算出を介してループされる。
【0094】
図39を参照すると、図37の算出する影および光ビーム領域特性590の簡単なブロック図が影および光ビーム(SL)ゾーン特性を算出する。
【0095】
ゾーンSL特性は、特性テーブル592のゾーンカウントを初期化することによってまず算出される。ゾーンのグローバルな範囲は、ゾーンの第1のパスモジュール594において算出される。ゾーンは、ピクセルまたはゾーンの矩形が選択されたゾーンマスクにあるかどうかを決定するように算出される。エリア、図心、平均値、およびヒストグラムはまた、蓄積され、イメージの第2のパスモジュール596を通して、第2の中心モーメントおよび変化量が蓄積される。特性テーブルパスモジュール598は、広がり、伸長、方向、楕円形状のファクタ、改変されたニッパ統計値、ならびにマッピングされた平均値および領域の変化量を含む生成された特性を算出する。算出する領域のスコアモジュール600は、影および光ビームディスカウント、形状ディスカウント、およびエリアディスカウントからの領域抑制ならびに過渡抑制と共にSLスコアを決定する。領域スコアが算出される600後、次の領域は、特性テーブルパスモジュール598の算出を介してループされる。
【0096】
図40は、図16の処理システム(詳細には、特性処理モジュール214)に対する分割ヒストグラムグレーレベル分析700の簡単なブロック図を提供する。実施形態において、分割ヒストグラムグレーレベル分析700は、領域特性の決定において支援するように提供され得る。
【0097】
図41は、図33の特性生成システム750の簡単なブロック図を提供して、フレーム特性を算出する。システム750は、フレーム分析初期化モジュール752、計算するフレーム統計値モジュール754、解釈するフレーム照明測定基準モジュール756、解釈する不明瞭な測定基準モジュール758、解釈する半開きの測定基準モジュール760、および更新するFAフィルタ762を含む。
【0098】
図42は、図16の情報処理モジュールの簡単なブロック図であり、生成された特性からの物体の存在を検出する。検出シーケンスは、評価する欠陥フラグモジュール800、評価するリファレンス更新モジュール802、自動適用閾値モジュール804、更新フレーム分析データモジュール806、および更新モーションリファレンスモジュール808を含む。
【0099】
図43は、図16の情報処理モジュールの簡単なブロック図であり、リファレンスイメージを評価して、更新する。評価するリファレンス更新シーケンスは、ゾーンモーション検出モジュール822、更新する更新カウンタモジュール824、決定する標準更新モジュール826、決定するアーカイブ更新モジュール828、決定する利得変化モジュール830、および決定するラーンアウト(learn−out)モジュール832を含む。
【0100】
図44は、図16の情報処理モジュールの簡単なブロック図であり、視野からの背景値の変化に関連した閾値を変化する。自動適用閾値のシーケンスは、初期化SL閾値のエッジ閾値840、算出するゾーン統計値モジュール842、算出するゾーンの測定基準モジュール844、および適用する測定基準モジュール846を含む。
【0101】
図45は、図16の情報処理モジュールの簡単なブロック図であり、検出された物体におけるエッジおよびゾーンデータの幾何学的な関連性を決定する。シーケンスは、初期化モジュール850、それぞれ制限されたエッジ領域に関するアプリケーション852、特定の領域に関する初期化に関するアプリケーション854、および矩形に境界をつける横断領域856を含む。次に、シーケンスは図46に続く。
【0102】
図46は、図16の情報処理モジュールの簡単なブロック図の図45の継続であり、検出された物体におけるゾーンの交点を決定するためにテスト領域のエッジを含む。シーケンスは、テストエッジ領域/ゾーンの交点のモジュール862、864を含み、テスト領域/モーション/ゾーンの交点モジュール866を含む。
【0103】
図47は、図16の情報処理モジュールの簡単なブロック図の図46の継続であり、検出された物体のゾーン交点を決定するためにゾーンの領域スコアを評価することを含む。シーケンスは、評価する領域スコアモジュール872、874、設定する生成されたフラグ更新カウンタ/ヒストグラムモジュール876、ならびに更新上部検出スコアおよびセーフティゾーンラッチモジュール878を含む。
【0104】
実施形態において、自動ドア制御およびセーフティシステムは、名目上の光学的に感知される物体の状況およびドアに近い環境を解釈するロジックに従ってドアの動きを制御することが提供される。システムは、所望の感知エリアのイメージを生成するために適切なレンズに一致したカメラセンサのサブシステムを用いる。カメラのサブシステムによって作成されるデジタルイメージは、所望のドア制御をもたらす特有の決定ロジックを駆動するように使用されるデータを展開するために処理サブシステムにおいて処理するイメージを用いて処理される。従って、ドア制御は、イメージコンテンツのコンピュータ解釈によってもたらされる。
【0105】
実施形態において、処理する視点から、システムは、いくつかの処理段階、1)イメージ形成、2)イメージ調整、3)イメージ処理、4)イメージコンテンツ処理、5)生成されたデータ処理、6)データ解釈処理、および7)制御ロジック処理を取り入れる。
【0106】
ドア制御およびセーフティシステムは、カメラのサブシステム、およびデジタル信号処理デバイスによって補強され得る、一般的な目的のプロセッササブシステムを含むようにハードウェア要素によって支援される。カメラサブシステムは、レンズシステム、電荷結合素子のイメージングデバイス、増幅器、およびアナログ−デジタル変換器素子を含み得る。これらの素子は、一般に、ホームコンピュータのアプリケーションにおいて共に見出され得る。例えば、このアプリケーションは、多様な目的に関してキャプチャおよび格納のためにコンピュータスクリーン上にデジタルイメージを生成するためにデジタルカメラとのインタフェースをとる。
【0107】
システムは、イメージ処理オペレータの選択、アルゴリズムにおいて実施される、その後に続く生成されたデータ処理および解釈を用いる。選択されたイメージ処理オペレータおよびイメージコンテンツ処理は、カメラの視野内の物体によって示される光学現象を介して生成される。イメージ処理は、レンズおよびカメラの実装ジオメトリを介して決定されるシーンのアレイ表示において含まれる数で動作する。このイメージ処理は、イメージ処理の結果になる数の内部アレイを作成して、イメージ処理操作のシーケンスを形成するその結果生じた操作によって使用される。システムの実施形態において、イメージフィールド全体が処理される。さらに、イメージフィールド全体のサブセットを選択する目的に関する予測された物体の特性に一致するように設計される任意の処理素子を展開するために使用される対象の物体についての事前の仮定がない。
【0108】
イメージ処理シーケンスの開始点において、イメージ処理は、シーンの新しい入力イメージを承認する(この入力イメージは、継続中のイメージデジタル化ストリームの単一時間サンプル(「フレーム」)である)。新しくキャプチャされたイメージフレーム(「背景」イメージ)に対する比較のために前のイメージフレームを維持するために格納される。この格納されたイメージフレームは、新しいフレームと同様の方法でキャプチャされ、詳細には、一つ以上のフレームの平均ではなく、単一のイメージングフレームである。
【0109】
実施形態において、各新しいイメージフレームは、メジアンフィルタを用いてスペックルノイズを除去するためにフィルタリングされる。メジアンフィルタは、平均化するようにイメージをぼかすのではなく、分離したノイズを除去する。このような分離ノイズは、イメージング感知ノイズ、ダウンストリーム電子ノイズ、または環境的に生成されたシンチレーションの原因になり得る。比較のために格納されたイメージは、現在のイメージになるように、メジアンフィルタと共にこのイメージをフィルタリングされる。メジアンフィルタは、イメージアレイにおいて全てのピクセルを介して通される3×3フィルタカーネルとして解釈され得る。カーネルの中央における値は、新しいイメージアレイに置かれ、その値は、フィルタカーネルの9の数のメジアンになる。
【0110】
イメージのフィルタリング後、二つの新しいイメージアレイは生成される(すなわち、図52および53)。第1の新しいイメージアレイ(図52)は、現在のイメージから背景イメージを引いたピクセル毎の差(「正のコントラスト」)として決定される。第2の新しいイメージアレイ(図53)は、背景イメージから現在のイメージを引いたピクセル毎の差(「負のコントラスト」)として決定される。イメージは、8ビットのアレイの数として維持され、差の値が255よりも大きいか、または0よりも小さいとき、その結果、値は短縮される。
【0111】
差分後であっても、イメージは8ビットの値を含む(複数のビットレベルを有するイメージは、一般に、グレースケールイメージとして言及される)。イメージの差分後、閾値化オペレータは、結果として正負のコントラストのグレースケールイメージのそれぞれに適用される。二つのイメージに適用される閾値は、異なり得る。値は、固定されるか、または適応され得る。ここで、ダウンストリームのイメージ解釈の結果に基づいて変化がなされる。ピクセル毎に閾値化操作は、二つの新しいイメージを作成する。各イメージに関して、入力イメージにおけるグレーレベルが、関連した閾値を越えるとき、出力するイメージアレイに「1」が置かれ、そうでなければ「0」が置かれる。従って、閾値化操作の結果は、二つの「バイナリ」イメージになる。
【0112】
図54および55を参照すると、数学的な形態学の選択バイナリイメージング処理技術は、ダウンストリームのイメージ解釈を容易にするようにバイナリイメージに適用される。実施形態において、オペレータは、有効になり得るより大きな領域の「連結性」を改良する間に、有効な物体からなされ得る分離したバイナリ領域を除去するように選択される。形状のフィルタリングとして言及されるように、二つのバイナリイメージのそれぞれは、フィルタカーネル操作が、メジアン操作ではなく、最小の操作に続いて最大のオペレータであることを除いて、メジアンフィルタ機構(3×3の空間的なカーネル)に類似してフィルタリングされる。そのようなフィルタは、バイナリ完了(closing)または「終結(close)」として言及される。「終結」は、「エロージョン(erosion)」に続く「拡張(dilation)」である。「拡張」はカーネル上の最大操作であり、「エロージョン」は最小操作である。
【0113】
図56を参照すると、二つの終結したバイナリイメージ(図54および55)は、入力イメージに関する正負両方のコントラストの差の合成バイナリイメージ表示を生成するためにピクセル毎に論理的に論理和化される。
【0114】
図57を参照すると、接続された構成要素のアルゴリズムは、合成バイナリ論理和イメージ(図56)に適用される。このアルゴリズムは、イメージにおいて接続されたバイナリ領域全てを識別する。接続される領域は、一つである。ここで、全ての構成するピクセルが他の構成するピクセルの少なくとも一つと隣接する。接続される構成要素のアルゴリズムは、各領域をラベル付けして、各領域の生成された特性を含むデータベースを構築する。実施形態において、特性は、領域エリア、境界矩形、環状、楕円形の長軸および短軸の長さ、および周囲長を含み得る。領域特性データは、関心のある領域を選択するように処理される。領域は、視野における物体の存在の直接的な結果である。総イメージフィールドのサブイメージ領域のオペレータ選択は、物体に関連した領域を選択することに含まれず、領域は、物体によって決定される。
【0115】
イメージコンテンツのデータベース表示と共に、各領域の特性は、制御ロジックの決定を発展するように解釈のロジックによって考慮される。実施形態において、解釈のロジックは、「イフゼンエルス(if−then−else)」構造のセットとしてインプリメントされ、イメージコンテンツ解釈を決定するために基本の領域特性の算術の組み合わせを利用し得る。例えば、生じる領域を用いて、関心の物体の存在を推測して、領域の図心および境界を示す矩形がその物体の位置を決定する(境界を示す矩形は、領域に属する全てのピクセルを含む最も小さい矩形である)。
【0116】
実施形態において、オペレータは、イメージの視野の矩形領域を定義して、特有の制御動作に関するエリアを決定し得る。興味のあるコンピュータにより生成された物体領域の境界を示す矩形の座標は、続いて制御ロジック結果を決定するためにオペレータに決定された決定領域の座標に比較される。物体がセーフティゾーンにあるように示される場合、例えば、制御ロジックは、セーフティゾーンが明瞭になるまで、ドアが開いたままであることを示す。同様に、物体が起動ゾーンにあるように決定される場合(バイナリ領域の境界を示す、イメージ物体の矩形表示は、起動ゾーンの決定矩形に交差する)、次に、ドアを開くために信号が送信される。実施形態において、制御ロジックの目的に関するオペレータによって選択されるイメージ領域は、イメージコンテンツを決定するためにイメージ全体のイメージ処理を利用するか、あるいはイメージ全体のイメージ処理に影響を与えるために、決して使用されない。
【0117】
特有の実施形態が示され、説明されてきたが、多くの変更が、本発明の意図から極めて逸脱することなく考慮され、保護の範囲は、上掲の特許請求の範囲によってのみ限定される。
【図面の簡単な説明】
【図1】
図1は、本発明によるセンサおよびイメージングシステムの実施形態のブロック図である。
【図2】
図2は、本発明によるセンサおよびイメージングシステムの別の実施形態のブロック図であり、一対のセンサ/イメージング回路にそれぞれ接続される一対のカメラアセンブリを有する。
【図3】
図3は、図2のカメラアセンブリに近接に取り付けられた、カメラアセンブリを有する閉じられたドアの立面図である。
【図4】
図4は、ドアが開いていることを除く図3の類似図である。
【図5】
図5は、図3のドア上部のヘッダに取り付ける、図2のカメラアセンブリの一つの部分的なアセンブリの透視図である。
【図6】
図6は、図5のカメラアセンブリの断面図である。
【図7】
図7は、図5のカメラハウジングアセンブリのウィンドウに取り付けられたヒーターアセンブリの平面図である。
【図8】
図8は、図7の平面A−Aにそって得られるヒーターアセンブリの断面図である。
【図9】
図9は、図2のビデオプロセッサの一つに接続された図8のカメラアセンブリ内のカメラの簡略図である。
【図10】
図10は、図3および4のドアの片側の上面透視図であり、図2のカメラアセンブリの一つは、ドアの正面のエリアを含む視野を有する。
【図11】
図11は、物体がカメラアセンブリから離れて置かれるように、図10ないの視野のピクセル密度のグラフィカル図である。
【図12】
図12は、一実施形態において、図2のメンブレンキーパッドを用いるユーザによって選択され得る複数のセーフティゾーン構成を提供する。
【図13】
図13は、図2において示されるメンブレンキーパッドの実施形態の平面図である。
【図14】
図14は、図13のメンブレンキーボードパッドを用いるゾーン位置決め方法の平面図である。
【図15】
図15は、フィールドプログラム可能なゲートアレイ(FPGA)および中央演算処理装置(CPU)を有する、図2のオブジェクトセンサ/イメージング回路の一つの簡単なブロック図である。
【図16】
図16は、図15のFPGA内のイメージ処理モジュールを有する、本発明による処理システムの上部レベルの簡単なブロック図であり、特性処理モジュールは図15のCPUによって実行され、検出処理モジュールは図15のCPUによって実行される。
【図17】
図17は、入力パラメータを初期化して、関連のある導出されたパラメータを計算し、検出閾値表を初期化し、および検出および特性計算ゾーンを初期化するための、図16の処理システムの初期化シーケンスの簡単なブロック図である。
【図18】
図18は、FPGAシリアル入力/出力ボードを介してユーザ入力データからFPGAイメージ処理閾値およびビデオデジタイザ設定を初期化して、特性および検出処理システムを初期化するための、図16の処理システムの初期化シーケンスの簡単なブロック図である。
【図19】
図19は、ユーザデータにリファレンスイメージを示し、ロードし、かつアンパックするためのピンポンバッファを利用する、図16処理システムのビデオループ処理シーケンスの簡単なブロック図である。
【図20】
図20は、現在のイメージフレーム上の特性および検出決定を生成するための、CPUのユーザデータ利用する、図16の処理システムのビデオループ処理シーケンスの簡単なブロック図である。
【図21】
図21は、各フレーム処理の終了およびビデオ処理における任意の点において出力された診断メッセージを有する、図16の処理システムのビデオループ処理シーケンスの簡単なブロック図である。
【図22】
図22は、本発明によるピンポンシステムの簡単なブロック図である。
【図23】
図23は、図22に示されるピンポンシステムの初期化の簡単なブロック図である。
【図24】
図24は、図22のピンポンシステムのピンポン処理ループの簡単なブロック図である。
【図25】
図25は、イメージ特性基準および時間ダイナミック基準に応答してビデオ利得を変化するための、図16の処理システムの自動コントラスト補正の簡単なブロック図である。
【図26】
図26は、イメージ特性基準および時間ダイナミック基準に応答してビデオ利得を変化するための、図16の処理システムのビデオループにおける自動コントラスト補正の簡単なブロック図である。
【図27】
図27は、実際の世界座標におけるゾーンを構築し、ゾーンマスクを生成し、かつゾーンマスクを構成するための、図17のシステム初期化のゾーン初期化シーケンスの簡単なブロック図である。
【図28】
図28は、初期化カメラ固有のパラメータモジュール、解像度モデルモジュール、および物体モデルモジュールを有する、図17のシステム初期化のゾーン初期化シーケンスの簡単なブロック図である。
【図29】
図29は、エッジ検出器を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図30】
図30は、領域を用いるモーション検出器を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図31】
図31は、影および光ビーム処理の領域分析を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図32】
図32は、エッジを用いるモーション検出器を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図33】
図33は、存在、モーション、フレーム、および領域特性を計算する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図34】
図34は、ラベルモジュール、グローバル存在特性を計算するモジュール、およびゾーン存在特性を計算するモジュールを有する、図33の特性生成システムの簡単なブロック図である。
【図35】
図35は、グローバル存在特性を計算する、図34の存在特性を計算するシステムの簡単なブロック図である。
【図36】
図36は、ゾーン存在特性を計算する、図34の存在特性を計算するシステムの簡単なブロック図である。
【図37】
図37は、ラベルモジュール、グローバルな影および光ビーム特性を計算するモジュール、および影および光ビームゾーン特性を計算するモジュールを有する、図33の特性生成システムの簡単なブロック図である。
【図38】
図38は、グローバルな影および光ビーム特性を計算する、図37の影および光ビーム領域特性システムの簡単なブロック図である。
【図39】
図39は、影および光ビームゾーン特性を計算する、図37の影および光ビーム領域特性を計算するシステムの簡単なブロック図である。
【図40】
図40は、図16の処理システムのスプリットヒストグラムグレーレベル分析の簡単なブロック図である。
【図41】
図41は、フレーム特性を計算する、図33の特性生成システムの簡単なブロック図である。
【図42】
図42は、生成された特性から物体の存在を検出する、図16の情報処理モジュールの簡単なブロック図である。
【図43】
図43は、リファレンスイメージを評価して、更新する、図16の情報処理モジュールの簡単なブロック図である。
【図44】
図44は、視野から背景値に変えることに関連して閾値を変化する、図16の情報処理モジュールの簡単なブロック図である。
【図45】
図45は、検出されたオブジェクトのエッジおよびゾーンデータの幾何学的な関連性を決定する、図16の情報処理モジュールの簡単なブロック図である。
【図46】
図46は、図16の情報処理モジュールの簡単なブロック図の図45の続きであり、検出された物体のゾーン交点を決定するために領域エッジをテストすることを含む。
【図47】
図47は、図16の情報処理モジュールの簡単なブロック図の図46の続きであり、検出された物体のゾーン交点を決定するためにゾーンの領域スコアを評価することを含む。
【図48】
図48は、多様なイメージ操作を定義するための表である。
【図49】
図49は、多様なイメージ操作を定義するための表である。
【図50】
図50は、背景またはリファレンスイメージを表す例である。
【図51】
図51は、現在のイメージであることを除けば図50に類似し、ここで物体は視野内に入っている。
【図52】
図52は、図51における現在のイメージから、図50のリファレンスイメージを差し引くことによる差分である。
【図53】
図53は、図50におけるリファレンスイメージから、図51の現在のイメージを差し引くことによる差分である。
【図54】
図54は、図52における閾値化および形状フィルタリング後に生じるイメージである。
【図55】
図55は、図53におけるイメージの閾値化および形状フィルタリング後に生じるイメージである。
【図56】
図56は、図54および55におけるイメージ上の論理的な論理和演算を終えた後に生じるイメージである。
【図57】
図57は、図56のイメージ内の領域が分類化のためのラベリングを除けば、図56との類似図である。
(関連出願)
本出願は、米国仮特許出願第60/229,613号(出願日2000年8月31日)の利益の権利を主張し、本明細書中に参考として援用する。
【0002】
(技術分野)
本発明は、センサおよびイメージングシステムに関して、より詳細には、イメージデータを提供し、解釈するためのシステムに関する。
【0003】
(発明の背景)
センサおよびイメージングシステムは、今日の技術が促進した経済において需要が増している。これらのシステムは、視野内に含まれる物体を見るためのカメラを含む。このカメラは、検出された物体があった場合、それに応答してどんな動作を取るべきかを決定するためにコンピュータによって分析されるイメージデータを生成する。
【0004】
ある視野内に含まれる物体を見るために、多くの認識システムでは、二つ以上のカメラを用いる。数個のカメラを用いることによるコストに加えて、これらのシステムは、それぞれのカメラに対する特殊な取り付け配置を必要とする。このようなシステムでは、両方のカメラが、適切な操作のために必要とされるので、単一のカメラを介した場合の信頼性のレベルは減少している。
【0005】
単一のカメラシステムは、典型的に、固定された位置で取り付けられ、所定の基準を満たすか、または満たさない物体を探索する。例えば、構造的な欠陥をチェックするシステムである。これらのシステムは、既に特定化されていない決定をすることができない。
【0006】
従って、カメラによって提供されるイメージを用いることによって、条件が満たされたかどうかを決定し得るセンサおよびイメージングシステムに対しての必要性がある。
【0007】
(発明の要旨)
本発明による実施形態において、システムは、カメラ、プロセッサ、およびユーザインタフェースを有して提供される。カメラは、視野内のシーンに応じたイメージデータをプロセッサに転送する。イメージデータに応答して、プロセッサは、条件が満たされたかどうかを示す。ユーザインタフェースは、プロセッサに動作上接続可能である。ユーザインタフェースにより、ユーザは、物体の方向と、選択された基準の表示と、物体が検出されたことの視覚確認とを提供する基準を選択することが可能になる。
【0008】
別の実施形態において、他のデバイスに影響をもたらす制御インタフェースがさらに提供される。さらに、システムは、他のデバイスに影響する信号を提供する。
【0009】
さらに別の実施形態において、システムは、条件が満たされたというプロセッサによる決定と同時にドアを開くための信号を提供する。次にこのドアは、ドアに接続可能な駆動モーターを有する従来のエレクトロメカニカルドアオープナー(opener)システムによって開けられる。
【0010】
本発明の他の特性および利点は、添付の図面と共に得られる以下の詳細から明白になる。
【0011】
(好適な実施形態の詳細な説明)
本発明は、多くの異なる形式の実施形態を可能として、図面に示され、本発明の開示が本発明の原理の例示として考慮されるべきであり、本発明の広い局面が図示された実施形態に限定されることを意図しないことを理解すると共に本発明の詳細な好適な実施形態に記載される。
【0012】
図1を参照すると、本発明によるシステムの実施形態のブロック図が示される。システム10は、イメージ分析12、現在の方向14、センサ技術16、電子回路18、デバイス制御20、カメラのポーズ22、カメラ技術24、イメージ分析26、および市場アプリケーション28に方向付けられた局面を含む。
【0013】
図2を参照すると、本発明によるシステムの別の実施形態の簡単な図が記載される。システム110は、一組のセンサ回路114/イメージング回路115にそれぞれ接続可能である一組のカメラアセンブリ112、113を含む。センサ回路114/イメージング回路115は、キーパッド118に接続されたI/Oディスプレイボード116に接続可能である。さらなる実施形態において、システム110は、ドア121に接続可能な駆動モータ119を有するエレクトロメカニカルオープナーシステム117を含み得る(図3および4)。
【0014】
カメラアセンブリ112および113は、好ましくは、広角レンズを有する電荷結合素子(CCD)などを含み、センサ回路114/イメージング回路115それぞれにイメージデータを転送することが可能である。イメージデータは、それぞれ、各カメラの視野内のシーンに対応する。
【0015】
センサ回路114/イメージング回路115は、ユーザが選択した条件を満たすかどうかを決定するためのイメージデータを処理する。ユーザが選択した条件は、I/O表示ボード116およびメンブレンキーパッド118を含むマンマシンインタフェースを介して選択される。実施形態において、マンマシンインタフェースは、センサ回路114/イメージング回路115に動作上接続可能である。マンマシンインタフェースにより、ユーザは、物体の方向、選択された基準の表示、および物体が検出されたことの視覚確認の提供に対する基準を選択することを可能にする。
【0016】
図3は、ドア121によって閉じられる出入り口120の断面正面図を提供する。図2のカメラアセンブリ112、113は、出入り口120に近接して、逆向きの側面上に取り付けられる。従って、カメラアセンブリ112および113は、それぞれ、出入り口の向き合った側面に視野122および123を有する。好ましくは、ドア121が図4に示されるように開かれると、少なくとも一つのカメラアセンブリの視野は、出入り口120を含む。さらに、視野122および123は、出入り口120について重なり合う。
【0017】
図5を参照すると、図3のドア121の上のヘッダーに取り付ける図2のカメラアセンブリ112、113の一つの透視部分アセンブリ図が示される。カメラアセンブリは、ウィンドウ132を有するハウジングアセンブリ131を含む。図6は、図5のカメラアセンブリの断面図を提供する。ハウジングアセンブリ131内に、視野136を有するカメラ134およびヒーターアセンブリ140が取り付けられる。さらなる実施形態において、電源供給(図示せず)は、カメラ134に電力を供給するためにヒーターアセンブリ内に取り付けられ得る。
【0018】
図7および8はそれぞれ、ヒーターアセンブリ140の平面図および断面図を提供する。実施形態において、ヒーターアセンブリ140は、好適には鋳物などで作られる、カメラアセンブリハウジング131のウィンドウ132に隣接し、1対の伝導性端子144、145間に挟まれたセラミックレジスタ142を含む。セラミックレジスタ142は、典型的に、リング形状であり、PTCR(ポジティブ温度係数または抵抗)またはPTC効果として一般に言及されるものを示す材料から構成される。同様に、伝導性端子144、145は、典型的に、リング形状であり、電気的かつ熱的に伝導性材料(例えば、銅)から構成される。
【0019】
一実施形態において、環状のアパーチャ146は、セラミックレジスタ142および伝導性端子144、145の軸を介して伸びる。アパーチャ146は、実質的に、同一の外周を有し、同軸に、互いに整列される。
【0020】
好適には、伝導性端子145の外周148は、そこから外側に伸びる複数のイアー150を含む。各イアー150を経て伸びることは、それ故、取り付けネジ154を伸びるためのアパーチャ152である(図9)。
【0021】
図9を参照すると、ヒーターアセンブリ140は、カメラアセンブリのハウジング131内に取り付けられる。前述したように、取り付けネジ154は、ヒーターアセンブリ140の伝導性端子145を取り付け表面、あるいはハウジング131に内部まで伸びる取り付けポスト156に結合し、完全にそれらに取り付けられる。
【0022】
カメラアセンブリハウジング131は、アパーチャ158を含む。アパーチャ158により、カメラの視野136は、ハウジングの外側に延長することが可能になる。ウィンドウ132は、アパーチャ158の上に取り付けられ、混入物(例えば、ほこりおよび水分)がカメラアセンブリに入ることを防止する。
【0023】
好適には、ウィンドウ132は、ヒーターアセンブリ140の熱的な伝導性端子リング145と弾性材料から作られ、カメラアセンブリハウジング131の内部表面に対して隣接する環状ガスケット160との間に挟まれ、アパーチャ158の周りのカメラアセンブリハウジング131の内部表面162に対して隣接している。実施形態において、ウィンドウ132は、視覚的に透明な材料(例えば、ホウケイ酸ガラス)で作られる。
【0024】
カメラ134は、カメラの視野136において得られるものを表すイメージデータまたは電子ピクセルデータ218を生成する。実施形態において、イメージングデータ218は、カメラの視野136において検出された物体があった場合、それに応答してどんな動作が取られるべきかを決定するためにビデオプロセッサ114、115(図2)のいずれかによって分析される。
【0025】
カメラアセンブリハウジング131内において、ヒーターアセンブリ140の端子144、145は、セラミックレジスタ142を横切る電位を維持するために電圧ソース166に結合される。電流がセラミックレジスタ142を流れるときにセラミックレジスタ142によって生成される熱は、伝導性端子145を介して、ウィンドウ132上に分散される。実施形態において、十分な熱は、カメラアセンブリハウジング131の外気の露点を上回る温度でウィンドウ132を維持するように提供される。例えば、ヒーターは、約87°Fで駆動し、約106°Fで動作を停止する。
【0026】
当業者にとって明白であるように、セラミックレジスタ142の使用は、レジスタ材料がポジティブ温度係数を示すので、メカニカルサーモスタットまたはそのような類似物に対する必要性を除外する。サーモスタットの除外は、ヒーターの信頼性を増して、スイッチングの結果として生じる電圧供給に乗るノイズ量を減少する。
【0027】
図2に戻ると、実施形態において、カメラアセンブリ112、113は、視野を照らすために発光源(図示せず)(例えば、光電球、あるいは可視光または非可視光内の発光ダイオードなど)を含み得る。カメラアセンブリ112、113の出力は、移動可能に結合されたディスプレイ(図示せず)によって受信され得る。カメラアセンブリ112、113の出力によって、ユーザは、各カメラアセンブリの視野が適切に構成されるというチェックを見ることが可能になる。
【0028】
図10を参照すると、図3および4のドア121の片側の上面透視図が提供される。図2のカメラアセンブリの一つ(特にカメラアセンブリ112)は、ドアの前面の領域を含む視野122を有する。カメラアセンブリ112は、イメージングデータをビデオプロセッサ114(図2)に提供する。実施形態において、ビデオプロセッサ114は、安全ゾーン168、および、所望ならば一つ以上の活性ゾーン170を重ね合わせる。好適には、物体が安全ゾーン168内であることを、ビデオプロセッサ114、115のいずれかによって検出されると、ドア121は、物体が安全ゾーン168を外れるまで、開かれたままになる。さらに、物体が活性ゾーン168に入ることを、ビデオプロセッサ114、115のいずれかによって検出されると、物体が活性ゾーン内の移動を止めるか、活性ゾーンを離れた後に、ドア121は、開かれたままになる。
【0029】
好ましくは、安全ゾーン168は、ドア121をすぐに取り囲む領域に維持され、人または物体がドアのすぐ近くにあるときに、ドアが閉じることを防止する。さらに、活性ゾーン(単数または複数)168は、人または車両がドア121に接近したときに、ドアを開く。さらに、視野内の照明の不足、激しい照明変化、電子機器の故障、カメラの衝突によるドアの半開き状態がある場合、またはカメラレンズが曇っているときは、ドア121を開くために二重安全システムが提供される。
【0030】
図11は、物体がカメラアセンブリ122からさらに離れて置かれたときの視野122のピクセル密度を示す。図12は、実施形態において、メンブレンキーパッド118(図2)を用いるユーザによって選択され得る複数の安全ゾーン配置を提供する。
【0031】
図13は、図2に示されるメンブレンキーパッド118の実施形態の上面図を提供する。メンブレンキーパッド118および/またはI/Oディスプレイボード116(図2)は、ユーザインタフェースまたはマンマシンインタフェースをユーザに提供し、システム(図2)をセットアップする。実施形態において、ユーザインタフェースにより、ユーザは、ドアタイプおよび寸法を定義し、サイズ、配置、およびシステム110が使用する検出ゾーンのタイプを確立することが可能になる。好ましくは、ユーザインタフェースにより、ユーザは、エリア、配置、形状、制御ゾーンの数、および制御基準からなる群からの少なくとも一つの制御ゾーンパラメータを定義するためのデータを入力することが可能になる。
【0032】
前述されるように、ユーザインタフェースを介するシステム110は、制御ゾーンとしてカメラアセンブリによって受信されたイメージの少なくとも一部を定義することを可能にする。一実施形態において、システム110は、制御ゾーン内で、直接的なアクセスによって配位される全てのピクセルから座標を選択することを可能にする。あるいは、システム110は、複数の所定のゾーンから選択することを可能にする。さらに、システム110は、イメージデータの部分になる境界座標および実際の物体を描写するために、視野内に実際の物体を置くことを可能にし得る。
【0033】
実施形態において、ユーザインタフェースは、三つの操作モードである、パラメータ編集モード、実行モード、および診断モードを有する。パラメータ編集モードにおいて、ユーザは、タッチキーパッドボタン610、622、624、および626を用いて構成パラメータ(例えば、ドアモデル、米英単位またはメートル単位、カメラの高さおよびドアからの距離)を入力または変更し得る。実行モードにおいて、システム110は動作される。そのような場合、システム110は、カメラ112、113からイメージを処理して、I/Oボード116を介してセーフティおよび起動ゾーンの命令信号出力して、表示LED614および616上に状態情報を表示し得る。診断モードにおいて、システム110の状態に関する追加情報は、I/Oポート(図示せず)を介して利用可能にされる。
【0034】
図14は、図13のメンブレンキーパッドを用いてゾーンの動きを示す図を提供する。実施形態において、ユーザは、カメラアセンブリ112、113の視野内の多様な位置に起動ゾーンを動かしうる。
【0035】
図15は、図2のセンサ/イメージング回路114、115の一つの簡単なブロック図を提供する。実施形態において、センサ/イメージング回路114、115は、物理的な設計において実質的に類似しており、フィールドプログラマブルゲートアレイ(FPGA)124、中央処理装置(CPU)125、およびビデオ126を含む。
【0036】
実施形態において、ビデオデジタイザ126は、カメラの一つからアナログイメージ信号を受信し、アナログイメージ信号をデジタル化し、そしてフィールドプログラマブルゲートアレイ124にデジタル化されたイメージ信号を送信する。
【0037】
本明細書中さらに詳細に説明されるように、フィールドプログラマブルゲートアレイ124は、受信されたデジタル化されたイメージ信号に応答して一つ以上のイメージ処理操作を実行するようにプログラムされる。実施形態において、これらの操作は、合成したイメージデータを提供するために、一つ以上の以前に受信したデジタル化されたイメージ信号とデジタル化されたイメージ信号の所定の特性とを比較することを含む。合成したイメージデータに応答して、中央処理装置125は、一つ以上の状況が満たされているかどうかを決定し得る。
【0038】
ビデオデジタイザ126に操作可能に結合された温度センサ128は、ビデオデジタイザの温度に相関する出力を有する。ビデオデジタイザ126が所定の温度領域または限界内で操作しないという状況を温度センサによって示されると。リセットコマンドは、リセット回路130によって発信され、それにより、システム110は、ビデオデジタイザの温度が所定の温度領域または限界内に戻るまでリセット状態に維持される。
【0039】
実施形態において、FPGA124は、CPU125の負担をかけず、所望のビデオ処理フレームレートを達成するために比較的高レートピクセル処理を実行する。このハードウェアのアーキテクチャは、十分に速いCPUチップと結び付いたコストを除去することによってシステム全体のコストを減少する。フレームレートのさらなるスピードアップは、同時に並列に処理するFPGAおよびCPUを用いて達成され得る。この並列処理は、CPUが現在のフレームをデータ処理する期間中に次のフレームをFPGAピクセル処理することによって成し遂げられる。従って、新しいFPGA出力は、CPUが現在のフレームデータ処理を終えるときに、CPUプロセスに対してすぐに利用可能になる。このプロセス構造は、二つの独立したデータセットを維持するための性能を必要とし、本明細書中でピン/ポン(ping/pong)コントロールとして後に言及される。
【0040】
図16を参照すると、本システムに一致する処理システムのトップレベルの簡単なブロック図が示される。システムは、好ましくは、図15のFPGA124内のイメージ処理モジュール212、図15のCPU125によって実行される特性処理モジュール214、および図15のCPU125によってさらに実行される検出処理モジュール216を含む。
【0041】
実施形態において、イメージ処理モジュール212は、現在のイメージデータ220、リファレンスイメージデータ222、リファレンスエッジデータ224、および以前のイメージデータ226を構成する格納された電子ピクセルデータ218を受信する。好ましくは、現在のイメージデータ220は、最も最近得られたイメージ(すなわちtにおいて得られた)であり、以前のイメージデータ226は、次に最近得られたイメージデータ(すなわちt+1において得られた)であり、リファレンスイメージデータ222は、最も古く得られたイメージデータ(すなわちt+1+xにおいて得られた)である。さらに詳細に本明細書中にさらに説明されるように、リファレンスエッジデータ224は、リファレンスイメージデータ222から引き出されたエッジデータから構成される。
【0042】
イメージ処理モジュール212はまた、マンマシンインタフェース(すなわち、図2のキーパッド118およびI/Oディスプレイボード116)からパラメータデータ228を受信する。さらに本明細書中で詳細に説明されるように、パラメータデータ228は、視野(図2および3の112および113)内で検出された物体が結果としてドア121(図2および3)の開けるエリア(図2および図3の112および113)に関係がある情報を含む。
【0043】
さらに本明細書中で詳細に説明されるように、電子ピクセルデータ218およびパラメータデータ228に応答して、イメージ処理モジュール212は、エッジ細分化、モーション細分化、および領域細分化を含む生成したイメージデータ230を生成する。
【0044】
特性処理モジュール214は、生成したイメージデータ230およびパラメータデータ228を受信する。さらに本明細書中で詳細に説明されるように、特性処理モジュール214は、イメージデータ230およびパラメータデータ228に応答して、エッジ特性、モーション特性、領域特性、およびフレーム特性を含む特性データ232を生成する。
【0045】
検出処理モジュール216は、特性データ232およびパラメータデータ228を受信する。そのデータに応答して、検出処理モジュール216は、ドア121(図2および3)を開閉する検出信号、リファレンス更新、および適応可能な閾値を含む制御信号234を生成する。
【0046】
図17および18を参照すると、図16の処理システムに関する初期化シーケンスの簡単なブロック図が示される。初期化シーケンス234は、初期化パラメータのステップ236、初期化閾値テーブルのステップ238、初期化ゾーンのステップ240、初期化FPGAのステップ242、初期化ビデオデジタイザのステップ244、および初期化ビデオシステムのステップ246を含む。
【0047】
初期化パラメータのステップ236は、マンマシンインタフェース、定常データ、および導出したパラメータの初期化を含む。マンマシンインタフェースの初期化中、ユーザ入力されたデータが読み出されて、メモリ中に格納される。定常データはまた、ドアを開閉する制御ゾーンに関係する生成したパラメータと共にメモリ中にロードされる。
【0048】
従って、上述されるように、システムへの電力の適用に関して、初期化パラメータモジュール236は、マンマシンインタフェース(すなわち、図2のメンブレンキーパッド118およびI/Oディスプレイボード116)、定常データ、導出したパラメータの初期化を開始する。初期化閾値テーブルモジュール238は、カメラのジオメトリおよび解像度モデルからのエリア閾値マップの初期化を開始する。これらのマップを用いて、物体(例えば、人および車両(例えば、フォークリフト))の最小および最大ピクセルの特性を決定する。
【0049】
初期化ゾーンモジュール234は、ユーザまたは所定の安全ゾーンおよび起動ゾーンと結び付いたデータが応じるとすぐに、制御ゾーンの初期化を開始する。初期化FPGA242および初期化ビデオデジタイザ244は、FPGA124(図15)およびビデオデジタイザ126(図15)の初期化をそれぞれ開始する。特に、制御状態レジスタ(CSR)およびイメージバッファポインタは、FPGA初期化中に初期化される。さらに、ビデオデジタイザは、FPGAシリアルI/Oを介して必要とされた命令を構成し、それらの命令を送信することによって初期化される。
【0050】
初期化ビデオシステム246は、CPU125(図15)の初期化を開始する。特に、第1のピンポンデータセットが選択される。次に、FPGAは、ビデオフレームをキャプチャするように指示される。次に、四つのイメージ(リファレンスイメージ)は、グレーレベルのリファレンス(R)、エッジリファレンス(GER)およびアーカイブエッジリファレンスが初期化される。次に、FPGAは、これらのデータを処理するように構成される。FPGA出力は、バンク0データベース中へFPGAから取り出される。
【0051】
システムが初期化された後に、システムは、図19〜22の簡単なブロック図に示されるビデオ処理ループで操作する。実施形態において、ビデオ処理ループ250は、次のフレーム入手のステップ252、FPGAデータを取り出すステップ254、全ての特性を算出するステップ214、検出および制御を算出するステップ258、FPGAデータを保存するステップ260、および診断を欠き込むステップ262を含む。
【0052】
ビデオ処理ループ250内で、CPU125のプロセスは、現在のピン/ポンバッファを使用して、データを指し示し、第3のデータベース(ユーザデータ)のバンクUにデータをロードしてアンパックする。このデータは、現在のフレーム上で特性および決定の決定を生成するように後でCPUプロセスにおいて使用される。好ましくは、同時に、CPUプロセスは、FPGAキャプチャおよびFPGA124上のプロセス動作をスタートする。CPUが現在のフレームに関する特性を処理する間、FPGAは、次のフレームに関するイメージデータを計算する。決定および制御動作は、FPGAシリアルI/Oインタフェースを介して外部に安全および起動信号を送信する。CPU特性および検出処理は、FPGA計算よりも長い時間を要する。CPUが現在のフレームを終えるとき、FPGAデータは、反対のバンクに対して取り出される(例えば、処理バンクが0の場合バンクは1)。診断メッセージは、各フレーム処理の終端およびビデオ処理における任意の点において出力され得る。次に、処理は、新しい現在のバンク(バンク0またはバンク1)に対してバンクUを設定するようにループして、FPGAは、再度開始される。
【0053】
図22を参照すると、システムリソース分配法、または本発明によるピン/ポン制御の実施形態の簡単なブロック図が提供される。前述されるように、ビデオ処理システム110は、イメージ処理のためにFPGA124を含む。このことにより、エッジ細分化、モーション細分化、および領域細分化を含む生成したイメージデータ230が生成される。
【0054】
一旦生成したイメージデータ230が生成されると、好ましくは、イメージデータ230は、複数のメモリバンク230a、230bの一つに格納され、次に、特性処理のためにスイッチングを介して提供される。従って、特性処理モジュール214に提供される生成したイメージデータ230は静的である。しかし、FPGA124は、電子ピクセルデータ218を連続的に処理して、処理モジュール214に現在アクセスできないメモリバンクに、スイッチングを介してイメージ処理の結果をロードする。従って、メモリバンク内に生成したイメージデータ230は、ファーストインファーストアウトベースのメモリバンク230a、230b間のスイッチングを介して特性処理モジュールにアクセス可能である。
【0055】
好ましくは、二つのメモリバンク230aおよび230bが提供される。図19に戻ると、次のフレームを得るステップ252は、FPGA124内のイメージ処理モジュール212による電子ピクセルデータ218のキャプチャおよび処理を提供する。特に、制御および状態レジスタ(CSR)は、メモリバンク230aおよび230bの選択、ならびにキャプチャおよびプロセスビットを設定するように使用される。
【0056】
FPGAデータを取り出すステップ254は、全ての特性を算出するステップ256の間に静的データを処理するために、メモリバンク内に静的データを得ることを提供する。特に、一時的な格納レジスタおよびカウンタはリセットされ、静的データは、特性処理モジュール214(図16)によって処理するために、生成されたイメージデータ230を提供するようにアンパックされる。
【0057】
実施形態において、さらに本明細書中で詳細に示されるように、特性処理モジュール214(図16)は、生成されたイメージデータ230(図16)およびパラメータデータ228(図16)に応答して、全ての特性を算出するステップ256を実施する。特に、全ての特性を算出するステップ256は、エッジまたはP特性、モーション特性、影および光ビームまたは領域特性、およびフレーム特性を含む特性データ232(図16)を生成する。
【0058】
さらに、検出処理モジュール216は、特性データ232(図16)およびパラメータデータ228(図16)に応答して検出および制御を算出するステップ258を実施する。特に、フレーム分析の欠陥フラグが評価され、検出ロジックが実行され、リファレンスフレームの更新要求が評価され、自動適応閾値が評価され、モーションリファレンスデータが更新される。
【0059】
FPGAが別のイメージフレームの処理を完成して、データが特性処理モジュール(図16)によって処理できるように準備されていることを指し示すCPU125(図15)への割り込みを提供すると、FPGAデータを保存するステップ260は、かつてFPGA124(図15)を生じる。さらに、所望ならば、CPU125(図15)によって実施される診断を書き込むステップ262は、前のフレームデータの進行をどのように処理するかに関する一つ以上のメッセージをメモリ内に格納し得る。次に、ビデオ処理ループ250は、好ましくは、次のフレームを得るステップ252に連続して戻る。
【0060】
図23を参照すると、図22のピンポンシステムに関する初期化シーケンスの実施形態の簡単なブロック図が示される。実施形態において、ピンポン初期化シーケンス264は、初期化ピンポンアドレスモジュール265、キャプチャビデオバッファモジュール266、キャプチャフレームモジュール267、開始リファレンスモジュール268、プロセスビデオモジュール269、プロセスフレームモジュール270、およびFPGAデータ取り出しモジュール271を含む。
【0061】
図24は、図22のピンポンシステムに関するピンポンループ272の簡単なブロック図を提供する。ループ272の上部はCPUの起動を示し、下部は、シリアルI/OおよびCSRメッセージングに関連したFPGA起動(時間スケールではなく)を示す。
【0062】
図25および26は、自動コントラスト回路(ACC)を有する代替の実施形態におけるピンポン起動(初期化およびビデオループ)の詳細を図示する。ACCを用いて、点灯する状態をゆっくりと変化するためにシステム検出性能を改良し得る。ACCは、イメージ特性基準および時間動的基準に応答してビデオ利得を変化することによってこれをなす。ACCは、過剰な白色飽和を防止する間に利得を最大化する。
【0063】
ACCは、ユーザ入力によってイネーブルされるとき、イメージ結果を繰り返してテストすることによって最良の開始利得を見出すために初期化中に機能する。利得が、確立された基準を満たすことを見出すと、繰り返しは停止して、プロセスは、選択された利得と共にビデオループし続ける。ACCはまた、ビデオループの始まりにおいて機能するが、十分な利得を減少するように繰り返さない。単一の利得変化のみがフレーム毎のループにおいて実施される。利得変化およびビデオシステムの結果の初期化は、フレーム時間(100ms)よりもかなり短い時間を要する。ビデオループにおける利得変化を必要とする決定は、CPU起動の検出および制御の部分において算出される基準によって制御される。その基準は、エージング、ゾーン起動、および長短の時間定常フィルタを含み得る。
【0064】
図27は、図17のシステム初期化に関するゾーン初期化シーケンス240の簡単なブロック図を提供する。ゾーン初期化シーケンス240は、結果として実際の世界の座標におけるゾーンを構築し、制御ゾーンのサブマスクを生成して、制御ゾーンマスクを構成する。図28は、図17のシステム初期化に関する閾値テーブルの初期化シーケンス238の簡単なブロック図を提供する。閾値テーブルの初期化シーケンス238は、結果として、カメラの内因的なパラメータ、解像度モデル、および物体モデルの初期化を生じる。
【0065】
図29(および図48および49を参照する)を参照すると、エッジ検出器301を含む図16の処理システムに関するイメージ処理モジュールの簡単なブロック図が提供される。エッジ検出器301は、好ましくは、改変されたソーベルオペレータモジュール302、正差(positive difference)モジュール304、閾値モジュール306、エロード(erode)モジュール308、およびラベルIモジュール310を含む。
【0066】
実施形態において、改変したソーベルオペレータモジュール302は、現在のイメージ入力312を受信して、現在の入力イメージからエッジイメージ(GEB)314を生成する。CPUにおいて初期化されたリファレンスイメージ(GER)316は、正差オペレータモジュール304における現在のエッジイメージから引かれ、負の値はゼロに設定される。グレーレベルのエッジイメージは、閾値化306、エロード化308、およびラベル化310される。ラベルIオペレータ310の出力は、16ビットラベルイメージ318、等価テーブル320、ならびに使用されたラベルの数322および等価テーブルの数のカウントである。エロードオペレータ308のバイナリ入力324および出力326における設定ピクセルの数のカウントはまた、CPUに対して出力され、エッジイメージ処理を完了する。
【0067】
ラベルIのオペレータ310は、イメージ処理の各スレッドにおいて使用される。ラベルI310は、バイナリ入力の接続されるコンポーネントのラベリングを生成するようにしようされる二つのステッププロセスの第1の部分である。ラベルI310は、イメージの左上から始まるバイナリ入力イメージを介する2×2カーネルを通る。カーネルのエレメントは、次のように識別される。
B C
A X
Xにおけるバイナリピクセルがゼロの場合、出力はゼロになる。Xが設定される場合、ラベルB、A、Cはその次数でスキャンされる。B、A、Cの全てがゼロでない場合、ラベルカウンタの次の値はXで出力され、カウンタは増大される。B、A、Cのいずれかがゼロでない場合、ラベルのオペレータは、第1のゼロでないラベルの値になる。B、A、Cのうち一つ以上がゼロでない場合、第1のゼロでない値が出力される。残りのゼロでないラベルのいずれかが出力値と異なる場合、出力値および異なる値は、等価テーブルに書き込まれる。
【0068】
図30(図48および49を参照する)を参照すると、図16の処理システムに関するイメージ処理モジュールの簡単なブロック図は、領域340を使用するモーション検出器を有する。システム340は、好ましくは、それぞれ現在(B)の入力イメージ(n)および前(A)のイメージ(n−1)の両方に対して正差モジュール342および344、閾値モジュール346および348、ならびに拡張モジュール350および352を含む。出力は、包括的な論理和モジュール354、エロードモジュール356、およびラベルIモジュール358に通される。
【0069】
現在のグレーレベル入力イメージ(B)360および前のイメージ(A)362の正差は、閾値化346および348、拡張化350および352され、Aの正差342およびBの正差344である。その結果は、包括的に論理和をされる(354)。結果としてバイナリイメージは、エッジケース(図29)としてラベル化され、その結果、CPUに通される。
【0070】
グレーレベルのエッジイメージは、閾値化、エロード化356、およびラベル化358される。ラベルIオペレータ358の出力は、16ビットのラベル化されたイメージ364、等価テーブル366であり、使用されたラベルの数368および等価テーブルにおける入力の数のカウントである。エロードオペレータ356のバイナリ入力370および出力372における設定ピクセルの数のカウントは、CPUに出力され、領域を用いて処理するモーション検出器イメージを完了する。
【0071】
ラベルIオペレータ358は、イメージ処理の各スレッドにおいて使用される。ラベルI358は、バイナリ入力の接続されたコンポーネントのラベリングを生成するように使用される二つのステッププロセスの第1の部分である。ラベルI358は、イメージの左上から始まるバイナリ入力イメージ上の2×2カーネルを通す。カーネルの構成要素は、以下のように識別される。
B C
A X
Xにおけるバイナリピクセルがゼロである場合、出力はゼロになる。Xが設定される場合、ラベルB、A、Cはその次数でスキャンされる。B、A、Cの全てがゼロでない場合、ラベルカウンタの次の値はXで出力され、カウンタは増大される。B、A、Cのいずれかがゼロでない場合、ラベルのオペレータは、第1のゼロでないラベルの値になる。B、A、Cのうち一つ以上がゼロでない場合、第1のゼロでない値が出力される。残りのゼロでないラベルのいずれかが出力値と異なる場合、出力値および異なる値は、等価テーブルに書き込まれる。
【0072】
図31(および図48および49を参照する)を参照すると、図16の処理システムに関するイメージ処理モジュールの簡単なブロック図は、影および光ビームの処理に対する領域の分析を有する。システム380は、好ましくは、それぞれ現在(B)の入力イメージ394、およびリファレンス(R)入力396の両方に関して正差モジュール382および384、閾値モジュール386および388、ならびに拡張モジュール390および392を含む。出力は、包括的な論理和モジュール396、エロードモジュール400、およびラベルIモジュール402に通される。ラベルIオペレータ402の出力は、16ビットのラベル化イメージ404、等価テーブル406、および使用されたラベルの数408および等価テーブルにおけるエントリの数のカウントである。エロードオペレータ402のバイナリ入力410および出力412における設定ピクセルの数のカウントはまた、CPUに出力され、領域を用いてモーション検出器イメージ処理を完了する。
【0073】
システムイメージ処理領域の分析検出操作は、すぐに以前のイメージ入力Aを用いる代わりに、それが現在の入力イメージのコピーとしてCPUコマンド上で更新されるリファレンスイメージ396にコールされる前のイメージを用いることを除いて、図30のモーション検出操作に類似する。
【0074】
図32(および図48および49を参照する)を参照すると、図16の処理システムに関するイメージ処理モジュールの簡単なブロック図は、エッジ420を用いるモーション検出器を有する。システム420は、正差モジュール426への入力として現在のエッジイメージ(GEB)422および前のエッジイメージ(GEA)424を得ることを除くと、図29のエッジ検出操作に類似した選択可能な代替のモーション検出イメージ処理操作を示す。GEB422からGEA424を引いた正差は、図19、20、および21のように閾値化428、エロード化430、およびラベル化432される。
【0075】
ラベルIオペレータ432の出力は、16ビットラベル化イメージ434、等価テーブル436、ならびに使用されるラベルの数438および等価テーブルにおけるエントリの数のカウントである。エロードオペレータ430のバイナリ入力440および出力442における設定ピクセルの数のカウントはまた、CPUへ出力され、エッジを使用するモーション検出器を有するシステムイメージ処理を完了する。
【0076】
図33を参照すると、図16の処理システムに関する特性処理モジュール450の簡単なブロック図は、存在、モーション、フレーム、および領域特性の算出に関する。システムデータの処理(全ての特性の算出)は、CPUを取り除くためにFPGAにおいて実施され、所望の処理レートを達成する。
【0077】
存在(P)またはエッジ特性モジュール452ならびに影および光ビーム(SL)または領域特性モジュール458の算出は、エッジ/領域のスコアディスカウントを生成する点でかなり類似している。さらに、P特性452およびSL特性458の算出内で、グローバルな算出は、ゾーン算出に非常に類似している。ゾーン算出は、関連したゾーンマスクを用いる各ゾーンに関する特性算出の空間的なレンジを制限する。PおよびSL特性算出の結果として、検出決定460において使用するデータベース(特性テーブル)に格納される。
【0078】
フレーム特性456は、PおよびSL特性よりも異なって算出される。フレーム特性456は、物体の特性ではなく、入力グレーレベルイメージおよび現在のエッジイメージの特性である。フレームの統計値は、カメラおよびビデオシステムの統合性の状況についての障害を取り出すために計算される。フレームの統計値はまた、順応性の閾値として動作するいくつかの検出可変量を調整するために使用される。三つの欠陥フラグは、算出するフレーム特性モジュール456(照明欠陥フラグ、不明瞭な欠陥フラグ、および半開きの欠陥462)によって設定され得る。これらの欠陥462のそれぞれは、関連した測定基準を介して決定される。照明欠陥は、改変されたカイパー統計値、均一の中心の平均値、およびグレーレベル入力の変化を評価することによって制御される。不明瞭および半開きの欠陥は、現在およびアーカイブのエッジを用いて、カメラおよび/またはビデオシステムが、不明瞭またはノックされた半開きになるかどうかを検出する。
【0079】
システム450は、任意のモーションが任意のゾーンにおいて検出される場合、リファレンスを更新しない。各ゾーンにおいてモーションがあるかどうかを決定するために、ラベル化されたエッジイメージは、ラベル化されたゾーンにおいて非ゼロの数をカウントして、存在P特性モジュール452において算出される。非ゼロピクセルは、モーションピクセルになり、モーションM特性モジュール454において算出される。システム450は、各ゾーンにおけるゾーンモーションピクセルがゼロ(0)よりも大きいかどうかを検証するために、モーションのラベル化されたイメージにおける非ゼロピクセルをカウントする。システム450は、そのカウントにおける蓄積に対するゾーン検出マスクにおいて非ゼロピクセルをカウントする。
【0080】
図34を参照すると、図33の特性生成システム470の簡単なブロック図は、ラベルモジュール472、算出するグローバル存在特性モジュール474、および算出するゾーン存在特性モジュール476を有する。
【0081】
ラベルモジュール472は、ラベル化されたエッジイメージ478、等価テーブル480、ならびにラベルおよびコンフリクトカウント482の形式における存在入力を受信する。ラベルモジュール472は、領域内のピクセルラベル付けの矛盾を決定して、領域の数とラベルとを置換して、エリアコールをして、連続したインデックスと領域とをリナンバリングして、ならびに、さらに領域を再インデックス付けして、算出するグローバル存在特性モデル474に対して領域および領域のイメージの数に関連したデータを通す。
【0082】
算出するグローバル存在特性モデル474は、領域イメージ484、領域486の数、現在のエッジ(GEB)488を用いて、グローバル特性テーブルを作成する。グローバル特性テーブルは、第1に初期化され、領域は、エリア、平均グレーレベル強度、ヒストグラム、および図心についてラベル付けされる。次に、領域は、グレーレベルおよび図心の分散に関して再算出され、領域内のピクセルの特性(グローバル、セーフティ、...)をリスト化する。
【0083】
算出するP特性ゾーンモジュール476は、上述の領域イメージ484、領域の数486、現在のエッジ(GEB)488を要して、ゾーンマスクおよび矩形490を用いてゾーン特性テーブルを作成する。システム470は、セーフティゾーン、二次セーフティゾーン、ドアゾーン、第1の動作ゾーン、第2の動作ゾーン、第1のガードゾーン、および第2のガードゾーンにおける検出を算出することによってゾーンのモーションを決定する。
【0084】
図35を参照すると、図34の算出する存在(エッジ)特性システムの簡単なブロック図がグローバル存在特性モジュールを算出する。
【0085】
グローバルP特性は、特性テーブル502のエッジカウントを初期化することによってまず算出される。イメージのグローバルな範囲は、イメージの第1のパスモジュール504において算出される。エリア、図心、平均値、ヒストグラム、およびエッジカウントは蓄積され、イメージの第2のパスモジュール506に通して、第2の図心モーメントおよび変化量は蓄積される。特性テーブルパスモジュール508は、領域の広がり、伸長、方向、および楕円形状を含む生成された特性を算出する。算出する領域スコアモジュール510は、ドアの拒絶(rejection)、エッジ形状抑制、およびエッジグレーレベル抑制を決定する。スコアは、領域のグレーレベル変化量から生じて、ディスカウントは、スコアに適応される。領域のスコアが算出される510後、次の領域は、特性テーブルパスモジュール508の算出を介してループされる。
【0086】
図36を参照すると、図34の算出する存在特性システムの簡単なブロック図がゾーン存在特性を算出する。
【0087】
ゾーン存在P特性は、特性テーブル522のゾーンカウントを初期化することによってまず算出される。ゾーンのグローバル範囲は、ゾーンの第1のパスモジュール524において算出される。ゾーンは、ピクセルが選択されたゾーンマスクにあるかどうかを決定するように算出される。エリア、図心、平均値、およびヒストグラムはまた蓄積され、イメージの第2のパスモジュール526を通されて、第2の中心モーメントおよび変化量が蓄積される。特性テーブルパスモジュール528は、領域の広がり、伸長、方向、および楕円形状を含む生成された特性を算出する。算出する領域のスコアモジュール530は、ドアの拒絶、エリア比率抑制、エッジ形状抑制、およびエッジグレーレベル抑制を決定する。領域のスコアが算出される530後、次の領域は、特性テーブルパスモジュール528の算出を介してループされる。
【0088】
図37を参照すると、図33の特性生成システム540の簡単なブロック図は、ラベルモジュール、算出するグローバル影および光ビーム(SL)特性モジュール、および算出する影および光ビームゾーン特性モジュールを有する。
【0089】
ラベルモジュール542は、ラベル付けされたエッジ544、等価テーブル546、およびラベルおよびコンフリクトカウント548という形で存在入力を受信する。ラベルモジュール542は、領域内のコンフリクトをラベル付けするピクセルを決定して、領域の数とラベルとを置換して、エリアコールして、連続したインデックスと領域とをリナンバリングして、ならびに、さらに領域を再インデックス付けして、算出するグローバル存在特性モデル550に対して領域および領域のイメージの数に関連したデータを通す。
【0090】
算出するグローバル存在特性モデル550は、領域イメージ552、領域の数554、および現在の差分イメージを用いて、グローバル特性テーブルを作成する。グローバル特性テーブルはまず初期化され、領域は、エリア、平均グレーレベル強度、ヒストグラム、および図心についてラベル化される。次に、領域イメージは、グレーレベルの分散および図心の第2の移動に関して再算出され、領域内のイメージの形状特性をリスト化する。
【0091】
算出するSL特性ゾーンモジュール558は、上述の領域イメージ552、領域の数554、現在のエッジ(GEB)560を得て、ゾーンマスクおよび矩形562を用いてゾーン特性テーブルを作成する。システム540は、セーフティゾーン、二次セーフティゾーン、ドアゾーン、第1の起動ゾーン、第2の起動ゾーン、第1のガードゾーン、および第2のガードゾーンにおける検出を算出することによってゾーンにおけるモーションを決定する。
【0092】
図38を参照すると、図37の算出する影および光ビーム領域特性570システムの簡単なブロック図がグローバルな影および光ビーム(SL)特性を算出する。
【0093】
グローバルなSL特性は、特性テーブル572のエッジカウントを初期化することによってまず算出される。イメージのグローバルな範囲は、イメージの第1のパスモジュール574において算出される。エリア、図心、平均値、ヒストグラム、およびエッジカウントは、蓄積され、イメージの第2のパスモジュール576を通して、第2の中心モーメントおよび分散が蓄積される。特性テーブルパスモジュール578は、改変されたニッパ(kniper)統計値ならびにマッピングされた平均値および変化量の広がり、伸長、方向、楕円形状のファクタを含む生成された特性を算出する。算出する領域スコアモジュール580は、影および光ビームディスカウント、形状ディスカウント、およびエリアディスカウントからの領域抑制ならびに過渡抑制と共にSLスコアを決定する。領域スコアが算出される580後、次の領域は、特性テーブルパスモジュール578の算出を介してループされる。
【0094】
図39を参照すると、図37の算出する影および光ビーム領域特性590の簡単なブロック図が影および光ビーム(SL)ゾーン特性を算出する。
【0095】
ゾーンSL特性は、特性テーブル592のゾーンカウントを初期化することによってまず算出される。ゾーンのグローバルな範囲は、ゾーンの第1のパスモジュール594において算出される。ゾーンは、ピクセルまたはゾーンの矩形が選択されたゾーンマスクにあるかどうかを決定するように算出される。エリア、図心、平均値、およびヒストグラムはまた、蓄積され、イメージの第2のパスモジュール596を通して、第2の中心モーメントおよび変化量が蓄積される。特性テーブルパスモジュール598は、広がり、伸長、方向、楕円形状のファクタ、改変されたニッパ統計値、ならびにマッピングされた平均値および領域の変化量を含む生成された特性を算出する。算出する領域のスコアモジュール600は、影および光ビームディスカウント、形状ディスカウント、およびエリアディスカウントからの領域抑制ならびに過渡抑制と共にSLスコアを決定する。領域スコアが算出される600後、次の領域は、特性テーブルパスモジュール598の算出を介してループされる。
【0096】
図40は、図16の処理システム(詳細には、特性処理モジュール214)に対する分割ヒストグラムグレーレベル分析700の簡単なブロック図を提供する。実施形態において、分割ヒストグラムグレーレベル分析700は、領域特性の決定において支援するように提供され得る。
【0097】
図41は、図33の特性生成システム750の簡単なブロック図を提供して、フレーム特性を算出する。システム750は、フレーム分析初期化モジュール752、計算するフレーム統計値モジュール754、解釈するフレーム照明測定基準モジュール756、解釈する不明瞭な測定基準モジュール758、解釈する半開きの測定基準モジュール760、および更新するFAフィルタ762を含む。
【0098】
図42は、図16の情報処理モジュールの簡単なブロック図であり、生成された特性からの物体の存在を検出する。検出シーケンスは、評価する欠陥フラグモジュール800、評価するリファレンス更新モジュール802、自動適用閾値モジュール804、更新フレーム分析データモジュール806、および更新モーションリファレンスモジュール808を含む。
【0099】
図43は、図16の情報処理モジュールの簡単なブロック図であり、リファレンスイメージを評価して、更新する。評価するリファレンス更新シーケンスは、ゾーンモーション検出モジュール822、更新する更新カウンタモジュール824、決定する標準更新モジュール826、決定するアーカイブ更新モジュール828、決定する利得変化モジュール830、および決定するラーンアウト(learn−out)モジュール832を含む。
【0100】
図44は、図16の情報処理モジュールの簡単なブロック図であり、視野からの背景値の変化に関連した閾値を変化する。自動適用閾値のシーケンスは、初期化SL閾値のエッジ閾値840、算出するゾーン統計値モジュール842、算出するゾーンの測定基準モジュール844、および適用する測定基準モジュール846を含む。
【0101】
図45は、図16の情報処理モジュールの簡単なブロック図であり、検出された物体におけるエッジおよびゾーンデータの幾何学的な関連性を決定する。シーケンスは、初期化モジュール850、それぞれ制限されたエッジ領域に関するアプリケーション852、特定の領域に関する初期化に関するアプリケーション854、および矩形に境界をつける横断領域856を含む。次に、シーケンスは図46に続く。
【0102】
図46は、図16の情報処理モジュールの簡単なブロック図の図45の継続であり、検出された物体におけるゾーンの交点を決定するためにテスト領域のエッジを含む。シーケンスは、テストエッジ領域/ゾーンの交点のモジュール862、864を含み、テスト領域/モーション/ゾーンの交点モジュール866を含む。
【0103】
図47は、図16の情報処理モジュールの簡単なブロック図の図46の継続であり、検出された物体のゾーン交点を決定するためにゾーンの領域スコアを評価することを含む。シーケンスは、評価する領域スコアモジュール872、874、設定する生成されたフラグ更新カウンタ/ヒストグラムモジュール876、ならびに更新上部検出スコアおよびセーフティゾーンラッチモジュール878を含む。
【0104】
実施形態において、自動ドア制御およびセーフティシステムは、名目上の光学的に感知される物体の状況およびドアに近い環境を解釈するロジックに従ってドアの動きを制御することが提供される。システムは、所望の感知エリアのイメージを生成するために適切なレンズに一致したカメラセンサのサブシステムを用いる。カメラのサブシステムによって作成されるデジタルイメージは、所望のドア制御をもたらす特有の決定ロジックを駆動するように使用されるデータを展開するために処理サブシステムにおいて処理するイメージを用いて処理される。従って、ドア制御は、イメージコンテンツのコンピュータ解釈によってもたらされる。
【0105】
実施形態において、処理する視点から、システムは、いくつかの処理段階、1)イメージ形成、2)イメージ調整、3)イメージ処理、4)イメージコンテンツ処理、5)生成されたデータ処理、6)データ解釈処理、および7)制御ロジック処理を取り入れる。
【0106】
ドア制御およびセーフティシステムは、カメラのサブシステム、およびデジタル信号処理デバイスによって補強され得る、一般的な目的のプロセッササブシステムを含むようにハードウェア要素によって支援される。カメラサブシステムは、レンズシステム、電荷結合素子のイメージングデバイス、増幅器、およびアナログ−デジタル変換器素子を含み得る。これらの素子は、一般に、ホームコンピュータのアプリケーションにおいて共に見出され得る。例えば、このアプリケーションは、多様な目的に関してキャプチャおよび格納のためにコンピュータスクリーン上にデジタルイメージを生成するためにデジタルカメラとのインタフェースをとる。
【0107】
システムは、イメージ処理オペレータの選択、アルゴリズムにおいて実施される、その後に続く生成されたデータ処理および解釈を用いる。選択されたイメージ処理オペレータおよびイメージコンテンツ処理は、カメラの視野内の物体によって示される光学現象を介して生成される。イメージ処理は、レンズおよびカメラの実装ジオメトリを介して決定されるシーンのアレイ表示において含まれる数で動作する。このイメージ処理は、イメージ処理の結果になる数の内部アレイを作成して、イメージ処理操作のシーケンスを形成するその結果生じた操作によって使用される。システムの実施形態において、イメージフィールド全体が処理される。さらに、イメージフィールド全体のサブセットを選択する目的に関する予測された物体の特性に一致するように設計される任意の処理素子を展開するために使用される対象の物体についての事前の仮定がない。
【0108】
イメージ処理シーケンスの開始点において、イメージ処理は、シーンの新しい入力イメージを承認する(この入力イメージは、継続中のイメージデジタル化ストリームの単一時間サンプル(「フレーム」)である)。新しくキャプチャされたイメージフレーム(「背景」イメージ)に対する比較のために前のイメージフレームを維持するために格納される。この格納されたイメージフレームは、新しいフレームと同様の方法でキャプチャされ、詳細には、一つ以上のフレームの平均ではなく、単一のイメージングフレームである。
【0109】
実施形態において、各新しいイメージフレームは、メジアンフィルタを用いてスペックルノイズを除去するためにフィルタリングされる。メジアンフィルタは、平均化するようにイメージをぼかすのではなく、分離したノイズを除去する。このような分離ノイズは、イメージング感知ノイズ、ダウンストリーム電子ノイズ、または環境的に生成されたシンチレーションの原因になり得る。比較のために格納されたイメージは、現在のイメージになるように、メジアンフィルタと共にこのイメージをフィルタリングされる。メジアンフィルタは、イメージアレイにおいて全てのピクセルを介して通される3×3フィルタカーネルとして解釈され得る。カーネルの中央における値は、新しいイメージアレイに置かれ、その値は、フィルタカーネルの9の数のメジアンになる。
【0110】
イメージのフィルタリング後、二つの新しいイメージアレイは生成される(すなわち、図52および53)。第1の新しいイメージアレイ(図52)は、現在のイメージから背景イメージを引いたピクセル毎の差(「正のコントラスト」)として決定される。第2の新しいイメージアレイ(図53)は、背景イメージから現在のイメージを引いたピクセル毎の差(「負のコントラスト」)として決定される。イメージは、8ビットのアレイの数として維持され、差の値が255よりも大きいか、または0よりも小さいとき、その結果、値は短縮される。
【0111】
差分後であっても、イメージは8ビットの値を含む(複数のビットレベルを有するイメージは、一般に、グレースケールイメージとして言及される)。イメージの差分後、閾値化オペレータは、結果として正負のコントラストのグレースケールイメージのそれぞれに適用される。二つのイメージに適用される閾値は、異なり得る。値は、固定されるか、または適応され得る。ここで、ダウンストリームのイメージ解釈の結果に基づいて変化がなされる。ピクセル毎に閾値化操作は、二つの新しいイメージを作成する。各イメージに関して、入力イメージにおけるグレーレベルが、関連した閾値を越えるとき、出力するイメージアレイに「1」が置かれ、そうでなければ「0」が置かれる。従って、閾値化操作の結果は、二つの「バイナリ」イメージになる。
【0112】
図54および55を参照すると、数学的な形態学の選択バイナリイメージング処理技術は、ダウンストリームのイメージ解釈を容易にするようにバイナリイメージに適用される。実施形態において、オペレータは、有効になり得るより大きな領域の「連結性」を改良する間に、有効な物体からなされ得る分離したバイナリ領域を除去するように選択される。形状のフィルタリングとして言及されるように、二つのバイナリイメージのそれぞれは、フィルタカーネル操作が、メジアン操作ではなく、最小の操作に続いて最大のオペレータであることを除いて、メジアンフィルタ機構(3×3の空間的なカーネル)に類似してフィルタリングされる。そのようなフィルタは、バイナリ完了(closing)または「終結(close)」として言及される。「終結」は、「エロージョン(erosion)」に続く「拡張(dilation)」である。「拡張」はカーネル上の最大操作であり、「エロージョン」は最小操作である。
【0113】
図56を参照すると、二つの終結したバイナリイメージ(図54および55)は、入力イメージに関する正負両方のコントラストの差の合成バイナリイメージ表示を生成するためにピクセル毎に論理的に論理和化される。
【0114】
図57を参照すると、接続された構成要素のアルゴリズムは、合成バイナリ論理和イメージ(図56)に適用される。このアルゴリズムは、イメージにおいて接続されたバイナリ領域全てを識別する。接続される領域は、一つである。ここで、全ての構成するピクセルが他の構成するピクセルの少なくとも一つと隣接する。接続される構成要素のアルゴリズムは、各領域をラベル付けして、各領域の生成された特性を含むデータベースを構築する。実施形態において、特性は、領域エリア、境界矩形、環状、楕円形の長軸および短軸の長さ、および周囲長を含み得る。領域特性データは、関心のある領域を選択するように処理される。領域は、視野における物体の存在の直接的な結果である。総イメージフィールドのサブイメージ領域のオペレータ選択は、物体に関連した領域を選択することに含まれず、領域は、物体によって決定される。
【0115】
イメージコンテンツのデータベース表示と共に、各領域の特性は、制御ロジックの決定を発展するように解釈のロジックによって考慮される。実施形態において、解釈のロジックは、「イフゼンエルス(if−then−else)」構造のセットとしてインプリメントされ、イメージコンテンツ解釈を決定するために基本の領域特性の算術の組み合わせを利用し得る。例えば、生じる領域を用いて、関心の物体の存在を推測して、領域の図心および境界を示す矩形がその物体の位置を決定する(境界を示す矩形は、領域に属する全てのピクセルを含む最も小さい矩形である)。
【0116】
実施形態において、オペレータは、イメージの視野の矩形領域を定義して、特有の制御動作に関するエリアを決定し得る。興味のあるコンピュータにより生成された物体領域の境界を示す矩形の座標は、続いて制御ロジック結果を決定するためにオペレータに決定された決定領域の座標に比較される。物体がセーフティゾーンにあるように示される場合、例えば、制御ロジックは、セーフティゾーンが明瞭になるまで、ドアが開いたままであることを示す。同様に、物体が起動ゾーンにあるように決定される場合(バイナリ領域の境界を示す、イメージ物体の矩形表示は、起動ゾーンの決定矩形に交差する)、次に、ドアを開くために信号が送信される。実施形態において、制御ロジックの目的に関するオペレータによって選択されるイメージ領域は、イメージコンテンツを決定するためにイメージ全体のイメージ処理を利用するか、あるいはイメージ全体のイメージ処理に影響を与えるために、決して使用されない。
【0117】
特有の実施形態が示され、説明されてきたが、多くの変更が、本発明の意図から極めて逸脱することなく考慮され、保護の範囲は、上掲の特許請求の範囲によってのみ限定される。
【図面の簡単な説明】
【図1】
図1は、本発明によるセンサおよびイメージングシステムの実施形態のブロック図である。
【図2】
図2は、本発明によるセンサおよびイメージングシステムの別の実施形態のブロック図であり、一対のセンサ/イメージング回路にそれぞれ接続される一対のカメラアセンブリを有する。
【図3】
図3は、図2のカメラアセンブリに近接に取り付けられた、カメラアセンブリを有する閉じられたドアの立面図である。
【図4】
図4は、ドアが開いていることを除く図3の類似図である。
【図5】
図5は、図3のドア上部のヘッダに取り付ける、図2のカメラアセンブリの一つの部分的なアセンブリの透視図である。
【図6】
図6は、図5のカメラアセンブリの断面図である。
【図7】
図7は、図5のカメラハウジングアセンブリのウィンドウに取り付けられたヒーターアセンブリの平面図である。
【図8】
図8は、図7の平面A−Aにそって得られるヒーターアセンブリの断面図である。
【図9】
図9は、図2のビデオプロセッサの一つに接続された図8のカメラアセンブリ内のカメラの簡略図である。
【図10】
図10は、図3および4のドアの片側の上面透視図であり、図2のカメラアセンブリの一つは、ドアの正面のエリアを含む視野を有する。
【図11】
図11は、物体がカメラアセンブリから離れて置かれるように、図10ないの視野のピクセル密度のグラフィカル図である。
【図12】
図12は、一実施形態において、図2のメンブレンキーパッドを用いるユーザによって選択され得る複数のセーフティゾーン構成を提供する。
【図13】
図13は、図2において示されるメンブレンキーパッドの実施形態の平面図である。
【図14】
図14は、図13のメンブレンキーボードパッドを用いるゾーン位置決め方法の平面図である。
【図15】
図15は、フィールドプログラム可能なゲートアレイ(FPGA)および中央演算処理装置(CPU)を有する、図2のオブジェクトセンサ/イメージング回路の一つの簡単なブロック図である。
【図16】
図16は、図15のFPGA内のイメージ処理モジュールを有する、本発明による処理システムの上部レベルの簡単なブロック図であり、特性処理モジュールは図15のCPUによって実行され、検出処理モジュールは図15のCPUによって実行される。
【図17】
図17は、入力パラメータを初期化して、関連のある導出されたパラメータを計算し、検出閾値表を初期化し、および検出および特性計算ゾーンを初期化するための、図16の処理システムの初期化シーケンスの簡単なブロック図である。
【図18】
図18は、FPGAシリアル入力/出力ボードを介してユーザ入力データからFPGAイメージ処理閾値およびビデオデジタイザ設定を初期化して、特性および検出処理システムを初期化するための、図16の処理システムの初期化シーケンスの簡単なブロック図である。
【図19】
図19は、ユーザデータにリファレンスイメージを示し、ロードし、かつアンパックするためのピンポンバッファを利用する、図16処理システムのビデオループ処理シーケンスの簡単なブロック図である。
【図20】
図20は、現在のイメージフレーム上の特性および検出決定を生成するための、CPUのユーザデータ利用する、図16の処理システムのビデオループ処理シーケンスの簡単なブロック図である。
【図21】
図21は、各フレーム処理の終了およびビデオ処理における任意の点において出力された診断メッセージを有する、図16の処理システムのビデオループ処理シーケンスの簡単なブロック図である。
【図22】
図22は、本発明によるピンポンシステムの簡単なブロック図である。
【図23】
図23は、図22に示されるピンポンシステムの初期化の簡単なブロック図である。
【図24】
図24は、図22のピンポンシステムのピンポン処理ループの簡単なブロック図である。
【図25】
図25は、イメージ特性基準および時間ダイナミック基準に応答してビデオ利得を変化するための、図16の処理システムの自動コントラスト補正の簡単なブロック図である。
【図26】
図26は、イメージ特性基準および時間ダイナミック基準に応答してビデオ利得を変化するための、図16の処理システムのビデオループにおける自動コントラスト補正の簡単なブロック図である。
【図27】
図27は、実際の世界座標におけるゾーンを構築し、ゾーンマスクを生成し、かつゾーンマスクを構成するための、図17のシステム初期化のゾーン初期化シーケンスの簡単なブロック図である。
【図28】
図28は、初期化カメラ固有のパラメータモジュール、解像度モデルモジュール、および物体モデルモジュールを有する、図17のシステム初期化のゾーン初期化シーケンスの簡単なブロック図である。
【図29】
図29は、エッジ検出器を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図30】
図30は、領域を用いるモーション検出器を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図31】
図31は、影および光ビーム処理の領域分析を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図32】
図32は、エッジを用いるモーション検出器を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図33】
図33は、存在、モーション、フレーム、および領域特性を計算する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図34】
図34は、ラベルモジュール、グローバル存在特性を計算するモジュール、およびゾーン存在特性を計算するモジュールを有する、図33の特性生成システムの簡単なブロック図である。
【図35】
図35は、グローバル存在特性を計算する、図34の存在特性を計算するシステムの簡単なブロック図である。
【図36】
図36は、ゾーン存在特性を計算する、図34の存在特性を計算するシステムの簡単なブロック図である。
【図37】
図37は、ラベルモジュール、グローバルな影および光ビーム特性を計算するモジュール、および影および光ビームゾーン特性を計算するモジュールを有する、図33の特性生成システムの簡単なブロック図である。
【図38】
図38は、グローバルな影および光ビーム特性を計算する、図37の影および光ビーム領域特性システムの簡単なブロック図である。
【図39】
図39は、影および光ビームゾーン特性を計算する、図37の影および光ビーム領域特性を計算するシステムの簡単なブロック図である。
【図40】
図40は、図16の処理システムのスプリットヒストグラムグレーレベル分析の簡単なブロック図である。
【図41】
図41は、フレーム特性を計算する、図33の特性生成システムの簡単なブロック図である。
【図42】
図42は、生成された特性から物体の存在を検出する、図16の情報処理モジュールの簡単なブロック図である。
【図43】
図43は、リファレンスイメージを評価して、更新する、図16の情報処理モジュールの簡単なブロック図である。
【図44】
図44は、視野から背景値に変えることに関連して閾値を変化する、図16の情報処理モジュールの簡単なブロック図である。
【図45】
図45は、検出されたオブジェクトのエッジおよびゾーンデータの幾何学的な関連性を決定する、図16の情報処理モジュールの簡単なブロック図である。
【図46】
図46は、図16の情報処理モジュールの簡単なブロック図の図45の続きであり、検出された物体のゾーン交点を決定するために領域エッジをテストすることを含む。
【図47】
図47は、図16の情報処理モジュールの簡単なブロック図の図46の続きであり、検出された物体のゾーン交点を決定するためにゾーンの領域スコアを評価することを含む。
【図48】
図48は、多様なイメージ操作を定義するための表である。
【図49】
図49は、多様なイメージ操作を定義するための表である。
【図50】
図50は、背景またはリファレンスイメージを表す例である。
【図51】
図51は、現在のイメージであることを除けば図50に類似し、ここで物体は視野内に入っている。
【図52】
図52は、図51における現在のイメージから、図50のリファレンスイメージを差し引くことによる差分である。
【図53】
図53は、図50におけるリファレンスイメージから、図51の現在のイメージを差し引くことによる差分である。
【図54】
図54は、図52における閾値化および形状フィルタリング後に生じるイメージである。
【図55】
図55は、図53におけるイメージの閾値化および形状フィルタリング後に生じるイメージである。
【図56】
図56は、図54および55におけるイメージ上の論理的な論理和演算を終えた後に生じるイメージである。
【図57】
図57は、図56のイメージ内の領域が分類化のためのラベリングを除けば、図56との類似図である。
Claims (198)
- センサの視野から電磁エネルギーを収集するセンサであって、該センサは視野内の物体を表す信号を生成する、センサと、
該センサ信号を受信して、該センサ信号からピクセルのイメージを形成するために該センサに電気的に結合されるイメージ分析器と、
該ピクセルイメージ内に描写される物体のエッジを検出するように適応され、該ピクセルイメージ内のエッジの位置を決定する、エッジ検出器と、
第1のイメージのエッジ検出データを格納するデータ格納デバイスと、
該エッジと結び付いた該物体が、該第1のイメージの取得後に移動したかどうかを決定するために、該第1のイメージからのエッジ検出データと第2のイメージからのエッジ検出データとを比較するための比較器と
を含む、検出器。 - 影および光ビームの検出プロセスであって、
グレースケールイメージをキャプチャするステップと、
バイナリイメージを生成して、該グレースケールのバイナリマップを定義するステップと、
該グレースケールイメージのコピーと該バイナリマップとを比較して、該バイナリマップの選択されたマップに対応するグレースケール値を決定するステップと
を包含する、プロセス。 - 視野に関するイメージ情報に現れる個々のエリアが影または光ビームの異常を表すかどうかを決定するためのプロセスであって、
該異常の特性を予定するステップと、
該特性を定量化する計算を予定するステップと、
該イメージ情報に該計算を適用して、該特性の量を生成するステップと、
該計算された量に基づいて該エリアを分類するステップと
を包含する、プロセス。 - エッジを決定するプロセスであって、
閾値を予定して、第1および第2のチャンネルにおいてグレースケールイメージに適用するための閾値を予め決定するステップと、
該第1および第2のチャンネルのそれぞれにおいて該閾値と該イメージ値とを比較するステップと、
該第1および第2のチャンネルのそれぞれにおいて第1のバイナリ値を出力するステップと、
該第1のバイナリ値を有する第1の拡張ピクセルを定義するステップと、
該第1の拡張ピクセルに近似する複数の拡張ピクセル、第2のバイナリ値を有する複数の拡張ピクセルのそれぞれを定義するステップと、
該第1の拡張ピクセルの該第1のバイナリ値および該複数の拡張ピクセルのそれぞれの該第2のバイナリ値を比較するステップと、
該第1および第2のチャンネルのそれぞれにおいて拡張されたバイナリ値を出力するステップと、
該第1のチャンネルにおける該拡張されたバイナリ値を論理和して、論理和された拡張されたバイナリ値を生成するステップと
を包含する、プロセス。 - エッジを定義するプロセスであって、
第1のバッファにおける第1のグレースケールイメージを格納するステップと、
該第1のイメージを読み出すステップと、
該第1のイメージを第2のバッファに転送するステップと、
第2のグレースケールイメージに関して格納して、読み出して、転送するステップを繰り返すステップと、
該第2のイメージから該第1のイメージを差し引いて、第1の正のイメージを生成するステップと、
該第1のイメージから該第2のイメージを差し引いて、第2の正のイメージを生成するステップと、
該第1および第2の正のイメージを比較して、正差イメージを生成するステップと、
閾値を予定して、第1および第2のチャンネルにおける該正差イメージに適用する閾値を予め決定するステップと、
該第1および第2のチャンネルのそれぞれにおいて、該閾値と該正差イメージとを比較するステップと、
該第1および第2のそれぞれにおける第1のバイナリ値を出力するステップと
を包含する、プロセス。 - モーション検出プロセスであって、
第1のイメージをキャプチャするステップと、
該第1のイメージにおける物体の範囲のエッジを決定するステップと、
第2のイメージをキャプチャするステップと、
該第2のイメージにおける物体の範囲のエッジを決定するステップと、
該第2のイメージから該第1のイメージを差し引いて、差分イメージを生成するステップと、
該差分イメージと少なくとも1つの該エッジ決定とを比較して、少なくとも1つのエッジによって表された視野における物体の動きを決定するステップと
を包含する、プロセス。 - カメラの問題を決定するイメージプロセスであって、
イメージをキャプチャするステップと、
予め選択された判断基準に対して該イメージを評価するためのヒストグラムを作成するステップと
を包含する、プロセス。 - カメラの問題を決定するイメージプロセスであって、
第1のイメージをキャプチャするステップと、
該第1のイメージのエッジを決定するステップと、
第2のイメージをキャプチャするステップと、
該第2のイメージのエッジを決定するステップと、
該第2のイメージから該第1のイメージを差し引いて、差分イメージを生成するステップと、
該差分イメージを閾値化するステップと
を包含する、プロセス。 - イメージプロセスであって、
イメージをキャプチャするステップと、
該イメージを分析して、該イメージにおける物体を定義するステップと、
該イメージにおける物体にラベリングするステップと、
該物体を実際の世界座標に変換するステップと
を包含する、プロセス。 - ピクセルデータを記録するカメラの視野における物体のエッジを決定するプロセスであって、
ピクセルデータのリファレンスフレームをキャプチャするステップと、
ピクセルデータのイメージフレームをキャプチャするステップと、
該イメージフレームから該リファレンスフレームを差し引いて、第1のグレースケールのコントラストフレームを生成するステップと、
該リファレンスフレームから該イメージフレームを差し引いて、第2のグレースケールのコントラストフレームを生成するステップと、
該第1および第2のグレースケールのコントラストフレームを閾値化して、第1および第2のコントラスト閾値フレームを生成するステップと、
該第1および第2のコントラスト閾値フレームを拡張して、第1および第2の拡張されたフレームを生成するステップと、
該第1および第2の拡張されたフレームを論理和するステップと、
該第1および第2の拡張されたフレームを調整して、第1および第2のバイナリ値を生成するステップと
を包含する、プロセス。 - ピクセルデータからなるイメージに存在すると決定される物体のエッジとして定義される該ピクセルデータをスムージングするプロセスであって、該プロセスは、
第1および第2のチャンネルにおける該ピクセルデータからグレースケールイメージを定義するステップと、
水平ソーベルカーネルを利用して該グレースケールイメージをフィルタリングして、該第1および第2のチャンネルにおいて、水平にフィルタリングされる出力を生成するステップと、
垂直ソーベルカーネルを利用して該グレースケールイメージをフィルタリングして、該第1および第2のチャンネルにおいて、垂直にフィルタリングされる出力を生成するステップと、
該第1および第2のチャンネルにおいて、該水平および垂直のフィルタリングされた出力の絶対値を決定するステップと、
該絶対値を合計して、該第1および第2のチャンネルのソーベル値を生成するステップと、
該第2のチャンネルにおける該ソーベル値から該第1のチャンネルにおける該ソーベル値を差し引いて、出力値を生成するステップと
を包含する、プロセス。 - イメージを分析するシステムであって、
視野から能動的または受動的なエネルギーのどちらか一つまたは両方を感知するように構成され、かつ、適合されるセンサと、
該センサによって感知される該エネルギーからイメージを形成するように構成されるイメージャと、
該イメージャに応答するプロセッサであって、該プロセッサは、該イメージからのイメージコンテンツ情報をラベリングするように構成され、かつ、適合される、プロセッサと、
該プロセッサに対応する決定メーカーであって、該決定メーカーは、該イメージコンテンツ情報からの視野における(静止した)物体の存在について決定するように構成され、かつ、適合される、決定メーカーと
を含む、システム。 - 前記決定メーカーは決定の測定基準を有しており、該決定の測定基準は、前記イメージ内の第1の所定のエリアまたはゾーンに対する選択されたイメージ情報コンテンツの関係に基づいている、請求項12に記載のシステム。
- 前記決定メーカーは決定の測定基準を有しており、該決定の測定基準は、前記イメージ内の第2の所定のエリアまたはゾーンに対する選択されたイメージ情報コンテンツの関係に基づいている、請求項13に記載のシステム。
- 前記選択されたイメージ情報コンテンツは、前記物体の表示になることを決定メーカーに決定される、請求項13または14に記載のシステム。
- 前記エリアまたはゾーンに対する関係は、前記物体の少なくとも一部が前記第1の所定のゾーン内であるか、第2の所定のゾーン内にあるかのいずれかに制限される、請求項15に記載のシステム。
- 前記選択されたイメージ情報コンテンツは、前記物体のエッジの表示になることを前記決定メーカーに決定される、請求項13または14に記載のシステム。
- 前記選択されたイメージ情報コンテンツは、前記物体の影の表示になることを前記決定メーカーに決定される、請求項13または14に記載のシステム。
- 前記選択されたイメージ情報コンテンツは、光ビームの表示になることを前記決定メーカーに決定される、請求項13または14に記載のシステム。
- 前記選択されたイメージ情報コンテンツは、前記物体のモーションの表示になることを前記決定メーカーに決定される、請求項13または14に記載のシステム。
- 前記プロセッサは、エリア、境界線、図心、境界矩形、大きさ、分散、および形状からなる群から選択される前記物体の特性を決定するように構成され、適合される、請求項12に記載のシステム。
- 前記形状は、伸長、広がり、楕円形状ファクタ、および方向からなる群から選択される、請求項21に記載のシステム。
- 計算デバイスによるイメージ分析の方法であって、
センサの視野の少なくとも一部のピクセルイメージを該デバイスに提供するステップと、
該デバイスが、該視野内の少なくとも一つの物体の少なくとも一つのエッジにおそらく相当する該イメージにおいてピクセルを決定するステップと、
該デバイスが、該視野内の少なくとも一つの物体の少なくとも一つのエッジを表示する個々のエンティティを定義するように識別される該ピクセルの少なくとも一つの群をラベリングするステップと
を包含する、方法。 - 前記デバイスが、前記少なくとも一つの物体またはピクセルの少なくとも一つの群で数学的に動作して、該少なくとも一つの物体またはピクセルの少なくとも一つの群の少なくとも一つの特性を生成するステップを包含する、請求項23に記載の方法。
- 前記デバイスが、前記少なくとも一つの物体またはピクセルの少なくとも一つの群で数学的に動作して、該少なくとも一つの物体またはピクセルの少なくとも一つの数学的な特性または幾何学的な特性を生成するステップを包含する、請求項24に記載の方法。
- 前記少なくとも一つの特性を生成するステップは、エリア、境界線、慣性モーメント、グレーレベル平均値、グレーレベル分散、グレーレベルヒストグラム、および配置からなる群から選択される前記少なくとも一つの物体の一つ以上の特性を決定するステップを包含する、請求項24に記載の方法。
- 計算デバイスによるイメージ分析の方法であって、
センサの視野の少なくとも一部のピクセルイメージを該デバイスに提供するステップと、
該デバイスが、関心のエリアにおいて全てのピクセルの複数のプロパティを定量化するステップと、
該デバイスが、視野内の物体を表示する所定の第1の基準を満たすために、該ピクセルの第1の群をラベリングするステップと、
該デバイスが、視野内の物体を表示する所定の第2の基準を満たすために、該ピクセルの第2の群を単独で、かつ同時にラベリングするステップと
を包含する、方法。 - 前記デバイスが、前記物体または前記ピクセルの第1および第2の群で数学的に動作して、該物体または該ピクセルの第1および第2の群の少なくとも一つの特性をそれぞれ生成するステップを包含する、請求項27に記載の方法。
- 前記デバイスが、前記物体または前記ピクセルの第1および第2の群で数学的に動作して、該物体または該ピクセルの第1および第2の群の数学的または幾何学的な特性をそれぞれ生成するステップを包含する、請求項28に記載の方法。
- 前記少なくとも一つの特性を生成するステップは、エリア、境界線、慣性モーメント、グレーレベル平均値、グレーレベル分散、グレーレベルヒストグラム、および配置からなる群から選択される前記物体または前記ピクセルの第1および第2の群の一つ以上の特性を決定するステップを包含する、請求項28に記載の方法。
- 前記デバイスは、
前記物体または前記ピクセルの第1および第2の群で数学的に動作して、該物体まやは該ピクセルの第1および第2の群の少なくとも二つの特性を生成するステップであって、少なくとも一つの特性はエッジデータに基づき、少なくとも一つの特性は領域分析に基づく、ステップと、
該物体の特性と、該デバイスに格納されるかまたはデバイスにアクセス可能な所定の規則のセットとを比較するステップと、
該デバイスは、該比較に基づいて、第2のデバイスの制御に関する決定を生成するステップと
を包含する、請求項27に記載の方法。 - イメージ分析の方法であって、
視野におけるイメージの時間シーケンスを生成するステップと、
リファレンスイメージとして視野内に、すぐ前のイメージ以外の該連続するイメージの一つを割り当てるステップと、
該同じ視野のリファレンスイメージと選択された連続するイメージとを比較するステップと
を包含する、方法。 - 基準に基づいてその時々に前記リファレンスイメージをリフレッシュするステップを包含する、請求項32に記載の方法。
- 前記イメージの比較から生成されたイメージコンテンツの評価に基づいて前記リファレンスイメージをリフレッシュするステップを包含する、請求項33に記載の方法。
- 所定の時間経過に基づいて前記リファレンスイメージをリフレッシュするステップを包含する、請求項33に記載の方法。
- 現在のイメージを用いてリファレンスイメージの一部を更新するステップを包含する、請求項32に記載の方法。
- 所定の基準およびイメージコンテンツの評価を用いる更新を実施するステップを包含する、請求項36に記載の方法。
- イメージ分析の方法であって、
視野内のイメージの時間シーケンスを生成するステップと、
リファレンスイメージとして視野内の連続的なイメージの1つを割り当てるステップと、
正差オペレータを利用して、同じ視野内の該リファレンスイメージと選択された連続的なイメージとを比較するステップと
を包含する、方法。 - イメージ分析の方法であって、
イメージをキャプチャするステップと、
所定のイメージオペレータを利用して、該キャプチャされたイメージから一つ以上のイメージを生成するステップと、
視野内の物体に相当する一つ以上の生成されたイメージにおいて、ピクセルの個々の群に独立的にラベリングするステップと、
該一つ以上の生成されたイメージのそれぞれに対して該ピクセルの群を評価することによって特性を計算するステップと
を包含する、方法。 - 前記特性を同時に考慮するステップを包含する、請求項39に記載の方法。
- エッジデータ上の特性の一つ、および領域データ上の特性の別の一つに基づくステップを包含する、請求項39に記載の方法。
- カメラ以外のデバイスを制御するカメラシステムであって、
レンズを有するカメラであって、該レンズは少なくとも第1および第2の放射歪曲係数を有し、該第1の係数は少なくとも約1.0の値を有し、該第2の係数は少なくとも約1.0の絶対値を有する、カメラと、
該レンズを介する視野を表示するカメラ信号を生成する信号生成器と、
物体またはモーションの検出のために該カメラ信号を受信して該カメラ信号を分析する分析器であって、該分析器は、該物体またはモーションを示す検出信号を生成する、分析器と、
該検出信号を受信して、該検出信号に応答して該デバイスを制御するデバイスコントローラと
を備える、システム。 - 前記分析器は、イメージコンテンツを分析するための手段を有して、前記放射歪曲を補正する、請求項42に記載のシステム。
- 前記分析器は、前記放射歪曲を決定する、請求項43に記載のシステム。
- 前記分析器は、前記視野内の物体のサイズを決定するための手段を有する、請求項42に記載のシステム。
- 標準放射歪曲多項システムとして放射歪曲を表すコードを含み、該多項システムは、6のべきの項、ゼロでない該係数を有する、請求項42に記載のシステム。
- カメラ以外のデバイスを制御するためのカメラシステムであって、
レンズを有するカメラであって、該レンズは少なくとも約53°の視野を有する、カメラと、
該レンズを介する視野を表示するカメラ信号を生成する信号生成器と、
物体またはモーションの検出のために該カメラ信号を受信して該カメラ信号を分析する分析器であって、該分析器は、該物体またはモーションを示す検出信号を生成する、分析器と、
該検出信号を受信して、該検出信号に応答して該デバイスを制御するデバイスコントローラと
を備える、システム。 - 前記レンズは、少なくとも90°の視野を有する、請求項47に記載のシステム。
- 前記分析器は、イメージコンテンツを分析するための手段を有して、前記放射歪曲を補正する、請求項47に記載のシステム。
- 前記分析器は、前記放射歪曲を決定する、請求項49に記載のシステム。
- 前記分析器は、前記視野内の物体のサイズを決定するための手段を有する、請求項47に記載のシステム。
- 標準放射歪曲多項システムとして放射歪曲を表すコードを含み、該多項システムは、6のべきの項、ゼロでない該係数を有する、請求項47に記載のシステム。
- カメラ以外のデバイスを制御するためのカメラシステムであって、
レンズを有するカメラであって、該レンズがイメージ対角線および焦点長を有し、該イメージ対角線が該焦点長よりも長い、カメラと、
該レンズを介する視野を表示するカメラ信号を生成する信号生成器と、
物体またはモーションの検出のために該カメラ信号を受信して該カメラ信号を分析する分析器であって、該分析器は、該物体またはモーションを示す検出信号を生成する、分析器と、
該検出信号を受信して、該検出信号に応答して該デバイスを制御するデバイスコントローラと
を備える、システム。 - 前記イメージ対角線は、前記焦点長の少なくとも2倍のながさである、請求項53に記載のシステム。
- 前記分析器は、イメージコンテンツを分析するための手段を有して、前記放射歪曲を補正する、請求項53に記載のシステム。
- 前記分析器は、前記放射歪曲を決定する、請求項55に記載のシステム。
- 前記分析器は、前記視野内の物体のサイズを決定するための手段を有する、請求項53に記載のシステム。
- 標準放射歪曲多項システムとして放射歪曲を表すコードを含み、該多項システムは、6のべきの項、ゼロでない該係数を有する、請求項53に記載のシステム。
- a)レンズと、
b)該レンズから検出器に焦点を合わせられた光を有するように配置された検出器であって、該検出器は、イメージ信号を生成する、検出器と、
c)該イメージ信号を受信するコントローラと、
d)該イメージのグレースケール値のヒストグラムに基づいて該検出器からの該イメージ信号の利得を調節する利得制御と
を備える、カメラ。 - 前記検出器は、CCD−ベースの検出器およびCMOS−ベースの検出器からなる群から選択される、請求項59に記載のカメラ。
- イメージ処理の方法であって、
単一の視点から視野のピクセルイメージをキャプチャするステップと、
該イメージを電気的に分析して、該視野の物体に相当する該イメージにおけるピクセルの群を決定するステップと、
該ピクセルの群に相当する該視野における該物体の空間的配置を決定するステップと
を包含する、方法。 - イメージ処理の方法であって、
センサのアレイを提供するステップであって、該アレイは、容積空間の第1の視野を有する、ステップと、
該アレイから送られた信号からの二次元のピクセルイメージを定義するステップ(該ピクセルイメージは、該容積空間の二次元表示を提供する)と、
該容積空間において所望の座標系を予定するステップと、
該アレイのポーズおよび該座標系システムによる情報を利用して、三次元空間における空間座標に対する、該イメージにおけるピクセル座標間関係を電気的に決定するステップと
を包含する、方法。 - 第2の視野から前記アレイへの焦点エネルギーに対する放射歪曲をレンズに提供するステップと、
空間的配置に対するピクセル値の関係を調整するステップと
を包含する、請求項62に記載の方法。 - 前記座標系の測定単位に関連して前記視野内の前記センサのアレイの有効な分解能を電気的に決定するステップを包含する、請求項62に記載の方法。
- 前記決定された分解能の値を利用することによって、前記視野全体の検出特性を制御するステップを包含する、請求項64に記載の方法。
- 前記決定された分解能の値を利用することによって、検出閾値限界を調整するステップを包含する、請求項64に記載の方法。
- 検出のために関心のある物体の表示サイズに相当するピクセルエリアを予定するステップを包含する、請求項64〜66のいずれかに記載の方法。
- 実質的に平面関係で配列されるセンサのアレイを提供するステップを包含する、請求項62に記載の方法。
- 前記アレイの配置および方向、ならびに前記座標系に関しての情報を利用して、前記三次元空間の空間座標に対する前記イメージのピクセル座標間の関係を電気的に決定するステップを包含する、請求項62に記載の方法。
- 前記イメージングシステムおよび前記座標系の固有のパラメータに関しての情報を利用して、前記三次元空間の空間座標に対する前記イメージのピクセル座標間の関係を電気的に決定するステップを包含する、請求項62に記載の方法。
- 前記容積空間における均一な座標系を予め決定するステップを包含する、請求項62に記載の方法。
- 前記アレイのポーズおよび前記均一な座標系に関しての情報を利用して、前記三次元空間の空間座標に対する前記イメージのピクセル座標間の関係を電気的に決定するステップを包含する、請求項71に記載の方法。
- 射影透視変換を利用して、前記三次元空間の空間座標に対する前記イメージのピクセル座標間の関係を電気的に決定するステップを包含する、請求項71に記載の方法。
- 射影透視変換に放射歪曲補正を追加して、前記三次元空間の空間座標に対する前記イメージのピクセル座標間の関係を電気的に決定するステップを包含する、請求項73に記載の方法。
- CCDを提供するステップであって、該CCDは、容積空間の第1の視野を有する、請求項62に記載の方法。
- イメージング分析の方法であって、
センサの視野の少なくとも一部のピクセルイメージを提供するステップと、
該視野の物体におそらく相当する該イメージにおいてピクセルを決定するステップと、
該決定されるピクセル間を区別して、空間的に別々のピクセルの群を定義するステップと、
各ピクセルの群にラベリングするステップと
を包含する、方法。 - プロセッサをモニタリングするタイマーであって、
不適切な作用が検出されたときに該プロセッサをリセットする第1の回路と、
該プロセッサが出力状況を制御していないときに安全な該出力状況を維持する第2の回路と
を備える、タイマー。 - 温度モニターを備える、請求項77に記載のタイマー。
- 前記温度モニターは、前記プロセッサの温度が所定の動作限界を越えるときに出力信号を生成する、請求項78に記載のタイマー。
- 前記温度モニターは、前記プロセッサの温度が所定の動作限界を越えるときに該プロセッサをリセットするための前記第1の回路に接続される、請求項79に記載のタイマー。
- モニタリングデバイスであって、
周囲からのエネルギーを感知して、エネルギーを表示する出力を提供するためのセンサと、
該センサの該出力から形成されるイメージと、
該イメージの第1の部分を分析するための第1の分析器と、
該イメージの該第1の部分から区別した該イメージの第2の部分を分析して、該それぞれの分析器によって分析される該イメージのそれぞれの部分を表示する信号をそれぞれ生成するための第2の分析器と
を備える、モニタリングデバイス。 - モニタリングデバイスであって、
周囲からのエネルギーを感知して、エネルギーを表示する出力を提供するためのセンサと、
該センサの該出力から形成されるイメージと、
該イメージのn個の部分を分析するためのn個の分析器であって、各部分が区別される、n個の分析器と、
該それぞれの分析器によって分析される該イメージのそれぞれの部分を表示する信号をそれぞれ生成する各分析器と
を備える、モニタリングデバイス。 - レンズおよび任意に透明なレンズカバーを有して、該レンズを介する視野および該レンズカバーを任意に介する視野を有するカメラであって、
ロジックおよびデータを格納して、該視野の効果を有する状況を表す基準を組織立てるための格納デバイスと、
該視野を表すイメージを取得して、格納するためのイメージャと、
該基準に対する比較において使用する該イメージャから生成されるデータを処理するためのプロセッサと、
該イメージを表す制御信号を生成するための生成器と
を備える、カメラ。 - 前記カメラのイメージ品質を評価するためのフレーム分析アルゴリズムを備える、請求項83に記載のカメラ。
- カメラ環境に関連して前記レンズの位置または方向における変化を評価するためのフレーム分析アルゴリズムを備える、請求項83に記載のカメラ。
- 前記カメラのイメージ故障を評価するためのフレーム分析アルゴリズムを備える、請求項83に記載のカメラ。
- 前記レンズを介する視野およびレンズカバーを任意に介する視野に影響を与える前記状況が、該レンズまたはレンズカバーに接触する物質、該視野における照明レベル、該視野における著しい明暗点、該レンズを通る全体の電磁エネルギー束、および他の物体による該レンズの妨害からなる群から選択される、請求項83に記載のカメラ。
- 前記プロセッサは、前記イメージからヒストグラムを生成するための生成器を有し、前記格納デバイスが、ヒストグラムの基準に関連したデータを有する、請求項83に記載のカメラ。
- 前記ヒストグラムの基準に関連した前記データは、所定のヒストグラムと前記視野を表すイメージから決定されたヒストグラムとの間の比較によって生成される、請求項88に記載のカメラ。
- 前記プロセッサは、前記イメージからヒストグラムを生成するための生成に記載のを有し、前記格納デバイスが、前記ヒストグラムの基準に関連したデータを有する、請求項87に記載のカメラ。
- 前記ヒストグラムの基準に関連した前記データが、所定のヒストグラムと前記視野を表す前記イメージから決定されるヒストグラムとの間の比較によって生成される、請求項90に記載のカメラ。
- 前記レンズまたはレンズカバーと接触する前記物質は、埃、塵、油、水分、有機膜、無機膜、すす、および金属繊維からなる群から選択される、請求項87〜91のいずれかに記載のカメラ。
- 前記状況は、正常および異常からなる群から選択される、請求項83に記載のカメラ。
- ウィンドウの曇りを除去するシステムであって、
電気的伝導性端子と、
該伝導性端子に隣接して、該ウィンドウに結合可能であるPTC材料と
を備える、システム。 - 前記PTC材料に隣接する別の電気的伝導性端子をさらに備える、請求項94に記載のシステム。
- 前記電気的伝導性端子に結合される電位をさらに備える、請求項95に記載のシステム。
- 前記電気的伝導性端子は、該電気的伝導性端子を通って伸びるアパーチャを有する、請求項94に記載のシステム。
- 前記PTC材料は、該電気的伝導性端子を通って伸びるアパーチャを有する、請求項94に記載のシステム。
- 前記電気的伝導性端子および前記PTC材料が、該電気的伝導性端子および該PTC材料を通り、互いに同軸配列で伸びるアパーチャを有する、請求項94に記載のシステム。
- 開口部を有するハウジングと、
該開口部上に取り付けられたウィンドウと、
該ウィンドウに結合可能であるPTC材料と
を備える、装置。 - 前記PTC材料に接続される電気的伝導性端子をさらに備える、請求項100に記載の装置。
- 前記PTC材料に隣接する別の電気的伝導性端子をさらに備える、請求項101に記載の装置。
- 電気的伝導性端子に結合される電位をさらに備える、請求項101に記載の装置。
- 前記電気的伝導性端子は、該電気的伝導性端子を通って伸びる装置を有する、請求項101に記載の装置。
- 前記PTC材料は、該PTC材料を通って伸びるアパーチャを有する、請求項100に記載の装置。
- 前記電気的伝導性端子および前記PTC材料が、該電気的伝導性端子および該PTC材料を通り、互いに同軸配列で伸びるアパーチャ、および前記ハウジングの開口部を有する、請求項101に記載のシステム。
- 前記ハウジング内に取り付けられたカメラをさらに備える、請求項100に記載の装置。
- 前記カメラは、前記ウィンドウを介して伸びる視野を有する、請求項107に記載の装置。
- 前記視野は、ドアを続く経路の少なくとも一部を含む、請求項108に記載の装置。
- 前記ドアに結合可能にされ、前記視野内に検出された物体に対応するドアオープナーをさらに備える、請求項109に記載の装置。
- 自動ドアのコントローラと通信する入力デバイスであって、
第1の時間に動かされるときに前記デバイスに第1のデータのセットを入力することをユーザに促して、第2の時間に動かされるときに前記デバイスに第2のデータのセットを入力することをユーザに促すように構成される第1のシーケンシングキーと、
少なくとも一つの入力キーと、
少なくとも一つの入力と
を備える、デバイス。 - ユーザ入力を表示するためのディスプレイを備える、請求項111に記載のデバイス。
- 前記第1のシーケンシングキーからの催促に応答して選択する予め格納されたユーザ選択肢を表示するためのディスプレイを備える、請求項111に記載のデバイス。
- 前記ディスプレイは、前記予め格納されたデータの一部のみを表示して、少なくとも一つの入力キーの各動作に対して表示される、請求項113に記載のデバイス。
- 動かされたとき、ユーザ入力を受容して、格納する入力セレクタを備える、請求項111〜114のいずれかに記載のデバイス。
- 第1の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第3のデータのセットを入力することをユーザに促して、第2の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第4のデータのセットを入力することをユーザに促すように構成される第2のシーケンシングキーを備える、請求項112〜115のいずれかに記載のデバイス。
- 第1の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第3のデータのセットを入力することをユーザに促して、第2の時間に動かされるときに、第2のディスプレイキーを用いて前記デバイスに第4のデータのセットを入力することをユーザに促すように構成される第2のシーケンシングキーを備える、請求項112〜115のいずれかに記載のデバイス。
- 第1の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第5のデータのセットを入力することをユーザに促して、第2の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第6のデータのセットを入力することをユーザに促すように構成される第3のシーケンシングキーを備える、請求項112〜117のいずれかに記載のデバイス。
- 第1の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第5のデータのセットを入力することをユーザに促して、第2の時間に動かされるときに、第2のディスプレイキーを用いて前記デバイスに第6のデータのセットを入力することをユーザに促すように構成される第3のシーケンシングキーを備える、請求項112〜117のいずれかに記載のデバイス。
- 前記第1および第2のシーケンシングキーは、階層が構成され、該階層により該第1のシーケンシングが該第2のシーケンシングキーの操作を無効にする、請求項116に記載のデバイス。
- 前記第1および第2のシーケンシングキーは、階層が構成され、該階層により該第1のシーケンシングが該第3のシーケンシングキーの操作を無効にする、請求項118に記載のデバイス。
- 前記第1、第2、および第3のシーケンシングキーは、階層が構成され、該階層により該第1のシーケンシングが該第2および第3のシーケンシングキーの操作を無効にする、請求項118に記載のデバイス。
- 前記少なくとも一つの入力は、数値入力である、請求項111に記載のデバイス。
- 前記少なくとも一つの入力は、アルファ入力である、請求項111に記載のデバイス。
- 開口を選択的に妨げるドアパネルを有する自動ドアを制御するためのセンサシステムであって、
該センサの視野において感知される物体に関連する該開口および信号出力について関心のあるエリアの視野を有するセンサと、
センサ出力信号に対応する信号プロセッサと、
該信号プロセッサに対応するドアドライブと、
信号出力を有する入力デバイスであって、該信号プロセッサは、該入力デバイスからの出力信号に対応する、入力デバイスと
を備え、
該入力デバイスは、該視野を得るために取り付けられるように該センサのポーズを表示するデータをユーザに入力することを可能にするポーズ入力を有する、センサシステム。 - 前記ポーズ入力は、前記センサのインストールされた高さを含む、請求項125に記載のセンサシステム。
- 前記ポーズ入力は、前記センサの数値的な高さを含む、請求項125に記載のセンサシステム。
- 前記ポーズ入力は、前記視野に関連した前記ドアのモデル数を含む、請求項125に記載のセンサシステム。
- 前記ポーズ入力は、前記開口の幅を含む、請求項125に記載のセンサシステム。
- 前記ポーズ入力は、前記開口の長さを含む、請求項125に記載のセンサシステム。
- 前記ポーズ入力は、動作ゾーンの第1の部分を含む、請求項125に記載のセンサシステム。
- 前記ポーズ入力は、動作ゾーンの第2の部分を含む、請求項125に記載のセンサシステム。
- ドアについて関心のあるエリアの視野を有するセンサに対応するドアドライブと通信するための入力デバイスであって、
選択可能な入力セレクタの第1の段と、
選択可能な入力セレクタの第2の段と
を備え、該第1および第2の段は、選択可能な入力セレクタの該第1の段へのユーザ入力が、選択可能な入力セレクタの該第2の段の入力に対する選択有効性を制御する、入力デバイス。 - 開口を選択的に妨げるドアパネルを有する自動ドアを制御するためのセンサシステムであって、
視野における物体を感知するように構成されるセンサと、
該自動ドアのコントローラとの通信用の出力を有する入力デバイスであって、該入力デバイスは、該センサの高さに関連したユーザ入力を有する、入力デバイスと
を備える、センサシステム。 - 前記入力デバイスは、前記ドアの幅に関連したユーザ入力を有する、請求項134に記載のシステム。
- 前記入力デバイスは、ドアモデルに関連して格納されたデータセットを有する、請求項134に記載のシステム。
- データ処理に関するイメージ分析器であって、
ピクセル処理のFPGAと、
該FPGAに並列に接続可能なCPUと、
該CPUに接続可能なビデオバッファと
を備える、イメージ分析器。 - 高いレートで処理を実施するプロセッサであって、
現在のフレームを処理するCPUを提供するステップと、
次のフレームを同時に処理して、FPGA出力を生成するステップと、
格納バンクに該FPGA出力を格納するステップと、
該FPGA出力を該格納バンクから取り出すステップと、
処理のために該FPGA出力を該CPUに送信するステップと
を包含する、プロセス。 - ビデオシステムを初期化するプロセスであって、
FPGAを初期化するステップと、
第1のピンポンデータセットを選択するステップと、
ビデオフレームをキャプチャすることを該FPGAに指示するステップと、
少なくとも一つのリファレンスイメージを初期化するステップと、
FPGA出力を生成するために該少なくとも一つのリファレンスイメージを処理することを該FPGAに指示するステップと、
該FPGAからのFPGA出力を該第1のピンポンデータセットに伝送するステップと
を包含する、プロセス。 - エフェクタを制御するためのシステムであって、
視野から能動的または受動的なエネルギーのどちらか一つ、あるいは両方を感知するように構成され、適合されるセンサと、
該センサによって感知された該エネルギーからのイメージを形成するように構成されるイメージャと、
該イメージャに応答するイメージ分析器であって、該イメージ分析器は、該イメージからイメージコンテンツ情報を定義するように構成され、適合される、イメージ分析器と、
該イメージ分析器に応答する決定メーカーであって、該決定メーカーは、該イメージコンテンツ情報から該視野における(静止した)物体の存在について決定させるように適合され、構成される、決定メーカーと、
該エフェクタを制御するための第1のコントローラであって、該第1のコントローラは、該決定メーカーに対応される、第1のコントローラと
を備える、システム。 - 前記決定メーカーは、第1の決定の測定基準を有して、該第1の決定の測定基準は、該イメージ内に第1の所定のエリアまたはゾーンに関する選択されたイメージ情報のコンテンツの関係に基づかれる、請求項140に記載のシステム。
- 前記決定メーカーは、第1の決定の測定基準を有して、該第1の決定の測定基準は、該イメージ内に第2の所定のエリアまたはゾーンに関する選択されたイメージ情報のコンテンツの関係に基づかれる、請求項141に記載のシステム。
- 前記選択されたイメージ情報のコンテンツは、前記物体の表示になることを前記決定メーカーに決定される、請求項141または142に記載のシステム。
- 前記エリアまたはゾーンに対する関係は、前記物体の少なくとも一部が前記第1の所定のゾーン内であるか、または第2の所定のゾーン内であるかのいずれかに限定される、請求項143に記載のシステム。
- 開口を選択的に妨げる自動ドアを制御するためのシステムであって、
視野から能動的または受動的なエネルギーのどちらか一つ、あるいは両方を感知するように構成され、適合されるセンサと、
該センサによって感知された該エネルギーからのイメージを形成するように構成されるイメージャと、
該イメージャに対応するイメージ分析器であって、該イメージ分析器は、該イメージからイメージコンテンツ情報を定義するように構成され、適合される、イメージ分析器と、
該イメージ分析器に対応する決定メーカーであって、該決定メーカーは、該イメージコンテンツ情報に基づいて、該視野における物体について決定させるように適合され、構成される、決定メーカーと、
該ドアの少なくとも該開口および閉口を制御するためのドアコントローラであって、該ドアコントローラは、該決定メーカーに対応される、ドアコントローラと
を備える、システム。 - 前記決定メーカーは、第1の決定の測定基準を有し、該第1の決定の測定基準は、前記イメージ内の第1の所定のエリアまたはゾーンに対する選択されたイメージ情報のコンテンツに基づく、請求項145に記載のシステム。
- 前記決定メーカーは、第1の決定の測定基準を有し、前記第1の決定の測定基準は、前記イメージ内の第2の所定のエリアまたはゾーンに対する選択されたイメージ情報のコンテンツに基づく、請求項146に記載のシステム。
- 前記選択されたイメージ情報のコンテンツは、静止した物体の存在を表示する、請求項146または147に記載のシステム。
- 前記エリアまたはゾーンに対する関係は、物体の少なくとも一部が前記第1の所定のゾーン内であるか、または第2の所定のゾーン内であるかのいずれかを含む、請求項148に記載のシステム。
- 前記エリアまたはゾーンに対する関係は、前記物体の少なくとも一部が前記第1の所定のゾーン内であるか、または第2の所定のゾーン内であるかのいずれかを含む、請求項146または147に記載のシステム。
- 前記視点の次元およびジオメトリを前記イメージを含むピクセルの座標に変換するジオメトリマッパーを含む、請求項145に記載のシステム。
- 分析のためにピクセルイメージを生成する単一のカメラからなる物体位置ロケータであって、
該カメラの視野における物体の存在を決定する物体検出アルゴリズムを有するイメージ分析器と、
該ピクセルイメージにおける物体に対する個々のアイデンティティを提供するラベラーと、
該ピクセルイメージにおける該物体の座標を決定するための位置ロケータと
を含む、物体位置ロケータ。 - モニタリングデバイスであって、
周囲からのエネルギーを感知して、エネルギーを表示する出力を提供するためのセンサと、
該センサの該出力から形成されるイメージと、
該イメージのn個の部分を分析するためのn個の分析器であって、各部分が区別される、n個の分析器と、
該それぞれの分析器によって分析される該イメージのそれぞれの部分を表示する信号をそれぞれ生成する各分析器と
を備える、モニタリングデバイス。 - 監視システムであって、
複数のセンサであって、各センサは、関心のある個々の配置において分散され、各センサは視野を有し、該視野において物体を表すセンサ信号を生成する、複数のセンサと、
該センサ信号を受信して、該信号から関心のある物体の存在、または該複数のセンサのそれぞれの視野におけるモーションを決定し、かつ、該複数の視野を表すディスプレイ信号を生成して、該複数の視野のうちそれぞれ一つの物体の存在またはモーションを表す検出信号を生成するための一つ以上の信号分析器と、
該ディスプレイ信号を受信して、かつ、選択された視野を表す人が解釈可能なデータを生成して表示するための少なくとも一つのビュアと、
該信号分析からの該検出信号を少なくとも受信するコントローラであって、該コントローラは、視野が少なくとも一つのビュア上に表示される該検出信号から決定する、コントローラと
を備える、監視システム。 - ウィンドウの曇りを除去するシステムであって、
電気的伝導性端子と、
該伝導性端子に隣接して、該ウィンドウに動作可能なように結合されるPTC材料と
を備える、システム。 - 前記PTC材料に隣接する別の電気的伝導性端子をさらに備える、請求項155に記載のシステム。
- 前記電気的伝導性端子に結合される電位をさらに備える、請求項156に記載のシステム。
- 前記電気的伝導性端子は、該電気的伝導性端子を通って伸びるアパーチャを有する、請求項155に記載のシステム。
- 前記PTC材料は、該電気的伝導性端子を通って伸びるアパーチャを有する、請求項155に記載のシステム。
- 前記電気的伝導性端子および前記PTC材料が、該電気的伝導性端子および該PTC材料を通り、互いに同軸配列で伸びるアパーチャを有する、請求項155に記載のシステム。
- 開口部を有するハウジングと、
該開口部上に取り付けられたウィンドウと、
該ウィンドウに結合可能であるPTC材料と
を備える、装置。 - 前記PTC材料に接続される電気的伝導性端子をさらに備える、請求項161に記載の装置。
- 前記PTC材料に隣接する別の電気的伝導性端子をさらに含む、請求項162に記載の装置。
- 電気的伝導性端子に結合される電位をさらに備える、請求項162に記載の装置。
- 前記電気的伝導性端子は、該電気的伝導性端子を通って伸びる装置を有する、請求項162に記載の装置。
- 前記PTC材料は、該PTC材料を通って伸びるアパーチャを有する、請求項161に記載の装置。
- 前記電気的伝導性端子および前記PTC材料が、該電気的伝導性端子および該PTC材料を通り、互いに同軸配列で伸びるアパーチャ、および前記ハウジングの開口部を有する、請求項162に記載のシステム。
- 前記ハウジング内に取り付けられたカメラをさらに備える、請求項161に記載の装置。
- 前記カメラは、前記ウィンドウを介して伸びる視野を有する、請求項168に記載の装置。
- 前記視野は、ドアを続く経路の少なくとも一部を含む、請求項169に記載の装置。
- 前記ドアに結合可能にされ、前記視野内に検出された物体に対応するドアオープナーをさらに備える、請求項170に記載の装置。
- ドアを制御するシステムであって、
イメージデータを収集するカメラと、
該カメラからのイメージデータを受信する制御ユニットと、
該ドアの開閉を制御するための駆動モータであって、該駆動モータは、該制御ユニットから制御信号を受信する、駆動モータと
を備える、システム。 - 前記制御ユニットは、制御ゾーンとしてイメージの少なくとも一部を定義するための手段を有する、請求項172に記載のシステム。
- 第1の制御ゾーンを含み、該第1の制御ゾーン内の選択されたイメージデータが、前記ドアを開くための制御信号を生成する、請求項173に記載のシステム。
- 第2の制御ゾーンを含み、該第2の制御ゾーン内の選択されたイメージデータが、前記ドアが閉じることを妨げる第1の制御状況を生成する、請求項173または174に記載のシステム。
- 前記定義するための手段は、前記制御ゾーン内に直接アクセスすることによって全てのピクセル座標から座標を選択することを含む、請求項173に記載のシステム。
- 前記定義するための手段は、複数の所定のゾーンから選択することを含む、請求項173に記載のシステム。
- 前記定義するための手段は、境界座標を描くために視野に実際の物体を置くことを含み、該実際の物体は前記イメージデータの一部になり、前記制御ゾーンは該実際の物体のイメージデータから定義される、請求項173に記載のシステム。
- 前記制御ユニットは、第1の時間において前記第1の制御ゾーンのイメージデータを分析して、
該制御ユニットは、第2の時間において該第1の制御ゾーンのイメージデータを分析して、
該制御ユニットは、該第1の時間におけるイメージデータと該第2の時間におけるイメージデータとを比較して、物体が該第1の制御ゾーンに存在するかどうかを決定する、請求項172〜174のいずれかに記載のシステム。 - 前記物体の任意の部分が前記第1の制御ゾーン内にあるかどうかを判定するために、該物体は決定するために分析される、請求項179に記載のシステム。
- 前記物体の任意の部分が前記第1の制御ゾーン内にある場合、該第1の制御ゾーン内の前記選択されたイメージデータは、前記制御信号を生成して前記ドアを開く、請求項180に記載のシステム。
- 前記制御ユニットは前記物体の一部を選択して、該物体のボトムエッジを決定する、請求項181に記載のシステム。
- 前記ボトムエッジが前記第1の制御ゾーン内にあるかどうかを判定するために、前記制御ユニットは、該ボトムエッジを分析して決定する、請求項182に記載のシステム。
- 第4の制御ゾーンは、前記第1の制御ゾーンに隣接して定義され、該第4の制御ゾーンは、該第1の制御ゾーンと前記カメラとの間に物体を有する、請求項183に記載のシステム。
- 前記第4の制御ゾーンは、前記第1の制御ゾーンと前記カメラとの間に位置される、請求項184に記載のシステム。
- 前記第4の制御ゾーンにおける前記物体の存在は、前記第1の制御ゾーンによって前記ドアを開くための前記制御信号を送信することを防止する、請求項185に記載のシステム。
- 前記第4の制御ゾーンにおける前記物体の存在は、前記第1の制御ゾーンによって前記ドアを開くための前記制御信号を送信する、請求項186に記載のシステム。
- 前記制御ユニットは、第1の時間において前記第2の制御ゾーンのイメージデータを分析して、
該制御ユニットは、第2の時間において該第2の制御ゾーンのイメージデータを分析して、
該制御ユニットは、該第1の時間におけるイメージデータと該第2の時間におけるイメージデータとを比較して、物体が該第1の制御ゾーンに存在するかどうかを決定する、請求項172〜175のいずれかに記載のシステム。 - 第3の制御ゾーンをさらに含み、該第3の制御ゾーン内の選択されたイメージデータが、前記ドアが閉じることを妨げる第2の制御状況を生成する、請求項172〜175のいずれかに記載のシステム。
- 前記第2の制御ゾーンは、複数の所定の形状を含む、請求項172〜175のいずれかに記載のシステム。
- 前記第3の制御ゾーンは、複数の所定の形状を含み、該第3の制御ゾーンの形状は、前記第2の制御ゾーンの形状に対して補完的である、請求項189または190に記載のシステム。
- 前記制御ユニットは、第1の時間において前記第3の制御ゾーンのイメージデータを分析して、
該制御ユニットは、第2の時間において該第3の制御ゾーンのイメージデータを分析して、
該制御ユニットは、該第1の時間におけるイメージデータと該第2の時間におけるイメージデータとを比較して、物体が該第3の制御ゾーンに存在するかどうかを決定する、請求項191に記載のシステム。 - 前記第1の制御ゾーンは、複数のユーザ特有の寸法と前記イメージデータとを比較するための手段を含む、請求項172〜174のいずれかに記載のシステム。
- 前記カメラは、可視光波、赤外光波、マイクロ波、レーダー電波、および音波からなる群から選択されるエネルギーを感知する、請求項172〜193のいずれかに記載のシステム。
- ユーザは、エリア、配置、形状、制御ゾーンの数、および制御基準からなる群から少なくとも一つの制御ゾーンパラメータを定義するためのデータを入力し得る、請求項173〜194のいずれかに記載のシステム。
- 前記センサはカメラである、請求項1〜194のいずれかに記載のシステム。
- ドアを制御するためのシステムであって、
センサであって、該センサは、例えば、該ドアに隣接する物体からの干渉エネルギーを感知するビームを有する、センサと、
カメラによって感知されるエネルギーを表す該センサから電子エネルギーを受信する制御ユニットと、
該ドアの開閉を制御するための駆動モータであって、該駆動モータは該制御ユニットからの制御信号を受信する、駆動モータと、
制御ゾーンとしてのビームパターンの一部を定義するための手段と
を備える、ドアを制御するためのシステム。 - 前記制御ゾーンはビームパターンである、請求項197に記載のシステム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US22961300P | 2000-08-31 | 2000-08-31 | |
| PCT/US2001/027351 WO2002019698A2 (en) | 2000-08-31 | 2001-08-31 | Sensor and imaging system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2004510363A true JP2004510363A (ja) | 2004-04-02 |
Family
ID=22861976
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002523861A Withdrawn JP2004510363A (ja) | 2000-08-31 | 2001-08-31 | センサおよびイメージングシステム |
Country Status (8)
| Country | Link |
|---|---|
| US (1) | US7522745B2 (ja) |
| EP (1) | EP1360833A1 (ja) |
| JP (1) | JP2004510363A (ja) |
| CN (1) | CN1606758A (ja) |
| AU (1) | AU2001290608A1 (ja) |
| CA (1) | CA2421111A1 (ja) |
| MX (1) | MXPA03001804A (ja) |
| WO (1) | WO2002019698A2 (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101138222B1 (ko) | 2010-05-11 | 2012-04-24 | 재단법인 포항지능로봇연구소 | 전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법 |
| KR20180005480A (ko) * | 2016-07-06 | 2018-01-16 | 삼성전자주식회사 | 전자 장치 및 이의 디스플레이 방법 |
Families Citing this family (116)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6711278B1 (en) * | 1998-09-10 | 2004-03-23 | Microsoft Corporation | Tracking semantic objects in vector image sequences |
| US6701005B1 (en) | 2000-04-29 | 2004-03-02 | Cognex Corporation | Method and apparatus for three-dimensional object segmentation |
| US8564661B2 (en) | 2000-10-24 | 2013-10-22 | Objectvideo, Inc. | Video analytic rule detection system and method |
| US9892606B2 (en) | 2001-11-15 | 2018-02-13 | Avigilon Fortress Corporation | Video surveillance system employing video primitives |
| US8711217B2 (en) * | 2000-10-24 | 2014-04-29 | Objectvideo, Inc. | Video surveillance system employing video primitives |
| US8457401B2 (en) * | 2001-03-23 | 2013-06-04 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
| US7424175B2 (en) | 2001-03-23 | 2008-09-09 | Objectvideo, Inc. | Video segmentation using statistical pixel modeling |
| US7072512B2 (en) * | 2002-07-23 | 2006-07-04 | Microsoft Corporation | Segmentation of digital video and images into continuous tone and palettized regions |
| US7920718B2 (en) * | 2002-09-05 | 2011-04-05 | Cognex Corporation | Multi-zone passageway monitoring system and method |
| US7397929B2 (en) * | 2002-09-05 | 2008-07-08 | Cognex Technology And Investment Corporation | Method and apparatus for monitoring a passageway using 3D images |
| US7400744B2 (en) * | 2002-09-05 | 2008-07-15 | Cognex Technology And Investment Corporation | Stereo door sensor |
| ITPI20020051A1 (it) * | 2002-09-18 | 2004-03-19 | Cnr Consiglio Naz Delle Ric Erche | Metodo e apparato per l'estrazione dei contorni delle strutture presenti in una immagine mediante l'impiego di una classe di filtri non lineari. |
| JP3669698B2 (ja) * | 2002-09-20 | 2005-07-13 | 日東電工株式会社 | 印刷物の検査方法及び検査装置 |
| US7045764B2 (en) | 2002-10-17 | 2006-05-16 | Rite-Hite Holding Corporation | Passive detection system for detecting a body near a door |
| AT500925A1 (de) * | 2003-03-05 | 2006-04-15 | Walter Dipl Ing Lorenz | Verfahren und einrichtung zur überwachung des einstiegsbereiches von fahrzeugen |
| US7034682B2 (en) | 2003-06-20 | 2006-04-25 | Rite-Hite Holding Corporation | Door with a safety antenna |
| JP3987013B2 (ja) * | 2003-09-01 | 2007-10-03 | 本田技研工業株式会社 | 車両周辺監視装置 |
| US7623674B2 (en) * | 2003-11-05 | 2009-11-24 | Cognex Technology And Investment Corporation | Method and system for enhanced portal security through stereoscopy |
| US8326084B1 (en) | 2003-11-05 | 2012-12-04 | Cognex Technology And Investment Corporation | System and method of auto-exposure control for image acquisition hardware using three dimensional information |
| US9104650B2 (en) | 2005-07-11 | 2015-08-11 | Brooks Automation, Inc. | Intelligent condition monitoring and fault diagnostic system for preventative maintenance |
| US7882394B2 (en) * | 2005-07-11 | 2011-02-01 | Brooks Automation, Inc. | Intelligent condition-monitoring and fault diagnostic system for predictive maintenance |
| US8111904B2 (en) | 2005-10-07 | 2012-02-07 | Cognex Technology And Investment Corp. | Methods and apparatus for practical 3D vision system |
| US8004514B2 (en) * | 2006-02-10 | 2011-08-23 | Qualcomm Mems Technologies, Inc. | Method and system for updating of displays showing deterministic content |
| US7940955B2 (en) * | 2006-07-26 | 2011-05-10 | Delphi Technologies, Inc. | Vision-based method of determining cargo status by boundary detection |
| DE102006044114A1 (de) * | 2006-09-20 | 2008-03-27 | Forschungszentrum Karlsruhe Gmbh | Verfahren zur Charakterisierung der Abgasausbrandqualität in Verbrennungsanlagen |
| US8150101B2 (en) * | 2006-11-13 | 2012-04-03 | Cybernet Systems Corporation | Orientation invariant object identification using model-based image processing |
| US7705744B2 (en) | 2007-05-24 | 2010-04-27 | Cutsforth Products, Inc. | Monitoring systems and methods for monitoring the condition of one or more components of an electrical device |
| US8618943B2 (en) | 2007-05-24 | 2013-12-31 | Cutsforth, Inc. | Brush holder assembly monitoring apparatus, assembly, system and method |
| US8126260B2 (en) | 2007-05-29 | 2012-02-28 | Cognex Corporation | System and method for locating a three-dimensional object using machine vision |
| US8767975B2 (en) * | 2007-06-21 | 2014-07-01 | Bose Corporation | Sound discrimination method and apparatus |
| US8610787B2 (en) * | 2007-06-22 | 2013-12-17 | Panasonic Corporation | Camera device including privacy protection method |
| CN101170359B (zh) * | 2007-12-03 | 2011-06-08 | 华东理工大学 | 一种能够跟踪信号移动的光通信接收装置 |
| US20090172756A1 (en) * | 2007-12-31 | 2009-07-02 | Motorola, Inc. | Lighting analysis and recommender system for video telephony |
| US8111919B2 (en) * | 2008-02-04 | 2012-02-07 | Eyep, Inc. | Feature encoding system and method for connected component labeling |
| US8073199B2 (en) | 2008-05-30 | 2011-12-06 | Drs Rsta, Inc. | Method for minimizing scintillation in dynamic images |
| KR20110053417A (ko) * | 2008-09-08 | 2011-05-23 | 네드 엠. 아두트 | 디지털 비디오 필터 및 화상 처리 |
| JP5203869B2 (ja) * | 2008-09-24 | 2013-06-05 | キヤノン株式会社 | 画像処理装置及びその制御方法及びプログラム |
| EP2384465A1 (en) * | 2009-01-21 | 2011-11-09 | Thomson Licensing | Method to control media with face detection and hot spot motion |
| EP2389788B1 (en) * | 2009-01-26 | 2019-12-04 | Signify Holding B.V. | Apparatus and method for providing settings of a control system for implementing a spatial distribution of perceptible output |
| ES2372830B1 (es) * | 2009-02-26 | 2012-11-30 | Universidad Carlos Iii De Madrid | Procedimiento para la captura y seguimiento de objetos y dispositivo para llevar a cabo dicho procedimiento. |
| US20110061100A1 (en) * | 2009-09-10 | 2011-03-10 | Nokia Corporation | Method and apparatus for controlling access |
| US20110099476A1 (en) * | 2009-10-23 | 2011-04-28 | Microsoft Corporation | Decorating a display environment |
| CN102792305B (zh) * | 2010-03-11 | 2016-10-26 | 皇家飞利浦电子股份有限公司 | 用于表征和可视化电磁跟踪误差的方法和系统 |
| CN102859104A (zh) * | 2010-03-26 | 2013-01-02 | 西门子公司 | 关闭和开启门的安全装置 |
| US9927368B1 (en) * | 2011-01-26 | 2018-03-27 | SeeScan, Inc. | Self-leveling inspection systems and methods |
| US9842168B2 (en) | 2011-03-31 | 2017-12-12 | Microsoft Technology Licensing, Llc | Task driven user intents |
| US9760566B2 (en) | 2011-03-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
| US9244984B2 (en) | 2011-03-31 | 2016-01-26 | Microsoft Technology Licensing, Llc | Location based conversational understanding |
| US9298287B2 (en) | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
| US10642934B2 (en) | 2011-03-31 | 2020-05-05 | Microsoft Technology Licensing, Llc | Augmented conversational understanding architecture |
| US9858343B2 (en) | 2011-03-31 | 2018-01-02 | Microsoft Technology Licensing Llc | Personalization of queries, conversations, and searches |
| US9454962B2 (en) | 2011-05-12 | 2016-09-27 | Microsoft Technology Licensing, Llc | Sentence simplification for spoken language understanding |
| US9064006B2 (en) | 2012-08-23 | 2015-06-23 | Microsoft Technology Licensing, Llc | Translating natural language utterances to keyword search queries |
| CN102254306B (zh) * | 2011-07-14 | 2013-01-23 | 北京邮电大学 | 一种基于图像简化分层模型的实时图像去雾方法 |
| CN103733607B (zh) * | 2011-08-10 | 2015-08-26 | 富士胶片株式会社 | 用于检测运动物体的装置和方法 |
| US10036780B2 (en) * | 2011-09-05 | 2018-07-31 | Kabushiki Kaisha Nihon Micronics | Evaluation apparatus and evaluation method of sheet type cell |
| KR101385326B1 (ko) * | 2011-09-23 | 2014-04-16 | 주식회사 크리에이츠 | 카메라로 운동하는 피사체를 촬영하고 그 촬영 이미지에 기초하여 피사체의 실제의 운동 궤적을 획득하기 위한 방법 및 시스템 |
| US9124783B2 (en) * | 2011-09-30 | 2015-09-01 | Camiolog, Inc. | Method and system for automated labeling at scale of motion-detected events in video surveillance |
| US8809788B2 (en) * | 2011-10-26 | 2014-08-19 | Redwood Systems, Inc. | Rotating sensor for occupancy detection |
| EP2783324A4 (en) * | 2011-11-22 | 2015-09-09 | Schneider Electric Buildings | METHOD AND SYSTEM FOR ACCESS CONTROL USING INTELLIGENT OPTICAL SENSOR |
| PT106223A (pt) * | 2012-03-21 | 2013-09-23 | Univ Tras Os Montes E Alto Douro | Sistema de teleassistência baseado em estados de espírito |
| CN104704815B (zh) * | 2012-05-23 | 2018-12-07 | 杭州阿尔法红外检测技术有限公司 | 热像摄影装置和热像摄影方法 |
| US20130342689A1 (en) * | 2012-06-25 | 2013-12-26 | Intel Corporation | Video analytics test system |
| CN102831591B (zh) * | 2012-06-27 | 2014-11-05 | 北京航空航天大学 | 一种基于高斯滤波的单幅图像的实时去雾方法 |
| US8686874B2 (en) * | 2012-07-24 | 2014-04-01 | Sentry Protection Llc | Corner sensor assembly |
| DE102012214148A1 (de) * | 2012-08-09 | 2014-02-13 | Siemens Aktiengesellschaft | Bildgebungseinrichtung |
| RU2013104895A (ru) * | 2013-02-05 | 2014-08-10 | ЭлЭсАй Корпорейшн | Процессор изображений с функциональностью выбора контуров |
| WO2015013534A1 (en) * | 2013-07-24 | 2015-01-29 | Mourikis Anastasios I | Method for camera motion estimation and correction |
| US8879813B1 (en) | 2013-10-22 | 2014-11-04 | Eyenuk, Inc. | Systems and methods for automated interest region detection in retinal images |
| KR102143618B1 (ko) | 2014-01-17 | 2020-08-11 | 삼성전자주식회사 | 프레임률 제어 방법 및 그 전자 장치 |
| US9082018B1 (en) | 2014-09-30 | 2015-07-14 | Google Inc. | Method and system for retroactively changing a display characteristic of event indicators on an event timeline |
| US10127783B2 (en) | 2014-07-07 | 2018-11-13 | Google Llc | Method and device for processing motion events |
| US9501915B1 (en) | 2014-07-07 | 2016-11-22 | Google Inc. | Systems and methods for analyzing a video stream |
| US10140827B2 (en) | 2014-07-07 | 2018-11-27 | Google Llc | Method and system for processing motion event notifications |
| USD782495S1 (en) | 2014-10-07 | 2017-03-28 | Google Inc. | Display screen or portion thereof with graphical user interface |
| JP2018507325A (ja) * | 2015-01-29 | 2018-03-15 | アーコニック インコーポレイテッドArconic Inc. | 付加製造体のモデリングのためのシステム及び方法 |
| CN104657954B (zh) * | 2015-03-04 | 2017-08-04 | 广东迅通科技股份有限公司 | 基于人眼视觉相似性约束的图像去雾方法、系统及设备 |
| CN105225480A (zh) * | 2015-04-08 | 2016-01-06 | 王秀珍 | 信号灯所在路口通行数据采集系统 |
| WO2016189764A1 (ja) * | 2015-05-26 | 2016-12-01 | 三菱電機株式会社 | 検出装置および検出方法 |
| CA3102686C (en) | 2015-06-01 | 2023-01-03 | Cutsforth, Inc. | Brush wear and vibration monitoring |
| US9361011B1 (en) | 2015-06-14 | 2016-06-07 | Google Inc. | Methods and systems for presenting multiple live video feeds in a user interface |
| CN105141824B (zh) * | 2015-06-17 | 2019-01-01 | 广州杰赛科技股份有限公司 | 图像采集方法及装置 |
| CN105096321B (zh) * | 2015-07-24 | 2018-05-18 | 上海小蚁科技有限公司 | 一种基于图像边缘的低复杂度视频移动侦测方法 |
| US9771225B2 (en) | 2015-10-08 | 2017-09-26 | Rite-Hite Holding Corporation | Methods and apparatus for monitoring a loading dock |
| CA3008957C (en) | 2016-01-11 | 2020-07-14 | Cutsforth, Inc. | Monitoring system for grounding apparatus |
| US10679477B2 (en) | 2016-05-09 | 2020-06-09 | Herbert S Kobayashi | Multicamera video alarm system for remote monitoring and method |
| US11386759B2 (en) | 2016-05-09 | 2022-07-12 | Herbert S Kobayashi | Three level detector signal for multicamera video alarm system for remote monitoring and method |
| US10506237B1 (en) | 2016-05-27 | 2019-12-10 | Google Llc | Methods and devices for dynamic adaptation of encoding bitrate for video streaming |
| US10783397B2 (en) * | 2016-06-29 | 2020-09-22 | Intel Corporation | Network edge device with image thresholding |
| US10192415B2 (en) | 2016-07-11 | 2019-01-29 | Google Llc | Methods and systems for providing intelligent alerts for events |
| US10380429B2 (en) | 2016-07-11 | 2019-08-13 | Google Llc | Methods and systems for person detection in a video feed |
| US10957171B2 (en) | 2016-07-11 | 2021-03-23 | Google Llc | Methods and systems for providing event alerts |
| CN106384084B (zh) * | 2016-08-31 | 2019-04-30 | 重庆大龙网科技集团有限公司 | 一种基于红外阵列的人流行为分析系统的分析方法 |
| CN106384078B (zh) * | 2016-08-31 | 2019-04-30 | 重庆大龙网科技集团有限公司 | 一种基于红外阵列的人流行为分析系统的人流行为分析方法 |
| US10891839B2 (en) | 2016-10-26 | 2021-01-12 | Amazon Technologies, Inc. | Customizable intrusion zones associated with security systems |
| US12096156B2 (en) | 2016-10-26 | 2024-09-17 | Amazon Technologies, Inc. | Customizable intrusion zones associated with security systems |
| WO2018081328A1 (en) * | 2016-10-26 | 2018-05-03 | Ring Inc. | Customizable intrusion zones for audio/video recording and communication devices |
| DE102017102489B3 (de) * | 2017-02-08 | 2018-05-24 | Preh Gmbh | Verfahren zur Nebeldetektion |
| US10599950B2 (en) | 2017-05-30 | 2020-03-24 | Google Llc | Systems and methods for person recognition data management |
| US11783010B2 (en) | 2017-05-30 | 2023-10-10 | Google Llc | Systems and methods of person recognition in video streams |
| US11134227B2 (en) | 2017-09-20 | 2021-09-28 | Google Llc | Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment |
| US10664688B2 (en) | 2017-09-20 | 2020-05-26 | Google Llc | Systems and methods of detecting and responding to a visitor to a smart home environment |
| CN109724152A (zh) * | 2018-07-24 | 2019-05-07 | 永康市蜂蚁科技有限公司 | 供暖设备散热管道流速切换系统 |
| US11501620B2 (en) | 2018-07-30 | 2022-11-15 | Carrier Corporation | Method for activating an alert when an object is left proximate a room entryway |
| US10931863B2 (en) | 2018-09-13 | 2021-02-23 | Genetec Inc. | Camera control system and method of controlling a set of cameras |
| JP6780682B2 (ja) * | 2018-09-20 | 2020-11-04 | 日本電気株式会社 | 情報取得システム、制御装置及び情報取得方法 |
| JP7208672B2 (ja) | 2018-10-04 | 2023-01-19 | カッツフォース インコーポレイテッド | 電気機械の1つ以上の構成要素の状態を監視するためのシステム及び方法 |
| EP3861604A2 (en) | 2018-10-04 | 2021-08-11 | Cutsforth, Inc. | Assembly for a brush holder assembly of an electric machine |
| US11232685B1 (en) * | 2018-12-04 | 2022-01-25 | Amazon Technologies, Inc. | Security system with dual-mode event video and still image recording |
| WO2020132416A1 (en) | 2018-12-21 | 2020-06-25 | Rytec Corporation | Safety system and method for overhead roll-up doors |
| CN110207842B (zh) * | 2019-07-01 | 2020-09-01 | 中国电子科技集团公司第十三研究所 | 亚像素级边缘效应的修正方法及终端设备 |
| US11328424B1 (en) * | 2019-08-08 | 2022-05-10 | The Chamberlain Group Llc | Systems and methods for monitoring a movable barrier |
| US11132556B2 (en) * | 2019-11-17 | 2021-09-28 | International Business Machines Corporation | Detecting application switches in video frames using min and max pooling |
| US11893795B2 (en) | 2019-12-09 | 2024-02-06 | Google Llc | Interacting with visitors of a connected home environment |
| CN111882540B (zh) * | 2020-07-28 | 2024-06-21 | 歌尔科技有限公司 | 摄像头保护罩的污迹检测方法、装置以及设备 |
| US20230020182A1 (en) * | 2022-09-23 | 2023-01-19 | Intel Corporation | Technologies for source degradation detection and auto-tuning of cameras |
Family Cites Families (334)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US2758676A (en) * | 1954-02-16 | 1956-08-14 | Haughton Elevator Company | Variable standing time control |
| US3195126A (en) * | 1957-05-13 | 1965-07-13 | Lab For Electronics Inc | Traffic supervisory system |
| US3686434A (en) * | 1957-06-27 | 1972-08-22 | Jerome H Lemelson | Area surveillance system |
| US3255434A (en) * | 1961-11-01 | 1966-06-07 | Peter D Schwarz | Vehicle detection and counting system |
| US3590151A (en) * | 1966-12-30 | 1971-06-29 | Jackson & Church Electronics C | Television surveillance system |
| US3562423A (en) * | 1967-08-15 | 1971-02-09 | Univ Northwestern | Dictorial tracking and recognition system which provides display of target identified by brilliance and spatial characteristics |
| US3924130A (en) * | 1968-02-12 | 1975-12-02 | Us Navy | Body exposure indicator |
| US3534499A (en) * | 1969-01-27 | 1970-10-20 | John L Czinger Jr | Door opening apparatus |
| US3685012A (en) * | 1970-04-16 | 1972-08-15 | Sperry Rand Corp | Apparatus for determining data associated with objects |
| US3691556A (en) * | 1970-06-03 | 1972-09-12 | Memco Electronics Ltd | Detection of movement in confined spaces |
| US3663937A (en) * | 1970-06-08 | 1972-05-16 | Thiokol Chemical Corp | Intersection ingress-egress automatic electronic traffic monitoring equipment |
| US3668625A (en) * | 1970-09-21 | 1972-06-06 | David Wolf | Monitoring system |
| US3740466A (en) * | 1970-12-14 | 1973-06-19 | Jackson & Church Electronics C | Surveillance system |
| US3691302A (en) * | 1971-02-25 | 1972-09-12 | Gte Sylvania Inc | Automatic light control for low light level television camera |
| GB1378754A (en) * | 1971-09-07 | 1974-12-27 | Peak Technologies Ltd | Patient monitoring |
| US3816648A (en) * | 1972-03-13 | 1974-06-11 | Magnavox Co | Scene intrusion alarm |
| US3890463A (en) * | 1972-03-15 | 1975-06-17 | Konan Camera Res Inst | System for use in the supervision of a motor-boat race or a similar timed event |
| GB1430420A (en) | 1972-04-24 | 1976-03-31 | Niemi A | Method and apparatus for analyzing a visible object |
| US3852592A (en) * | 1973-06-07 | 1974-12-03 | Stanley Works | Automatic door operator |
| US3988533A (en) * | 1974-09-30 | 1976-10-26 | Video Tek, Inc. | Video-type universal motion and intrusion detection system |
| US3947833A (en) * | 1974-11-20 | 1976-03-30 | The United States Of America As Represented By The Secretary Of The Navy | Automatic target detection system |
| US3930735A (en) * | 1974-12-11 | 1976-01-06 | The United States Of America As Represented By The United States National Aeronautics And Space Administration | Traffic survey system |
| JPS5197155A (en) * | 1975-02-21 | 1976-08-26 | Erebeetano jokyakudeetashushusochi | |
| FR2321229A1 (fr) * | 1975-08-13 | 1977-03-11 | Cit Alcatel | Procede et appareillage pour controle automatique de graphisme |
| SE394146B (sv) * | 1975-10-16 | 1977-06-06 | L Olesen | Anordning for metning resp kontroll av ett foremals, i synnerhet ett fordons hastighet. |
| DE2617111C3 (de) * | 1976-04-17 | 1986-02-20 | Robert Bosch Gmbh, 7000 Stuttgart | Verfahren zum Feststellen einer Bewegung im Überwachungsbereich einer Fernsehkamera |
| DE2617112C3 (de) * | 1976-04-17 | 1982-01-14 | Robert Bosch Gmbh, 7000 Stuttgart | Verfahren zum Feststellen einer Bewegung bzw. einer Veränderung im Überwachungsbereich einer Fernsehkamera |
| US4063282A (en) * | 1976-07-20 | 1977-12-13 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | TV fatigue crack monitoring system |
| DE2638138C3 (de) * | 1976-08-25 | 1979-05-03 | Kloeckner-Werke Ag, 4100 Duisburg | Vorrichtung zum Erkennen und Aussortieren fehlerhafter Packungen, die längs einer Förderstrecke transportiert werden |
| US4240109A (en) * | 1976-10-14 | 1980-12-16 | Micro Consultants, Limited | Video movement detection |
| US4136950A (en) * | 1976-11-08 | 1979-01-30 | Labrum Engineering, Inc. | Microscope system for observing moving particles |
| US4183013A (en) * | 1976-11-29 | 1980-01-08 | Coulter Electronics, Inc. | System for extracting shape features from an image |
| JPS53110823A (en) * | 1977-03-10 | 1978-09-27 | Ricoh Co Ltd | Optical information processor |
| DE2715083C3 (de) * | 1977-04-04 | 1983-02-24 | Robert Bosch Gmbh, 7000 Stuttgart | System zur Diskrimination eines Videosignals |
| DE2720865A1 (de) * | 1977-05-10 | 1978-11-23 | Philips Patentverwaltung | Anordnung zur untersuchung von objekten |
| US4163357A (en) * | 1977-06-13 | 1979-08-07 | Hamel Gmbh, Zwirnmaschinen | Apparatus for cable-twisting two yarns |
| US4133004A (en) * | 1977-11-02 | 1979-01-02 | Hughes Aircraft Company | Video correlation tracker |
| JPS5474700A (en) * | 1977-11-26 | 1979-06-14 | Agency Of Ind Science & Technol | Collection and delivery system for traffic information by photo electric conversion element group |
| CA1103803A (en) * | 1978-03-01 | 1981-06-23 | National Research Council Of Canada | Method and apparatus of determining the center of area or centroid of a geometrical area of unspecified shape lying in a larger x-y scan field |
| JPS54151322A (en) * | 1978-05-19 | 1979-11-28 | Tokyo Hoso:Kk | Storoboscopic effect generator for television |
| US4187519A (en) * | 1978-08-17 | 1980-02-05 | Rockwell International Corporation | System for expanding the video contrast of an image |
| CA1116286A (en) * | 1979-02-20 | 1982-01-12 | Control Data Canada, Ltd. | Perimeter surveillance system |
| US4257063A (en) * | 1979-03-23 | 1981-03-17 | Ham Industries, Inc. | Video monitoring system and method |
| US4219845A (en) * | 1979-04-12 | 1980-08-26 | The United States Of America As Represented By The Secretary Of The Air Force | Sense and inject moving target indicator apparatus |
| DE2934038C2 (de) * | 1979-08-23 | 1982-02-25 | Deutsche Forschungs- und Versuchsanstalt für Luft- und Raumfahrt e.V., 5000 Köln | Rißfortschritts-Meßeinrichtung |
| US4414685A (en) * | 1979-09-10 | 1983-11-08 | Sternberg Stanley R | Method and apparatus for pattern recognition and detection |
| US4395699A (en) * | 1979-09-10 | 1983-07-26 | Environmental Research Institute Of Michigan | Method and apparatus for pattern recognition and detection |
| US4317130A (en) * | 1979-10-10 | 1982-02-23 | Motorola, Inc. | Narrow band television transmission system |
| JPS56132505A (en) * | 1980-03-24 | 1981-10-16 | Hitachi Ltd | Position detecting method |
| US4298858A (en) * | 1980-03-27 | 1981-11-03 | The United States Of America As Represented By The Secretary Of The Air Force | Method and apparatus for augmenting binary patterns |
| JPS56160183A (en) * | 1980-05-09 | 1981-12-09 | Hajime Sangyo Kk | Method and device for monitoring |
| US4337481A (en) * | 1980-06-10 | 1982-06-29 | Peter Mick | Motion and intrusion detecting system |
| US4410910A (en) * | 1980-09-18 | 1983-10-18 | Advanced Diagnostic Research Corp. | Motion detecting method and apparatus |
| US4433325A (en) * | 1980-09-30 | 1984-02-21 | Omron Tateisi Electronics, Co. | Optical vehicle detection system |
| WO1982001454A1 (en) * | 1980-10-22 | 1982-04-29 | Mahoney Trevor W | Video movement detector |
| US4455550A (en) * | 1980-11-06 | 1984-06-19 | General Research Of Electronics, Inc. | Detection circuit for a video intrusion monitoring apparatus |
| JPS57125496A (en) * | 1981-01-27 | 1982-08-04 | Fujitec Kk | Condition detector |
| US4520343A (en) * | 1980-12-16 | 1985-05-28 | Hiroshi Koh | Lift control system |
| JPH0210077B2 (ja) * | 1981-01-26 | 1990-03-06 | Memuko Metsudo Ltd | |
| US4493420A (en) * | 1981-01-29 | 1985-01-15 | Lockwood Graders (U.K.) Limited | Method and apparatus for detecting bounded regions of images, and method and apparatus for sorting articles and detecting flaws |
| US4794248A (en) | 1985-07-16 | 1988-12-27 | Otis Elevator Company | Detection device having energy transmitters located at vertically spaced apart points along movable doors |
| DE3107901A1 (de) * | 1981-03-02 | 1982-09-16 | Siemens AG, 1000 Berlin und 8000 München | Digitale echtzeit-fernseh-bildverarbeitungseinrichtung |
| US4449144A (en) * | 1981-06-26 | 1984-05-15 | Omron Tateisi Electronics Co. | Apparatus for detecting moving body |
| US4479145A (en) * | 1981-07-29 | 1984-10-23 | Nippon Kogaku K.K. | Apparatus for detecting the defect of pattern |
| US4433438A (en) * | 1981-11-25 | 1984-02-21 | The United States Of America As Represented By The Secretary Of The Air Force | Sobel edge extraction circuit for image processing |
| US4589139A (en) * | 1982-02-04 | 1986-05-13 | Nippon Kogaku K. K. | Apparatus for detecting defects in pattern |
| US4490851A (en) * | 1982-04-16 | 1984-12-25 | The United States Of America As Represented By The Secretary Of The Army | Two-dimensional image data reducer and classifier |
| US5845000A (en) | 1992-05-05 | 1998-12-01 | Automotive Technologies International, Inc. | Optical identification and monitoring system using pattern recognition for use with vehicles |
| US4520504A (en) * | 1982-07-29 | 1985-05-28 | The United States Of America As Represented By The Secretary Of The Air Force | Infrared system with computerized image display |
| US4569078A (en) * | 1982-09-17 | 1986-02-04 | Environmental Research Institute Of Michigan | Image sensor |
| JPS5994045A (ja) * | 1982-11-22 | 1984-05-30 | Toshiba Corp | 画像入力装置 |
| US4577344A (en) * | 1983-01-17 | 1986-03-18 | Automatix Incorporated | Vision system |
| US4574393A (en) * | 1983-04-14 | 1986-03-04 | Blackwell George F | Gray scale image processor |
| US4543567A (en) * | 1983-04-14 | 1985-09-24 | Tokyo Shibaura Denki Kabushiki Kaisha | Method for controlling output of alarm information |
| US4556900A (en) * | 1983-05-25 | 1985-12-03 | Rca Corporation | Scaling device as for quantized B-Y signal |
| US4665554A (en) * | 1983-07-13 | 1987-05-12 | Machine Vision International Corporation | Apparatus and method for implementing dilation and erosion transformations in digital image processing |
| KR910009880B1 (ko) * | 1983-07-25 | 1991-12-03 | 가부시기가이샤 히다찌세이사꾸쇼 | 인터레이스된 텔레비젼 신호중의 화상의 움직임 검출회로 |
| US4589030A (en) * | 1983-07-25 | 1986-05-13 | Kley Victor B | Solid state camera |
| IL69327A (en) * | 1983-07-26 | 1986-11-30 | Elscint Ltd | Automatic misregistration correction |
| US4639767A (en) * | 1983-09-08 | 1987-01-27 | Nec Corporation | Apparatus for detecting movement in a television signal based on taking ratio of signal representing frame difference to signal representing sum of picture element differences |
| US4555724A (en) * | 1983-10-21 | 1985-11-26 | Westinghouse Electric Corp. | Elevator system |
| US4881270A (en) | 1983-10-28 | 1989-11-14 | The United States Of America As Represented By The Secretary Of The Navy | Automatic classification of images |
| US4698937A (en) * | 1983-11-28 | 1987-10-13 | The Stanley Works | Traffic responsive control system for automatic swinging door |
| US4565029A (en) * | 1983-11-28 | 1986-01-21 | The Stanley Works | Traffic responsive control system for automatic swinging door |
| JPS60139080A (ja) | 1983-12-27 | 1985-07-23 | Canon Inc | 画像処理装置 |
| US4669218A (en) * | 1984-03-08 | 1987-06-02 | The Stanley Works | Traffic responsive control system |
| US4694329A (en) * | 1984-04-09 | 1987-09-15 | Corporate Communications Consultants, Inc. | Color correction system and method with scene-change detection |
| US4653109A (en) * | 1984-07-30 | 1987-03-24 | Lemelson Jerome H | Image analysis system and method |
| US4641356A (en) * | 1984-08-24 | 1987-02-03 | Machine Vision International Corporation | Apparatus and method for implementing dilation and erosion transformations in grayscale image processing |
| FI70651C (fi) * | 1984-10-05 | 1986-09-24 | Kone Oy | Foerfarande och anordning foer oevervakning av omraodet framfoer en hissdoerr |
| GB8426010D0 (en) | 1984-10-15 | 1984-11-21 | Memco Med Ltd | Automatic control |
| US4679077A (en) * | 1984-11-10 | 1987-07-07 | Matsushita Electric Works, Ltd. | Visual Image sensor system |
| DE3513833A1 (de) * | 1984-11-14 | 1986-05-22 | Karl-Walter Prof. Dr.-Ing. 5910 Kreuztal Bonfig | Schmelzsicherungseinsatz mit optoelektrischer anzeigeeinrichtung |
| US4685145A (en) * | 1984-12-07 | 1987-08-04 | Fingermatrix, Inc. | Conversion of an image represented by a field of pixels in a gray scale to a field of pixels in binary scale |
| US4680704A (en) * | 1984-12-28 | 1987-07-14 | Telemeter Corporation | Optical sensor apparatus and method for remotely monitoring a utility meter or the like |
| US4662479A (en) * | 1985-01-22 | 1987-05-05 | Mitsubishi Denki Kabushiki Kaisha | Operating apparatus for elevator |
| US4739401A (en) * | 1985-01-25 | 1988-04-19 | Hughes Aircraft Company | Target acquisition system and method |
| GB8518803D0 (en) * | 1985-07-25 | 1985-08-29 | Rca Corp | Locating target patterns within images |
| GB2175396B (en) | 1985-05-22 | 1989-06-28 | Filler Protection Developments | Apparatus for examining objects |
| US4876728A (en) | 1985-06-04 | 1989-10-24 | Adept Technology, Inc. | Vision system for distinguishing touching parts |
| US4779131A (en) * | 1985-07-26 | 1988-10-18 | Sony Corporation | Apparatus for detecting television image movement |
| JPS6278979A (ja) * | 1985-10-02 | 1987-04-11 | Toshiba Corp | 画像処理装置 |
| GB2183878B (en) * | 1985-10-11 | 1989-09-20 | Matsushita Electric Works Ltd | Abnormality supervising system |
| JPH0744689B2 (ja) * | 1985-11-22 | 1995-05-15 | 株式会社日立製作所 | 動き検出回路 |
| JPH0766446B2 (ja) | 1985-11-27 | 1995-07-19 | 株式会社日立製作所 | 移動物体像を抽出する方法 |
| US5187747A (en) | 1986-01-07 | 1993-02-16 | Capello Richard D | Method and apparatus for contextual data enhancement |
| US4825393A (en) | 1986-04-23 | 1989-04-25 | Hitachi, Ltd. | Position measuring method |
| JPH0623999B2 (ja) | 1986-07-28 | 1994-03-30 | 株式会社日立製作所 | パタ−ン欠陥検出方法 |
| US4760607A (en) * | 1986-07-31 | 1988-07-26 | Machine Vision International Corporation | Apparatus and method for implementing transformations in grayscale image processing |
| FR2609566B1 (fr) | 1987-01-14 | 1990-04-13 | Armine | Procede de determination de la trajectoire d'un corps apte a se deplacer sur une voie et dispositif de mise en oeuvre du procede |
| NZ222404A (en) | 1987-11-02 | 1991-06-25 | Precision Technology Inc | Vehicle tracking by comparison of transmitted phase at multiple receivers |
| US4847772A (en) | 1987-02-17 | 1989-07-11 | Regents Of The University Of Minnesota | Vehicle detection through image processing for traffic surveillance and control |
| JPS63222589A (ja) | 1987-03-12 | 1988-09-16 | Toshiba Corp | ノイズ低減回路 |
| US4975970A (en) | 1987-03-18 | 1990-12-04 | General Electric Company | Image display having automatic image adjustment |
| DE3711918C2 (de) | 1987-04-08 | 1998-05-28 | Gsf Forschungszentrum Umwelt | Verfahren zur automatischen Verfolgung von jeweils einem Teilchen unter mehreren Teilchen |
| US4845761A (en) | 1987-04-17 | 1989-07-04 | Recognition Equipment Incorporated | Letter mail address block locator system |
| US4823010A (en) | 1987-05-11 | 1989-04-18 | The Stanley Works | Sliding door threshold sensor |
| JPS63300367A (ja) | 1987-05-30 | 1988-12-07 | Toshiba Corp | 画像処理装置 |
| DE3869475D1 (de) | 1987-06-02 | 1992-04-30 | Siemens Ag | Verfahren zur ermittlung von bewegungsvektorfeldern aus digitalen bildsequenzen. |
| US4849906A (en) | 1987-08-24 | 1989-07-18 | Hughes Aircraft Company | Dual mode video tracker |
| US4906940A (en) | 1987-08-24 | 1990-03-06 | Science Applications International Corporation | Process and apparatus for the automatic detection and extraction of features in images and displays |
| US4799243A (en) | 1987-09-01 | 1989-01-17 | Otis Elevator Company | Directional people counting arrangement |
| DE3731947A1 (de) | 1987-09-23 | 1989-04-13 | Kurt Dr Sauerwein | Verfahren und vorrichtung zum feststellen und auswerten von oberflaechenrissen bei werkstuecken |
| JPS6491083A (en) | 1987-10-02 | 1989-04-10 | Mitsubishi Electric Corp | Congestion level detector for elevator hall |
| JPH0191586A (ja) | 1987-10-02 | 1989-04-11 | Nippon Hoso Kyokai <Nhk> | 動き検出回路 |
| JPH0695008B2 (ja) | 1987-12-11 | 1994-11-24 | 株式会社東芝 | 監視装置 |
| JPH0672770B2 (ja) | 1988-02-01 | 1994-09-14 | 豊田工機株式会社 | ロボットの物体認識装置 |
| US4979136A (en) | 1988-03-01 | 1990-12-18 | Transitions Research Corporation | Processing system and method for enhancing image data |
| US4969202A (en) | 1988-03-31 | 1990-11-06 | Honeywell Inc. | Image recognition edge detection method and system |
| US5115477A (en) | 1988-03-31 | 1992-05-19 | Honeywell Inc. | Image recognition edge detection method and system |
| KR920010034B1 (en) | 1988-03-31 | 1992-11-13 | Toshiba Co Ltd | Image track display apparatus |
| DE68918886T2 (de) | 1988-04-08 | 1995-06-01 | Dainippon Screen Mfg. Co., Ltd., Kyoto | Verfahren zur Gewinnung der Aussenlinie eines Objektes in einem Bild. |
| US4868651A (en) | 1988-05-17 | 1989-09-19 | S&S Inficon, Inc. | Digital radiography with image brightness and contrast normalization |
| DE3818534A1 (de) | 1988-05-31 | 1989-12-07 | Brunner Wolfgang | Verfahren zum darstellen der ortsaufgeloesten verteilung von physikalischen groessen auf einer anzeige sowie vorrichtung zur durchfuehrung des verfahrens |
| ATE89362T1 (de) | 1988-06-03 | 1993-05-15 | Inventio Ag | Verfahren und vorrichtung zur steuerung der tuerstellung einer automatischen tuer. |
| US4985618A (en) | 1988-06-16 | 1991-01-15 | Nicoh Company, Ltd. | Parallel image processing system |
| FR2634551B1 (fr) | 1988-07-20 | 1990-11-02 | Siderurgie Fse Inst Rech | Procede et dispositif d'identification du fini d'une surface metallique |
| JPH0244202A (ja) | 1988-08-05 | 1990-02-14 | Bridgestone Corp | 物体の端部位置を検出する装置 |
| US4937878A (en) | 1988-08-08 | 1990-06-26 | Hughes Aircraft Company | Signal processing for autonomous acquisition of objects in cluttered background |
| US4959714A (en) | 1988-08-08 | 1990-09-25 | Hughes Aircraft Company | Segmentation method for terminal aimpoint determination on moving objects and apparatus therefor |
| US4991092A (en) | 1988-08-12 | 1991-02-05 | The Regents Of The University Of California | Image processor for enhancing contrast between subregions of a region of interest |
| US5018218A (en) | 1988-08-29 | 1991-05-21 | Raytheon Company | Confirmed boundary pattern matching |
| US5052045A (en) | 1988-08-29 | 1991-09-24 | Raytheon Company | Confirmed boundary pattern matching |
| EP0358459B1 (en) | 1988-09-08 | 1996-06-19 | Sony Corporation | Picture processing apparatus |
| US4947353A (en) | 1988-09-12 | 1990-08-07 | Automatic Toll Systems, Inc. | Automatic vehicle detecting system |
| US4975972A (en) | 1988-10-18 | 1990-12-04 | At&T Bell Laboratories | Method and apparatus for surface inspection |
| US4874063A (en) | 1988-10-27 | 1989-10-17 | Otis Elevator Company | Portable elevator traffic pattern monitoring system |
| US4871948A (en) | 1988-11-08 | 1989-10-03 | Honeywell Inc. | Memory mapped deflection correction system |
| US5241608A (en) | 1988-11-25 | 1993-08-31 | Eastman Kodak Company | Method for estimating velocity vector fields from a time-varying image sequence |
| JPH0683373B2 (ja) | 1988-12-09 | 1994-10-19 | 大日本スクリーン製造株式会社 | 基準濃度点の設定方法 |
| US5134472A (en) | 1989-02-08 | 1992-07-28 | Kabushiki Kaisha Toshiba | Moving object detection apparatus and method |
| US5008739A (en) | 1989-02-13 | 1991-04-16 | Eastman Kodak Company | Real-time digital processor for producing full resolution color signals from a multi-color image sensor |
| US4962419A (en) | 1989-02-13 | 1990-10-09 | Eastman Kodak Company | Detail processing method and apparatus providing uniform processing of horizontal and vertical detail components |
| US5034986A (en) | 1989-03-01 | 1991-07-23 | Siemens Aktiengesellschaft | Method for detecting and tracking moving objects in a digital image sequence having a stationary background |
| JPH07106839B2 (ja) | 1989-03-20 | 1995-11-15 | 株式会社日立製作所 | エレベーター制御システム |
| US4967083A (en) | 1989-04-14 | 1990-10-30 | The Stanley Works | Door sensor system |
| JP2861249B2 (ja) | 1989-05-11 | 1999-02-24 | 日本電気株式会社 | 画像変化検出方法および画像変化検出装置 |
| JPH0335399A (ja) | 1989-06-30 | 1991-02-15 | Toshiba Corp | 変化領域統合装置 |
| US5247366A (en) | 1989-08-02 | 1993-09-21 | I Sight Ltd. | Color wide dynamic range camera |
| JP2633694B2 (ja) | 1989-08-25 | 1997-07-23 | フジテック 株式会社 | 人数検出装置 |
| US5022062A (en) | 1989-09-13 | 1991-06-04 | American Science And Engineering, Inc. | Automatic threat detection based on illumination by penetrating radiant energy using histogram processing |
| JP2953712B2 (ja) | 1989-09-27 | 1999-09-27 | 株式会社東芝 | 移動物体検知装置 |
| JP2808773B2 (ja) | 1990-01-09 | 1998-10-08 | 株式会社日立製作所 | 階調変換自動化装置 |
| GB9001468D0 (en) | 1990-01-23 | 1990-03-21 | Sarnoff David Res Center | Computing multiple motions within an image region |
| JPH03223976A (ja) | 1990-01-29 | 1991-10-02 | Ezel Inc | 画像照合装置 |
| TW197509B (ja) | 1990-01-31 | 1993-01-01 | Hitachi Seisakusyo Kk | |
| JPH0787587B2 (ja) | 1990-02-16 | 1995-09-20 | 松下電器産業株式会社 | 階調補正装置 |
| DE69129568T2 (de) | 1990-02-26 | 1998-12-10 | Matsushita Electric Industrial Co., Ltd., Kadoma, Osaka | Verkehrsmonitorvorrichtung |
| KR100204101B1 (ko) | 1990-03-02 | 1999-06-15 | 가나이 쓰도무 | 화상처리장치 |
| JP2712844B2 (ja) | 1990-04-27 | 1998-02-16 | 株式会社日立製作所 | 交通流計測装置及び交通流計測制御装置 |
| EP0548079A1 (en) | 1990-05-25 | 1993-06-30 | Axiom Innovation Limited | An image acquisition system |
| US6134373A (en) | 1990-08-17 | 2000-10-17 | Samsung Electronics Co., Ltd. | System for recording and reproducing a wide bandwidth video signal via a narrow bandwidth medium |
| US5305395A (en) | 1990-06-08 | 1994-04-19 | Xerox Corporation | Exhaustive hierarchical near neighbor operations on an image |
| US5239596A (en) | 1990-06-08 | 1993-08-24 | Xerox Corporation | Labeling pixels of an image based on near neighbor attributes |
| US5257209A (en) | 1990-06-26 | 1993-10-26 | Texas Instruments Incorporated | Optical flow computation for moving sensors |
| JPH0467275A (ja) | 1990-07-06 | 1992-03-03 | Matsushita Electric Ind Co Ltd | 認識方法及び認識装置 |
| US5506917A (en) | 1990-07-13 | 1996-04-09 | Nippon Telegraph And Telephone Corporation | Thresholding method for segmenting gray scale image, method for determining background concentration distribution, and image displacement detection method |
| US5319547A (en) | 1990-08-10 | 1994-06-07 | Vivid Technologies, Inc. | Device and method for inspection of baggage and other objects |
| US5673355A (en) | 1990-08-17 | 1997-09-30 | Samsung Electronics Co., Ltd. | Deemphasis & Subsequent reemphasis of high-energy reversed-spectrum components of a folded video signal |
| US5596418A (en) | 1990-08-17 | 1997-01-21 | Samsung Electronics Co., Ltd. | Deemphasis and subsequent reemphasis of high-energy reversed-spectrum components of a folded video signal |
| US6246827B1 (en) | 1990-08-17 | 2001-06-12 | Samsung Electronics Co., Ltd. | Deemphasis and subsequent reemphasis of high-energy reversed-spectrum components of a folded video signal |
| US5182778A (en) | 1990-08-31 | 1993-01-26 | Eastman Kodak Company | Dot-matrix video enhancement for optical character recognition |
| US5151945A (en) | 1990-09-11 | 1992-09-29 | The Research Foundation Of State Univ. Of N.Y. | Determination of ambient light level changes in visual images |
| US5031227A (en) | 1990-09-27 | 1991-07-09 | Loral Aerospace Corp. | Edge enhancement and smoothing in digital images |
| JPH04147400A (ja) | 1990-10-11 | 1992-05-20 | Matsushita Electric Ind Co Ltd | 車両検出装置 |
| US5161107A (en) | 1990-10-25 | 1992-11-03 | Mestech Creation Corporation | Traffic surveillance system |
| US5150426A (en) | 1990-11-20 | 1992-09-22 | Hughes Aircraft Company | Moving target detection method using two-frame subtraction and a two quadrant multiplier |
| US5181254A (en) | 1990-12-14 | 1993-01-19 | Westinghouse Electric Corp. | Method for automatically identifying targets in sonar images |
| US5119442A (en) | 1990-12-19 | 1992-06-02 | Pinnacle Systems Incorporated | Real time digital video animation using compressed pixel mappings |
| FR2670979A1 (fr) | 1990-12-21 | 1992-06-26 | Philips Electronique Lab | Procede de segmentation binaire locale d'images numerisees, par seuillage d'histogramme. |
| FR2670978A1 (fr) | 1990-12-21 | 1992-06-26 | Philips Electronique Lab | Procede d'extraction de mouvement comprenant la formation d'images de differences et un filtrage tridimensionnel. |
| US5142152A (en) | 1991-01-02 | 1992-08-25 | The Stanley Works | Sliding door sensor |
| JPH04241077A (ja) | 1991-01-24 | 1992-08-28 | Mitsubishi Electric Corp | 移動物体認識方法 |
| US5296852A (en) | 1991-02-27 | 1994-03-22 | Rathi Rajendra P | Method and apparatus for monitoring traffic flow |
| US5134661A (en) | 1991-03-04 | 1992-07-28 | Reinsch Roger A | Method of capture and analysis of digitized image data |
| US5544258A (en) | 1991-03-14 | 1996-08-06 | Levien; Raphael L. | Automatic tone correction of images using non-linear histogram processing |
| EP0505858B1 (en) | 1991-03-19 | 2002-08-14 | Mitsubishi Denki Kabushiki Kaisha | A moving body measuring device and an image processing device for measuring traffic flows |
| KR940007346B1 (ko) | 1991-03-28 | 1994-08-13 | 삼성전자 주식회사 | 화상 처리 시스템의 엣지 검출 장치 |
| US5590217A (en) | 1991-04-08 | 1996-12-31 | Matsushita Electric Industrial Co., Ltd. | Vehicle activity measuring apparatus |
| US5432528A (en) | 1991-04-12 | 1995-07-11 | Abekas Video Systems, Inc. | Video combiner |
| FI90150C (fi) | 1991-05-14 | 1993-12-27 | Valtion Teknillinen | Filter |
| JP2936791B2 (ja) | 1991-05-28 | 1999-08-23 | 松下電器産業株式会社 | 階調補正装置 |
| US5509082A (en) | 1991-05-30 | 1996-04-16 | Matsushita Electric Industrial Co., Ltd. | Vehicle movement measuring apparatus |
| US5271064A (en) | 1991-06-14 | 1993-12-14 | University Of Cincinnati | Apparatus and method for smoothing regions and enhancing edges in gray scale images |
| JP3019479B2 (ja) | 1991-06-28 | 2000-03-13 | 松下電器産業株式会社 | 階調補正装置 |
| US5249241A (en) | 1991-07-09 | 1993-09-28 | The United States Of America As Represented By The Secretary Of The Air Force | Real-time automated scene display for infrared cameras |
| US5799106A (en) | 1991-07-09 | 1998-08-25 | The United States Of America As Represented By The Secretary Of The Air Force | Noise immune automated contrast control for infrared cameras |
| US5149921A (en) | 1991-07-10 | 1992-09-22 | Innovation Industries, Inc. | Self correcting infrared intrusion detection system |
| JP2829801B2 (ja) | 1991-09-04 | 1998-12-02 | 松下電器産業株式会社 | トンネル内車両動態計測装置 |
| JPH0578048A (ja) | 1991-09-19 | 1993-03-30 | Hitachi Ltd | エレベーターホールの待ち客検出装置 |
| DE69213380T2 (de) | 1991-09-27 | 1997-03-20 | Agfa Gevaert Nv | Reproduktionsverfahren für medizinische Bilder,das optimale Bildqualität für Diagnose herstellt |
| US5289520A (en) | 1991-11-27 | 1994-02-22 | Lorad Corporation | Stereotactic mammography imaging system with prone position examination table and CCD camera |
| US5359674A (en) | 1991-12-11 | 1994-10-25 | David Sarnoff Research Center, Inc. | Pyramid processor integrated circuit |
| US5162902A (en) | 1991-12-16 | 1992-11-10 | Thomson Consumer Electronics, Inc. | Non-linear luminance signal processor responsive to average picture level (APL) of displayed image |
| JPH05196425A (ja) | 1992-01-21 | 1993-08-06 | Ezel Inc | 人間の3次元位置検出方法 |
| GB9201856D0 (en) | 1992-01-29 | 1992-03-18 | British Telecomm | Method of forming a template |
| CA2130340C (en) | 1992-02-18 | 2000-06-06 | Shih-Jong James Lee | Method for identifying objects using data processing techniques |
| DE69325527T2 (de) | 1992-02-21 | 1999-11-25 | Canon K.K., Tokio/Tokyo | Gerät und Verfahren zur Bildverarbeitung |
| KR940001054B1 (ko) | 1992-02-27 | 1994-02-08 | 삼성전자 주식회사 | 칼라비디오 프린터의 자동콘트라스트보정방법 및 그 장치 |
| US5756981A (en) | 1992-02-27 | 1998-05-26 | Symbol Technologies, Inc. | Optical scanner for reading and decoding one- and-two-dimensional symbologies at variable depths of field including memory efficient high speed image processing means and high accuracy image analysis means |
| DE4309878C2 (de) | 1992-04-06 | 1994-07-21 | Hell Ag Linotype | Verfahren und Einrichtung zur Analyse und Korrektur der Bildgradation in Bildvorlagen |
| DE4310727C2 (de) | 1992-04-06 | 1996-07-11 | Hell Ag Linotype | Verfahren und Einrichtung zur Analyse von Bildvorlagen |
| FR2690031A1 (fr) | 1992-04-14 | 1993-10-15 | Philips Electronique Lab | Dispositif de segmentation d'images. |
| US5500904A (en) | 1992-04-22 | 1996-03-19 | Texas Instruments Incorporated | System and method for indicating a change between images |
| JP2917661B2 (ja) | 1992-04-28 | 1999-07-12 | 住友電気工業株式会社 | 交通流計測処理方法及び装置 |
| US5835613A (en) | 1992-05-05 | 1998-11-10 | Automotive Technologies International, Inc. | Optical identification and monitoring system using pattern recognition for use with vehicles |
| US5300739A (en) | 1992-05-26 | 1994-04-05 | Otis Elevator Company | Cyclically varying an elevator car's assigned group in a system where each group has a separate lobby corridor |
| US5612928A (en) | 1992-05-28 | 1997-03-18 | Northrop Grumman Corporation | Method and apparatus for classifying objects in sonar images |
| US5657403A (en) | 1992-06-01 | 1997-08-12 | Cognex Corporation | Vision coprocessing |
| US5410418A (en) | 1992-06-24 | 1995-04-25 | Dainippon Screen Mfg. Co., Ltd. | Apparatus for converting image signal representing image having gradation |
| EP0672327A4 (en) | 1992-09-08 | 1997-10-29 | Paul Howard Mayeaux | VISION CAMERA AND VIDEO PRETREATMENT SYSTEM. |
| US5483351A (en) | 1992-09-25 | 1996-01-09 | Xerox Corporation | Dilation of images without resolution conversion to compensate for printer characteristics |
| US5617484A (en) | 1992-09-25 | 1997-04-01 | Olympus Optical Co., Ltd. | Image binarizing apparatus |
| CA2146451C (en) | 1992-10-07 | 1999-09-07 | Octrooibureau Kisch N.V. | System for detecting and classifying movement of objects along a passage |
| US5387768A (en) | 1993-09-27 | 1995-02-07 | Otis Elevator Company | Elevator passenger detector and door control system which masks portions of a hall image to determine motion and court passengers |
| US5592567A (en) | 1992-11-10 | 1997-01-07 | Siemens Aktiengesellschaft | Method for detecting and separating the shadow of moving objects in a sequence of digital images |
| CA2103395C (en) | 1992-11-24 | 2004-08-17 | Masakazu Suzuoki | Apparatus and method for providing texture of a moving image to a surface of an object to be displayed |
| US5426517A (en) | 1992-11-30 | 1995-06-20 | Eastman Kodak Company | Automated tone correction apparatus and method using filtered histogram equalization |
| DE69329449T2 (de) | 1993-01-01 | 2001-03-08 | Canon Kk | Bildverarbeitungsvorrichtung und -verfahren |
| EP0610916A3 (en) | 1993-02-09 | 1994-10-12 | Cedars Sinai Medical Center | Method and device for generating preferred segmented numerical images. |
| US5282337A (en) | 1993-02-22 | 1994-02-01 | Stanley Home Automation | Garage door operator with pedestrian light control |
| ATE225964T1 (de) | 1993-03-31 | 2002-10-15 | Luma Corp | Informationsverwaltung in einem endoskopiesystem |
| US5376962A (en) | 1993-03-31 | 1994-12-27 | Panasonic Technologies, Inc. | Neural network video image processor |
| SE502679C2 (sv) | 1993-05-28 | 1995-12-04 | Saab Scania Combitech Ab | Förfarande och anordning för registrering av ett fordons förflyttning på ett underlag |
| JPH0775633A (ja) | 1993-06-30 | 1995-03-20 | Shimadzu Corp | 画像処理装置 |
| IL119767A (en) | 1993-08-13 | 1998-02-08 | Sophis View Tech Ltd | System and method for diagnosis of living tissue diseases |
| US5687249A (en) | 1993-09-06 | 1997-11-11 | Nippon Telephone And Telegraph | Method and apparatus for extracting features of moving objects |
| US5450502A (en) | 1993-10-07 | 1995-09-12 | Xerox Corporation | Image-dependent luminance enhancement |
| BE1007608A3 (nl) | 1993-10-08 | 1995-08-22 | Philips Electronics Nv | Beeldsignaalverbeteringsschakeling. |
| US5604822A (en) | 1993-11-12 | 1997-02-18 | Martin Marietta Corporation | Methods and apparatus for centroid based object segmentation in object recognition-type image processing system |
| US5875264A (en) | 1993-12-03 | 1999-02-23 | Kaman Sciences Corporation | Pixel hashing image recognition system |
| US5434927A (en) | 1993-12-08 | 1995-07-18 | Minnesota Mining And Manufacturing Company | Method and apparatus for machine vision classification and tracking |
| BR9408257A (pt) | 1993-12-08 | 1996-12-10 | Minnesota Mining & Mfg | Método para produzir uma imagem de segundo plano método para subtrair o segundo plano dos dados de imagem e sistema de visão de máquina para produzir uma imagem de segundo plano |
| CA2134255C (en) | 1993-12-09 | 1999-07-13 | Hans Peter Graf | Dropped-form document image compression |
| JP3721206B2 (ja) | 1993-12-24 | 2005-11-30 | 富士写真フイルム株式会社 | 画像再現装置 |
| US5420971A (en) | 1994-01-07 | 1995-05-30 | Panasonic Technologies, Inc. | Image edge finder which operates over multiple picture element ranges |
| US5581625A (en) | 1994-01-31 | 1996-12-03 | International Business Machines Corporation | Stereo vision system for counting items in a queue |
| US5551533A (en) | 1994-04-01 | 1996-09-03 | Otis Elevator Company | Audio direction and information for elevator passengers |
| US5621868A (en) | 1994-04-15 | 1997-04-15 | Sony Corporation | Generating imitation custom artwork by simulating brush strokes and enhancing edges |
| US5640468A (en) | 1994-04-28 | 1997-06-17 | Hsu; Shin-Yi | Method for identifying objects and features in an image |
| US5581632A (en) | 1994-05-02 | 1996-12-03 | Cognex Corporation | Method and apparatus for ball bond inspection system |
| WO1995030966A1 (en) | 1994-05-05 | 1995-11-16 | Grumman Aerospace Corporation | Method and apparatus for locating and identifying an object of interest in a complex image |
| KR100228618B1 (ko) | 1994-05-31 | 1999-11-01 | 아끼구사 나오유끼 | 연결영역의 추출장치 및 방법 |
| US5682438A (en) | 1994-06-21 | 1997-10-28 | Nippon Steel Corporation | Method and apparatus for determining a motion vector |
| US5774569A (en) | 1994-07-25 | 1998-06-30 | Waldenmaier; H. Eugene W. | Surveillance system |
| JPH0835818A (ja) | 1994-07-25 | 1996-02-06 | Omron Corp | 画像処理装置および方法 |
| DE69531743D1 (de) | 1994-11-25 | 2003-10-16 | Sophisview Technologies Ltd | System und verfahren zur diagnose von krankheiten an lebendem gewebe |
| US5625709A (en) | 1994-12-23 | 1997-04-29 | International Remote Imaging Systems, Inc. | Method and apparatus for identifying characteristics of an object in a field of view |
| WO1996022588A1 (en) | 1995-01-17 | 1996-07-25 | David Sarnoff Research Center, Inc. | Method and apparatus for detecting object movement within an image sequence |
| GB2297450B (en) | 1995-01-18 | 1999-03-10 | Sony Uk Ltd | Video processing method and apparatus |
| JP3151372B2 (ja) | 1995-04-19 | 2001-04-03 | インターナショナル・ビジネス・マシーンズ・コーポレ−ション | 移動物体速度検出装置及び方法 |
| US5809162A (en) | 1995-12-22 | 1998-09-15 | Lucent Technologies Inc. | Surface analysis system and method |
| US5838299A (en) | 1995-05-03 | 1998-11-17 | Apple Computer, Inc. | RGB/YUV video convolution system |
| US5727080A (en) | 1995-05-03 | 1998-03-10 | Nec Research Institute, Inc. | Dynamic histogram warping of image histograms for constant image brightness, histogram matching and histogram specification |
| US6088468A (en) | 1995-05-17 | 2000-07-11 | Hitachi Denshi Kabushiki Kaisha | Method and apparatus for sensing object located within visual field of imaging device |
| FR2734911B1 (fr) | 1995-06-01 | 1997-08-01 | Aerospatiale | Procede et dispositif pour detecter le mouvement d'une cible et leurs applications |
| US5946404A (en) | 1995-06-01 | 1999-08-31 | Silent Witness Enterprises Ltd. | Audio/video surveillance and recording system |
| US5581370A (en) | 1995-06-05 | 1996-12-03 | Xerox Corporation | Image-dependent automatic area of interest enhancement |
| US5857029A (en) | 1995-06-05 | 1999-01-05 | United Parcel Service Of America, Inc. | Method and apparatus for non-contact signature imaging |
| JP3501252B2 (ja) | 1995-06-16 | 2004-03-02 | 三菱電機株式会社 | 階調補正装置 |
| US5999660A (en) | 1995-07-26 | 1999-12-07 | California Institute Of Technology | Imaging system for correction of perceptual distortion in wide angle images |
| JP3003561B2 (ja) | 1995-09-25 | 2000-01-31 | 松下電器産業株式会社 | 階調変換方法及びその回路と画像表示方法及びその装置と画像信号変換装置 |
| US5892917A (en) | 1995-09-27 | 1999-04-06 | Microsoft Corporation | System for log record and log expansion with inserted log records representing object request for specified object corresponding to cached object copies |
| US5675624A (en) | 1995-12-14 | 1997-10-07 | General Electric Company | Adaptive x-ray brightness and display control for a medical imaging system |
| US5845007A (en) | 1996-01-02 | 1998-12-01 | Cognex Corporation | Machine vision method and apparatus for edge-based image histogram analysis |
| US5809171A (en) | 1996-01-05 | 1998-09-15 | Mcdonnell Douglas Corporation | Image processing method and apparatus for correlating a test image with a template |
| US5912721A (en) * | 1996-03-13 | 1999-06-15 | Kabushiki Kaisha Toshiba | Gaze detection apparatus and its method as well as information display apparatus |
| US5978502A (en) | 1996-04-01 | 1999-11-02 | Cognex Corporation | Machine vision methods for determining characteristics of three-dimensional objects |
| DE19613342A1 (de) | 1996-04-03 | 1997-10-09 | Philips Patentverwaltung | Automatisches Bildauswertungsverfahren |
| EP0801360B1 (en) | 1996-04-10 | 2002-11-06 | Samsung Electronics Co., Ltd. | Image quality enhancing method using mean-matching histogram equalization and a circuit therefor |
| JP3509448B2 (ja) | 1996-04-12 | 2004-03-22 | ソニー株式会社 | ビデオカメラ装置、映像信号処理装置、カラー映像信号のレベル圧縮方法および階調変換方法 |
| US6020931A (en) | 1996-04-25 | 2000-02-01 | George S. Sheng | Video composition and position system and media signal communication system |
| US5802208A (en) | 1996-05-06 | 1998-09-01 | Lucent Technologies Inc. | Face recognition using DCT-based feature vectors |
| KR100207426B1 (ko) | 1996-05-08 | 1999-07-15 | 전주범 | 무늬의 크기와 방향성을 이용한 텍스쳐 분류 장치 |
| US5872857A (en) | 1996-05-22 | 1999-02-16 | Raytheon Company | Generalized biased centroid edge locator |
| US5835638A (en) | 1996-05-30 | 1998-11-10 | Xerox Corporation | Method and apparatus for comparing symbols extracted from binary images of text using topology preserved dilated representations of the symbols |
| US5799100A (en) | 1996-06-03 | 1998-08-25 | University Of South Florida | Computer-assisted method and apparatus for analysis of x-ray images using wavelet transforms |
| KR100189922B1 (ko) | 1996-06-20 | 1999-06-01 | 윤종용 | 히스토그램 등화를 이용한 동영상의 콘트라스트개선회로 및 그 방법 |
| KR980003999A (ko) | 1996-06-27 | 1998-03-30 | 김광호 | Cdf 연산영역에 근거한 히스토그램 등화회로 및 그 방법 |
| US5832139A (en) | 1996-07-31 | 1998-11-03 | Omniplanar, Inc. | Method and apparatus for determining degrees of freedom of a camera |
| JP3602659B2 (ja) | 1996-08-05 | 2004-12-15 | 株式会社リコー | 濃淡値文書画像からの特徴抽出方法及び特徴抽出装置 |
| JP3280888B2 (ja) | 1996-08-19 | 2002-05-13 | 三星電子株式会社 | 量子化された平均−マッチングヒストグラム等化を用いた画質改善方法及びその回路 |
| US6154560A (en) | 1996-08-30 | 2000-11-28 | The Cleveland Clinic Foundation | System and method for staging regional lymph nodes using quantitative analysis of endoscopic ultrasound images |
| US5835618A (en) | 1996-09-27 | 1998-11-10 | Siemens Corporate Research, Inc. | Uniform and non-uniform dynamic range remapping for optimum image display |
| US6137893A (en) | 1996-10-07 | 2000-10-24 | Cognex Corporation | Machine vision calibration targets and methods of determining their location and orientation in an image |
| US5822453A (en) | 1996-12-10 | 1998-10-13 | Eastman Kodak Company | Method for estimating and adjusting digital image contrast |
| JPH10177589A (ja) | 1996-12-18 | 1998-06-30 | Mitsubishi Electric Corp | パターン比較検証装置、パターン比較検証方法およびパターン比較検証プログラムを記録した媒体 |
| US5963276A (en) | 1997-01-09 | 1999-10-05 | Smartlight Ltd. | Back projection transparency viewer with overlapping pixels |
| FI104521B (fi) | 1997-01-30 | 2000-02-15 | Nokia Multimedia Network Termi | Menetelmä kuvasekvenssien kontrastin parantamiseksi |
| JP3506200B2 (ja) | 1997-02-05 | 2004-03-15 | シャープ株式会社 | 位置合わせ装置 |
| KR100213094B1 (ko) | 1997-02-21 | 1999-08-02 | 윤종용 | 영상 개선장치를 위한 히스토그램 및 cdf 추출방법 및 그 회로 |
| KR100261214B1 (ko) | 1997-02-27 | 2000-07-01 | 윤종용 | 영상처리 시스템의 콘트라스트 확장장치에서 히스토그램 등화방법 및 장치 |
| US6373533B1 (en) | 1997-03-06 | 2002-04-16 | Matsushita Electric Industrial Co., Ltd. | Image quality correction circuit for video signals |
| JP2951910B2 (ja) | 1997-03-18 | 1999-09-20 | 松下電器産業株式会社 | 撮像装置の階調補正装置及び階調補正方法 |
| US5974169A (en) | 1997-03-20 | 1999-10-26 | Cognex Corporation | Machine vision methods for determining characteristics of an object using boundary points and bounding regions |
| US5982424A (en) | 1997-04-23 | 1999-11-09 | Scientific-Atlanta, Inc. | CCD camera with adaptive compression control mechanism |
| US5859698A (en) | 1997-05-07 | 1999-01-12 | Nikon Corporation | Method and apparatus for macro defect detection using scattered light |
| US5949918A (en) | 1997-05-21 | 1999-09-07 | Sarnoff Corporation | Method and apparatus for performing image enhancement |
| US6101294A (en) | 1997-06-02 | 2000-08-08 | Sarnoff Corporation | Extended dynamic imaging system and method |
| JP3237582B2 (ja) | 1997-08-28 | 2001-12-10 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理方法 |
| US6002782A (en) | 1997-11-12 | 1999-12-14 | Unisys Corporation | System and method for recognizing a 3-D object by generating a 2-D image of the object from a transformed 3-D model |
| US6157373A (en) | 1997-11-14 | 2000-12-05 | Trex Medical Corporation | Method and apparatus for displaying images |
| US6075871A (en) | 1998-02-11 | 2000-06-13 | Analogic Corporation | Apparatus and method for eroding objects in computed tomography data |
| US6067366A (en) | 1998-02-11 | 2000-05-23 | Analogic Corporation | Apparatus and method for detecting objects in computed tomography data using erosion and dilation of objects |
| US6111974A (en) | 1998-02-11 | 2000-08-29 | Analogic Corporation | Apparatus and method for detecting sheet objects in computed tomography data |
| US6104763A (en) | 1998-02-20 | 2000-08-15 | Samsung Electronics Co., Ltd. | Synchrodyning of VSB and QAM final I-F signals supplied by separate converters in a QAM/VSB digital TV receiver |
| US6415049B1 (en) | 1998-04-20 | 2002-07-02 | Konica Corporation | Apparatus for detecting and processing a radiation image |
| US6002525A (en) | 1998-07-06 | 1999-12-14 | Intel Corporation | Correcting lens distortion |
| US6421097B1 (en) | 1998-07-31 | 2002-07-16 | Intel Corporation | Method and apparatus for reducing flicker in a video image sequence |
| US6134339A (en) | 1998-09-17 | 2000-10-17 | Eastman Kodak Company | Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame |
| US6392764B1 (en) | 1998-11-12 | 2002-05-21 | Xerox Corporation | Systems and methods for adaptively filtering palettized images |
| US6118892A (en) | 1998-11-19 | 2000-09-12 | Direct Radiography Corp. | Method for automatic detection of region of interest for digital x-ray detectors using a filtered histogram |
| US6255650B1 (en) | 1998-12-11 | 2001-07-03 | Flir Systems, Inc. | Extreme temperature radiometry and imaging apparatus |
| US6393148B1 (en) | 1999-05-13 | 2002-05-21 | Hewlett-Packard Company | Contrast enhancement of an image using luminance and RGB statistical metrics |
-
2001
- 2001-08-31 JP JP2002523861A patent/JP2004510363A/ja not_active Withdrawn
- 2001-08-31 MX MXPA03001804A patent/MXPA03001804A/es not_active Application Discontinuation
- 2001-08-31 WO PCT/US2001/027351 patent/WO2002019698A2/en not_active Ceased
- 2001-08-31 CA CA002421111A patent/CA2421111A1/en not_active Abandoned
- 2001-08-31 EP EP01970622A patent/EP1360833A1/en not_active Withdrawn
- 2001-08-31 AU AU2001290608A patent/AU2001290608A1/en not_active Abandoned
- 2001-08-31 CN CNA018180884A patent/CN1606758A/zh active Pending
- 2001-08-31 US US10/363,149 patent/US7522745B2/en not_active Expired - Fee Related
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101138222B1 (ko) | 2010-05-11 | 2012-04-24 | 재단법인 포항지능로봇연구소 | 전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법 |
| KR20180005480A (ko) * | 2016-07-06 | 2018-01-16 | 삼성전자주식회사 | 전자 장치 및 이의 디스플레이 방법 |
| KR102588518B1 (ko) * | 2016-07-06 | 2023-10-13 | 삼성전자주식회사 | 전자 장치 및 이의 디스플레이 방법 |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2002019698A2 (en) | 2002-03-07 |
| CN1606758A (zh) | 2005-04-13 |
| US7522745B2 (en) | 2009-04-21 |
| WO2002019698A9 (en) | 2003-03-27 |
| WO2002019698A8 (en) | 2003-09-12 |
| AU2001290608A1 (en) | 2002-03-13 |
| MXPA03001804A (es) | 2004-05-21 |
| EP1360833A1 (en) | 2003-11-12 |
| CA2421111A1 (en) | 2002-03-07 |
| US20050074140A1 (en) | 2005-04-07 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP2004510363A (ja) | センサおよびイメージングシステム | |
| US11080559B2 (en) | Product onboarding machine | |
| US6999600B2 (en) | Video scene background maintenance using change detection and classification | |
| US20070058717A1 (en) | Enhanced processing for scanning video | |
| CN102891960B (zh) | 用于确定图像调整参数的方法和相机 | |
| US20100202663A1 (en) | System and method for adaptively defining a region of interest for motion analysis in digital video | |
| WO2008009656A1 (en) | Image processing for change detection | |
| CN101393603A (zh) | 一种识别和检测隧道火灾火焰的方法 | |
| KR20180086048A (ko) | 카메라 및 카메라의 영상 처리 방법 | |
| JP2006039689A (ja) | 画像処理装置、画像処理方法、画像処理プログラムおよびそのプログラムを記録した記録媒体 | |
| CN109151348A (zh) | 一种图像传感器、图像处理方法及电子设备 | |
| CN110728700B (zh) | 一种运动目标追踪方法、装置、计算机设备及存储介质 | |
| CN106331444B (zh) | 监控摄像机 | |
| US10726249B2 (en) | Method and electronic apparatus for wave detection | |
| Tsesmelis et al. | Tamper detection for active surveillance systems | |
| JP4559043B2 (ja) | 画像モニタリング装置 | |
| Mahajan et al. | 3D Object 360-Degree Motion Detection Using Ultra-Frequency PIR Sensor | |
| KR102411612B1 (ko) | 다수의 카메라를 이용한 열화상 감시 시스템 | |
| KR101496407B1 (ko) | 보안용 cctv 영상 처리 장치 및 영상 처리 방법 | |
| Thotakura et al. | Labview for Motion Detection using Webcam | |
| CA3112321C (en) | Product onboarding machine | |
| Rambabu et al. | Fast and accurate extraction of moving object silhouette for personalized Virtual Reality Studio@ Home | |
| KR101855090B1 (ko) | 카메라 영상분석을 통한 조명등 자동 점등 제어방법 | |
| CN118612540A (zh) | 摄像机、摄像机除热浪方法和装置 | |
| Sonara et al. | Moving object detection for video surveillance |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081104 |