[go: up one dir, main page]

JP2004510363A - センサおよびイメージングシステム - Google Patents

センサおよびイメージングシステム Download PDF

Info

Publication number
JP2004510363A
JP2004510363A JP2002523861A JP2002523861A JP2004510363A JP 2004510363 A JP2004510363 A JP 2004510363A JP 2002523861 A JP2002523861 A JP 2002523861A JP 2002523861 A JP2002523861 A JP 2002523861A JP 2004510363 A JP2004510363 A JP 2004510363A
Authority
JP
Japan
Prior art keywords
image
view
field
camera
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002523861A
Other languages
English (en)
Inventor
グラッソ, ドナルド ピー.
ソン, ジョン
ジョンソン, スティーブ
Original Assignee
ライテック コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ライテック コーポレイション filed Critical ライテック コーポレイション
Publication of JP2004510363A publication Critical patent/JP2004510363A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19604Image analysis to detect motion of the intruder, e.g. by frame subtraction involving reference image or background adaptation with time to compensate for changing conditions, e.g. reference image update on detection of light level change
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/19619Details of casing
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/19632Camera support structures, e.g. attachment means, poles
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19645Multiple cameras, each having view on one of a plurality of scenes, e.g. multiple cameras for multi-room surveillance or for tracking an object by view hand-over
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/1968Interfaces for setting up or customising the system
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Burglar Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

カメラ、プロセッサ、およびユーザインタフェースを有するシステムが開示されている。上記カメラは、視野内のシーンを表すイメージデータを転送する。イメージデータに応答して、上記プロセッサは、状況が満たされたかどうかを指し示す。上記ユーザインタフェースは、上記プロセッサに接続可能である。上記ユーザインタフェースにより、ユーザは、物体を検出し、選択された基準を示して、物体が検出された視覚確認を提供する基準を選択することが可能になる。

Description

【0001】
(関連出願)
本出願は、米国仮特許出願第60/229,613号(出願日2000年8月31日)の利益の権利を主張し、本明細書中に参考として援用する。
【0002】
(技術分野)
本発明は、センサおよびイメージングシステムに関して、より詳細には、イメージデータを提供し、解釈するためのシステムに関する。
【0003】
(発明の背景)
センサおよびイメージングシステムは、今日の技術が促進した経済において需要が増している。これらのシステムは、視野内に含まれる物体を見るためのカメラを含む。このカメラは、検出された物体があった場合、それに応答してどんな動作を取るべきかを決定するためにコンピュータによって分析されるイメージデータを生成する。
【0004】
ある視野内に含まれる物体を見るために、多くの認識システムでは、二つ以上のカメラを用いる。数個のカメラを用いることによるコストに加えて、これらのシステムは、それぞれのカメラに対する特殊な取り付け配置を必要とする。このようなシステムでは、両方のカメラが、適切な操作のために必要とされるので、単一のカメラを介した場合の信頼性のレベルは減少している。
【0005】
単一のカメラシステムは、典型的に、固定された位置で取り付けられ、所定の基準を満たすか、または満たさない物体を探索する。例えば、構造的な欠陥をチェックするシステムである。これらのシステムは、既に特定化されていない決定をすることができない。
【0006】
従って、カメラによって提供されるイメージを用いることによって、条件が満たされたかどうかを決定し得るセンサおよびイメージングシステムに対しての必要性がある。
【0007】
(発明の要旨)
本発明による実施形態において、システムは、カメラ、プロセッサ、およびユーザインタフェースを有して提供される。カメラは、視野内のシーンに応じたイメージデータをプロセッサに転送する。イメージデータに応答して、プロセッサは、条件が満たされたかどうかを示す。ユーザインタフェースは、プロセッサに動作上接続可能である。ユーザインタフェースにより、ユーザは、物体の方向と、選択された基準の表示と、物体が検出されたことの視覚確認とを提供する基準を選択することが可能になる。
【0008】
別の実施形態において、他のデバイスに影響をもたらす制御インタフェースがさらに提供される。さらに、システムは、他のデバイスに影響する信号を提供する。
【0009】
さらに別の実施形態において、システムは、条件が満たされたというプロセッサによる決定と同時にドアを開くための信号を提供する。次にこのドアは、ドアに接続可能な駆動モーターを有する従来のエレクトロメカニカルドアオープナー(opener)システムによって開けられる。
【0010】
本発明の他の特性および利点は、添付の図面と共に得られる以下の詳細から明白になる。
【0011】
(好適な実施形態の詳細な説明)
本発明は、多くの異なる形式の実施形態を可能として、図面に示され、本発明の開示が本発明の原理の例示として考慮されるべきであり、本発明の広い局面が図示された実施形態に限定されることを意図しないことを理解すると共に本発明の詳細な好適な実施形態に記載される。
【0012】
図1を参照すると、本発明によるシステムの実施形態のブロック図が示される。システム10は、イメージ分析12、現在の方向14、センサ技術16、電子回路18、デバイス制御20、カメラのポーズ22、カメラ技術24、イメージ分析26、および市場アプリケーション28に方向付けられた局面を含む。
【0013】
図2を参照すると、本発明によるシステムの別の実施形態の簡単な図が記載される。システム110は、一組のセンサ回路114/イメージング回路115にそれぞれ接続可能である一組のカメラアセンブリ112、113を含む。センサ回路114/イメージング回路115は、キーパッド118に接続されたI/Oディスプレイボード116に接続可能である。さらなる実施形態において、システム110は、ドア121に接続可能な駆動モータ119を有するエレクトロメカニカルオープナーシステム117を含み得る(図3および4)。
【0014】
カメラアセンブリ112および113は、好ましくは、広角レンズを有する電荷結合素子(CCD)などを含み、センサ回路114/イメージング回路115それぞれにイメージデータを転送することが可能である。イメージデータは、それぞれ、各カメラの視野内のシーンに対応する。
【0015】
センサ回路114/イメージング回路115は、ユーザが選択した条件を満たすかどうかを決定するためのイメージデータを処理する。ユーザが選択した条件は、I/O表示ボード116およびメンブレンキーパッド118を含むマンマシンインタフェースを介して選択される。実施形態において、マンマシンインタフェースは、センサ回路114/イメージング回路115に動作上接続可能である。マンマシンインタフェースにより、ユーザは、物体の方向、選択された基準の表示、および物体が検出されたことの視覚確認の提供に対する基準を選択することを可能にする。
【0016】
図3は、ドア121によって閉じられる出入り口120の断面正面図を提供する。図2のカメラアセンブリ112、113は、出入り口120に近接して、逆向きの側面上に取り付けられる。従って、カメラアセンブリ112および113は、それぞれ、出入り口の向き合った側面に視野122および123を有する。好ましくは、ドア121が図4に示されるように開かれると、少なくとも一つのカメラアセンブリの視野は、出入り口120を含む。さらに、視野122および123は、出入り口120について重なり合う。
【0017】
図5を参照すると、図3のドア121の上のヘッダーに取り付ける図2のカメラアセンブリ112、113の一つの透視部分アセンブリ図が示される。カメラアセンブリは、ウィンドウ132を有するハウジングアセンブリ131を含む。図6は、図5のカメラアセンブリの断面図を提供する。ハウジングアセンブリ131内に、視野136を有するカメラ134およびヒーターアセンブリ140が取り付けられる。さらなる実施形態において、電源供給(図示せず)は、カメラ134に電力を供給するためにヒーターアセンブリ内に取り付けられ得る。
【0018】
図7および8はそれぞれ、ヒーターアセンブリ140の平面図および断面図を提供する。実施形態において、ヒーターアセンブリ140は、好適には鋳物などで作られる、カメラアセンブリハウジング131のウィンドウ132に隣接し、1対の伝導性端子144、145間に挟まれたセラミックレジスタ142を含む。セラミックレジスタ142は、典型的に、リング形状であり、PTCR(ポジティブ温度係数または抵抗)またはPTC効果として一般に言及されるものを示す材料から構成される。同様に、伝導性端子144、145は、典型的に、リング形状であり、電気的かつ熱的に伝導性材料(例えば、銅)から構成される。
【0019】
一実施形態において、環状のアパーチャ146は、セラミックレジスタ142および伝導性端子144、145の軸を介して伸びる。アパーチャ146は、実質的に、同一の外周を有し、同軸に、互いに整列される。
【0020】
好適には、伝導性端子145の外周148は、そこから外側に伸びる複数のイアー150を含む。各イアー150を経て伸びることは、それ故、取り付けネジ154を伸びるためのアパーチャ152である(図9)。
【0021】
図9を参照すると、ヒーターアセンブリ140は、カメラアセンブリのハウジング131内に取り付けられる。前述したように、取り付けネジ154は、ヒーターアセンブリ140の伝導性端子145を取り付け表面、あるいはハウジング131に内部まで伸びる取り付けポスト156に結合し、完全にそれらに取り付けられる。
【0022】
カメラアセンブリハウジング131は、アパーチャ158を含む。アパーチャ158により、カメラの視野136は、ハウジングの外側に延長することが可能になる。ウィンドウ132は、アパーチャ158の上に取り付けられ、混入物(例えば、ほこりおよび水分)がカメラアセンブリに入ることを防止する。
【0023】
好適には、ウィンドウ132は、ヒーターアセンブリ140の熱的な伝導性端子リング145と弾性材料から作られ、カメラアセンブリハウジング131の内部表面に対して隣接する環状ガスケット160との間に挟まれ、アパーチャ158の周りのカメラアセンブリハウジング131の内部表面162に対して隣接している。実施形態において、ウィンドウ132は、視覚的に透明な材料(例えば、ホウケイ酸ガラス)で作られる。
【0024】
カメラ134は、カメラの視野136において得られるものを表すイメージデータまたは電子ピクセルデータ218を生成する。実施形態において、イメージングデータ218は、カメラの視野136において検出された物体があった場合、それに応答してどんな動作が取られるべきかを決定するためにビデオプロセッサ114、115(図2)のいずれかによって分析される。
【0025】
カメラアセンブリハウジング131内において、ヒーターアセンブリ140の端子144、145は、セラミックレジスタ142を横切る電位を維持するために電圧ソース166に結合される。電流がセラミックレジスタ142を流れるときにセラミックレジスタ142によって生成される熱は、伝導性端子145を介して、ウィンドウ132上に分散される。実施形態において、十分な熱は、カメラアセンブリハウジング131の外気の露点を上回る温度でウィンドウ132を維持するように提供される。例えば、ヒーターは、約87°Fで駆動し、約106°Fで動作を停止する。
【0026】
当業者にとって明白であるように、セラミックレジスタ142の使用は、レジスタ材料がポジティブ温度係数を示すので、メカニカルサーモスタットまたはそのような類似物に対する必要性を除外する。サーモスタットの除外は、ヒーターの信頼性を増して、スイッチングの結果として生じる電圧供給に乗るノイズ量を減少する。
【0027】
図2に戻ると、実施形態において、カメラアセンブリ112、113は、視野を照らすために発光源(図示せず)(例えば、光電球、あるいは可視光または非可視光内の発光ダイオードなど)を含み得る。カメラアセンブリ112、113の出力は、移動可能に結合されたディスプレイ(図示せず)によって受信され得る。カメラアセンブリ112、113の出力によって、ユーザは、各カメラアセンブリの視野が適切に構成されるというチェックを見ることが可能になる。
【0028】
図10を参照すると、図3および4のドア121の片側の上面透視図が提供される。図2のカメラアセンブリの一つ(特にカメラアセンブリ112)は、ドアの前面の領域を含む視野122を有する。カメラアセンブリ112は、イメージングデータをビデオプロセッサ114(図2)に提供する。実施形態において、ビデオプロセッサ114は、安全ゾーン168、および、所望ならば一つ以上の活性ゾーン170を重ね合わせる。好適には、物体が安全ゾーン168内であることを、ビデオプロセッサ114、115のいずれかによって検出されると、ドア121は、物体が安全ゾーン168を外れるまで、開かれたままになる。さらに、物体が活性ゾーン168に入ることを、ビデオプロセッサ114、115のいずれかによって検出されると、物体が活性ゾーン内の移動を止めるか、活性ゾーンを離れた後に、ドア121は、開かれたままになる。
【0029】
好ましくは、安全ゾーン168は、ドア121をすぐに取り囲む領域に維持され、人または物体がドアのすぐ近くにあるときに、ドアが閉じることを防止する。さらに、活性ゾーン(単数または複数)168は、人または車両がドア121に接近したときに、ドアを開く。さらに、視野内の照明の不足、激しい照明変化、電子機器の故障、カメラの衝突によるドアの半開き状態がある場合、またはカメラレンズが曇っているときは、ドア121を開くために二重安全システムが提供される。
【0030】
図11は、物体がカメラアセンブリ122からさらに離れて置かれたときの視野122のピクセル密度を示す。図12は、実施形態において、メンブレンキーパッド118(図2)を用いるユーザによって選択され得る複数の安全ゾーン配置を提供する。
【0031】
図13は、図2に示されるメンブレンキーパッド118の実施形態の上面図を提供する。メンブレンキーパッド118および/またはI/Oディスプレイボード116(図2)は、ユーザインタフェースまたはマンマシンインタフェースをユーザに提供し、システム(図2)をセットアップする。実施形態において、ユーザインタフェースにより、ユーザは、ドアタイプおよび寸法を定義し、サイズ、配置、およびシステム110が使用する検出ゾーンのタイプを確立することが可能になる。好ましくは、ユーザインタフェースにより、ユーザは、エリア、配置、形状、制御ゾーンの数、および制御基準からなる群からの少なくとも一つの制御ゾーンパラメータを定義するためのデータを入力することが可能になる。
【0032】
前述されるように、ユーザインタフェースを介するシステム110は、制御ゾーンとしてカメラアセンブリによって受信されたイメージの少なくとも一部を定義することを可能にする。一実施形態において、システム110は、制御ゾーン内で、直接的なアクセスによって配位される全てのピクセルから座標を選択することを可能にする。あるいは、システム110は、複数の所定のゾーンから選択することを可能にする。さらに、システム110は、イメージデータの部分になる境界座標および実際の物体を描写するために、視野内に実際の物体を置くことを可能にし得る。
【0033】
実施形態において、ユーザインタフェースは、三つの操作モードである、パラメータ編集モード、実行モード、および診断モードを有する。パラメータ編集モードにおいて、ユーザは、タッチキーパッドボタン610、622、624、および626を用いて構成パラメータ(例えば、ドアモデル、米英単位またはメートル単位、カメラの高さおよびドアからの距離)を入力または変更し得る。実行モードにおいて、システム110は動作される。そのような場合、システム110は、カメラ112、113からイメージを処理して、I/Oボード116を介してセーフティおよび起動ゾーンの命令信号出力して、表示LED614および616上に状態情報を表示し得る。診断モードにおいて、システム110の状態に関する追加情報は、I/Oポート(図示せず)を介して利用可能にされる。
【0034】
図14は、図13のメンブレンキーパッドを用いてゾーンの動きを示す図を提供する。実施形態において、ユーザは、カメラアセンブリ112、113の視野内の多様な位置に起動ゾーンを動かしうる。
【0035】
図15は、図2のセンサ/イメージング回路114、115の一つの簡単なブロック図を提供する。実施形態において、センサ/イメージング回路114、115は、物理的な設計において実質的に類似しており、フィールドプログラマブルゲートアレイ(FPGA)124、中央処理装置(CPU)125、およびビデオ126を含む。
【0036】
実施形態において、ビデオデジタイザ126は、カメラの一つからアナログイメージ信号を受信し、アナログイメージ信号をデジタル化し、そしてフィールドプログラマブルゲートアレイ124にデジタル化されたイメージ信号を送信する。
【0037】
本明細書中さらに詳細に説明されるように、フィールドプログラマブルゲートアレイ124は、受信されたデジタル化されたイメージ信号に応答して一つ以上のイメージ処理操作を実行するようにプログラムされる。実施形態において、これらの操作は、合成したイメージデータを提供するために、一つ以上の以前に受信したデジタル化されたイメージ信号とデジタル化されたイメージ信号の所定の特性とを比較することを含む。合成したイメージデータに応答して、中央処理装置125は、一つ以上の状況が満たされているかどうかを決定し得る。
【0038】
ビデオデジタイザ126に操作可能に結合された温度センサ128は、ビデオデジタイザの温度に相関する出力を有する。ビデオデジタイザ126が所定の温度領域または限界内で操作しないという状況を温度センサによって示されると。リセットコマンドは、リセット回路130によって発信され、それにより、システム110は、ビデオデジタイザの温度が所定の温度領域または限界内に戻るまでリセット状態に維持される。
【0039】
実施形態において、FPGA124は、CPU125の負担をかけず、所望のビデオ処理フレームレートを達成するために比較的高レートピクセル処理を実行する。このハードウェアのアーキテクチャは、十分に速いCPUチップと結び付いたコストを除去することによってシステム全体のコストを減少する。フレームレートのさらなるスピードアップは、同時に並列に処理するFPGAおよびCPUを用いて達成され得る。この並列処理は、CPUが現在のフレームをデータ処理する期間中に次のフレームをFPGAピクセル処理することによって成し遂げられる。従って、新しいFPGA出力は、CPUが現在のフレームデータ処理を終えるときに、CPUプロセスに対してすぐに利用可能になる。このプロセス構造は、二つの独立したデータセットを維持するための性能を必要とし、本明細書中でピン/ポン(ping/pong)コントロールとして後に言及される。
【0040】
図16を参照すると、本システムに一致する処理システムのトップレベルの簡単なブロック図が示される。システムは、好ましくは、図15のFPGA124内のイメージ処理モジュール212、図15のCPU125によって実行される特性処理モジュール214、および図15のCPU125によってさらに実行される検出処理モジュール216を含む。
【0041】
実施形態において、イメージ処理モジュール212は、現在のイメージデータ220、リファレンスイメージデータ222、リファレンスエッジデータ224、および以前のイメージデータ226を構成する格納された電子ピクセルデータ218を受信する。好ましくは、現在のイメージデータ220は、最も最近得られたイメージ(すなわちtにおいて得られた)であり、以前のイメージデータ226は、次に最近得られたイメージデータ(すなわちt+1において得られた)であり、リファレンスイメージデータ222は、最も古く得られたイメージデータ(すなわちt+1+xにおいて得られた)である。さらに詳細に本明細書中にさらに説明されるように、リファレンスエッジデータ224は、リファレンスイメージデータ222から引き出されたエッジデータから構成される。
【0042】
イメージ処理モジュール212はまた、マンマシンインタフェース(すなわち、図2のキーパッド118およびI/Oディスプレイボード116)からパラメータデータ228を受信する。さらに本明細書中で詳細に説明されるように、パラメータデータ228は、視野(図2および3の112および113)内で検出された物体が結果としてドア121(図2および3)の開けるエリア(図2および図3の112および113)に関係がある情報を含む。
【0043】
さらに本明細書中で詳細に説明されるように、電子ピクセルデータ218およびパラメータデータ228に応答して、イメージ処理モジュール212は、エッジ細分化、モーション細分化、および領域細分化を含む生成したイメージデータ230を生成する。
【0044】
特性処理モジュール214は、生成したイメージデータ230およびパラメータデータ228を受信する。さらに本明細書中で詳細に説明されるように、特性処理モジュール214は、イメージデータ230およびパラメータデータ228に応答して、エッジ特性、モーション特性、領域特性、およびフレーム特性を含む特性データ232を生成する。
【0045】
検出処理モジュール216は、特性データ232およびパラメータデータ228を受信する。そのデータに応答して、検出処理モジュール216は、ドア121(図2および3)を開閉する検出信号、リファレンス更新、および適応可能な閾値を含む制御信号234を生成する。
【0046】
図17および18を参照すると、図16の処理システムに関する初期化シーケンスの簡単なブロック図が示される。初期化シーケンス234は、初期化パラメータのステップ236、初期化閾値テーブルのステップ238、初期化ゾーンのステップ240、初期化FPGAのステップ242、初期化ビデオデジタイザのステップ244、および初期化ビデオシステムのステップ246を含む。
【0047】
初期化パラメータのステップ236は、マンマシンインタフェース、定常データ、および導出したパラメータの初期化を含む。マンマシンインタフェースの初期化中、ユーザ入力されたデータが読み出されて、メモリ中に格納される。定常データはまた、ドアを開閉する制御ゾーンに関係する生成したパラメータと共にメモリ中にロードされる。
【0048】
従って、上述されるように、システムへの電力の適用に関して、初期化パラメータモジュール236は、マンマシンインタフェース(すなわち、図2のメンブレンキーパッド118およびI/Oディスプレイボード116)、定常データ、導出したパラメータの初期化を開始する。初期化閾値テーブルモジュール238は、カメラのジオメトリおよび解像度モデルからのエリア閾値マップの初期化を開始する。これらのマップを用いて、物体(例えば、人および車両(例えば、フォークリフト))の最小および最大ピクセルの特性を決定する。
【0049】
初期化ゾーンモジュール234は、ユーザまたは所定の安全ゾーンおよび起動ゾーンと結び付いたデータが応じるとすぐに、制御ゾーンの初期化を開始する。初期化FPGA242および初期化ビデオデジタイザ244は、FPGA124(図15)およびビデオデジタイザ126(図15)の初期化をそれぞれ開始する。特に、制御状態レジスタ(CSR)およびイメージバッファポインタは、FPGA初期化中に初期化される。さらに、ビデオデジタイザは、FPGAシリアルI/Oを介して必要とされた命令を構成し、それらの命令を送信することによって初期化される。
【0050】
初期化ビデオシステム246は、CPU125(図15)の初期化を開始する。特に、第1のピンポンデータセットが選択される。次に、FPGAは、ビデオフレームをキャプチャするように指示される。次に、四つのイメージ(リファレンスイメージ)は、グレーレベルのリファレンス(R)、エッジリファレンス(GER)およびアーカイブエッジリファレンスが初期化される。次に、FPGAは、これらのデータを処理するように構成される。FPGA出力は、バンク0データベース中へFPGAから取り出される。
【0051】
システムが初期化された後に、システムは、図19〜22の簡単なブロック図に示されるビデオ処理ループで操作する。実施形態において、ビデオ処理ループ250は、次のフレーム入手のステップ252、FPGAデータを取り出すステップ254、全ての特性を算出するステップ214、検出および制御を算出するステップ258、FPGAデータを保存するステップ260、および診断を欠き込むステップ262を含む。
【0052】
ビデオ処理ループ250内で、CPU125のプロセスは、現在のピン/ポンバッファを使用して、データを指し示し、第3のデータベース(ユーザデータ)のバンクUにデータをロードしてアンパックする。このデータは、現在のフレーム上で特性および決定の決定を生成するように後でCPUプロセスにおいて使用される。好ましくは、同時に、CPUプロセスは、FPGAキャプチャおよびFPGA124上のプロセス動作をスタートする。CPUが現在のフレームに関する特性を処理する間、FPGAは、次のフレームに関するイメージデータを計算する。決定および制御動作は、FPGAシリアルI/Oインタフェースを介して外部に安全および起動信号を送信する。CPU特性および検出処理は、FPGA計算よりも長い時間を要する。CPUが現在のフレームを終えるとき、FPGAデータは、反対のバンクに対して取り出される(例えば、処理バンクが0の場合バンクは1)。診断メッセージは、各フレーム処理の終端およびビデオ処理における任意の点において出力され得る。次に、処理は、新しい現在のバンク(バンク0またはバンク1)に対してバンクUを設定するようにループして、FPGAは、再度開始される。
【0053】
図22を参照すると、システムリソース分配法、または本発明によるピン/ポン制御の実施形態の簡単なブロック図が提供される。前述されるように、ビデオ処理システム110は、イメージ処理のためにFPGA124を含む。このことにより、エッジ細分化、モーション細分化、および領域細分化を含む生成したイメージデータ230が生成される。
【0054】
一旦生成したイメージデータ230が生成されると、好ましくは、イメージデータ230は、複数のメモリバンク230a、230bの一つに格納され、次に、特性処理のためにスイッチングを介して提供される。従って、特性処理モジュール214に提供される生成したイメージデータ230は静的である。しかし、FPGA124は、電子ピクセルデータ218を連続的に処理して、処理モジュール214に現在アクセスできないメモリバンクに、スイッチングを介してイメージ処理の結果をロードする。従って、メモリバンク内に生成したイメージデータ230は、ファーストインファーストアウトベースのメモリバンク230a、230b間のスイッチングを介して特性処理モジュールにアクセス可能である。
【0055】
好ましくは、二つのメモリバンク230aおよび230bが提供される。図19に戻ると、次のフレームを得るステップ252は、FPGA124内のイメージ処理モジュール212による電子ピクセルデータ218のキャプチャおよび処理を提供する。特に、制御および状態レジスタ(CSR)は、メモリバンク230aおよび230bの選択、ならびにキャプチャおよびプロセスビットを設定するように使用される。
【0056】
FPGAデータを取り出すステップ254は、全ての特性を算出するステップ256の間に静的データを処理するために、メモリバンク内に静的データを得ることを提供する。特に、一時的な格納レジスタおよびカウンタはリセットされ、静的データは、特性処理モジュール214(図16)によって処理するために、生成されたイメージデータ230を提供するようにアンパックされる。
【0057】
実施形態において、さらに本明細書中で詳細に示されるように、特性処理モジュール214(図16)は、生成されたイメージデータ230(図16)およびパラメータデータ228(図16)に応答して、全ての特性を算出するステップ256を実施する。特に、全ての特性を算出するステップ256は、エッジまたはP特性、モーション特性、影および光ビームまたは領域特性、およびフレーム特性を含む特性データ232(図16)を生成する。
【0058】
さらに、検出処理モジュール216は、特性データ232(図16)およびパラメータデータ228(図16)に応答して検出および制御を算出するステップ258を実施する。特に、フレーム分析の欠陥フラグが評価され、検出ロジックが実行され、リファレンスフレームの更新要求が評価され、自動適応閾値が評価され、モーションリファレンスデータが更新される。
【0059】
FPGAが別のイメージフレームの処理を完成して、データが特性処理モジュール(図16)によって処理できるように準備されていることを指し示すCPU125(図15)への割り込みを提供すると、FPGAデータを保存するステップ260は、かつてFPGA124(図15)を生じる。さらに、所望ならば、CPU125(図15)によって実施される診断を書き込むステップ262は、前のフレームデータの進行をどのように処理するかに関する一つ以上のメッセージをメモリ内に格納し得る。次に、ビデオ処理ループ250は、好ましくは、次のフレームを得るステップ252に連続して戻る。
【0060】
図23を参照すると、図22のピンポンシステムに関する初期化シーケンスの実施形態の簡単なブロック図が示される。実施形態において、ピンポン初期化シーケンス264は、初期化ピンポンアドレスモジュール265、キャプチャビデオバッファモジュール266、キャプチャフレームモジュール267、開始リファレンスモジュール268、プロセスビデオモジュール269、プロセスフレームモジュール270、およびFPGAデータ取り出しモジュール271を含む。
【0061】
図24は、図22のピンポンシステムに関するピンポンループ272の簡単なブロック図を提供する。ループ272の上部はCPUの起動を示し、下部は、シリアルI/OおよびCSRメッセージングに関連したFPGA起動(時間スケールではなく)を示す。
【0062】
図25および26は、自動コントラスト回路(ACC)を有する代替の実施形態におけるピンポン起動(初期化およびビデオループ)の詳細を図示する。ACCを用いて、点灯する状態をゆっくりと変化するためにシステム検出性能を改良し得る。ACCは、イメージ特性基準および時間動的基準に応答してビデオ利得を変化することによってこれをなす。ACCは、過剰な白色飽和を防止する間に利得を最大化する。
【0063】
ACCは、ユーザ入力によってイネーブルされるとき、イメージ結果を繰り返してテストすることによって最良の開始利得を見出すために初期化中に機能する。利得が、確立された基準を満たすことを見出すと、繰り返しは停止して、プロセスは、選択された利得と共にビデオループし続ける。ACCはまた、ビデオループの始まりにおいて機能するが、十分な利得を減少するように繰り返さない。単一の利得変化のみがフレーム毎のループにおいて実施される。利得変化およびビデオシステムの結果の初期化は、フレーム時間(100ms)よりもかなり短い時間を要する。ビデオループにおける利得変化を必要とする決定は、CPU起動の検出および制御の部分において算出される基準によって制御される。その基準は、エージング、ゾーン起動、および長短の時間定常フィルタを含み得る。
【0064】
図27は、図17のシステム初期化に関するゾーン初期化シーケンス240の簡単なブロック図を提供する。ゾーン初期化シーケンス240は、結果として実際の世界の座標におけるゾーンを構築し、制御ゾーンのサブマスクを生成して、制御ゾーンマスクを構成する。図28は、図17のシステム初期化に関する閾値テーブルの初期化シーケンス238の簡単なブロック図を提供する。閾値テーブルの初期化シーケンス238は、結果として、カメラの内因的なパラメータ、解像度モデル、および物体モデルの初期化を生じる。
【0065】
図29(および図48および49を参照する)を参照すると、エッジ検出器301を含む図16の処理システムに関するイメージ処理モジュールの簡単なブロック図が提供される。エッジ検出器301は、好ましくは、改変されたソーベルオペレータモジュール302、正差(positive difference)モジュール304、閾値モジュール306、エロード(erode)モジュール308、およびラベルIモジュール310を含む。
【0066】
実施形態において、改変したソーベルオペレータモジュール302は、現在のイメージ入力312を受信して、現在の入力イメージからエッジイメージ(GEB)314を生成する。CPUにおいて初期化されたリファレンスイメージ(GER)316は、正差オペレータモジュール304における現在のエッジイメージから引かれ、負の値はゼロに設定される。グレーレベルのエッジイメージは、閾値化306、エロード化308、およびラベル化310される。ラベルIオペレータ310の出力は、16ビットラベルイメージ318、等価テーブル320、ならびに使用されたラベルの数322および等価テーブルの数のカウントである。エロードオペレータ308のバイナリ入力324および出力326における設定ピクセルの数のカウントはまた、CPUに対して出力され、エッジイメージ処理を完了する。
【0067】
ラベルIのオペレータ310は、イメージ処理の各スレッドにおいて使用される。ラベルI310は、バイナリ入力の接続されるコンポーネントのラベリングを生成するようにしようされる二つのステッププロセスの第1の部分である。ラベルI310は、イメージの左上から始まるバイナリ入力イメージを介する2×2カーネルを通る。カーネルのエレメントは、次のように識別される。
B    C
A    X
Xにおけるバイナリピクセルがゼロの場合、出力はゼロになる。Xが設定される場合、ラベルB、A、Cはその次数でスキャンされる。B、A、Cの全てがゼロでない場合、ラベルカウンタの次の値はXで出力され、カウンタは増大される。B、A、Cのいずれかがゼロでない場合、ラベルのオペレータは、第1のゼロでないラベルの値になる。B、A、Cのうち一つ以上がゼロでない場合、第1のゼロでない値が出力される。残りのゼロでないラベルのいずれかが出力値と異なる場合、出力値および異なる値は、等価テーブルに書き込まれる。
【0068】
図30(図48および49を参照する)を参照すると、図16の処理システムに関するイメージ処理モジュールの簡単なブロック図は、領域340を使用するモーション検出器を有する。システム340は、好ましくは、それぞれ現在(B)の入力イメージ(n)および前(A)のイメージ(n−1)の両方に対して正差モジュール342および344、閾値モジュール346および348、ならびに拡張モジュール350および352を含む。出力は、包括的な論理和モジュール354、エロードモジュール356、およびラベルIモジュール358に通される。
【0069】
現在のグレーレベル入力イメージ(B)360および前のイメージ(A)362の正差は、閾値化346および348、拡張化350および352され、Aの正差342およびBの正差344である。その結果は、包括的に論理和をされる(354)。結果としてバイナリイメージは、エッジケース(図29)としてラベル化され、その結果、CPUに通される。
【0070】
グレーレベルのエッジイメージは、閾値化、エロード化356、およびラベル化358される。ラベルIオペレータ358の出力は、16ビットのラベル化されたイメージ364、等価テーブル366であり、使用されたラベルの数368および等価テーブルにおける入力の数のカウントである。エロードオペレータ356のバイナリ入力370および出力372における設定ピクセルの数のカウントは、CPUに出力され、領域を用いて処理するモーション検出器イメージを完了する。
【0071】
ラベルIオペレータ358は、イメージ処理の各スレッドにおいて使用される。ラベルI358は、バイナリ入力の接続されたコンポーネントのラベリングを生成するように使用される二つのステッププロセスの第1の部分である。ラベルI358は、イメージの左上から始まるバイナリ入力イメージ上の2×2カーネルを通す。カーネルの構成要素は、以下のように識別される。
B    C
A    X
Xにおけるバイナリピクセルがゼロである場合、出力はゼロになる。Xが設定される場合、ラベルB、A、Cはその次数でスキャンされる。B、A、Cの全てがゼロでない場合、ラベルカウンタの次の値はXで出力され、カウンタは増大される。B、A、Cのいずれかがゼロでない場合、ラベルのオペレータは、第1のゼロでないラベルの値になる。B、A、Cのうち一つ以上がゼロでない場合、第1のゼロでない値が出力される。残りのゼロでないラベルのいずれかが出力値と異なる場合、出力値および異なる値は、等価テーブルに書き込まれる。
【0072】
図31(および図48および49を参照する)を参照すると、図16の処理システムに関するイメージ処理モジュールの簡単なブロック図は、影および光ビームの処理に対する領域の分析を有する。システム380は、好ましくは、それぞれ現在(B)の入力イメージ394、およびリファレンス(R)入力396の両方に関して正差モジュール382および384、閾値モジュール386および388、ならびに拡張モジュール390および392を含む。出力は、包括的な論理和モジュール396、エロードモジュール400、およびラベルIモジュール402に通される。ラベルIオペレータ402の出力は、16ビットのラベル化イメージ404、等価テーブル406、および使用されたラベルの数408および等価テーブルにおけるエントリの数のカウントである。エロードオペレータ402のバイナリ入力410および出力412における設定ピクセルの数のカウントはまた、CPUに出力され、領域を用いてモーション検出器イメージ処理を完了する。
【0073】
システムイメージ処理領域の分析検出操作は、すぐに以前のイメージ入力Aを用いる代わりに、それが現在の入力イメージのコピーとしてCPUコマンド上で更新されるリファレンスイメージ396にコールされる前のイメージを用いることを除いて、図30のモーション検出操作に類似する。
【0074】
図32(および図48および49を参照する)を参照すると、図16の処理システムに関するイメージ処理モジュールの簡単なブロック図は、エッジ420を用いるモーション検出器を有する。システム420は、正差モジュール426への入力として現在のエッジイメージ(GEB)422および前のエッジイメージ(GEA)424を得ることを除くと、図29のエッジ検出操作に類似した選択可能な代替のモーション検出イメージ処理操作を示す。GEB422からGEA424を引いた正差は、図19、20、および21のように閾値化428、エロード化430、およびラベル化432される。
【0075】
ラベルIオペレータ432の出力は、16ビットラベル化イメージ434、等価テーブル436、ならびに使用されるラベルの数438および等価テーブルにおけるエントリの数のカウントである。エロードオペレータ430のバイナリ入力440および出力442における設定ピクセルの数のカウントはまた、CPUへ出力され、エッジを使用するモーション検出器を有するシステムイメージ処理を完了する。
【0076】
図33を参照すると、図16の処理システムに関する特性処理モジュール450の簡単なブロック図は、存在、モーション、フレーム、および領域特性の算出に関する。システムデータの処理(全ての特性の算出)は、CPUを取り除くためにFPGAにおいて実施され、所望の処理レートを達成する。
【0077】
存在(P)またはエッジ特性モジュール452ならびに影および光ビーム(SL)または領域特性モジュール458の算出は、エッジ/領域のスコアディスカウントを生成する点でかなり類似している。さらに、P特性452およびSL特性458の算出内で、グローバルな算出は、ゾーン算出に非常に類似している。ゾーン算出は、関連したゾーンマスクを用いる各ゾーンに関する特性算出の空間的なレンジを制限する。PおよびSL特性算出の結果として、検出決定460において使用するデータベース(特性テーブル)に格納される。
【0078】
フレーム特性456は、PおよびSL特性よりも異なって算出される。フレーム特性456は、物体の特性ではなく、入力グレーレベルイメージおよび現在のエッジイメージの特性である。フレームの統計値は、カメラおよびビデオシステムの統合性の状況についての障害を取り出すために計算される。フレームの統計値はまた、順応性の閾値として動作するいくつかの検出可変量を調整するために使用される。三つの欠陥フラグは、算出するフレーム特性モジュール456(照明欠陥フラグ、不明瞭な欠陥フラグ、および半開きの欠陥462)によって設定され得る。これらの欠陥462のそれぞれは、関連した測定基準を介して決定される。照明欠陥は、改変されたカイパー統計値、均一の中心の平均値、およびグレーレベル入力の変化を評価することによって制御される。不明瞭および半開きの欠陥は、現在およびアーカイブのエッジを用いて、カメラおよび/またはビデオシステムが、不明瞭またはノックされた半開きになるかどうかを検出する。
【0079】
システム450は、任意のモーションが任意のゾーンにおいて検出される場合、リファレンスを更新しない。各ゾーンにおいてモーションがあるかどうかを決定するために、ラベル化されたエッジイメージは、ラベル化されたゾーンにおいて非ゼロの数をカウントして、存在P特性モジュール452において算出される。非ゼロピクセルは、モーションピクセルになり、モーションM特性モジュール454において算出される。システム450は、各ゾーンにおけるゾーンモーションピクセルがゼロ(0)よりも大きいかどうかを検証するために、モーションのラベル化されたイメージにおける非ゼロピクセルをカウントする。システム450は、そのカウントにおける蓄積に対するゾーン検出マスクにおいて非ゼロピクセルをカウントする。
【0080】
図34を参照すると、図33の特性生成システム470の簡単なブロック図は、ラベルモジュール472、算出するグローバル存在特性モジュール474、および算出するゾーン存在特性モジュール476を有する。
【0081】
ラベルモジュール472は、ラベル化されたエッジイメージ478、等価テーブル480、ならびにラベルおよびコンフリクトカウント482の形式における存在入力を受信する。ラベルモジュール472は、領域内のピクセルラベル付けの矛盾を決定して、領域の数とラベルとを置換して、エリアコールをして、連続したインデックスと領域とをリナンバリングして、ならびに、さらに領域を再インデックス付けして、算出するグローバル存在特性モデル474に対して領域および領域のイメージの数に関連したデータを通す。
【0082】
算出するグローバル存在特性モデル474は、領域イメージ484、領域486の数、現在のエッジ(GEB)488を用いて、グローバル特性テーブルを作成する。グローバル特性テーブルは、第1に初期化され、領域は、エリア、平均グレーレベル強度、ヒストグラム、および図心についてラベル付けされる。次に、領域は、グレーレベルおよび図心の分散に関して再算出され、領域内のピクセルの特性(グローバル、セーフティ、...)をリスト化する。
【0083】
算出するP特性ゾーンモジュール476は、上述の領域イメージ484、領域の数486、現在のエッジ(GEB)488を要して、ゾーンマスクおよび矩形490を用いてゾーン特性テーブルを作成する。システム470は、セーフティゾーン、二次セーフティゾーン、ドアゾーン、第1の動作ゾーン、第2の動作ゾーン、第1のガードゾーン、および第2のガードゾーンにおける検出を算出することによってゾーンのモーションを決定する。
【0084】
図35を参照すると、図34の算出する存在(エッジ)特性システムの簡単なブロック図がグローバル存在特性モジュールを算出する。
【0085】
グローバルP特性は、特性テーブル502のエッジカウントを初期化することによってまず算出される。イメージのグローバルな範囲は、イメージの第1のパスモジュール504において算出される。エリア、図心、平均値、ヒストグラム、およびエッジカウントは蓄積され、イメージの第2のパスモジュール506に通して、第2の図心モーメントおよび変化量は蓄積される。特性テーブルパスモジュール508は、領域の広がり、伸長、方向、および楕円形状を含む生成された特性を算出する。算出する領域スコアモジュール510は、ドアの拒絶(rejection)、エッジ形状抑制、およびエッジグレーレベル抑制を決定する。スコアは、領域のグレーレベル変化量から生じて、ディスカウントは、スコアに適応される。領域のスコアが算出される510後、次の領域は、特性テーブルパスモジュール508の算出を介してループされる。
【0086】
図36を参照すると、図34の算出する存在特性システムの簡単なブロック図がゾーン存在特性を算出する。
【0087】
ゾーン存在P特性は、特性テーブル522のゾーンカウントを初期化することによってまず算出される。ゾーンのグローバル範囲は、ゾーンの第1のパスモジュール524において算出される。ゾーンは、ピクセルが選択されたゾーンマスクにあるかどうかを決定するように算出される。エリア、図心、平均値、およびヒストグラムはまた蓄積され、イメージの第2のパスモジュール526を通されて、第2の中心モーメントおよび変化量が蓄積される。特性テーブルパスモジュール528は、領域の広がり、伸長、方向、および楕円形状を含む生成された特性を算出する。算出する領域のスコアモジュール530は、ドアの拒絶、エリア比率抑制、エッジ形状抑制、およびエッジグレーレベル抑制を決定する。領域のスコアが算出される530後、次の領域は、特性テーブルパスモジュール528の算出を介してループされる。
【0088】
図37を参照すると、図33の特性生成システム540の簡単なブロック図は、ラベルモジュール、算出するグローバル影および光ビーム(SL)特性モジュール、および算出する影および光ビームゾーン特性モジュールを有する。
【0089】
ラベルモジュール542は、ラベル付けされたエッジ544、等価テーブル546、およびラベルおよびコンフリクトカウント548という形で存在入力を受信する。ラベルモジュール542は、領域内のコンフリクトをラベル付けするピクセルを決定して、領域の数とラベルとを置換して、エリアコールして、連続したインデックスと領域とをリナンバリングして、ならびに、さらに領域を再インデックス付けして、算出するグローバル存在特性モデル550に対して領域および領域のイメージの数に関連したデータを通す。
【0090】
算出するグローバル存在特性モデル550は、領域イメージ552、領域の数554、および現在の差分イメージを用いて、グローバル特性テーブルを作成する。グローバル特性テーブルはまず初期化され、領域は、エリア、平均グレーレベル強度、ヒストグラム、および図心についてラベル化される。次に、領域イメージは、グレーレベルの分散および図心の第2の移動に関して再算出され、領域内のイメージの形状特性をリスト化する。
【0091】
算出するSL特性ゾーンモジュール558は、上述の領域イメージ552、領域の数554、現在のエッジ(GEB)560を得て、ゾーンマスクおよび矩形562を用いてゾーン特性テーブルを作成する。システム540は、セーフティゾーン、二次セーフティゾーン、ドアゾーン、第1の起動ゾーン、第2の起動ゾーン、第1のガードゾーン、および第2のガードゾーンにおける検出を算出することによってゾーンにおけるモーションを決定する。
【0092】
図38を参照すると、図37の算出する影および光ビーム領域特性570システムの簡単なブロック図がグローバルな影および光ビーム(SL)特性を算出する。
【0093】
グローバルなSL特性は、特性テーブル572のエッジカウントを初期化することによってまず算出される。イメージのグローバルな範囲は、イメージの第1のパスモジュール574において算出される。エリア、図心、平均値、ヒストグラム、およびエッジカウントは、蓄積され、イメージの第2のパスモジュール576を通して、第2の中心モーメントおよび分散が蓄積される。特性テーブルパスモジュール578は、改変されたニッパ(kniper)統計値ならびにマッピングされた平均値および変化量の広がり、伸長、方向、楕円形状のファクタを含む生成された特性を算出する。算出する領域スコアモジュール580は、影および光ビームディスカウント、形状ディスカウント、およびエリアディスカウントからの領域抑制ならびに過渡抑制と共にSLスコアを決定する。領域スコアが算出される580後、次の領域は、特性テーブルパスモジュール578の算出を介してループされる。
【0094】
図39を参照すると、図37の算出する影および光ビーム領域特性590の簡単なブロック図が影および光ビーム(SL)ゾーン特性を算出する。
【0095】
ゾーンSL特性は、特性テーブル592のゾーンカウントを初期化することによってまず算出される。ゾーンのグローバルな範囲は、ゾーンの第1のパスモジュール594において算出される。ゾーンは、ピクセルまたはゾーンの矩形が選択されたゾーンマスクにあるかどうかを決定するように算出される。エリア、図心、平均値、およびヒストグラムはまた、蓄積され、イメージの第2のパスモジュール596を通して、第2の中心モーメントおよび変化量が蓄積される。特性テーブルパスモジュール598は、広がり、伸長、方向、楕円形状のファクタ、改変されたニッパ統計値、ならびにマッピングされた平均値および領域の変化量を含む生成された特性を算出する。算出する領域のスコアモジュール600は、影および光ビームディスカウント、形状ディスカウント、およびエリアディスカウントからの領域抑制ならびに過渡抑制と共にSLスコアを決定する。領域スコアが算出される600後、次の領域は、特性テーブルパスモジュール598の算出を介してループされる。
【0096】
図40は、図16の処理システム(詳細には、特性処理モジュール214)に対する分割ヒストグラムグレーレベル分析700の簡単なブロック図を提供する。実施形態において、分割ヒストグラムグレーレベル分析700は、領域特性の決定において支援するように提供され得る。
【0097】
図41は、図33の特性生成システム750の簡単なブロック図を提供して、フレーム特性を算出する。システム750は、フレーム分析初期化モジュール752、計算するフレーム統計値モジュール754、解釈するフレーム照明測定基準モジュール756、解釈する不明瞭な測定基準モジュール758、解釈する半開きの測定基準モジュール760、および更新するFAフィルタ762を含む。
【0098】
図42は、図16の情報処理モジュールの簡単なブロック図であり、生成された特性からの物体の存在を検出する。検出シーケンスは、評価する欠陥フラグモジュール800、評価するリファレンス更新モジュール802、自動適用閾値モジュール804、更新フレーム分析データモジュール806、および更新モーションリファレンスモジュール808を含む。
【0099】
図43は、図16の情報処理モジュールの簡単なブロック図であり、リファレンスイメージを評価して、更新する。評価するリファレンス更新シーケンスは、ゾーンモーション検出モジュール822、更新する更新カウンタモジュール824、決定する標準更新モジュール826、決定するアーカイブ更新モジュール828、決定する利得変化モジュール830、および決定するラーンアウト(learn−out)モジュール832を含む。
【0100】
図44は、図16の情報処理モジュールの簡単なブロック図であり、視野からの背景値の変化に関連した閾値を変化する。自動適用閾値のシーケンスは、初期化SL閾値のエッジ閾値840、算出するゾーン統計値モジュール842、算出するゾーンの測定基準モジュール844、および適用する測定基準モジュール846を含む。
【0101】
図45は、図16の情報処理モジュールの簡単なブロック図であり、検出された物体におけるエッジおよびゾーンデータの幾何学的な関連性を決定する。シーケンスは、初期化モジュール850、それぞれ制限されたエッジ領域に関するアプリケーション852、特定の領域に関する初期化に関するアプリケーション854、および矩形に境界をつける横断領域856を含む。次に、シーケンスは図46に続く。
【0102】
図46は、図16の情報処理モジュールの簡単なブロック図の図45の継続であり、検出された物体におけるゾーンの交点を決定するためにテスト領域のエッジを含む。シーケンスは、テストエッジ領域/ゾーンの交点のモジュール862、864を含み、テスト領域/モーション/ゾーンの交点モジュール866を含む。
【0103】
図47は、図16の情報処理モジュールの簡単なブロック図の図46の継続であり、検出された物体のゾーン交点を決定するためにゾーンの領域スコアを評価することを含む。シーケンスは、評価する領域スコアモジュール872、874、設定する生成されたフラグ更新カウンタ/ヒストグラムモジュール876、ならびに更新上部検出スコアおよびセーフティゾーンラッチモジュール878を含む。
【0104】
実施形態において、自動ドア制御およびセーフティシステムは、名目上の光学的に感知される物体の状況およびドアに近い環境を解釈するロジックに従ってドアの動きを制御することが提供される。システムは、所望の感知エリアのイメージを生成するために適切なレンズに一致したカメラセンサのサブシステムを用いる。カメラのサブシステムによって作成されるデジタルイメージは、所望のドア制御をもたらす特有の決定ロジックを駆動するように使用されるデータを展開するために処理サブシステムにおいて処理するイメージを用いて処理される。従って、ドア制御は、イメージコンテンツのコンピュータ解釈によってもたらされる。
【0105】
実施形態において、処理する視点から、システムは、いくつかの処理段階、1)イメージ形成、2)イメージ調整、3)イメージ処理、4)イメージコンテンツ処理、5)生成されたデータ処理、6)データ解釈処理、および7)制御ロジック処理を取り入れる。
【0106】
ドア制御およびセーフティシステムは、カメラのサブシステム、およびデジタル信号処理デバイスによって補強され得る、一般的な目的のプロセッササブシステムを含むようにハードウェア要素によって支援される。カメラサブシステムは、レンズシステム、電荷結合素子のイメージングデバイス、増幅器、およびアナログ−デジタル変換器素子を含み得る。これらの素子は、一般に、ホームコンピュータのアプリケーションにおいて共に見出され得る。例えば、このアプリケーションは、多様な目的に関してキャプチャおよび格納のためにコンピュータスクリーン上にデジタルイメージを生成するためにデジタルカメラとのインタフェースをとる。
【0107】
システムは、イメージ処理オペレータの選択、アルゴリズムにおいて実施される、その後に続く生成されたデータ処理および解釈を用いる。選択されたイメージ処理オペレータおよびイメージコンテンツ処理は、カメラの視野内の物体によって示される光学現象を介して生成される。イメージ処理は、レンズおよびカメラの実装ジオメトリを介して決定されるシーンのアレイ表示において含まれる数で動作する。このイメージ処理は、イメージ処理の結果になる数の内部アレイを作成して、イメージ処理操作のシーケンスを形成するその結果生じた操作によって使用される。システムの実施形態において、イメージフィールド全体が処理される。さらに、イメージフィールド全体のサブセットを選択する目的に関する予測された物体の特性に一致するように設計される任意の処理素子を展開するために使用される対象の物体についての事前の仮定がない。
【0108】
イメージ処理シーケンスの開始点において、イメージ処理は、シーンの新しい入力イメージを承認する(この入力イメージは、継続中のイメージデジタル化ストリームの単一時間サンプル(「フレーム」)である)。新しくキャプチャされたイメージフレーム(「背景」イメージ)に対する比較のために前のイメージフレームを維持するために格納される。この格納されたイメージフレームは、新しいフレームと同様の方法でキャプチャされ、詳細には、一つ以上のフレームの平均ではなく、単一のイメージングフレームである。
【0109】
実施形態において、各新しいイメージフレームは、メジアンフィルタを用いてスペックルノイズを除去するためにフィルタリングされる。メジアンフィルタは、平均化するようにイメージをぼかすのではなく、分離したノイズを除去する。このような分離ノイズは、イメージング感知ノイズ、ダウンストリーム電子ノイズ、または環境的に生成されたシンチレーションの原因になり得る。比較のために格納されたイメージは、現在のイメージになるように、メジアンフィルタと共にこのイメージをフィルタリングされる。メジアンフィルタは、イメージアレイにおいて全てのピクセルを介して通される3×3フィルタカーネルとして解釈され得る。カーネルの中央における値は、新しいイメージアレイに置かれ、その値は、フィルタカーネルの9の数のメジアンになる。
【0110】
イメージのフィルタリング後、二つの新しいイメージアレイは生成される(すなわち、図52および53)。第1の新しいイメージアレイ(図52)は、現在のイメージから背景イメージを引いたピクセル毎の差(「正のコントラスト」)として決定される。第2の新しいイメージアレイ(図53)は、背景イメージから現在のイメージを引いたピクセル毎の差(「負のコントラスト」)として決定される。イメージは、8ビットのアレイの数として維持され、差の値が255よりも大きいか、または0よりも小さいとき、その結果、値は短縮される。
【0111】
差分後であっても、イメージは8ビットの値を含む(複数のビットレベルを有するイメージは、一般に、グレースケールイメージとして言及される)。イメージの差分後、閾値化オペレータは、結果として正負のコントラストのグレースケールイメージのそれぞれに適用される。二つのイメージに適用される閾値は、異なり得る。値は、固定されるか、または適応され得る。ここで、ダウンストリームのイメージ解釈の結果に基づいて変化がなされる。ピクセル毎に閾値化操作は、二つの新しいイメージを作成する。各イメージに関して、入力イメージにおけるグレーレベルが、関連した閾値を越えるとき、出力するイメージアレイに「1」が置かれ、そうでなければ「0」が置かれる。従って、閾値化操作の結果は、二つの「バイナリ」イメージになる。
【0112】
図54および55を参照すると、数学的な形態学の選択バイナリイメージング処理技術は、ダウンストリームのイメージ解釈を容易にするようにバイナリイメージに適用される。実施形態において、オペレータは、有効になり得るより大きな領域の「連結性」を改良する間に、有効な物体からなされ得る分離したバイナリ領域を除去するように選択される。形状のフィルタリングとして言及されるように、二つのバイナリイメージのそれぞれは、フィルタカーネル操作が、メジアン操作ではなく、最小の操作に続いて最大のオペレータであることを除いて、メジアンフィルタ機構(3×3の空間的なカーネル)に類似してフィルタリングされる。そのようなフィルタは、バイナリ完了(closing)または「終結(close)」として言及される。「終結」は、「エロージョン(erosion)」に続く「拡張(dilation)」である。「拡張」はカーネル上の最大操作であり、「エロージョン」は最小操作である。
【0113】
図56を参照すると、二つの終結したバイナリイメージ(図54および55)は、入力イメージに関する正負両方のコントラストの差の合成バイナリイメージ表示を生成するためにピクセル毎に論理的に論理和化される。
【0114】
図57を参照すると、接続された構成要素のアルゴリズムは、合成バイナリ論理和イメージ(図56)に適用される。このアルゴリズムは、イメージにおいて接続されたバイナリ領域全てを識別する。接続される領域は、一つである。ここで、全ての構成するピクセルが他の構成するピクセルの少なくとも一つと隣接する。接続される構成要素のアルゴリズムは、各領域をラベル付けして、各領域の生成された特性を含むデータベースを構築する。実施形態において、特性は、領域エリア、境界矩形、環状、楕円形の長軸および短軸の長さ、および周囲長を含み得る。領域特性データは、関心のある領域を選択するように処理される。領域は、視野における物体の存在の直接的な結果である。総イメージフィールドのサブイメージ領域のオペレータ選択は、物体に関連した領域を選択することに含まれず、領域は、物体によって決定される。
【0115】
イメージコンテンツのデータベース表示と共に、各領域の特性は、制御ロジックの決定を発展するように解釈のロジックによって考慮される。実施形態において、解釈のロジックは、「イフゼンエルス(if−then−else)」構造のセットとしてインプリメントされ、イメージコンテンツ解釈を決定するために基本の領域特性の算術の組み合わせを利用し得る。例えば、生じる領域を用いて、関心の物体の存在を推測して、領域の図心および境界を示す矩形がその物体の位置を決定する(境界を示す矩形は、領域に属する全てのピクセルを含む最も小さい矩形である)。
【0116】
実施形態において、オペレータは、イメージの視野の矩形領域を定義して、特有の制御動作に関するエリアを決定し得る。興味のあるコンピュータにより生成された物体領域の境界を示す矩形の座標は、続いて制御ロジック結果を決定するためにオペレータに決定された決定領域の座標に比較される。物体がセーフティゾーンにあるように示される場合、例えば、制御ロジックは、セーフティゾーンが明瞭になるまで、ドアが開いたままであることを示す。同様に、物体が起動ゾーンにあるように決定される場合(バイナリ領域の境界を示す、イメージ物体の矩形表示は、起動ゾーンの決定矩形に交差する)、次に、ドアを開くために信号が送信される。実施形態において、制御ロジックの目的に関するオペレータによって選択されるイメージ領域は、イメージコンテンツを決定するためにイメージ全体のイメージ処理を利用するか、あるいはイメージ全体のイメージ処理に影響を与えるために、決して使用されない。
【0117】
特有の実施形態が示され、説明されてきたが、多くの変更が、本発明の意図から極めて逸脱することなく考慮され、保護の範囲は、上掲の特許請求の範囲によってのみ限定される。
【図面の簡単な説明】
【図1】
図1は、本発明によるセンサおよびイメージングシステムの実施形態のブロック図である。
【図2】
図2は、本発明によるセンサおよびイメージングシステムの別の実施形態のブロック図であり、一対のセンサ/イメージング回路にそれぞれ接続される一対のカメラアセンブリを有する。
【図3】
図3は、図2のカメラアセンブリに近接に取り付けられた、カメラアセンブリを有する閉じられたドアの立面図である。
【図4】
図4は、ドアが開いていることを除く図3の類似図である。
【図5】
図5は、図3のドア上部のヘッダに取り付ける、図2のカメラアセンブリの一つの部分的なアセンブリの透視図である。
【図6】
図6は、図5のカメラアセンブリの断面図である。
【図7】
図7は、図5のカメラハウジングアセンブリのウィンドウに取り付けられたヒーターアセンブリの平面図である。
【図8】
図8は、図7の平面A−Aにそって得られるヒーターアセンブリの断面図である。
【図9】
図9は、図2のビデオプロセッサの一つに接続された図8のカメラアセンブリ内のカメラの簡略図である。
【図10】
図10は、図3および4のドアの片側の上面透視図であり、図2のカメラアセンブリの一つは、ドアの正面のエリアを含む視野を有する。
【図11】
図11は、物体がカメラアセンブリから離れて置かれるように、図10ないの視野のピクセル密度のグラフィカル図である。
【図12】
図12は、一実施形態において、図2のメンブレンキーパッドを用いるユーザによって選択され得る複数のセーフティゾーン構成を提供する。
【図13】
図13は、図2において示されるメンブレンキーパッドの実施形態の平面図である。
【図14】
図14は、図13のメンブレンキーボードパッドを用いるゾーン位置決め方法の平面図である。
【図15】
図15は、フィールドプログラム可能なゲートアレイ(FPGA)および中央演算処理装置(CPU)を有する、図2のオブジェクトセンサ/イメージング回路の一つの簡単なブロック図である。
【図16】
図16は、図15のFPGA内のイメージ処理モジュールを有する、本発明による処理システムの上部レベルの簡単なブロック図であり、特性処理モジュールは図15のCPUによって実行され、検出処理モジュールは図15のCPUによって実行される。
【図17】
図17は、入力パラメータを初期化して、関連のある導出されたパラメータを計算し、検出閾値表を初期化し、および検出および特性計算ゾーンを初期化するための、図16の処理システムの初期化シーケンスの簡単なブロック図である。
【図18】
図18は、FPGAシリアル入力/出力ボードを介してユーザ入力データからFPGAイメージ処理閾値およびビデオデジタイザ設定を初期化して、特性および検出処理システムを初期化するための、図16の処理システムの初期化シーケンスの簡単なブロック図である。
【図19】
図19は、ユーザデータにリファレンスイメージを示し、ロードし、かつアンパックするためのピンポンバッファを利用する、図16処理システムのビデオループ処理シーケンスの簡単なブロック図である。
【図20】
図20は、現在のイメージフレーム上の特性および検出決定を生成するための、CPUのユーザデータ利用する、図16の処理システムのビデオループ処理シーケンスの簡単なブロック図である。
【図21】
図21は、各フレーム処理の終了およびビデオ処理における任意の点において出力された診断メッセージを有する、図16の処理システムのビデオループ処理シーケンスの簡単なブロック図である。
【図22】
図22は、本発明によるピンポンシステムの簡単なブロック図である。
【図23】
図23は、図22に示されるピンポンシステムの初期化の簡単なブロック図である。
【図24】
図24は、図22のピンポンシステムのピンポン処理ループの簡単なブロック図である。
【図25】
図25は、イメージ特性基準および時間ダイナミック基準に応答してビデオ利得を変化するための、図16の処理システムの自動コントラスト補正の簡単なブロック図である。
【図26】
図26は、イメージ特性基準および時間ダイナミック基準に応答してビデオ利得を変化するための、図16の処理システムのビデオループにおける自動コントラスト補正の簡単なブロック図である。
【図27】
図27は、実際の世界座標におけるゾーンを構築し、ゾーンマスクを生成し、かつゾーンマスクを構成するための、図17のシステム初期化のゾーン初期化シーケンスの簡単なブロック図である。
【図28】
図28は、初期化カメラ固有のパラメータモジュール、解像度モデルモジュール、および物体モデルモジュールを有する、図17のシステム初期化のゾーン初期化シーケンスの簡単なブロック図である。
【図29】
図29は、エッジ検出器を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図30】
図30は、領域を用いるモーション検出器を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図31】
図31は、影および光ビーム処理の領域分析を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図32】
図32は、エッジを用いるモーション検出器を有する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図33】
図33は、存在、モーション、フレーム、および領域特性を計算する、図16の処理システムのイメージ処理モジュールの簡単なブロック図である。
【図34】
図34は、ラベルモジュール、グローバル存在特性を計算するモジュール、およびゾーン存在特性を計算するモジュールを有する、図33の特性生成システムの簡単なブロック図である。
【図35】
図35は、グローバル存在特性を計算する、図34の存在特性を計算するシステムの簡単なブロック図である。
【図36】
図36は、ゾーン存在特性を計算する、図34の存在特性を計算するシステムの簡単なブロック図である。
【図37】
図37は、ラベルモジュール、グローバルな影および光ビーム特性を計算するモジュール、および影および光ビームゾーン特性を計算するモジュールを有する、図33の特性生成システムの簡単なブロック図である。
【図38】
図38は、グローバルな影および光ビーム特性を計算する、図37の影および光ビーム領域特性システムの簡単なブロック図である。
【図39】
図39は、影および光ビームゾーン特性を計算する、図37の影および光ビーム領域特性を計算するシステムの簡単なブロック図である。
【図40】
図40は、図16の処理システムのスプリットヒストグラムグレーレベル分析の簡単なブロック図である。
【図41】
図41は、フレーム特性を計算する、図33の特性生成システムの簡単なブロック図である。
【図42】
図42は、生成された特性から物体の存在を検出する、図16の情報処理モジュールの簡単なブロック図である。
【図43】
図43は、リファレンスイメージを評価して、更新する、図16の情報処理モジュールの簡単なブロック図である。
【図44】
図44は、視野から背景値に変えることに関連して閾値を変化する、図16の情報処理モジュールの簡単なブロック図である。
【図45】
図45は、検出されたオブジェクトのエッジおよびゾーンデータの幾何学的な関連性を決定する、図16の情報処理モジュールの簡単なブロック図である。
【図46】
図46は、図16の情報処理モジュールの簡単なブロック図の図45の続きであり、検出された物体のゾーン交点を決定するために領域エッジをテストすることを含む。
【図47】
図47は、図16の情報処理モジュールの簡単なブロック図の図46の続きであり、検出された物体のゾーン交点を決定するためにゾーンの領域スコアを評価することを含む。
【図48】
図48は、多様なイメージ操作を定義するための表である。
【図49】
図49は、多様なイメージ操作を定義するための表である。
【図50】
図50は、背景またはリファレンスイメージを表す例である。
【図51】
図51は、現在のイメージであることを除けば図50に類似し、ここで物体は視野内に入っている。
【図52】
図52は、図51における現在のイメージから、図50のリファレンスイメージを差し引くことによる差分である。
【図53】
図53は、図50におけるリファレンスイメージから、図51の現在のイメージを差し引くことによる差分である。
【図54】
図54は、図52における閾値化および形状フィルタリング後に生じるイメージである。
【図55】
図55は、図53におけるイメージの閾値化および形状フィルタリング後に生じるイメージである。
【図56】
図56は、図54および55におけるイメージ上の論理的な論理和演算を終えた後に生じるイメージである。
【図57】
図57は、図56のイメージ内の領域が分類化のためのラベリングを除けば、図56との類似図である。

Claims (198)

  1. センサの視野から電磁エネルギーを収集するセンサであって、該センサは視野内の物体を表す信号を生成する、センサと、
    該センサ信号を受信して、該センサ信号からピクセルのイメージを形成するために該センサに電気的に結合されるイメージ分析器と、
    該ピクセルイメージ内に描写される物体のエッジを検出するように適応され、該ピクセルイメージ内のエッジの位置を決定する、エッジ検出器と、
    第1のイメージのエッジ検出データを格納するデータ格納デバイスと、
    該エッジと結び付いた該物体が、該第1のイメージの取得後に移動したかどうかを決定するために、該第1のイメージからのエッジ検出データと第2のイメージからのエッジ検出データとを比較するための比較器と
    を含む、検出器。
  2. 影および光ビームの検出プロセスであって、
    グレースケールイメージをキャプチャするステップと、
    バイナリイメージを生成して、該グレースケールのバイナリマップを定義するステップと、
    該グレースケールイメージのコピーと該バイナリマップとを比較して、該バイナリマップの選択されたマップに対応するグレースケール値を決定するステップと
    を包含する、プロセス。
  3. 視野に関するイメージ情報に現れる個々のエリアが影または光ビームの異常を表すかどうかを決定するためのプロセスであって、
    該異常の特性を予定するステップと、
    該特性を定量化する計算を予定するステップと、
    該イメージ情報に該計算を適用して、該特性の量を生成するステップと、
    該計算された量に基づいて該エリアを分類するステップと
    を包含する、プロセス。
  4. エッジを決定するプロセスであって、
    閾値を予定して、第1および第2のチャンネルにおいてグレースケールイメージに適用するための閾値を予め決定するステップと、
    該第1および第2のチャンネルのそれぞれにおいて該閾値と該イメージ値とを比較するステップと、
    該第1および第2のチャンネルのそれぞれにおいて第1のバイナリ値を出力するステップと、
    該第1のバイナリ値を有する第1の拡張ピクセルを定義するステップと、
    該第1の拡張ピクセルに近似する複数の拡張ピクセル、第2のバイナリ値を有する複数の拡張ピクセルのそれぞれを定義するステップと、
    該第1の拡張ピクセルの該第1のバイナリ値および該複数の拡張ピクセルのそれぞれの該第2のバイナリ値を比較するステップと、
    該第1および第2のチャンネルのそれぞれにおいて拡張されたバイナリ値を出力するステップと、
    該第1のチャンネルにおける該拡張されたバイナリ値を論理和して、論理和された拡張されたバイナリ値を生成するステップと
    を包含する、プロセス。
  5. エッジを定義するプロセスであって、
    第1のバッファにおける第1のグレースケールイメージを格納するステップと、
    該第1のイメージを読み出すステップと、
    該第1のイメージを第2のバッファに転送するステップと、
    第2のグレースケールイメージに関して格納して、読み出して、転送するステップを繰り返すステップと、
    該第2のイメージから該第1のイメージを差し引いて、第1の正のイメージを生成するステップと、
    該第1のイメージから該第2のイメージを差し引いて、第2の正のイメージを生成するステップと、
    該第1および第2の正のイメージを比較して、正差イメージを生成するステップと、
    閾値を予定して、第1および第2のチャンネルにおける該正差イメージに適用する閾値を予め決定するステップと、
    該第1および第2のチャンネルのそれぞれにおいて、該閾値と該正差イメージとを比較するステップと、
    該第1および第2のそれぞれにおける第1のバイナリ値を出力するステップと
    を包含する、プロセス。
  6. モーション検出プロセスであって、
    第1のイメージをキャプチャするステップと、
    該第1のイメージにおける物体の範囲のエッジを決定するステップと、
    第2のイメージをキャプチャするステップと、
    該第2のイメージにおける物体の範囲のエッジを決定するステップと、
    該第2のイメージから該第1のイメージを差し引いて、差分イメージを生成するステップと、
    該差分イメージと少なくとも1つの該エッジ決定とを比較して、少なくとも1つのエッジによって表された視野における物体の動きを決定するステップと
    を包含する、プロセス。
  7. カメラの問題を決定するイメージプロセスであって、
    イメージをキャプチャするステップと、
    予め選択された判断基準に対して該イメージを評価するためのヒストグラムを作成するステップと
    を包含する、プロセス。
  8. カメラの問題を決定するイメージプロセスであって、
    第1のイメージをキャプチャするステップと、
    該第1のイメージのエッジを決定するステップと、
    第2のイメージをキャプチャするステップと、
    該第2のイメージのエッジを決定するステップと、
    該第2のイメージから該第1のイメージを差し引いて、差分イメージを生成するステップと、
    該差分イメージを閾値化するステップと
    を包含する、プロセス。
  9. イメージプロセスであって、
    イメージをキャプチャするステップと、
    該イメージを分析して、該イメージにおける物体を定義するステップと、
    該イメージにおける物体にラベリングするステップと、
    該物体を実際の世界座標に変換するステップと
    を包含する、プロセス。
  10. ピクセルデータを記録するカメラの視野における物体のエッジを決定するプロセスであって、
    ピクセルデータのリファレンスフレームをキャプチャするステップと、
    ピクセルデータのイメージフレームをキャプチャするステップと、
    該イメージフレームから該リファレンスフレームを差し引いて、第1のグレースケールのコントラストフレームを生成するステップと、
    該リファレンスフレームから該イメージフレームを差し引いて、第2のグレースケールのコントラストフレームを生成するステップと、
    該第1および第2のグレースケールのコントラストフレームを閾値化して、第1および第2のコントラスト閾値フレームを生成するステップと、
    該第1および第2のコントラスト閾値フレームを拡張して、第1および第2の拡張されたフレームを生成するステップと、
    該第1および第2の拡張されたフレームを論理和するステップと、
    該第1および第2の拡張されたフレームを調整して、第1および第2のバイナリ値を生成するステップと
    を包含する、プロセス。
  11. ピクセルデータからなるイメージに存在すると決定される物体のエッジとして定義される該ピクセルデータをスムージングするプロセスであって、該プロセスは、
    第1および第2のチャンネルにおける該ピクセルデータからグレースケールイメージを定義するステップと、
    水平ソーベルカーネルを利用して該グレースケールイメージをフィルタリングして、該第1および第2のチャンネルにおいて、水平にフィルタリングされる出力を生成するステップと、
    垂直ソーベルカーネルを利用して該グレースケールイメージをフィルタリングして、該第1および第2のチャンネルにおいて、垂直にフィルタリングされる出力を生成するステップと、
    該第1および第2のチャンネルにおいて、該水平および垂直のフィルタリングされた出力の絶対値を決定するステップと、
    該絶対値を合計して、該第1および第2のチャンネルのソーベル値を生成するステップと、
    該第2のチャンネルにおける該ソーベル値から該第1のチャンネルにおける該ソーベル値を差し引いて、出力値を生成するステップと
    を包含する、プロセス。
  12. イメージを分析するシステムであって、
    視野から能動的または受動的なエネルギーのどちらか一つまたは両方を感知するように構成され、かつ、適合されるセンサと、
    該センサによって感知される該エネルギーからイメージを形成するように構成されるイメージャと、
    該イメージャに応答するプロセッサであって、該プロセッサは、該イメージからのイメージコンテンツ情報をラベリングするように構成され、かつ、適合される、プロセッサと、
    該プロセッサに対応する決定メーカーであって、該決定メーカーは、該イメージコンテンツ情報からの視野における(静止した)物体の存在について決定するように構成され、かつ、適合される、決定メーカーと
    を含む、システム。
  13. 前記決定メーカーは決定の測定基準を有しており、該決定の測定基準は、前記イメージ内の第1の所定のエリアまたはゾーンに対する選択されたイメージ情報コンテンツの関係に基づいている、請求項12に記載のシステム。
  14. 前記決定メーカーは決定の測定基準を有しており、該決定の測定基準は、前記イメージ内の第2の所定のエリアまたはゾーンに対する選択されたイメージ情報コンテンツの関係に基づいている、請求項13に記載のシステム。
  15. 前記選択されたイメージ情報コンテンツは、前記物体の表示になることを決定メーカーに決定される、請求項13または14に記載のシステム。
  16. 前記エリアまたはゾーンに対する関係は、前記物体の少なくとも一部が前記第1の所定のゾーン内であるか、第2の所定のゾーン内にあるかのいずれかに制限される、請求項15に記載のシステム。
  17. 前記選択されたイメージ情報コンテンツは、前記物体のエッジの表示になることを前記決定メーカーに決定される、請求項13または14に記載のシステム。
  18. 前記選択されたイメージ情報コンテンツは、前記物体の影の表示になることを前記決定メーカーに決定される、請求項13または14に記載のシステム。
  19. 前記選択されたイメージ情報コンテンツは、光ビームの表示になることを前記決定メーカーに決定される、請求項13または14に記載のシステム。
  20. 前記選択されたイメージ情報コンテンツは、前記物体のモーションの表示になることを前記決定メーカーに決定される、請求項13または14に記載のシステム。
  21. 前記プロセッサは、エリア、境界線、図心、境界矩形、大きさ、分散、および形状からなる群から選択される前記物体の特性を決定するように構成され、適合される、請求項12に記載のシステム。
  22. 前記形状は、伸長、広がり、楕円形状ファクタ、および方向からなる群から選択される、請求項21に記載のシステム。
  23. 計算デバイスによるイメージ分析の方法であって、
    センサの視野の少なくとも一部のピクセルイメージを該デバイスに提供するステップと、
    該デバイスが、該視野内の少なくとも一つの物体の少なくとも一つのエッジにおそらく相当する該イメージにおいてピクセルを決定するステップと、
    該デバイスが、該視野内の少なくとも一つの物体の少なくとも一つのエッジを表示する個々のエンティティを定義するように識別される該ピクセルの少なくとも一つの群をラベリングするステップと
    を包含する、方法。
  24. 前記デバイスが、前記少なくとも一つの物体またはピクセルの少なくとも一つの群で数学的に動作して、該少なくとも一つの物体またはピクセルの少なくとも一つの群の少なくとも一つの特性を生成するステップを包含する、請求項23に記載の方法。
  25. 前記デバイスが、前記少なくとも一つの物体またはピクセルの少なくとも一つの群で数学的に動作して、該少なくとも一つの物体またはピクセルの少なくとも一つの数学的な特性または幾何学的な特性を生成するステップを包含する、請求項24に記載の方法。
  26. 前記少なくとも一つの特性を生成するステップは、エリア、境界線、慣性モーメント、グレーレベル平均値、グレーレベル分散、グレーレベルヒストグラム、および配置からなる群から選択される前記少なくとも一つの物体の一つ以上の特性を決定するステップを包含する、請求項24に記載の方法。
  27. 計算デバイスによるイメージ分析の方法であって、
    センサの視野の少なくとも一部のピクセルイメージを該デバイスに提供するステップと、
    該デバイスが、関心のエリアにおいて全てのピクセルの複数のプロパティを定量化するステップと、
    該デバイスが、視野内の物体を表示する所定の第1の基準を満たすために、該ピクセルの第1の群をラベリングするステップと、
    該デバイスが、視野内の物体を表示する所定の第2の基準を満たすために、該ピクセルの第2の群を単独で、かつ同時にラベリングするステップと
    を包含する、方法。
  28. 前記デバイスが、前記物体または前記ピクセルの第1および第2の群で数学的に動作して、該物体または該ピクセルの第1および第2の群の少なくとも一つの特性をそれぞれ生成するステップを包含する、請求項27に記載の方法。
  29. 前記デバイスが、前記物体または前記ピクセルの第1および第2の群で数学的に動作して、該物体または該ピクセルの第1および第2の群の数学的または幾何学的な特性をそれぞれ生成するステップを包含する、請求項28に記載の方法。
  30. 前記少なくとも一つの特性を生成するステップは、エリア、境界線、慣性モーメント、グレーレベル平均値、グレーレベル分散、グレーレベルヒストグラム、および配置からなる群から選択される前記物体または前記ピクセルの第1および第2の群の一つ以上の特性を決定するステップを包含する、請求項28に記載の方法。
  31. 前記デバイスは、
    前記物体または前記ピクセルの第1および第2の群で数学的に動作して、該物体まやは該ピクセルの第1および第2の群の少なくとも二つの特性を生成するステップであって、少なくとも一つの特性はエッジデータに基づき、少なくとも一つの特性は領域分析に基づく、ステップと、
    該物体の特性と、該デバイスに格納されるかまたはデバイスにアクセス可能な所定の規則のセットとを比較するステップと、
    該デバイスは、該比較に基づいて、第2のデバイスの制御に関する決定を生成するステップと
    を包含する、請求項27に記載の方法。
  32. イメージ分析の方法であって、
    視野におけるイメージの時間シーケンスを生成するステップと、
    リファレンスイメージとして視野内に、すぐ前のイメージ以外の該連続するイメージの一つを割り当てるステップと、
    該同じ視野のリファレンスイメージと選択された連続するイメージとを比較するステップと
    を包含する、方法。
  33. 基準に基づいてその時々に前記リファレンスイメージをリフレッシュするステップを包含する、請求項32に記載の方法。
  34. 前記イメージの比較から生成されたイメージコンテンツの評価に基づいて前記リファレンスイメージをリフレッシュするステップを包含する、請求項33に記載の方法。
  35. 所定の時間経過に基づいて前記リファレンスイメージをリフレッシュするステップを包含する、請求項33に記載の方法。
  36. 現在のイメージを用いてリファレンスイメージの一部を更新するステップを包含する、請求項32に記載の方法。
  37. 所定の基準およびイメージコンテンツの評価を用いる更新を実施するステップを包含する、請求項36に記載の方法。
  38. イメージ分析の方法であって、
    視野内のイメージの時間シーケンスを生成するステップと、
    リファレンスイメージとして視野内の連続的なイメージの1つを割り当てるステップと、
    正差オペレータを利用して、同じ視野内の該リファレンスイメージと選択された連続的なイメージとを比較するステップと
    を包含する、方法。
  39. イメージ分析の方法であって、
    イメージをキャプチャするステップと、
    所定のイメージオペレータを利用して、該キャプチャされたイメージから一つ以上のイメージを生成するステップと、
    視野内の物体に相当する一つ以上の生成されたイメージにおいて、ピクセルの個々の群に独立的にラベリングするステップと、
    該一つ以上の生成されたイメージのそれぞれに対して該ピクセルの群を評価することによって特性を計算するステップと
    を包含する、方法。
  40. 前記特性を同時に考慮するステップを包含する、請求項39に記載の方法。
  41. エッジデータ上の特性の一つ、および領域データ上の特性の別の一つに基づくステップを包含する、請求項39に記載の方法。
  42. カメラ以外のデバイスを制御するカメラシステムであって、
    レンズを有するカメラであって、該レンズは少なくとも第1および第2の放射歪曲係数を有し、該第1の係数は少なくとも約1.0の値を有し、該第2の係数は少なくとも約1.0の絶対値を有する、カメラと、
    該レンズを介する視野を表示するカメラ信号を生成する信号生成器と、
    物体またはモーションの検出のために該カメラ信号を受信して該カメラ信号を分析する分析器であって、該分析器は、該物体またはモーションを示す検出信号を生成する、分析器と、
    該検出信号を受信して、該検出信号に応答して該デバイスを制御するデバイスコントローラと
    を備える、システム。
  43. 前記分析器は、イメージコンテンツを分析するための手段を有して、前記放射歪曲を補正する、請求項42に記載のシステム。
  44. 前記分析器は、前記放射歪曲を決定する、請求項43に記載のシステム。
  45. 前記分析器は、前記視野内の物体のサイズを決定するための手段を有する、請求項42に記載のシステム。
  46. 標準放射歪曲多項システムとして放射歪曲を表すコードを含み、該多項システムは、6のべきの項、ゼロでない該係数を有する、請求項42に記載のシステム。
  47. カメラ以外のデバイスを制御するためのカメラシステムであって、
    レンズを有するカメラであって、該レンズは少なくとも約53°の視野を有する、カメラと、
    該レンズを介する視野を表示するカメラ信号を生成する信号生成器と、
    物体またはモーションの検出のために該カメラ信号を受信して該カメラ信号を分析する分析器であって、該分析器は、該物体またはモーションを示す検出信号を生成する、分析器と、
    該検出信号を受信して、該検出信号に応答して該デバイスを制御するデバイスコントローラと
    を備える、システム。
  48. 前記レンズは、少なくとも90°の視野を有する、請求項47に記載のシステム。
  49. 前記分析器は、イメージコンテンツを分析するための手段を有して、前記放射歪曲を補正する、請求項47に記載のシステム。
  50. 前記分析器は、前記放射歪曲を決定する、請求項49に記載のシステム。
  51. 前記分析器は、前記視野内の物体のサイズを決定するための手段を有する、請求項47に記載のシステム。
  52. 標準放射歪曲多項システムとして放射歪曲を表すコードを含み、該多項システムは、6のべきの項、ゼロでない該係数を有する、請求項47に記載のシステム。
  53. カメラ以外のデバイスを制御するためのカメラシステムであって、
    レンズを有するカメラであって、該レンズがイメージ対角線および焦点長を有し、該イメージ対角線が該焦点長よりも長い、カメラと、
    該レンズを介する視野を表示するカメラ信号を生成する信号生成器と、
    物体またはモーションの検出のために該カメラ信号を受信して該カメラ信号を分析する分析器であって、該分析器は、該物体またはモーションを示す検出信号を生成する、分析器と、
    該検出信号を受信して、該検出信号に応答して該デバイスを制御するデバイスコントローラと
    を備える、システム。
  54. 前記イメージ対角線は、前記焦点長の少なくとも2倍のながさである、請求項53に記載のシステム。
  55. 前記分析器は、イメージコンテンツを分析するための手段を有して、前記放射歪曲を補正する、請求項53に記載のシステム。
  56. 前記分析器は、前記放射歪曲を決定する、請求項55に記載のシステム。
  57. 前記分析器は、前記視野内の物体のサイズを決定するための手段を有する、請求項53に記載のシステム。
  58. 標準放射歪曲多項システムとして放射歪曲を表すコードを含み、該多項システムは、6のべきの項、ゼロでない該係数を有する、請求項53に記載のシステム。
  59. a)レンズと、
    b)該レンズから検出器に焦点を合わせられた光を有するように配置された検出器であって、該検出器は、イメージ信号を生成する、検出器と、
    c)該イメージ信号を受信するコントローラと、
    d)該イメージのグレースケール値のヒストグラムに基づいて該検出器からの該イメージ信号の利得を調節する利得制御と
    を備える、カメラ。
  60. 前記検出器は、CCD−ベースの検出器およびCMOS−ベースの検出器からなる群から選択される、請求項59に記載のカメラ。
  61. イメージ処理の方法であって、
    単一の視点から視野のピクセルイメージをキャプチャするステップと、
    該イメージを電気的に分析して、該視野の物体に相当する該イメージにおけるピクセルの群を決定するステップと、
    該ピクセルの群に相当する該視野における該物体の空間的配置を決定するステップと
    を包含する、方法。
  62. イメージ処理の方法であって、
    センサのアレイを提供するステップであって、該アレイは、容積空間の第1の視野を有する、ステップと、
    該アレイから送られた信号からの二次元のピクセルイメージを定義するステップ(該ピクセルイメージは、該容積空間の二次元表示を提供する)と、
    該容積空間において所望の座標系を予定するステップと、
    該アレイのポーズおよび該座標系システムによる情報を利用して、三次元空間における空間座標に対する、該イメージにおけるピクセル座標間関係を電気的に決定するステップと
    を包含する、方法。
  63. 第2の視野から前記アレイへの焦点エネルギーに対する放射歪曲をレンズに提供するステップと、
    空間的配置に対するピクセル値の関係を調整するステップと
    を包含する、請求項62に記載の方法。
  64. 前記座標系の測定単位に関連して前記視野内の前記センサのアレイの有効な分解能を電気的に決定するステップを包含する、請求項62に記載の方法。
  65. 前記決定された分解能の値を利用することによって、前記視野全体の検出特性を制御するステップを包含する、請求項64に記載の方法。
  66. 前記決定された分解能の値を利用することによって、検出閾値限界を調整するステップを包含する、請求項64に記載の方法。
  67. 検出のために関心のある物体の表示サイズに相当するピクセルエリアを予定するステップを包含する、請求項64〜66のいずれかに記載の方法。
  68. 実質的に平面関係で配列されるセンサのアレイを提供するステップを包含する、請求項62に記載の方法。
  69. 前記アレイの配置および方向、ならびに前記座標系に関しての情報を利用して、前記三次元空間の空間座標に対する前記イメージのピクセル座標間の関係を電気的に決定するステップを包含する、請求項62に記載の方法。
  70. 前記イメージングシステムおよび前記座標系の固有のパラメータに関しての情報を利用して、前記三次元空間の空間座標に対する前記イメージのピクセル座標間の関係を電気的に決定するステップを包含する、請求項62に記載の方法。
  71. 前記容積空間における均一な座標系を予め決定するステップを包含する、請求項62に記載の方法。
  72. 前記アレイのポーズおよび前記均一な座標系に関しての情報を利用して、前記三次元空間の空間座標に対する前記イメージのピクセル座標間の関係を電気的に決定するステップを包含する、請求項71に記載の方法。
  73. 射影透視変換を利用して、前記三次元空間の空間座標に対する前記イメージのピクセル座標間の関係を電気的に決定するステップを包含する、請求項71に記載の方法。
  74. 射影透視変換に放射歪曲補正を追加して、前記三次元空間の空間座標に対する前記イメージのピクセル座標間の関係を電気的に決定するステップを包含する、請求項73に記載の方法。
  75. CCDを提供するステップであって、該CCDは、容積空間の第1の視野を有する、請求項62に記載の方法。
  76. イメージング分析の方法であって、
    センサの視野の少なくとも一部のピクセルイメージを提供するステップと、
    該視野の物体におそらく相当する該イメージにおいてピクセルを決定するステップと、
    該決定されるピクセル間を区別して、空間的に別々のピクセルの群を定義するステップと、
    各ピクセルの群にラベリングするステップと
    を包含する、方法。
  77. プロセッサをモニタリングするタイマーであって、
    不適切な作用が検出されたときに該プロセッサをリセットする第1の回路と、
    該プロセッサが出力状況を制御していないときに安全な該出力状況を維持する第2の回路と
    を備える、タイマー。
  78. 温度モニターを備える、請求項77に記載のタイマー。
  79. 前記温度モニターは、前記プロセッサの温度が所定の動作限界を越えるときに出力信号を生成する、請求項78に記載のタイマー。
  80. 前記温度モニターは、前記プロセッサの温度が所定の動作限界を越えるときに該プロセッサをリセットするための前記第1の回路に接続される、請求項79に記載のタイマー。
  81. モニタリングデバイスであって、
    周囲からのエネルギーを感知して、エネルギーを表示する出力を提供するためのセンサと、
    該センサの該出力から形成されるイメージと、
    該イメージの第1の部分を分析するための第1の分析器と、
    該イメージの該第1の部分から区別した該イメージの第2の部分を分析して、該それぞれの分析器によって分析される該イメージのそれぞれの部分を表示する信号をそれぞれ生成するための第2の分析器と
    を備える、モニタリングデバイス。
  82. モニタリングデバイスであって、
    周囲からのエネルギーを感知して、エネルギーを表示する出力を提供するためのセンサと、
    該センサの該出力から形成されるイメージと、
    該イメージのn個の部分を分析するためのn個の分析器であって、各部分が区別される、n個の分析器と、
    該それぞれの分析器によって分析される該イメージのそれぞれの部分を表示する信号をそれぞれ生成する各分析器と
    を備える、モニタリングデバイス。
  83. レンズおよび任意に透明なレンズカバーを有して、該レンズを介する視野および該レンズカバーを任意に介する視野を有するカメラであって、
    ロジックおよびデータを格納して、該視野の効果を有する状況を表す基準を組織立てるための格納デバイスと、
    該視野を表すイメージを取得して、格納するためのイメージャと、
    該基準に対する比較において使用する該イメージャから生成されるデータを処理するためのプロセッサと、
    該イメージを表す制御信号を生成するための生成器と
    を備える、カメラ。
  84. 前記カメラのイメージ品質を評価するためのフレーム分析アルゴリズムを備える、請求項83に記載のカメラ。
  85. カメラ環境に関連して前記レンズの位置または方向における変化を評価するためのフレーム分析アルゴリズムを備える、請求項83に記載のカメラ。
  86. 前記カメラのイメージ故障を評価するためのフレーム分析アルゴリズムを備える、請求項83に記載のカメラ。
  87. 前記レンズを介する視野およびレンズカバーを任意に介する視野に影響を与える前記状況が、該レンズまたはレンズカバーに接触する物質、該視野における照明レベル、該視野における著しい明暗点、該レンズを通る全体の電磁エネルギー束、および他の物体による該レンズの妨害からなる群から選択される、請求項83に記載のカメラ。
  88. 前記プロセッサは、前記イメージからヒストグラムを生成するための生成器を有し、前記格納デバイスが、ヒストグラムの基準に関連したデータを有する、請求項83に記載のカメラ。
  89. 前記ヒストグラムの基準に関連した前記データは、所定のヒストグラムと前記視野を表すイメージから決定されたヒストグラムとの間の比較によって生成される、請求項88に記載のカメラ。
  90. 前記プロセッサは、前記イメージからヒストグラムを生成するための生成に記載のを有し、前記格納デバイスが、前記ヒストグラムの基準に関連したデータを有する、請求項87に記載のカメラ。
  91. 前記ヒストグラムの基準に関連した前記データが、所定のヒストグラムと前記視野を表す前記イメージから決定されるヒストグラムとの間の比較によって生成される、請求項90に記載のカメラ。
  92. 前記レンズまたはレンズカバーと接触する前記物質は、埃、塵、油、水分、有機膜、無機膜、すす、および金属繊維からなる群から選択される、請求項87〜91のいずれかに記載のカメラ。
  93. 前記状況は、正常および異常からなる群から選択される、請求項83に記載のカメラ。
  94. ウィンドウの曇りを除去するシステムであって、
    電気的伝導性端子と、
    該伝導性端子に隣接して、該ウィンドウに結合可能であるPTC材料と
    を備える、システム。
  95. 前記PTC材料に隣接する別の電気的伝導性端子をさらに備える、請求項94に記載のシステム。
  96. 前記電気的伝導性端子に結合される電位をさらに備える、請求項95に記載のシステム。
  97. 前記電気的伝導性端子は、該電気的伝導性端子を通って伸びるアパーチャを有する、請求項94に記載のシステム。
  98. 前記PTC材料は、該電気的伝導性端子を通って伸びるアパーチャを有する、請求項94に記載のシステム。
  99. 前記電気的伝導性端子および前記PTC材料が、該電気的伝導性端子および該PTC材料を通り、互いに同軸配列で伸びるアパーチャを有する、請求項94に記載のシステム。
  100. 開口部を有するハウジングと、
    該開口部上に取り付けられたウィンドウと、
    該ウィンドウに結合可能であるPTC材料と
    を備える、装置。
  101. 前記PTC材料に接続される電気的伝導性端子をさらに備える、請求項100に記載の装置。
  102. 前記PTC材料に隣接する別の電気的伝導性端子をさらに備える、請求項101に記載の装置。
  103. 電気的伝導性端子に結合される電位をさらに備える、請求項101に記載の装置。
  104. 前記電気的伝導性端子は、該電気的伝導性端子を通って伸びる装置を有する、請求項101に記載の装置。
  105. 前記PTC材料は、該PTC材料を通って伸びるアパーチャを有する、請求項100に記載の装置。
  106. 前記電気的伝導性端子および前記PTC材料が、該電気的伝導性端子および該PTC材料を通り、互いに同軸配列で伸びるアパーチャ、および前記ハウジングの開口部を有する、請求項101に記載のシステム。
  107. 前記ハウジング内に取り付けられたカメラをさらに備える、請求項100に記載の装置。
  108. 前記カメラは、前記ウィンドウを介して伸びる視野を有する、請求項107に記載の装置。
  109. 前記視野は、ドアを続く経路の少なくとも一部を含む、請求項108に記載の装置。
  110. 前記ドアに結合可能にされ、前記視野内に検出された物体に対応するドアオープナーをさらに備える、請求項109に記載の装置。
  111. 自動ドアのコントローラと通信する入力デバイスであって、
    第1の時間に動かされるときに前記デバイスに第1のデータのセットを入力することをユーザに促して、第2の時間に動かされるときに前記デバイスに第2のデータのセットを入力することをユーザに促すように構成される第1のシーケンシングキーと、
    少なくとも一つの入力キーと、
    少なくとも一つの入力と
    を備える、デバイス。
  112. ユーザ入力を表示するためのディスプレイを備える、請求項111に記載のデバイス。
  113. 前記第1のシーケンシングキーからの催促に応答して選択する予め格納されたユーザ選択肢を表示するためのディスプレイを備える、請求項111に記載のデバイス。
  114. 前記ディスプレイは、前記予め格納されたデータの一部のみを表示して、少なくとも一つの入力キーの各動作に対して表示される、請求項113に記載のデバイス。
  115. 動かされたとき、ユーザ入力を受容して、格納する入力セレクタを備える、請求項111〜114のいずれかに記載のデバイス。
  116. 第1の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第3のデータのセットを入力することをユーザに促して、第2の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第4のデータのセットを入力することをユーザに促すように構成される第2のシーケンシングキーを備える、請求項112〜115のいずれかに記載のデバイス。
  117. 第1の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第3のデータのセットを入力することをユーザに促して、第2の時間に動かされるときに、第2のディスプレイキーを用いて前記デバイスに第4のデータのセットを入力することをユーザに促すように構成される第2のシーケンシングキーを備える、請求項112〜115のいずれかに記載のデバイス。
  118. 第1の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第5のデータのセットを入力することをユーザに促して、第2の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第6のデータのセットを入力することをユーザに促すように構成される第3のシーケンシングキーを備える、請求項112〜117のいずれかに記載のデバイス。
  119. 第1の時間に動かされるときに、第1のディスプレイキーを用いて前記デバイスに第5のデータのセットを入力することをユーザに促して、第2の時間に動かされるときに、第2のディスプレイキーを用いて前記デバイスに第6のデータのセットを入力することをユーザに促すように構成される第3のシーケンシングキーを備える、請求項112〜117のいずれかに記載のデバイス。
  120. 前記第1および第2のシーケンシングキーは、階層が構成され、該階層により該第1のシーケンシングが該第2のシーケンシングキーの操作を無効にする、請求項116に記載のデバイス。
  121. 前記第1および第2のシーケンシングキーは、階層が構成され、該階層により該第1のシーケンシングが該第3のシーケンシングキーの操作を無効にする、請求項118に記載のデバイス。
  122. 前記第1、第2、および第3のシーケンシングキーは、階層が構成され、該階層により該第1のシーケンシングが該第2および第3のシーケンシングキーの操作を無効にする、請求項118に記載のデバイス。
  123. 前記少なくとも一つの入力は、数値入力である、請求項111に記載のデバイス。
  124. 前記少なくとも一つの入力は、アルファ入力である、請求項111に記載のデバイス。
  125. 開口を選択的に妨げるドアパネルを有する自動ドアを制御するためのセンサシステムであって、
    該センサの視野において感知される物体に関連する該開口および信号出力について関心のあるエリアの視野を有するセンサと、
    センサ出力信号に対応する信号プロセッサと、
    該信号プロセッサに対応するドアドライブと、
    信号出力を有する入力デバイスであって、該信号プロセッサは、該入力デバイスからの出力信号に対応する、入力デバイスと
    を備え、
    該入力デバイスは、該視野を得るために取り付けられるように該センサのポーズを表示するデータをユーザに入力することを可能にするポーズ入力を有する、センサシステム。
  126. 前記ポーズ入力は、前記センサのインストールされた高さを含む、請求項125に記載のセンサシステム。
  127. 前記ポーズ入力は、前記センサの数値的な高さを含む、請求項125に記載のセンサシステム。
  128. 前記ポーズ入力は、前記視野に関連した前記ドアのモデル数を含む、請求項125に記載のセンサシステム。
  129. 前記ポーズ入力は、前記開口の幅を含む、請求項125に記載のセンサシステム。
  130. 前記ポーズ入力は、前記開口の長さを含む、請求項125に記載のセンサシステム。
  131. 前記ポーズ入力は、動作ゾーンの第1の部分を含む、請求項125に記載のセンサシステム。
  132. 前記ポーズ入力は、動作ゾーンの第2の部分を含む、請求項125に記載のセンサシステム。
  133. ドアについて関心のあるエリアの視野を有するセンサに対応するドアドライブと通信するための入力デバイスであって、
    選択可能な入力セレクタの第1の段と、
    選択可能な入力セレクタの第2の段と
    を備え、該第1および第2の段は、選択可能な入力セレクタの該第1の段へのユーザ入力が、選択可能な入力セレクタの該第2の段の入力に対する選択有効性を制御する、入力デバイス。
  134. 開口を選択的に妨げるドアパネルを有する自動ドアを制御するためのセンサシステムであって、
    視野における物体を感知するように構成されるセンサと、
    該自動ドアのコントローラとの通信用の出力を有する入力デバイスであって、該入力デバイスは、該センサの高さに関連したユーザ入力を有する、入力デバイスと
    を備える、センサシステム。
  135. 前記入力デバイスは、前記ドアの幅に関連したユーザ入力を有する、請求項134に記載のシステム。
  136. 前記入力デバイスは、ドアモデルに関連して格納されたデータセットを有する、請求項134に記載のシステム。
  137. データ処理に関するイメージ分析器であって、
    ピクセル処理のFPGAと、
    該FPGAに並列に接続可能なCPUと、
    該CPUに接続可能なビデオバッファと
    を備える、イメージ分析器。
  138. 高いレートで処理を実施するプロセッサであって、
    現在のフレームを処理するCPUを提供するステップと、
    次のフレームを同時に処理して、FPGA出力を生成するステップと、
    格納バンクに該FPGA出力を格納するステップと、
    該FPGA出力を該格納バンクから取り出すステップと、
    処理のために該FPGA出力を該CPUに送信するステップと
    を包含する、プロセス。
  139. ビデオシステムを初期化するプロセスであって、
    FPGAを初期化するステップと、
    第1のピンポンデータセットを選択するステップと、
    ビデオフレームをキャプチャすることを該FPGAに指示するステップと、
    少なくとも一つのリファレンスイメージを初期化するステップと、
    FPGA出力を生成するために該少なくとも一つのリファレンスイメージを処理することを該FPGAに指示するステップと、
    該FPGAからのFPGA出力を該第1のピンポンデータセットに伝送するステップと
    を包含する、プロセス。
  140. エフェクタを制御するためのシステムであって、
    視野から能動的または受動的なエネルギーのどちらか一つ、あるいは両方を感知するように構成され、適合されるセンサと、
    該センサによって感知された該エネルギーからのイメージを形成するように構成されるイメージャと、
    該イメージャに応答するイメージ分析器であって、該イメージ分析器は、該イメージからイメージコンテンツ情報を定義するように構成され、適合される、イメージ分析器と、
    該イメージ分析器に応答する決定メーカーであって、該決定メーカーは、該イメージコンテンツ情報から該視野における(静止した)物体の存在について決定させるように適合され、構成される、決定メーカーと、
    該エフェクタを制御するための第1のコントローラであって、該第1のコントローラは、該決定メーカーに対応される、第1のコントローラと
    を備える、システム。
  141. 前記決定メーカーは、第1の決定の測定基準を有して、該第1の決定の測定基準は、該イメージ内に第1の所定のエリアまたはゾーンに関する選択されたイメージ情報のコンテンツの関係に基づかれる、請求項140に記載のシステム。
  142. 前記決定メーカーは、第1の決定の測定基準を有して、該第1の決定の測定基準は、該イメージ内に第2の所定のエリアまたはゾーンに関する選択されたイメージ情報のコンテンツの関係に基づかれる、請求項141に記載のシステム。
  143. 前記選択されたイメージ情報のコンテンツは、前記物体の表示になることを前記決定メーカーに決定される、請求項141または142に記載のシステム。
  144. 前記エリアまたはゾーンに対する関係は、前記物体の少なくとも一部が前記第1の所定のゾーン内であるか、または第2の所定のゾーン内であるかのいずれかに限定される、請求項143に記載のシステム。
  145. 開口を選択的に妨げる自動ドアを制御するためのシステムであって、
    視野から能動的または受動的なエネルギーのどちらか一つ、あるいは両方を感知するように構成され、適合されるセンサと、
    該センサによって感知された該エネルギーからのイメージを形成するように構成されるイメージャと、
    該イメージャに対応するイメージ分析器であって、該イメージ分析器は、該イメージからイメージコンテンツ情報を定義するように構成され、適合される、イメージ分析器と、
    該イメージ分析器に対応する決定メーカーであって、該決定メーカーは、該イメージコンテンツ情報に基づいて、該視野における物体について決定させるように適合され、構成される、決定メーカーと、
    該ドアの少なくとも該開口および閉口を制御するためのドアコントローラであって、該ドアコントローラは、該決定メーカーに対応される、ドアコントローラと
    を備える、システム。
  146. 前記決定メーカーは、第1の決定の測定基準を有し、該第1の決定の測定基準は、前記イメージ内の第1の所定のエリアまたはゾーンに対する選択されたイメージ情報のコンテンツに基づく、請求項145に記載のシステム。
  147. 前記決定メーカーは、第1の決定の測定基準を有し、前記第1の決定の測定基準は、前記イメージ内の第2の所定のエリアまたはゾーンに対する選択されたイメージ情報のコンテンツに基づく、請求項146に記載のシステム。
  148. 前記選択されたイメージ情報のコンテンツは、静止した物体の存在を表示する、請求項146または147に記載のシステム。
  149. 前記エリアまたはゾーンに対する関係は、物体の少なくとも一部が前記第1の所定のゾーン内であるか、または第2の所定のゾーン内であるかのいずれかを含む、請求項148に記載のシステム。
  150. 前記エリアまたはゾーンに対する関係は、前記物体の少なくとも一部が前記第1の所定のゾーン内であるか、または第2の所定のゾーン内であるかのいずれかを含む、請求項146または147に記載のシステム。
  151. 前記視点の次元およびジオメトリを前記イメージを含むピクセルの座標に変換するジオメトリマッパーを含む、請求項145に記載のシステム。
  152. 分析のためにピクセルイメージを生成する単一のカメラからなる物体位置ロケータであって、
    該カメラの視野における物体の存在を決定する物体検出アルゴリズムを有するイメージ分析器と、
    該ピクセルイメージにおける物体に対する個々のアイデンティティを提供するラベラーと、
    該ピクセルイメージにおける該物体の座標を決定するための位置ロケータと
    を含む、物体位置ロケータ。
  153. モニタリングデバイスであって、
    周囲からのエネルギーを感知して、エネルギーを表示する出力を提供するためのセンサと、
    該センサの該出力から形成されるイメージと、
    該イメージのn個の部分を分析するためのn個の分析器であって、各部分が区別される、n個の分析器と、
    該それぞれの分析器によって分析される該イメージのそれぞれの部分を表示する信号をそれぞれ生成する各分析器と
    を備える、モニタリングデバイス。
  154. 監視システムであって、
    複数のセンサであって、各センサは、関心のある個々の配置において分散され、各センサは視野を有し、該視野において物体を表すセンサ信号を生成する、複数のセンサと、
    該センサ信号を受信して、該信号から関心のある物体の存在、または該複数のセンサのそれぞれの視野におけるモーションを決定し、かつ、該複数の視野を表すディスプレイ信号を生成して、該複数の視野のうちそれぞれ一つの物体の存在またはモーションを表す検出信号を生成するための一つ以上の信号分析器と、
    該ディスプレイ信号を受信して、かつ、選択された視野を表す人が解釈可能なデータを生成して表示するための少なくとも一つのビュアと、
    該信号分析からの該検出信号を少なくとも受信するコントローラであって、該コントローラは、視野が少なくとも一つのビュア上に表示される該検出信号から決定する、コントローラと
    を備える、監視システム。
  155. ウィンドウの曇りを除去するシステムであって、
    電気的伝導性端子と、
    該伝導性端子に隣接して、該ウィンドウに動作可能なように結合されるPTC材料と
    を備える、システム。
  156. 前記PTC材料に隣接する別の電気的伝導性端子をさらに備える、請求項155に記載のシステム。
  157. 前記電気的伝導性端子に結合される電位をさらに備える、請求項156に記載のシステム。
  158. 前記電気的伝導性端子は、該電気的伝導性端子を通って伸びるアパーチャを有する、請求項155に記載のシステム。
  159. 前記PTC材料は、該電気的伝導性端子を通って伸びるアパーチャを有する、請求項155に記載のシステム。
  160. 前記電気的伝導性端子および前記PTC材料が、該電気的伝導性端子および該PTC材料を通り、互いに同軸配列で伸びるアパーチャを有する、請求項155に記載のシステム。
  161. 開口部を有するハウジングと、
    該開口部上に取り付けられたウィンドウと、
    該ウィンドウに結合可能であるPTC材料と
    を備える、装置。
  162. 前記PTC材料に接続される電気的伝導性端子をさらに備える、請求項161に記載の装置。
  163. 前記PTC材料に隣接する別の電気的伝導性端子をさらに含む、請求項162に記載の装置。
  164. 電気的伝導性端子に結合される電位をさらに備える、請求項162に記載の装置。
  165. 前記電気的伝導性端子は、該電気的伝導性端子を通って伸びる装置を有する、請求項162に記載の装置。
  166. 前記PTC材料は、該PTC材料を通って伸びるアパーチャを有する、請求項161に記載の装置。
  167. 前記電気的伝導性端子および前記PTC材料が、該電気的伝導性端子および該PTC材料を通り、互いに同軸配列で伸びるアパーチャ、および前記ハウジングの開口部を有する、請求項162に記載のシステム。
  168. 前記ハウジング内に取り付けられたカメラをさらに備える、請求項161に記載の装置。
  169. 前記カメラは、前記ウィンドウを介して伸びる視野を有する、請求項168に記載の装置。
  170. 前記視野は、ドアを続く経路の少なくとも一部を含む、請求項169に記載の装置。
  171. 前記ドアに結合可能にされ、前記視野内に検出された物体に対応するドアオープナーをさらに備える、請求項170に記載の装置。
  172. ドアを制御するシステムであって、
    イメージデータを収集するカメラと、
    該カメラからのイメージデータを受信する制御ユニットと、
    該ドアの開閉を制御するための駆動モータであって、該駆動モータは、該制御ユニットから制御信号を受信する、駆動モータと
    を備える、システム。
  173. 前記制御ユニットは、制御ゾーンとしてイメージの少なくとも一部を定義するための手段を有する、請求項172に記載のシステム。
  174. 第1の制御ゾーンを含み、該第1の制御ゾーン内の選択されたイメージデータが、前記ドアを開くための制御信号を生成する、請求項173に記載のシステム。
  175. 第2の制御ゾーンを含み、該第2の制御ゾーン内の選択されたイメージデータが、前記ドアが閉じることを妨げる第1の制御状況を生成する、請求項173または174に記載のシステム。
  176. 前記定義するための手段は、前記制御ゾーン内に直接アクセスすることによって全てのピクセル座標から座標を選択することを含む、請求項173に記載のシステム。
  177. 前記定義するための手段は、複数の所定のゾーンから選択することを含む、請求項173に記載のシステム。
  178. 前記定義するための手段は、境界座標を描くために視野に実際の物体を置くことを含み、該実際の物体は前記イメージデータの一部になり、前記制御ゾーンは該実際の物体のイメージデータから定義される、請求項173に記載のシステム。
  179. 前記制御ユニットは、第1の時間において前記第1の制御ゾーンのイメージデータを分析して、
    該制御ユニットは、第2の時間において該第1の制御ゾーンのイメージデータを分析して、
    該制御ユニットは、該第1の時間におけるイメージデータと該第2の時間におけるイメージデータとを比較して、物体が該第1の制御ゾーンに存在するかどうかを決定する、請求項172〜174のいずれかに記載のシステム。
  180. 前記物体の任意の部分が前記第1の制御ゾーン内にあるかどうかを判定するために、該物体は決定するために分析される、請求項179に記載のシステム。
  181. 前記物体の任意の部分が前記第1の制御ゾーン内にある場合、該第1の制御ゾーン内の前記選択されたイメージデータは、前記制御信号を生成して前記ドアを開く、請求項180に記載のシステム。
  182. 前記制御ユニットは前記物体の一部を選択して、該物体のボトムエッジを決定する、請求項181に記載のシステム。
  183. 前記ボトムエッジが前記第1の制御ゾーン内にあるかどうかを判定するために、前記制御ユニットは、該ボトムエッジを分析して決定する、請求項182に記載のシステム。
  184. 第4の制御ゾーンは、前記第1の制御ゾーンに隣接して定義され、該第4の制御ゾーンは、該第1の制御ゾーンと前記カメラとの間に物体を有する、請求項183に記載のシステム。
  185. 前記第4の制御ゾーンは、前記第1の制御ゾーンと前記カメラとの間に位置される、請求項184に記載のシステム。
  186. 前記第4の制御ゾーンにおける前記物体の存在は、前記第1の制御ゾーンによって前記ドアを開くための前記制御信号を送信することを防止する、請求項185に記載のシステム。
  187. 前記第4の制御ゾーンにおける前記物体の存在は、前記第1の制御ゾーンによって前記ドアを開くための前記制御信号を送信する、請求項186に記載のシステム。
  188. 前記制御ユニットは、第1の時間において前記第2の制御ゾーンのイメージデータを分析して、
    該制御ユニットは、第2の時間において該第2の制御ゾーンのイメージデータを分析して、
    該制御ユニットは、該第1の時間におけるイメージデータと該第2の時間におけるイメージデータとを比較して、物体が該第1の制御ゾーンに存在するかどうかを決定する、請求項172〜175のいずれかに記載のシステム。
  189. 第3の制御ゾーンをさらに含み、該第3の制御ゾーン内の選択されたイメージデータが、前記ドアが閉じることを妨げる第2の制御状況を生成する、請求項172〜175のいずれかに記載のシステム。
  190. 前記第2の制御ゾーンは、複数の所定の形状を含む、請求項172〜175のいずれかに記載のシステム。
  191. 前記第3の制御ゾーンは、複数の所定の形状を含み、該第3の制御ゾーンの形状は、前記第2の制御ゾーンの形状に対して補完的である、請求項189または190に記載のシステム。
  192. 前記制御ユニットは、第1の時間において前記第3の制御ゾーンのイメージデータを分析して、
    該制御ユニットは、第2の時間において該第3の制御ゾーンのイメージデータを分析して、
    該制御ユニットは、該第1の時間におけるイメージデータと該第2の時間におけるイメージデータとを比較して、物体が該第3の制御ゾーンに存在するかどうかを決定する、請求項191に記載のシステム。
  193. 前記第1の制御ゾーンは、複数のユーザ特有の寸法と前記イメージデータとを比較するための手段を含む、請求項172〜174のいずれかに記載のシステム。
  194. 前記カメラは、可視光波、赤外光波、マイクロ波、レーダー電波、および音波からなる群から選択されるエネルギーを感知する、請求項172〜193のいずれかに記載のシステム。
  195. ユーザは、エリア、配置、形状、制御ゾーンの数、および制御基準からなる群から少なくとも一つの制御ゾーンパラメータを定義するためのデータを入力し得る、請求項173〜194のいずれかに記載のシステム。
  196. 前記センサはカメラである、請求項1〜194のいずれかに記載のシステム。
  197. ドアを制御するためのシステムであって、
    センサであって、該センサは、例えば、該ドアに隣接する物体からの干渉エネルギーを感知するビームを有する、センサと、
    カメラによって感知されるエネルギーを表す該センサから電子エネルギーを受信する制御ユニットと、
    該ドアの開閉を制御するための駆動モータであって、該駆動モータは該制御ユニットからの制御信号を受信する、駆動モータと、
    制御ゾーンとしてのビームパターンの一部を定義するための手段と
    を備える、ドアを制御するためのシステム。
  198. 前記制御ゾーンはビームパターンである、請求項197に記載のシステム。
JP2002523861A 2000-08-31 2001-08-31 センサおよびイメージングシステム Withdrawn JP2004510363A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US22961300P 2000-08-31 2000-08-31
PCT/US2001/027351 WO2002019698A2 (en) 2000-08-31 2001-08-31 Sensor and imaging system

Publications (1)

Publication Number Publication Date
JP2004510363A true JP2004510363A (ja) 2004-04-02

Family

ID=22861976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002523861A Withdrawn JP2004510363A (ja) 2000-08-31 2001-08-31 センサおよびイメージングシステム

Country Status (8)

Country Link
US (1) US7522745B2 (ja)
EP (1) EP1360833A1 (ja)
JP (1) JP2004510363A (ja)
CN (1) CN1606758A (ja)
AU (1) AU2001290608A1 (ja)
CA (1) CA2421111A1 (ja)
MX (1) MXPA03001804A (ja)
WO (1) WO2002019698A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101138222B1 (ko) 2010-05-11 2012-04-24 재단법인 포항지능로봇연구소 전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법
KR20180005480A (ko) * 2016-07-06 2018-01-16 삼성전자주식회사 전자 장치 및 이의 디스플레이 방법

Families Citing this family (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
US6701005B1 (en) 2000-04-29 2004-03-02 Cognex Corporation Method and apparatus for three-dimensional object segmentation
US8564661B2 (en) 2000-10-24 2013-10-22 Objectvideo, Inc. Video analytic rule detection system and method
US9892606B2 (en) 2001-11-15 2018-02-13 Avigilon Fortress Corporation Video surveillance system employing video primitives
US8711217B2 (en) * 2000-10-24 2014-04-29 Objectvideo, Inc. Video surveillance system employing video primitives
US8457401B2 (en) * 2001-03-23 2013-06-04 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US7424175B2 (en) 2001-03-23 2008-09-09 Objectvideo, Inc. Video segmentation using statistical pixel modeling
US7072512B2 (en) * 2002-07-23 2006-07-04 Microsoft Corporation Segmentation of digital video and images into continuous tone and palettized regions
US7920718B2 (en) * 2002-09-05 2011-04-05 Cognex Corporation Multi-zone passageway monitoring system and method
US7397929B2 (en) * 2002-09-05 2008-07-08 Cognex Technology And Investment Corporation Method and apparatus for monitoring a passageway using 3D images
US7400744B2 (en) * 2002-09-05 2008-07-15 Cognex Technology And Investment Corporation Stereo door sensor
ITPI20020051A1 (it) * 2002-09-18 2004-03-19 Cnr Consiglio Naz Delle Ric Erche Metodo e apparato per l'estrazione dei contorni delle strutture presenti in una immagine mediante l'impiego di una classe di filtri non lineari.
JP3669698B2 (ja) * 2002-09-20 2005-07-13 日東電工株式会社 印刷物の検査方法及び検査装置
US7045764B2 (en) 2002-10-17 2006-05-16 Rite-Hite Holding Corporation Passive detection system for detecting a body near a door
AT500925A1 (de) * 2003-03-05 2006-04-15 Walter Dipl Ing Lorenz Verfahren und einrichtung zur überwachung des einstiegsbereiches von fahrzeugen
US7034682B2 (en) 2003-06-20 2006-04-25 Rite-Hite Holding Corporation Door with a safety antenna
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
US7623674B2 (en) * 2003-11-05 2009-11-24 Cognex Technology And Investment Corporation Method and system for enhanced portal security through stereoscopy
US8326084B1 (en) 2003-11-05 2012-12-04 Cognex Technology And Investment Corporation System and method of auto-exposure control for image acquisition hardware using three dimensional information
US9104650B2 (en) 2005-07-11 2015-08-11 Brooks Automation, Inc. Intelligent condition monitoring and fault diagnostic system for preventative maintenance
US7882394B2 (en) * 2005-07-11 2011-02-01 Brooks Automation, Inc. Intelligent condition-monitoring and fault diagnostic system for predictive maintenance
US8111904B2 (en) 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
US8004514B2 (en) * 2006-02-10 2011-08-23 Qualcomm Mems Technologies, Inc. Method and system for updating of displays showing deterministic content
US7940955B2 (en) * 2006-07-26 2011-05-10 Delphi Technologies, Inc. Vision-based method of determining cargo status by boundary detection
DE102006044114A1 (de) * 2006-09-20 2008-03-27 Forschungszentrum Karlsruhe Gmbh Verfahren zur Charakterisierung der Abgasausbrandqualität in Verbrennungsanlagen
US8150101B2 (en) * 2006-11-13 2012-04-03 Cybernet Systems Corporation Orientation invariant object identification using model-based image processing
US7705744B2 (en) 2007-05-24 2010-04-27 Cutsforth Products, Inc. Monitoring systems and methods for monitoring the condition of one or more components of an electrical device
US8618943B2 (en) 2007-05-24 2013-12-31 Cutsforth, Inc. Brush holder assembly monitoring apparatus, assembly, system and method
US8126260B2 (en) 2007-05-29 2012-02-28 Cognex Corporation System and method for locating a three-dimensional object using machine vision
US8767975B2 (en) * 2007-06-21 2014-07-01 Bose Corporation Sound discrimination method and apparatus
US8610787B2 (en) * 2007-06-22 2013-12-17 Panasonic Corporation Camera device including privacy protection method
CN101170359B (zh) * 2007-12-03 2011-06-08 华东理工大学 一种能够跟踪信号移动的光通信接收装置
US20090172756A1 (en) * 2007-12-31 2009-07-02 Motorola, Inc. Lighting analysis and recommender system for video telephony
US8111919B2 (en) * 2008-02-04 2012-02-07 Eyep, Inc. Feature encoding system and method for connected component labeling
US8073199B2 (en) 2008-05-30 2011-12-06 Drs Rsta, Inc. Method for minimizing scintillation in dynamic images
KR20110053417A (ko) * 2008-09-08 2011-05-23 네드 엠. 아두트 디지털 비디오 필터 및 화상 처리
JP5203869B2 (ja) * 2008-09-24 2013-06-05 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム
EP2384465A1 (en) * 2009-01-21 2011-11-09 Thomson Licensing Method to control media with face detection and hot spot motion
EP2389788B1 (en) * 2009-01-26 2019-12-04 Signify Holding B.V. Apparatus and method for providing settings of a control system for implementing a spatial distribution of perceptible output
ES2372830B1 (es) * 2009-02-26 2012-11-30 Universidad Carlos Iii De Madrid Procedimiento para la captura y seguimiento de objetos y dispositivo para llevar a cabo dicho procedimiento.
US20110061100A1 (en) * 2009-09-10 2011-03-10 Nokia Corporation Method and apparatus for controlling access
US20110099476A1 (en) * 2009-10-23 2011-04-28 Microsoft Corporation Decorating a display environment
CN102792305B (zh) * 2010-03-11 2016-10-26 皇家飞利浦电子股份有限公司 用于表征和可视化电磁跟踪误差的方法和系统
CN102859104A (zh) * 2010-03-26 2013-01-02 西门子公司 关闭和开启门的安全装置
US9927368B1 (en) * 2011-01-26 2018-03-27 SeeScan, Inc. Self-leveling inspection systems and methods
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
CN102254306B (zh) * 2011-07-14 2013-01-23 北京邮电大学 一种基于图像简化分层模型的实时图像去雾方法
CN103733607B (zh) * 2011-08-10 2015-08-26 富士胶片株式会社 用于检测运动物体的装置和方法
US10036780B2 (en) * 2011-09-05 2018-07-31 Kabushiki Kaisha Nihon Micronics Evaluation apparatus and evaluation method of sheet type cell
KR101385326B1 (ko) * 2011-09-23 2014-04-16 주식회사 크리에이츠 카메라로 운동하는 피사체를 촬영하고 그 촬영 이미지에 기초하여 피사체의 실제의 운동 궤적을 획득하기 위한 방법 및 시스템
US9124783B2 (en) * 2011-09-30 2015-09-01 Camiolog, Inc. Method and system for automated labeling at scale of motion-detected events in video surveillance
US8809788B2 (en) * 2011-10-26 2014-08-19 Redwood Systems, Inc. Rotating sensor for occupancy detection
EP2783324A4 (en) * 2011-11-22 2015-09-09 Schneider Electric Buildings METHOD AND SYSTEM FOR ACCESS CONTROL USING INTELLIGENT OPTICAL SENSOR
PT106223A (pt) * 2012-03-21 2013-09-23 Univ Tras Os Montes E Alto Douro Sistema de teleassistência baseado em estados de espírito
CN104704815B (zh) * 2012-05-23 2018-12-07 杭州阿尔法红外检测技术有限公司 热像摄影装置和热像摄影方法
US20130342689A1 (en) * 2012-06-25 2013-12-26 Intel Corporation Video analytics test system
CN102831591B (zh) * 2012-06-27 2014-11-05 北京航空航天大学 一种基于高斯滤波的单幅图像的实时去雾方法
US8686874B2 (en) * 2012-07-24 2014-04-01 Sentry Protection Llc Corner sensor assembly
DE102012214148A1 (de) * 2012-08-09 2014-02-13 Siemens Aktiengesellschaft Bildgebungseinrichtung
RU2013104895A (ru) * 2013-02-05 2014-08-10 ЭлЭсАй Корпорейшн Процессор изображений с функциональностью выбора контуров
WO2015013534A1 (en) * 2013-07-24 2015-01-29 Mourikis Anastasios I Method for camera motion estimation and correction
US8879813B1 (en) 2013-10-22 2014-11-04 Eyenuk, Inc. Systems and methods for automated interest region detection in retinal images
KR102143618B1 (ko) 2014-01-17 2020-08-11 삼성전자주식회사 프레임률 제어 방법 및 그 전자 장치
US9082018B1 (en) 2014-09-30 2015-07-14 Google Inc. Method and system for retroactively changing a display characteristic of event indicators on an event timeline
US10127783B2 (en) 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
JP2018507325A (ja) * 2015-01-29 2018-03-15 アーコニック インコーポレイテッドArconic Inc. 付加製造体のモデリングのためのシステム及び方法
CN104657954B (zh) * 2015-03-04 2017-08-04 广东迅通科技股份有限公司 基于人眼视觉相似性约束的图像去雾方法、系统及设备
CN105225480A (zh) * 2015-04-08 2016-01-06 王秀珍 信号灯所在路口通行数据采集系统
WO2016189764A1 (ja) * 2015-05-26 2016-12-01 三菱電機株式会社 検出装置および検出方法
CA3102686C (en) 2015-06-01 2023-01-03 Cutsforth, Inc. Brush wear and vibration monitoring
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
CN105141824B (zh) * 2015-06-17 2019-01-01 广州杰赛科技股份有限公司 图像采集方法及装置
CN105096321B (zh) * 2015-07-24 2018-05-18 上海小蚁科技有限公司 一种基于图像边缘的低复杂度视频移动侦测方法
US9771225B2 (en) 2015-10-08 2017-09-26 Rite-Hite Holding Corporation Methods and apparatus for monitoring a loading dock
CA3008957C (en) 2016-01-11 2020-07-14 Cutsforth, Inc. Monitoring system for grounding apparatus
US10679477B2 (en) 2016-05-09 2020-06-09 Herbert S Kobayashi Multicamera video alarm system for remote monitoring and method
US11386759B2 (en) 2016-05-09 2022-07-12 Herbert S Kobayashi Three level detector signal for multicamera video alarm system for remote monitoring and method
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10783397B2 (en) * 2016-06-29 2020-09-22 Intel Corporation Network edge device with image thresholding
US10192415B2 (en) 2016-07-11 2019-01-29 Google Llc Methods and systems for providing intelligent alerts for events
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
CN106384084B (zh) * 2016-08-31 2019-04-30 重庆大龙网科技集团有限公司 一种基于红外阵列的人流行为分析系统的分析方法
CN106384078B (zh) * 2016-08-31 2019-04-30 重庆大龙网科技集团有限公司 一种基于红外阵列的人流行为分析系统的人流行为分析方法
US10891839B2 (en) 2016-10-26 2021-01-12 Amazon Technologies, Inc. Customizable intrusion zones associated with security systems
US12096156B2 (en) 2016-10-26 2024-09-17 Amazon Technologies, Inc. Customizable intrusion zones associated with security systems
WO2018081328A1 (en) * 2016-10-26 2018-05-03 Ring Inc. Customizable intrusion zones for audio/video recording and communication devices
DE102017102489B3 (de) * 2017-02-08 2018-05-24 Preh Gmbh Verfahren zur Nebeldetektion
US10599950B2 (en) 2017-05-30 2020-03-24 Google Llc Systems and methods for person recognition data management
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
CN109724152A (zh) * 2018-07-24 2019-05-07 永康市蜂蚁科技有限公司 供暖设备散热管道流速切换系统
US11501620B2 (en) 2018-07-30 2022-11-15 Carrier Corporation Method for activating an alert when an object is left proximate a room entryway
US10931863B2 (en) 2018-09-13 2021-02-23 Genetec Inc. Camera control system and method of controlling a set of cameras
JP6780682B2 (ja) * 2018-09-20 2020-11-04 日本電気株式会社 情報取得システム、制御装置及び情報取得方法
JP7208672B2 (ja) 2018-10-04 2023-01-19 カッツフォース インコーポレイテッド 電気機械の1つ以上の構成要素の状態を監視するためのシステム及び方法
EP3861604A2 (en) 2018-10-04 2021-08-11 Cutsforth, Inc. Assembly for a brush holder assembly of an electric machine
US11232685B1 (en) * 2018-12-04 2022-01-25 Amazon Technologies, Inc. Security system with dual-mode event video and still image recording
WO2020132416A1 (en) 2018-12-21 2020-06-25 Rytec Corporation Safety system and method for overhead roll-up doors
CN110207842B (zh) * 2019-07-01 2020-09-01 中国电子科技集团公司第十三研究所 亚像素级边缘效应的修正方法及终端设备
US11328424B1 (en) * 2019-08-08 2022-05-10 The Chamberlain Group Llc Systems and methods for monitoring a movable barrier
US11132556B2 (en) * 2019-11-17 2021-09-28 International Business Machines Corporation Detecting application switches in video frames using min and max pooling
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment
CN111882540B (zh) * 2020-07-28 2024-06-21 歌尔科技有限公司 摄像头保护罩的污迹检测方法、装置以及设备
US20230020182A1 (en) * 2022-09-23 2023-01-19 Intel Corporation Technologies for source degradation detection and auto-tuning of cameras

Family Cites Families (334)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2758676A (en) * 1954-02-16 1956-08-14 Haughton Elevator Company Variable standing time control
US3195126A (en) * 1957-05-13 1965-07-13 Lab For Electronics Inc Traffic supervisory system
US3686434A (en) * 1957-06-27 1972-08-22 Jerome H Lemelson Area surveillance system
US3255434A (en) * 1961-11-01 1966-06-07 Peter D Schwarz Vehicle detection and counting system
US3590151A (en) * 1966-12-30 1971-06-29 Jackson & Church Electronics C Television surveillance system
US3562423A (en) * 1967-08-15 1971-02-09 Univ Northwestern Dictorial tracking and recognition system which provides display of target identified by brilliance and spatial characteristics
US3924130A (en) * 1968-02-12 1975-12-02 Us Navy Body exposure indicator
US3534499A (en) * 1969-01-27 1970-10-20 John L Czinger Jr Door opening apparatus
US3685012A (en) * 1970-04-16 1972-08-15 Sperry Rand Corp Apparatus for determining data associated with objects
US3691556A (en) * 1970-06-03 1972-09-12 Memco Electronics Ltd Detection of movement in confined spaces
US3663937A (en) * 1970-06-08 1972-05-16 Thiokol Chemical Corp Intersection ingress-egress automatic electronic traffic monitoring equipment
US3668625A (en) * 1970-09-21 1972-06-06 David Wolf Monitoring system
US3740466A (en) * 1970-12-14 1973-06-19 Jackson & Church Electronics C Surveillance system
US3691302A (en) * 1971-02-25 1972-09-12 Gte Sylvania Inc Automatic light control for low light level television camera
GB1378754A (en) * 1971-09-07 1974-12-27 Peak Technologies Ltd Patient monitoring
US3816648A (en) * 1972-03-13 1974-06-11 Magnavox Co Scene intrusion alarm
US3890463A (en) * 1972-03-15 1975-06-17 Konan Camera Res Inst System for use in the supervision of a motor-boat race or a similar timed event
GB1430420A (en) 1972-04-24 1976-03-31 Niemi A Method and apparatus for analyzing a visible object
US3852592A (en) * 1973-06-07 1974-12-03 Stanley Works Automatic door operator
US3988533A (en) * 1974-09-30 1976-10-26 Video Tek, Inc. Video-type universal motion and intrusion detection system
US3947833A (en) * 1974-11-20 1976-03-30 The United States Of America As Represented By The Secretary Of The Navy Automatic target detection system
US3930735A (en) * 1974-12-11 1976-01-06 The United States Of America As Represented By The United States National Aeronautics And Space Administration Traffic survey system
JPS5197155A (en) * 1975-02-21 1976-08-26 Erebeetano jokyakudeetashushusochi
FR2321229A1 (fr) * 1975-08-13 1977-03-11 Cit Alcatel Procede et appareillage pour controle automatique de graphisme
SE394146B (sv) * 1975-10-16 1977-06-06 L Olesen Anordning for metning resp kontroll av ett foremals, i synnerhet ett fordons hastighet.
DE2617111C3 (de) * 1976-04-17 1986-02-20 Robert Bosch Gmbh, 7000 Stuttgart Verfahren zum Feststellen einer Bewegung im Überwachungsbereich einer Fernsehkamera
DE2617112C3 (de) * 1976-04-17 1982-01-14 Robert Bosch Gmbh, 7000 Stuttgart Verfahren zum Feststellen einer Bewegung bzw. einer Veränderung im Überwachungsbereich einer Fernsehkamera
US4063282A (en) * 1976-07-20 1977-12-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration TV fatigue crack monitoring system
DE2638138C3 (de) * 1976-08-25 1979-05-03 Kloeckner-Werke Ag, 4100 Duisburg Vorrichtung zum Erkennen und Aussortieren fehlerhafter Packungen, die längs einer Förderstrecke transportiert werden
US4240109A (en) * 1976-10-14 1980-12-16 Micro Consultants, Limited Video movement detection
US4136950A (en) * 1976-11-08 1979-01-30 Labrum Engineering, Inc. Microscope system for observing moving particles
US4183013A (en) * 1976-11-29 1980-01-08 Coulter Electronics, Inc. System for extracting shape features from an image
JPS53110823A (en) * 1977-03-10 1978-09-27 Ricoh Co Ltd Optical information processor
DE2715083C3 (de) * 1977-04-04 1983-02-24 Robert Bosch Gmbh, 7000 Stuttgart System zur Diskrimination eines Videosignals
DE2720865A1 (de) * 1977-05-10 1978-11-23 Philips Patentverwaltung Anordnung zur untersuchung von objekten
US4163357A (en) * 1977-06-13 1979-08-07 Hamel Gmbh, Zwirnmaschinen Apparatus for cable-twisting two yarns
US4133004A (en) * 1977-11-02 1979-01-02 Hughes Aircraft Company Video correlation tracker
JPS5474700A (en) * 1977-11-26 1979-06-14 Agency Of Ind Science & Technol Collection and delivery system for traffic information by photo electric conversion element group
CA1103803A (en) * 1978-03-01 1981-06-23 National Research Council Of Canada Method and apparatus of determining the center of area or centroid of a geometrical area of unspecified shape lying in a larger x-y scan field
JPS54151322A (en) * 1978-05-19 1979-11-28 Tokyo Hoso:Kk Storoboscopic effect generator for television
US4187519A (en) * 1978-08-17 1980-02-05 Rockwell International Corporation System for expanding the video contrast of an image
CA1116286A (en) * 1979-02-20 1982-01-12 Control Data Canada, Ltd. Perimeter surveillance system
US4257063A (en) * 1979-03-23 1981-03-17 Ham Industries, Inc. Video monitoring system and method
US4219845A (en) * 1979-04-12 1980-08-26 The United States Of America As Represented By The Secretary Of The Air Force Sense and inject moving target indicator apparatus
DE2934038C2 (de) * 1979-08-23 1982-02-25 Deutsche Forschungs- und Versuchsanstalt für Luft- und Raumfahrt e.V., 5000 Köln Rißfortschritts-Meßeinrichtung
US4414685A (en) * 1979-09-10 1983-11-08 Sternberg Stanley R Method and apparatus for pattern recognition and detection
US4395699A (en) * 1979-09-10 1983-07-26 Environmental Research Institute Of Michigan Method and apparatus for pattern recognition and detection
US4317130A (en) * 1979-10-10 1982-02-23 Motorola, Inc. Narrow band television transmission system
JPS56132505A (en) * 1980-03-24 1981-10-16 Hitachi Ltd Position detecting method
US4298858A (en) * 1980-03-27 1981-11-03 The United States Of America As Represented By The Secretary Of The Air Force Method and apparatus for augmenting binary patterns
JPS56160183A (en) * 1980-05-09 1981-12-09 Hajime Sangyo Kk Method and device for monitoring
US4337481A (en) * 1980-06-10 1982-06-29 Peter Mick Motion and intrusion detecting system
US4410910A (en) * 1980-09-18 1983-10-18 Advanced Diagnostic Research Corp. Motion detecting method and apparatus
US4433325A (en) * 1980-09-30 1984-02-21 Omron Tateisi Electronics, Co. Optical vehicle detection system
WO1982001454A1 (en) * 1980-10-22 1982-04-29 Mahoney Trevor W Video movement detector
US4455550A (en) * 1980-11-06 1984-06-19 General Research Of Electronics, Inc. Detection circuit for a video intrusion monitoring apparatus
JPS57125496A (en) * 1981-01-27 1982-08-04 Fujitec Kk Condition detector
US4520343A (en) * 1980-12-16 1985-05-28 Hiroshi Koh Lift control system
JPH0210077B2 (ja) * 1981-01-26 1990-03-06 Memuko Metsudo Ltd
US4493420A (en) * 1981-01-29 1985-01-15 Lockwood Graders (U.K.) Limited Method and apparatus for detecting bounded regions of images, and method and apparatus for sorting articles and detecting flaws
US4794248A (en) 1985-07-16 1988-12-27 Otis Elevator Company Detection device having energy transmitters located at vertically spaced apart points along movable doors
DE3107901A1 (de) * 1981-03-02 1982-09-16 Siemens AG, 1000 Berlin und 8000 München Digitale echtzeit-fernseh-bildverarbeitungseinrichtung
US4449144A (en) * 1981-06-26 1984-05-15 Omron Tateisi Electronics Co. Apparatus for detecting moving body
US4479145A (en) * 1981-07-29 1984-10-23 Nippon Kogaku K.K. Apparatus for detecting the defect of pattern
US4433438A (en) * 1981-11-25 1984-02-21 The United States Of America As Represented By The Secretary Of The Air Force Sobel edge extraction circuit for image processing
US4589139A (en) * 1982-02-04 1986-05-13 Nippon Kogaku K. K. Apparatus for detecting defects in pattern
US4490851A (en) * 1982-04-16 1984-12-25 The United States Of America As Represented By The Secretary Of The Army Two-dimensional image data reducer and classifier
US5845000A (en) 1992-05-05 1998-12-01 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
US4520504A (en) * 1982-07-29 1985-05-28 The United States Of America As Represented By The Secretary Of The Air Force Infrared system with computerized image display
US4569078A (en) * 1982-09-17 1986-02-04 Environmental Research Institute Of Michigan Image sensor
JPS5994045A (ja) * 1982-11-22 1984-05-30 Toshiba Corp 画像入力装置
US4577344A (en) * 1983-01-17 1986-03-18 Automatix Incorporated Vision system
US4574393A (en) * 1983-04-14 1986-03-04 Blackwell George F Gray scale image processor
US4543567A (en) * 1983-04-14 1985-09-24 Tokyo Shibaura Denki Kabushiki Kaisha Method for controlling output of alarm information
US4556900A (en) * 1983-05-25 1985-12-03 Rca Corporation Scaling device as for quantized B-Y signal
US4665554A (en) * 1983-07-13 1987-05-12 Machine Vision International Corporation Apparatus and method for implementing dilation and erosion transformations in digital image processing
KR910009880B1 (ko) * 1983-07-25 1991-12-03 가부시기가이샤 히다찌세이사꾸쇼 인터레이스된 텔레비젼 신호중의 화상의 움직임 검출회로
US4589030A (en) * 1983-07-25 1986-05-13 Kley Victor B Solid state camera
IL69327A (en) * 1983-07-26 1986-11-30 Elscint Ltd Automatic misregistration correction
US4639767A (en) * 1983-09-08 1987-01-27 Nec Corporation Apparatus for detecting movement in a television signal based on taking ratio of signal representing frame difference to signal representing sum of picture element differences
US4555724A (en) * 1983-10-21 1985-11-26 Westinghouse Electric Corp. Elevator system
US4881270A (en) 1983-10-28 1989-11-14 The United States Of America As Represented By The Secretary Of The Navy Automatic classification of images
US4698937A (en) * 1983-11-28 1987-10-13 The Stanley Works Traffic responsive control system for automatic swinging door
US4565029A (en) * 1983-11-28 1986-01-21 The Stanley Works Traffic responsive control system for automatic swinging door
JPS60139080A (ja) 1983-12-27 1985-07-23 Canon Inc 画像処理装置
US4669218A (en) * 1984-03-08 1987-06-02 The Stanley Works Traffic responsive control system
US4694329A (en) * 1984-04-09 1987-09-15 Corporate Communications Consultants, Inc. Color correction system and method with scene-change detection
US4653109A (en) * 1984-07-30 1987-03-24 Lemelson Jerome H Image analysis system and method
US4641356A (en) * 1984-08-24 1987-02-03 Machine Vision International Corporation Apparatus and method for implementing dilation and erosion transformations in grayscale image processing
FI70651C (fi) * 1984-10-05 1986-09-24 Kone Oy Foerfarande och anordning foer oevervakning av omraodet framfoer en hissdoerr
GB8426010D0 (en) 1984-10-15 1984-11-21 Memco Med Ltd Automatic control
US4679077A (en) * 1984-11-10 1987-07-07 Matsushita Electric Works, Ltd. Visual Image sensor system
DE3513833A1 (de) * 1984-11-14 1986-05-22 Karl-Walter Prof. Dr.-Ing. 5910 Kreuztal Bonfig Schmelzsicherungseinsatz mit optoelektrischer anzeigeeinrichtung
US4685145A (en) * 1984-12-07 1987-08-04 Fingermatrix, Inc. Conversion of an image represented by a field of pixels in a gray scale to a field of pixels in binary scale
US4680704A (en) * 1984-12-28 1987-07-14 Telemeter Corporation Optical sensor apparatus and method for remotely monitoring a utility meter or the like
US4662479A (en) * 1985-01-22 1987-05-05 Mitsubishi Denki Kabushiki Kaisha Operating apparatus for elevator
US4739401A (en) * 1985-01-25 1988-04-19 Hughes Aircraft Company Target acquisition system and method
GB8518803D0 (en) * 1985-07-25 1985-08-29 Rca Corp Locating target patterns within images
GB2175396B (en) 1985-05-22 1989-06-28 Filler Protection Developments Apparatus for examining objects
US4876728A (en) 1985-06-04 1989-10-24 Adept Technology, Inc. Vision system for distinguishing touching parts
US4779131A (en) * 1985-07-26 1988-10-18 Sony Corporation Apparatus for detecting television image movement
JPS6278979A (ja) * 1985-10-02 1987-04-11 Toshiba Corp 画像処理装置
GB2183878B (en) * 1985-10-11 1989-09-20 Matsushita Electric Works Ltd Abnormality supervising system
JPH0744689B2 (ja) * 1985-11-22 1995-05-15 株式会社日立製作所 動き検出回路
JPH0766446B2 (ja) 1985-11-27 1995-07-19 株式会社日立製作所 移動物体像を抽出する方法
US5187747A (en) 1986-01-07 1993-02-16 Capello Richard D Method and apparatus for contextual data enhancement
US4825393A (en) 1986-04-23 1989-04-25 Hitachi, Ltd. Position measuring method
JPH0623999B2 (ja) 1986-07-28 1994-03-30 株式会社日立製作所 パタ−ン欠陥検出方法
US4760607A (en) * 1986-07-31 1988-07-26 Machine Vision International Corporation Apparatus and method for implementing transformations in grayscale image processing
FR2609566B1 (fr) 1987-01-14 1990-04-13 Armine Procede de determination de la trajectoire d'un corps apte a se deplacer sur une voie et dispositif de mise en oeuvre du procede
NZ222404A (en) 1987-11-02 1991-06-25 Precision Technology Inc Vehicle tracking by comparison of transmitted phase at multiple receivers
US4847772A (en) 1987-02-17 1989-07-11 Regents Of The University Of Minnesota Vehicle detection through image processing for traffic surveillance and control
JPS63222589A (ja) 1987-03-12 1988-09-16 Toshiba Corp ノイズ低減回路
US4975970A (en) 1987-03-18 1990-12-04 General Electric Company Image display having automatic image adjustment
DE3711918C2 (de) 1987-04-08 1998-05-28 Gsf Forschungszentrum Umwelt Verfahren zur automatischen Verfolgung von jeweils einem Teilchen unter mehreren Teilchen
US4845761A (en) 1987-04-17 1989-07-04 Recognition Equipment Incorporated Letter mail address block locator system
US4823010A (en) 1987-05-11 1989-04-18 The Stanley Works Sliding door threshold sensor
JPS63300367A (ja) 1987-05-30 1988-12-07 Toshiba Corp 画像処理装置
DE3869475D1 (de) 1987-06-02 1992-04-30 Siemens Ag Verfahren zur ermittlung von bewegungsvektorfeldern aus digitalen bildsequenzen.
US4849906A (en) 1987-08-24 1989-07-18 Hughes Aircraft Company Dual mode video tracker
US4906940A (en) 1987-08-24 1990-03-06 Science Applications International Corporation Process and apparatus for the automatic detection and extraction of features in images and displays
US4799243A (en) 1987-09-01 1989-01-17 Otis Elevator Company Directional people counting arrangement
DE3731947A1 (de) 1987-09-23 1989-04-13 Kurt Dr Sauerwein Verfahren und vorrichtung zum feststellen und auswerten von oberflaechenrissen bei werkstuecken
JPS6491083A (en) 1987-10-02 1989-04-10 Mitsubishi Electric Corp Congestion level detector for elevator hall
JPH0191586A (ja) 1987-10-02 1989-04-11 Nippon Hoso Kyokai <Nhk> 動き検出回路
JPH0695008B2 (ja) 1987-12-11 1994-11-24 株式会社東芝 監視装置
JPH0672770B2 (ja) 1988-02-01 1994-09-14 豊田工機株式会社 ロボットの物体認識装置
US4979136A (en) 1988-03-01 1990-12-18 Transitions Research Corporation Processing system and method for enhancing image data
US4969202A (en) 1988-03-31 1990-11-06 Honeywell Inc. Image recognition edge detection method and system
US5115477A (en) 1988-03-31 1992-05-19 Honeywell Inc. Image recognition edge detection method and system
KR920010034B1 (en) 1988-03-31 1992-11-13 Toshiba Co Ltd Image track display apparatus
DE68918886T2 (de) 1988-04-08 1995-06-01 Dainippon Screen Mfg. Co., Ltd., Kyoto Verfahren zur Gewinnung der Aussenlinie eines Objektes in einem Bild.
US4868651A (en) 1988-05-17 1989-09-19 S&S Inficon, Inc. Digital radiography with image brightness and contrast normalization
DE3818534A1 (de) 1988-05-31 1989-12-07 Brunner Wolfgang Verfahren zum darstellen der ortsaufgeloesten verteilung von physikalischen groessen auf einer anzeige sowie vorrichtung zur durchfuehrung des verfahrens
ATE89362T1 (de) 1988-06-03 1993-05-15 Inventio Ag Verfahren und vorrichtung zur steuerung der tuerstellung einer automatischen tuer.
US4985618A (en) 1988-06-16 1991-01-15 Nicoh Company, Ltd. Parallel image processing system
FR2634551B1 (fr) 1988-07-20 1990-11-02 Siderurgie Fse Inst Rech Procede et dispositif d'identification du fini d'une surface metallique
JPH0244202A (ja) 1988-08-05 1990-02-14 Bridgestone Corp 物体の端部位置を検出する装置
US4937878A (en) 1988-08-08 1990-06-26 Hughes Aircraft Company Signal processing for autonomous acquisition of objects in cluttered background
US4959714A (en) 1988-08-08 1990-09-25 Hughes Aircraft Company Segmentation method for terminal aimpoint determination on moving objects and apparatus therefor
US4991092A (en) 1988-08-12 1991-02-05 The Regents Of The University Of California Image processor for enhancing contrast between subregions of a region of interest
US5018218A (en) 1988-08-29 1991-05-21 Raytheon Company Confirmed boundary pattern matching
US5052045A (en) 1988-08-29 1991-09-24 Raytheon Company Confirmed boundary pattern matching
EP0358459B1 (en) 1988-09-08 1996-06-19 Sony Corporation Picture processing apparatus
US4947353A (en) 1988-09-12 1990-08-07 Automatic Toll Systems, Inc. Automatic vehicle detecting system
US4975972A (en) 1988-10-18 1990-12-04 At&T Bell Laboratories Method and apparatus for surface inspection
US4874063A (en) 1988-10-27 1989-10-17 Otis Elevator Company Portable elevator traffic pattern monitoring system
US4871948A (en) 1988-11-08 1989-10-03 Honeywell Inc. Memory mapped deflection correction system
US5241608A (en) 1988-11-25 1993-08-31 Eastman Kodak Company Method for estimating velocity vector fields from a time-varying image sequence
JPH0683373B2 (ja) 1988-12-09 1994-10-19 大日本スクリーン製造株式会社 基準濃度点の設定方法
US5134472A (en) 1989-02-08 1992-07-28 Kabushiki Kaisha Toshiba Moving object detection apparatus and method
US5008739A (en) 1989-02-13 1991-04-16 Eastman Kodak Company Real-time digital processor for producing full resolution color signals from a multi-color image sensor
US4962419A (en) 1989-02-13 1990-10-09 Eastman Kodak Company Detail processing method and apparatus providing uniform processing of horizontal and vertical detail components
US5034986A (en) 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
JPH07106839B2 (ja) 1989-03-20 1995-11-15 株式会社日立製作所 エレベーター制御システム
US4967083A (en) 1989-04-14 1990-10-30 The Stanley Works Door sensor system
JP2861249B2 (ja) 1989-05-11 1999-02-24 日本電気株式会社 画像変化検出方法および画像変化検出装置
JPH0335399A (ja) 1989-06-30 1991-02-15 Toshiba Corp 変化領域統合装置
US5247366A (en) 1989-08-02 1993-09-21 I Sight Ltd. Color wide dynamic range camera
JP2633694B2 (ja) 1989-08-25 1997-07-23 フジテック 株式会社 人数検出装置
US5022062A (en) 1989-09-13 1991-06-04 American Science And Engineering, Inc. Automatic threat detection based on illumination by penetrating radiant energy using histogram processing
JP2953712B2 (ja) 1989-09-27 1999-09-27 株式会社東芝 移動物体検知装置
JP2808773B2 (ja) 1990-01-09 1998-10-08 株式会社日立製作所 階調変換自動化装置
GB9001468D0 (en) 1990-01-23 1990-03-21 Sarnoff David Res Center Computing multiple motions within an image region
JPH03223976A (ja) 1990-01-29 1991-10-02 Ezel Inc 画像照合装置
TW197509B (ja) 1990-01-31 1993-01-01 Hitachi Seisakusyo Kk
JPH0787587B2 (ja) 1990-02-16 1995-09-20 松下電器産業株式会社 階調補正装置
DE69129568T2 (de) 1990-02-26 1998-12-10 Matsushita Electric Industrial Co., Ltd., Kadoma, Osaka Verkehrsmonitorvorrichtung
KR100204101B1 (ko) 1990-03-02 1999-06-15 가나이 쓰도무 화상처리장치
JP2712844B2 (ja) 1990-04-27 1998-02-16 株式会社日立製作所 交通流計測装置及び交通流計測制御装置
EP0548079A1 (en) 1990-05-25 1993-06-30 Axiom Innovation Limited An image acquisition system
US6134373A (en) 1990-08-17 2000-10-17 Samsung Electronics Co., Ltd. System for recording and reproducing a wide bandwidth video signal via a narrow bandwidth medium
US5305395A (en) 1990-06-08 1994-04-19 Xerox Corporation Exhaustive hierarchical near neighbor operations on an image
US5239596A (en) 1990-06-08 1993-08-24 Xerox Corporation Labeling pixels of an image based on near neighbor attributes
US5257209A (en) 1990-06-26 1993-10-26 Texas Instruments Incorporated Optical flow computation for moving sensors
JPH0467275A (ja) 1990-07-06 1992-03-03 Matsushita Electric Ind Co Ltd 認識方法及び認識装置
US5506917A (en) 1990-07-13 1996-04-09 Nippon Telegraph And Telephone Corporation Thresholding method for segmenting gray scale image, method for determining background concentration distribution, and image displacement detection method
US5319547A (en) 1990-08-10 1994-06-07 Vivid Technologies, Inc. Device and method for inspection of baggage and other objects
US5673355A (en) 1990-08-17 1997-09-30 Samsung Electronics Co., Ltd. Deemphasis & Subsequent reemphasis of high-energy reversed-spectrum components of a folded video signal
US5596418A (en) 1990-08-17 1997-01-21 Samsung Electronics Co., Ltd. Deemphasis and subsequent reemphasis of high-energy reversed-spectrum components of a folded video signal
US6246827B1 (en) 1990-08-17 2001-06-12 Samsung Electronics Co., Ltd. Deemphasis and subsequent reemphasis of high-energy reversed-spectrum components of a folded video signal
US5182778A (en) 1990-08-31 1993-01-26 Eastman Kodak Company Dot-matrix video enhancement for optical character recognition
US5151945A (en) 1990-09-11 1992-09-29 The Research Foundation Of State Univ. Of N.Y. Determination of ambient light level changes in visual images
US5031227A (en) 1990-09-27 1991-07-09 Loral Aerospace Corp. Edge enhancement and smoothing in digital images
JPH04147400A (ja) 1990-10-11 1992-05-20 Matsushita Electric Ind Co Ltd 車両検出装置
US5161107A (en) 1990-10-25 1992-11-03 Mestech Creation Corporation Traffic surveillance system
US5150426A (en) 1990-11-20 1992-09-22 Hughes Aircraft Company Moving target detection method using two-frame subtraction and a two quadrant multiplier
US5181254A (en) 1990-12-14 1993-01-19 Westinghouse Electric Corp. Method for automatically identifying targets in sonar images
US5119442A (en) 1990-12-19 1992-06-02 Pinnacle Systems Incorporated Real time digital video animation using compressed pixel mappings
FR2670979A1 (fr) 1990-12-21 1992-06-26 Philips Electronique Lab Procede de segmentation binaire locale d'images numerisees, par seuillage d'histogramme.
FR2670978A1 (fr) 1990-12-21 1992-06-26 Philips Electronique Lab Procede d'extraction de mouvement comprenant la formation d'images de differences et un filtrage tridimensionnel.
US5142152A (en) 1991-01-02 1992-08-25 The Stanley Works Sliding door sensor
JPH04241077A (ja) 1991-01-24 1992-08-28 Mitsubishi Electric Corp 移動物体認識方法
US5296852A (en) 1991-02-27 1994-03-22 Rathi Rajendra P Method and apparatus for monitoring traffic flow
US5134661A (en) 1991-03-04 1992-07-28 Reinsch Roger A Method of capture and analysis of digitized image data
US5544258A (en) 1991-03-14 1996-08-06 Levien; Raphael L. Automatic tone correction of images using non-linear histogram processing
EP0505858B1 (en) 1991-03-19 2002-08-14 Mitsubishi Denki Kabushiki Kaisha A moving body measuring device and an image processing device for measuring traffic flows
KR940007346B1 (ko) 1991-03-28 1994-08-13 삼성전자 주식회사 화상 처리 시스템의 엣지 검출 장치
US5590217A (en) 1991-04-08 1996-12-31 Matsushita Electric Industrial Co., Ltd. Vehicle activity measuring apparatus
US5432528A (en) 1991-04-12 1995-07-11 Abekas Video Systems, Inc. Video combiner
FI90150C (fi) 1991-05-14 1993-12-27 Valtion Teknillinen Filter
JP2936791B2 (ja) 1991-05-28 1999-08-23 松下電器産業株式会社 階調補正装置
US5509082A (en) 1991-05-30 1996-04-16 Matsushita Electric Industrial Co., Ltd. Vehicle movement measuring apparatus
US5271064A (en) 1991-06-14 1993-12-14 University Of Cincinnati Apparatus and method for smoothing regions and enhancing edges in gray scale images
JP3019479B2 (ja) 1991-06-28 2000-03-13 松下電器産業株式会社 階調補正装置
US5249241A (en) 1991-07-09 1993-09-28 The United States Of America As Represented By The Secretary Of The Air Force Real-time automated scene display for infrared cameras
US5799106A (en) 1991-07-09 1998-08-25 The United States Of America As Represented By The Secretary Of The Air Force Noise immune automated contrast control for infrared cameras
US5149921A (en) 1991-07-10 1992-09-22 Innovation Industries, Inc. Self correcting infrared intrusion detection system
JP2829801B2 (ja) 1991-09-04 1998-12-02 松下電器産業株式会社 トンネル内車両動態計測装置
JPH0578048A (ja) 1991-09-19 1993-03-30 Hitachi Ltd エレベーターホールの待ち客検出装置
DE69213380T2 (de) 1991-09-27 1997-03-20 Agfa Gevaert Nv Reproduktionsverfahren für medizinische Bilder,das optimale Bildqualität für Diagnose herstellt
US5289520A (en) 1991-11-27 1994-02-22 Lorad Corporation Stereotactic mammography imaging system with prone position examination table and CCD camera
US5359674A (en) 1991-12-11 1994-10-25 David Sarnoff Research Center, Inc. Pyramid processor integrated circuit
US5162902A (en) 1991-12-16 1992-11-10 Thomson Consumer Electronics, Inc. Non-linear luminance signal processor responsive to average picture level (APL) of displayed image
JPH05196425A (ja) 1992-01-21 1993-08-06 Ezel Inc 人間の3次元位置検出方法
GB9201856D0 (en) 1992-01-29 1992-03-18 British Telecomm Method of forming a template
CA2130340C (en) 1992-02-18 2000-06-06 Shih-Jong James Lee Method for identifying objects using data processing techniques
DE69325527T2 (de) 1992-02-21 1999-11-25 Canon K.K., Tokio/Tokyo Gerät und Verfahren zur Bildverarbeitung
KR940001054B1 (ko) 1992-02-27 1994-02-08 삼성전자 주식회사 칼라비디오 프린터의 자동콘트라스트보정방법 및 그 장치
US5756981A (en) 1992-02-27 1998-05-26 Symbol Technologies, Inc. Optical scanner for reading and decoding one- and-two-dimensional symbologies at variable depths of field including memory efficient high speed image processing means and high accuracy image analysis means
DE4309878C2 (de) 1992-04-06 1994-07-21 Hell Ag Linotype Verfahren und Einrichtung zur Analyse und Korrektur der Bildgradation in Bildvorlagen
DE4310727C2 (de) 1992-04-06 1996-07-11 Hell Ag Linotype Verfahren und Einrichtung zur Analyse von Bildvorlagen
FR2690031A1 (fr) 1992-04-14 1993-10-15 Philips Electronique Lab Dispositif de segmentation d'images.
US5500904A (en) 1992-04-22 1996-03-19 Texas Instruments Incorporated System and method for indicating a change between images
JP2917661B2 (ja) 1992-04-28 1999-07-12 住友電気工業株式会社 交通流計測処理方法及び装置
US5835613A (en) 1992-05-05 1998-11-10 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
US5300739A (en) 1992-05-26 1994-04-05 Otis Elevator Company Cyclically varying an elevator car's assigned group in a system where each group has a separate lobby corridor
US5612928A (en) 1992-05-28 1997-03-18 Northrop Grumman Corporation Method and apparatus for classifying objects in sonar images
US5657403A (en) 1992-06-01 1997-08-12 Cognex Corporation Vision coprocessing
US5410418A (en) 1992-06-24 1995-04-25 Dainippon Screen Mfg. Co., Ltd. Apparatus for converting image signal representing image having gradation
EP0672327A4 (en) 1992-09-08 1997-10-29 Paul Howard Mayeaux VISION CAMERA AND VIDEO PRETREATMENT SYSTEM.
US5483351A (en) 1992-09-25 1996-01-09 Xerox Corporation Dilation of images without resolution conversion to compensate for printer characteristics
US5617484A (en) 1992-09-25 1997-04-01 Olympus Optical Co., Ltd. Image binarizing apparatus
CA2146451C (en) 1992-10-07 1999-09-07 Octrooibureau Kisch N.V. System for detecting and classifying movement of objects along a passage
US5387768A (en) 1993-09-27 1995-02-07 Otis Elevator Company Elevator passenger detector and door control system which masks portions of a hall image to determine motion and court passengers
US5592567A (en) 1992-11-10 1997-01-07 Siemens Aktiengesellschaft Method for detecting and separating the shadow of moving objects in a sequence of digital images
CA2103395C (en) 1992-11-24 2004-08-17 Masakazu Suzuoki Apparatus and method for providing texture of a moving image to a surface of an object to be displayed
US5426517A (en) 1992-11-30 1995-06-20 Eastman Kodak Company Automated tone correction apparatus and method using filtered histogram equalization
DE69329449T2 (de) 1993-01-01 2001-03-08 Canon Kk Bildverarbeitungsvorrichtung und -verfahren
EP0610916A3 (en) 1993-02-09 1994-10-12 Cedars Sinai Medical Center Method and device for generating preferred segmented numerical images.
US5282337A (en) 1993-02-22 1994-02-01 Stanley Home Automation Garage door operator with pedestrian light control
ATE225964T1 (de) 1993-03-31 2002-10-15 Luma Corp Informationsverwaltung in einem endoskopiesystem
US5376962A (en) 1993-03-31 1994-12-27 Panasonic Technologies, Inc. Neural network video image processor
SE502679C2 (sv) 1993-05-28 1995-12-04 Saab Scania Combitech Ab Förfarande och anordning för registrering av ett fordons förflyttning på ett underlag
JPH0775633A (ja) 1993-06-30 1995-03-20 Shimadzu Corp 画像処理装置
IL119767A (en) 1993-08-13 1998-02-08 Sophis View Tech Ltd System and method for diagnosis of living tissue diseases
US5687249A (en) 1993-09-06 1997-11-11 Nippon Telephone And Telegraph Method and apparatus for extracting features of moving objects
US5450502A (en) 1993-10-07 1995-09-12 Xerox Corporation Image-dependent luminance enhancement
BE1007608A3 (nl) 1993-10-08 1995-08-22 Philips Electronics Nv Beeldsignaalverbeteringsschakeling.
US5604822A (en) 1993-11-12 1997-02-18 Martin Marietta Corporation Methods and apparatus for centroid based object segmentation in object recognition-type image processing system
US5875264A (en) 1993-12-03 1999-02-23 Kaman Sciences Corporation Pixel hashing image recognition system
US5434927A (en) 1993-12-08 1995-07-18 Minnesota Mining And Manufacturing Company Method and apparatus for machine vision classification and tracking
BR9408257A (pt) 1993-12-08 1996-12-10 Minnesota Mining & Mfg Método para produzir uma imagem de segundo plano método para subtrair o segundo plano dos dados de imagem e sistema de visão de máquina para produzir uma imagem de segundo plano
CA2134255C (en) 1993-12-09 1999-07-13 Hans Peter Graf Dropped-form document image compression
JP3721206B2 (ja) 1993-12-24 2005-11-30 富士写真フイルム株式会社 画像再現装置
US5420971A (en) 1994-01-07 1995-05-30 Panasonic Technologies, Inc. Image edge finder which operates over multiple picture element ranges
US5581625A (en) 1994-01-31 1996-12-03 International Business Machines Corporation Stereo vision system for counting items in a queue
US5551533A (en) 1994-04-01 1996-09-03 Otis Elevator Company Audio direction and information for elevator passengers
US5621868A (en) 1994-04-15 1997-04-15 Sony Corporation Generating imitation custom artwork by simulating brush strokes and enhancing edges
US5640468A (en) 1994-04-28 1997-06-17 Hsu; Shin-Yi Method for identifying objects and features in an image
US5581632A (en) 1994-05-02 1996-12-03 Cognex Corporation Method and apparatus for ball bond inspection system
WO1995030966A1 (en) 1994-05-05 1995-11-16 Grumman Aerospace Corporation Method and apparatus for locating and identifying an object of interest in a complex image
KR100228618B1 (ko) 1994-05-31 1999-11-01 아끼구사 나오유끼 연결영역의 추출장치 및 방법
US5682438A (en) 1994-06-21 1997-10-28 Nippon Steel Corporation Method and apparatus for determining a motion vector
US5774569A (en) 1994-07-25 1998-06-30 Waldenmaier; H. Eugene W. Surveillance system
JPH0835818A (ja) 1994-07-25 1996-02-06 Omron Corp 画像処理装置および方法
DE69531743D1 (de) 1994-11-25 2003-10-16 Sophisview Technologies Ltd System und verfahren zur diagnose von krankheiten an lebendem gewebe
US5625709A (en) 1994-12-23 1997-04-29 International Remote Imaging Systems, Inc. Method and apparatus for identifying characteristics of an object in a field of view
WO1996022588A1 (en) 1995-01-17 1996-07-25 David Sarnoff Research Center, Inc. Method and apparatus for detecting object movement within an image sequence
GB2297450B (en) 1995-01-18 1999-03-10 Sony Uk Ltd Video processing method and apparatus
JP3151372B2 (ja) 1995-04-19 2001-04-03 インターナショナル・ビジネス・マシーンズ・コーポレ−ション 移動物体速度検出装置及び方法
US5809162A (en) 1995-12-22 1998-09-15 Lucent Technologies Inc. Surface analysis system and method
US5838299A (en) 1995-05-03 1998-11-17 Apple Computer, Inc. RGB/YUV video convolution system
US5727080A (en) 1995-05-03 1998-03-10 Nec Research Institute, Inc. Dynamic histogram warping of image histograms for constant image brightness, histogram matching and histogram specification
US6088468A (en) 1995-05-17 2000-07-11 Hitachi Denshi Kabushiki Kaisha Method and apparatus for sensing object located within visual field of imaging device
FR2734911B1 (fr) 1995-06-01 1997-08-01 Aerospatiale Procede et dispositif pour detecter le mouvement d'une cible et leurs applications
US5946404A (en) 1995-06-01 1999-08-31 Silent Witness Enterprises Ltd. Audio/video surveillance and recording system
US5581370A (en) 1995-06-05 1996-12-03 Xerox Corporation Image-dependent automatic area of interest enhancement
US5857029A (en) 1995-06-05 1999-01-05 United Parcel Service Of America, Inc. Method and apparatus for non-contact signature imaging
JP3501252B2 (ja) 1995-06-16 2004-03-02 三菱電機株式会社 階調補正装置
US5999660A (en) 1995-07-26 1999-12-07 California Institute Of Technology Imaging system for correction of perceptual distortion in wide angle images
JP3003561B2 (ja) 1995-09-25 2000-01-31 松下電器産業株式会社 階調変換方法及びその回路と画像表示方法及びその装置と画像信号変換装置
US5892917A (en) 1995-09-27 1999-04-06 Microsoft Corporation System for log record and log expansion with inserted log records representing object request for specified object corresponding to cached object copies
US5675624A (en) 1995-12-14 1997-10-07 General Electric Company Adaptive x-ray brightness and display control for a medical imaging system
US5845007A (en) 1996-01-02 1998-12-01 Cognex Corporation Machine vision method and apparatus for edge-based image histogram analysis
US5809171A (en) 1996-01-05 1998-09-15 Mcdonnell Douglas Corporation Image processing method and apparatus for correlating a test image with a template
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
US5978502A (en) 1996-04-01 1999-11-02 Cognex Corporation Machine vision methods for determining characteristics of three-dimensional objects
DE19613342A1 (de) 1996-04-03 1997-10-09 Philips Patentverwaltung Automatisches Bildauswertungsverfahren
EP0801360B1 (en) 1996-04-10 2002-11-06 Samsung Electronics Co., Ltd. Image quality enhancing method using mean-matching histogram equalization and a circuit therefor
JP3509448B2 (ja) 1996-04-12 2004-03-22 ソニー株式会社 ビデオカメラ装置、映像信号処理装置、カラー映像信号のレベル圧縮方法および階調変換方法
US6020931A (en) 1996-04-25 2000-02-01 George S. Sheng Video composition and position system and media signal communication system
US5802208A (en) 1996-05-06 1998-09-01 Lucent Technologies Inc. Face recognition using DCT-based feature vectors
KR100207426B1 (ko) 1996-05-08 1999-07-15 전주범 무늬의 크기와 방향성을 이용한 텍스쳐 분류 장치
US5872857A (en) 1996-05-22 1999-02-16 Raytheon Company Generalized biased centroid edge locator
US5835638A (en) 1996-05-30 1998-11-10 Xerox Corporation Method and apparatus for comparing symbols extracted from binary images of text using topology preserved dilated representations of the symbols
US5799100A (en) 1996-06-03 1998-08-25 University Of South Florida Computer-assisted method and apparatus for analysis of x-ray images using wavelet transforms
KR100189922B1 (ko) 1996-06-20 1999-06-01 윤종용 히스토그램 등화를 이용한 동영상의 콘트라스트개선회로 및 그 방법
KR980003999A (ko) 1996-06-27 1998-03-30 김광호 Cdf 연산영역에 근거한 히스토그램 등화회로 및 그 방법
US5832139A (en) 1996-07-31 1998-11-03 Omniplanar, Inc. Method and apparatus for determining degrees of freedom of a camera
JP3602659B2 (ja) 1996-08-05 2004-12-15 株式会社リコー 濃淡値文書画像からの特徴抽出方法及び特徴抽出装置
JP3280888B2 (ja) 1996-08-19 2002-05-13 三星電子株式会社 量子化された平均−マッチングヒストグラム等化を用いた画質改善方法及びその回路
US6154560A (en) 1996-08-30 2000-11-28 The Cleveland Clinic Foundation System and method for staging regional lymph nodes using quantitative analysis of endoscopic ultrasound images
US5835618A (en) 1996-09-27 1998-11-10 Siemens Corporate Research, Inc. Uniform and non-uniform dynamic range remapping for optimum image display
US6137893A (en) 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
US5822453A (en) 1996-12-10 1998-10-13 Eastman Kodak Company Method for estimating and adjusting digital image contrast
JPH10177589A (ja) 1996-12-18 1998-06-30 Mitsubishi Electric Corp パターン比較検証装置、パターン比較検証方法およびパターン比較検証プログラムを記録した媒体
US5963276A (en) 1997-01-09 1999-10-05 Smartlight Ltd. Back projection transparency viewer with overlapping pixels
FI104521B (fi) 1997-01-30 2000-02-15 Nokia Multimedia Network Termi Menetelmä kuvasekvenssien kontrastin parantamiseksi
JP3506200B2 (ja) 1997-02-05 2004-03-15 シャープ株式会社 位置合わせ装置
KR100213094B1 (ko) 1997-02-21 1999-08-02 윤종용 영상 개선장치를 위한 히스토그램 및 cdf 추출방법 및 그 회로
KR100261214B1 (ko) 1997-02-27 2000-07-01 윤종용 영상처리 시스템의 콘트라스트 확장장치에서 히스토그램 등화방법 및 장치
US6373533B1 (en) 1997-03-06 2002-04-16 Matsushita Electric Industrial Co., Ltd. Image quality correction circuit for video signals
JP2951910B2 (ja) 1997-03-18 1999-09-20 松下電器産業株式会社 撮像装置の階調補正装置及び階調補正方法
US5974169A (en) 1997-03-20 1999-10-26 Cognex Corporation Machine vision methods for determining characteristics of an object using boundary points and bounding regions
US5982424A (en) 1997-04-23 1999-11-09 Scientific-Atlanta, Inc. CCD camera with adaptive compression control mechanism
US5859698A (en) 1997-05-07 1999-01-12 Nikon Corporation Method and apparatus for macro defect detection using scattered light
US5949918A (en) 1997-05-21 1999-09-07 Sarnoff Corporation Method and apparatus for performing image enhancement
US6101294A (en) 1997-06-02 2000-08-08 Sarnoff Corporation Extended dynamic imaging system and method
JP3237582B2 (ja) 1997-08-28 2001-12-10 富士ゼロックス株式会社 画像処理装置及び画像処理方法
US6002782A (en) 1997-11-12 1999-12-14 Unisys Corporation System and method for recognizing a 3-D object by generating a 2-D image of the object from a transformed 3-D model
US6157373A (en) 1997-11-14 2000-12-05 Trex Medical Corporation Method and apparatus for displaying images
US6075871A (en) 1998-02-11 2000-06-13 Analogic Corporation Apparatus and method for eroding objects in computed tomography data
US6067366A (en) 1998-02-11 2000-05-23 Analogic Corporation Apparatus and method for detecting objects in computed tomography data using erosion and dilation of objects
US6111974A (en) 1998-02-11 2000-08-29 Analogic Corporation Apparatus and method for detecting sheet objects in computed tomography data
US6104763A (en) 1998-02-20 2000-08-15 Samsung Electronics Co., Ltd. Synchrodyning of VSB and QAM final I-F signals supplied by separate converters in a QAM/VSB digital TV receiver
US6415049B1 (en) 1998-04-20 2002-07-02 Konica Corporation Apparatus for detecting and processing a radiation image
US6002525A (en) 1998-07-06 1999-12-14 Intel Corporation Correcting lens distortion
US6421097B1 (en) 1998-07-31 2002-07-16 Intel Corporation Method and apparatus for reducing flicker in a video image sequence
US6134339A (en) 1998-09-17 2000-10-17 Eastman Kodak Company Method and apparatus for determining the position of eyes and for correcting eye-defects in a captured frame
US6392764B1 (en) 1998-11-12 2002-05-21 Xerox Corporation Systems and methods for adaptively filtering palettized images
US6118892A (en) 1998-11-19 2000-09-12 Direct Radiography Corp. Method for automatic detection of region of interest for digital x-ray detectors using a filtered histogram
US6255650B1 (en) 1998-12-11 2001-07-03 Flir Systems, Inc. Extreme temperature radiometry and imaging apparatus
US6393148B1 (en) 1999-05-13 2002-05-21 Hewlett-Packard Company Contrast enhancement of an image using luminance and RGB statistical metrics

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101138222B1 (ko) 2010-05-11 2012-04-24 재단법인 포항지능로봇연구소 전방향 거울 및 차영상 적분 알고리즘을 이용한 구조광 기반 전방향 거리측정 장치 및 방법
KR20180005480A (ko) * 2016-07-06 2018-01-16 삼성전자주식회사 전자 장치 및 이의 디스플레이 방법
KR102588518B1 (ko) * 2016-07-06 2023-10-13 삼성전자주식회사 전자 장치 및 이의 디스플레이 방법

Also Published As

Publication number Publication date
WO2002019698A2 (en) 2002-03-07
CN1606758A (zh) 2005-04-13
US7522745B2 (en) 2009-04-21
WO2002019698A9 (en) 2003-03-27
WO2002019698A8 (en) 2003-09-12
AU2001290608A1 (en) 2002-03-13
MXPA03001804A (es) 2004-05-21
EP1360833A1 (en) 2003-11-12
CA2421111A1 (en) 2002-03-07
US20050074140A1 (en) 2005-04-07

Similar Documents

Publication Publication Date Title
JP2004510363A (ja) センサおよびイメージングシステム
US11080559B2 (en) Product onboarding machine
US6999600B2 (en) Video scene background maintenance using change detection and classification
US20070058717A1 (en) Enhanced processing for scanning video
CN102891960B (zh) 用于确定图像调整参数的方法和相机
US20100202663A1 (en) System and method for adaptively defining a region of interest for motion analysis in digital video
WO2008009656A1 (en) Image processing for change detection
CN101393603A (zh) 一种识别和检测隧道火灾火焰的方法
KR20180086048A (ko) 카메라 및 카메라의 영상 처리 방법
JP2006039689A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびそのプログラムを記録した記録媒体
CN109151348A (zh) 一种图像传感器、图像处理方法及电子设备
CN110728700B (zh) 一种运动目标追踪方法、装置、计算机设备及存储介质
CN106331444B (zh) 监控摄像机
US10726249B2 (en) Method and electronic apparatus for wave detection
Tsesmelis et al. Tamper detection for active surveillance systems
JP4559043B2 (ja) 画像モニタリング装置
Mahajan et al. 3D Object 360-Degree Motion Detection Using Ultra-Frequency PIR Sensor
KR102411612B1 (ko) 다수의 카메라를 이용한 열화상 감시 시스템
KR101496407B1 (ko) 보안용 cctv 영상 처리 장치 및 영상 처리 방법
Thotakura et al. Labview for Motion Detection using Webcam
CA3112321C (en) Product onboarding machine
Rambabu et al. Fast and accurate extraction of moving object silhouette for personalized Virtual Reality Studio@ Home
KR101855090B1 (ko) 카메라 영상분석을 통한 조명등 자동 점등 제어방법
CN118612540A (zh) 摄像机、摄像机除热浪方法和装置
Sonara et al. Moving object detection for video surveillance

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081104